Google I/O Developer Roundup: Was ist neu?
Veröffentlicht: 2022-03-10Die Google I/O-Keynote begann mit einer Animation, die uns aufforderte, „gemeinsam Gutes zu tun“, und in diesem Artikel werde ich einige der Dinge zusammenfassen, die in der Keynote und der Developer Keynote angekündigt wurden und die für Smashing von Interesse sind Leser. Die Ankündigungen in der Keynote wurden durch Sitzungen während der Veranstaltung unterstützt, die aufgezeichnet wurden. Um Ihnen zu helfen, die angekündigten Dinge zu nutzen, werde ich Links zu den Videos dieser Sitzungen sowie zu unterstützendem Material, das ich finden konnte, verlinken.
Ich würde gerne wissen, über welche dieser Ankündigungen Sie mehr erfahren möchten – bitte hinterlassen Sie unten einen Kommentar. Wenn Sie ein Autor mit Erfahrung sind, die Sie über eines dieser Themen teilen können, warum schreiben Sie uns dann nicht eine Nachricht mit einer Gliederung?
Die Keynotes
Die wichtigsten Ankündigungen wurden alle in den Keynote-Präsentationen behandelt. Wenn Sie sich alle Keynotes ansehen möchten, finden Sie sie zusammen mit einigen komprimierten Versionen auf YouTube:
- Die Haupt-Keynote unter der Leitung von CEO Sundar Pichai (hier ist eine komprimierte zehnminütige Version der wichtigsten Punkte),
- Die Developer Keynote unter der Leitung von Jason Titus (hier ist eine fünfminütige Version der wichtigen Punkte, die in der Developer Keynote behandelt werden).
Google I/O und das Web
Ich habe als Web GDE (Google Developer Expert) an der Google I/O teilgenommen, und die I/O hat in der Regel viele Inhalte, die eher für Android-Entwickler interessant sind. Trotzdem gab es viele Ankündigungen und nützliche Sitzungen für mich.

Die Web State of the Union-Sitzung behandelte Ankündigungen und Informationen zu Lighthouse, PWAs, Polymer 3.0, Web Assembly und AMP. Zusätzlich zum Video finden Sie im Chromium-Blog eine Zusammenfassung dieser Sitzung.
Was ist neu in Chrome DevTools? Behandelt alle neuen Features, die verfügbar sind oder in Kürze in DevTools verfügbar sind.
Progressive Web Apps waren während der gesamten Veranstaltung eine große Geschichte, und wenn Sie Ihre erste PWA noch nicht erstellt haben, kann Ihnen die PWA-Starterkit-Präsentation beim Einstieg in die Verwendung von Polymer helfen. Um sich eingehender mit Polymer zu befassen, können Sie mit Webkomponenten und dem Polymer-Projekt: Polymer 3.0 und darüber hinaus fortfahren. Die Polymer-Site ist jetzt mit der Dokumentation für Polymer 3.0 aktualisiert.
Angular wurde nicht ausgelassen, sehen Sie sich die What's New in Angular-Sitzung an, um alle Details zu erfahren.
Headless Chrome ist ein Thema, das mich in letzter Zeit interessiert hat, da ich immer nach interessanten Möglichkeiten suche, Aufgaben zu automatisieren. In der Session The Power of Headless Chrome and Browser Automation erfahren Sie mehr über die Verwendung von Headless Chrome und Puppeteer. Wenn Sie sich fragen, was Sie erreichen könnten, finden Sie auf GitHub einige Beispiele für Dinge, die Sie gerne tun könnten.
Werfen Sie auch einen Blick auf:
- „Aufbau eines nahtlosen Webs“ von Dru Knox
- „Web-Performance leicht gemacht“ von Addy Osmani und Ewa Gasperowicz
- „Machen Sie Ihre WordPress-Site progressiv“ von Alberto Medina
- „Die Zukunft des Webs ist immersiv“ von Brandon Jones
- „Die Zukunft des Webs mit modernem JavaScript gestalten“ von Mathias Bynens und Sathya Gunasekaran
- „Bauen Sie die Zukunft des Webs mit Webassembly und mehr auf“ von Thomas Nattestad
Neuigkeiten für Android-Entwickler
Ich bin kein Android-Entwickler, aber ich war von Leuten umgeben, die es sind. Ich habe versucht, einige der Dinge herauszupicken, die der Menge am aufregendsten erschienen. Die Session „What's New In Android“ ist ein großartiger Ort, um alle wichtigen Ankündigungen zu erfahren. Die erste davon ist die Tatsache, dass Android P Beta jetzt verfügbar ist und viele der angekündigten Funktionen als Teil dieser Beta verfügbar sein werden. Hier können Sie überprüfen, ob Ihr Gerät von der Beta unterstützt wird.
Android Jetpack ist eine Reihe von Bibliotheken, Tools und Architekturanleitungen, mit denen Sie schnell und einfach großartige Android-Apps erstellen können. Die IDEs sind in Android Studio integriert, und dies scheint ein Versuch zu sein, die Entwicklererfahrung bei häufigen Aufgaben zu optimieren. Weitere Informationen zu Android Jetpack finden Sie im Sitzungsvideo zu Neuerungen in der Android-Supportbibliothek.
Die Möglichkeit, Aktionen in Apps zu erstellen, befindet sich jetzt in der Beta-Phase und ermöglicht es Entwicklern, Interaktionen zu erstellen, die von Sprache zu Displays reichen – sei es Ihre Uhr, Ihr Telefon oder die neuen Smart Screens, die später in diesem Jahr eingeführt werden.
Slices sind ein interaktives Snippet einer App-Benutzeroberfläche, die in Android P eingeführt wurde. Um mehr zu erfahren, werfen Sie einen Blick auf diese E/A-Sitzung, in der Sie erfahren, wie Sie ein Slice erstellen und es als Vorschläge in den Suchergebnissen anzeigen lassen.
- Sehen Sie sich die Session Design Actions for the Google Assistant Beyond Smart Speakers von Sada Zaidi an,
- Erkunden Sie die Conversational Design-Website,
- Lesen Sie mehr über Aktionen,
- Setzen Sie ein Lesezeichen für die Actions-Playlist von Google Developers auf YouTube.
Nachdem ich mir einige spezifische Ankündigungen für das Web und Android angesehen habe, werfe ich nun einen Blick auf einige der größeren Themen, die auf der Veranstaltung behandelt werden, und wie sich diese für Entwickler auswirken könnten.

Künstliche Intelligenz, erweiterte Realität und maschinelles Lernen
Wie erwartet hatten sowohl die Haupt-Keynote als auch die Entwickler-Keynote beide ein starkes KI-, AR- und ML-Thema. Dieses Design ist Teil vieler Google-Produkte und -Ankündigungen. Google nutzt die riesige Datenmenge, die sie gesammelt haben, um einige unglaubliche Produkte und Dienste zu entwickeln, von denen viele neue Bedenken in Bezug auf Datenschutz und Zustimmung mit sich bringen, da die digitale und die reale Welt immer enger zusammenwachsen.
Google Fotos erhält neue KI-Funktionen, die Ihnen helfen, Ihre Fotos zu verbessern, indem sie Vorschläge machen, wie Sie die Helligkeit korrigieren oder Rotationsvorschläge machen können.
Eine neue Version von Google News wird KI verwenden, um den Nutzern eine Reihe von Berichterstattungen zu Geschichten zu präsentieren, an denen sie interessiert sind.
Eine der Demos, die einen riesigen Applaus erzielte, war die Demonstration von Google Lens, bei der auf einen Textabschnitt in einem Buch gezeigt wurde, und dieser Text konnte dann kopiert und in das Telefon eingefügt werden.
"Was wäre, wenn Sie Sachen von einem Ding aus der realen Welt kopieren und in Ihr Telefon einfügen könnten?"
— Android Authority (@AndroidAuth) 8. Mai 2018
Wir waren noch nie zuvor so begeistert von Kopieren und Einfügen. #io18 #googlelens pic.twitter.com/BjOYS3gfUi
Wenn Sie an der Verwendung von KI interessiert sind, können Sie sich die Sitzung AIY: Do It Yourself Artificial Intelligence ansehen. Ebenfalls,
- Leitende Designer bei Google zum Thema „Design, maschinelles Lernen und Kreativität“
- „Bringing AI and Machine Learning Innovations to Healthcare“ von Lily Peng und Jessica Mega,
- „Exploring AR Interaction“ von Chris Kelley, Elly Nattinger und Luca Prasso
- „AR-Apps: Erstellen, iterieren und starten“ von Tim Psiaki und Tom Salter
Karten
Auf Reisen kenne ich das allzu häufige Szenario, wenn ich mit aufgeschlagenen Karten aus einem Bahnhof komme und keine Ahnung habe, in welche Richtung ich blicke und welche Straße welche ist. Google hofft, dieses Problem mit Augmented Reality zu lösen, indem es Straßenansichtsfotos und Wegbeschreibungen auf den Bildschirm bringt, damit Sie wissen, in welche Richtung Sie gehen müssen.

Google Maps nimmt auch einen größeren Teil des Bereichs ein, für den wir FourSquare oder Yelp möglicherweise bereits verwenden, und bringt mehr Empfehlungen basierend auf Orten, die wir bereits besucht oder bewertet haben. Darüber hinaus ist eine Funktion, die ich selbst verwenden kann, wenn ich versuche, Abendessen nach der Konferenz zu planen, die Möglichkeit, eine Auswahlliste von Orten zu erstellen und sie mit einer Gruppe zu teilen, um auszuwählen, wohin sie gehen sollen. Android Central hat einen hervorragenden Beitrag zu allen neuen Kartenfunktionen, wenn Sie mehr wissen möchten. Diese Funktionen sind in den Android- und iOS-Versionen der Google Maps-App verfügbar.
Für Entwickler findet sich eine Zusammenfassung der Änderungen an der Maps-API in der Session Google Maps Platform: Ready For Scale.
Einführung des ML-Kits
Während viele von uns die Funktionen, die durch maschinelles Lernen unterstützt werden, als Verbraucher der Apps, die sie verwenden, nützlich finden werden, versucht Google, Ihnen dies mit ML Kit zu erleichtern, wenn Sie maschinelles Lernen in Ihren Apps verwenden möchten. ML Kit hilft Ihnen, die Leistungsfähigkeit des maschinellen Lernens mit Google APIs in Ihre Apps zu bringen. Die fünf einsatzbereiten APIs sind:
- Texterkennung
- Gesichtserkennung
- Barcode-Scannen
- Bildbeschriftung
- Wahrzeichen Anerkennung
Zwei weitere APIs werden in den kommenden Monaten fertig sein: Eine intelligente Antwort-API, mit der Sie kontextbezogene Nachrichtenantworten in Ihrer App unterstützen können, und eine hochdichte Gesichtskontur-Ergänzung zur Gesichtserkennungs-API.
Weitere Informationen zu ML Kit finden Sie in diesem Google Developers-Beitrag Introducing ML Kit und im Sitzungsvideo ML Kit: Machine Learning SDK For Mobile Developers.
Google-Duplex
Die am meisten diskutierte Demo der Keynote war Google Duplex, mit einer Demo von Google Assistant, die ein Gespräch mit einem Restaurant und Friseur führte, um eine Reservierung vorzunehmen und einen Termin zu vereinbaren. Die Demo zog die Menge nach Luft, da das Gespräch so natürlich war, dass die Person am anderen Ende des Telefons nicht erkannte, dass sie nicht mit einer Person sprach.
Es dauerte nicht lange, bis die Leute von „*Das ist cool!*“ zu „*Das ist beängstigend!*“ übergegangen sind, und es gibt offensichtliche Bedenken hinsichtlich der Ethik eines Roboters, der nicht erklärt, dass er keine echte Person ist, wenn er sich mit jemandem beschäftigt am Telefon.
Die Aufnahmen, die während der Keynote abgespielt wurden, sind in Ethan Marcottes Post über das Feature zu finden, in dem er anmerkt, dass „Duplex elegant und absichtlich entworfen wurde, um zu täuschen“. Jeremy Keith weist weise darauf hin, dass die Leute, die diese Technologie ausprobieren möchten, sich nicht als die Person am Ende des Telefons vorstellen.
Zusätzlich zu Duplex gab es eine Reihe von Ankündigungen rund um Google Assistant, darunter die Möglichkeit, eine Konversation fortzusetzen , eine Hin- und Her-Konversation, bei der nicht am Anfang jedes Satzes „Hey, Google“ gesagt werden muss.
Barrierefreiheit
Als Laie komme ich nicht umhin zu denken, dass viele der Dinge, an denen Google arbeitet, sehr positive Auswirkungen auf die Barrierefreiheit haben könnten. Sogar das umstrittene Duplex könnte jemandem, der keinen Sprachanruf führen kann, ermöglichen, einfacher mit Unternehmen umzugehen, die nur telefonisch erreichbar sind. Ein Bereich, in dem Google-Technologie bald Auswirkungen haben wird, ist die Android-App Google Lookout, die sehbehinderten Benutzern helfen wird, zu verstehen, was sich um sie herum befindet, indem sie die Telefonkamera verwenden und dem Benutzer gesprochene Benachrichtigungen geben.
Auf der I/O gab es mehrere Sitzungen, die einen echten Schwerpunkt auf Barrierefreiheit legten, einschließlich der Möglichkeit für Entwickler, eine Überprüfung der Barrierefreiheit ihrer Anwendung vorzunehmen. Für Webentwickler behandelt Rob Dodsons Vortrag What's New In Accessibility neue Features von DevTools, die uns beim Erstellen barrierefreier Websites helfen, sowie das Accessibility Object Model, das mehr Kontrolle über die Barrierefreiheit von Websites bietet. Für Android-Entwickler „What’s New in Android Accessibility“ beschreibt die Funktionen, die Teil von Android P sein werden. Mit dem Fokus auf AR und VR gab es auch eine Sitzung darüber, woran wir in diesem aufstrebenden Technologiebereich denken müssen: „Barrierefreiheit für AR und“. VR.
Linux-Apps kommen zu Chrome OS
Eine interessante Ankündigung war die Tatsache, dass Linux-Apps auf Chrome OS installierbar sein werden, was ein ChromeBook für Entwickler zu einer weitaus interessanteren Wahl macht. Laut VentureBeat verwendet Google Debian Stretch, sodass Sie apt ausführen und jede Software installieren können, für die es ein Debian-Paket gibt. Dazu gehören Dinge wie Git, VS Code und Android Studio.
Material Design
Die Website material.io wurde für die neue Version von Material Design aktualisiert; Die große Ankündigung dafür ist Theming, mit dem Entwickler, die Material verwenden, ihre eigenen Themen erstellen können, wodurch ihre Apps etwas weniger wie eine Google-Eigentum aussehen. Gallery ermöglicht es den Teams dann, ihre Designs zu teilen und zusammenzuarbeiten.
Ebenfalls angekündigt wurde der Material Theme Editor, ein Plugin für Sketch, das nur für Mac verfügbar ist. Die Website sagt, dass es „derzeit für Sketch verfügbar“ ist, also werden vielleicht zu gegebener Zeit andere Versionen erscheinen.
Auf der Website material.io finden Sie eine Beschreibung, wie Sie ein Material-Design erstellen. Die Website design.google ist auch ein nützliches Ziel für Material und andere Designthemen von Google. Von den Sessions können Sie sehen:
- „Passen Sie Materialkomponenten für Ihr Produkt an“ von Richard Fulcher, Rachel Been und Josh Estelle
- „Code Beautiful UI With Flutter and Material Design“ von Mary Via und Will Larche
- „Bauen Sie plattformübergreifend großartige Materialdesign-Produkte“ von Jonathan Chung, Nick Butcher und Will Larche
Digitales Wohlbefinden
Auf der Keynote wurde die neue Google Digital Wellbeing-Website angekündigt, zusammen mit einer Reihe von Funktionen in Android P und auch auf YouTube, die darauf abzielen, Menschen dabei zu helfen, sich von ihren Geräten zu trennen und Stress zu reduzieren, der durch Dinge wie Warnungen und Benachrichtigungen verursacht wird. Sie können alle Funktionen unter wellbeing.google/ erkunden. Die meisten davon erfordern Android P, derzeit in der Beta-Phase, die YouTube-Funktionen werden jedoch Teil der Youtube-App sein und daher für alle verfügbar sein.
Als Entwickler ist es interessant, darüber nachzudenken, wie wir ähnliche Funktionen in unseren eigenen Anwendungen implementieren können, sei es für Web- oder mobile Anwendungen. Dinge wie das Kombinieren von Benachrichtigungen zu einer täglichen Benachrichtigung, wie sie auf YouTube aktiviert wird, könnten dazu beitragen, dass Benutzer nicht mit Benachrichtigungen von Ihnen überlastet werden und zu einem geplanten Zeitpunkt richtig mit ihnen interagieren können. Es ist einfacher und einfacher geworden, unsere Benutzer ständig zu bitten, uns anzusehen. Vielleicht sollten wir stattdessen versuchen, mit unseren Benutzern zusammenzuarbeiten, um verfügbar zu sein, wenn sie uns brauchen, und uns leise verstecken, wenn sie etwas anderes tun.
Weitere Informationen zum Aufbau eines humaneren Technologie-Ökosystems finden Sie auf der Website des Center For Humane Technology.
News-Zusammenfassung
Jede Nachrichtenseite hat ihre eigenen Rezensionen zu I/O veröffentlicht, also werde ich mit einigen der besten Berichterstattungen abschließen, die ich je gesehen habe. Als Teilnehmer der Veranstaltung hatte ich das Gefühl, dass sie geschickt gehandhabt wurde, viel Spaß machte, aber es war sehr klar, dass Google gut einstudierte und klare Botschaften hat, die sie an die Entwicklergemeinschaften senden möchten, die Apps und Inhalte erstellen. Auf jede wichtige Ankündigung in den Hauptvorträgen folgten Sessions, die sich mit den praktischen Details der Verwendung dieser Technologie in der Entwicklung befassten. Es wurde so viel angekündigt und demonstriert, dass es unmöglich ist, alles in diesem Beitrag zu behandeln – oder sogar alles auf der Veranstaltung erlebt zu haben. Ich weiß, dass es mehrere Videos auf der I/O-Playlist gibt, die ich mir nach der Rückkehr nach Hause ansehen werde.
- TechCrunch hat eine hervorragende Zusammenfassung mit einzelnen Artikeln zu vielen der großen Ankündigungen,
- Es gibt auch eine Berichterstattung über die Veranstaltung von CNET,
- The Vergine hat einen Story-Stream ihres Inhalts, der über die Ankündigungen berichtet.
Wenn Sie auf der I/O waren oder den Live-Stream verfolgt haben, welche Ankündigungen waren für Sie am interessantesten? Sie können die Kommentare verwenden, um die Dinge zu teilen, die ich nicht behandelt habe und die Ihre Höhepunkte der drei Tage wären.