Riepilogo degli sviluppatori di Google I/O: cosa c'è di nuovo?
Pubblicato: 2022-03-10Il keynote di Google I/O si è aperto con un'animazione che ci chiedeva di "Fare cose buone insieme" e in questo articolo riassumerò alcune delle cose annunciate nel Keynote e nel Keynote dello sviluppatore, che interessano a Smashing lettori. Gli annunci del keynote sono stati supportati da sessioni durante l'evento, che sono state registrate. Per aiutarti a utilizzare le cose annunciate, mi collegherò ai video di quelle sessioni più qualsiasi materiale di supporto che sono stato in grado di trovare.
Mi piacerebbe sapere su quale di questi annunci vorresti saperne di più - per favore lascia un commento qui sotto. Inoltre, se sei un autore con esperienza da condividere su qualcuno di questi, perché non scriverci una linea con uno schema?
Le note chiave
Gli annunci principali sono stati tutti trattati nelle presentazioni principali. Se vuoi guardare tutti i keynote, puoi trovarli su YouTube insieme ad alcune versioni ridotte:
- Il keynote principale guidato dal CEO Sundar Pichai (ecco una versione condensata di dieci minuti dei punti più importanti),
- The Developer Keynote guidato da Jason Titus (ecco una versione di cinque minuti dei punti importanti trattati nel Developer Keynote).
Google I/O e il Web
Ho frequentato Google I/O come Web GDE (Google Developer Expert) e l'I/O in genere ha molti contenuti che interessano maggiormente gli sviluppatori Android. Detto questo, ci sono stati molti annunci e sessioni utili per me.
La sessione Web State of the Union ha riguardato annunci e informazioni su Lighthouse, PWA, Polymer 3.0, Web Assembly e AMP. Oltre al video, puoi trovare un resoconto di questa sessione sul Blog di Chromium.
Le novità di Chrome DevTools hanno coperto tutte le nuove funzionalità disponibili o in arrivo in DevTools.
Le app Web progressive sono state una grande storia durante l'evento e, se devi ancora creare la tua prima PWA, la presentazione del PWA Starter Kit può aiutarti a iniziare a utilizzare Polymer. Per approfondire Polymer, puoi continuare con Web Components e Polymer Project: Polymer 3.0 e oltre. Il sito Polymer è ora aggiornato con la documentazione per Polymer 3.0.
Angular non è stato escluso, guarda la sessione Novità in Angular per tutti i dettagli.
Headless Chrome è un argomento che mi ha interessato ultimamente, poiché sono sempre alla ricerca di modi interessanti per automatizzare le attività. Nella sessione The Power of Headless Chrome e Browser Automation, puoi scoprire come utilizzare Headless Chrome e Puppeteer. Se ti stai chiedendo che tipo di cose potresti ottenere, ci sono alcuni esempi di cose che potresti voler fare su GitHub.
Inoltre, dai un'occhiata a:
- "Costruire una rete senza soluzione di continuità" di Dru Knox
- "Web Performance Made Easy" di Addy Osmani e Ewa Gasperowicz
- "Rendi il tuo sito WordPress progressivo" di Alberto Medina
- "Il futuro del Web è coinvolgente" di Brandon Jones
- "Costruisci il futuro del Web con JavaScript moderno" di Mathias Bynens e Sathya Gunasekaran
- "Costruisci il futuro del Web con Web Assembly e altro" di Thomas Nattestad
Notizie per sviluppatori Android
Non sono uno sviluppatore Android, ma ero circondato da persone che lo sono. Ho cercato di individuare alcune delle cose che sembravano più eccitanti per la folla. La sessione "Novità di Android" è un ottimo posto dove andare per scoprire tutti gli annunci chiave. Il primo dei quali è il fatto che Android P Beta è ora disponibile e molte delle funzionalità annunciate saranno disponibili come parte di quella beta. Puoi verificare se il tuo dispositivo è supportato dalla versione beta qui.
Android Jetpack è un insieme di librerie, strumenti e linee guida architettoniche che aiutano a creare in modo semplice e veloce fantastiche app Android. Gli IDE sono integrati con Android Studio e questo sembra essere un tentativo di semplificare l'esperienza degli sviluppatori di attività comuni. Puoi trovare maggiori informazioni su Android Jetpack nel video della sessione su Novità nella libreria di supporto Android.
La possibilità di creare azioni nelle app è ora in versione beta e consente agli sviluppatori di creare interazioni che vanno dalla voce ai display, che si tratti dell'orologio, del telefono o dei nuovi schermi intelligenti che verranno introdotti entro la fine dell'anno.
Le fette sono uno snippet interattivo dell'interfaccia utente di un'app, introdotto in Android P. Per saperne di più, dai un'occhiata a questa sessione di I/O da cui puoi imparare come creare una sezione e farla apparire come suggerimenti nei risultati di ricerca.
- Guarda la sessione Design Actions per Google Assistant Beyond Smart Speakers di Sada Zaidi,
- Esplora il sito web di Design Conversazionale,
- Leggi di più su Azioni,
- Aggiungi ai preferiti la playlist delle azioni di Google Developers su YouTube.
Dopo aver esaminato alcuni annunci specifici per il Web e Android, darò ora un'occhiata ad alcuni dei temi più importanti trattati all'evento e al modo in cui potrebbero funzionare per gli sviluppatori.
Intelligenza artificiale, realtà aumentata e apprendimento automatico
Come previsto, il keynote principale così come il keynote dello sviluppatore avevano entrambi un forte tema AI, AR e ML. Questo tema fa parte di molti prodotti e annunci Google. Google sta sfruttando l'enorme quantità di dati che ha raccolto per creare alcuni prodotti e servizi incredibili, molti dei quali portano con sé nuove preoccupazioni sulla privacy e sul consenso man mano che il mondo digitale e quello reale si fondono più strettamente.
Google Foto sta ottenendo nuove funzionalità di intelligenza artificiale che ti aiuteranno a migliorare le tue fotografie, fornendo suggerimenti su come correggere la luminosità o offrire rotazioni suggerite.
Una nuova versione di Google News utilizzerà l'intelligenza artificiale per presentare agli utenti una gamma di copertura sulle notizie a cui sono interessati.
Una delle demo che ha ottenuto un grande applauso è stata quando è stato dimostrato che Google Lens veniva puntato su una sezione di testo in un libro e quel testo poteva essere quindi copiato e incollato nel telefono.
"E se potessi copiare e incollare roba da una cosa del mondo reale nel tuo telefono?"
— Autorità Android (@AndroidAuth) 8 maggio 2018
Non siamo mai stati così entusiasti del copia e incolla prima. #io18 #googlelens pic.twitter.com/BjOYS3gfUi
Se sei interessato a utilizzare l'IA, ti potrebbe piacere guardare la sessione AIY: Do It Yourself Artificial Intelligence. Anche,
- Lead designer di Google su "Design, Machine Learning e creatività"
- "Portare le innovazioni dell'IA e dell'apprendimento automatico nel settore sanitario" di Lily Peng e Jessica Mega,
- "Exploring AR Interaction" di Chris Kelley, Elly Nattinger e Luca Prasso
- "App AR: crea, ripeti e avvia" di Tim Psiaki e Tom Salter
Mappe
Quando viaggio, conosco lo scenario fin troppo comune di uscire da una stazione ferroviaria con le mappe aperte e non avere idea di quale direzione sto affrontando e quale strada è quale. Google spera di risolvere questo problema con la realtà aumentata, portando sullo schermo fotografie e indicazioni stradali per aiutarti a sapere in quale direzione iniziare a camminare.
Google Maps sta anche prendendo più di una fetta dell'area per cui potremmo già utilizzare FourSquare o Yelp, portando più consigli basati su luoghi che abbiamo già visitato o recensito. Inoltre, una caratteristica che posso vedere utilizzare quando provo a pianificare cene post-conferenza, la possibilità di creare una rosa di posti e condividerla con un gruppo per selezionare dove andare. Android Central ha un post eccellente su tutte le nuove funzionalità delle mappe se vuoi saperne di più. Queste funzionalità saranno disponibili nelle versioni Android e iOS dell'app Google Maps.
Per gli sviluppatori, una carrellata delle modifiche all'API di Maps è disponibile nella sessione Google Maps Platform: Ready For Scale.
Presentazione del kit ML
Mentre molti di noi troveranno utili le funzionalità basate su Machine Learning come consumatori delle app che le utilizzano, se desideri utilizzare il machine learning nelle tue app, Google sta cercando di semplificarti la cosa con ML Kit. ML Kit ti aiuta a portare la potenza del machine learning nelle tue app con le API di Google. Le cinque API pronte per l'uso sono:
- Riconoscimento del testo
- Riconoscimento facciale
- Scansione di codici a barre
- Etichettatura delle immagini
- Riconoscimento punto di riferimento
Altre due API saranno pronte nei prossimi mesi: un'API di risposta intelligente che ti consentirà di supportare le risposte di messaggistica contestuale nella tua app e un'aggiunta del contorno del viso ad alta densità all'API di rilevamento del viso.
Puoi leggere ulteriori informazioni su ML Kit in questo post di Google Developers Introducing ML Kit e nel video della sessione ML Kit: Machine Learning SDK For Mobile Developers.
Google Duplex
La demo più discussa del keynote è stata Google Duplex, con una demo dell'Assistente Google che ha una conversazione con un ristorante e un parrucchiere per effettuare una prenotazione e prenotare un appuntamento. La demo ha suscitato sussulti dalla folla poiché la conversazione era così naturale che la persona all'altro capo del telefono non si è accorta che non stava parlando con una persona.
Non ci è voluto molto perché le persone passassero da "*È fantastico!*" a "*È spaventoso!*" e ci sono ovvie preoccupazioni sull'etica di un robot che non dichiara di non essere una persona reale quando interagisce con qualcuno al telefono.
Le registrazioni che sono state riprodotte durante il keynote possono essere trovate nel post di Ethan Marcotte sulla funzione, in cui osserva che "il duplex è stato elegantemente, intenzionalmente progettato per ingannare". Jeremy Keith sottolinea saggiamente che le persone entusiaste di provare questa tecnologia non si stanno immaginando come la persona alla fine del telefono.
Oltre a Duplex, c'erano una serie di annunci sull'Assistente Google, inclusa la possibilità di continuare la conversazione , una conversazione avanti e indietro che non richiedeva di dire "Ehi, Google" all'inizio di ogni frase.
Accessibilità
Da laico, non posso fare a meno di pensare che molte delle cose su cui Google sta lavorando potrebbero avere implicazioni estremamente positive in termini di accessibilità. Anche il controverso Duplex potrebbe consentire a chi non può avere una chiamata vocale di trattare più facilmente con aziende contattabili solo telefonicamente. Un'area in cui la tecnologia Google avrà presto un impatto è con l'app Android Google Lookout che aiuterà gli utenti ipovedenti a capire cosa c'è intorno a loro, utilizzando la fotocamera del telefono e inviando notifiche vocali all'utente.
Ci sono state diverse sessioni che hanno portato un focus reale sull'accessibilità all'I/O, inclusa la possibilità per gli sviluppatori di avere una revisione dell'accessibilità della loro applicazione. Per gli sviluppatori web, il discorso di Rob Dodson Novità in Accessibilità copre le nuove funzionalità di DevTools per aiutarci a creare siti più accessibili, oltre all'Accessibility Object Model che offre un maggiore controllo sull'accessibilità dei siti. Per gli sviluppatori Android Novità di Android Accessibilità in dettaglio le funzionalità che faranno parte di Android P. Con particolare attenzione a AR e VR, c'è stata anche una sessione su ciò a cui dobbiamo pensare in quest'area emergente della tecnologia: Accessibilità per AR e VR.
Le app Linux stanno arrivando su Chrome OS
Un annuncio interessante è stato il fatto che le app Linux saranno installabili su Chrome OS, rendendo un ChromeBook una scelta molto più interessante come sviluppatore. Secondo VentureBeat, Google utilizza Debian Stretch, quindi sarai in grado di eseguire apt e installare qualsiasi software per il quale è disponibile un pacchetto Debian. Ciò includerebbe cose come Git, VS Code e Android Studio.
Progettazione materiale
Il sito material.io è stato aggiornato per la nuova versione di Material Design; il grande annuncio per questo è Theming, che consentirà agli sviluppatori che utilizzano Material di creare i propri temi rendendo le loro app un po' meno simili a una proprietà di Google. La galleria consentirà quindi ai team di condividere e collaborare ai loro progetti.
È stato anche annunciato il Material Theme Editor, un plug-in per Sketch, che lo rende solo per Mac. Il sito web dice che è "attualmente disponibile per Sketch", quindi forse altre versioni appariranno a tempo debito.
Puoi trovare un resoconto su come creare un tema materiale sul sito Web material.io. Il sito design.google è anche una destinazione utile per il materiale e altri temi di design di Google. Dalle sessioni, puoi guardare:
- "Personalizza i componenti dei materiali per il tuo prodotto" di Richard Fulcher, Rachel Been e Josh Estelle
- "Code Beautiful UI With Flutter And Material Design" di Mary Via e Will Larche
- "Costruisci ottimi prodotti di design dei materiali su più piattaforme" di Jonathan Chung, Nick Butcher e Will Larche
Benessere digitale
Al keynote è stato annunciato il nuovo sito Google Digital Wellbeing, insieme a una suite di funzionalità in Android P e anche su YouTube volte ad aiutare le persone a disconnettersi dai propri dispositivi e ridurre lo stress causato da cose come avvisi e notifiche. Puoi esplorare tutte le funzionalità su wellbeing.google/. La maggior parte di questi richiederà Android P, attualmente in Beta, tuttavia, le funzionalità di YouTube faranno parte dell'app Youtube e quindi disponibili per tutti.
Come sviluppatore, è interessante pensare a come possiamo implementare funzionalità simili nelle nostre applicazioni, sia per applicazioni web che mobili. Cose come la combinazione delle notifiche in un avviso giornaliero, come sarà abilitato su Youtube, potrebbero aiutare a evitare che gli utenti vengano sovraccaricati dagli avvisi da parte tua e in grado di interagire correttamente con loro a un'ora programmata. È diventato sempre più facile chiedere costantemente ai nostri utenti di guardarci, forse dovremmo invece provare a lavorare con i nostri utenti per essere disponibili quando hanno bisogno di noi e nasconderci tranquillamente quando stanno facendo qualcos'altro.
Per ulteriori informazioni sulla creazione di un ecosistema tecnologico più umano, visitare il sito Web del Center For Humane Technology.
Raccolta di notizie
Ogni sito di notizie ha pubblicato le proprie recensioni di I/O, quindi concluderò con alcune delle migliori notizie che ho visto. Come partecipante all'evento, ho sentito che è stato gestito in modo intelligente, molto divertente, ma è stato molto chiaro che Google ha messaggi ben preparati e chiari che desidera inviare alle comunità di sviluppatori che creano app e contenuti. Ogni annuncio chiave nei keynote principali è stato seguito da sessioni di immersione nei dettagli pratici di come utilizzare quella tecnologia nello sviluppo. C'è stato così tanto annunciato e dimostrato che è impossibile coprire tutto in questo post - o addirittura averlo sperimentato tutto all'evento. So che ci sono diversi video nella playlist di I/O che guarderò dopo essere tornato a casa.
- TechCrunch ha un'eccellente carrellata, con singoli articoli su molti dei grandi annunci,
- C'è anche una copertura dell'evento da CNET,
- The Verge ha un flusso di storie dei loro contenuti che riportano sugli annunci.
Se eri all'I/O o seguivi il live streaming, quali annunci sono stati più interessanti per te? Puoi usare i commenti per condividere le cose che non ho trattato e che sarebbero stati i momenti salienti dei tre giorni.