Podsumowanie dla programistów Google I/O: co nowego?
Opublikowany: 2022-03-10Keynote Google I/O otworzył się animacją z prośbą o „Tworzenie dobrych rzeczy razem”, a w tym artykule zamierzam podsumować niektóre rzeczy ogłoszone w Keynote i Keynote dla programistów, które są interesujące dla Smashing czytelnicy. Zapowiedzi w keynote zostały poparte sesjami podczas wydarzenia, które zostały nagrane. Aby pomóc Ci wykorzystać zapowiedziane rzeczy, będę zamieszczać linki do filmów z tych sesji oraz wszelkich materiałów pomocniczych, które udało mi się znaleźć.
Chciałbym wiedzieć, o których z tych ogłoszeń chciałbyś dowiedzieć się więcej — zostaw komentarz poniżej. Ponadto, jeśli jesteś autorem z doświadczeniem, który może podzielić się którymkolwiek z tych tematów, dlaczego nie napisać do nas ze szkicem?
Keynotes
Wszystkie główne zapowiedzi zostały omówione w prezentacjach głównych. Jeśli chcesz obejrzeć wszystkie keynotes, możesz je znaleźć na YouTube wraz z kilkoma skróconymi wersjami:
- Główny Keynote prowadzony przez CEO Sundara Pichaia (oto skrócona dziesięciominutowa wersja najważniejszych punktów),
- Deweloper Keynote prowadzony przez Jasona Titusa (tutaj jest pięciominutowa wersja ważnych punktów omówionych w Deweloperze Keynote).
Google I/O i Internet
Uczestniczyłem w Google I/O jako Web GDE (Google Developer Expert), a I/O zazwyczaj zawiera dużo treści, które są bardziej interesujące dla programistów Androida. To powiedziawszy, było dla mnie mnóstwo ogłoszeń i przydatnych sesji.
Sesja Web State of the Union obejmowała ogłoszenia i informacje dotyczące Lighthouse, PWA, Polymer 3.0, Web Assembly i AMP. Oprócz filmu zapis tej sesji można znaleźć na blogu Chromium.
Co nowego w Chrome DevTools obejmuje wszystkie nowe funkcje, które są dostępne lub wkrótce pojawią się w DevTools.
Progresywne aplikacje internetowe odegrały ważną rolę w tym wydarzeniu, a jeśli jeszcze nie zbudowałeś swojego pierwszego PWA, prezentacja PWA Starter Kit może pomóc w rozpoczęciu korzystania z Polymer. Aby głębiej przyjrzeć się Polymerowi, możesz kontynuować z Web Components i Polymer Project: Polymer 3.0 i nie tylko. Witryna Polymer jest teraz zaktualizowana dokumentacją dla Polymer 3.0.
Angular nie został pominięty, obejrzyj sesję Co nowego w Angularze, aby poznać wszystkie szczegóły.
Headless Chrome to temat, który ostatnio mnie zainteresował, ponieważ zawsze szukam ciekawych sposobów na automatyzację zadań. W sesji The Power of Headless Chrome and Browser Automation można dowiedzieć się, jak korzystać z Headless Chrome i Puppeteer. Jeśli zastanawiasz się, jakie rzeczy możesz osiągnąć, istnieje kilka przykładów rzeczy, które możesz zrobić na GitHub.
Zobacz także:
- „Budowanie bezproblemowej sieci” autorstwa Dru Knox
- „Web Performance Made Easy” Addy Osmani i Ewa Gasperowicz
- „Spraw, by Twoja witryna WordPress była progresywna” autorstwa Alberto Medina
- „Przyszłość sieci jest wciągająca” Brandona Jonesa
- „Buduj przyszłość sieci za pomocą nowoczesnego JavaScriptu” autorstwa Mathiasa Bynensa i Sathyi Gunasekaran
- „Buduj przyszłość sieci dzięki Web Assembly i nie tylko” autorstwa Thomasa Nattestada
Wiadomości dla programistów Androida
Nie jestem programistą Androida, ale otaczali mnie ludzie, którzy to robią. Próbowałem wybrać niektóre rzeczy, które wydawały się najbardziej ekscytujące dla tłumu. Sesja „Co nowego w Androidzie” to świetne miejsce, w którym można poznać wszystkie najważniejsze ogłoszenia. Pierwszym z nich jest fakt, że Android P Beta jest już dostępny, a wiele z ogłoszonych funkcji będzie dostępnych w ramach tej wersji beta. Tutaj możesz sprawdzić, czy Twoje urządzenie jest obsługiwane przez wersję beta.
Android Jetpack to zestaw bibliotek, narzędzi i wskazówek dotyczących architektury, które ułatwiają i przyspieszają tworzenie wspaniałych aplikacji dla systemu Android. IDE są zintegrowane z Android Studio i wydaje się, że jest to próba usprawnienia obsługi typowych zadań przez programistów. Więcej informacji na temat systemu Android Jetpack można znaleźć w filmie wideo sesji na temat nowości w bibliotece obsługi systemu Android.
Możliwość tworzenia akcji w aplikacjach to coś, co jest teraz w wersji beta i umożliwia programistom tworzenie interakcji, które przechodzą od głosu do wyświetlaczy — czy to na zegarku, telefonie, czy na nowych inteligentnych ekranach, które zostaną wprowadzone jeszcze w tym roku.
Plasterki to interaktywny fragment interfejsu aplikacji, wprowadzony w systemie Android P. Aby dowiedzieć się więcej, spójrz na tę sesję we/wy, z której możesz dowiedzieć się, jak utworzyć plasterek i wyświetlić go jako sugestie w wynikach wyszukiwania.
- Obejrzyj sesję Design Actions for the Google Assistant Beyond Smart Speakers autorstwa Sady Zaidi,
- Poznaj witrynę Conversational Design,
- Przeczytaj więcej o Akcji,
- Dodaj do zakładek playlistę Actions od Google Developers w YouTube.
Po przyjrzeniu się kilku konkretnym zapowiedziom dla sieci i Androida, przyjrzę się teraz niektórym z większych tematów poruszanych podczas wydarzenia i sposobom, w jaki mogą one odegrać się w przypadku programistów.
Sztuczna inteligencja, rozszerzona rzeczywistość i uczenie maszynowe
Zgodnie z oczekiwaniami, główne przemówienie, a także przemówienie programisty, miały silny motyw AI, AR i ML. Ten motyw jest częścią wielu produktów i ogłoszeń Google. Google wykorzystuje ogromną ilość danych, które zebrali, aby stworzyć niesamowite produkty i usługi, z których wiele niesie ze sobą nowe obawy dotyczące prywatności i zgody, ponieważ świat cyfrowy i rzeczywisty stają się coraz ściślejsze.
Zdjęcia Google otrzymują nowe funkcje sztucznej inteligencji, które pomogą Ci ulepszyć zdjęcia, podając sugestie, jak poprawić jasność lub zaoferować sugerowane obroty.
Nowa wersja Google News będzie wykorzystywać sztuczną inteligencję do prezentowania użytkownikom różnych relacji na temat interesujących ich artykułów.
Jednym z pokazów, które spotkały się z ogromnym aplauzem, było zademonstrowanie, że Google Lens wskazuje fragment tekstu w książce, a następnie ten tekst można skopiować i wkleić do telefonu.
„A co by było, gdybyś mógł kopiować i wklejać rzeczy z rzeczy ze świata rzeczywistego do swojego telefonu?”
— Urząd Androida (@AndroidAuth) 8. Maj 2018
Nigdy wcześniej nie byliśmy tak podekscytowani kopiowaniem i wklejaniem. #io18 #googlelens pic.twitter.com/BjOYS3gfUi
Jeśli jesteś zainteresowany wykorzystaniem sztucznej inteligencji, możesz obejrzeć sesję AIY: Do It Yourself Artificial Intelligence. Również,
- Wiodący projektanci w Google w temacie „Projektowanie, uczenie maszynowe i kreatywność”
- „Bringing AI and Machine Learning Innovations to Healthcare” autorstwa Lily Peng i Jessiki Mega,
- „Exploring AR Interaction” Chrisa Kelleya, Elly Nattinger i Luca Prasso
- „Aplikacje AR: buduj, iteruj i uruchamiaj” Tima Psiaki i Toma Saltera
Mapy
Podczas podróży znam aż nazbyt częsty scenariusz wychodzenia ze stacji kolejowej z otwartymi mapami i nie mając pojęcia, w którą stronę się zwracam i która ulica jest którą. Google ma nadzieję rozwiązać ten problem za pomocą rzeczywistości rozszerzonej, wyświetlając na ekranie zdjęcia z widoku ulicy i wskazówki dojazdu, aby pomóc Ci określić, w którym kierunku należy zacząć iść.
Mapy Google zajmują również większą część obszaru, do którego możemy już używać FourSquare lub Yelp, przynoszą więcej rekomendacji na podstawie miejsc, które już odwiedziliśmy lub sprawdziliśmy. Ponadto funkcja, z której korzystam, próbując zaplanować kolacje pokonferencyjne, możliwość stworzenia krótkiej listy miejsc i udostępnienia jej grupie, aby wybrać, dokąd się udać. Android Central ma doskonały post na temat wszystkich nowych funkcji map, jeśli chcesz dowiedzieć się więcej. Te funkcje będą dostępne w wersjach aplikacji Mapy Google na Androida i iOS.
Dla programistów podsumowanie zmian w Maps API można znaleźć w sesji Google Maps Platform: Ready For Scale.
Przedstawiamy zestaw ML
Chociaż dla wielu z nas funkcje oparte na uczeniu maszynowym są przydatne dla konsumentów korzystających z nich aplikacji, jeśli chcesz korzystać z uczenia maszynowego w swoich aplikacjach, Google stara się to ułatwić dzięki ML Kit. ML Kit pomaga w wykorzystaniu możliwości uczenia maszynowego do aplikacji dzięki interfejsom Google API. Pięć gotowych interfejsów API to:
- Rozpoznawanie tekstu
- Wykrywanie twarzy
- Skanowanie kodów kreskowych
- Etykietowanie obrazu
- Rozpoznawanie punktów orientacyjnych
Dwa kolejne interfejsy API będą gotowe w nadchodzących miesiącach: inteligentny interfejs API umożliwiający obsługę odpowiedzi na wiadomości kontekstowe w aplikacji oraz dodatek do interfejsu API wykrywania twarzy o dużej gęstości konturów twarzy.
Więcej informacji o ML Kit można znaleźć w tym poście Google Developers Przedstawiamy ML Kit oraz w sesyjnym filmie ML Kit: Machine Learning SDK for Mobile Developers.
Google Duplex
Najchętniej mówiono o demie keynote'a Google Duplex, z demo Asystenta Google rozmawiającego z restauracją i fryzjerem w celu dokonania rezerwacji i umówienia spotkania. Demo wywołało w tłumie westchnienie, ponieważ rozmowa była tak naturalna, że osoba po drugiej stronie telefonu nie rozpoznała, że nie rozmawia z nikim.
Nie zajęło dużo czasu, zanim ludzie przeszli od „*To super!*” do „*To przerażające!*” i istnieją oczywiste obawy dotyczące etyki robota, który nie deklaruje, że nie jest prawdziwą osobą, gdy angażuje się z kimś na telefonie.
Nagrania, które zostały odtworzone podczas przemówienia, można znaleźć w poście Ethana Marcotte na temat funkcji, w którym zauważa, że „Duplex został elegancko, celowo zaprojektowany, by oszukiwać”. Jeremy Keith mądrze wskazuje, że ludzie podekscytowani wypróbowaniem tej technologii nie wyobrażają sobie siebie jako osoby po telefonie.
Oprócz Duplex pojawiło się wiele ogłoszeń dotyczących Asystenta Google, w tym możliwość kontynuowania rozmowy , rozmowy w obie strony, która nie wymaga powiedzenia „Hej, Google” na początku każdej frazy.
Dostępność
Jako laik nie mogę oprzeć się wrażeniu, że wiele rzeczy, nad którymi pracuje Google, może mieć bardzo pozytywne implikacje pod względem dostępności. Nawet kontrowersyjny Duplex może pozwolić komuś, kto nie może mieć połączenia głosowego, łatwiej radzić sobie z firmami, z którymi można się kontaktować tylko przez telefon. Jednym z obszarów, w którym technologia Google wkrótce będzie miała wpływ, jest aplikacja Google Lookout na Androida, która pomoże użytkownikom niedowidzącym zrozumieć, co się dzieje wokół nich, używając aparatu w telefonie i przekazując użytkownikowi powiadomienia głosowe.
Odbyło się kilka sesji, w których skoncentrowano się na ułatwieniach dostępu podczas operacji we/wy, w tym na szansie dla programistów na przegląd dostępności ich aplikacji. Dla twórców stron internetowych, prelekcja Roba Dodsona Co nowego w dostępności obejmuje nowe funkcje DevTools, które pomagają nam tworzyć bardziej dostępne witryny, a także obiektowy model dostępności, który daje większą kontrolę nad dostępnością witryn. Dla programistów aplikacji na Androida Co nowego w Ułatwieniach dostępu w Androidzie szczegółowo opisuje funkcje, które będą częścią Androida P. Skupiając się na AR i VR, odbyła się również sesja na temat tego, o czym powinniśmy pomyśleć w tej rozwijającej się dziedzinie technologii: Ułatwienia dostępu do AR i VR.
Aplikacje na Linuksa pojawią się w systemie operacyjnym Chrome
Ciekawą zapowiedzią był fakt, że Linux Apps będzie można zainstalować w systemie operacyjnym Chrome, dzięki czemu ChromeBook będzie o wiele bardziej interesującym wyborem dla programisty. Według VentureBeat, Google używa Debian Stretch, więc będziesz mógł uruchomić apt i zainstalować dowolne oprogramowanie, dla którego jest dostępny pakiet Debiana. Obejmuje to takie rzeczy, jak Git, VS Code i Android Studio.
Wygląd materiału
Strona material.io została zaktualizowana dla nowej wersji Material Design; wielkim ogłoszeniem dla tego jest Motyw, który pozwoli programistom korzystającym z materiałów tworzyć własne motywy, dzięki czemu ich aplikacje będą wyglądać trochę mniej jak usługa Google. Galeria umożliwi wtedy zespołom udostępnianie i współpracę nad ich projektami.
Ogłoszono także Material Theme Editor, który jest wtyczką do Sketch, dzięki czemu jest tylko dla komputerów Mac. Witryna mówi, że jest „obecnie dostępna dla Sketch”, więc być może inne wersje pojawią się w odpowiednim czasie.
Na stronie material.io można znaleźć opis tworzenia motywu materiału. Witryna design.google jest również przydatnym miejscem docelowym dla materiałów i innych motywów projektowych Google. Z sesji możesz oglądać:
- „Dostosuj komponenty materiałowe do swojego produktu” autorstwa Richarda Fulchera, Rachel Been i Josha Estelle
- „Code Beautiful UI With Flutter And Material Design” autorstwa Mary Via i Willa Larche
- „Buduj wspaniałe produkty do projektowania materiałów na różnych platformach” autorstwa Jonathana Chunga, Nicka Butchera i Willa Larche
Cyfrowa równowaga
Podczas przemówienia ogłoszono nową witrynę Google Digital Wellbeing wraz z pakietem funkcji w Androidzie P, a także w YouTube, której celem jest pomaganie ludziom w odłączaniu się od urządzeń i zmniejszaniu stresu spowodowanego takimi rzeczami, jak alerty i powiadomienia. Wszystkie funkcje znajdziesz na wellbeing.google/. Większość z nich będzie wymagała Androida P, obecnie w wersji beta, jednak funkcje YouTube będą częścią aplikacji YouTube i dlatego będą dostępne dla wszystkich.
Jako programista warto zastanowić się, jak możemy zaimplementować podobne funkcje w naszych własnych aplikacjach, zarówno internetowych, jak i mobilnych. Rzeczy takie jak łączenie powiadomień w jeden alert dzienny, który zostanie włączony na YouTube, może pomóc w zapobieganiu przeciążeniu użytkowników alertami od Ciebie i w prawidłowym zaangażowaniu się w nie w zaplanowanym czasie. Stało się coraz prostsze ciągłe proszenie naszych użytkowników, aby na nas patrzyli. Być może zamiast tego powinniśmy spróbować pracować z naszymi użytkownikami, aby być dostępnym, gdy nas potrzebują, i po cichu ukryć się, gdy robią coś innego.
Aby uzyskać więcej informacji na temat budowania bardziej humanitarnego ekosystemu technologicznego, zapoznaj się z witryną Center For Humane Technology.
Przegląd wiadomości
Każda witryna z wiadomościami publikowała własne recenzje I/O, więc podsumuję jedne z najlepszych relacji, jakie widziałem. Jako uczestnik wydarzenia czułem, że było to sprawnie zarządzane, dobra zabawa, ale było bardzo jasne, że Google ma dobrze przećwiczone i jasne komunikaty, które chcą wysłać do społeczności programistów, którzy tworzą aplikacje i treści. Po każdym kluczowym ogłoszeniu w głównych przemówieniach następowały sesje zagłębiające się w praktyczne szczegóły wykorzystania tej technologii w rozwoju. Tak wiele było ogłaszanych i demonstrowanych, że nie da się opisać wszystkiego w tym poście – a nawet przeżyć tego wszystkiego na imprezie. Wiem, że na playliście I/O jest kilka filmów, które będę oglądać po powrocie do domu.
- TechCrunch ma doskonałe podsumowanie, z pojedynczymi artykułami na temat wielu ważnych ogłoszeń,
- Jest też relacja z wydarzenia z CNET,
- The Verge ma strumień historii swoich treści, który informuje o ogłoszeniach.
Jeśli byłeś na I/O lub śledziłeś transmisję na żywo, jakie ogłoszenia były dla Ciebie najbardziej interesujące? Możesz użyć komentarzy, aby podzielić się rzeczami, których nie omówiłem, a które byłyby twoimi najważniejszymi wydarzeniami z trzech dni.