Google I / O 2021: Was ist für Entwickler und Verbraucher in diesem Jahr drin?

Quellknoten: 872285

Nach einer einjährigen Pause aufgrund der COVID-19-Pandemie, der Entwicklerkonferenz von Google, kehrte Google I / O in diesem Jahr in einem virtuellen Avatar mit mehreren neuen Ankündigungen zurück. Die Veranstaltung wird jährlich vom Unternehmen veranstaltet, um neue Produkte und Dienstleistungen anzukündigen. Während der Suchriese seine kommenden Pixel-Geräte nicht erwähnte, kündigten sie Upgrades an, die für die Telefone erwartet werden. 

Von KI für digitale Gesundheit, tragbaren Technologien, einem brandneuen Android-Build, besserer Sicherheit auf Websites über den Passwort-Manager von Google Chrome, einem neuen digitalen Freund namens LaMDA, einer kohlenstoffintelligenten Cloud-Computing-Plattform und vielem mehr gibt es viel zu bieten Sowohl Entwickler als auch Unternehmen in diesem Jahr, angeboten von Google. 

Sundar Pichai, CEO von Google und Alphabet, sagte in Googles Blog: „Das letzte Jahr hat viel ins rechte Licht gerückt. Bei Google hat unsere Mission, die Informationen der Welt zu organisieren und allgemein zugänglich und nützlich zu machen, einen neuen Zweck. Wir nähern uns dieser Mission weiterhin mit einem einzigartigen Ziel: dem Aufbau eines hilfreicheren Google für alle. Das bedeutet, den Menschen in den entscheidenden Momenten behilflich zu sein und jedem die Werkzeuge zu geben, um sein Wissen, seinen Erfolg, seine Gesundheit und sein Glück zu verbessern. “ 

Werfen wir einen Blick darauf, was in diesem Jahr voraussichtlich Wellen schlagen wird, geordnet nach den jeweiligen Bereichen: 

Android 12

Mit brandneuen Datenschutzfunktionen und anderen nützlichen Funktionen wie verbesserten Eingabehilfen für Menschen mit Sehbehinderung, Bildlauf-Screenshots und Konversations-Widgets konzentriert sich Android 12 darauf, ein sicheres Betriebssystem zu erstellen, das sich an Sie anpasst und dafür sorgt, dass alle Ihre Geräte besser zusammenarbeiten. Google hat dieses Update für sein Betriebssystem Android 12 als "die größte Designänderung in der Geschichte von Android" bezeichnet.

Android 12 wird zuerst auf Pixel-Geräten eingeführt und ermöglicht es Benutzern, ihre Telefone mit einer benutzerdefinierten Farbpalette und neu gestalteten Widgets vollständig zu personalisieren. Dieser Android-Build vereint auch das gesamte Software- und Hardware-Ökosystem unter einer einzigen Designsprache namens Material You. 

Außerdem wurde ein neues Datenschutz-Dashboard eingeführt, das einen einzigen Überblick über Ihre Berechtigungseinstellungen sowie darüber bietet, auf welche Daten in welchen Intervallen und mit welchen Apps zugegriffen wird. Eine neue Anzeige oben rechts in der Statusleiste zeigt dem Benutzer an, wann Apps auf das Mikrofon oder die Kamera des Telefons zugreifen.

Project Starline: Eine revolutionäre 3D-Videokonferenz 

Die Pandemie hat zu einem Anstieg von Videokonferenzen, videobasierten Meetings, Webinaren und vielem mehr geführt. Google hatte bereits angekündigt, an einem neuen Video-Chat-System zu arbeiten, mit dem Sie die Person, mit der Sie chatten, in 3D sehen können.

Das Projekt mit dem Titel Starline zielt darauf ab, überrealistische Projektionen für Video-Chats zu erstellen. Die Zukunft der Videokonferenzen wird 3D-Bildgebung verwenden, damit sich Videoanrufe so anfühlen, als würden Sie mit jemandem persönlich sprechen, genau wie in einer Welt vor der Pandemie. Während andere Videokonferenz-Apps wie Zoom, Google Meet, Microsoft Teams und andere es uns ermöglicht haben, mit Familie, Freunden, Kollegen und Kollegen in Kontakt zu bleiben, obwohl wir alle zu Hause geblieben sind, erfolgt die Einführung von Project Starline zu einem Zeitpunkt, an dem trotz vereinfachter Einschränkungen Der Bedarf an besseren Remote-Konferenztools könnte immer noch steigen, damit die Welt effektiv verbunden bleibt. 

LaMDA: Ihr neuer digitaler Freund

LaMDA, ein Konversationssprachmodell, das auf der neuronalen Netzwerkarchitektur von Google namens Transformer basiert, ist eine der faszinierendsten Einführungen bei Google I / O 2021. Im Gegensatz zu anderen bereits vorhandenen Sprachmodellen, die für die Beantwortung von Fragen geschult sind, wird LaMDA im Dialog mit geschult Nehmen Sie an frei fließenden Gesprächen zu nahezu jedem Thema unter der Sonne (oder dem Sonnensystem) teil. 

Während der Keynote-Ansprache gab Google zunächst eine Demo von LaMDA als Planet Pluto und danach ein Papierflugzeug, beide sehr real. LaMDA, das sich derzeit in der F & E-Phase befindet, wird voraussichtlich in Zukunft zur Unterstützung von Google Assistant und anderen Google-Produkten verwendet, einschließlich eines wichtigen Aspekts für Googles neues Smart Home. 

Mit TPU V4 die Grenzen des Rechnens erweitern: 

TPUs, Googles maßgeschneiderte maschinelle Lernprozesse, ermöglichen Fortschritte wie Übersetzung, Bilderkennung und Spracherkennung über LaMDA und multimodale Modelle. TPU v4, das bei Google I / O 2021 vorgestellt wurde, wird vom v4-Chip angetrieben und soll doppelt so schnell sein wie seine Vorgängergeneration. Ein einzelner Pod kann mehr als einen Exaflop liefern, was der Rechenleistung von 10 Millionen Laptops zusammen entspricht. „Dies ist das schnellste System, das wir jemals bereitgestellt haben, und ein historischer Meilenstein für uns. Zuvor mussten Sie einen benutzerdefinierten Supercomputer erstellen, um zu einem Exaflop zu gelangen. Und wir werden bald Dutzende von TPUv4-Pods in unseren Rechenzentren haben, von denen viele mit oder nahe 90% kohlenstofffreier Energie betrieben werden. Sie werden unseren Cloud-Kunden später in diesem Jahr zur Verfügung stehen “, erklärte Google in ihrem offiziellen Blog. 

Google hat einen neuen hochmodernen Quantum AI-Campus mit seinem ersten Quantum-Rechenzentrum und Produktionsanlagen für Quantenprozessor-Chips eröffnet. Ein mehrjähriger Plan ist in Vorbereitung.  

Keine Sprachbarriere: Multitask Unified Model (MUM) 

MUM oder das Multitask Unified Model ist Googles jüngster Meilenstein für den Wissenstransfer ohne Sprachbarrieren für den Nutzer. Damit ist es weitaus leistungsfähiger als BERT, das 2019 von Google eingeführte Transformer AI-Modell. MUM kann gleichzeitig in 75 Sprachen lernen Zeit, in der die meisten KI-Modelle jeweils in einer Sprache trainieren. Es kann auch Informationen über Text, Bilder, Videos und andere Medien hinweg verstehen.

„Jede Verbesserung der Google-Suche wird einem strengen Bewertungsprozess unterzogen, um sicherzustellen, dass wir relevantere und hilfreichere Ergebnisse liefern. Menschliche Bewerter, die unsere Richtlinien für die Bewertung von Suchqualitäten befolgen, helfen uns zu verstehen, wie gut unsere Ergebnisse Menschen dabei helfen, Informationen zu finden “, sagt Google in ihrem Blog. 

Digitale Gesundheit: Google AI zur Identifizierung von Hauterkrankungen

Ein KI-Tool von Google kann Haut-, Haar- und Nagelzustände anhand von Bildern erkennen, die von Patienten hochgeladen wurden. Dieses „Dermatologie-Hilfsmittel“ wird voraussichtlich noch in diesem Jahr auf den Markt kommen und wurde mit dem CE-Zeichen für die Verwendung als medizinisches Hilfsmittel in Europa ausgezeichnet. 

Die Entwicklung der App dauerte drei Jahre und wurde an einem Datensatz mit 65,000 Bildern diagnostizierter Zustände, besorgten Markierungen und Bildern gesunder Haut in allen Schattierungen und Tönen trainiert. Es soll in der Lage sein, 288 Hauterkrankungen zu erkennen, soll jedoch nicht die medizinische Diagnose und Behandlung ersetzen.

Diese App basiert auf zuvor entwickelten Tools, mit denen Sie lernen können, die Symptome bestimmter Arten von Krebs und Tuberkulose zu erkennen. 

Digital Health & Lifestyle: Tragen Sie OS in Zusammenarbeit mit Samsung und Fitbit

Googles Wear OS und Samsungs Tizen verschmelzen zu einer Superplattform, Wear. Dies wird wahrscheinlich zu einer soliden Verlängerung der Akkulaufzeit, reibungsloseren laufenden Apps und bis zu 30% kürzeren Ladezeiten für Apps führen. Weitere Updates wie eine eigenständige Version von Google Maps, Offline-Spotify- und YouTube-Downloads sowie einige der besten Funktionen von Fitbit werden Teil dieser Plattform sein. Wear OS erhält außerdem eine frische Schicht Material You. 

KI für den Lebensstil: Ein besseres Einkaufserlebnis

Google hat außerdem bekannt gegeben, dass sie mit Shopify zusammenarbeiten, um Händlern dabei zu helfen, ihre Produkte in Google zu präsentieren. Aus der Sicht eines Kunden wird Google eine neue Funktion in Chrome einführen, mit der Sie dort weiter einkaufen können, wo Sie aufgehört haben. Auf einer neuen Registerkarte zeigt Chrome alle geöffneten Einkaufswagen auf verschiedenen Einkaufsseiten an. 

Unter Android hingegen wird Google Lens in Photos in Kürze die Schaltfläche "Innerhalb des Screenshots suchen" erhalten, mit der Sie beispielsweise Schuhe, T-Shirts und andere Objekte auf einem Foto scannen und relevante Produkte vorschlagen können.

KI für den Lebensstil: KI-gesteuerte Google Maps

Google Maps, das von AI unterstützt wird, kann Nutzer jetzt vor „schwierigen“ Momenten bewahren, indem relevante Informationen zu den Routen bereitgestellt werden, um unnötige Straßensperren zu vermeiden. „Wir empfehlen diese Route automatisch, wenn die ETA gleich ist oder der Unterschied minimal ist. Wir glauben, dass diese Änderungen das Potenzial haben, jedes Jahr 100 Millionen Bremsereignisse auf mit Google Maps gefahrenen Strecken zu eliminieren “, sagte Google in seinem offiziellen Blog. Das Live View-Tool erhält außerdem eine erneute Anzeige mit detaillierten Informationen.

AI for Lifestyle: Kuratierte Alben auf Google Fotos

Google Fotos verwendet KI, um Sammlungen mit ähnlichen Bildern, Landschaften und vielem mehr zu kuratieren und mit dem Nutzer zu teilen, ähnlich wie bei Memories auf Apple und Facebook.

Google sagt, dass sie die Emotionen der Menschen in Bezug auf Ereignisse und Erinnerungen berücksichtigt haben und vermeiden, etwas hervorzubringen, das sie möglicherweise loswerden möchten. Mit diesem neuen Update können Benutzer steuern, welche Fotos sie sehen oder nicht sehen, indem sie Bilder, Personen oder Zeiträume entfernen lassen. 

Eine weitere Funktion, die vorgestellt wird, heißt „kleine Muster“, bei denen mithilfe von KI Bilder gescannt und Alben basierend auf Ähnlichkeiten erstellt werden. 

Schließlich verwendet Google auch maschinelles Lernen, um „filmische Momente“ zu erstellen, in denen zwei oder drei Bilder analysiert werden, die innerhalb von Momenten voneinander aufgenommen wurden, um ein bewegtes Bild zu erstellen, das den Live-Fotos von Apple ähnelt.

Arcore

ARCore, Googles Augmented Reality-Plattform, erhält zwei neue APIs, nämlich die ARCore Raw Depth API und die ARCore Recording and Playback API. Mit der ARCore Raw Depth API können Entwickler detailliertere Darstellungen der umgebenden Objekte erfassen. Darüber hinaus können Entwickler mit der ARCore-Aufnahme- und Wiedergabe-API Videomaterial mit AR-Metadaten aufnehmen.  

Tensorflow.js: Wie wird es verwendet und was können Entwickler erwarten? 

Google veröffentlicht einen neuen ML-Schnittstellenstapel für Android, um Entwicklern eine integrierte Plattform mit einer Reihe gemeinsamer Tools und APIs zur Verfügung zu stellen, die ein nahtloses ML-Erlebnis auf Android-Geräten und anderen Plattformen ermöglichen. Im Rahmen dieses Projekts wird Google TensorFlow Lite auch über den Google Play Store einführen, sodass Entwickler es nicht mit ihren eigenen Apps bündeln müssen und somit die Gesamtgröße der APK reduzieren können.

Dieses Update ermöglicht maschinelles Lernen, Ethik, Zugänglichkeit über Project Shuwa zu verstehen, das entwickelt wurde, um die Gebärdensprache zu verstehen und wie es alltägliche Probleme lösen kann. Eine aktualisierte Version von Face Mesh soll ebenfalls veröffentlicht werden, die Irisunterstützung und robusteres Tracking ermöglicht. Die auf der BERT-Architektur basierende Konversationsabsichtserkennung identifiziert die Benutzerabsicht zusammen mit verwandten Entitäten, um diese Absicht zu erfüllen. 

Das Google I / O 2021 hat sich auch eingehend mit dem Aufbau des Cyber-Bewusstseins befasst, und zwar durch die Funktion zum automatischen Löschen, die Erhöhung der Privatsphäre und bessere Kamerafunktionen, einschließlich eines neuen Selfie-Algorithmus, der allen ein umfassenderes Kameraerlebnis bietet Durch maschinelles Lernen und Multitask Unified Model (MUM) wird die Google-Suche wesentlich intelligenter. 

Was hat Ihr Interesse am diesjährigen Google I / O am meisten geweckt?

Quelle: https://www.mantralabsglobal.com/blog/google-io-2021-whats-in-it-for-developers-and-consumers-this-year/

Zeitstempel:

Mehr von Mantra-Labors