Systeme zur automatischen Textvervollständigung zielen darauf ab, unser Leben zu erleichtern, aber es gibt Risiken

Quellknoten: 1575782

Hören Sie auf dem Future of Work Summit am 12. Januar 2022 von CIOs, CTOs und anderen C-Level- und Senior Executives zu Daten- und KI-Strategien. Mehr erfahren


Wenn Sie kürzlich eine Textnachricht oder E-Mail geschrieben haben, werden Ihnen wahrscheinlich verschiedene Synonyme, Phrasen oder Arten, einen Satz zu beenden, vorgeschlagen. Der Aufstieg von KI-gestützten Autosuggestion-Tools wie Googles Smart Compose fällt mit der digitalen Transformation der Unternehmenskommunikation zusammen, die heute hauptsächlich online stattfindet. Es ist geschätzt dass der typische Arbeiter jeden Tag auf etwa 40 E-Mails antwortet und sendet mehr als 200 Slack-Nachrichten pro Woche.

Messaging droht bei Adobe einen immer größeren Teil des Arbeitstages in Anspruch zu nehmen Pegging die Zeit, die Mitarbeiter 15.5 Stunden pro Woche mit der Beantwortung von E-Mails verbringen. Das ständige Wechseln von Aufgaben ist ein Todesstoß für die Produktivität, die Studien zeigen, dass eine ununterbrochene Arbeit Vorteile bringt. Forschung von der University of California und der Humboldt University fanden heraus, dass Arbeiter jedes Mal, wenn sie unterbrochen werden, bis zu 23 Minuten bei einer Aufgabe verlieren können, weitere Verlängerung der Arbeitstag.

Autosuggestion-Tools versprechen, Zeit zu sparen, indem sie das Verfassen und Beantworten von Nachrichten optimieren. Googles Smart Reply schlägt beispielsweise schnelle Antworten auf E-Mails vor, deren Eingabe normalerweise Minuten dauert. Die KI hinter diesen Tools weist jedoch Mängel auf, die zu Verzerrungen führen oder die in Messaging verwendete Sprache auf unerwünschte Weise beeinflussen könnten.

Die Zunahme von Autosuggestion und automatischer Textvervollständigung

Textvorhersage ist keine neue Technologie. Eines der ersten allgemein verfügbaren Beispiele, T9, mit dem Wörter aus einem einzigen Tastendruck für jeden Buchstaben gebildet werden können, war Ende der 90er Jahre bei vielen Mobiltelefonen Standard. Aber das Aufkommen ausgefeilterer, skalierbarer KI-Techniken in der Sprache führte zu Sprüngen in der Qualität – und Breite – von Autosuggestion-Tools.

2017 startete Google Intelligente Antwort in Google Mail, die das Unternehmen später auf andere Google-Dienste wie Chat und Apps von Drittanbietern brachte. Laut Google generiert die KI hinter Smart Reply Antwortvorschläge „basierend auf dem gesamten Kontext einer Konversation“, nicht nur einer einzelnen Nachricht – was angeblich zu Vorschlägen führt, die aktueller und relevanter sind. Smart Compose, das vollständige Sätze in E-Mails vorschlägt, kam ein Jahr später in Gmail und Google Docs an kurz danach. Eine ähnliche Funktion namens Vorgeschlagene Antworten kam 2018 zu Microsoft Outlook und 2020 zu Teams.

Die Technologie hinter der neuen Generation von Autosuggestion-Tools – die einige akademische Kreise als „KI-vermittelte Kommunikation“ bezeichnen – geht weit über das hinaus, was in den 90er Jahren existierte. Beispielsweise wurde das KI-Modell, das Smart Compose zugrunde liegt, mit Milliarden von E-Mail-Beispielen erstellt und in der Cloud auf benutzerdefinierter Beschleunigerhardware ausgeführt. In der Zwischenzeit verfolgt Smart Reply – das als Grundlage für Smart Compose diente – einen „hierarchischen Ansatz“ für Vorschläge, der davon inspiriert ist, wie Menschen Sprachen und Konzepte verstehen.

Microsoft Smart Reply

Oben: Smart Reply von Outlook verwendet Deep-Learning-Modelle, die in Azure Machine Learning trainiert wurden.

Bildnachweis: Microsoft

„Der Inhalt der Sprache ist zutiefst hierarchisch, was sich in der Struktur der Sprache selbst widerspiegelt …“ Google-Forscher Brian Strope und Engineering Director Ray Kurzweil erklären in einem Blogbeitrag. „Betrachten Sie die Nachricht: ‚Diese interessante Person in dem Café, das uns gefällt, hat mir einen Blick geschenkt.' … Wenn wir eine angemessene Antwort auf diese Botschaft vorschlagen, könnten wir die Bedeutung des Wortes „Blick“ berücksichtigen, das möglicherweise mehrdeutig ist. War es eine positive Geste? In diesem Fall könnten wir antworten: „Cool!“. Oder war es eine negative Geste? Wenn ja, sagt das Thema etwas darüber aus, wie sich der Autor über den negativen Austausch gefühlt hat? Um subtile Unterscheidungen treffen zu können, sind viele Informationen über die Welt und die Fähigkeit, vernünftige Urteile zu fällen, erforderlich. Bei genügend Sprachbeispielen kann ein Ansatz des maschinellen Lernens viele dieser subtilen Unterschiede entdecken. ”

Aber wie bei allen Technologien sind selbst die leistungsfähigsten Autosuggestion-Tools anfällig für Fehler, die während des Entwicklungs- und Bereitstellungsprozesses auftreten.

Im Dezember 2016 war es so weit enthüllt dass die automatische Vervollständigungsfunktion der Google-Suche hasserfüllte und beleidigende Endungen für bestimmte Suchphrasen vorschlug, wie „sind Juden böse?“ für den Ausdruck „sind Juden“. Nach Angaben des Unternehmens war ein algorithmisches System schuld, das Vorschläge auf der Grundlage dessen aktualisiert, wonach andere Benutzer in letzter Zeit gesucht haben. Während Google schließlich einen Fix implementierte, dauerte es noch einige Jahre, bis das Unternehmen Vorschläge zur automatischen Vervollständigung blockierte umstrittene politische Äußerungen einschließlich falscher Behauptungen über Wahlvoraussetzungen und die Legitimität von Wahlverfahren.

Smart Reply war gefunden das Emoji „Person mit Turban“ als Antwort auf eine Nachricht anzubieten, die ein Waffen-Emoji enthielt. Und Apples Autovervollständigung auf iOS vorher schlug nur männliche Emojis für Führungspositionen vor, darunter CEO, COO und CTO.

Voreingenommene Daten

Fehler in Autocompletion- und Autosuggestion-Systemen entstehen oft durch voreingenommene Daten. Die Millionen bis Milliarden von Beispielen, aus denen die Systeme lernen, können mit Text von verfälscht werden toxische Webseiten die bestimmte Geschlechter, Rassen, Ethnien, und Religionen mit verletzenden Konzepten. Veranschaulichung des Problems, Kodex, ein Codegenerierungsmodell, das vom Forschungslabor OpenAI entwickelt wurde, kann aufgefordert werden, „Terrorist“ zu schreiben, wenn das Wort „Islam“ gefüttert wird. Ein weiteres großes Sprachmodell des KI-Startups Zusammenhängen neigt dazu, Männer und Frauen mit stereotypen „männlichen“ und „weiblichen“ Berufen zu assoziieren, wie „Wissenschaftler“ und „Haushälterin“.

Smart Compose für Google Docs

Oben: Smart Compose für Google Docs.

Anmerkungen in den Daten können neue Probleme einführen – oder bestehende verschärfen. Da viele Modelle von Labels lernen, die mitteilen, ob ein Wort, ein Satz, ein Absatz oder ein Dokument bestimmte Eigenschaften hat, wie z. B. eine positive oder negative Stimmung, rekrutieren Unternehmen und Forscher Teams aus menschlichen Kommentatoren, um Beispiele zu kennzeichnen, typischerweise von Crowdsourcing-Plattformen wie Amazon Mechanical Turk. Diese Kommentatoren bringen ihre eigenen Perspektiven – und Vorurteile – auf den Tisch.

In einer Studie des Allen Institute for AI, Carnegie Mellon und der University of Washington fanden Wissenschaftler heraus, dass Labeler eher Sätze im Dialekt des afroamerikanischen Englisch (AAE) kommentieren, die giftiger sind als Äquivalente im allgemeinen amerikanischen Englisch – obwohl sie verstanden werden als ungiftig von AAE-Lautsprechern. Puzzle, die Organisation, die unter der Google-Muttergesellschaft Alphabet arbeitet, um Cybermobbing und Desinformation zu bekämpfen, hat in ihren Experimenten ähnliche Schlussfolgerungen gezogen. Forscher des Unternehmens haben Unterschiede in den Anmerkungen zwischen Labelerstellern entdeckt, die sich selbst als Afroamerikaner und Mitglieder der LGBTQ+-Community identifizieren, im Vergleich zu Kommentatoren, die sich nicht als eine dieser Gruppen identifizieren.

Manchmal ist die Voreingenommenheit beabsichtigt – eine Frage der umgangssprachlichen Kompromisse. Zum Beispiel, Schriftsteller, ein Startup, das einen KI-Assistenten für die Erstellung von Inhalten entwickelt, sagt, dass es „Business English“ in seinen Schreibvorschlägen priorisiert. CEO May Habib nannte das Beispiel des „habitual be“ in AAVE, einer Zeitform des Verbs, die es in keinem anderen englischen Stil gibt.

„Da [das gewohnheitsmäßige be] traditionell nicht im Geschäftsenglisch verwendet wird und daher in unseren Datensätzen nicht sehr häufig auftaucht, würden wir ‚Ihr macht alle seltsame Dinge hier draußen‘ zu ‚Y‘ korrigieren. Alle machen hier draußen seltsame Dinge'“, sagte Habib VentureBeat per E-Mail. „[Trotzdem] haben wir manuell dafür gesorgt, dass Begrüßungen und Abmeldungen in der Umgangssprache nicht von Writer gekennzeichnet werden. Einige Umgangssprachen sind geschlechtsneutraler als formelles Geschäftsenglisch, [zum Beispiel], also moderner und markenkonformer für Unternehmen.“

Schreiben beeinflussen

Wenn Vorurteile – absichtlich oder nicht – es in Autovervollständigungs- und Autosuggestionssysteme schaffen, können sie die Art und Weise verändern, wie wir schreiben. Der enorme Umfang, in dem diese Systeme arbeiten, macht es schwierig (wenn nicht unmöglich), sie vollständig zu vermeiden. Smart Reply war für ihren Verlust verantwortlich. für 10 % aller Gmail-Antworten, die 2016 von Smartphones gesendet wurden.

In einem der umfassenderen Audits von Autocompletion-Tools führte ein Team von Microsoft-Forschern Interviews mit Freiwilligen, die gebeten wurden, ihre Meinung zu automatisch generierten Antworten in Outlook zu äußern. Die Befragten empfanden einige der Antworten als zu positiv, falsch in ihren Annahmen zu Kultur und Geschlecht und zu unhöflich für bestimmte Kontexte, wie z. B. Unternehmenskorrespondenz. Dennoch zeigten Experimente während der Studie, dass Benutzer eher kurze, positive und höfliche Antworten bevorzugen, die von Outlook vorgeschlagen werden.

Google SmartReply YouTube

Eine separate Harvard-Studie ergab, dass, wenn Personen, die über ein Restaurant schreiben, „positive“ Vorschläge zur automatischen Vervollständigung vorgelegt wurden, die resultierenden Bewertungen tendenziell positiver waren, als wenn ihnen negative Vorschläge vorgelegt wurden. „Es ist aufregend, darüber nachzudenken, wie prädiktive Textsysteme den Menschen helfen könnten, weitaus effektivere Autoren zu werden, aber wir brauchen auch Transparenz und Rechenschaftspflicht, um vor voreingenommenen oder manipulierten Vorschlägen zu schützen“, sagt Ken Arnold, Forscher an der Harvard School of Ingenieurwissenschaften und angewandte Wissenschaften, die an der Studie beteiligt waren, sagte die BBC.

Wenn es eine allumfassende Lösung für das Problem der schädlichen Autovervollständigung gibt, wurde sie noch nicht entdeckt. Google entschied sich dafür, Vorschläge für geschlechtsspezifische Pronomen in Smart Compose einfach zu blockieren, da sich das System als schlechter Indikator für das Geschlecht und die Geschlechtsidentität der Empfänger erwies. LinkedIn von Microsoft vermeidet auch geschlechtsspezifische Pronomen in Smart Replies, seinem Predictive-Messaging-Tool, um potenzielle Fehler zu vermeiden.

Die Co-Autoren des Microsoft Studie warnen davor, dass Systemdesigner, wenn sie die Mängel der Autocompletion-Technologien nicht proaktiv angehen, Gefahr laufen, Benutzer nicht nur zu beleidigen, sondern sie dazu zu bringen, den Systemen zu misstrauen. „Systemdesigner sollten Personalisierungsstrategien auf individueller und sozialer Netzwerkebene untersuchen, überlegen, wie kulturelle Werte und gesellschaftliche Vorurteile von ihren Systemen aufrechterhalten werden können, und die Modellierung sozialer Interaktionen untersuchen, um damit zu beginnen, die Einschränkungen und Probleme anzugehen“, schrieben sie. „Unsere Ergebnisse weisen darauf hin, dass aktuelle Textempfehlungssysteme für E-Mail und andere [ähnliche] Technologien nach wie vor nicht ausreichend nuanciert sind, um die Feinheiten realer sozialer Beziehungen und Kommunikationsbedürfnisse widerzuspiegeln. „

VentureBeat

Die Mission von VentureBeat ist es, ein digitaler Stadtplatz für technische Entscheidungsträger zu sein, um Wissen über transformative Technologie und Transaktionen zu erlangen. Unsere Website bietet wichtige Informationen zu Datentechnologien und -strategien, die Sie bei der Führung Ihres Unternehmens unterstützen. Wir laden Sie ein, Mitglied unserer Community zu werden und auf Folgendes zuzugreifen:

  • aktuelle Informationen zu den für Sie interessanten Themen
  • unsere Newsletter
  • gated Vordenker-Inhalte und ermäßigter Zugang zu unseren wertvollen Veranstaltungen, wie z Transformiere NO: Erfahren Sie mehr
  • Netzwerkfunktionen und mehr

Mitglied werden

Quelle: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

Zeitstempel:

Mehr von AI - VentureBeat