Systemy autouzupełniania tekstu mają na celu ułatwienie nam życia, ale istnieje ryzyko

Węzeł źródłowy: 1575782

Posłuchaj dyrektorów ds. IT, dyrektorów ds. technologii i innych dyrektorów wyższego szczebla oraz dyrektorów wyższego szczebla na temat strategii dotyczących danych i sztucznej inteligencji podczas szczytu Future of Work, który odbędzie się 12 stycznia 2022 r. ZOBACZ WIĘCEJ


Jeśli niedawno napisałeś wiadomość tekstową lub e-mail, istnieje duże prawdopodobieństwo, że sztuczna inteligencja zasugeruje Ci różne synonimy, wyrażenia lub sposoby dokończenia zdania. Rozwój narzędzi autosugestii opartych na sztucznej inteligencji, takich jak Google Smart Compose, zbiegł się w czasie z cyfrową transformacją komunikacji korporacyjnej, która obecnie odbywa się głównie online. Jego szacunkowa że przeciętny pracownik odpowiada na około 40 e-maili dziennie i wysyła ponad 200 wiadomości Slack tygodniowo.

Przesyłanie wiadomości grozi pochłonięciem coraz większej części dnia roboczego dzięki Adobe Ustalanie ilość czasu, jaką pracownicy spędzają na odpowiadaniu na e-maile – 15.5 godziny tygodniowo. Ciągłe przełączanie zadań to zmora produktywności, której badania wykazują korzyści płynące z nieprzerwanej pracy. Badania z University of California i Humboldt University odkryli, że pracownicy mogą tracić do 23 minut na wykonanie zadania za każdym razem, gdy ktoś im przerywa, dalsze wydłużanie dzień roboczy.

Narzędzia autosugestii obiecują zaoszczędzić czas, usprawniając pisanie wiadomości i odpowiadanie. Na przykład Inteligentna odpowiedź Google sugeruje szybkie odpowiedzi na e-maile, których napisanie normalnie zajęłoby kilka minut. Ale sztuczna inteligencja stojąca za tymi narzędziami ma wady, które mogą wprowadzać uprzedzenia lub wpływać na język używany w wiadomościach w niepożądany sposób.

Wzrost autosugestii i autouzupełniania tekstu

Przewidywanie tekstu nie jest nową technologią. Jeden z pierwszych powszechnie dostępnych przykładów, T9, który umożliwia tworzenie słów z jednego naciśnięcia klawisza dla każdej litery, był standardem w wielu telefonach komórkowych pod koniec lat 90. Jednak pojawienie się bardziej wyrafinowanych, skalowalnych technik sztucznej inteligencji w języku doprowadziło do skoków jakości — i zakresu — narzędzi autosugestii.

W 2017 r. Uruchomiono Google Inteligentna odpowiedź w Gmailu, które później firma przeniosła do innych usług Google, w tym do czatu i aplikacji innych firm. Według Google sztuczna inteligencja stojąca za Smart Reply generuje sugestie odpowiedzi „na podstawie pełnego kontekstu rozmowy”, a nie tylko pojedynczej wiadomości – rzekomo skutkując sugestiami, które są bardziej aktualne i trafne. Inteligentna kompozycja, która sugeruje pełne zdania w e-mailach, pojawiła się rok później w Gmailu i Dokumentach Google wkrótce potem. Podobna funkcja tzw sugerowane odpowiedzi trafił do Microsoft Outlook w 2018 roku i Teams w 2020 roku.

Technologia kryjąca się za nowymi narzędziami autosugestii — które niektóre kręgi akademickie nazywają „komunikacją za pośrednictwem sztucznej inteligencji” — znacznie wykracza poza to, co istniało w latach 90. Na przykład model AI leżący u podstaw Smart Compose został stworzony przy użyciu miliardów przykładów wiadomości e-mail i działa w chmurze na niestandardowym akceleratorze. Tymczasem Inteligentna odpowiedź — która posłużyła za podstawę Smart Compose — przyjmuje „hierarchiczne podejście” do sugestii, inspirowane tym, jak ludzie rozumieją języki i koncepcje.

Inteligentna odpowiedź firmy Microsoft

Powyżej: Inteligentna odpowiedź programu Outlook używa modeli głębokiego uczenia przeszkolonych w usłudze Azure Machine Learning.

Image Credit: Microsoft

„Treść języka jest głęboko zhierarchizowana, co znajduje odzwierciedlenie w samej strukturze języka…” Badacz Google Brian Strope i dyrektor techniczny Ray Kurzweil wyjaśniać w poście na blogu. „Rozważ wiadomość: „Ta interesująca osoba w kawiarni, którą lubimy, rzuciła na mnie okiem”. … Proponując odpowiednią odpowiedź na to przesłanie, możemy rozważyć znaczenie słowa „spojrzenie”, które jest potencjalnie wieloznaczne. Czy był to pozytywny gest? W takim przypadku moglibyśmy odpowiedzieć: „Super!”. A może był to negatywny gest? Jeśli tak, czy temat mówi coś o tym, jak autor czuł się w związku z negatywną wymianą? Aby dokonywać subtelnych rozróżnień, potrzeba wielu informacji o świecie i umiejętności dokonywania rozsądnych ocen. Biorąc pod uwagę wystarczającą liczbę przykładów języka, podejście do uczenia maszynowego może odkryć wiele z tych subtelnych różnic. ”

Ale podobnie jak w przypadku wszystkich technologii, nawet najbardziej wydajne narzędzia autosugestii są podatne na wady, które pojawiają się podczas procesu opracowywania i wdrażania.

Tak było w grudniu 2016 r ujawnił że funkcja autouzupełniania w wyszukiwarce Google sugerowała nienawistne i obraźliwe zakończenia dla określonych wyszukiwanych fraz, na przykład „czy żydzi są źli?” dla wyrażenia „są Żydami”. Według firmy winny był system algorytmiczny, który aktualizuje sugestie na podstawie tego, czego ostatnio szukali inni użytkownicy. Chociaż Google ostatecznie wdrożyło poprawkę, zajęło firmie kilka lat, aby zablokować sugestie autouzupełniania kontrowersyjne wypowiedzi polityczne w tym fałszywe twierdzenia dotyczące wymogów głosowania i legalności procesów wyborczych.

Inteligentna odpowiedź była znaleziono oferować emoji „osoba w turbanie” w odpowiedzi na wiadomość zawierającą emoji pistoletu. I autouzupełnianie Apple na iOS poprzednio sugerował tylko męskie emotikony na stanowiskach kierowniczych, w tym CEO, COO i CTO.

Dane stronnicze

Błędy w systemach autouzupełniania i autosugestii często wynikają z tendencyjnych danych. Miliony, a nawet miliardy przykładów, z których systemy się uczą, mogą być skażone tekstem toksyczne strony internetowe które kojarzą określone płcie, rasy, pochodzenie etnicznei religie z bolesnymi koncepcjami. Ilustrując problem, Kodeks, model generowania kodu opracowany przez laboratorium badawcze OpenAI, może zostać poproszony o napisanie słowa „terrorysta”, gdy usłyszy słowo „islam”. Kolejny duży model językowy od startupu AI Przystać do siebie ma tendencję do kojarzenia mężczyzn i kobiet ze stereotypowo „męskimi” i „kobiecymi” zawodami, takimi jak „naukowiec” i „gospodyni domowa”.

Inteligentne tworzenie plików w Dokumentach Google

Powyżej: Inteligentne tworzenie wiadomości w Dokumentach Google.

Adnotacje w danych mogą wprowadzać nowe problemy — lub pogłębiać istniejące. Ponieważ wiele modeli uczy się na podstawie etykiet, które informują, czy słowo, zdanie, akapit lub dokument ma określone cechy, takie jak pozytywne lub negatywne nastawienie, firmy i badacze rekrutują zespoły ludzkich adnotatorów do oznaczania przykładów, zazwyczaj z platform crowdsourcingowych, takich jak Amazon Mechanical Turk. Ci adnotatorzy wnoszą własne zestawy perspektyw — i uprzedzeń — do stołu.

W badaniu przeprowadzonym przez Allen Institute for AI, Carnegie Mellon i University of Washington naukowcy odkryli, że osoby etykietujące są bardziej skłonne do opisywania zwrotów w dialekcie afroamerykańskiego angielskiego (AAE) bardziej toksycznych niż ich odpowiedniki w ogólnym amerykańskim angielskim – pomimo ich zrozumienia jako nietoksyczne przez głośniki AAE. Jigsaw, organizacja działająca pod firmą Google, Alphabet, zajmująca się zwalczaniem cybernękania i dezinformacji, doszła do podobnych wniosków w swoich eksperymentach. Naukowcy z firmy odkryli różnice w adnotacjach między osobami, które identyfikują się jako Afroamerykanie i członkami społeczności LGBTQ+, a osobami, które nie identyfikują się jako żadna z tych grup.

Czasami stronniczość jest zamierzona — kwestia lokalnych kompromisów. Na przykład, Pisarz, startup opracowujący asystenta AI do generowania treści, mówi, że w swoich sugestiach dotyczących pisania traktuje priorytetowo „angielski biznesowy”. CEO May Habib podała przykład „nawykowego bycia” w AAVE, czasowniku, który nie istnieje w żadnym innym stylu angielskiego.

„Ponieważ [nawykowe be] tradycyjnie nie było używane w angielskim biznesowym, a zatem nie pojawia się z dużą częstotliwością w naszych zbiorach danych, poprawilibyśmy „Wy wszyscy robicie tu jakieś dziwne rzeczy” na „Y” wszyscy tutaj robią jakieś dziwne rzeczy” – powiedział Habib w rozmowie z VentureBeat za pośrednictwem poczty elektronicznej. „[To powiedziawszy] ręcznie upewniliśmy się, że pozdrowienia i podpisy oparte na języku narodowym nie będą oznaczane przez Writer. Niektóre języki ojczyste są bardziej neutralne pod względem płci niż formalny angielski biznesowy [na przykład], więc są bardziej nowoczesne i zgodne z marką dla firm”.

Wpływanie na pisanie

Kiedy uprzedzenia — zamierzone lub nie — przedostają się do systemów autouzupełniania i autosugestii, mogą zmienić sposób, w jaki piszemy. Ogromna skala działania tych systemów sprawia, że ​​ich całkowite uniknięcie jest trudne (jeśli nie niemożliwe). Inteligentna odpowiedź była odpowiedzialny za 10% wszystkich odpowiedzi Gmail wysłanych ze smartfonów w 2016 roku.

W jednym z bardziej kompleksowych kontrole narzędzi do autouzupełniania, zespół badaczy firmy Microsoft przeprowadził wywiady z ochotnikami, którym polecono, aby podzielili się swoimi przemyśleniami na temat automatycznie generowanych odpowiedzi w Outlooku. Respondenci uznali, że niektóre odpowiedzi były zbyt pozytywne, błędne w ich założeniach dotyczących kultury i płci oraz zbyt niegrzeczne w pewnych kontekstach, takich jak korespondencja korporacyjna. Mimo to eksperymenty przeprowadzone podczas badania wykazały, że użytkownicy częściej faworyzowali krótkie, pozytywne i uprzejme odpowiedzi sugerowane przez Outlooka.

Inteligentna odpowiedź Google YouTube

Oddzielne badanie przeprowadzone na Harvardzie wykazało, że gdy osobom piszącym o restauracji przedstawiano „pozytywne” sugestie autouzupełniania, uzyskane recenzje były bardziej pozytywne niż w przypadku negatywnych sugestii. „To ekscytujące myśleć o tym, w jaki sposób predykcyjne systemy tekstowe przyszłości mogą pomóc ludziom stać się znacznie skuteczniejszymi pisarzami, ale potrzebujemy również przejrzystości i odpowiedzialności, aby chronić się przed sugestiami, które mogą być stronnicze lub zmanipulowane” — Ken Arnold, badacz z Harvard's School of Inżynierii i Nauk Stosowanych, który brał udział w badaniu, powiedział BBC.

Jeśli istnieje kompleksowe rozwiązanie problemu szkodliwego autouzupełniania, to nie zostało ono jeszcze odkryte. Google zdecydowało się po prostu zablokować sugestie zaimków oparte na płci w Smart Compose, ponieważ system okazał się słabym predyktorem płci i tożsamości płciowej odbiorców. LinkedIn firmy Microsoft unika również zaimków związanych z płcią w inteligentnych odpowiedziach, swoim narzędziu do przewidywania wiadomości, aby zapobiec potencjalnym błędom.

Współautorzy Microsoft „The Puzzle of Monogamous Marriage” ostrzegają, że jeśli projektanci systemów nie zajmą się proaktywnie niedociągnięciami w technologiach autouzupełniania, narażą się na ryzyko nie tylko urazy użytkowników, ale także utraty przez nich zaufania do systemów. „Projektanci systemów powinni zbadać strategie personalizacji na poziomie jednostki i sieci społecznościowej, zastanowić się, w jaki sposób wartości kulturowe i uprzedzenia społeczne mogą być utrwalane przez ich systemy, oraz zbadać modelowanie interakcji społecznych, aby rozpocząć rozwiązywanie ograniczeń i problemów” – napisali. „[Nasze] odkrycia wskazują, że obecne systemy rekomendacji tekstowych dla poczty e-mail i innych [podobnych] technologii są niewystarczająco dopracowane, aby odzwierciedlić subtelności rzeczywistych relacji społecznych i potrzeb komunikacyjnych. “

VentureBeat

Misją VentureBeat jest bycie cyfrowym placem miejskim dla decydentów technicznych, którzy zdobywają wiedzę na temat transformacyjnych technologii i transakcji. Nasza witryna zawiera podstawowe informacje na temat technologii danych i strategii, które pomogą Ci kierować organizacjami. Zapraszamy do zostania członkiem naszej społeczności, aby uzyskać dostęp do:

  • aktualne informacje na interesujące Cię tematy
  • nasze biuletyny
  • zamknięte, przemyślane treści i obniżony dostęp do naszych cennych wydarzeń, takich jak Przekształć 2021: Ucz się więcej
  • funkcje sieciowe i nie tylko

Zostań członkiem

Źródło: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

Znak czasu:

Więcej z AI - VentureBeat