System för automatisk komplettering av text syftar till att underlätta våra liv, men det finns risker

Källnod: 1575782

Hör från CIO:er, CTO:er och andra C-nivå och högre chefer om data och AI-strategier vid Future of Work Summit den 12 januari 2022. LÄR DIG MER


Om du har skrivit ett sms eller e-post nyligen, är chansen stor att AI föreslår dig olika synonymer, fraser eller sätt att avsluta en mening. Framväxten av AI-drivna autosuggestionsverktyg som Googles Smart Compose har sammanfallit med den digitala omvandlingen av företagskommunikation, som nu mestadels lever online. Dess beräknad att den typiska arbetaren svarar på cirka 40 e-postmeddelanden varje dag och sänder mer än 200 Slack-meddelanden per vecka.

Meddelanden hotar att ta upp en allt större del av arbetsdagen, med Adobe spikn den tid som arbetare ägnar åt att svara på e-post med 15.5 timmar i veckan. Det ständiga arbetsbytet är en dödsstöt för produktiviteten, vilka studier visar fördelar med oavbrutet arbete. Forskning från University of California och Humboldt University fann att arbetare kan förlora upp till 23 minuter på en uppgift varje gång de avbryts, ytterligare förlängning arbetsdagen.

Autosuggestionsverktyg lovar att spara tid genom att effektivisera meddelandeskrivning och svar. Googles Smart Reply, till exempel, föreslår snabba svar på e-postmeddelanden som normalt tar minuter att skriva ut. Men AI:n bakom dessa verktyg har brister som kan introducera fördomar eller påverka språket som används i meddelanden på oönskade sätt.

Ökningen av autosuggestion och textautokomplettering

Prediktiv text är inte en ny teknik. Ett av de första allmänt tillgängliga exemplen, T9, som gör att ord kan bildas från en enda knapptryckning för varje bokstav, kom som standard på många mobiltelefoner i slutet av 90-talet. Men tillkomsten av mer sofistikerade, skalbara AI-tekniker i språk ledde till språng i kvaliteten – och bredden – på autosuggestionsverktyg.

2017 lanserade Google Smart svar i Gmail, som företaget senare förde till andra Google-tjänster inklusive chatt och tredjepartsappar. Enligt Google genererar AI:n bakom Smart Reply svarsförslag "baserat på konversationens fullständiga sammanhang", inte bara ett enda meddelande - vilket skenbart resulterar i förslag som är mer aktuella och relevanta. Smart komponera, som föreslår fullständiga meningar i e-postmeddelanden, kom till Gmail ett år senare och Google Docs snart efter. En liknande funktion kallas föreslagna svar kom till Microsoft Outlook 2018 och Teams 2020.

Tekniken bakom den nya skörden av autosuggestionsverktyg - som vissa akademiska kretsar kallar "AI-medierad kommunikation" - är steg längre än vad som fanns på 90-talet. Till exempel skapades AI-modellen som ligger till grund för Smart Compose med hjälp av miljarder exempel på e-postmeddelanden och körningar i molnet på anpassad acceleratorhårdvara. Samtidigt tar Smart Reply – som fungerade som grunden för Smart Compose – ett "hierarkiskt förhållningssätt" till förslag, inspirerat av hur människor förstår språk och begrepp.

Microsofts smarta svar

Ovan: Outlooks Smart Reply använder djupinlärningsmodeller som tränats i Azure Machine Learning.

Bildkredit: Microsoft

"Språkets innehåll är djupt hierarkiskt, vilket återspeglas i själva språkets struktur ..." Googles forskare Brian Strope och ingenjörschef Ray Kurzweil förklara i ett blogginlägg. "Tänk på meddelandet "Den där intressanta personen på kaféet vi gillar gav mig en blick." … När vi föreslår ett lämpligt svar på detta meddelande kan vi överväga innebörden av ordet "blick", som är potentiellt tvetydig. Var det en positiv gest? I så fall kan vi svara "Cool!" Eller var det en negativ gest? Om så är fallet, säger ämnet något om hur skribenten upplevde det negativa utbytet? Mycket information om världen, och en förmåga att göra motiverade bedömningar, behövs för att göra subtila distinktioner. Med tanke på tillräckligt många exempel på språk kan en maskininlärningsmetod upptäcka många av dessa subtila distinktioner. ”

Men som med all teknik är även de mest kapabla autosuggestionsverktygen mottagliga för brister som dyker upp under utvecklings- och distributionsprocessen.

I december 2016 var det så avslöjade att Google Söks autoslutförandefunktion föreslog hatiska och stötande slut på specifika sökfraser, som "är judar onda?" för frasen "är judar". Enligt företaget var felet ett algoritmiskt system som uppdaterar förslag baserat på vad andra användare har sökt efter nyligen. Medan Google så småningom implementerade en korrigering tog det flera år för företaget att blockera förslag på autoslutförande kontroversiella politiska uttalanden inklusive falska påståenden om röstkrav och valprocessens legitimitet.

Smart Reply har varit hittade att erbjuda "personen som bär turban"-emoji som svar på ett meddelande som inkluderade en vapen-emoji. Och Apples autokomplettering på iOS tidigare föreslog endast manliga emoji för ledande roller inklusive VD, COO och CTO.

Partisk data

Brister i autokomplettering och autosuggestionssystem uppstår ofta från partisk data. De miljontals till miljarder exempel som systemen lär sig av kan befläckas med text från giftiga webbplatser som associerar vissa kön, raser, etniciteteroch religioner med sårande begrepp. illustrerar problemet, Codex, en kodgenererande modell utvecklad av forskningslabbet OpenAI, kan uppmanas att skriva "terrorist" när den matas med ordet "islam". Ytterligare en stor språkmodell från AI-startup Hänga ihop tenderar att associera män och kvinnor med stereotypt "manliga" och "kvinnliga" yrken, som "manlig vetenskapsman" och "kvinnlig hushållerska".

Smart Compose för Google Dokument

Ovan: Smart Compose för Google Dokument.

Anteckningar i data kan introducera nya problem – eller förvärra befintliga. Eftersom många modeller lär sig av etiketter som kommunicerar om ett ord, en mening, ett stycke eller ett dokument har vissa egenskaper, som en positiv eller negativ känsla, rekryterar företag och forskare team av mänskliga annotatorer för att märka exempel, vanligtvis från crowdsourcing-plattformar som Amazon Mechanical Turk. Dessa kommentatorer tar med sina egna perspektiv – och fördomar – till bordet.

I en studie från Allen Institute for AI, Carnegie Mellon och University of Washington fann forskare att etiketter är mer benägna att kommentera fraser på dialekten afroamerikansk engelska (AAE) som är giftigare än allmänna amerikanska engelska motsvarigheter – trots att de förstås som giftfri av AAE-högtalare. Sticksåg, organisationen som arbetar under Googles moderbolag Alphabet för att ta itu med cybermobbning och desinformation, har dragit liknande slutsatser i sina experiment. Forskare vid företaget har upptäckt skillnader i anteckningarna mellan etiketterare som identifierar sig som afroamerikaner och medlemmar av HBTQ+-gemenskapen jämfört med annotatorer som inte identifierar sig som någon av dessa grupper.

Ibland är fördomen avsiktlig - en fråga om folkliga avvägningar. Till exempel, Författare, en startup som utvecklar en AI-assistent för innehållsgenerering, säger att den prioriterar "affärsengelska" i sina skrivförslag. VD May Habib gav exemplet "habitual be" i AAVE, en verbtid som inte finns i någon annan stil av engelska.

"Eftersom [the habitual be] traditionellt inte har använts på affärsengelska, och därför inte dyker upp i hög frekvens i våra datauppsättningar, skulle vi korrigera 'Ni gör några konstiga saker här ute' till 'Y' alla gör några konstiga saker här ute," sa Habib till VentureBeat via e-post. "[När det är sagt] såg vi manuellt till att folkspråksbaserade hälsningar och sign-offs inte skulle flaggas av Writer. En del folkspråk är mer könsneutrala än formell affärsengelska, [till exempel], så är det mer modernt och anpassat för företag."

Att påverka skrivandet

När fördomar - avsiktliga eller inte - gör det till autokomplettering och autosuggestionssystem, kan de ändra sättet vi skriver på. Den enorma skalan som dessa system fungerar i gör dem svåra (om inte omöjliga) att helt undvika. Smart svar var ansvarig för 10 % av alla Gmail-svar som skickades från smartphones under 2016.

I en av de mer omfattande revisioner av verktyg för automatisk komplettering genomförde ett team av Microsoft-forskare intervjuer med volontärer som blev tillsagda att ge sina tankar om automatiskt genererade svar i Outlook. Intervjupersonerna fann att en del av svaren var överpositiva, felaktiga i sina antaganden om kultur och kön, och alltför oartigt för vissa sammanhang, som företagskorrespondenser. Ändå visade experiment under studien att användare var mer benägna att gynna korta, positiva och artiga svar som föreslagits av Outlook.

Google SmartReply YouTube

En separat Harvard-studie fann att när personer som skrev om en restaurang presenterades för "positiva" autokompletteringsförslag, tenderade de resulterande recensionerna att vara mer positiva än om de presenterades med negativa förslag. "Det är spännande att tänka på hur framtidens prediktiva textsystem kan hjälpa människor att bli mycket mer effektiva författare, men vi behöver också transparens och ansvarsskyldighet för att skydda mot förslag som kan vara partiska eller manipulerade," Ken Arnold, forskare vid Harvard's School of Ingenjörs- och yrkesvetenskap som var involverad i studien, berättade BBC.

Om det finns en heltäckande lösning på problemet med skadlig autokomplettering, har den inte upptäckts ännu. Google valde att helt enkelt blockera könsbaserade pronomenförslag i Smart Compose eftersom systemet visade sig vara en dålig prediktor för mottagarnas kön och könsidentiteter. Microsofts LinkedIn undviker också könade pronomen i Smart Replies, dess verktyg för förutsägande meddelanden, för att förhindra potentiella misstag.

Medförfattarna till Microsoft studera varna för att om systemdesigners inte proaktivt tar itu med bristerna i teknik för automatisk komplettering, riskerar de att inte bara förolämpa användare utan att få dem att misstro systemen. "Systemdesigners bör utforska personaliseringsstrategier på individ- och socialt nätverksnivå, överväga hur kulturella värden och samhälleliga fördomar kan vidmakthållas av deras system, och utforska social interaktionsmodellering för att börja ta itu med begränsningarna och problemen", skrev de. "[O]våra resultat tyder på att nuvarande textrekommendationssystem för e-post och andra [liknande] tekniker förblir otillräckligt nyanserade för att återspegla subtiliteterna i verkliga sociala relationer och kommunikationsbehov. "

VentureBeat

VentureBeats uppdrag är att vara ett digitalt torg för tekniska beslutsfattare för att få kunskap om transformativ teknik och transaktioner. Vår webbplats levererar viktig information om datateknik och strategier för att vägleda dig när du leder dina organisationer. Vi inbjuder dig att bli medlem i vårt samhälle och få tillgång till:

  • uppdaterad information om de ämnen som är intressanta för dig
  • våra nyhetsbrev
  • gated tanke-ledare innehåll och rabatterad tillgång till våra uppskattade evenemang, såsom Transformera 2021: Läs mer
  • nätverksfunktioner och mer

Bli medlem

Källa: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

Tidsstämpel:

Mer från AI - VentureBeat