Sistemi samodokončanja besedila želijo olajšati naša življenja, vendar obstajajo tveganja

Izvorno vozlišče: 1575782

Prisluhnite CIO-jem, tehničnim direktorjem in drugim vodjem na ravni C in višjim izvršnim direktorjem o podatkih in strategijah umetne inteligence na srečanju Future of Work Summit 12. januarja 2022. Nauči se več


Če ste pred kratkim napisali besedilno sporočilo ali e-pošto, vam bo umetna inteligenca verjetno predlagala različne sinonime, besedne zveze ali načine za dokončanje stavka. Vzpon orodij za samosugestijo, ki jih poganja umetna inteligenca, kot je Googlov Smart Compose, je sovpadel z digitalno preobrazbo poslovnih komunikacij, ki zdaj živijo večinoma na spletu. je ocenjeni da tipičen delavec vsak dan odgovori na približno 40 elektronskih sporočil in pošlje več kot 200 Slack sporočil na teden.

Pošiljanje sporočil grozi, da bo z Adobejem porabilo vse večji del delovnega dne trdne vezave čas, ki ga zaposleni porabijo za odgovarjanje na e-pošto, in sicer 15.5 ure na teden. Nenehno preklapljanje med nalogami je smrtni zvon za produktivnost, kar študije kažejo na koristi neprekinjenega dela. raziskave z Univerze v Kaliforniji in Univerze Humboldt so ugotovili, da lahko delavci izgubijo do 23 minut pri opravilu vsakič, ko jih prekinejo, nadaljnje podaljševanje delovni dan.

Orodja za samosugestijo obljubljajo prihranek časa s poenostavitvijo pisanja sporočil in odgovarjanja. Googlov pametni odgovor na primer predlaga hitre odgovore na e-poštna sporočila, ki običajno trajajo nekaj minut, da jih natipkate. Toda umetna inteligenca, ki stoji za temi orodji, ima pomanjkljivosti, ki bi lahko povzročile pristranskost ali na neželen način vplivale na jezik, ki se uporablja pri sporočanju.

Rast avtosugestije in samodokončanja besedila

Predvidevanje besedila ni nova tehnologija. Eden prvih splošno dostopnih primerov, T9, ki omogoča sestavljanje besed z enim samim pritiskom na tipko za vsako črko, je bil standard na mnogih mobilnih telefonih v poznih 90. letih. Toda pojav bolj sofisticiranih, razširljivih tehnik umetne inteligence v jeziku je povzročil skok v kakovosti – in širini – orodij za avtosugestijo.

Leta 2017 je Google predstavil Pametni odgovor v Gmailu, ki ga je podjetje kasneje preneslo v druge Googlove storitve, vključno s klepetom in aplikacijami tretjih oseb. Po mnenju Googla AI, ki stoji za pametnim odgovorom, ustvarja predloge odgovorov "na podlagi celotnega konteksta pogovora," ne le enega sporočila - kar navidezno povzroči predloge, ki so bolj pravočasni in ustrezni. Pametno sestavljanje, ki predlaga celotne stavke v e-poštnih sporočilih, je leto kasneje prispel v Gmail in Google Dokumente kmalu zatem. Podobna funkcija, imenovana predlaganih odgovorov prišel v Microsoft Outlook leta 2018 in Teams leta 2020.

Tehnologija, ki stoji za novim pridelkom orodij za avtosugestijo – ki jo nekateri akademski krogi imenujejo »komunikacija, posredovana z umetno inteligenco« – presega tisto, kar je obstajalo v 90. letih. Na primer, model AI, na katerem temelji Smart Compose, je bil ustvarjen z uporabo milijard primerov e-poštnih sporočil in deluje v oblaku na prilagojeni strojni opremi za pospeševanje. Medtem ima Smart Reply - ki je služil kot temelj za Smart Compose - "hierarhični pristop" k predlogom, ki se zgleduje po tem, kako ljudje razumejo jezike in koncepte.

Microsoftov pametni odgovor

Zgoraj: Outlookov pametni odgovor uporablja modele globokega učenja, usposobljene v strojnem učenju Azure.

Zasluge za slike: Microsoft

»Vsebina jezika je globoko hierarhična, kar se odraža v strukturi samega jezika …« Googlov raziskovalec Brian Strope in inženirski direktor Ray Kurzweil razložiti v objavi v blogu. »Razmislite o sporočilu: 'Ta zanimiva oseba v kavarni, ki nam je všeč, me je pogledala.' … Pri predlaganju ustreznega odgovora na to sporočilo bi lahko razmislili o pomenu besede 'pogled', ki je potencialno dvoumen. Je bila to pozitivna gesta? V tem primeru lahko odgovorimo: 'Kul!' Ali pa je bila to negativna gesta? Če je odgovor pritrdilen, ali predmet pove kaj o tem, kako se je pisec počutil glede negativne izmenjave? Za subtilno razlikovanje je potrebnih veliko informacij o svetu in sposobnost utemeljenega presojanja. Ob dovolj primerih jezika lahko pristop strojnega učenja odkrije veliko teh subtilnih razlik. ”

Toda kot pri vseh tehnologijah so tudi najzmogljivejša orodja za samosugestijo dovzetna za napake, ki se pojavijo med postopkom razvoja in uvajanja.

Decembra 2016 je bilo je pokazala, da je funkcija samodokončanja Iskanja Google predlagala sovražne in žaljive končnice za določene iskalne fraze, kot je »ali so Judje zlobni?« za frazo "so Judje". Po mnenju podjetja je bil kriv algoritemski sistem, ki posodablja predloge na podlagi tega, kar so drugi uporabniki nedavno iskali. Medtem ko je Google na koncu uvedel popravek, je trajalo še nekaj let, da je podjetje blokiralo predloge samodokončanja za kontroverzne politične izjave vključno z lažnimi trditvami o volilnih zahtevah in legitimnosti volilnih postopkov.

Pametni odgovor je bil je pokazala, ponuditi emoji »oseba, ki nosi turban« kot odgovor na sporočilo, ki je vključevalo emoji pištolo. In Applovo samodejno dokončanje v sistemu iOS prej predlagal samo moške emodžije za izvršne vloge, vključno s CEO, COO in CTO.

Pristranski podatki

Napake v sistemih samodokončanja in samosugestije pogosto izhajajo iz pristranskih podatkov. Milijoni do milijarde primerov, iz katerih se sistemi učijo, so lahko okuženi z besedilom strupenih spletnih mest ki povezujejo določene spole, rase, narodnosti, in religije s škodljivimi koncepti. Ponazoritev problema, Codex, model za ustvarjanje kode, ki ga je razvil raziskovalni laboratorij OpenAI, lahko ob besedi »islam« napiše »terorist«. Še en velik jezikovni model iz zagonskega podjetja AI Koher nagiba k povezovanju moških in žensk s stereotipno »moškimi« in »ženskimi« poklici, kot sta »znanstvenik« in »gospodinja«.

Pametno sestavljanje za Google Dokumente

Zgoraj: Pametno sestavljanje za Google Dokumente.

Opombe v podatkih lahko povzročijo nove težave ali poslabšajo obstoječe. Ker se mnogi modeli učijo iz oznak, ki sporočajo, ali ima beseda, stavek, odstavek ali dokument določene značilnosti, kot je pozitiven ali negativen občutek, podjetja in raziskovalci zaposlijo skupine človeških označevalcev za označevanje primerov, običajno iz platform za zbiranje množic, kot je Amazon Mechanical Turk. Ti opombevalci na mizo prinesejo lastne nabore perspektiv – in pristranskosti.

V študiji Allenovega inštituta za umetno inteligenco, Carnegie Mellon in Univerze v Washingtonu so znanstveniki ugotovili, da bodo označevalci verjetneje dodajali pripombe besednim zvezam v narečju afroameriške angleščine (AAE), ki so bolj strupena kot splošni ameriški angleški ustrezniki – kljub temu, da jih razumejo. kot nestrupen za zvočnike AAE. Jigsaw, organizacija, ki deluje v okviru Googlove matične družbe Alphabet za boj proti spletnemu ustrahovanju in dezinformacijam, je v svojih poskusih prišla do podobnih zaključkov. Raziskovalci v podjetju so odkrili razlike v opombah med označevalci, ki se identificirajo kot Afroameričani in člani skupnosti LGBTQ+, v primerjavi z označevalci, ki se ne identificirajo kot nobena od teh skupin.

Včasih je pristranskost namerna – stvar ljudskih kompromisov. na primer Writer, startup, ki razvija pomočnika z umetno inteligenco za ustvarjanje vsebine, pravi, da v svojih predlogih za pisanje daje prednost »poslovni angleščini«. Generalni direktor May Habib je navedel primer »habitual be« v AAVE, glagolskega časa, ki ne obstaja v nobenem drugem slogu angleščine.

»Ker [običajni be] tradicionalno ni bil uporabljen v poslovni angleščini in se zato v naših zbirkah podatkov ne pojavlja pogosto, bi popravili 'Vsi tukaj počnete čudne stvari' v 'Y'. vsi tukaj počnejo čudne stvari,« je Habib povedal VentureBeatu po elektronski pošti. »[Ne glede na to] smo ročno zagotovili, da Writer ne bo označil pozdravov in odjav v ljudskem jeziku. Nekatere ljudske govorice so bolj spolno nevtralne kot uradna poslovna angleščina, [na primer], zato so bolj moderne in so značilne za podjetja.«

Vpliv na pisanje

Ko pristranskosti – namerne ali ne – pridejo v sisteme samodokončanja in samosugestije, lahko spremenijo način pisanja. Zaradi ogromnega obsega delovanja teh sistemov se jim je težko (če ne nemogoče) popolnoma izogniti. Pametni odgovor je bil odgovorna za 10 % vseh odgovorov v Gmailu, poslanih s pametnih telefonov v letu 2016.

V enem obsežnejših revizije orodij za samodokončanje je skupina Microsoftovih raziskovalcev opravila intervjuje s prostovoljci, ki so jim rekli, naj izrazijo svoje mnenje o samodejno ustvarjenih odgovorih v Outlooku. Intervjuvanci so ugotovili, da so bili nekateri odgovori preveč pozitivni, napačni v njihovih predpostavkah o kulturi in spolu ter preveč nevljudni za določene kontekste, kot je korporativna korespondenca. Kljub temu so poskusi med študijo pokazali, da so uporabniki bolj verjetno naklonjeni kratkim, pozitivnim in vljudnim odgovorom, ki jih predlaga Outlook.

Google SmartReply YouTube

Ločena harvardska študija je pokazala, da so bile ocene, ko so ljudje, ki so pisali o restavraciji, prejeli "pozitivne" predloge za samodokončanje, bolj pozitivne, kot če so bili predstavljeni z negativnimi predlogi. "Vznemirljivo je razmišljati o tem, kako bi lahko sistemi predvidevanja besedil v prihodnosti pomagali ljudem, da postanejo veliko bolj učinkoviti pisci, vendar potrebujemo tudi preglednost in odgovornost za zaščito pred predlogi, ki so lahko pristranski ali manipulirani," Ken Arnold, raziskovalec na Harvardski šoli za inženirstva in uporabnih znanosti, ki je sodeloval v študiji, Rekel BBC.

Če obstaja vseobsegajoča rešitev za problem škodljivega samodokončanja, je še niso odkrili. Google se je odločil, da preprosto blokira predloge zaimkov na podlagi spola v Smart Compose, ker se je izkazalo, da sistem slabo napoveduje spol in spolno identiteto prejemnikov. Microsoftov LinkedIn se prav tako izogiba zaimkom, povezanim s spolom, v pametnih odgovorih, svojem orodju za napovedovanje sporočanja, da prepreči morebitne napake.

Soavtorji Microsofta študija opozarjajo, da če načrtovalci sistemov ne bodo proaktivno obravnavali pomanjkljivosti v tehnologijah samodokončanja, bodo tvegali, da bodo uporabnike ne samo užalili, temveč povzročili, da bodo nezaupali v sisteme. "Načrtovalci sistemov bi morali raziskati strategije personalizacije na ravni posameznika in družbenega omrežja, razmisliti o tem, kako lahko njihovi sistemi ohranjajo kulturne vrednote in družbene pristranskosti, in raziskati modeliranje družbenih interakcij, da bi začeli obravnavati omejitve in težave," so zapisali. »Naše ugotovitve kažejo, da trenutni sistemi za priporočila besedila za e-pošto in druge [podobne] tehnologije ostajajo premalo niansirani, da bi odražali razlik v družbenih odnosih in komunikacijskih potrebah v resničnem svetu. “

Venturebeat

Poslanstvo VentureBeat je biti digitalni mestni trg za tiste, ki sprejemajo tehnične odločitve, da pridobijo znanje o transformativni tehnologiji in transakcijah. Na našem spletnem mestu so na voljo bistvene informacije o podatkovnih tehnologijah in strategijah, ki vas bodo vodile, ko vodite svoje organizacije. Vabimo vas, da postanete član naše skupnosti in dostopate do:

  • najnovejše informacije o temah, ki vas zanimajo
  • naša glasila
  • zaprta vsebina vodje misli in popust za dostop do naših cenjenih dogodkov, kot je Preoblikujte 2021: Nauči se več
  • funkcije mreženja in še več

Postani član

Vir: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

Časovni žig:

Več od AI – VentureBeat