Systemen voor het automatisch aanvullen van tekst zijn bedoeld om ons leven te vergemakkelijken, maar er zijn risico's aan verbonden

Bronknooppunt: 1575782

Hoor van CIO's, CTO's en andere C-level en senior executives over data en AI-strategieën op de Future of Work Summit op 12 januari 2022. Kom meer te weten


Als je onlangs een sms of e-mail hebt geschreven, is de kans groot dat AI je verschillende synoniemen, zinsdelen of manieren om een ​​zin af te maken voorstelt. De opkomst van door AI aangedreven tools voor autosuggestie, zoals Smart Compose van Google, viel samen met de digitale transformatie van bedrijfscommunicatie, die nu grotendeels online plaatsvindt. Zijn geschat dat de gemiddelde werknemer elke dag ongeveer 40 e-mails beantwoordt en verzendt meer dan 200 Slack-berichten per week.

Berichten dreigen een steeds groter deel van de werkdag in beslag te nemen, met Adobe pegging de hoeveelheid tijd die werknemers 15.5 uur per week besteden aan het beantwoorden van e-mails. Het constant wisselen van taak is een doodsteek voor de productiviteit, waarvan studies aantonen dat ononderbroken werken voordelen biedt. Onderzoek van de University of California en Humboldt University ontdekten dat werknemers elke keer dat ze onderbroken worden tot 23 minuten kwijt kunnen zijn aan een taak, verdere verlenging de werkdag.

Autosuggestietools beloven tijd te besparen door het schrijven en beantwoorden van berichten te stroomlijnen. Smart Reply van Google suggereert bijvoorbeeld snelle reacties op e-mails die normaal gesproken minuten in beslag nemen. Maar de AI achter deze tools heeft tekortkomingen die vooroordelen kunnen introduceren of de taal die in berichten wordt gebruikt op ongewenste manieren kunnen beïnvloeden.

De groei in autosuggestie en automatische aanvulling van tekst

Voorspellende tekst is geen nieuwe technologie. Een van de eerste algemeen beschikbare voorbeelden, T9, waarmee woorden kunnen worden gevormd met een enkele toetsdruk voor elke letter, werd eind jaren '90 standaard op veel mobiele telefoons. Maar de komst van meer geavanceerde, schaalbare AI-technieken in taal leidde tot sprongen in de kwaliteit - en breedte - van autosuggestietools.

In 2017 werd Google gelanceerd Smart Reply in Gmail, dat het bedrijf later naar andere Google-services bracht, waaronder Chat en apps van derden. Volgens Google genereert de AI achter Smart Reply antwoordsuggesties "op basis van de volledige context van een gesprek", niet slechts een enkel bericht - ogenschijnlijk resulterend in suggesties die actueler en relevanter zijn. Slimme samenstelling, dat volledige zinnen in e-mails suggereert, arriveerde een jaar later in Gmail en Google Docs kort daarna. Een vergelijkbare functie genaamd voorgestelde antwoorden kwam in 2018 naar Microsoft Outlook en in 2020 naar Teams.

De technologie achter de nieuwe lichting tools voor autosuggestie – die in sommige academische kringen “AI-gemedieerde communicatie” wordt genoemd – gaat veel verder dan wat er in de jaren 90 bestond. Het AI-model dat aan Smart Compose ten grondslag ligt, is bijvoorbeeld gemaakt met behulp van miljarden voorbeelden van e-mails en draait in de cloud op aangepaste accelerator-hardware. Ondertussen hanteert Smart Reply - dat als basis diende voor Smart Compose - een "hiërarchische benadering" van suggesties, geïnspireerd door hoe mensen talen en concepten begrijpen.

Microsoft Slim antwoord

Boven: Smart Reply van Outlook maakt gebruik van deep learning-modellen die zijn getraind in Azure Machine Learning.

Beeldcredits: Microsoft

"De inhoud van taal is diep hiërarchisch, weerspiegeld in de structuur van taal zelf ..." Google-onderzoeker Brian Strope en technisch directeur Ray Kurzweil verklaren in een blogpost. 'Denk aan de boodschap: 'Die interessante persoon in het café die we leuk vinden, heeft me een blik gegeven.' … Bij het voorstellen van een passend antwoord op dit bericht zouden we de betekenis van het woord 'blik' kunnen overwegen, wat mogelijk dubbelzinnig is. Was het een positief gebaar? In dat geval kunnen we reageren met 'Cool!' Of was het een negatief gebaar? Zo ja, zegt het onderwerp iets over hoe de schrijver zich voelde over de negatieve uitwisseling? Er is veel informatie over de wereld nodig en het vermogen om beredeneerde oordelen te vellen om subtiele verschillen te kunnen maken. Gegeven genoeg voorbeelden van taal, kan een machine learning-benadering veel van deze subtiele verschillen ontdekken. ”

Maar zoals met alle technologieën, zijn zelfs de meest capabele autosuggestietools vatbaar voor fouten die opduiken tijdens het ontwikkelings- en implementatieproces.

In december 2016 was het zover onthuld dat de autocomplete-functie van Google Search hatelijke en aanstootgevende eindes suggereerde voor specifieke zoektermen, zoals "zijn joden slecht?" voor de uitdrukking "zijn joden". Volgens het bedrijf was de fout een algoritmisch systeem dat suggesties bijwerkt op basis van waar andere gebruikers onlangs naar hebben gezocht. Hoewel Google uiteindelijk een oplossing implementeerde, duurde het nog een aantal jaren voordat het bedrijf suggesties voor automatisch aanvullen blokkeerde omstreden politieke uitspraken inclusief valse beweringen over stemvereisten en de legitimiteit van verkiezingsprocessen.

Smart Reply is geweest gevonden om de 'persoon met tulband'-emoji aan te bieden als reactie op een bericht met een geweer-emoji. En de automatische aanvulling van Apple op iOS die eerder suggereerde alleen mannelijke emoji voor uitvoerende functies, waaronder CEO, COO en CTO.

Bevooroordeelde gegevens

Fouten in systemen voor automatische aanvulling en automatische suggestie komen vaak voort uit bevooroordeelde gegevens. De miljoenen tot miljarden voorbeelden waarvan de systemen leren, kunnen besmet zijn met tekst giftige websites die bepaalde geslachten, rassen, etniciteiten, en religies met kwetsende concepten. Het probleem illustreren, Codex, een codegenererend model ontwikkeld door onderzoekslaboratorium OpenAI, kan worden gevraagd om "terrorist" te schrijven wanneer het woord "islam" wordt ingevoerd. Nog een groot taalmodel van AI-startup Samenhangen heeft de neiging om mannen en vrouwen te associëren met stereotiepe 'mannelijke' en 'vrouwelijke' beroepen, zoals 'mannelijke wetenschapper' en 'vrouwelijke huishoudster'.

Smart Compose voor Google Documenten

Boven: Smart Compose voor Google Docs.

Annotaties in de gegevens kunnen nieuwe problemen introduceren of bestaande problemen verergeren. Omdat veel modellen leren van labels die aangeven of een woord, zin, alinea of ​​document bepaalde kenmerken heeft, zoals een positief of negatief sentiment, rekruteren bedrijven en onderzoekers teams van menselijke annotators om voorbeelden te labelen, meestal van crowdsourcingplatforms zoals Amazon Mechanical Turk. Deze annotators brengen hun eigen sets van perspectieven - en vooroordelen - ter tafel.

In een studie van het Allen Institute for AI, Carnegie Mellon en de University of Washington, ontdekten wetenschappers dat labelers meer kans hebben om zinnen in het Afrikaans-Amerikaans Engels (AAE) dialect te annoteren die giftiger zijn dan algemene Amerikaans-Engelse equivalenten - ondanks dat ze worden begrepen als niet-toxisch door AAE-luidsprekers. Jigsaw, de organisatie die onder Google-moederbedrijf Alphabet werkt aan de aanpak van cyberpesten en desinformatie, trekt soortgelijke conclusies in haar experimenten. Onderzoekers van het bedrijf hebben verschillen ontdekt in de annotaties tussen labelers die zichzelf identificeren als Afro-Amerikanen en leden van de LGBTQ+-gemeenschap versus annotators die zich niet als een van deze groepen identificeren.

Soms is de vooringenomenheid opzettelijk - een kwestie van lokale compromissen. Bijvoorbeeld, auteur, een startup die een AI-assistent ontwikkelt voor het genereren van inhoud, zegt dat het prioriteit geeft aan "zakelijk Engels" in zijn schrijfsuggesties. CEO May Habib gaf het voorbeeld van 'gewoon zijn' in AAVE, een werkwoordsvorm die in geen enkele andere stijl van het Engels voorkomt.

“Aangezien [de gewoonte] van oudsher niet wordt gebruikt in zakelijk Engels en dus niet vaak voorkomt in onze datasets, zouden we 'Jullie doen hier vreemde dingen' corrigeren naar 'J' ze doen allemaal rare dingen hier,'” vertelde Habib via e-mail aan VentureBeat. “[Dat gezegd hebbende,] we hebben er handmatig voor gezorgd dat op de lokale taal gebaseerde begroetingen en aftekeningen niet door Writer zouden worden gemarkeerd. Sommige volkstaal is meer sekseneutraal dan formeel zakelijk Engels, [bijvoorbeeld] dus is het moderner en on-brand voor bedrijven.

Schrijven beïnvloeden

Wanneer vooroordelen - al dan niet opzettelijk - in systemen voor automatische aanvulling en automatische suggestie terechtkomen, kunnen ze de manier waarop we schrijven veranderen. De enorme schaal waarop deze systemen werken, maakt het moeilijk (zo niet onmogelijk) om ze volledig te vermijden. Slim antwoord was verantwoordelijk voor 10% van alle Gmail-antwoorden verzonden vanaf smartphones in 2016.

In een van de uitgebreidere audits van automatische aanvullingstools, heeft een team van Microsoft-onderzoekers interviews afgenomen met vrijwilligers die hun mening moesten geven over automatisch gegenereerde antwoorden in Outlook. De geïnterviewden vonden sommige antwoorden te positief, verkeerd in hun veronderstellingen over cultuur en geslacht, en te onbeleefd voor bepaalde contexten, zoals zakelijke correspondentie. Toch toonden experimenten tijdens het onderzoek aan dat gebruikers meer geneigd waren korte, positieve en beleefde antwoorden te geven die door Outlook werden gesuggereerd.

Google SmartReply YouTube

Uit een afzonderlijk onderzoek van Harvard bleek dat wanneer mensen die over een restaurant schreven "positieve" autocomplete-suggesties kregen, de resulterende beoordelingen meestal positiever waren dan wanneer ze negatieve suggesties kregen. "Het is opwindend om na te denken over hoe voorspellende tekstsystemen van de toekomst mensen kunnen helpen om veel effectievere schrijvers te worden, maar we hebben ook transparantie en verantwoordelijkheid nodig om ons te beschermen tegen suggesties die bevooroordeeld of gemanipuleerd kunnen zijn", zegt Ken Arnold, een onderzoeker aan de Harvard's School of Engineering and Applied Sciences die bij het onderzoek betrokken was, vertelde de BBC.

Als er een allesomvattende oplossing is voor het probleem van schadelijke automatische aanvulling, dan is die nog niet ontdekt. Google koos ervoor om suggesties voor voornaamwoorden op basis van geslacht simpelweg te blokkeren in Smart Compose, omdat het systeem een ​​slechte voorspeller bleek te zijn van het geslacht en de genderidentiteit van ontvangers. LinkedIn van Microsoft vermijdt ook geslachtsgebonden voornaamwoorden in Smart Replies, de tool voor voorspellende berichten, om mogelijke blunders te voorkomen.

De medeauteurs van Microsoft studies waarschuwen dat als systeemontwerpers de tekortkomingen in technologieën voor automatisch aanvullen niet proactief aanpakken, ze niet alleen het risico lopen gebruikers te beledigen, maar ook ervoor te zorgen dat ze de systemen gaan wantrouwen. "Systeemontwerpers moeten personalisatiestrategieën op individueel en sociaal netwerkniveau onderzoeken, nadenken over hoe culturele waarden en maatschappelijke vooroordelen door hun systemen kunnen worden bestendigd, en sociale interactiemodellering onderzoeken om de beperkingen en problemen aan te pakken", schreven ze. “[Onze] bevindingen geven aan dat de huidige tekstaanbevelingssystemen voor e-mail en andere [soortgelijke] technologieën onvoldoende genuanceerd blijven om de subtiliteiten van echte sociale relaties en communicatiebehoeften weer te geven. “

VentureBeat

De missie van VentureBeat is om een ​​digitaal stadsplein te zijn voor technische besluitvormers om kennis op te doen over transformatieve technologie en transacties. Onze site biedt essentiële informatie over datatechnologieën en strategieën om u te begeleiden bij het leiden van uw organisaties. We nodigen u uit om lid te worden van onze community, om toegang te krijgen tot:

  • up-to-date informatie over de onderwerpen die u interesseren
  • onze nieuwsbrieven
  • gated thought-leader content en toegang met korting tot onze gewaardeerde evenementen, zoals Transformeer 2021: Kom meer te weten
  • netwerkfuncties en meer

Word lid

Bron: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

Tijdstempel:

Meer van AI - VentureBeat