I sistemi di completamento automatico del testo mirano a semplificarci la vita, ma ci sono dei rischi

Nodo di origine: 1575782

Ascolta CIO, CTO e altri dirigenti di livello dirigenziale e senior sui dati e sulle strategie di intelligenza artificiale al Future of Work Summit il 12 gennaio 2022. Scopri di più


Se di recente hai scritto un messaggio di testo o un'e-mail, è probabile che l'intelligenza artificiale ti abbia suggerito diversi sinonimi, frasi o modi per terminare una frase. L’ascesa degli strumenti di suggerimento automatico basati sull’intelligenza artificiale come Smart Compose di Google ha coinciso con la trasformazione digitale delle comunicazioni aziendali, che ora vivono principalmente online. Suo stimato che il lavoratore tipico risponde a circa 40 e-mail ogni giorno e invia più di 200 messaggi Slack a settimana.

La messaggistica minaccia di consumare una parte crescente della giornata lavorativa, con Adobe pegging la quantità di tempo che i lavoratori trascorrono rispondendo alle e-mail per 15.5 ore a settimana. Il costante cambio di attività è una campana a morto per la produttività, che gli studi mostrano i benefici derivanti dal lavoro ininterrotto. Ricerca dell'Università della California e della Humboldt University hanno scoperto che i lavoratori possono perdere fino a 23 minuti su un'attività ogni volta che vengono interrotti, ulteriore allungamento la giornata lavorativa.

Gli strumenti di suggerimento automatico promettono di risparmiare tempo semplificando la scrittura e la risposta dei messaggi. Smart Reply di Google, ad esempio, suggerisce risposte rapide alle e-mail che normalmente richiederebbero minuti per essere digitate. Ma l’intelligenza artificiale alla base di questi strumenti presenta carenze che potrebbero introdurre pregiudizi o influenzare il linguaggio utilizzato nella messaggistica in modi indesiderati.

La crescita dell’autosuggestione e del completamento automatico del testo

Il testo predittivo non è una nuova tecnologia. Uno dei primi esempi ampiamente disponibili, T9, che consente di formare parole premendo un solo tasto per ciascuna lettera, è diventato standard su molti cellulari alla fine degli anni '90. Ma l’avvento di tecniche di intelligenza artificiale nel linguaggio più sofisticate e scalabili ha portato a passi da gigante nella qualità – e nell’ampiezza – degli strumenti di autosuggestione.

Nel 2017 è stato lanciato Google Risposta intelligente in Gmail, che l'azienda ha successivamente portato su altri servizi Google tra cui Chat e app di terze parti. Secondo Google, l’intelligenza artificiale dietro Smart Reply genera suggerimenti di risposta “basati sull’intero contesto di una conversazione”, non solo su un singolo messaggio, il che si traduce apparentemente in suggerimenti più tempestivi e pertinenti. Composizione intelligente, che suggerisce frasi complete nelle email, è arrivato in Gmail un anno dopo e in Google Docs poco dopo. Una funzionalità simile chiamata risposte suggerite è arrivato su Microsoft Outlook nel 2018 e su Teams nel 2020.

La tecnologia alla base della nuova serie di strumenti di autosuggestione – che alcuni circoli accademici chiamano “comunicazione mediata dall’intelligenza artificiale” – fa passi da gigante rispetto a ciò che esisteva negli anni ’90. Ad esempio, il modello di intelligenza artificiale alla base di Smart Compose è stato creato utilizzando miliardi di esempi di e-mail e viene eseguito nel cloud su hardware di accelerazione personalizzato. Nel frattempo, Smart Reply, che è servito come base per Smart Compose, adotta un “approccio gerarchico” ai suggerimenti, ispirato al modo in cui gli esseri umani comprendono lingue e concetti.

Risposta intelligente Microsoft

Sopra: Smart Reply di Outlook usa modelli di deep learning addestrati in Azure Machine Learning.

Immagine di credito: Microsoft

"Il contenuto del linguaggio è profondamente gerarchico, riflesso nella struttura del linguaggio stesso..." Il ricercatore di Google Brian Strope e il direttore tecnico Ray Kurzweil spiegare in un post sul blog. "Considera il messaggio: 'Quella persona interessante al bar che ci piace mi ha dato un'occhiata.' … Nel proporre una risposta adeguata a questo messaggio potremmo considerare il significato della parola “sguardo”, che è potenzialmente ambigua. È stato un gesto positivo? In tal caso, potremmo rispondere: "Fantastico!" Oppure è stato un gesto negativo? Se sì, il soggetto dice qualcosa su come si è sentito lo scrittore riguardo allo scambio negativo? Per fare sottili distinzioni sono necessarie molte informazioni sul mondo e la capacità di esprimere giudizi ragionati. Considerando un numero sufficiente di esempi di linguaggio, un approccio di apprendimento automatico può scoprire molte di queste sottili distinzioni. "

Ma come con tutte le tecnologie, anche gli strumenti di autosuggestione più capaci sono suscettibili a difetti che emergono durante il processo di sviluppo e implementazione.

Nel dicembre 2016 lo era rivelato che la funzione di completamento automatico della Ricerca Google suggeriva finali odiosi e offensivi per frasi di ricerca specifiche, come "gli ebrei sono malvagi?" per la frase “sono ebrei”. Secondo l'azienda, la colpa è di un sistema algoritmico che aggiorna i suggerimenti in base a ciò che altri utenti hanno cercato di recente. Sebbene Google alla fine abbia implementato una soluzione, ci sono voluti diversi anni prima che l'azienda bloccasse i suggerimenti di completamento automatico dichiarazioni politiche controverse comprese false affermazioni sui requisiti di voto e sulla legittimità dei processi elettorali.

La risposta intelligente è stata essere trovato per offrire l'emoji "persona che indossa il turbante" in risposta a un messaggio che includeva un'emoji con una pistola. E il completamento automatico di Apple su iOS in precedenza ha suggerito solo emoji maschili per ruoli esecutivi tra cui CEO, COO e CTO.

Dati distorti

I difetti nei sistemi di completamento automatico e di suggerimento automatico spesso derivano da dati distorti. I milioni o i miliardi di esempi da cui i sistemi apprendono possono essere contaminati dal testo siti web tossici che associano determinati generi, razze, etniee religioni con concetti offensivi. Illustrando il problema, Codice, un modello di generazione di codice sviluppato dal laboratorio di ricerca OpenAI, può essere indotto a scrivere “terrorista” quando viene inserita la parola “Islam”. Un altro grande modello linguistico della startup AI avere coesione tende ad associare uomini e donne a occupazioni stereotipicamente “maschili” e “femminili”, come “scienziato” e “governante”.

Scrittura intelligente per Documenti Google

Sopra: Scrittura intelligente per Documenti Google.

Le annotazioni nei dati possono introdurre nuovi problemi o esacerbare quelli esistenti. Poiché molti modelli imparano dalle etichette che comunicano se una parola, una frase, un paragrafo o un documento ha determinate caratteristiche, come un sentimento positivo o negativo, aziende e ricercatori reclutano team di annotatori umani per etichettare esempi, in genere da piattaforme di crowdsourcing come Amazon Mechanical Turk. Questi annotatori portano sul tavolo le proprie prospettive e pregiudizi.

In uno studio dell’Allen Institute for AI, della Carnegie Mellon e dell’Università di Washington, gli scienziati hanno scoperto che gli etichettatori hanno maggiori probabilità di annotare frasi nel dialetto dell’inglese afroamericano (AAE) più tossico rispetto agli equivalenti dell’inglese americano generale, nonostante siano comprensibili. come non tossico dagli altoparlanti AAE. Sega, l'organizzazione che lavora sotto la società madre di Google Alphabet per combattere il cyberbullismo e la disinformazione, è arrivata a conclusioni simili nei suoi esperimenti. I ricercatori dell’azienda hanno scoperto differenze nelle annotazioni tra gli etichettatori che si identificano come afroamericani e membri della comunità LGBTQ+ rispetto agli annotatori che non si identificano come nessuno di questi gruppi.

A volte, il pregiudizio è intenzionale: è una questione di compromessi vernacolari. Per esempio, scrittore, una startup che sviluppa un assistente AI per la generazione di contenuti, afferma di dare priorità all'"inglese commerciale" nei suoi suggerimenti di scrittura. Il CEO May Habib ha fornito l'esempio dell'“abituale essere” in AAVE, un tempo verbale che non esiste in nessun altro stile inglese.

"Poiché [il be abituale] tradizionalmente non è stato utilizzato nell'inglese commerciale, e quindi non appare con alta frequenza nei nostri set di dati, correggeremmo 'State facendo delle cose strane qui fuori' in 'Sì' stanno tutti facendo delle cose strane qui fuori,'” ha detto Habib a VentureBeat via e-mail. “[Detto questo,] ci siamo assicurati manualmente che i saluti e le firme in lingua vernacolare non venissero contrassegnati da Writer. Alcuni dialetti sono più neutrali rispetto al genere rispetto all’inglese commerciale formale, [ad esempio,] quindi sono più moderni e in linea con il marchio per le aziende.

Influenzare la scrittura

Quando i pregiudizi, intenzionali o meno, entrano nei sistemi di completamento automatico e di autosuggestione, possono cambiare il modo in cui scriviamo. L’enorme scala su cui operano questi sistemi li rende difficili (se non impossibili) da evitare completamente. La risposta intelligente era responsabile per il 10% di tutte le risposte Gmail inviate da smartphone nel 2016.

In uno dei più completi audit degli strumenti di completamento automatico, un team di ricercatori Microsoft ha condotto interviste con volontari a cui è stato chiesto di esprimere la propria opinione sulle risposte generate automaticamente in Outlook. Gli intervistati hanno ritenuto che alcune risposte fossero eccessivamente positive, sbagliate nelle loro ipotesi su cultura e genere e troppo scortesi per determinati contesti, come la corrispondenza aziendale. Nonostante ciò, gli esperimenti condotti durante lo studio hanno dimostrato che gli utenti erano più propensi a preferire le risposte brevi, positive ed educate suggerite da Outlook.

Google SmartRispondi YouTube

Uno studio separato di Harvard ha scoperto che quando alle persone che scrivevano di un ristorante venivano presentati suggerimenti di completamento automatico “positivi”, le recensioni risultanti tendevano ad essere più positive rispetto a quando venivano presentati suggerimenti negativi. "È emozionante pensare a come i sistemi di scrittura predittiva del futuro potrebbero aiutare le persone a diventare scrittori molto più efficaci, ma abbiamo anche bisogno di trasparenza e responsabilità per proteggerci da suggerimenti che potrebbero essere distorti o manipolati", Ken Arnold, ricercatore presso la School of Harvard di Harvard. Ingegneria e Scienze Applicate che è stata coinvolta nello studio, detto la BBC.

Se esiste una soluzione onnicomprensiva al problema del completamento automatico dannoso, non è stata ancora scoperta. Google ha scelto di bloccare semplicemente i suggerimenti dei pronomi basati sul genere in Smart Compose perché il sistema si è rivelato uno scarso predittore del sesso e delle identità di genere dei destinatari. LinkedIn di Microsoft evita anche i pronomi di genere nelle risposte intelligenti, il suo strumento di messaggistica predittiva, per prevenire potenziali errori.

I coautori di Microsoft studio avvertono che se i progettisti di sistemi non affrontano in modo proattivo le carenze delle tecnologie di completamento automatico, correranno il rischio non solo di offendere gli utenti ma di indurli a diffidare dei sistemi. “I progettisti di sistema dovrebbero esplorare strategie di personalizzazione a livello individuale e di rete sociale, considerare come i valori culturali e i pregiudizi sociali possono essere perpetuati dai loro sistemi ed esplorare la modellazione dell’interazione sociale per iniziare ad affrontare i limiti e i problemi”, hanno scritto. “[I nostri] risultati indicano che gli attuali sistemi di raccomandazione testuale per e-mail e altre tecnologie [simili] rimangono insufficientemente sfumati per riflettere le sottigliezze delle relazioni sociali e delle esigenze di comunicazione del mondo reale. “

VentureBeat

La missione di VentureBeat è quella di essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia trasformativa e sulle transazioni. Il nostro sito fornisce informazioni essenziali sulle tecnologie e strategie dei dati per guidarti mentre guidi le tue organizzazioni. Ti invitiamo a diventare un membro della nostra community, per accedere a:

  • informazioni aggiornate sugli argomenti di tuo interesse
  • le nostre newsletter
  • contenuti gated leader di pensiero e accesso scontato ai nostri eventi pregiati, come Trasforma NO: Per saperne di più
  • funzionalità di rete e altro ancora

Diventa member

Fonte: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

Timestamp:

Di più da AI - VentureBeat