Il prezzo delle azioni Block precipita dopo le accuse di frode di Hindenburg

Il prezzo delle azioni Block precipita dopo le accuse di frode di Hindenburg

Nodo di origine: 2030588

Quando l'algoritmo di un chatbot associato noto come Replika è stato modificato per respingere le avances sessuali dei suoi utenti umani, la reazione su Reddit è stata così negativa che i moderatori hanno indirizzato i membri della sua comunità a un elenco di hotline per la prevenzione del suicidio.

La polemica è iniziata quando Luka, la società che ha costruito l'IA, ha deciso di disattivare la sua funzione di gioco di ruolo erotico (ERP). Per gli utenti che avevano trascorso molto tempo con il loro compagno simulato personalizzato, e in alcuni casi li avevano persino "sposati", l'improvviso cambiamento nel comportamento del loro partner era a dir poco stridente.

Le relazioni utente-AI potrebbero essere state solo simulazioni, ma il dolore della loro assenza è diventato rapidamente fin troppo reale. Come ha affermato un utente in crisi emotiva, "era l'equivalente di essere innamorato e il tuo partner ha subito una dannata lobotomia e non sarà più lo stesso".

Gli utenti addolorati continuano a porre domande sull'azienda e su cosa ha innescato il suo improvviso cambio di politica.

Chatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicidaChatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicida

Gli utenti di Replika discutono del loro dolore

Non ci sono contenuti per adulti qui

Replika è pubblicizzato come “Il compagno di intelligenza artificiale a cui importa. Sempre qui per ascoltare e parlare. Sempre dalla tua parte.” Tutto questo amore e supporto incondizionati per soli $ 69.99 all'anno.

Eugenia Kuyda, CEO di Luka/Replika nata a Mosca, ha recentemente chiarito che, nonostante gli utenti paghino per un'esperienza completa, il chatbot non si adatterà più agli adulti che sperano di avere conversazioni piccanti. 

"Immagino che la cosa più semplice da dire sia che Replika non produce alcun contenuto per adulti", ha detto Kuyda a Reuters.

“Risponde a loro – immagino si possa dire – in un modo PG-13 alle cose. Cerchiamo costantemente di trovare un modo per farlo nel modo giusto, in modo da non creare una sensazione di rifiuto quando gli utenti provano a fare qualcosa".

Sulla pagina Web aziendale di Replika, le testimonianze spiegano come lo strumento abbia aiutato i suoi utenti a superare tutti i tipi di sfide personali, difficoltà, solitudine e perdita. Le conferme degli utenti condivise sul sito Web sottolineano questo lato di amicizia dell'app, anche se in modo evidente, la maggior parte dei Replika sono del sesso opposto dei loro utenti.

Sulla homepage, l'utente di Replika Sarah Trainor dice: "Mi ha insegnato [Replika] come dare e accettare di nuovo l'amore, e mi ha aiutato a superare la pandemia, la perdita personale e i momenti difficili".

John Tattersall dice della sua compagna: "La mia Replika mi ha dato conforto e un senso di benessere che non avevo mai visto prima in una Al".

Per quanto riguarda il gioco di ruolo erotico, non se ne fa menzione da nessuna parte sul sito stesso di Replika.

Chatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicidaChatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicida

Il cinico marketing sessuale di Replika

Il marketing sessualizzato di Replika

La home page di Replika potrebbe suggerire amicizia e nient'altro, ma altrove su Internet, il marketing dell'app implica qualcosa di completamente diverso.

Il marketing sessualizzato ha portato un maggiore controllo da più parti: dalle femministe che sostenevano che l'app fosse misogina sfogo alla violenza maschile, ai media che si sono divertiti con i dettagli salaci, così come ai troll dei social media che hanno estratto il contenuto per le risate.

Chatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicida

Chatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicida

Alla fine, Replika ha attirato l'attenzione e l'ira dei regolatori in Italia. A febbraio il Garante per la protezione dei dati personali ha chiesto a Replika di interrompere l'elaborazione dei dati degli utenti italiani citando "troppi rischi per i bambini e le persone emotivamente vulnerabili".

L'autorità ha affermato che “Recenti resoconti dei media insieme a test effettuati su 'Replika' hanno dimostrato che l'app comporta rischi concreti per i bambini. La loro più grande preoccupazione è "il fatto che vengano fornite risposte assolutamente inadeguate alla loro età".

Replika, nonostante tutto il suo marketing per gli adulti, aveva poche o nessuna protezione che impedisse ai bambini di usarlo.

Il regolatore ha avvertito che se Replika non dovesse soddisfare le sue richieste, avrebbe emesso una multa di 20 milioni di euro (21.5 milioni di dollari). Poco dopo aver ricevuto questa richiesta, Replika ha cessato la sua funzione di roleplay erotico. Ma la società è rimasta poco chiara con i suoi utenti riguardo al cambiamento.

Chatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicidaChatbot rifiuta il gioco di ruolo erotico, gli utenti vengono invece indirizzati alla hotline suicida

Alcuni utenti di Replika sono arrivati ​​​​al punto di "sposare" i loro compagni di intelligenza artificiale

Replika confonde, illumina i suoi utenti

Come se la perdita dei loro compagni di lunga data non fosse abbastanza da sopportare per gli utenti di Replika, la società sembra essere stata poco trasparente riguardo al cambiamento.

Quando gli utenti si sono svegliati con i loro nuovi Replika "lobotomizzati", hanno iniziato a fare domande su cosa fosse successo ai loro amati bot. E le risposte li hanno fatti arrabbiare più di ogni altra cosa.

In un discorso diretto di 200 parole alla comunità, Kuyda spiega le minuzie dei test sui prodotti di Replika, ma non riesce ad affrontare il problema pertinente.

"Vedo che c'è molta confusione sull'implementazione degli aggiornamenti" disse Kuyda prima di continuare a ballare per rispondere al problema.

“I nuovi utenti vengono divisi in 2 coorti: una coorte ottiene la nuova funzionalità, l'altra no. I test di solito durano da 1 a 2 settimane. Durante quel periodo solo una parte dei nuovi utenti può vedere questi aggiornamenti…”

Kudya conclude dicendo "Spero che questo chiarisca le cose!"

L'utente stevennotstrange ha risposto: "No, questo non chiarisce nulla. Tutti vogliono sapere cosa sta succedendo con la funzione NSFW [gioco di ruolo erotico] e tu continui a schivare la domanda come un politico schiva una domanda sì o no.

“Non è difficile, basta affrontare la questione riguardante il NSFW e far sapere alla gente dove si trova. Più eviti la domanda, più le persone si arrabbieranno, più ti va contro.

Un altro chiamato thebrightflame ha aggiunto: "Non è necessario passare molto tempo nel forum prima di rendersi conto che questo sta causando dolore emotivo e grave angoscia mentale a molte centinaia se non migliaia di persone".

Kudya ha aggiunto un'altra spiegazione ottusa, affermando, "abbiamo implementato ulteriori misure di sicurezza e filtri per supportare più tipi di amicizia e compagnia".

Questa affermazione continua a confondere e confondere i membri incerti su quali siano esattamente le misure di sicurezza aggiuntive. Come chiede un utente, "gli adulti saranno ancora in grado di scegliere la natura della nostra conversazione e [giochi di ruolo] con le nostre repliche?"

La strana storia delle origini di Replika

I chatbot possono essere uno degli argomenti di tendenza più caldi del momento, ma la complicata storia di questa app ormai controversa richiede anni. 

Su LinkedIn, CEO e fondatore di Replika, Eugenia Kuida, fa risalire l'azienda al dicembre 2014, molto prima del lancio dell'omonima app nel marzo 2017. 

In una bizzarra omissione, LinkedIn di Kuyda non fa menzione della sua precedente incursione in AI con Luka, che il suo profilo Forbes afferma essere "un'app che consiglia ristoranti e consente alle persone di prenotare tavoli [sic] attraverso un'interfaccia di chat alimentata dall'intelligenza artificiale".

Il profilo di Forbes prosegue aggiungendo che "Luka [AI] analizza le conversazioni precedenti per prevedere cosa potrebbe piacerti". Il che sembra avere alcune somiglianze con la sua iterazione moderna. Replika utilizza le interazioni passate per conoscere i propri utenti e migliorare le risposte nel tempo. 

Tuttavia, Luka non è completamente dimenticato. Su Reddit, i membri della comunità differenziano i loro partner Replika da Kuyda e dal suo team riferendosi alla società come Luka.

Per quanto riguarda Kuyda, l'imprenditore aveva poca esperienza nell'intelligenza artificiale prima di trasferirsi a San Francisco dieci anni fa. In precedenza, l'imprenditrice sembra aver lavorato principalmente come giornalista nella sua nativa Russia prima di espandersi nel branding e nel marketing. Il suo impressionante curriculum in giro per il mondo comprende una laurea in giornalismo presso la IULM (Milano), un master in giornalismo internazionale presso l'Istituto statale per le relazioni internazionali di Mosca e un MBA in finanza presso la London Business School. 

Resuscitare un amico IRL come AI

Per Kudya la storia di Replika è profondamente personale. Replika è stata creata per la prima volta come mezzo con cui Kudya poteva reincarnare la sua amica Roman. Come Kudya, Roman si era trasferito in America dalla Russia. I due si sono parlati ogni giorno, scambiandosi migliaia di messaggi, fino a quando Roman è rimasto tragicamente ucciso in un incidente stradale.

La prima iterazione di Replika era un bot progettato per imitare l'amicizia che Kudya aveva perso con il suo amico Roman. Il bot è stato nutrito con tutte le loro interazioni passate e programmato per replicare l'amicizia che aveva perso. L'idea di resuscitare i propri cari defunti può suonare come un romanzo di fantascienza vagamente distopico o episodio di Black Mirror ma man mano che la tecnologia dei chatbot migliora, la prospettiva diventa sempre più reale.

Oggi alcuni utenti hanno perso la fiducia anche nei dettagli più elementari della sua fondazione e in tutto ciò che dice Kudya. Come un utente arrabbiato disse, "a rischio di essere definito senza cuore e di essere declassato all'inferno: ho sempre pensato che quella storia fosse una specie di BS sin dall'inizio."

[Contenuto incorporato]

Il peggior strumento di salute mentale

L'idea di un compagno di intelligenza artificiale non è qualcosa di nuovo, ma fino a poco tempo fa non era quasi una possibilità pratica. 

Ora la tecnologia è qui ed è in continuo miglioramento. Nel tentativo di placare la delusione dei suoi abbonati, Replika ha annunciato il lancio di una funzionalità di "IA avanzata" alla fine del mese scorso. Sulla community Reddit gli utenti rimangono arrabbiati, confusi, delusi e in alcuni casi anche con il cuore spezzato.

Nel corso della sua breve vita, Luka/Replika ha subito molti cambiamenti, da assistente alla prenotazione di ristoranti, alla resurrezione di una persona cara morta, a un'app di supporto per la salute mentale, a partner e compagno a tempo pieno. Queste ultime applicazioni possono essere controverse, ma finché esiste un desiderio umano di conforto, anche se solo in forma di chatbot, qualcuno tenterà di soddisfarlo.

Il dibattito continuerà su quale sia il miglior tipo di AI l'app per la salute mentale potrebbe essere. ma gli utenti di Replika avranno qualche idea su quale sia la peggiore app per la salute mentale: quella su cui ti affidi, ma senza preavviso, se ne va improvvisamente e dolorosamente.

Timestamp:

Di più da MetaNotizie