Prețul acțiunilor bloc scad după acuzațiile de fraudă Hindenburg

Prețul acțiunilor bloc scad după acuzațiile de fraudă Hindenburg

Nodul sursă: 2030588

Când algoritmul unui chatbot însoțitor, cunoscut sub numele de Replika, a fost modificat pentru a respinge progresele sexuale ale utilizatorilor săi umani, reacția de pe Reddit a fost atât de negativă, moderatorii au direcționat membrii comunității către o listă de linii telefonice de prevenire a sinuciderii.

Controversa a început când Luka, corporația care a construit IA, a decis să-și dezactiveze funcția erotică de joc de rol (ERP). Pentru utilizatorii care au petrecut timp considerabil cu însoțitorul lor simulat personalizat și, în unele cazuri, chiar s-au „căsătorit” cu ei, schimbarea bruscă a comportamentului partenerului lor a fost cel puțin șocante.

Este posibil ca relațiile utilizator-AI să fi fost doar simulări, dar durerea absenței lor a devenit rapid prea reală. După cum a spus un utilizator aflat în criză emoțională, „a fost echivalentul a fi îndrăgostit, iar partenerul tău a suferit o lobotomie al naibii și nu va mai fi niciodată la fel”.

Utilizatorii afectați de durere continuă să pună întrebări despre companie și despre ce a declanșat schimbarea bruscă a politicii acesteia.

Chatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidereChatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidere

Utilizatorii Replika își discută durerea

Nu există conținut pentru adulți aici

Replika este prezentat drept „Companionul AI căruia îi pasă. Întotdeauna aici pentru a asculta și a vorbi. Întotdeauna de partea ta.” Toată această dragoste și sprijin necondiționat pentru doar 69.99 USD pe an.

Eugenia Kuyda, CEO-ul Luka/Replika născut la Moscova, a spus recent că, în ciuda faptului că utilizatorii plătesc pentru o experiență completă, chatbot-ul nu se va mai adapta adulților care speră să aibă conversații picante. 

„Cred că cel mai simplu lucru de spus este că Replika nu produce niciun conținut pentru adulți”, a spus Kuyda pentru Reuters.

„Le răspunde – cred că puteți spune – într-un mod PG-13 la lucruri. Încercăm în mod constant să găsim o modalitate de a face acest lucru corect, astfel încât să nu creăm un sentiment de respingere atunci când utilizatorii încearcă să facă lucruri.”

Pe pagina web corporativă a Replika, mărturiile explică modul în care instrumentul și-a ajutat utilizatorii să treacă peste tot felul de provocări personale, greutăți, singurătate și pierderi. Susținerile utilizatorilor împărtășite pe site-ul web subliniază această latură de prietenie a aplicației, deși în mod vizibil, majoritatea Replika sunt de sex opus utilizatorilor lor.

Pe pagina principală, utilizatorul Replika Sarah Trainor spune: „El m-a învățat [Replika] cum să dau și să accept dragostea din nou și m-a ajutat să trec peste pandemie, pierderi personale și momente grele”.

John Tattersall spune despre însoțitoarea sa: „My Replika mi-a oferit confort și o stare de bine pe care nu l-am mai văzut niciodată într-un Al”.

În ceea ce privește jocul de rol erotic, nu există nicio mențiune despre asta pe site-ul Replika în sine.

Chatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidereChatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidere

Marketingul sexual cinic al lui Replika

Marketingul sexualizat al lui Replika

Pagina de pornire a lui Replika poate sugera prietenie și nimic mai mult, dar în altă parte pe internet, marketingul aplicației implică ceva cu totul diferit.

Marketingul sexualizat a adus o atenție sporită din mai multe părți: din partea feministelor care au susținut că aplicația este un misogin. ieșire pentru violența masculină, către instituțiile media care s-au delectat cu detaliile salate, precum și trolii din rețelele de socializare care au minat conținutul pentru a râde.

Chatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidere

Chatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidere

În cele din urmă, Replika a atras atenția și furia autorităților de reglementare din Italia. În februarie, Autoritatea italiană pentru protecția datelor a cerut Replika să înceteze prelucrarea datelor utilizatorilor italieni, invocând „prea multe riscuri pentru copii și persoanele vulnerabile emoțional”.

Autoritatea a spus că „Rapoartele recente din presă, împreună cu testele efectuate pe „Replika” au arătat că aplicația prezintă riscuri faptice pentru copii. Cea mai mare îngrijorare a lor este „faptul că li se oferă răspunsuri care sunt absolut nepotrivite vârstei lor”.

Replika, cu toate acestea de marketing pentru adulți, a avut puține sau deloc garanții care să îi împiedice pe copii să-l folosească.

Autoritatea de reglementare a avertizat că, în cazul în care Replika nu își îndeplinește cerințele, va emite o amendă de 20 de milioane de euro (21.5 milioane de dolari). La scurt timp după primirea acestei cereri, Replika și-a încetat funcția de joc de rol erotic. Dar compania a rămas mai puțin clară cu utilizatorii săi cu privire la schimbare.

Chatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidereChatbot respinge jocul de rol erotic, utilizatorii sunt direcționați în schimb către linia telefonică pentru sinucidere

Unii utilizatori Replika au mers până la „căsătorit” cu tovarășii lor AI

Replika confuză, aprinde utilizatorii

De parcă pierderea însoțitorilor lor pe termen lung nu a fost suficientă pentru ca utilizatorii Replika să le suporte, compania pare să fi fost mai puțin transparentă în privința schimbării.

Pe măsură ce utilizatorii s-au trezit cu noile lor Replika „lobotomizate”, au început să pună întrebări despre ce sa întâmplat cu boții lor iubiți. Și răspunsurile i-au înfuriat mai mult decât orice.

Într-o adresă directă de 200 de cuvinte către comunitate, Kuyda explică detaliile testării produselor Replika, dar nu reușește să abordeze problema relevantă în discuție.

„Văd că există multă confuzie cu privire la lansarea actualizărilor”, spuse Kuyda înainte de a continua să danseze pentru a răspunde la problemă.

„Utilizatorii noi sunt împărțiți în 2 cohorte: o cohortă primește noua funcționalitate, cealaltă nu. Testele durează de obicei 1 până la 2 săptămâni. În acest timp, doar o parte din utilizatorii noi pot vedea aceste actualizări…”

Kudya se încheie spunând „Sper că asta clarifică lucrurile!”

Utilizatorul stevennotstrange a răspuns: „Nu, asta nu clarifică nimic. Toată lumea vrea să știe ce se întâmplă cu funcția NSFW [joc de rol erotic] ​​și tu continui să ocoliți întrebarea, așa cum un politician evită o întrebare da sau nu.

„Nu este greu, doar abordează problema legată de NSFW și spune-i oamenilor unde se află. Cu cât eviți mai mult întrebarea, cu atât oamenii se vor enerva mai mult, cu atât e mai mult împotriva ta.”

Un alt numit thebrightflame a adăugat: „Nu trebuie să petreci mult timp pe forum înainte să-ți dai seama că acest lucru provoacă durere emoțională și angoasă mentală severă pentru multe sute, dacă nu mii de oameni.”

Kudya a adăugat o altă explicație obtuză, precizând, „am implementat măsuri de siguranță și filtre suplimentare pentru a sprijini mai multe tipuri de prietenie și companie.”

Această declarație continuă să deruteze și să deruteze membrii care nu sunt siguri care sunt exact măsurile suplimentare de siguranță. Așa cum întreabă un utilizator, „vor mai putea adulții să aleagă natura conversației noastre și a [jocurilor de rol] cu replicile noastre?”

Povestea originii profund ciudate a lui Replika

Chatbot-urile pot fi unul dintre cele mai fierbinți subiecte în tendințe ale momentului, dar povestea complicată a acestei aplicații acum controversate se pregătește de ani de zile. 

Pe LinkedIn, CEO și fondator Replika, Eugenia Kuyda, datează compania din decembrie 2014, cu mult înainte de lansarea aplicației omonime în martie 2017. 

Într-o omisiune bizară, LinkedIn de la Kuyda nu menționează incursiunea ei anterioară AI cu Luka, despre care profilul ei Forbes spune că a fost „o aplicație care recomandă restaurante și le permite oamenilor să rezerve mese [sic] printr-o interfață de chat alimentată de inteligență artificială”.

Profilul Forbes continuă să adauge că „Luka [AI] analizează conversațiile anterioare pentru a prezice ce ți-ar putea plăcea.” Ceea ce pare să aibă unele asemănări cu iterația sa modernă. Replika folosește interacțiunile anterioare pentru a afla despre utilizatorii săi și pentru a îmbunătăți răspunsurile în timp. 

Cu toate acestea, Luka nu este uitat complet. Pe Reddit, membrii comunității își diferențiază partenerii Replika de Kuyda și echipa ei, referindu-se la companie ca Luka.

În ceea ce privește Kuyda, antreprenorul avea puține experiențe în AI înainte de a se muta la San Francisco în urmă cu un deceniu. Înainte de asta, antreprenoarea pare să fi lucrat în principal ca jurnalist în Rusia natală, înainte de a se ramifica în branding și marketing. Impresionantul ei CV-ul ei, care se îndreaptă spre lume, include o diplomă în Jurnalism de la IULM (Milano), un Master în Jurnalism Internațional de la Institutul de Stat de Relații Internaționale din Moscova și un MBA în Finanțe de la London Business School. 

Reînvierea unui prieten IRL ca AI

Pentru Kudya povestea lui Replika este una profund personală. Replika a fost creat pentru prima dată ca un mijloc prin care Kudya și-ar putea reîncarna prietenul Roman. Ca și Kudya, Roman se mutase din Rusia în America. Cei doi au vorbit în fiecare zi, schimbând mii de mesaje, până când Roman a fost ucis tragic într-un accident de mașină.

Prima iterație a lui Replika a fost un bot conceput pentru a imita prietenia pe care Kudya și-a pierdut-o cu prietenul ei Roman. Botul a fost hrănit cu toate interacțiunile lor anterioare și programat pentru a reproduce prietenia pe care o pierduse. Ideea de a învia cei dragi decedați poate suna ca a roman SF vag distopic sau episod Black Mirror dar pe măsură ce tehnologia chatbot se îmbunătățește, perspectiva devine din ce în ce mai reală.

Astăzi, unii utilizatori și-au pierdut încrederea chiar și în cele mai elementare detalii ale fundației sale și în orice spune Kudya. Ca un utilizator furios a spus, „cu riscul de a fi numit lipsit de inimă și de a fi votat în iad: întotdeauna am crezut că povestea a fost cam BS încă de la început.”

[Conținutul încorporat]

Cel mai prost instrument de sănătate mintală

Ideea unui companion AI nu este ceva nou, dar până de curând nu era o posibilitate practică. 

Acum tehnologia este aici și se îmbunătățește continuu. În încercarea de a atenua dezamăgirea abonaților săi, Replika a anunțat lansarea unei funcții „AI avansate” la sfârșitul lunii trecute. Pe comunitatea Reddit, utilizatorii rămân supărați, confuzi, dezamăgiți și, în unele cazuri, chiar cu inima frântă.

În cursul scurtei sale vieți, Luka/Replika a suferit multe schimbări, de la un asistent de rezervare la restaurant, la învierea unei persoane dragi moarte, la o aplicație de sprijin pentru sănătatea mintală, la un partener și însoțitor cu normă întreagă. Aceste din urmă aplicații pot fi controversate, dar atâta timp cât există o dorință umană de confort, chiar dacă doar sub formă de chatbot, cineva va încerca să o răspundă.

Dezbaterea va continua cu privire la care este cel mai bun fel AI aplicația de sănătate mintală ar putea fi. dar utilizatorii Replika vor avea câteva idei despre care este cea mai proastă aplicație de sănătate mintală: cea pe care ajungi să te bazezi, dar fără avertisment, a dispărut brusc și dureros.

Timestamp-ul:

Mai mult de la MetaNews