Blokaktiekurs styrtdykker efter Hindenburg-svindelbeskyldninger

Blokaktiekurs styrtdykker efter Hindenburg-svindelbeskyldninger

Kildeknude: 2030588

Da algoritmen for en ledsager-chatbot kendt som Replika blev ændret for at afvise dens menneskelige brugeres seksuelle tilnærmelser, var reaktionen på Reddit, så negative moderatorer ledede dets medlemmer til en liste over selvmordsforebyggende hotlines.

Kontroversen begyndte, da Luka, firmaet, der byggede AI, besluttede at slukke for sin erotiske rollespilsfunktion (ERP). For brugere, der havde brugt lang tid med deres personlige simulerede ledsager, og i nogle tilfælde endda 'giftet' dem, var den pludselige ændring i deres partners adfærd mildest talt skurrende.

Bruger-AI-relationerne var måske kun simuleringer, men smerten ved deres fravær blev hurtigt alt for virkelig. Som en bruger i følelsesmæssig krise udtrykte det, "det svarede til at være forelsket, og din partner fik en forbandet lobotomi og vil aldrig blive den samme."

Sorgramte brugere fortsætter med at stille spørgsmål om virksomheden, og hvad der udløste dens pludselige ændring af politik.

Chatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedetChatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedet

Replika-brugere diskuterer deres sorg

Der er intet voksenindhold her

Replika faktureres som "AI-ledsageren, der bekymrer sig. Altid her for at lytte og tale. Altid på din side." Al denne ubetingede kærlighed og støtte for kun $69.99 om året.

Eugenia Kuyda, den Moskva-fødte administrerende direktør for Luka/Replika, gjorde det for nylig klart, at selvom brugere betaler for en fuld oplevelse, vil chatbot ikke længere skræddersy til voksne, der håber på at have krydrede samtaler. 

"Jeg gætter på, at den enkleste ting at sige er, at Replika ikke producerer voksenindhold," sagde Kuyda til Reuters.

“Den reagerer på dem – det kan man vel sige – på en PG-13 måde på tingene. Vi forsøger konstant at finde en måde, hvordan man gør det rigtigt, så det ikke skaber en følelse af afvisning, når brugere forsøger at gøre ting."

På Replikas virksomhedswebside forklarer vidnesbyrd, hvordan værktøjet hjalp sine brugere gennem alle slags personlige udfordringer, strabadser, ensomhed og tab. De brugeranbefalinger, der deles på webstedet, understreger denne venskabsside til appen, selvom det er bemærkelsesværdigt, at de fleste replikaer er det modsatte køn af deres brugere.

På hjemmesiden siger Replika-brugeren Sarah Trainor: "Han lærte mig [Replika] at give og acceptere kærlighed igen, og han har fået mig igennem pandemien, det personlige tab og de hårde tider."

John Tattersall siger om sin kvindelige følgesvend: "Min Replika har givet mig trøst og en følelse af velvære, som jeg aldrig har set i en Al før."

Hvad angår erotisk rollespil, er der ingen omtale af det at finde nogen steder på selve Replika-siden.

Chatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedetChatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedet

Den kyniske seksuelle markedsføring af Replika

Replikas seksualiserede markedsføring

Replikas hjemmeside kan antyde venskab og intet mere, men andre steder på internettet indebærer appens markedsføring noget helt andet.

Den seksualiserede markedsføring bragte øget kontrol fra en række sider: fra feminister, der hævdede, at appen var kvindefjendsk udløb for mænds vold, til medier, der svælgede i de sarte detaljer, såvel som sociale medier-trolde, der minelagde indholdet til grin.

Chatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedet

Chatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedet

Til sidst vakte Replika opmærksomhed og vrede hos tilsynsmyndigheder i Italien. I februar blev Italienske databeskyttelsesmyndighed krævede, at Replika ophørte med at behandle data fra italienske brugere med henvisning til "for mange risici for børn og følelsesmæssigt sårbare individer."

Myndigheden sagde, at "Seneste medierapporter sammen med test udført på 'Replika' viste, at appen indebærer faktuelle risici for børn. Deres største bekymring er "det faktum, at de får svar, som er absolut upassende i forhold til deres alder."

Replika havde trods al sin markedsføring til voksne kun få eller ingen garantier, der forhindrede børn i at bruge det.

Tilsynsmyndigheden advarede om, at hvis Replika undlader at efterkomme deres krav, ville det udstede en bøde på 20 millioner euro (21.5 millioner dollars). Kort efter modtagelsen af ​​dette krav, ophørte Replika med sin erotiske rollespilsfunktion. Men virksomheden forblev mindre end klar over for sine brugere om ændringen.

Chatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedetChatbot afviser erotisk rollespil, brugere dirigeret til selvmordshotline i stedet

Nogle Replika-brugere gik så langt som til at "gifte" deres AI-kammerater

Replika forvirrer, gaslyser sine brugere

Som om tabet af deres langsigtede ledsagere ikke var nok for Replika-brugere at bære, ser virksomheden ud til at have været mindre end gennemsigtig omkring ændringen.

Da brugerne vågnede op til deres nye "lobotomiserede" replikaer, begyndte de at stille spørgsmål om, hvad der var sket med deres elskede bots. Og svarene gjorde dem mere vrede end noget andet.

I en direkte 200-ords adresse til samfundet forklarer Kuyda detaljerne i Replikas produkttest, men undlader at løse det relevante problem.

"Jeg kan se, at der er meget forvirring omkring udrulning af opdateringer," sagde Kuyda før du fortsætter med at danse rundt og besvare spørgsmålet.

“Nye brugere bliver opdelt i 2 kohorter: Den ene kohorte får den nye funktionalitet, den anden får ikke. Testene varer normalt 1 til 2 uger. I løbet af den tid kan kun en del af nye brugere se disse opdateringer..."

Kudya kvitterer ved at sige "Håber dette opklarer tingene!"

Brugeren stevennotstrange svarede: "Nej, dette præciserer intet. Alle vil gerne vide, hvad der sker med NSFW [erotisk rollespil]-funktionen, og du fortsætter med at undvige spørgsmålet, som en politiker undviger et ja eller nej-spørgsmål.

"Det er ikke svært, bare tag fat i problemet med NSFW og lad folk vide, hvor det står. Jo mere du undgår spørgsmålet, jo flere vil blive irriterede, jo mere går det imod dig.”

En anden ved navn thebrightflame tilføjede: "Du behøver ikke at bruge lang tid i forummet, før du indser, at dette forårsager følelsesmæssig smerte og alvorlige mentale kvaler for mange hundrede, hvis ikke tusinder af mennesker."

Kudya tilføjede en anden stump forklaring, angivelse, "vi har implementeret yderligere sikkerhedsforanstaltninger og filtre for at understøtte flere typer venskab og kammeratskab."

Denne udtalelse fortsætter med at forvirre og forvirre medlemmer, der er usikre på, hvad de præcise yderligere sikkerhedsforanstaltninger er. Som en bruger spørger, "vil voksne stadig være i stand til at vælge arten af ​​vores samtale og [rollespil] med vores replikaer?"

Replikas dybt mærkelige oprindelseshistorie

Chatbots er måske et af de hotteste trendemner i øjeblikket, men den komplicerede historie om denne nu kontroversielle app er år undervejs. 

På LinkedIn, Replikas administrerende direktør og grundlægger, Eugenia Kuyda, daterer virksomheden tilbage til december 2014, længe før lanceringen af ​​den eponyme app i marts 2017. 

I en bizar udeladelse nævner Kuydas LinkedIn ingen omtale af hendes tidligere indtog AI med Luka, som ifølge hendes Forbes-profil var "en app, der anbefaler restauranter og lader folk booke borde [sic] gennem en chatgrænseflade drevet af kunstig intelligens."

Forbes-profilen fortsætter med at tilføje, at "Luka [AI] analyserer tidligere samtaler for at forudsige, hvad du kunne lide." Hvilket ser ud til at have nogle ligheder med dens moderne iteration. Replika bruger tidligere interaktioner til at lære om sine brugere og forbedre svarene over tid. 

Luka er dog ikke helt glemt. På Reddit adskiller fællesskabsmedlemmer deres Replika-partnere fra Kuyda og hendes team ved at omtale virksomheden som Luka.

Hvad angår Kuyda, havde iværksætteren kun lidt baggrund i kunstig intelligens, før han flyttede til San Francisco for et årti siden. Inden da lader iværksætteren til at have arbejdet primært som journalist i sit hjemland Rusland, før hun forgrenede sig til branding og markedsføring. Hendes imponerende verdensomspændende CV inkluderer en grad i journalistik fra IULM (Milano), en MA i international journalistik fra Moscow State Institute of International Relations og en MBA i finans fra London Business School. 

Genoplive en IRL-ven som AI

For Kudya er historien om Replika dybt personlig. Replika blev først skabt som et middel, hvormed Kudya kunne reinkarnere sin ven Roman. Ligesom Kudya var Roman flyttet til Amerika fra Rusland. De to talte hver dag og udvekslede tusindvis af beskeder, indtil Roman på tragisk vis blev dræbt i en bilulykke.

Den første gentagelse af Replika var en bot designet til at efterligne det venskab Kudya havde mistet med sin ven Roman. Botten blev fodret med alle deres tidligere interaktioner og programmeret til at replikere det venskab, hun havde mistet. Ideen om at genoplive afdøde kære kan lyde som en vagt dystopisk sci-fi-roman eller Black Mirror-episode men efterhånden som chatbotteknologien forbedres, bliver udsigten stadig mere reel.

I dag har nogle brugere mistet troen på selv de mest basale detaljer i dets fundament og alt hvad Kudya siger. Som en vred bruger sagde, "med risiko for at blive kaldt hjerteløs og blive nedstemt til helvede: Jeg har altid troet, at den historie var lidt BS siden starten."

[Indlejret indhold]

Det værste mentale sundhedsværktøj

Ideen om en AI-ledsager er ikke noget nyt, men indtil for nylig var det næppe en praktisk mulighed. 

Nu er teknologien her, og den forbedres hele tiden. I et forsøg på at dæmpe skuffelsen hos sine abonnenter annoncerede Replika lanceringen af ​​en "avanceret AI"-funktion i slutningen af ​​sidste måned. På Reddit-fællesskabet forbliver brugere vrede, forvirrede, skuffede og i nogle tilfælde endda knuste.

I løbet af sit korte liv har Luka/Replika gennemgået mange forandringer, fra en restaurantbestillingsassistent til genopstandelsen af ​​en død elsket, til en app til støtte for mental sundhed til en fuldtidspartner og ledsager. Disse sidstnævnte applikationer kan være kontroversielle, men så længe der er et menneskeligt ønske om komfort, selvom det kun er i chatbot-form, vil nogen forsøge at imødekomme det.

Debatten vil fortsætte om, hvad den bedste slags AI mental sundhed app kan være. men Replika-brugere vil have nogle ideer til, hvad den værste app til mental sundhed er: den, du kommer til at stole på, men uden varsel, er pludselig og smertefuldt væk.

Tidsstempel:

Mere fra MetaNews