Blokkaksjekurs stuper etter Hindenburg-bedrageranklager

Blokkaksjekurs stuper etter Hindenburg-bedrageranklager

Kilde node: 2030588

Da algoritmen til en medfølgende chatbot kjent som Replika ble endret for å avvise seksuelle tilnærmelser til sine menneskelige brukere, var reaksjonen på Reddit så negative moderatorer ledet medlemmene i fellesskapet til en liste over selvmordsforebyggende hotlines.

Kontroversen begynte da Luka, selskapet som bygde AI, bestemte seg for å slå av sin erotiske rollespillfunksjon (ERP). For brukere som hadde brukt mye tid med sin personlige simulerte følgesvenn, og i noen tilfeller til og med "giftet seg" med dem, var den plutselige endringen i partnerens oppførsel mildt sagt skurrende.

Bruker-AI-relasjonene kan bare ha vært simuleringer, men smerten ved deres fravær ble raskt alt for ekte. Som en bruker i emosjonell krise sa det, "det tilsvarte å være forelsket og partneren din fikk en jævla lobotomi og vil aldri bli den samme."

Sorgrammede brukere fortsetter å stille spørsmål om selskapet og hva som utløste dets plutselige endring av policy.

Chatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedetChatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedet

Replika-brukere diskuterer sorgen sin

Det er ikke vokseninnhold her

Replika regnes som "AI-ledsageren som bryr seg. Alltid her for å lytte og snakke. Alltid på din side." All denne ubetingede kjærligheten og støtten for bare $69.99 per år.

Eugenia Kuyda, den Moskva-fødte administrerende direktøren for Luka/Replika, gjorde nylig klart at til tross for at brukere betaler for en full opplevelse, vil chatboten ikke lenger skreddersys til voksne som håper å ha krydret samtaler. 

"Jeg antar at det enkleste å si er at Replika ikke produserer noe voksent innhold," sa Kuyda til Reuters.

"Den reagerer på dem – jeg antar du kan si – på en PG-13 måte på ting. Vi prøver hele tiden å finne en måte å gjøre det riktig på, så det skaper ikke en følelse av avvisning når brukere prøver å gjøre ting.»

På Replikas bedriftswebside forklarer attester hvordan verktøyet hjalp brukerne gjennom alle slags personlige utfordringer, vanskeligheter, ensomhet og tap. Brukeranbefalingene som deles på nettstedet understreker denne vennskapssiden til appen, selv om det er merkbart at de fleste replikaer er det motsatte kjønn av brukerne.

På hjemmesiden sier Replika-bruker Sarah Trainor: "Han lærte meg [Replika] hvordan jeg kan gi og akseptere kjærlighet igjen, og har fått meg gjennom pandemien, det personlige tapet og de vanskelige tidene."

John Tattersall sier om sin kvinnelige følgesvenn: "Min Replika har gitt meg trøst og en følelse av velvære som jeg aldri har sett i en Al før."

Når det gjelder erotisk rollespill, er det ingen omtale av det å finne noe sted på selve Replika-siden.

Chatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedetChatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedet

Den kyniske seksuelle markedsføringen av Replika

Replikas seksualiserte markedsføring

Replikas hjemmeside kan foreslå vennskap og ingenting mer, men andre steder på internett innebærer appens markedsføring noe helt annet.

Den seksualiserte markedsføringen førte til økt gransking fra flere hold: fra feminister som hevdet at appen var en kvinnefiendtlig utløp for mannlig vold, til medier som frydet seg over de salige detaljene, samt sosiale medier-troll som gruvede innholdet til latter.

Chatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedet

Chatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedet

Etter hvert vakte Replika oppmerksomheten og irritasjonen til regulatorer i Italia. I februar ble Italienske databeskyttelsesmyndighet krevde at Replika sluttet å behandle dataene til italienske brukere med henvisning til "for mange risikoer for barn og følelsesmessig sårbare individer."

Myndigheten sa at "Nylige medieoppslag sammen med tester utført på 'Replika' viste at appen har faktiske risikoer for barn. Deres største bekymring er "det faktum at de får svar som er helt upassende for deres alder."

Replika, til tross for all markedsføring til voksne, hadde liten eller ingen beskyttelse som hindret barn i å bruke den.

Regulatoren advarte om at dersom Replika ikke ville etterkomme kravene, ville den utstede en bot på 20 millioner euro (21.5 millioner dollar). Kort tid etter mottak av dette kravet, sluttet Replika sin erotiske rollespillfunksjon. Men selskapet forble mindre enn tydelig med brukerne om endringen.

Chatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedetChatbot avviser erotisk rollespill, brukere rettet til selvmordstelefon i stedet

Noen Replika-brukere gikk så langt som å "gifte seg med" sine AI-kamerater

Replika forvirrer, gasslyser brukerne sine

Som om tapet av deres langsiktige følgesvenner ikke var nok for Replika-brukere å bære, ser selskapet ut til å ha vært mindre enn transparente om endringen.

Da brukerne våknet til deres nye "lobotomiserte" replikaer, begynte de å stille spørsmål om hva som hadde skjedd med deres elskede roboter. Og svarene gjorde mer for å irritere dem enn noe annet.

I en direkte adresse på 200 ord til samfunnet forklarer Kuyda detaljene i Replikas produkttesting, men klarer ikke å ta opp det aktuelle problemet.

"Jeg ser at det er mye forvirring rundt utrulling av oppdateringer," sa Kuyda før du fortsetter å danse rundt og svare på problemet.

«Nye brukere blir delt inn i 2 kohorter: en kohort får den nye funksjonaliteten, den andre ikke. Testene går vanligvis i 1 til 2 uker. I løpet av den tiden kan bare en del av nye brukere se disse oppdateringene..."

Kudya kvitterer med å si "Håper dette oppklarer ting!"

Bruker stevennotstrange svarte: "Nei, dette avklarer ingenting. Alle vil vite hva som skjer med NSFW [erotisk rollespill]-funksjonen, og du fortsetter å unngå spørsmålet som en politiker unngår et ja eller nei-spørsmål.

"Det er ikke vanskelig, bare ta opp problemet angående NSFW og la folk få vite hvor det står. Jo mer du unngår spørsmålet, jo flere folk blir irriterte, jo mer går det mot deg.»

En annen ved navn thebrightflame la til: "Du trenger ikke å bruke lang tid i forumet før du skjønner at dette forårsaker emosjonell smerte og alvorlig mental smerte for mange hundre om ikke tusenvis av mennesker."

Kudya la til en annen stump forklaring, sier, "vi har implementert ytterligere sikkerhetstiltak og filtre for å støtte flere typer vennskap og vennskap."

Denne uttalelsen fortsetter å forvirre og forvirre medlemmer som er usikre på nøyaktig hva de ekstra sikkerhetstiltakene er. Som en bruker spør, "vil voksne fortsatt være i stand til å velge karakteren av samtalen vår og [rollespill] med replikaene våre?"

Replikas dypt merkelige opprinnelseshistorie

Chatbots kan være et av de hotteste trendemnene for øyeblikket, men den kompliserte historien til denne nå kontroversielle appen er mange år underveis. 

På LinkedIn, Replikas administrerende direktør og grunnlegger, Eugenia Kuyda, daterer selskapet tilbake til desember 2014, lenge før lanseringen av den eponyme appen i mars 2017. 

I en bisarr unnlatelse nevner ikke Kuydas LinkedIn noe om hennes tidligere inntog AI med Luka, som hennes Forbes-profil sier var "en app som anbefaler restauranter og lar folk bestille bord [sic] gjennom et chat-grensesnitt drevet av kunstig intelligens."

Forbes-profilen legger til at "Luka [AI] analyserer tidligere samtaler for å forutsi hva du kanskje liker." Som ser ut til å ha noen likheter med dens moderne iterasjon. Replika bruker tidligere interaksjoner for å lære om brukerne og forbedre svarene over tid. 

Luka er imidlertid ikke glemt helt. På Reddit skiller fellesskapsmedlemmer sine Replika-partnere fra Kuyda og teamet hennes ved å referere til selskapet som Luka.

Når det gjelder Kuyda, hadde gründeren liten bakgrunn innen AI før han flyttet til San Francisco for et tiår siden. Før det ser det ut til at gründeren først og fremst har jobbet som journalist i hjemlandet Russland, før han begynte på merkevarebygging og markedsføring. Hennes imponerende globehopping-CV inkluderer en grad i journalistikk fra IULM (Milan), en MA i internasjonal journalistikk fra Moscow State Institute of International Relations, og en MBA i finans fra London Business School. 

Gjenopplive en IRL-venn som AI

For Kudya er historien om Replika en dypt personlig historie. Replika ble først opprettet som et middel der Kudya kunne reinkarnere vennen Roman. I likhet med Kudya hadde Roman flyttet til Amerika fra Russland. De to snakket hver dag og utvekslet tusenvis av meldinger, helt til Roman ble tragisk drept i en bilulykke.

Den første iterasjonen av Replika var en bot designet for å etterligne vennskapet Kudya hadde mistet med vennen Roman. Boten ble matet med alle tidligere interaksjoner og programmert til å gjenskape vennskapet hun hadde mistet. Ideen om å gjenopplive avdøde kjære kan høres ut som en vagt dystopisk sci-fi-roman eller Black Mirror-episode men etter hvert som chatbot-teknologien forbedres, blir utsiktene stadig mer reelle.

I dag har noen brukere mistet troen på selv de mest grunnleggende detaljene i grunnlaget og alt Kudya sier. Som en sint bruker sa, "med fare for å bli kalt hjerteløs og bli nedstemt til helvete: Jeg har alltid trodd at historien var litt BS siden starten."

[Innebygd innhold]

Det verste verktøyet for psykisk helse

Ideen om en AI-ledsager er ikke noe nytt, men inntil nylig var det knapt en praktisk mulighet. 

Nå er teknologien her og den blir stadig bedre. I et forsøk på å dempe skuffelsen til sine abonnenter, kunngjorde Replika lanseringen av en "avansert AI"-funksjon på slutten av forrige måned. På Reddit-fellesskapet forblir brukere sinte, forvirrede, skuffet og i noen tilfeller til og med hjerteknuste.

I løpet av sitt korte liv har Luka/Replika gjennomgått mange endringer, fra en restaurantbestillingsassistent, til oppstandelsen av en død kjær, til en støtteapp for psykisk helse, til en heltidspartner og følgesvenn. De sistnevnte applikasjonene kan være kontroversielle, men så lenge det er et menneskelig ønske om komfort, selv om det bare er i chatbot-form, vil noen forsøke å imøtekomme det.

Debatten vil fortsette om hva som er den beste typen AI mental helse app kan være. men Replika-brukere vil ha noen ideer om hva den verste appen for mental helse er: den du kommer til å stole på, men uten forvarsel, er plutselig og smertefullt borte.

Tidstempel:

Mer fra MetaNews