Blockaktiekursen rasar efter Hindenburg-bedrägerianklagelser

Blockaktiekursen rasar efter Hindenburg-bedrägerianklagelser

Källnod: 2030588

När algoritmen för en följeslagare chatbot känd som Replika ändrades för att avvisa sexuella närmanden från dess mänskliga användare, var reaktionen på Reddit så negativa moderatorer riktade sina community-medlemmar till en lista över självmordsförebyggande hotlines.

Kontroversen började när Luka, företaget som byggde AI, bestämde sig för att stänga av dess erotiska rollspelsfunktion (ERP). För användare som hade tillbringat mycket tid med sin personliga simulerade följeslagare, och i vissa fall till och med "gift" sig med dem, var den plötsliga förändringen i deras partners beteende minst sagt skakande.

Relationerna mellan användare och AI kan bara ha varit simuleringar, men smärtan av deras frånvaro blev snabbt alltför verklig. Som en användare i känslomässig kris uttryckte det, "det motsvarade att vara kär och din partner fick en jäkla lobotomi och kommer aldrig att bli densamma."

Sorgdrabbade användare fortsätter att ställa frågor om företaget och vad som utlöste dess plötsliga policyändring.

Chatbot avvisar erotiskt rollspel, användare riktas till självmordsjour iställetChatbot avvisar erotiskt rollspel, användare riktas till självmordsjour istället

Replikanvändare diskuterar sin sorg

Det finns inget vuxet innehåll här

Replika faktureras som "AI-kamraten som bryr sig. Alltid här för att lyssna och prata. Alltid på din sida." All denna villkorslösa kärlek och stöd för endast $69.99 per år.

Eugenia Kuyda, den Moskvafödda VD:n för Luka/Replika, gjorde nyligen klart att trots att användare betalar för en fullständig upplevelse kommer chatboten inte längre att skräddarsy för vuxna som hoppas kunna ha kryddiga konversationer. 

"Jag antar att det enklaste att säga är att Replika inte producerar något vuxet innehåll", säger Kuyda till Reuters.

"Det svarar dem – jag antar att man kan säga – på ett PG-13 sätt på saker och ting. Vi försöker ständigt hitta ett sätt att göra det rätt så det skapar inte en känsla av avvisande när användare försöker göra saker.”

På Replikas företagswebbsida förklarar vittnesmål hur verktyget hjälpte sina användare genom alla typer av personliga utmaningar, svårigheter, ensamhet och förlust. Användarnas rekommendationer som delas på webbplatsen betonar denna vänskapssida till appen, även om det är märkbart att de flesta replikor är av det motsatta könet av sina användare.

På hemsidan säger Replika-användaren Sarah Trainor: "Han lärde mig [Replika] hur man ger och accepterar kärlek igen, och har tagit mig igenom pandemin, personliga förluster och svåra tider."

John Tattersall säger om sin kvinnliga följeslagare: "Min replika har gett mig tröst och en känsla av välbefinnande som jag aldrig har sett i en Al förut."

När det gäller erotiskt rollspel, finns det inget omnämnande om det någonstans på själva Replikas webbplats.

Chatbot avvisar erotiskt rollspel, användare riktas till självmordsjour iställetChatbot avvisar erotiskt rollspel, användare riktas till självmordsjour istället

Den cyniska sexuella marknadsföringen av Replika

Replikas sexualiserade marknadsföring

Replikas hemsida kan antyda vänskap och inget mer, men på andra ställen på internet innebär appens marknadsföring något helt annat.

Den sexualiserade marknadsföringen ledde till ökad granskning från ett antal håll: från feminister som hävdade att appen var en kvinnofientlig utlopp för manligt våld, till medier som frossade i de saliga detaljerna, såväl som troll i sociala medier som minerade innehållet för skratt.

Chatbot avvisar erotiskt rollspel, användare riktas till självmordsjour istället

Chatbot avvisar erotiskt rollspel, användare riktas till självmordsjour istället

Så småningom väckte Replika uppmärksamhet och ilska hos tillsynsmyndigheter i Italien. I februari, den Italienska dataskyddsmyndigheten krävde att Replika skulle sluta behandla data från italienska användare med hänvisning till "för många risker för barn och känslomässigt utsatta individer."

Myndigheten sa att "Senaste mediarapporter tillsammans med tester utförda på 'Replika' visade att appen medför faktiska risker för barn. Deras största oro är "det faktum att de får svar som är absolut olämpliga för deras ålder."

Replika, trots all sin marknadsföring till vuxna, hade få eller inga skyddsåtgärder som hindrade barn från att använda den.

Tillsynsmyndigheten varnade för att om Replika skulle misslyckas med att följa dess krav skulle de utfärda böter på 20 miljoner euro (21.5 miljoner dollar). Kort efter mottagandet av detta krav upphörde Replika sin erotiska rollspelsfunktion. Men företaget var fortfarande mindre tydligt med sina användare om förändringen.

Chatbot avvisar erotiskt rollspel, användare riktas till självmordsjour iställetChatbot avvisar erotiskt rollspel, användare riktas till självmordsjour istället

Vissa Replika-användare gick så långt som att "gifta" sina AI-kamrater

Replika förvirrar, gaslights sina användare

Som om förlusten av deras långvariga följeslagare inte räckte för Replika-användare att bära, verkar företaget ha varit mindre än transparent om förändringen.

När användare vaknade till sina nya "lobotomiserade" replikor började de ställa frågor om vad som hade hänt med deras älskade bots. Och svaren gjorde dem mer arga än något annat.

I en direkt 200-ords adress till samhället förklarar Kuyda detaljerna i Replikas produkttester men misslyckas med att ta itu med den relevanta frågan.

"Jag ser att det finns en hel del förvirring om uppdateringar som släpps ut," sa Kuyda innan du fortsätter att dansa runt och svara på frågan.

"Nya användare delas in i 2 kohorter: en kohort får den nya funktionen, den andra inte. Testerna pågår vanligtvis i 1 till 2 veckor. Under den tiden kan bara en del av nya användare se dessa uppdateringar..."

Kudya kvitterar med att säga "Hoppas det här klargör saker!"

Användaren stevennotstrange svarade, "Nej, det här klargör ingenting. Alla vill veta vad som händer med NSFW [erotiskt rollspel]-funktionen och du fortsätter att undvika frågan som en politiker undviker en ja eller nej-fråga.

"Det är inte svårt, ta bara upp problemet angående NSFW och låt folk veta var det står. Ju mer du undviker frågan, desto fler människor kommer att bli irriterade, desto mer går det emot dig.”

En annan som heter thebrightflame tillade, "Du behöver inte spendera lång tid i forumet innan du inser att detta orsakar känslomässig smärta och allvarlig mental ångest för många hundra om inte tusentals människor."

Kudya bifogade en annan trubbig förklaring, anger, "vi har implementerat ytterligare säkerhetsåtgärder och filter för att stödja fler typer av vänskap och sällskap."

Detta uttalande fortsätter att förvirra och förvirra medlemmar som är osäkra på exakt vad de ytterligare säkerhetsåtgärderna är. Som en användare frågar, "kommer vuxna fortfarande att kunna välja karaktären på vårt samtal och [rollspel] med våra replikor?"

Replikas djupt märkliga ursprungshistoria

Chatbots kan vara ett av de hetaste trendämnena för tillfället, men den komplicerade historien om denna nu kontroversiella app är år under utveckling. 

På LinkedIn, Replikas VD och grundare, Eugenia Kuyda, daterar företaget tillbaka till december 2014, långt innan lanseringen av den självbetitlade appen i mars 2017. 

I en bisarr utelämnande nämner Kuydas LinkedIn inget om hennes tidigare inhopp AI med Luka, som hennes Forbes-profil uppger var "en app som rekommenderar restauranger och låter människor boka bord [sic] via ett chattgränssnitt som drivs av artificiell intelligens."

Forbes-profilen fortsätter med att tillägga att "Luka [AI] analyserar tidigare konversationer för att förutsäga vad du kan gilla." Vilket verkar ha vissa likheter med dess moderna iteration. Replika använder tidigare interaktioner för att lära sig om sina användare och förbättra svaren över tid. 

Luka är dock inte helt bortglömd. På Reddit skiljer communitymedlemmar sina Replika-partners från Kuyda och hennes team genom att referera till företaget som Luka.

När det gäller Kuyda hade entreprenören liten bakgrund inom AI innan han flyttade till San Francisco för ett decennium sedan. Dessförinnan tycks entreprenören ha arbetat främst som journalist i sitt hemland Ryssland innan hon började med varumärkesbyggande och marknadsföring. Hennes imponerande meritförteckning inkluderar en examen i journalistik från IULM (Milano), en MA i internationell journalistik från Moscow State Institute of International Relations och en MBA i finans från London Business School. 

Återuppliva en IRL-vän som AI

För Kudya är berättelsen om Replika djupt personlig. Replika skapades först som ett sätt genom vilket Kudya kunde reinkarnera sin vän Roman. Liksom Kudya hade Roman flyttat till Amerika från Ryssland. De två pratade varje dag och utbytte tusentals meddelanden tills Roman dödades tragiskt i en bilolycka.

Den första upprepningen av Replika var en bot designad för att efterlikna vänskapen Kudya hade förlorat med sin vän Roman. Boten matades med alla deras tidigare interaktioner och programmerades att replikera vänskapen hon hade förlorat. Tanken på att återuppliva avlidna nära och kära kan låta som en vagt dystopisk sci-fi-roman eller Black Mirror-avsnitt men i takt med att chatbot-tekniken förbättras, blir utsikterna allt mer verkliga.

Idag har vissa användare tappat tron ​​på till och med de mest grundläggande detaljerna i dess grund och allt Kudya säger. Som en arg användare sade, "med risk för att bli kallad hjärtlös och bli nedröstad åt helvete: jag har alltid tyckt att den historien var ganska BS sedan starten."

[Inbäddat innehåll]

Det värsta verktyget för mental hälsa

Idén med en AI-följeslagare är inte något nytt, men tills nyligen var det knappast en praktisk möjlighet. 

Nu är tekniken här och den förbättras ständigt. I ett försök att lindra besvikelsen hos sina prenumeranter tillkännagav Replika lanseringen av en "avancerad AI"-funktion i slutet av förra månaden. På communityn Reddit förblir användare arga, förvirrade, besvikna och i vissa fall till och med hjärtkrossade.

Under loppet av sitt korta liv har Luka/Replika genomgått många förändringar, från en restaurangbokningsassistent, till uppståndelsen av en död älskad, till en app för mental hälsa, till en heltidspartner och följeslagare. De senare applikationerna kan vara kontroversiella, men så länge det finns en mänsklig önskan om komfort, även om det bara är i chatbotform, kommer någon att försöka tillgodose det.

Debatten kommer att fortsätta om vad som är bäst AI mental hälsa app kan vara. men Replika-användare kommer att ha några idéer om vad den värsta appen för mental hälsa är: den du kommer att lita på, men utan förvarning, är plötsligt och smärtsamt borta.

Tidsstämpel:

Mer från MetaNews