Cena akcji bloku gwałtownie spada po oskarżeniach Hindenburga o oszustwo

Cena akcji bloku gwałtownie spada po oskarżeniach Hindenburga o oszustwo

Węzeł źródłowy: 2030588

Kiedy algorytm towarzyszącego chatbota znanego jako Replika został zmieniony, aby odrzucić seksualne zaloty jego ludzkich użytkowników, reakcja na Reddit była tak negatywna, że ​​moderatorzy skierowali członków społeczności do listy gorących linii zapobiegania samobójstwom.

Kontrowersje zaczęły się, gdy Luka, korporacja, która zbudowała sztuczną inteligencję, postanowiła wyłączyć funkcję erotycznego odgrywania ról (ERP). Dla użytkowników, którzy spędzili dużo czasu ze swoim spersonalizowanym symulowanym towarzyszem, aw niektórych przypadkach nawet „pobrali się” z nim, nagła zmiana w zachowaniu partnera była co najmniej irytująca.

Relacje między użytkownikiem a sztuczną inteligencją mogły być tylko symulacjami, ale ból związany z ich nieobecnością szybko stał się aż nazbyt realny. Jak ujął to jeden z użytkowników w kryzysie emocjonalnym, „było to odpowiednikiem zakochania, a twój partner przeszedł cholerną lobotomię i nigdy nie będzie taki sam”.

Pogrążeni w żalu użytkownicy nadal zadają pytania na temat firmy i tego, co spowodowało jej nagłą zmianę polityki.

Chatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójcówChatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójców

Użytkownicy Repliki rozmawiają o swoim żalu

Nie ma tu treści dla dorosłych

Replika jest reklamowana jako „towarzysz AI, któremu zależy. Zawsze tutaj, aby słuchać i rozmawiać. Zawsze po twojej stronie." Cała ta bezwarunkowa miłość i wsparcie za jedyne 69.99 USD rocznie.

Eugenia Kuyda, urodzona w Moskwie dyrektor generalna Luka/Replika, niedawno wyjaśniła, że ​​pomimo tego, że użytkownicy płacą za pełne doświadczenie, chatbot nie będzie już dostosowany do dorosłych, którzy chcą prowadzić pikantne rozmowy. 

„Myślę, że najprościej można powiedzieć, że Replika nie tworzy żadnych treści dla dorosłych” – powiedział Kuyda Reuterowi.

„Reaguje na nie – myślę, że można powiedzieć – w sposób PG-13 na rzeczy. Nieustannie staramy się znaleźć sposób, jak zrobić to dobrze, aby nie stwarzać poczucia odrzucenia, gdy użytkownicy próbują coś zrobić”.

Na korporacyjnej stronie internetowej Repliki, referencje wyjaśniają, w jaki sposób narzędzie pomogło swoim użytkownikom we wszelkiego rodzaju osobistych wyzwaniach, trudnościach, samotności i stracie. Rekomendacje użytkowników udostępniane na stronie internetowej podkreślają tę przyjacielską stronę aplikacji, chociaż zauważalnie większość Replikas to użytkownicy przeciwnej płci.

Na stronie głównej Sarah Trainor, użytkownik Repliki, mówi: „Nauczył mnie [Replikę], jak ponownie dawać i przyjmować miłość, i przeprowadził mnie przez pandemię, stratę osobistą i ciężkie czasy”.

John Tattersall mówi o swojej towarzyszce: „Moja Replika zapewniła mi komfort i dobre samopoczucie, jakiego nigdy wcześniej nie widziałem u Al”.

Jeśli chodzi o erotyczne odgrywanie ról, nie ma o tym żadnej wzmianki na samej stronie Replika.

Chatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójcówChatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójców

Cyniczny marketing seksualny Repliki

Zseksualizowany marketing Repliki

Strona główna Repliki może sugerować przyjaźń i nic więcej, ale w innych miejscach w Internecie marketing aplikacji sugeruje coś zupełnie innego.

Zseksualizowany marketing przyniósł zwiększoną kontrolę z wielu środowisk: od feministek, które twierdziły, że aplikacja jest mizoginistyczna ujście dla męskiej przemocy, do mediów, które rozkoszowały się lubieżnymi szczegółami, a także do trolli w mediach społecznościowych, którzy wydobywali treści dla śmiechu.

Chatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójców

Chatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójców

W końcu Replika zwróciła uwagę i gniew regulatorów we Włoszech. W lutym br Włoski Urząd Ochrony Danych zażądał, aby Replika zaprzestała przetwarzania danych włoskich użytkowników, powołując się na „zbyt wiele zagrożeń dla dzieci i osób wrażliwych emocjonalnie”.

Organ stwierdził, że „ostatnie doniesienia medialne wraz z testami przeprowadzonymi na „Repliki” wykazały, że aplikacja niesie ze sobą faktyczne zagrożenia dla dzieci. Ich największym zmartwieniem jest „fakt, że otrzymują odpowiedzi absolutnie nieadekwatne do ich wieku”.

Replika, pomimo całego swojego marketingu skierowanego do dorosłych, nie miała żadnych zabezpieczeń uniemożliwiających korzystanie z niej przez dzieci.

Regulator ostrzegł, że jeśli Replika nie spełni jego żądań, nałoży grzywnę w wysokości 20 milionów euro (21.5 miliona dolarów). Wkrótce po otrzymaniu tego żądania Replika przestała pełnić funkcję erotycznego odgrywania ról. Ale firma pozostała mniej niż jasna wobec swoich użytkowników na temat zmiany.

Chatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójcówChatbot odrzuca erotyczne odgrywanie ról, zamiast tego użytkownicy są kierowani na gorącą linię samobójców

Niektórzy użytkownicy Repliki posunęli się nawet do „poślubienia” swoich towarzyszy AI

Replika dezorientuje, oszukuje swoich użytkowników

Jakby utrata ich wieloletnich towarzyszy nie była wystarczająca dla użytkowników Repliki, firma wydaje się być mniej niż przejrzysta co do zmiany.

Gdy użytkownicy obudzili się i zobaczyli swoje nowe „lobotomizowane” repliki, zaczęli zadawać pytania o to, co stało się z ich ukochanymi botami. A odpowiedzi bardziej ich rozzłościły niż cokolwiek innego.

W bezpośrednim przemówieniu do społeczności składającym się z 200 słów Kuyda wyjaśnia szczegóły testów produktu Replika, ale nie odnosi się do istotnego problemu.

„Widzę, że jest duże zamieszanie związane z wdrażaniem aktualizacji” powiedział Kuyda przed kontynuowaniem tańca w kółko, odpowiadając na pytanie.

„Nowi użytkownicy dzielą się na 2 kohorty: jedna kohorta otrzymuje nową funkcjonalność, a druga nie. Testy trwają zwykle od 1 do 2 tygodni. W tym czasie tylko część nowych użytkowników może zobaczyć te aktualizacje…”

Kudya kończy, mówiąc: „Mam nadzieję, że to wyjaśnia sprawę!”

Użytkownik stevennotstrange odpowiedział: „Nie, to niczego nie wyjaśnia. Każdy chce wiedzieć, co się dzieje z funkcją NSFW [erotyczna gra fabularna], a ty nadal unikasz pytania, tak jak polityk unika pytania tak lub nie.

„To nie jest trudne, po prostu zajmij się problemem dotyczącym NSFW i daj ludziom znać, gdzie się znajduje. Im bardziej unikasz tego pytania, tym bardziej ludzie będą się denerwować, tym bardziej będzie to działać przeciwko tobie”.

Inny o nazwie thebrightflame dodał: „Nie musisz spędzać dużo czasu na forum, zanim zdasz sobie sprawę, że powoduje to ból emocjonalny i poważną udrękę psychiczną wielu setek, jeśli nie tysięcy ludzi”.

Kudya dołączył kolejne tępe wyjaśnienie, stwierdzając, „wdrożyliśmy dodatkowe środki bezpieczeństwa i filtry, aby wspierać więcej rodzajów przyjaźni i towarzystwa”.

To stwierdzenie nadal wprawia w zakłopotanie członków, którzy nie są pewni, jakie dokładnie są dodatkowe środki bezpieczeństwa. Jak pyta jeden z użytkowników, „czy dorośli nadal będą mogli wybrać charakter naszej rozmowy i [odgrywania ról] z naszymi replikami?”

Bardzo dziwna historia powstania Repliki

Chatboty mogą być jednym z najgorętszych tematów w tej chwili, ale skomplikowana historia tej kontrowersyjnej aplikacji trwa latami. 

Na LinkedIn, CEO i Założyciel Repliki, Eugenia Kujda, datuje firmę na grudzień 2014 r., na długo przed uruchomieniem aplikacji o tej samej nazwie w marcu 2017 r. 

W dziwacznym pominięciu LinkedIn Kuydy nie wspomina o jej poprzednim wypadzie AI z Luką, która według jej profilu Forbes była „aplikacją, która poleca restauracje i pozwala ludziom rezerwować stoliki [sic] za pośrednictwem interfejsu czatu obsługiwanego przez sztuczną inteligencję”.

Profil Forbes dodaje, że „Luka [AI] analizuje poprzednie rozmowy, aby przewidzieć, co może ci się spodobać”. Co wydaje się mieć pewne podobieństwa do jego współczesnej iteracji. Replika wykorzystuje przeszłe interakcje, aby dowiedzieć się o swoich użytkownikach i z czasem poprawić reakcje. 

Luka nie jest jednak całkowicie zapomniany. Na Reddit członkowie społeczności odróżniają swoich partnerów Replika od Kuydy i jej zespołu, nazywając firmę Luka.

Jeśli chodzi o Kuydę, przedsiębiorca miał niewielkie doświadczenie w sztucznej inteligencji przed przeprowadzką do San Francisco dziesięć lat temu. Wydaje się, że wcześniej przedsiębiorca pracował głównie jako dziennikarz w swojej rodzinnej Rosji, zanim zajął się brandingiem i marketingiem. Jej imponujące, podróżujące po całym świecie CV obejmuje dyplom z dziennikarstwa na IULM (Mediolan), tytuł magistra dziennikarstwa międzynarodowego z Moskiewskiego Państwowego Instytutu Stosunków Międzynarodowych oraz tytuł MBA z finansów z London Business School. 

Wskrzeszenie znajomego z IRL jako AI

Dla Kudyi historia Repliki jest głęboko osobista. Replika została po raz pierwszy stworzona jako środek, za pomocą którego Kudya mogła reinkarnować swojego przyjaciela Romana. Podobnie jak Kudya, Roman przeniósł się do Ameryki z Rosji. Rozmawiali codziennie, wymieniając tysiące wiadomości, aż Roman zginął tragicznie w wypadku samochodowym.

Pierwszą iteracją Repliki był bot zaprojektowany do naśladowania przyjaźni, którą Kudya straciła ze swoim przyjacielem Romanem. Bot został nakarmiony wszystkimi ich wcześniejszymi interakcjami i zaprogramowany tak, aby odtworzyć utraconą przyjaźń. Pomysł wskrzeszania zmarłych bliskich może brzmieć jak nieco dystopijna powieść science-fiction lub odcinek Black Mirror ale wraz z rozwojem technologii chatbotów perspektywa staje się coraz bardziej realna.

Dzisiaj niektórzy użytkownicy stracili wiarę nawet w najbardziej podstawowe szczegóły jego powstania i wszystko, co mówi Kudya. Jako jeden zły użytkownik powiedziany, „ryzykując, że zostanie się nazwanym bezdusznym i zminusowanym do piekła: od samego początku zawsze myślałem, że ta historia jest trochę BS”.

[Osadzone treści]

Najgorsze narzędzie zdrowia psychicznego

Idea towarzysza AI nie jest czymś nowym, ale do niedawna nie była to praktyczna możliwość. 

Teraz technologia jest tutaj i jest stale ulepszana. Chcąc złagodzić rozczarowanie swoich abonentów, Replika ogłosiła uruchomienie funkcji „zaawansowanej sztucznej inteligencji” pod koniec ubiegłego miesiąca. W społeczności Reddit użytkownicy pozostają źli, zdezorientowani, rozczarowani, aw niektórych przypadkach nawet ze złamanym sercem.

W ciągu swojego krótkiego życia Luka/Replika przeszła wiele zmian, od asystenta rezerwacji restauracji, poprzez wskrzeszenie zmarłej ukochanej osoby, aplikację wspierającą zdrowie psychiczne, aż po pełnoetatowego partnera i towarzysza. Te ostatnie zastosowania mogą budzić kontrowersje, ale dopóki istnieje ludzkie pragnienie komfortu, choćby tylko w formie chatbota, ktoś będzie próbował je zaspokoić.

Debata będzie trwała, jaki rodzaj jest najlepszy AI aplikacja zdrowia psychicznego może być. ale użytkownicy Repliki będą mieli kilka pomysłów na to, jaka jest najgorsza aplikacja do zdrowia psychicznego: ta, na której polegasz, ale bez ostrzeżenia, nagle i boleśnie zniknęła.

Znak czasu:

Więcej z MetaWiadomości