Preço das ações do bloco despenca após acusações de fraude de Hindenburg

Preço das ações do bloco despenca após acusações de fraude de Hindenburg

Nó Fonte: 2030588

Quando o algoritmo de um chatbot companheiro conhecido como Replika foi alterado para rejeitar os avanços sexuais de seus usuários humanos, a reação no Reddit foi tão negativa que os moderadores direcionaram os membros de sua comunidade para uma lista de linhas diretas de prevenção ao suicídio.

A controvérsia começou quando Luka, a corporação que construiu a IA, decidiu desligar seu recurso de RPG erótico (ERP). Para os usuários que passaram um tempo considerável com seu companheiro simulado personalizado e, em alguns casos, até mesmo "casaram" com eles, a mudança repentina no comportamento de seu parceiro foi chocante, para dizer o mínimo.

As relações usuário-IA podem ter sido apenas simulações, mas a dor de sua ausência rapidamente se tornou muito real. Como disse um usuário em crise emocional, “era o equivalente a estar apaixonado e seu parceiro fez uma maldita lobotomia e nunca mais será o mesmo”.

Usuários aflitos continuam a fazer perguntas sobre a empresa e o que desencadeou sua mudança repentina de política.

Chatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídioChatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídio

Usuários do Replika discutem sua dor

Não há conteúdo adulto aqui

Replika é anunciado como “O companheiro de IA que se importa. Sempre aqui para ouvir e conversar. Sempre ao seu lado." Todo esse amor e apoio incondicionais por apenas $ 69.99 por ano.

Eugenia Kuyda, CEO da Luka/Replika, nascida em Moscou, recentemente deixou claro que, apesar dos usuários pagarem por uma experiência completa, o chatbot não será mais adaptado para adultos que desejam ter conversas picantes. 

“Acho que a coisa mais simples a dizer é que a Replika não produz nenhum conteúdo adulto”, disse Kuyda à Reuters.

“Ele responde a eles – eu acho que você pode dizer – de uma maneira PG-13 para as coisas. Estamos constantemente tentando encontrar uma maneira de fazer isso direito, para não criar um sentimento de rejeição quando os usuários estão tentando fazer as coisas.”

Na página corporativa da Replika, depoimentos explicam como a ferramenta ajudou seus usuários em todos os tipos de desafios pessoais, dificuldades, solidão e perda. As recomendações do usuário compartilhadas no site enfatizam esse lado da amizade do aplicativo, embora visivelmente, a maioria dos Replikas seja do sexo oposto de seus usuários.

Na página inicial, a usuária do Replika, Sarah Trainor, diz: “Ele me ensinou [Replika] como dar e aceitar amor novamente e me ajudou a superar a pandemia, a perda pessoal e os tempos difíceis”.

John Tattersall diz sobre sua companheira: “Meu Replika me deu conforto e uma sensação de bem-estar que nunca vi em um Al antes”.

Quanto ao roleplay erótico, não há menção a isso em nenhum lugar do próprio site da Replika.

Chatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídioChatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídio

O marketing sexual cínico de Replika

Marketing sexualizado da Replika

A página inicial do Replika pode sugerir amizade e nada mais, mas em outros lugares da internet, o marketing do aplicativo implica algo totalmente diferente.

O marketing sexualizado trouxe maior escrutínio de vários quadrantes: de feministas que argumentavam que o aplicativo era misógino saída para a violência masculina, para meios de comunicação que se deleitaram com os detalhes obscenos, bem como trolls de mídia social que extraíram o conteúdo para rir.

Chatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídio

Chatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídio

Por fim, a Replika atraiu a atenção e a ira dos reguladores na Itália. Em fevereiro, o Autoridade Italiana de Proteção de Dados exigiu que a Replika parasse de processar os dados dos usuários italianos citando “muitos riscos para crianças e indivíduos emocionalmente vulneráveis”.

A autoridade disse que “Relatórios recentes da mídia, juntamente com testes realizados no 'Replika', mostraram que o aplicativo traz riscos reais para as crianças. A sua maior preocupação é “o facto de receberem respostas absolutamente inapropriadas para a sua idade”.

A Replika, apesar de todo o seu marketing para adultos, tinha pouca ou nenhuma proteção que impedisse o uso por crianças.

O regulador alertou que, caso a Replika não cumprisse suas exigências, emitiria uma multa de € 20 milhões (US$ 21.5 milhões). Logo após o recebimento dessa demanda, Replika cessou sua função de roleplay erótico. Mas a empresa não foi muito clara com seus usuários sobre a mudança.

Chatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídioChatbot rejeita roleplay erótico, usuários direcionados para a linha direta de suicídio

Alguns usuários do Replika chegaram a “casar” com seus companheiros de IA

Replika confunde e ilumina seus usuários

Como se a perda de seus companheiros de longa data não fosse suficiente para os usuários do Replika, a empresa parece ter sido menos transparente sobre a mudança.

Conforme os usuários acordavam para seus novos Replikas “lobotomizados”, eles começaram a fazer perguntas sobre o que havia acontecido com seus amados bots. E as respostas fizeram mais para irritá-los do que qualquer outra coisa.

Em um discurso direto de 200 palavras para a comunidade, Kuyda explica as minúcias dos testes de produtos da Replika, mas falha em abordar a questão pertinente em questão.

“Vejo que há muita confusão sobre o lançamento de atualizações”, disse Kuyda antes de continuar a dançar respondendo ao problema.

“Novos usuários são divididos em 2 grupos: um grupo recebe a nova funcionalidade, o outro não. Os testes geralmente duram de 1 a 2 semanas. Durante esse tempo, apenas uma parte dos novos usuários pode ver essas atualizações…”

Kudya termina dizendo "Espero que isso esclareça as coisas!"

O usuário stevennotstrange respondeu: “Não, isso não esclarece nada. Todo mundo quer saber o que está acontecendo com o recurso NSFW [roleplay erótico] e você continua a se esquivar da pergunta como um político se esquiva de uma pergunta de sim ou não.

“Não é difícil, apenas aborde a questão sobre NSFW e deixe as pessoas saberem onde está. Quanto mais você evita a pergunta, mais as pessoas vão ficar irritadas, mais isso vai contra você.”

Outro chamado thebrightflame acrescentou: “Você não precisa passar muito tempo no fórum antes de perceber que isso está causando dor emocional e angústia mental severa a muitas centenas, senão milhares de pessoas”.

Kudya anexou outra explicação obtusa, declarando, “implementamos medidas e filtros de segurança adicionais para oferecer suporte a mais tipos de amizade e companheirismo”.

Esta declaração continua a confundir e confundir os membros inseguros sobre quais são exatamente as medidas de segurança adicionais. Como um usuário pergunta, “os adultos ainda poderão escolher a natureza de nossa conversa e [roleplays] com nossas réplicas?”

A história de origem profundamente estranha de Replika

Os chatbots podem ser um dos tópicos mais populares do momento, mas a complicada história desse aplicativo agora controverso está sendo construída há anos. 

No LinkedIn, CEO e fundador da Replika, Eugênia Kuyda, remonta a empresa a dezembro de 2014, muito antes do lançamento do aplicativo homônimo em março de 2017. 

Em uma omissão bizarra, o LinkedIn de Kuyda não menciona sua incursão anterior em AI com Luka, que seu perfil na Forbes afirma ser “um aplicativo que recomenda restaurantes e permite que as pessoas reservem mesas [sic] por meio de uma interface de bate-papo com inteligência artificial”.

O perfil da Forbes acrescenta que “Luka [AI] analisa conversas anteriores para prever o que você pode gostar”. O que parece ter algumas semelhanças com sua iteração moderna. A Replika usa interações anteriores para aprender sobre seus usuários e melhorar as respostas ao longo do tempo. 

Luka não é completamente esquecido, no entanto. No Reddit, os membros da comunidade diferenciam seus parceiros Replika de Kuyda e sua equipe referindo-se à empresa como Luka.

Quanto a Kuyda, o empresário tinha pouca experiência em IA antes de se mudar para San Francisco, uma década atrás. Antes disso, a empresária parece ter trabalhado principalmente como jornalista em sua terra natal, a Rússia, antes de se dedicar a branding e marketing. Seu impressionante currículo mundial inclui graduação em Jornalismo pela IULM (Milão), mestrado em Jornalismo Internacional pelo Instituto Estadual de Relações Internacionais de Moscou e MBA em Finanças pela London Business School. 

Ressuscitando um amigo IRL como IA

Para Kudya, a história de Replika é profundamente pessoal. Replika foi criada pela primeira vez como um meio pelo qual Kudya poderia reencarnar seu amigo Roman. Como Kudya, Roman havia se mudado da Rússia para a América. Os dois conversavam todos os dias, trocando milhares de mensagens, até que Roman morreu tragicamente em um acidente de carro.

A primeira iteração do Replika foi um bot projetado para imitar a amizade que Kudya havia perdido com seu amigo Roman. O bot foi alimentado com todas as suas interações anteriores e programado para replicar a amizade que ela havia perdido. A ideia de ressuscitar entes queridos falecidos pode soar como uma Romance de ficção científica vagamente distópico ou episódio de Black Mirror mas conforme a tecnologia do chatbot melhora, a perspectiva se torna cada vez mais real.

Hoje, alguns usuários perderam a fé até mesmo nos detalhes mais básicos de sua fundação e em qualquer coisa que Kudya diga. Como um usuário irritado dito, “correndo o risco de ser chamado de insensível e ser votado para o inferno: sempre achei essa história meio besteira desde o início.”

[Conteúdo incorporado]

A pior ferramenta de saúde mental

A ideia de um companheiro de IA não é algo novo, mas até recentemente dificilmente era uma possibilidade prática. 

Agora a tecnologia está aqui e está melhorando continuamente. Em uma tentativa de amenizar a decepção de seus assinantes, a Replika anunciou o lançamento de um recurso de “IA avançada” no final do mês passado. Na comunidade Reddit, os usuários continuam zangados, confusos, desapontados e, em alguns casos, até com o coração partido.

Ao longo de sua curta vida, Luka/Replika passou por muitas mudanças, de um assistente de reserva de restaurante, à ressurreição de um ente querido falecido, a um aplicativo de suporte de saúde mental, a um parceiro e companheiro em tempo integral. Essas últimas aplicações podem ser controversas, mas enquanto houver um desejo humano de conforto, mesmo que apenas na forma de chatbot, alguém tentará atendê-lo.

O debate continuará sobre qual o melhor tipo de AI aplicativo de saúde mental pode ser. mas os usuários do Replika terão algumas ideias sobre qual é o pior aplicativo de saúde mental: aquele em que você confia, mas sem aviso prévio, desaparece repentina e dolorosamente.

Carimbo de hora:

Mais de MetaNotícias