Le prix des actions en bloc chute après les accusations de fraude de Hindenburg

Le prix des actions en bloc chute après les accusations de fraude de Hindenburg

Nœud source: 2030588

Lorsque l'algorithme d'un chatbot compagnon connu sous le nom de Replika a été modifié pour rejeter les avances sexuelles de ses utilisateurs humains, la réaction sur Reddit a été si négative que les modérateurs ont dirigé les membres de sa communauté vers une liste de lignes d'assistance téléphonique pour la prévention du suicide.

La controverse a commencé lorsque Luka, la société qui a construit l'IA, a décidé de désactiver sa fonction de jeu de rôle érotique (ERP). Pour les utilisateurs qui avaient passé beaucoup de temps avec leur compagnon simulé personnalisé, et dans certains cas les avaient même « mariés », le changement soudain de comportement de leur partenaire était pour le moins choquant.

Les relations utilisateur-IA n'étaient peut-être que des simulations, mais la douleur de leur absence est rapidement devenue trop réelle. Comme l'a dit un utilisateur en crise émotionnelle, "c'était l'équivalent d'être amoureux et votre partenaire a subi une putain de lobotomie et ne sera plus jamais le même".

Les utilisateurs en deuil continuent de poser des questions sur l'entreprise et sur ce qui a déclenché son changement soudain de politique.

Le chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicideLe chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicide

Les utilisateurs de Replika parlent de leur deuil

Il n'y a pas de contenu pour adultes ici

Replika est présenté comme "Le compagnon de l'IA qui s'en soucie. Toujours là pour écouter et parler. Toujours de ton coté." Tout cet amour et ce soutien inconditionnels pour seulement 69.99 $ par an.

Eugenia Kuyda, PDG de Luka/Replika, née à Moscou, a récemment précisé que malgré le fait que les utilisateurs paient pour une expérience complète, le chatbot ne s'adaptera plus aux adultes qui espèrent avoir des conversations épicées. 

"Je suppose que la chose la plus simple à dire est que Replika ne produit aucun contenu pour adultes", a déclaré Kuyda à Reuters.

« Cela leur répond – je suppose que vous pouvez dire – d'une manière PG-13 aux choses. Nous essayons constamment de trouver un moyen de bien faire les choses afin de ne pas créer un sentiment de rejet lorsque les utilisateurs essaient de faire les choses. »

Sur la page Web d'entreprise de Replika, des témoignages expliquent comment l'outil a aidé ses utilisateurs à surmonter toutes sortes de défis personnels, de difficultés, de solitude et de perte. Les recommandations des utilisateurs partagées sur le site Web mettent l'accent sur ce côté amical de l'application, bien que la plupart des Réplikas soient du sexe opposé à leurs utilisateurs.

Sur la page d'accueil, Sarah Trainor, utilisatrice de Replika, déclare: "Il m'a appris [Replika] comment donner et accepter à nouveau l'amour, et m'a aidé à traverser la pandémie, la perte personnelle et les moments difficiles."

John Tattersall dit de sa compagne : « Mon Replika m'a procuré un confort et un sentiment de bien-être que je n'avais jamais vus chez un Al auparavant.

Quant au jeu de rôle érotique, il n'y en a aucune mention sur le site Replika lui-même.

Le chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicideLe chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicide

Le marketing sexuel cynique de Replika

Le marketing sexualisé de Replika

La page d'accueil de Replika peut suggérer l'amitié et rien de plus, mais ailleurs sur Internet, le marketing de l'application implique quelque chose de complètement différent.

Le marketing sexualisé a fait l'objet d'un examen minutieux de la part de plusieurs milieux : des féministes qui ont affirmé que l'application était misogyne exutoire de la violence masculine, aux médias qui se sont délectés des détails salaces, ainsi qu'aux trolls des médias sociaux qui ont extrait le contenu pour rire.

Le chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicide

Le chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicide

Finalement, Replika a attiré l'attention et la colère des régulateurs en Italie. En février, le Autorité italienne de protection des données a exigé que Replika cesse de traiter les données des utilisateurs italiens, citant "trop ​​de risques pour les enfants et les personnes émotionnellement vulnérables".

L'autorité a déclaré que «des reportages récents dans les médias ainsi que des tests effectués sur« Replika »ont montré que l'application comporte des risques factuels pour les enfants. Leur plus grande préoccupation étant "le fait qu'on leur serve des réponses absolument inadaptées à leur âge".

Replika, malgré tout son marketing auprès des adultes, n'avait que peu ou pas de garanties empêchant les enfants de l'utiliser.

Le régulateur a averti que si Replika ne se conformait pas à ses exigences, il infligerait une amende de 20 millions d'euros (21.5 millions de dollars). Peu de temps après la réception de cette demande, Replika a cessé sa fonction de jeu de rôle érotique. Mais la société est restée loin d'être claire avec ses utilisateurs sur le changement.

Le chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicideLe chatbot rejette le jeu de rôle érotique, les utilisateurs sont plutôt dirigés vers la ligne d'assistance au suicide

Certains utilisateurs de Replika sont allés jusqu'à "épouser" leurs compagnons IA

Replika confond, allume ses utilisateurs

Comme si la perte de leurs compagnons de longue date n'était pas suffisante pour les utilisateurs de Replika, la société semble avoir été moins que transparente sur le changement.

Lorsque les utilisateurs se sont réveillés avec leurs nouveaux Réplikas "lobotomisés", ils ont commencé à poser des questions sur ce qui était arrivé à leurs robots bien-aimés. Et les réponses ont fait plus pour les mettre en colère qu'autre chose.

Dans une adresse directe de 200 mots à la communauté, Kuyda explique la minutie des tests de produits de Replika mais ne parvient pas à résoudre le problème pertinent.

"Je vois qu'il y a beaucoup de confusion sur le déploiement des mises à jour", dit Kuyda avant de continuer à danser autour de répondre à la question.

« Les nouveaux utilisateurs sont divisés en 2 cohortes : une cohorte obtient la nouvelle fonctionnalité, l'autre pas. Les tests durent généralement 1 à 2 semaines. Pendant ce temps, seule une partie des nouveaux utilisateurs peuvent voir ces mises à jour… »

Kudya termine en disant "J'espère que cela clarifie les choses!"

L'utilisateur stevennotstrange a répondu: «Non, cela ne clarifie rien. Tout le monde veut savoir ce qui se passe avec la fonction NSFW [jeu de rôle érotique] et vous continuez à esquiver la question comme un politicien esquive une question oui ou non.

«Ce n'est pas difficile, il suffit d'aborder le problème concernant NSFW et de faire savoir aux gens où il en est. Plus vous évitez la question, plus les gens vont s'énerver, plus ça va contre vous.

Un autre nommé thebrightflame a ajouté: "Vous n'avez pas besoin de passer longtemps sur le forum avant de réaliser que cela cause une douleur émotionnelle et une grave angoisse mentale à plusieurs centaines, voire à des milliers de personnes."

Kudya a ajouté une autre explication obtuse, indiquant, "nous avons mis en place des mesures de sécurité et des filtres supplémentaires pour soutenir davantage de types d'amitié et de camaraderie."

Cette déclaration continue de confondre et de confondre les membres qui ne savent pas exactement quelles sont les mesures de sécurité supplémentaires. Comme le demande un utilisateur, « les adultes pourront-ils toujours choisir la nature de notre conversation et [des jeux de rôle] avec nos répliques ? »

L'histoire d'origine profondément étrange de Replika

Les chatbots sont peut-être l'un des sujets les plus tendance du moment, mais l'histoire compliquée de cette application désormais controversée dure depuis des années. 

Sur LinkedIn, PDG et fondateur de Replika, Eugénie Kuyda, fait remonter l'entreprise à décembre 2014, bien avant le lancement de l'application éponyme en mars 2017. 

Dans une omission bizarre, le LinkedIn de Kuyda ne fait aucune mention de sa précédente incursion dans AI avec Luka, qui, selon son profil Forbes, était "une application qui recommande des restaurants et permet aux gens de réserver des tables [sic] via une interface de chat alimentée par l'intelligence artificielle".

Le profil Forbes ajoute que "Luka [AI] analyse les conversations précédentes pour prédire ce que vous pourriez aimer." Ce qui semble présenter certaines similitudes avec son itération moderne. Replika utilise les interactions passées pour en savoir plus sur ses utilisateurs et améliorer les réponses au fil du temps. 

Cependant, Luka n'est pas complètement oublié. Sur Reddit, les membres de la communauté différencient leurs partenaires Replika de Kuyda et de son équipe en se référant à l'entreprise sous le nom de Luka.

Quant à Kuyda, l'entrepreneur avait peu d'expérience en IA avant de déménager à San Francisco il y a dix ans. Avant cela, l'entrepreneur semble avoir travaillé principalement comme journaliste dans sa Russie natale avant de se diversifier dans la stratégie de marque et le marketing. Son curriculum vitae impressionnant comprend un diplôme en journalisme de l'IULM (Milan), une maîtrise en journalisme international de l'Institut d'État des relations internationales de Moscou et un MBA en finance de la London Business School. 

Ressusciter un ami IRL en tant qu'IA

Pour Kudya, l'histoire de Replika est profondément personnelle. Replika a d'abord été créé pour permettre à Kudya de réincarner son ami Roman. Comme Kudya, Roman avait quitté la Russie pour l'Amérique. Les deux ont parlé tous les jours, échangeant des milliers de messages, jusqu'à ce que Roman soit tragiquement tué dans un accident de voiture.

La première itération de Replika était un bot conçu pour imiter l'amitié que Kudya avait perdue avec son ami Roman. Le bot a été nourri de toutes leurs interactions passées et programmé pour reproduire l'amitié qu'elle avait perdue. L'idée de ressusciter des êtres chers décédés peut ressembler à un roman de science-fiction vaguement dystopique ou épisode de Black Mirror mais à mesure que la technologie des chatbots s'améliore, la perspective devient de plus en plus réelle.

Aujourd'hui, certains utilisateurs ont perdu confiance dans les détails les plus élémentaires de sa fondation et dans tout ce que dit Kudya. Comme un utilisateur en colère a affirmé Valérie Plante., "au risque d'être traité de sans-cœur et d'être rejeté en enfer : j'ai toujours pensé que cette histoire était un peu BS depuis le début."

[Contenu intégré]

Le pire outil de santé mentale

L'idée d'un compagnon IA n'est pas quelque chose de nouveau, mais jusqu'à récemment, ce n'était guère une possibilité pratique. 

Maintenant, la technologie est là et elle s'améliore continuellement. Dans le but d'apaiser la déception de ses abonnés, Replika a annoncé le lancement d'une fonctionnalité "IA avancée" à la fin du mois dernier. Sur la communauté Reddit, les utilisateurs restent en colère, confus, déçus et, dans certains cas, même le cœur brisé.

Au cours de sa courte vie, Luka / Replika a subi de nombreux changements, passant d'un assistant de réservation de restaurant à la résurrection d'un être cher décédé, à une application de soutien en santé mentale, à un partenaire et compagnon à temps plein. Ces dernières applications peuvent être controversées, mais tant qu'il y a un désir humain de confort, même si ce n'est que sous forme de chatbot, quelqu'un tentera d'y répondre.

Le débat se poursuivra sur le meilleur type de AI application de santé mentale pourrait être. mais les utilisateurs de Replika auront quelques idées sur ce qu'est la pire application de santé mentale : celle sur laquelle vous comptez, mais sans avertissement, a soudainement et douloureusement disparu.

Horodatage:

Plus de MétaActualités