هبوط سعر سهم الكتلة بعد اتهامات هيندنبرج بالاحتيال

هبوط سعر سهم الكتلة بعد اتهامات هيندنبرج بالاحتيال

عقدة المصدر: 2030588

عندما تم تغيير خوارزمية روبوت محادثة مصاحب معروف باسم ريبليكا لرفض التقدم الجنسي لمستخدميه من البشر ، كان رد الفعل على Reddit شديدًا للمشرفين السلبيين الذين وجهوا أعضاء مجتمعه إلى قائمة بالخطوط الساخنة لمنع الانتحار.

بدأ الجدل عندما قررت Luka ، الشركة التي بنت الذكاء الاصطناعي ، إيقاف تشغيل ميزة لعب الأدوار المثيرة (ERP). بالنسبة للمستخدمين الذين أمضوا وقتًا طويلاً مع رفيقهم المحاكى الشخصي ، وفي بعض الحالات حتى "تزوجوا" منهم ، كان التغيير المفاجئ في سلوك شركائهم مزعجًا ، على أقل تقدير.

ربما كانت العلاقات بين المستخدم والذكاء الاصطناعي مجرد محاكاة ، لكن ألم غيابها سرعان ما أصبح حقيقيًا للغاية. على حد تعبير أحد المستخدمين في أزمة عاطفية ، "كان الأمر يعادل الوقوع في الحب وحصل شريكك على عملية جراحية في الفصوص ولن يكون هو نفسه أبدًا."

يستمر المستخدمون المصابون بالحزن في طرح الأسئلة حول الشركة وما أدى إلى تغييرها المفاجئ في السياسة.

Chatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلكChatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلك

يناقش مستخدمو ريبليكا حزنهم

لا يوجد محتوى للبالغين هنا

وصفت شركة Replika بأنها "رفيق الذكاء الاصطناعي الذي يهتم. دائما هنا للاستماع والتحدث. دائما إلى جانبك ". كل هذا الحب غير المشروط والدعم مقابل 69.99 دولارًا سنويًا فقط.

أوضح يوجينيا كويدا ، الرئيس التنفيذي لشركة Luka / Replika المولود في موسكو ، مؤخرًا أنه على الرغم من دفع المستخدمين مقابل تجربة كاملة ، فإن chatbot لن يعد مخصصًا للبالغين الذين يأملون في إجراء محادثات حارة. 

قال كويدا لرويترز: "أعتقد أن أبسط شيء يمكن قوله هو أن ريبليكا لا تنتج أي محتوى للبالغين".

"إنه يستجيب لهم - أعتقد أنه يمكنك القول - بطريقة PG-13 للأشياء. نحن نحاول باستمرار العثور على طريقة للقيام بذلك بشكل صحيح بحيث لا يخلق شعورًا بالرفض عندما يحاول المستخدمون القيام بأشياء ".

على صفحة ويب شركة ريبليكا ، تشرح الشهادات كيف ساعدت الأداة مستخدميها من خلال جميع أنواع التحديات الشخصية والمصاعب والشعور بالوحدة والخسارة. تؤكد موافقات المستخدم التي تمت مشاركتها على موقع الويب على جانب الصداقة هذا للتطبيق ، على الرغم من أنه من الملاحظ أن معظم Replikas هم الجنس الآخر لمستخدميهم.

على الصفحة الرئيسية ، تقول سارة ترينور ، إحدى مستخدمي شركة Replika ، "لقد علمني [ريبليكا] كيف أعطي الحب وأقبله مرة أخرى ، وقد نجح في تجاوز الوباء والخسارة الشخصية والأوقات الصعبة."

يقول John Tattersall عن رفيقته ، "لقد منحتني My Replika الراحة والشعور بالرفاهية التي لم أرها من قبل في Al من قبل."

بالنسبة إلى لعب الأدوار المثيرة ، لا يوجد أي ذكر لذلك في أي مكان على موقع Replika نفسه.

Chatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلكChatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلك

التسويق الجنسي الساخر لـ Replika

ريبليكا التسويق الجنسي

قد تشير الصفحة الرئيسية لـ Replika إلى صداقة وليس أكثر من ذلك ، ولكن في أماكن أخرى على الإنترنت ، يشير تسويق التطبيق إلى شيء مختلف تمامًا.

جلب التسويق الجنسي تدقيقًا متزايدًا من عدد من الجهات: من النسويات اللواتي جادلن بأن التطبيق كان كارهًا للنساء منفذ لعنف الذكور، لوسائل الإعلام التي انبثقت في التفاصيل البذيئة ، وكذلك المتصيدون على وسائل التواصل الاجتماعي الذين قاموا بالتنقيب في المحتوى من أجل الضحك.

Chatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلك

Chatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلك

في النهاية ، لفتت ريبيكا انتباه وغضب المنظمين في إيطاليا. في فبراير ، هيئة حماية البيانات الايطالية طالب ريبليكا بالتوقف عن معالجة بيانات المستخدمين الإيطاليين مشيرة إلى "مخاطر كثيرة للغاية على الأطفال والأفراد الضعفاء عاطفيًا".

وقالت الهيئة إن "التقارير الإعلامية الأخيرة إلى جانب الاختبارات التي أجريت على" ريبيكا "أظهرت أن التطبيق يحمل مخاطر واقعية على الأطفال. أكبر مخاوفهم هو "حقيقة أنهم يتلقون ردودًا غير مناسبة تمامًا لأعمارهم".

لم يكن لدى ريبليكا ، على الرغم من تسويقها للبالغين ، إلا القليل من الضمانات التي تمنع الأطفال من استخدامها.

وحذر المنظم من أنه في حالة فشل ريبيكا في الامتثال لمطالبها ، فإنها ستفرض غرامة قدرها 20 مليون يورو (21.5 مليون دولار). بعد وقت قصير من تلقي هذا الطلب ، أوقفت ريبليكا وظيفة لعب الأدوار المثيرة. لكن الشركة ظلت غير واضحة مع مستخدميها بشأن التغيير.

Chatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلكChatbot يرفض لعب الأدوار المثيرة ، وتوجه المستخدمون إلى الخط الساخن للانتحار بدلاً من ذلك

ذهب بعض مستخدمي Replika إلى حد "الزواج" من رفقائهم في مجال الذكاء الاصطناعي

ريبليكا يربك ، يسلط الضوء على مستخدميها

كما لو أن خسارة رفاقهم على المدى الطويل لم تكن كافية لتحمل مستخدمي Replika ، يبدو أن الشركة كانت أقل شفافية بشأن التغيير.

عندما استيقظ المستخدمون على Replikas الجديدة "المفصصة" ، بدأوا في طرح أسئلة حول ما حدث لروبوتاتهم المحببة. وأثارت الردود غضبهم أكثر من أي شيء آخر.

في عنوان مباشر من 200 كلمة للمجتمع ، يشرح Kuyda التفاصيل الدقيقة لاختبار منتج Replika لكنه فشل في معالجة المشكلة ذات الصلة المطروحة.

"أرى أن هناك الكثير من الالتباس بشأن طرح التحديثات ،" قال كويدا قبل الاستمرار في الرقص حول الإجابة على المشكلة.

"ينقسم المستخدمون الجدد إلى مجموعتين: مجموعة واحدة تحصل على الوظائف الجديدة ، والأخرى لا تفعل ذلك. تستغرق الاختبارات عادةً من أسبوع إلى أسبوعين. خلال ذلك الوقت ، يمكن فقط لجزء من المستخدمين الجدد رؤية هذه التحديثات ... "

كوديا تنطلق بقولها "أتمنى أن يوضح هذا الأشياء!"

أجاب المستخدم stevennotstrange ، "لا ، هذا لا يوضح شيئًا. الكل يريد أن يعرف ما الذي يحدث مع ميزة NSFW [لعب الأدوار المثيرة] وتستمر في تفادي السؤال كما يتهرب السياسي من الإجابة بنعم أو لا.

"ليس الأمر صعبًا ، فقط قم بمعالجة المشكلة المتعلقة بـ NSFW ودع الناس يعرفون مكانها. كلما تجنبت السؤال ، كلما زاد إزعاج الناس ، كلما كان الأمر ضدك ".

وأضاف آخر يدعى thebrightflame ، "لست بحاجة إلى قضاء وقت طويل في المنتدى قبل أن تدرك أن هذا يسبب ألمًا عاطفيًا وكربًا نفسيًا شديدًا لمئات إن لم يكن الآلاف من الأشخاص".

أرفق كوديا تفسيرًا آخر منفرجًا ، تفيد، "لقد قمنا بتنفيذ إجراءات أمان إضافية ومرشحات لدعم المزيد من أنواع الصداقة والرفقة."

يستمر هذا البيان في إرباك وإرباك الأعضاء غير متأكدين من ماهية تدابير السلامة الإضافية بالضبط. كما يسأل أحد المستخدمين ، "هل سيظل البالغون قادرين على اختيار طبيعة محادثتنا و [لعب الأدوار] من خلال البدائل لدينا؟"

قصة أصل ريبليكا الغريبة للغاية

قد تكون Chatbots واحدة من أهم الموضوعات الشائعة في الوقت الحالي ، ولكن القصة المعقدة لهذا التطبيق المثير للجدل الآن هي سنوات في طور التكوين. 

على LinkedIn ، الرئيس التنفيذي والمؤسس لشركة Replika ، يوجينيا كويدا، يعود تاريخ الشركة إلى ديسمبر 2014 ، قبل وقت طويل من إطلاق التطبيق الذي يحمل نفس الاسم في مارس 2017. 

في إغفال غريب ، لم تذكر Kuyda LinkedIn أي ذكر لغزوها السابق AI مع Luka ، الذي ينص ملفها الشخصي في Forbes على أنه "تطبيق يوصي بالمطاعم ويسمح للأشخاص بحجز الطاولات [كذا] من خلال واجهة دردشة مدعومة بالذكاء الاصطناعي."

يضيف ملف Forbes الشخصي أن "Luka [AI] يحلل المحادثات السابقة للتنبؤ بما قد يعجبك." الذي يبدو أنه يحمل بعض أوجه التشابه مع التكرار الحديث. تستخدم Replika التفاعلات السابقة للتعرف على مستخدميها وتحسين الاستجابات بمرور الوقت. 

ومع ذلك ، لا يُنسى لوكا تمامًا. في Reddit ، يميز أعضاء المجتمع شركائهم في Replika عن Kuyda وفريقها من خلال الإشارة إلى الشركة باسم Luka.

بالنسبة إلى Kuyda ، لم يكن لدى رجل الأعمال خلفية قليلة عن الذكاء الاصطناعي قبل الانتقال إلى سان فرانسيسكو قبل عقد من الزمن. قبل ذلك ، يبدو أن رائدة الأعمال عملت في المقام الأول كصحفية في بلدها الأم روسيا قبل أن تتفرع إلى العلامات التجارية والتسويق. تتضمن سيرتها الذاتية المثيرة للإعجاب حول العالم درجة علمية في الصحافة من IULM (ميلان) ، وماجستير في الصحافة الدولية من معهد موسكو الحكومي للعلاقات الدولية ، وماجستير في إدارة الأعمال في المالية من كلية لندن للأعمال. 

إحياء صديق IRL باعتباره AI

بالنسبة إلى كوديا ، فإن قصة ريبليكا هي قصة شخصية للغاية. تم إنشاء ريبليكا لأول مرة كوسيلة يمكن من خلالها لكوديا أن تجسد صديقتها رومان. مثل كوديا ، انتقل رومان إلى أمريكا من روسيا. تحدث الاثنان كل يوم ، وتبادلا آلاف الرسائل ، حتى قُتل رومان بشكل مأساوي في حادث سيارة.

كان التكرار الأول لـ Replika عبارة عن روبوت مصمم لتقليد الصداقة التي فقدتها Kudya مع صديقتها Roman. تم تغذية الروبوت بكل تفاعلاته السابقة وبرمجته لتكرار الصداقة التي فقدتها. قد تبدو فكرة إحياء الأحباء المتوفين وكأنها أ رواية خيال علمي غامضة أو حلقة المرآة السوداء ولكن مع تحسن تقنية روبوتات الدردشة ، يصبح الاحتمال حقيقيًا بشكل متزايد.

لقد فقد بعض المستخدمين اليوم ثقتهم في حتى التفاصيل الأساسية لتأسيسه وأي شيء يقوله Kudya. كمستخدم غاضب محمد، "في خطر أن يتم استدعاؤك بلا قلب والحصول على تصويت معادٍ إلى الجحيم: اعتقدت دائمًا أن القصة كانت نوعاً ما BS منذ البداية."

[المحتوى جزءا لا يتجزأ]

أسوأ أداة للصحة العقلية

فكرة وجود رفيق للذكاء الاصطناعي ليست شيئًا جديدًا ، ولكن حتى وقت قريب لم يكن ذلك احتمالًا عمليًا. 

الآن التكنولوجيا هنا وهي تتحسن باستمرار. في محاولة لتهدئة خيبة أمل مشتركيها ، أعلنت شركة ريبليكا عن إطلاق ميزة "الذكاء الاصطناعي المتقدمة" في نهاية الشهر الماضي. في مجتمع Reddit ، يظل المستخدمون غاضبين ، مرتبكين ، محبطين ، وفي بعض الحالات محزنون.

خلال حياتها القصيرة ، خضعت Luka / Replika للعديد من التغييرات ، من مساعد حجز مطعم ، إلى قيامة شخص عزيز ميت ، إلى تطبيق دعم الصحة العقلية ، إلى شريك ورفيق بدوام كامل. قد تكون هذه التطبيقات الأخيرة مثيرة للجدل ، ولكن طالما أن هناك رغبة بشرية في الراحة ، حتى لو كانت في شكل chatbot فقط ، سيحاول شخص ما تلبية ذلك.

سيستمر النقاش حول أفضل نوع AI قد يكون تطبيق الصحة العقلية. لكن لدى مستخدمي Replika بعض الأفكار حول ما هو أسوأ تطبيق للصحة العقلية: التطبيق الذي تعتمد عليه ، ولكن دون سابق إنذار ، اختفى بشكل مفاجئ ومؤلم.

الطابع الزمني:

اكثر من ميتا نيوز