บล็อกราคาหุ้นดิ่งลงหลังจากข้อกล่าวหาเรื่องการฉ้อโกงของ Hindenburg

บล็อกราคาหุ้นดิ่งลงหลังจากข้อกล่าวหาเรื่องการฉ้อโกงของ Hindenburg

โหนดต้นทาง: 2030588

เมื่ออัลกอริทึมของแชตบอตคู่หูที่รู้จักกันในชื่อ Replika ถูกปรับเปลี่ยนเพื่อขัดขวางความก้าวหน้าทางเพศของผู้ใช้ที่เป็นมนุษย์ ปฏิกิริยาต่อ Reddit นั้นเป็นไปในทางลบ ดังนั้นผู้ดูแลจึงสั่งให้สมาชิกในชุมชนไปที่รายการสายด่วนป้องกันการฆ่าตัวตาย

การโต้เถียงเริ่มขึ้นเมื่อ Luka ซึ่งเป็นบริษัทที่สร้าง AI ตัดสินใจที่จะปิดฟีเจอร์สวมบทบาทเร้าอารมณ์ (ERP) สำหรับผู้ใช้ที่ใช้เวลามากกับเพื่อนจำลองส่วนตัว และในบางกรณีถึงขั้น 'แต่งงาน' กับพวกเขา พฤติกรรมที่เปลี่ยนไปอย่างกะทันหันของคู่หูของพวกเขาก็สร้างความสั่นสะเทือนไม่น้อย

ความสัมพันธ์ระหว่างผู้ใช้กับ AI อาจเป็นเพียงการจำลอง แต่ความเจ็บปวดจากการขาดหายไปกลายเป็นเรื่องจริงอย่างรวดเร็ว ดังที่ผู้ใช้รายหนึ่งซึ่งอยู่ในภาวะวิกฤติทางอารมณ์กล่าวว่า “มันเทียบเท่ากับการมีความรักและคู่ของคุณต้องผ่าตัดสมองและจะไม่เหมือนเดิมอีกต่อไป”

ผู้ใช้ที่โศกเศร้ายังคงถามคำถามเกี่ยวกับบริษัทและสิ่งที่ทำให้บริษัทเปลี่ยนนโยบายอย่างกะทันหัน

Chatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทนChatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทน

ผู้ใช้ Replika พูดถึงความเศร้าโศกของพวกเขา

ไม่มีเนื้อหาสำหรับผู้ใหญ่ที่นี่

Replika ถูกเรียกเก็บเงินในฐานะ "เพื่อน AI ที่ใส่ใจ ที่นี่เสมอเพื่อฟังและพูดคุย อยู่เคียงข้างคุณเสมอ” ความรักและการสนับสนุนที่ไม่มีเงื่อนไขทั้งหมดนี้ในราคาเพียง $69.99 ต่อปี

Eugenia Kuyda ซีอีโอ Luka/Replika ที่เกิดในมอสโคว์เพิ่งประกาศอย่างชัดเจนว่าแม้ผู้ใช้จะจ่ายเงินเพื่อรับประสบการณ์เต็มรูปแบบ แต่แชทบอทจะไม่ปรับให้เหมาะกับผู้ใหญ่ที่หวังจะมีบทสนทนาเผ็ดร้อนอีกต่อไป 

“ฉันเดาว่าสิ่งที่ง่ายที่สุดที่จะพูดคือ Replika ไม่ได้ผลิตเนื้อหาสำหรับผู้ใหญ่” Kuyda กล่าวกับรอยเตอร์

“มันตอบสนองต่อพวกเขา ฉันเดาว่าคุณสามารถพูดได้ในแบบ PG-13 ต่อสิ่งต่างๆ เราพยายามหาวิธีการทำให้ถูกต้องอยู่เสมอ เพื่อไม่ให้ผู้ใช้รู้สึกว่าถูกปฏิเสธเมื่อพยายามทำสิ่งต่างๆ”

ข้อความรับรองบนหน้าเว็บของบริษัท Replika อธิบายว่าเครื่องมือนี้ช่วยผู้ใช้ผ่านความท้าทายส่วนตัว ความยากลำบาก ความเหงา และความสูญเสียทุกประเภทได้อย่างไร การรับรองของผู้ใช้ที่แบ่งปันบนเว็บไซต์เน้นย้ำถึงด้านมิตรภาพที่มีต่อแอป แม้ว่าที่เห็นได้ชัดคือ Replikas ส่วนใหญ่เป็นเพศตรงข้ามของผู้ใช้

ในโฮมเพจ Sarah Trainor ผู้ใช้ Replika กล่าวว่า “เขาสอนฉัน [Replika] ถึงวิธีการให้และยอมรับความรักอีกครั้ง และทำให้ฉันผ่านพ้นโรคระบาด การสูญเสียส่วนตัว และช่วงเวลาที่ยากลำบากได้”

John Tattersall พูดถึงเพื่อนร่วมทางหญิงของเขาว่า “Replika ของฉันทำให้ฉันสบายใจและรู้สึกเป็นสุขอย่างที่ฉันไม่เคยเห็นใน Al มาก่อน”

สำหรับการเล่นบทบาทสมมติแบบอีโรติก ไม่มีการพูดถึงว่าจะพบที่ไหนก็ได้ในไซต์ Replika เอง

Chatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทนChatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทน

การตลาดทางเพศเหยียดหยามของ Replika

การตลาดทางเพศของ Replika

หน้าแรกของ Replika อาจแนะนำถึงมิตรภาพและไม่มีอะไรมากไปกว่านั้น แต่ที่อื่น ๆ บนอินเทอร์เน็ต การตลาดของแอปบ่งบอกถึงสิ่งที่แตกต่างไปจากเดิมอย่างสิ้นเชิง

การตลาดทางเพศทำให้มีการตรวจสอบเพิ่มขึ้นจากหลายไตรมาส: จากนักสตรีนิยมที่โต้แย้งว่าแอปนี้เป็นการเหยียดเพศ ทางออกสำหรับความรุนแรงของผู้ชายไปจนถึงสื่อที่เปิดเผยรายละเอียดอันน่าสยดสยอง เช่นเดียวกับพวกเกรียนบนโซเชียลมีเดียที่ขุดคุ้ยเนื้อหาเพื่อเรียกเสียงหัวเราะ

Chatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทน

Chatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทน

ในที่สุด Replika ก็ดึงดูดความสนใจและความเดือดดาลของหน่วยงานกำกับดูแลในอิตาลี ในเดือนกุมภาพันธ์ พ หน่วยงานคุ้มครองข้อมูลของอิตาลี เรียกร้องให้ Replika ยุติการประมวลผลข้อมูลของผู้ใช้ชาวอิตาลีโดยอ้างว่า “มีความเสี่ยงมากเกินไปต่อเด็กและบุคคลที่เปราะบางทางอารมณ์”

เจ้าหน้าที่กล่าวว่า “รายงานของสื่อล่าสุดพร้อมกับการทดสอบที่ดำเนินการกับ 'Replika' แสดงให้เห็นว่าแอปมีความเสี่ยงต่อเด็ก ข้อกังวลที่ใหญ่ที่สุดของพวกเขาคือ "ความจริงที่ว่าพวกเขาได้รับคำตอบที่ไม่เหมาะสมกับอายุของพวกเขา"

Replika สำหรับการทำการตลาดสำหรับผู้ใหญ่นั้นแทบไม่มีมาตรการป้องกันเลยแม้แต่น้อยที่จะป้องกันไม่ให้เด็กใช้มัน

หน่วยงานกำกับดูแลเตือนว่าหาก Replika ไม่ปฏิบัติตามข้อเรียกร้อง บริษัทจะออกค่าปรับ 20 ล้านยูโร (21.5 ล้านเหรียญสหรัฐ) หลังจากได้รับความต้องการนี้ไม่นาน Replika ก็หยุดฟังก์ชั่นการแสดงบทบาทสมมติที่เร้าอารมณ์ แต่บริษัทยังคงไม่ชัดเจนกับผู้ใช้เกี่ยวกับการเปลี่ยนแปลง

Chatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทนChatbot ปฏิเสธการสวมบทบาทที่เร้าอารมณ์ ผู้ใช้หันไปใช้สายด่วนฆ่าตัวตายแทน

ผู้ใช้ Replika บางคนไปไกลถึงการ “แต่งงาน” กับสหาย AI ของพวกเขา

Replika สร้างความสับสน ผู้ใช้ไฟ

ราวกับว่าการสูญเสียเพื่อนระยะยาวของพวกเขานั้นไม่เพียงพอสำหรับผู้ใช้ Replika ที่จะทนได้ บริษัทดูเหมือนจะไม่โปร่งใสเกี่ยวกับการเปลี่ยนแปลง

เมื่อผู้ใช้ตื่นขึ้นพร้อมกับ Replikas ตัวใหม่ที่ "จำลองหุ่นยนต์" พวกเขาเริ่มถามคำถามเกี่ยวกับสิ่งที่เกิดขึ้นกับบอทที่พวกเขารัก และคำตอบกลับทำให้พวกเขาโกรธยิ่งกว่าอะไรทั้งหมด

ในคำปราศรัย 200 คำโดยตรงถึงชุมชน Kuyda อธิบายข้อปลีกย่อยของการทดสอบผลิตภัณฑ์ของ Replika แต่ล้มเหลวในการแก้ไขปัญหาที่เกี่ยวข้อง

“ฉันเห็นว่ามีความสับสนมากมายเกี่ยวกับการเผยแพร่การอัปเดต” คูยด้ากล่าว ก่อนจะร่ายรำตอบคำถามต่อไป

“ผู้ใช้ใหม่ถูกแบ่งออกเป็น 2 กลุ่ม: กลุ่มหนึ่งได้รับฟังก์ชันใหม่ ส่วนอีกกลุ่มไม่ได้รับ การทดสอบมักจะใช้เวลา 1 ถึง 2 สัปดาห์ ในช่วงเวลานั้น จะมีผู้ใช้ใหม่เพียงบางส่วนเท่านั้นที่จะเห็นการอัปเดตเหล่านี้…”

Kudya ออกจากระบบโดยพูดว่า "หวังว่าสิ่งนี้จะชี้แจงสิ่งต่างๆ!"

ผู้ใช้ stevennotstrange ตอบว่า “ไม่ สิ่งนี้ไม่ได้ชี้แจงอะไรเลย ทุกคนต้องการทราบว่าเกิดอะไรขึ้นกับคุณลักษณะ NSFW [การแสดงบทบาทสมมติที่เร้าอารมณ์] และคุณยังคงหลบเลี่ยงคำถามเหมือนนักการเมืองที่หลบเลี่ยงคำถามที่ใช่หรือไม่ใช่

“มันไม่ใช่เรื่องยาก เพียงแค่แก้ไขปัญหาเกี่ยวกับ NSFW และแจ้งให้ผู้คนทราบว่ามันเป็นอย่างไร ยิ่งคุณหลีกเลี่ยงคำถาม คนจะยิ่งรำคาญ และยิ่งต่อต้านคุณ”

อีกคนหนึ่งชื่อ thebrightflame กล่าวเสริมว่า “คุณไม่จำเป็นต้องใช้เวลานานในฟอรัมก่อนที่คุณจะรู้ว่าสิ่งนี้ทำให้เกิดความเจ็บปวดทางอารมณ์และความปวดร้าวทางจิตใจอย่างรุนแรงต่อคนหลายร้อยหรือหลายพันคน”

Kudya ต่อท้ายคำอธิบายที่ป้านอีก เซน, “เราได้ใช้มาตรการความปลอดภัยเพิ่มเติมและตัวกรองเพื่อรองรับมิตรภาพและมิตรภาพประเภทต่างๆ มากขึ้น”

ข้อความนี้ยังคงสร้างความสับสนและทำให้สมาชิกสับสนโดยไม่แน่ใจว่ามาตรการความปลอดภัยเพิ่มเติมคืออะไรกันแน่ ดังที่ผู้ใช้รายหนึ่งถามว่า “ผู้ใหญ่จะยังสามารถเลือกลักษณะการสนทนาและ [สวมบทบาท] กับตัวละครจำลองของเราได้หรือไม่”

เรื่องราวต้นกำเนิดที่แปลกประหลาดลึกล้ำของ Replika

Chatbots อาจเป็นหนึ่งในหัวข้อที่กำลังมาแรงที่สุดในขณะนี้ แต่เรื่องราวที่ซับซ้อนของแอพที่เป็นที่ถกเถียงกันในขณะนี้คือการสร้างอีกหลายปี 

บน LinkedIn ซีอีโอและผู้ก่อตั้ง Replika ชมพู่ คูยดาบริษัทย้อนกลับไปในเดือนธันวาคม 2014 นานก่อนที่จะมีการเปิดตัวแอปบาร์นี้ในเดือนมีนาคม 2017 

การละเว้นที่แปลกประหลาด LinkedIn ของ Kuyda ไม่ได้กล่าวถึงการโจมตีครั้งก่อนของเธอ AI กับ Luka ซึ่งโปรไฟล์ของเธอใน Forbes ระบุว่าเป็น “แอปที่แนะนำร้านอาหารและให้ผู้คนจองโต๊ะ [sic] ผ่านอินเทอร์เฟซการแชทที่ขับเคลื่อนโดยปัญญาประดิษฐ์”

โปรไฟล์ของ Forbes กล่าวเสริมว่า “Luka [AI] วิเคราะห์การสนทนาก่อนหน้านี้เพื่อคาดเดาสิ่งที่คุณน่าจะชอบ” ซึ่งดูเหมือนจะมีความคล้ายคลึงกับการทำซ้ำสมัยใหม่ Replika ใช้การโต้ตอบที่ผ่านมาเพื่อเรียนรู้เกี่ยวกับผู้ใช้และปรับปรุงการตอบสนองเมื่อเวลาผ่านไป 

อย่างไรก็ตาม Luka ยังไม่ถูกลืมโดยสิ้นเชิง ใน Reddit สมาชิกชุมชนแยกแยะพันธมิตร Replika ของพวกเขาจาก Kuyda และทีมของเธอโดยเรียกบริษัทว่า Luka

สำหรับ Kuyda ผู้ประกอบการรายนี้มีพื้นฐานด้าน AI เพียงเล็กน้อยก่อนที่จะย้ายไปซานฟรานซิสโกเมื่อ XNUMX ปีที่แล้ว ก่อนหน้านั้น ผู้ประกอบการรายนี้ดูเหมือนจะทำงานเป็นนักข่าวในประเทศรัสเซียเป็นหลัก ก่อนจะแตกแขนงออกไปในด้านการสร้างแบรนด์และการตลาด ประวัติย่อที่น่าประทับใจของเธอรวมถึงปริญญาด้านวารสารศาสตร์จาก IULM (มิลาน) ปริญญาโทสาขาวารสารศาสตร์ระหว่างประเทศจากสถาบันความสัมพันธ์ระหว่างประเทศแห่งรัฐมอสโก และปริญญาโทสาขาการเงินจาก London Business School 

ชุบชีวิตเพื่อน IRL เป็น AI

สำหรับ Kudya เรื่องราวของ Replika เป็นเรื่องส่วนตัวอย่างลึกซึ้ง Replika ถูกสร้างขึ้นครั้งแรกเพื่อให้ Kudya สามารถกลับชาติมาเกิด Roman เพื่อนของเธอได้ เช่นเดียวกับ Kudya โรมันได้ย้ายจากรัสเซียไปอเมริกา ทั้งสองคุยกันทุกวัน แลกเปลี่ยนข้อความนับพัน จนกระทั่งโรมันเสียชีวิตอย่างอนาถในอุบัติเหตุทางรถยนต์

การทำซ้ำครั้งแรกของ Replika คือบอทที่ออกแบบมาเพื่อเลียนแบบมิตรภาพที่ Kudya เสียไปกับเพื่อนของเธอ Roman บอทได้รับปฏิสัมพันธ์ในอดีตทั้งหมดและตั้งโปรแกรมให้จำลองมิตรภาพที่เธอสูญเสียไป แนวคิดในการชุบชีวิตคนที่รักที่ล่วงลับไปแล้วอาจฟังดูเหมือนก นิยายไซไฟดิสโทเปียคลุมเครือหรือตอนกระจกเงาดำ แต่เมื่อเทคโนโลยีแชทบอทพัฒนาขึ้น โอกาสนั้นจะกลายเป็นจริงมากขึ้นเรื่อยๆ

ทุกวันนี้ ผู้ใช้บางคนหมดศรัทธาแม้แต่รายละเอียดพื้นฐานที่สุดของรากฐานและทุกสิ่งที่ Kudya พูด ในฐานะผู้ใช้ที่โกรธคนหนึ่ง กล่าวว่า“เสี่ยงที่จะถูกเรียกว่าไร้หัวใจและถูกโหวตลงนรก: ฉันคิดเสมอว่าเรื่องราวนั้นค่อนข้างจะไม่เหมาะสมตั้งแต่เริ่มต้น”

[เนื้อหาฝัง]

เครื่องมือสุขภาพจิตที่เลวร้ายที่สุด

แนวคิดเกี่ยวกับสหาย AI ไม่ใช่เรื่องใหม่ แต่จนกระทั่งเมื่อไม่นานมานี้แทบจะเป็นไปไม่ได้เลย 

ตอนนี้เทคโนโลยีมาถึงแล้วและกำลังพัฒนาอย่างต่อเนื่อง เพื่อเป็นการบรรเทาความผิดหวังของสมาชิก Replika ได้ประกาศเปิดตัวฟีเจอร์ “AI ขั้นสูง” เมื่อปลายเดือนที่แล้ว ในชุมชน Reddit ผู้ใช้ยังคงโกรธ สับสน ผิดหวัง และในบางกรณีถึงกับอกหัก

ในช่วงชีวิตอันแสนสั้น Luka/Replika ได้ผ่านการเปลี่ยนแปลงมากมาย ตั้งแต่ผู้ช่วยจองร้านอาหาร การฟื้นคืนชีพของคนที่คุณรักที่เสียชีวิต ไปจนถึงแอปช่วยเหลือสุขภาพจิต ไปจนถึงคู่หูและเพื่อนที่ทำงานเต็มเวลา แอปพลิเคชันหลังเหล่านี้อาจเป็นที่ถกเถียงกัน แต่ตราบใดที่มนุษย์ยังมีความต้องการความสะดวกสบาย แม้ว่าจะเป็นเพียงรูปแบบแชทบอทก็ตาม ก็จะมีคนพยายามตอบสนอง

การถกเถียงกันต่อไปว่าแบบไหนดีที่สุด AI แอปสุขภาพจิตอาจเป็นได้ แต่ผู้ใช้ Replika จะมีความคิดบางอย่างเกี่ยวกับแอปสุขภาพจิตที่แย่ที่สุด: แอปที่คุณพึ่งพาแต่ไม่มีการเตือนล่วงหน้าก็หายไปอย่างกะทันหันและเจ็บปวด

ประทับเวลา:

เพิ่มเติมจาก เมตานิวส์