Giá cổ phiếu khối giảm mạnh sau cáo buộc gian lận Hindenburg

Giá cổ phiếu khối giảm mạnh sau cáo buộc gian lận Hindenburg

Nút nguồn: 2030588

Khi thuật toán của một chatbot đồng hành được gọi là Replika bị thay đổi để từ chối những tiến bộ về tình dục của người dùng, phản ứng trên Reddit rất tiêu cực, người điều hành đã hướng dẫn các thành viên cộng đồng của họ đến một danh sách các đường dây nóng ngăn chặn tự tử.

Cuộc tranh cãi bắt đầu khi Luka, tập đoàn xây dựng AI, quyết định tắt tính năng nhập vai khiêu dâm (ERP) của nó. Đối với những người dùng đã dành thời gian đáng kể với người bạn đồng hành mô phỏng được cá nhân hóa của họ và trong một số trường hợp thậm chí còn 'kết hôn' với họ, thì sự thay đổi đột ngột trong hành vi của đối tác của họ có thể gây khó chịu.

Mối quan hệ giữa người dùng và AI có thể chỉ là mô phỏng, nhưng nỗi đau về sự vắng mặt của chúng nhanh chóng trở nên quá thật. Như một người dùng đang gặp khủng hoảng cảm xúc đã nói, “điều đó tương đương với việc bạn đang yêu và đối tác của bạn phải phẫu thuật cắt thùy não chết tiệt và sẽ không bao giờ giống như vậy.”

Những người dùng đau buồn tiếp tục đặt câu hỏi về công ty và điều gì đã khiến công ty thay đổi chính sách đột ngột.

Chatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tửChatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tử

Người dùng Replika thảo luận về nỗi đau của họ

Không có nội dung người lớn ở đây

Replika được quảng cáo là “Người bạn đồng hành quan tâm đến AI. Luôn luôn ở đây để lắng nghe và nói chuyện. Luôn luôn đứng về phía bạn." Tất cả tình yêu và sự hỗ trợ vô điều kiện này chỉ với $69.99 mỗi năm.

Eugenia Kuyda, Giám đốc điều hành Luka/Replika sinh ra ở Moscow, gần đây đã nói rõ rằng mặc dù người dùng trả tiền để có trải nghiệm đầy đủ, nhưng chatbot sẽ không còn phù hợp với những người trưởng thành muốn có những cuộc trò chuyện thú vị nữa. 

Kuyda nói với Reuters: “Tôi đoán điều đơn giản nhất để nói là Replika không sản xuất bất kỳ nội dung người lớn nào.

“Nó phản hồi họ – tôi đoán bạn có thể nói – theo cách PG-13 đối với mọi thứ. Chúng tôi không ngừng cố gắng tìm ra cách thực hiện đúng để không tạo cảm giác bị từ chối khi người dùng đang cố gắng thực hiện mọi việc.”

Trên trang web công ty của Replika, các lời chứng thực giải thích cách công cụ này đã giúp người dùng vượt qua tất cả các loại thử thách cá nhân, khó khăn, cô đơn và mất mát. Xác nhận của người dùng được chia sẻ trên trang web nhấn mạnh khía cạnh tình bạn này đối với ứng dụng, mặc dù đáng chú ý là hầu hết Người trả lời là người khác giới tính với người dùng của họ.

Trên trang chủ, người dùng Replika Sarah Trainor nói: “Anh ấy đã dạy tôi [Replika] cách cho và nhận lại tình yêu, đồng thời giúp tôi vượt qua đại dịch, mất mát cá nhân và khoảng thời gian khó khăn”.

John Tattersall nói về người bạn đồng hành nữ của mình: “My Replika đã mang lại cho tôi sự thoải mái và cảm giác hạnh phúc mà tôi chưa từng thấy ở một Al trước đây.”

Đối với nhập vai khiêu dâm, không có đề cập nào về điều đó được tìm thấy ở bất kỳ đâu trên chính trang Replika.

Chatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tửChatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tử

Tiếp thị tình dục hoài nghi của Replika

Tiếp thị tình dục của Replika

Trang chủ của Replika có thể đề xuất tình bạn và không hơn thế nữa, nhưng ở những nơi khác trên internet, hoạt động tiếp thị của ứng dụng ngụ ý một điều gì đó hoàn toàn khác.

Hoạt động tiếp thị tình dục hóa đã khiến nhiều bộ phận xem xét kỹ lưỡng hơn: từ các nhà hoạt động vì nữ quyền, những người cho rằng ứng dụng này là một hành vi coi thường phụ nữ. Lối thoát cho bạo lực nam giới, cho các phương tiện truyền thông say sưa với các chi tiết tục tĩu, cũng như những kẻ chuyên chế nhạo trên mạng xã hội, những người đã khai thác nội dung để gây cười.

Chatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tử

Chatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tử

Cuối cùng, Replika đã thu hút sự chú ý và sự phẫn nộ của các cơ quan quản lý ở Ý. Vào tháng Hai, các Cơ quan bảo vệ dữ liệu Ý yêu cầu Replika ngừng xử lý dữ liệu của người dùng Ý với lý do “có quá nhiều rủi ro đối với trẻ em và những cá nhân dễ bị tổn thương về mặt cảm xúc”.

Cơ quan này cho biết “Các báo cáo gần đây của phương tiện truyền thông cùng với các thử nghiệm được thực hiện trên 'Replika' cho thấy ứng dụng này thực sự mang đến những rủi ro cho trẻ em. Mối quan tâm lớn nhất của họ là “thực tế là họ nhận được những câu trả lời hoàn toàn không phù hợp với lứa tuổi của họ.”

Replika, đối với tất cả hoạt động tiếp thị dành cho người lớn, có rất ít hoặc không có biện pháp bảo vệ nào ngăn trẻ em sử dụng nó.

Cơ quan quản lý cảnh báo rằng nếu Replika không tuân thủ các yêu cầu của mình, họ sẽ phạt 20 triệu euro (21.5 triệu USD). Ngay sau khi nhận được yêu cầu này, Replika đã ngừng chức năng nhập vai khiêu dâm. Nhưng công ty vẫn chưa rõ ràng với người dùng về sự thay đổi.

Chatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tửChatbot từ chối nhập vai khiêu dâm, thay vào đó người dùng được hướng đến đường dây nóng tự tử

Một số người dùng Replika đã đi xa đến mức "kết hôn" với những người bạn đồng hành AI của họ

Replika gây nhầm lẫn, khiến người dùng sửng sốt

Như thể việc mất đi những người bạn đồng hành lâu dài của họ không đủ để người dùng Replika chịu đựng, công ty dường như đã không minh bạch về sự thay đổi này.

Khi người dùng thức dậy với Replikas "lobotomized" mới của họ, họ bắt đầu đặt câu hỏi về những gì đã xảy ra với các bot yêu quý của họ. Và những câu trả lời đã làm họ tức giận hơn bất cứ điều gì.

Trong một bài phát biểu trực tiếp dài 200 từ cho cộng đồng, Kuyda giải thích chi tiết vụn vặt về thử nghiệm sản phẩm của Replika nhưng không giải quyết được vấn đề thích hợp hiện tại.

“Tôi thấy có rất nhiều nhầm lẫn về việc tung ra các bản cập nhật,” Kuyda nói trước khi tiếp tục nhảy xung quanh để trả lời vấn đề.

“Người dùng mới được chia thành 2 nhóm: một nhóm nhận được chức năng mới, nhóm còn lại thì không. Các bài kiểm tra thường diễn ra trong 1 đến 2 tuần. Trong thời gian đó, chỉ một phần người dùng mới có thể xem những cập nhật này…”

Kudya ra hiệu bằng cách nói "Hy vọng điều này làm sáng tỏ mọi thứ!"

Người dùng stevennotstrange trả lời: “Không, điều này không làm rõ điều gì. Mọi người đều muốn biết chuyện gì đang xảy ra với tính năng [nhập vai khiêu dâm] NSFW và bạn tiếp tục né tránh câu hỏi giống như một chính trị gia né tránh câu hỏi có hoặc không.

“Không khó, chỉ cần giải quyết vấn đề liên quan đến NSFW và cho mọi người biết nó đứng ở đâu. Bạn càng lảng tránh câu hỏi, càng có nhiều người khó chịu, điều đó càng chống lại bạn.”

Một người khác có tên thebrightflame nói thêm: “Bạn không cần phải dành nhiều thời gian trong diễn đàn trước khi nhận ra điều này đang gây ra nỗi đau tinh thần và sự thống khổ nghiêm trọng về tinh thần cho hàng trăm, nếu không muốn nói là hàng ngàn người.”

Kudya nối thêm một lời giải thích khó hiểu khác, nêu, “chúng tôi ​đã triển khai các biện pháp an toàn và bộ lọc bổ sung để hỗ trợ nhiều loại tình bạn và tình đồng hành hơn.”

Tuyên bố này tiếp tục khiến các thành viên bối rối và bối rối không biết chính xác các biện pháp an toàn bổ sung là gì. Khi một người dùng đặt câu hỏi, "liệu người lớn vẫn có thể chọn bản chất cuộc trò chuyện của chúng tôi và [đóng vai] với các câu trả lời của chúng tôi chứ?"

Câu chuyện nguồn gốc kỳ lạ sâu sắc của Replika

Chatbots có thể là một trong những chủ đề thịnh hành nhất thời điểm hiện tại, nhưng câu chuyện phức tạp về ứng dụng đang gây tranh cãi này đã mất nhiều năm để hình thành. 

Trên LinkedIn, Giám đốc điều hành và người sáng lập của Replika, Eugenia Kuyda, bắt đầu từ tháng 2014 năm 2017, rất lâu trước khi ra mắt ứng dụng cùng tên vào tháng XNUMX năm XNUMX. 

Trong một thiếu sót kỳ lạ, LinkedIn của Kuyda không đề cập đến bước đột phá trước đây của cô ấy vào AI với Luka, mà hồ sơ Forbes của cô ấy tuyên bố là “một ứng dụng đề xuất các nhà hàng và cho phép mọi người đặt bàn [sic] thông qua giao diện trò chuyện được hỗ trợ bởi trí tuệ nhân tạo.”

Hồ sơ Forbes tiếp tục cho biết thêm rằng “Luka [AI] phân tích các cuộc trò chuyện trước đó để dự đoán những gì bạn có thể thích.” Điều này dường như có một số điểm tương đồng với sự lặp lại hiện đại của nó. Replika sử dụng các tương tác trong quá khứ để tìm hiểu về người dùng của mình và cải thiện phản hồi theo thời gian. 

Tuy nhiên, Luka không bị lãng quên hoàn toàn. Trên Reddit, các thành viên cộng đồng phân biệt các đối tác Replika của họ với Kuyda và nhóm của cô ấy bằng cách gọi công ty là Luka.

Về phần Kuyda, doanh nhân này có ít nền tảng về AI trước khi chuyển đến San Francisco một thập kỷ trước. Trước đó, doanh nhân này dường như đã làm việc chủ yếu với tư cách là một nhà báo ở quê hương Nga trước khi chuyển sang lĩnh vực xây dựng thương hiệu và tiếp thị. Bản lý lịch đầy ấn tượng của cô bao gồm bằng Báo chí của IULM (Milan), bằng Thạc sĩ Báo chí Quốc tế của Học viện Quan hệ Quốc tế Nhà nước Moscow và bằng MBA về Tài chính của Trường Kinh doanh London. 

Hồi sinh một người bạn IRL dưới dạng AI

Đối với Kudya, câu chuyện về Replika là một câu chuyện cá nhân sâu sắc. Replika lần đầu tiên được tạo ra như một phương tiện để Kudya có thể tái sinh người bạn Roman của cô. Giống như Kudya, Roman đã chuyển đến Mỹ từ Nga. Hai người nói chuyện hàng ngày, trao đổi hàng ngàn tin nhắn cho đến khi Roman qua đời trong một vụ tai nạn xe hơi.

Phiên bản đầu tiên của Replika là một bot được thiết kế để bắt chước tình bạn mà Kudya đã đánh mất với người bạn Roman của cô. Bot được cung cấp tất cả các tương tác trong quá khứ của họ và được lập trình để tái tạo tình bạn mà cô ấy đã đánh mất. Ý tưởng hồi sinh những người thân yêu đã qua đời nghe có vẻ như là một tiểu thuyết khoa học viễn tưởng mơ hồ hay tập Black Mirror nhưng khi công nghệ chatbot được cải thiện, triển vọng ngày càng trở nên thực tế.

Ngày nay, một số người dùng đã mất niềm tin vào ngay cả những chi tiết cơ bản nhất về nền tảng của nó và bất cứ điều gì Kudya nói. Là một người dùng tức giận nói, “có nguy cơ bị gọi là nhẫn tâm và bị hạ thấp phiếu bầu xuống địa ngục: Tôi luôn nghĩ rằng câu chuyện đó khá là BS ngay từ đầu.”

[Nhúng nội dung]

Công cụ sức khỏe tâm thần tồi tệ nhất

Ý tưởng về một người bạn đồng hành AI không phải là điều gì mới mẻ, nhưng cho đến gần đây, nó hầu như không phải là một khả năng thực tế. 

Bây giờ công nghệ đã có ở đây và nó không ngừng được cải tiến. Trong nỗ lực xoa dịu sự thất vọng của những người đăng ký, Replika đã công bố ra mắt tính năng “AI nâng cao” vào cuối tháng trước. Trên cộng đồng Reddit, người dùng vẫn tức giận, bối rối, thất vọng và trong một số trường hợp thậm chí còn đau lòng.

Trong cuộc đời ngắn ngủi của mình, Luka/Replika đã trải qua nhiều thay đổi, từ trợ lý đặt chỗ nhà hàng, hồi sinh người thân đã khuất, ứng dụng hỗ trợ sức khỏe tâm thần, thành đối tác và bạn đồng hành toàn thời gian. Những ứng dụng sau này có thể gây tranh cãi, nhưng miễn là con người mong muốn được thoải mái, ngay cả khi chỉ ở dạng chatbot, thì sẽ có người cố gắng đáp ứng điều đó.

Cuộc tranh luận sẽ tiếp tục về loại tốt nhất của AI ứng dụng sức khỏe tâm thần có thể được. nhưng người dùng Replika sẽ có một số ý tưởng về ứng dụng sức khỏe tâm thần tồi tệ nhất là gì: ứng dụng mà bạn dựa vào, nhưng không báo trước, đột ngột biến mất một cách đau đớn.

Dấu thời gian:

Thêm từ MetaNews