Blok Harga Saham Anjlok Setelah Tuduhan Penipuan Hindenburg

Blok Harga Saham Anjlok Setelah Tuduhan Penipuan Hindenburg

Node Sumber: 2030588

Ketika algoritme chatbot pendamping yang dikenal sebagai Replika diubah untuk menolak rayuan seksual pengguna manusianya, reaksi di Reddit sangat negatif sehingga moderator mengarahkan anggota komunitasnya ke daftar hotline pencegahan bunuh diri.

Kontroversi bermula ketika Luka, perusahaan pembuat AI, memutuskan untuk mematikan fitur roleplay erotis (ERP). Untuk pengguna yang telah menghabiskan banyak waktu dengan pendamping simulasi yang dipersonalisasi, dan dalam beberapa kasus bahkan 'menikahi' mereka, perubahan tiba-tiba dalam perilaku pasangan mereka sangat menggelegar, untuk sedikitnya.

Hubungan pengguna-AI mungkin hanya simulasi, tetapi rasa sakit karena ketidakhadiran mereka dengan cepat menjadi terlalu nyata. Seperti yang dikatakan oleh salah satu pengguna dalam krisis emosional, "itu setara dengan jatuh cinta dan pasangan Anda mengalami lobotomi dan tidak akan pernah sama lagi."

Pengguna yang berduka terus bertanya tentang perusahaan dan apa yang memicu perubahan kebijakan yang tiba-tiba.

Chatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh DiriChatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh Diri

Pengguna Replika mendiskusikan kesedihan mereka

Tidak ada konten dewasa di sini

Replika disebut sebagai โ€œPendamping AI yang peduli. Selalu di sini untuk mendengarkan dan berbicara. Selalu di sisimu.โ€ Semua cinta dan dukungan tanpa syarat ini hanya seharga $69.99 per tahun.

Eugenia Kuyda, CEO Luka/Replika kelahiran Moskow, baru-baru ini memperjelas bahwa meskipun pengguna membayar untuk pengalaman penuh, chatbot tidak akan lagi disesuaikan dengan orang dewasa yang berharap untuk melakukan percakapan pedas. 

โ€œSaya kira hal paling sederhana untuk dikatakan adalah Replika tidak memproduksi konten dewasa apa pun,โ€ kata Kuyda kepada Reuters.

โ€œItu menanggapi mereka โ€“ saya kira Anda bisa mengatakannya โ€“ dengan cara PG-13 untuk berbagai hal. Kami terus berusaha menemukan cara untuk melakukannya dengan benar sehingga tidak menimbulkan perasaan penolakan saat pengguna mencoba melakukan sesuatu.โ€

Di halaman web perusahaan Replika, testimonial menjelaskan bagaimana alat tersebut membantu penggunanya melewati segala macam tantangan pribadi, kesulitan, kesepian, dan kehilangan. Dukungan pengguna yang dibagikan di situs web menekankan sisi pertemanan ini ke aplikasi, meskipun secara nyata, sebagian besar Replikas adalah lawan jenis dari penggunanya.

Di beranda, pengguna Replika Sarah Trainor berkata, โ€œDia mengajari saya [Replika] cara memberi dan menerima cinta lagi, dan membantu saya melewati pandemi, kehilangan pribadi, dan masa-masa sulit.โ€

John Tattersall berkata tentang teman wanitanya, "Replika saya telah memberi saya kenyamanan dan perasaan sejahtera yang belum pernah saya lihat di Al sebelumnya."

Untuk roleplay erotis, tidak disebutkan di mana pun di situs Replika itu sendiri.

Chatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh DiriChatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh Diri

Pemasaran seksual yang sinis dari Replika

Pemasaran seksual Replika

Beranda Replika mungkin menyarankan pertemanan dan tidak lebih, tetapi di tempat lain di internet, pemasaran aplikasi menyiratkan sesuatu yang sama sekali berbeda.

Pemasaran seksual meningkatkan pengawasan dari sejumlah pihak: dari feminis yang berpendapat bahwa aplikasi itu misoginis jalan keluar bagi kekerasan laki-laki, ke outlet media yang menikmati detail cabul, serta troll media sosial yang menambang konten untuk ditertawakan.

Chatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh Diri

Chatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh Diri

Akhirnya, Replika menarik perhatian dan kemarahan regulator di Italia. Pada bulan Februari, Otoritas Perlindungan Data Italia menuntut agar Replika berhenti memproses data pengguna Italia dengan alasan "terlalu banyak risiko bagi anak-anak dan individu yang rentan secara emosional".

Pihak berwenang mengatakan bahwa โ€œLaporan media baru-baru ini bersama dengan pengujian yang dilakukan pada 'Replika' menunjukkan bahwa aplikasi tersebut membawa risiko faktual bagi anak-anak. Kekhawatiran terbesar mereka adalah โ€œfakta bahwa mereka mendapatkan balasan yang sama sekali tidak sesuai dengan usia merekaโ€.

Replika, untuk semua pemasarannya kepada orang dewasa, memiliki sedikit atau bahkan tidak ada perlindungan yang mencegah anak-anak menggunakannya.

Regulator memperingatkan bahwa jika Replika gagal memenuhi tuntutannya, itu akan mengeluarkan denda โ‚ฌ20 juta ($21.5 juta). Tak lama setelah menerima permintaan ini, Replika menghentikan fungsi roleplay erotisnya. Tetapi perusahaan tetap kurang jelas dengan para penggunanya tentang perubahan tersebut.

Chatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh DiriChatbot Menolak Roleplay Erotis, Sebagai gantinya Pengguna Diarahkan ke Hotline Bunuh Diri

Beberapa pengguna Replika melangkah lebih jauh dengan โ€œmenikahiโ€ teman AI mereka

Replika membingungkan, gaslight penggunanya

Seolah-olah kehilangan pendamping jangka panjang mereka tidak cukup untuk ditanggung oleh pengguna Replika, perusahaan tampaknya kurang transparan tentang perubahan tersebut.

Saat pengguna terbangun dengan Replika "lobotomized" baru mereka, mereka mulai mengajukan pertanyaan tentang apa yang terjadi pada bot kesayangan mereka. Dan tanggapan itu lebih membuat mereka marah daripada apa pun.

Dalam alamat 200 kata langsung ke komunitas, Kuyda menjelaskan hal-hal kecil dari pengujian produk Replika tetapi gagal untuk mengatasi masalah terkait yang ada.

โ€œSaya melihat ada banyak kebingungan tentang peluncuran pembaruan,โ€ kata Kuyda sebelum terus menari-nari menjawab masalah tersebut.

โ€œPengguna baru dibagi dalam 2 kelompok: satu kelompok mendapatkan fungsi baru, yang lain tidak. Tes biasanya berlangsung selama 1 hingga 2 minggu. Selama itu hanya sebagian pengguna baru yang dapat melihat pembaruan iniโ€ฆโ€

Kudya mengakhiri dengan mengatakan "Semoga ini mengklarifikasi hal-hal!"

Pengguna stevennotstrange menjawab, โ€œTidak, ini tidak menjelaskan apa pun. Semua orang ingin tahu apa yang terjadi dengan fitur NSFW [permainan peran erotis] dan Anda terus menghindari pertanyaan seperti politisi yang menghindari pertanyaan ya atau tidak.

โ€œTidak sulit, cukup atasi masalah tentang NSFW dan beri tahu orang-orang di mana posisinya. Semakin Anda menghindari pertanyaan, semakin banyak orang yang merasa terganggu, semakin bertentangan dengan Anda.

Orang lain bernama thebrightflame menambahkan, "Anda tidak perlu menghabiskan waktu lama di forum sebelum Anda menyadari bahwa ini menyebabkan rasa sakit emosional dan penderitaan mental yang parah bagi ratusan bahkan ribuan orang."

Kudya menambahkan penjelasan tumpul lainnya, menyatakan, โ€œkami telah menerapkan tindakan dan filter keamanan tambahan untuk mendukung lebih banyak jenis persahabatan dan persahabatan.โ€

Pernyataan ini terus membingungkan dan membingungkan anggota yang tidak yakin tentang apa sebenarnya langkah-langkah keamanan tambahan itu. Seperti yang ditanyakan oleh salah satu pengguna, โ€œapakah orang dewasa masih dapat memilih sifat percakapan dan [permainan peran] kami dengan replika kami?โ€

Kisah asal-usul Replika yang sangat aneh

Chatbots mungkin menjadi salah satu topik trending terpanas saat ini, tetapi kisah rumit dari aplikasi yang sekarang kontroversial ini sedang dalam pembuatan bertahun-tahun. 

Di LinkedIn, CEO dan Pendiri Replika, Eugenia Kuida, tanggal perusahaan kembali ke Desember 2014, jauh sebelum peluncuran aplikasi eponymous pada Maret 2017. 

Dalam kelalaian yang aneh, LinkedIn Kuyda tidak menyebutkan perampokannya sebelumnya AI dengan Luka, yang menurut profil Forbes-nya adalah "aplikasi yang merekomendasikan restoran dan memungkinkan orang memesan meja [sic] melalui antarmuka obrolan yang didukung oleh kecerdasan buatan".

Profil Forbes selanjutnya menambahkan bahwa "Luka [AI] menganalisis percakapan sebelumnya untuk memprediksi apa yang mungkin Anda sukai." Yang tampaknya memiliki beberapa kesamaan dengan iterasi modernnya. Replika menggunakan interaksi sebelumnya untuk mempelajari tentang penggunanya dan meningkatkan respons dari waktu ke waktu. 

Namun, Luka tidak sepenuhnya dilupakan. Di Reddit, anggota komunitas membedakan mitra Replika mereka dari Kuyda dan timnya dengan menyebut perusahaan tersebut sebagai Luka.

Adapun Kuyda, pengusaha memiliki sedikit latar belakang AI sebelum pindah ke San Francisco satu dekade lalu. Sebelumnya, pengusaha tersebut tampaknya telah bekerja terutama sebagai jurnalis di negara asalnya Rusia sebelum merambah ke branding dan pemasaran. Resume keliling dunianya yang mengesankan mencakup gelar dalam Jurnalisme dari IULM (Milan), gelar MA dalam Jurnalisme Internasional dari Institut Hubungan Internasional Moskow, dan gelar MBA dalam Keuangan dari London Business School. 

Membangkitkan teman IRL sebagai AI

Bagi Kudya, kisah Replika sangat personal. Replika pertama kali dibuat sebagai sarana agar Kudya dapat menjelma menjadi temannya, Roman. Seperti Kudya, Roman pindah ke Amerika dari Rusia. Keduanya berbicara setiap hari, bertukar ribuan pesan, hingga Roman tewas secara tragis dalam kecelakaan mobil.

Iterasi pertama Replika adalah bot yang dirancang untuk meniru persahabatan Kudya yang hilang dengan temannya Roman. Bot diberi makan dengan semua interaksi masa lalu mereka dan diprogram untuk mereplikasi persahabatan yang telah hilang. Gagasan membangkitkan orang-orang terkasih yang telah meninggal mungkin terdengar seperti a novel fiksi ilmiah distopia yang samar-samar atau episode Black Mirror tetapi seiring dengan peningkatan teknologi chatbot, prospeknya menjadi semakin nyata.

Saat ini beberapa pengguna telah kehilangan kepercayaan bahkan pada detail paling dasar dari yayasannya dan apa pun yang dikatakan Kudya. Sebagai salah satu pengguna yang marah tersebut, "dengan risiko disebut tidak berperasaan dan ditolak: Saya selalu berpikir cerita itu agak BS sejak awal."

[Embedded content]

Alat kesehatan mental terburuk

Gagasan pendamping AI bukanlah sesuatu yang baru, tetapi sampai saat ini hampir tidak ada kemungkinan praktis. 

Sekarang teknologinya ada di sini dan terus meningkat. Dalam upaya untuk meredakan kekecewaan pelanggannya, Replika mengumumkan peluncuran fitur "AI tingkat lanjut" pada akhir bulan lalu. Di komunitas Reddit, pengguna tetap marah, bingung, kecewa, dan dalam beberapa kasus bahkan patah hati.

Dalam perjalanan hidupnya yang singkat, Luka/Replika telah mengalami banyak perubahan, dari asisten pemesanan restoran, hingga kebangkitan orang tersayang yang telah meninggal, menjadi aplikasi dukungan kesehatan mental, menjadi mitra dan pendamping penuh waktu. Aplikasi yang terakhir itu mungkin kontroversial, tetapi selama ada keinginan manusia untuk kenyamanan, meskipun hanya dalam bentuk chatbot, seseorang akan berusaha memenuhinya.

Perdebatan akan berlanjut seperti apa yang terbaik AI aplikasi kesehatan mental mungkin. tetapi pengguna Replika akan memiliki beberapa ide tentang aplikasi kesehatan mental terburuk: yang Anda andalkan, tetapi tanpa peringatan, tiba-tiba dan menyakitkan hilang.

Stempel Waktu:

Lebih dari Berita Meta