OpenAI menghadapi kritik setelah wawancara CTO tentang Sora

OpenAI menghadapi kritik setelah wawancara CTO tentang Sora

Node Sumber: 2516272

OpenAI, laboratorium penelitian kecerdasan buatan yang berpengaruh di balik alat-alat inovatif seperti ChatGPT dan Sora, mengalami kesulitan setelah wawancara baru-baru ini dengan Chief Technology Officer-nya, Mira Murati.

Wawancara, yang dilakukan oleh reporter Wall Street Journal Joanna Stern, berfokus pada sistem pembuatan gambar, atau lebih tepatnya video, terbaru OpenAI, sora.

Kekhawatiran berpusat pada potensi penyalahgunaan karya berhak cipta untuk melatih model AI dan kurangnya transparansi dari OpenAI mengenai praktik datanya.

Data pelatihan Sora dipertanyakan

Inti dari kontroversi ini terletak pada masalah data pelatihan, kumpulan data besar yang digunakan untuk melatih model AI.

Ketika ditanya tentang sumber data yang digunakan untuk Sora, Murati memberikan jawaban standar: model telah dilatih tentang “data yang tersedia untuk umum dan berlisensi".

Namun, penyelidikan lebih lanjut mengungkapkan keraguan dan ketidakpastian di pihak Murati mengenai rincian spesifik kumpulan data ini.

Tanggapan ini telah mengibarkan bendera merah di kalangan seniman, fotografer, dan pakar kekayaan intelektual. Sistem pembuatan gambar AI sangat bergantung pada penyerapan gambar dalam jumlah besar, yang banyak di antaranya mungkin dilindungi oleh hak cipta. Kurangnya kejelasan seputar data pelatihan Sora menimbulkan pertanyaan apakah OpenAI telah cukup melindungi hak-hak pembuat konten.

Kontroversi data pelatihan OpenAI SORA
Basis data pelatihan Sora belum dipublikasikan pada platform resmi mana pun (Gambar kredit)

Penggunaan Shutterstock diizinkan nanti

Yang menambah bahan bakar adalah penolakan awal Murati untuk menjawab apakah gambar Shutterstock merupakan komponen kumpulan data pelatihan Sora. Baru setelah wawancara, dalam catatan kaki yang ditambahkan oleh Wall Street Journal, Murati mengonfirmasi penggunaan perpustakaan gambar Shutterstock.

Konfirmasi ini bertentangan dengan sikap OpenAI kepada publik tentang “data yang tersedia untuk umum dan berlisensi” dan menyarankan upaya untuk menyembunyikan praktik pengadaan yang berpotensi menimbulkan masalah.

Shutterstock dan OpenAI membentuk a persekutuan memberikan hak kepada OpenAI untuk menggunakan perpustakaan gambar Shutterstock dalam melatih model pembuatan gambar seperti DALL-E 2 dan kemungkinan Sora.

Sebagai imbalannya, kontributor Shutterstock (fotografer dan seniman yang gambarnya ada di platform) menerima kompensasi ketika karya mereka digunakan dalam pengembangan model AI ini.

Mimpi buruk PR pun terjadi

Dapat dikatakan bahwa sebagian besar staf humas tidak akan menganggap wawancara ini sebagai mahakarya PR.

Kurangnya kejelasan Murati terjadi pada saat yang sensitif bagi OpenAI, sudah menghadapi tuntutan hukum hak cipta yang besar, termasuk laporan penting yang diajukan oleh New York Times.

Publik sedang mengamati praktik-praktik seperti dugaan penggunaan rahasia video YouTube oleh OpenAI untuk pelatihan model, seperti sebelumnya dilaporkan oleh The Information. Ketika para pemangku kepentingan, mulai dari artis hingga politisi, menuntut akuntabilitas, penghindaran Murati hanya akan memperburuk keadaan.

Pendekatan OpenAI yang buram justru menjadi bumerang yang spektakuler, mengubah wawancara Sora menjadi bencana PR.

Transparansi bukanlah topik yang paling banyak dibicarakan tanpa alasan

Insiden ini menggarisbawahi sebuah kebenaran penting: mengungkap kebenaran adalah hal terpenting dalam dunia AI. Respons OpenAI yang gagal telah sangat melemahkan kepercayaan publik dan meningkatkan pertanyaan mengenai praktik etisnya. Kontroversi Sora menyoroti bagian refrain yang berkembang menuntut akuntabilitas yang lebih besar dalam industri AI.

Keengganan Murati untuk mengungkapkan secara spesifik data pelatihan Sora muncul ketidakpercayaan dan menjadi preseden yang berbahaya.

Tanpa kejelasan yang dituntut oleh seniman, pencipta, dan masyarakat, perdebatan etis dan potensi tindakan hukum hanya akan meningkat.

Tidak ada malaikat di negeri ini

Meskipun sebagian besar pengawasan saat ini tertuju pada OpenAI, hal ini penting untuk diingat mereka bukan satu-satunya pemain dalam permainan ini.

Riset AI Facebook model LLaMA dan Gemininya Google juga menghadapi tuduhan sumber data pelatihan yang bermasalah.

Kontroversi data pelatihan OpenAI SORA
Isu transparansi dalam pengembangan AI telah menjadi agenda sejak lama (Gambar kredit)

Ini tidak mengherankan, karena Laporan Business Insider yang sudah diakui Meta menggunakan postingan Instagram dan Facebook untuk melatih model AI-nya. Selain itu, Kontrol Google atas sebagian besar internet memberi mereka akses yang tak tertandingi terhadap data pelatihan potensial, sehingga meningkatkan kekhawatiran etika serupa mengenai izin dan hak cipta.

Situasi dengan Sora OpenAI adalah hanya satu bagian dari teka-teki yang lebih besar. Seluruh bidang pengembangan AI menghadapi pengawasan ketat terkait praktik datanya dan potensi implikasi etisnya.


Kredit gambar unggulan: Freepik.

Stempel Waktu:

Lebih dari ekonomi data