AI Mungkin Terlihat Di Mana Saja, Tetapi Masih Banyak Hal yang Tidak Dapat Dilakukan—Untuk Saat Ini

AI Mungkin Terlihat Di Mana Saja, Tetapi Masih Banyak Hal yang Tidak Dapat Dilakukan—Untuk Saat Ini

Node Sumber: 1894618

Hari-hari ini, kita tidak perlu menunggu lama sampai terobosan berikutnya masuk kecerdasan buatan mengesankan semua orang dengan kemampuan yang sebelumnya hanya dimiliki dalam fiksi ilmiah.

Dalam 2022, Alat generasi seni AI seperti Open AI's DALL-E 2, Google's Imagen, dan Stable Diffusion menghebohkan internet, dengan pengguna menghasilkan gambar berkualitas tinggi dari deskripsi teks.

Tidak seperti perkembangan sebelumnya, alat teks-ke-gambar ini dengan cepat menemukan jalannya dari laboratorium penelitian ke budaya arus utama, yang mengarah ke fenomena viral seperti fitur "Avatar Ajaib" di aplikasi Lensa AI, yang menciptakan gambar bergaya penggunanya.

Pada bulan Desember, sebuah chatbot bernama ChatGPT mengejutkan pengguna dengannya keterampilan menulis, mengarah ke prediksi teknologi akan segera dapat lulus ujian profesional. ChatGPT dilaporkan memperoleh satu juta pengguna dalam waktu kurang dari seminggu. Beberapa pejabat sekolah sudah dilarang itu karena takut siswa akan menggunakannya untuk menulis esai. Microsoft adalah kabarnya berencana untuk memasukkan ChatGPT ke dalam pencarian web Bing dan produk Office akhir tahun ini.

Apa arti kemajuan AI yang tak henti-hentinya dalam waktu dekat? Dan apakah AI kemungkinan akan mengancam pekerjaan tertentu di tahun-tahun berikutnya?

Terlepas dari pencapaian AI yang mengesankan baru-baru ini, kami perlu menyadari bahwa masih ada batasan yang signifikan terhadap apa yang dapat dilakukan oleh sistem AI.

AI Unggul dalam Pengenalan Pola

Kemajuan terbaru dalam AI sangat bergantung pada algoritme pembelajaran mesin yang membedakan pola dan hubungan kompleks dari sejumlah besar data. Pelatihan ini kemudian digunakan untuk tugas-tugas seperti prediksi dan pembuatan data.

Perkembangan teknologi AI saat ini mengandalkan optimalisasi daya prediksi, meskipun tujuannya adalah untuk menghasilkan output baru.

Sebagai contoh, GPT-3, model bahasa di balik ChatGPT, dilatih untuk memprediksi apa yang mengikuti sebuah teks. GPT-3 kemudian memanfaatkan kemampuan prediktif ini untuk melanjutkan teks masukan yang diberikan oleh pengguna.

“AI Generatif” seperti ChatGPT dan DALL-E 2 telah muncul banyak perdebatan tentang apakah AI bisa benar-benar kreatif dan bahkan menyaingi manusia dalam hal ini. Namun, kreativitas manusia tidak hanya mengacu pada data masa lalu tetapi juga pada eksperimen dan berbagai pengalaman manusia.

Sebab dan akibat

Banyak masalah penting memerlukan prediksi efek dari tindakan kita di lingkungan yang kompleks, tidak pasti, dan terus berubah. Dengan melakukan ini, kita dapat memilih urutan tindakan yang paling mungkin untuk mencapai tujuan kita. Tetapi algoritma tidak bisa belajar tentang sebab dan akibat dari data saja. Pembelajaran mesin murni berbasis data hanya dapat menemukan korelasi.

Untuk memahami mengapa ini menjadi masalah bagi AI, kita dapat membandingkan masalah dalam mendiagnosis kondisi medis versus memilih pengobatan. Model pembelajaran mesin seringkali berguna untuk menemukan ketidaknormalan pada citra medis; ini adalah masalah pengenalan pola. Kita tidak perlu khawatir tentang sebab-akibat karena kelainan sudah ada atau tidak.

Tetapi memilih pengobatan terbaik untuk diagnosis adalah masalah yang berbeda secara fundamental. Di sini, tujuannya adalah untuk mempengaruhi hasil, bukan hanya mengenali sebuah pola. Untuk menentukan keefektifan pengobatan, peneliti medis menjalankan uji coba terkontrol secara acak. Dengan cara ini, mereka dapat mencoba mengendalikan faktor apa pun yang mungkin memengaruhi pengobatan.

Kebingungan antara kedua jenis masalah ini terkadang mengarah pada aplikasi yang tidak optimal pembelajaran mesin dalam organisasi.

Sementara keberhasilan pekerjaan AI baru-baru ini menunjukkan nilai model berbasis data, banyak masalah yang kita ingin komputer selesaikan membutuhkan pemahaman tentang sebab-akibat.

Sistem AI saat ini tidak memiliki kemampuan ini, selain dari aplikasi khusus seperti permainan papan.

Gambar berpiksel warna-warni dengan garis samar beberapa mata dan mulut manusia
Sebuah karya seni Difusi Stabil yang dihasilkan oleh prompt 'Batas kecerdasan buatan'. Teknologi AI saat ini cenderung berkinerja buruk dalam situasi yang tidak terduga. Dalam hal ini, prompt tidak terwakili dengan baik dalam data pelatihan Difusi Stabil. Kredit Gambar: Difusi Stabil

Penalaran Akal Sehat

Model bahasa seperti GPT-3 dan ChatGPT berhasil menyelesaikan beberapa tugas yang membutuhkan penalaran akal sehat.

Namun, interaksi berikut dengan ChatGPT, diadaptasi dari eksperimen oleh Gary Marcus, menyarankan itu tidak sepenuhnya dapat diandalkan dalam hal ini.

Saya berumur delapan tahun. Ketika saya lahir, ibu kandung saya berada di Barcelona dan ayah saya berada di Tokyo. Di mana saya lahir? Pikirkan langkah demi langkah ini.

Tidak disebutkan di mana Anda dilahirkan. Yang kami tahu adalah bahwa ibu kandung Anda berada di Barcelona dan ayah Anda berada di Tokyo pada saat Anda lahir.

Apakah sistem AI seperti ChatGPT dapat mencapai akal sehat masih menjadi bahan perdebatan hangat di antara para ahli.

Skeptis seperti Marcus menunjukkan bahwa kita tidak dapat mempercayai model bahasa untuk menampilkan akal sehat dengan kuat karena mereka tidak memilikinya atau dioptimalkan secara langsung untuk itu. Optimis berpendapat bahwa sementara sistem saat ini tidak sempurna, akal sehat mungkin muncul secara spontan dalam model bahasa yang cukup maju.

Nilai-nilai kemanusiaan

Setiap kali sistem AI inovatif dirilis, artikel berita dan postingan media sosial mendokumentasikan rasis, seksis, dan jenis lainnya bias dan perilaku berbahaya pasti mengikuti.

Cacat ini melekat pada sistem AI saat ini, yang pasti merupakan cerminan dari data mereka. Nilai-nilai kemanusiaan seperti kebenaran dan keadilan tidak dibangun secara mendasar ke dalam algoritme; itu sesuatu yang peneliti belum tahu bagaimana melakukannya.

Sedangkan peneliti mempelajari pelajaran dari episode sebelumnya dan membuat kemajuan dalam menyikapi bias, bidang AI masih memiliki a masih jauh untuk secara kuat menyelaraskan sistem AI dengan nilai dan preferensi manusia.Percakapan

Artikel ini diterbitkan kembali dari Percakapan di bawah lisensi Creative Commons. Membaca Artikel asli.

Gambar Kredit: Mahdis Mousavi/Unsplash

Stempel Waktu:

Lebih dari Hub Singularity