10 langkah untuk mendidik perusahaan Anda tentang keadilan AI

Node Sumber: 893723

Tingkatkan teknologi dan strategi data perusahaan Anda di Transformasi 2021.


Ketika perusahaan semakin menerapkan kecerdasan buatan, mereka harus mengatasi kekhawatiran tentang kepercayaan.

Berikut adalah 10 intervensi praktis yang dapat diterapkan perusahaan untuk memastikan keadilan AI. Mereka termasuk membuat Keadilan AI piagam dan pelaksanaan pelatihan dan pengujian.

Teknologi berbasis data dan kecerdasan buatan (AI) mendukung dunia kita saat ini โ€” mulai dari memprediksi di mana varian COVID-19 berikutnya akan muncul, hingga membantu kita melakukan perjalanan di rute yang paling efisien. Di banyak domain, masyarakat umum memiliki tingkat kepercayaan yang tinggi bahwa algoritme yang mendukung pengalaman ini sedang dikembangkan dengan cara yang adil.

Namun, kepercayaan ini dapat dengan mudah dirusak. Misalnya, pertimbangkan merekrut perangkat lunak bahwa, karena data pelatihan yang tidak representatif, menghukum aplikasi yang mengandung kata โ€œperempuanโ€, atau sistem penilaian kredit yang mengabaikan bukti kelayakan kredit di dunia nyata dan akibatnya kelompok tertentu mendapatkan batas kredit yang lebih rendah atau ditolak pinjaman.

Kenyataannya adalah bahwa teknologi bergerak lebih cepat daripada pendidikan dan pelatihan tentang keadilan AI. Orang-orang yang melatih, mengembangkan, menerapkan, dan memasarkan pengalaman berbasis data ini sering kali tidak menyadarinya implikasi urutan kedua atau ketiga dari kerja keras mereka.

Sebagai bagian dari Forum Ekonomi Dunia Dewan Masa Depan Global tentang Kecerdasan Buatan untuk Kemanusiaan, sekelompok praktisi AI, peneliti, dan penasihat perusahaan, kami mengusulkan 10 intervensi praktis bagi perusahaan untuk diterapkan guna memastikan keadilan AI.

1. Tetapkan tanggung jawab untuk pendidikan AI

Tetapkan chief AI ethics officer (CAIO) yang bersama dengan dewan etika lintas fungsi (termasuk perwakilan dari ilmu data, peraturan, hubungan masyarakat, komunikasi, dan SDM) harus bertanggung jawab untuk merancang dan mengimplementasikan aktivitas pendidikan AI. CAIO juga harus menjadi โ€œombudsmanโ€ bagi staf untuk dihubungi jika ada masalah keadilan, serta juru bicara staf non-teknis. Idealnya peran ini harus melapor langsung ke CEO untuk visibilitas dan implementasi.

2. Tentukan keadilan untuk organisasi Anda

Kembangkan templat piagam keadilan AI dan kemudian tanyakan semua departemen yang secara aktif menggunakan AI untuk menyelesaikannya dalam konteks mereka. Ini sangat relevan untuk manajer lini bisnis dan pemilik produk dan layanan.

3. Pastikan keadilan AI di sepanjang rantai pasokan

Mengharuskan pemasok yang Anda gunakan yang memiliki AI dalam produk dan layanan yang mereka beli โ€“ misalnya agen perekrutan yang mungkin menggunakan AI untuk penyaringan kandidat โ€“ untuk juga melengkapi piagam keadilan AI dan untuk mematuhi kebijakan perusahaan tentang keadilan AI. Hal ini sangat relevan untuk fungsi pengadaan dan untuk pemasok.

4. Mendidik staf dan pemangku kepentingan melalui pelatihan dan pendekatan โ€œbelajar sambil melakukanโ€

Memerlukan pelatihan dan sertifikasi wajib untuk semua karyawan tentang prinsip-prinsip keadilan AI โ€“ serupa dengan bagaimana staf diwajibkan untuk mendaftar ke kode etik bisnis. Untuk staf teknis, berikan pelatihan tentang cara membangun model yang tidak melanggar prinsip keadilan. Semua pelatihan harus memanfaatkan wawasan dari piagam keadilan AI untuk secara langsung mengatasi masalah yang dihadapi perusahaan. Pastikan konten kursus ditinjau secara teratur oleh dewan etika.

5. Buat rencana HR AI fairness people

Rencana keadilan HR AI harus mencakup tinjauan tahunan oleh HR untuk menilai keragaman tim yang bekerja pada teknologi berbasis data dan AI, dan tinjauan eksplisit serta peningkatan kompetensi dan keterampilan yang saat ini diiklankan untuk pengembangan produk utama yang relevan dengan AI peran (seperti pemilik produk, ilmuwan data, dan insinyur data) untuk memastikan kesadaran akan keadilan adalah bagian dari deskripsi pekerjaan.

6. Uji keadilan AI sebelum peluncuran teknologi apa pun

Mewajibkan departemen dan pemasok untuk menjalankan dan memublikasikan pengujian hasil keadilan secara internal sebelum algoritme AI apa pun diizinkan untuk ditayangkan. Setelah Anda mengetahui grup mana yang mungkin diperlakukan tidak adil karena bias data, simulasikan pengguna dari grup tersebut dan pantau hasilnya. Ini dapat digunakan oleh tim produk untuk mengulangi dan meningkatkan produk atau layanan mereka sebelum ditayangkan. Alat sumber terbuka, seperti Microsoft Fairlearn, dapat membantu memberikan analisis untuk tes hasil keadilan.

7. Komunikasikan pendekatan Anda terhadap keadilan AI

Siapkan sesi pembelajaran hasil keadilan dengan staf yang menghadap pelanggan dan publik untuk menjalani tes hasil keadilan untuk produk atau layanan baru atau yang diperbarui. Ini sangat relevan untuk pemasaran dan komunikasi eksternal, serta tim layanan pelanggan.

8. Dedikasikan item tetap dalam rapat dewan untuk proses keadilan AI

Diskusi ini harus mencakup pelaporan tentang kemajuan dan kepatuhan, tema yang diangkat dari kepala petugas etika AI dan dewan etika, dan hasil tes hasil keadilan prioritas tinggi

9. Pastikan pendidikannya melekat

Secara teratur melacak dan melaporkan partisipasi dan penyelesaian kegiatan keadilan AI, bersama dengan dampak yang ditunjukkan dari pengelolaan keadilan dalam hal nilai bisnis nyata. Berikan pembaruan ini kepada manajer departemen dan lini untuk berkomunikasi dengan staf guna memperkuat bahwa dengan membuat platform AI dan perangkat lunak lebih adil, organisasi menjadi lebih efektif dan produktif.

10. Dokumentasikan semuanya

Dokumentasikan pendekatan Anda terhadap keadilan AI dan komunikasikan dalam pelatihan staf dan pemasok serta acara penting, termasuk untuk pelanggan dan investor.

[Cerita ini awalnya muncul di 10 langkah untuk mendidik perusahaan Anda tentang keadilan AI | Forum Ekonomi Dunia (weforum.org). Hak Cipta 2021.]

Nadjia Yusuf adalah Managing Director dan Partner di Boston Consulting Group dan ikut memimpin praktik Lembaga Keuangan untuk Inggris, Belanda dan Belgia.

Tandai Minevich adalah Ketua Kebijakan Kecerdasan Buatan di Pusat Penelitian Internasional tentang Kecerdasan Buatan di bawah naungan UNESCO, Institut Jozef Stefan.

VentureBeat

Misi VentureBeat adalah menjadi alun-alun kota digital bagi para pembuat keputusan teknis untuk mendapatkan pengetahuan tentang teknologi transformatif dan bertransaksi. Situs kami memberikan informasi penting tentang teknologi data dan strategi untuk memandu Anda saat Anda memimpin organisasi. Kami mengundang Anda untuk menjadi anggota komunitas kami, untuk mengakses:

  • informasi terkini tentang topik yang menarik bagi Anda
  • buletin kami
  • konten pemimpin pemikiran yang terjaga keamanannya dan akses diskon ke acara berharga kami, seperti Transformasi 2021: Belajarlah lagi
  • fitur jaringan, dan banyak lagi

Menjadi anggota

Sumber: https://venturebeat.com/2021/06/11/10-steps-to-educate-your-company-on-ai-fairness/

Stempel Waktu:

Lebih dari AI - VentureBeat