Bisakah Anda mempercayai AI untuk melindungi AI?

Node Sumber: 1884060

Bergabunglah dengan para eksekutif terkemuka saat ini secara online di Data Summit pada tanggal 9 Maret. Daftar di sini.


Kini, ketika AI mulai memasuki arus utama arsitektur TI, persaingan pun dimulai untuk memastikan bahwa AI tetap aman ketika terpapar ke sumber data yang berada di luar kendali perusahaan. Dari pusat data, cloud, hingga edge, AI harus menghadapi beragam kerentanan dan beragam ancaman yang semakin kompleks, yang hampir semuanya didorong oleh AI itu sendiri.

Sementara itu, pertaruhannya akan semakin besar, mengingat AI kemungkinan akan menjadi tulang punggung layanan kesehatan, transportasi, keuangan, dan sektor-sektor lain yang penting untuk mendukung cara hidup modern. Jadi sebelum organisasi mulai memasukkan AI ke dalam arsitektur terdistribusi ini terlalu dalam, ada baiknya kita berhenti sejenak untuk memastikan bahwa AI dapat dilindungi secara memadai.

Kepercayaan dan transparansi

Dalam wawancara baru-baru ini dengan VentureBeat, Kepala petugas AI IBM Seth Dobrin mencatat bangunan itu kepercayaan dan transparansi ke seluruh rantai data AI sangat penting jika perusahaan berharap memperoleh nilai maksimal dari investasinya. Tidak seperti arsitektur tradisional yang datanya hanya bisa dimatikan atau dirampok ketika disusupi oleh virus dan malware, bahaya terhadap AI jauh lebih besar karena AI dapat diajarkan untuk melatih dirinya sendiri berdasarkan data yang diterimanya dari titik akhir.

โ€œTitik akhirnya adalah REST API yang mengumpulkan data,โ€ kata Dobrin. โ€œKita perlu melindungi AI dari keracunan. Kami harus memastikan titik akhir AI aman dan terus dipantau, tidak hanya untuk kinerja tetapi juga untuk bias.โ€

Untuk melakukan hal ini, Dobrin mengatakan IBM sedang berupaya membangunnya ketahanan yang bermusuhan pada tingkat sistem platform seperti Watson. Dengan menerapkan model AI yang menginterogasi model AI lain untuk menjelaskan proses pengambilan keputusannya, dan kemudian memperbaiki model tersebut jika menyimpang dari norma, perusahaan akan mampu mempertahankan postur keamanan dengan kecepatan ekonomi digital yang bergerak cepat saat ini. Namun hal ini memerlukan perubahan pemikiran dari berburu dan menggagalkan kode jahat menjadi memantau dan mengelola reaksi AI terhadap apa yang tampak sebagai data biasa.

Saat ini, banyak laporan mulai beredar tentang berbagai cara cerdik yang memanipulasi data untuk mengelabui AI agar mengubah kodenya dengan cara yang berbahaya. Jim Dempsey, dosen di UC Berkeley Law School dan penasihat senior di Stanford Cyber โ€‹โ€‹Policy Center, mengatakan bahwa audio yang terdengar seperti ucapan dapat dibuat oleh algoritme ML, tetapi tidak bagi manusia. Sistem pengenalan gambar dan jaringan saraf dalam dapat disesatkan dengan gangguan yang tidak terlihat oleh mata manusia, terkadang hanya dengan menggeser satu piksel. Selain itu, serangan ini dapat diluncurkan meskipun pelaku tidak memiliki akses ke model itu sendiri atau data yang digunakan untuk melatihnya.

Cegah dan tanggapi

Untuk mengatasi hal ini, perusahaan harus fokus pada dua hal. Pertama, katanya CTO global Dell Technologies John Roese, negara tersebut harus mencurahkan lebih banyak sumber daya untuk mencegah dan merespons serangan. Sebagian besar organisasi mahir dalam mendeteksi ancaman menggunakan layanan manajemen informasi peristiwa yang digerakkan oleh AI atau penyedia layanan keamanan terkelola, namun pencegahan dan respons masih terlalu lambat untuk memberikan mitigasi yang memadai terhadap pelanggaran serius.

Hal ini mengarah pada perubahan kedua yang harus diterapkan oleh perusahaan, katanya CEO Rapid7 Corey Thomas: memberdayakan pencegahan dan respons dengan lebih banyak AI. Hal ini merupakan tantangan yang sulit untuk diterima oleh sebagian besar organisasi karena pada dasarnya memberikan keleluasaan bagi AI untuk melakukan perubahan pada lingkungan data. Namun Thomas mengatakan ada cara untuk melakukan hal ini yang memungkinkan AI berfungsi pada aspek keamanan yang paling mahir ditanganinya sambil tetap memberikan kemampuan utama kepada operator manusia.

Pada akhirnya, ini tergantung pada kepercayaan. AI adalah anak baru di kantor saat ini, jadi AI seharusnya tidak memiliki kunci lemari besi. Namun seiring berjalannya waktu, seiring dengan terbuktinya manfaatnya di lingkungan tingkat awal, ia akan mendapatkan kepercayaan sama seperti karyawan lainnya. Hal ini berarti memberikan penghargaan ketika kinerjanya baik, mengajarkannya untuk melakukan yang lebih baik ketika gagal, dan selalu memastikan bahwa mereka memiliki sumber daya yang memadai dan data yang tepat untuk memastikan bahwa mereka memahami hal yang benar untuk dilakukan dan cara yang benar untuk melakukannya.

Misi VentureBeat adalah menjadi alun-alun kota digital bagi para pengambil keputusan teknis untuk memperoleh pengetahuan tentang teknologi dan transaksi perusahaan yang transformatif. Pelajari Lebih Lanjut

Sumber: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Stempel Waktu:

Lebih dari AI - VentureBeat