Можно ли доверять ИИ в защите ИИ?

Исходный узел: 1884060

Присоединяйтесь к сегодняшним ведущим руководителям онлайн на саммите данных 9 марта. регистр здесь.


Теперь, когда искусственный интеллект становится основным направлением ИТ-архитектуры, идет борьба за обеспечение его безопасности при воздействии источников данных, находящихся вне контроля предприятия. От центра обработки данных до облака и периферии ИИ придется бороться с широким спектром уязвимостей и все более сложным набором угроз, почти все из которых будут исходить от самого ИИ.

Между тем, ставки будут все выше, учитывая, что ИИ, вероятно, станет основой нашего здравоохранения, транспорта, финансов и других секторов, которые имеют решающее значение для поддержки нашего современного образа жизни. Поэтому, прежде чем организации начнут слишком глубоко внедрять ИИ в эти распределенные архитектуры, возможно, стоит сделать паузу и убедиться, что он может быть адекватно защищен.

Доверие и прозрачность

В недавнем интервью VentureBeat Директор IBM по искусственному интеллекту Сет Добрин отметил, что здание доверие и прозрачность во всей цепочке данных ИИ имеет решающее значение, если предприятие надеется получить максимальную отдачу от своих инвестиций. В отличие от традиционных архитектур, которые можно просто отключить или украсть данные при проникновении вирусов и вредоносных программ, опасность для ИИ гораздо выше, поскольку его можно научить переобучаться на основе данных, которые он получает от конечной точки.

«Конечная точка — это REST API, собирающий данные», — сказал Добрин. «Нам необходимо защитить ИИ от отравления. Мы должны убедиться, что конечные точки ИИ безопасны и постоянно контролируются не только на предмет производительности, но и на предмет предвзятости».

Для этого, по словам Добрина, IBM работает над созданием противоборствующая устойчивость на системном уровне таких платформ, как Watson. Внедряя модели ИИ, которые опрашивают другие модели ИИ, чтобы объяснить процессы принятия ими решений, а затем корректируют эти модели, если они отклоняются от норм, предприятие сможет поддерживать уровень безопасности со скоростью современной быстро развивающейся цифровой экономики. Но это требует перехода от поиска и предотвращения вредоносного кода к мониторингу и управлению реакцией ИИ на то, что кажется обычными данными.

Уже начинают распространяться сообщения о многих изобретательных способах манипулирования данными, чтобы обмануть ИИ и заставить его изменить свой код вредными способами. Джим Демпси, преподаватель юридической школы Калифорнийского университета в Беркли и старший советник Стэнфордского центра киберполитики, говорит, что можно создавать звук, который звучит как речь для алгоритмов ML, но не для людей. Системы распознавания изображений и глубокие нейронные сети могут быть сбиты с толку возмущениями, незаметными для человеческого глаза, иногда всего лишь путем смещения одного пикселя. Более того, эти атаки могут быть осуществлены, даже если злоумышленник не имеет доступа к самой модели или данным, использованным для ее обучения.

Предотвратить и отреагировать

Чтобы противостоять этому, предприятие должно сосредоточиться на двух вещах. Во-первых, говорит Глобальный технический директор Dell Technologies Джон Роуз, оно должно выделять больше ресурсов на предотвращение атак и реагирование на них. Большинство организаций умеют обнаруживать угрозы с помощью служб управления информацией о событиях на основе искусственного интеллекта или поставщика услуг управляемой безопасности, но предотвращение и реагирование по-прежнему слишком медленны, чтобы обеспечить адекватное смягчение серьезного нарушения.

Это приводит ко второму изменению, которое должно внедрить предприятие, говорит Генеральный директор Rapid7 Кори Томас: расширить возможности предотвращения и реагирования с помощью большего количества искусственного интеллекта. Большинству организаций трудно проглотить эту пилюлю, поскольку она, по сути, дает ИИ свободу действий для внесения изменений в среду данных. Но Томас говорит, что есть способы сделать это, которые позволят ИИ функционировать в тех аспектах безопасности, с которыми он лучше всего справляется, сохраняя при этом ключевые возможности для людей-операторов.

В конце концов, все сводится к доверию. ИИ сейчас новенький в офисе, поэтому у него не должно быть ключей от хранилища. Но со временем, когда он докажет свою ценность на начальном уровне, он должен заслужить доверие, как и любой другой сотрудник. Это значит вознаграждать его, когда он работает хорошо, учить его работать лучше, когда он терпит неудачу, и всегда следить за тем, чтобы у него были адекватные ресурсы и необходимые данные, чтобы гарантировать, что он понимает, что делать правильно и как это делать.

Миссия VentureBeat должна стать цифровой городской площадью, на которой лица, принимающие технические решения, смогут получить знания о трансформирующих корпоративных технологиях и заключать сделки. Подробнее

Источник: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

Отметка времени:

Больше от AI - VentureBeat