DHS протестирует использование genAI для обучения сотрудников иммиграционной службы США

DHS протестирует использование genAI для обучения сотрудников иммиграционной службы США

Исходный узел: 2521739

У Министерства внутренней безопасности США (DHS) есть дорожная карта искусственного интеллекта и три тестовых проекта по внедрению этой технологии, один из которых направлен на обучение сотрудников иммиграционной службы использованию генеративного искусственного интеллекта. Что возможно могло пойти не так?

В отчете не было названо ни одного поставщика искусственного интеллекта, в котором утверждалось, что использование этой технологии было направлено на то, чтобы помочь стажерам лучше понимать и сохранять «важную информацию», а также «повысить точность их процесса принятия решений».

Это сказал, что OpenAI, Anthropic и Meta, а также облачные гиганты Microsoft, Google и Amazon предоставили Национальной безопасности технологии искусственного интеллекта и онлайн-сервисы для экспериментов в отношении обучения и принятия решений.

«Служба гражданства и иммиграции США (USCIS) будет использовать программы LLM для обучения сотрудников по делам беженцев, убежища и международных операций тому, как проводить собеседования с заявителями на законную иммиграцию», — заявил дядя Сэм. Дорожная карта В [PDF], опубликованном вчера вечером, поясняется.

Несмотря на недавняя работа Известно, что при уменьшении неточностей в моделях ИИ студенты LLM генерируют неточную информацию с такой уверенностью, которая может ввести в заблуждение молодого стажера.

Ошибки, называемые «галлюцинациями», мешают доверять выводам ИИ. chatbots, генерация изображения и даже работа помощником юриста, с более чем one адвокат попасть в неприятности из-за цитирования фейковых случаев, созданных ChatGPT из воздуха.

Также известно, что LLM проявляют как расовую, так и гендерную предвзятость при использовании в инструменты наймарасовые и гендерные предубеждения при использовании в распознавания лиц системы и даже могут проявлять расистские предубеждения при обработке слов, как показано на Недавняя статья где различные LLM принимают решение о человеке на основе серии текстовых подсказок. В своей мартовской статье исследователи сообщили, что решения LLM в отношении людей, говорящих на афроамериканском диалекте, отражают расистские стереотипы.

Тем не менее, DHS утверждает, что стремится к тому, чтобы использование искусственного интеллекта было «ответственным и заслуживающим доверия; защищает неприкосновенность частной жизни, гражданские права и гражданские свободы; избегает неуместных предубеждений; и является прозрачным и понятным для работников и людей, подвергающихся обработке. Однако там не говорится, какие меры защиты предусмотрены.

Агентство утверждает, что использование генеративного ИИ позволит DHS «улучшить» работу иммиграционных офицеров с помощью интерактивного приложения, использующего генеративный ИИ, которое находится в стадии разработки, для оказания помощи в обучении офицеров. Цель включает в себя ограничение необходимости переобучения с течением времени.

В более крупном отчете DHS излагаются планы Департамента в отношении этой технологии в более общем плане, и, по словам Алехандро Н. Майоркаса, секретаря Министерства внутренней безопасности США, «это наиболее подробный план ИИ, предложенный федеральным агентством на сегодняшний день».

Еще два пилотных проекта будут включать использование систем на основе LLM в расследованиях и применение генеративного искусственного интеллекта в процессе снижения рисков для местных органов власти.

История повторяется

DHS уже более десяти лет использует искусственный интеллект, в том числе технологию машинного обучения (ML) для проверки личности. Его подход лучше всего можно охарактеризовать как противоречивый, поскольку агентство подвергается критике. юридические письма за использование технологии распознавания лиц. Однако США продвинулись вперед, несмотря на беспокоить с некоторых сторон.

Действительно, DHS называет искусственный интеллект чем-то, что оно использует, чтобы сделать путешествия «безопаснее и проще» — кто может возражать против того, чтобы сфотографироваться, чтобы помочь ориентироваться в театре безопасности, который слишком распространен в аэропортах? В конце концов, это все еще необязательно.

Другие примеры использования ИИ, приведенные DHS, включают просмотр старых изображений для выявления ранее неизвестных жертв эксплуатации, оценку ущерба после стихийного бедствия и поимку контрабандистов путем выявления подозрительного поведения.

В своей дорожной карте DHS отметило проблемы, которые существуют наряду с возможностями. Инструменты искусственного интеллекта одинаково доступны как для субъектов угроз, так и для властей, и DHS обеспокоено тем, что киберпреступникам доступны более масштабные атаки, а также атаки на критически важную инфраструктуру. Кроме того, существует угроза со стороны контента, созданного ИИ.

На 2024 год поставлен ряд целей. В их число входит создание «песочницы» искусственного интеллекта, в которой пользователи DHS смогут экспериментировать с технологией, и наем 50 экспертов по искусственному интеллекту. Он также планирует провести учение HackDHS, в ходе которого проверенным исследователям будет поручено найти уязвимости в его системах. ®

Отметка времени:

Больше от Регистр