10 шагов по обучению вашей компании справедливости ИИ

Исходный узел: 893723

Повысьте уровень технологий и стратегии корпоративных данных на Преобразовать НЕТ.


По мере того как компании все чаще применяют искусственный интеллект, они должны решать проблемы доверия.

Вот 10 практических мер, которые компании могут использовать для обеспечения справедливости ИИ. Они включают создание AI справедливость устав и проведение обучения и тестирования.

Технологии, управляемые данными и искусственный интеллект (ИИ), управляют нашим миром сегодня - от предсказания того, где возникнет следующий вариант COVID-19, до помощи нам в путешествии по наиболее эффективному маршруту. Во многих областях широкая общественность глубоко верит в то, что алгоритмы, на которых основан этот опыт, разрабатываются честно.

Однако это доверие легко сломать. Например, рассмотрим программное обеспечение для набора персонала что из-за нерепрезентативных данных обучения наказывает приложения, содержащие слово «женщины», или систему оценки кредитоспособности, которая пропускает реальные доказательства кредитоспособности и, таким образом, в результате определенные группы получают более низкие кредитные лимиты или им отказывают в ссуде.

Реальность такова, что технологии развиваются быстрее, чем образование и обучение справедливости ИИ. Люди, которые обучают, разрабатывают, внедряют и продают этот опыт, основанный на данных, часто не знают о последствия их тяжелой работы второго или третьего порядка.

В рамках Всемирного экономического форума Совет глобального будущего по искусственному интеллекту для человечества, коллектив практикующих ИИ, исследователей и корпоративных консультантов, мы предлагаем 10 практических мер, которые компании могут использовать для обеспечения справедливости ИИ.

1. Возложите ответственность за образование в области ИИ

Назначьте главного сотрудника по этике ИИ (CAIO), который вместе с межфункциональным советом по этике (включая представителей науки о данных, регулирующих органов, связей с общественностью, коммуникаций и HR) должен отвечать за разработку и реализацию образовательных мероприятий в области ИИ. CAIO также должен быть «омбудсменом», к которому сотрудники должны обращаться в случае вопросов справедливости, а также представителем нетехнического персонала. В идеале эта роль должна подчиняться непосредственно генеральному директору для наглядности и реализации.

2. Определите справедливость для вашей организации.

Разработайте шаблон хартии справедливости ИИ, а затем спросите все отделы которые активно используют ИИ, чтобы завершить его в своем контексте. Это особенно актуально для руководителей бизнес-направлений и владельцев продуктов и услуг.

3. Обеспечение справедливости ИИ в цепочке поставок.

Требуйте от поставщиков, которых вы используете, у которых есть ИИ, встроенный в их закупаемые продукты и услуги - например, кадровое агентство, которое может использовать ИИ для отбора кандидатов, - также заполнить хартию справедливости ИИ и придерживаться политики компании в отношении справедливости ИИ. Это особенно актуально для функции закупок и для поставщиков.

4. Обучите персонал и заинтересованные стороны посредством обучения и подхода «учиться на практике».

Требовать обязательного обучения и сертификации для всех сотрудников по принципам справедливости ИИ - аналогично тому, как сотрудники обязаны соблюдать кодексы делового поведения. Для технического персонала проведите обучение тому, как создавать модели, не нарушающие принципы справедливости. Все тренинги должны использовать идеи хартии справедливости в отношении ИИ, чтобы напрямую решать проблемы, с которыми сталкивается компания. Убедитесь, что содержание курса регулярно проверяется советом по этике.

5. Составьте план обеспечения справедливости в отношении кадрового ИИ.

План справедливости в области ИИ в HR должен включать ежегодный обзор HR для оценки разнообразия команды, работающей над технологиями на основе данных и ИИ, а также подробный обзор и повышение уровня компетенции и навыков, которые в настоящее время рекламируются для разработки ключевых продуктов, связанных с ИИ роли (например, владельца продукта, специалиста по данным и инженера по данным), чтобы гарантировать, что понимание справедливости является частью должностной инструкции.

6. Проверяйте честность ИИ перед запуском любых технологий.

Требовать от отделов и поставщиков запускать и публиковать результаты тестов на справедливость, прежде чем какой-либо алгоритм искусственного интеллекта будет запущен. Как только вы узнаете, к каким группам могут относиться несправедливо из-за предвзятости данных, смоделируйте пользователей из этой группы и проследите за результатами. Это может быть использовано продуктовыми группами для доработки и улучшения своего продукта или услуги до того, как они будут запущены. Инструменты с открытым исходным кодом, такие как Microsoft Фэйрлерн, может помочь в анализе результатов проверки справедливости.

7. Расскажите о своем подходе к справедливости ИИ.

Организуйте учебные занятия по результатам справедливости с сотрудниками, ориентированными на клиентов и общественность, чтобы пройти тесты результатов справедливости для любого нового или обновленного продукта или услуги. Это особенно актуально для маркетинга и внешних коммуникаций, а также для групп обслуживания клиентов.

8. Выделите постоянный пункт на заседаниях правления процессам справедливости ИИ.

Это обсуждение должно включать отчеты о прогрессе и приверженности, темы, поднятые главным сотрудником по этике ИИ и советом по этике, а также результаты высокоприоритетных тестов на справедливость.

9. Убедитесь, что образование прижилось.

Регулярно отслеживайте и сообщайте об участии и завершении мероприятий по обеспечению справедливости ИИ, а также о продемонстрированном влиянии управления справедливостью с точки зрения реальной стоимости бизнеса. Предоставляйте эти обновления руководителям отделов и линейным руководителям, чтобы они общались с персоналом, чтобы подтвердить, что, делая платформы и программное обеспечение ИИ более справедливыми, организация становится более эффективной и продуктивной.

10. Документируйте все

Документируйте свой подход к справедливости ИИ и сообщайте об этом на тренингах для персонала и поставщиков, а также на важных мероприятиях, в том числе для клиентов и инвесторов.

[Эта история впервые появилась на 10 шагов по обучению вашей компании справедливости ИИ | Всемирный экономический форум (weforum.org). Авторские права 2021.]

Наджа Юсиф является управляющим директором и партнером в Бостонская консалтинговая группа и со-руководит практикой финансовых институтов в Великобритании, Нидерландах и Бельгии.

Марк Миневич является кафедрой политики в области искусственного интеллекта в Международном исследовательском центре искусственного интеллекта под эгидой ЮНЕСКО, Институт Йозефа Стефана.

VentureBeat

Миссия VentureBeat - стать цифровой городской площадью, где лица, принимающие технические решения, могут получить знания о трансформирующих технологиях и транзакциях. На нашем сайте представлена ​​важная информация о технологиях и стратегиях обработки данных, которая поможет вам руководить своей организацией. Мы приглашаем вас стать членом нашего сообщества, чтобы получить доступ:

  • актуальная информация по интересующей вас тематике
  • наши новостные рассылки
  • закрытый контент для лидеров мнений и льготный доступ к нашим ценным мероприятиям, таким как Преобразовать НЕТ: Узнать больше
  • сетевые функции и многое другое

Становиться участником

Источник: https://venturebeat.com/2021/06/11/10-steps-to-educate-your-company-on-ai-fairness/

Отметка времени:

Больше от AI - VentureBeat