Джон П. Десмонд, редактор AI Trends
В недавнем опросе руководители высшего звена признали, что иногда используют ИИ неэтично.
Признание откровенной неэтичности было сделано респондентами недавнего опроса, проведенного KPMG среди 250 руководителей уровня директоров и выше в компаниях с более чем 1,000 сотрудников, о конфиденциальности данных.
Около 29% респондентов признали, что их собственные компании собирают личную информацию, которая «иногда является неэтичной», а 33% заявили, что потребители должны быть обеспокоены тем, как их компания использует личные данные, согласно недавнему отчету в The New Yorker.
Результат удивил исследователя. «Для некоторых компаний может существовать несоответствие между тем, что они говорят, что они делают в отношении конфиденциальности данных, и тем, что они делают на самом деле», - заявил Орсон Лукас, руководитель службы конфиденциальности KPMG в США.
Одна из растущих практик - это попытка «собрать все» о человеке, а затем выяснить, как это использовать. Такой подход рассматривается как возможность лучше понять, что клиенты хотят получить от бизнеса, что впоследствии может привести к прозрачным переговорам о том, какую информацию клиенты готовы предоставить и в течение какого времени.
Большинство этих компаний еще не вышли на стадию прозрачных переговоров. Около 70% опрошенных руководителей заявили, что их компании увеличили объем личной информации, которую они собирали за последний год. 62% заявили, что их компании следует делать больше для усиления мер защиты данных.
KPMG также опросила 2,000 взрослых среди населения на предмет конфиденциальности данных и обнаружила, что 40% не доверяют компаниям этичное поведение с их личной информацией. По мнению Лукаса, потребители захотят наказать бизнес, демонстрирующий недобросовестную практику использования личных данных.
Конференции по ИИ, рассматривающие более широкие этические обзоры представленных статей
Между тем, на конференциях по искусственному интеллекту иногда демонстрируются технологии искусственного интеллекта, мало чувствительные к их потенциально неэтичному использованию, а временами эта технология искусственного интеллекта находит свое применение в коммерческих продуктах. Например, конференция IEEE по компьютерному зрению и распознаванию образов в 2019 году приняла доклад исследователей из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института об изучении лица человека по аудиозаписям его речи.
Целью проекта под названием Speech2Face было исследование того, сколько информации о внешности человека можно вывести из того, как он говорит. Исследователи предложили архитектуру нейронной сети, разработанную специально для выполнения задачи реконструкции лица по звуку.
Вокруг этого хлынул фанат Алекс Ханна, транс-женщина и социолог из Google, изучающая этику искусственного интеллекта, через твит попросила прекратить исследование, назвав его «трансфобным». Ханна возражала против того, чтобы исследователи пытались связать идентичность с биологией. Последовали дебаты. Некоторые сомневались, что статьи, представленные на академические конференции, нуждаются в дальнейшей этической экспертизе.
Майкл Кернс, ученый-компьютерщик из Пенсильванского университета и соавтор книги, Этический алгоритм" заявлено The New Yorker что мы находимся в «небольшом моменте манхэттенского проекта» в области искусственного интеллекта и машинного обучения. «Академические исследования в этой области были широко развернуты в обществе», - заявил он. «С этим возникает и более высокая ответственность».
Доклад о Speech2Face был принят на конференции по нейронным системам обработки информации (Neurips) 2019 года, проходившей в Ванкувере, Канада. Кэтрин Хеллер, специалист по информатике из Университета Дьюка и сопредседатель Neurips по вопросам разнообразия и инклюзивности, рассказала: The New Yorker что конференция приняла около 1,400 докладов в том году, и она не могла припомнить, чтобы столкнулась с подобным сопротивлением по поводу этики. «Это новая территория», - заявила она.
На конференции Neurips 2020, которая проходила дистанционно в декабре 2020 года, статьи были отклонены, если выяснилось, что исследование представляет угрозу для общества. Ясон Габриэль, научный сотрудник Google DeepMind в Лондоне, который является одним из руководителей процесса проверки этики конференции, сказал, что изменение было необходимо, чтобы помочь ИИ «добиться прогресса в этой области».
Этика - это новая территория для информатики. В то время как биологи, психологи и антропологи привыкли к обзорам, которые ставят под сомнение этичность их исследований, компьютерных ученых так не воспитывали. Основное внимание уделяется таким методам, как плагиат и конфликт интересов.
Тем не менее, за последние несколько лет появился ряд групп, заинтересованных в этичном использовании ИИ. Специальная группа по взаимодействию между компьютером и человеком Ассоциации вычислительной техники, например, создала в 2016 году рабочую группу, которая теперь является комитетом по исследованиям в области этики, который предлагает рассматривать документы по просьбе председателей программ конференций. В 2019 году в группу поступило 10 запросов, в основном о методах исследования.
«Все чаще мы видим, особенно в области искусственного интеллекта, все больше и больше вопросов о том, следует ли вообще проводить подобные исследования?» заявила Кэти Шилтон, специалист по информации из Университета Мэриленда и председатель комитета, чтобы Житель Нью-Йорка.
Шилтон выделил четыре категории потенциально неэтичного воздействия. Во-первых, искусственный интеллект, который можно использовать в качестве оружия для борьбы с населением, например, для распознавания лиц, отслеживания местоположения и наблюдения. Во-вторых, такие технологии, как Speech2Face, которые могут «закреплять людей по категориям, которые не подходят», например, по полу или сексуальной ориентации. В-третьих, автоматизированное исследование оружия. В-четвертых, инструменты, используемые для создания альтернативных наборов реальности, таких как фейковые новости, голоса или изображения.
Эта зеленая территория - это авантюра в неизвестность. Ученые-информатики обычно обладают хорошими техническими знаниями. «Но многие и многие люди в компьютерных науках не обучены этике исследований», - заявил Шилтон, отметив, что нелегко сказать, что направление исследований не должно существовать.
Данные о местоположении превращены в оружие для католического священника
Использование технологии отслеживания местоположения в качестве оружия было наглядно продемонстрировано в недавнем опыте католического священника, который был объявлен пользователем приложения для знакомств Grindr и впоследствии ушел в отставку. Католические священники дают обет безбрачия, что противоречит участию в любом сообществе приложений для знакомств.
Инцидент поднял множество этических вопросов. Эта история была опровергнута католическим новостным агентством под названием Pillar, которое каким-то образом получило «сигналы данных приложения от приложения Grindr для привязки на основе местоположения», - говорится в сообщении. перекодировать от Vox. Было неясно, как публикация получила данные о местонахождении, кроме как сказать, что они были от «поставщика данных».
«Вред, причиняемый отслеживанием местоположения, реален и может иметь долгосрочные последствия», - заявил Шон О'Брайен, главный исследователь лаборатории цифровой безопасности ExpressVPN. перекодировать. «Отсутствует значимый надзор за слежкой за смартфонами, и злоупотребление конфиденциальностью, которое мы наблюдали в этом случае, стало возможным благодаря прибыльной и быстроразвивающейся отрасли».
Одним из поставщиков данных в этом бизнесе является X-Mode, который собирает данные от миллионов пользователей через сотни приложений. В прошлом году компания отказалась от платформ Apple и Google из-за своей работы в сфере национальной безопасности с правительством США, согласно сообщению в The Wall Street Journal. Однако компания приобретается Digital Envoy, Inc. из Атланты и будет переименована в Outlogic. Ее генеральный директор Джошуа Антон присоединится к Digital Envoy в качестве директора по стратегии. Цена покупки не разглашается.
Приобретение X-Mode «позволяет нам еще больше расширить наши предложения, связанные с кибербезопасностью, искусственным интеллектом, мошенничеством и управлением правами», - заявил генеральный директор Digital Envoy Джеррод Столлер. «Это позволяет нам вводить новшества в этой области, рассматривая новые решения, использующие оба набора данных. И это также приводит к появлению новых клиентов и новых рынков ».
Digital Envoy специализируется на сборе и предоставлении своим клиентам данных о пользователях Интернета на основе IP-адреса, назначенного им их интернет-провайдером или оператором сотовой связи. Данные могут включать приблизительное местоположение и полезны в коммерческих приложениях, включая рекламу.
X-Mode недавно удалил приложение визуализации под названием XDK и изменил практику, добавив новое руководство о том, откуда берутся данные, согласно аккаунту в Технически. Это второй раз, когда компания проводит ребрендинг с момента ее основания в 2013 году. началось как Drunk Mode.
После приобретения Digital Envoy сообщила в своем заявлении, что добавила новый этический кодекс, группу проверки этики данных, конфиденциальную политику приложений и будет нанимать главного сотрудника по вопросам конфиденциальности.
Читайте исходные статьи и информацию в The New Yorker и отправлять адресату перекодировать от Vox, в The Wall Street Journal и в Технически.
- 000
- 2016
- 2019
- 2020
- Учетная запись
- приобретение
- Реклама
- AI
- Alex
- Amazon
- среди
- приложение
- Apple
- Приложения
- Программы
- архитектура
- около
- статьи
- Атланта
- аудио
- автоматический
- Автоматизированный
- биология
- Немного
- бизнес
- Канада
- вызванный
- Генеральный директор
- изменение
- главный
- клиентов
- код
- Сбор
- коммерческая
- сообщество
- Компании
- Компания
- Информатика
- Компьютерное зрение
- вычисление
- Конференция
- конференции
- конфликт
- Конфликт интересов
- Потребители
- кредит
- Клиенты
- Информационная безопасность
- данным
- этика данных
- конфиденциальность данных
- защита данных
- Знакомства
- дебаты
- DeepMind
- DID
- Интернет
- Разнообразие
- Разнообразие и включение
- Герцог
- сотрудников
- этика
- исполнительный
- руководителей высшего звена.
- опыт
- Face
- распознавания лиц
- всего лишь пяти граммов героина
- не настоящие
- поддельные новости
- фигура
- находит
- First
- соответствовать
- Фокус
- мошенничество
- будущее
- пол
- Общие
- хорошо
- Правительство
- Зелёная
- группы
- Рост
- Наем
- Как
- How To
- HTTPS
- Сотни
- Личность
- IEEE
- Влияние
- Инк
- В том числе
- включение
- промышленность
- информация
- взаимодействие
- интерес
- Интернет
- IP
- IP-адрес
- Поставщик интернет-услуг
- вопросы
- IT
- присоединиться
- знания
- КПМГ
- Наша команда
- изучение
- линия
- расположение
- Лондон
- Длинное
- обучение с помощью машины
- управление
- Области применения:
- Мэриленд
- металл
- двигаться
- Национальная безопасность
- сеть
- нервный
- нейронной сети
- НейриПС
- новые решения
- Новости
- предлагающий
- Предложения
- сотрудник
- Возможность
- Другое
- бумага & картон
- шаблон
- Пенсильвания
- Люди
- личные данные
- мародерство
- Платформы
- политика
- население
- цена
- Основной
- политикой конфиденциальности.
- Продукция
- FitPartner™
- Проект
- защиту
- покупки
- Реальность
- отчету
- исследованиям
- обзоре
- Отзывы
- Наука
- Ученые
- безопасность
- Услуги
- Признаки
- смартфон
- Общество
- Решения
- Space
- специализируется
- Спонсоров
- Этап
- заявление
- Стратегия
- улица
- исследования
- представленный
- наблюдение
- Опрос
- системы
- технологии
- Технический
- технологии
- Технологии
- Будущее
- Источник
- TIE
- время
- Отслеживание
- Тенденции
- Доверие
- Tweet
- Университет
- Университет штата Мэриленд
- Университет Пенсильвании
- us
- правительство США
- пользователей
- Ванкувер
- предприятие
- Вид
- видение
- визуализация
- ГОЛОСА
- Уолл-стрит
- Wall Street Journal
- Руководство пользователя
- КТО
- женщина
- Работа
- год
- лет