"Запомни мои слова, ИИ намного опаснее ядерного оружия. Это чертовски пугает меня». Это заявление сделал генеральный директор Tesla Илон Маск в 2018 году во время интервью с Джонатаном Ноланом во время конференции South by Southwest в Остине, штат Техас. К сожалению, Мус не одинок. Исследователи и другие известные эксперты также предупреждают об опасностях искусственного интеллекта (ИИ). Вопрос на миллион фунтов стерлингов заключается в том, готовы ли мы и что делают наши правительства и политики, чтобы предотвратить эту опасность?
В то время как недавняя популярность ChatGPT сделала ИИ мейнстримом и привлекла многих к его социальным преимуществам, темная сторона ИИ не привлекает внимания широкой публики. В течение многих лет профессионалы и технические работники беспокоились о том, что искусственный интеллект (ИИ) лишит их работы.
Тем не менее, эксперты считают, что существуют и другие, более серьезные риски и опасности, о которых следует беспокоиться, включая алгоритмическую предвзятость, вызванную неверными данными, используемыми ИИ, глубокие подделки, нарушения конфиденциальности и многое другое. Хотя эти опасности представляют серьезную опасность для общества, исследователей и ученых больше беспокоит то, как можно запрограммировать ИИ на нечто еще более опасное: на автоматизацию оружия.
Сегодня ИИ используется для разработки роящихся технологий и барражирующих боеприпасов, также называемых дронами-камикадзе. использовался в продолжающейся российско-украинской войне. В отличие от футуристических роботов, которых вы видите в некоторых научно-фантастических фильмах, эти дроны используют ранее существовавшие военные платформы, которые используют новые технологии искусственного интеллекта. Эти дроны, по сути, стали автономным оружием, запрограммированным на убийство.
Но использование ИИ для убийства в миллиарном бою — это только начало. Майкл Осборн — профессор искусственного интеллекта и исследователь машинного обучения в Оксфордском университете. Он также является соучредителем Mind Foundry. В то время как все увлечены ChatGPT, профессор Осборн теперь предупреждает о рисках, связанных с ИИ, и прогнозирует, что продвинутый ИИ может «представить для нас такой же большой риск, как и мы для других видов: додо — один из примеров».
В начале этого месяца группа исследователей из Оксфордского университета заявила комитету по науке и технологиям в британском парламенте, что ИИ может в конечном итоге представлять «экзистенциальную угрозу» человечеству. Так же, как люди были уничтожены дронтами, машины с искусственным интеллектом могут уничтожить нас, сказали они, The Times Of London переправу.
Во время встречи Профессор Осборн предупредил британских парламентариев, что по-настоящему мощный искусственный интеллект может убить всех на Земле. «ИИ представляет такую же опасность, как и ядерное оружие», — сказал он. Профессор Осборн также добавил, что риск заключается не в том, что ИИ не подчиняется своему программированию, а в том, что он жестко подчиняется ему непреднамеренным образом:
«Сверхразумный ИИ, которому поручили покончить с раком, если привести упрощенный пример, может обнаружить, что самый простой способ — это удаление людей. При опросе около трети исследователей считают, что ИИ может привести к глобальной катастрофе. Программы безопасности ИИ существуют, но компании и страны вовлечены в «гонку вооружений», что затрудняет осторожные подходы».
Майкл Коэн, коллега профессора Осбборна и докторант Оксфордского университета, сказал The Times of London:
«Сверхчеловеческий ИИ сопряжен с особым риском другого класса, а именно… . . это может убить всех».
Хотя ИИ улучшил нашу жизнь, ученые опасаются, что мы рискуем пожертвовать человечеством ради удобства из-за отсутствия у ИИ человеческой морали. Один пугающий сценарий, по словам Коэна, заключается в том, что ИИ может научиться выполнять директиву о помощи человеку, используя тактику причинения вреда человеку.
«Если представить себе дрессировку собаки с угощениями: она научится выбирать действия, которые приведут к получению угощений, но если собака найдет шкафчик с угощениями, она сможет получить угощения сама, не делая того, что мы от нее хотели», — объяснил он. . «Если у вас есть что-то гораздо более умное, чем мы, мономаниакально пытающееся получить эту положительную обратную связь, и оно захватило весь мир, чтобы обеспечить это, оно направит столько энергии, сколько сможет, на то, чтобы удержать это, и это оставит нас без каких-либо энергию для себя».
Профессор Осборн и Майкл Коэн — не единственные два исследователя, которые бьют тревогу о рисках и опасностях ИИ. Многие другие ученые, работающие с ИИ, выражали аналогичные опасения. Опрос 2022 исследователей из Нью-Йоркского университета, проведенный в сентябре 327 года, показал, что треть считает, что ИИ может вызвать ядерный апокалипсис в течение столетия, сообщает Times Of London.
Подобные опасения, по-видимому, разделяют многие ученые, работающие с ИИ. Опрос 2022 исследователей из Нью-Йоркского университета, проведенный в сентябре 327 года, показал, что треть полагает, что ИИ может вызвать катастрофу, подобную ядерному апокалипсису, в течение столетия, сообщает Times Of London.
«Вполне вероятно, что решения, принятые системами искусственного интеллекта или машинного обучения, могут привести к катастрофе в этом столетии, по крайней мере, такой же серьезной, как тотальная ядерная война», — заявили 36% исследователей.
Будь то век спустя, ИИ становится все более умным, и, как предположили некоторые эксперты, крайне важно, чтобы мы сохранили человеческий контроль и разработали такие механизмы, как Выключатель ИИ контролировать, что ИИ может и чего не может делать. Нынешнее отсутствие надзора и четкой глобальной политики в области искусственного интеллекта является тревожным сигналом для правительств во всем мире. Мы должны принять меры сейчас, пока не стало слишком поздно.
[Встраиваемое содержимое]
Ниже еще одно видео об опасности ИИ. В видео Стюарт Рассел, британский ученый-компьютерщик, известный своим вкладом в искусственный интеллект, предупреждает о рисках, связанных с созданием систем ИИ.
[Встраиваемое содержимое]
- SEO-контент и PR-распределение. Получите усиление сегодня.
- Платоблокчейн. Интеллект метавселенной Web3. Расширение знаний. Доступ здесь.
- Источник: https://techstartups.com/2023/01/28/ai-is-as-comparable-a-danger-as-nuclear-weapons-oxford-university-researchers-warn/
- 2018
- 2022
- 7
- a
- искусственный интеллект
- О нас
- AC
- По
- Достигать
- Действие
- действия
- добавленный
- продвинутый
- AI
- Системы искусственного интеллекта
- Поддержка
- Часы работы
- алгоритмический
- алгоритмический уклон
- в одиночестве
- и
- Другой
- появиться
- подходы
- около
- искусственный
- искусственный интеллект
- Искусственный интеллект (AI)
- внимание
- Остин
- автономный
- Плохой
- плохие данные
- становиться
- становление
- до
- начало
- не являетесь
- верить
- Колокол
- Преимущества
- смещение
- приносить
- Британская
- принес
- бизнес
- призывают
- под названием
- Объявления
- Может получить
- рак
- не могу
- Вызывать
- вызванный
- осторожный
- Век
- Генеральный директор
- ChatGPT
- класс
- Очистить
- Соучредитель
- коллега
- борьбы с
- комитет
- сравнимый
- компьютер
- обеспокоенный
- Обеспокоенность
- Конференция
- содержание
- взносы
- контроль
- удобство
- может
- страны
- создание
- Текущий
- ОПАСНО!
- опасно
- Опасности
- темно
- данным
- решения
- глубоко
- Глубокие подделки
- развивать
- развивающийся
- Разработка
- различный
- трудный
- направлять
- катастрофа
- DODO
- Собака
- дело
- беспилотники
- в течение
- земля
- Простейший
- ликвидировать
- Элон
- Elon Musk
- встроенный
- энергетика
- занятый
- сущность
- Эфир (ETH)
- Даже
- со временем
- все члены
- пример
- существующий
- эксперты
- эксперты считают
- объяснены
- выраженный
- страх
- Обратная связь
- Найдите
- находит
- найденный
- Литейная
- от
- футуристический
- получение
- Общие
- широкая публика
- получить
- получающий
- Дайте
- Глобальный
- Правительства
- группы
- держать
- Как
- HTTPS
- человек
- Человечество
- Людей
- императив
- улучшенный
- in
- В том числе
- все больше и больше
- INSANE
- Интеллекта
- Интервью
- вовлеченный
- IT
- саму трезвость
- Джобс
- Убийство
- известный
- Отсутствие
- Поздно
- вести
- УЧИТЬСЯ
- изучение
- Оставлять
- Кредитное плечо
- Живет
- Лондон
- машина
- обучение с помощью машины
- Продукция
- сделанный
- Mainstream
- сделать
- многих
- заседания
- метод
- Майкл
- может быть
- военный
- против
- Месяц
- мораль
- БОЛЕЕ
- Кино
- Маск:
- Необходимость
- Новые
- New York
- Нью-Йоркский университет
- ядерный
- Ядерное оружие
- ONE
- постоянный
- Другие контрактные услуги
- надзор
- Oxford
- Оксфордский университет
- парламент
- особый
- выбирать
- Платформы
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- политика
- популярность
- положительный
- мощный
- подготовленный
- предварительно
- политикой конфиденциальности.
- профессионалы
- Профессор
- запрограммированный
- Программирование
- Программы
- что такое варган?
- вопрос
- последний
- удаление
- Знаменитый
- Сообщается
- исследователь
- исследователи
- Снижение
- рисках,
- Роботы
- пожертвовав
- Сохранность
- Сказал
- Сакэ
- научно-фантастический
- Наука
- Наука и технологии
- Ученый
- Ученые
- безопасный
- обеспечение
- сентябрь
- серьезный
- общие
- аналогичный
- умный
- умнее
- социальный
- Общество
- некоторые
- удалось
- Южная
- заявление
- "Студент"
- такие
- сверхчеловеческий
- Опрос
- Коммутатор
- системы
- тактика
- взять
- с
- технологии
- технологии
- Технологии
- Техас
- Ассоциация
- мир
- их
- В третьих
- раз
- в
- слишком
- Обучение
- лечить
- относится к
- Университет
- us
- использование
- Видео
- Нарушения
- стремятся
- войны
- предупреждение
- предупреждает
- способы
- Оружие
- Что
- который
- в то время как
- КТО
- будете
- в
- без
- слова
- Работа
- рабочие
- Мир
- беспокоиться
- бы
- лет
- YouTube
- зефирнет