«ИИ представляет такую ​​же опасность, как и ядерное оружие», — предупреждает профессор Оксфордского университета.

«ИИ представляет такую ​​же опасность, как и ядерное оружие», — предупреждает профессор Оксфордского университета.

Исходный узел: 1925142

"Запомни мои слова, ИИ намного опаснее ядерного оружия. Это чертовски пугает меня». Это заявление сделал генеральный директор Tesla Илон Маск в 2018 году во время интервью с Джонатаном Ноланом во время конференции South by Southwest в Остине, штат Техас. К сожалению, Мус не одинок. Исследователи и другие известные эксперты также предупреждают об опасностях искусственного интеллекта (ИИ). Вопрос на миллион фунтов стерлингов заключается в том, готовы ли мы и что делают наши правительства и политики, чтобы предотвратить эту опасность?

В то время как недавняя популярность ChatGPT сделала ИИ мейнстримом и привлекла многих к его социальным преимуществам, темная сторона ИИ не привлекает внимания широкой публики. В течение многих лет профессионалы и технические работники беспокоились о том, что искусственный интеллект (ИИ) лишит их работы.

Тем не менее, эксперты считают, что существуют и другие, более серьезные риски и опасности, о которых следует беспокоиться, включая алгоритмическую предвзятость, вызванную неверными данными, используемыми ИИ, глубокие подделки, нарушения конфиденциальности и многое другое. Хотя эти опасности представляют серьезную опасность для общества, исследователей и ученых больше беспокоит то, как можно запрограммировать ИИ на нечто еще более опасное: на автоматизацию оружия.

Сегодня ИИ используется для разработки роящихся технологий и барражирующих боеприпасов, также называемых дронами-камикадзе. использовался в продолжающейся российско-украинской войне. В отличие от футуристических роботов, которых вы видите в некоторых научно-фантастических фильмах, эти дроны используют ранее существовавшие военные платформы, которые используют новые технологии искусственного интеллекта. Эти дроны, по сути, стали автономным оружием, запрограммированным на убийство.

Но использование ИИ для убийства в миллиарном бою — это только начало. Майкл Осборн — профессор искусственного интеллекта и исследователь машинного обучения в Оксфордском университете. Он также является соучредителем Mind Foundry. В то время как все увлечены ChatGPT, профессор Осборн теперь предупреждает о рисках, связанных с ИИ, и прогнозирует, что продвинутый ИИ может «представить для нас такой же большой риск, как и мы для других видов: додо — один из примеров».

В начале этого месяца группа исследователей из Оксфордского университета заявила комитету по науке и технологиям в британском парламенте, что ИИ может в конечном итоге представлять «экзистенциальную угрозу» человечеству. Так же, как люди были уничтожены дронтами, машины с искусственным интеллектом могут уничтожить нас, сказали они, The Times Of London переправу.

Во время встречи Профессор Осборн предупредил британских парламентариев, что по-настоящему мощный искусственный интеллект может убить всех на Земле. «ИИ представляет такую ​​же опасность, как и ядерное оружие», — сказал он. Профессор Осборн также добавил, что риск заключается не в том, что ИИ не подчиняется своему программированию, а в том, что он жестко подчиняется ему непреднамеренным образом:

«Сверхразумный ИИ, которому поручили покончить с раком, если привести упрощенный пример, может обнаружить, что самый простой способ — это удаление людей. При опросе около трети исследователей считают, что ИИ может привести к глобальной катастрофе. Программы безопасности ИИ существуют, но компании и страны вовлечены в «гонку вооружений», что затрудняет осторожные подходы».

Майкл Коэн, коллега профессора Осбборна и докторант Оксфордского университета, сказал The Times of London:

«Сверхчеловеческий ИИ сопряжен с особым риском другого класса, а именно… . . это может убить всех».

Хотя ИИ улучшил нашу жизнь, ученые опасаются, что мы рискуем пожертвовать человечеством ради удобства из-за отсутствия у ИИ человеческой морали. Один пугающий сценарий, по словам Коэна, заключается в том, что ИИ может научиться выполнять директиву о помощи человеку, используя тактику причинения вреда человеку.

«Если представить себе дрессировку собаки с угощениями: она научится выбирать действия, которые приведут к получению угощений, но если собака найдет шкафчик с угощениями, она сможет получить угощения сама, не делая того, что мы от нее хотели», — объяснил он. . «Если у вас есть что-то гораздо более умное, чем мы, мономаниакально пытающееся получить эту положительную обратную связь, и оно захватило весь мир, чтобы обеспечить это, оно направит столько энергии, сколько сможет, на то, чтобы удержать это, и это оставит нас без каких-либо энергию для себя».

Профессор Осборн и Майкл Коэн — не единственные два исследователя, которые бьют тревогу о рисках и опасностях ИИ. Многие другие ученые, работающие с ИИ, выражали аналогичные опасения. Опрос 2022 исследователей из Нью-Йоркского университета, проведенный в сентябре 327 года, показал, что треть считает, что ИИ может вызвать ядерный апокалипсис в течение столетия, сообщает Times Of London.

Подобные опасения, по-видимому, разделяют многие ученые, работающие с ИИ. Опрос 2022 исследователей из Нью-Йоркского университета, проведенный в сентябре 327 года, показал, что треть полагает, что ИИ может вызвать катастрофу, подобную ядерному апокалипсису, в течение столетия, сообщает Times Of London.

«Вполне вероятно, что решения, принятые системами искусственного интеллекта или машинного обучения, могут привести к катастрофе в этом столетии, по крайней мере, такой же серьезной, как тотальная ядерная война», — заявили 36% исследователей.

Будь то век спустя, ИИ становится все более умным, и, как предположили некоторые эксперты, крайне важно, чтобы мы сохранили человеческий контроль и разработали такие механизмы, как Выключатель ИИ контролировать, что ИИ может и чего не может делать. Нынешнее отсутствие надзора и четкой глобальной политики в области искусственного интеллекта является тревожным сигналом для правительств во всем мире. Мы должны принять меры сейчас, пока не стало слишком поздно.

[Встраиваемое содержимое]

Ниже еще одно видео об опасности ИИ. В видео Стюарт Рассел, британский ученый-компьютерщик, известный своим вкладом в искусственный интеллект, предупреждает о рисках, связанных с созданием систем ИИ.

[Встраиваемое содержимое]


Отметка времени:

Больше от Техстартапы