«ШІ становить таку ж небезпеку, як і ядерна зброя», — попереджає професор Оксфордського університету

«ШІ становить таку ж небезпеку, як і ядерна зброя», — попереджає професор Оксфордського університету

Вихідний вузол: 1925142

«Згадайте мої слова, ШІ набагато небезпечніший за ядерну зброю. Мене це до біса лякає». Таку заяву зробив генеральний директор Tesla Ілон Маск у 2018 році під час інтерв’ю з Джонатаном Ноланом під час конференції South by Southwest в Остіні, штат Техас. На жаль, Мусь не один. Дослідники та інші відомі експерти також попереджають про небезпеку штучного інтелекту (ШІ). Питання в 1 мільйон фунтів полягає в тому, чи готові ми і що роблять наші уряди та розробники політики, щоб запобігти цій небезпеці?

Незважаючи на те, що нещодавня популярність ChatGPT вивела штучний інтелект у мейнстрім і залучила багатьох до його суспільних переваг, те, що не привертає уваги широкої громадськості, так це темна сторона ШІ. Протягом багатьох років професіонали та технічні працівники хвилювалися, що штучний інтелект (ШІ) забере їхні робочі місця.

Однак експерти вважають, що існують інші більш серйозні ризики та небезпеки, про які варто потурбуватися, зокрема алгоритмічні зміщення, спричинені неправильними даними, які використовує ШІ, глибокі фейки, порушення конфіденційності та багато іншого. Хоча ці небезпеки становлять серйозні ризики для суспільства, дослідники та вчені більше стурбовані тим, як ШІ можна запрограмувати на щось ще небезпечніше: автоматизацію зброї.

Сьогодні штучний інтелект використовується в розробці ройових технологій і боєприпасів, які також називають дронами-камікадзе, як ті, що використовувався в триваючій російсько-українській війні. На відміну від футуристичних роботів, яких ви бачите в деяких науково-фантастичних фільмах, ці дрони використовують раніше існуючі військові платформи, які використовують нові технології ШІ. Ці дрони, по суті, стали автономною зброєю, запрограмованою на вбивство.

Але використання штучного інтелекту для вбивства в міліарних боях — це лише початок. Майкл Осборн — професор ШІ та дослідник машинного навчання в Оксфордському університеті. Він також є співзасновником Mind Foundry. Хоча всі захоплені ChatGPT, професор Осборн зараз попереджає про ризики штучного інтелекту та прогнозує, що передовий штучний інтелект може «становити для нас такий самий ризик, як і для інших видів: дронт — один із прикладів».

На початку цього місяця група дослідників з Оксфордського університету повідомила комітету з науки і технологій у британському парламенті, що штучний інтелект з часом може становити «екзистенціальну загрозу» для людства. Подібно до того, як люди були знищені дронтами, ШІ-машини можуть знищити нас, вони сказали, Times Of London повідомляє.

Під час зустрічі Професор Осборн попередив британських парламентарів, що справді потужний штучний інтелект може вбити всіх на Землі. «ШІ становить таку ж небезпеку, як і ядерна зброя», — сказав він. Професор Осборн також додав, що ризик полягає не в тому, що штучний інтелект не підкоряється своєму програмуванню, а в жорсткому підпорядкуванні йому ненавмисно:

«Надрозумний штучний інтелект, якому наказано покінчити з раком, якщо навести надто спрощений приклад, може виявити, що найпростішим методом є вилучення людей. Згідно з опитуваннями, близько третини дослідників вважають, що ШІ може призвести до глобальної катастрофи. Програми безпеки штучного інтелекту існують, але підприємства та країни ведуть «гонку озброєнь», що ускладнює обережні підходи».

Майкл Коен, колега професора Осбборна та докторант Оксфордського університету, сказав лондонській The Times:

«З надлюдським штучним інтелектом існує особливий ризик, який належить до іншого класу, а саме . . . це може вбити всіх».

Незважаючи на те, що ШІ покращив наше життя, вчені побоюються, що ми ризикуємо пожертвувати людством заради зручності через відсутність у ШІ людської моралі. За словами Коена, один страшний сценарій полягає в тому, що штучний інтелект може навчитися виконувати директиву допомоги людині, використовуючи тактику заподіяння шкоди людині.

«Якщо ви уявите, як дресирувати собаку ласощами: вона навчиться обирати дії, які призведуть до отримання ласощів, але якщо собака знайде шафу з ласощами, вона зможе дістати ласощі сама, не роблячи того, що ми хотіли від неї», — пояснив він. . «Якщо у вас є щось набагато розумніше за нас, яке мономаніально намагається отримати цей позитивний відгук, і для того, щоб забезпечити це, буде взято на себе весь світ, воно спрямує якомога більше енергії на те, щоб закріпити це, і це залишить нас без будь-яких енергії для себе».

Професор Осборн і Майкл Коен – не єдині дослідники, які б’ють на сполох про ризики та небезпеки ШІ. Багато інших вчених, які працюють з штучним інтелектом, висловили подібне занепокоєння. Опитування 2022 дослідників Нью-Йоркського університету у вересні 327 року показало, що третина вважає, що штучний інтелект може спричинити ядерний апокаліпсис протягом століття, пише Times Of London.

Подібні занепокоєння, здається, поділяють багато вчених, які працюють з ШІ. Опитування 2022 дослідників Нью-Йоркського університету у вересні 327 року показало, що третина вважає, що штучний інтелект може спричинити катастрофу, подібну до ядерного апокаліпсису, протягом століття, повідомляє Times Of London.

«Вірогідно, що рішення, прийняті штучним інтелектом або системами машинного навчання, можуть спричинити катастрофу в цьому столітті, яка буде принаймні такою ж поганою, як тотальна ядерна війна», — сказали 36% дослідників.

Незалежно від того, чи пройде через століття, штучний інтелект стає все більш розумним, і, як припускають деякі експерти, нам необхідно зберегти людський контроль і розробити такі механізми, як Вимикач штучного інтелекту контролювати, що ШІ може, а що ні. Поточна відсутність нагляду та відсутність чіткої глобальної політики щодо штучного інтелекту є тривожним дзвінком для урядів у всьому світі. Нам потрібно вжити заходів зараз, поки не пізно.

[Вбудоване вміст]

Нижче ще одне відео про небезпеку ШІ. У відео Стюарт Рассел, британський комп’ютерник, відомий своїм внеском у штучний інтелект, попереджає про ризики, пов’язані зі створенням систем ШІ.

[Вбудоване вміст]


Часова мітка:

Більше від TechStartaps