Чи могли такі фільми, як Термінатор, сформувати наші страхи перед ШІ?

Чи могли такі фільми, як Термінатор, сформувати наші страхи перед ШІ?

Вихідний вузол: 2122110

Генеральний директор Британського комп’ютерного товариства Рашик Пармар вважає, що загрози ШІ людству перебільшені. Він сказав, що занепокоєння, які висловлюють, «грають на страхах, які є у більшості суспільства» і були сформовані популярними науково-фантастичними фільмами, такими як «Термінатор» і «Ex Machina».

Його коментарі з’явилися після недавньої заяви американського Центру безпеки штучного інтелекту, який попередив про «ризик зникнення від ШІ». Підписано генеральними директорами OpenAI і Google лист каже, що до ризиків слід ставитися так само терміново, як до пандемій і ядерної війни.

«Повинен бути здоровий скептицизм щодо великих технологій і того, як вони використовують штучний інтелект, тому регулювання є ключовим для завоювання довіри громадськості», — сказав Пармар, колишній головний технічний директор IBM у Європі, Близькому Сході та Африці, згідно з місцевими ЗМІ. звіти.

«Але багато наших вкорінених страхів і хвилювань також походять із фільмів, засобів масової інформації та книг, як-от характеристики штучного інтелекту в «Ex Machina», «Термінатор», і навіть повертаючись до ідей Айзека Азімова, які надихнули фільм «Я, робот».

Читайте також: Кодекс поведінки штучного інтелекту з’явиться «протягом кількох тижнів», йдеться в США та Європі

Фільми підживлюють страхи ШІ

Розвиток штучного інтелекту викликав занепокоєння щодо його потенціалу використання для шкідливих цілей, таких як дискримінація, стеження та ядерна війна. Також були занепокоєння щодо потенціалу штучного інтелекту для створення масового безробіття.

У березні кілька світил, зокрема співзасновник Apple Стів Возняк, мільярдер Ілон Маск, Гері Маркус та інші, підписали відкритий лист закликаючи до шестимісячного мораторію на навчання ШІ великими мовами у світі.

А потім Джеффрі Хінтон – вважається «хрещеним батьком штучного інтелекту» – залишив роботу в Google минулого місяця з попередженням, що це може посилити дезінформацію та спричинити масові втрати робочих місць.

На думку американського комп’ютерника Елізера Юдковскі, ризики штучного інтелекту неможливо контролювати лише за допомогою регулювання. Він вважає, що розвиток штучного інтелекту становить загрозу існуванню людства і що єдиний спосіб впоратися із загрозою – закрити все це повністю.

Чи могли науково-фантастичні фільми, такі як «Термінатор», сформувати наші страхи перед ШІ?

Термінатор

Пармар пояснив, що люди, які більше знайомі зі штучним інтелектом через голлівудські фільми, частіше вірять, що він становить загрозу для людства. Він сказав, що занепокоєння, які висловлюються, «грають на страхах, які є у більшості суспільства».

«Вони походять від того, що бачили у фільмах. Вони дивовижні, ти дивишся «Термінатор» і думаєш, що він реальний і що він прийде і вб’є тебе будь-якої секунди», сказав Пармар.

«Це машина для вбивств, яка у фільмах використовує штучний інтелект по-різному – інтерпретуючи те, що було зроблено, прогнозуючи майбутнє та реагуючи на різні ситуації. ШІ прямо не згадується, але ви знаєте, що це робить ШІ», – додав він.

Відповідальний розвиток

У таких науково-фантастичних фільмах, як «Термінатор», «Ex Machina» та «Матриця», штучний інтелект часто зображується як загроза людству. У фільмах зображені системи штучного інтелекту, які усвідомлюють себе та вирішують знищити своїх творців-людей.

Незважаючи на те, що фільми є вигадкою, вони допомогли сформувати суспільне сприйняття ШІ, за словами Пармара. Він зауважив, що штучний інтелект не такий потужний, як Голлівуд бажає вам повірити, і що системи ще не здатні самостійно думати чи діяти.

«Штучний інтелект — це лише трохи програмного забезпечення, і жодне програмне забезпечення не має жодного наміру, воно нерозумне», — заявив Пармар, закликаючи до балансу та відповідальності у розробці штучного інтелекту.

«Існують законні занепокоєння щодо ШІ, тому ми повинні переконатися, що він розвивається відповідально», — сказав він.

«Його мають розробити професіонали з питань етики, які вірять у спільний кодекс поведінки». The Британське комп'ютерне товариство головний виконавчий директор звинуватив ЗМІ в тому, що вони «підживлюють ці страхи», щоб створити неправильні уявлення про небезпеку ШІ.

«Чи мають змінитися фільми та ЗМІ? Ні. Це лише доводить, що нам потрібно більше публічної освіти про реальність ШІ, щоб він був частиною навичок і навчання, які ми отримуємо, коли ми дуже молоді», – додав Пармар.

Регулювання ШІ

Останніми місяцями регулятори з усього світу почали приділяти більше уваги ШІ. Минулого тижня віце-президент Європейської комісії Маргрете Вестагер сказав ЄС і Сполучені Штати розраховують розробити добровільний кодекс поведінки щодо штучного інтелекту протягом кількох тижнів.

Вона сказала, що США та ЄС повинні просувати добровільний кодекс поведінки для ШІ, щоб забезпечити гарантії, оскільки розробляється нове законодавство. У травні лідери так званих країн G7 зустрілися в Японії та закликали до розробки технічних стандартів, щоб зберегти ШІ «надійним».

Адміністрація кіберпростору Китаю вже випустила нові правила, які забороняють використання створеного штучним інтелектом контенту для поширення «фейкових новин». В Австралії міністр промисловості та науки Ед Хусік заявив, що скоро буде введено регулювання.

ПОДІЛИТИСЯ ЦІЄЮ ПУБЛІКАЦІЄЮ

Часова мітка:

Більше від МетаНовини