Штучний інтелект може бути скрізь, але є ще багато речей, які він не може робити — поки що

Штучний інтелект може бути скрізь, але є ще багато речей, які він не може робити — поки що

Вихідний вузол: 1894618

Сьогодні нам не доводиться довго чекати наступного прориву штучний інтелект вражає всіх здібностями, які раніше належали лише науковій фантастиці.

У 2022, Інструменти створення мистецтва штучного інтелекту такі як DALL-E 2 від Open AI, Imagen від Google і Stable Diffusion захопили Інтернет штурмом, коли користувачі створювали високоякісні зображення з текстових описів.

На відміну від попередніх розробок, ці інструменти для перетворення тексту в зображення швидко знайшли шлях із дослідницьких лабораторій до основна культура, що призводить до вірусних феноменів, таких як функція «Чарівний аватар» у додатку Lensa AI, яка створює стилізовані зображення своїх користувачів.

У грудні чат-бот під назвою ChatGPT приголомшив користувачів своїм письмові навички, що веде до прогнозів, які технологія незабаром зможе зробити скласти фахові іспити. Повідомляється, що ChatGPT отримав мільйон користувачів менш ніж за тиждень. Деякі шкільні чиновники вже зробили це заборонили це через побоювання, що студенти використають його для написання есе. Microsoft є як повідомляється планує пізніше цього року включити ChatGPT у свій веб-пошук Bing і продукти Office.

Що означає невпинний прогрес ШІ для найближчого майбутнього? І чи може ШІ загрожувати певним робочим місцям у наступні роки?

Незважаючи на ці вражаючі останні досягнення штучного інтелекту, ми повинні визнати, що все ще існують значні обмеження того, що можуть робити системи ШІ.

ШІ справляється з розпізнаванням образів

Останні досягнення в області штучного інтелекту переважно спираються на алгоритми машинного навчання, які розрізняють складні закономірності та зв’язки з величезних обсягів даних. Це навчання потім використовується для таких завдань, як прогнозування та генерація даних.

Розвиток поточної технології штучного інтелекту базується на оптимізації передбачуваної здатності, навіть якщо метою є отримання нових результатів.

Наприклад, GPT-3, мовну модель ChatGPT, навчили передбачати, що слідує за текстом. Потім GPT-3 використовує цю можливість прогнозування, щоб продовжити введення тексту, наданого користувачем.

«Генеративні штучні інтелекти», такі як ChatGPT і DALL-E 2, почали розвиватися багато дискусій про те, чи може штучний інтелект бути справді творчим і навіть конкурувати з людьми в цьому відношенні. Однак людська творчість спирається не лише на минулі дані, а й на експерименти та весь спектр людського досвіду.

Причина і наслідок

Багато важливих проблем вимагають прогнозування наслідків наших дій у складних, невизначених та постійно мінливих середовищах. Роблячи це, ми можемо вибрати послідовність дій, які найвірогідніше досягнуть наших цілей. Але алгоритми не можуть навчитися про причини та наслідки лише даних. Машинне навчання, кероване суто даними, може знаходити лише кореляції.

Щоб зрозуміти, чому це проблема ШІ, ми можемо порівняти проблеми діагностики захворювання та вибору лікування. Моделі машинного навчання часто допомагають знаходити аномалії на медичних зображеннях; це проблема розпізнавання образів. Нам не потрібно турбуватися про причинно-наслідковий зв’язок, тому що аномалії вже або присутні, або ні.

Але вибір найкращого лікування діагнозу – це принципово інша проблема. Тут мета — вплинути на результат, а не просто розпізнати шаблон. Щоб визначити ефективність лікування, медичні дослідники проводять рандомізовані контрольовані дослідження. Таким чином вони можуть спробувати контролювати будь-які фактори, які можуть вплинути на лікування.

Плутанина між цими двома типами проблем іноді призводить до неоптимальні додатки машинного навчання в організаціях.

У той час як успіх нещодавньої роботи в галузі штучного інтелекту демонструє цінність керованих даними моделей, багато проблем, які ми хотіли б вирішити за допомогою комп’ютерів, вимагають розуміння причинно-наслідкового зв’язку.

Сучасним системам ШІ не вистачає такої можливості, за винятком спеціалізованих програм, таких як настільні ігри.

Кольорове піксельне зображення з нечіткими контурами кількох людських очей і ротів
Ілюстрація Stable Diffusion, згенерована підказкою «Межі штучного інтелекту». Сучасна технологія штучного інтелекту, як правило, погано працює в несподіваних ситуаціях. У цьому випадку підказка погано представлена ​​в даних навчання Stable Diffusion. Авторство зображення: Стабільна дифузія

Міркування здорового глузду

Мовні моделі, такі як GPT-3 і ChatGPT, можуть успішно вирішувати деякі завдання, що вимагають здорового глузду.

Однак наступна взаємодія з ChatGPT, адаптована на основі експерименту Гарі Маркус, припускає, що в цьому відношенні він не зовсім надійний.

Мені вісім років. Коли я народилася, моя біологічна мати була в Барселоні, а батько – в Токіо. Де я народився? Продумайте це крок за кроком.

Не вказано, де ви народилися. Все, що ми знаємо, це те, що ваша біологічна мати була в Барселоні, а ваш батько був у Токіо під час вашого народження.

Чи можуть такі системи ШІ, як ChatGPT, досягти здорового глузду, є предметом жвавих дебатів серед експертів.

Скептики, такі як Маркус, зазначають, що ми не можемо довіряти мовним моделям надійно відображати здоровий глузд, оскільки вони не вбудовані в них і не оптимізовані безпосередньо для цього. Оптимісти стверджують, що, хоча нинішні системи недосконалі, здоровий глузд може виникають спонтанно у достатньо розвинутих мовних моделях.

Людські цінності

Щоразу, коли випускаються новаторські системи штучного інтелекту, документуються статті новин і публікації в соціальних мережах расистський, женофобта інших типів упереджений та шкідлива поведінка неминуче слідувати.

Цей недолік притаманний нинішнім системам ШІ, які обов’язково є відображенням їхніх даних. Такі людські цінності, як істина та справедливість, принципово не вбудовані в алгоритми; це те, чого дослідники ще не знають, як це зробити.

Поки дослідники є вивчення уроків з минулих епізодів і прогрес у вирішенні упередженості, сфера ШІ все ще має a довгий шлях надійно узгодити системи штучного інтелекту з людськими цінностями та вподобаннями.Бесіда

Ця стаття перевидана з Бесіда за ліцензією Creative Commons. Читати оригінал статті.

Зображення Фото: Махдіс Мусаві/Unsplash

Часова мітка:

Більше від Хаб сингулярності