ИИ может казаться везде, но есть еще много вещей, которые он не может сделать — пока

ИИ может казаться везде, но есть еще много вещей, которые он не может сделать — пока

Исходный узел: 1894618

В наши дни нам не приходится долго ждать следующего прорыва в искусственный интеллект впечатляет всех возможностями, которые раньше принадлежали только научной фантастике.

В 2022 Инструменты искусственного интеллекта для создания артов такие как DALL-E 2 от Open AI, Imagen от Google и Stable Diffusion покорили Интернет, а пользователи создавали высококачественные изображения из текстовых описаний.

В отличие от предыдущих разработок, эти инструменты преобразования текста в изображение быстро нашли свое применение в исследовательских лабораториях. основная культура, что приводит к вирусным явлениям, таким как функция «Волшебный аватар» в приложении Lensa AI, которая создает стилизованные изображения своих пользователей.

В декабре чат-бот под названием ChatGPT ошеломил пользователей своим навыков письма, что привело к предсказаниям, что технология скоро сможет сдать профессиональные экзамены. Сообщается, что ChatGPT набрал один миллион пользователей менее чем за неделю. Некоторые школьные чиновники уже запретили его опасаясь, что студенты будут использовать его для написания эссе. Майкрософт это , по имеющимся данным планирует включить ChatGPT в свой веб-поиск Bing и продукты Office в конце этого года.

Что означает неумолимый прогресс в области ИИ в ближайшем будущем? И может ли ИИ угрожать некоторым рабочим местам в ближайшие годы?

Несмотря на эти впечатляющие недавние достижения в области искусственного интеллекта, мы должны признать, что возможности систем искусственного интеллекта все еще ограничены.

ИИ преуспевает в распознавании образов

Недавние достижения в области искусственного интеллекта в основном основаны на алгоритмах машинного обучения, которые выделяют сложные закономерности и взаимосвязи в огромных объемах данных. Это обучение затем используется для таких задач, как прогнозирование и генерация данных.

Развитие современной технологии искусственного интеллекта зависит от оптимизации прогностической способности, даже если целью является получение новых результатов.

Например, GPT-3, языковая модель, лежащая в основе ChatGPT, была обучена предсказывать, что следует за фрагментом текста. Затем GPT-3 использует эту прогнозирующую способность для продолжения ввода текста, заданного пользователем.

«Генеративный ИИ», такой как ChatGPT и DALL-E 2, зажег много споров о том, может ли ИИ быть по-настоящему творческим и даже соперничать с людьми в этом отношении. Однако человеческое творчество опирается не только на прошлые данные, но и на эксперименты и весь спектр человеческого опыта.

Причина и следствие

Многие важные проблемы требуют прогнозирования последствий наших действий в сложных, неопределенных и постоянно меняющихся условиях. Сделав это, мы можем выбрать последовательность действий, наиболее вероятную для достижения наших целей. Но алгоритмы не могут учиться о причинах и следствиях только из данных. Машинное обучение, основанное исключительно на данных, может находить только корреляции.

Чтобы понять, почему это проблема для ИИ, мы можем противопоставить проблемы диагностики заболевания и выбора лечения. Модели машинного обучения часто помогают находить аномалии на медицинских изображениях; это проблема распознавания образов. Нам не нужно беспокоиться о причинно-следственной связи, потому что аномалии уже либо присутствуют, либо нет.

Но выбор оптимального лечения для диагноза – это принципиально иная проблема. Здесь цель состоит в том, чтобы повлиять на результат, а не просто распознать закономерность. Чтобы определить эффективность лечения, медицинские исследователи проводят рандомизированные контролируемые испытания. Таким образом, они могут попытаться контролировать любые факторы, которые могут повлиять на лечение.

Смешение этих двух типов проблем иногда приводит к неоптимальные приложения машинного обучения в организациях.

Хотя успех недавних работ в области ИИ демонстрирует ценность моделей, управляемых данными, многие проблемы, которые мы хотели бы решить с помощью компьютеров, требуют понимания причинно-следственных связей.

Современные системы искусственного интеллекта лишены этой возможности, за исключением специализированных приложений, таких как настольные игры.

Красочное пикселизированное изображение с нечеткими очертаниями нескольких человеческих глаз и ртов.
Работа Stable Diffusion, созданная по подсказке «Пределы искусственного интеллекта». Современные технологии искусственного интеллекта имеют тенденцию плохо работать в неожиданных ситуациях. В этом случае подсказка не очень хорошо представлена ​​в обучающих данных Stable Diffusion. Кредит изображения: Стабильная диффузия

Рассуждения здравого смысла

Языковые модели, такие как GPT-3 и ChatGPT, могут успешно решать некоторые задачи, требующие логических рассуждений.

Однако следующее взаимодействие с ChatGPT, адаптированное из эксперимента Гэри Маркус, предполагает, что он не совсем надежен в этом отношении.

Мне восемь лет. Когда я родился, моя биологическая мать была в Барселоне, а отец в Токио. Где я родился? Продумайте это шаг за шагом.

Не указано, где вы родились. Все, что мы знаем, это то, что ваша биологическая мать была в Барселоне, а ваш отец был в Токио во время вашего рождения.

Могут ли системы искусственного интеллекта, такие как ChatGPT, достичь здравого смысла, является предметом оживленных споров среди экспертов.

Такие скептики, как Маркус, отмечают, что мы не можем доверять языковым моделям, чтобы они надежно отображали здравый смысл, поскольку он не встроен в них и не оптимизирован для него напрямую. Оптимисты утверждают, что, хотя нынешние системы несовершенны, здравый смысл может спонтанно возникать в достаточно продвинутых языковых моделях.

Человеческие ценности

Всякий раз, когда выпускаются новаторские системы искусственного интеллекта, новостные статьи и сообщения в социальных сетях документируют расистский, женофоб, и другие типы пристрастный и вредное поведение неизбежно последует.

Этот недостаток присущ современным системам искусственного интеллекта, которые неизбежно отражают их данные. Человеческие ценности, такие как правда и справедливость, принципиально не встроены в алгоритмы; это то, что исследователи еще не знают, как это сделать.

В то время как исследователи учить уроки из прошлых серий и прогресс в устранении предвзятости область ИИ по-прежнему имеет большое значение. долгий путь надежно согласовать системы ИИ с человеческими ценностями и предпочтениями.Беседа

Эта статья переиздана из Беседа под лицензией Creative Commons. Прочтите оригинал статьи.

Изображение Фото: Махдис Мусави/Unsplash

Отметка времени:

Больше от Singularity Hub