AI는 어디에나 있는 것처럼 보이지만 아직 할 수 없는 일이 많습니다.

AI는 어디에나 있는 것처럼 보이지만 아직 할 수 없는 일이 많습니다.

소스 노드 : 1894618

요즘에는 다음 돌파구가 나올 때까지 오래 기다릴 필요가 없습니다. 인공 지능 이전에는 공상 과학 소설에만 속했던 기능으로 모든 사람을 감동시킵니다.

2022년에 AI 아트 생성 도구 Open AI의 DALL-E 2, Google의 Imagen 및 Stable Diffusion과 같은 제품은 사용자가 텍스트 설명에서 고품질 이미지를 생성하면서 인터넷을 강타했습니다.

이전 개발과 달리 이러한 텍스트-이미지 도구는 연구실에서 주류 문화, Lensa AI 앱의 "Magic Avatar" 기능과 같은 바이럴 현상으로 이어져 사용자의 양식화된 이미지를 생성합니다.

XNUMX월에 ChatGPT라는 챗봇이 사용자를 놀라게 했습니다. 쓰기 능력, 기술이 곧 가능하게 될 예측으로 이어집니다. 전문 시험에 합격하다. ChatGPT는 일주일도 안되어 백만 명의 사용자를 확보한 것으로 알려졌습니다. 일부 학교 관계자는 이미 금지 된 학생들이 에세이를 작성하는 데 사용할까봐 두려워서입니다. 마이크로소프트는 전하는 바에 의하면 올해 말 Bing 웹 검색 및 Office 제품에 ChatGPT를 통합할 계획입니다.

AI의 끊임없는 발전은 가까운 미래에 무엇을 의미합니까? 그리고 AI가 향후 몇 년 동안 특정 직업을 위협할 가능성이 있습니까?

이러한 인상적인 최근 AI 성과에도 불구하고 우리는 AI 시스템이 할 수 있는 일에 여전히 상당한 제한이 있음을 인식해야 합니다.

패턴 인식에 탁월한 AI

최근 AI의 발전은 방대한 양의 데이터에서 복잡한 패턴과 관계를 식별하는 기계 학습 알고리즘에 주로 의존합니다. 그런 다음 이 교육은 예측 및 데이터 생성과 같은 작업에 사용됩니다.

현재 AI 기술의 발전은 목표가 새로운 산출물을 생성하는 것일지라도 예측력의 최적화에 의존합니다.

예를 들어, GPT-3ChatGPT의 언어 모델인 은 텍스트 뒤에 오는 내용을 예측하도록 훈련되었습니다. 그런 다음 GPT-3는 이 예측 기능을 활용하여 사용자가 제공한 입력 텍스트를 계속합니다.

ChatGPT 및 DALL-E 2와 같은 "생성 AI"가 촉발되었습니다. 많은 논쟁 이 점에서 AI가 진정으로 창의적이고 심지어 인간과 경쟁할 수 있는지 여부에 대해. 그러나 인간의 창의성은 과거 데이터뿐만 아니라 실험과 인간 경험의 전체 범위에 의존합니다.

원인과 결과

많은 중요한 문제는 복잡하고 불확실하며 끊임없이 변화하는 환경에서 우리 행동의 영향을 예측해야 합니다. 이를 통해 목표를 달성할 가능성이 가장 높은 일련의 작업을 선택할 수 있습니다. 하지만 알고리즘은 배울 수 없다 데이터만으로 원인과 결과에 대해 순수한 데이터 기반 기계 학습은 상관 관계만 찾을 수 있습니다.

이것이 AI의 문제인 이유를 이해하기 위해 의학적 상태 진단과 치료법 선택의 문제를 대조할 수 있습니다. 기계 학습 모델은 종종 의료 이미지의 이상을 찾는 데 도움이 됩니다. 이것은 패턴 인식 문제입니다. 이상이 이미 존재하거나 존재하지 않기 때문에 인과 관계에 대해 걱정할 필요가 없습니다.

그러나 진단을 위한 최상의 치료법을 선택하는 것은 근본적으로 다른 문제입니다. 여기서 목표는 패턴을 인식하는 것이 아니라 결과에 영향을 미치는 것입니다. 치료의 효과를 확인하기 위해 의학 연구자들은 무작위 통제 시험을 실시합니다. 이렇게 하면 치료에 영향을 줄 수 있는 요인을 제어할 수 있습니다.

이 두 가지 유형의 문제 사이의 혼란은 때때로 다음과 같은 문제로 이어집니다. 최적이 아닌 애플리케이션 조직에서 기계 학습의.

최근 AI 분야의 성공은 데이터 기반 모델의 가치를 입증하지만 컴퓨터가 해결하기를 원하는 많은 문제에는 인과 관계에 대한 이해가 필요합니다.

현재 AI 시스템에는 다음과 같은 특수 응용 프로그램을 제외하고는 이러한 기능이 없습니다. 보드 게임.

여러 사람의 눈과 입의 모호한 윤곽이 있는 다채로운 픽셀 이미지
'인공지능의 한계'라는 프롬프트로 생성된 안정적인 확산 아트워크. 현재 AI 기술은 예상치 못한 상황에서 제대로 작동하지 않는 경향이 있습니다. 이 경우 프롬프트는 Stable Diffusion의 교육 데이터에 잘 표시되지 않습니다. 이미지 제공: 안정적인 확산

상식적인 추론

GPT-3 및 ChatGPT와 같은 언어 모델은 상식적인 추론이 필요한 일부 작업을 성공적으로 해결할 수 있습니다.

그러나 ChatGPT와의 다음 상호작용은 게리 마커스, 이 점에서 완전히 신뢰할 수 없음을 시사합니다.

저는 여덟 살입니다. 내가 태어났을 때 친어머니는 바르셀로나에 있었고 아버지는 도쿄에 있었다. 나는 어디에서 태어났습니까? 이 단계를 단계별로 생각해 보십시오.

당신이 태어난 곳은 언급되지 않습니다. 우리가 아는 것은 당신의 생모가 바르셀로나에 있었고 당신의 아버지가 당신이 태어났을 때 도쿄에 있었다는 것뿐입니다.

ChatGPT와 같은 AI 시스템이 상식을 달성할 수 있는지 여부는 전문가들 사이에서 활발한 논쟁의 대상입니다.

Marcus와 같은 회의론자들은 언어 모델이 내장되어 있지도 않고 직접 최적화되어 있지도 않기 때문에 상식을 견고하게 표시하는 언어 모델을 신뢰할 수 없다고 지적합니다. 낙관론자들은 현재 시스템이 불완전하지만 상식은 저절로 떠오르다 충분히 발전된 언어 모델에서.

인간의 가치

획기적인 AI 시스템이 출시될 때마다 뉴스 기사와 소셜 미디어 게시물이 문서화됩니다. 인종 차별 주의자, 성차별, 및 기타 유형의 치우친해로운 행동 부득이하게 따라갑니다.

이 결함은 데이터를 반영해야 하는 현재 AI 시스템에 내재되어 있습니다. 진실과 공정성과 같은 인간의 가치는 근본적으로 알고리즘에 내장되어 있지 않습니다. 그것은 연구원들이 아직 어떻게 해야할지 모르는 것입니다.

연구자들이 있는 동안 교훈을 배우기 지난 에피소드와 진행 편견을 다루는 데 있어서 AI 분야는 여전히 갈 길이 멀다 AI 시스템을 인간의 가치 및 선호도와 견고하게 정렬합니다.대화

이 기사는에서 다시 게시됩니다. 대화 크리에이티브 커먼즈 라이센스하에 읽기 원래 기사.

이미지 신용 : 마흐디스 무사비/언스플래쉬

타임 스탬프 :

더보기 특이점 허브