Sztuczna inteligencja jest trudniejsza, niż nam się wydaje: 4 kluczowe błędy w badaniach nad sztuczną inteligencją

Węzeł źródłowy: 841691

Sztuczna inteligencja była na pierwszych stronach gazet od prawie dziesięciu lat, ponieważ systemy od dawna poczyniły szybkie postępy AI wyzwania, takie jak rozpoznawanie obrazu, przetwarzanie języka naturalnego i gry. Firmy technologiczne wdrożyły algorytmy uczenia maszynowego do wyszukiwarek i rekomendacji, systemów rozpoznawania twarzy oraz OpenAI GPT-3 i DeepMind's AlfaFold obiecują jeszcze bardziej praktyczne zastosowania, od pisania, przez kodowanie, po odkrycia naukowe.

Rzeczywiście, jesteśmy w środku wiosny sztucznej inteligencji, z kwitnącymi inwestycjami w technologię i nadrzędnym uczuciem optymizmu i możliwości w zakresie tego, co może osiągnąć i kiedy.

Ten czas może wydawać się inny niż poprzednie sprężyny sztucznej inteligencji ze względu na wyżej wymienione praktyczne zastosowania i rozprzestrzenianie się wąskiej sztucznej inteligencji na technologie, z których wielu z nas korzysta na co dzień - takie jak nasze smartfony, telewizory, samochody i odkurzacze, by wymienić tylko kilka. Możliwe jest jednak również, że znajdujemy się na fali krótkoterminowych postępów w dziedzinie sztucznej inteligencji, która wkrótce stanie się częścią odpływu i przypływu postępu, finansowania i nastrojów, które charakteryzowały tę dziedzinę od jej powstania w 1956 roku.

Sztuczna inteligencja nie spełniła wielu prognoz poczynionych w ciągu ostatnich kilku dziesięcioleci; Na przykład był rok 2020 zwiastunem przez wiele lat samodzielne prowadzenie samochodu zaczynał zapełniać drogi, płynnie przewożąc pasażerów, gdy siedzieli wygodnie i cieszyli się jazdą. Ale problem okazał się trudniejszy, niż przewidywano, i zamiast hord robotycznych taksówek, najbardziej zaawansowane projekty pozostają w fazie prób. Tymczasem niektórzy w tej dziedzinie uważają, że dominująca forma sztucznej inteligencji - rodzaj uczenia maszynowego opartego na sieciach neuronowych - może wkrótce stracić moc, jeśli nie nastąpi seria przełomów.

W artykule zatytułowanym Dlaczego sztuczna inteligencja jest trudniejsza niż myślimyopublikowany w zeszłym tygodniu na serwerze preprint arXiv, Melanie Mitchell, profesor informatyki na Uniwersytecie Stanowym w Portland, obecnie na Instytut Santa Fe, twierdzi, że sztuczna inteligencja utknęła w cyklu przypływów i odpływów, głównie dlatego, że nie rozumiemy jeszcze do końca natury i złożoności ludzkiej inteligencji. Mitchell dzieli ten nadrzędny punkt na cztery powszechne nieporozumienia dotyczące sztucznej inteligencji i omawia ich znaczenie dla przyszłości tej dziedziny.

1. Postęp w wąskiej inteligencji jest postępem w kierunku inteligencji ogólnej

Imponującym nowym osiągnięciom sztucznej inteligencji często towarzyszy założenie, że te same osiągnięcia przybliżają nas do osiągnięcia inteligencja maszynowa na poziomie człowieka. Ale nie tylko, jak wskazuje Mitchell, są wąskie, a ogólna inteligencja jest tak różna, jak wspinanie się na drzewo i lądowanie na Księżycu, ale nawet wąska inteligencja jest nadal w dużej mierze zależna od obfitości danych specyficznych dla zadania i szkolenia wspomaganego przez człowieka.

Weź GPT-3, które niektórzy cytowane jako posiadanie przekroczył „wąski” inteligencja: algorytm został wyszkolony do pisania tekstu, ale nauczył się między innymi tłumaczyć, pisać kod, autouzupełnianie obrazów i wykonywać obliczenia matematyczne. Ale chociaż możliwości GPT-3 okazały się bardziej rozbudowane, niż zamierzali jego twórcy, wszystkie jego umiejętności nadal mieszczą się w domenie, w której został wyszkolony: to znaczy język - mówiony, pisany i programowany.

Osiągnięcie biegłości w umiejętnościach niezwiązanych z językiem bez szkolenia oznaczałoby ogólną inteligencję, ale tak nie było w przypadku GPT-3, ani w przypadku żadnej innej niedawno opracowanej sztucznej inteligencji: pozostają one wąskie i choć same w sobie znaczące, nie powinny być łączone z krokami w kierunku dogłębnego zrozumienia świata wymaganego dla ogólnej inteligencji.

2. To, co jest łatwe dla ludzi, powinno być łatwe dla maszyn

Is AI mądrzejsza niż czterolatek? W większości sensów odpowiedź brzmi nie, a to dlatego, że umiejętności i zadania, które postrzegamy jako „łatwe”, są w rzeczywistości o wiele bardziej złożone, niż im przypisujemy.s Paradoks Moraveca notys.

Czterolatki całkiem dobrze radzą sobie z ustalaniem związków przyczynowo-skutkowych na podstawie ich interakcji z otaczającym ich światem. Jeśli na przykład dotkną garnka na kuchence i spalą palec, zrozumieją, że oparzenie było spowodowane gorącym garnkiem, a nie okrągłym lub srebrnym garnkiem. Dla ludzi jest to podstawowy zdrowy rozsądek, ale algorytmy mają trudności z wyciąganiem wniosków przyczynowych, szczególnie bez dużego zbioru danych lub w innym kontekście niż ten, w którym zostali przeszkoleni.

Postrzeganie i wybory, które mają miejsce na poziomie podświadomości u ludzi, dotyczą całego życia doświadczeń i uczenia się, nawet na tak elementarnym poziomie, jak „dotykanie gorących rzeczy cię spali”. Ponieważ dochodzimy do punktu, w którym tego rodzaju wiedza jest refleksyjna, nawet nie wymagająca świadomego myślenia, postrzegamy ją jako „łatwą”, ale jest wręcz przeciwnie. „AI jest trudniejsze niż nam się wydaje ”, pisze Mitchell,„ ponieważ jesteśmy w dużej mierze nieświadomi złożoności naszych własnych procesów myślowych ”.

3. Język ludzki może opisać inteligencję maszynową

Ludzie mają tendencję do antropomorfizacji rzeczy innych niż ludzkie, od zwierząt, przez przedmioty nieożywione, po roboty i komputery. Czyniąc to, używamy tych samych słów, których używalibyśmy do omawiania ludzkich działań lub inteligencji - z wyjątkiem tego, że te słowa nie do końca pasują do kontekstu i w rzeczywistości mogą zagmatwać nasze własne rozumienie sztucznej inteligencji. Mitchell używa tego terminu „Życzeniowa mnemonika”, wymyślona przez informatyka w latach 1970. Słowa takie jak „czytanie”, „rozumienie” i „myślenie” są używane do opisu i oceny sztucznej inteligencji, ale te słowa nie dają nam dokładnego opisu tego, jak działa lub postępuje sztuczna inteligencja.

Nawet „uczenie się” to myląca nazwa, mówi Mitchell, ponieważ gdyby maszyna naprawdę „nauczyła się” nowej umiejętności, byłaby w stanie zastosować tę umiejętność w różnych warunkach; znajdowanie korelacji w zbiorach danych i wykorzystywanie zidentyfikowanych wzorców do prognozowania lub spełniania innych kryteriów to coś, ale nie jest to „uczenie się” w sposób, w jaki uczą się ludzie.

Po co więc całe zamieszanie wokół słów, skoro to wszystko, co mamy, a oni rozumieją sedno? Cóż, mówi Mitchell, ten niedokładny język może nie tylko wprowadzić w błąd opinię publiczną i media, ale może wpłynąć na sposób, w jaki badacze sztucznej inteligencji myślą o swoich systemach i wykonują swoją pracę.

4. Inteligencja jest w naszych głowach

Ostatnia uwaga Mitchella jest taka, że ​​ludzka inteligencja nie jest zawarta wyłącznie w mózgu, ale wymaga fizycznego ciała.

Wydaje się to oczywiste; używamy zmysłów do wchłaniania i przetwarzania informacji, a także wchodzimy w interakcje ze światem i poruszamy się po nim w naszych ciałach. Jednak przeważający nacisk w badaniach nad sztuczną inteligencją jest na mózgu: rozumienie tego, naśladowanie różnych aspektów tego forma lub funkcjai robienie Bardziej mi się to podoba.

Gdyby inteligencja żyła tylko w mózgu, bylibyśmy w stanie zbliżyć się do osiągnięcia sztucznej inteligencji na poziomie ludzkim, powiedzmy, budując sieć neuronową z taką samą liczbą parametrów, z jaką mózg ma połączenia synaptyczne, a tym samym powielać zdolność obliczeniową mózgu . ”

Rysowanie tego rodzaju paraleli może mieć zastosowanie w przypadkach, gdy „inteligencja” odnosi się do działania zgodnie z zestawem reguł w celu osiągnięcia określonego celu - na przykład wygrania partii szachów lub modelowania sposobu składania białek, przy czym oba komputery potrafią już całkiem nieźle. dobrze. Ale inne typy inteligencji są znacznie bardziej kształtowane przez emocje, uprzedzenia i indywidualne doświadczenia oraz podlegają im.

Wracając do przykładu GPT-3: algorytm wytwarza inteligencję „subiektywną” (własne pismo) przy użyciu zestawu reguł i parametrów, które stworzył z ogromnym zbiorem danych o istniejącej wcześniej inteligencji subiektywnej (pisanie przez ludzi). GPT-3 jest okrzyknięty „twórczym”, ale jego pisanie opiera się na skojarzeniach, które wyciągnął między słowami i frazami w ludzkim piśmie - które jest pełne uprzedzeń, emocji, wcześniejszej wiedzy, zdrowego rozsądku i wyjątkowego doświadczenia pisarza z świat, wszystko doświadczane przez ciało.

Mitchell twierdzi że nieracjonalne, subiektywne aspekty sposobu, w jaki ludzie myślą i działająnie przeszkodą dla naszej inteligencji, ale są w rzeczywistości jego podstawą i aktywator. Wiodący ekspert w dziedzinie sztucznej inteligencji, Ben Goertzel, podobnie opowiada się za „architekturą całego organizmu”, pozewING, „Ludzie są tak samo ciałami, jak umysłami, więc osiągnięcie AGI podobnej do człowieka będzie wymagało osadzenia systemów sztucznej inteligencji w fizycznych systemach zdolnych do interakcji z codziennym ludzkim światem w zróżnicowany sposób”.

Gdzie stąd?

Te nieporozumienia nie pozostawiają wątpliwości co do tego, co badacze i programiści sztucznej inteligencji nie powinien zrobić. Mniej jasne jest, jak iść do przodu. Musimy zacząć, mówi Mitchell, od lepszego zrozumienia inteligencji - nie jest to małe ani proste zadanie. Jednak jednym z dobrych miejsc, w których mogą szukać naukowcy zajmujący się sztuczną inteligencją, są inne dyscypliny naukowe, które zajmują się badaniem inteligencji.

Dlaczego w ogóle tak bardzo zależy nam na stworzeniu sztucznej wersji ludzkiej inteligencji? Ewoluował przez miliony lat i jest niezwykle złożony i zawiły, ale wciąż ma również swoje własne wady. Być może odpowiedź jest taka, że ​​nie próbujemy budować sztucznego mózgu tak dobry jak nasz; staramy się zbudować lepszy, który pomoże nam rozwiązać obecnie nierozwiązywalne problemy.

Ewolucja człowieka miało miejsce w ciągu około sześciu milionów lat. Tymczasem jest minęło 65 lat, odkąd sztuczna inteligencja stała się dziedziną naukiumierać, i tworzy tekst podobny do ludzkiego, tworząc fałszywe twarze, trzyma swoje własne w debatach stawianie diagnoz lekarskich, i jeszcze, Chociaż nie ma wiele jeszcze zostało do nauczenia, wygląda na to, że sztuczna inteligencja się rozwija bardzo dobrze w wielkim schemacie rzeczy-a następnym krokiem na drodze do dalszego rozwoju jest pogłębienie zrozumienia naszych własnych umysłów.

Kredytowych Image: René Böhmer on Unsplash

Źródło: https://singularityhub.com/2021/05/06/to-advance-ai-we-need-to-better-understand-human-intelligence-and-address-these-4-fallacies/

Znak czasu:

Więcej z Centrum osobliwości