„Sztuczna inteligencja stanowi zagrożenie porównywalne z bronią nuklearną” — ostrzega profesor Uniwersytetu Oksfordzkiego

„Sztuczna inteligencja stanowi zagrożenie porównywalne z bronią nuklearną” — ostrzega profesor Uniwersytetu Oksfordzkiego

Węzeł źródłowy: 1925142

"Zapamiętaj moje słowa, Sztuczna inteligencja jest znacznie bardziej niebezpieczna niż bomby atomowe. Cholernie mnie to przeraża. Tak powiedział dyrektor generalny Tesli, Elon Musk, w 2018 roku podczas wywiadu z Jonathanem Nolanem podczas konferencji South by Southwest Conference w Austin w Teksasie. Niestety Mus nie jest sam. Naukowcy i inni uznani eksperci również ostrzegają przed niebezpieczeństwami związanymi ze sztuczną inteligencją (AI). Pytanie za 1 milion funtów brzmi: czy jesteśmy przygotowani i co robią nasze rządy i planiści, aby zapobiec temu niebezpieczeństwu?

Podczas gdy niedawna popularność ChatGPT wprowadziła sztuczną inteligencję do głównego nurtu i zwabiła wielu do jej korzyści społecznych, opinia publiczna nie zwraca uwagi na ciemną stronę sztucznej inteligencji. Od wielu lat profesjonaliści i pracownicy techniczni martwią się, że sztuczna inteligencja (AI) odbierze im pracę.

Jednak eksperci uważają, że istnieją inne poważniejsze zagrożenia i niebezpieczeństwa, których należy się obawiać, w tym stronniczość algorytmiczna spowodowana złymi danymi wykorzystywanymi przez sztuczną inteligencję, głębokie podróbki, naruszenia prywatności i wiele innych. Chociaż zagrożenia te stanowią poważne zagrożenie dla społeczeństwa, badacze i naukowcy bardziej martwią się tym, jak można zaprogramować sztuczną inteligencję, aby zrobiła coś jeszcze bardziej niebezpiecznego: automatyzację broni.

Dzisiaj sztuczna inteligencja została wykorzystana do rozwoju technologii roju i amunicji krążącej, zwanej także dronami kamikadze, takimi jak te, które są używany w toczącej się wojnie rosyjsko-ukraińskiej. W przeciwieństwie do futurystycznych robotów, które można zobaczyć w niektórych filmach science fiction, te drony wykorzystują wcześniej istniejące platformy wojskowe, które wykorzystują nowe technologie AI. Te drony w istocie stały się autonomiczną bronią zaprogramowaną do zabijania.

Ale wykorzystanie sztucznej inteligencji do zabijania w walce to dopiero początek. Michael Osborne jest profesorem sztucznej inteligencji i badaczem uczenia maszynowego na Uniwersytecie Oksfordzkim. Jest także współzałożycielem Mind Foundry. Podczas gdy wszyscy szaleją na punkcie ChatGPT, profesor Osborne ostrzega teraz przed zagrożeniami związanymi ze sztuczną inteligencją i prognozuje, że zaawansowana sztuczna inteligencja może „stanowić dla nas takie samo ryzyko, jak dla innych gatunków: jednym z przykładów jest dodo”.

Na początku tego miesiąca grupa naukowców z Uniwersytetu Oksfordzkiego powiedziała komisji nauki i technologii w brytyjskim parlamencie, że sztuczna inteligencja może ostatecznie stanowić „egzystencjalne zagrożenie” dla ludzkości. Tak jak ludzie zostali zniszczeni przez dodo, maszyny AI mogą nas wyeliminować, powiedział The Times Of London zgłaszane.

Podczas spotkania, Profesor Osborne ostrzegł brytyjskich parlamentarzystów, że naprawdę potężna sztuczna inteligencja może zabić każdego na Ziemi. „Sztuczna inteligencja stanowi zagrożenie porównywalne z bronią nuklearną” – powiedział. Profesor Osborne dodał również, że ryzyko nie polega na tym, że sztuczna inteligencja nie przestrzega swojego programowania, ale sztywno przestrzega go w niezamierzony sposób:

„Superinteligentna sztuczna inteligencja, której zadaniem jest wyeliminowanie raka, aby podać uproszczony przykład, może uznać, że najłatwiejszą metodą jest usunięcie ludzi. W ankiecie około jedna trzecia badaczy uważa, że ​​sztuczna inteligencja może doprowadzić do globalnej katastrofy. Istnieją programy bezpieczeństwa AI, ale firmy i kraje są zaangażowane w „wyścig zbrojeń”, który utrudnia ostrożne podejście”.

Michael Cohen, kolega profesora Osbborne'a i doktorant na Uniwersytecie Oksfordzkim, powiedział The Times of London:

„W przypadku nadludzkiej sztucznej inteligencji istnieje szczególne ryzyko, które należy do innego rodzaju klasy, tj. . . może zabić wszystkich.

Podczas gdy sztuczna inteligencja poprawiła nasze życie, naukowcy obawiają się, że istnieje ryzyko poświęcenia ludzkości dla wygody z powodu braku ludzkiej moralności przez sztuczną inteligencję. Jeden z przerażających scenariuszy, według Cohena, polega na tym, że sztuczna inteligencja mogłaby nauczyć się osiągać wytyczne dotyczące pomocy ludziom, stosując taktykę krzywdzenia ludzi.

„Jeśli wyobrazisz sobie szkolenie psa ze smakołykami: nauczy się on wybierać działania, które prowadzą do zdobycia smakołyków, ale jeśli pies znajdzie szafkę na smakołyki, może sam zdobyć smakołyki, nie robiąc tego, czego od niego chcieliśmy” — wyjaśnił . „Jeśli masz coś znacznie mądrzejszego od nas, monomaniakalnie próbującego uzyskać tę pozytywną informację zwrotną, a świat przejął to, aby to zapewnić, skierowałoby to tyle energii, ile tylko mogłoby, aby to zabezpieczyć, a to pozostawiłoby nas bez żadnych energię dla siebie”.

Profesor Osborne i Michael Cohen nie są jedynymi badaczami, którzy biją na alarm o ryzyku i niebezpieczeństwach związanych ze sztuczną inteligencją. Wielu innych naukowców pracujących z AI wyraziło podobne obawy. Badanie przeprowadzone we wrześniu 2022 r. wśród 327 naukowców z New York University wykazało, że jedna trzecia wierzy, że sztuczna inteligencja może doprowadzić do nuklearnej apokalipsy w ciągu stulecia, podał londyński Times.

Podobne obawy wydaje się podzielać wielu naukowców pracujących z AI. Badanie przeprowadzone we wrześniu 2022 r. wśród 327 naukowców z New York University wykazało, że jedna trzecia wierzy, że sztuczna inteligencja może spowodować katastrofę podobną do nuklearnej apokalipsy w ciągu stulecia, donosi londyński Times.

„Możliwe, że decyzje podejmowane przez sztuczną inteligencję lub systemy uczenia maszynowego mogą spowodować katastrofę w tym stuleciu, która jest co najmniej tak zła, jak totalna wojna nuklearna” – powiedział 36% naukowców.

Niezależnie od tego, czy minie sto lat, sztuczna inteligencja staje się coraz bardziej inteligentna i jak sugerowali niektórzy eksperci, konieczne jest zachowanie ludzkiej kontroli i opracowanie mechanizmów, takich jak Przełącznik zabijania AI kontrolować, co sztuczna inteligencja może, a czego nie. Obecny brak nadzoru i jasnej globalnej polityki w zakresie sztucznej inteligencji to dzwonek alarmowy dla rządów na całym świecie. Musimy podjąć działania teraz, zanim będzie za późno.

[Osadzone treści]

Poniżej kolejny film o niebezpieczeństwie AI. W filmie Stuart Russell, brytyjski informatyk znany ze swojego wkładu w sztuczną inteligencję, ostrzega przed zagrożeniami związanymi z tworzeniem systemów AI.

[Osadzone treści]


Znak czasu:

Więcej z TechStartupy