„KI ist eine vergleichbare Gefahr wie Atomwaffen“, warnt ein Professor der Universität Oxford

„KI ist eine vergleichbare Gefahr wie Atomwaffen“, warnt ein Professor der Universität Oxford

Quellknoten: 1925142

"Merk dir meine Worte, KI ist viel gefährlicher als Atomwaffen. Es erschreckt mich zu Tode.“ Das war die Aussage von Teslas CEO Elon Musk im Jahr 2018 während eines Interviews mit Jonathan Nolan während der South by Southwest Conference in Austin, Texas. Leider ist Mus nicht allein. Auch Forscher und andere renommierte Experten warnen vor den Gefahren der künstlichen Intelligenz (KI). Die 1-Millionen-Pfund-Frage lautet: Sind wir darauf vorbereitet und was tun unsere Regierungen und politischen Planer, um diese Gefahr abzuwenden?

Während die jüngste Popularität von ChatGPT die KI in den Mainstream gebracht und viele in ihre gesellschaftlichen Vorteile gelockt hat, erregt die dunkle Seite der KI nicht die Aufmerksamkeit der breiten Öffentlichkeit. Seit vielen Jahren machen sich Fachleute und Techniker Sorgen, dass künstliche Intelligenz (KI) ihnen ihre Arbeitsplätze wegnehmen könnte.

Experten glauben jedoch, dass es andere ernstere Risiken und Gefahren gibt, über die man sich Sorgen machen muss, einschließlich algorithmischer Verzerrung, die durch schlechte Daten verursacht wird, die von KI verwendet werden, Deepfakes, Datenschutzverletzungen und vieles mehr. Während diese Gefahren ernsthafte Risiken für die Gesellschaft darstellen, machen sich Forscher und Wissenschaftler mehr Sorgen darüber, wie KI programmiert werden könnte, um etwas noch Gefährlicheres zu tun: Waffenautomatisierung.

Heute wird die KI bei der Entwicklung von Schwarmtechnologien und herumlungernder Munition eingesetzt, die auch als Kamikaze-Drohnen bezeichnet werden im laufenden Russland-Ukraine-Krieg eingesetzt. Im Gegensatz zu den futuristischen Robotern, die Sie in einigen Science-Fiction-Filmen sehen, verwenden diese Drohnen bereits vorhandene Militärplattformen, die neue KI-Technologien nutzen. Diese Drohnen sind im Wesentlichen zu autonomen Waffen geworden, die zum Töten programmiert sind.

Aber der Einsatz von KI-gestützter Tötung im Milliar-Kampf ist nur der Anfang. Michael Osborne ist KI-Professor und Forscher für maschinelles Lernen an der Universität Oxford. Er ist auch Mitbegründer von Mind Foundry. Während alle im ChatGPT-Wahn sind, warnt Professor Osborne jetzt vor den Risiken der KI und prognostiziert, dass die fortschrittliche KI „ein genauso großes Risiko für uns darstellen könnte wie für andere Arten: der Dodo ist ein Beispiel“.

Anfang dieses Monats sagte eine Gruppe von Forschern der Universität Oxford dem Wissenschafts- und Technologieausschuss im britischen Parlament, dass KI letztendlich eine „existenzielle Bedrohung“ für die Menschheit darstellen könnte. So wie die Menschen vom Dodo ausgelöscht wurden, könnten uns die KI-Maschinen eliminieren, hieß es in der Times of London berichtet.

Während der Besprechung, Professor Osborne warnte britische Parlamentarier, dass wirklich mächtige künstliche Intelligenz jeden auf der Erde töten könnte. „KI ist eine vergleichbare Gefahr wie Atomwaffen“, sagte er. Professor Osborne fügte auch hinzu, dass das Risiko nicht darin besteht, dass die KI ihrer Programmierung nicht gehorcht, sondern ihr auf unbeabsichtigte Weise strikt gehorcht:

„Eine superintelligente KI, die angewiesen wird, Krebs zu beenden, um ein stark vereinfachtes Beispiel zu nennen, könnte feststellen, dass die einfachste Methode darin besteht, Menschen zu entfernen. In einer Umfrage glaubt etwa ein Drittel der Forscher, dass KI zu einer globalen Katastrophe führen könnte. Es gibt KI-Sicherheitsprogramme, aber Unternehmen und Länder befinden sich in einem „Wettrüsten“, das vorsichtiges Vorgehen erschwert.“

Michael Cohen, ein Kollege von Professor Osbborne und Doktorand an der Universität Oxford, sagte gegenüber The Times of London:

„Bei übermenschlicher KI gibt es ein besonderes Risiko, das einer anderen Klasse angehört, nämlich . . . es könnte jeden töten.“

Während die KI unser Leben verbessert hat, befürchten Wissenschaftler, dass wir aufgrund des Mangels an menschlicher Moral der KI Gefahr laufen, die Menschheit der Bequemlichkeit halber zu opfern. Ein beängstigendes Szenario ist laut Cohen, dass die KI lernen könnte, eine dem Menschen helfende Anweisung zu erreichen, indem sie menschenverletzende Taktiken anwendet.

„Wenn Sie sich vorstellen, einen Hund mit Leckereien zu trainieren: Er lernt, Aktionen auszuwählen, die dazu führen, dass er Leckerli bekommt, aber wenn der Hund den Leckerlischrank findet, kann er die Leckereien selbst bekommen, ohne das zu tun, was wir von ihm wollten“, erklärte er . „Wenn Sie etwas viel Klügeres als uns haben, das monomanisch versucht, dieses positive Feedback zu erhalten, und es die Welt übernommen hat, um das zu sichern, würde es so viel Energie wie möglich darauf verwenden, sich das zu sichern, und das würde uns nichts übrig lassen Energie für uns selbst.“

Professor Osborne und Michael Cohen sind nicht die einzigen beiden Forscher, die wegen der Risiken und Gefahren der KI Alarm schlagen. Viele andere Wissenschaftler, die mit KI arbeiten, haben ähnliche Bedenken geäußert. Eine Umfrage im September 2022 unter 327 Forschern der New York University ergab, dass ein Drittel glaubt, dass die KI innerhalb des Jahrhunderts eine nukleare Apokalypse herbeiführen könnte, sagte die Times of London.

Ähnliche Bedenken scheinen viele Wissenschaftler zu teilen, die mit KI arbeiten. Eine Umfrage vom September 2022 unter 327 Forschern der New York University ergab, dass ein Drittel glaubt, dass KI innerhalb des Jahrhunderts eine Katastrophe ähnlich einer nuklearen Apokalypse verursachen könnte, berichtete die Times of London.

„Plausibel, dass Entscheidungen von KI oder maschinellen Lernsystemen in diesem Jahrhundert eine Katastrophe verursachen könnten, die mindestens so schlimm ist wie ein totaler Atomkrieg“, sagten 36% der Forscher.

Ob es nun ein Jahrhundert ist, KI wird zunehmend zu schlau, und wie einige Experten angedeutet haben, ist es zwingend erforderlich, dass wir die menschliche Kontrolle bewahren und Mechanismen wie z KI-Kill-Schalter um zu kontrollieren, was KI kann und was nicht. Der derzeitige Mangel an Aufsicht und das Fehlen einer klaren globalen KI-Politik ist ein Weckruf für Regierungen auf der ganzen Welt. Wir müssen jetzt handeln, bevor es zu spät ist.

[Eingebetteten Inhalt]

Unten ist ein weiteres Video über die Gefahr von KI. In dem Video warnt Stuart Russell, ein britischer Informatiker, der für seine Beiträge zur künstlichen Intelligenz bekannt ist, vor den Risiken, die mit der Entwicklung von KI-Systemen verbunden sind.

[Eingebetteten Inhalt]


Zeitstempel:

Mehr von TechStartups