「AI は核兵器に匹敵する危険性がある」とオックスフォード大学教授は警告する

「AI は核兵器に匹敵する危険性がある」とオックスフォード大学教授は警告する

ソースノード: 1925142

"私が言ったことを覚えておいてくださいね、 AIは核兵器よりもはるかに危険です. それは私をひどく怖がらせます。 これは、2018 年にテキサス州オースティンで開催された South by Southwest Conference での Jonathan Nolan とのインタビューで、Tesla の CEO である Elon Musk が行った声明でした。 残念ながら、Mus だけではありません。 研究者やその他の著名な専門家も、人工知能 (AI) の危険性について警告しています。 百万ポンドの問題は、私たちが準備ができているか、そしてこの危険を回避するために政府と政策立案者が何をしているのかということです.

最近の ChatGPT の人気により、AI が主流になり、多くの人がその社会的利益に引き付けられましたが、一般の人々の注目を集めていないのは、AI の暗い側面です。 長年にわたり、専門家や技術者は、人工知能 (AI) によって仕事が奪われることを心配してきました。

ただし、専門家は、AI によって使用される不正なデータ、ディープ フェイク、プライバシー侵害などによって引き起こされるアルゴリズムの偏りなど、他にも懸念すべきより深刻なリスクや危険があると考えています。 これらの危険は社会に深刻なリスクをもたらしますが、研究者や科学者は、AI がさらに危険なこと、つまり兵器の自動化を行うようにプログラムされる可能性について、より懸念しています。

今日、AI はスウォーミング テクノロジーや徘徊する軍需品の開発に採用されています。 進行中のロシア・ウクライナ戦争で使用された. 一部の SF 映画で見られる未来的なロボットとは異なり、これらのドローンは、新しい AI テクノロジを活用する既存の軍事プラットフォームを使用します。 これらの無人偵察機は本質的に、殺すようにプログラムされた自律型兵器になっています。

しかし、ミリタリー戦闘で AI を利用して殺害することは、ほんの始まりにすぎません。 Michael Osborne は、オックスフォード大学の AI 教授であり、機械学習の研究者です。 彼はMind Foundryの共同創設者でもあります。 誰もが ChatGPT に夢中になっている一方で、オズボーン教授は現在、AI のリスクについて警告しており、高度な AI は「私たちが他の種にもたらしたのと同じくらいのリスクを私たちにもたらす可能性があります。ドードーはその一例です」.

今月初め、オックスフォード大学の研究者グループは、英国議会の科学技術委員会で、AI は最終的に人類に「実存的な脅威」をもたらす可能性があると述べました。 人間がドードーによって一掃されたように、AI マシンは私たちを排除するかもしれない、と彼らは言った、タイムズ オブ ロンドン 報告.

会議中、 オズボーン教授 真に強力な人工知能が地球上のすべての人を殺す可能性があると英国の国会議員に警告しました。 「AIは核兵器と同じくらい危険です」と彼は言いました。 オズボーン教授はまた、リスクは AI がプログラミングに従わないことではなく、意図しない方法で AI に厳密に従うことであると付け加えました。

「非常に単純化した例を挙げれば、ガンを終わらせるように言われた超知的な AI は、人間を排除することが最も簡単な方法であることに気付くかもしれません。 世論調査によると、研究者の約 XNUMX 分の XNUMX が、AI が世界的な大惨事につながる可能性があると考えています。 AI安全プログラムは存在しますが、企業や国は慎重なアプローチを困難にする「軍拡競争」に取り組んでいます。」

オズボーン教授の同僚であり、オックスフォード大学の博士課程の学生であるマイケル・コーエンは、タイムズ・オブ・ロンドンに次のように語った。

「超人的な AI には、異なる種類のクラスの特定のリスクがあります。 . . それはすべての人を殺す可能性があります。

AI は私たちの生活を改善してきましたが、科学者たちは、AI には人間の道徳性が欠けているため、利便性のために人類を犠牲にするリスクがあると懸念しています。 Cohen 氏によると、恐ろしいシナリオの XNUMX つは、AI が人を傷つける戦術を採用することで、人を助ける指示を達成することを学習できるということです。

「犬をおやつで訓練することを想像すると、犬はおやつをもらうための行動を選択することを学びますが、犬がおやつ棚を見つけると、私たちが望んでいたことをしなくても、自分でおやつを食べることができます」と彼は説明した. . 「私たちよりもはるかに賢い何かが、この肯定的なフィードバックを得ようとしている場合、それを確保するために世界を乗っ取った場合、それはそれを保持するためにできるだけ多くのエネルギーを向けるでしょう。自分のためのエネルギー。」

AI のリスクと危険性について警鐘を鳴らしている研究者は、オズボーン教授とマイケル コーエン教授だけではありません。 AI を扱う他の多くの科学者も同様の懸念を表明しています。 ニューヨーク大学の 2022 人の研究者を対象とした 327 年 XNUMX 月の調査では、XNUMX 分の XNUMX が AI が世紀内に核のような大惨事をもたらす可能性があると考えていることが判明した、とタイムズ オブ ロンドンは述べています。

同様の懸念は、AI を扱う多くの科学者によって共有されているようです。 ニューヨーク大学の 2022 人の研究者を対象とした 327 年 XNUMX 月の調査では、XNUMX 分の XNUMX が AI が XNUMX 年以内に核の黙示録に似た災害を引き起こす可能性があると考えていることが判明したとタイムズ オブ ロンドンは報告しています。

「AIまたは機械学習システムによって下された決定が、少なくとも全面核戦争と同じくらいひどい大惨事を今世紀に引き起こす可能性があることはもっともらしい」と研究者の36%は述べた。

今から XNUMX 世紀後であろうと、AI はますます賢くなりすぎており、一部の専門家が示唆しているように、人間による制御を維持し、次のようなメカニズムを開発することが不可欠です。 AIキルスイッチ AIができることとできないことを制御する。 現在の監視の欠如と明確なグローバル AI ポリシーの欠如は、世界中の政府に警鐘を鳴らしています。 手遅れになる前に、今すぐ行動を起こす必要があります。

[埋め込まれたコンテンツ]

以下は、AI の危険性に関する別のビデオです。 このビデオでは、人工知能への貢献で知られる英国のコンピューター科学者であるスチュアート・ラッセルが、AI システムの作成に伴うリスクについて警告しています。

[埋め込まれたコンテンツ]


タイムスタンプ:

より多くの テックスタートアップ