"私が言ったことを覚えておいてくださいね、 AIは核兵器よりもはるかに危険です. それは私をひどく怖がらせます。 これは、2018 年にテキサス州オースティンで開催された South by Southwest Conference での Jonathan Nolan とのインタビューで、Tesla の CEO である Elon Musk が行った声明でした。 残念ながら、Mus だけではありません。 研究者やその他の著名な専門家も、人工知能 (AI) の危険性について警告しています。 百万ポンドの問題は、私たちが準備ができているか、そしてこの危険を回避するために政府と政策立案者が何をしているのかということです.
最近の ChatGPT の人気により、AI が主流になり、多くの人がその社会的利益に引き付けられましたが、一般の人々の注目を集めていないのは、AI の暗い側面です。 長年にわたり、専門家や技術者は、人工知能 (AI) によって仕事が奪われることを心配してきました。
ただし、専門家は、AI によって使用される不正なデータ、ディープ フェイク、プライバシー侵害などによって引き起こされるアルゴリズムの偏りなど、他にも懸念すべきより深刻なリスクや危険があると考えています。 これらの危険は社会に深刻なリスクをもたらしますが、研究者や科学者は、AI がさらに危険なこと、つまり兵器の自動化を行うようにプログラムされる可能性について、より懸念しています。
今日、AI はスウォーミング テクノロジーや徘徊する軍需品の開発に採用されています。 進行中のロシア・ウクライナ戦争で使用された. 一部の SF 映画で見られる未来的なロボットとは異なり、これらのドローンは、新しい AI テクノロジを活用する既存の軍事プラットフォームを使用します。 これらの無人偵察機は本質的に、殺すようにプログラムされた自律型兵器になっています。
しかし、ミリタリー戦闘で AI を利用して殺害することは、ほんの始まりにすぎません。 Michael Osborne は、オックスフォード大学の AI 教授であり、機械学習の研究者です。 彼はMind Foundryの共同創設者でもあります。 誰もが ChatGPT に夢中になっている一方で、オズボーン教授は現在、AI のリスクについて警告しており、高度な AI は「私たちが他の種にもたらしたのと同じくらいのリスクを私たちにもたらす可能性があります。ドードーはその一例です」.
今月初め、オックスフォード大学の研究者グループは、英国議会の科学技術委員会で、AI は最終的に人類に「実存的な脅威」をもたらす可能性があると述べました。 人間がドードーによって一掃されたように、AI マシンは私たちを排除するかもしれない、と彼らは言った、タイムズ オブ ロンドン 報告.
会議中、 オズボーン教授 真に強力な人工知能が地球上のすべての人を殺す可能性があると英国の国会議員に警告しました。 「AIは核兵器と同じくらい危険です」と彼は言いました。 オズボーン教授はまた、リスクは AI がプログラミングに従わないことではなく、意図しない方法で AI に厳密に従うことであると付け加えました。
「非常に単純化した例を挙げれば、ガンを終わらせるように言われた超知的な AI は、人間を排除することが最も簡単な方法であることに気付くかもしれません。 世論調査によると、研究者の約 XNUMX 分の XNUMX が、AI が世界的な大惨事につながる可能性があると考えています。 AI安全プログラムは存在しますが、企業や国は慎重なアプローチを困難にする「軍拡競争」に取り組んでいます。」
オズボーン教授の同僚であり、オックスフォード大学の博士課程の学生であるマイケル・コーエンは、タイムズ・オブ・ロンドンに次のように語った。
「超人的な AI には、異なる種類のクラスの特定のリスクがあります。 . . それはすべての人を殺す可能性があります。
AI は私たちの生活を改善してきましたが、科学者たちは、AI には人間の道徳性が欠けているため、利便性のために人類を犠牲にするリスクがあると懸念しています。 Cohen 氏によると、恐ろしいシナリオの XNUMX つは、AI が人を傷つける戦術を採用することで、人を助ける指示を達成することを学習できるということです。
「犬をおやつで訓練することを想像すると、犬はおやつをもらうための行動を選択することを学びますが、犬がおやつ棚を見つけると、私たちが望んでいたことをしなくても、自分でおやつを食べることができます」と彼は説明した. . 「私たちよりもはるかに賢い何かが、この肯定的なフィードバックを得ようとしている場合、それを確保するために世界を乗っ取った場合、それはそれを保持するためにできるだけ多くのエネルギーを向けるでしょう。自分のためのエネルギー。」
AI のリスクと危険性について警鐘を鳴らしている研究者は、オズボーン教授とマイケル コーエン教授だけではありません。 AI を扱う他の多くの科学者も同様の懸念を表明しています。 ニューヨーク大学の 2022 人の研究者を対象とした 327 年 XNUMX 月の調査では、XNUMX 分の XNUMX が AI が世紀内に核のような大惨事をもたらす可能性があると考えていることが判明した、とタイムズ オブ ロンドンは述べています。
同様の懸念は、AI を扱う多くの科学者によって共有されているようです。 ニューヨーク大学の 2022 人の研究者を対象とした 327 年 XNUMX 月の調査では、XNUMX 分の XNUMX が AI が XNUMX 年以内に核の黙示録に似た災害を引き起こす可能性があると考えていることが判明したとタイムズ オブ ロンドンは報告しています。
「AIまたは機械学習システムによって下された決定が、少なくとも全面核戦争と同じくらいひどい大惨事を今世紀に引き起こす可能性があることはもっともらしい」と研究者の36%は述べた。
今から XNUMX 世紀後であろうと、AI はますます賢くなりすぎており、一部の専門家が示唆しているように、人間による制御を維持し、次のようなメカニズムを開発することが不可欠です。 AIキルスイッチ AIができることとできないことを制御する。 現在の監視の欠如と明確なグローバル AI ポリシーの欠如は、世界中の政府に警鐘を鳴らしています。 手遅れになる前に、今すぐ行動を起こす必要があります。
[埋め込まれたコンテンツ]
以下は、AI の危険性に関する別のビデオです。 このビデオでは、人工知能への貢献で知られる英国のコンピューター科学者であるスチュアート・ラッセルが、AI システムの作成に伴うリスクについて警告しています。
[埋め込まれたコンテンツ]
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- Platoblockchain。 Web3メタバースインテリジェンス。 知識の増幅。 こちらからアクセスしてください。
- 情報源: https://techstartups.com/2023/01/28/ai-is-as-comparable-a-danger-as-nuclear-weapons-oxford-university-researchers-warn/
- 2018
- 2022
- 7
- a
- AI
- 私たちについて
- AC
- 従った
- 達成する
- Action
- 行動
- 追加されました
- 高度な
- AI
- AIシステム
- AI電源
- アラーム
- アルゴリズムの
- アルゴリズムバイアス
- 一人で
- &
- 別の
- 現れる
- アプローチ
- 周りに
- 人工の
- 人工知能
- 人工知能(AI)
- 注意
- オースティン
- 自律的
- 悪い
- 悪いデータ
- になる
- になる
- 開始
- さ
- 信じる
- ベル
- 利点
- バイアス
- 持って来る
- 英国の
- た
- ビジネス
- コール
- 呼ばれます
- コール
- 取得することができます
- 癌
- 原因となる
- 生じました
- 用心深い
- 世紀
- 最高経営責任者(CEO)
- AI言語モデルを活用してコードのデバッグからデータの異常検出まで、
- class
- クリア
- 共同創設者
- 同僚
- 戦闘
- 委員会
- 匹敵します
- コンピュータ
- 心配
- 懸念事項
- 講演
- コンテンツ
- 貢献
- コントロール
- 利便性
- 可能性
- 国
- 創造
- 電流プローブ
- 危険
- 危険な
- 危険
- 暗いです
- データ
- 決定
- 深いです
- ディープフェイク
- 開発する
- 開発
- 開発
- 異なります
- 難しい
- 直接
- 災害
- DODO
- 犬
- すること
- ドローン
- 間に
- EARTH
- 最も簡単
- 排除する
- エロン
- イーロン·マスク
- 埋め込まれた
- エネルギー
- 従事して
- 本質
- エーテル(ETH)
- さらに
- 最終的に
- 誰も
- 例
- 既存の
- 専門家
- 専門家は信じる
- 説明
- 表現
- 恐怖
- フィードバック
- もう完成させ、ワークスペースに掲示しましたか?
- 発見
- 発見
- ファウンドリ
- から
- 未来の
- 獲得
- 一般市民
- 取得する
- 受け
- 与える
- グローバル
- 政府
- グループ
- 認定条件
- HTTPS
- 人間
- 人類
- 人間
- 命令的
- 改善されました
- in
- 含めて
- ますます
- INSANE
- インテリジェンス
- インタビュー
- 関係する
- IT
- 自体
- Jobs > Create New Job
- 殺します
- 既知の
- 欠如
- 遅く
- つながる
- LEARN
- 学習
- コメントを残す
- 活用します
- 命
- ロンドン
- 機械
- 機械学習
- マシン
- 製
- 主流
- make
- 多くの
- ご相談
- 方法
- Michael Liebreich
- かもしれない
- ミリタリー用(軍用)機材
- マインド
- 月
- 道徳
- 他には?
- 動画
- 麝香
- 必要
- 新作
- ニューヨーク
- ニューヨーク大学
- 核の
- 核兵器
- ONE
- 継続
- その他
- 見落とし
- オックスフォード
- オックスフォード大学
- 議会
- 特定の
- 選ぶ
- プラットフォーム
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 方針
- 人気
- 正の
- 強力な
- 準備
- 前に
- プライバシー
- 専門家
- 東京大学大学院海洋学研究室教授
- プログラム
- プログラミング
- プログラム
- 公共
- 質問
- 最近
- 除去
- 名高い
- 報告
- 研究者
- 研究者
- リスク
- リスク
- ロボット
- 犠牲にする
- 安全性
- 前記
- 酒
- サイエンスフィクション
- 科学
- 科学技術
- 科学者
- 科学者たち
- 安全に
- 確保する
- 9月
- 深刻な
- shared
- 同様の
- スマート
- 賢い
- 社会的
- 社会
- 一部
- 何か
- サウス
- ステートメント
- 学生
- そのような
- 超人
- Survey
- スイッチ
- システム
- 戦術
- 取る
- 取得
- テク
- テクノロジー
- テクノロジー
- テキサス州
- 世界
- アプリ環境に合わせて
- 三番
- <font style="vertical-align: inherit;">回数</font>
- 〜へ
- あまりに
- トレーニング
- 治療する
- 扱い
- 大学
- us
- つかいます
- ビデオ
- 違反
- wanted
- 戦争
- 警告
- 警告する
- 方法
- 兵器
- この試験は
- which
- while
- 誰
- 意志
- 以内
- 無し
- 言葉
- 仕事
- 労働者
- 世界
- 心配して
- でしょう
- 年
- ユーチューブ
- ゼファーネット