英国コンピュータ協会 CEO のラシック・パルマー氏は、人類に対する AI の脅威は誇張されていると考えています。 同氏は、表明されている懸念は「社会の大部分が抱いている恐怖を反映」しており、ターミネーターやエクス・マキナなどの人気SF映画によって形作られていると述べた。
同氏のコメントは、米国に本拠を置くAI安全センターが「AIによる絶滅のリスク」について警告した最近の声明を受けて出されたものである。 OpenAI と Google の CEO が署名した、 手紙 このリスクはパンデミックや核戦争と同じ緊急性を持って対処されるべきだと述べています。
地元メディアによると、元IBMのヨーロッパ、中東、アフリカ担当最高技術責任者パルマー氏は、「大手テクノロジーとそれがAIをどのように利用しているかについては、健全な懐疑論があるべきだ。だからこそ規制が国民の信頼を勝ち取る鍵となるのだ」と語った。 レポート.
「しかし、私たちの根深い恐怖や心配の多くは、『エクス・マキナ』や『ターミネーター』におけるAIの特徴付け、さらには映画『アイ,ロボット』のインスピレーションとなったアイザック・アシモフのアイデアにまで遡るなど、映画、メディア、本からも来ています。」
また、お読みください。 AIの行動規範は「数週間以内」に発表されると米国と欧州が発表
映画がAIへの不安を煽る
AI の発展は、差別、監視、核戦争などの有害な目的に使用される可能性についての懸念を引き起こしています。 人工知能が大量の失業者を生み出す可能性についての懸念もある。
XNUMX月には、Apple共同創設者のスティーブ・ウォズニアック氏、億万長者のイーロン・マスク氏、ゲイリー・マーカス氏らを含む数人の著名人が協定に署名した。 公開書簡 世界中で大規模な言語AIトレーニングをXNUMXか月間一時停止することを求めています。
その後 ジェフリーヒントン 「AIのゴッドファーザー」とみなされる同氏は、偽情報を煽り、大規模な雇用喪失を引き起こす可能性があると警告し、先月グーグルを辞めた。
アメリカのコンピューター科学者エリーザー・ユドコウスキー氏は、AI のリスクは規制だけでは管理できないと述べています。 彼は、AI の発展は人類の存続を脅かすものであり、その脅威に対処する唯一の方法は次のとおりであると信じています。 すべてを完全にシャットダウンします。
パルマー氏は、ハリウッド映画を通じて AI に詳しくなった人ほど、AI が人類に対する脅威であると信じる可能性が高いと説明しました。 同氏は、表明されている懸念は「社会の大部分が抱いている恐怖を反映している」と述べた。
「それらは映画で見たものから来ています。 彼らは驚くべきもので、ターミネーターを見ていると、それが現実であり、今すぐにでもやって来てあなたを殺しに来ると思うでしょう。」 と パルマル。
「これは殺人機械であり、映画全体を通して AI がさまざまな方法で使用されています。これまでに行われたことを解釈し、未来を予測し、さまざまな状況に対応します。 AIについては明確には言及されていないが、これを行っているのがAIであることはご存知だろう」と氏は付け加えた。
責任ある開発
ターミネーター、エクス マキナ、マトリックスのような SF 映画では、AI は人類に対する脅威として描かれることがよくあります。 映画では、自己を認識し、その創造者である人間を絶滅させることを決意する人工知能システムが描かれています。
パルマー氏によると、映画はフィクションだが、AI に対する一般の認識を形作るのに役立っているという。 同氏は、AIはハリウッドが信じているほど強力ではなく、システムはまだ独立した思考や行動を行うことができないと指摘した。
「AI は単なるソフトウェアであり、いかなるソフトウェアも意図を持っていません。感情を持っていません」とパルマー氏は述べ、人工知能の開発におけるバランスと責任を訴えました。
「AIに関しては当然の懸念がある。だからこそ我々はAIが責任を持って成長するようにする必要がある」と同氏は述べた。
「共通の行動規範を信じる倫理専門家によって開発される必要がある。」 の 英国コンピュータ協会 同最高経営責任者は、メディアがAIの危険性についての誤解を生むために「こうした不安を煽っている」と非難した。
「映画もメディアも変わらなければいけないのか?」 いいえ。これは、AI の現実について、そしてそれが私たちが幼い頃に得られるスキルや教育の一部であるために、より多くの公教育が必要であることを証明しているだけです」とパルマー氏は付け加えた。
AI規制
世界中の規制当局はここ数カ月で AI にさらに注目し始めています。 先週、欧州委員会副委員長マルグレーテ・ベステアー氏は、 と EUと米国は数週間以内に人工知能に関する自主的な行動規範を起草する予定だ。
⚠️説明責任を負う #AI 待てません。 それは今です。 今日 #TTC 最初の自発的な AI の作業が開始されました #行動規範。 私たちは主要なパートナーと協力していきます。 #AI コミュニティ #安全対策 AI を責任があり、安全で信頼できるものにする。 これは我々が負けるわけにはいかないレースにおいて大きな一歩だ。 pic.twitter.com/WBcazIysiK
— Margrethe Vestager(@vestager) 2023 年 5 月 31 日
同氏は、米国とEUは新たな法律の策定に伴い、AIに対する安全策を提供するための自主的な行動規範を推進すべきだと述べた。 7月にいわゆるGXNUMX諸国の首脳が日本で会合し、AIの「信頼性」を維持するための技術標準の開発を求めた。
中国サイバースペース局はすでに、「フェイクニュース」を広めるためにAIが生成したコンテンツの使用を禁止する新たな規制を発行している。 オーストラリアでは、エド・フーシク産業・科学大臣が、間もなく規制が始まると述べた。
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- プラトアイストリーム。 Web3 データ インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- 未来を鋳造する w エイドリエン・アシュリー。 こちらからアクセスしてください。
- PREIPO® を使用して PRE-IPO 企業の株式を売買します。 こちらからアクセスしてください。
- 情報源: https://metanews.com/could-sci-fi-movies-like-terminator-have-shaped-our-fears-of-ai/
- :持っている
- :は
- :not
- $UP
- 1
- 31
- 8
- 9
- a
- 私たちについて
- 従った
- Action
- 追加されました
- 管理
- 提供します
- アフリカ
- AI
- AIトレーニング
- すべて
- 一人で
- 既に
- また
- 驚くべき
- アメリカ
- an
- &
- どれか
- Apple
- です
- 周りに
- 人工の
- 人工知能
- AS
- At
- 注意
- オーストラリア
- バック
- 禁止
- BCS
- BE
- になる
- き
- さ
- 信じる
- と考えています
- ビッグ
- ビッグテック
- 億万長者
- ビット
- 本
- 英国の
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- 呼ばれます
- 呼び出し
- 缶
- できる
- 原因となる
- センター
- 最高経営責任者(CEO)
- 最高経営責任者(CEO)
- 変化する
- チーフ
- 最高経営責任者
- 最高技術責任者
- CO
- 共同創設者
- コード
- 来ます
- 到来
- 近日公開
- 注釈
- 委員会
- コミュニティ
- 完全に
- コンピュータ
- 懸念事項
- プロフェッショナルな方法で
- 見なさ
- コンテンツ
- 可能性
- 作ります
- クリエイター
- サイバースペース
- 危険
- 取引
- 決めます
- 発展した
- 開発
- 異なります
- 差別
- 虚偽情報
- すること
- 行われ
- ダウン
- ドラフト
- 東
- ed
- 教育
- エロン
- イーロン·マスク
- エーテル(ETH)
- 倫理的な
- EU
- ヨーロッパ
- 欧州言語
- 欧州委員会
- さらに
- エグゼクティブ
- 役員
- 実存的な
- 期待する
- 説明
- 表現
- 絶滅
- おなじみの
- 恐怖
- フィクション
- 膜
- 前者
- から
- ガソリンタンク
- 未来
- G7
- ゲーリー
- 取得する
- 行く
- でログイン
- 育ちます
- 有害な
- 持ってる
- he
- 健康
- 助けました
- 彼の
- ハリウッド
- 認定条件
- HTTPS
- 巨大な
- 人間
- 人類
- i
- IBM
- 考え
- in
- 含めて
- 独立しました
- 産業を変えます
- インスピレーションある
- インテリジェンス
- 意図
- 発行済み
- IT
- ITS
- 日本
- ジョブ
- JPG
- ただ
- キープ
- キー
- 殺します
- 知っている
- 言語
- 大
- 姓
- リーダー
- 立法
- 正当な
- ような
- 可能性が高い
- ローカル
- 失う
- 損失
- 著名人
- 機械
- make
- マネージド
- 多くの
- 3月
- マーカス
- マルグレーテVestager
- 質量
- 大規模な
- マトリックス
- 最大幅
- 五月..
- メディア
- 言及した
- 真ん中
- 中東
- 誤解
- 月
- ヶ月
- モラトリアム
- 他には?
- 最も
- 動画
- 麝香
- 国連
- 必要
- ニーズ
- 新作
- 新しい法律
- ニュース
- いいえ
- 注意
- 今
- 核の
- of
- オフ
- 役員
- 頻繁に
- on
- の
- OpenAI
- or
- その他
- 私たちの
- パンデミック
- 部
- パートナー
- 過去
- 支払う
- のワークプ
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 人気
- 描かれた
- ポーズ
- 潜在的な
- 強力な
- 予測
- 社長
- 専門家
- 推進する
- 証明する
- 提供します
- 公共
- 公共の信頼
- 目的
- レース
- 隆起した
- 読む
- リアル
- 現実
- 最近
- 規制
- 規制
- 応答
- 責任
- 責任
- 責任をもって
- リスク
- リスク
- ロボット
- s
- 安全な
- 保障措置
- 安全性
- 前記
- 同じ
- 言う
- サイエンスフィクション
- 科学
- サイエンスフィクション
- 科学者
- 二番
- 見て
- いくつかの
- 形状
- 形
- shared
- すべき
- 署名されました
- 状況
- スキル
- スカイ
- 社会
- ソフトウェア
- すぐに
- 広がる
- 規格
- 開始
- 明記
- ステートメント
- 米国
- 手順
- スティーブ
- スティーブ·ウォズニアック
- そのような
- 確か
- 監視
- システム
- ティーチング
- テク
- 技術的
- テクノロジー
- それ
- 未来
- 世界
- アプリ環境に合わせて
- その後
- そこ。
- ボーマン
- 彼ら
- 考える
- この
- 考え
- 脅威
- 脅威
- 介して
- 全体
- 〜へ
- 今日
- トレーニング
- true
- 信頼
- 信頼できる
- さえずり
- 私達
- 失業
- ユナイテッド
- 米国
- 緊急
- 促します
- us
- つかいます
- 中古
- 使用されます
- 非常に
- 副会長
- 自発的
- wait
- ウェーク
- 戦争
- 警告
- よく見る
- 仕方..
- 方法
- we
- 週間
- ウィークス
- この試験は
- いつ
- which
- 誰
- なぜ
- 勝利
- 以内
- 仕事
- 作品
- 世界
- でしょう
- まだ
- 貴社
- 若い
- ゼファーネット