ヨーロッパは、信頼と取り込みを高めるためのリスクベースのAIルールの計画を策定します

ソースノード: 822535

欧州連合の議員は彼らの リスクベースの提案 ブロックの単一市場内での人工知能の高リスクアプリケーションを規制するため。

この計画には、中国式の社会信用スコアリングシステムや特定の種類のAIを活用した大規模監視など、人々の安全やEU国民の基本的権利にとって危険すぎると考えられる少数のユースケースの禁止が含まれている。

この提案では、AI のほとんどの用途は禁止どころかいかなる規制にも直面しないが、いわゆる「高リスク」用途の一部は事前 (事前) と事後 (事後) の両方で特定の規制要件の対象となる。 )市場に投入されます。

チャットボットやディープフェイクなど、AIの特定のユースケースには透明性の要件もあります。EUの議員は、人工的なものとやり取りしていることをユーザーに通知することで潜在的なリスクを軽減できると考えています。

計画されている法律は、EUを拠点とする企業や個人だけでなく、EUにAI製品またはサービスを販売するすべての企業に適用されることを目的としています。したがって、EUのデータ保護体制と同様に、その範囲は治外法権になります。

EU議員の包括的な目標は、テクノロジーの普及を促進するためにAIがどのように実装されているかについての国民の信頼を育むことです。 委員会の高官は、ヨーロッパの価値観に沿った「卓越したエコシステム」を開発したいと話します。

「今日、私たちは、安全で信頼できる人間中心の人工知能の開発とその利用において、欧州を世界クラスにすることを目指しています」と欧州委員会副副社長のマルグレーテ・ベステアー氏は記者会見でこの提案の採択を発表し、述べた。

「一方で、私たちの規制は、AIの特定の使用に関連する人的および社会的リスクに対処しています。 これは信頼を築くことです。 一方、私たちの調整された計画は、加盟国が投資と革新を後押しするために取るべき必要なステップを概説しています。 卓越性を保証するため。 これはすべて、ヨーロッパ全体でAIの普及を確実に強化するためです。」

この提案では、必須要件はAIのアプリケーションの「高リスク」カテゴリに関連付けられています。 明確な安全上のリスクを提示するか、衝突する恐れがあります EU基本権 (無差別の権利など)。

使用に関して最高レベルの規制の対象となる高リスクの AI ユースケースの例は、規制の付録 3 に記載されています。欧州委員会は、これを、次のようなユースケースとして、委任行為によって拡大する権限があると述べています。 AIは発展を続け、リスクも進化します。

現在引用されている高リスクの例は、次のカテゴリに分類されます。自然人の生体認証と分類。 重要なインフラストラクチャの管理と運用。 教育と職業訓練; 雇用、労働者管理および自営業へのアクセス。 重要な民間サービスおよび公共サービスと利益へのアクセスと享受。 法執行機関; 移住、庇護および国境管理の管理。 正義と民主的プロセスの管理。

規制はブロックの内部市場に焦点を合わせているため、AIの軍事的使用は特に範囲から除外されます。

高リスクアプリケーションのメーカーは、製品を市場に出す前に遵守する一連の事前義務を負います。これには、AIのトレーニングに使用されるデータセットの品質や、設計だけでなく使用に対する人間による監視のレベルも含まれます。システムの概要—および継続的な事後要件(市販後調査の形で)。

その他の要件には、コンプライアンスチェックを可能にし、ユーザーに関連情報を提供するためにAIシステムのレコードを作成する必要性が含まれます。 AIシステムの堅牢性、精度、セキュリティも規制の対象となります。

委員会の関係者は、AIのアプリケーションの大部分がこの高度に規制されたカテゴリから外れることを示唆しました。 これらの「低リスク」AIシステムのメーカーは、使用時に(法的拘束力のない)行動規範を採用するように奨励されるだけです。

特定のAIユースケース禁止に関する規則に違反した場合の罰則は、世界の年間売上高の最大6%または30万ユーロ(いずれか大きい方)に設定されています。 高リスクのアプリケーションに関連するルールの違反は、最大4%(または20万ユーロ)まで拡大する可能性があります。

施行には、各EU加盟国の複数の機関が関与します。この提案では、製品安全機関やデータ保護機関などの既存の(関連する)機関が監視を実行することを意図しています。

このことは、国家機関が AI 規則を取り締まる際に直面するであろう追加の作業と技術的な複雑さを考慮すると、国家機関の適切なリソースについて当面の疑問を生じさせる。 また、特定の加盟国における施行のボトルネックをどのように回避するかについても説明します。 (特に、EU の一般データ保護規則は加盟国レベルでも監督されており、均一に強力な執行が行われていないことに悩まされています。)

また、ブロックに実装された高リスクシステムの登録簿を作成するためにEU全体のデータベースが設定されます(これは委員会によって管理されます)。

欧州人工知能委員会(EAIB)と呼ばれる新しい組織も、GDPRの適用に関するガイダンスを提供する欧州データ保護委員会と同様に、規制の一貫した適用をサポートするために設立されます。

AIの特定の用途に関する規則と歩調を合わせて、この計画には、新興企業や中小企業によるAIを活用したイノベーションの開発とテストを支援する規制サンドボックスの確立など、AI開発に対するEU加盟国の支援を調整するための措置が含まれている。 AI開発者を支援するためにEUの資金を対象とした。

国内市場委員のティエリー・ブルトン氏は、投資は計画の重要な部分であると述べた。

「当社の Digital Europe および Horizo​​n Europe プログラムに基づいて、年間 20 億ユーロを解放する予定です。 それに加えて、我々は今後140年間、つまり我々が「デジタルの19年」と呼んでいる期間に、民間投資とEU全体で年間XNUMX億ユーロの投資を生み出したいと考えている」と同氏は述べた。 「私たちはまた、次世代EU(新型コロナウイルス感染症復興基金)の下でデジタル投資に資金を提供するXNUMX億ユーロを確保したいと考えています。一部はAIにも参入します。」

AIのルールの形成は、2019年末に就任したEUのウルズラフォンデアライエン委員長にとって重要な優先事項でした。ホワイトペーパーが発行されました。 昨年、次の 2018 AI forEU戦略 —そしてベスタガーは、今日の提案はXNUMX年間の作業の集大成であると述べました。

ブレトン氏は、企業にAIを適用するためのガイダンスを提供することで法的確実性が高まり、欧州が有利になると付け加えた。 「信頼…私たちが望む人工知能の開発を可能にするためには、極めて重要であると私たちは考えています」と彼は言いました。 [AI のアプリケーションは] 信頼でき、安全で、無差別である必要があります。これは極めて重要ですが、もちろん、これらのアプリケーションがどのように機能するかを正確に理解できる必要もあります。」

「私たちに必要なのは、ガイダンスを持つことです。 特に新しいテクノロジーでは…私たちは、ガイドラインを提供する最初の大陸になります。「ねえ、これは緑、これは濃い緑、これは少しオレンジ色で、これは禁止されています」と言います。 。 だから今、あなたが人工知能アプリケーションを使いたいなら、ヨーロッパに行ってください! あなたは何をすべきかを知っているでしょう、あなたはそれを行う方法を知っているでしょう、あなたはかなりよく理解しているパートナーを持っているでしょうそしてところであなたはあなたが地球上で作成された最大量の産業データを持っている大陸にも来るでしょう次のXNUMX年間。

「人工知能はデータに関するものなので、ここに来てください。ガイドラインを提供します。 また、それを実行するためのツールとインフラストラクチャも用意されます。」

今日の提案のバージョン 先週リーク —につながる 計画を強化するためのMEPによる呼びかけ、 といった 公共の場所での遠隔生体認証監視を禁止することによって。

最終提案が遠隔生体認証監視をAIの特にリスクの高いアプリケーションとして扱っている場合、法執行機関による公の場での技術の使用は原則として禁止されています。

ただし、有効な法的根拠と適切な監視を条件として、法執行機関が引き続き使用できる場合を除いて、使用は完全に禁止されていません。

弱すぎるとして攻撃された保護

委員会の提案に対する反応には、法執行機関に対する適用除外が広すぎることへの批判や、AIシステムによる差別のリスクに対処する対策が十分ではないという懸念が含まれていた。

刑事司法NGOの公正な裁判は、規制が刑事司法に関連して意味のある保障措置を含むためには根本的な改善が必要であると述べた。 声明のコメント、 NGOの法務および政策担当官であるGriffFerrisは、次のように述べています。EUの提案は、刑事司法の結果における差別のハードワイヤリングを防ぎ、無罪の推定を保護し、確実にするために根本的な変更を必要としています 刑事司法におけるAIの意味のある説明責任。 

「法律には差別に対する保護手段が欠けていますが、「公安の保護」に対する広範な免除は、刑事司法に関連して存在するほとんどの保護手段を完全に下回っています。 フレームワークには次のものが含まれている必要があります 差別を防ぎ、公正な裁判を受ける権利を保護するための厳格な保護措置と制限。 これには、人々のプロファイルを作成し、犯罪のリスクを予測しようとするシステムの使用を制限することを含める必要があります。」 

欧州自由人権連合(リバティーズ)もまた、EU加盟国がAIの問題のある使用禁止を回避できると同NGOが述べた抜け穴を指摘した。

「犯罪を予測するためのアルゴリズムの使用や、国境管理下にある人々の感情状態をコンピューターに評価させるなど、許可されているテクノロジーの問題のある使用法が多すぎます。どちらも深刻な人権リスクを構成し、脅威をもたらします。 EUの価値観に」と、上級擁護責任者のOrsolyaReichは声明の中で警告した。 「私たちはまた、警察が私たちの基本的な権利と自由を危険にさらすような方法で顔認識技術を使用する可能性があることを懸念しています。」

ドイツ海賊党議員パトリック・ブライヤー氏も、この提案は「欧州の価値観」を尊重するという主張の基準を満たしていない、と警告した。 同議員は委員会への書簡に署名した40人のうちのXNUMX人だった 先週 リークされたバージョンの提案は、基本的権利を保護するのに十分に進んでいないことを警告します。

「私たちは、欧州連合に倫理的要件と民主的価値観に沿った人工知能をもたらす機会をつかむ必要があります。 残念ながら、委員会の提案は、顔認識システムや他の種類の大量監視などを通じて、ジェンダーの正義とすべてのグループの平等な扱いの危険から私たちを保護することはできません」とブレイヤーは今日の正式な提案に反応した声明で述べました。

「私たちの公共空間における生体認証および大量監視、プロファイリング、行動予測技術は、私たちの自由を損ない、開かれた社会を脅かしています。 欧州委員会の提案は、私たちの大多数の人々の意志に反して、公共の場での自動顔認識のリスクの高い使用を欧州連合全体にもたらすでしょう。 提案された手続き上の要件は、単なる煙幕です。 これらのテクノロジーによる特定のグループの人々の差別や無数の個人の誤った犯罪を許すことはできません。」

消費者権利の統括団体であるBEUCも即座に批判し、欧州委員会の提案は「非常に限られた範囲のAIの使用と問題」の規制に焦点を当てているため、消費者保護が弱いとして攻撃した。

「欧州委員会は、消費者が日常生活でAIを信頼できるようにすることにもっと重点を置くべきでした」と、Beucの事務局長であるMonique Goyensは、声明の中で述べています。 「高リスク」、「中リスク」または「低リスク」。 EUは、消費者が強制力のある権利を持ち、何か問題が発生した場合の救済や救済へのアクセスを確保するために、さらに多くのことをしなければなりません。」

Airbnb、Apple、Facebook、Google、Microsoft、その他のプラットフォーム大手がメンバーとなっているハイテク業界団体 Dot Europe (旧 Edima) は、この提案の発表を歓迎したが、本稿執筆時点では詳細なコメントはまだ出しておらず、策定中であると述べたその位置。

他のテクノロジーロビー団体は、AIを官僚的に包むという見通しを見て、待ちきれずに攻撃を開始し、この規制はワシントンとブリュッセルを拠点とするテクノロジー政策のXNUMXつとして「EUの初期のAI産業が歩き方を覚える前に膝を打つことになる」と主張した。シンクタンク(データイノベーションセンター)がそう述べた。

CCIA業界団体はまた、「開発者とユーザーにとって不必要な官僚的形式主義」に対してすぐに警告し、次のように付け加えました。 規制 単独ではEUをリーダーにすることはできません AI.

本日の提案は、EUの共同立法過程の下で多くの議論の始まりを開始し、EU理事会を介した欧州議会と加盟国は草案について意見を述べる必要があります。つまり、EU機関が合意に達する前に多くのことが変わる可能性があります。汎EUAI規制の最終的な形。

コミッショナーは、他のEU機関が直ちに関与することを望んでおり、プロセスをできるだけ早く行うことができると述べただけで、今日法案が採択される可能性のある時間枠を与えることを拒否した。 それにもかかわらず、規制が批准されて施行されるまでには数年かかる可能性があります。

このレポートは、委員会の提案に対する反応で更新されました

出典:https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

タイムスタンプ:

より多くの TechCrunchの