責任あるAIはあなたに競争上の優位性をもたらします

ソースノード: 1585975

Future of Work Summitのセッションを見逃しましたか? 私たちに向かいます 未来の仕事サミットオンデマンドライブラリ ストリームへ。


AI がビジネス環境を変え、AI を採用する企業に競争上の優位性を提供していることは疑いの余地がありません。 しかし、AI の単純な実装を超えて、AI が安全かつ倫理的な方法で確実に実行されるようにする時が来ました。 これは 責任あるAI マイナスの結果に対する防御としてだけでなく、それ自体が競争上の優位性としても機能します。

責任あるAIとは?

Responsible AI は、倫理、法律、安全性、プライバシー、および説明責任に関する懸念事項をカバーするガバナンス フレームワークです。 責任ある AI の実装は企業によって異なりますが、その必要性は明らかです。 責任ある AI の実践が実施されていない場合、企業は重大な財務、評判、および法的リスクにさらされます。 良い面としては、特に政府が関与している場合、責任ある AI の実践が、特定の契約に入札するための前提条件になりつつあります。 うまく実行された戦略は、これらの入札を勝ち取るのに大いに役立ちます。 さらに、責任ある AI を採用することで、会社全体の評判を高めることができます。

設計値

責任ある AI を実装する問題の多くは、先見性にかかっています。 この先見の明とは、AI システムがその開発および展開のライフサイクル中にどのような倫理的または法的問題を引き起こす可能性があるかを予測する能力です。 現在、責任ある AI に関する考慮事項のほとんどは、AI 製品の開発後に行われます。これは、AI を実装する方法としては非常に効果的ではありません。 財務、法律、評判のリスクから会社を守りたい場合は、責任ある AI を念頭に置いてプロジェクトを開始する必要があります。 あなたの会社は、プロジェクトの最後にたまたまどうなるかではなく、デザインによって価値を持つ必要があります。

設計による価値の実装

責任ある AI は、企業のリーダーシップが優先する必要がある多くの価値をカバーしています。 責任ある AI 計画では、すべての領域をカバーすることが重要ですが、会社が各価値に費やす労力の量は、会社のリーダー次第です。 責任ある AI を確認することと、実際に AI を実装することの間でバランスを取る必要があります。 責任ある AI に多大な労力を費やすと、効果が低下する可能性があります。 一方、責任ある AI を無視することは、会社のリソースを無謀に扱うことになります。 このトレードオフに対処する最善の方法は、事後的な取り組みとしてではなく、プロジェクトの開始時に徹底的な分析から始めることです。

ベスト プラクティスは、責任ある AI 委員会を設立して、AI プロジェクトを開始前、プロジェクト期間中、および完了時に定期的にレビューすることです。 この委員会の目的は、責任ある AI の価値観に照らしてプロジェクトを評価し、プロジェクトを準拠させるためのアクションを承認、不承認、または不承認にすることです。 これには、より多くの情報を取得するよう要求することや、根本的に変更する必要があることを含めることができます。 生物医学研究の倫理を監視するために使用される機関審査委員会のように、この委員会には AI の専門家と非技術者の両方のメンバーを含める必要があります。 技術者以外のメンバーは、バックグラウンドを問わず、AI の専門家の現実をチェックする役割を果たします。 一方、AI の専門家は、問題点と可能な改善策をよりよく理解しているかもしれませんが、組織や業界の規範に慣れすぎて、より大きなコミュニティの懸念に十分に敏感ではない可能性があります。 この委員会は、プロジェクトの開始時、プロジェクト中は定期的に、プロジェクトの終了時に最終承認のために招集されるべきです。

責任ある AI 委員会はどのような価値を考慮する必要がありますか?

重視すべき価値観は、ビジネス全体のミッション ステートメントに適合するものと見なされるべきです。 あなたのビジネスは、強調する特定の価値を選択する可能性がありますが、主要な関心領域はすべてカバーする必要があります。 インスピレーションを得るために選択できるフレームワークはたくさんあります。 Googleの & Facebookの. ただし、この記事では、信頼できる人工知能の評価リストで欧州委員会によって設定された人工知能に関するハイレベル専門家グループによって定められた推奨事項に基づいて議論します。 これらの推奨事項には、XNUMX つの領域が含まれます。 各分野を調査し、各分野に関する質問を提案します。

1. 人間の代理と監督

AI プロジェクトは、人間の主体性と意思決定を尊重する必要があります。 この原則には、意思決定プロセスにおいて AI プロジェクトが人間にどのように影響を与えるか、人間をサポートするかが含まれます。 また、AI の対象者が AI をどのように認識し、その結果を信頼できるようになるかも含まれます。 尋ねる必要があるいくつかの質問は次のとおりです。

  • ユーザーは、意思決定または結果が AI プロジェクトの結果であることを認識していますか?
  • AI プロジェクトの悪影響を監視する検出および対応メカニズムはありますか?

2. 技術的堅牢性と安全性

技術的な堅牢性と安全性を確保するには、AI プロジェクトが AI の信頼性の低い動作に関連するリスクに関する懸念に先制的に対処し、そのような影響を最小限に抑える必要があります。 AI プロジェクトの結果には、AI が予測可能かつ一貫して実行する能力が含まれている必要があり、AI をサイバーセキュリティの懸念から保護する必要性をカバーする必要があります。 尋ねる必要があるいくつかの質問は次のとおりです。

  • AI システムはサイバーセキュリティの専門家によってテストされていますか?
  • AI プロジェクトに関連するリスクを測定してアクセスするための監視プロセスはありますか?

3. プライバシーとデータガバナンス

AI は、インプットとアウトプットの両方において、個人とグループのプライバシーを保護する必要があります。 アルゴリズムには、プライバシーを侵害する方法で収集されたデータを含めるべきではありません。また、悪意のある人物がそのようなエラーを強制しようとしている場合でも、被験者のプライバシーを侵害する結果を与えるべきではありません。 これを効果的に行うには、データ ガバナンスも考慮する必要があります。 適切な質問には次のようなものがあります。

  • トレーニングまたは推論データのいずれかで、保護された個人データが使用されていますか?
  • この AI プロジェクトの結果は、個人のプライバシーを侵害するような方法で外部データと交差する可能性がありますか?

4。 透明

透明性は、個々の結果の追跡可能性と AI アルゴリズムの全体的な説明可能性に関する懸念をカバーします。 トレーサビリティにより、ユーザーは個々の決定が行われた理由を理解できます。 説明可能性とは、ユーザーが意思決定に使用されたアルゴリズムの基本を理解できることを指します。 また、特定の予測の意思決定プロセスにどのような要因が関与しているかを理解するユーザーの能力も指します。 質問事項は次のとおりです。

  • 入力データの品質を監視および記録していますか?
  • ユーザーは、特定の決定がどのように行われたか、およびその決定を変更するために何ができるかについてのフィードバックを受け取ることができますか?

5. 多様性、無差別

責任ある AI と見なされるためには、AI プロジェクトは可能な限りすべてのサブグループの人々に対して機能する必要があります。 その間 AIバイアス 完全に排除できることはめったにありませんが、効果的に管理できます。 この緩和は、データ収集プロセス中に行うことができ、トレーニング データセットに多様なバックグラウンドを持つ人々を含めることができます。また、推論時に使用して、さまざまな人々のグループ間の精度のバランスを取ることもできます。 一般的な質問は次のとおりです。

  • さまざまなサブグループの人々を含めるために、トレーニング データセットのバランスを可能な限り調整しましたか?
  • 公平性を定義し、その結果を定量的に評価していますか?

6. 社会的および環境的福祉

AI プロジェクトは、環境への影響とともに、被験者とユーザーへの影響の観点から評価する必要があります。 民主的な意思決定、価値観の維持、AI プロジェクトへの依存の防止などの社会的規範を維持する必要があります。 さらに、環境に関する AI プロジェクトの決定の結果は、該当する場合に考慮する必要があります。 ほぼすべてのケースに当てはまる要因の XNUMX つは、必要なモデルのトレーニングに必要なエネルギー量の評価です。 尋ねることができる質問:

  • プロジェクトのユーザーや主題、その他の利害関係者への影響を評価しましたか?
  • モデルのトレーニングに必要なエネルギーはどれくらいで、それが炭素排出にどの程度寄与するか?

7。 アカウンタビリティ

AI プロジェクトによって行われた、または開発中に遭遇した行動や決定に対して、何らかの人または組織が責任を負う必要があります。 不利な決定が下された場合に、救済の十分な可能性を確保するためのシステムが必要です。 また、リスク管理と軽減に時間と注意を払う必要があります。 適切な質問は次のとおりです。

  • AI システムは、第三者によるリスク監査を受けることができますか?
  • AI プロジェクトに関連する主なリスクは何ですか?また、それらをどのように軽減できますか?

ボトムライン

上記で概説した責任ある AI の XNUMX つの価値は、組織の責任ある AI イニシアチブの出発点となります。 責任ある AI を追求することを選択した組織は、政府との契約への入札など、より多くの機会にアクセスできるようになるでしょう。 これらの慣行を実施しない組織は、法的、倫理的、および評判上のリスクにさらされます。

David Ellison は、シニア AI データ サイエンティストです。 レノボ.

VentureBeatの

VentureBeatの使命は、技術的な意思決定者が革新的なテクノロジーと取引についての知識を習得するためのデジタルタウンスクエアになることです。 私たちのサイトは、あなたが組織を率いるときにあなたを導くためのデータ技術と戦略に関する重要な情報を提供します。 以下にアクセスして、コミュニティのメンバーになることをお勧めします。

  • あなたが興味を持っている主題に関する最新情報
  • ニュースレター
  • ゲート付きのソートリーダーコンテンツと、次のような貴重なイベントへの割引アクセス 変換2021: もっと詳しく知る
  • ネットワーク機能など

会員になる

出典:https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/

タイムスタンプ:

より多くの AI – ベンチャービート