By ジョン・P・デズモンド、 AIトレンド エディター
倫理学者は、サミーの出発とともにグーグルで解約を続けています ベンジオ、で知られるカナダのコンピューター科学者 共同設立 機械学習で働く研究者の大規模なグループを率いてきたGoogleBrain。
差し迫った出発は6月XNUMX日にからのアカウントで発表されました ブルームバーグ。 これは、Googleでの論文のレビュー方法と多様性の実践について質問した数人の同僚の出発に続くものです。 ベルンジオの 最終日は28月2007日です。 彼はXNUMX年にGoogleに入社しました。
辞任の前に、元Googleの倫理的AIの共同リーダーであるTimnit Gebruが辞任しました(参照 AIトレンド 10年2020月19日)とマーガレットミッチェル(XNUMX月XNUMX日に報告)、両方ともベンジオに報告しました。
XNUMX月の後半、Googleは研究ユニットを再編成し、残りの倫理AIグループのメンバーをマリアンクローク博士の下に置きました。これにより、ベンジオの責任が軽減されました。
ベンジオは、ニューラルネットワーク、機械学習、深層学習、統計、コンピュータービジョン、自然言語処理に関する約250の科学論文を執筆しています。 DBLP、コンピュータサイエンスの参考文献のWebサイト。
「次の挑戦を楽しみにしていますが、この素晴らしいチームを離れることは本当に難しいことは間違いありません。」 ベンジオ ブルームバーグによると、彼の辞任を発表する電子メールに書いた。 彼はゲブル、ミッチェルに言及しなかった, または彼らの出発につながった不一致。 グーグルはブルームバーグへのコメントを拒否した。
サミーベンジオへのオマージュ
「サミーベンジオの辞任はグーグルにとって大きな損失です。」 ツイート グーグルブレインの科学者であるエルマハディエルマムディは、ベンジオが「ベル研究所以来、業界で最も基本的な研究グループのXNUMXつであり、最も収益性の高い研究グループのXNUMXつ」の構築に貢献したと述べました。
「もちろん、機械学習の研究に関して、皆さんと一緒にたくさんのことを学びましたが、長期的な野心的な研究、探索、厳密さ、多様性を促進するために研究者の大規模なチームを編成することがいかに難しいか、しかし重要かについても学びました。, とインクルージョン」 ベンジオ 彼の電子メールに記載されています。
のレポートから ロイター通信社, 現在ソフトウェアスタートアップのLandingAIを運営しているBrainの初期メンバーであるAndrewNgは、Bengioは「AIテクノロジーと倫理の前進に尽力してきました」と述べています。 別の創設メンバーであるジェフディーンは現在、Googleの何千人もの研究者を監督しています。
グーグルブレインの研究者サラ・フッカーはツイートの中で、ベンジオの辞任を「グーグルにとって大きな損失」と表現した。
XNUMX月、Googleは、スタッフの科学者であるマーガレットミッチェルが電子ファイルを会社から転送したと主張した後、彼女を手放しました。 ゲブルの出発は、彼女が大規模な言語モデルに関する倫理的懸念についての会議に提出した論文をめぐる論争に続いた。 ミッチェル氏は、「人種やジェンダーの不平等について懸念を表明し、グーグルによるゲブル博士の問題のある解雇について発言しようとした」と述べたとロイターは報じた。 ゲブル氏は、同社の製品に対する批判を抑えたいと語った。 グーグルは辞任の申し出を受け入れたと言った。
ベンジオは、AIソフトウェアに関連する倫理的問題を研究している約XNUMX人のチームを共同で率いたペアを擁護していました。 ロイター通信によると、XNUMX月にベンジオはフェイスブックで、彼が管理していたゲブルが彼に相談されることなく会社から除名されたことに驚いたと書いた。
グーグルブレインの研究者であるニコラスルルーはロイターに、ベンジオは研究組織をより包括的にすることに専念し、「誰もが歓迎されていると感じる空間を作った」と語った。
ミッチェルは、Microsoft Corp.の研究所で働いた後、2016年2017月にGoogleに入社しました。このプロジェクトでは、最高経営責任者のSatya Nadellaによって大いに宣伝された、目の不自由なユーザーが周囲の世界を「視覚化」するのに役立つテクノロジーであるSeeingAIプロジェクトに取り組みました。 。 Googleで、彼女はXNUMX年にEthical AIチームを設立し、機械学習モデルの機能とその制限を説明する方法や、機械学習データセットの説明責任と透明性を高める方法などのプロジェクトに取り組みました。 ビジネスマーベリック.
倫理的なAIについての会話を組み立てるビッグテック企業
倫理的なAIに関するGoogleのPRメルトダウンは、一握りの巨大企業が - ビッグテック - 倫理的なAIに関する会話を指示することができます、最近のアカウントを提案しました ファースト·カンパニー。 議論はハイステークスとして組み立てられており、AIは、クレジットスコアリングや刑事判決からヘルスケアへのアクセス、就職の面接を受けるかどうかまで、今日の多くの重要な自動システムを支えています。
モデルが現実の世界に展開されたときに引き起こす可能性のある害は、差別的な雇用システム、少数民族グループを対象とした人種プロファイリングプラットフォーム、人種差別的であるリスクのある予測ポリシングダッシュボードで明らかです。 S法執行機関が使用する顔認識技術によって誤認された後、誤って逮捕されたと言う黒人男性によって、何度も訴訟が提起されています。
一握りの巨大企業 どのアイデアが経済的支援を受けるかを決定し、テクノロジーを作成して批評するために誰が部屋に入るのかを決定します。
GoogleでのGebruとMitchellの経験は、社内のAI倫理研究者が雇用主が開発していることに多くの影響力を持っているかどうかが明確でないことを示しています。 一部のオブザーバーは、ビッグテックのAI倫理への投資はPRの動きであると示唆しています。 「これは単なるティムニットよりも大きい」とUCLAの教授で共同創設者のサフィヤ・ノーブルは述べた。 副理事 重要なインターネット照会センターの。 「これは、抽出と活用を前提とし、それを難読化するためにできる限りのことを行う業界に関するものです。」
AI倫理の「決定者」の多様性についての質問も提起されています。 責任あるAIに取り組んでいる上位30の組織の新しい分析 - Stanford HAI、AI Now、Data&Society、Partnership on AIを含む–機関を率いる94人のうち、24人が黒人、XNUMX人が女性であることを示しました。 分析は、元GoogleコミュニティグループマネージャーのMiaShah-Dandが率いるWomenin AIEthicsによって実施されました。
限られた多様性が、研究とAIの影響を受けるコミュニティとの間の断絶につながると示唆する人もいます。 AI倫理研究者は、アルゴリズムからバイアスを取り除き、公平性の数学的概念を実現する技術的な方法に焦点を当てています。 ワシントン大学の言語学教授であり、「確率論的オウムの危険性について」のゲブルとの共著者であるエミリーベンダーは、次のように述べています。 Googleで問題を引き起こした論文。
マリアンクローク博士は、GoogleResearchの新しい倫理リーダーです。
マリアン・クロークは、最近公開された同僚とのインタビューで、自分自身について語り、彼女が新しい責任に取り組む計画を概説しました。 Googleブログ.
Croak博士は、約200年前にGoogleに異動する前に、AT&T研究所で長年働いていたエンジニアです。 彼女はVoiceover IPの開発者として認められており、XNUMXを超える特許を取得しています。 Googleでは、新興市場へのサービス拡大に注力してきました。 一例では、彼女はインドの鉄道システム全体にWi-Fiを導入し、異常気象と人口密度の高さに対処しました。
「責任あるAIと倫理の分野であるこの分野は新しいものです」とCroak氏は述べています。 「ほとんどの機関は原則を開発しただけであり、過去XNUMX年間で、それらは非常に高レベルで抽象的な原則です。 これらの原則の規範的な定義を標準化しようとすることに関しては、多くの意見の相違、多くの対立があります。 公平性、つまり安全性の定義は誰が使用するのでしょうか。 現在、この分野ではかなり多くの対立があり、時には二極化する可能性があります。 そして、私がやりたいのは、おそらく現在よりも外交的な方法で人々に会話をしてもらい、この分野を真に前進させることができるようにすることです。」
ソース記事と情報を読む から ブルームバーグ, in ロイター通信社で ビジネスマーベリック、 の中に ファースト·カンパニー と上 Googleブログ.
- アクセス
- AI
- アルゴリズム
- 分析
- 発表の
- 4月
- AREA
- 周りに
- 逮捕された
- 物品
- AT&T
- オート
- 自動化
- ベル
- ブラック
- ブルームバーグ
- ビルド
- 原因となる
- 挑戦する
- チーフ
- 最高経営責任者
- 共同 - 創設者
- コミュニティ
- コミュニティ
- 企業
- 会社
- コンピュータサイエンス
- Computer Vision
- 講演
- 紛争
- 続ける
- 続ける
- 会話
- コープ
- クレジット
- 刑事上の
- データ
- 中
- 取引
- 深い学習
- Developer
- DID
- 異議申立て
- 多様性
- ダース
- 早い
- 雇用者
- エンジニア
- エンジニアリング
- 倫理
- エグゼクティブ
- 拡大
- エクスペリエンス
- 探査
- 抽出
- 顔認識
- 顔認識技術
- ファイナンシャル
- フォーカス
- フォワード
- 性別
- でログイン
- グループ
- ヘルスケア
- ハイ
- 雇用
- 認定条件
- How To
- HTTPS
- 巨大な
- 差し迫っている
- 含めて
- 包含
- インド
- 産業を変えます
- 機関
- インターネット
- インタビュー
- インベストメント
- IP
- 問題
- IT
- ジョブ
- ラボ
- 言語
- 大
- 法律
- 法執行機関
- 訴訟
- つながる
- リーダーシップ
- 主要な
- 学んだ
- 学習
- ツェッペリン
- 限定的
- 言語学
- 長い
- 機械学習
- 作成
- マーケット
- メルトダウン
- メンバー
- メンズ
- Microsoft
- 少数
- 移動
- 自然言語
- 自然言語処理
- ネットワーク
- ニューラル
- ニューラルネットワーク
- 提供
- 役員
- 紙素材
- パートナーシップ
- 特許
- のワークプ
- プラットフォーム
- 人口
- pr
- 製品
- プロジェクト
- プロジェクト(実績作品)
- 推進する
- レース
- 人種プロファイリング
- 上げる
- レポート
- 研究
- 辞任
- ロイター通信社
- リスク
- 安全性
- サトヤ・ナデラ
- 科学
- So
- 社会
- ソフトウェア
- スペース
- スポンサー
- スタンフォード
- スタートアップ
- 統計
- 提出された
- サポート
- システム
- テク
- 技術的
- テクノロジー
- ソース
- top
- ツイート
- UCLA
- 大学
- ワシントン大学
- users
- ビジョン
- ボイス
- ワシントン
- ウェブサイト
- ホワイトペーパー
- 誰
- Wi-Fiあり
- 以内
- レディース
- 仕事
- 世界
- 年