By 约翰·戴斯蒙德 AI趋势 编者
萨米(Samy)离开后,道德操守继续在Google上流连忘返 本吉奥,加拿大计算机科学家,以 共同创立 谷歌大脑(Google Brain)一直领导着一大批从事机器学习的研究人员。
即将于6月XNUMX日在一个帐户中宣布即将离开 彭博。 紧随其后的是几位同事的离职,他们质疑Google如何审查论文和多样性实践。 贝尔吉奥 最后一天是28月2007日; 他于XNUMX年加入Google。
在辞职之前,前Google道德操守AI联合负责人Timnit Gebru辞职(请参见 AI趋势 10年2020月19日)和玛格丽特·米切尔(Margaret Mitchell)(于XNUMX月XNUMX日报道),他们都曾向本吉奥报道。
XNUMX月下旬,Google重组了研究部门,并将其余的Ethical AI小组成员安排在Marian Croak博士的领导下,此举减轻了Bengio的责任。
Bengio发表了约250篇有关神经网络,机器学习,深度学习,统计,计算机视觉和自然语言处理的科学论文。 数据库,计算机科学书目网站。
“虽然我期待着下一个挑战,但毫无疑问,离开这支出色的团队真的很困难,” 本吉奥 据彭博社报道,他在电子邮件中宣布辞职。 他没有提到米切尔的格布鲁, 或导致他们离开的分歧。 谷歌拒绝评论彭博社。
为Samy Bengio致敬
“萨米·本吉欧(Samy Bengio)的辞职对Google来说是巨大的损失,” 啾啾 Google Brain的科学家El Mahdi El Mhamdi表示,Bengio帮助建立了“自贝尔实验室以来该行业中最基础的研究小组之一,也是最赚钱的研究小组之一。”
“在机器学习研究方面,我从所有人身上学到了很多东西,而且还组织了一个庞大的研究人员团队以促进长期的雄心勃勃的研究,探索,严谨和多样性,这对我们来说有多困难,但又很重要。, 和包容,” 本吉奥 在他的电子邮件中声明。
从报告中 路透社, 脑部早期成员安德鲁·伍(Andrew Ng)现在正在运行软件初创公司Landing AI,他说Bengio“对推动AI技术和伦理学发挥了作用。” 另一个创始成员Jeff Dean现在监督Google的数千名研究人员。
Google Brain研究人员Sara Hooker在推文中将Bengio的离职描述为“对Google造成了巨大损失”。
XNUMX月,谷歌指控她将电子文件转移出公司后,谷歌放手让其工作的科学家玛格丽特·米切尔(Margaret Mitchell)。 格布鲁(Gebru)离开之前,她就提交给会议的有关大型语言模型的道德问题的论文发生争议。 路透社报道说,米切尔表示,她试图“引起人们对种族和性别不平等的担忧,并大声谈论谷歌解雇格布鲁博士的问题。” 格布鲁(Gebru)表示,该公司希望打消她对其产品的批评。 谷歌已经表示接受她的辞职提议。
Bengio为这对人辩护,他们带领一个由十几个人组成的团队研究与AI软件有关的道德问题。 据路透社报道,去年XNUMX月,本吉奥在Facebook上写道,他对自己所管理的格布鲁(Gebru)被免职而没有被咨询的情况感到震惊。
Google Brain研究人员Nicolas Le Roux告诉路透社,Bengio致力于使研究组织更具包容性,并“创造了每个人都感到欢迎的空间”。
米切尔(Mitchell)在Microsoft Corp.的研究实验室任职后,于2016年2017月加入Google,当时她在该公司的Seeing AI项目中工作,这项技术旨在帮助盲人“可视化”周围的世界,该技术由首席执行官萨蒂亚·纳德拉(Satya Nadella)大力推广。 她在Google上创立了Ethical AI团队,并于XNUMX年开展了一些项目,其中包括一种解释机器学习模型的功能及其局限性的方法,以及如何使机器学习数据集更加负责和透明的方法。 商业特立独行.
大型科技公司围绕伦理AI展开对话
谷歌围绕道德AI的公关崩溃提醒人们一些大公司在多大程度上 - 大科技 - 一位最近的帐户提出,能够围绕道德AI引导对话 快公司。 讨论的重点是高风险,如今,人工智能为许多重要的自动化系统提供了支持,从信用评分,犯罪量刑到医疗保健访问以及是否可以进行工作面试。
在歧视性的雇用系统,针对少数族裔的种族档案平台以及具有种族主义风险的预测性警察仪表板中,显而易见,模型在现实世界中部署时可能造成的危害。 S黑人提起了无数诉讼,他们说,他们在被执法人员使用的面部识别技术误认后被错误逮捕。
少数大型公司 确定哪些想法可以得到财务支持,并确定谁来参与创建和评论该技术。
Google的Gebru和Mitchell的经验表明,目前尚不清楚内部AI道德研究人员是否对雇主的发展有很大影响力。 一些观察家认为,Big Tech在AI伦理上的投资是公关举动。 “这不仅仅是Timnit,”加州大学洛杉矶分校(UCLA)教授兼联合创始人萨菲亚·诺布尔(Safiya Noble)说道。 联合主任 关键互联网查询中心。 “这与一个广泛的行业有关,该行业以开采和开发为基础,并尽其所能使之模糊。”
关于AI伦理“决定者”的多样性的问题也正在提出。 对负责AI的30个顶级组织的新分析 - 包括斯坦福·海(Stanford HAI),现在的AI,数据与社会以及关于人工智能的合作伙伴关系-指出领导该机构的94人中,黑人为三人,女性为24人。 分析是由前Google社区小组经理Mia Shah-Dand领导的AI道德中的女性进行的。
一些人认为,有限的多样性导致研究与受AI影响的社区之间脱节。 AI伦理研究人员专注于从算法中消除偏见并实现数学上的公平概念的技术方法。 华盛顿大学语言学教授,Gebru的合著者“关于随机鹦鹉的危险”,艾米丽·班德说:“它变成了一个计算机科学领域的问题,而不是连接和植根于世界的东西。”导致Google问题的论文。
玛丽安·克罗克(Marian Croak)博士是Google Research的新道德负责人
玛丽安·克罗克(Marian Croak)在最近一次发表于 此 谷歌博客.
Croak博士是一位工程师,曾在AT&T Labs工作了多年,然后大约七年前才加入Google。 她被誉为IP语音开发人员,并获得了200多项专利。 在Google,她专注于将服务扩展到新兴市场。 在一个示例中,她领导了在整个印度铁路系统中部署Wi-Fi,以应对极端天气和高人口密度。
“这个领域,负责任的AI和道德领域,是新的,” Croak说道。 “在过去的五年中,大多数机构只制定了原则,并且它们是非常高级的抽象原则。 在试图标准化这些原则的规范性定义方面存在很多分歧和冲突。 我们将使用谁的公平性或安全性定义? 目前,该领域内存在许多冲突,有时可能会两极分化。 我想做的是让人们以一种比我们现在拥有的外交方式更加对话的方式进行对话,这样我们才能真正地推动这一领域的发展。”
- ACCESS
- 账号管理
- AI
- 算法
- 分析
- 公布
- 四月
- 国家 / 地区
- 围绕
- 被捕
- 刊文
- AT&T
- 汽车
- 自动化
- 钟
- 黑色
- 彭博
- 建立
- 加拿大
- 原因
- 挑战
- 首席
- 行政总裁
- 联合创始人
- 地区
- 社体的一部分
- 公司
- 公司
- 计算机科学
- 计算机视觉
- 研讨会 首页
- 冲突
- 继续
- 继续
- 谈话
- 公司
- 信用
- 刑事
- data
- 天
- 处理
- 深入学习
- 开发商
- DID
- 争议
- 多元化
- 打
- 早
- 邮箱地址
- 雇主
- 工程师
- 工程师
- 伦理
- 执行
- 扩张
- 体验
- 勘探
- 萃取
- 面部识别
- 面部识别技术
- 金融
- 专注焦点
- 向前
- 性别
- 谷歌
- 团队
- 头
- 医疗保健
- 高
- 招聘
- 创新中心
- How To
- HTTPS
- 巨大
- 即将发生的
- 包含
- 包容
- 印度
- 行业中的应用:
- 机构
- 网络
- 专属采访
- 投资
- IP
- 问题
- IT
- 工作
- 实验室
- 语言
- 大
- 法律
- 执法
- 诉讼
- 铅
- 领导团队
- 领导
- 知道
- 学习
- 导致
- 有限
- 语言学
- 长
- 机器学习
- 制作
- 市场
- 崩溃
- 成员
- 男性
- 微软
- 少数
- 移动
- 移动
- 自然语言
- 自然语言处理
- 网络
- 神经
- 神经网络
- 提供
- 官
- 纸类
- 合作伙伴
- 专利
- 员工
- 平台
- 人口
- pr
- 热销产品
- 项目
- 项目
- 促进
- 种族
- 种族剖析
- 提高
- 报告
- 研究
- 辞职
- 路透社
- 风险
- 实现安全
- 萨蒂亚纳德拉
- 科学
- So
- 社会
- 软件
- 太空
- 赞助商
- 斯坦福
- 启动
- 统计
- 提交
- SUPPORT
- 系统
- 产品
- 科技
- 文案
- 专业技术
- 最佳
- 鸣叫
- 加州大学洛杉矶分校
- 大学
- 华盛顿大学
- 用户
- 愿景
- 音色
- 华盛顿
- 您的网站
- 白皮书
- WHO
- 无线网络连接
- 中
- 女性
- 工作
- 世界
- 年