袁登祥16年 2016年人工智能的10个失败案例

2017-08-10
字体:
浏览:
文章简介:在过去的一年AI无论是在无人驾驶技术上还是在语音识别或者在围棋游戏的把控上,都取得了骄人的成绩,同时这也揭示了机器蕴涵的巨大能力.虽然AI技术取得了成功,但是同样也值得注意的是AI会在什么时候.以什么样的形式出现问题,这是为了预防未来的错误.路易斯维尔大学网络安全实验室主任Roman Yampolskiy最近发表了一篇报告概述了人工智能失败的历史,"AI的失败与这些系统的预设目标错误直接相关".据Yampolskiy称,这些类型的错误可以归因于AI系统在学习阶段的错误或在运行阶段的错误

在过去的一年AI无论是在无人驾驶技术上还是在语音识别或者在围棋游戏的把控上,都取得了骄人的成绩,同时这也揭示了机器蕴涵的巨大能力。虽然AI技术取得了成功,但是同样也值得注意的是AI会在什么时候、以什么样的形式出现问题,这是为了预防未来的错误。路易斯维尔大学网络安全实验室主任Roman Yampolskiy最近发表了一篇报告概述了人工智能失败的历史,“AI的失败与这些系统的预设目标错误直接相关”。

据Yampolskiy称,这些类型的错误可以归因于AI系统在学习阶段的错误或在运行阶段的错误。以下是TechRepublic根据Yampolskiy的和一些AI专家的提供的关于2016年十大AI失败案例。

1、用来预测犯罪的AI有种族主义色彩

Northpointe公司建立了一个人工智能系统,旨在预测被指控的罪犯再次犯罪的机率。这个称为“少数派报告”的算法,被控具有种族偏见,因为黑人罪犯被预测未来犯罪的几率高于其他种族。但有媒体发现,如果排除种族这个因素,Northpointe的软件关于犯罪的预测并不奏效。

2、视频游戏中非玩家角色制作的武器超出了游戏设计者的预期

在今年六月份,一款AI的视频游戏《精英:危机四伏》展示超出设计者的想象:AI竟然有能力自己制作出超过设计者预设的超级武器。根据一个游戏网站的报道,玩家被拉入到与装有奇怪武器的船只的战斗中去,这种武器把他们削成碎片。随后游戏开发方将这种武器从游戏中删除。

3、机器人伤人事件

今年七月,由Knightscope平台制造的一款打击犯罪的机器人在硅谷购物中心撞倒并打伤了一名16个月大的男孩。洛杉矶时报引述该公司说,这个事件是一个“奇怪的事故”。

4、特斯拉自动驾驶模式的死亡案例

TechRepublic之前过,Joshua Brown驾驶特斯拉并启动自动驾驶模式,当时他的车辆与佛罗里达公路上的拖拉机拖车相撞,这是该自动驾驶模式首次报道的死亡事故。自事故发生以来,特斯拉宣布对其自动驾驶软件进行重大升级,自动驾驶CEO Elon Musk声称将会防止这种碰撞。在中国也存在与自动驾驶有关的其他死亡事件,但是没有任何一起事故表明直接与AI系统的故障有关。

5、微软的聊天机器人Tay的语言肮脏

微软为了吸引年轻的客户,去年春天在Twitter上推出了一款名为“Tay”的人工智能聊天机。“Tay”模仿一个十几岁的女孩,她仅仅在网上亮相一天就变成了一个“喜欢希特勒,抨击女权主义的恶魔”。Tay会说出带有种族歧视、性别歧视、同性恋歧视的语言。仅一天,微软就将Tay从社交网络中撤销,并宣布计划对其算法进行“调整”。

6、人工智能判断美貌的标准带有种族歧视

在由人工智能判断的第一届国际选美大赛中,机器人基于对“人类美感和健康的感知相关的标准的算法”能够准确地评价与判断面部。但是由于没有为AI提供多样化的训练,导致比赛获胜者都是白种人。

7. 口袋妖怪让玩家只在白人街区游戏

在今年七月,流行的游戏口袋妖怪Go发布后,几个用户指出,在主要的黑人街区几乎没有口袋妖怪。根据Mint的首席数据官Anu Tewary说法,这是因为算法的创造者没有提供一个多样化的训练集,而且没有在这些社区(黑人街区)花费时间。

8、谷歌的人工智能围棋AlphaGo在第四局输给李世石

2016年3月,在与世界围棋冠军李世石的五场围棋比赛中,谷歌的人工智能程序“阿尔法围棋”在第四场时被击败了。李世石是18次世界围棋比赛的冠军。虽然AI程序赢得了此系列比赛,但是李世石的胜利证明AI的算法不是完美的。新南威尔士大学人工智能教授Toby Walsh说,“李世石发现了AI的一个弱点,看来是蒙特卡洛树搜索存在问题。”

9、中国的面部识别系统可以预测罪犯,但是存在偏见

中国上海交通大学的两位研究人员发表了题为《使用脸部图像的自动推理犯罪》的研究。他们把1856人(其中一半是暴力罪犯)的面孔送入电脑,并分析他们。研究人员得出结论,“有一些预测犯罪的区别性结构特征,如唇曲率,眼内角距离和所谓的鼻嘴角度。” 许多人对结果和报告的伦理基础提出质疑。

10、保险公司使用Facebook数据调整利率,显示有偏差

今年,英格兰最大的汽车保险公司Admiral Insurance打算从Facebook用户的帖子中寻找相关性,即这些用户使用社交媒体是否与他们能做个好司机之间存在相关。虽然这不是一个直接的AI失败,但是它是一个滥用AI的案例。

Walsh说,“Facebook做得很好,阻止这种事情的发展。” 这个被称为“firstcarquote”的程序从未实施,这是因为Facebook阻止该保险公司访问其数据,Facebook公司的政策要求不能“使用从Facebook获取的数据来做出关于资格的判定,包括是否批准或拒绝申请或对贷款收取多少利息等。

”这些示例证明AI系统极易存在偏见。机器学习算法中,使用不同的数据集训练AI是至关重要的,可防止AI偏见。随着AI系统能力越来越强,确保适当的检查、使用不同的数据、符合伦理标准是至关重要的。