这就是为什么我们有必要总结人工智能的失败之处:这篇文章的目的不是贬低或嘲笑研究和开发结果,而是看看哪里出了问题,以便下次能做得更好。
所以,让我们来总结一下2018年的10大人工智能失败案例。
1
中国著名企业家被误识为交通违纪人员
中国的主要城市目前已经在使用人工智能来解决乱穿马路的问题。交通警察部门在十字路口部署了使用面部识别技术的智能摄像头,以检测和识别乱穿马路的人,这些人的部分名字和面孔会被模糊地显示在公共屏幕上。
然而,中国南方城市宁波的人工智能系统最近上演了尴尬一幕,因为它错误将一位乱穿马路的人“识别”成了中国著名企业家董明珠。这一错误迅速传遍了中国各大社交媒体,宁波警方为此道歉。但董明珠并不担心,还在微博上写道:“误拍是小事。平安重要。”
CloudWalk深度学习研究员Zhou Xiang告诉Synced,问题可能出在缺乏实时检测上。“在这个距离的情况下进行实时检测还是有一定困难的,虽然将图像识别为真人现在非常普遍。”
2
Uber的自动驾驶汽车肇事致行人死亡
2018年3月28日,美国亚利桑那州Tempe市,一辆Uber自动驾驶SUV撞倒一名女性行人,导致其死亡。Uber的车辆当时处于自动驾驶模式。
Uber发现,自动驾驶软件在汽车传感器检测到行人后决定不采取任何制动。美国国家运输安全委员会(US National Transportation Safety Board)对这起事故的初步调查报告显示,Uber的自动驾驶模式使Volvo工厂安装的自动紧急制动系统失效。
这场悲剧发生后,Uber暂停了在北美城市的自动驾驶测试,Nvidia和Toyota也停止了在美国的自动驾驶公路测试。事故发生8个月后,Uber宣布计划恢复匹兹堡的自动驾驶公路测试,不过该公司未来的自动驾驶愿景仍不确定。
3
IBM的Watson 系统在医疗方面力有不逮
根据Stat获得的内部文件,佛罗里达州Jupiter医院的一名医生在谈到IBM的旗舰人工智能程序Watson时表示:“这款产品简直就是一坨屎。”IBM最初将Watson作为答录机开发,后来也探索其在包括医疗在内的广泛应用。2013年,IBM开发了Watson在癌症推荐疗法方面的首个商业应用程序,过去5年里,该公司与多家医院和研究中心建立了合作关系。但Watson的AI能力并没有给医生留下深刻印象。一些人抱怨它在癌症治疗方面给出的错误的建议可能会导致严重甚至致命的后果。
据报道,IBM在这个项目上花费了数年时间,却没有取得重大进展,现在该公司正在精简Watson医疗系统,裁减该部门一半以上的员工。
4
亚马逊的人工智能招聘软件存在性别歧视
据报道,亚马逊人力资源部在2014年至2017年期间使用了一款支持人工智能的招聘软件,帮助审查简历并提出建议。然而,该软件被发现对男性求职者更有利,因为它的模式是根据过去10年提交给亚马逊的简历进行设计的,当时亚马逊聘用了更多的男性求职者。
据报道,该软件会对简历中含有“女性”字样或暗示申请者是女性的简历进行降级。亚马逊后来放弃了这款软件。该公司没有否认使用该工具来提供推荐,但表示从未将该工具用于评估求职者。
5
DeepFakes暴露出人工智能不得体的一面
2017年12月,Reddit网上出现了一些国际顶级女星的色情视频,原因是“DeepFakes”将明星的脸与色情视频中女性的脸进行了交换。虽然面部交换技术已经发展了很多年,但DeepFakes的方法表明,任何拥有足够多面部图像的人,现在都可以制作出非常有说服力的假视频。
2018年,逼真的名人假视频依旧充斥着互联网。虽然从技术上讲,这种方法不算“失败”,但其潜在的危险是严重而深远的——视频证据不再可信可能会进一步鼓励虚假新闻的传播。
6
Google Photo出现了bug
Google Photo可以自动检测具有相同背景或者场景的图像并将它们合并成一张全景。今年1月,Reddit用户“MalletsDarker”发布了三张在滑雪胜地拍摄的照片:两张是风景照,另一张是他朋友的照片。当Google Photo将这三张照片合并在一起时,就出现了下面这张搞笑的图片。
社交媒体赞扬了谷歌算法对图像的巧妙混合,同时嘲笑了它在构图基础方面的愚蠢。
7
LG的机器人Cloi遭遇滑铁卢
LG的物联网助手Cloi本应于2018年1月8日在拉斯维加斯的国际消费电子展(CES 2018)上大显身手的。Cloi本来应当能够识别控制家电的语音命令。然而,当这款可爱的机器人进行现场演示时,观众们发现它没有回应LG营销总监的指令,气氛一度变得十分尴尬。
8
Boston Dynamics的机器人“意外”时刻
软银行旗下的机器人制造商Boston Dynamics今年不止一次在互联网上出风头了——该公司生产的机器狗SpotMini可以用身上的机械臂灵活地开门;它的人形机器人Atlas也能做到跑酷了——顺利地跳过一段圆木或者一系列40厘米的台阶却不用减速。
但Boston Dynamics也有“糟糕”的时刻——在未来科学家和技术专家大会(Congress of Future Scientists and Technologists)上首次亮相时,Atlas在一次演示中举起了盒子,但正当表演救赎准备离开时,这个可怜的机器人被帘子绊倒了,笨拙地从舞台上摔了下来。不过,它摔倒的样子倒也挺像人类的。
9
人工智能对世界杯结果的预测几乎全部错误
2018年世界杯期间,高盛(Goldman Sachs)、德国多特蒙德理工大学(Technische University of Dortmund)、Electronic Arts、Perm State National Research University等机构的人工智能研究人员利用机器学习模型预测了多阶段比赛的结果。然而,大多数预测都完全错误,只有EA正确地预言了冠军是法国队。EA游戏引擎由许多机器学习技术支持,这些技术旨在使玩家的表现尽可能逼真。
SQL Services数据科学家Nick Burns对此做出了解释:“不管你的模型有多好,它们也只是建立在你数据的基础上罢了……而近期的足球数据还不足以预测世界杯的表现,有太多的信息缺失和未定义的影响存在。”
10
一家创业公司声称可以从面部图像预测智商
以色列一家机器学习领域的创业公司Faception声称其人工智能技术可以分析面部图像和骨骼结构,从而揭示人们的智商、个性,甚至暴力倾向。数据科学家Ben Snyder在Twitter上谴责该公司的技术说:“这是颅相学和种族歧视”。这条推文已经被转发了6500多次,点赞17000次。