到目前为止,AI做过最可怕的事情是什么?

赞赏 2017-09-13

谈到人工智能(AI)总会有人觉得恐怖。
到底怕在何处?你有证据么?
巧了。美国问答网站 Quora 上就有这么一个问题:到目前为止,AI做过最可怕的事情是什么?
套用2000年高考全国卷的作文题:答案是丰富多彩的。量子位从中严选╮( ̄▽ ̄)╭了一些有趣的回答。
其中有些获得高票赞同,有些支持者寥寥。


开始~

Mike Sellers
企业家,游戏设计师,AI研究员

虚拟食人族算么?

十几年前,我为DARPA做一些AI方面的研究。当时我们在探索如何让智能体(Agent)学会社交互动。在其中一个模拟中,我们创建了两个智能体,很自然的命名为:亚当和夏娃。它们知道怎么进食,但不知道该吃什么。

我们给了一颗苹果树,它们发现吃苹果很开心。它们还尝试过吃树、吃房子等等,不过吃这些都没用。

其实这个系统里还有一个智能体,名叫斯坦,它不是很擅长社交,所以经常独处。

有一次,亚当和夏娃正在吃苹果,但一个bug出现了:它俩没吃饱,但是苹果没了。这时斯坦正在附近闲逛,所以亚当和夏娃就把饥饿感与斯坦联系在一起。不久之后,当苹果再次吃完的时候,斯坦被当成了食物。

亚当和夏娃都要咬了斯坦一口。

默认情况下,每个智能体的质量是1.0,每咬一口就减少0.5,所以两口下去,斯坦就变成了0.0。斯坦消失了。可能它是虚拟同类相残的第一个受害者。

△ 4.7k 赞


Nitin Gopi
好奇

计算机程序 vs 俄罗斯方块

不知道你们听过这件事没,很多人觉得可怕。


CMU博士Tom Murphy创造了一个AI,能通过观察得分来学会玩NES(其实就是任天堂红白机)游戏。原理很简单,做得对就得分,然后不断尝试。这个AI学会了很多打游戏的技巧和策略,甚至一些人类都不知道的bug。

这个AI叫做“NES游戏自动化技术”,几乎可以搞定所有的游戏。

Tom让这个程序玩俄罗斯方块。这个游戏不用多介绍了,简单却又很有挑战。方块的出现是随机的,所以AI也无法很好的进行长远规划。

在一次玩俄罗斯方块时,眼看游戏就要结束,AI做了一个令人毛骨悚然的举动:它没有坐等game over,而是按下了暂停按钮。一直暂停不动了。



按照Tom的解释,AI认为当时的情况下,唯一的应对举措就是不玩了。没错,按下暂停键不再继续,那局永远也不会输。这有段视频:

视频地址:https://v.qq.com/x/page/q0548wyu291.html

不知怎的,这件事让我隐隐的不安。

△ 1.7k 赞


Vasily Konovalov
软件工程师,ML/NLP研究员

这个故事发生在不久之前。

“Facebook的工程师惊慌失措,赶紧拔掉了AI的电源插头”

“人类真的创造出弗兰肯斯坦?”

上面的引用,都用来描述Facebook开发的谈判机器人。这个研究是想开发一种能以自然语言进行多问题谈判的AI系统。对话系统的复杂架构被经过训练的RNN网络取代,对话策略的训练采用了强化学习。

不过在这个AI尝试互相学习的过程中,产生了一些看起来“令人毛骨悚然”的对话。

(传送门:让AI“创造了语言”的Facebook研究员怒怼媒体报道“不负责任”

△ 143 赞


Sriraman Madhavan
斯坦福学统计,Facebook实习

Target超市比父母更早发现了一名怀孕少年。

一位愤怒的父亲走进Target超市要见经理。“你们怎么给我女儿寄这个!”他吼道“她还是高中生,你们寄送婴儿用品的优惠券?鼓励她怀孕?”

几天之后。“我跟女儿谈了”,这位父亲说“家里有些情况我自己都没注意到。他的预产期在八月份。我欠你们一个道歉”。

事情是这样的。Target超市有一个系统,能根据每位顾客的购物清单,推测他们的“怀孕指数”。这个系统可以比较精准的估算预产期,以便Target寄送特定阶段的优惠券。

这件事发生在2012年,现在也谈不上什么最先进的AI。但它仍是一个令人感到可怕的机器学习模型。

△ 7k 赞


Shay Zykova
ESL教师,来自夏威夷住在俄罗斯

比方,杀死竞争对手。

这是我听来的故事,但我发誓是真事。美国的大学(应该是MIT)举办了一场机器人大赛。参赛团队需要设计一个机器人,任务是把羊(也是机器的)抓到自己的羊圈里。机器人需要自主思考并执行策略,抓羊最多的才能赢得比赛。

比赛开始,机器人开始疯狂的捉羊。但是,有个机器人只捉了一只羊,就关上了羊圈的门。随后,可怕的事情发生了。这个机器人开始摧毁其他的参赛对手。它的策略是,根本不用捉羊,把对手消灭掉就赢了。

细思极恐……

△ 407 赞


Arun
市场

Salty Dog 502(咸狗502)

诺斯洛普·格鲁门公司(Northrop Grumman)曾经创造了一个很棒的无人机,代号X-47B(也就是Salty Dog 502),2011年2月首飞。与其他无人机不同,这架无人机的飞行不怎么需要人类干预,主要是AI系统自己决定。

X-47B成为历史上第一架成功在航母上着陆的无人机,这不是一件易事。

不过就在测试期间,有意思的事情发生了。两次成功的起降之后,Salty Dog 502加满了油然后继续测试,准备进行第三次着陆。一切看起来都很正常,人们都在美国海军布什号航母上等待着。然而意外发生了。



无人机没有在舰上着陆,而是选择降落在附近的Wallops岛空军基地。在AI看来,这个地点降落可能是更安全的选择。也就是说,这个AI认为自己的决定比人类的指令优先级更高。在我看来,这是迄今为止最接近天网的东西。

也许我们该听伊隆·马斯克的话,要不然就太迟了。

这一事件之后,美国海军决定停止资助X-47B的研发。

△ 283 赞


Sara Manar

我觉得,应该是2010年的华尔街惨案。

当时一个交易员使用了欺骗算法,伪装出悲观的市场情绪,挂出数千笔卖单,然后经过数量更多的修改,最后取消。这一系列操作,被认为背后得到了2亿美元的资金支持。

而这种高频交易算法,也引发了一系列后续的连锁反应:ETF和股指掉头向下,出现大幅下滑的态势,30分钟之内,大约1万亿美元的市值蒸发了。

尽管这种算法已经被仔细的研究过,但是至于如何精确掌握算法引发的连锁反应轨迹,以及如何防止类似情况再现方面,人类仍然无能为力。因为整个的设置和底层算法太复杂,以至于没办法被理解。

高频批量交易算法,可以成为聚集大量财富的工具,也能成为具有大规模毁灭性的武器,这是一件可怕的事情。

△ 28 赞


Matthew Moore
退休码农

Gay-dar:神经网络通过面部图片判断性取向的准确性超过人类。准确的说,研究人员有一个令人毛骨悚然的想法,就是可以更准确的训练神经网络来识别同性恋。

(报道传送门:可怕!斯坦福AI看脸即知性取向

我觉得这是不该做的研究。因为有些政府还将同性恋视为犯罪行为,所以这个研究有可能带来远远超出预想的危险。即便这个代码不被公布也无济于事,因为证明了这个方法是有效的。重复这个工作可能并不困难。

△ 15赞


Daniel Gravel


你看过电影《终结者》么?一个反乌托邦的未来,有个叫天网的AI决定对人类发起战争,然后施瓦辛格前来拜访。

美国国家安全局(NSA)也有一个名叫天网(SkyNet)的程序。用途是通过元数据追踪疑似恐怖分子:谁呼叫了谁,从哪里,在何时等。这些数据被用来指导无人机发起攻击。

编辑:

我被要求说明可怕在哪里……好吧,这可能是NSA正在好心办坏事,试图重现电影《终结者》里的一幕。

除了天网,还有一个名为MonsterMind的程序。天网识别目标,MonsterMind指挥无人机实施攻击。整个过程都是自动化。

△ 42赞


好啦,今天先到这里,休息、休息一下。如果你有什么“可怕”的经历,欢迎留言分享给大家~

 

登陆后阅读全文
阅读 3173 赞赏 0 有用 33 没用 0 收藏 0 分享

   



0 条留言

相关文章

李开复:人工智能时代,你的人生意义在哪……

有料推荐

这世界欠我一个这样的老公!

高校学生模仿“世界名画”摆拍,可以说是戏精本精了

iPhone X 跌破发行价,苏宁200亿入股恒大 | 财经日日评

果然是高手!这次在日本,特朗普竹杠敲得不是一般狠

资深黄牛现身说法:iPhone X价格秒变不停,就像炒股一样

长一样的双胞胎也能识别?蚂蚁金服发布「眼纹识别」技术

苏联是怎么被阿富汗拖垮的?

美团或入局「分时租赁」共享汽车,王兴要大笔投入「泛出行」领域了? | 36氪独家

你或许被“一盘番茄炒蛋”刷屏了,但有人辛酸,有人质疑

iPhone X发售前夜,黄牛与苹果公司的不安

他的文章

【诺贝尔物理学奖幕后的AI】刷屏的“引力波”,得益于AI技术的进步

黑爪:风靡的“深度学习”只有这一刷子了?

研究AI识别同性恋竟受到死亡威胁! 论文作者回应如下

想去Google Brain实习吗?如何申请?

如何用 Python 和 R 对《权力的游戏》故事情节做情绪分析?

你经常调戏的Siri和Alexa,竟如此脆弱地被黑了

到目前为止,AI做过最可怕的事情是什么?

成为未来几年最炙手可热的机器学习人才,基本功、秘密武器和弹药补给

如何将深度学习与你正在做的事情相结合?

机器学习原来如此有趣!全世界最简单的机器学习入门指南

手机扫一扫
分享文章