机器人有时候必须抗命

随着智能机器变得越来越自动化和普及,我们更应该担心人为错误导致的危险,而不是超级人工智能的出现。我们有必要教会机器人说“不”,因为人有可能发出错误的指令,或有意无意地欺骗机器人。

责任编辑:朱力远

机器人研究者已开始教机器一些基本的语言和处理能力,让它们学会在何时以及如何对人类说“不”。图中的机器人已经来到悬崖边缘,这时候它对人类的命令“向前走,我会接着你”就必须说“不”。(环球科学供图/图)

(本文首发于2017年1月26日《南方周末》)

随着智能机器变得越来越自动化和普及,我们更应该担心人为错误导致的危险,而不是超级人工智能的出现。我们有必要教会机器人说“不”,因为人有可能发出错误的指令,或有意无意地欺骗机器人。

《2001太空漫游》(2001: A Space Odyssey)中的超级电脑HAL9000让人们瞥见了一个恐怖的未来——具有智能的机器们决定不再服从人类。在控制了宇宙飞船并杀死大部分船员后,HAL9000用冰冷的声音对一位要求打开舱门的返航宇航员说:“对不起戴夫,恐怕我不能开门。”最近的一部科幻电影《机械姬》(Ex Machina)中,机器人“艾娃”(Ava)诱骗了一个倒霉的年轻男子,让他帮助自己杀死了创造自己的纳森(Nathan)。“艾娃”的邪恶计划似乎证实了纳森绝望的预言:“有一天,人工智能机器看向我们时,就像现在的我们看着非洲平原上的化石残骸。它们眼中只会看到一种说着粗鲁语言,用着低级工具的直立行走着的猿类——一个注定要被淘汰的物种。”

尽管“机器人末日”在科幻世界中是个永不过时的题材,我们的研究团队却更喜欢用乐观的态度,看待人工智能对真实生活的影响。我们猜想,在不久的将来,与人交互的辅助机器人,将遍布生活的方方面面。其实,如今智能手机上可用语音激活的小助手,就是这种机器人的雏型。它可以和各种电子设备连接,并监测设备状态,可以控制家里的锁、灯、空调等电器,甚至还

登录后获取更多权限

立即登录

网络编辑:瓦特

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}