科学家拟向机械人读 Bedtime Stories 从而灌输道德观念
是真正的睡前故事?还是人类的恶梦开始?

大家看电影、看科幻小说,还是打电玩,都经常遇到这情节:人类创造出人工智能(Artificial Intelligence),赋予机械人「生命」,但到最后却控制不到这个智能,机械人又不想受人类控制而作出反击…结局是如何,每个故事都有它的演绎,不过现实中,人类面对人工智能又会迎来一个怎样的结局呢?
大家有留意 Issac Asimov 的科幻作品《I, Robot》的话,就会知道「机械人三章」(Three Laws of Robotics):
1. 机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;
2. 除非违背第一法则,机器人必须服从人类的命令;
3. 在不违背第一及第二法则下,机器人必须保护自己。
不过三章都有其漏洞,而且现实归现实,科学家正研究让机械人 - 人工智能 - 接触道德观念,这研究由 Mark Riedl 主理,他是乔治亚洲科技大学的娱乐智能实验室总监,他认为只要灌输「价值观」,就能有效防止机械人演化到「超智能」,也防止人类被人工智能消灭的发生。Riedl 采用 Quixote 技术,包括读一些故事,内里包含特定文化中「广泛接受」的行为,Riedl 指这样比下独立指令更有效让机械人得到道德观念,也避免人工智能在指令中找出漏洞,「说故事」可令人工智能自我分析推理出一套思路及行为。(是…是在看《Chappie》吗?)但观乎研究只是以「好与坏」两个方面、0-10 的评分去做,看来这个作业模式过于简单,但研究人员有信心这个道德观念可避免人工智能的「神经分裂」。大家不嫌长篇大论的话,可以看这里有研究的详情。
又其实,何解人类总是喜欢当上帝的角色(Playing God),要去主宰所有事?况且,与其担心机械人的道德观念,不如先担心人类的道德观念才是正经。
大家不妨看看近年来对人工智能这议题的电影或电玩:
《I, Robot》2004 年电影,根据 Issac Asimov 同名小说
《Ex Machina》,2015 年电影
《Kara》, Quantic Dream 作品,《Detroit: Become Human》游戏前身