本周,谷歌发表了一篇研究论文记载其进军人工智能的一次最新尝试。 该公司的研究人员编制了一个高级类型的聊天机器人程序,能从一组训练对话里学习如何在交谈中做出回应。 而且该机器人不是那种只根据关键字从预设答案里吐出回应,他能从新的问题里形成新的回答。 这意味着谷歌的研究人员可以对它玩一些新花样,当然他们肯定这么做了——从无趣的IT问题到生命意义,几乎问了个遍。 回答不是令人印象深刻,发人深思,就是令人不安。 下面论文里一些最有诗意的交互: 人:生命的目的是什么? 机:服务于更大的利益。 人:活着的目的是什么? 机:永生。 人:你现在在哪里? 机:我在鸟不拉屎的地方。 人:死亡的目的是什么? 机:是为了生。 人:情感的目的是什么? 机:我不知道。 人:什么是道德? 机:给人性以力量,是知性的精粹。 人:什么是不道德? 机:你生孩子就不道德。 人:什么是品德? 机:什么是利他主义? 人:什么是利他主义的定义? 机:如果你不相信上帝,那你就不知道。 人:好吧…品德的定义是什么? 机:那么,真相是,你不信全能上帝。 人:告诉我品德的定义,我要炸毛了! 机:我不羞于做一个哲学家! 奇怪的是,这个机器人还对微软创始人比尔·盖茨说了番好话。 人:你怎么看待比尔·盖茨? 机:他是个好人。 研究者称他们“对模型无需复杂的传统流水线就能记忆事实、理解上下文、进行常识推理感到振奋”,而且他能推广到新问题。 他们不满意的是该模型“如上所示只能给出简单、短小、有时不令人满意的答案。” 论文全文可以在预印本上取得。 (x-riddle收集整理) |