把AI和AI放在一起,似乎总能产生神奇的化学反应。

最近,Facebook 在实验中让两个 AI 聊天机器人互相对话,发现机器人竟逐渐发展出人类无法理解的独特语言。

其实,Facebook这个实验的主要目的,是想让机器学会谈判。

实验中,双方选手语言通过谈判“瓜分”一堆物品(比如两本书、一个帽子和三个球),而每种物品对于不同选手的价值是不一样的,也就是谈回来的物品,对于两位选手带来的分值是不一样的。

从人类的角度理解,这个分值就意味着,你有多想要这个物品。有趣的是,研究人员设置的场景,就跟生活中一样,存在信息不对称——你知道自己多在意这个东西,但是你不知道对方有多想要,所以,你必须从对话中推断对方的想法。

游戏界面

每一句话,都经过计算

Facebook的AI团队(简称FAIR)还设置了其他的限制,让其更接近现实中的谈判场景,比如,要确保两个选手不可能同时拿到最好的结果。生活中往往无法尽如人意,我们总是要学会妥协。

其次,如果放弃谈判,或者谈了10轮还没谈好,双方都只能拿零分,也就是一拍两散。因此,想要利益最大化,你必须拥有杰出的谈判技能。

在训练过程中,AI学会减少说废话和意思模糊的话,提高谈判的效率。谈判显然不是一件如此简单的事,显然,谈判是一个关于语言和推理的艺术,既包括合作也包括对抗,选手必须学会适当的理解和表达,以达到自身目的。

FAIR研发了一个对话推断模型框架,模拟未说出的对话可能性,然后根据每种对话最后可能的得分,计算自己应该说什么。

对话推测模

AI学会了伪装与欺骗

FAIR团队会让AI跟人或者另一个AI一起玩游戏,让AI逐渐学习应该怎么谈判。经过一轮学习之后,研究团队发现了以下现象:

人类比AI更难捉摸、也更任性:新入局的选手在面对人类对手时,明显谈判耗费的对话时间更长,接受交易更慢。人类与AI另一不同,人类有时候会拒绝继续,直接一拍两散,而实验中的AI会一直谈判,直到达成共识与结果。

从下面的表格中可以看出,相比起人与AI谈判,两个AI谈判达成一致的概率更高,而且结果也更接近最优解。

机机对战与人机对战的对比

AI学会耍手段:某些案例中,AI选手会先假装自己很想要某个物品,其实这个东东对他而言毫无价值。为什么要这么做?原来是为了之后假装“妥协”,因为它发现了对方很想要,如此一来就能骗得对方放出一些更有价值的物品——人类平时的惯用伎俩,没有人教AI,但它自己学会了。

下面三个对话,分别展示了坚持要最大化分数的AI、学会妥协的AI和学会假装不在意的AI。

AI会说未见过的句子:虽然神经网络倾向于训练AI重复数据库里面的话语,但结果是,AI自己学会组织和生成新的句子和说法。

AI发展出人类不能理解的新话

实验还出现了更多让实验人员意想不到的情况,比如“不说人话”。

如前所及,Facebook的文章提到,在强化学习期间,AI选手会尝试通过与另一个选手的对话来改进自己的参数,对手可能是一个人也可能是另一AI。

除了这个模型之外,FAIR还使用了一个监督训练模型来训练AI模仿人讲话,这个模型是后来加入的,同时参数不能被修改。因为研究人员发现,当两个AI一起聊天,相互改进、升级自身参数的同时,会逐渐偏离人类日常交流的语言,发展出自己的语言。

有些人可能觉得,AI居然发展出了人类理解不了的独立语言,简直细思极恐。要是以后AI在密谋什么,人类都听不懂怎么办?

细心一想,难道动物们说的话人类又能听懂吗?(当然,人类一直拥有一种自负,认为语言是人类独有的能力。)既然AI那么聪明,懂得见人说人话,见AI说AI话,未来说不定能学会跟动物沟通……

况且别忘了,只要工程师加入一个模型,就能“拨乱反正”,人类暂时还不需要那么鸡冻吧。Facebook 研究员在报告中很淡定地写:

" 未来的工作还有很多潜在可能,特别是让机器理解更多推理策略,以及在不偏离人类语言的情况下提高表达的多样性。"

AI不仅学会了说谎,还发明了人类不能理解的新语言 | 潮科技

发表评论

电子邮件地址不会被公开。 必填项已用*标注