不久前在60场对垒中横扫人类围棋顶尖选手的Master(AlphaGo二代)再次令世人震惊,没想到人工智能已经如此智能、如此强大了。不过《哈佛商业评论》最近的一篇文章却关注了人工智能的另一半:“人工”。

文章从去年夏天Facebook制造的一场公关风暴谈起。尽管Facebook最近在美国总统大选中的对“假新闻”的不作为引起了大众的非议,但是在去年夏天,大家的口风却是完全不同的。当时大家发现,除了“无偏见”的算法以外,其实Facebook还有一支“编辑队伍”来确定出现在趋势话题的内容。这提出了一个明显存在却被人刻意回避的问题:标榜速度快、全能、中立的AI其实还是离不开人,只是你看不见罢了。那么人工智能背后的人工成分究竟有多大呢?

为此,微软研究院的研究团队用了三个月的时间去观察印度班加罗尔的一位中年妇女Kala。Kala是两个小孩的母亲,平时她的工作就是坐在与丈夫共享的临时家庭办公室电脑前,在网上挑选一些临时性的“按需”合同工作,也就是相当于网上的计件工作,或者所谓的零工经济。而她的儿子就在旁边写作业。她工作的时候会把儿子叫到电脑屏幕前,指着上面的英文问道:“这个词是不是不好的词?”Kala每周都要花几个小时来审核有疑问的内容样例并打上标签。这就是2016年人工智能幕后的情形。有时候她要替Google、Facebook、Twitter以及微软等技术公司训练策划内容的算法。有时候则要在客户收到内容投诉时对用户生成的内容(UGC)做出判断,决定是否要撤掉有问题的内容。

这反映出一个大家经常忽视的事实:人工智能目前还离不开人工(尽管人工智能里面的人工并不是这个意义)。无论是Facebook的趋势话题,还是Amazon通过Alexa语音助手交付的Prime订单,或者是马上对客户投诉做出响应的聊天机器人,自动移除“恶意”内容的YouTube,其实,我们看到的那些自诩为AI驱动的产品/服务/应用都离不开人工。那些人坐在电脑屏幕前,付费应答那些通过众包系统API分配给自己的查询或者请求。事实上,人工智能的“全自动”程度就像《魔境仙踪》里面的那些伟大的巫师一样,不过是幕后有人工操纵罢了。他们是隐藏在人工智能包装下的真真正正的人工——一个由合同工组成的新世界。人和AI的混合正在重塑着零售、营销以及客户服务业。Amazon的土耳其机器人(Mechanical Turk)完美地诠释了这一点,或者这台高大上的自助签注机的注解更加形象:

AI与人的结合不会很快消失,因为在AI无法胜任的地方就要靠人来坚持到底。实际上,自从工业革命以来,人类社会就一直存在这种因为技术进步而创造出新的人类工作的现象。微软研究院资深研究员Mary L. Gray与Siddharth Suri把这种现象称为是“自动化最后一公里悖论”:随着AI取得进展,这也会导致新型的有人参与的任务出现,这些任务会使得为此准备的临时工劳动力市场快速创造和消失。经济学家预测,到2033年,技术创新将会把30%的全职工作转化成通过自动化和人工劳动力结合“按需”完成的增强服务。简而言之,就是AI一方面会消灭部分工作,同时也将打开新的就业机会,而那些机会将重新定义什么样的工作是人干得最好的。这些通过机器人和背后的人共同提供的AI辅助型增强服务,其目的是要增强我们的日常生产力,但也会引发新的社会挑战——事实已经表明,AI也像我们人一样,在哪些内容应该出现在我们的社交媒体上、哪些不应该出现在社交媒体等问题上会犯难,因为这取决于我们的标准和价值观。

Facebook引入人工编辑来确定趋势话题的实质并不在于是否存在偏见的可能性,而在于目前的AI在没有人参与的情况下还不能正常工作——无论是新闻编撰还是复杂的送外卖订单的交付都是这样的情况。新闻流策划以及搜索结果的内容调整等都需要技术公司或者媒体公司雇人来对什么内容需要置顶或者撤下做出判断。尤其是一些刚刚冒出来的新词热词,AI光靠自己的算法和数据都是没有办法做出判断的。

但是在这些AI幕后的都是什么人呢?其中很多都是像Kala这样的人,很多都是普通百姓,独立或者通过临时代理机构接单,往往只能获得比较低的报酬(所以很多都是印度这样的国家的人接单)。很多人并不知道大量的内容调整工作其实都是外包给全球各地的合同工的。但是大家对这些人的培训水平、工作环境或者做出编辑决策的规定要求却知之甚少。对于Facebook那次“编辑团队”事故类似的事情,大家似乎没有问到点子上:社交媒体内容调整的具体做法是怎样的?究竟是谁负责编撰那些我们在社交媒体上看到的内容?这支“编辑团队”的信用和能力水平究竟如何?

微软研究院通过对全球众包工作近2年的研究发现,内容调整工作已经成为零工经济的稳定来源,而且技术界无论规模大小都有很多公司把成千上万什么东西该保留什么东西该删除的决定外包了出去,很多都要严重依赖于 Crowdflower 、Amazon Mechanical Turk这样的众包平台或者Clickworker这样的供应商管理系统。而承担这项工作的“临时工”需要训练算法来对做出一些对内容影响最大的决策之一,而且有时候他们还需要人工介入来做出这样的判断。后面这一点是很多人没有意识到的,也是需要引起重视的,因为我们都不想互联网成为垃圾内容横行的沼泽地。

所以我们需要认真考虑人力在AI驱动的服务当中扮演的角色。这批人需要得到足够的培训、支持以及补偿,才能够有意愿承担或者胜任这些非常乏味吃力但又非常重要的工作。除了趋势话题的编撰调整以外的大量未来工作都需要人类的创造性工作来引导AI提高速度、效率以及适用范围。第一步应该是提高技术公司的透明度,他们需要说清楚所谓的不用人参与的AI是不是这么回事。如果不是,我们需要知道,引进人进来的好处是什么。这些人是不是能够胜任这些工作,尤其是在这些工作会影响到公众利益的时候。

当然,引入人的很大一部分原因在于算法的不完美。但就像德哈维兰彗星型客机事故分析中人们发现的一样,结构没法做到完美,结构天生就有瑕疵,而工程设计的目标不是保证机身没有裂隙,而是能够容忍裂隙。同样地,算法设计的精髓不是消除所有的错误,而是要让结果在面对错误时具有鲁棒性。在这个过程中,我们不仅需要设计AI的人,也需要大量的人力来对AI进行训练。这两方面的人都要求具备高素质。作为消费者,我们有权知道吐出新闻和媒体内容的AI的成分和制造过程是什么样的,就像我们对每天都要吃的食物的要求一样。作为公民,我们需要知道我的信息是从哪里来的。作为人类,我们应该始终清楚什么时候有人的干涉。这批AI幕后的人不应该被当作不存在,因为他们肩负着重大的责任。

 

人工智能究竟有多“人工”?

发表评论

电子邮件地址不会被公开。 必填项已用*标注