搜索

人机协作只需技术?AI想获取人类信任,或许还需要一点套路

脑极体 · 2018-12-17
让人不信任AI的,是狗血科幻电影还是人工智障?

我们都相信,或许未来我们都要以人机协作的方式生存。传说中能够代劳一切的终极算法显然一时半会儿不会出现,但人类和机器人一同劳作已经成为可能,人类也会接受越来越多来自于机器提供的服务。

如果说在人机协作上,AI技术能力的成熟与否是第一前提,那么第二前提就是人类和机器之间的信任关系了。

今天的我们总是在关注第一前提,并且取得突飞猛进的进展,但往往忽略第二前提的重要性。想象一下,要是人类和机器之间无法形成信任关系,人机协作的未来将会怎样?


律师所的律师靠AI搜集整理资料,但AI搜集完了以后,律师又不放心,重新把AI助手的工作又检查一遍,最后其实浪费了更多的时间。而如今厂商们所宣传的理想中的自动驾驶,是人一上车就躺下休息,而自动驾驶会把乘客安全的送达终点。可如果人类不信任自动驾驶,这一画面就变成了人类上了车立刻进入紧张状态,像驾校司机一样紧盯路况还时不时对AI的驾驶技术表示嫌弃。这样一来,肯定是有悖于AI提升工作效率的初衷的。就连“网红机器人”索菲亚都说,为了共建人类和AI之间的信任,应该少拍点机器人与人类为敌的电影。

“不道德”的AI,你能相信吗?

但首先我们要弄明白一个问题,人类真的会很难和AI建立起信任关系吗?想想看,我们似乎天生就相信烤箱会把食物加热而不是让食物有毒,也相信冰箱会用低温保存食物而不是让食物变质。难道到了AI这里就不灵了吗?

这其中的差异,在于心理学上的“释义法则”,即人们会更容易信任他们能够理解其原理的技术。烤箱的高温、冰箱的低温,其实都是千百年以来我们非常熟悉的处理食物的方式了。不信换成微波炉,这么多年了还有人质疑它会“辐射”食物。

AI就更是如此,加上神经网络的黑箱特征,人们很难从理解原理这一层面上去信任AI。

同时当AI进入我们生活中的方方面面时,难免会在进行决策时遇到道德问题。最典型的“人行桥困境”就是如此,铁轨上绑着五个无辜的人,火车即将压过他们的身体,这时如果把人行桥上的一位大汉推下桥去,就可以阻止火车向前拯救铁轨上的五个人。那么究竟该不该牺牲一个人的姓名拯救五个人?在现实中虽然不太会出现这种极端情况,但有没有可能自动驾驶在行驶时为了不发生剐蹭而碰撞到过路的动物?这时是损害车还是损害路过的小动物,也是一种道德困境。


面对这种状况,哲学上有一种说法叫“后果论”,即认为计算结果才是做出道德决策的正确途径,结果收益最高的决策才是最道德决策。同时《实验心理学月刊》上的研究结果表明,那些通过后果论进行决策的人往往人缘更差,人们会认为他们冷酷、自私、不近人情,因为普通人更愿意遵守代代相传的道德观,即使那样会得出收益不那么高的结果。

但AI的进行的往往都是后果论决策,追求收益而非道德正确。因此研究推断,未来人类很可能也会对AI做出的决策产生一些质疑。因为人类会默认机器没有道德感、同理心、同情心这种以往概念里一个好的决策者应有的特质。

AI如何获取人类信任?除了套路还是套路

不过现在也有很多研究团队意识到了这一问题,开始想办法研究如何建立起人机信任。目前来看,研究方向大概分为两个角度,一个是从人的角度寻找什么样的AI才更容易获得人类的信赖,另一个是从AI的角度去感知和评估人类的信任程度。

MIT曾经和新加坡科技设计大学进行过一系列实验,得出两个结论,第一是想让人类信任AI,就需要让人类“参与”AI训练的过程;第二人类更希望AI指出问题而不是确认问题。

在第一个实验中,人们被要求在看过一系列照片后,再在AI的辅助下从一系列图片库中选中自己看过的图片。实验对象被分为AB两组,A组被告知AI技术会随着用户选择过程循序渐进提升,用户决策正确的越多,AI技术也会随之提升。B组没有被告知任何信息,实际上两组AI算法的精准度是一样的。但实验结果是,A组实验对象会更信任AI算法,B组则更信任自己的选择。

而在第二个实验中,算法对无人机回传来的画面进行图像识别,A组对象中AI会把画面中的火灾、偷盗、抢劫等等画面圈出来,B组对象中AI则会把画面圈出来,并且标注上“火灾”、“偷盗”、“抢劫”等等。两组算法都有同样的误差比率,但实验结果表明A组实验对象对于AI的信任程度要远高于B组,画面检阅的效率也远高于B组。因为在人类看来,对于具体情况的判断失误是一种非常严重的错误,代表着算法很不可信,所以他们要把画面整体都重新细细看一遍,比起A组用户判断标注出来画面的具体情况,要浪费了不少时间。

或许未来AI获取人类信任也需要一些“套路”,像是假装需要人类参与训练,或者刻意把一些工作分担给人类。


而最近普渡大学械工程学院推出了一项系统,通过对肤电测试和脑电波测试采集人们的状态,推出适用于大众的“通用信任模型”和个人的“个性化信任模型”。研究者表示AI工具可以和这些信任模型联动起来,尤其在儿童教育、老年人看护这些领域,对于人类信任状态的感知可以帮助AI更好的服务人类。例如当AI感知到人类的不信任时,可以暂停当下的工作,通过安抚一类的方式提升人类的信任。

人机信任的第一步……或许是AI打假?

不过在以上提到的几个实验中,都出现了一个有趣的共同发现——人类对AI的信任程度是可以被控制的,AI的表现越差、给用户造成不好的体验,人类的信任程度越低——不管是从脑电图的生理状况看来还是从行为看来都是如此。

例如让人乘坐一辆自动驾驶的汽车,如果汽车总是无缘无故的突然刹车,让人在车中颠簸,人类的信任程度就会快速降低。

那这么看来,真正有害于人机信任的并不是狗血科幻电影,而是那些正汹涌而来的人工智障。或许如今建立人机信任最高效的方法不是别的,而是AI打假。


+1
7

好文章,需要你的鼓励

参与评论
登录后才能参与讨论哦...
后参与讨论
提交评论0/1000

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

脑极体特邀作者

写让你脑洞大开且能看懂的人工智能、流媒体、海外科技。

下一篇

是规模化的“敌人”?还是未来的在线教育新蓝海?

2018-12-17

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

为你推送和解读最前沿、最有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚集全球最优秀的创业者,项目融资率接近97%,领跑行业