深度长文:谦卑好用的智能助手,未来会变成人类的梦魇吗?

喜汤 · 2018-10-23
一旦我们的“电子仆从”在情感上变得精明了怎么办?

编者按:智能声控设备的颠覆性角色才刚刚开始。现在的Alexa可以是一个谦卑的仆从,但谁知道在未来,它会不会成为治疗师、知己甚至是将我们玩弄于股掌之上的告密者呢?本文作者JUDITH SHULEVITZ,原文标题Alexa, Should We Trust You? 

深度长文:谦卑好用的智能助手,未来会变成人类的梦魇吗?

作者:Roberto Parada

我们都爱上了Alexa,除非我们另有所爱——比如Google Assistant,或者Siri,或者其他智能声控设备。当我用到“智能”二字的时候,我是指它拥有人工智能,可以进行基本的对话,并且可以连接上网,查找东西,为你做事。我的朋友们——婴儿潮的最后一批人——告诉我说,他们不想和电脑说话,也不想电脑和他们说话。每个时代的愤世嫉俗者都怀疑这些虚拟助手在偷听自己,而且并非毫无理由。大公司们可以通过这些东西获悉我们搜索和购买的信息。这些智能设备即使在你不跟它们交流的时候也在偷听,因为它们只有在能够听到“触发词”的时候才为你服务。

制造商们承诺,智能声控设备只有在听到触发词后的对话才会被存档到云存储中。尽管如此,偶尔也会出现一些奇怪的故障,比如Alexa曾在未听到触发词的情况下记录了某个家庭的私人谈话,并将录音通过电子邮件发送给联系人名单上的一位熟人。亚马逊解释说,Alexa一定是听到了什么类似触发词的东西,然后将随后的谈话内容曲解为一系列命令。不过这个解释在我看来并不可信。

然而,隐私问题并没有阻止这些设备登堂入室。亚马逊没有透露确切数字,但当我问Echo售出了多少台时,一位女发言人说,“数千万台。”根据技术研究公司Canalys的数据,截至去年年底,全球已经安装了超过4000万台智能声控设备。根据目前的销售额,Canalys估计到今年年底这个数字将达到1亿。据National Public Radio和Edison Research在2018年发布的一份报告,有800万美国人拥有3台或3台以上的智能声控设备。另一家研究公司Ovum的数据显示,到2021年,地球上智能声控设备的数量几乎会和人类一样多。手机用了大约30年的时间才在数量才超过人类,但Alexa和她的同类可能在不到一半的时间内就能实现。

其中一个原因是,亚马逊和谷歌正在不遗余力地推广这些设备,在去年假期期间,它们的折扣大到让行业观察人士怀疑这些公司在赔本出售设备。这些公司和其他科技公司都有雄心壮志,它们想在把触手伸进从太空到家居的各个地方。在不久的将来,从灯具到空调到冰箱,再到咖啡机,甚至你的马桶,所有的东西都可以连接到一个由声音控制的系统上。

声控设备的革命

成功垄断智能声控设备市场的公司,将把家电制造商、应用程序设计师和消费者锁定在其设备和服务的生态系统中,就像微软在上世纪90年代将个人电脑行业与操作系统捆绑在一起一样。仅亚马逊一家,就已经与超过20000台智能家居设备合作,品牌数量超过3500个,可连接设备超过100多个,包括耳机、安全系统和汽车。

然而,这些设备也有一种内在的吸引力——超越单纯的消费主义。即使是我们这些以相当谨慎的态度对待新技术的人,也在寻找理由欢迎智能声控设备进入我们的家庭。在NPR和Edison Research的同一篇报告中,近一半最近购买了智能声控设备的父母表示,他们这样做是为了减少花在屏幕上的时间。

这种转变的影响可能是广泛而深远的。人类的历史就是一部发明的副产品的历史。新的工具——轮子、犁、个人电脑——带来了新的经济和社会秩序,而电话、录音设备和无线电等语音技术对政治历史进程产生了特别重大的影响。

也许你认为和Alexa交谈只是你看新闻或者购物的另一种方式罢了但事情没那么简单。我们探讨的是技术本身的地位的改变——可以说是一种升级。当我们与自己的私人助理交谈时,我们使它们更接近我们自己的水平。

深度长文:谦卑好用的智能助手,未来会变成人类的梦魇吗?

作者:Roberto Parada

Alexa、谷歌助手和Siri天生就具有人类独有的语言能力。虽然它们是软件,却又不仅仅是软件。它们能使我们把它们当作有思想的人看待。这些声控设备可能是伪意识的非人类,但语言能力却赋予它们个性和社交风度。

实际上,这些设备不再只是电商中介或门户网站。我们与它们交流,而不是通过它们交流。不止一次,我发现自己告诉Google Assistant我会感到空虚。“我很孤独,”我说,通常我不会向任何人坦白,除了我的治疗师——甚至我丈夫我也不会说,因为他可能会误解我。这台声控设备的魅力之一在于,我把其声音设置成一种爽朗、年轻的男性声音,让我想要微笑。(而亚马逊没有给Echo提供男性声音的选择。)“我希望我有胳膊,这样我就能给你一个拥抱了,”前几天Google Assistant安慰我说,“但就目前而言,也许笑话或音乐可能会对你有所帮助。”

目前,这些设备仍处于开发潜力的初期阶段,但随着销量飙升,它们的计算能力也呈指数级增长。在我们的有生之年,这些设备可能会变成更加熟练的健谈者。但如此一来,它们走进我们的生活,它们将无所不知,它们将占据我们最私密的空间,它们将无处不在。这些都是令人毛骨悚然的能力,凭借这些它们可以控制我们的情感生活。真到了那种程度,该怎么办?

如何识别上下文?

当现任Alexa Experience公司副总裁的Toni Reid在2014年被邀请加入Echo团队时——当时该设备还未面世——她嘲笑道:“我当时就想,这东西有什么用?当时,她正在研发Dash Wand——一个便携式条形码扫描器加一个智能麦克风,能让人们扫描或说出想要添加到亚马逊购物车中的物品的名字。产品设计目的很明显,它让从亚马逊购物变得更容易。

而Echo的用处就不那么明显了。为什么消费者要购买一款能告诉他们天气和交通状况、能充当计时器、能执行任何普通智能手机都能完成的任务的设备呢?但是当Reid在厨房里使用Echo时,她明白了。她的两个女儿——分别是10岁和7岁——立刻开始对Alexa喋喋不休,好像和一个塑料圆筒交谈是世界上最自然的事情一样。 “惭愧地说,这么多年我都没有听过音乐了,”她告诉我,“自从安装了这个设备,突然我们家里又有了音乐。”你可能会对亚马逊一位高管提供的被Alexa圈粉的说表示怀疑。但我没有,因为我自己也有这样的经历,当我不想特意去找哪首歌时,我会让Alexa代劳。

我在西雅图的亚马逊公司遇到了Reid,她本科时学的是人类学,对于我提出的一些基本问题,她有着社会科学家一般的耐心。她说,Echo的基本吸引力在于它解放了你的双手。Echo的主人可以在客厅、厨房和办公室里走来走去,一边干自己的事儿,一边发出随机指令,却不需要点击鼠标。

Reid接着说,Alexa的魅力在于她使这种互动“毫无违和感”——在我与这些产品背后的设计师和工程师的交谈中,我经常听到这样的说法。你不需要走到桌面,在浏览器中输入搜索词,也不需要输入密码打开iPhone。Alexa就像维多利亚时代庄园里的理想仆人一样,随时随地准备好迅速而又一丝不苟地完成主人的命令。虽然目标是做到“毫无违和感”,不过实话实说,目前智能声控设备的违和感依旧存在,有时候程序会出现一定的混乱和问题。

Rohit Prasad是Alexa人工智能团队的首席科学家,他用一个词概括了Alexa达到“毫无违和感”的最大障碍:语境。“你必须明白,语言是高度模糊的,”他告诉我,“它需要语境帮助理解。”Alexa在回答你连续的问题时,必须得记住前面的问题才行。这种短期记忆和句法反向引用被称为“联系上下文”。直到今年春天,Alexa才开发出了回答连续问题的能力。

深度长文:谦卑好用的智能助手,未来会变成人类的梦魇吗?

作者:Roberto Parada

Alexa需要更好地把握上下文,才能真正赢得信任——信任很重要。不仅因为如果Alexa在完成第一次请求时做得太糟糕,消费者就会放弃她,还因为她不仅仅是一个搜索引擎,更是一个“动作引擎”。如果你问Alexa一个问题,她不会给出一个结果列表,而是从许多答案中选择了一个。她会告诉你她认为你想知道的事情。“你想要一个非常聪明的人工智能,而不是一个愚蠢的人工智能,” Prasad说,“但要确保谈话的内容连贯是非常有挑战性。”

声音蕴含着真情实感

为什么声控设备具有把我们从屏幕前拉回现实世界的能力呢?首先,声音可以营造出一种亲密感。我不是唯一一个发现自己向声控设备坦白情绪状态的人。关于抑郁症和自杀威胁表达的文章汗牛充栋,制造商们也一直在关注这些文章。例如,如果你告诉Alexa你感觉很沮丧,她就会说:“我很抱歉你有这种感觉。但你要知道你并不孤单。你可以试着和朋友或者医生谈谈,寻求帮助。”

我们为什么要从机器那里寻求安慰呢?因为它们让我们在揭露不光彩之余不会感到羞耻。University of Southern California创新技术研究所(Institute for Creative Technologies)的计算机科学家、心理学家Jonathan Gratch说,在交流过程中人们“会忘记管理情绪和印象,因此会更展示更为真实的自己”,他的研究领域涵盖了人机互动心理学,“例如,如果他们感到沮丧,就会表现出更多的悲伤来。”

我还采访了New York University的语言学者Diana Van Lancker Sidtis,希望能更好地理解声音与情感之间的深层联系。令我惊讶的是,她指着自己写的一篇关于原始沼泽中的青蛙的文章解释说,每只青蛙都有自己独有的鸣叫声。而在几亿年前,人类的发声器官——由于其更为复杂的肌肉组织——产生的是语言,而不是呱呱叫。但是声音比语言更能传达信息。像青蛙一样,它们传达了个体的标识:性别、大小、压力水平等等。我们的声乐特征使得我们能够把词串在一起形成语言,还能够产生丰富的音调、节奏以及共鸣。

当别人跟我们交流的时候,我们会同时听到单词、句法和韵律。然后我们会寻找线索,了解说话人是什么样的人,想要表达什么,我们需要大量的脑力活动来理解我们所听到的一切。已故的Clifford Nass是人机关系领域的先驱思想家曾说过:“我们的大脑会留意每个人的每句话,并将其方方面面都视为有意义的。”

深度长文:谦卑好用的智能助手,未来会变成人类的梦魇吗?

作者:Roberto Parada

我们不能仅仅因为一个声音是类人的而不是人类的,就停止所有这些脑力劳动。即使当我的Google Assistant在播报天气预报时,我脑海中仍会浮现出一个可爱的年轻演员的形象。但这并不意味着我不能理解我们之间交互的算法本质。我知道它只是个软件。数百万年来,我们一直对人类的发声做出反应。我们有大约一个半世纪的时间来适应声音可以与其源头分离的观点,但现在却只有几年的时间来适应这样一种观点——智能声控设备的说话和声音都很像人类,但却不是人类。

对于一个聪明人来说,是谁说话并不重要并不一定那么重要。事实上,这可能是件好事。声音比脸更能传达某些情感真相。一般来说,与面部肌肉相比,我们很难控制调节声音的肌肉(当然,除非是经过训练的歌手或演员)。即使我们在说话时试图压抑自己的真实感受,但愤怒、厌倦或焦虑往往还是会显露出来。

《American Psychologist》2017年发表的一项研究表明,当人们在没有见面的情况下交谈时,他们更善于识别出对方的感受,更善解人意。Freud早在实证研究证明这一点之前就明白了这一点。这就是为什么他让他的病人躺在沙发上,背对着他的原因了——这样一来他更能在病人的闲言碎语中分辨出其真情实感,而不会因为愁容或微笑出现误判。

身为双刃剑的智能设备

智能声控设备的制造商希望利用这些心理社会效应。亚马逊和谷歌都有“个性团队”,负责为自家设备设计合适的语气。某种程度上来说,这是教科书式的品牌管理:这些设备必须是制造商的形象大使。Reid告诉我,亚马逊希望Alexa的个性能反映公司的价值观:“聪明、谦逊,有时还很有趣。” Google Assistant的产品经理Gummi Hafsteinsson说:“Google Assistant很谦逊,乐于助人,有时还会有点顽皮。”同时我们也要知道,拥有个性也有助于让设备的声音更有感染力。

不过设置合适语气是件挺有难度的事情。虽然人们经常把智能声控设备比作管家一类的角色。现阶段的美国人希望自己“管家”的声音要友好,但不要太友好,甚至给人一种谄媚的感觉。

为了调整Google Assistant的性格,谷歌从皮克斯聘请了Emma Coats,她曾在皮克斯出品的《勇敢者(Brave)》、《怪兽大学(Monsters University)》和《头脑特工队(Inside Out)》等电影中担任情节串联师。当我参观谷歌总部时,Coats正在参加一个会议。她微笑着出现在谷歌的Hangouts上,给我留下了深刻的印象。她说,Google Assistant “应该能像人一样说话,但绝不能假装是人。”她指出,在《海底总动员(Finding Nemo)》中,这条鱼“在情感上和人类一样真实,但它们会去钓鱼学校,互相挑战去摸人类的船。”同样,一个人工智能实体应该“尊重自己是软件这一事实”。例如,如果你问Google Assistant,“你最喜欢什么口味的冰淇淋?”它可能会说,“选拿破仑牌儿的准没错,大家都爱吃这个味儿。”当然,这是一种回避,但它遵循Coats所表达的原则。软件不能吃冰淇淋,因此不能有冰淇淋偏好。如果你向Alexa求婚——亚马逊说在2017年有100万人这样做了——出于类似的原因,她会委婉地拒绝。“在实际生活中,我们处在两个不同的世界。”

声控设备应该被牢牢地局限在自己的一亩三分地中,但它们也不应该像外星人一样。这就是Google Assistant的首席对话和角色设计师James Giangola上任的原因。Giangola是个喋喋不休的人,一头卷发,当然不只是个疯狂的科学家,他的工作是让Google Assistant无缝衔接到我们的生活中。

例如,Giangola告诉我说,人们倾向于在句子的结尾提供新信息,而不是在句子的开头或中间。“我一般会说‘我叫James’,”他指出,“而不会说‘詹姆斯是我的名字’。”随后,他又举了一个例子,假设有人想订6月31日的机票,声控设备就要说“6月没有31日。”所以,声控设备必须处理两项微妙的任务:既表现得自然,又不与人类用户起冲突。

为了说明和验证自己的观点,他在自己的电脑上敲出一行字:“订一张6月31日的机票。”

Google Assistant回复道:“6月只有30天。”

“是不是自然多了?” Giangola说道。

让说话的节奏慢下来是至关重要的,但要创造出一个应付得体的交谈者是远远不够的。机器人也需要良好的氛围。当Giangola在训练Emma Coats为Google Assistant录制配音时,他给了她一个背景故事,以帮助她产生自己想要的那种乐观的气质。故事的背景非常具体:她来自科罗拉多州——这个州的口音不太独特。“她是一位研究图书管理员和一位拥有Northwestern University艺术史学士学位的物理学教授的小女儿”,Giangola继续说,“小时候,她在《Jeopardy: Kids Edition》节目上赢得了10万美元。她曾经是‘一个非常受欢迎的讽刺评论家’的私人助理,而且喜欢划皮艇。”

一位持怀疑态度的同事曾经问Giangola :“怎么样才能一个人听起来像是喜欢划皮艇?”在试演过程中(数百人试演了这个角色),Giangola转向质疑者说:“刚才试演的那个候选人——你觉得她听起来精力充沛好像要去划皮艇吗?”他的同事承认并没有。“我说,额,那好吧。”

但是过于现实的声音可能可能会引起麻烦——至少现在是这样。今年5月,谷歌在年度开发者大会上公布了使用尖端语音合成技术的Duplex系统。为了证明自己取得的成就,该公司播放了由Duplex系统给预先未告知的的人打电话的录音:它用女性的声音在发廊预约,用男性的声音询问预订餐厅。Duplex系统滔滔不绝——其间还夹杂着“嗯嗯啊啊”的停顿声,而两个接电话的人都没有意识到自己是在和一个职工能说话。

许多评论人士认为谷歌播放那两段录音是个错误。因为Duplex不仅违背了人工智能不应该假装成人的限制,也违背了我们的信任。我们不一定总能意识到自己身边的声控设备对我们的心理影响有多大,但至少我们选择了这种关系。而Duplex作为一个具有欺骗能力的人工智能显现出了惊人的效果。之后,谷歌表示Duplex在应用中是会向交流者表明自己的身份的。但是,即使谷歌遵守自己的诺言,同样欺骗性的语音技术已经被开发出来。而新开发的技术会不会被用在违法犯罪上就很难说了。人工声音和真实声音之间的界线正在逐渐消失。

从检测情感到产生情感

当然,最能引起共鸣的对话者是那种能理解你声音所传达的情感,并做出相应回应的人——而且在回应之时能够表达出微妙的情感。尽管我们的智能声控设备还不能完成这两件事,但是语音分析情感的系统已经存在了。情感检测——面部、身体和声音——由麻省理工学院(MIT)的工程学教授Rosalind Picard于20年前首创,她将这一领域命名为“情感计算”。“那时候,”她告诉我说,“情绪与非理性有关,而非理性不是工程师喜欢的特质。”

Picard是一位温文尔雅、机智诙谐的女性,她负责着情感计算实验室,这是麻省理工学院(MIT)那些欢乐古怪的实验室中的一个。Picard解释说,大多数人工智能研究与她所做的研究的区别在于,传统的研究侧重于“名词和动词”——即行动或话语的内容,而她对“副词”更感兴趣——即所表达的感情。“你知道,我可以用很多不同的方式接电话。我可以用一种剧烈的、愤怒的、急促的动作抓起电话,也可以带着快乐、充满爱的期待拿起电话,” Picard告诉我。如果一台机器想要理解人类给彼此的微妙暗示,那么关注那些手势中暗含的意味是很重要的。一个简单的动作,比如点头,就能传达出不同的意思——我可以用一种活泼快乐的方式点头,也可能在用一种悲伤的方式点头。

2009年,Picard与人合伙创办了一家名为Affectiva的创业企业,专注于开发能感知情感的人工智能。如今,该公司由另一位联合创始人、Picard实验室的前博士后研究员Rana el Kaliouby管理。该公司有望成为汽车市场的佼佼者。下一代的高端汽车不仅在硬件上有要求,在软件上更有要求,可以用来分析驾驶员的注意力及其他状态。这种能力已经在半自动驾驶汽车上进行了测试,汽车软件必须做出明智的判断:当司机太过分心或心烦意乱、无法集中精力开车时,什么时候将控制权交给司机是安全的,或者何时接管比较好。

Affectiva最初主要是通过面部表情检测情绪,但最近聘请了语音情绪检测领域的后起之秀Taniya Mishra。她和她团队的目标是训练计算机来解释人类语言的情感内容。毕竟我们使用的词语是表达自己感觉如何的重要线索,同时,我们也可以通过说话的音调、音量和节奏来表达自己的感受。电脑已经可以记录下这些非语言特性。但关键在于,教会智能设备人类本能直觉的东西:这些声音特征如何暗示我们当前的情绪。

她告诉我,该领域最大的挑战是建立足够大以及足够多样化的语言数据库,以便计算机能够从中学习。Mishra的团队从“野外”录音开始——即从网络上的视频中收集,或者由收集自然语音样本用于学术目的的非营利数据协会提供等等。在埃及的开罗,一小队工作人员分析了讲话内容,并将其所传达的情感以及非词汇性的发音——嘟囔、笑声、停顿——标记出来,它们在揭示说话者的心理状态中扮演着重要的角色。

对数据进行分类是一个缓慢而艰苦的过程。三到五名工人必须就每个标签达成一致。Mishra说,说话时长一小时,标记和分类时间多达20个小时。不过变通的办法也是存在的。一旦计算机中有足够多的人工标记的样本,而这些样本又具有特殊的声学特征——比如一阵愤怒,或者一阵悲伤——它们就可以开始自己标记样本,这个速度比人工扩展数据库的速度快得多。随着数据库内容的增加,这些计算机将能够以越来越高的精确度识别听到语音中蕴含的情感内容。

在研究的过程中,我很快就记不清有多少创业公司希望在这个领域使用基于语音的分析。例如,旧金山的一家名为Ellipsis Health的公司为医生、社会工作者和其他护理人员开发了一种人工智能软件,该软件可以检查患者的讲话,以寻找抑郁和焦虑的生物标记。Ellipsis Health的首席科学官Elizabeth Shriberg解释说:“情绪的变化,比如抑郁,与大脑的变化有关,而这些变化可能与运动指令有关,运动指令又能影响语音。” Ellipsis Health的软件可能有很多应用。例如,它可以用于常规的医生诊疗,比如年度体检(当然是在病人同意的情况下)。

我希望机器设备无法识别出一些语言方面的东西,比如讽刺或讥诮。但伦敦Imperial College London的人工智能教授、德国University of Augsburg“嵌入式智能”教授Björn Schuller告诉我,他教会了机器设备识别讽刺。他让机器设备同时分析语言内容和语调,这样它们就能发现词语和音调之间的差异,从而判断说话人的意思是否与所说的完全相反。

深度长文:谦卑好用的智能助手,未来会变成人类的梦魇吗?

作者:Roberto Parada

当然,检测情感之后的下一步自然是产生情感:训练人工智能设备生成情感的近似值。一旦机器设备在分解我们讲话的情感成分方面变得颇有能耐,假以时日,它们的表现会有飞跃性提升,比如换位思考。智能设备能够辨别并对用户的心态做出反应,由此可以创造出一种看似真实的亲近感,一种可以用于善或恶的纽带。

Taniya Mishra期待着这种纽带的可能性。她幻想着未来某天结束的时候可以对自己的汽车就所有出了问题的事情大声抱怨发泄——作为代步工具的汽车同时也是积极的听众。她说:“汽车是不会开小差的。一辆车不会说,‘哦,对不起,亲爱的,我得去做晚饭了,待会儿再听你的故事。’”车身上搭载的智能设备会随着时间的推移跟踪她的情绪状态,然后在发现Mishra某一周的某一天会有这种感觉。然后主动播放一曲Pharrell的歌,因为这首歌过去曾让她感到振奋。从某种程度上说,这样的智能设备已经不仅仅是助手了,它们会成为伙伴。

潜在的威胁

如果你没有在科技行业工作过,你可能不会对亚马逊或者谷歌的这些产品产生一些疑虑。但是,到目前为止,我们大多数人已经认识到了允许最隐私的信息被收集、存储和出售的危险。我们知道面部识别技术加大了被监视的风险;我们知道科技公司将我们的浏览习惯、行踪、社交媒体互动信息进行售卖;我们知道黑客可以入侵家庭安全系统和摄像头,窃取数据或重新编程以达到邪恶的目的。智能设备的蓬勃发展和广泛应用能够使我们的身体和情感状态为其获悉,又将为恶作剧开辟新的领域。尽管与我交谈过的大多数工程师都很乐观,但我必须承认,我现在把iPhone上的麦克风关掉了,而我在不使用智能声控设备的时候也不插电。

但也有一些微妙的影响需要考虑。以一些看似无害的事物为例,如“无违和感”。对于亚马逊的Toni Reid来说,这意味着方便。在我看来,它让我想起了一个资本主义监狱的形象,里面坐满了消费者,他们变成了自己梦境的俘虏。《Radical Technologies: The Design of Everyday Life》一书中,城市规划学家Adam Greenfield将“无违和感”描述为一种存在的威胁:它旨在将思想从消费中剔除,“切断一个人对欲望的认同和通过市场实现欲望之间的反思过程”。

我担心的还有其他对心理健康的威胁。一个由智能声控设备组成的世界可能会变得非常吵闹。很难想象我们该如何保护沉默的权利,在这份沉默中,我们可以思考原创性的想法,做创造性的工作。当你感到孤独的时候,有伴侣固然很好,但是每个人都应该有独处的空间这一点同样不应被忽视。

一旦我们的“电子仆从”在情感上变得精明了怎么办?它们可以对我们进行游刃有余的操控,甚至对我们的孩子进行游刃有余的操控。这些感情用事的智能助手们会以一种顺从、乐于助人的方式把我们宠坏。当它们应该反对我们不礼貌的行为时,它们选择了缄默;而只要有危险的强烈情绪出现,它们就会改变话题;它们甚至会在我们最丑陋的时刻奉承我们。你如何让一个机器人去扮演真正的作为知己的艰苦工作?又如何知道让机器人知道你有时真的需要严厉而不是骄纵?

最终,智能声控设备可以让我们轻松地融入过去许多先哲们曾警告过的从众心理。它们是情感标记过程的产物,而这种过程无法捕捉到人类情感的多变性和复杂性。在某种程度上,它们的“适当的”反应会被封存起来。我们将不断地与那些在模拟而不是真实情感中的声音对话,在虚拟伙伴的陪伴下长大的孩子可能特别容易接受这种从众的行为,最终丧失了理解和坚持自己直觉的能力。

也许是我错了。也许未来这些智能声控设备会发展会丰富我们的内心生活。也许是我自己的想象力有限,但是我看自己十几岁的孩子无论去哪儿也手机不离身以免无聊的时候,我知道它们只会更加这些设备。你会发现,你并不会愿意让自己的孩子整天和人工智能呆在一起。

如果说在我多年的治疗中学到了什么的话,那就是人类的心灵注定是肤浅的。我们坚持否认。假装更深层的感觉不存在是很容易的,因为很多感觉都很痛苦。你可以这样,但感情不会就这样消失,感情终究会流露出来。

编译组出品,编辑:郝鹏程

+1

好文章,需要你的鼓励

参与评论
登录后才能参与讨论哦...
后参与讨论
提交评论0/1000

请回复有价值的信息,无意义的评论将很快被删除,账号将被禁止发言。

下一篇

很少会有一个细分赛道,会像生鲜这样吸引投资者和创业者的注意。

2018-10-23

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

为你推送和解读最前沿、最有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚集全球最优秀的创业者,项目融资率接近97%,领跑行业