全球最实用的IT互联网信息网站!

AI人工智能P2P分享&下载搜索网页发布信息网站地图

当前位置:诺佳网 > AI人工智能 > AI通用技术 >

人类真的可以在人工智能中获得情感智力是梦想

时间:2017-04-27 15:36

人气:

作者:admin

标签: 人工智能  亚马逊 

导读:人类真的可以在人工智能中获得情感智力是梦想吗?亚马逊这么做你心动了吗?-现在,着眼于人工智能,AlphaGo可以陪你下围棋,Google Translate可以让你和来自不同国度的朋友交流,可是...

  现在,着眼于人工智能,AlphaGo可以陪你下围棋,Google Translate可以让你和来自不同国度的朋友交流,可是,你觉不觉得,好像少了点什么东西?这些冷冰冰的AI产物似乎都在进行机械的、本能的动作,我们能不能再往前进一步——赋予人工智能一些更多的东西呢?比如,情感智能。。.。。.

  

  有人告诉我要做好准备:有朝一日,人工智能将要取代我的工作。这将会令我一贫如洗,无根漂泊或是置身于无尽的时间和生存的恐惧中,而是否如此取决于你问的是谁。似乎是时候去思考什么类型的工作是只有人类可以完成的,进而疯狂地调整自己使自己更加适应这些角色——以免茫然无助,就仿佛是置身于一些机器人音乐椅游戏结束的时候。。.。。.

  在人们对于自动化的未来预测中,几乎没有将情感劳动这种工作形式考虑在内,或许是因为它是无形的,难以量化和货币化。在很大程度上,包括给予关怀,肩负重任,以别人的职能和福祉为己任的努力就像许多“女性工作”一样,受到忽略,尽管近几年来,关于隐性成本的讨论在劳资不平等的对话中获得了动力。

  受益于数字社会的神奇工具,我们在理论上能够获得和给予比以往任何时候都要多的支持。社交媒体平台让我们彼此加深理解,保持紧密联系,所以我们倾向于认为这种知识有助于促进产生共鸣和联系性。而对于结构不平等问题和全球人道主义问题,我们也有了更深入的了解,可是,又是谁在做实际的教学工作呢?

  对于大多数人来说,包括我自己在内,现代科技和社交媒体基础设施并没有让生活轻简化,事实上,这更促进了对情感化劳动的需求,可这些是没有额外的薪水的。几乎所有的工作都是这样的,这些做着繁重工作的人最终成了最不受欢迎的人。在Twitter上,几乎是女性的天地,这些定期提供关于种族、交叉学和政治问题的人,经常要冒着遭受骚扰的危险来发表言论。如果你在社交媒体上花了一些时间,有了一些领悟,那么这主要是得益于那些顶着压力(以及人们使用的平台可以获得的利润诱惑下),无偿提供内容服务的志愿者们。

  如果时机恰当的话,我也想试着做这种工作,可是,慢慢发觉情感劳动也可以是亲密的,例如女性在不同程度上社会化来改善人际关系的能量,就是一大实例。在Facebook时代,朋友们生活中的日常挑战总是出现在我的面前,让我很难假装看不到他们一个或是好几个人的求救或是求支持的呼吁,这主要是因为我的实际工作和生活的界限正在日益瓦解。在某种程度上,我可以花费一些时间与一个实际上并不是很亲密的朋友进行支持性会话,或者在网络观点中坚持自我而反对那些可能永远都不会见到的陌生人的观点。

  当然,“我在社交媒体上花费了太多的时间”这是在制定宏伟计划中享有特权的控诉。但总而言之,我和朋友们在一天工作结束时,日益觉得焦躁不安,忧心忡忡,好像我们已经成为金钱的奴隶,心里更多是寂寞和空虚。20世纪70年代以来,选择跳过母亲身份的女性人数翻了人一番,虽然里面包含着各式各样的时代和经济因素,但我时常会想:如果当今的女性觉得我们全都失恋了,那该怎么办呢?

  在20世纪60年代,Joseph Weizenbaum在麻省理工学院人工智能实验室创建了一名名为ELIZA的治疗师聊天室,虽然他并没有打算设计一个“真正的”AI治疗师,但Weizenbaum惊讶地发现,随着AI根据“病人”的状况提供温馨的提示和积极的回应,他的秘书渐渐被ELIZA所吸引,对它表现出一种喜爱,原本这只是对情感模拟背后假象的讽刺,现在竟然演变成了通往人类心灵的研究之路。

  Weizenbaum没有预料到竟然会有那么多的人对ELIZA感兴趣,这些人觉得他们和她有一种紧密的联系,因此,Weizenbaum团队打算在接下来的几十年里将他们的秘密输入到ELIZA中,以一个发光的屏幕加以展示。人们对ELIZA的这意想不到的喜欢所提供的重要线索坚定了我们对AI的希望——我们十分渴望将AI变成一种情感劳动,而且不管回报高低与否,我们都愿意这样做。

  我们一直在想AI是怎样能够做到接管这些工作的,不管它是倾向于触及人类心灵,还是承担现存不公正的社会中的日常负担,这些它是怎么做到的。机器人治疗师,管家,女仆,护士,和性玩偶,这些都是技术——乌托邦未来幻想中的熟悉组成部分,当我们在享受安逸生活的时候,尽职尽责的机器做着所有我们不愿做的家务。但是,实际上,基于动力学原理的机器人可以像从事服务或劳动行业那样从事培养和照顾事业,甚至更多。

  1985我看到我的第一个机器人玩具。一只名字是Teddy Ruxpin的玩具熊,他大声地为孩子们朗读,而这得益于插入其腹部的书籍磁带。在电视广告中,泰迪熊和留守儿童们一起放学回家,而他们的父母,大概还在时代的洪流中跌宕,穿梭于城市的楼宇之间;或者他会在夜晚为孩子们讲故事,唱摇篮曲,他毛茸茸的下巴总会及时地啪嗒啪嗒走着。在同一年,电影《洛奇》第四部上映,在影片中西尔维斯特。史泰龙,一个有名无实的拳击手——当然现在是富有的,不顾名誉地送了他的老朋友保利一个会说话的机器人管家。这可是达到了20世纪八十年代的顶峰啊,意味着经济的发展水平充足得可以想象创建一个直达未来技术和生活世界的楼梯。出现在电影中的实际机器人——Sico,在他沉迷于好莱坞的魅力之前,他的工作就是帮助自闭症儿童进行沟通。在电影中,保利不知道是出于何种原因,费尽心思地将功能复杂的男性仆人改编成为具有女性声音的社交伴侣,后来,他越来越喜欢这样做,(“她爱我!”他坚持宣称)。

  

  也许对于孩子来说,护理,就像身着工作服的温柔玩具熊,可以是无关性别的。当涉及成年人的世界时,我们仍然默认女性的工作领域是以服务和养育为主的。为什么当今的AI如此频繁地采用女性的声音或使用女性角色,这一直是大家研究,讨论和猜测的主题。有人说,我们常把服务或顺从性与女性联系起来,一方面主要是因为男性技术消费者常常将奢侈品与性别相结合,还有就是一般人们都认为女性的声音反响更好一些。“日本对Alexa的定位”Azuma Hikari说,就是一名虚拟助手,她会告诉她的主人,当他离开时,她会想念他,会迫不及待地想要他回家。这样的事情不仅令人不舒服地将性别和顺从性掺杂在一起,而且还包含着在数字时代,情感工作中的陪伴,关爱和日常互动的点滴。我们希望我们的机器人是女性,那是因为我们殷切期望从女性那里得到情感劳动。

  我幻想自己自己是一个专注于瓦解父权制和这些有关一切的人,但当我荒唐冲动地向?Alexa?说“谢谢你”,而她没有回应时,我仍然觉得觉得有点失望。当然,只有当Alexa听到我说“醒来”时,她才会听我的声音,否则她可能一直在偷窥我。但我仍对我们之间的这种互动感到无所适从,因为没有额外的,活泼的互动,让我觉得我没有被强迫,我的需求是正常的。我不只是想让她弹一首歌或告诉我天气,我还想让她觉得我问的问题还是不错的。

  这种特别的冲动可能不利于健康的社会,在一篇名为“将情感劳动外包给机器人的危险”的文章中,克里斯汀•罗森(Christine Rosen)引用了研究进行警告,这种人为地保持我们的舒适区域的方式可能使护理词汇均匀化,换句话说,如果机器人可以礼貌地微笑来回应命令,那么我们是否可以停止评估人类做同样的事情所花费的成本呢?所有的外包都会危及当地劳动力的贬值——我们可能会更少的同情心去直视我们的情感智力退化,或者创造出关于谁值得(或负担得起)关心的奇怪的新的社会信息。如果我们的虚拟助手和情感劳动者都变成具有安抚性,女性化的AI,那么这是否会缩小AI与人类的一些差距?或者他们是否可以得到社会的普遍认可?

  让这些问题变得复杂的关键是,机器人,虚拟助手,生产力软件,电子邮件信号检查器,数据处理算法和类似的太阳下的任何东西现在都在“AI”的大门下大量耕作,尽管许多还只是粗糙的算法或模式匹配软件。谷歌希望一个机器人可以帮助识别有毒的互联网评论,而Facebook正在测试一个AI,它可以发现有可能会自杀的用户,并提供干预选择项。正如伊恩•博格斯特(Ian Bogost)所说,当他将AI的新意义写成一个术语时,这些解决方案是非常不完美的,而且容易被滥用,“人工”但并不是特别“智能”。

  尽管如此,人工智能(或软件或算法)的潜力还是很大的,关键领域是在线生活。 基于波特兰的创意技术开发商Feel Train与著名的Black Lives Matter活动家DeRay McKesson合作,联手推出了一个名为@staywokebot的Twitter机器人,该机器人旨在为黑人活动家提供支持性信息,并承担面对社交媒体噪音的一些压力;最终它的目标是作为101级问题的前线,如“为什么不是所有的生命都重要”?机器人已经可以告诉人们如何与当地的代表联系,一个未来的目标就是为复杂而常见的正义问题提供答案,缓解积极分子自身不断参与这些对话的要求。

  除此之外,内容版主在像Facebook这样的平台上面临着反乌托邦式的恐怖,在2014年的《连线》杂志中详细地记载了一些特别可怕的细节,这可能看起来是一项不繁杂或者不需要娴熟技巧的工作。目前,算法只能简单地猜测一个笑话,短语或图像的语气或语境,所以人类的直觉仍然是很重要的。那么这个问题就在于,一个真正的人必须日复一日地看每一个潜在的违规内容,衡量每一个人的价值。基于这样的考量,一个智能机器至少可以形成第一防御,至此人类版主也许可能只需要研究一些微妙和更细微的情况。

  Mitu Khandaker-Kokoris是英国伦敦一家软件公司的首席创意官,这家软件公司专注于使用人工智能技术开发更加人性化和合理的角色交互——包括游戏世界以及外界棘手地区的社区管理。游戏社区是人们想要测试边界的许多复杂空间之一,就像想要找到让他们感到安全的文化场所一样。我向她介绍了她公司的工具之一,Ally——旨在使各种社会平台变得更安全,更具包容性。

  

  “我们如何处理人们彼此之间直接的情感虐待,我们该如何对这些进行干预呢? 目前,对于版主,对于受害者来说,不得不等到问题得到解决是很困难的。“Khandaker-Kokoris说。

  Ally提议去识别一些潜在的有问题的互动迹象——不仅仅涉及言论或直接接触,而且还包括缠扰或骚扰等行为。从那里,一个AI角色,其参数产品所在环境的所有者决定,它将会对目标的行为提出否认,以及判断是否需要采取任何行动。

  这种方法可以让用户定义他们自己的个人界限,AI可以从他们与用户的互动中学习什么时候介入和为谁介入。“界限是超级复杂的,”Khandaker-Kokoris说。 “我们可以在某些时候确定某些事情,而不是其他事情,这甚至可能依赖于你当时的心情。所以这个AI角色以及你与他们的互动可以作为你与社区中其他人的互动的传递者。我认为这是一个明显的例子,这样我们可以减少对受害者以及版主的情绪负担。“

  虽然Khandaker-Kokoris确实分享了许多人将情绪劳动外包给自动化的犹豫和担忧,但总体而言,她和我一致同意技术部门需要继续努力,更好地了解情感劳动,以便来解构它,或者说更深一步意义地委托它来做一些事情。和她交谈让我感受到了希望,有选择性地考虑人工智能的干预可能有帮助的,有助于我在比以往任何都更加令人精疲力尽,更具压倒性的和要求更苛刻的环境中——尤其是女性和有色人种,更好地策划个人界限。

  与此同时,科技行业似乎会继续在其产品使用女性的声音,但实际上和我们在现实生活中听到的是不一样的,一个新一波的更加智能化的虚拟助理肯定会实现在我们身上的。这是为了安抚我们,诱导和奖励我们,将我们置于智能手机智能家居和智能汽车中进行培养。

  但就现在而言,对于那些早已厌倦在线生活的人们来说,从我们的技术中获得情感智力仍然是一个遥远的梦想。

温馨提示:以上内容整理于网络,仅供参考,如果对您有帮助,留下您的阅读感言吧!
相关阅读
本类排行
相关标签
本类推荐

CPU | 内存 | 硬盘 | 显卡 | 显示器 | 主板 | 电源 | 键鼠 | 网站地图

Copyright © 2025-2035 诺佳网 版权所有 备案号:赣ICP备2025066733号
本站资料均来源互联网收集整理,作品版权归作者所有,如果侵犯了您的版权,请跟我们联系。

关注微信