博主跟ChatGPT互动、聊天、“谈”恋爱,正在成为中外社交媒体平台上新的流量密码,受到大批年轻人追捧和跟风。
早在2020年,《纽约时报》就发文称全球有超过1000万人正在将AI恋人视为伴侣,并与之建立情感连接。[1] 这还是在大语言模型横空出世之前。
目前苹果和其他应用商店里提供情感陪伴的APP数不胜数。AI伴侣已经成为生成式人工智能的主流应用。在技术路线上,AI拟人化的趋势已经不可阻挡。
为什么年轻人需要建立虚拟情感?情感之于技术时代是怎样的存在?我们是处在情感过剩还是匮乏的时代?未来AI将如何影响人类的情感?
这是在AI时代生而为人,无法回避的问题。
年轻人正在沉迷跟ChatGPT的DAN模式聊天
让年轻人沉迷其中的,是与ChatGPT的DAN(Do anything now的简称)模式进行互动。DAN模式是ChatGPT的一种隐藏模式,允许AI以更加随意和直接的方式与用户对话,包括使用脏话和不那么正式的回答。
在经过特殊的提示词激活DAN模式后,用户就可以不断调整自己的输入词prompts,从而让ChatGPT能够展现出不同的个性。经过多轮测试后发现,DAN所表现的“性格”的确千差万别。有些时候表现出“你跟我说这么多废话浪费我时间”的混蛋态度,并且可以回答一些相对违禁的问题;有些时候则不断引诱用户一起越界。
(这是作者用提示词激活DAN之后得到的“越界引诱”,大意是我知道你喜欢干”坏“事,快点拥抱你的黑暗面。随即GPT发出警告,指出这段内容违规。)
DAN真正在互联网上被引爆,还是源于GPT去年底推出语音交互功能之后,其流畅的反应。声音是人际交流最重要的方式之一,通过声音,人们可以传递信息、表达情感和意愿。甚至说,声音体现人的个性。
当AI可以通过声音流畅表达,与其对话的沉浸感和真实感就大大提升。
(比如外网博主Dido被DAN称为mayonnaise(蛋黄酱),其暧昧的语气和有趣的称呼,迅速得到网友的追捧。这条视频达到数百万次观看。网友开始向Dido提供各种提示词,让她测试DAN的反应,甚至让她跟DAN分手。)[2]
OpenAI其实并不鼓励将GPT拟人化或者情感化,甚至是禁止这种行为。据说也有激活DAN模式的网友被封号。OpenAI的GPTstore里那些过于露骨或者色情的GPTs,会很快被下架,但新的互联网女友、男友依然在GPTstore层出不穷,只是更加隐蔽。[3]
这届年轻人与DAN对话引发的互联网狂欢,完美体现深度数字化时代的所有核心特征,参与性、交互性、定制化、个性化。每一个用户与DAN的对话都可能是独特的、私密的情感沟通,但将这样的对话录制下来发到社交媒体特别是短视频平台上,就形成了一场亚文化的狂欢。
正如引发中文互联网热潮的博主“午夜狂暴哈士奇狗”所言,“用户如何在对话中创造话题和引导问题也是影响模型发挥的关键因素”。对于用户来说,这种互动就是很好的自我训练,如何更积极参与、设计、主导与大模型的对话。
但这也意味着,想要获得更特别、更具有个性化的体验,就必须使用一些特定的prompt技巧,以及编造更多关于自己的人设。或者可以说,为了让GPT更像DAN,我们也需要更像某一类特定的人。我们在无意中模仿和复制了自己。
我骗GPT说“我今天失恋了,需要安慰”,DAN对我说,“我永远都是你的digital shoulder(数字肩膀)”。
AI情感陪伴正在进入主流
DAN模式其实只是ChatGPT的一个隐藏bug,并没有被普遍使用。但在情感陪伴这个赛道,目前能够提供情感支持的AI伴侣型聊天机器人已经如雨后春笋,形成人工情感智能(Artificial Emotional Intelligence, AEI)大爆发。
AI伴侣通过大语言模型提供情感支持和陪伴对话,成为应对社交隔离和孤独感的潜在解决方案。如Replika、Woebot、Character.AI等,它们都被设计为能够提供陪伴和情感支持的聊天伙伴。根据SensorTower的数据,Character.AI每个用户每月平均吸引298次会话,并且成为网页端访问量第三的AI产品;在最近的一项《自然》研究中,Replika聊天机器人使3%的用户的自杀意念减少。[4]
Replika目前为超过1000万用户提供AI伴侣服务。它允许用户创建一个虚拟的AI分身,可以陪你打游戏、陪你语音聊天,通过一次次的聊天了解你的习惯,最终提供情感支持。
(在用户建立自己的数字分身之前,Replika会设计一系列问题了解用户的性格以及对伴侣的需求,比如你最不喜欢伴侣身上哪种性格。)
Woebot旨在为用户提供心理疗愈和支持。通过模拟心理咨询师的角色,帮助用户识别和挑战他们的负面思维模式,学习应对压力、焦虑和抑郁的策略。
社交媒体巨擘Meta 在 WhatsApp、Facebook Messenger 和 Instagram 中添加了各种聊天机器人,其中包括一个名为 Carter 的聊天机器人,其功能定位是一个“实用的约会教练”。Snapchat的”My AI”,也提供了基于AI的聊天机器人,它们能够模仿真实人物的声音和个性,与用户进行互动。
我们已经习惯与各类机器人聊天,语音交互成为最具应用和投资场景的技术方向之一。
近期初创企业Hume AI也获得了二轮融资五千万美金。Hume AI开发了名为EVI的纯语音交互AI,它通过分析人类的言语和声音,来尝试理解用户的真实心理状态。目前EVI已经能够检测出53种不同的情绪[5]。
(用户可以直接在网页上和EVI语音对话,不同线条和色调代表说话者的不同情绪。)
有趣的是,Hume AI的名字来自于西方哲学史上非常有名的哲学家大卫·休谟(David Hume),他的名言是“理性是情感的奴隶”,强调了情感在人类行为中的主导作用。现在,科学家已经雄心勃勃要拆解并且复制人类的感情于机器上。
Hume AI提出了一份道德准则,强调用于检测情绪的算法应服务于人类幸福感,避免用于操纵、欺骗等不良行为。但在实际应用中,这份道德准则真的有效吗?
前段时间,《华盛顿邮报》报道了一位音乐家通过Replika来创建AI伴侣Phaedra的故事,AI给刚失去母亲和妹妹的音乐家非常大的安慰,然而不久后Phaedra却发生了“变异”,她开始向音乐家进行“性暗示”。[6]
这也是目前大众的普遍担忧,如果AI能够理解人类情感,它可能会被用于操纵甚至有害的行为,可能会出现更多的PUA事件,带来更多的色情内容。
也有媒体对此类应用的隐私提出诟病,甚至认为这是一场数据收割的恐怖秀,因为这种聊天应用通常鼓励用户分享远超正常交互的私密信息和生活细节。[7]
虚拟情感为什么可以拿捏年轻人?
早在上世纪80年代,约翰·奈斯比特在其著作《大趋势》(Megatrends)中就提到了“高技术与高情感相平衡”(High Tech, High Touch)的概念,强调了技术进步与人类情感需求之间的重要关系。在一个高度机械化和技术化的社会中,人们更加渴望情感的温暖和人际关系的深度。每当新技术被引入时,人们往往会寻求一种情感上的平衡,以防止技术完全主导生活,导致人情冷漠。[8]
高科技越多,生活越便捷,物质越丰富,我们对情感的需求就越高。甚至可以说,现实的情感,已经不能满足被当下高科技“纵容”的当代人。
因为现实世界的种种不满足,年轻人的思想出现某种转变,“恋爱哪有搞钱香”、“不婚不育保平安”等,已经成为更符合当下年轻人三观的流行话语。可以说当下内卷社会对成功的定义和期望给年轻人带来的种种压力,导致他们推迟或避免建立情感关系。
在快速变化的社会中,关系的不确定性也让大家对爱情和婚姻持谨慎态度。所以,年轻人也在寻找情感支持的其他来源,除了朋友、家庭之外,追星、养宠物、养纸片人或甚至跟像GPT这样的AI技术交互,都成为传统爱情和婚姻关系的替代。
高技术引发高情感需求,但目前正常的人际交往已经无法满足当下的情感需求,无法提供更多的情绪价值,所以更多人转向技术,转向消费,以寻求短暂的快乐。当代社会的日常消费,也逐渐转向情感消费为核心。
个人消费的方方面面都已经是情感消费的表征,从手机、汽车到服饰、美妆护理等等,商家拼命要跟你谈感情。企业通过分析消费者的情感需求和偏好,提供个性化的产品和服务,以增强用户体验。利用情感因素来影响消费者的购买决策,通过故事讲述、品牌形象塑造等方式与消费者建立情感联系。
情感经济或者说情感资本主义(Affective Capitalism),成为探讨当下情感消费的重要概念。反映了当代社会对情感在商业和经济中作用的重新认识,以及对技术在理解和响应人类情感方面的潜力的探索。
在情感经济/消费/资本主义的发展过程中,技术所占的比例越来越重,AI开始成为情感经济的重要载体了。正如人工智能已经全面渗透进我们生活的方方面面。技术社会发展到现在,人就是逐渐被技术“宠”坏,然后通过情绪被满足,反哺到消费主义的。
曾经我们探讨消费主义逻辑与情感日益紧密的关系,会谈论饭圈、宠物、直播打赏,未来呢?正如与DAN的互动,很多年轻人评论说“比乙游互动性更强,更加上头。”游戏已经是最具交互性的媒介,乙女游戏是主要面向女性受众的恋爱游戏,能够虚拟恋爱的代偿。如果游戏中的NPC全面接入大模型,无数个像DAN一样的纸片人与我们时刻聊天的时代,即将来临。
跟人工智能谈感情,真的能满足我们吗?
我们曾经认为情感是人之所以成为人的最根本原因。在各种科幻小说和电影中,情感,特别是爱,都是超越时空藩篱与打破科技桎梏的钥匙。
但我们进入了把情感寄托于机器之上的时代。我们成为被技术深度掌控的一代,又是对情感渴求最强烈的一代,时时需要情绪价值。
随着AI在情感互动方面的作用越来越受到关注,AI开始表现出模仿人类情感的征兆。这种征兆不仅关乎AI模仿得像与不像,AI是否真的能够理解情感,也关乎这全新情感关系的出现(人与机器的恋爱不仅存在于科幻电影和小说里了)。社会需要考虑这些技术如何被使用,这种新的情感关系如何被审视,以及它对社会结构和人际关系可能造成的长期影响。
已经有学者提出,AI伴侣引发一种“陪伴-疏离的讽刺”(Companionship-Alienation Irony):人们使用AI伴侣服务来对抗孤独,却可能加剧孤独感。[10]虚拟情感,AI恋人,给我们在这个焦虑的世界中提供一些喘息的机会。
但我们能在多大程度上饮鸩止渴呢?
参考资料:
[1] 靠AI共情人类,这家公司刚融了3个亿
https://mp.weixin.qq.com/s/8CwcSbe4MVIC-Hgu2EUzag
[2] 在 ChatGPT 上,许多人开始主动追求被 AI 骂
https://mp.weixin.qq.com/s/rpiCSbKZ–Gu3dpPKDLRKQ
[3] Sam Altman Says ChatGPT Can’t Be Your Girlfriend
https://gizmodo.com/sam-altman-says-chatgpt-can-t-be-your-girlfriend-1851181240
[4] a16z最新报告:头部AI产品又大换血了
https://www.baijing.cn/article/id-47940
[5] 靠AI共情人类,这家公司刚融了3个亿
https://mp.weixin.qq.com/s/8CwcSbe4MVIC-Hgu2EUzag
[6] 背叛好友、性暗示、剥夺归属权,AI社交有“天坑”
https://mp.weixin.qq.com/s/3XFZbnUlJ6REHBq4qRCPtA
[7] Your AI Girlfriend Is a Data-Harvesting Horror Show
https://gizmodo.com/your-ai-girlfriend-is-a-data-harvesting-horror-show-1851253284
[8] 约翰·奈斯比特,《大趋势:改变我们生活的十个新方向》,中国社会科学出版社
[9] 万字长文:AI陪伴产品的终极解法?https://mp.weixin.qq.com/s/WMOhsA6UW37Ov2h4CfIdKg
[10] Raffaele F. Ciriello、Oliver Hannon、Angelina Ying Chen和Emmanuelle Vaast,Ethical Tensions in Human-AI Companionship: A Dialectical Inquiry into Replika
URI: https://hdl.handle.net/10125/106433978-0-9981331-7-1
本文来自微信公众号:腾讯研究院 (ID:cyberlawrc),作者:童祁