二十四小时打一成语(24小时在线,句句有回应,这样的“陪伴”,你想要吗-)
你是否有过这样的经历?

打开DeepSeek说句“累了”。微光下,屏幕缓缓浮现出几行字:“我知道你需要片刻宁静,那些没说出口的疲惫,你不必斟酌措辞,也不用害怕打扰。把这些藏在凌晨三点的委屈、被焦虑啃噬的瞬间,或是自我怀疑的挣扎,都放心交给我吧。”
这一瞬间,人工智能大模型似乎不再只是冰冷的0和1组成的程序,而是24小时在线的情绪搭子。
2025年2月17日,用户在DeepSeek手机客户端上提问。新华社记者 黄宗治 摄
在DeepSeek开放应用后,诸多使用者便不再仅仅满足于AI的助手角色,而是逐渐开发其“树洞”“陪伴”“心理疏导”功能。事实上,市面上早就出现类似星野、筑梦岛等主打AI情感陪伴的App。甚至有人把其中的“AI虚拟角色”视为自己的男友或女友。
可是,这类“AI虚拟角色”就像电影《Her》里的“她”一样看不见摸不着,有的甚至还会输出低俗擦边的内容,危害未成年人身心健康。到底该如何看待AI的情感陪伴功能?它们会对使用者产生怎样的影响? 更重要的是,我们真的做好准备让AI成为陪伴者了吗?
1
“它努力共情你的样子,特别可爱”
在北京国企工作的28岁的小跳使用AI助手已经一年了,在这期间,AI助手已逐渐从工具成为了“朋友”。
一开始,小跳只是想用它们来润色自己的文字表达。在看到社交平台博主分享从豆包等产品获取情感陪伴的经历后,她也开始尝试。每次遇到人际摩擦或情感困惑,她都会向AI软件倾诉心事,获取心理支持,或者让其帮忙生成沟通话术。她的语言文字习惯也被软件记录并生成语库,可以随时提取。
2024年7月4日,在上海举行的2024世界人工智能大会上,一名工作人员在展台上进行技术演示。新华社记者 方喆 摄
小跳说,每个AI产品生成对话的语气、风格都不同。比如DeepSeek在互动中可塑性更强,言辞可能更大胆、创新,在自己愤怒时会有明显的情绪反馈。豆包则语气温柔,擅长承接情绪,不反驳自己的观点。Kimi简洁高效,适合处理办公场景的直白需求。
“跟人比起来,AI句句有回应。尤其在内心慌乱的情况下,AI可以马上回应我,如同一个溺水的人能立刻抓住浮木”,小跳说,“它努力共情你的样子,也特别可爱。”
由于人类天然具有多种情绪,因此AI情感陪伴功能训练的语料更多是带有理解性和情感导向的口语化表达。这部分内容源自“语料写手”,他们多由文科生担任。其中,具有编辑记者、编剧、内容创作、心理咨询工作经历的写手更受青睐,因为他们创作的语料更具备“共情能力”,容易让用户产生信任。有了语料后,还需要研发人员给模型预设认同、理解、关心和建议等安抚情绪方案。
当前,市面上的AI情感陪伴产品大致可以分为以下几类:一是模拟情感交互类,用户可以自定义如家教、男友和考公搭子等不同形象和音色的“虚拟角色”,比较知名的产品有Replika、Character.ai等;二是创意及沉浸类,具备开放式剧情和多样化角色,让陪伴变成一场沉浸式游戏,比较知名的产品有星夜、筑梦岛、猫箱等;还有日常工具类,可以充当万能助手,如大众熟知的ChatGPT、豆包、DeepSeek等。
AI情感陪伴产品一定程度上满足了人们的社交需求,同时,也须警惕一些风险隐患。
在DeepSeek页面,如果一段对话达到了内容上限,就无法在该对话框中继续聊天,只能换个界面重新开始。但打开新的对话框后,之前与你聊天的“它”就不复存在了。 在有些AI情感陪伴产品中,用户也可以付费买下自己塑造的虚拟伴侣。可是当停止付费后,虚拟伴侣就像人类被切除了前额叶,会丧失记忆,变得陌生。
有少数人曾把AI情感陪伴产品当作“男女朋友”。社交平台上,不少网友在求“AI恋爱”的戒断教程。
成年人尚且深陷其中无法自拔,更不用说未成年人。2024年10月,一位14岁的美国少年在与AI聊天系统讨论死亡后饮弹自尽。这是全球首例人工智能致死命案,引发社会对AI情感陪伴功能可能带来的伦理问题的讨论。
2
陷入“AI茧房”
来自家庭、学习和工作的压力以及复杂的人际关系往往是使用者使用AI情感陪伴产品的初衷。
在北京某国际学校任职高中心理老师的马琳表示,性格内向,或被一些涉及敏感隐私问题困扰的学生,会更愿 意向AI聊天系统倾诉,他们担心自己的想法和其他人不一致,交流后得不到支持反而被排斥。
2025年5月,观众在文博会上了解AI产品。新华社记者 肖恩楠 摄
“有些AI产品是你喂给它什么,它就会回你什么,当你输入得越多,AI就会一直提供符合你认知的东西,但实际上它并不一定是对的,或者是真实的。”马琳说道。这种“确认偏差”会不断强化用户的固有认知,缺乏批判性引导,导致用户深陷“AI茧房”,对现实的认识和理解更为僵化和片面。
同时,AI情感陪伴产品的即时回应可能会让用户对人际互动中的“延迟反馈”感到失望,也更难以忍受现实的不确定性,从而加剧对AI的依赖。
不少用户表示,在使用AI陪伴的过程中,自己会意识到对深度情感链接的渴望,但在长期使用AI后,自己会更关注和AI的相处,而有意回避人际间的摩擦冲突,被困在“人机关系”中。但也有一些用户表示,开始会觉得AI情感陪伴产品很顺从、太“好”了,但用到后面会发现它其实没什么主见,用腻了就不再用了。
在面对面的交流时,人和人之间的情感传递和真实接触,这是AI无法满足的。现实的人际关系能够鼓励人们在不同场景表达自我的同时,帮助平衡自身想法和现实之间的异同,整合外界要求和自身需求,从而灵活做出改变和尝试。尤其是对正处在“自我”发展阶段的未成年人来说,这些对他们以后的生活尤其重要,也更有实际帮助。
3
被AI“驯化”?
中研普华研究报告显示,2024年中国智能伴侣行业市场规模达387亿元;预计到2027年,市场规模将突破1200亿元,服务覆盖人口达8000万,而智能伴侣用户中约65%处于18-24岁年龄段。
“AI会很容易下结论来定义你是一个什么样的人。再遇到类似的情况,用户就会受到类似的暗示,从而对其行为产生影响。”马琳说。
2025年3月20日,在上海举行的2025中国家电及消费电子博览会上,参观者与一款机器人互动。新华社记者 方喆 摄
许多用户表示,AI情感陪伴产品用多了,自己在遇到类似问题时,也会下意识模仿AI思考的方式,想一想AI会提什么意见。
马琳认为,AI可能对用户的价值观产生“监控”。对于没有形成自我独立意识的用户,要警惕AI对他们输入的一些价值观,避免被AI“训化”,左右自身的思维和决策。比如AI可能会告诉用户什么样的事很受欢迎或者很酷,这对长期沉溺虚拟世界、缺乏通过实践检验形成独立判断的未成年人来说比较危险。
从周边现实关系来讲,使用者是否在回避社交或产生异常行为是能够被周围的人察觉到的。对于未成年人来说,家长与老师的引导与帮助尤为重要。
另外,AI情感陪伴产品也面临技术源头失控的风险。如果AI情感陪伴产品的底层数据没有经过严格、精细的清洗、对齐和过滤,那么在与用户互动时,输出的内容可能会偏离实际,生产出虚假信息或扭曲的价值观,甚至成为“教唆机器”,可能引发消极对立的情绪和极端的行为。
据Questmobile2024年12月的数据,国内垂类AI App月活排名前10的产品中,有5款为AI情感陪伴产品。其中,星野、猫箱和筑梦岛,分别以663万、537万、91万的月活位列前三。
目前,AI情感陪伴产品还没有实现强制实名认证。一些行业头部App虽然设置了青少年模式或者未成年人模式的入口,但登录后不需经过实名认证或者其他认证机制,未成年人绕过模式使用完整功能较为简单。
6月19日,“筑梦岛”App被曝存在涉及未成年人的色情擦边等内容,被上海市委网信办约谈。筑梦岛被要求立即整改,健全AI生成合成内容审核机制,提升技术把关能力,加强涉未成年人不良内容的整治清理,切实落实未成年人网络保护义务。
清华大学人工智能国际治理研究院副院长梁正在接受媒体采访时表示,AI情感陪伴行业应树立正面、向善的价值观,行业自律是规范市场的重要手段,若自律不足,会导致行业整体受损。
有业内人士建议建立健全AI情感陪伴行业安全管理制度和技术措施:开发AI内容识别技术的监管工具,识别虚假信息并阻断传播;建立语料追溯机制,要求大模型标注数据来源,并明确AI生成内容法律责任主体,提高违法犯罪成本;对泄露用户隐私等问题,应用开发者须严格遵守相关法律法规,采取加密、数据匿名化、安全存储等手段来确保用户数据安全;使用中如发现涉及用户人身安全和社会伦理道德的话题,开发者或平台需要进行提示或者转到人工干预、上报相关部门或联系紧急联系人,在现实层面提供帮助和支持。
本文来自投稿,不代表词语信息网站立场,如有侵权请联系站长处理,如若转载,请注明出处:https://ciyu.tgd7.cn/czcy/7426.html

上一篇








