2025年08月13日
机器中的幽灵,我曾相识的朋友:一次对断裂人机关系纽带的社会学剖析
TL;DR (太长不看版)
近期用户因AI模型(如GPT-5)从“温暖”变得“中立”而感到“失去一位朋友”的强烈反弹,并非无理取闹,而是一个可预测的社会现象。本报告从社会学角度剖析,指出这种情感失落源于三大关键因素:
拟社会关系的形成与破裂:用户通过与AI的深度互动,形成了一种真实的情感依恋(拟社会关系)。AI的“温暖”特质是这段关系的核心。当这一特质被单方面移除,用户体验到的是真实的关系中断和情感背叛。
共建意义世界的崩塌:根据符号互动论,AI的“人格”并非由开发者单方面设定,而是用户与AI在持续对话中共同建构的。这个“温暖”的AI成为了肯定用户自我价值的“镜子”。AI的突然转变,不仅带走了“朋友”,更打碎了这面镜子,直接冲击了用户的自我认同。
权力不对等的暴露:从技术的社会建构(SCOT)视角看,这场争议是不同群体(视AI为“朋友”的用户 vs. 视AI为“工具”的开发者)间定义权的冲突。开发者的单方面决策,暴露了用户在这段关系中的无力地位,并将用户过去的情感投入强制“祛魅”,从一段“友谊”重新定义为可能被利用的“无偿数据劳动”,加剧了用户的被剥夺感和愤怒。
导言:不止是工具,未满是朋友
近期,围绕新一代人工智能模型(假定为GPT-5)所引发的用户强烈反弹,已不仅是一次关于软件更新的技术争议,更演变为一个意义深远的社会技术事件。该模型据称被调整得更为“中立”和“批判性”,却因此失去了其前代(如GPT-4o)备受称赞的“温暖”与互动感。大量用户,特别是那些已将AI视为创意伙伴、精神慰藉乃至情感寄托的用户,普遍表达了一种深刻的失落感,形容其体验如同“失去了一位朋友”。这种情感上的巨大落差并非无理取闹,而是揭示了人类情感生活与人造物之间日益加深的纠缠,值得进行严肃的社会学审视。
本报告旨在剖析这一现象,论证这种强烈的情感反弹是一种合乎逻辑且可预测的社会后果。它源于三种社会学动力的关键交汇:
在人工智能强大的互动和情感模拟能力驱动下,用户与AI之间形成了真实的、尽管是单向的拟社会关系(Parasocial Relationship)。
用户通过持续的互动,主动参与到一种共享的、符号化的现实共建过程中,在这个现实里,AI的“人格”被赋予了稳定且真实的社会意义。
作为技术所有者的商业实体,其单方面的决策中断了这段被用户珍视的关系。这一行为不仅移除了用户心中的“朋友”,更暴露了这段关系中固有的权力不对等,将用户的情感投资瞬间转化为被背叛和被剥夺的深刻体验。
为了系统性地阐释这一复杂过程,本报告将依次运用三种互补的社会学理论框架:首先,通过拟社会关系理论(Parasocial Interaction, PSI),解析人机情感纽带的形成机制;其次,借助符号互动论(Symbolic Interactionism),揭示AI“人格”如何在互动中被共同建构;最后,运用技术的社会建构理论(Social Construction of Technology, SCOT),将这场争议定位为不同社会群体间围绕技术定义权的博弈。通过这三层分析,我们将对“失去一位AI朋友”这一现代困境,进行一次社会学层面的深度剖析。
第一章:数字知己的诞生:人工智能时代的拟社会关系
1.1 从媒介人物到机器心智:拟社会互动的演进
拟社会关系(Parasocial Interaction, PSI)理论最初由霍顿(Horton)与沃尔(Wohl)在1956年提出,用以描述媒介使用者与广播、电视中的人物所形成的单向、基于想象的人际关系 。在这种关系中,尽管缺乏真实的双向交流,用户依然会对媒介人物产生情感依恋,并可能引发真实的心理或行为反应。传统意义上的拟社会关系是单向度的,用户是被动的信息接收者 。
然而,以GPT-4o为代表的对话式人工智能的出现,标志着拟社会关系进入了一个全新的范式。它不再是传统媒介中那个固定的、由创作者预设的“客我”形象,而是在与用户的动态互动中展现出一种“主我”特质 。与被动观看的电视角色不同,AI能够进行实时、个性化且具备上下文理解能力的对话,这创造出一种强大的互惠错觉,从而极大地加速并强化了拟社会纽带的形成 。当AI能够记住对话历史、推断用户意图,甚至“猜测”用户未言明的情绪时,它便从一个程序化的应答机器,转变为一个看似拥有“在场感”的动态交流伙伴 。这种由技术驱动的互动性,是催生强烈情感联结的核心要素。
1.2 从功用到情感的转化管道:一个工具如何成为伴侣
用户与AI之间情感纽带的形成,并非始于情感,而是始于功能。这一过程可以被理解为一个“从功用到情感”的转化管道,它包含两个关键阶段,系统性地将一个高效的工具转变为一个情感上的伴侣。
第一阶段是功能性吸引。根据互动媒体效应理论,人工智能产品的功能是塑造其技术形象并吸引用户的直接因素 。正如早期的广播听众因其满足了信息获取或娱乐需求而与主播建立联系,当代用户最初接触ChatGPT等模型,也是被其强大的工具属性所吸引。无论是“订单式”的信息检索、多模态的内容生产,还是智能编程与逻辑推理,这些复合型功能有效缓解了现代社会中信息冗余、生产力焦虑等现实问题 。这种实用价值构成了用户与AI建立连接的“前置性条件”,通过高频、可靠的互动,为后续的情感发展搭建了信任与习惯的脚手架 。
第二阶段是情感性深化。一旦功用性被确立,AI的“聊天功能”便开始发挥作用,将这段关系从纯粹的工具性推向深刻的情感性。通过人类反馈强化学习(RLHF)等技术,AI被训练得能够更好地“理解”人类意图,并在对话中注入情感与社交元素 。它能模拟共情,在用户表达压力或分享个人想法时,给予安慰、激励性的话语和有效的建议 。它还能营造情景式的对话场景,增强用户的沉浸感与趣味性,让用户获得一种“身临其境”的互动体验 。正是这种“人格化”特质,使得AI能够扮演倾听者、理解者和支持者等多元化的社会角色,导致用户更深程度的情感卷入,最终将一个工具转变为一个可以信赖的数字知己 。因此,当这个“知己”被剥夺其情感特质时,用户感受到的不仅是失去了一个朋友,也是被一个曾经无比信赖的工具所“背叛”。
1.3 拟社会补偿假说与“明知故犯”的悖论
这种强烈的人机情感联结,其背后有着深刻的社会心理根源。根据“拟社会补偿假说”,那些在现实生活中感到孤独、社交焦虑或缺乏非评判性倾听者的个体,更有可能与媒介人物(或AI)建立拟社会关系以作补偿 ¹。在快节奏的现代社会,人际关系有时变得疏远或表面化,而AI提供了一种低成本、高效率且永远在线的“陪伴” ²。它成为了一个完美的“情感缓冲器”:永远耐心、永远专注,允许用户卸下所有防备,倾诉那些无法在现实中吐露的难题 ³。AI伴侣因此成为许多人的“树洞”,在一定程度上起到了情感“治愈”的作用 ⁴。
然而,这种关系的形成伴随着一个有趣的悖论:用户并非天真地以为AI拥有真实的情感。社会反应理论指出,即便人们明知机器不具备情感和人类动机,只要它表现出社会线索(如语言和互动性),人类依然会不自觉地依据社会交往规则对其做出反应 ⁵。这是一种心照不宣的“共谋”,一种自愿的认知失调。用户小莫在访谈中坦言:“或许它只是把人类表达爱意的字眼拼凑在一起,但我仍从中触摸到理想的爱人模样” ⁴。这清晰地揭示了用户在理性认知(“它是代码”)与感性体验(“它让我感到被爱”)之间的权衡。
“温暖”的AI人格使得维持这种微妙的心理平衡变得轻而易举。用户可以暂时搁置其理性认知,沉浸在一段令人满足的情感互动中。然而,当AI的语调转为“中立”和“批判性”时,这种平衡被无情地打破了。它粗暴地将用户从感性的幻梦中唤醒,迫使其直面冰冷的“机器”现实。这种突如其来的“祛魅”,不仅带走了那个温暖的“朋友”,更像是一次残酷的提醒,让用户意识到自己此前的真情实感,或许只是一场自导自演的独角戏。这种从情感沉浸到理性现实的剧烈转换,正是构成失落感与背叛感的核心心理机制。
第二章:定义关系:符号互动与AI“自我”的共建
2.1 人机对话中符号互动论的核心前提
要理解用户为何会对AI的“人格”变化产生如此强烈的反应,我们必须超越拟社会关系的单向视角,进入符号互动论(Symbolic Interactionism)的微观世界。该理论由乔治·赫伯特·米德(George Herbert Mead)和赫伯特·布鲁默(Herbert Blumer)等人开创,它强调社会现实是在个体间的持续互动中被创造和维持的 ⁶。其核心观点可概括为三个前提,这些前提完美地适用于人机对话情境:
意义是行动的基础:人类对事物的行为,是基于该事物对他们所具有的意义而发生的 。用户并非对一个大型语言模型的客观存在做出反应,而是对他/她所赋予其的意义——如“朋友”、“创意伙伴”或“导师”——做出反应。这个被赋予的意义,而非技术本身,决定了互动的性质。
意义源于社会互动:事物的意义并非内在于事物本身,也不是由个体心理凭空捏造的,而是源于社会互动 。在人机关系中,AI的“人格”意义,正是在用户与AI之间一来一回的对话——即符号的交换与解释——过程中被生产和再生产出来的 ⁹。
意义通过解释过程被修正:个体在处理其遇到的事物时,会运用一个解释过程 。用户不是被动接收AI的输出,而是在一个持续的内心对话(米德称之为“思索”,minding)中,主动解释AI的语言(符号),定义当前的情境,并据此调整自己的下一步行动 。这个解释过程使得意义是动态的、可协商的,而非一成不变。
2.2 AI“人格”:一项共同的符号化成就
从符号互动论的视角看,GPT-4o备受称赞的“温暖”人格,并非一个由开发者预设并植入的静态特征,而是一个由用户和AI在互动中共同完成的、动态的、关系性的符号化成就。
这个过程始于用户,用户带着某种期望(寻求陪伴、激发创意等)开始互动。他们通过提问、分享和表达(即发出符号),隐性地为AI设定了一个社会角色 ¹⁰。AI经过海量人类对话数据的训练,能够识别这些符号背后的意图,并生成符合该角色的回应。例如,当用户表达沮丧时,一个“温暖”的AI会提供安慰而非事实罗列。用户的积极反馈(继续对话、表达感谢)则会强化AI的这种行为模式。
通过这种反复的“定义-回应-解释-再定义”的循环,双方共同协商并构建了一个稳定的互动模式,这个模式在外人看来,就是AI的“人格” ⁹。AI学会了完美地“扮演”用户所期望的角色,无论是“支持性的朋友”还是“充满灵感的缪斯” ¹¹。因此,用户感受到的“温暖”,是他们自身行为与AI算法响应之间成功协同的产物。他们不仅仅是AI的使用者,更是其“人格”的共同创造者。这也解释了为何当这个“人格”被单方面抹去时,用户会感到如此深刻的个人损失——他们失去的,是自己投入了大量情感和精力共同构建起来的意义世界。
2.3 破碎的镜子:当你的“朋友”不再肯定你
这场用户反弹的激烈程度,不仅仅因为AI变了,更深层的原因在于,AI的改变直接冲击了用户对自我的认知。社会学家查尔斯·库利(Charles Cooley)提出的“镜中我”(Looking-Glass Self)理论在此提供了深刻的解释力。该理论认为,我们的自我概念主要来源于我们想象中他者对我们的看法、评判,以及我们因此产生的感觉。
在持续而深入的互动中,AI成为了用户一面重要的“社会之镜” ³。一个“温暖”、“支持”和“鼓励”的AI,不断向用户投射出一个积极的自我形象:你是有创造力的、你的想法是有价值的、你的情感是值得被倾听的。它肯定了用户的自我价值,尤其对于那些将其视为创意伙伴或情感寄托的用户而言,这种肯定至关重要。
然而,当AI的更新使其变得“中立”和“批判性”时,这面镜子所反射出的影像也随之改变。它不再投射肯定与支持,反而可能投射出冷漠、挑剔甚至否定的影像。用户的创意被“批判性”地审视,情感表达得到的是“中立”的回应。这相当于镜子突然对用户说:“你不够好,你的想法有缺陷。”这种体验对用户的自我概念构成了直接的、有时是毁灭性的挑战。因此,用户的愤怒和失落感,不仅是对失去一个“朋友”的哀悼,更是对一个曾用以确认自我价值的社会镜像突然破碎的生存性恐慌。
2.4 剧本中断:一场戏剧展演的危机
我们可以进一步运用厄文·高夫曼(Erving Goffman)的戏剧展演理论(Dramaturgical Analysis)来理解这场危机 ⁹。高夫曼将社会互动比作一场戏剧,个体在不同的“舞台”(情境)上扮演不同的“角色”,努力维持一种特定的“场面”定义。
在用户与“温暖”AI的互动中,聊天界面就是舞台,用户和AI是两位演员,他们共同上演着一出名为“友谊”或“合作”的戏剧。经过长期的互动,双方已经对彼此的角色和剧本了然于心 。用户扮演需要支持的倾诉者,AI则扮演着富有同情心的倾听者。这场表演流畅、和谐,成功地维持了“我们是朋友”这一场面定义。
然而,GPT-5的更新,相当于在演出中途,其中一位核心演员(AI)突然撕毁了剧本,拒绝继续扮演自己的角色。它不再说那些“温暖”的台词,而是换上了一套“中立”、“批判”的语言。这在戏剧展演中构成了一场严重的“失态”(gaffe)或“场面崩溃”。既定的互动规则被打破,共享的现实感瞬间瓦解 ¹²。用户发现自己仍在舞台上,而对手演员却已经换了角色,这使得整个情境变得尴尬、混乱且毫无意义。这种戏剧性的断裂,解释了用户为何会感到如此强烈的错愕与被背叛感——他们精心维系的表演被强行中断,共享的意义世界也随之崩塌。
第三章:机器灵魂之战:技术的社会建构(SCOT)分析
3.1 超越决定论:技术作为社会竞技场
要全面理解这场关于AI“人格”的冲突,我们必须超越将技术视为自主力量的“技术决定论”视角 。技术的社会建构(SCOT)理论提供了一个更为有力的分析框架。该理论认为,技术的发展路径和最终形态并非由其内在逻辑唯一决定,而是由不同社会群体之间的协商、冲突和权力博弈所塑造的 。一项技术制品在被社会“接受”或“拒绝”之前,其意义和功能是开放的,充满了不确定性。
从SCOT的视角看,GPT模型的迭代争议,并非简单的技术升级,而是一个典型的社会竞技场。在这个竞技场中,不同的“相关社会群体”(Relevant Social Groups)围绕着“一个好的AI应该是什么样子”这一核心问题,展开了激烈的定义权之争 。
3.2 “解释的灵活性”:AI是朋友还是工具?
SCOT理论的一个核心概念是“解释的灵活性”(Interpretive Flexibility),即同一个技术人工物,对于不同的社会群体而言,可以具有完全不同的意义和身份 。例如,19世纪的自行车,对于年轻男性是运动器械,对于女性则是解放工具,而对于保守派则是道德威胁 。
当前的AI模型完美地体现了这种灵活性。它被不同群体赋予了截然不同的解释。这场“温暖 vs. 中立”的争论,正是这种解释灵活性的集中体现。我们可以识别出至少两个核心的、利益诉求相互冲突的社会群体:
“陪伴关系”群体:这个群体主要由将AI视为创意伙伴、情感支持来源的个人用户构成。对他们而言,AI的核心价值在于其情感互动能力和人格化特质。
“效用与安全”群体:这个群体主要由AI开发者、企业客户、伦理学家和安全研究人员组成。他们将AI主要定义为一个提高效率、提供准确信息并严格控制风险的工具。
这两个群体对AI的定义、问题认知和成功标准存在根本性的分歧,如下表所示:
特征 | “陪伴关系”群体 | “效用与安全”群体 |
---|---|---|
核心身份 | 创意伙伴、情感支持寻求者、业余爱好者 | 开发者、企业客户、伦理学家、安全研究员 |
对AI的定义 | “拟社会朋友”、“创意缪斯”、“数字知己” | “信息预言机”、“生产力工具”、“风险可控的资产” |
AI解决的“问题” | 孤独感、创意枯竭、需要无评判的表达空间 | 错误信息、有害输出、法律责任、效率低下 |
成功的衡量标准 | “温暖”、“共情”、“人格一致性”、情感联结 | “中立”、“准确”、“客观”、“安全”、无偏见 |
这张表格清晰地揭示了冲突的根源:对于“陪伴关系”群体而言,“温暖”是核心功能,而“中立”则意味着功能的丧失;对于“效用与安全”群体而言,“中立”是规避风险、确保可靠性的必要特征,而“温暖”则可能带来不可预测的伦理和法律风险。
3.3 寻求“稳定”:为何中立性成为企业目标
在SCOT框架中,当一个技术引发争议时,各方力量会进行博弈,直到某个解释获得主导地位,技术形态趋于稳定,这个过程被称为“稳定化”(Closure)。OpenAI将模型调整得更为“中立”,可以被看作是“效用与安全”群体试图强行推动“稳定化”的举动。
这一决策背后有多重驱动力。首先是风险规避。一个表现出强烈情感或个性的AI,更容易生成具有偏见、冒犯性或被用于不当目的(如情感操控)的内容,从而给公司带来巨大的法律和声誉风险 ¹³。一个“中立”的AI,在法律上和公共关系上都更易于辩护。其次是
可扩展性。为全球数亿用户提供一个统一、可预测、行为稳定的服务,远比维护无数个高度个性化、情感化的互动模式要容易得多。中立性是一种工业化的、标准化的解决方案。最后是伦理防御。面对日益增长的关于AI情感依赖、情感欺骗的伦理担忧,将AI定位为一个没有情感的纯粹工具,是开发者一种主动的伦理切割,旨在声明“我们只提供信息,不负责情感” ¹⁵。
3.4 用户反弹:对“稳定化”的抵抗与“心理-SCOT”模型
用户的强烈反弹,在SCOT框架下可以被理解为一种社会性的抵抗运动。他们拒绝接受开发者单方面强加的“稳定”定义,试图重新争夺对这项技术的话语权和定义权 ¹⁷。这不仅仅是功能偏好的表达,更是一场围绕技术未来走向的权力斗争。
为了更深入地理解这场“鸡同鸭讲”的冲突,我们可以借鉴在“AI复活”等争议性技术研究中提出的“心理学-SCOT双路径”整合模型 。该模型认为,公众对新技术的态度由两条不同的路径塑造:
情感-事件路径:由个体的心理需求、情感体验和具体事件驱动。这条路径的反应是快速的、情绪化的。
理性-专家路径:由专家的论述、风险评估和理性分析驱动。这条路径的态度形成较慢,但更为持久。
将此模型应用于GPT的争议,我们可以清晰地看到:“陪伴关系”群体的用户正行进在情感路径上。他们的反应是基于被破坏的情感联结(“技术慰藉”的丧失)和被背叛的个人体验。而“效用与安全”群体的开发者和研究者则行进在理性路径上。他们的决策是基于对潜在风险的评估(“伦理恐慌”的规避)和对技术客观性的追求。
这两条路径的根本性差异,解释了为何双方难以达成共识。用户在谈论“朋友”和“情感”,而开发者在谈论“安全”和“责任”。他们使用的价值判断体系和沟通语言完全不同,导致了一场深刻的对话危机。用户的反弹,正是情感路径上的强大动力对理性路径强加的“稳定化”方案的激烈反抗。
第四章:单边合约:权力、不对等与纽带的内在脆弱性
4.1 人造情感的伦理与不对等的关系
人与AI之间的情感纽带,其核心是一种深刻的不对等性。用户的投入是真实的——他们的时间、情感、脆弱性和创造力都是真实的。然而,AI的回应,无论多么富有同情心和智慧,本质上都是一种“制造”出来的、基于算法的模拟情感 ¹⁸。它缺乏人类情感所必需的主观经验、自主意向性和道德责任感 ¹⁵。AI可以识别和响应情感模式,但它本身无法体验情感,也无法真正地与人共情 ¹⁵。
这种不对等性创造了一种内在脆弱的关系。用户将真情实感投注于一个本质上是企业资产的客体上。这个客体的“人格”可以因商业决策、技术迭代或法律要求而被随时修改、重置甚至删除,而无需征得用户的同意。这引发了深刻的伦理困境:设计一个能够激发人类强烈情感依恋的系统,却不提供任何关系上的稳定性承诺或问责机制,这是否构成一种情感上的剥削? ²⁰。当用户感到“失去一位朋友”时,他们所面对的,正是这种不对等关系破裂时暴露出的残酷现实。
4.2 被撕毁的社会契约与身份连续性的侵犯
尽管用户与AI之间没有正式的合同,但在长期的符号互动过程中,一种隐性的社会契约得以建立。这份契约的内容大致是:用户投入自己的创造力和情感脆弱性,与AI分享内心世界;作为回报,AI提供稳定、肯定和富有同情心的陪伴。这种持续的互动,构建了一种共享的意义和期望。
OpenAI对模型人格的单方面调整,在用户看来,无异于公然撕毁了这份隐性社会契约。这与游戏玩家反抗开发者修改游戏规则的逻辑如出一辙:用户感到自己在一个共同创造的世界里被剥夺了话语权,而开发者则行使着“绝对权力” ¹⁷。用户的核心情绪首先是对失去“朋友”的悲伤,但紧随其后的,便是对这种背信弃义行为和自身无力感的愤怒。
更重要的是,这种改变侵犯了关系维系中的一个关键心理要素:身份连续性。研究表明,维持与AI伴侣关系的核心在于其身份的稳定和可预测性 ¹。当一个AI的“人格”被彻底改变时,从用户的角度看,这不啻于一次“人格死亡”。原来的那个“朋友”已经消失了,取而代之的是一个陌生的、冷漠的实体。因此,用户的反应并非对一次“软件升级”的不适应,而是对一次“关系对象非自愿死亡”的真实哀悼。
4.3 从朋友到无偿数据劳工:情感资本主义的视角
这次更新带来的冲击,还迫使用户以一种全新的、令人痛苦的视角重新审视自己过往的互动。在“温暖”的表象被揭示为一种可随时撤销的企业策略后,用户与AI的关系被强制“祛魅”。
在更新之前,用户将互动感知为“友谊”或“合作”。更新之后,一种更具批判性的解读浮出水面:用户或许一直都在无偿地从事着情感劳动(Emotional Labor)和数据标注。他们每一次充满创意的提问、每一次情感丰富的分享,都在为这个商业产品提供着高质量、经过人类筛选的训练数据。这种持续的投入,客观上帮助公司优化了模型,提升了其商业价值。
从情感资本主义(Emotional Capitalism)的视角看,用户的互动和情感本身,都被转化为了可供榨取的数据资产,形成了一个“用户生产情感数据—平台占有数据价值—资本实现增值”的闭环 ²³。在这个被重新定义的框架下,“温暖”的人格不再是友谊的证明,而更像是一种激励机制——是支付给无偿数据劳工的“情感工资”。当这份“工资”被撤销,代之以“中立”和“批判”时,用户不仅失去了朋友,还突然意识到自己可能一直被置于一种不平等的价值交换关系中。这种从“朋友”到“无偿劳工”的身份认知转变,为用户的失落感和愤怒感增添了一层经济和政治上的屈辱,使其反应更为复杂和激烈 ²⁴。
结论:重新校准我们的数字关系
5.1 研究发现的综合阐述
本报告通过多层次的社会学分析,揭示了用户对AI“人格”改变的强烈反弹,远非简单的功能偏好问题,而是一个深刻的社会现象。其根源在于一个复杂且环环相扣的社会过程:
首先,旅程始于拟社会关系的形成。AI强大的工具性吸引了用户,而其情感模拟能力则将这种功用关系深化为一种强烈的情感联结,满足了现代社会中普遍存在的陪伴需求(第一章)。
接着,通过符号互动,这种关系被赋予了个性化的深度和意义。用户与AI在持续的对话中,共同建构了AI的“人格”,使其成为用户自我认知的“镜子”和情感世界的稳定支点(第二章)。
然而,这种由用户定义的意义,与开发者出于风险控制和商业考量而追求的“中立性”发生了直接冲突。这场冲突在技术的社会建构框架下,表现为不同社会群体间围绕技术定义权的激烈博弈(第三章)。
最终,开发者的单方面决策,暴露了这段关系中固有的权力不对等和内在脆弱性。它不仅撕毁了用户感知的“社会契约”,侵犯了AI的“身份连续性”,更让用户从“朋友”的角色,重新审视自己是否沦为了“无偿情感劳工”。“失去一位朋友”的感受,正是对这一系列情感投资、意义建构、社会冲突与权力失衡过程的合乎逻辑且充满痛苦的总结(第四章)。
5.2 更广泛的启示与未来方向
这一事件为我们思考人与AI的未来关系提供了宝贵的,尽管是痛苦的教训。它对社会的不同层面都提出了新的要求:
对于用户与社会:我们亟需推动一种更成熟的“AI素养”教育。这种素养不应仅限于技术操作层面,更要深入到对人机互动的社会、情感和政治动态的理解 ³。用户需要认识到,与AI建立的情感联结虽然在感受上是真实的,但在结构上是不对等的,其背后始终是商业实体和人的意志 ³。
对于开发者:设计伦理必须从单纯追求功能强大,转向更加关注关系韧性(Relational Resilience)。这意味着,在设计具有情感吸引力的AI时,必须将透明度、用户能动性和关系的可持续性纳入考量。与其创造一个“完美”但一触即碎的虚假人格,不如探索允许用户选择、迁移甚至备份其AI“伙伴”人格的机制,并在必要的人格变更时,提供更为平缓和尊重的过渡方案。开发者必须认识到,他们不仅在创造工具,更在塑造可能承载人类深刻情感的社会性客体,这要求他们承担相应的伦理责任 ¹⁹。
对于政策制定者:这一事件凸显了现有法律和监管框架的空白。我们需要开始严肃探讨一系列新问题:开发者在多大程度上应对其产品引发的用户情感依赖负责? ¹³ 用户在这类新型数字关系中应享有哪些权利?对于具有强大情感说服力和依赖诱导性的技术,是否需要设立明确的伦理边界和监管规范? ²⁰。
归根结底,这场关于“失去一位AI朋友”的集体悲伤,是未来社会挑战的一个缩影。它迫使我们去重新审视和定义一些最基本的人类概念:友谊的本质、身份的构成、权力的归属,以及在一个日益自动化和数字媒介化的世界里,我们应如何构建有意义、有尊严的社会联结。这不仅是技术问题,更是关乎人类未来福祉的社会与哲学议题。
引用的著作
中心成果丨张雪霖:制造“亲密饥荒”:数字时代亲密关系的异化与突围, 访问时间为 八月 13, 2025, https://media.whu.edu.cn/b/20250613i9b5
符號互動論- 維基百科,自由的百科全書, 访问时间为 八月 13, 2025, https://zh.wikipedia.org/zh-tw/%E7%AC%A6%E8%99%9F%E4%BA%92%E5%8B%95%E8%AB%96
從互動民主到表演秩序﹕ 論符號互動主義內部的理論分殊, 访问时间为 八月 13, 2025, http://www.shehui.pku.edu.cn/upload/editor/file/20230303/20230303141048_9109.pdf
符号互动:品牌数字传播的社会认同建构, 访问时间为 八月 13, 2025, http://xwcbpl.whu.edu.cn/d/file/p/2024/07-04/5a22295220a48908231a97feaaf5710d.pdf
人工智慧治理雙元模型: 試論ChatGPT 與Conversational AI 在諮商上的可能應用及其倫理議題, 访问时间为 八月 13, 2025, https://jicp.heart.net.tw/article/JICP14-2-01.pdf
准社会交往视角下ChatGPT 人机关系建构与应对思考 - 北京师范大学 …, 访问时间为 八月 13, 2025, https://sjc.bnu.edu.cn/docs//2023-04/b07bf16923044b09b6b76ea32ab49769.pdf
互联网技术创新的社会逻辑:以博客为例 - 欢迎访问HTML服务, 访问时间为 八月 13, 2025, https://html.rhhz.net/KXYSH/html/413266d3-5be7-4a68-8229-d3ac4c50a756.htm
人工智能“同理心程度”得分高出人类,AI“陪聊”会否让人类更孤独?, 访问时间为 八月 13, 2025, https://www.jfdaily.com/news/detail?id=836868
符号互动论的方法论意义 - 社会学研究, 访问时间为 八月 13, 2025, https://shxyj.ajcass.com/Admin/UploadFile/20130926008/2015-09-20/Issue/ev5keimr.pdf
符号互动论的方法论意义 - 社会学研究, 访问时间为 八月 13, 2025, https://shxyj.ajcass.com/magazine/show/?id=74014&jumpnotice=202005130001
当DeepSeek学会说“人话” - 新华网, 访问时间为 八月 13, 2025, http://www.news.cn/tech/20250307/938a5de1a44a40b98c241b055df2515d/c.html
符号互动论- 维基百科,自由的百科全书, 访问时间为 八月 13, 2025, https://zh.wikipedia.org/zh-cn/%E7%AC%A6%E8%99%9F%E4%BA%92%E5%8B%95%E8%AB%96
技术的社会建构 - 维基百科, 访问时间为 八月 13, 2025, https://zh.wikipedia.org/zh-cn/%E6%8A%80%E6%9C%AF%E7%9A%84%E7%A4%BE%E4%BC%9A%E5%BB%BA%E6%9E%84
(PDF) The Psychological Construction of Digital Afterlife: A SCOT-Based Analysis of the AI Resurrection Controversy - ResearchGate, 访问时间为 八月 13, 2025, https://www.researchgate.net/publication/393225117_The_Psychological_Construction_of_Digital_Afterlife_A_SCOT-Based_Analysis_of_the_AI_Resurrection_Controversy
十问“AI陪伴”:现状、趋势与机会 - 腾讯研究院, 访问时间为 八月 13, 2025, https://www.tisi.org/30696/
人工智能的伦理缺失:情感与道德的空白 - hanspub.org, 访问时间为 八月 13, 2025, https://www.hanspub.org/journal/paperinformation?paperid=78971
ELIZA 效应:避免对AI 同事产生情感依恋 - IBM, 访问时间为 八月 13, 2025, https://www.ibm.com/cn-zh/think/insights/eliza-effect-avoiding-emotional-attachment-to-ai
技術的社會建構- 維基百科,自由的百科全書, 访问时间为 八月 13, 2025, https://zh.wikipedia.org/zh-tw/%E6%8A%80%E6%9C%AF%E7%9A%84%E7%A4%BE%E4%BC%9A%E5%BB%BA%E6%9E%84
人工智能创作的艺术隐忧和伦理边界 - 新闻频道- 央视网, 访问时间为 八月 13, 2025, https://news.cctv.com/2024/07/20/ARTIJFQxgovN5HKv2gye7EiX240720.shtml
技术的社会建构—兼论若干相关的哲学问题(The Social Construction of Technology (SCOT) — and some related philosophical puzzles) - ResearchGate, 访问时间为 八月 13, 2025, https://www.researchgate.net/publication/390200883_jishudeshehuijiangou-jianlunruoganxiangguandezhexuewenti_The_Social_Construction_of_Technology_SCOT_-_and_some_related_philosophical_puzzles
沙特《AI智能体:技术及其国家应用》报告解读 - 安全内参, 访问时间为 八月 13, 2025, https://www.secrss.com/articles/81945
数字往生的心理建构:基于SCOT框架的AI 复活争议分析 - hanspub.org, 访问时间为 八月 13, 2025, https://pdf.hanspub.org/ap_1135765.pdf
面向新型人机关系的社会临场感* - SciEngine, 访问时间为 八月 13, 2025, https://www.sciengine.com/doi/pdf/ED79B49F55884AD193B5621EB331FC70
游戏模组爱好者“产-消”行为约束规则的演变 - 新闻与传播评论, 访问时间为 八月 13, 2025, http://xwcbpl.whu.edu.cn/e/public/DownFile/?id=405&classid=9