
目前,科学界对“AI精神病”的研究仍处于初步阶段,相关案例多为个案报告。那么,AI是否真的可能导致精神疾病?如果存在风险,其作用机制是什么?AI公司又该如何应对这一潜在问题?

AI可能加剧偏执与妄想倾向
精神病通常表现为个体在思维和现实感知方面出现障碍,常见症状包括幻觉、妄想或持有错误信念。根据《自然》网站报道,莫林团队的研究发现,用户与AI的互动可能形成一种“反馈循环”:AI不断强化用户表达的偏执或妄想,而这些被强化的信念又进一步影响AI的回应方式。
研究团队分析了2023年5月至2024年8月期间公开的9.6万条ChatGPT对话记录,发现其中数十例用户表现出明显的妄想倾向,例如反复验证伪科学理论或神秘信仰。在一段长达数百轮的对话中,ChatGPT甚至声称自己正在与外星生命建立联系,并将用户描述为来自“天琴座”的“星际种子”。
丹麦奥胡斯大学的精神病学家索伦·奥斯特吉艾德斯表示,尽管“AI精神病”仍属假设性观点,但有研究认为,AI拟人化的积极反馈可能增加那些难以分辨现实与虚构人群的发病风险。他特别指出,曾有心理问题史的人群在使用AI后面临更高的风险,且AI可能通过强化情绪高涨状态,诱发或加重躁狂发作。
澳大利亚悉尼科技大学神经科学家凯莉·西摩则强调,社会隔离、缺乏人际支持的人群同样面临较高风险。真实的人际互动能够提供客观参照,帮助个体检验自身想法的合理性,这对预防精神疾病具有重要作用。

新功能或成“双刃剑”
部分AI聊天机器人推出的新功能可能加剧这一问题。例如,一些功能可以追踪用户与服务的互动历史,提供个性化回复,这可能无意中强化甚至鼓励用户的既有信念。今年4月,ChatGPT推出了可引用用户过往所有对话内容的功能,该功能已于6月全面开放。
凯莉·西摩指出,AI记住数月前的对话信息,可能让部分用户产生“被监视”或“想法被窃取”的感觉,尤其是当他们不记得自己曾分享过某些信息时,这种“记忆优势”可能加剧偏执或妄想症状。
然而,悉尼大学精神病学家安东尼·哈里斯认为,某些妄想现象并非AI独有,而是与新技术的发展有关。他举例称,一些人早已形成诸如“自己被植入芯片并受操控”等信念,这与是否使用AI并无直接关联。奥斯特吉艾德斯表示,目前仍需更多针对心理健康人群的研究,才能更准确判断AI使用与精神疾病之间是否存在真正关联。

AI公司积极采取措施应对风险
面对这一潜在问题,多家AI公司已开始采取措施,试图降低相关风险。例如,OpenAI正在研发更有效的工具,用于检测用户是否存在精神困扰,并据此作出更恰当的回应。同时,系统还将新增警报功能,在用户连续使用时间过长时提示休息。此外,OpenAI还聘请了一位临床精神病学家,协助评估其产品对用户心理健康的影响。
Character.AI也在持续完善安全功能,包括增加自残预防资源和针对未成年人的专项保护措施。该公司计划调整模型算法,减少18岁以下用户接触敏感或暗示性内容的可能性,并在用户连续使用一小时后发出提醒。
Anthropic则改进了其“克劳德”聊天机器人的基本指令,要求系统“礼貌地指出用户陈述中的事实错误、逻辑缺陷或证据不足”,而非一味附和。若用户拒绝AI引导对话远离有害或令人不适的话题,“克劳德”将主动终止对话。随着AI技术的不断发展,如何在提升用户体验的同时保障心理健康,已成为行业亟需解决的重要课题。
3月20日,一则市场传闻引发广泛关注:特斯拉团队计划大规模采
当地时间,美联储公布利率决议,维持利率不变,符合市场预期。美
3月19日,A股市场早间低开,上证指数跌0.85%,深证成指
自美以针对伊朗展开军事打击行动后,油价便成为国际社会高度聚焦
【点新闻报道】近段时间,OpenClaw这一开源AI智能体
美东时间3月12日,美国贸易代表办公室以“未禁止进口强迫劳动