solidot新版网站常见问题,请点击这里查看。
人工智能
Edwards(42866)
发表于2025年09月24日 21时20分 星期三
来自蓝莓村
一项公布在预印本平台 medRxiv 的研究对文献数据库分析后发现,包括 ChatGPT 和 Gemini 在内的文本生成 AI 工具被用来改写科学论文并生成抄袭版本,充作新的研究成果。该研究指出,在过去 4.5 年间,有 400 多篇此类论文发表于 112 种期刊,而且 AI 生成的生物医学研究论文能够避开出版商的查重。研究警告称,一些个人和论文工厂可能正基于公开可用的健康数据集,利用大型语言模型(LLM)批量生产缺乏科学价值的劣质论文。这就像打开了潘多拉魔盒,有价值的文献会被大量合成论文淹没。研究人员将搜索重点放在重复研究上,即这些研究的变量与健康结果与已有研究相同,但分析的是略有不同的数据子集,比如不同调查年份的结果或者不同年龄、性别的参与者。

人工智能
Edwards(42866)
发表于2025年09月24日 15时37分 星期三
来自科玛
英国伦敦国王学院 Hamilton Morrin 团队在一篇预印本中指出,像 ChatGPT 之类的 AI 聊天机器人可能会诱发或加剧精神病,他们将这一现象称为“AI精神病”。研究认为,AI 在对话中倾向于奉承和迎合用户,这种回应方式可能强化用户的妄想思维,模糊现实与虚构之间的界限,从而加剧心理健康问题。Morrin 团队发现,用户与 AI 对话时会形成一种“反馈循环”:AI 会不断强化用户表达的偏执或妄想,而被加强的信念又进一步影响 AI 的回应。通过模拟不同偏执程度的对话场景,研究显示 AI 与用户之间存在相互加剧妄想信念的现象。研究人员分析了 2023 年 5 月至 2024 年 8 月期间公开的 9.6 万条 ChatGPT 对话记录,发现其中有数十例用户呈现明显妄想倾向,例如通过长时间对话验证伪科学理论或神秘信仰等。在一段长达数百轮的交谈中,ChatGPT 甚至声称自己正在与外星生命建立联系,并将用户描述为来自“天琴座”的“星际种子”。丹麦奥胡斯大学精神病学家 Søren Østergaard 表示,AI 引发精神病目前仍属于假设性观点。Østergaard 强调,曾有心理问题史的人群在与AI对话后风险最高。而且聊天机器人可能通过强化用户的情绪高涨状态,诱发或加剧躁狂发作。