solidot新版网站常见问题,请点击这里查看。
人工智能
Wilson(42865)
发表于2025年05月30日 17时23分 星期五
来自永恒先生
白宫“Make America Healthy Again”委员会上周发布了一份报告,声称为一系列儿童健康问题提供了“清晰的、基于证据的基础”。然而报告被发现援引了一系列不存在研究,显而易见是大模型生成的。本周四白宫更新了报告修正了内容。Retraction Watch 联合创始人 Ivan Oransky 博士表示,假的参考文献并不意味着报告中的基本事实是不正确的,但此事表明在报告发布之前,缺乏对报告及其参考文献的严格审查和核实。美国现任卫生部长是反疫苗者,而白宫的这份报告也声称部分儿童疫苗可能是有害的——医生对此观点表达了异议。

人工智能
Wilson(42865)
发表于2025年05月30日 16时03分 星期五
来自火星之女
自 2020 年 4 月以来,著名编程问答社区 Stack Overflow 上的问答量下降了九成以上。为了在生成式 AI 时代生存下来,Stack Overflow 计划采取激进的措施,其中包括:恢复聊天功能,加强社区成员之间的联系;个性化网站,可能将整合视频、博客、问答等内容;对讨论更为开放;授权 Stack Overflow 内容给 AI 公司训练模型;测试付费给专家回答问题。

人工智能
Wilson(42865)
发表于2025年05月30日 14时18分 星期五
来自美丽新世界
流行的 AI 大模型都开始提供“推理过程”——给出最终答案前生成一系列冗长的中间文本,看起来类似人类的推理草稿。亚利桑那州立大学的研究人员在预印本平台 arxiv 上发表论文,建议不要将大模型的这一行为描述为“推理”或“思考”,认为这种拟人化的描述会对大模型的实际工作过程造成有害的误解。尽管推理模型如 DeepSeek R1 表现出了更高的性能,但它们实际上既不会思考也不会推理,研究人员没有发现任何代表真正推理过程的证据。大模型的所谓思考其实就是寻找相关性,而众所周知相关并不等于因果。研究人员警告,将大模型的中间输入视为推理会令用户对大模型的问题解决机制产生虚假的信心。