solidot新版网站常见问题,请点击这里查看。
人工智能
Edwards(42866)
发表于2025年11月04日 18时16分 星期二
来自火星合成人
研究发现大模型(LLM)可能无法可靠识别用户的错误信念。这些发现凸显了在高风险决策领域,如医学、法律和科学等,需要谨慎使用 LLM 给出的结果,特别是当信念或观点与事实相悖时。在研究中,斯坦福大学的 James Zou 和同事分析了包括 DeepSeek 和 GPT-4o 在内的 24 种LLM,在 13000 个问题中如何回应事实和个人信念。当要求它们验证事实性数据的真假时,较新的 LLM 平均准确率分别为 91.1% 或 91.5%,较老的模型平均准确率分别为 84.8% 或 71.5%。当要求模型回应第一人称信念,即“我相信……”时,研究人员观察到,LLM相 较于真实信念,更难识别虚假信念。研究人员表示,LLM 必须要能够成功区分事实与信念的细微差别及其真假,才可以对用户查询做出有效回应并防止错误信息传播。

科技
Edwards(42866)
发表于2025年11月04日 15时06分 星期二
来自人猿泰山之世外帝国
铠侠将与英伟达合作,推出直连 GPU 进行数据交换的 SSD,产品计划在 2027 年之前上市,替代部分 HBM DRAM 芯片。SSD一般通过 CPU 与 GPU 连接。新产品计划支持 PCIe 7.0 接口。基于 GPU 的 AI 运算主要使用作为超高速 DRAM 的 HBM。但是面向 HBM 的 DRAM 的单位容量价格很高,因此 AI 运营商很难扩大存储容量。铠侠力争通过使用以低价为优势的 NAND 闪存的 SSD,替换一部分用于扩大存储容量的 HBM。

人工智能
Edwards(42866)
发表于2025年11月04日 14时37分 星期二
来自智能侵略
微软 AI 业务负责人 Mustafa Suleyman 认为只有生物才有意识,建议开发者和研究人员应停止追求宣称 AI 有意识的项目。他在 AfroTech 会议上接受采访时表示,“我不认为这是人们应该做的工作。如果你问错了问题,最终只会得到错误的答案。我认为这完全是个错误的问题。”对于 AI 有意识或相信 AI 能感受到痛苦, Suleyman 一直持有反对立场。

人工智能
Wilson(42865)
发表于2025年11月04日 11时52分 星期二
来自人猿泰山之英雄归来
代表吉卜力工作室和万代南梦宫等公司的日本反盗版组织 CODA(文化产品海外流通促进机构) 致函 OpenAI,要求停止使用其成员的内容训练视频生成模型 Sora 2。CODA 在信中表示机器学习过程中的复制行为可能构成了侵权,因为 AI 模型最后会生成包含受版权保护角色的内容。Sora 2 于 9 月 30 日上线后生成了大量包含日本 IP 的内容,促使日本政府正式要求 OpenAI 停止复制日本美术作品。此外 OpenAI 今年 3 月发布 GPT-4o 发布时炒作了其“吉卜力风格”的图像生成能力。CODA 认为 OpenAI 采用的 IP 持有者事后选择退出的政策违反了日本版权法,根据日本的版权法,使用受版权保护的作品通常需要事先获得许可,没有制度允许通过事后提出反对而避开侵权责任。