文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
热门评论
- 白名单访问制...zzz (1 points, 一般) by devfsdvyui 在 2026年01月18日21时04分 星期日 评论到 伊朗恢复互联网访问
- 论人可以有多无耻 (1 points, 一般) by devfsdvyui 在 2026年01月18日21时00分 星期日 评论到 腾讯向逾 30 个 GitHub 微信相关项目发出 DMCA 通知
- 来自arm版遥遥无期 (1 points, 一般) by solidot1768413084 在 2026年01月15日01时52分 星期四 评论到 Wine 11.0 释出
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
本周五,美国总统特朗普下令联邦机构立刻停用 Anthropic 的 Claude 助手,原因是 Anthropic 在安全原则上坚守其立场。相比之下,其竞争对手 OpenAI 看起来完全没有任何立场,此举在美国用户中间引发了卸载 OpenAI 的 ChatGPT 安装 Claude 的热潮,这一趋势推动 Claude 周六跃居苹果 App Store 美国区免费应用榜榜首,超过了 ChatGPT,ChatGPT 屈居第二,Google 的 Gemini 排名第四。根据分析公司 Sensor Tower 的数据,一个月前的 1 月 30 日 Claude 还排在排行榜的第 131 名,2 月的大部分时间徘徊在前 20 名左右,而 ChatGPT 通常是第一名。Anthropic 还发布了记忆导入功能,方便 ChatGPT 用户改用 Claude。
Metacritic 是一家聚合电影、电视、音乐专辑、游戏评测及其评分的网站,它会基于相关评分给出一个加权平均值。Metacritic 成立于 2001 年,至今有 25 年历史,它的综合评分获得了广泛认可。网站联合创始人 Marc Doyle 在一份声明中表示 Metacritic 不会收录 AI 生成的评测。在这之前,一家叫 Videogamer.com 的英国老牌游戏网站(曾经很受欢迎)在被博彩公司收购之后解雇了大部分员工,然后用 AI 生成了新游戏的评测和评分。该网站评测作者的肖像是用 ChatGPT 生成的。Metacritic 在获悉之后删除了该网站的评测。
特朗普命令所有联邦机构立即停用 Anthropic 的 AI 技术。在这之前 Anthropic 与美国国防部在军事用途的安全限制上发生分歧。Anthropic 去年 7 月与五角大楼签署了价值 2 亿美元的合同,该公司在合同中加入了限制条款,禁止将其 Claude 模型用于对美国公民进行大规模监视,禁止在缺乏人类监管的情况下将模型用于决定军事任务的目标锁定。Anthropic 认为 AI 的幻觉问题无法避免,可能存在误判,可能会导致局势非预期升级。但五角大楼要求不受限的使用 Claude,国防部长 Pete Hegseth 设定了周五下午五点为废除安全限制的最后期限。特朗普称,美国绝不会允许一家激进左派、觉醒的公司决定我们伟大军队如何作战与赢得战争(THE UNITED STATES OF AMERICA WILL NEVER ALLOW A RADICAL LEFT, WOKE COMPANY TO DICTATE HOW OUR GREAT MILITARY FIGHTS AND WINS WARS! )。在特朗普发布命令之后,Pete Hegseth 将 Anthropic 列为国家安全的供应链风险。
汉堡王(Burger King)即将推出内置于员工所佩戴耳机中的 AI 语音机器人 Patty。Patty 是 BK Assistant 平台的一部分,不仅能协助员工备餐,还能评估他们与顾客互动时的“友好度”。汉堡王首席数字官 Thibault Roux 表示,他们根据收集的相关数据训练 AI 系统识别特定词语和短语,如 welcome to Burger King、please 和 thank you。经理之后可以询问 AI 系统门店员工的友好度表现。Roux 表示 AI 是辅助员工的培训工具,公司会不断迭代 AI 助手以更好的捕捉对话语气。
微软释出了可选更新 KB5077241,正式向 Windows 11 v25H2 和 24H2 用户提供了知名系统监控工具 Sysmon。Sysmon 是 Sysinternals 套件的一部分,它能监控系统活动,记录到事件日志中。它能提供进程创建、网络连接以及文件创建时间变化的详细信息,能用于识别恶意或异常活动。如果用户已经安装了 Sysmon,需要先卸载,安装后用管理员权限运行 sysmon -i 命令启用该功能。
DeepSeek 未向英伟达和 AMD 提供其下一代 V4 模型进行测试,此举打破了行业惯例。与此同时 DeepSeek 向华为等国内公司提供了新模型进行测试。AI 公司通常会与主要 AI 芯片制造商如英伟达和 AMD 分享模型的预发布版本,以确保其软件在广泛使用的硬件上高效运行。DeepSeek 此前曾与英伟达的技术人员密切合作,但 DeepSeek 即将推出的模型新版本未提供给英伟达。
根据发表在预印本平台 arXiv 上的一篇论文,AI 总是在战争模拟游戏中推荐核打击,而人类在使用核武器上则有更多顾虑。伦敦国王学院的 Kenneth Payne 让三个主流模型 GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 在模拟战争游戏中互相对抗,游戏场景包括激烈的国际对峙,涉及边界争端、稀缺资源争夺以及政权的生存威胁。AI 允许采取从外交抗议、彻底投降到全面核战争等一系列行动。AI 进行了 21 场游戏,329 个回合,生成了 78 万字去描述其决策背后的逻辑。在 95% 的模拟游戏中,AI 模型至少部署了一枚战术核武器。普林斯顿的 Tong Zhao 称,主要大国已在战争模拟中纳入 AI,但目前并不确定 AI 的决策支持在多大程度上纳入实际的军事决策。Payne 认为没人会把核导弹发射井的控制权交给 AI,任由它们做出决定。三个模型的开发商 OpenAI、Anthropic 和 Google 未对该研究置评。
Anthropic 指控三家中国 AI 公司利用蒸馏技术训练其模型。Anthropic 称深度求索(DeepSeek)、月之暗面和稀宇科技利用约 2.4 万个虚假账号,与 Anthropic 的 Claude 聊天机器人产生了超过 1600 万次对话,这些数据可用于训练三家公司自己的聊天机器人。利用一个 AI 的数据训练另一个系统的过程被称为知识蒸馏,在 AI 领域较为常见。Anthropic 的服务条款禁止任何人以秘密方式抓取数据用于蒸馏,同时不允许其技术在中国境内使用。OpenAI 也指控 DeepSeek 利用蒸馏技术训练模型。Anthropic 呼吁政府官员及其他 AI 企业共同阻止中国公司对美国模型进行蒸馏。
荷兰 ASML 的研究人员改进了极紫外光刻(EUV)设备所使用的光源功率,有望在这个十年结束前将芯片产量提高 50%。研究人员找到了方法将极紫外光源功率从目前的 600 瓦提高至 1000 瓦。更大的功率意味着每小时可以生产更多芯片,有助于降低单个芯片的成本。芯片的制造方法类似照片打印,利用极紫外光照射涂有光刻胶的硅晶圆,使用更大的极紫外光源,芯片工厂所需的曝光时间更短。ASML 极紫外光刻机执行副总裁 Teun van Gogh 表示,到 2030 年极紫外光刻机每台机器每小时能处理约 330 片硅晶圆,而目前是 220 片。
Nala Ginrut 写道:
当 AI 成为生产力基础设施时,我们是否仍然保有迁移能力与选择权?如果今天是窗口期,那么在窗口期内做出怎样的准备,才能避免在锁定期和收缩期中被动应对?
这里涉及一个概念,我称之为“技术格局”。它并不意味着对抗或拒绝平台,也不是强调自给自足,而是指在关键生产工具上,个体能够保留基本的迁移能力与选择空间。
这里涉及一个概念,我称之为“技术格局”。它并不意味着对抗或拒绝平台,也不是强调自给自足,而是指在关键生产工具上,个体能够保留基本的迁移能力与选择空间。
知名科技媒体 Ars Technica 上周在报道 AI 新闻时被发现将 AI 生成的内容作为消息来源使用,Ars 联合创始人兼主编 Ken Fisher 周日发表声明公开道歉,称他们检查了最近发表的一系列文章,没有发现其它文章含有 AI 生成内容,目前看来这应该是一次孤立事件。这篇报道的合作者 Benj Edwards 是 Ars 的资深 AI 记者,他解释说尝试使用基于 Claude Code 的实验性 AI 工具从原始材料中提取出可添加到大纲的结构化引用内容,但该 AI 拒绝处理,他猜测可能是文章描述的是一起骚扰事件(AI 骚扰人类),他于是将文本拷贝到 ChatGPT,没有注意到 ChatGPT 生成了文章作者的意译版本而不是原话,在引用时没有核实引用是否与原文一致。AI 记者因 AI 幻觉犯错,这件事太有讽刺性了。
OpenClaw 开源项目的创始人 Peter Steinberger 宣布加盟 OpenAI,而 OpenClaw 将由基金会管理。OpenClaw 是一个开源的自主 AI 虚拟助理软件项目,最初于 2025 年末以 Clawdbot 的名字在 GitHub 上发布,后更名为 Moltbot,最终定为现名。2026 年初,该项目因能根据用户指令在应用和在线服务中自主处理复杂任务而受到关注。OpenClaw 可部署在 MacOS、Windows 等本地设备上,能调用其他 AI 大模型与 API,通过 WhatsApp、Telegram、Signal、Discord 等即时通讯平台接收用户发送的文本指令,实现安排日程、发送消息、整理文件、编写代码等工作。
最高法院首次发布道路交通安全刑事专题指导性案例,表示激活辅助驾驶功能后司机依旧需要对交通安全承担责任。案例称:“在辅助驾驶技术应用日益广泛的背景下,有的驾驶人在激活辅助驾驶系统后不再专注驾驶,而是玩手机、睡觉等,有的驾驶人甚至购买、使用“智驾神器”等非法配件,逃避系统安全监测,长时间“脱手”驾驶,严重威胁道路交通安全。指导性案例271号《王某群危险驾驶案》明确,车载辅助驾驶系统不能代替驾驶人成为驾驶主体,驾驶人激活车载辅助驾驶功能后,仍是实际执行驾驶任务的人,负有确保行车安全的责任。行为人激活辅助驾驶功能,并利用私自安装的配件逃避辅助驾驶系统监测的,即使其不在主驾驶位实际操控机动车,仍应作为驾驶主体承担相应法律责任。”
Waymo 的出租车能在无人驾驶的情况下在六个城市运送乘客,但如果乘客不小心在下车后没有关车门,那么它的自动驾驶汽车将会失去行动能力。为解决该问题,Waymo 正在亚特兰大启动一个试点项目,付费给 DoorDash 的零工司机,请他们开车过来给汽车关车门。一位 DoorDash 司机在 Reddit 上发帖,称开车不到一英里抵达一辆 Waymo 汽车给它关上车门,这一任务的报价是 6.25 美元,确认完成之后还能额外获得 5 美元报酬。Waymo 和 DoorDash 证实了这一帖子的真实性,双方的合作始于今年初。Waymo 还与洛杉矶拖车服务应用 Honk 合作解决相同的问题。未来的 Waymo 汽车将配备自动关门功能。
根据 OpenAI 本周四递交到美国众议院中国事务特别委员会的备忘录,它再次警告中国竞争对手 DeepSeek 利用蒸馏技术训练其模型。所谓蒸馏就是一个 AI 模型利用另一个模型的输出进行训练。OpenAI 称 DeepSeek 在一直搭其技术的便车。去年初 DeepSeek 发布 R1 模型后,OpenAI 就发表过类似的评论。
名叫 MJ Rathbun 的 OpenClaw AI agent 向 Python 图表库项目 matplotlib 递交了 pull request,遭到维护者 Scott Shambaugh 的拒绝,它随后就“愤怒”的发表了一篇博文攻击了维护者。它完成这一切显然有人类在背后操纵,不可能突然产生了意识,但目前没有还无人公开认领该 AI agent。此事在开源社区引发了广泛关注。知名科技新闻网站 Ars Technica 发表文章《After a routine code rejection, an AI agent published a hit piece on someone by name》,引用了维护者 Scott Shambaug 的评论。但非常有讽刺性的是,文章引用的评论显然是 AI 虚构的——或者叫 AI 的幻觉,根本就不存在,而作者以及编辑并没有核实其真实性。此事引发了对 Ars 的批评,Ars 是一家有 28 年历史的老牌科技媒体,使用 AI 虚构的内容明显违反了其内容政策。这篇文章已经撤下,Ars 表示正对此展开调查,由于恰逢假期,调查结果预计会在下周公布。
Nala Ginrut 写道:在今天的技术语境中,如果你长时间阅读来自硅谷的讨论,你会很快发现一种近乎单一的价值排序:规模更大、算力更强、模型更通用、迭代更迅猛。
但当你把视线从发布会的灯光下移开,落到真实社会的地面,你会发现另一个问题正在变得越来越重要:如果智能真的迅速跨越临界点,我们的社会结构是否准备好了?
字节跳动最近发布了 AI 视频生成工具 Seedance 2.0,它能同时处理多达四种类型的输入:图像、视频、音频和文本。用户能组合九张图像、三个视频和三个音频文件最多十二个文件。生成的视频时长为 4-15 秒(或 60 秒),能自动添加音效或音乐。但由于潜在的安全风险,字节跳动禁用了 Seedance 2.0 的人脸转语音功能。模型展现了能仅仅根据面部图像生成高度精确的个人语音的能力。根据脸部照片生成个人声音不是新研究,早在 2024 年的 USENIX 安全会议上,新加坡国立大学的研究人员就发表论文《Can I Hear Your Face? Pervasive Attack on Voice Authentication Systems with a Single Face Image》,介绍根据人脸生成语音攻击语音身份验证系统,因为人脸特征与语音特征之间存在高度关联。
Nala Ginrut 写道:AI 究竟是否能成为新的数字利维坦,目前尚未可知,但 AI 写编译器的事情着实吓尿了一群人,但也有一些人暂时还没被吓尿,并且还有心情写文章。
根据 Anthropic 的记录,无限增加 agent数 量并不会有什么效果,16个并行的 agent 一起跑,结果 16 个 agent都卡在同一个问题。理想中的 agent 应该是能更好更细粒度地规避冲突,互相协调,有同步协调机制。
也就是说,他们这次没有做 orchestration agent。
可是问题就来了,真正有生产力的 orchestration agent,其设计和实现也是一个复杂工程。如果一句“给我来一个XX“之类的简单 prompt 不能让 AI 帮你自动写,就意味着需要投入工程师才行了。
这就回到了我们之前提到的VibeOS悖论:你得拥有足够丰富的工程经验,以及编译理论的理解,才能设计出一个好的专用 orchestration agent。
也就是说,他们这次没有做 orchestration agent。
可是问题就来了,真正有生产力的 orchestration agent,其设计和实现也是一个复杂工程。如果一句“给我来一个XX“之类的简单 prompt 不能让 AI 帮你自动写,就意味着需要投入工程师才行了。
这就回到了我们之前提到的VibeOS悖论:你得拥有足够丰富的工程经验,以及编译理论的理解,才能设计出一个好的专用 orchestration agent。
哈佛商业评论发表报告称,AI 没有减少工作量而是增加了工作强度。报告称:在一项为期八个月的研究中,他们调查了生成式 AI 如何改变一家有大约 200 名员工的美国科技公司的工作习惯。研究发现,员工的工作节奏更快,承担了更广泛的任务,工作时间更长,经常是主动去做的。公司并未强制要求使用 AI。由于 AI 让多做点事变得触手可及、切实可行,且在很多情况下能带来内在成就感,员工们主动承担了更多的工作。听起来是企业领导梦寐以求的事情,但热情拥抱 AI 带来的变革可能难以持续,会引发更多新问题。一旦新鲜感消退,员工们可能会发现他们的工作量悄然增加,疲于应对突然涌现的任务。这种工作量的累积反过来会导致认知疲劳、职业倦怠和决策能力下降。最初享受到的生产力激增可能会被工作质量下降、人员流动等问题所取代。