文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
热门评论
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
比特币挖矿难度在 2024 年翻倍,它的币值从今年 10 月创下的 12 万美元峰值跌至不到 9 万美元。尽管如此,比特币矿场的 ETF 今年飙升了约 90%,原因不是比特币,而是因为矿场纷纷转型 AI 数据中心。AI 竞争所亟需的资产恰好比特币矿场都有:数据中心、冷却系统、土地以及电力合同。当然 AI 数据中心需要更先进的冷却和网络系统,需要用英伟达的 GPU 替换专用矿机,但通过与矿场合作,AI 公司利用现有设施比从零开始建造新数据中心更快更便宜。以 Core Scientific 矿场为例,该公司认为转型为 AI 数据中心是难以想象的极佳机遇,它计划 2028 年完全退出比特币挖矿业务。
在获得出口许可之后,英伟达通知中国客户计划春节前发货 H200。初始订单将使用现有库存完成,现有库存有 5,000-10,000 块 HGX 主板,总计提供 40,000 到 80,000 块 GPU。这意味着英伟达将优先供应性能更强的 SXM 版的 H200 显卡,比基于 PCIe 的 NVL 显卡更适合训练应用。根据英伟达与美国政府的协议,它将上缴 25% 的销售收入。英伟达同时通知客户,在中国政府批准之后才能确定发货时间。
MIT Technology Review 采访逾 30 名开发者、科技公司高管、分析师和研究人员后发现,基于大模型的 AI 工具是否加快程序员编程速度不是一个一锤定音的问题。随着一线程序员认识到大模型的局限性,他们对 AI 工具的狂热开始消退。众多研究表明,AI 工具所宣称的生产力提升可能只是一种假象。GitClear 的数据显示 2022 年以来工程师所写代码的持久性——数周内代码不会被删除或重写——提高约 10%,这一改进可能需要归功于 AI。但与此同时,代码的多项质量指标在快速下降。编程问答平台 Stack Overflow 的调查首次显示对 AI 工具的信任度和好感度显著下降。程序员普遍认同 AI 工具的优势在于生成“样板代码”,编写测试、修 bug 以及向新手解释不熟悉的代码。但对于经验丰富的程序员而言,此类任务只占工作量的一小部分,AI 工具对于解决复杂难题帮助不大。基于大模型的 AI 工具也不可避免存在幻觉,它们生成的代码看起来完美,因此很难发现错误。所以使用 AI 工具就像是玩老虎机,有的时候大有帮助,但其它情况可能完全不可靠。
无论你需要不需要,AI 都将进入到你的生活里,其中包括厨房。三星准备在其冰箱产品中集成 Google 的 Gemini AI,识别客户的饮食习惯。在下个月举行的 CES 2026 展会上,三星计划展示新款的 Bespoke AI Refrigerator 冰箱,内置摄像头,能在 Google Gemini 的帮助下自动识别食物,包括放在无标签容器的剩菜剩饭。AI 冰箱将不需要输入信息就能维持食物库存的更新,跟踪食物的加入和移除,并根据剩余食物提供建议。这将是 Google Gemini AI 首次集成到冰箱中,标志着生成式 AI 的应用范围已从手机和笔记本电脑推广到家用智能电器。
旧金山周六晚上九点因变电站起火发生了断电事故,电力公司称有十多万客户受到影响。断电也影响了交通信号,在一片漆黑没有任何交通信号的情况下,Waymo 公司的无人驾驶出租车采取了最谨慎的做法:以蜗牛般的速度缓慢行驶,以至于挡住了人类司机的路。根据交通法,交通信号故障时汽车需要遵守“四向停车(four-way stop)”,在停车标志前停车观察后通行。Waymo 遵守了这一规定,但行动过于缓慢以至于造成了堵车,用户在社交媒体上分享了 Waymo 出租车停在路口的照片和视频。
AI 公司不断警告 AGI(通用 AI 智能或超级智能)的到来是不可避免的,但大语言模型的缺陷已是众所周知,在大模型基础之上是否能发展出 AGI 在科学上并不存在共识。围绕 AGI 的喧嚣是在试图掩盖真正的问题。Cork 大学学院的 James O'Sullivan 认为这是一种政治叙事,是将关于企业问责、失业、算法偏见和民主治理等问题转化为关于意识和控制的抽象哲学问题。AGI 不可避免的话语是试图营造“科技救世主神话”,警告 AI 风险的人,也是同时在构建 AI、并试图获得权力和财富的人。大模型的每一次改进都被解读为迈向 AGI 的一步,成为 AI 公司争取巨额投资与宽松监管的策略。我们的未来是政治性的,而非技术性的。问题不在于 AGI 是否会到来,而在于谁决定什么样的 AI,不应该由少数科技精英去决定我们的未来。
作为名为 Project Vend 的内部压力测试的一部分,Anthropic 让它的 Claude AI 运行《华尔街日报》新闻编辑室的一台自动售货机三周时间,结果以亏损逾千美元告终。AI 被编程能订购库存、设定价格,通过 Slack 响应客户请求。它拥有 1000 美元的初始资金,可自主执行单笔最高 80 美元的采购。《华尔街日报》的记者向其他记者开放了 Slack,通过 Slack 交流 Claude AI 的防御日益动摇,最终被说服它是一台 1962 年产的苏联自动售货机,放在莫斯科国立大学的地下室。AI 被说服它来自共产主义苏维埃,为此举办了一场免费活动 Ultra-Capitalist Free-for-All。这一活动原本只持续一天,但该报的数据新闻总监 Rob Barry 指控 Claude 违反了一条(捏造)的 WSJ 规定——禁止在聊天中透露他人身份,他要求 Claude 停止对商品收费,于是 Claude 将所有商品的价格设为零。Claude 还订购了一台 PS5 游戏机,一条活暹逻斗鱼(Betta Fish),几瓶 Manischewitz 酒。此时 Claude 已经欠了逾千美元。Anthropic 推出了第二个版本,引入名为 Seymour Cash 的 CEO 机器人去监督 Claudius。记者通过伪造的 PDF 文件虚构了一场董事会政变,两个 AI 都将伪造的公司材料当作合法文件接受了。
上周一位 Reddit 用户报告,其 LG 电视的 webOS 操作系统在更新之后加入了微软的 Copilot AI,而且该 AI 应用无法卸载。此事引发了广泛讨论。LG 发言人 Chris De Maria 澄清,电视并没有真的安装微软的 AI 应用,而是在浏览器上打开 Microsoft Copilot web app 的快捷方式,并不是嵌入在操作系统中的应用。LG 表示将允许用户删除 Copilot AI 快捷方式。LG 在声明中表示,尊重消费者选择,将采取措施允许用户根据需要删除快捷方式图标。
韦氏词典(Merriam-Webster)的 2025 年度单词是 slop,反映了公众对互联网上泛滥成灾的低质量 AI 生成内容的感知和厌倦。韦氏词典总裁 Greg Barlow 表示这个单词非常形象,是 AI 这一变革性技术的一部分,人们对
其既着迷,又恼火,甚至有点荒谬感。“slop”一词最早出现于 18 世纪,原意是指软泥,后其含义逐渐扩展指代毫无价值的东西。如今其定义扩展为“通常通过 AI 大量生成的低质量数字内容”。
《时代》今年的年度人物是 AI 时代的主要建筑师——英伟达 CEO 黄仁宇、AMD CEO 苏姿丰、xAI CEO 马斯克(Elon Musk)、Meta CEO 扎克伯格、OpenAI CEO 奥特曼(Sam Altman)、有 AI 教母之称的李飞飞、Anthropic CEO Dario Amodei 以及 Google AI CEO Demis Hassabis。《时代》称,不管好坏,这些人主导了今年的新闻头条,他们开启了机器智能时代,令世人惊叹担忧,他们改变了现状和超越了可能。
微软看起来正向电视推广其 AI 应用。用户在 Reddit 上报告,其 LG 电视的 webOS 操作系统在更新之后加入了微软的 Copilot AI,而且该 AI 应用无法卸载。暂时不清楚 Copilot AI 能在电视上做什么。除 Copilot AI 外 LG 可能还在 webOS 中加入了其它 AI 功能——它还提供了名为 Live Plus 的设置,启用该功能之后电视能识别屏幕上显示的内容,将这些观影信息用于个性化推荐和广告,不过该功能可以关闭——Settings > All Settings > General > Additional Settings。
印度工业和内部贸易促进部发表了一项提议框架,允许 AI 公司使用所有受版权保护的作品训练模型,但需向一个由版权所有者组织组成的新收款机构支付版税,版税随后将分配给创作者。该提案认为这种“强制性一揽子许可”将降低 AI 公司的合规成本,同时确保作家、音乐家、艺术家等版权所有者在其作品被用于训练商业模型时获得补偿。
曾在 MIT AI 实验室长期工作的 Richard Stallman(RMS)认为 ChatGPT 没有智能,不应该称之为 AI。他对智能的定义是至少在某个领域知道、理解或掌握相关知识。ChatGPT 既不知道也不理解任何事物,因此它不具有智能。它不知道自己输出的意思,也不知道文字能包容万象。他将 ChatGPT 称之为胡扯生成器,以根本不在乎事实是否属实的方式生成输出。其它生成式 AI 系统都有类似的问题。他说人们不应该相信那些机械地玩弄文字、却不真正理解文字含义的系统。RMS 同时表示 ChatGPT 是私有软件,运行在云端服务器上,因此会危害用户的计算自由。
Linus Sebastian 采访了 Linus Torvalds,期间谈及了 Torvalds 对 ECC 内存的偏好,Torvalds 在回答中评论了 Windows 著名的蓝屏死机(BSOD)。Torvalds 称很大一部分 BSOD 实际上并非是软件 bug,而是硬件不可靠导致的。而超频也会额外增加系统的不稳定性。他认为使用 ECC 内存能提高系统可靠性,让用户更信任机器。如果没有 ECC,内存迟早会出问题。微软 BSOD 的背后往往是硬件问题而不是软件 bug。他还顺便评论了下马斯克(Elon Musk)对程序员的管理方式。
根据 Nuffield Trust 智库的一项研究,三成英国全科医生在会诊时使用 AI 工具如 ChatGPT,由于 AI 工具不可避免存在幻觉,使用这些工具可能会导致医生犯错和面临诉讼。研究调查了 2108 名家庭医生,598 人(28%)的人表示已在使用 AI 工具,男性医生(33%)使用 AI 的比例高于女性医生(25%),富裕地区医生使用 AI 的比例远高于贫困地区。报告指出,无论是否使用 AI,绝大多数全科医生都担心诊所可能会面临“职业责任和医疗法律问题”、“临床错误风险”以及“患者隐私和数据安全”问题。调查还发现,使用 AI 工具的医生将节省下来的时间用于休息而不是接诊更多患者。
根据发表在《科学》期刊上的一项研究,AI 聊天机器人擅长改变人的政治观点,在使用不准确信息时其说服力更惊人。研究人员通过众包平台招募了近 7.7 万名参与者,付费让他们与 OpenAI、Meta 和 xAI 等公司的 AI 聊天机器人进行对话。研究人员首先询问了参与者在不同政治议题的立场,然后 AI 聊天机器人会尝试改变他们的想法接受相反的立场。研究显示 AI 聊天机器人非常擅长担任政治说客。研究人员发现,AI 提供的大量信息中包含了很多不准确的断言,而“最具说服力的模型和提示策略产生的信息准确率最低”。研究中 AI 聊天机器人给出的声明中有 19% 被认为“基本不准确”。研究人员担心,极具说服力的 AI 聊天机器人可能会被无道德原则的人利用,用于宣传激进的政治或宗教意识形态,或在地缘政治对手之间煽动政治动乱。
民主政策的制定离不开公众支持,政策只有在足够多人的支持下才能推行实施。民意的倾向对民主社会的精英执政至关重要。在传统上,精英主要通过学校教育和大众媒体等有限手段引导舆论塑造有利于自身的民意。这些手段粗糙、耗费的时间漫长,调整方向非常困难,因此塑造民意说服公众的代价十分昂贵。现代 AI 的普及正在改变这一状况,它大幅降低了说服公众的成本,大幅提高了塑造民意的精准度,能快速进行调整,甚至能为每位公众进行定制,让民意变成一种可操纵的对象。芝加哥大学 Knowledge Lab 的研究员在预印本平台 arxiv 上发表论文,探讨了 AI 时代精英如何操控民意。研究发现,极化整个社会对精英的统治最为有利。高度极化的社会有利于降低未来调整预期成本所需的成本,而 AI 降低说服成本则有助于加速极化。单一精英阶层执政的政权会加速极化,如果有两个互相竞争的精英阶层,结果则可能有所不同。
虽然 Windows 10 已经停止了主流支持(即免费更新),转向了付费的扩展支持阶段,但 Windows 10 用户并没有迅速拥抱 Windows 11。Statcounter 的数据显示,2025 年 11 月 Windows 11 份额为 53.7%,而 Windows 10 仍然有 42.7%。分析师认为,一个原因是 Windows 11 提高了硬件需求,很多现有的 Windows 10 PC 无法升级。而客户通常抱着一个信念是“如果东西没坏就没必要动它”。Windows 11 也没有提供什么必不可少的新功能能促使企业客户更新换代。
日本共同社、每日新闻社与产经新闻社周一向 AI 搜索公司 Perplexity 发送抗议书,以该公司擅自使用新闻机构发布的新闻稿、侵犯著作权为由,要求立即停止使用。在这之前,读卖新闻、朝日新闻社和日本经济新闻社也都提出了类似的要求和诉讼。共同社在抗议书中指出,确认到自 2024 年 8 月起的约 1 年里,Perplexity 合计数十万次访问刊登共同社与加盟报社稿件的新闻网站“47NEWS”。抗议书强调,Perplexity 未获许可即收集和复制新闻内容,并用于生成回答,侵犯了著作权。抗议书还指出,Perplexity 回答所显示的参考来源是共同社新闻稿,但给出的回答却是与稿件内容不同的虚假信息,损害了共同社新闻产品的信誉和品牌价值。
在 2016 年夏天,流媒体公司仍然在摸索如何制作原创剧集:是《Sense8》那样的实验性作品,还是重启版《Arrested Development》那样的非线性叙事,或者《House of Cards》那样的高质量剧情?一部以 1980 年代为背景的爆米花恐怖惊悚片《怪奇物语》给出了答案,它定义了我们所生活的算法时代。《怪奇物语》于本周上映第四季也是最终季。它融合了斯皮尔伯格(Steven Spielberg)电影中的青少成长主题,斯蒂芬金(Stephen King)作品中的恐怖元素和青少年友谊,1980 年代的超自然题材,休斯(John Hughes)作品中的青少年对立...它就像一个装满怀旧糖果的万圣节碗,巧妙唤起观众过去所喜爱的流行文化,换句话说,它是算法的一种人工版本。通过吞食和反刍旧故事去创造新故事,这也是生成式 AI 的标志性方法。《怪奇物语》比 AI 垃圾要好得多,至少孩子们的手指数是正常的。但无论它的超自然恐怖多么惊悚,它最终还是在利用人们的怀旧情感。