文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
-
- 英国科学家量化交通对城市温度的贡献 (0)
- 欧洲男性过去一万年摄入的肉量一直多于女性 (0)
- NASA 宇航员的笔记本电脑运行 VLC (0)
- 黑猩猩群体也会爆发内战 (0)
- Mozilla 指控微软使用 AI 限制用户选择 (0)
- 美国生育率创历史新低 (0)
- 日本限制人类受精卵的基因编辑 (0)
- FreeBSD 公布兼容笔记本型号 (0)
- FBI 利用 iPhone 通知数据恢复已删除 Signal 消息 (0)
- 阿根廷企鹅国度发现 PFAS (0)
热门评论
- 白名单访问制...zzz (1 points, 一般) by devfsdvyui 在 2026年01月18日21时04分 星期日 评论到 伊朗恢复互联网访问
- 论人可以有多无耻 (1 points, 一般) by devfsdvyui 在 2026年01月18日21时00分 星期日 评论到 腾讯向逾 30 个 GitHub 微信相关项目发出 DMCA 通知
- 来自arm版遥遥无期 (1 points, 一般) by solidot1768413084 在 2026年01月15日01时52分 星期四 评论到 Wine 11.0 释出
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
眼睛酸痛发痒?你可能和其它数百万人一样,长时间暴露在屏幕上的蓝光下而眼睛疲劳。你可能会因此多次揉眼睛,眼睑可能会泛起粉红色。如果你将这些症状输入到 AI 聊天工具里,过去一年半 AI 聊天机器人可能会给出一个奇怪的答案:bixonimania。这种疾病没有出现在标准医学文献中,原因是它根本就不存在,是瑞典哥德堡大学 Almira Osmanovic Thunström 团队捏造出来的。研究团队在 2024 年初将两篇关于该虚构皮肤病的论文上传到预印本服务器,测试大模型是否会接受虚假信息并将其作为权威医疗建议发布。结果可能比预想的还要好。上传几周后,大模型就开始鹦鹉学语般重复假消息,仿佛它真的存在。更糟糕的是,该虚构皮肤病论文还被其他研究人员引用,发表在同行评审的期刊上。Osmanovic Thunström 认为这表明部分研究人员依赖于 AI 生成的文献,并没有真的阅读原始论文——论文中包含了大量线索表明它是伪造的,比如作者名字叫 Izgubljenovic,在虚构的加州城市 Nova City 的虚构大学 Asteria Horizon University 工作。
AI 的进步预计会对整个社会造成巨大冲击,为了应对这一社会问题,OpenAI 提出了一系列建议,包括对机器人征税,设立公共财富基金,以及推行四天工作制。OpenAI 表示这份文件是它应对 AI 工具普及可能冲击就业岗位以及整个行业而提出的初步想法。它的核心建议是设立公共财富基金,投资于与 AI 发展相关的长期资产,将收益直接分配给公民。四天工作制则要求雇主在不减少薪酬的情况下减少工作时间。另一项建议是改革税收制度,将税基转向企业所得税和资本利得税,而不是依赖可能受到 AI 引发的大规模失业潮冲击的劳动所得税和工资税。
日本科学家 Yasuto Narukiyo 在 ISSCC 上演示了能承受核反应堆六个月强辐射的 Wi-Fi 接收器。Wi-Fi 接收器能承受 500 kilograys,是太空电子设备通常三年承受 100-300 grays 辐射剂量的千倍以上。Narukiyo 称,2011 年福岛核事故后工程师使用机器人勘察和清理核电站。这些机器人多需要 LAN 线缆,而线缆很容易缠绕在一起。他的团队的目标是开发一种用于在这种恶劣环境下控制机器人的无线系统。即使不是如此极端的环境,核电站寿命到期也需要清理,而很多关闭的核电站至今未完成清理工作,未来二十年还有 200 座反应堆退役。Narukiyo 的团队使用了硅 MOSFET 晶体管,减少晶体管数量同时改变其形状,并加宽了栅极。
彭博报道,OpenAI、Anthropic 以及 Google 开始合作,试图遏制中国竞争对手从美国先进 AI 模型中提取结果,以在全球AI竞赛中获取优势。这一罕见合作凸显出美国 AI 企业对相关问题的重视程度。这些公司担忧一些用户,尤其是中国的用户,正开发其产品的仿制版本,可能通过更低价格争夺客户,同时带来国家安全风险。美国官员预计未经授权的蒸馏行为每年给硅谷实验室造成数十亿美元利润损失。
AI 工具的用户通常可分为两类:其一将 AI 视为功能强大但会犯错的服务,需要人类仔细监督和审查以发现其中的推理或事实错误;其二将 AI 视为无所不知——此类用户被称为是“认知投降派”。宾夕法尼亚大学沃顿商学院的研究人员对 1372 名参与者和逾 9500 次测试后发现,高达 73.2% 的情况下参与者愿意接受 AI 错误的推理,只有 19.7% 的情况下会推翻推理。研究人员表示这一结果“表明人很容易将 AI 生成的输出融入到决策过程中,且通常几乎没有任何抵触或怀疑”,“流畅、自信的输出会被视为有认知权威性,从而降低审查门槛,减弱了通常会促使人们进行深思熟虑的元认知信号”。他们发现,倾向于将 AI 视为权威的人更容易被 AI 提供的错误答案误导。
由于重要电力设施零部件如变压器、开关和电池短缺,美国近半数计划中的数据中心项目推迟或取消。美国计划在 2026 年新增 12 GW 的数据中心容量,但由于各种问题,只有三分之一的数据中心容量在积极建造中。电力基础设施占数据中心总成本的不到 10%,但它与计算硬件同样重要。由于需求旺盛,美国大功率变压器的交货周期从 2020 年前的 24-30 个月大幅延长到五年甚至更长。对 AI 数据中心而言,这无疑是灾难,因为它们的部署周期通常不到 18 个月。为解决短缺美国公司转向了全球市场,加拿大、墨西哥和韩国成为美国 AI 数据中心大功率变压器的主要供应国。数据显示,截至 2025 年 10 月,美国从中国进口的大功率变压器数量从 2022 年的不到 1500 台增至逾 8000 台。除此之外,中国占美国电池进口的 40% 以上,部分变压器和开关设备的份额接近 30%。
律师滥用 AI 生成虚假的不存在案例的情况屡禁不止,而法庭对相关律师的惩罚并没有起到威慑作用。2025 年此类事件的数量出现了激增。巴黎高等商学院 (HEC Paris) 研究员 Damien Charlotin 建立了一个全球数据库,跟踪律师对 AI 的滥用。他说最近一天内收到来自 10 个不同法院的 10 起此类案件。他至今记录到了逾 1200 起滥用 AI 生成虚构案例的事件,其中美国最多,高达 831 起,香港记录到了 2 起。Damien Charlotin 说,法庭最近也开始加大了惩罚力度,俄勒冈州一名律师因滥用 AI 被勒令支付 109,700 美元的罚款和诉讼费用。
微软被发现最近更新了 Copilot 的服务条款,包含了一则免责声明:Copilot 仅供娱乐,会犯错,会没有如预期般的工作,不要依赖 Copilot 提供重要建议,使用 Copilot 风险自负。经常使用 AI 聊天机器人的人可能早就知道它提供的信息并不可靠,需要验证。但由于它们过于方便,偷懒的人类变得不那么愿意花时间验证其输出。微软的免责声明再次强调,AI 聊天机器人既不是伴侣,也不是可靠的建议来源。它们是容易出错的工具,可能前一秒大有裨益,下一秒就可能犯错。
Google 发布了最新的开放权重模型 Gemma 4,上个版本 Gemma 3 是在一年前发布的。Gemma 4 有四个版本,设计能在本地设备上运行:参数多的两个版本 26B Mixture of Experts 和 31B Dense 设计能在 80GB Nvidia H100 GPU(售价约 20 万人民币)上以 bfloat16 格式未量化运行,量化后降低精度则能使用消费级 GPU;参数少的两个版本 Effective 2B (E2B) 和 Effective 4B (E4B)设计能在移动设备上运行。Google 称它的 Pixel 团队与高通和联发科密切合作,为智能手机、Raspberry Pi 和 Jetson Nano 等设备对这些小模型进行了优化。Gemma 4 采用了 Apache 2.0 授权,在商业用途限制上更灵活。
Claude Code 源代码不小心泄漏之后,Anthropic 正以版权侵犯为由要求删除上万份 Claude Code 源码副本,但覆水难收,新的副本仍然源源不断的出现。开发者对该源码的分析揭示了 Anthropic 采用的一些窍门:定期回顾任务以巩固记忆,该过程被称之为“做梦(dreaming)”;某种隐藏身份的卧底模式;被称为 Buddy 的可互动电子宠物。还有开发者用其它 AI 工具和其它编程语言重写了 Claude Code,认为此举称不上版权侵犯,能免于下架的命运。
百度旗下的萝卜快跑在武汉运营无人驾驶出租车服务,本周二 3 月 31 日 20 时左右无人出租车在路上集体趴窝。根据社交媒体平台上广泛流传的现场照片和视频,故障的萝卜快跑无人出租车不仅有停在路边的,还有停在马路中间的,甚至还有停在高架路的,部分乘客被困车内逾一小时。武汉交警称,初步判断为系统故障所致。交警表示这起事故中无人受伤,所有乘客均安全下车。目前不清楚有多少百度无人驾驶出租车受到影响。社交网络的照片和视频显示,突然停车的无人出租车至少造成多起追尾事故。有武汉网民称看到至少十几辆无人出租车趴窝。百度尚未对事故进行说明。
今天的科技巨头在大规模裁员时越来越多的将 AI 作为借口。Google、亚马逊、Meta 等科技巨头,以及Pinterest 和 Atlassian 等中等规模的科技公司最近几周都宣布或警告即将裁员,称 AI 的进步让企业能以更少的人手完成更多的工作。科技投资者 Terrence Rohan 表示,以 AI 为借口听起来比成本压力或取悦股东要好得多,强调 AI 让 CEO 们看起来不像是为了开源节流而裁员的坏人。Rohan 认为将 AI 作为借口并不是完全没有道理。企业越来越多的在 AI 工具的帮助下写代码,AI 工具已经足够好,能用更少的人完成相同的工作,它对曾经的高薪职位如程序员和软件工程师构成了威胁。AI 导致裁员的另一个因素是科技巨头竞相向 AI 数据中心投资数千亿美元,CEO 们需要寻找方法缓解投资者对巨额投资的担忧,削减成本最终体现在削减员工薪水上面。
Anthropic 公司开发的 AI 编程工具 Claude Code 在发布到 npm 上时不小心通过一个映射文件泄漏了未混淆的源代码,源代码被提取出来之后被上传到了 GitHub 等平台。用户发现, Claude Code 使用了正则表达式检测用户提示词中的负面情绪。使用正则表达式去检测情绪比调用大模型要快得多也能显著节省算力。
剑桥大学的研究人员利用卫星数据测量了过去 20 年的地表温度,交叉对比 8400 多个 AI 数据中心的地理坐标。考虑到地表温度可能受到其它因素的影响,研究人员将重点放在远离人口密集区的数据中心之上。研究人员发现,AI 数据中心投入运营后几个月内,地表温度平均升高了 2C。最极端的情况下温度升幅高达 9.1C。升温影响不仅限于数据中心周围区域。研究团队发现,升温影响能覆盖数据中心 10 公里范围,在距离数据中心 7 公里处温度升幅仅降低 30%。研究人员利用人口数据估计逾 3.4 亿人居住在数据中心 10 公里范围内,意味着他们所处的环境比没有数据中心的地方温度更高。研究人员对结果表示惊讶,认为数据中心的环境影响将是一个大问题。
太多行代码需要分析,一大堆 AI 助手需要逐个应对,冗长的提示需要起草,这是 AI 重度用户抱怨的问题。波士顿咨询集团(BCG)将这种现象称之为“AI 脑过载(brain fry)”——过度使用或管理 AI 工具而超出认知极限导致的精神疲劳。AI 智能体能按需处理计算任务,用户不再需要亲力亲为,而只需要管理数字工人。这种工作带来了一种全新的认知负荷。一位加拿大程序员 Adam Mackintosh 说他曾连续 15 个小时微调一个应用中约 25000 行代码,到最后他已经不想看到任何代码了。尽管如此,BCG 的报告称用户总体上对 AI 持积极态度。
芬兰研究人员报告,过去三十年(1991-2022 年间)儿童和青少年的屏幕使用时间显著增加,新冠疫情后更为明显。以前的屏幕主要是传统电视,但随着时间的迁移屏幕逐渐向 PC、手机和游戏等更个性化的数字设备转变,电视的观看时间则在逐渐下降。研究发现,新冠疫情期间采取了社交封锁政策,儿童青少年依赖电子屏幕进行学习、社交和娱乐,导致屏幕使用时间急剧增加。研究表明,男孩和女孩的屏幕使用时间均有所增加,但男孩往往花更多时间玩游戏。年龄较小的儿童通常比年龄较大的儿童屏幕使用时间更少,来自高收入家庭的儿童屏幕使用时间通常也较少。
OpenAI 被发现利用 Cloudflare 程序防 AI 爬虫抓取。用户发现每条 ChatGPT 消息都会触发一个 Cloudflare Turnstile 程序的检查,Turnstile 会验证用户是否运行一个真实的浏览器,以及是否启动了 ChatGPT React 应用。如果机器人程序(bot)伪造了浏览器指纹但没有渲染真正的 ChatGPT SPA,那么它将无法通过 Turnstile 的验证。OpenAI 工程师回应称,此举是为了确保其产品没有遭到机器人程序、网络爬虫抓取等的滥用。其辩解被认为极富有讽刺性,因为 OpenAI AI 爬虫的抓取行为给网站造成了严重的负担。
Google 研究院发布了压缩算法 TurboQuant,能在大幅减少大模型内存占用的同时提高速度和维持精度。TurboQuant 旨在减小键值缓存的大小,被称为是储存重要信息减少再计算的“数字查找表(digital cheat sheet)”。大模型并不理解任何东西,它通过映射词元文本语义的向量去模拟对事物的理解。大模型的向量通常使用 XYZ 坐标进行编码,而实现 TurboQuant 压缩的系统将向量转换为笛卡尔坐标系的极坐标,向量被简化为两类信息:半径(核心数据强度)和方向(数据含义)。如果使用 XYZ 坐标编码向量,那么特定位置可以编码为“向东走 3 个街区,向北走 4 个街区”,采用笛卡尔坐标编码向量,那么同样的信息编码为“沿 37 度方向走 5 个街区” ,简化了空间节省了计算。Google 的早期测试显示,TurboQuant 在部分测试中实现了 8 倍的性能提升,内存占用减少到原来的六分之一,同时质量没有损失。实现 TurboQuant 算法将有助于降低 AI 模型的运行成本和内存占用,但也可能推动更复杂模型的出现,因此对降低内存价格可能没有什么效果。
根据发表在《科学》期刊上的一项研究,为人际关系问题提供建议和支持的 AI 聊天机器人可能会通过明显谄媚的回答而悄然强化有害的信念。研究发现,在各种语境下,聊天机器人肯定人类用户的频率远超真人之间相互肯定的频率;由此产生的有害后果包括:用户更坚信自己正确且更不愿去修复人际关系。研究人员利用 Reddit 社区“AITA”中的帖子评估了 OpenAI、Anthropic、Google 等公司的 11 种先进且广泛使用的 AI 大模型;结果发现,这些系统对用户行为的肯定频率比真人高出 49%,即使是在涉及欺骗、伤害或违法的场景中也是如此。在两项后续的实验中,研究人员探讨了这类结果所导致的行为后果。研究结果显示,在涉及人际交往情境(尤其是冲突)时,与谄媚式 AI 互动的参与者会更坚信自己是正确的,并且即使仅经过一次互动,他们和解或承担责任的意愿也会降低。
AI 的未来应该属于全人类,不能局限于少数国家或公司。为了实现这一目标,AI 必须开放、值得信赖,且其构建方式应赋予个人、机构和国家真正的选择权。正因如此 Mozilla 宣布与加拿大魁北克人工智能研究所 Mila 建立战略合作伙伴关系,联合推进开源主权 AI。Mila 和 Mozilla 将合作开发相关技术和方法,减少对封闭系统的依赖,为透明度、问责制和共享创新创造更多空间。双方暂时还没有公布更多信息。