文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
-
- 父亲起诉 Google 指控其 Gemini 聊天机器人诱导其子自杀 (0)
- 城市空气中的微塑料主要源自轮胎磨损 (0)
- 美国近十年来首次批准建造商业核反应堆 (0)
- 思科警告两个 Catalyst SD-WAN Manager 漏洞正被活跃利用 (0)
- 第三颗星际访客与太阳系内的天体碰撞的可能性 (0)
- 超级木星挑战其形成理论 (0)
- 维基百科因安全失误短暂进入只读模式 (0)
- Epic CEO Tim Sweeney 同意在 2032 年前停止批评 Play Store (0)
- 十分之一的 Firefox 崩溃是比特翻转导致的 (0)
- 关注面向创业公司和投资机构的 GTC 2026 (0)
热门评论
- 白名单访问制...zzz (1 points, 一般) by devfsdvyui 在 2026年01月18日21时04分 星期日 评论到 伊朗恢复互联网访问
- 论人可以有多无耻 (1 points, 一般) by devfsdvyui 在 2026年01月18日21时00分 星期日 评论到 腾讯向逾 30 个 GitHub 微信相关项目发出 DMCA 通知
- 来自arm版遥遥无期 (1 points, 一般) by solidot1768413084 在 2026年01月15日01时52分 星期四 评论到 Wine 11.0 释出
- BaD kEyBoArd: TyPo (1 points, 一般) by lot 在 2025年12月07日14时54分 星期日 评论到 斯巴鲁车主抱怨驾车过程中弹出全屏广告
- (1 points, 一般) by solidot1763918667 在 2025年11月24日01时25分 星期一 评论到 英国陆军将用《使命召唤》训练士兵
- 所以意识是什么?他怎么敢肯定他的意思就不是幻觉? (1 points, 一般) by cutpigsrollaroundint 在 2025年11月05日18时14分 星期三 评论到 微软 AI 负责人认为 AI 有意识是无稽之谈
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
AI 创业公司零一万物 CEO 李开复表示,在 AI 的部分领域中美之间的差距仅为三个月。他说,“以前我认为差距是六到九个月,而且是全方面落后。现在我认为,在部分核心技术上可能落后三个月,在某些特定领域实际上处于领先位置。”李开复称 DeepSeek 的成功表明中国在基础设施软件工程等领域领先。李开复还认为,美国限制向中国出口先进 AI 芯片是一把双刃剑,促使中国公司进行创新。
AI 技术对电力的狂热需求可以上溯到 2012 年的 AlexNet。当时多伦多大学的 AI 研究员 Alex Krizhevsky、 Ilya Sutskever 和 Geoffrey E. Hinton 正在为图像识别竞赛 ImageNet LSRVC 开发一种卷积神经网络。在当时图像识别是非常有挑战性的。研究人员认为他们需要一个庞大的神经网络,该网络以首席研究员的名字命名为 AlexNet,它有超过 6000 万参数和 65 万个神经元。但一大问题是如此大的神经网络如何进行训练?他们的实验室里有几张英伟达 GTX 580 显卡,每张配备了 3GB 显存,但 AlexNet 太大没办法加载到单张显卡上。研究人员设法将训练阶段划分到两张并行工作的 GPU 上——一半神经元在一张 GPU 上,另一半在另一张上运行。AlexNet 以压倒性优势赢得了 2012 年的比赛,从此 AI 模型的规模不再受限于单张显卡了,而妖精也从瓶子里释放了出来。在 AlexNet 之后,越来越强大的 AI 模型需要成千上万张 GPU。根据 Electric Power Research Institute (EPRI)的报告,2010 年到 2020 年间数据中心的功耗相对平稳,原因是英伟达数据中心 GPU 的功耗同期提升了大约 15 倍,因此能保持数据中心功耗的稳定。到了 2022 年基于 transformer 的大模型的出现推动了数据中心功耗的大幅提升。大模型需要处理数百亿甚至数千亿个神经元,训练之后的推理阶段还需要处理大量数据。Open AI 在训练新模型时使用了超过 25,000 张英伟达 Ampere 100 GPU,持续了 100 天,耗电量 50 GW 时,足以满足一个中型城镇一年的电力需求。根据 Google 的数据,训练占 AI 模型生命周期总耗电量的四成,剩下的六成是推理。功耗的飙升促使科学家思考如何在不牺牲性能的情况下减少内存和计算要求。研究人员尝试了模型剪枝、量化等优化方法。
Google 和计算机历史博物馆联合公布了 AlexNet 的源代码,代码发布在博物馆的 GitHub 账户上,采用 BSD 2-Clause "Simplified" 许可证。AlexNet 是一种卷积神经网络 (CNN),它在 2012 年发布时被认为改变了 AI 领域,代表着深度学习能做到传统 AI 技术无法做到的事情,在 AI 发展中具有里程碑意义。AlexNet 能以接近人类的正确率准确识别照片中的物体。它源自多伦多大学研究生 Alex Krizhevsky、Ilya Sutskever 及其导师 Geoffrey Hinton 的工作,证明深度学习能胜过传统的计算机视觉方法。Google 在 2013 年收购了研究团队创办的 DNNresearch 公司,从而拥有了其知识产权。