文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
热门评论
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
- 搞反了 (1 points, 一般) by Craynic 在 2025年06月25日18时46分 星期三 评论到 智能手机是人类的寄生物
- 中心思想归纳 (1 points, 一般) by 18611782246 在 2025年05月15日10时37分 星期四 评论到 研究发现要求 AI 聊天机器人给出简洁答案会显著增加幻觉可能性
- 希望能比印度猴子写得好 (1 points, 一般) by Craynic 在 2025年05月06日13时21分 星期二 评论到 微软 CEO 声称该公司三成新代码是用 AI 写的
AI 创业公司零一万物 CEO 李开复表示,在 AI 的部分领域中美之间的差距仅为三个月。他说,“以前我认为差距是六到九个月,而且是全方面落后。现在我认为,在部分核心技术上可能落后三个月,在某些特定领域实际上处于领先位置。”李开复称 DeepSeek 的成功表明中国在基础设施软件工程等领域领先。李开复还认为,美国限制向中国出口先进 AI 芯片是一把双刃剑,促使中国公司进行创新。
AI 技术对电力的狂热需求可以上溯到 2012 年的 AlexNet。当时多伦多大学的 AI 研究员 Alex Krizhevsky、 Ilya Sutskever 和 Geoffrey E. Hinton 正在为图像识别竞赛 ImageNet LSRVC 开发一种卷积神经网络。在当时图像识别是非常有挑战性的。研究人员认为他们需要一个庞大的神经网络,该网络以首席研究员的名字命名为 AlexNet,它有超过 6000 万参数和 65 万个神经元。但一大问题是如此大的神经网络如何进行训练?他们的实验室里有几张英伟达 GTX 580 显卡,每张配备了 3GB 显存,但 AlexNet 太大没办法加载到单张显卡上。研究人员设法将训练阶段划分到两张并行工作的 GPU 上——一半神经元在一张 GPU 上,另一半在另一张上运行。AlexNet 以压倒性优势赢得了 2012 年的比赛,从此 AI 模型的规模不再受限于单张显卡了,而妖精也从瓶子里释放了出来。在 AlexNet 之后,越来越强大的 AI 模型需要成千上万张 GPU。根据 Electric Power Research Institute (EPRI)的报告,2010 年到 2020 年间数据中心的功耗相对平稳,原因是英伟达数据中心 GPU 的功耗同期提升了大约 15 倍,因此能保持数据中心功耗的稳定。到了 2022 年基于 transformer 的大模型的出现推动了数据中心功耗的大幅提升。大模型需要处理数百亿甚至数千亿个神经元,训练之后的推理阶段还需要处理大量数据。Open AI 在训练新模型时使用了超过 25,000 张英伟达 Ampere 100 GPU,持续了 100 天,耗电量 50 GW 时,足以满足一个中型城镇一年的电力需求。根据 Google 的数据,训练占 AI 模型生命周期总耗电量的四成,剩下的六成是推理。功耗的飙升促使科学家思考如何在不牺牲性能的情况下减少内存和计算要求。研究人员尝试了模型剪枝、量化等优化方法。
Google 和计算机历史博物馆联合公布了 AlexNet 的源代码,代码发布在博物馆的 GitHub 账户上,采用 BSD 2-Clause "Simplified" 许可证。AlexNet 是一种卷积神经网络 (CNN),它在 2012 年发布时被认为改变了 AI 领域,代表着深度学习能做到传统 AI 技术无法做到的事情,在 AI 发展中具有里程碑意义。AlexNet 能以接近人类的正确率准确识别照片中的物体。它源自多伦多大学研究生 Alex Krizhevsky、Ilya Sutskever 及其导师 Geoffrey Hinton 的工作,证明深度学习能胜过传统的计算机视觉方法。Google 在 2013 年收购了研究团队创办的 DNNresearch 公司,从而拥有了其知识产权。