solidot新版网站常见问题,请点击这里查看。
人工智能
Wilson(42865)
发表于2025年03月25日 23时37分 星期二
来自蓝火星
AI 创业公司零一万物 CEO 李开复表示,在 AI 的部分领域中美之间的差距仅为三个月。他说,“以前我认为差距是六到九个月,而且是全方面落后。现在我认为,在部分核心技术上可能落后三个月,在某些特定领域实际上处于领先位置。”李开复称 DeepSeek 的成功表明中国在基础设施软件工程等领域领先。李开复还认为,美国限制向中国出口先进 AI 芯片是一把双刃剑,促使中国公司进行创新。

人工智能
Wilson(42865)
发表于2025年03月25日 21时26分 星期二
来自羊皮纸迷踪
AI 技术对电力的狂热需求可以上溯到 2012 年的 AlexNet。当时多伦多大学的 AI 研究员 Alex Krizhevsky、 Ilya Sutskever 和 Geoffrey E. Hinton 正在为图像识别竞赛 ImageNet LSRVC 开发一种卷积神经网络。在当时图像识别是非常有挑战性的。研究人员认为他们需要一个庞大的神经网络,该网络以首席研究员的名字命名为 AlexNet,它有超过 6000 万参数和 65 万个神经元。但一大问题是如此大的神经网络如何进行训练?他们的实验室里有几张英伟达 GTX 580 显卡,每张配备了 3GB 显存,但 AlexNet 太大没办法加载到单张显卡上。研究人员设法将训练阶段划分到两张并行工作的 GPU 上——一半神经元在一张 GPU 上,另一半在另一张上运行。AlexNet 以压倒性优势赢得了 2012 年的比赛,从此 AI 模型的规模不再受限于单张显卡了,而妖精也从瓶子里释放了出来。在 AlexNet 之后,越来越强大的 AI 模型需要成千上万张 GPU。根据 Electric Power Research Institute (EPRI)的报告,2010 年到 2020 年间数据中心的功耗相对平稳,原因是英伟达数据中心 GPU 的功耗同期提升了大约 15 倍,因此能保持数据中心功耗的稳定。到了 2022 年基于 transformer 的大模型的出现推动了数据中心功耗的大幅提升。大模型需要处理数百亿甚至数千亿个神经元,训练之后的推理阶段还需要处理大量数据。Open AI 在训练新模型时使用了超过 25,000 张英伟达 Ampere 100 GPU,持续了 100 天,耗电量 50 GW 时,足以满足一个中型城镇一年的电力需求。根据 Google 的数据,训练占 AI 模型生命周期总耗电量的四成,剩下的六成是推理。功耗的飙升促使科学家思考如何在不牺牲性能的情况下减少内存和计算要求。研究人员尝试了模型剪枝、量化等优化方法。

人工智能
Wilson(42865)
发表于2025年03月25日 16时08分 星期二
来自冰上斯芬克斯
Google 和计算机历史博物馆联合公布了 AlexNet 的源代码,代码发布在博物馆的 GitHub 账户上,采用 BSD 2-Clause "Simplified" 许可证。AlexNet 是一种卷积神经网络 (CNN),它在 2012 年发布时被认为改变了 AI 领域,代表着深度学习能做到传统 AI 技术无法做到的事情,在 AI 发展中具有里程碑意义。AlexNet 能以接近人类的正确率准确识别照片中的物体。它源自多伦多大学研究生 Alex Krizhevsky、Ilya Sutskever 及其导师 Geoffrey Hinton 的工作,证明深度学习能胜过传统的计算机视觉方法。Google 在 2013 年收购了研究团队创办的 DNNresearch 公司,从而拥有了其知识产权。