文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
热门评论
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
- 搞反了 (1 points, 一般) by Craynic 在 2025年06月25日18时46分 星期三 评论到 智能手机是人类的寄生物
- 中心思想归纳 (1 points, 一般) by 18611782246 在 2025年05月15日10时37分 星期四 评论到 研究发现要求 AI 聊天机器人给出简洁答案会显著增加幻觉可能性
- 希望能比印度猴子写得好 (1 points, 一般) by Craynic 在 2025年05月06日13时21分 星期二 评论到 微软 CEO 声称该公司三成新代码是用 AI 写的
想象一下你正在参加一场比赛。要完成它,你的身体要强壮,你的大脑要跟踪路线,控制你的步伐,防止你绊倒。对机器人也是如此。为了完成任务,它们需要精心设计的身体和“大脑”或控制器。工程师使用各种模拟改进机器人的控制并使其智能。但很少有方法可以同时优化机器人的设计。除非设计者是算法。
由于计算技术的进步,终于可以编写出同时优化设计和控制的软件程序,这种方法被称为协同设计。尽管有优化控制或设计的平台,但大多数协同设计研究人员还是不得不设计自己的测试平台,这些平台通常计算量巨大且很耗时。
为了解决这个问题,MIT 研究员 Jagdeep Bhatia 等人创建了名为 Evolution Gym 的 2D 协同设计软机器人模拟系统。他们在今年的神经信息处理系统会议上展示了这个系统。他们还在一篇新论文中详细介绍了该系统。
在 Evolution Gym 中,用彩色细胞或体素组成 2D 软机器人。不同的颜色代表了不同类型的简单组件——软材料或刚性材料,以及水平或垂直致动器。由彩色方块拼凑而成的机器人在类似电子游戏的环境中移动。因为它是 2D 的,程序设计很简单,不需要太多计算能力。
顾名思义,研究人员构建了该系统以模拟生物的演化过程。它不生成单个机器人,而是生成在设计上略有差异的机器人群体。该系统具有双层优化系统——外环和内环。外环是设计优化:系统针对给定任务(例如步行、跳跃、攀爬或捕捉东西)生成许多不同的设计。内环是控制优化。
由于计算技术的进步,终于可以编写出同时优化设计和控制的软件程序,这种方法被称为协同设计。尽管有优化控制或设计的平台,但大多数协同设计研究人员还是不得不设计自己的测试平台,这些平台通常计算量巨大且很耗时。
为了解决这个问题,MIT 研究员 Jagdeep Bhatia 等人创建了名为 Evolution Gym 的 2D 协同设计软机器人模拟系统。他们在今年的神经信息处理系统会议上展示了这个系统。他们还在一篇新论文中详细介绍了该系统。
在 Evolution Gym 中,用彩色细胞或体素组成 2D 软机器人。不同的颜色代表了不同类型的简单组件——软材料或刚性材料,以及水平或垂直致动器。由彩色方块拼凑而成的机器人在类似电子游戏的环境中移动。因为它是 2D 的,程序设计很简单,不需要太多计算能力。
顾名思义,研究人员构建了该系统以模拟生物的演化过程。它不生成单个机器人,而是生成在设计上略有差异的机器人群体。该系统具有双层优化系统——外环和内环。外环是设计优化:系统针对给定任务(例如步行、跳跃、攀爬或捕捉东西)生成许多不同的设计。内环是控制优化。
IBM 和三星声称他们在半导体设计方面取得突破。在旧金山举行的 IEDM(国际电子器件会议)的第一天,两家公司公布了一种在芯片上垂直堆叠晶体管的新设计。对当前的处理器和 SoC 而言,晶体管平铺在硅的表面上,电流从一侧流向另一侧。垂直传输场效应晶体管 (VTFET) 彼此垂直,电流也垂直流动。IBM 和三星称,这种设计有两个优点。首先它将允许绕过许多性能限制,将摩尔定律扩展到 IBM 现在的纳米片技术之外。更重要的是,由于电流更大,该设计减少了能源浪费。他们估计 VTFET 将使处理器的速度比采用 FinFET 晶体管设计的芯片快两倍或功耗降低 85%。IBM 和三星宣称,有朝一日,这一工艺可能会让手机充上一次电就能用整整一周。他们表示,它还可以使某些能源密集型任务(包括加密货币挖矿)更加节能,因此减少对环境的影响。
人类非常擅长根据 2D 图像理解它描绘的 3D 场景。人工智能代理则不然。然而需要与物理物体进行交互的机器——比如收割庄稼或者协助手术的机器人——必须能从它对 2D 训练图像的观察中推断出 3D 场景的特性。虽然科学家成功使用神经网络根据图像推断出 3D 场景的模型,但这种机器学习方法速度不够快,无法适用于很多现实世界的应用。MIT 等机构的研究人员展示的一项新技术能以比某些现有模型快 15,000 倍的速度从图像中展现 3D 场景。该方法将场景表示为一个 360 度的光场,一个函数描述了 3D 空间中流经每个点和每个方向的所有光线。光场被编码到一个神经网络中,可更快地从图像中渲染底层 3D 场景。
梅赛德斯奔驰成为首家满足 UN-R157 对 L3 自动驾驶系统法律要求的汽车公司。德国联邦汽车运输管理局 (KBA) 已批准了梅赛德斯的系统,为其国际推广铺平了道路——如果国家法律允许的话。德国在 2017 年制定了针对 L3 系统的道路交通法(StVG),成为自动驾驶立法方面的先锋。客户到 2022 年上半年将可购买配备Mercedes Drive Pilot 的 S级轿车,在交通拥堵或拥塞的情况下,在德国的适用高速公路路段上,有条件地使用自动驾驶模式以最高 60 公里/小时的速度行驶。戴姆勒和梅赛德斯-奔驰理事会成员、负责开发和采购的首席技术官 Markus Schäfer 表示:“我们多年来一直在努力实现自动驾驶愿景。通过这个基于激光雷达的系统,我们为车辆开发了一项创新技术,为客户提供独特、豪华的驾驶体验,并为他们提供最重要的东西:时间。经过当局的批准,我们现在取得了突破:我们是德国第一家将有条件自动驾驶投入量产的制造商。”尽管 Elon Musk 不断声称“完全自动驾驶”,特斯拉的系统仍然是 SAE L2,需要驾驶员监督(尽管有许多记录在案的案例没有这样做)。SAE 级别和 UN-R157 规范之间存在着一些差异。
还记得 IBM Watson,“危机边缘(Jeopardy)”节目的 AI 冠军? 2010 年的一项宣传活动称:“Watson 理解具有各种歧义和复杂性的自然语言。”然而正如我们在 Watson 随后在试图“用人工智能彻底改变医学”惨败时看到的,浮于表面的语言能力实际上并不同于真正理解人类语言。
自然语言理解一直是人工智能研究的主要目标。起初研究人员试图手工编程机器理解新闻故事、小说或人类可能写出的任何其他内容所需的一切。正如 Watson 所展示的,这种做法是徒劳的——不可能写下理解文本需要的所有不成文的事实、规则和假设。最近确立的一种新范式是:我们不建立显性知识,而是让机器简单地摄取大量书面文本并学习预测单词,自己学习理解语言。结果就是研究人员所说的语言模型。使用 OpenAI 的 GPT-3 之类的大型神经网络,这类模型可以生成非常像是出自人类之手的散文和诗歌,并且似乎可进行复杂的语言推理。
但是用来自数千个网站、书籍和百科全书的文本进行训练的 GPT-3 是否超越了 Watson 浮于表面的理解能力?它真的理解自己生成的语言并进行推理吗?AI 研究界在这个问题上分歧明显。此类讨论曾是哲学家的领地,但过去十年,人工智能已从学术泡沫中迸发进入现实世界,它对现实世界缺乏了解可能会产生真实的、有时甚至是毁灭性的后果。在一项研究中,研究人员发现 IBM Watson 提出了“多项不安全和不正确的治疗建议”。另一项研究表明,Google 的机器翻译系统在为非英语患者翻译医疗说明时出现了重大错误。
我们在实践中如何才能确定机器是否能理解?1950 年,计算机先驱图灵(Alan Turing)试图用他著名的“模仿游戏”回答这个问题,模仿游戏现在被称为图灵测试。一台机器和一个人都隐藏在视线之外,两者彼此竞争,努力仅仅通过对话让人类裁判相信他/它是人。如果裁判无法判断两者中哪个是人类,那么图灵断言,我们应该认为机器是在思考——实际上,是在理解。不幸的是,图灵低估了人类被机器愚弄的倾向。
自然语言理解一直是人工智能研究的主要目标。起初研究人员试图手工编程机器理解新闻故事、小说或人类可能写出的任何其他内容所需的一切。正如 Watson 所展示的,这种做法是徒劳的——不可能写下理解文本需要的所有不成文的事实、规则和假设。最近确立的一种新范式是:我们不建立显性知识,而是让机器简单地摄取大量书面文本并学习预测单词,自己学习理解语言。结果就是研究人员所说的语言模型。使用 OpenAI 的 GPT-3 之类的大型神经网络,这类模型可以生成非常像是出自人类之手的散文和诗歌,并且似乎可进行复杂的语言推理。
但是用来自数千个网站、书籍和百科全书的文本进行训练的 GPT-3 是否超越了 Watson 浮于表面的理解能力?它真的理解自己生成的语言并进行推理吗?AI 研究界在这个问题上分歧明显。此类讨论曾是哲学家的领地,但过去十年,人工智能已从学术泡沫中迸发进入现实世界,它对现实世界缺乏了解可能会产生真实的、有时甚至是毁灭性的后果。在一项研究中,研究人员发现 IBM Watson 提出了“多项不安全和不正确的治疗建议”。另一项研究表明,Google 的机器翻译系统在为非英语患者翻译医疗说明时出现了重大错误。
我们在实践中如何才能确定机器是否能理解?1950 年,计算机先驱图灵(Alan Turing)试图用他著名的“模仿游戏”回答这个问题,模仿游戏现在被称为图灵测试。一台机器和一个人都隐藏在视线之外,两者彼此竞争,努力仅仅通过对话让人类裁判相信他/它是人。如果裁判无法判断两者中哪个是人类,那么图灵断言,我们应该认为机器是在思考——实际上,是在理解。不幸的是,图灵低估了人类被机器愚弄的倾向。