solidot新版网站常见问题,请点击这里查看。
人工智能
Wilson(42865)
发表于2023年03月08日 23时43分 星期三
来自快乐基因
Google 和柏林科技大学的一组研究人员透露了可用于控制机器人的多模态 Embodied 视觉语言模型(VLM)PaLM-E,有 5620 亿个参数,融合了视觉和语言处理。当用户发出“高阶指令”,如“将抽屉里的米片拿过我”, PaLM-E 能为装备机械臂的移动机器人平台生成一个行动计划,并自行执行。它执行不同任务不需要预先或重复训练。消除数据预处理或注释给予了机器人更强大的自主控制。PaLM-E 是基于 Google 现有的大语言模型 PaLM,通过加入感觉信息和机器人控制使其有具身性(embodied) 。它能与处理语言的相同方式理解感觉信息。

人工智能
Wilson(42865)
发表于2023年03月08日 13时26分 星期三
来自火星超人
Meta 最近宣布了它的大语言模型 LLaMA,其参数规模从 70 亿到 650 亿参数不等,该模型的一大优势是能运行在单张显卡上。Meta 还没有开源 LLaMA,而是通过邀请制的方式出于研究的目的将源代码提供给社区。但 Meta 控制 LLaMA 访问的努力显然是徒劳的,有匿名用户通过 BT 种子公开了 LLaMA-65B——有 650 亿个参数的 LLaMA,容量为 220GB。它已被确认是真实的,已有用户在单张显卡上运行了 LLaMA,结果相当出色,这位用户使用的显卡是服务器级别的英伟达 A100 80GB。虽然模型遭到泄露,Meta 表示会继续与挑选的研究人员共享 LLaMA。