solidot新版网站常见问题,请点击这里查看。
人工智能
Wilson(42865)
发表于2024年08月18日 22时36分 星期日
来自记忆
英国巴斯大学和德国达姆斯塔理工大学的研究人员报告,ChatGPT 等大模型 (LLM) 无法独立学习或获得新技能,意味着它们不会对人类构成生存威胁。研究表明,LLM 具有遵循指令和精通语言的表层能力,但如果没有明确的指导,它们不具有掌握新技能的潜力。这意味着它们是可控的、可预测的和安全的。研究小组的结论是,在越来越大数据集上训练的 LLM 可以继续部署而不会有安全问题,但该技术仍然可能会被滥用。

人工智能
Wilson(42865)
发表于2024年08月18日 00时54分 星期日
来自环游黑海历险记
AI 学界将图灵测试视为智能的终结测试,然而图灵本人不是这么认为的,他将这一测试称为模仿游戏,将其作为与智能相关的一种简化的替代问题。然而当模仿游戏以图灵本人的名字命名之后,它被赋予了权威性,成为一代又一代 AI 研究人员追逐的目标。大模型就是这一目标的最新成果。大模型如 ChatGPT 所代表的 AI 在模仿人类上达到新的高度,以至于它的诞生在流行文化中被视为是一大转折点。但在技术层面上,大模型只是对数据的模仿,用 AI 研究员 Emily Bender 等人的话说就是“随机鹦鹉”。鹦鹉能流畅的重复类似人类的内容本身当然令人印象深刻。但它只是通过模仿伪装有智能,它依赖于训练数据,然后利用统计方法选择性的拟合数据,不可避免的会产生偏见和幻觉,这是它的特性而不是 bug。AI 的统计模型将我们的偏见编纂成法典,在计算客观性的伪装下重现它们。但为什么 AI 的模仿游戏备受科技巨头们的青睐?用马克思的话说,资本只关心商品的效用。简单来说,商品的包装比改进商品的使用价值对资本而言更为重要。但要实现真正的通用 AI,我们不能只着眼于模仿。