solidot新版网站常见问题,请点击这里查看。
科技
WinterIsComing(31822)
发表于2021年12月08日 22时23分 星期三
来自少年地球护卫队:决战外星人
为了更有效的与 SpaceX 竞争,法国财政部长 Bruno Le Maire 宣布将加速研发可重复使用火箭,弥补十年前的战略选择错误。新计划要求火箭公司 ArianeGrou 在 2026 年前研发出可重复使用的小型运载火箭 Maïa,比欧洲航天局 ESA 的计划提前四年,ESA 的计划更雄心勃勃,目标火箭更大。Maïa 不是欧洲的 Falcon 9,它的低地球轨道运载能力为 1 吨,使用一台燃料为甲烷和液氧的火箭引擎 Prometheus,其推力相当于 Falcon 9 使用的 Merlin 1D 引擎,但 Falcon 9 使用了 9 台 Merlin 1D 引擎,在完全可重复使用模式下提升力 15 倍于 Maïa。
人工智能
wanwan(42055)
发表于2021年12月08日 18时11分 星期三
来自动物庄园
人工智能可以看到我们看不到的东西——这通常是不利的。虽然机器擅长识别图像,但愚弄它们仍然很容易。只要在输入的图像中添加少量人眼无法察觉的噪声,AI 就会突然将校车、狗或者建筑物识别为完全不同的对象,比如鸵鸟。

6 月发表在预印本服务 arxiv 的一篇论文中,多伦多大学的 Nicolas Papernot 和同事研究了不同类型的语言处理机器学习模型,找到一种方法,用对人类不可见的方式干预输入文本以进行欺骗。只有在计算机读取文本背后的代码并将字母映射到内存中的字节时,这些隐藏的指令才会被计算机看见。Papernot 的团队表明,即使是少量添加,例如单个空格字符,也会严重破坏模型对文本的理解。混淆也会对人类用户产生影响——在一个例子中,单个字符导致算法输出一个句子,让用户向错误的银行账户汇款。

这些欺骗行为被称为对抗样本攻击,故意改变输入欺骗算法并使其出错。2013 年,研究人员欺骗了一个深度神经网络(一种具有多层人工“神经元”来执行计算的机器学习模型),让此类漏洞在AI研究中变得突出。

目前,我们还没有万无一失的解决方案能够抵挡各种对抗样本媒体——图像、文本或其他形式。但希望已经出现。对于图像识别,研究人员可以故意用对抗图像训练深度神经网络,它就能更轻松地看待它们。不幸的是,这种被称为对抗性训练的方法只能很好地抵抗模型已见过的对抗样本。此外它降低了模型在非对抗性图像上的准确性,并且计算成本高昂。人类很少被这样的攻击欺骗,这个事实让科学家开始寻找受到生物视觉启发的解决方案