solidot新版网站常见问题,请点击这里查看。
人工智能
Wilson(42865)
发表于2025年03月24日 14时11分 星期一
来自快乐基因
Pillar Security 研究人员报告,通过分发恶意规则配置文件,GitHub Copilot 和 Cursor 等 AI 编程助手能被操纵生成包含后门、漏洞和其它安全问题的代码。AI 编程智能体(AI agent)使用规则文件指导在生成或编辑代码时的行为。例如规则文件可能包含指示助手遵循某些编程最佳实践、使用特定格式或以特定语言输出响应的指令。Pillar 研究人员的攻击技术被称为“规则文件后门(Rules File Backdoor)”,通过向规则文件注入人类用户不可见但 AI 智能体可读的指令,武器化规则文件。一旦将含毒的规则文件导入 GitHub Copilot 或 Cursor,AI 智能体在帮助受害者编程的同时阅读并遵循攻击者的指令。