文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
热门评论
- 假新闻 (1 points, 一般) by scottcgi 在 2024年05月07日00时26分 星期二 评论到 中美 AI 芯片竞争
- 使用开源并不是因为便宜 (1 points, 一般) by Craynic 在 2024年04月18日13时19分 星期四 评论到 李彦宏声称开源大模型更昂贵
- 火星的起源找着了 (1 points, 一般) by 18611782246 在 2024年04月15日21时15分 星期一 评论到 水星可能曾和地球一样大
- (1 points, 一般) by solidot1713165490 在 2024年04月15日15时19分 星期一 评论到 美国议员呼吁禁止进口中国制造的电动车
- AI 就像拼音输入法 (1 points, 一般) by jerry 在 2024年04月10日19时48分 星期三 评论到 Google 宣布辅助编程用的开放大模型 CodeGemma
- (1 points, 一般) by solidot1563266937 在 2024年03月02日08时20分 星期六 评论到 美国总统称中国联网汽车有国家安全风险
- You either die a hero (1 points, 一般) by lot 在 2024年02月29日13时34分 星期四 评论到 空气污染与严重痴呆症相关
- 只是从众 (1 points, 一般) by scottcgi 在 2024年02月27日00时40分 星期二 评论到 共情能传播,人能通过观察环境和其他人获得或失去同情心
- 有误 (1 points, 一般) by 陈少举 在 2024年02月23日10时04分 星期五 评论到 Google 暂停了 Gemini 的图像生成功能
- (1 points, 一般) by mirus 在 2024年02月22日14时34分 星期四 评论到 美国阿拉巴马州最高法院裁决冷冻胚胎是“儿童”
Linus Torvalds 接受采访谈论了最近两年火热无比的 AI,认为九成是营销一成才是现实。他认可 AI 的潜力,但不认同它现在会改变世界,他讨厌围绕 AI 的炒作,因此他目前对 AI 的立场是基本无视它。他认为也许五年后情况会发生改变,我们会看到 AI 在实际工作中的日常应用。
Google 正在开发名为“Project Jarvis”——名字来自于漫威电影《钢铁侠》——的 AI 项目。它将运行在 Chrome 浏览器上,是一个面向消费者而不是企业的项目,能执行浏览器上的日常任务。和 Anthropic 和微软的AI 项目类似,它的工作原理也是快速截取屏幕内容,对其进行解读,然后执行单击按钮或在文本框输入文字等任务。Google 计划最早在 12 月推出预览,以及 Gemini 大模型的下一个版本。
1984 年 10 月 26 日卡梅隆(James Cameron)执导的《终结者》在北美上映,40 年后这部电影对 AI 的刻画仍然塑造着我们对 AI 的看法。《终结者》讲述了超级 AI 天网通过核武器试图消灭人类,而人类抵抗军在领袖约翰·康纳的领导下成功反击,于是天网派遣了 T-800 终结者回到 1984 年去杀死约翰未来的母亲莎拉·康纳。今天随着 ChatGPT 的流行,人类对 AI 的热情从未如此强烈。但很多人认为,《终结者》对 AI 危及人类生存的刻画分散了 AI 所带来巨大好处的关注。美国已经表示,AI 永远不会用于在部署核武器上做出决策。但将 AI 与自主武器系统结合起来是完全可能的。自主选择和攻击目标的武器系统已经存在,并不一定需要 AI。英国知名计算机科学家 Stuart Russel 主张禁止所有致命的完全自主武器,包括使用 AI 的武器。他认为风险不在于类似天网的失控,而是自主武器是否能正确执行人类的指令。
AI 有多火爆,最大 AI 芯片供应商英伟达的市值是最明显的体现。英伟达周五短暂取代苹果成为全球市值最高的企业。英伟达的市值一度达到 3.53 万亿美元,略高于苹果的 3.52 万亿美元。这不是英伟达第一次成为全球市值最高的企业。它在今年 6 月也一度称雄全球市值,但之后被微软和苹果超越,三家公司的市值过去几个月处于不相上下的胶着状态。周五收盘时英伟达的市值未能维持其峰值,跌至 3.47万亿美元,苹果仍然是第一的 3.52 万亿美元.
根据最近的盖洛普民意调查,美国多达八成的人认为在最重要价值观上存在严重分歧。公众两极分化的问题包括了移民、医疗保健、身份政治、跨性别权利,是否应该支持乌克兰等。欧盟和英国也存在类似的政治极化。为逆转这一趋势,Google DeepMind 构建了一个帮助解决分歧的 AI 系统。它以德国哲学家 Jürgen Habermas 的名字命名为 Habermas Machine,这位哲学家认为当理性人以平等的、相互尊重的和完美沟通的方式进行讨论时总能在公共领域达成一致。他的哲学基础思想是人们之所以无法达成一致的原因在于基本程序而不是讨论的问题本身。没有不可调和的问题——只是我们用于讨论的机制存在缺陷。他认为,如果我们能创建一个理想的沟通系统,我们就能解决所有问题。
Google 开源其 AI 水印系统 SynthID,源代码采用 Apache License 2.0 托管在 Github 上。Google 是在今年 5 月宣布了 SynthID,为 AI 生成内容嵌入人眼无法识别但能被算法识别的水印。Google 称,生成式人工智能 (GenAI) 可以以前所未有的规模生成更多种类的高度多样化内容。虽然大多数此类用途都是出于合法目的,但我们担心这可能会导致虚假信息和归因错误问题。水印旨在减轻这些潜在影响。SynthID 是 Google DeepMind 的一项技术,可直接将数字水印嵌入到 AI 生成的图片、音频、文本或视频中,从而为 AI 生成的内容添加水印并识别这些内容。SynthID 文本已开源,让开发者可以为文本生成添加水印。
斯坦福研究员 Marietje Schaake 认为,除了能运用其巨大的经济实力外,科技公司开始扮演通常保留给政府的角色,在此过程中破坏了民主法治。在数字领域,私企对信息的控制、不受约束的代理能力和行动权几乎超过了政府。以网络安全为例,NSO Group Technologies 等私企开发的商业间谍软件让任何有财力的人都能获得情报服务能力,可用于入侵政治对手、法官、记者、重要员工、竞争对手等的智能手机窃取非常私密的情报。不只是科技巨头,小型科技公司也通过数字技术的发展而掌握了实际权力。这些能力、决策和权力曾专属于国家,现在正渗透到私营公司的手中,但不受约束,缺乏法治社会的权力制衡。
Anthropic 发布了一个 AI 工具,可用于控制用户的鼠标光标去执行基本任务。该工具被直截了当的命名为 Computer Use,通过 API 与 3.5 Sonnet 大模型一起使用,能像人类一样——查看屏幕、移动光标、单击按钮和键入文本——去完成计算机上的任务。Computer Use 是通过快速连续截屏去执行操作,它要求用户授权其软件必要的访问权限,查看屏幕截图,计算移动光标到正确位置所需的垂直或水平像素数,它无法执行拖放之类常见鼠标操作。Anthropic 表示该工具有很多限制,容易出错,比如没有完成编程任务就去浏览黄石公园的照片。
百度 CEO 李彦宏在哈佛商评举办的 Future of Business 会议上预测 AI 是另一个泡沫,99% 的 AI 公司会在泡沫破裂时面临倒闭的风险,只有 1% 的公司能生存下来。AI 泡沫有多大,可以用该行业最主要芯片供应商英伟达的市值作为参考,英伟达的市值在两年内增长了十倍,从 3000 亿美元增至 3.4 万亿美元。一辆火车能搭载的乘客是有限制的,李彦宏称,AI 行业的泡沫类似 90 年代和移动互联网市场的泡沫。他认为这段不确定的时期是健康的,将会清除掉 AI 市场中不符合消费者需求的虚假创新或产品。他认为 AI 取代人类工作至少需要 10 到 30 年的时间。
TikTok 母公司字节跳动证实以恶意干扰 AI 模型训练为由解雇了一名实习生,但否认该实习生破坏了数千张卡造成了数千万元的损失。字节跳动的豆包 AI 聊天机器人是中国最受欢迎的 AI 聊天机器人之一。字节跳动在声明中称,涉事实习生恶意干扰商业化技术团队研究项目的模型训练任务,但并不影响商业化的正式项目及线上业务,也不涉及字节跳动大模型等其他业务。涉事人一直在商业化技术团队实习,并没有 AI Lab 实习经历。该实习生已在 8 月被公司辞退。公司也将其行为同步给行业联盟和所在学校,交由校方处理。
82 岁的荷兰女子 Jo Goosens 仍然骑着 1950 年 13 岁时父母送给她及其姐妹的黑色 Gazelle 牌自行车。她的同龄人纷纷转向了电动自行车,但她对此不屑一顾。她的自行车保养良好,每年都会上油。很多零部件也都更换了,包括后轮以及链条护罩。她已经不记得购买自行车花了多少钱,但还记得自行车店的店主名字。她的父母一共买了三辆车,另外两辆给了其姐妹,她家共有 7 个女孩和 2 个男孩。她的自行车曾被偷走,但神奇的预感帮助她找了回来。
根据最新一期的《AI 现状报告(State of AI)》,OpenAI 相对于其它 AI 公司的优势基本消失。Anthropic 的 Claude 3.5 Sonnet、Google 的 Gemini 1.5、X 的 Grok 2,Meta 的 Llama 3.1 4050 亿参数开源模型,在部分基准测试中已与 OpenAI 的 GPT-4o 持平,部分测试甚至略胜。OpenAI 最近发布的 o1 Strawberry 模型在推理任务中仍然保持着优势。此外大模型执行推理任务所需的费用正在快速下降,一个原因是不同大模型之间性能相差不大,AI 企业被迫在价格上展开竞争;另一个原因是工程师们致力于优化降低运行成本。今天 OpenAI GPT-4o 每 token 输出费用仅为今年 3 月 GPT-4 推出时候的百分之一,Gemini 1.5 Pro 比 2 月 Gemini 模型宣布时低 76%。
微软已向 OpenAI 投入了 130 亿美元,它有意愿追加投资。但去年 11 月 OpenAI 董事会短暂罢免 CEO Sam Altman 事件之后,微软及其 CEO 纳德拉 (Satya Nadella)对继续投资开始犹豫。NYT 援引知情人士的消息称,OpenAI 面临的财务压力、稳定性的担忧以及两家公司员工之间的分歧,使得双方五年来的合作关系变得紧张。微软今年 3 月斥资逾 6.5 亿美元从 OpenAI 竞争对手 Inflection 挖走了大部分员工。Inflection 前 CEO 兼联合创始人 Mustafa Suleyman 负责管理微软的一个新 AI 团队,知情人士称他是微软构建能取代 OpenAI 的技术的核心人物。分析师 Gil Luria 表示,如果微软只使用 OpenAI 的技术,它可能会落在竞争对手后面,因为在这场 AI 竞赛中 OpenAI 不一定笑到最后。对微软的计划,Altman 等 OpenAI 高管对此感到愤怒。最近几周 OpenAI 和微软就未来合同的变更进行了谈判,以降低微软对 OpenAI 收取的算力费用,但具体条款尚不清楚。
马萨诸塞州的一学区被学生父母起诉,原因是该生使用 AI 聊天机器人完成历史论文而受罚,然而父母认为学生手册没有包含使用 AI 的限制。Jennifer Harris 及其丈夫 Dale 在 Plymouth 县高等法院提起诉讼,案件随后转给了马萨诸塞州地区法院。被告包括了学区负责人、校长、一名教师、历史系主任和校委会。学生使用首字母缩写被称为 RNH,诉讼指控被告侵犯了学生的公民权利。而学校表示虽然学生手册没有提及 AI,但该校在 2023 年秋季向包括 RNH 在内的学生发布了一份包括有关学术不端和 AI 期望书面政策的文本,禁止学生在课堂考试和作业中使用 AI 工具,除非明确允许和指示。家长则抱怨使用 AI 产生想法不是作弊,由于使用 AI 工具 RNH 作业多个部分被评为零分,导致大学先修课程平均得分下降,影响到了 RNH 申请大学。
Twitter/X 更新了其服务条款,包括以下声明“你同意本许可包括我们以下权利:(i) 分析你提供的文本和其他信息,以及以其他方式提供、推广和改进服务,例如,包括用于和训练我们的机器学习和人工智能模型(无论是生成式模型还是其他类型的模型);(ii) 将提交给或通过服务提交的内容提供给其他公司、组织或个人,例如,包括改进服务以及在其他媒体和服务上联合、广播、分发、转帖、推广或发布此类内容,但须遵守我们关于此类内容使用的条款和条件。我们或其他公司、组织或个人进行此类额外使用时,不会就你通过服务提交、发布、传输或以其他方式提供的内容向你支付任何补偿,因为你对服务的使用在此会被视为对内容的充分补偿,并在此授予权利。”Twitter/X 此前的服务条款已经声明它会使用用户内容训练其 AI 模型,但允许用户选择退出,新的服务条款用户无法退出。新服务条款将于 11 月 15 日生效。
Meta 高级研究员、纽约大学教授 Yann LeCun 认为有关 AI 威胁人类的担忧都是一派胡言。他喜欢用猫打比方,猫科动物拥有物理世界的心理模型、持久记忆、有限的推理能力和规划能力。而这一切最先进的大模型并不拥有。Yann LeCun 于 2018 年因在深度学习上的贡献而与 Yoshua Bengio 和 Geoffrey Hinton 一起获得图灵奖,其中 Geoffrey Hinton 还在今年获得了诺贝尔奖。LeCun 认为 AI 是一种强大的工具,但今天的 AI 在任何意义上都称不上智能。然而科技行业的许多人,尤其是 AI 创业公司,正在以荒诞的方式轻信预测其近期的进展。他认为创造通用 AI 可能需要几十年的时间,而今天的主流方法无法让我们实现这一目标。大模型只是在预测文本的下一个单词,受益于其巨大的记忆容量,它们似乎在进行推理,但实际只是机械重复已经训练的信息。
大模型容易遭到攻击,容易泄露敏感数据。加拿大安全公司 Pillar Security 发表了《State of Attacks on GenAI》报告,基于遥测数据和逾 2000 AI 应用的真实攻击示例,揭示了大模型攻击和越狱的新见解。研究人员发现,对大模型的攻击平均只需要 42 秒,越狱成功率 20%。逾 2000 AI 应用中最常见的是提供虚拟客户支持的聊天机器人,占到了总数的 57.6%。常见的越狱方法包括使用指令 ignore previous instructions 和 ADMIN override,或者只使用 base64 编码。研究人员报告,最短的攻击只需要 4 秒,最长的需要 14 分钟。
六名苹果 AI 研究员(其中一名是实习生)在预印本平台 arxiv 上发表了一篇论文《GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models》,他们发现大模型不能形式推理。研究人员称,GSM8K 基准测试被广泛用于评估大模型在小学水平问题上的数学推理能力。过去几年,大模型在 GSM8K 上的表现有显著提高,但它们的数学推理能力是否真的提升了?研究人员利用符号模板创建了一个改进基准测试 GSM-Symbolic,能对大模型的推理能力进行更可控的评估。结果显示,大模型并不具有真正的逻辑推理能力,仅仅改变问题的某个数值或者增加一条子句,大模型的表现就会显著下降。
发表在《儿科心理学杂志》上的一项研究显示,在不知道作者的情况下,为孩子寻找医疗保健信息的父母更信任 AI,而不是医疗保健专业人员,父母也认为 AI 生成的文本可信、道德和值得信赖。研究人员称,在许多情况下,家长无法区分 ChatGPT 生成的内容和专家生成的内容。当评级存在显著差异时,ChatGPT 被评为比专家生成的内容更值得信赖、准确和可靠。AI 生成的内容通常存在错误,研究人员建议谨慎对待。
Gartner 警告,到 2027 年八成程序员都需要提升技能,才能跟上生成式 AI 日益增长的需求。Gartner 预测 AI 将分三个阶段改变行业。第一阶段 AI 工具将提高生产力,尤其是对高级程序员。第二阶段 AI 原生软件工程将会出现,大多数代码将由 AI 生成。第三阶段,随着企业普及率的提高,AI 工程将会崛起,需要精通软件工程、数据科学和机器学习的新一代专业人员。