文章提交注意事项:
请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
solidot新版网站常见问题,请点击这里查看。
Solidot 公告
投 票
热门文章
热门评论
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
- 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
- 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
- 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
- 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
- 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
- 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
- 搞反了 (1 points, 一般) by Craynic 在 2025年06月25日18时46分 星期三 评论到 智能手机是人类的寄生物
- 中心思想归纳 (1 points, 一般) by 18611782246 在 2025年05月15日10时37分 星期四 评论到 研究发现要求 AI 聊天机器人给出简洁答案会显著增加幻觉可能性
- 希望能比印度猴子写得好 (1 points, 一般) by Craynic 在 2025年05月06日13时21分 星期二 评论到 微软 CEO 声称该公司三成新代码是用 AI 写的
Databricks 公司两周前发布了它的指令遵循(instruction-following)大语言模型 Dolly,本周三它发布了 Dolly 2.0——可授权商业使用的开源指令微调大语言模型。Dolly 2.0 有 120 亿参数,基于 EleutherAI pythia 模型家族,使用高质量的人类生成的指令遵循数据集进行微调。Databricks 开源了 Dolly 2.0 的整个系统,包括训练代码、数据集和模型权重,全都适合商业使用。而目前开源社区流行的 LLaMA 衍生模型使用的是非商业使用授权。
基于大语言模型的 AI 聊天机器人没有知觉也没有智能,但它们能逼真的模拟人类行为。斯坦福大学和 Google 研究院的六位计算机科学家在预印本平台 arXiv 上发表论文《Generative Agents: Interactive Simulacra of Human Behavior》,描述了他们开发的软件架构,运用大语言模型存储、合成和应用相关记忆去生成可信行为。
简单而言,他们将相关代码接入 ChatGPT 创造出某种生成式角色(generative agents),彼此之间使用自然语言文本通信进行互动和追求自己的目标。研究人员创造了 25 个角色,在一个类似《模拟人士》的沙盒世界里像人类那样生活、互动和制定计划。研究人员观察到,ChatGPT 之类的大语言模型编码了大量人类行为。如果给出足够狭窄的上下文提示,大语言模型能生成逼真的人类行为——这种自动化互动不再受限于特定的预编程问题和答案。
调试程序找出 bug 的过程是令人沮丧的,为什么不让 AI 来帮助你完成这个工作?一位用户名为 BioBootloade 的开发者创造出能帮助 Python 程序自我修复的程序 Wolverine。代码发布在 GitHub 上。使用 Wolverine下需要用户拥有 OpenAI 的 GPT-3.5 或 GPT-4 的 API key。GPT 3.5 API 目前开放给所有用户使用,但 GPT-4 的访问是受限的。
经济学家 Bryan Caplan 测试过基于 GPT 3.5 的 ChatGP,在他所教的劳动经济学课期中考试中 ChatGP 只拿到了 D,他打赌 AI 聊天机器人在 2029 年前不可能拿到 A。三个月后他就赌输了,GPT 3.5 的升级版本 GPT-4 得到了 A。现在知名量子计算专家 Scott Aaronson 用 GPT-4 测试了《量子信息科学入门 2019》期末考试,结果 GPT-4 得分 73 / 100,对比下学生的平均得分是 74.4,GPT-4 拿到了 B。他发现 GPT-4 最大的薄弱环节是在计算问题上,这非常讽刺性,它知道如何计算,但搞砸了计算的执行。
日本东京大学和上智大学等限制学生使用 ChatGPT 写报告或论文。ChatGPT 帮助撰写的文章存在著作权以及内容可能错误的问题,部分日本大学明确禁止学生使用,还有部分大学考虑将其作为信息获取工具允许在课上使用。东京大学在校内网上发布了对 ChatGPT 和可生成图像的生成式 AI 等相关见解。其中强调称“有关报告,前提是由学生本人制作”,表示教师方面有必要结合询问情况和笔试来确认报告是否为本人所作。日本东北大学表示“完全排除使用 AI 是不现实的”,指出 AI 数据中若包含第三方的著作品,可能会构成侵犯著作权。上智大学公布文件称报告或论文“不允许使用”,明确规定了禁用,并表示一经发现使用将严格处理。 京都大学校长凑长博在入学仪式上提醒学生:“用 AI 制作文章有包含明显错误信息的风险。”他还呼吁学生“自己写出可靠妥当的文章会锻炼精神力和思考力”。