文章提交注意事项:
                
                请在发布文章时用HTML代码加上至少一条新闻来源的链接;原创性消息,可加入相关信息(如涉及公司的网址)的链接。有任何问题,邮件至:he.fang#zhiding.cn
                
                注意:收到邮件乱码的用户请修改客户端的默认字体编码,从"简体中文(GB2312)"修改为"Unicode(UTF-8)"。
            
        
		solidot新版网站常见问题,请点击这里查看。    
Solidot 公告
投 票
热门文章
热门评论
- 不完备定理无法证明不是模拟 (1 points, 一般) by scottcgi 在 2025年11月01日11时26分 星期六 评论到 数学证明否定宇宙是模拟的
 - 样本数太少 没有参考意义 (1 points, 一般) by Craynic 在 2025年09月22日13时13分 星期一 评论到 梵蒂冈的 Flathub 软件包人均安装量最高
 - 杞人忧天 (1 points, 一般) by cnma_001 在 2025年08月15日12时04分 星期五 评论到 你一生中被小行星砸到的概率
 - 垃圾Paypal... (1 points, 一般) by devfsdvyui 在 2025年07月17日20时13分 星期四 评论到 Valve 在支付公司压力下移除部分成人游戏
 - 建议下次不要用动漫这种容易误解的词 (1 points, 一般) by solidot1550041775 在 2025年07月09日15时24分 星期三 评论到 Netflix 称其全球订户有五成看动漫
 - 所以应该吃生肉吗 (1 points, 一般) by Craynic 在 2025年07月09日13时25分 星期三 评论到 研究称加工肉没有食用的安全量
 - 居然只有95% (1 points, 一般) by Craynic 在 2025年06月30日13时03分 星期一 评论到 日本争议夫妇别姓法案
 - 搞反了 (1 points, 一般) by Craynic 在 2025年06月25日18时46分 星期三 评论到 智能手机是人类的寄生物
 - 中心思想归纳 (1 points, 一般) by 18611782246 在 2025年05月15日10时37分 星期四 评论到 研究发现要求 AI 聊天机器人给出简洁答案会显著增加幻觉可能性
 - 希望能比印度猴子写得好 (1 points, 一般) by Craynic 在 2025年05月06日13时21分 星期二 评论到 微软 CEO 声称该公司三成新代码是用 AI 写的
 
					印度总理莫迪(Narendra Modi)接受该国亚洲国际新闻社(ANI)采访时表示利用 AI 制定了 25 年发展蓝图。他的团队收集了 150 万人的意见,然后用 AI 精炼和分类。莫迪正寻求连任,竞选第三个总理任期,预计会轻松获胜。他没有透露发展路线图的细节,表示会在大选之后实施。他领导的印度人民党周二公布了竞选宣言,承诺利用 AI 打击非法毒品贸易,改善交通管理。其中包括投资 12.4 亿美元支持 AI 发展,构建基础设施,建造至少有 1 万个 GPU 的超算,以及推动构建本土大模型,等等。
                
            
					中科院深圳先进技术研究院、北大、中科大以及零一万物等学术机构和企业的研究人员最近推出了 COIG-CQIA 中文高质量指令微调数据集,旨在为中文自然语言处理社区提供高质量且符合人类交互行为的指令微调数据。他们的测试发现弱智吧的语料表现最出色。论文主要作者、深圳先进技术研究院研究生白岳霖澄清,他们只使用了弱智吧的标题,没有使用用户评论,“因为我们的目标是构建符合大模型指令微调质量需求的数据,而贴吧中网友的评论通常不适合直接作为微调数据,因此我们并没有将‘弱智吧’网友的评论纳入我们的数据中。”论文通讯作者、加拿大滑铁卢大学博士生张舸进一步解释:“‘弱智吧’中网友们绞尽脑汁想出来的‘弱智问题’,的确为大模型提供了角度清奇的高质量指令。但是帖子的回答,却有很多冒犯性表述甚至事实性错误,许多回答就是抖机灵、玩梗的,而GPT-4的回答基本上都‘很正经’,经过人工筛选基本上能得到较为可靠的回答。”
                
            
					法国 AI 创业公司 Mistral 宣布了其最新的开放大模型 Mixtral 8x22B,公布的测试显示它是目前最先进的开放模型。Mistral 称 8x22B 是真正开放的模型,使用 Apache 2.0 许可证,允许任何人不受限制的使用。它是一种稀疏 Mixture-of-Experts (SMoE)模型,有 1410 亿参数,但活跃参数仅为 390 亿,在其规模下提供了无与伦比的成本效率。Mixtral 8x22B 的优点包括:精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,原生能函数调用,64K 令牌上下文窗口。