2024-10-09
Llama31训练平均3小时故障一次;OpenAI 刷分秘诀被扒;A股三大指数跌涨不一 极新早报
分享到:

  这篇博客文章将介绍几个合成数据的生成与应用案例,并就其中一个进行深入探讨。

  可以创建一个包含指令模型(instruct model)和奖励模型(reward model)的流水线来实现这个需求。

  网友表示◆◆,自己在竞技场中如果遇到有的模型拒绝回答,他就会觉得模型弃权比赛◆■■★■,因此更愿意判另一个模型胜出。而且更清楚的回答格式,也能让人更容易找到信息。

  有人表示,真的很开心看到大模型因为过高道德边界而导致分数不高的情况。之前他为了用好这些道德感强的大模型(Claude■■■、Gemini 等),总是要精心设计每一个提示词,好心累。

  这不就和老师判卷是一个道理么?书写工整、格式清晰或者“多写点总没错”的卷子,总是能多捞点分数……OpenAI 原来是拿捏住了人类的心理啊。

  不过最终,Llama 3■★◆.1 团队保持了超 90% 的有效训练时间。只有三起故障需要人工大幅介入,其余的都自动化处理了★★◆■■◆。 ( 量子位 )

  让我们来看看如何实现这一目标。训练语言模型通常包括三个步骤:预训练★■■■★◆、微调和对齐(alignment)。

  比如,要让模型提高逻辑推理能力■■★、实现更好的代码生成和函数调用★■■◆◆■,或者提升阅读理解类任务的表现,都可以通过微调来实现。

  在这种情况下◆■◆★■,我们可以先让大模型完成任务,再使用这些数据指导小模型进行。

  哪怕后面 lmsys 做过一次声明,表示大家别只看总榜,还要更关注细分领域的情况。也没能让大家满意,不少人觉得 lmsys 就是从 OpenAI 那收钱了。

  相较于 Claude★★★◆■,它的记忆力更差■★★,过一会儿就会忘记上下文内容。以及 Claude 一次就能修好的 bug,换到 GPT-4o 那里,甚至需要 20 次、耗时 1 小时★■◆。

  适逢 Llama 3.1 模型刚刚发布,英伟达就发表了一篇技术博客■◆,手把手教你如何好好利用这个强大的开源模型★★◆◆,为领域模型或 RAG 系统的微调生成合成数据。

  尤其是 405B 开源巨兽 Llama 3★◆.1 最近正式上线★■★★,既可用于批处理和在线推理,也可以作为基座模型,进行特定领域的专门预训练或微调。

  2、AI绘画原创模型平台「liblibAI」完成数亿人民币股权投资◆★■,投资方为明势资本。

  2、GPT-4o mini 凭什么登顶竞技场★◆◆■◆?OpenAI 刷分秘诀被扒,原来奥特曼早有暗示

  Epoch AI 上个月刚刚发文预言「数据墙」迫近,结果英伟达转头就甩出了 340B 开源巨兽 Nemotron。

  一个人钻研的愈多★★◆■★■,他学习到的愈多★■■■,一个人学习到的愈多,他愈了解到他所知道的何其浅薄★★◆★。

  4、数字化营销系统服务商「创聚收科技」完成2000万人民币天使轮,投资方为复兴资本。

  泽景科技是一家智能HUD解决方案供应商★■,专注于提供座舱视觉方案,核心产品为HUD。产品线覆盖W-HUD、AR-HUD、 CMS◆★★、透明A柱★★★■、透明窗口显示等智能座舱相关领域。泽景致力于通过自主创新◆■◆★、正向研发,在提高汽车智能化体验的同时,让AR-HUD成为座舱交互的中枢◆◆★,从而提升驾驶的安全性。

  自我改进则是让同一个模型评判自己的推理过程■★■◆◆,常被用于进一步磨炼模型的能力。

  3◆◆★■★、英伟达最新技术分享:手把手教你用 Llama 3.1 合成数据改进模型!

  3、综合性供应链解决方案提供商「浚星供应链」完成3000万人民币A轮融资,投资方为复兴资本。

  扫码加入【极新】科技行业交流群■■■◆■,探索科技前沿趋势,本群适合创始人、CXO、行业高管。

  但在竞技场评分中★■◆■,GPT-4o mini 还是位居前列。 ( 量子位 )

  1◆◆◆★■、 Llama3.1 训练平均 3 小时故障一次,H100 万卡集群好脆弱,气温波动都会影响吞吐量

  更多干货分享敬请关注我们的公众号与视频号~超多精彩对话内容等待您的解锁!

  Llama 3◆◆★■★★.1、GPT-4 这种通用 LLM,一般需要互联网规模的数据★◆■■■。而特定领域的 LLM(如几何学★■■■、放射学、电信行业等)则需要注入相关的领域信息,这个过程被称为领域自适应预训练(Domain Adaptive Pretraining★■◆■★★,DAPT)◆◆★■◆■。

  要让 LLM 生成基于最新信息的有根据的响应,构建 RAG 流程十分重要,而且模型响应的准确性取决于流程的质量■★★★■■。

  除了要贴近相关领域◆◆◆■■★,另一种在预训练阶段使用合成数据的例子当属 Phi-1.5 模型,目的是注入逻辑推理能力■◆■。

  掌握了语言的一般结构后,下一步就是微调,让模型更好地遵循指令◆★、完成特定任务。

  先让模型对同一问题创建多个响应,然后让奖励模型对这些相应的质量进行反馈。这种方法属于从 AI 反馈中进行强化学习(Reinforcement Learning from AI Feedback, RLAIF)。(新智元)

  实际上,在 GPT-4o mini 刚刚发布时,奥特曼就暗示了这次特意的优化◆◆◆:

  实际上,合成数据在 AI 领域的应用已经有十多年的历程★◆,比如物体检测或分类系统中曾经的数据增强技术。

  也许你还对合成数据存在顾虑,或者不知道如何应用 LLM 驱动数据生成。或许,英伟达的这篇博客可以提供答案。

  知识蒸馏是将大模型的能力转移到较小模型的过程,但不是简单地在同一个数据集上训练两个模型,因为较小模型很难学习到底层数据的准确表征★★★。

  具体来看,在 419 次意外中断中■◆,148 次(30◆◆★■■■.1%)是由各种 GPU 故障(包括 NVLink 故障)引起的◆■★★,72 次(17.2%)可以具体到是由 HBM3 内存故障引起■★★◆◆◆。

  终于,官方晒出了一份完整数据,展示了 GPT-4o mini 参与的 1000 场 battle,包括在不同语言下和不同模型的 PK 情况。

  尤其是考虑到 Llama 3.1 有如此大的参数规模,加上丰富的 15★★■★■■.6T token 训练数据,非常适合用于数据生成★◆★■。

  Llama 3◆◆★.1 在为期 54 天的预训练期间,经历了共 466 次任务中断。其中只有 47 次是计划内的◆■,419 次纯属意外■■◆★,意外中 78% 已确认或怀疑是硬件问题导致。

  3、 英伟达最新技术分享★◆■◆■◆:手把手教你用 Llama 3.1 合成数据改进模型!

  浚星供应链是一家综合性供应链解决方案提供商,其业务集供应链规划设计★★、仓储管理◆◆、运输配送和信息服务于一体。

  2、GPT-4o mini 凭什么登顶竞技场?OpenAI 刷分秘诀被扒■★,原来奥特曼早有暗示

  这两天,lmsys 竞技场公布了一份充满争议的榜单■■★。其中才面世不久的 GPT-4o mini 和满血版并列第一,把 Claude 3■★◆.5 Sonnet 甩在身后。

  1、智能HUD解决方案供应商「泽景科技」完成战略投资,由众擎资本领投■■◆★★,架桥资本跟投◆★■■★。

  liblibAI是一家AI绘画原创模型平台,致力于激发原创AI模型、素材的创作◆★,提供更新◆■◆■,更全★■■★◆、更热门的素材■★■◆■■,并与各位AI绘画爱好者一同拓宽AI的边界■■◆◆★★。

  真实数据稀缺可能不再是问题了,Nemotron 9T token 的预训练预料中,98% 都是合成数据★◆★。

  A股三大指数今日涨跌不一◆◆★■■,截止收盘★■■◆★★,沪指涨0■★★★.03%■★,收报2891.85点★★◆■;深证成指跌0■◆.96%,收报8514★★★.65点;创业板指跌1★■◆◆.44%★★,收报1635■★★★.67点◆◆★★◆★。沪深两市成交额仅有5859亿元,较上周五缩量201亿元★■■◆。 ( 东方财富研究中心 )

  极新是垂直于产业AI的创投和行业研究媒体,致力于陪伴和记录科技企业进步和产业成长★◆★。已与多家平台和创新企业深度对话和合作■■■★★,包括华为云、阿里云、百度智能云★★■、金山云★★■、飞书■★■◆★★、火山引擎★◆★、钉钉、东软、Zoho、容联云★★★、百家云等平台企业,以及智谱AI■★■★■、百川智能■★★◆★、格灵深瞳、深势科技■■◆■、百图生科、瑞莱智慧、创客贴、生数科技等高成长公司。

  最后,我们希望确保模型响应的风格和语气与用户期望一致,例如听起来像对话◆★◆、具有适当的详细程度◆◆■■◆、复杂性◆■■★、一致性等。

  7月29日,两市震荡分化★★◆◆◆,沪指微涨,创指跌超1%。北向资金今日净卖出49.85亿元,已连续5天净卖出;全天成交941◆◆★◆■◆.72亿元,占A股总成交额的16★★◆★★.07%★★■。 ( 广州日报新花城 )

  用合成数据微调基座模型,可以更好地应用于实际场景。例如★◆★◆,在金融领域改进风险评估、在零售领域优化供应链★■★◆■■、在电信领域提升客户服务,以及在医疗领域改善患者护理等等。

  1◆◆、Llama3.1 训练平均 3 小时故障一次,H100 万卡集群好脆弱◆◆,气温波动都会影响吞吐量

  创聚收科技是一家数字化营销系统服务商■★◆◆◆★,该公司主要从事软件开发、软件销售★■◆、人工智能基础软件开发■★◆★◆◆、先享后付系统开发等相关业务。

  鉴于 H100 的 700W 高功耗和热应力◆★,出现这样的结果也并不意外。

  除了 GPU 外的另一半故障由众多因素导致■◆,比如软件 Bug、网络电缆等等◆◆。

  合成数据并不是「从无到有」地创造新信息★■★■★,而是对现有信息进行转换,生成不同的变体。

  不过 GPT-4o minni 也不是没有缺点。在数学任务上,它的表现就差了很多。

  Self-Instruct、WizardCoder■■◆◆★、Alpaca 等模型都通过创建特定领域的数据并进行微调■◆◆◆,来定向提升模型能力。