【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

新闻中心7个月前发布 admin
113 0 0

资讯

开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼

链接:https://news.miracleplus.com/share_link/10760

毋庸置疑,Meta 是开源世界的绝对核心,持续做出开源努力,如最近发布 Llama 2。然而木秀于林风必摧之,最近 Meta 因为开源陷入了「麻烦」。在 Meta 的旧金山办公室外,一群手举标语的抗议者聚集在一起,抗议 Meta 公开发布 AI 模型的策略,并声称这些发布的模型造成了潜在不安全技术的「不可逆转的扩散」。甚至有抗议者将 Meta 发布的大模型比作「大规模杀伤性武器」。这些抗议者自称为「concerned citizens」(关心某事的公民),由 Holly Elmore 领导。根据领英信息,她是 AI Pause(中止 AI)运动的独立倡导者。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

强化学习之父入局AGI创业!联手传奇程序员卡马克,放话不依赖大模型

链接:https://news.miracleplus.com/share_link/10759

传奇程序员卡马克 (John Carmack),与强化学习之父萨顿 (Richard Sutton)强强联手了,All in AGI。2030年向公众展示通用人工智能的目标是可行的。并且与主流方法不同,不依赖大模型范式,更追求实时的在线学习。两人在萨顿任教的阿尔伯塔大学机器智能研究所(Amii)特别活动上宣布了这一消息。萨顿会加入卡马克的AI创业公司Keen Technologies,同时保持在阿尔伯塔的教职。两人在活动中都承认,与拥有成百上千员工的大公司相比,Keen Technologies的团队规模很小。目前还在刚起步阶段,公司整个技术团队都到了现场——只有站着的这4个人。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4

链接:https://news.miracleplus.com/share_link/10758

对标GPT-4代码解释器,港中大最新研究放了个“大招”:他们开发了一个叫做MathCoder的大模型,数学能力直接在竞赛级“题库”Math上超过GPT-4。做到这一点靠的就是无缝集成代码的能力——在遇到数学问题时,它不仅能用自然语言推理,还能自动编写和执行代码来建模、推导公式与方程。这样的工作方式无疑和强大的GPT-4代码解释器一样。在实际评测中,MathCoder除了超过GPT-4,还顺利在MATH和GSM8K两大数据集上取得了开源LLM中的SOTA(打败了8月份才诞生的WizardMath)

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

百万网友围观DALL-E 3新玩法!钢铁侠特斯拉皆“中招”,强迫症友好,博主分享提示词

链接:https://news.miracleplus.com/share_link/10757

DALL-E 3被网友们玩出了新花样,你见过这样的钢铁侠和蝙蝠侠吗?身体部件被整齐地平铺在桌面上。最近这样一种玩法火了起来,相关的两篇博文吸引了近百万网友们的围观。这种风格叫做knolling,重点在于摆放整齐,也是不少产品摄影的表达方式。它不需要什么高超的摄影技巧,主打一个舒适。结果DALL-E 3一来,寻常物件都不在话下。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一

链接:https://news.miracleplus.com/share_link/10756

近日,又一款人工智能应用程序火了。这一次,飙升至 App Store 榜首的人工智能应用程序是EPIK,这是一款照片编辑应用程序,可以让用户生成怀旧的、90年代风格的自己的“年鉴”照片,作为其众多模板之一。

与其他最近流行的人工智能应用程序类似,EPIK 的工作原理是让用户首先上传一系列自拍照,然后 EPIK 使用这些自拍照生成复古年鉴照片,其中用户有不同的姿势、不同的外观和发型。

该应用程序来自 Naver 子公司韩国Snow Corporation,该公司还生产AI 个人资料应用程序 Snow。最近几周,随着来自世界各地的影响者开始在社交媒体上分享人工智能生成的照片,EPIK 在 App Store 上获得了关注。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

———————————————

推特

永不塌房的主播:Open Interpreter 化身虚拟主播美少女

链接:https://news.miracleplus.com/share_link/10755

由 Open Interpreter 提供支持的 VTuber,你可以通过 YouTube Live 与其聊天。

有价值数十亿美元的公司甚至都没能接近 “少数派报告” 中的人工智能愿景,哈哈。

HuggingFace 联创 Delangue评价 pi 不断使用 emoji 聊天:我们应该强烈反对并警告关于通过聊天机器人利用和放大用户的心理模式来实现拟人化的做法

链接:https://news.miracleplus.com/share_link/10754

Clement Delangue:

在过去,我曾参与过会话人工智能的开发,我认为根据目前的能力,我们应该强烈反对并警告关于通过聊天机器人利用和放大用户的心理模式来实现拟人化的做法。

几千年来,我们习惯于只能与其他人进行良好的交谈,这也是我们逐渐习惯于发展意见和感情(如友情或爱情)的方式。让聊天机器人听起来像是你的朋友或恋人,以尝试利用这种心理模式来增加使用率、保留率和技术盈利,这听起来容易误导人,而且非常危险。我更倾向于不过度做这种事,至少在我们有更多研究或研究风险(如大规模操纵)以及负面/正面心理影响的研究之前(如果你有任何相关信息,请随时分享)。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

MusicGen Streaming:无需等待 MusicGen 生成完整音频就可以开始聆听

链接:https://news.miracleplus.com/share_link/10753

MusicGen 的音频流式传输功能允许用户在第一块音频准备好时就开始播放音频,而不必等待整个音频生成完毕。通过这种方式,音频的延迟可以减少到仅5秒,提供了一个更快速的音频播放解决方案。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

用LLaVA锐评自己的长相:HyperWrite AI CEO Shumer 分享使用 LLaVA的记录

链接:https://news.miracleplus.com/share_link/10752

Matt Shumer:

请求LLaVA 1.5嘲笑我。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

———————————————

论文

MBR:通过最小贝叶斯风险镜头的现代生成技术

链接 :https://news.miracleplus.com/share_link/10751

这篇论文介绍了最小贝叶斯风险(MBR)解码,这是一种在机器学习系统中选择输出结果的方法。它不是选择概率最高的输出,而是选择风险最低的输出,即预期错误最小的结果。这个方法简单但很强大,增加了一些额外的成本在推理时间,但可以在各种任务的各种指标上提供可靠的几点改进,不需要额外的数据或训练。虽然MBR不常在自然语言处理(NLP)工作中使用,但这篇论文为应用MBR提供了理论支撑和具体建议。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

Think before you speak:使用停顿标记训练语言模型

链接:https://news.miracleplus.com/share_link/10750

这篇论文探讨了让语言模型在输出每个标记前操作更多隐藏向量的可能性。他们通过在输入前缀中添加可学习的暂停标记,并延迟提取模型输出直到最后一个暂停标记被观测,从而实现了这种操作。在具有不同参数和预训练设置的解码器模型上进行实验后,他们发现在推理和下游任务中,推理时间延迟可以提高模型的表现。这种延迟对于大模型尤其有效,例如具有1B参数的模型在某些任务上实现了18%的增益。此项工作提出了一系列关于应用延迟下一个标记预测作为新范式的未来研究方向。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

压缩大型语言模型:真相从不纯粹,也绝不简单

链接:https://news.miracleplus.com/share_link/10749

这篇论文对现有的大型语言模型压缩方法进行了重新评估。他们发现,尽管有些方法在压缩效果上取得了显著的成功,但在知识密集型任务上,所有剪枝方法都可能出现性能下降,且当前量化方法比剪枝更成功。此外,剪枝后的LLM即使在高度稀疏的情况下仍表现出很好的稳健性。他们提出了知识密集型压缩LLM基准,以重新定义压缩LLM的评价协议。希望这项研究能促进更优秀的LLM压缩方法的开发。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

RA-DIT:检索增强型双指令调优

链接:https://news.miracleplus.com/share_link/10748

这篇论文介绍了检索增强语言模型(RALM),它可以通过外部数据存储获取长尾和最新知识来提高语言模型的表现。但构建这样的模型是具有挑战性的。现有的方法要么对语言模型的预训练过程进行昂贵的修改,要么在事后将数据存储集成,这可能导致性能不佳。因此,他们提出了一种新的轻量级微调方法,名为检索增强双指令调谐(RA-DIT)。这个方法有两个步骤,一是更新预训练的模型以更好地利用检索到的信息,二是更新检索器以返回更相关的结果。通过这种方法,他们能够显著提高模型的性能,并最终得出一个在各种知识密集型学习基准上表现卓越的模型。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

关于数据课程中对比训练后大型语言模型的研究

链接:https://news.miracleplus.com/share_link/10747

这篇论文研究了如何通过对比后训练技术来调整大型语言模型,使其更符合人类的偏好。他们从不同能力的模型中自动创建偏好对,比如InstructGPT,ChatGPT和GPT-4。对比了SLiC和DPO与SFT基准的效果,发现DPO能提供明显的改进。还探索了一种数据课程学习方案,从简单的配对开始,逐渐过渡到更难的配对,这可以进一步增强模型的性能。最后,实验结果表明,对比后训练能显著提高大型语言模型的性能。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

战略评估:主体、评估者与社会

链接:https://news.miracleplus.com/share_link/10746

这篇论文探讨了算法在模糊概念评估中的应用,以及人们针对这些评估所采取的战略性回应。这些行为可能受到道德评判,包括描述为“作弊”或“诚实努力”。作者提出了一种模型,将评估视为一种战略互动,包含决策主体、评估者和社会三个相互作用的代理,它们各自有自己的目标和利益。这个模型对于理解战略性行为和评估的激励机制具有重要的理论意义。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

Agent相关

用于机器人自我建模和运动规划的高自由度动态神经场

链接:https://news.miracleplus.com/share_link/10745

这篇论文介绍了如何使用神经场模型让机器人自我建模其运动学,从而在缺乏经典几何运动学模型的情况下进行运动规划。这种方法只需要从2D图像中学习,这些图像上标注了摄像机位置和机器人配置。与现有的依赖深度图像或几何知识的方法相比,这种新方法具有更高的适用性。实验在一个7自由度的机器人测试设置上进行,自我模型实现了机器人工作空间尺寸的2%的Chamfer距离。该模型的能力还在一个运动规划任务中得到了展示。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

———————————————

HuggingFace&Github

Genai-stack

链接:https://news.miracleplus.com/share_link/10744

GenAI 应用程序堆栈可以让用户在此基础上立即开始构建自己的 GenAI 应用程序。

Rerun

链接:https://news.miracleplus.com/share_link/10743

可视化多模态数据流。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

Flappy

链接:https://news.miracleplus.com/share_link/10742

Flappy 是一个库,旨在简化使用大型语言模型 (LLM) 的 AI 应用程序和Agent的创建。

———————————————

投融资

李嘉诚投资近亿美元布局布局大模型

链接:https://news.miracleplus.com/share_link/10741

近期,李嘉诚领投了边缘AI计算公司Kneron耐能共计9700万美元的B轮融资。耐能表示,此次资金将用于加速先进AI的推进,特别关注汽车领域轻量级GPT的解决方案。为了推动AI应用快速落地,李嘉诚此前已经分别在2018年和2022年两次领投耐能。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

———————————————

学习

大模型推理 – LOP3指令详解及INT4转FP16/BF16分析

链接:https://news.miracleplus.com/share_link/10740

这篇文章主要讨论了NVIDIA在MoE大模型推理中使用的快速反量化技术,重点介绍了INT4快速反量化到FP16和BF16的实现原理。文章提到了LOP3指令的使用,以及在INT4到BF16转换时需要注意的细节,如魔数的选择和循环处理。总体而言,文章详细解释了这些技术在大模型推理中的应用和实现方式。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

脑洞大开,AI帮你完成情节创意,人人可以写故事

链接:https://news.miracleplus.com/share_link/10739

最近百度小说推出了AI写细纲的功能,一方面服务职业短篇作者,帮助大家根据简单想法生成细纲,快速完成构思;另一方面,也想让普通人来脑洞故事,体验AI创作的趣味。

团队设计了上百个标签,用户可以任选5个以内的标签自由组合,有的时候我们都不知道AI如何把这些标签组合成合乎逻辑的故事 (见图)。

选择好标签之后,AI会生成情节梗概以及细纲,不满意的话可以换一换或者修改。

这个功能期望激发创造者的想象力,写出更为与众不同的剧情。

【10月8日大模型日报合集】开放模型权重被指将导致AI失控,Meta遭举牌抗议,LeCun:开源AI社区如火如荼;对标GPT-4代码解释器!港中大让模型写代码解决数学难题,得分超越GPT-4;AI 应用程序 EPIK 凭借“年鉴”照片功能在 App Store 上排名第一;永不塌房的主播:Open Interpreter 化身虚拟主播美少女;MBR:通过最小贝叶斯风险镜头的现代生成技术压缩大型语言模型:真相从不纯粹,也绝不简单

讲解Attention is all you need – YouTube

链接:https://news.miracleplus.com/share_link/10738

– 视频介绍了一篇名为”Attention Is All You Need”的论文,作者提出了一种新的序列转换模型——Transformer。

– 传统的序列转换模型使用循环神经网络(RNN)进行编码和解码,但在处理长距离依赖关系时效果不佳。

– Transformer模型使用注意力机制来提高性能,可以直接关注输入序列中的特定部分,不需要多个隐藏状态的转换。

– Transformer模型由编码器和解码器组成,通过注意力机制将源语言句子和目标语言句子联系起来。

– 注意力机制通过计算键、值和查询之间的点积,然后进行softmax操作,选择与查询最匹配的键,并输出对应的值。

– Transformer模型的注意力机制减少了信息传递的路径长度,提高了性能。

原文:https://news.miracleplus.com/share_link/10761

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...