我滴生活日记

您现在的位置是:首页 > 随笔日记 > 正文

随笔日记

燮乐培育钻石怎么样,质量差不差?真实性曝光

admin2024-03-25随笔日记396
燮乐培育钻石怎么样,质量差不差?真实性曝光燮乐培育钻石AU750,戒托,福利60分的钻,很闪很亮,很好看,款式选的基础款,怎么戴都好看,那种效果,不过真的很好看。不需要

燮乐培育钻石怎么样,质量差不差?真实性曝光

燮乐培育钻石AU750,戒托,福利60分的钻,很闪很亮,很好看,款式选的基础款,怎么戴都好看,那种效果,不过真的很好看。不需要考虑保值问题,天然钻也不保值。这个价格戴几年玩玩也是能开心好久好久的。质量非常好,与卖家描述的完全一致,非常满意,真的很喜欢,完全超出期望值

从ChapGPT到Sora,从千亿参数到千万长文本,大模型浪潮中不乏热点。近期,“基米概念股大涨”、“基米停机道歉”等词语刷爆微博,让刚刚成立一年的人工智能公司“月之暗面”进入了更多人的视野。更多的人。

3月18日,月之暗面宣布Kimi智能助手将启动200万字内测,点燃了各大厂商新一轮“内卷”热情。阿里巴巴直接将行业最高级别提升至1000万字。据透露,百度下个月将开放200万至500万个长度。 3月23日下午,360也凑热闹,宣布旗下500万字长文本处理功能正式内测。

去年我们还在研究参数,今年我们正在研究长文本/无损上下文。一个大的模式,让互联网巨头们都使出了浑身解数。可见,万物AI化的趋势是不可阻挡的。然而,数据领先只是暂时的理论成就。未来,解决问题的能力将是AI企业真正打造商业建筑的基础。

数据竞赛

与以往的参数竞赛不同,本轮大模型之间的竞赛不仅停留在数据层面,还涉及概念上的“拉扯”。

仅从数据表面层面来看,360和百度打的是“安全牌”,并没有贸然入手数据。 3月23日,360AI浏览器宣布其500万字长文本处理功能正式内测。根据用户反馈,浏览器现在可以一分钟阅读《三体》,并就文本之外的“过分”问题进行问答。延伸学习。 2月底,360AI浏览器已向用户免费开放100万字长文本阅读功能。

目前360AI浏览器PC版已可免费下载使用,手机版即将登陆上线各大移动平台。浏览器还支持视频、音频、网页、中英文论文等常见文档类型的处理,可以帮助用户自动总结要点、生成思维导图等。

百度还透露,下个月将对文心一言进行升级,届时还将开放长文本功能,文本范围在200万到500万之间。

与360、百度的“安全牌”相比,阿里巴巴打的是“重磅牌”。升级后,统一钱文直接向大家免费开放千万字长文档处理功能,成为全球最大的文档处理能力。人工智能应用。据悉,所有金融、法律、科研、医疗等领域的专业人士都可以通过同易钱文网和App快速阅读研究报告、分析财务报告、阅读科研论文、判断案件。

要知道,目前国外大头模型中,Open  AI的GPT-4Turbo上下文窗口是128,000个token,Google的Gemini1.5支持100万个token上下文。一个汉字通常相当于1-2个符号。仅从理论分析来看,360AI浏览器、闻心一言、通易千问的上下文窗口已经是这些大头模型的数倍大小。最初引发这场“战争”的月之暗面给出的数字是200万。虽然和之前的20万字相比已经是巨大的进步,但和阿里巴巴的1000万字相比,还是小巫见大巫。一个大魔女。

概念“拉”

对于数据差距,月之暗面有自己的想法。

首先,从概念上来说,《月之暗面》给出了200万字的无损上下文长度,并不是一个长文本。 “之所以不能称为‘长文本’,是因为输入的信息不仅仅是文本,还可以是图片、录音、视频、动作等多模态信息。”月之暗面负责人告诉记者,《华夏时报》快车。

此外,上述负责人指出,一些支持百万甚至千万字文档的产品通常不会采用无损长上下文窗口方案,而是采用一种名为检索增强生成(RAG)的方案。这种方法是从文档中搜索相关部分内容,然后将这些内容交给大模型进行推理。模型真实的上下文窗口长度,即实际输入到模型进行推理的内容,仍然在3万字左右(以目前市场上常见的32K上下文窗口模型为例)。 “用阅读来比喻,支持长上下文窗口的模型实际上是逐字阅读一本书,然后与你讨论书的内容; RAG解决方案阅读了几段摘录,然后与您讨论了书中的内容。讨论的深度和精确性自然是无与伦比的。”

一石激起千层浪。或许连月之暗面都没有想到,他的一个举动,竟然能引发这么多互联网巨头的竞争,再次在AI市场掀起涟漪。

《月之暗面》为200万字无损上下文能力提供了多种场景,确实吸引了很多尝鲜的用户:上传近百万字的完整中医诊疗手册,让kimi给出针对用户问题的诊断和治疗建议;上传NVIDIA过去几年的完整财务报告,让Kimi分析总结NVIDIA历史上的重要发展节点;上传数十万字的长篇经典德州扑克教程,让Kimi充当德州扑克专家,提供扑克策略指导……

由于大量用户涌入,系统流量持续异常增长。 3月21日,Kimi的App和小程序宕机。月之暗为此道歉。

有趣的是,在国内大机型都滚动长文本的同时,爱跨界的马斯克却还在滚动参数。 3月18日,马斯克旗下人工智能初创公司xAI正式推出发布开源大型模型Grok-1。其参数量达到3140亿,超过OpenAI  GPT-3.5的1750亿,成为迄今为止参数量最大的开源语言。模型。

艾媒咨询CEO兼首席分析师张毅告诉《华夏时报》记者,从参数之争到长文本之争的转变,本质上是一个更贴近用户使用和需求场景的大模型。 “目前长文本的主要应用领域集中在计划、合同、论文、法律文书、科普、小说、文本策划、广告创意等文本处理场景。”所以,当Kimi突然走红的时候,暴涨的概念股基本上都是影视传媒公司。截至3月22日收盘,慈文传媒已涨停,华策影视、掌阅科技、中广天泽均为三连涨个股。

商业价值待估算

除了点燃概念股之外,Kimi的跨越式升级也引发了业界对AI应用落地和商业化的期待。

平安证券发布研报表示,Kimi无损长文本模型的出现,解决了大模型应用中的诸多痛点,打开了大模型的应用空间。 AIGC的最终落地还需要找到合适的场景。 Kimi作为一个千亿级的大模型,可以支持复杂的运算,还可以接受和处理大文本,解决了大模型实际应用中的很多问题,其后续的商业化潜力将凸显。

那么,接下来要讨论的问题就是商业模式。

张毅总结道,GPT是用户通过付费的方式使用的,但国内大机型前期竞争如此激烈,很可能会走过去搜索引擎的路子。免费可能是主要方向。 “所以未来‘羊毛出自猪’可能会成为一种普遍现象。当然,垂直应用场景和个性化解决方案也是大范文未来的业务突破点。”

随着《Kimi》的走红,《月之暗面》自身的商业诉求也越来越强烈。该公司相关负责人向《华夏时报》记者透露,在高峰时段,Kimi会提示你等待等问题,并且有用户反映是否可以收费解决问题,因此公司将有一个今年初步计划。

商业化需求的背后是文本能力越强,成本越高的现实问题。上述负责人表示,当模型支持的上下文窗口长度更长、精度更高(信息更无损)时,模型推理的成本也会呈指数级增长。因此,月之暗面将会在工程上做一些创新性的探索,尽快找到解决问题的方法。降低成本,让更多有需要的用户体验超长无损上下文窗口能力。 “在检索增强生成(RAG)的情况下,模型本身的推理成本几乎不变,因为实际输入到模型的上下文窗口的长度没有改变。”

关于长文本带来的成本变化和商业化问题,《华夏时报》记者也采访了360。截至发稿,对方尚未给出回复。

但数据的竞争和商业化能力的表达,最终还是要落实在真实的应用和用户体验中。

在张毅看来,从某种意义上来说,如果应用体验足够好,大模型、长文本的商业应用场景是存在的。 “目前大型模型的智能化水平还有待提高。基于具体应用需求,国产大型模型与国外大头模型相比,在数据、文本、设计创新等方面还存在一定差距。长的发展格局未来,或许只是看看哪家企业能在这些方面表现得更好,能否形成更大的竞争力。”


发表评论

评论列表

  • 这篇文章还没有收到评论,赶紧来抢沙发吧~