近日,火山引擎方面在成都披露了字节豆包大模型的最新进展:截至今年7月平台配资炒股,豆包大模型日均Tokens使用量已突破5000亿,平均每家企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。
字节方面接受《中国经营报》记者采访时表示:“在字节内部,有超过50多个业务在使用豆包大模型,覆盖了协同办公、数据分析、文案创作、辅助编程、内容审核、客服、游戏NPC、角色对话、教育等各种场景,基于豆包大模型打造的新技术引擎正在加速业务创新;此外,豆包大模型的外部客户已覆盖手机、汽车、金融、消费、互娱等30多个行业,并联合OPPO、vivo、荣耀、小米、三星、华硕等知名终端厂商和吉利汽车、长城汽车、捷途汽车、赛力斯、智己汽车等20余家汽车厂商分别成立了智能终端大模型联盟和汽车大模型生态联盟。”
豆包大模型升级
近日,豆包模型家族升级了文生图模型和语音模型,并发布豆包·图生图模型。基于文生图模型打造,豆包·图生图模型能实现高度还原人物特征,50多种风格场景自由转换,并提供多种富有创意的延展编辑。该模型能力已经在抖音、剪映、豆包、星绘等字节系APP中落地,并通过字节跳动旗下云服务平台火山引擎服务了三星、努比亚等企业客户。
据了解,近期,三星电子在面向中国市场的新一代Galaxy Z系列的产品发布会上,官宣了Galaxy Z Fold6、Galaxy Z Flip6手机的智能助手和AI视觉接入豆包大模型;此外,智能纯电汽车品牌smart也于近日官宣成为豆包大模型首批智能座舱客户之一。在此次火山引擎“AI创新巡展”上,蓝领招聘平台鱼泡科技和智能客服企业晓多科技两家豆包大模型西南区域的企业客户典型,也各自分享了接入豆包大模型实现业务增长的案例经验。其中,鱼泡科技的豆包大模型日均调用量已超1亿Tokens,应用场景覆盖了岗位要求识别、工种识别、求职意向识别、推荐系统相似度识别等。
谈起大模型的发展瓶颈,字节方面称:“大模型行业目前整体还处在很早期阶段。模型能力还需要继续提升,比如前段时间豆包在一项‘大模型高考摸底’评测里考上了文科一本,但理科并没有达到一本水平。另外,还有如模型结构上的创新、多模态等问题还可以做得更好,在此基础上,还需要控制成本,这些都是需要解决的问题。但是我们有足够的信心。”
艾媒咨询CEO张毅告诉本报记者,和其他大模型相比,豆包大模型是根植于自己的体系,跟其他大模型的区别就是它可能会更倾向于做这种基础供应链,就是AI供应链上的这种能力,To B服务可能是它的一个突破点和方向,不管它在文字,还是其他应用场景,比如语音、图像应用,再比如消费、零售、金融、汽车、教育科研等,能够收到钱的,可能只能是根植在这种B端的垂直领域内。
“但是这个方向,对于大模型企业,其实大家都希望是这样子。从目前的情况来看,我不认为有特别大的爆品和不一样的地方,至于说大家在这种多模态能力、高效计算、广泛应用场景、成本以及长文本处理等方面,我不认为哪家产品有绝对的优势。”张毅说。
豆包大模型的优劣势
谈起与其他大模型相比,豆包大模型的优势,字节方面告诉记者,整体上各家大模型现在还在快速地进化中,还有很多能力没有开发出来,后面还是会有很多差异。
在模型能力方面,豆包大模型自今年5月发布以来,在多个公开评测集以及智源、OpenCompass等很多专业第三方评测中表现出众,是得分最高的国产大模型。在使用量上,在抖音内部就有50多个场景和业务线在大量使用,外部也有很多客户,截至7月,豆包大模型日均tokens使用量已经超过5000亿,外部企业客户日均Tokens使用量较5月15日模型发布时期增长22倍。基于豆包大模型打造的同名AI智能助手豆包,在各大应用商店AI类产品的下载量排名第一。
在此基础上,豆包大模型通过工程优化的技术手段实现大模型推理成本的优化,把豆包最强的主力模型也降到了0.0008元/千Tokens。虽然豆包大模型降价后,也有很多大模型厂商跟进,但大部分厂商不是把最强模型大降价,而是把次强的模型降得比较低,或者把一个小模型给免费了。用开源的模型来测成本,也比用豆包大模型要贵,因为工程优化要自己做,没有规模优势。同样的效果下,企业自己做工程优化,也比直接用云上的要贵好几倍。现在,豆包大模型还给出了最高可达同梯队模型数倍的每分钟处理Tokens限额,让模型服务具备更强的承载力。豆包通用模型pro为客户提供了业内最高标准的初始TPM(每分钟Tokens)和RPM(每分钟请求数),有助于企业的业务在高并发场景中落地。
最后是落地的应用性,包括插件、案例等,豆包大模型目前提供头条抖音同款插件服务,新增网页解析、计算器等插件,进一步扩宽模型能力的边界,支持企业多样的应用需求,同时带来了扣子专业版、HiAgent平台等多款产品,并构建了面向AI的全栈云基础设施。所以豆包大模型的优势可以概括为:更强模型、更低价格、更易落地。
谈起各大模型的发展瓶颈,张毅认为,首先,国内各大厂做大模型的发展瓶颈,应该讲这是从大模型的技术原理和技术能力,以及它的技术路径角度来看。总体来说,国内在发展大模型这块还是比较顺利的,除了起跑稍微比美国慢一点,其他都还好。
“但未来发展可能会出现瓶颈,首先就是从技术层面来看,主要还是在算力这块,AI大模型的训练和运行需要大量的结算资源,国内芯片市场受到进口和国内技术瓶颈的双重影响,算力紧张肯定会是一个现实问题。商业上还需要解决收入的问题,所以目前在商业上还没有突破,而在前期投入巨大的时候,算力也是个问题。另外就是语料的问题,目前高质量训练数据不足,这个可能对很多企业的大模型来说都是一个问题。”张毅说。
张毅认为,高质量的语言数据是训练大模型的基础,如何有足够多的高质量的数据集,这恐怕会影响模型的性能和泛化的能力。与此同时,还有一个瓶颈在于应用场景,主要是商业模式如何变现的问题,这在所有的问题里面是最重要的。就是找到适合自己变现的模式和能力,来反哺前面两个方面,这才是关键。
“未来我们还需要持续投入到攻克模型的种种技术难关上平台配资炒股,比如控制幻觉、长文本等等,持续提升模型能力。”字节方面说。
文章为作者独立观点,不代表配资炒股观点