开源“卷王”阿里云,投下“深水炸弹”
哈喽大家好,我是弘一。想用大模型做一个属于自己的AI应用,开源大模型是很多人的首选,因为用开源,一来不用重复造轮子,二来省成本,比如说在阿里云魔搭社区ModelScope平台上,仅用一句提示词,就可以创建自己的AI助手,然后再对通义千问开源模型进行微调,甚至可以做一些定制化开发。这就好比我们踩在了一个大模型巨人的肩膀上办事儿,省时省心又省力。
我们知道,自Meta发布了Llama2大语言模型以来,这个大模型的开源圈就热闹了起来,但要说国内能对标Llama(模型)的目前只有阿里云的通义千问。从8月到现在,阿里云陆续开源了通义千问70亿参数模型Qwen-7B、140亿参数模型Qwen-14B、720亿参数模型Qwen-72B和18亿参数模型Qwen-1.8B。
可以说,阿里云率先实现了国内开源模型的全尺寸套件,以远超业界的开源力度成了当之无愧的开源卷王,也为AI赛道的企业和开发者提供了更优的选项。
其实,企业选开源还是闭源,还是要看对自身的定位以及业务的场景需求。更重要的是,模型本身的能力怎么样,能不能帮公司解决问题、创造价值。 就拿通义千问720亿参数模型来说,它的性能就超越了开源标杆Llama2-70B以及大部分的商用闭源模型。
据了解,在10个权威测评中,它获得了开源模型的最优成绩。在部分测评中,它甚至超越了闭源的GPT-3.5和GPT-4。而且,Qwen-72B的上下文窗口长度也扩展到了32k,可以处理最多32k的长文本输入。在长文本理解测试集LEval上,它取得了超越ChatGPT3.5-turbo-16k的效果。
此外,研发团队还对Qwen-72B的指令遵循工具使用等技能作了技术优化,使得它能够更好地被下游应用集成。
开源的本质是为了更开放,更快速地迭代和发展。而这对一家企业的技术能力也提出了更高的要求,尤其是研发720亿参数级别的大模型也需要更高的技术水平。而在AI的投入上,阿里云其实一直在持续投入不断迭代,给个人开发者科研团队以及AI创业公司提供了更多的可能性,也形成了一个更丰富的开发者生态。
我们也相信,开源大模型将会给整个人工智能领域的发展带来更多的机会。一览弘观,与你有关,我们下期见。
@新媒体制作与运营:林晓@图文校对与视频后期:耿琪琪
原文标题:开源“卷王”阿里云,投下“深水炸弹”
华章智能亮相2023工博会,助推工业智造高速发展!
端侧AI大模型很可能是为5G而生?
东方通:“技术中间件行业安全”双轮驱动
秦淮数据,“绿色”大型数据中心样本
云端时代,谁掌控了增长密码?
拐点已至!你的企业“云原生”了吗?
聊聊广汽本田云原生的心路历程
不需主机畅玩,云游戏时代还有多远?
专注IoT移动应用软件开发连接物联网智能时代
本文地址:https://www.uel.cc/article/69626395a47710b26e08.html