触屏版 您好,欢迎浏览广州中央空调回收,二手中央空调回收,旧空调回收,制冷设备回收,冷气机组回收公司-广州益夫制冷设备回收公司
广州中央空调回收,二手中央空调回收,旧空调回收,制冷设备回收,冷气机组回收公司,冷水机组回收,二手空调回收

产品中心

当前的位置:首页 > 新闻动态
广州制冷设备回收公司:280万大模型中文开发者拿到最后一块拼图
发布时间:2024-11-04 11:21

2023年5月,微软CEO纳德拉抛出一个惊人数字,未来全球的开发者数量即将达到10亿。

那时候Meta的Llama早已开源4个月,但一些中国的开发者显示,从小以英文语料喂养起来的Llama,对中文天下并不友好。

这将来的“10亿”开发者里会有多少中文开发者,这个问题难以推测,但至少早已有755万人了。

图源备注:图片由AI生成,图片授权服务商Midjourney

755万人,这是2023年在GitHub上注册的我国程序员数量,当今的程序员一定会是将来大模型的第一批开发者。

大部分人已经是了。

在浙江省电力设计院工作的陶佳,尝试用一个开源的大模型来做基于私有知识库的检索问答类应用。他所面对的场景很突出,经常需要从几十万甚至上百万字的文档中查找内容。陶佳的专注是电力系统控制优化,里面有一些混入了传统数学方法和AI方法的领域,因此对AI有基本认识,也从去年底就一直在关注着这波大模型的浪潮。

他试了几款,试下来通义千问是最好的。“确切,而且‘手感’很好,没有那些独特古怪的bug”,他说。

要做的事也很简单。有一些基本的软硬件基础后,在家里买个服务器、扔三四块显卡上去,下载通义千问、让它在服务器上运行,再搞个FRP反向代理,从阿里云上买最便宜的30多块钱一个多月的服务就行,这样就能经过外网访问家里的服务器,在单位里也能用通义千问做实验。

当一个开源生态开始成型,这样的开发者也进一步变多。

开始闭环的开源生态

陶佳对大模型最深处的祈盼来自一个终极问题:人类能否成为上帝?

美国的将来学家库兹韦尔在2023年早已提出过这种没准性。库兹韦尔的想象里,人类到2030年将抑或成为半机器人。通过在脑中植入纳米机器人,人类将可能干脆接入互联网,智力将变得更高,并且将拥有幽默、音乐和爱等欢愉的天赋和能力。人类将成为像上帝相仿的完美存在。

那一年OpenAI刚才建立,但8年前库兹韦尔的设想放到目前依旧有同样的地方,只但是当下看起来好像在一个机器人(Agent)中添加意识和人性,这条路好像更近点——也就是AGI。

但哪怕技术是爆炸、是跃迁式的,正在离AGI还很远。如若说AGI会再造一个新的天下,那现时人类对大模型的期望,依然是在现实基础上改造全国。而这首先需要建立在我们知道这个地球是什么形状的,哪里需要被改造。世界真实的声音需要被听到,建立一条通道异常要紧。

大模型时代的开源,意义就在这里。来自不同现实场景,又具有代码能力的人们需要一个广场,来让技术主动和场景对齐,然后具有代表性的产品才没准显示。

这个广场要供大家互动用,还要有丰盛且价格合适的算力资源,同时也需要足够充足的可调用模型来做选择。开发者要的是这样一个闭环的开源生态,通义千问的特长开始出现出来。

算力是关于大模型所有想象力的基础。通义千问背后的阿里云占有我国最强的智能算力储备算作基础设施支持。其智算集群可达最大十万卡GPU规模,这意味着在阿里云上可以承载多个万亿参数大模型同时在线训练,为大规模AI集群供给无拥塞通讯的自研RDMA网络架构和低成本高可靠的高性能存储CPFS。

而在4月,阿里云在推出通义千问的同时,也公布了史上最大幅度的一次降价,对比上一代主售产品最高可下降40%的同时,还开放了计算、存储、数据库、机器学习等核心产品免费试用的机会。这为大批新涌入的AI开发者供给了测验和试错的机会。

在阿里云的算力支撑下,像陶佳肖似的开发者开始带着“野心”涌入魔搭社区。

去年11月的云栖大会上,阿里云与CCF开源发展委员会合伙推出AI模型社区“魔搭”ModelScope,在社区上线同时贡献了300多个AI模型,全面开源开放,其中超过1/3为中文模型。上线一年后,魔搭社区上的AI开发者数量早已超过280万人,AI模型超过2300+,下载超过1亿+。

随着大模型的热潮转向Agent,魔搭社区在今年9月推出了AI Agent开发框架ModelScope-Agent,并且搭建了一个“打样产品”ModeScopeGPT,它允许调用社区里众多AI模型的API,然后自主达成人类布置的任务。这个ModeScopeGPT 的调用量曾经超过了40万次。

除了通义千问之外,Llama2、智谱AI、百川智能甚至最新推出大模型的零一万物等近百款开源模型而今都已经进入社区。并且“而今大陆有一半大模型公司跑在阿里云上”,阿里云CTO周靖人在2023年云栖大会上这样说的时候,魔搭早已是眼前中国规模最大、用户最活跃的AI模型开源地。

当下加入的参数量

12月1日,阿里云举行通义千问发布会,开源了通义千问720亿参数模型Qwen-72B。在参数量上这是当今大陆主流视线中最大的开源大模型,而在能力上,Qwen-72B的性能已经在测验中超越开源标杆Llama2-70B。

Qwen-72B的训练基础是3T tokens的高品质数据,它采用了更多的参数和训练数据,实现了全面的性能抬高。这个模型延续了通义千问预训练模型的卓越展示,在10个权威测试中取得开源模型中的最佳成绩,并在某些评测中超越了非公开的GPT-3.5和GPT-4。

在英语任务方面,Qwen-72B在MMLU基准尝试中获得开源模型中的最高分。在中文任务中,它在CEVAL、CMMLU、Gaokao等评测中领先,甚至超过了GPT-4。在数学推理领域,Qwen-72B在GSM8K、MATH评测中远超其他开源模型。同时,在代码理解任务上,经过HumanEval和MBPP评测,Qwen-72B映现了显著的进步,其代码能力实现了质的飞跃。

从8月初开始,Qwen-7B和Qwen-7B-Chat两款开源模型在魔搭社区上线开始,通义千问本身的模型开源开始提上日程。8月25日,以Qwen-7B为基座语言模型新意,支持图文输入,具备多模态音讯理解能力大规模视觉语言模型 Qwen-VL开源。

Qwen-VL开源的一个月往后,阿里云在9月25日开源了通义千问百亿级的参数模型Qwen-14B及其对话模型Qwen-14B-Chat。这款模型在性能上开始头一回看向Llama-70B,加上前几款开源的模型,一个多月时间内在开源社区的下载量突破100万,在性能和可用性的平衡上,70亿和140亿参数的尺寸也是对开发者最友好的。

但当这个大模型开源生态开始走深,开发者对模型的性能上限有了更高的要求,也就需要更大参数的模型。Qwen-72B开始吸引到一些初创团队的目光。

“我对72B的模型抱有极度大的渴望,好奇72B在我们领域中的能力极限值。”

颜鑫是华东理工大学X-D Lab(心动实验室)的成员,X-D Lab实验室之前的酌量方向网罗社会计算与社会智能、群体智能与隐私保护、公共卫生与舆情监测、工业智能与智能系统等方面,大模型呈现往后,开始聚焦AI情感计算领域。

基于开源的通义千问基座模型,颜鑫和其他团队成员陆续开发了心理健康大模型 MindChat(漫谈)、医疗强壮大模型 Sunsimiao(孙思邈)、教育/考试大模型 GradChat(锦鲤)三款垂直领域大模型,此刻已有超过20万人次使用过这三款大模型,累计提供了超过100万次的问答服务。

研讨到计算资源的限制以及一些客户对于私有化部署的需求,颜鑫表示现时团队在供应问答服务时7B或14B尺寸的大模型是更合适的选择,但在更开放的学术酌量上——例如应该利用联邦学习算法处理数据——Qwen-72B有着前者不具备的性能特长。

而开源模型参数量的向上思量,将来也有机会推动ModelScope-Agent这样关于如何接近AGI的畅想更接近现实。

此前在阿里从事大数据业务近7年的秦续业,日前身份是未来速度Xorbits协同创始人&CEO。Xorbits打造了公司级的分布式推理框架Xinference。通过Xinference,开源模型允许降落在个人用户和开发者的个人电脑上,企业用户抑或在计算集群上轻松部署并管理模型,享受私有化部署带来的安全、定制化以及低成本。

秦续业表态,倘使外接知识库做问答应用,经过大模型召回一些数据,放到上下文中进行总结,最终给出有用的答复,那么小尺寸(10B以下)的模型是够用的。万一需要具备一定的逻辑推理能力的模型,20-30B的中等尺寸模型是比较好的选择。

“但在Agent恐怕需要强大推理能力的场景中,70B+的大模型会更有优势。”

AI Agent是秦续业远处的祈盼,但他相似也是个现实主义者。眼下把模型用起来是更紧要的事情,所以Xorbits曾经攻克的焦点,是让通义千问跑在一台Mac电脑上。

秦续业觉得这一点能击中很多人。由于很多开发者都是用Mac电脑,他们直白在本地拉起Qwen类别模型,可以极大提高开发效力。

Qwen序列的全尺寸完善不止一个72B的大参数模型。与Qwen-72B同步,阿里云本次开源了通义千问18亿参数模型Qwen-1.8B和通义千问音频大模型Qwen-Audio,至此,通义千问开源光谱曾经了覆盖从18亿、70亿到140亿、720亿参数的4款大语言模型,以及视觉理解(Qwen-VL)、音频理解两款多模态大模型。

大模型的开源生态,这是AI时代最后恐怕汹涌而来的一味药引。周靖人对通义千问的定位是“AI时代最开放的大模型”,目下打点好一切,静待开发者登场了。

(举报)