人工智能的发展如火如荼
最近又有不少值得关注的事儿
↓↓↓
2月18日,埃隆·马斯克(Elon Musk)成立的人工智能初创公司xAI正式发布新一代聊天机器人Grok3。在AI领域竞争愈演愈烈的背景下,这一消息也引发了科技届的广泛关注与讨论。Grok3不仅在数学、科学和编程等领域展现了极强的推理能力,还在与其他知名大模型如DeepSeek、ChatGPT等的比较中,显示出了其卓越的性能,令业内专家和用户对其寄予厚望。
而就在一个多月前,杭州深度求索人工智能基础技术研究有限公司发布了DeepSeek-R1模型。1月27日,DeepSeek应用登顶苹果美国地区应用商店免费App下载排行榜,在美区下载榜上超越了ChatGPT,同日,苹果中国区应用商店免费榜显示,DeepSeek成为中国区第一。2月1日,DeepSeek日活跃用户突破3000万,成为史上最快达成这一里程碑的应用。
这2025年的头两个月,
“AI圈”重磅新闻不断。
简单梳理了以上信息之后,
琶科小博士不禁感叹:
人工智能的发展实在是
太!快!了!
于是决定和大家盘盘,
这些“AI们”究竟是怎么个事儿。
就拿上面提到的两个大模型来说,
它们都属于大语言模型(Large Language Model, LLM)范畴,
又是目前全球“AI圈”的当红明星,
自然免不了被放在一起比较。
而归根结底,
这两个大语言模型有一个本质区别,
也就是我们今天要聊的“开发模式”
↓
DeepSeek采用的是开源模式,
降低了中小企业和个人开发者的使用成本;
Grok3采用的是闭源模式,
注重的是高性能与高盈利。
·开源(Open Source),全称为开放源代码,任何人都可以在版权限制范围内得到软件的源代码,加以修改学习,甚至重新发放。由此,开源模式的最大特点在于“开放”,接纳、包容和发展,求同存异,互利共赢,才是开源的本质。
·闭源(Closed source),是作为开源的反义词而出现的一个术语,指被用于任何没有资格作为开源许可术语的程序。闭源模式意味着程序的源代码无法被获取,而翻译出闭源程序的源代码从现有的技术层面来说是不可能的。
所以我们可以认为,“开源”与“闭源”的最大区别便是:开源的源代码公开,可被修改;闭源的源代码加密,需依靠系统开发商进行修改。
琶科小博士来给大家“翻译”一下:
“闭源”就像一家餐厅的招牌菜。顾客去餐厅品尝这道菜,虽然可以享受美味,但厨师不会告诉顾客这道菜的配方和制作方法,顾客只能按照餐厅提供的成品来享用,而无法知道里面具体使用了哪些食材、调料,以及烹饪的过程。餐厅对这道菜的配方严格保密,只有内部厨师团队知道。这种模式的优点是餐厅可以保证菜品的独特性和商业价值,但缺点是顾客无法自由地修改或创新这道菜。
“开源”则像是一个公开的食谱。比如你在网上找到一个烘焙蛋糕的食谱,里面详细列出了所有需要的食材、步骤,甚至烘焙温度和烘焙时间等,你可以按照这个食谱制作蛋糕,也可以根据自己的口味调整配方,比如增加巧克力或换成其他水果。你可以和朋友分享这个食谱,也可以将自己改良后的版本分享给更多人。开源的模式鼓励大家共同参与、改进和分享,让一个东西(比如软件)能够不断变得更好。
用一句话总结就是:“闭源”就像餐厅的秘制菜品,只有内部人员知道配方;而“开源”就像公开的食谱,任何人都可以查看、使用和改良。
在AI生态中,“开源”和“闭源”往往二者并存,显然,大语言模型的开发采用开源模式或闭源模式均各有利弊:
总的来看,开源降低了垂域大模型的开发门槛,加速了垂域应用的创新,适合推动技术普及和社区合作;闭源则更注重商业价值、安全性和隐私保护,适合特定的商业和敏感应用场景。从数据安全与隐私保护层面来看,开源模型需防范数据被恶意利用,闭源模型则需确保数据的透明度和可审计性。
当前,AI生态的天平已开始向开源大模型路线倾斜。据环球时报2月14日社评:AI的技术发展遵循“开源—创新—迭代”的螺旋式前进路径,全球科技以及经济发展,也是在遵循着“开源”的逻辑。
今年2月初,OpenAI首席执行官山姆·奥特曼(Sam Altman)曾罕见的承认,OpenAI的闭源策略“站在了错误的一边”。2月14日,百度官方宣布下一代文心大模型4.5将开源;2月18日,昆仑万维宣布开源中国首个面向AI短剧创作的视频生成模型SkyReels-V1;就连马斯克在发布Grok3当天也表示前代大模型Grok2将开源。
此前,由琶洲实验室联合华中科技大学、华南理工大学科研团队在小样本微调领域取得重要进展。论文“Natural Language Fine-Tuning”提出了一种简单、低成本且极大提高准确率的全新方案——自然语言微调(NLFT),该方案大幅降低了大语言模型的准入门槛,使得更多科研机构和企业能够在常规计算设备上实现高效微调。这一成果不仅为大语言模型的普及铺平了道路,也为人工智能技术的普及应用提供了新的可能性。
我们将大型语言模型类比于学生,大语言模型的微调过程则类似于学生的学习过程。在NLFT方案下,学生通过从详细批改出得分点与失分点的答卷中学习。通过将目标模型自身作为自然语言评价器,可以实现对学生的答题过程细粒度的分析,标注出得分点与失分点,同时也不需要任何额外的外部指导。初期如果这个学生的学习能力较弱,他会通过示范案例来学习,即学习那些高分考生的答卷内容,这种方式可以在短期内显著提升他的能力。相反,如果这个学生一开始表现很好,他可以通过自学,即从自己的答卷中总结经验,巩固已有知识点,同时避免失分点(类似于不断刷题)。通过这种“双重学习”(Dual Learning)过程,NLFT展现出了颠覆性的效果。
目前,团队已经开源了所有的代码、数据、模型,以供研究者在此基础上探索改进,并确保论文中每个数据点真实可复现。
详情见:https://mp.weixin.qq.com/s/JFsfyTgo1Kz1InyE_NuhTA
当前,
全球AI发展正站在十字路口。
是继续依赖算力霸权构筑技术高墙?
还是通过普惠合作实现共同繁荣?
AI发展的明天,
或许将以“竞争中共生”定义。
琶洲实验室顺应发展潮流,拥抱开源,
共建和谐、开放的AI生态。
资料来源:环球时报、百度开发者中心、腾讯网、搜狐网等。
声明:本网站发布的部分图文素材等来源于第三方或网络信息,本文仅用于公益科普,版权归原作者或机构所有,内容如有侵权,请及时联系删除。