📢 Gate广场 #NERO发帖挑战# 秀观点赢大奖活动火热开启!
Gate NERO生态周来袭!发帖秀出NERO项目洞察和活动实用攻略,瓜分30,000NERO!
💰️ 15位优质发帖用户 * 2,000枚NERO每人
如何参与:
1️⃣ 调研NERO项目
对NERO的基本面、社区治理、发展目标、代币经济模型等方面进行研究,分享你对项目的深度研究。
2️⃣ 参与并分享真实体验
参与NERO生态周相关活动,并晒出你的参与截图、收益图或实用教程。可以是收益展示、简明易懂的新手攻略、小窍门,也可以是行情点位分析,内容详实优先。
3️⃣ 鼓励带新互动
如果你的帖子吸引到他人参与活动,或者有好友评论“已参与/已交易”,将大幅提升你的获奖概率!
NERO热门活动(帖文需附以下活动链接):
NERO Chain (NERO) 生态周:Gate 已上线 NERO 现货交易,为回馈平台用户,HODLer Airdrop、Launchpool、CandyDrop、余币宝已上线 NERO,邀您体验。参与攻略见公告:https://www.gate.com/announcements/article/46284
高质量帖子Tips:
教程越详细、图片越直观、互动量越高,获奖几率越大!
市场见解独到、真实参与经历、有带新互动者,评选将优先考虑。
帖子需原创,字数不少于250字,且需获得至少3条有效互动
AI大模型竞争加剧 技术门槛降低 盈利成难题
AI竞争白热化,谁能在"百模大战"中胜出?
上个月,AI领域爆发了一场"动物大战"。一方是Meta推出的Llama(美洲驼)模型,另一方是名为Falcon(猎鹰)的大模型。
Llama因其开源特性深受开发者欢迎。日本NEC公司研究Llama论文和源码后,迅速开发出日语版聊天机器人。而Falcon则由阿联酋的科技创新研究所开发,曾在开源模型排行榜上力压Llama。
目前,AI领域已进入"群雄逐鹿"阶段。有实力的国家和企业纷纷着手打造自己的大语言模型。仅在海湾地区,沙特阿拉伯就为国内大学购买了3000多块H100芯片用于训练。
这种"一国一模"的现象让人不禁疑惑:号称高门槛的AI技术,怎么演变成了"百模大战"?
Transformer算法改变游戏规则
当前各种大模型的崛起,都要归功于2017年谷歌发表的《Attention Is All You Need》论文。该论文提出的Transformer算法成为此轮AI热潮的关键。
Transformer解决了早期神经网络难以理解长文本上下文的问题。它采用位置编码代替循环设计,实现并行计算,大幅提升了训练效率。这使AI从理论研究转向了工程实践,推动了大模型时代的到来。
2019年,OpenAI基于Transformer开发出GPT-2模型。随后谷歌推出性能更强的Meena,主要靠增加参数和算力。这种"暴力堆砌"的方式震惊了学术界。
如今,底层算法创新速度放缓,数据工程、算力规模等工程要素成为AI竞赛的关键。有一定技术实力的科技公司都能开发出大模型。
入场容易成功难
虽然入场门槛不高,但要在AI时代成为领先企业并不容易。以Falcon和Llama之争为例,Falcon虽然排名更高,但难以对Meta造成实质性冲击。
对开源大模型而言,活跃的开发者社区才是核心竞争力。Meta早在2015年就确立了开源路线,深谙社区运营之道。目前Llama系列已成为开源LLM的风向标,众多模型都基于它开发。
性能方面,大多数LLM与GPT-4仍有明显差距。在AgentBench测试中,GPT-4以4.41分遥遥领先,第二名Claude仅2.77分,开源模型多在1分左右。
造成这种差距的是OpenAI顶尖的科学家团队和长期积累的经验。因此,大模型的核心优势在于生态建设或纯粹的推理能力,而非简单的参数堆砌。
成本与收入失衡成难题
目前大模型提供商普遍面临成本与收入严重失衡的问题。据估算,全球科技公司每年在大模型基础设施上的投入将达2000亿美元,但收入最多750亿美元,存在至少1250亿美元的缺口。
即便是微软、Adobe等巨头,在AI产品上也难以盈利。例如GitHub Copilot每用户每月要倒贴20美元,重度用户甚至让微软亏损80美元。Adobe则不得不设置积分系统限制使用。
对于大多数参数堆砌的大模型来说,主要应用场景仍局限于聊天。随着同质化竞争加剧和开源模型增多,单纯的大模型供应商面临的挑战将更大。
未来,真正能脱颖而出的AI企业,或许不在于模型本身,而在于如何将AI与实际应用场景深度结合,为用户创造真正的价值。就像iPhone 4的成功不在于处理器,而在于丰富的应用生态。