🎉 攢成長值,抽華爲Mate三折疊!廣場第 1️⃣ 2️⃣ 期夏季成長值抽獎大狂歡開啓!
總獎池超 $10,000+,華爲Mate三折疊手機、F1紅牛賽車模型、Gate限量週邊、熱門代幣等你來抽!
立即抽獎 👉 https://www.gate.com/activities/pointprize?now_period=12
如何快速賺成長值?
1️⃣ 進入【廣場】,點擊頭像旁標識進入【社區中心】
2️⃣ 完成發帖、評論、點讚、發言等日常任務,成長值拿不停
100%有獎,抽到賺到,大獎等你抱走,趕緊試試手氣!
截止於 8月9日 24:00 (UTC+8)
詳情: https://www.gate.com/announcements/article/46384
#成长值抽奖12期开启#
AI大模型競爭加劇 技術門檻降低 盈利成難題
AI競爭白熱化,誰能在"百模大戰"中勝出?
上個月,AI領域爆發了一場"動物大戰"。一方是Meta推出的Llama(美洲駝)模型,另一方是名爲Falcon(獵鷹)的大模型。
Llama因其開源特性深受開發者歡迎。日本NEC公司研究Llama論文和源碼後,迅速開發出日語版聊天機器人。而Falcon則由阿聯酋的科技創新研究所開發,曾在開源模型排行榜上力壓Llama。
目前,AI領域已進入"羣雄逐鹿"階段。有實力的國家和企業紛紛着手打造自己的大語言模型。僅在海灣地區,沙特阿拉伯就爲國內大學購買了3000多塊H100芯片用於訓練。
這種"一國一模"的現象讓人不禁疑惑:號稱高門檻的AI技術,怎麼演變成了"百模大戰"?
Transformer算法改變遊戲規則
當前各種大模型的崛起,都要歸功於2017年谷歌發表的《Attention Is All You Need》論文。該論文提出的Transformer算法成爲此輪AI熱潮的關鍵。
Transformer解決了早期神經網路難以理解長文本上下文的問題。它採用位置編碼代替循環設計,實現並行計算,大幅提升了訓練效率。這使AI從理論研究轉向了工程實踐,推動了大模型時代的到來。
2019年,OpenAI基於Transformer開發出GPT-2模型。隨後谷歌推出性能更強的Meena,主要靠增加參數和算力。這種"暴力堆砌"的方式震驚了學術界。
如今,底層算法創新速度放緩,數據工程、算力規模等工程要素成爲AI競賽的關鍵。有一定技術實力的科技公司都能開發出大模型。
入場容易成功難
雖然入場門檻不高,但要在AI時代成爲領先企業並不容易。以Falcon和Llama之爭爲例,Falcon雖然排名更高,但難以對Meta造成實質性衝擊。
對開源大模型而言,活躍的開發者社區才是核心競爭力。Meta早在2015年就確立了開源路線,深諳社區運營之道。目前Llama系列已成爲開源LLM的風向標,衆多模型都基於它開發。
性能方面,大多數LLM與GPT-4仍有明顯差距。在AgentBench測試中,GPT-4以4.41分遙遙領先,第二名Claude僅2.77分,開源模型多在1分左右。
造成這種差距的是OpenAI頂尖的科學家團隊和長期積累的經驗。因此,大模型的核心優勢在於生態建設或純粹的推理能力,而非簡單的參數堆砌。
成本與收入失衡成難題
目前大模型提供商普遍面臨成本與收入嚴重失衡的問題。據估算,全球科技公司每年在大模型基礎設施上的投入將達2000億美元,但收入最多750億美元,存在至少1250億美元的缺口。
即便是微軟、Adobe等巨頭,在AI產品上也難以盈利。例如GitHub Copilot每用戶每月要倒貼20美元,重度用戶甚至讓微軟虧損80美元。Adobe則不得不設置積分系統限制使用。
對於大多數參數堆砌的大模型來說,主要應用場景仍局限於聊天。隨着同質化競爭加劇和開源模型增多,單純的大模型供應商面臨的挑戰將更大。
未來,真正能脫穎而出的AI企業,或許不在於模型本身,而在於如何將AI與實際應用場景深度結合,爲用戶創造真正的價值。就像iPhone 4的成功不在於處理器,而在於豐富的應用生態。