Anthropic推了Claude4.5,DeepSeek更了V3.2,OpenAI不光上線Sora2,還入股了AMD,連DevDay都辦了,要搞AI操作系統。
結果螞蟻更猛,9月30號直接開源全球首個萬億參數推理大模型Ring-1T-preview,10月9號又甩出旗艦非思考模型Ling-1T。
十天時間,國內萬億參數俱樂部原來就KimiK2、Qwen3-Max兩家,現在直接變成三家。
說實話,這節奏快得讓人有點反應不過來,感覺螞蟻是憋著一股勁,要在Q4一開始就定調。
十天倆萬億!螞蟻這波操作,直接改寫國內AI格局?
先說說這倆模型的“硬實力”,本來想覺得萬億參數只是個噱頭,后來發現還真不是。
這兩款模型都用了螞蟻自研的Ling2.0架構,訓練時用的語料庫超20T,里面全是高質量內容,比不少同行的10-15T語料規模多了不少。
語料多不多,直接影響模型理解深度,這點懂行的都清楚。
再看實際能力表現,官方放了橫評數據,Ling-1T跟DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905這些國內外主流模型比,在代碼生成、軟件開發、競賽數學這些推理測試里,大部分項目都領先。
Ring-1T-preview更厲害,作為思考模型,純自然語言推理能力快追上GPT-5withthinking(還不用工具),尤其是在CodeForces這種競賽級代碼生成任務里,直接拿了最高分。
