C114訊 12月30日消息(南山)近日,幻方量化旗下的DeepSeek公司宣布發(fā)布全新系列模型DeepSeek-V3首個版本,并同步開源。
DeepSeek-V3為自研MoE模型,671B參數(shù),激活37B,在14.8T token上進行了預訓練。
DeepSeek引用評測報告指出,DeepSeek-V3多項評測成績超越了阿里旗下Qwen2.5-72B和Meta旗下Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
令業(yè)界震驚的是,DeepSeek-V3訓練僅花費了557.6萬美元,在2048xH800集群上運行55天完成,還很坦誠地公布了技術細節(jié)。
相比之下,GPT-4o這樣的模型訓練成本約為1億美元。
這一成果已經(jīng)引起海外注意。其中,OpenAI創(chuàng)始成員Karpathy點評稱,DeepSeek-V3讓在有限算力預算上進行模型預訓練這件事變得容易。它看起來比Llama 3 405B更強,訓練消耗的算力卻僅為后者的1/11。
這意味著算力成本的大幅下降,也意味著大模型領域在經(jīng)歷了“百模大戰(zhàn)”后,可能會迎來新一輪的大模型產(chǎn)品競爭。