





近期,美國人工智能數據基本機構Scale AI創始人兼首席執行官Alexandr Wang在接受CNBC采訪時叫作,DeepSeek持有大約五萬塊英偉達H100芯片,但因美國出口管理辦法,她們不可公開談論。
王在采訪中先夸贊了DeepSeek的性能叫作,“咱們發掘,DeepSeek(R1)是日前表現最好的,或說與美國最好的模型(GPT o1)處在同一水平。”
當被問及中美兩國在人工智能行業的競爭時,王暗示:“長時間敗興,美國始終處在領先地位?!?span style="color: green;">不外,他彌補說,DeepSeek最新的模型確實試圖改變這一局面。王認為,“中國實驗室在圣誕節發布一款驚天動地的模型擁有象征道理,要曉得,咱們其他人正在慶祝節日?!?/p>
Alexandr Wang(王)CNBC
DeepSeek于2024年12月26日(美國時間12月25日)當天發布了一款“震撼性的模型”——DeepSeek-V3,隨后又于1月20日推出了一款專注于推理的強大AI模型DeepSeek-R1,對標OpenAI的o1模型。
DeepSeek利用較少且不足先進的芯片訓練出了媲美ChatGPT的模型。DeepSeek在一份技術報告中叫作,它運用超過2000個英偉達H800芯片集群來訓練其參數為6710億的V3模型,而Meta訓練參數量4050億的Llama 3,用了16384塊更強的H100顯卡,花了54天。Deepseek的訓練效率為Meta的11倍。
DeepSeek暗示,訓練其最新模型之一的成本為560萬美元(約合人民幣4100萬元)。相比之下,人工智能研發商Anthropic的首席執行官達里奧·阿莫迪 (Dario Amodei )去年說到的創立一個模型的成本為1億至10億美元。
CNBC曾發帖叫作:“DeepSeek-R1因其性能超越美國頂尖同類模型,且成本更低,算力消耗更少,誘發了硅谷的恐慌。”
但王話鋒一轉,談到了中國人工智能企業可能為人工智能模型配備的GPU數量。他叫作,“中國的實驗室持有的H100芯片比人們想象的要多得多?!彼?span style="color: green;">彌補道, “據我認識,DeepSeek持有大約五萬塊H100芯片?!蓖跽J為,由于違反了美國實施的出口管理,因此DeepSeek不可談論這些。
英偉達的Hopper架構GPU如H100和H200,因其優秀的算力,出口受到美國政府的管理。拜登政府于2022年經過一項規定禁止英偉達向中國出售性能遠超其舊款GPU A100 的GPU系列,迫使英偉達研發了名為H800和A800的性能削減版芯片用以替代,但一年后的2023年10月,這兩款芯片亦一并被禁止。日前,英偉達已在推廣其最新一代Blackwell架構的GPU,其出口依然受到限制。
王將中美之間的人工智能競賽描述為一場“AI戰爭”,并彌補道,“美國將需要海量的計算能力和基本設備,咱們需要釋放美國的能量以推動這場AI繁榮。” 返回外鏈論壇: http://www.fok120.com,查看更加多