2025-06-30 21:45:17
每經(jīng)編輯|黃勝
華為技術有限公司30日宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型推理技術。
根據(jù)公告,盤古Pro MoE 72B模型權重、基礎推理代碼和基于昇騰的超大規(guī)模MoE模型推理代碼,已正式上線開源平臺。盤古7B相關模型權重與推理代碼將于近期上線開源平臺。
圖片來源:每經(jīng)記者 李星 攝
華為公告稱,此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一關鍵舉措,推動大模型技術的研究與創(chuàng)新發(fā)展,加速推進人工智能在千行百業(yè)的應用與價值創(chuàng)造。
另一方面,6月30日,百度也宣布正式開源文心大模型4.5系列模型,涵蓋47B、3B激活參數(shù)的混合專家(MoE)模型,與0.3B參數(shù)的稠密型模型等10款模型,并實現(xiàn)預訓練權重和推理代碼的完全開源。
目前,文心大模型4.5開源系列可在飛槳星河社區(qū)、HuggingFace等平臺下載部署使用,同時開源模型API服務也可在百度智能云千帆大模型平臺使用。
值得注意的是,在百度、華為之前,阿里早已通過一系列有競爭力的開源大模型、魔搭社區(qū)布局AI開源生態(tài),騰訊混元此前也開源了混合推理MoE模型 Hunyuan-A13B以及3D生成模型等。
封面圖片來源:圖片來源:每經(jīng)記者 李星 攝
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP