IT之家 3 月 29 日消息,綜合界面新聞及新浪科技,在今日的中關(guān)村論壇人工智能日的主題演講上,零一萬物創(chuàng)始人兼 CEO 李開復(fù)表示,DeepSeek 的成功證明閉源是一條死路,開源才會(huì)有更大的發(fā)展。
他認(rèn)為,隨著 AI 的 Scaling Law 法則從預(yù)訓(xùn)練端轉(zhuǎn)移到推理端上,AI 模型、AI 應(yīng)用會(huì)在今年迎來新的加速爆發(fā),今年的一個(gè)行業(yè)口號(hào)應(yīng)該是“Make AI Work”(讓 AI 變得有用)。他表示,隨著 Scaling Law 的放緩,超大預(yù)訓(xùn)練模型的直接商業(yè)價(jià)值在逐步降低。
IT之家獲悉,李開復(fù)給出的四個(gè)理由是:數(shù)據(jù)不足導(dǎo)致傳統(tǒng)預(yù)訓(xùn)練將終結(jié);超大 GPU 群效率降低,容錯(cuò)問題等導(dǎo)致邊際效應(yīng)降低;超大預(yù)訓(xùn)練模型價(jià)格昂貴,速度緩慢;新推理 Scaling Law 將帶來更高回報(bào)。超大預(yù)訓(xùn)練模型的價(jià)值正在轉(zhuǎn)移,將進(jìn)一步體現(xiàn)在“教師模型”的角色中,其本質(zhì)也將更趨進(jìn)于大模型時(shí)代的基礎(chǔ)設(shè)施。舊學(xué)習(xí)范式是人教 AI,新學(xué)習(xí)范式是 AI 教 AI。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。