百度談DeepSeek:LLM推理成本每年降低90%以上
DeepSeek橫空出世後,中國搜尋引擎龍頭百度創始人李彥宏今天指出,人工智慧在內的大多數創新都與降低成本有關,大型語言模型(LLM)推理成本如今每年降低90%以上。
據陸媒第一財經,中國人工智慧新創公司深度求索(DeepSeek)推出低本高效的大模型震撼業界後,李彥宏11日在杜拜舉行的世界政府峰會談及DeepSeek。
「回顧過去幾百年的歷史,創新的本質是成本下降與生產力提升」,李彥宏表示,不僅在AI領域或IT行業,大多數創新都與降低成本有關。如果成本降低一定比例,生產力也隨之提高同樣比例。
李彥宏說,在今天,創新速度比以往都快得多。根據摩爾定律(Moore's law),每18個月,性能就會翻倍而價格減半。如今,「大模型推理成本每年降低90%以上」。
據陸媒金融界,阿里巴巴、騰訊、百度、快手和字節跳動等中國網路巨頭紛紛加大對人工智慧的投資,並保持其在全球市場的競爭力。
報導說,憑藉Ernie大模型繼續在AI領域深耕細作,百度計畫在今年初發表新版本的Ernie,旨在提高其性能、準確性,並支持不同的用戶需求。截至2024年底,Ernie每天要處理15億個請求,每天處理超過1.7兆的文本令牌,比前一年增長了30倍。
據報導,李彥宏預測,在各行各業快速部署生成式AI的推動下,到2025年AI應用將出現「指數級」增長。該公司還推出了新的AI工具,包括文本到圖像生成器I-RAG和無代碼應用程式構建器,作為其AI技術商業化戰略的一部分。
據陸媒科技雲報導,大模型的落地推進,讓越來越多企業意識到,在具體場景上或許並不需要跑出通用大模型的計算量。
「大模型不是參數規模越大越好」,一名金融科技負責人在落地大模型專案後發現,在很多場景中,更輕量的大模型也能達到通用大模型的效果,而推理成本更低,使用更簡單。
隨之而來的趨勢是,羽量級大模型開始流行。
在中國,百度就發表了3款羽量級模型,由大到小是ERNIE Speed、ERNIE Lite、ERNIE Tiny,由百度智慧雲千帆大模型平台對外提供模型調用服務,核心理念是?明客戶降本增效,在特定的場景下透過精調,使小尺寸的模型也能夠達到千億級別大模型的效率。
報導引述百度智慧雲千帆產品負責人說,在極致關注成本的狀態下,大家對大模型的期待就變成了「不用給我最大的參數規模和最貴的模型」,而是「在我的場景下效果最好的模型」,不再追求一個模型去解決所有問題。
據陸媒第一財經,中國人工智慧新創公司深度求索(DeepSeek)推出低本高效的大模型震撼業界後,李彥宏11日在杜拜舉行的世界政府峰會談及DeepSeek。
「回顧過去幾百年的歷史,創新的本質是成本下降與生產力提升」,李彥宏表示,不僅在AI領域或IT行業,大多數創新都與降低成本有關。如果成本降低一定比例,生產力也隨之提高同樣比例。
李彥宏說,在今天,創新速度比以往都快得多。根據摩爾定律(Moore's law),每18個月,性能就會翻倍而價格減半。如今,「大模型推理成本每年降低90%以上」。
據陸媒金融界,阿里巴巴、騰訊、百度、快手和字節跳動等中國網路巨頭紛紛加大對人工智慧的投資,並保持其在全球市場的競爭力。
報導說,憑藉Ernie大模型繼續在AI領域深耕細作,百度計畫在今年初發表新版本的Ernie,旨在提高其性能、準確性,並支持不同的用戶需求。截至2024年底,Ernie每天要處理15億個請求,每天處理超過1.7兆的文本令牌,比前一年增長了30倍。
據報導,李彥宏預測,在各行各業快速部署生成式AI的推動下,到2025年AI應用將出現「指數級」增長。該公司還推出了新的AI工具,包括文本到圖像生成器I-RAG和無代碼應用程式構建器,作為其AI技術商業化戰略的一部分。
據陸媒科技雲報導,大模型的落地推進,讓越來越多企業意識到,在具體場景上或許並不需要跑出通用大模型的計算量。
「大模型不是參數規模越大越好」,一名金融科技負責人在落地大模型專案後發現,在很多場景中,更輕量的大模型也能達到通用大模型的效果,而推理成本更低,使用更簡單。
隨之而來的趨勢是,羽量級大模型開始流行。
在中國,百度就發表了3款羽量級模型,由大到小是ERNIE Speed、ERNIE Lite、ERNIE Tiny,由百度智慧雲千帆大模型平台對外提供模型調用服務,核心理念是?明客戶降本增效,在特定的場景下透過精調,使小尺寸的模型也能夠達到千億級別大模型的效率。
報導引述百度智慧雲千帆產品負責人說,在極致關注成本的狀態下,大家對大模型的期待就變成了「不用給我最大的參數規模和最貴的模型」,而是「在我的場景下效果最好的模型」,不再追求一個模型去解決所有問題。
- 記者:中央社台北11日電
- 更多生活新聞 »