<wbr id="bijqn"><pre id="bijqn"></pre></wbr>

      1. <wbr id="bijqn"></wbr>
        <em id="bijqn"></em>

        <sub id="bijqn"><listing id="bijqn"><nobr id="bijqn"></nobr></listing></sub>
        <sub id="bijqn"></sub>

        AI-Native的路要怎么走?一群技術“老炮兒”指明了方向

        新視界作者 Alter / 砍柴網 / 2025-01-03 20:16
        "

        來源 / Alter

        上世紀70年代,沃茲尼亞克、喬布斯、費爾森斯坦、比爾·蓋茨、約翰·德雷珀等人成立了名為Homebrew Computer Club的組織,他們在聚會中展示創意、交換想法,希望開創一個每個人都有電腦的世界。

        后來的故事大家都很熟悉,沃茲尼亞克和喬布斯在Homebrew Computer Club的會議上展示了Apple I,并在第二年成立了蘋果公司。同時推動了開源文化的興起、個人電腦的普及,成了科技史上最具影響力的技術社群之一。

        當世界進入到智能化時代,創新的種子在全球遍地開花,類似Homebrew Computer Club的社群也開始在更大范圍內萌芽。

        其中就有2020年12月30日成立的創原會,由CNCF執行董事Priyanka Sharma、中國信通院云大所副所長栗蔚和華為云CTO張宇昕作為創始會員構建的全球技術創新交流平臺,希望通過探索前沿的云原生、AI等技術,共享產業落地實踐經驗的方式,共創技術與業務融合的無限可能。

        經過四年時間的發展,創原會已經吸納了來自學術研究、汽車出行、能源制造、互聯網、金融投資、貨運物流等行業的三百多位技術骨干,不乏銜遠科技創始人周伯文、面壁智能CEO李大海、吉利汽車數字中心主任鄭金偉、小紅書云原生基礎平臺負責人黃玉奇等懂行的技術“老炮兒”。

        正是在這樣的背景下,每年一次的創原會年度技術峰會,作為會員們年度相聚、思想碰撞、互動交流的“舞臺”,已成為洞察行業創新趨勢、落地實踐經驗的風向標。

        比如剛剛結束的2024創原會年度技術峰會,達成了“全面擁抱AI-Native”的共識,并為AI-Native的落地指明了方向。

        01 走向AI-Native,先要解決算力資源的挑戰

        根據咨詢機構Gartner的預測,2026年將有超過80%的企業在生產環境中落地大模型或調用API,并部署啟用生成式AI應用。

        比研究報告更加直觀的,是創原會年度技術峰會上的熱烈討論:技術“老炮兒”談論的不再是“怎么使用AI”,而是怎么將AI作為業務和生產的核心支撐,用AI重塑流程與創新產品,實現更高效與智能的運作。

        創原會的會員們一致認為,算力挑戰是普遍現象。

        大模型的訓練和推理,都需要強大的算力資源,而國內的很多企業無力承擔龐大的硬件采購成本。即使有了算力,由于大規模分布式計算、彈性擴展和模型調優等技術的要求較高,常常出現算力浪費或利用率不足的問題。

        圖:華為云CTO、創原會榮譽理事長張宇昕

        華為云CTO、創原會榮譽理事長張宇昕在演講中表示:“我們期望每個企業都能實時按需獲取AI算力,構建彈性、高效、多元算力的AI-Native基礎設施是關鍵。”

        傳統的數據中心是CPU為中心的主從架構,所有資源的交互和信息傳遞都以CPU調度為主,CPU性能提升和網絡帶寬等都成為瓶頸。比如在AI訓練推理的場景中,CPU為中心的架構無法完全滿足業務所需的超大網絡總線帶寬、內存帶寬和顯存容量,直接限制了訓練推理效率,并導致NPU算力和其它資源的閑置。

        華為云的解題思路是將數據中心演進到多元算力對等全互聯的架構,通過高速互聯網絡協議,將CPU、NPU、內存等算力資源全部互聯,實現資源全池化、全對等互連、資源按需組合,從單體算力進化到矩陣算力。

        張宇昕舉了一個真實的例子:在使用萬億參數的盤古S模型運行訓練任務時,采用多元算力對等架構的華為云CloudMatrix,計算效率比傳統架構提升了68%;千億參數的盤古U模型的推理效率提升了30%。

        解決算力瓶頸只是第一步,存儲也是制約AI發展的關鍵要素:32GB的顯存僅能裝下70億參數的模型,且隨著模型參數規格的增長,推理的顯存需求并發變大。

        針對AI落地應用過程中遇到的存儲、數據等問題,華為云早已給出了一整套成熟的解決方案:

        通過用池化架構來擴展顯存的方式,解決了推理過程中的內存墻限制;通過將KV計算任務卸載到虛擬顯存和CPU上,讓單卡的并發數大幅提升;通過數據庫領域大模型+場景小模型的多模型協同,打造了智能的數據庫引擎,并利用智能開發助手和智能運維助手,全面提升開發和運維效率;以及在安全合規、隱私保護、可靠可控等方面的全盤布局。

        走向AI-Native的過程,也是重新定義基礎設施的過程。就像打開水龍頭時,我們不需要知道水是從哪條河里來的;當我們調用AI算力的時候,不需要知道算力是怎么來的,背后的技術和運維有多復雜。

        02 AI原生應用開發,有了“流水線”般的新范式

        回答了算力資源的問題后,AI-Native就不再是一道選擇題,而是千行萬業數智化轉型升級的必答題。

        華為云副總裁、戰略與產業發展部總裁黃瑾講述了自己的判斷:

        相對歷史上所有重大技術變革和創新,不管是云計算、移動互聯網時代,其商業生態鏈都呈倒金字塔結構——應用和內容為王。同時坦言AI正在重塑IT的方方面面,包括重新定義基礎設施、重塑軟件開發過程、重塑軟件交互體驗,甚至在重塑軟件生態。

        圖:華為云副總裁、戰略與產業發展部總裁黃瑾

        新的時代序幕已經拉開,身在局中的創原會會員們感同身受,他們的態度體現在討論的議題上:《根據企業自身業務需求,如何識別和選擇AI在開發領域的價值場景?》《如何選擇智能化研發相關的關鍵技術?》《AI時代下的效能雙引擎聯動,如何實現確定性增長?》

        面對如何高效打造AI原生應用的疑問,張宇昕結合華為云將大模型落地到30多個行業的400多個場景的經驗,給出了三個建議:

        第一,企業應用要基于AI-Native的云服務來開發和構建。

        每個企業都需要持續思考如何把AI能力融入到自己的產品和應用中去,通過用以知識為中心的數據湖來構筑數據底座,用自主智能的工具鏈來開發應用,用AIGC+CG融合的數字內容生產線來創作內容等等。這樣的產品和應用將具備自主學習、持續迭代、適應變化的能力。

        第二,用基礎大模型+工具鏈+企業經驗,構建企業自己的專屬模型。

        大模型落地應用的過程中,也產生了“不可能三角”問題——需要在專業性、泛化性、經濟性三者中做好權衡:通用大模型缺乏行業Know-how,在專業性上無法勝任企業的業務需要;訓練大量專業數據,又會引發大模型的泛化能力下降;模型參數規模越大,性能和精度效果越好,但是訓練成本會很高。

        張宇昕的答案是:“模型不是越大越好,也不是一個大模型可以打遍天下,企業要結合自身經驗和行業Know-how來打造自己專屬的模型。”

        比如將不同行業專屬的高質量數據,結合行業Know-how訓練通用大模型,并針對不同行業對模型能力的偏好進行通用數據增強,打造行業場景的大模型。各個企業在行業大模型的基礎上,增訓自己的私有數據、企業Know-how,調度企業專用工具和插件,構建出企業自己的專屬模型。

        第三,用大模型系統構建AI原生應用,實現企業智能升級。

        大模型的訓練不應該重復造輪子,大模型的落地也不應該一次次從0到1,而是將模型與工程化能力相結合,實現模型接入與對外接口標準化,開發者可以按照相應的規則調用,直接創建AI原生應用。

        相對應的正是華為云的大模型系統,包含行業數據和知識組成的知識中心,企業專屬大模型、開源大模型以及傳統小模型構成的模型中心,搜索引擎、代碼執行器整合而成的組件中心等等。

        開發者可以通過大模型系統的增強插件,譬如安全護欄保障模型的安全性、RAG檢索增強來消除大模型幻覺,利用標準的API接口,協同配合多種模型,以取長補短的方式快速實現企業的智能化升級。

        打一個比方的話:如果說傳統的應用開發是“手工作坊”,有了完善的工具鏈、大模型系統和獨立處理復雜任務的AI Agent,AI原生應用的開發已經進入到了“流水線生產”的模式,為數智化轉型按下了“加速鍵”。

        03 大模型平民化,在場景中看見新質生產力

        當AI-Native的路徑被跑通,大模型不再是少數頭部企業的“特權”,AI將和千行萬業的真實場景碰撞出什么樣的火花?

        就歷史經驗來看,相較于數據上的宏觀論述,可以觸摸的落地案例更有說服力。2024創原會年度技術峰會上有一個特別的環節,評選出了“2024年度AI-Native十大先鋒實踐”,也為外界提供了窺探落地現狀的窗口。

        圖:“AI-Native十大先鋒實踐”案例

        我們篩選出了三個有代表性的例子。

        一是借助AIGC優化內容生產流程的喜馬拉雅。

        作為國內規模領先的在線音頻分享平臺,喜馬拉雅在2023年專門成立了“珠峰實驗室”,著手研發了“珠峰音頻AI模型”。

        為了解決大模型訓練和推理的算力需求,喜馬拉雅構建了自建AI基礎設施與公有云AI資源池的混合架構,讓資源利用效率提升了20%、資源成本降低了10%。目前“珠峰音頻AI模型”已經生產了數萬本有聲書,包括模仿單田芳聲音的AI合成音頻專輯,極大降低了平臺的成本投入。

        內容生產的流程被重塑后,喜馬拉雅進一步研發了AI智能推送系統、國內首個全內容智能AI音箱小雅等產品,不僅提升了內容推送精準度和效率,也為聽眾帶來了更加沉浸式、定制化的音頻體驗。

        二是用AI大模型打造零售智能體的美宜佳。

        深耕零售行業近30年的美宜佳,開啟了創辦以來“最具創新”的一次轉型,聯合華為云盤古大模型打造了AI+IoT+美宜佳業務平臺的零售智能體,并將其落地到3.7萬家門店,探索零售行業的新業態。

        數字店員可以隨場隨身解答顧客的問題,播放音樂緩解顧客的壓力,像一座智慧化的“城市燈塔”,點亮了深夜歸家的路。

        值得一提的是,美宜佳的智能化探索,不僅為品牌商、門店店主、消費者提供了服務成本更低、效率更高、體驗更好的集成生態服務,沉淀下來的經驗和能力還將外溢到整個行業,驅動零售行業服務升級。

        三是北京市政一卡通的人工智能創新實踐。

        基于華為云的AI原生基礎設施,北京市政一卡通依托AI技術完成了一卡通支付的智能化改造,有效支撐了一卡通公司在公共交通、商業消費、政府管理、創新應用4大領域28個行業的廣泛落地。

        目前北京市政一卡通已經覆蓋國內330多個城市,每天為數千萬用戶提供持續、穩定、高效、安全的支付服務。同時人工智能還在用卡安全等方面發揮了重要作用,為公共服務與社會治理提供了創新示范,連續多年被列入北京市政府“為市民辦實事工程”。

        正如張宇昕所說:“中國的AI產業有著巨大的機遇,我們可以充分發揮在行業場景和行業數據領域的優勢,讓AI深入到企業核心生產系統,真正發揮產業價值和商業價值,推動產業升級和轉型。”

        三個跨越互聯網、零售、政企的例子,僅僅是AI原生應用圖景的一隅,卻用事實印證了張宇昕的判斷,讓外界看到了實實在在的新質生產力,看到了行業生產力的躍遷。

        04 寫在最后

        Homebrew Computer Club在50年前點燃了個人計算機革命,為人類的生活和工作方式產生了顛覆性改變。

        承襲了這種精神的創原會,為技術先鋒和產業創新者搭建了溝通的橋梁,正在將創新的力量擴散到更多的行業和場景中。

        也許多年后再來審視2024創原會年度技術峰會,人們會驚訝地發現:解答了AI原生的算力困境、疏通了原生應用的開發路徑,照亮了一個個創新案例后,AI-Native的“星星之火”從此刻開始燎原。

        分享到
        聲明:砍柴網尊重行業規范,任何轉載稿件皆標注作者和來源;砍柴網的原創文章,請轉載時務必注明文章作者和"來源:砍柴網",不尊重原創的行為將受到砍柴網的追責;轉載稿件或作者投稿可能會經編輯修改或者補充,有異議可投訴至:post@ikanchai.com
        您想第一時間獲取互聯網領域的資訊和商業分析,請在微信公眾號中搜索"砍柴網"或者"ikanchai",或用微信掃描左邊二維碼,即可添加關注,從此和砍柴網建立直接聯系。

        相關推薦

        熱文導讀

        1
        3
        免费观看性行为的视频网站