產學合作
生成式人工智慧普及的機會:雲端算力服務與Phison aiDAPTIV+
文/杜懿洵
生成式人工智慧(AI)自2022年底引起廣泛關注以來,不僅模型的數量在規模上年增數十、甚至數百倍,在架構上也從單一模型演化至多專家系統,展現出前所未有的多樣性和複雜性。然而,隨著各行各業積極探索將生成式AI技術融入工作流程,除了使得資訊安全和系統可控性的問題日益受到重視之外,生成式AI技術的普及更面臨著一個重大的挑戰:高昂的部署成本。
根據微軟研究報告指出,AI模型的成長速度將會是GPU卡中的DRAM成長速度的200倍,這使得現行的AI運算硬體架構成長速度,逐漸地無法滿足AI應用的需求,而這將對許多組織採用生成式AI造成障礙,從而限制了生成式AI的廣泛應用。針對此一困境,出租算力的雲端服務商逐漸崛起,成為此波AI時代的另一個新商業模式。
除了NVIDIA不斷大力扶植GPU雲端託管商,並投資雲端串流服務業者,以推動各國雲端算力基礎建設之外,國際市場也大力挹注投資AI運算中心,像新創CoreWeave便計畫於今年底前興建14座資料中心,而其較為便宜的雲端租賃價格,也讓微軟選擇與其合作。其他像是Lambda Labs、Together AI也都獲得大量資金、擴建GPU機房,至於北美四大雲端巨頭,更開始自研AI晶片。而在台灣,除了有郭台強領軍的正崴集團,與在日本和台灣皆有自建機房的優必達合作,成立「優崴超級運算中心」,以第一階段20億的規模,向華碩採購千張H100顯示卡,並導入最新G200的AI運算基地,規劃建立全台最大AI算力中心之外,弘憶也獲得瑞昱集團約六億元的投資,向美超微採購,建立55台H100伺服器的算力中心。
除了出租算力的價格大戰儼然即將開打之外,深耕NAND控制晶片超過23年的群聯電子,則從自身優勢出發,通過利用NAND Flash技術擴充高帶寬記憶體(HBM)提升系統性能,藉由整合固態硬碟(SSD),提出自主研發的創新AI運算架構aiDAPTIV+,以另一種模式降低生成式AI的部署成本,從而推動技術的更廣泛應用。
群聯AI研發團隊負責人暨國立陽明交通大學智慧科學暨綠能學院合聘助理教授林緯博士表示,群聯的本業與核心競爭力是NAND控制晶片研發,因此,如何擴大NAND儲存與AI應用的連結一直是群聯近幾年努力的方向。aiDAPTIV+此AI架構為透過群聯獨創整合SSD的AI運算架構,將大型AI模型做結構性拆分,並將模型參數隨應用時間序列與SSD協同運行,以達到在有限的GPU與DRAM資源下,最大化可執行的AI模型,預計能有效降低提供AI服務所需投入的硬體建構成本。
透過將AI技術導入NAND控制晶片與演算法裡,提升NAND儲存方案的運算效能與可靠度,群聯aiDAPTIV+不僅能有效降低AI伺服器硬體建構成本,更能將此AI運算架構運用於各種AI應用場景,例如aiDAPTIV+ AOI光學檢測系統,首波應用場景便助力SMT工廠加速進入工業4.0,並進一步提升檢測精準度,消除人力檢測所導致的不穩定性。
雖然生成式AI所引發的算力大戰正如火如荼地展開,但可預見的是,在應用成本越發降低之後,各種應用需求的研發也將越成為可能。本院張立平教授表示,之後將會引進教學課程,規劃作為學院老師的研究平台,也會與資訊學院老師成立GAI(生成式AI)教學,讓同學在學校就能開始學習與嘗試生成式AI的各種創新應用。