 |
|
張貼者: |
Jennyliu
|
|
| 時間: |
2026/4/7 上午 10:55:00
|
| 標題: |
推論與代理AI興起添利 力積電 華邦電 5351鈺創 愛普 新一波AI題材 2495普安 811
|
|
內容: |
推論與代理AI興起添利 力積電 華邦電 5351鈺創 愛普 新一波AI題材 2495普安 8110華東
2026.04.07
AI產業正從大型模型訓練轉向推論與Agentic AI(代理AI),使得推論運算需求大量增長,同時也推進多代理人(Multi-agent)系統快速興起。DIGITIMES研調指出,今年起AI硬體需求將出現對HBM頻寬及容量、CPU運算能力,與專用加速器、如LPU(語言處理單元)的導入等需求,拉抬被點名的相關供應鏈台廠,如力積電(6770)、華邦電(2344)等受關注。
AI技術架構的轉向,預期將使得AI硬體的瓶頸從過往GPU的「向上擴展(Scale-up)」高速互連能力,轉移到加速器的HBM頻寬與容量的不敷使用,同時系統對於CPU及記憶體都將明顯增加的負荷,帶來對AI高速運算的新一波硬體需求,而這也將讓CPU與記憶體的產供量能持續在今年成為各方關注焦點。
此外,為突破推論效能的極限, 透過結合不同特性的硬體來處理推論的不同環節,精細拆解推論任務以加快並提升正確率,導入Groq的LPU(語言處理單元)這類加速器來專門處理FFN(前饋神經網路)或專家模型(MoE)的運算,能有效降低延遲並達成更快的Token產出速度。
NVIDIA甫於日前的GTC上正式宣布,將新一代的Groq 3 LPU納入今年將推出量產的迭代Vera Rubin平台,也帶動相關供應鏈如力積電、華邦電、鈺創(5351)與愛普(6531)等台廠坐擁新一波AI題材。
進入多代理人(Multi-agent)系統世代後,也將帶動CSP雲端巨頭的AI基建採購策略以雙軌部署NVIDIA與自研ASIC晶片在內的AI伺服器。
DIGITIMES觀察,NVIDIA的高階機櫃級AI伺服器系統(如NVL72)仍是兵家必爭的市場主流,但大型CSP面對龐大的AI運算需求,積極部署搭載高頻寬記憶體(HBM)的高階AI伺服器,也投入專屬的自研ASIC晶片雲端服務。
且由於當前整體AI算力仍嚴重不足,過往集中由大型CSP提供AI雲端運算服務的量能已不敷使用,新興的AI新創業者如OpenAI、Anthropic等業者,也已開始打破原有布局,不僅直接向Google等大廠採購硬體,甚至著手規畫建置自有的實體資料中心。
預期這些都將持續為台相關AI硬體供應鏈業者繼續挹注後市出貨動能及營運成長利多。
|
|