ChatGPT走紅,AI芯片短缺即將到來
隨著現象級AI產品ChatGPT走紅,以大型語言模型為代表的前沿AI技術走向聚光燈之下。不少相關企業都接連推出了自己的大模型,百度、阿里、360、商湯等國內企業紛紛宣布入局AI大模型。
在技術架構層面,AI芯片分類主要是GPU(圖形處理器)、ASIC(專業集成電路)、FPGA(現場可編程門陣列)和類腦芯片。ChatGPT背后的算力支撐主要來自GPU或CPU+FPGA。由于具備并行計算能力,可兼容訓練和推理,GPU目前被廣泛應用。
大模型對于GPU的要求極高。一方面是對于GPU的數量有要求。根據Semianalysis的測算,ChatGPT每天在計算硬件成本方面的運營成本為69萬美元。Open AI需要約3,617臺HGX A100服務器(2.8萬個GPU)來為ChatGPT提供服務。
另一方面,對于GPU自身的性能也有要求。黃仁勛在一次會議上表示:“當前唯一可以實際處理Chat GPT的GPU是英偉達HGX A100。”A100由540億個晶體管組成,打包了第三代Tensor核心,并具有針對稀疏矩陣運算的加速功能,對于AI推理和訓練來說特別有用。此后,英偉達還推出A100的替代者——H100,該芯片由臺積電5nm定制版本制程(4N)打造,單塊芯片包含800億晶體管,一舉成為最強。
坊間曾傳出一份報告,報告稱今年年初百度緊急下單了3000臺包含8張芯片的A800服務器(相當于2.4萬張A800芯片),預計全年會有A800和H800共5萬枚需求。無獨有偶,阿里云預計也將在今年一萬枚左右芯片,其中6000枚是H800。
有知情人士透露,A800、H800芯片目前正遭到包括服務器、互聯網廠商的國內公司“哄搶”,“H800國內開始出貨了,但本來產量也不多。A800國內今年一年出貨的量,超過一半在互聯網公司,”該知情人士稱,“H800出貨更少,剩下客戶新訂的可能最快要到12月才能交付。”
在這一輪由Chat GPT掀起的大模型創業潮里,AI芯片成了搶手貨,一時間,GPU作為算力的主要支撐芯片最為明顯,現在已成為了各大企業走向AI時代的唯一“硬通貨”。
來源:半導體產業縱橫
【閱讀提示】
以上為本公司一些經驗的累積,因工藝問題內容廣泛,沒有面面俱到,只對常見問題作分析,隨著電子產業的不斷更新換代,新的工藝問題也不斷出現,本公司自成立以來不斷的追求產品的創新,做到與時俱進,熟悉各種生產復雜工藝,能為各種客戶提供全方位的工藝、設備、材料的清洗解決方案支持。
【免責聲明】
1. 以上文章內容僅供讀者參閱,具體操作應咨詢技術工程師等;
2. 內容為作者個人觀點, 并不代表本網站贊同其觀點和對其真實性負責,本網站只提供參考并不構成投資及應用建議。本網站上部分文章為轉載,并不用于商業目的,如有涉及侵權等,請及時告知我們,我們會盡快處理;
3. 除了“轉載”之文章,本網站所刊原創內容之著作權屬于合明科技網站所有,未經本站之同意或授權,任何人不得以任何形式重制、轉載、散布、引用、變更、播送或出版該內容之全部或局部,亦不得有其他任何違反本站著作權之行為。“轉載”的文章若要轉載,請先取得原文出處和作者的同意授權;
4. 本網站擁有對此聲明的最終解釋權。