因應AI晶片新世代的SoC 設計與驗證解決方案

「嘿! Google,我接下來要跟誰開會?」

讓 Google 幫你追蹤會議、播放歌曲或更新天氣狀況固然很棒,但如果駭客能存取到你所有的資料和交易數據,那豈不是一場大災難?在現今這個智能無所不在的時代,人工智慧(AI)與安全性已成為超越傳統晶片設計界限的關鍵差異化因素。

推動半導體產業蓬勃發展的應用大多都包含 AI 技術,如深度學習 (DL) 和機器學習 (ML),這些都屬於運算密集的技術,需要專用晶片與強大的設計來支持智慧功能。從語音和文字識別等應用,到高效能計算 (HPC)、數據中心、AI 個人電腦 (PC) 和自動駕駛車輛,這些驅動大量運算工作的底層矽晶片憑藉複雜的架構,不僅具有強大的運算能力,還能夠量身訂作並隨著時間的演進提高決策能力。為了在科學與醫學研究、天氣預報、金融、石油/天然氣勘探等市場領域中,進行有效的數據分析和數位運算,需要解鎖新一層次的強大效能。

AI 的動能正在累積。隨著越來越多智慧設備連接到雲端,以指數增長的AI潛力創造了市場機會。根據真實世界狀況做出決定所需要的速度,意味著 與AI 相關的運算關鍵部分必須在硬體中完成。專業化的「AI 晶片」是能大規模且具成本效益地建置 AI 的關鍵,並帶來針對特定應用而設計的、新的顛覆性解決方案。

然而,目前應用於 AI/ML/DL 的晶片包含客製的處理器架構和複雜的資料路徑,以準確執行所需的算術分析。隨著業界對處理更多數據、自動化更多功能,以及將智能整合到每個應用的需求持續增長,晶片設計工程師和驗證團隊需要配備現代化的驗證技術,以推動 AI 下一個階段的發展。

繼續閱讀以了解最近的 AI 晶片熱潮如何改變矽晶工程領域:關鍵功率、效能與面積 (PPA) 的挑戰、將AI 晶片的使用延伸到不同應用的機會、先進驗證的需求,以及為何硬體安全性將成為未來的關鍵。

不僅僅是半導體公司在設計晶片

隨著摩爾定律趨近飽和,從通用處理器中達到想要的性能提升變得越來越困難。因此,在傳統半導體領域之外,越來越多的公司開始在內部設計專用於特定應用的晶片。

現在像 NVIDIA、Intel、AMD、Qualcomm、Meta、Amazon、阿里巴巴、Microsoft 和 Google 等公司都在大力投資於開發自己客製的特殊應用積體電路(ASIC)晶片,以支援其 AI 軟體,並滿足特定應用需求。十年前,沒有任何產業專家預測到像 Meta 這樣的社交媒體公司會踏上這條道路。

在自己內部建造專用硬體架構的趨勢也擴展到汽車、高效能計算(HPC)和雲端運算等市場的系統和軟體公司。隨著矽工程領域向更多產業參與者開放,隨之而來的市場成長為現今要求嚴格的晶片設計環境提供創新設計工具和解決方案的機會。

在 AI 設計中採用RISC-V 處理器架構

RISC-V 一開始被採用主要集中在嵌入式應用和微控制器領域。多年來,這個開源標準在汽車、數據中心和高效能計算等廣泛的應用領域中持續獲得認可,並在 AI 工作負載上有繼續增長的潛力。以下是我們看到強力採用RISC-V 架構的一些關鍵應用領域:

  • AI:AI 晶片往往是異質的,晶片設計師選擇現成的處理器(RISC-V 是其中之一),並專注於開發高效能、低功率的 AI 加速器來處理如神經網絡處理和自然語言處理等任務。
  • 汽車:對於汽車單晶片系統,RISC-V 處理器可以幫助滿足性能、功率、成本和安全性的要求,用於資訊娛樂系統、先進駕駛輔助系統和通訊系統等。
  • 高效能運算(HPC)和數據中心:RISC-V 核心適合處理複雜的運算任務,具有自訂指令集架構(ISA)的優勢,RISC-V 擴展可以支援開發簡單、安全且靈活的核心,提供這些應用所需的能源效率。

是什麼讓AI晶片設計與眾不同?

從AI的新創公司到世界最大的雲端供應商,一些產業界最酷的AI晶片像GroqChip、 Nvidia H100 GPU、Ambarella CV52S、Atlazo AZ-N1、AWS Trainium 和Google TPU v4,以上幾個例子已經為加速產業在更快、更有效率的AI晶片的賽局掀起狂瀾。

我們正在目睹以資料為中心的運算如何讓PC本身轉型。AI PC已經準備好將強大的智慧功能帶入產品。Intel鎖定在2025年交付一億台可運行AI的核心處理器。晶片製造巨擘與Microsoft合作訂定AI PC的規範,因而開發出的機器預期具有針對AI工作負載和Microsoft's Copilot AI的神經處理單元。

有別於傳統CPU所提供的有限平行處理能力,能夠以分散式操作方式執行多項運算的能力是驅動新一代AI系統單晶片(SoC)投資的關鍵特點之一。對於基於AI/ML的硬體,設計通常包含資料密集的區塊,其中包含一個控制路徑,該路徑中的狀態機(state machine) 根據特定輸入處理輸出,以及算術邏輯組成的運算區塊,負責進行數據運算(例如加法器、減法器、乘法器和除法器)。這些功能大幅加速AI演算法所需的相同、可預測且獨立的運算。

儘管演算法計算區塊對大多數設計團隊來說可能不是非常困難,但隨著運算區塊數量和位元的增加,其建置的複雜度也顯著上升,進而給驗證團隊帶來額外的壓力。

以一個簡單的4位元乘法器為例,為了驗證其完整功能,必須為所有可能的輸入組合編寫測試向量,也就是 2^4 = 16 種組合。挑戰在哪裡呢?在驗證現今AI晶片的實際場景時,因為資料處理量極其龐大,團隊必須驗證具有64位元輸入的加法器。這意味著需要驗證 2^64 種狀態—使用傳統方法來完成這一任務,可能需要花費數年。

而這還只是設計中一個乘法器或除法器的情況。使這些問題更加複雜的是,隨著AI晶片的採用迅速擴大,產生的資料量持續爆炸式增加,與硬體驗證相關的耗時挑戰促使對現代化、安全且靈活的驗證解決方案的需求變得至關重要。

晶片驗證的關鍵挑戰

當團隊設計 AI 晶片時,設計演算法通常用 C/C++ 編寫,這種語言速度快,且被工程師廣泛使用。一旦功能程式碼編寫完成,就需要使用 RTL(暫存器傳輸語言)將資訊轉換為更以硬體為導向的表示形式,以便實現設計。這需要團隊開發所有可能組合的測試向量,或者比較 RTL 是否與原始的 C/C++ 架構模型匹配—兩者都是艱鉅的挑戰。

當需要進行全面驗證,但連續迭代的方法不可行時,會考慮使用形式驗證(formal verification)方法之類的技術。透過形式驗證,可以同時進行數學分析來考量整個硬件設計,不需要為每個輸入組合編寫測試向量。相反地,藉由利用模型檢查器,可以根據一組指定預期行為的斷言(assertion)來驗證設計。

十年前,形式驗證被認為是只有專家才能執行的技術,因為涉及高階的斷言。然而,這一觀點已經完全反轉。今天,任何 RTL 設計師或驗證工程師都可以快速學習這些技巧,並應用到設計中。因此現代驗證工具必須易於使用。此外,提供更好的偵錯功能,對於理解複雜且不熟悉的設計行為和統一多樣化且複雜的設計環境至關重要。

然而,現在 AI 晶片龐大的尺寸、規模和複雜性意味著它們無法完全透過模型檢查得到充分驗證。從長遠來看,使用傳統方法驗證這些數學函數很沒效率、耗時且不切實際。靈活且可客製化的 RISC-V 架構面臨的另一個新挑戰,就是確保所有配置在新增新自定義指令時都經過全面驗證。

AI 和 ML 應用需要進階的資料路徑驗證

使用其他形式的形式驗證,例如等效性檢查(equivalence checking)為驗證工程師提供強大的方法來驗證最複雜的 AI 資料路徑。透過這種技術,可以比較設計的兩種表現形式(representation),並確認這些設計是否等效,或是識別它們之間的具體差異。藉由足夠強大的形式引擎,這兩種表現形式可以處於截然不同的抽象層級,甚至可以用不同的語言編寫,而這正是它的巨大優勢。這種方法通常用來檢查 RTL 輸入與邏輯合成產生的邏輯閘層級網表之間的等效性。

例如,可以將晶片設計的詳細 RTL 建置與高級 C/C++ 架構模型進行比較,以確認在兩種表現形式中,相同的輸入集會產生相同的輸出。這種強大的技術非常適合許多 AI 專案,因為大多數專案已經有 C/C++ 模型來檢查模擬結果,或作為虛擬平台的一部分,以支援早期的軟體開發和測試。

形式等價性檢查仍然是唯一能提供對設計資料路徑進行全面驗證的技術,並且對經過驗證的參考模型進行比對。為了推動 AI 應用的不斷增長,並驗證未來主流 AI 應用中複雜的功能單元,驗證工具和解決方案需要易於使用,能夠擴展到更大的設計,並具備先進的除錯功能,以便快速檢測錯誤。

在實作方面,要達成所需的 PPA(性能、功率和面積) 通常會面臨挑戰。最新的閘極環繞式(GAA)技術節點以及多晶粒設計架構可以幫助解決這些問題。Synopsys.ai 全端AI 驅動 EDA 套件處理設計空間探索、驗證範圍和回歸分析等重複性任務,提供更快的最佳化 PPA 路徑。

從今日的 AI 加速器到明日的認知系統

硬體設計已成為 AI 創新的核心推動力。隨著現代運算工作負載的演變,對減少設計和驗證周期次數的需求將不斷增加。如今,Synopsys 是業界唯一提供成熟驗證解決方案的公司,能協助晶片設計工程師在各個應用領域中驗證複雜的 AI 架構。

利用下一代形式驗證解決方案,如 Synopsys VC Formal™,讓團隊擁有驗證最複雜 SoC 設計的能力、速度和靈活性。該解決方案包含全面的分析和除錯技術,並透過Synopsys Verdi® 除錯平台快速識別根本原因。

VC Formal 解決方案提供廣泛的形式應用,包括整合 HECTOR™ 技術的 VC Formal Datapath Validation (DPV) 應用程式,該技術在最苛刻的 AI 晶片專案中擁有成功部署的悠久歷史。借助客製化、優化和用於資料路徑驗證的引擎(ALU、FPU、DSP 等),該解決方案可針對RTL 和C/C++ 模型結果中的任何差異提出報告,以便在Verdi SoC 偵錯平台中進行診斷,並在所有差異被消除後證明等效性。該解決方案已經在幾家新創晶片開發者以及新興的 AI/ML 晶片公司中見證了卓越的結果。

我們的解決方案還善用並行性,允許在多個核心上同時運行模擬,並受益於雲端運算的優勢。這意味著只需利用大量處理器一天的公司仍然可以利用我們的工具來設計 AI 硬體。隨著 AI 市場向前所未見的領域擴展,我們很高興能夠以先進的驗證解決方案支持產業,迎接 AI 晶片和軟體新時代的到來。

AI 晶片的同態加密指日可待

隨著產業持續產生數兆位元的數據並要求高性能晶片來維持運算範式,位元數的增加是不可避免的。全球的大學和研究機構正在探索處理更大位元的輸入數據(例如 4096)的可能性,並建立應變措施來設計能夠支援這種資料湧入的晶片—這正是 VC Formal 資料路徑驗證和形式安全驗證(FSV)應用的絕佳應用場景。

隨著數據量的激增,硬體安全的需求也日益增加。近期發生的 6 億美元加密貨幣劫案,是去中心化金融領域有史以來最大的一次盜竊案,它暴露了網路犯罪份子可能利用的潛在威脅和漏洞,使得端到端的安全性變得至關重要。同態加密(Homomorphic Encryption)將成為 AI/ML 晶片發展是不可或缺的一部份。簡言之,你可以對數據進行加密,並在不解密的情況下進行 AI 系統所需的相同算術計算,從而降低數據洩露的風險。為了促進其廣泛應用,需要新一代工具來推動成長—這是一個有前景的方向,將提升 AI 晶片設計的生產力和結果品質。

總結

隨著 AI 在運算應用中的普及,AI 晶片在任何市場領域中的成功都將需要經全面驗證的設計;沒有人希望他們的自駕車因為圖像識別分析的疏忽而撞上障礙物。新的邊緣 AI 設備將推動即時海量數據運算的爆炸式增長,並讓晶片設計工程師對半導體設計的方式跟著轉型,從而提高生產力、縮短週轉時間並提供更好的驗證解決方案。

AI 優先世界的曙光比以往任何時候都要接近。我們對虛擬助理下的指示會被現實版鋼鐵人的賈維斯取代嗎?只有時間才能揭曉答案。