首頁 > 新聞資訊 > 行業(yè)信息

邊緣AI芯片物聯(lián)網行業(yè)的驚人崛起

發(fā)布時間:2020-11-17

瀏覽次數(shù):272

1. 簡介

未來五年內,邊緣AI預計將以100%以上的速度增長,是芯片行業(yè)蕞大的趨勢之一。與基于云的AI相反,推理功能本地嵌入在位于網絡邊緣的物聯(lián)網(IoT)端點上,例如手機和智能揚聲器。物聯(lián)網設備與相對較近的邊緣服務器進行無線通信。該服務器決定將哪些數(shù)據(jù)發(fā)送到云服務器(通常,對時間不太敏感的任務(如重新培訓)所需的數(shù)據(jù))以及在邊緣服務器上處理哪些數(shù)據(jù)。

邊緣AI芯片圖片

圖1  邊緣AI芯片圖片

2. AI芯片現(xiàn)狀

與基于云的AI(數(shù)據(jù)需要從端點到云服務器來回移動)相比,邊緣AI更容易解決隱私問題(圖5)。它還具有響應速度快和減少云服務器工作負載的優(yōu)勢。想象一下需要基于AI做出決策的自動駕駛汽車。由于需要快速做出決策,因此系統(tǒng)無法等待數(shù)據(jù)傳輸?shù)椒掌鞑⒎祷?。由于電池供電?/span>IoT設備通常會施加功率限制,因此這些IoT設備中的推理引擎也需要非常節(jié)能。

邊緣AI框架.jpeg 

2  邊緣AI框架

如今,使用快速GPUASIC進行計算的邊緣AI芯片(邊緣服務器內部的芯片)可提供每秒約1-100兆次運算/瓦(Tops / W)的效率,蕞高效率為每秒每瓦(Tops / W)。對于物聯(lián)網實施,將需要更高的效率。Imec的目標是證明推理效率為10.000 Tops / W

3. 未來發(fā)展

通過研究模擬內存中計算架構,我們正在尋求一種不同的方法。這種方法打破了傳統(tǒng)的馮·諾依曼(Von Neumann)計算范式,后者基于將數(shù)據(jù)從內存發(fā)送到CPU(或GPU)進行計算。使用內存中模擬計算,可以在內存框架內完成計算,從而節(jié)省了來回移動數(shù)據(jù)的大量功能。在2019年,我們展示了一個基于SRAM的模擬內存計算單元(內置22nm FD-SOI技術),可實現(xiàn)1000Tops / W的效率。為了將這個數(shù)字進一步提高到10.000Tops / W,我們正在研究非易失性存儲器,例如SOT-MRAMFeFET和基于IGZO的存儲器。

邊緣AI芯片應用場景

圖3  邊緣AI芯片應用場景

轉載請注明來源:airconditioningrepair-tarzana-ca.com

新聞資訊

NEWS