基于NXP i.MX8QM的AI影像辨識(shí)與車(chē)輛識(shí)別方案
現(xiàn)今自動(dòng)化駕駛以及輔助駕駛越來(lái)越普遍化的情況下,對(duì)于edge computing的需求也越來(lái)越提升。
如何幫助客戶開(kāi)發(fā)AI應(yīng)用程式成為新的課題。
品佳在去年提出了eIQ edge運(yùn)算的解決方案,詳細(xì)請(qǐng)參考:
https://www.wpgdadatong.com/tw/solution/detail?PID=5260
今年2020,在此介紹新的eIQ 2.0,大幅提升了效率以及各類(lèi)使用方式。
此方案基于NXP 原生 BSP 5.4.24_2.1.0做開(kāi)發(fā),加入Python的元素,并且可使用GPU/NPU做AI 類(lèi)神經(jīng)網(wǎng)路的運(yùn)算,使得效率以及應(yīng)用場(chǎng)景皆更完整。
首先使用pip安裝python壓縮包:
使用影像識(shí)別的范例為: 以經(jīng)典圖片grace_hopper.bmp做分別:
2019年初版eIQ:
Inference time約需330ms.
2020年eIQ2.0 (PyeIQ):
可以看出以GPU運(yùn)算的能力, 相同使用 mobilenet model, 使用TensorflowLite只需要約10ms, 速度及效率快上30倍!!
另外eIQ2.0提供即時(shí)影像輸入以及視頻辨識(shí)的功能:
使用臺(tái)灣實(shí)景街道拍攝的影片做物件識(shí)別的專(zhuān)案
可以看出i.MX8QM實(shí)測(cè)效能為30ms。
此方案提供下列NNAPI表供各個(gè)平臺(tái)以及算法做開(kāi)發(fā)
此方案整合各家不同算法并提供對(duì)應(yīng)的API供客戶做開(kāi)發(fā)使用。
并且搭配上i.MX8QM 4核A53+2核A72+2顆內(nèi)包GC7000XSVX GPU,可以做到利用GPU運(yùn)算AI以及圖像技術(shù),且穩(wěn)定提供系統(tǒng)資源。
目前已有數(shù)家客戶以此方案開(kāi)發(fā)車(chē)用市場(chǎng)的應(yīng)用。
品佳FAE團(tuán)隊(duì)將以此方案為基礎(chǔ),協(xié)助所有客戶開(kāi)發(fā)相關(guān)AI領(lǐng)域的應(yīng)用。
? 場(chǎng)景應(yīng)用圖
? 方案方塊圖
? 核心技術(shù)優(yōu)勢(shì)
1. Automotive Gade, ASIL-B
2. 16x Vec4-Shader GPU, 32 compute units OpenGL? ES 3.2 and Vulkan? support Tessellation and Geometry Shading
3. 2xARM A72 core + 4 A53 core
4. MIPI CSI可同時(shí)接入兩個(gè)高清攝像頭
5. 品佳提供跨平臺(tái)(PC to I.MX)的ML(Machine Learning)應(yīng)用程式
? 方案規(guī)格
Python 3.7
TensorFlow 2.1
TensorFlowLite 2.1
OpenCV 4.2.0
ArmNN 19.08
評(píng)論