會議論文
學年 | 113 |
---|---|
學期 | 1 |
發表日期 | 2024-08-22 |
作品名稱 | 基於張量處理之即時物件偵測應用於大型人形機器人 |
作品名稱(其他語言) | Real-time object detection based on tensor processor |
著者 | 劉智誠; 林怡仲; 趙子賢; 林佳璇 |
作品所屬單位 | |
出版者 | |
會議名稱 | National Conference on Advanced Robotics |
會議地點 | Taipei, Taiwan |
摘要 | 本論文提出一個基於深度學習之對於張量處理器進行即時物件偵測進行輕量化之方法,並針對箭頭形狀的物件進行辨識,使人形機器人能夠在受限的平台上進行即時影像辨識。主要有兩個部分:(1)神經網路訓練及(2)基於張量處理器之神經網路之表現比較。處理器神經網路之表現,在同樣的數據樣本下分別訓練好yolov5 n以及yolov5s兩種深度學習網路模型,之後將會使用TPU作為即時物件偵測之工具。與圖形處理器(GPU)相比,TPU採用低精度(8位)計算,以降低每步操作使用的晶體管數量。降低精度對於深度學習的準確度影響很小,但卻可以大幅降低功耗、加快運算速度。模型會進行使用 edgetpu_compiler 轉換EdgeTpu可識別tflite模型,要能夠讓EdgeTpu能識別使用之tflite模型,必須要先將一個包含fake qnantization nodes的模型(type float 32),經過 Quantization-aware training 量化感知訓練後,產生一個量化模型 (pb model , type uint8),經過 Frozen Graph 處理與Convert(TOCO),最後,透過 edgetpu_compiler 指令轉換成EdgeTpu可識別模型(tflite)。針對yolov5 n與yolov5 s進行實際驗證的量化後,可以得出yolov5n在加上Edge TPU運算為比較適合實驗平台之模型,且在保持一定的準確度下,大形人形機器人依然能進行即時的物件辨識。 |
關鍵字 | 卷積神經網路;人形機器人;YOLO ;深度學習;即時物件偵測 |
語言 | zh_TW |
收錄於 | |
會議性質 | 國內 |
校內研討會地點 | 無 |
研討會時間 | 20240822~20240824 |
通訊作者 | |
國別 | TWN |
公開徵稿 | |
出版型式 | |
出處 | |
相關連結 |
機構典藏連結 ( http://tkuir.lib.tku.edu.tw:8080/dspace/handle/987654321/127131 ) |