WEKO3
アイテム
VitisAIを用いたYOLOv7-tinyのFPGA実装
http://hdl.handle.net/10076/0002000677
http://hdl.handle.net/10076/00020006777e54f7e0-e78a-4093-8cc1-088c7a783f84
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
|
Item type | 学位論文 / Thesis or Dissertation(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2024-04-10 | |||||||
タイトル | ||||||||
タイトル | VitisAIを用いたYOLOv7-tinyのFPGA実装 | |||||||
言語 | ja | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_46ec | |||||||
資源タイプ | thesis | |||||||
著者 |
古市, 諒成
× 古市, 諒成
|
|||||||
抄録 | ||||||||
内容記述タイプ | Abstract | |||||||
内容記述 | 本研究ではFPGA を用いたYOLOv7-tiny アクセラレータを提案する.開発ツールとしてAMD(旧Xilinx)社が提供するVitis AI を使用した.物体検出はコンピュータビジョンにおける挑戦的なタスクである.YOLOのような深層学習アルゴリズムではGPUが広く使用されているが,消費電力やハードウェアリソースに制限のあるエッジデバイスでの利用には向かない.そこで本研究では,組込みシステムを対象としてFPGA を使用した物体検出システムを提案する. AI 推論用の開発プラットフォームであるVitis AI を用いて,YOLOv7-tiny を組み込み開発ボードのUltra96v1に実装した.Vitis AI を用いる利点は,機械学習モデルのネットワークの深さに依存しない一定のリソース消費量である点や高度に抽象化されたハードウェア設計で開発期間を短縮することができる点である. Vitis AI で提供されるDPU(Deep Learning Processor Unit)を使用して畳み込み演算の高速化を図った.また,モデルはVitis AI クオンタイザを用いて8 ビットの整数型に量子化した.DPU はSoC デバイスのプログラマブルロジック(PL)内に1 つのブロックとして統合され、プロセッシングシステム(PS)に直接接続可能である.物体検出の前処理と後処理をPS で行い,推論部分をPL のDPU で処理する.前処理として,画像のロードとリサイズを行う.そして,リサイズされた画像を入力としてDPU で推論処理を行う.後処理では,DPU の出力の整形やシグモイド関数による正規化,非最大値抑制処理(NMS)を行う.設計したシステムは5000 枚のテスト画像による評価でスループットは7.6FPS,平均消費電力は6.18W であった. |
|||||||
言語 | ja | |||||||
抄録 | ||||||||
内容記述タイプ | Abstract | |||||||
内容記述 | In this study, we propose an FPGA-based YOLOv7-tiny accelerator. We used Vitis AI provided by AMD (formerly Xilinx) as a development tool. Object detection is a challenging task in computer vision. Although GPUs are widely used in deep learning algorithms such as YOLO, they are not suitable for edge devices with limited power consumption and hardware resources. Therefore, we propose an FPGA-based object detection system for embedded systems. We implemented YOLOv7-tiny on an embedded development board Ultra96v1 using Vitis AI, a development platform for AI inference. The advantages of using Vitis AI are constant resource consumption independent of the depth of the machine learning model network, and a highly abstracted hardware design to shorten the development time. The Deep Learning Processor Unit (DPU) provided by Vitis AI is used to accelerate convolutional operations. The models were quantized to 8-bit integers using the Vitis AI quantizer, and the DPU was integrated as a single block in the SoC device’s programmable logic (PL), which can be directly connected to the processing system (PS). The PS performs the pre-processing and post-processing of object detection, while the inference part is processed by the DPU in the PL. Image loading and resizing are performed as pre-processing. The resized images are then used as input for inference processing in the DPU. Post-processing includes shaping the DPU output, normalization with a sigmoid function, and non-maximum suppression (NMS). The designed system had a throughput of 7.6 FPS and an average power consumption of 6.18 W when evaluated on 5000 test images. |
|||||||
言語 | en | |||||||
内容記述 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 三重大学大学院工学研究科情報工学専攻 コンピュータアーキテクチャ研究室 | |||||||
内容記述 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 43p | |||||||
書誌情報 |
発行日 2024-03 |
|||||||
フォーマット | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | application/pdf | |||||||
著者版フラグ | ||||||||
出版タイプ | VoR | |||||||
出版タイプResource | http://purl.org/coar/version/c_970fb48d4fbd8a85 | |||||||
出版者 | ||||||||
出版者 | 三重大学 | |||||||
出版者(ヨミ) | ||||||||
ミエダイガク | ||||||||
修士論文指導教員 | ||||||||
姓名 | 高木, 一義 | |||||||
言語 | ja | |||||||
資源タイプ(三重大) | ||||||||
Master's Thesis / 修士論文 |