ログイン
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 40 大学院工学研究科・工学部
  2. 40D 学位論文
  3. 修士論文
  4. 2023年度

VitisAIを用いたYOLOv7-tinyのFPGA実装

http://hdl.handle.net/10076/0002000677
http://hdl.handle.net/10076/0002000677
7e54f7e0-e78a-4093-8cc1-088c7a783f84
名前 / ファイル ライセンス アクション
2023ME0210.pdf 2023ME0210.pdf (7.2 MB)
Item type 学位論文 / Thesis or Dissertation(1)
公開日 2024-04-10
タイトル
タイトル VitisAIを用いたYOLOv7-tinyのFPGA実装
言語 ja
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_46ec
資源タイプ thesis
著者 古市, 諒成

× 古市, 諒成

ja 古市, 諒成

Search repository
抄録
内容記述タイプ Abstract
内容記述 本研究ではFPGA を用いたYOLOv7-tiny アクセラレータを提案する.開発ツールとしてAMD(旧Xilinx)社が提供するVitis AI を使用した.物体検出はコンピュータビジョンにおける挑戦的なタスクである.YOLOのような深層学習アルゴリズムではGPUが広く使用されているが,消費電力やハードウェアリソースに制限のあるエッジデバイスでの利用には向かない.そこで本研究では,組込みシステムを対象としてFPGA を使用した物体検出システムを提案する. AI 推論用の開発プラットフォームであるVitis AI を用いて,YOLOv7-tiny を組み込み開発ボードのUltra96v1に実装した.Vitis AI を用いる利点は,機械学習モデルのネットワークの深さに依存しない一定のリソース消費量である点や高度に抽象化されたハードウェア設計で開発期間を短縮することができる点である.
Vitis AI で提供されるDPU(Deep Learning Processor Unit)を使用して畳み込み演算の高速化を図った.また,モデルはVitis AI クオンタイザを用いて8 ビットの整数型に量子化した.DPU はSoC デバイスのプログラマブルロジック(PL)内に1 つのブロックとして統合され、プロセッシングシステム(PS)に直接接続可能である.物体検出の前処理と後処理をPS で行い,推論部分をPL のDPU で処理する.前処理として,画像のロードとリサイズを行う.そして,リサイズされた画像を入力としてDPU で推論処理を行う.後処理では,DPU の出力の整形やシグモイド関数による正規化,非最大値抑制処理(NMS)を行う.設計したシステムは5000 枚のテスト画像による評価でスループットは7.6FPS,平均消費電力は6.18W であった.
言語 ja
抄録
内容記述タイプ Abstract
内容記述 In this study, we propose an FPGA-based YOLOv7-tiny accelerator. We used Vitis AI provided by AMD (formerly Xilinx) as a development tool. Object detection is a challenging task in computer vision. Although GPUs are widely used in deep learning algorithms such as YOLO, they are not suitable for edge devices with limited power consumption and hardware resources. Therefore, we propose an FPGA-based object detection system for embedded systems. We implemented YOLOv7-tiny on an embedded development board Ultra96v1 using Vitis AI, a development platform for AI inference. The advantages of using Vitis AI are constant resource consumption independent of the depth of the machine learning model network, and a highly abstracted hardware design to shorten the development time.
The Deep Learning Processor Unit (DPU) provided by Vitis AI is used to accelerate convolutional operations. The models were quantized to 8-bit integers using the Vitis AI quantizer, and the DPU was integrated as a single block in the SoC device’s programmable logic (PL), which can be directly connected to the processing system (PS). The PS performs the pre-processing and post-processing of object detection, while the inference part is processed by the DPU in the PL. Image loading and resizing are performed as pre-processing. The resized images are then used as input for inference processing in the DPU. Post-processing includes shaping the DPU output, normalization with a sigmoid function, and non-maximum suppression (NMS). The designed system had a throughput of 7.6 FPS and an average power consumption of 6.18 W when evaluated on 5000 test images.
言語 en
内容記述
内容記述タイプ Other
内容記述 三重大学大学院工学研究科情報工学専攻 コンピュータアーキテクチャ研究室
内容記述
内容記述タイプ Other
内容記述 43p
書誌情報
発行日 2024-03
フォーマット
内容記述タイプ Other
内容記述 application/pdf
著者版フラグ
出版タイプ VoR
出版タイプResource http://purl.org/coar/version/c_970fb48d4fbd8a85
出版者
出版者 三重大学
出版者(ヨミ)
値 ミエダイガク
修士論文指導教員
姓名 高木, 一義
言語 ja
資源タイプ(三重大)
値 Master's Thesis / 修士論文
戻る
0
views
See details
Views

Versions

Ver.1 2024-04-10 05:12:13.643889
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR 2.0
  • OAI-PMH JPCOAR 1.0
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3