【ラジコン自動運転】そろそろラジコンAIレーシングカーできるかも???リンクいろいろ【TPU?GPU?VPU?】

スポンサーリンク
広告

ラジコン自動運転 DonkeyCarから。。

ずいぶん前に、妄想して。。Raspberry Pi+OpenCVあたりでできるかな?と。。

【妄想企画】Raspberry Pi 2 と OpenCV 3でラジコンの自動運転!?レースできたらおもろそう
まずは、この動画 OpenCV でpythonでニューラルネットワークで、ラジコンを自動運転しています。 OpenCV Python ...

そして。。DonkeyCarなるものも試して。。

【ラジコン自動運転】Donkey 2のソフトウェアのインストールとか。。やってみる【Python】
やるやる詐欺で・・(笑) ここまで組んでみて。。 組んだ車からSDカードが抜けないので。。めんどくさくなって。。やるやる詐欺になって...

とか。。やってはみたものの。。

Jetson X1は10万円だったし、Raspberry PiでTensorflowでは画像が64×32ドットくらいまでしかできなくて。。 なんとも。。 レースできる感じじゃなかったんですが。。

Jetson Nano(GPU)は2万弱だし。。 GoogleはCoralシリーズのTPUを。。Intelは、Intel Movidius Myriad X Vision Processing Unit (VPU)+OpenVINOで。。 他にもいろんなの出してきていますね。

なんなら。。

JetRacerやJetBotあたりが、かなり安くなってきている。。

これJetson nano付きだもんなぁ~。。

アマゾンからは、DeepRacer

AWS DeepRacer(機械学習で運転する 1/18 スケールのクルマ型デバイス)| AWS
AWS DeepRacer は、文字どおり機械学習を自由自在に操る最速の手段です。強化学習により駆動する 1/18 スケールの完全自走型レーシングカー、3D レーシングシミュレーター、そしてレースの世界大会をご用意しています。

顔認識とかだけなら、M5StickVとかも候補に入ってくる。

なんと。。これは5000円以下!

性能比較1

これらのチップを比較してくれているサイトを発見

JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary
1. 概要 追記 公開当初Jetson Nanoの性能表記に誤記があったため修正しています。 最近組み込みデバイス(以下エッジと表現)で画像認識や音声認識、センサ情報の処理といったディープラーニングを利用した処理を実行することが容易になっている。低消費電力で、高速にディープラーニングを処理するためのエッジAI用アクセラ...

凄いですねぇ~ わずか 2年ちょっとくらいの間にこんなに発展。。

ラジコンレース用だと、たぶん、そろそろ使えそうな感じになってきてます。

Raspberry Pi + Coral USBなどと合わせた比較の記事も発見

RaspberryPi 4でPoseNetを動かしてエッジデバイスのパフォーマンスを比較する (おまけ:Jetson Xavier) - Qiita
【お詫び】 電源を変えて再計測したものに内容を更新しました。 当初公開した記録はRaspberryPi4の電源に不備があり、十分な電力を供給できておらずパフォーマンスが低下していたようです。 クロック周波数は最大周波数で回ってい...

この記事からの転載ですが。。 480×360で30フレームくらいの画像を推論できるようです。

解像度 Platform 推論時間 (ms) FrameIO (ms) FPS 備考
640×480 RaspberryPi3 + EdgeTPU 94.4 27.48 7.16
RaspberryPi4 + EdgeTPU 15.0 18.96 19.54
DevBoard 13.5 15.26 24.36
JetsonNano + EdgeTPU 15.0 8.53 29.89 カメラの性能限界
480×360 RaspberryPi3 + EdgeTPU 53.5 12.34 12.57
RaspberryPi4 + EdgeTPU 8.0 4.24 29.98 カメラの性能限界
DevBoard 8.2 10.92 30.18 カメラの性能限界
JetsonNano + EdgeTPU 9.7 4.21 30.06 カメラの性能限界

凄いですね。Jetson nano+Coral TPUがやはりいいのでしょうが。。Raspberry Pi4凄いんですね。

この方の、Qiita記事スゴイのいっぱいのってます。

@rheneのマイページ - Qiita
製造業向けに機械学習やAIを適用すべく勉強しています。 ラズパイやJetsonなどのエッジデバイスを使ってなにかしたいと思っています。

性能比較2

こちらは、NCS2やCoralを何本も刺して高速化してます。

PINTO0309/MobileNet-SSD-RealSense
RaspberryPi3(RaspberryPi/Raspbian Stretch) or Ubuntu + Multi Neural Compute Stick(NCS/NCS2) + RealSense D435(or USB Camera or PiCamera) + MobileNet-SSD(MobileN...

これまた凄い。

RaspberryPi3で複数のMovidius Neural Compute Stick をシームレスにクラスタ切り替えして高速推論性能を維持しつつ熱暴走(内部温度70℃前後)を回避する - Qiita
MobileNet-SSD-RealSense  ◆ 前回記事 RaspberryPi3 Model B(プラスなし) で TX2 "より少し遅い" MobilenetSSDの物体検出レートを獲得し...

DeepLearningの推論をそれぞれのStickに入れて、それらを同時にすることで、顔認識、人認識、線認識など別々のTPUで行って、その結果をCPU側で合成しているんですね。

お見事です。力業ですが。。すごい!!

@PINTOのマイページ - Qiita
英文の誤り、日本文の誤り、ご指摘願います。 分かりにくい部分は積極的にご質問・コメントください。 折を見て記事を修正します。 貧乏ホビープログラマ。 Intel Software Innovator Program member

転移学習

上記は、推論だけなんですが。。 Donkey Carの学習は基本Tensorflowなんで。。学習の方は。。Google Colaboratoryが出来てきているので、それだけでも作ろうかな?? なんて。。思ってたら。。

ググったら。。出てきた(笑)

FaBoPlatform/DonkeyColab
Contribute to FaBoPlatform/DonkeyColab development by creating an account on GitHub.

いやぁ~本当に世の中スゴイ。。

妄想の続き

JetRacer系でいくのもいいし。。

NVIDIA-AI-IOT/jetracer
An autonomous AI racecar using NVIDIA Jetson Nano. Contribute to NVIDIA-AI-IOT/jetracer development by creating an account on GitHub.

この場合、Jetson nanoとTPUだな。。

Donkeyだとすると、こんなキットも売ってる。。Raspberry 4b付き

このあたりのキットで、まずやってみてもいいかも。。

その場合、TPUでも、VPUでも良さそうですね。

VPU+OpenVINOでするより、TPUでそのままTensorflow liteを動かす方が楽かな?

おもしそうだなぁ~~

たぶん、2~3種類の推論を走らせて。。例えば、前方の車両を物体認識用、コースの認識用。それとコースの定常的な位置の推定用 くらいあれば、できそう。

上のリポジトリ類を見てたら。。なんとなくDeep learningのモデルは、以下のような感じなのかな??

MobileNet-SSD:前方の車両認識

Apache MXNet :コース認識(Donkey Carそのもの)

定常的なコース位置の推定は。。どんなモデルがいいんだろう??ラジコンだと俯瞰カメラでもいいのかな??

コメントを残していただけるとありがたいです

Loading Facebook Comments ...
%d人のブロガーが「いいね」をつけました。