勉強しないとな~blog

ちゃんと勉強せねば…な電気設計エンジニアです。

機械学習

OAK-D S2進める - 手検出サンプル2

前回の続き。 nokixa.hatenablog.com やったこと 環境 実施 モデル変更 BPF使用 モデル変更&BPF使用 ここまで やったこと 前回のhand_trackerのサンプルで、OAK-Dデバイスでなく動画ファイルを入力にできるとのことで、試した。 内部でMediaPipeが使用されて…

OAK-D S2進める - 手検出のサンプル

また続き。 ユースケース 最初のステップの次として、HelloWorldのほかに書かれているのが、ユースケース例。 DepthAI’s Documentation — DepthAI documentation | Luxonis これを見ると、Hand Trackingのサンプルが出ていたので、これをやってみたい。 Hand…

OAK-D S2進める - HelloWorld

OAK-D S2の続き。 Hello World GitHubリポジトリクローン 環境作成 実行 ここまで Hello World 公式ドキュメントを見ると、デモアプリを動かしてみた次のステップとして、HelloWorldプロジェクトでコーディングしてみよう、というのがある。 Hello World — D…

OAD-D S2進める - USBケーブル

去年の10月に買ってから全然進んでいなかったので。 今回はUSBケーブルの件について。 nokixa.hatenablog.com 概要 OAK-D S2では7.5Wの電力が必要だったが、今使っているPCのUSB3.0 Type-Aポートでは供給不可能だったので、 Thunderboltのポート(コネクタ自…

姿勢推定アルゴリズム調べ

姿勢推定に今までOpenPose、MediaPipe、YOLOv8を使ってきたが、他にも色々あるようなので整理してみる。 2024年2月現在調べたところで。 まだ調べ切れていないかも。 フリーで使えるもの(とは言えライセンスの制約あり)と、商用のものに分けてみる。 個人で…

YOLOv8試し

会社で必要になったので、YOLOのv8を試してみる。 公式GitHub やりたいこと 環境準備 推論実行 GPU使う GPU使って推論 以上 公式GitHub github.com ↑ 頻繁にバージョンアップするので、v8.1.0のタグが付いているところのリンク。 ドキュメント見ると、YOLO v…

OAK-D S2買った

買おうか悩んでいたOAK-D S2、前々回の記事書いた直後にポチッとして、H ZETTRIO見た帰りに受け取った。 ということで、さっそく開封、動かしてみる。 まず開封 動かしてみる 公式ドキュメント見てみる チュートリアルを動かしてみる 電力確認 PCのUSBポート…

MediaPipeやってみる - 2

MediaPipeの公式サイト見てたら、ブラウザ上ですぐ試せるデモがあったので。 公式サイト Hand Landmark Detectionを試す (ついで1) ブログ用のgif加工作業 (ついで2) MediaPipeで顔隠し 今回はここまで 公式サイト MediaPipe Studio MediaPipeに入っている色…

MediaPipeやってみる - 1

前回まで、OpenPoseを使って画像からの人の姿勢推定をしてたが、GoogleのMediaPipeでもそういったことができると聞いたことがあるので、試してみる。 参考 MediaPipe概要確認 conda環境作成 まずMOT16で試し。 自分のピアノ動画でやってみる。 hand_landmark…

OpenPoseやってみる - 4

OpenPose続き。 nokixa.hatenablog.com 今回は内容だらだら長め。 やっておきたいこと 使うデータ ほかにも お台場ガンダム はにわ ディズニーランドのくまさん 初音ミクさん カッチカチのひと ポケモン 兵長イラスト 小ネタ : Bingチャットでバッチファイル…

OpenPoseやってみる - 3

前回に続き、OpenPoseのデモをもう少し動かしてみる。 nokixa.hatenablog.com やってみること 手と顔の認識 解像度落とす 処理結果保存 姿勢情報のファイル出力 別の動画を使用 自分で撮影した動画で 23/11/07 追記 今のところ評価 ここまで やってみること …

OpenPoseやってみる - 2

前回の続き。 公式のOpenPoseのサンプルから試しに動かしてみる。 nokixa.hatenablog.com ビルド済みバイナリを動かしてみる リリース版ダウンロード モデルダウンロード デモ実行 今回はここまで ビルド済みバイナリを動かしてみる Pythonから動かす前に、…

OpenPoseやってみる - 1

次のネタ。 OpenPoseを使って、画像からの人の姿勢推定をやってみたい。 概要 やり方候補 OpenPoseの学習済みモデルを、OpenCVのdnnモジュールで読み込む tf-pose-estimationリポジトリを使う pytorch-openpose OpenPose公式のドキュメント やり方選択 ここ…

GPU使ってYOLO動かす

前回、YOLOをお試しで動かして画像認識したが、CPUでの動作だった。 今回、Windows環境でGPUを使えるようにセットアップする。 nokixa.hatenablog.com 参考サイト 物体認識に使う画像 セットアップ手順 NVIDIAドライバーインストール Build Tools for Visual…

画像物体認識お試し

前回、カメラ(EZVIZ CP1)からRTSP受信できることが確認できたので、画像からの物体認識を簡単に試してみる。 nokixa.hatenablog.com 結果だけ先に やり方 condaでYOLO試し用の環境作成 GitHubリポジトリのクローン 環境セットアップ コマンドプロンプトでana…