サーマル & 可視光AIカメラモジュール - FAQとガイド
AI IPカメラ
目次
この驚くべきモジュールに関する詳細情報を提供してください.
これはですデュアルスペクトルイメージングモジュール ドローン用に特別に設計されています, 目に見える光と赤外線熱イメージングを単一のコンパクトユニットにデュアルスペクトル融合と統合する. 重要な機能が含まれます:
- 全天候型パフォーマンス: 昼間にターゲットを検出および追跡できる, 低光, 煙, または霧.
- AI搭載のターゲット追跡: 組み込みのAIアルゴリズムは、歩行者や車両を自動的に認識して追跡します 200 メートル.
- コンパクト & 軽量: モジュールは超コンパクトです (20 × 20 × 36 ミリ) そして超軽量 (<37 グラム), ドローンに簡単にマウントできます, ジンバル, およびFPVシステム.
- 低遅延 & 効率的: 超低消費電力 (<0.8 W) リアルタイムのイメージングレイテンシ付き <60 ミズ.
Betaflightとどのように統合されますか?
モジュールは、ようなオープンソースのフライトコントローラーと完全に互換性がありますBetaflight. 統合機能:
- ビデオ出力: FPVまたはテレメトリー統合の標準ビデオ出力インターフェイス.
- データインターフェイス: AI認識データまたはターゲット座標をフライトコントローラーに送信するためのUART/I2Cをサポートします, フライトシステムが自律または支援ナビゲーションにこのデータを使用できるように.
- クイック展開: 取り付けて統合することができます 5 モジュラー設計による議事録.
制御可能ですか?, または、ドローンを制御できます?
AIモジュール自体ドローンの飛行を直接制御できます. インテリジェントなイメージングとターゲット追跡データを提供します. フライトコントローラーは、ナビゲーションまたはミッションの実行のためにこの情報に基づいて決定を下すことができます.
AIモジュールには装備されています UARTインターフェース これは、検出されたターゲットのリアルタイム位置データを継続的に送信します, 人間や乗り物など, フライトコントローラーに直接. これらの正確な座標を受信します, フライトコントローラーはできます ドローンの態度を動的に調整します, オリエンテーション, そして飛行経路, 自律的なターゲット追跡とインテリジェントナビゲーションを有効にします. このシームレスなデータ交換により、ドローンが可能になります リアルタイムでターゲットを移動することに反応します, ターゲットをフォローまたは観察しながら、安定した飛行を維持します, 最小限のオペレーター介入で複雑なミッションを実行します. AIの認識と飛行制御の統合により、運用効率とミッションの安全性の両方が向上します, 監視に理想的にします, 検査, および検索とレスキューアプリケーション.
AIは可視画像またはサーマルシグネチャを認識していますか?
モジュールは、人と車の目に見える光と熱画像を識別することをサポートします.
- 目に見える光認識: 昼間または明るい環境の場合.
- 熱イメージング認識: 夜間または視認性の低い条件の場合.
- デュアルスペクトル融合: 目に見えるものとサーマルイメージングをリアルタイムで組み合わせて、状況認識と精度を向上させる.
サーマルカメラと従来のカメラから組み合わせた画像を見ることができますか?
はい, モジュールは、ターゲットの認識と追跡をサポートします. 一度ターゲット (人または車両) 検出されます, UAVは、リモートコントローラーを介して画像ガイドモードに切り替えることができます. アクティベーション後, モジュールは、UARTを介してリアルタイムのターゲット位置データをフライトコントローラーに送信します, UAVがその態度を調整し、ターゲットに自動的に従うことを許可します.
モジュールはUAVに物理的に接続されています?
モジュールには2つのUARTインターフェイスがあります:
- 1つのUARTがUAVのリモートレシーバーに接続します.
- もう1つのUARTは、フライトコントローラーに接続します.
ビデオ出力は、CVBSインターフェイスを介して提供されます, ビデオ伝送システムを介して送信できます.
モジュールはどのように構成され、設定されていますか?
モジュールを構成するには2つの方法があります:
- 使用する Betaflight UAVフライトコントローラーチューニング用のソフトウェア.
- メーカーの使用 PCベースのソフトウェア モジュール構成用.
両方のソフトウェアツールには、詳細な操作手順とユーザーマニュアルが提供されます.
ターゲット取得自動またはマニュアルです?
モジュールは、自動ターゲット検出を実行します. 認識を有効にし、リモートコントローラーを介してターゲットを選択した後, UAVは画像ガイドモードに入り、ターゲットを自動的に追跡できます.
モジュールはUAV制御をどのように処理しますか, 特に垂直の動き?
水平ヨーコントロールは簡単です. 垂直方向の動きには、追跡精度を維持し、ターゲットを失わないように、調整されたピッチとスロットル制御が必要です. モジュールは、ターゲット位置データを提供して、フライトコントローラーが安定した追跡を維持するのを支援します.
より多くのFAQ
Q: システムが複数のオブジェクトを検出した場合, どちらに従うべきかをどのように決定しますか? システムがすでに1つのオブジェクトを追跡しているが、別の類似オブジェクトを検出している場合はどうなりますか? そして、追跡されたオブジェクトが一時的に別のオブジェクトが閉塞されるとどうなりますか? システムロジックについて説明できますか?
A: システムは、オペレーターが関心のあるオブジェクトを選択できるように設計されています. これは、リモートコントローラーを使用して行われます, ユーザーが画面上のカーソルを追跡したいターゲットに移動できる場所. 検出アルゴリズムは、複数のオブジェクトを同時に認識できます, しかし、追跡エンジンは単一のターゲットに積極的にのみ従うことができます. すでに追跡されている間に新しいオブジェクトが表示された場合, オペレーターがターゲットを手動で変更することを決定しない限り、システムは自動的に切り替わりません. 選択したオブジェクトが一時的に閉塞される場合 (例えば, 別の車両の前を通る1つの車両), 閉塞の期間と条件に応じて、システムはターゲットのロックを失う可能性があります. オクルージョンがクリアされたら, 再取得は自動的に発生する場合とそうでない場合があります, したがって、挑戦的なシナリオにはオペレーターの介入が必要になる場合があります.
Q: コミュニケーションに使用されるUARTプロトコル? CRSFですか, mavlink, または何か他のもの? プロトコルには何が含まれていますか? 制御チャネルを送信しますか, 特別なパケット, または他の種類のデータ? さらに, レシーバーとフライトコントローラーの間にモジュールがどのくらいのレイテンシを紹介しますか?
A: モジュールはをサポートします CRSFプロトコル, 信頼できるために広く使用されています, レシーバーとフライトコントローラー間の低遅延通信. プロトコル内, 交換されたデータには、標準のチャネル情報が含まれます, テレメトリーパケット, その他の制御関連データ. フライトコントローラーがすでに動作するように設計されているのと同じ構造に従います, したがって、ユーザー側に追加の解析や翻訳は必要ありません. 追跡モジュールはレシーバーとフライトコントローラーの間にインラインになっているため, 重要な考慮事項は待ち時間です. 実際に, 追加のレイテンシは最小限です。私たちのテストでは、それが貢献していることを示しています 10 (ミリ秒), これは、飛行制御の目的では無視できます.
Q: ソフトウェアを見ることができますか、少なくともそれの説明? 構成オプションを理解することは私にとって非常に重要です.
A: はい. aを提供します 標準操作マニュアル モジュール用. このドキュメントでは、ソフトウェアインターフェイスについて説明します, 利用可能な構成オプション, 特定のユースケースを調整する方法. ユーザーが自分のニーズに応じてシステムをセットアップおよびカスタマイズする方法を完全に理解できるように、参照として機能します.
Q: より重要な質問: モジュール自体はオブジェクトを直接制御しません。相対的な変位情報のみを提供します. この変位データを処理するためにベータライトを変更する必要はありません? または別の方法があります?
A: 変更はありません Betaflight 必要です. このシステムは、Betaflightでそのまま動作するように設計されています. 変位情報を適切に統合するには、BetaFlightシステム内でいくつかの簡単な構成手順のみを実行する必要があります. これらの手順はすべて、ユーザーマニュアルで詳しく説明されています, そのため、オペレーターはファームウェアやコードを変更せずに明確な指示に従うことができます.
Q: サーマルイメージングモジュールに関して - MIPI CSI-2やUSBなどの低遅延出力を提供してください 3.0, または、それはUSBだけですか? ASICチップを使用してCVBSビデオをキャプチャする多くのUSBベースのモジュールを見てきました, そして、処理パイプラインの各ステップにはフレームバッファリングが必要です, 顕著なレイテンシを追加します. 利用可能なより速いソリューションはありますか??
A: 私たちのデザインは独自のものに基づいています ASICチップ 画像処理用. 多くの従来のUSBモジュールとは異なります, システム内の画像は、外部メモリや複数のバッファ段階を通過する必要はありません, これにより、遅延が大幅に減少します. 可視カメラ用, 画像キャプチャからトランスミッション出力までの測定されたエンドツーエンドの遅延は内にあります 50 (ミリ秒). 赤外線 (熱) イメージングパスは、追加の処理が含まれているため、レイテンシがわずかに高くなります. オンボード認識機能が有効になっている場合, システムの遅延は数十ミリ秒増加する可能性があります, タスクの複雑さに応じて. しかしながら, 通常の動作条件下, 総レイテンシーはです 下に置かれた 100 (ミリ秒), これはUAVパイロットおよびリアルタイムの監視アプリケーションに適しています.

質問する
ご回答をありがとうございました。 ✨