Thermique & Module de caméra Visible Light AI - FAQ et guide
Table des matières
Veuillez fournir plus d'informations sur cet incroyable module.
C'est unmodule d'imagerie à double spectre spécialement conçu pour les drones, intégrant la lumière visible et l'imagerie thermique infrarouge avec fusion à double spectre dans une seule unité compacte. Les principales fonctionnalités incluent:
- Performances par tous les temps: Capable de détecter et de suivre des cibles à la lumière du jour, faible luminosité, fumée, ou brouillard.
- Suivi de cible alimenté par l'IA: Les algorithmes d'IA intégrés reconnaissent et suivent automatiquement les piétons et les véhicules jusqu'à 200 mètres.
- Compact & Poids léger: Le module est ultra-compact (20 × 20 × 36 mm) et ultra léger (<37 g), ce qui facilite le montage sur les drones, cardan, et systèmes FPV.
- Faible latence & Efficace: Consommation d'énergie ultra-faible (<0.8 W) avec latence d'imagerie en temps réel <60 Mme.
Comment s'intègre-t-il à Betaflight?
Le module est entièrement compatible avec les contrôleurs de vol open source tels queBetaflight. Fonctionnalités d'intégration:
- Sortie vidéo: Interfaces de sortie vidéo standard pour l'intégration FPV ou télémétrie.
- Interfaces de données: Prend en charge UART/I2C pour transmettre des données de reconnaissance AI ou des coordonnées cibles au contrôleur de vol, permettre au système de vol d'utiliser ces données pour une navigation autonome ou assistée.
- Déploiement rapide: Peut être monté et intégré à l'intérieur 5 minutes grâce à sa conception modulaire.
Est-ce seulement contrôlable, ou peut-il contrôler le drone?
Le module IA lui-mêmepeut contrôler directement le vol du drone. Il fournit des données d'imagerie intelligente et de suivi de cible. Le contrôleur de vol peut alors prendre des décisions basées sur ces informations pour la navigation ou l'exécution de la mission..
Le module AI est équipé d'un Interface UART qui transmet en continu les données de position en temps réel des cibles détectées, comme les humains et les véhicules, directement au contrôleur de vol. En recevant ces coordonnées précises, le contrôleur de vol peut ajuster dynamiquement l’attitude du drone, orientation, et trajectoire de vol, permettant un suivi de cible autonome et une navigation intelligente. Cet échange de données transparent permet au drone de réagir aux cibles en mouvement en temps réel, maintenir un vol stable tout en suivant ou en observant des cibles, et exécuter des missions complexes avec une intervention minimale de l'opérateur. L'intégration de la perception de l'IA et du contrôle de vol améliore à la fois l'efficacité opérationnelle et la sécurité des missions., Le rendre idéal pour la surveillance, inspection, et applications de recherche et de sauvetage.
L'IA reconnaît-elle les images visibles ou les signatures thermiques?
Le module prend en charge l'identification de la lumière visible et des images thermiques des personnes et des voitures.
- Reconnaissance de la lumière visible: Pour les environnements diurnes ou bien éclairés.
- Reconnaissance par imagerie thermique: Pour la nuit ou dans des conditions de faible visibilité.
- Fusion à double spectre: Combine l'imagerie visible et thermique en temps réel pour une meilleure connaissance de la situation et une meilleure précision..
Puis-je voir une image combinée des caméras thermiques et conventionnelles?
Oui, le module prend en charge la reconnaissance et le suivi des cibles. Une fois une cible (personne ou véhicule) est détecté, le drone peut être commuté en mode guidé par image via la télécommande. Après activation, le module envoie des données de position cible en temps réel au contrôleur de vol via UART, permettant au drone d'ajuster son attitude et de suivre automatiquement la cible.
Comment le module est-il physiquement connecté au drone?
Le module dispose de deux interfaces UART:
- Un UART se connecte au récepteur distant du drone.
- L'autre UART se connecte au contrôleur de vol.
La sortie vidéo est fournie via une interface CVBS, qui peut être transmis via votre système de transmission vidéo.
Comment le module est-il configuré et configuré?
Il existe deux manières de configurer le module:
- En utilisant Betaflight logiciel pour le réglage du contrôleur de vol d'UAV.
- En utilisant le fabricant Logiciel basé sur PC pour la configuration des modules.
Des instructions de fonctionnement détaillées et des manuels d'utilisation seront fournis pour les deux outils logiciels..
L'acquisition de la cible est-elle automatique ou manuelle?
Le module effectue une détection automatique de la cible. Après avoir activé la reconnaissance et sélectionné la cible via la télécommande, le drone peut entrer en mode guidé par image et suivre automatiquement la cible.
Comment le module gère-t-il le contrôle du drone, mouvement surtout vertical?
Le contrôle du lacet horizontal est simple. Le mouvement vertical nécessite un contrôle coordonné du pas et des gaz pour maintenir la précision du suivi et éviter de perdre la cible.. Le module fournit des données de position cible pour aider le contrôleur de vol à maintenir un suivi stable.
Plus de FAQ
Q: Si le système détecte plusieurs objets, comment décide-t-il lequel suivre? Que se passe-t-il si le système suit déjà un objet mais détecte ensuite un autre objet similaire? Et que se passe-t-il si l'objet suivi est temporairement masqué par un autre? Pouvez-vous décrire la logique du système?
UNE: Le système est conçu pour permettre à l'opérateur de choisir l'objet qui l'intéresse. Cela se fait à l'aide de la télécommande, où l'utilisateur peut déplacer le curseur à l'écran vers la cible qu'il souhaite suivre. L'algorithme de détection peut reconnaître plusieurs objets en même temps, mais le moteur de suivi ne peut suivre activement qu'une seule cible. Si un nouvel objet apparaît alors qu'un autre est déjà suivi, le système ne commute pas automatiquement à moins que l'opérateur ne décide de modifier la cible manuellement. Dans le cas où l'objet sélectionné est temporairement occulté (par exemple, un véhicule passe devant un autre), le système peut perdre le verrouillage sur la cible en fonction de la durée et des conditions de l'occlusion. Une fois l'occlusion résolue, la réacquisition peut ou non se produire automatiquement, l'intervention de l'opérateur peut donc être nécessaire dans des scénarios difficiles.
Q: Quel protocole UART est utilisé pour la communication? Est-ce CRSF, Link, ou autre chose? Que contient le protocole? Est-ce qu'il transmet des canaux de contrôle, paquets spéciaux, ou d'autres types de données? Également, combien de latence votre module introduit-il entre le récepteur et le contrôleur de vol?
UNE: Le module prend en charge le Protocole CRSF, qui est largement utilisé pour des, communication à faible latence entre les récepteurs et les contrôleurs de vol. À l'intérieur du protocole, les données échangées comprennent des informations de canal standard, paquets de télémétrie, et autres données liées au contrôle. Il suit la même structure avec laquelle les contrôleurs de vol sont déjà conçus pour fonctionner., il n'y a donc pas besoin d'analyse ou de traduction supplémentaire du côté utilisateur. Étant donné que le module de suivi se trouve en ligne entre le récepteur et le contrôleur de vol, une considération importante est la latence. En pratique, la latence supplémentaire est minime : nos tests montrent qu'elle ne contribue qu'environ 10 millisecondes, ce qui est négligeable à des fins de contrôle de vol.
Q: Puis-je voir le logiciel ou au moins une description de celui-ci? Comprendre les options de configuration est très important pour moi.
UNE: Oui. Nous fournirons un manuel d'utilisation standard pour le module. Ce document décrira l'interface du logiciel, options de configuration disponibles, et comment effectuer des ajustements pour votre cas d'utilisation spécifique. Il servira de référence afin que les utilisateurs puissent pleinement comprendre comment configurer et personnaliser le système en fonction de leurs besoins..
Q: Une question plus critique: le module lui-même ne contrôle pas directement les objets, il fournit uniquement des informations de déplacement relatif. Betaflight n'a-t-il pas besoin d'être modifié pour traiter ces données de déplacement? Ou y a-t-il une autre méthode?
UNE: Aucune modification à Betaflight sont requis. Le système a été conçu pour fonctionner avec Betaflight tel qu'il est. Seules quelques étapes de configuration simples doivent être effectuées dans le système Betaflight pour intégrer correctement les informations de déplacement. Toutes ces étapes seront détaillées dans le manuel d'utilisation, afin que les opérateurs puissent suivre des instructions claires sans modifier le micrologiciel ou le code.
Q: Concernant le module d'imagerie thermique : fournissez-vous des sorties à faible latence telles que MIPI CSI-2 ou USB 3.0, ou est-ce uniquement USB? J'ai vu de nombreux modules USB qui utilisent des puces ASIC pour capturer des vidéos CVBS., et chaque étape de leur pipeline de traitement nécessite une mise en mémoire tampon de trame, ce qui ajoute une latence notable. Existe-t-il une solution plus rapide disponible?
UNE: Notre conception est basée sur un système exclusif Puce ASIC pour le traitement d'images. Contrairement à de nombreux modules USB conventionnels, l'image dans notre système n'a pas besoin de passer par une mémoire externe ou plusieurs étapes tampon, ce qui réduit considérablement la latence. Pour la caméra à lumière visible, le délai de bout en bout mesuré entre la capture d'image et la sortie de transmission est compris entre 50 millisecondes. L'infrarouge (thermique) le chemin d'imagerie a une latence légèrement plus élevée en raison du traitement supplémentaire impliqué. Si les fonctionnalités de reconnaissance intégrées sont activées, le délai du système peut augmenter de plusieurs dizaines de millisecondes, en fonction de la complexité de la tâche. toutefois, dans des conditions normales de fonctionnement, la latence totale est gardé sous 100 millisecondes, qui convient aux applications de pilotage d'UAV et de surveillance en temps réel.

Poser une question
Merci pour votre réponse. ✨