열의 & 가시 광선 AI 카메라 모듈 - FAQ 및 가이드

열의 & 가시 광선 AI 카메라 모듈 - FAQ 및 가이드

이 놀라운 모듈에 대한 자세한 정보를 제공하십시오.

이것은 a입니다이중 스펙트럼 이미징 모듈 드론을 위해 특별히 설계되었습니다, 단일 소형 장치에서 가시 광선 및 적외선 열 이미징을 이중 스펙트럼 융합과 통합. 주요 기능은 포함됩니다:

  • 전천후 성능: 일광에서 목표를 감지하고 추적 할 수 있습니다, 저 빛, 연기, 또는 안개.
  • AI 기반 대상 추적: 내장 AI 알고리즘은 보행자 및 차량을 자동으로 인식하고 추적합니다. 200 미터.
  • 콤팩트 & 경량의: 모듈은 초소형입니다 (20 × 20 × 36 mm) 초조합니다 (<37 지), 드론에 쉽게 장착 할 수 있습니다, 짐발, 및 FPV 시스템.
  • 낮은 대기 시간 & 효율적인: 매우 낮은 전력 소비 (<0.8 W) 실시간 이미징 대기 시간 <60 MS.

베타 플라이 라이트와 어떻게 통합됩니까??

모듈은 다음과 같은 오픈 소스 비행 컨트롤러와 완전히 호환됩니다.베타 플라이트. 통합 기능:

  • 비디오 출력: FPV 또는 원격 측정 통합을위한 표준 비디오 출력 인터페이스.
  • 데이터 인터페이스: AI 인식 데이터 또는 대상 좌표를 비행 컨트롤러로 전송하기위한 UART/I2C를 지원합니다., 비행 시스템이 자율적이거나 보조제 내비게이션 에이 데이터를 사용하도록 허용.
  • 빠른 배포: 내부에 장착 및 통합 될 수 있습니다 5 모듈 식 디자인으로 인한 분.

제어 할 수 있습니까?, 또는 드론을 제어 할 수 있습니다?

AI 모듈 자체드론 비행을 직접 제어 할 수 있습니다. 지능형 이미징 및 대상 추적 데이터를 제공합니다. 그런 다음 비행 컨트롤러는 내비게이션 또는 미션 실행을위한이 정보를 기반으로 결정을 내릴 수 있습니다..

AI 모듈에는 a가 장착되어 있습니다 UART 인터페이스 이는 감지 된 대상의 실시간 위치 데이터를 지속적으로 전달합니다, 인간과 차량과 같은, 비행 컨트롤러에 직접. 이러한 정확한 좌표를 받음으로써, 비행 컨트롤러는 할 수 있습니다 드론의 태도를 동적으로 조정하십시오, 정위, 그리고 비행 경로, 자율 대상 추적 및 지능형 내비게이션을 가능하게합니다. 이 원활한 데이터 교환은 드론을 허용합니다 실시간으로 이동 대상에 반응합니다, 목표를 팔로우하거나 관찰하는 동안 안정적인 비행을 유지하십시오, 최소한의 운영자 개입으로 복잡한 임무를 실행합니다. AI 인식과 비행 제어의 통합은 운영 효율성과 미션 안전을 향상시킵니다., 감시에 이상적입니다, 검사, 및 검색 및 구속 응용 프로그램.

AI는 가시 이미지 또는 열 서명을 인식합니까??

이 모듈은 사람과 자동차의 가시 광선 및 열 이미지 식별을 지원합니다..

  • 가시 광선 인식: 주간 또는 조명이 잘되는 환경.
  • 열 이미징 인식: 야간 또는 가시성 조건의 경우.
  • 이중 스펙트럼 퓨전: 향상된 상황 인식 및 정확도를 위해 가시 및 열 이미징을 실시간으로 결합합니다..

열 및 기존 카메라에서 결합 된 이미지를 볼 수 있습니까??

예, 이 모듈은 대상 인식 및 추적을 지원합니다. 한 번 목표 (사람 또는 차량) 감지됩니다, 원격 컨트롤러를 통해 UAV를 이미지 유도 모드로 전환 할 수 있습니다.. 활성화 후, 모듈은 UART를 통해 실시간 대상 위치 데이터를 비행 컨트롤러에 보냅니다., UAV가 태도를 조정하고 대상을 자동으로 따라야합니다..

모듈은 UAV에 물리적으로 어떻게 연결됩니까??

모듈에는 두 개의 UART 인터페이스가 있습니다:

  1. 하나의 UART는 UAV의 원격 수신기에 연결됩니다.
  2. 다른 UART는 비행 컨트롤러에 연결됩니다.

비디오 출력은 CVBS 인터페이스를 통해 제공됩니다, 비디오 전송 시스템을 통해 전송할 수 있습니다.

모듈은 어떻게 구성되고 설정됩니까??

모듈을 구성하는 두 가지 방법이 있습니다:

  1. 사용 베타 플라이트 UAV 비행 컨트롤러 튜닝을위한 소프트웨어.
  2. 제조업체 사용 PC 기반 소프트웨어 모듈 구성의 경우.

두 소프트웨어 도구 모두에 대한 자세한 작업 지침 및 사용자 설명서가 제공됩니다..

대상 획득 자동 또는 매뉴얼입니다?

모듈은 자동 대상 감지를 수행합니다. 원격 컨트롤러를 통해 인식 및 대상 선택 후, UAV는 이미지 유도 모드로 들어가 대상을 자동으로 따라갈 수 있습니다..

모듈은 UAV 제어를 어떻게 처리합니까?, 특히 수직 이동?

수평 요 제어는 간단합니다. 수직 이동은 추적 정확도를 유지하고 대상을 잃지 않도록 조정 된 피치 및 스로틀 제어가 필요합니다.. 이 모듈은 비행 컨트롤러가 안정적인 추적을 유지하는 데 도움이되는 대상 위치 데이터를 제공합니다..

더 많은 FAQ

큐: 시스템이 여러 객체를 감지하면, 어떤 것을 따라야할지 결정합니까?? 시스템이 이미 하나의 객체를 추적하지만 다른 유사한 개체를 감지하는 경우 어떻게됩니다.? 그리고 추적 된 물체가 다른 사람에 의해 일시적으로 폐색되면 어떻게됩니까?? 시스템 논리를 설명해 주시겠습니까??
에이: 이 시스템은 운영자가 관심있는 개체를 선택할 수 있도록 설계되었습니다.. 이것은 원격 컨트롤러를 사용하여 수행됩니다, 사용자가 스크린 커서를 추적하려는 대상으로 이동할 수있는 곳. 감지 알고리즘은 동시에 여러 객체를 인식 할 수 있습니다., 그러나 추적 엔진은 단일 대상 만 적극적으로 따를 수 있습니다.. 이미 추적되는 동안 새 개체가 나타나면, 운영자가 대상을 수동으로 변경하기로 결정하지 않으면 시스템이 자동으로 전환되지 않습니다.. 선택한 객체가 일시적으로 폐색되는 경우 (예를 들면, 한 차량이 다른 차량 앞에서 지나가는 차량), 시스템은 폐색의 지속 시간과 조건에 따라 대상의 잠금을 잃을 수 있습니다.. 폐색이 사라지면, 재판소는 자동으로 발생하거나 발생하지 않을 수 있습니다, 따라서 도전적인 시나리오에서는 운영자 개입이 필요할 수 있습니다.


큐: 커뮤니케이션에 사용되는 UART 프로토콜? CRSF입니까?, Mavlink, 또는 다른 것? 프로토콜에는 무엇이 포함되어 있습니다? 제어 채널을 전송합니까?, 특수 패킷, 또는 다른 종류의 데이터? 또한, 수신기와 비행 컨트롤러간에 모듈이 얼마나 많은 지연 시간을 소개합니까??
에이: 모듈은 CRSF 프로토콜, 신뢰할 수있는 데 널리 사용됩니다, 수신기와 비행 컨트롤러 간의 저도 통신. 프로토콜 내부, 교환 된 데이터에는 표준 채널 정보가 포함됩니다, 원격 측정 패킷, 및 기타 제어 관련 데이터. 비행 컨트롤러가 이미 작동하도록 설계된 것과 동일한 구조를 따릅니다., 따라서 사용자 측면에서 추가 구문 분석 또는 번역이 필요하지 않습니다.. 추적 모듈이 수신기와 비행 컨트롤러 사이에 인라인 상태이므로, 중요한 고려 사항은 대기 시간입니다. 실제로, 추가 된 대기 시간은 최소화되어 있습니다. 우리의 테스트는 약물 만 기여합니다. 10 (밀리 초), 비행 제어 목적에 무시할 수 있습니다.


큐: 소프트웨어 나 적어도 설명을 볼 수 있습니까?? 구성 옵션을 이해하는 것은 나에게 매우 중요합니다.
에이: 예. 우리는 제공 할 것입니다 표준 작동 매뉴얼 모듈의 경우. 이 문서는 소프트웨어 인터페이스를 설명합니다, 사용 가능한 구성 옵션, 특정 사용 사례를 조정하는 방법. 사용자가 필요에 따라 시스템을 설정하고 사용자 정의하는 방법을 완전히 이해할 수 있도록 참조 역할을합니다..


큐: 더 중요한 질문: 모듈 자체는 객체를 직접 제어하지 않으며 상대 변위 정보 만 제공합니다.. 이 변위 데이터를 처리하기 위해 베타 플라이어를 수정할 필요가 없습니다.? 아니면 다른 방법이 있습니까??
에이: 수정이 없습니다 베타 플라이트 필요합니다. 이 시스템은 Betaflight와 함께 작동하도록 설계되었습니다.. 변위 정보를 올바르게 통합하려면 베타 플라이 라이트 시스템 내에서 일부 간단한 구성 단계 만 수행해야합니다.. 이 모든 단계는 사용자 설명서에 자세히 설명되어 있습니다., 따라서 운영자는 펌웨어 나 코드를 수정하지 않고 명확한 지침을 따라갈 수 있습니다..


큐: 열 이미징 모듈과 관련하여-MIPI CSI-2 또는 USB와 같은 저렴한 출력을 제공합니다. 3.0, 아니면 USB 일뿐입니다? CVBS 비디오를 캡처하기 위해 ASIC 칩을 사용하는 많은 USB 기반 모듈을 보았습니다., 처리 파이프 라인의 각 단계에는 프레임 버퍼링이 필요합니다., 눈에 띄는 대기 시간이 추가됩니다. 더 빠른 솔루션이 있습니까??
에이: 우리의 디자인은 독점을 기반으로합니다 ASIC 칩 이미지 처리 용. 많은 기존 USB 모듈과 달리, 우리 시스템의 이미지는 외부 메모리 또는 여러 버퍼 단계를 거치지 않아도됩니다., 대기 시간을 크게 줄입니다. 가시 광선 카메라 용, 이미지 캡처에서 전송 출력까지의 측정 된 엔드 투 엔드 지연이 50 (밀리 초). 적외선 (열의) 이미징 경로는 추가 처리로 인해 대기 시간이 약간 높습니다.. 온보드 인식 기능이 활성화 된 경우, 시스템 지연은 수십 밀리 초씩 증가 할 수 있습니다., 작업의 복잡성에 따라. 하나, 정상적인 작동 조건에서, 총 대기 시간은입니다 보관되어 있습니다 100 (밀리 초), UAV 파일럿 및 실시간 모니터링 애플리케이션에 적합한.

질문하기

← 뒤로

응답해 주셔서 감사합니다. ✨