Saltearse al contenido

Overlay AR

El overlay AR proyecta las entidades del mapa en el vídeo en vivo de la cámara del drone como marcadores flotantes con tallos al suelo y elipses de sombra. Es una proyección 3D real — no una máscara 2D de heads-up — usando la pose completa del drone + frustum de cámara para calcular posiciones en pantalla.

Qué se proyecta

Cualquier entidad del mundo que ARGUS conozca puede renderizarse en el overlay AR:

  • Punto home — la ubicación del dock o el punto de despegue.
  • Waypoints — los puntos de la misión de waypoints actualmente activa.
  • Puntos de interés — flags POI colocadas por el operador.
  • Activos — vehículos, radios, posiciones conocidas de equipos.
  • Otros drones — posiciones de aeronaves amigas con callsigns.
  • Polilínea RTH — si el drone está volviendo a casa, la trayectoria se renderiza como una polilínea interpolada gruesa (24 segmentos) desde la posición actual hasta home.

Las matemáticas de proyección

Para cada entidad:

  1. Convertir lat/lng/alt WGS-84 → coordenadas ENU relativas al drone (este / norte / arriba).
  2. Rotar al marco del gimbal usando la actitud del drone + pose del gimbal.
  3. Proyectar al espacio de cámara usando FOV horizontal + vertical (por defecto DJI 84° × 54°; configurable por modelo de drone).
  4. Recorte de frustum — descartar entidades detrás de la cámara o más allá de 5000 m.
  5. Dibujar en espacio de pantalla.

Lo que ves

Cada entidad se renderiza como:

  • Tallo al suelo — una línea vertical desde la altitud real de la entidad hasta el terreno debajo (ayuda a anclar 3D al suelo).
  • Icono de marcador — escalado por distancia, de modo que las entidades más cercanas se ven más grandes.
  • Elipse de sombra — pequeña elipse a nivel de suelo en el pie del tallo para dar profundidad visual.
  • Etiqueta — nombre + distancia, colocada cerca del marcador.
  • Polilínea RTH — solo para la aeronave que vuelve a casa, dibujada como una línea gruesa multi-segmento.

Requisitos de calibración

Las mismas necesidades de pose que SVS:

  • Posición GPS fresca del drone.
  • Pose fresca del gimbal.
  • FOV conocido de la aeronave.

Cuando alguno de estos está desactualizado, el overlay se auto-oculta con un chip de calibración.

Límites

  • Distancia máxima de render 5000 m. Más allá, la proyección tiende a comprimir múltiples entidades en un borrón de píxeles — las descartamos.
  • Distancia mínima de render 2 m. Por debajo, la entidad está demasiado cerca para renderizarse de forma significativa.

Qué es aspiracional

  • Flechas direccionales en el borde fuera de pantalla — la arquitectura soporta dibujar pequeñas flechas direccionales en el borde de la pantalla para entidades más allá del frustum. La build actual solo dibuja marcadores para entidades en frame. Planificado.
  • UI de filtro de entidades — obtienes todo lo que ARGUS conoce. Los toggles por tipo de entidad (p. ej., “mostrar solo waypoints, no otros drones”) están planificados.
  • Plantillas de etiquetas personalizadas — las etiquetas están codificadas a “nombre + distancia”. Sin plantilla de usuario.

Activación

Activa AR en la pila de overlays del tile de stream del drone. El overlay aparece inmediatamente.

Casos de uso

  • Áreas de búsqueda amplias — ver “qué hay a la derecha” sin alejar el zoom.
  • Visualización RTH — la polilínea gruesa muestra exactamente por dónde volará el drone en el regreso.
  • Consciencia multi-drone — los drones amigos aparecen en el frame cuando están a la vista para que no vueles contra otra aeronave.

Relacionado