La serie de videos NVIDIA DRIVE Labs ofrece una visión interna de cómo se desarrolla el software de conducción autónoma. Un año y 20 episodios después, está claro que hay un terreno casi infinito por cubrir.
La serie abarca temas que van desde la percepción de 360 grados hasta la segmentación panóptica e, incluso, predice el futuro. Los vehículos autónomos son uno de los grandes desafíos de procesamiento de nuestro tiempo. Nuestro enfoque con respecto al desarrollo de software es ocuparnos de un componente a la vez.
El objetivo de DRIVE Labs es informar y educar. Ya sea que estés comenzando a aprender sobre esta tecnología transformadora o hayas estado trabajando en ella durante una década, la serie es una ventana a lo que en NVIDIA consideramos los desafíos de desarrollo más importantes y cómo los estamos abordando para obtener más seguridad y más transporte eficiente.
Este es un resumen de los temas que hemos cubierto el año pasado y cómo estamos planeando el camino por recorrer.
Una Sección Transversal de Redes de Percepción
Antes de que un vehículo planifique un camino y ejecute una decisión de manejo, debe poder ver y comprender todo el entorno alrededor del vehículo.
DRIVE Labs ha especificado diferentes neuronales profundas responsables de la percepción del vehículo. Nuestro enfoque se basa en DNN redundantes y diversas: nuestros modelos cubren diferentes capacidades, como detectar intersecciones, detectar semáforos y señales de tráfico, y comprender la estructura de las intersecciones. También son capaces de realizar múltiples tareas, como detectar espacios de estacionamiento o detectar si los sensores están obstruidos.
Estas DNN hacen más que dibujar cuadros delimitadores alrededor de los peatones y las señales de tráfico. Pueden desglosar las imágenes píxel por píxel para lograr una mayor precisión e, incluso, rastrear esos píxeles a través del tiempo para obtener información de posicionamiento precisa.
Para la conducción nocturna, AutoHighBeamNet permite controlar automáticamente los faros del vehículo, mientras que nuestro enfoque de aprendizaje activo mejora la detección de peatones en la oscuridad.
Las DNN también permiten extraer distancias 3D de imágenes de cámara 2D para planificar de forma precisa los movimientos.
Y nuestras capacidades de percepción operan alrededor del vehículo. Con el seguimiento de objetos de cámara envolvente y la fusión de radar y cámara envolvente, nos aseguramos de que no haya puntos ciegos de percepción.
Predecir el Camino por Delante
Además de percibir su entorno, los vehículos autónomos deben ser capaces de comprender cómo se comportan otros actores de la carretera para planificar un camino seguro hacia adelante.
Con las redes neuronales recurrentes, DRIVE Labs ha demostrado cómo un automóvil autónomo puede usar información del pasado sobre el movimiento de un objeto para calcular predicciones de los próximos movimientos.
Nuestro software para evitar colisiones Safety Force Field agrega diversidad y redundancia al software de planificación y control. Constantemente se ejecuta en segundo plano para verificar los controles desde el sistema primario y vetar cualquier acción que se considere insegura.
Las DNN y los componentes de software son solo una muestra del desarrollo que incluye un vehículo autónomo. Este desafío monumental requiere entrenamiento y pruebas rigurosas, tanto en el data center como en el vehículo. Y, a medida que el transporte continúa cambiando, el software del vehículo debe poder adaptarse.
Exploraremos estos temas y más en los próximos episodios de DRIVE Labs. A medida que avancemos en el desarrollo de software para automóviles autónomos, compartiremos esas ideas contigo.