Por John P. Desmond, Editor de Tendencias AI
Para ayudar a los autos autónomos a navegar de manera segura bajo la lluvia y otras inclemencias del tiempo, los investigadores están buscando un nuevo tipo de radar.
Los vehículos autónomos pueden tener problemas para "ver" bajo la lluvia o la niebla, con los sensores del automóvil potencialmente bloqueados por nieve, hielo o aguaceros torrenciales, y su capacidad para "leer" las señales y las marcas viales está deteriorada.
Muchos vehículos autónomos dependen de la tecnología de radar lidar, que funciona haciendo rebotar rayos láser en los objetos circundantes para dar una imagen 3D de alta resolución en un día despejado, pero no funciona tan bien en la niebla, el polvo, la lluvia o la nieve, según un informe reciente. informe de abc10 de Sacramento, Calif.
“En la actualidad, muchos vehículos automáticos utilizan LIDAR, y estos son básicamente láseres que se disparan y siguen girando para crear puntos para un objeto en particular”, afirmó Kshitiz Bansal, un Ph.D. en ciencias de la computación e ingeniería. estudiante de la Universidad de California en San Diego, en una entrevista.
El equipo de investigación de conducción autónoma de la universidad está trabajando en una nueva forma de mejorar la capacidad de imágenes de los sensores de radar existentes, para que puedan predecir con mayor precisión la forma y el tamaño de los objetos en la vista de un automóvil autónomo.
“Es un radar tipo lidar”, afirmó Dinesh Bharadia, profesor de ingeniería eléctrica e informática en la Escuela de Ingeniería Jacobs de UC San Diego, y agregó que es un enfoque económico. “La fusión de lidar y radar también se puede hacer con nuestras técnicas, pero los radares son baratos. De esta manera, no necesitamos usar lidars costosos ".
El equipo coloca dos sensores de radar en el capó del automóvil, lo que permite que el sistema vea más espacio y detalles que un solo sensor de radar. El equipo realizó pruebas para comparar el rendimiento de su sistema en días y noches despejados, y luego con simulación de clima brumoso, con un sistema basado en lidar. El resultado fue que el sistema de radar más lidar funcionó mejor que el sistema solo de lidar.
"Entonces, por ejemplo, un automóvil que tiene LIDAR, si va en un ambiente donde hay mucha niebla, no podrá ver nada a través de esa niebla", dijo Bansaid. “Nuestro radar puede atravesar estas malas condiciones climáticas e incluso puede ver a través de la niebla o la nieve”, afirmó.
Tel equipo usa radar milimétrico, una versión de radar que utiliza ondas electromagnéticas de onda corta para detectar el alcance, la velocidad y el ángulo de los objetos.
20 socios que trabajan en AI-SEE en Europa para aplicar la inteligencia artificial a la visión del vehículo
La visión mejorada de vehículos autónomos también es el objetivo de un proyecto en Europa, llamado AI-SEE, que involucra a la puesta en marcha algolux, que está cooperando con 20 socios durante un período de tres años para trabajar hacia la autonomía de Nivel 4 para vehículos de mercado masivo. Fundada en 2014, Algolux tiene su sede en Montreal y ha recaudado $ 31.8 millones hasta la fecha, según Crunchbase.
La intención es construir un novedoso y robusto sistema de sensores apoyado por inteligencia artificial, visión mejorada del vehículo para condiciones de baja visibilidad, para permitir un viaje seguro en todas las condiciones climáticas y de iluminación relevantes, como nieve, lluvia intensa o niebla, según un informe reciente de AutoMobil Sport.
La tecnología Algolux emplea un enfoque de fusión de datos multisensoriales, en el que los datos del sensor adquiridos se fusionarán y simularán mediante sofisticados algoritmos de IA adaptados a las necesidades de percepción meteorológica adversa. Algolux planea proporcionar tecnología y experiencia en el dominio en las áreas de algoritmos de inteligencia artificial de aprendizaje profundo, fusión de datos de distintos tipos de sensores, detección estéreo de largo alcance y procesamiento de señales de radar.
Dr. Werner Ritter, líder del consorcio, Mercedes Benz AG: "Algolux es una de las pocas empresas del mundo que conoce bien las redes neuronales profundas de extremo a extremo que se necesitan para desacoplar el hardware subyacente de nuestra aplicación". declaró el Dr. Werner Ritter, líder del consorcio, de Mercedes Benz AG. "Esto, junto con el profundo conocimiento de la empresa sobre la aplicación de sus redes para una percepción sólida en condiciones climáticas adversas, respalda directamente nuestro dominio de aplicación en AI-SEE".
El proyecto será cofinanciado por el Programa de Asistencia a la Investigación Industrial del Consejo Nacional de Investigación de Canadá (NRC IRAP), la Agencia Austriaca de Promoción de la Investigación (FFG), Business Finland y el Ministerio Federal de Educación e Investigación de Alemania BMBF bajo la etiqueta PENTA EURIPIDES. avalado por EUREKA.
Nvidia investiga objetos estacionarios en su laboratorio de conducción
La capacidad del automóvil autónomo para detectar lo que está en movimiento a su alrededor es crucial, sin importar las condiciones climáticas, y la capacidad del automóvil para saber qué elementos a su alrededor están estacionarios también es importante, sugiere un informe reciente. del blog en la serie Drive Lab de Nvidia, una mirada de ingeniería a los desafíos individuales de los vehículos autónomos. Nvidia es un fabricante de chips mejor conocido por sus unidades de procesamiento gráfico, ampliamente utilizadas para el desarrollo y despliegue de aplicaciones que emplean técnicas de inteligencia artificial.
El laboratorio de Nvidia está trabajando en el uso de inteligencia artificial para abordar las deficiencias del procesamiento de señales de radar para distinguir objetos en movimiento y estacionarios, con el objetivo de mejorar la percepción del vehículo autónomo.
"Entrenamos una DNN [red neuronal profunda] para detectar objetos en movimiento y estacionarios, así como para distinguir con precisión entre diferentes tipos de obstáculos estacionarios, utilizando datos de sensores de radar", afirmó. Neda Cvijetic, que trabaja en vehículos autónomos y visión por computadora para Nvidia; el autor de la publicación del blog. En su puesto durante unos cuatro años, anteriormente trabajó como arquitecta de sistemas para el software Autopilot de Tesla.
El procesamiento de radar ordinario rebota las señales de radar de los objetos en el entorno y analiza la fuerza y la densidad de los reflejos que regresan. Si regresa un grupo de reflejos suficientemente fuerte y denso, el procesamiento de radar clásico puede determinar que es probable que se trate de algún tipo de objeto grande. Si ese grupo también se mueve con el tiempo, entonces ese objeto probablemente sea un automóvil, señala la publicación.
Si bien este enfoque puede funcionar bien para inferir un vehículo en movimiento, puede que no sea cierto para uno estacionado. En este caso, el objeto produce un denso grupo de reflejos que no se mueven. El procesamiento de radar clásico interpretaría el objeto como una barandilla, un automóvil averiado, un paso elevado de una autopista o algún otro objeto. “El enfoque a menudo no tiene forma de distinguir cuál”, afirma el autor.
Una red neuronal profunda es una red neuronal artificial con múltiples capas entre las capas de entrada y salida, según Wikipedia. El equipo de Nvidia entrenó su DNN para detectar objetos en movimiento y estacionarios, así como para distinguir entre diferentes tipos de objetos estacionarios, utilizando datos de sensores de radar.
Específicamente, capacitamos a un DNN para detectar objetos en movimiento y estacionarios, así como para distinguir con precisión entre diferentes tipos de obstáculos estacionarios, utilizando datos de sensores de radar.
El entrenamiento de la DNN primero requirió superar los problemas de escasez de datos de radar. Dado que las reflexiones del radar pueden ser bastante escasas, es prácticamente imposible para los humanos identificar y etiquetar visualmente los vehículos solo a partir de los datos del radar. Sin embargo, los datos Lidar, que pueden crear una imagen en 3D de los objetos circundantes mediante pulsos de láser, pueden complementar los datos del radar. “De esta manera, la capacidad de un etiquetador humano para identificar y etiquetar visualmente automóviles a partir de datos lidar se transfiere de manera efectiva al dominio del radar”, afirma el autor.
El enfoque conduce a mejores resultados. “Con esta información adicional, el DNN del radar es capaz de distinguir entre diferentes tipos de obstáculos, incluso si están estacionarios, aumenta la confianza en las detecciones de verdaderos positivos y reduce las detecciones de falsos positivos”, afirmó el autor.
Muchas partes interesadas involucradas en el despliegue de vehículos autónomos seguros se encuentran trabajando en problemas similares desde sus puntos de vista individuales. Es probable que algunos de esos esfuerzos den como resultado que el software relevante esté disponible como código abierto, en un esfuerzo por mejorar continuamente los sistemas de conducción autónoma, un interés compartido.
Lea la información y los artículos de origen en abc10 de Sacramento, California, en AutoMobil Sport y en una del blog en la serie Drive Lab de Nvidia.
- 3d
- Mi Cuenta
- Adicionales
- AI
- algoritmos
- Aplicación
- aplicaciones
- en torno a
- inteligencia artificial
- auto
- autónomo
- auto autónomo
- autos autónomos
- vehículo autónomo
- vehículos autónomos
- piloto automático
- MEJOR
- Blog
- build
- California
- Ubicación: Canadá
- de
- carros
- Empresas
- Ciencias de la Computación
- Visión por computador
- confianza
- Consejo
- crédito
- CrunchBase
- datos
- día
- deep learning
- red neuronal profunda
- redes neuronales profundas
- detalle
- Desarrollo
- conducción
- Categoría Educación
- Ingeniería
- Entorno
- Europa
- Federal
- Nombre
- Materiales
- HTTPS
- Humanos
- HIELO
- Identifique
- imagen
- Proyección de imagen
- industrial
- información
- Intelligence
- intención
- intereses
- Entrevista
- involucra
- IT
- especialistas
- large
- láser
- láseres
- Lead
- aprendizaje
- Nivel
- nivel 4
- LIDAR
- millones
- Montreal
- del sistema,
- telecomunicaciones
- Neural
- red neural
- redes neuronales
- noticias
- Nvidia
- habiertos
- de código abierto
- funcionamiento
- Otro
- socios
- Penta
- actuación
- imagen
- Programa
- proyecto
- promociones y
- radar
- distancia
- reducir
- Reflections
- reporte
- la investigación
- Resultados
- ambiente seguro
- San
- San Diego
- Escuela
- Ciencia:
- sensor
- Serie
- compartido
- Letreros y Pancartas
- simulación
- Tamaño
- nieve
- So
- Software
- Espacio
- Patrocinado
- Zonas
- Estudiante
- complementar
- Soportado
- soportes
- te
- Todas las funciones a su disposición
- Tecnología
- pruebas
- La Fuente
- equipo
- viajes
- Tendencias
- universidad
- equipo de Manejo Integrado de Plagas de la Universidad de California
- vehículo
- Vehículos
- Velocidad
- Ver
- la visibilidad
- visión
- olas
- Que es
- Blackpaper
- QUIENES
- Wikipedia
- Actividades:
- funciona
- mundo
- años