Par John P. Desmond, rédacteur en chef des tendances de l'IA
Pour aider les voitures autonomes à naviguer en toute sécurité sous la pluie et autres intempéries, les chercheurs étudient un nouveau type de radar.
Les véhicules autonomes peuvent avoir du mal à « voir » sous la pluie ou le brouillard, les capteurs de la voiture étant potentiellement bloqués par la neige, la glace ou les pluies torrentielles, et leur capacité à « lire » les panneaux de signalisation et les marquages routiers est altérée.
De nombreux véhicules autonomes s'appuient sur la technologie radar lidar, qui fonctionne en faisant rebondir les faisceaux laser sur les objets environnants pour donner une image 3D haute résolution par temps clair, mais ne fonctionne pas aussi bien dans le brouillard, la poussière, la pluie ou la neige, selon un récent rapport de abc10 de Sacramento, Californie
"De nos jours, de nombreux véhicules automatiques utilisent le lidar, et ce sont essentiellement des lasers qui tirent et continuent de tourner pour créer des points pour un objet particulier", a déclaré Kshitiz Bansal, docteur en informatique et en ingénierie. étudiant à l'Université de Californie à San Diego, dans une interview.
L'équipe de recherche sur la conduite autonome de l'université travaille sur une nouvelle façon d'améliorer la capacité d'imagerie des capteurs radar existants, afin qu'ils prédisent plus précisément la forme et la taille des objets dans la vue d'une voiture autonome.
"C'est un radar de type lidar", a déclaré Dinesh Bharadia, professeur d'ingénierie électrique et informatique à la UC San Diego Jacobs School of Engineering, ajoutant qu'il s'agissait d'une approche peu coûteuse. « La fusion du lidar et du radar peut également être réalisée avec nos techniques, mais les radars sont bon marché. De cette façon, nous n'avons pas besoin d'utiliser des lidars coûteux.
L'équipe place deux capteurs radar sur le capot de la voiture, permettant au système de voir plus d'espace et de détails qu'un seul capteur radar. L'équipe a effectué des tests pour comparer les performances de leur système par temps clair et par temps clair, puis avec une simulation de temps brumeux, à un système basé sur lidar. Le résultat a été que le système radar plus lidar a mieux fonctionné que le système lidar seul.
« Ainsi, par exemple, une voiture équipée d'un lidar, si elle roule dans un environnement où il y a beaucoup de brouillard, elle ne pourra rien voir à travers ce brouillard », a déclaré Bansaid. « Notre radar peut traverser ces mauvaises conditions météorologiques et peut même voir à travers le brouillard ou la neige », a-t-il déclaré.
Tl'équipe utilise radar millimétrique, une version de radar qui utilise des ondes électromagnétiques à courte longueur d'onde pour détecter la portée, la vitesse et l'angle des objets.
20 partenaires travaillant sur l'IA-SEE en Europe pour appliquer l'IA à la vision des véhicules
L'amélioration de la vision du véhicule autonome est également l'objectif d'un projet en Europe, appelé AI-SEE, impliquant une startup Algolux, qui coopère avec 20 partenaires sur une période de trois ans pour tendre vers le niveau 4 d'autonomie des véhicules de grande consommation. Fondée en 2014, Algolux a son siège social à Montréal et a levé 31.8 millions de dollars à ce jour, selon Crunchbase.
L'intention est de construire un nouveau système de capteurs robuste soutenu par une vision de véhicule améliorée par l'intelligence artificielle pour des conditions de faible visibilité, afin de permettre des déplacements en toute sécurité dans toutes les conditions météorologiques et d'éclairage pertinentes telles que la neige, les fortes pluies ou le brouillard, selon un compte rendu récent de AutoMobileSport.
La technologie Algolux utilise une approche de fusion de données multisensorielle, dans laquelle les données des capteurs acquises seront fusionnées et simulées au moyen d'algorithmes d'IA sophistiqués adaptés aux besoins de perception des conditions météorologiques défavorables. Algolux prévoit de fournir une technologie et une expertise dans les domaines des algorithmes d'apprentissage en profondeur d'IA, de la fusion de données provenant de types de capteurs distincts, de la détection stéréo à longue portée et du traitement des signaux radar.
Dr. Werner Ritter, responsable du consortium, Mercedes Benz AG : « Algolux est l'une des rares entreprises au monde à bien connaître les réseaux de neurones profonds de bout en bout nécessaires pour découpler le matériel sous-jacent de notre application » a déclaré le Dr Werner Ritter, chef de file du consortium, de Mercedes Benz AG. « Cela, associé à la connaissance approfondie de l'entreprise dans l'application de ses réseaux pour une perception robuste par mauvais temps, soutient directement notre domaine d'application dans AI-SEE. »
Le projet sera cofinancé par le Programme d'aide à la recherche industrielle du Conseil national de recherches du Canada (IRAP CNRC), l'Agence autrichienne de promotion de la recherche (FFG), Business Finland et le ministère fédéral allemand de l'Éducation et de la Recherche BMBF sous le label PENTA EURIPIDES. approuvé par EUREKA.
Nvidia recherche des objets stationnaires dans son laboratoire de conduite
La capacité de la voiture autonome à détecter ce qui est en mouvement autour d'elle est cruciale, quelles que soient les conditions météorologiques, et la capacité de la voiture à savoir quels objets autour d'elle sont immobiles est également importante, suggère un récent blog récents dans la série Drive Lab de Nvidia, un regard technique sur les défis individuels des véhicules autonomes. Nvidia est un fabricant de puces surtout connu pour ses unités de traitement graphique, largement utilisées pour le développement et le déploiement d'applications utilisant des techniques d'IA.
Le laboratoire Nvidia travaille sur l'utilisation de l'IA pour remédier aux lacunes du traitement du signal radar dans la distinction des objets mobiles et fixes, dans le but d'améliorer la perception des véhicules autonomes.
"Nous avons formé un DNN [deep neural network] pour détecter les objets mobiles et fixes, ainsi que pour distinguer avec précision les différents types d'obstacles fixes, en utilisant les données des capteurs radar", a déclaré Neda Cvijetic, qui travaille sur les véhicules autonomes et la vision par ordinateur pour Nvidia ; l'auteur du billet de blog. À son poste pendant environ quatre ans, elle a auparavant travaillé comme architecte système pour le logiciel Autopilot de Tesla.
Le traitement radar ordinaire fait rebondir les signaux radar sur les objets de l'environnement et analyse la force et la densité des réflexions qui reviennent. Si un groupe de réflexions suffisamment fort et dense revient, le traitement radar classique peut déterminer qu'il s'agit probablement d'une sorte d'objet de grande taille. Si ce groupe se déplace également au fil du temps, alors cet objet est probablement une voiture, indique le message.
Bien que cette approche puisse bien fonctionner pour déduire un véhicule en mouvement, il n'en va peut-être pas de même pour un véhicule à l'arrêt. Dans ce cas, l'objet produit un amas dense de reflets qui ne bougent pas. Le traitement radar classique interpréterait l'objet comme une balustrade, une voiture en panne, un viaduc d'autoroute ou un autre objet. « L'approche n'a souvent aucun moyen de distinguer lesquels », déclare l'auteur.
Un réseau de neurones profonds est un réseau de neurones artificiels avec plusieurs couches entre les couches d'entrée et de sortie, selon Wikipedia. L'équipe Nvidia a entraîné son DNN à détecter les objets mobiles et fixes, ainsi qu'à distinguer les différents types d'objets fixes, en utilisant les données des capteurs radar.
Plus précisément, nous avons entraîné un DNN à détecter des objets en mouvement et stationnaires, ainsi qu'à distinguer avec précision les différents types d'obstacles stationnaires, en utilisant les données de capteurs radars.
La formation du DNN a d'abord nécessité de surmonter les problèmes de rareté des données radar. Étant donné que les réflexions radar peuvent être assez rares, il est pratiquement impossible pour les humains d'identifier et d'étiqueter visuellement les véhicules à partir des seules données radar. Cependant, les données Lidar, qui peuvent créer une image 3D des objets environnants à l'aide d'impulsions laser, peuvent compléter les données radar. « De cette façon, la capacité d'un étiqueteur humain à identifier visuellement et à étiqueter les voitures à partir des données lidar est effectivement transférée dans le domaine radar », déclare l'auteur.
L'approche conduit à de meilleurs résultats. "Avec ces informations supplémentaires, le radar DNN est capable de faire la distinction entre différents types d'obstacles, même s'ils sont fixes, augmente la confiance dans les détections positives réelles et réduit les détections faussement positives", a déclaré l'auteur.
De nombreuses parties prenantes impliquées dans la mise en service de véhicules autonomes sûrs se retrouvent à travailler sur des problèmes similaires à partir de leurs points de vue individuels. Certains de ces efforts devraient aboutir à la disponibilité de logiciels pertinents en open source, dans le but d'améliorer continuellement les systèmes de conduite autonome, un intérêt partagé.
Lire les articles et informations sources de abc10 de Sacramento, Californie, de AutoMobileSport ainsi que dans une blog récents dans la série Drive Lab de Nvidia.
- 3d
- Compte
- Supplémentaire
- AI
- algorithmes
- Application
- applications
- autour
- sur notre blog
- intelligence artificielle
- auto
- autonome
- voiture autonome
- voitures autonomes
- véhicule autonome
- véhicules autonomes
- pilote automatique
- LES MEILLEURS
- blog
- construire
- la performance des entreprises
- Californie
- Canada
- fournisseur
- voitures
- Sociétés
- Informatique
- Vision par ordinateur
- confiance
- Conseil
- crédit
- CrunchBase
- données
- journée
- l'apprentissage en profondeur
- réseau de neurones profonds
- réseaux de neurones profonds
- détail
- Développement
- conduite
- Éducation
- ENGINEERING
- Environment
- Europe
- National
- Prénom
- Matériel
- HTTPS
- Les êtres humains
- VÉLO
- identifier
- image
- Imagerie
- industriel
- d'information
- Intelligence
- intention
- intérêt
- Interview
- impliqué
- IT
- spécialisées
- gros
- laser
- Luxinar SR AOM
- conduire
- apprentissage
- Niveau
- niveau 4
- traiter
- million
- Montréal
- réseau et
- réseaux
- Neural
- Réseau neuronal
- les réseaux de neurones
- nouvelles
- Nvidia
- ouvert
- open source
- d'exploitation
- Autre
- partenaires,
- Penta
- performant
- image
- Programme
- Projet
- promotion
- radar
- gamme
- réduire
- Réflexions
- rapport
- un article
- Résultats
- des
- San
- San Diego
- L'école
- Sciences
- capteur
- Série
- commun
- Signes
- simulation
- Taille
- neige
- So
- Logiciels
- Space
- Sponsorisé
- États
- Étudiant
- complément
- Appareils
- Les soutiens
- combustion propre
- Système
- Technologie
- tests
- La Source
- fiable
- Voyage
- Trends
- université
- Université de la Californie
- véhicule
- Véhicules
- Rapidité
- Voir
- définition
- vision
- vagues
- Qu’est ce qu'
- Whitepaper
- WHO
- Wikipédia
- Activités principales
- vos contrats
- world
- années