Technologie et fusion de données, comment se déplacent nos robots de sécurité autonomes ?

Les agents de sécurité-sûreté doivent quotidiennement faire face à la montée en puissance des actes malveillants, tout en assurant la sécurité des installations sur site. Le constat est clair, les sites privés – de l’industrie au tertiaire en passant par les ERP – ont besoin d’une surveillance fiable et constante.
Mais comment assurer la gestion des risques, la sécurisation des sites et des opérateurs, dans un secteur qui souffre d’un déficit de candidats et d’un manque de valorisation des métiers de la sécurité ?

Définition de la fusion de données

La fusion de données, ou data blending, consiste à combiner des informations de différentes sources afin de créer un jeu de données analytique exploitable pour la prise de décisions métier ou pour un processus métier spécifique.

En ce qui concerne nos robots de surveillance extérieurs, il s’agit de la fusion de données de capteurs multimodaux. En combinant des capteurs visuels, LIDAR, ultrasons et autres, les robots sont alors capables de compenser les limites de chaque technologie individuelle.

1. Une cartographie évoluée

La première pierre angulaire de la mobilité autonome réside dans la cartographie robotique. Nos robots de sécurité autonomes exploitent une technologie complexe qui leur permet de créer une carte de leur environnement tout en se localisant par rapport à cette carte. Il s’agit de la technologie SLAM, ou Simultaneous Localization and Mapping.

Cette technologie vient fusionner les données des capteurs :

  • LIDAR (Light Detection and Ranging) qui utilise des faisceaux laser pour mesurer les distances et créer des cartes 3D détaillées de l’environnement.
  • GPS qui géo-référence la carte que va utiliser le robot. En plus du LIDAR, les données GPS permettent de valider ou de corriger les distorsions de distances. En définitive, on utilise les données GPS pour affirmer le référentiel de la carte LIDAR

Dans le cas de notre robot GR100, les capteurs LIDAR haute définition, associés à des algorithmes de traitement de nuages de points, permettent une perception tridimensionnelle de l’environnement. Cette cartographie en temps réel, basée sur des techniques de fusion de données multi-capteurs, fournie une représentation spatiale tridimensionnelle précise, pour une navigation avancée.

2. Une localisation précise

La localisation précise est le saint Graal de la robotique autonome. Tout comme pour la cartographie, il est ici question de fusionner les données de différents capteurs pour que les robots se situent avec précision : GPS, capteurs inertiels, une carte géo-référencée, l’odométrie, LIDAR et caméras.

Les données de localisation sont traitées grâce à un filtrage de Kalman étendu. Cet algorithme de fusion de données avancé minimise les erreurs en estimant de manière optimale l’état du système à partir de données bruitées.

La localisation du GR100 est le résultat de la convergence d’un récepteur GPS de haute précision, couplé à des capteurs inertiels sophistiqués qui alimentent un algorithme de fusion de données. Cette approche novatrice permet au robot de s’auto-localiser avec une marge d’erreur minimale. Les données issues de capteurs multi-sources lui garantissent un positionnement précis, ainsi qu’une tolérance aux pertes GPS.

3. Navigation intelligente

La navigation des robots autonomes repose sur une combinaison astucieuse de données sensorielles et d’algorithmes sophistiqués. Les systèmes de navigation intelligents intègrent plusieurs couches d’informations pour prendre des décisions éclairées. Les éléments clés comprennent :

  • Algorithme de planification de trajectoire : Utilisé pour calculer la trajectoire optimale en tenant compte des obstacles, des contraintes de vitesse et des objectifs de la mission.
  • Systèmes de contrôle de mouvement : Responsables de la traduction des trajectoires planifiées en mouvements physiques, ces systèmes garantissent une exécution précise et fluide.

La navigation autonome du GR100 repose sur des algorithmes de planification de trajectoire avancés et des unités de traitement dédiées. Des capteurs de mouvement IMU de haute précision, intégrés à des systèmes de perception visuelle, alimentent un modèle de navigation prédictif. La fusion de données provenant de ces multiples sources permet au robot de prendre des décisions dynamiques, optimisant sa trajectoire en fonction des obstacles détectés et des paramètres environnementaux en constante évolution.

4. IA et fusion de données

La fusion de données est le cœur névralgique qui alimente l’intelligence de nos robots autonomes. Cette approche nous permet de combiner des données hétérogènes pour obtenir une vision complète de l’environnement.

Alors que la technologie et la fusion de données continuent de progresser, le futur de la robotique mobile autonome promet des avancées encore plus révolutionnaires, ouvrant de nouvelles perspectives pour la sécurisation des espaces privés, industriels et risqués.

Chez Running Brains Robotics, la cartographie évoluée, la localisation précise et la navigation intelligente, soutenues par l’expertise de nos ingénieurs, créent une solution de sécurité proactive et rentable pour nos clients. 

La promesse ? Faire évoluer les technologies implantées dans nos robots pour garantir une fiabilité continue et poser les bases d’une nouvelle ère dans le domaine de la sécurité et sûreté privée. Ensemble, anticipons les défis de demain avec précision et réactivité !

Alix OUDIN
Alix Oudin

Head of Marketing & Communication chez Running Brains Robotics

Partager ce post