Le future de l’IA dans le monde réel repose sur l’IA embarquée

byaugustinm
000685669_illustration_large

L’Intelligence Artificielle investira le monde réel de demain. Elle est en mesure de résoudre des problèmes dont l’ampleur dépasse nos capacités humaines. Pensez à la possibilité d’alerter d’un danger quel qu’il soit au sein d’un périmètre donné ou bien encore de créer une cartographie en temps réel de l’état d’usure des rails d’un réseau ferroviaire. Auparavant, des contraintes techniques rendaient les cas d’usage les plus intéressants inaccessibles, mais les progrès réalisés dans la production d’ordinateurs miniatures élargissent désormais le champ des opportunités. La reconnaissance d’images est le pan de l’IA le plus prometteur, et de nombreux projets de caméras embarquées fleurissent aujourd’hui.

Grâce à la reconnaissance d’image, nous pouvons repérer un accident de voiture en milieu urbain, un malaise ou une chute ; comprendre le trafic et adapter les feux de signalisation ; ou encore repérer les nids de poule sur la route, les déchets ou les lampadaires en panne. Mais si la ville de Paris souhaitait équiper ses caméras d’IA afin d’appréhender le comportement des usagers sur la route, il faudrait des dizaines de milliers de caméras pour couvrir ses quelques 1700km de rues, ce qui représente un challenge immense en terme de déploiement de l’IA et d’analyse de données.

En effet, déployer des applications de reconnaissance visuelle dans le monde réel demande à ce que l’analyse d’images s’effectue au plus proche de l’action (que ce soit dans la rue, un parking ou sur un chantier). Mais des contraintes liées à l’environnement telles que l’emplacement ou la mobilité des caméras peuvent limiter les possibilités de mise en production.

Ces possibilités sont multiples : l’analyse des flux de données peut faire appel à des serveurs dans le cloud qui ingèrent et traitent les flux de toutes les caméras de façon centralisée. Elle peut également se faire au travers de plusieurs serveurs installés localement, chacun étant relié à un parc de caméras. Une dernière possibilité consiste à intégrer un petit processeur directement dans chaque caméra – c’est ce que l’on appelle l’IA embarquée.

Le déploiement dans le cloud a des limites : certains cas d’usage nécessitent de traiter un nombre important d’images, notamment pour la reconnaissance vidéo. Dans le cas des caméras de vidéo-surveillance de Paris, transférer les données de milliers de caméras dans le cloud sous forme de flux continu coûterait très cher. D’autre part, lorsque les caméras se trouvent dans des endroits reculés où la connexion internet est instable, comme sur l’autoroute, l’envoi de ces données dans le cloud est impossible. Enfin, cet envoi des données est très consommateur en énergie et représente un réel défi si les caméras sont munies de batterie. À l’inverse, l’utilisation de petits ordinateurs embarqués permet une plus grande efficacité énergétique et améliore donc l’autonomie de la caméra, ce qui crée de nouvelles opportunités d’applications.

Opter pour un déploiement en local en installant des serveurs sur place peut être une solution adaptée en fonction de l’espace disponible, de la mobilité et du rapprochement des capteurs. Le hardware étant relativement encombrant, cette option peut en revanche devenir contraignante voire parfois inenvisageable, comme dans le cas des drones.

L’IA embarquée, elle, répond bien à ces défis. Les petits ordinateurs intégrés au sein des caméras font la taille d’une main, comme la NVIDIA Jetson, ou même celle d’une carte de crédit, comme la Movidius Neural Compute Stick d’Intel. Ils permettent au dispositif d’analyser son propre flux de données. Des progrès remarquables ont été faits ces dernières années pour réduire la taille de ces ordinateurs miniatures en augmentant leur puissance de calcul. Ils deviennent ainsi plus accessibles d’un point de vue économique mais aussi plus adéquats pour une utilisation embarquée au sein des caméras. Ils pourraient très bien équiper chaque caméra du parc de vidéosurveillance de Paris. Notons toutefois que la puissance de calcul reste actuellement plus limitée que celle d’un serveur, et que les systèmes de reconnaissance d’image associés ne peuvent pas être aussi complexes (analyse en temps réel, succession d’analyses, etc.). Cela dit, la performance de ces petits processeurs ne cesse de s’améliorer d’année en année.

Croissance de la puissance de calcul des processeurs (teraflop)

L’IA embarquée, petite et peu chère, permet de faire disparaître le hardware au sein des capteurs de données. Les entreprises peuvent ainsi s’affranchir des contraintes IT lourdes comme le câblage des caméras vers des serveurs locaux, chers et encombrants. La mise en production de projets et leur passage à l’échelle sont facilités. Les technologies embarquées débloquent donc des cas d’applications qui étaient jusqu’alors inaccessibles, et préparent l’avènement des drones ou de la robotique.

Article publié dans le blog d’Augustin Marty sur L’Usine Nouvelle.

Augustin Marty est le PDG et co-fondateur de deepomatic, start-up spécialisée dans le développement de solutions de reconnaissance d’images pour les industriels. Diplômé de l’Ecole nationale des Ponts et Chaussées, il a créé sa première entreprise en Chine à l’âge de 22 ans, puis a travaillé notamment pour Vinci Construction sur la vente et la conception de projets d’ingénierie.

EN VOIR PLUS

Notre Blog