Parmi les cas d’usages de la computer vision, on trouve la vérification en temps réel du travail effectué par des techniciens et agents sur le terrain, lorsqu’ils interviennent sur des infrastructures. La computer vision permet d'automatiser une tâche encore souvent effectuée de façon manuelle et ainsi de diminuer significativement les coûts de contrôle qualité. Mais là encore, la donnée du terrain se révèle indispensable pour montrer aux algorithmes d’IA comment faire ce travail de vérification via un apprentissage supervisé. Dans le premier article de notre série “Déployer un projet de computer vision et créer de la valeur en seulement 90 jours”, nous avons vu comment créer des datasets de photos représentatives du terrain Dans ce second article, découvrez comment créer votre IA sur mesure pour contrôler la qualité du travail de terrain.
Valider le contexte des photos des datasets grâce à l’IA
Dans le précédent article, nous avons expliqué que vérifier la qualité des photos du terrain était indispensable pour entraîner les algorithmes de computer vision. Mais c’est aussi leur contexte qui doit être garanti. La validation de contexte est un point de contrôle qui consiste à garantir que chaque photo affiche bien l'élément attendu (un environnement, un équipement, une étiquette, etc.) et que la photo est bien cadrée. On estime qu’un volume d’au moins 100 photos montrant des exemples conformes (OK) est nécessaire pour pouvoir entamer l’entraînement sur ce point de contrôle.
Récapitulons : en 30 jours, l'application mobile est configurée et les standards de documentation des opérations sont communiqués aux équipes terrain. S’ensuit une nouvelle phase de 30 jours durant laquelle ces équipes prennent en main l'app pour commencer à construire un dataset de qualité. Ainsi, en seulement 60 jours, les employés de terrain sont à même de documenter correctement leurs interventions.
Définir le périmètre du processus de contrôle qualité basé sur l’IA
Souvenez-vous, les entreprises doivent définir le périmètre de leur projet de computer vision. Dans le cas du contrôle qualité du travail de terrain, cette réflexion porte sur les photos requises et les points de contrôle. Cela revient à se poser quelques questions essentielles :
-Quels sont les défis de qualité rencontrés sur le terrain ?
-Combien de photos les employés de terrain doivent-ils capturer ?
-Quels sont les angles de prise de photo qui permettent de visualiser et ainsi vérifier leur travail ?
-Quels sont les gestes métier qu’il faut contrôler par obligation légale ou contractuelle avec ses clients ?
-Quels sont les gestes métier dont le résultat est visible à l'œil nu, et donc vérifiable grâce à la computer vision ?
Le nombre de photos à demander aux employés de terrain dépend de la complexité et de la durée de l’opération. Définir le juste volume de photos obligatoires constitue une réelle réflexion. En effet, l’employé de terrain ne doit pas passer plus de temps à effectuer un rapport d’opération qu’à faire son travail. Nous recommandons de ne pas dépasser 10 photos pour une opération d’1h et de limiter le nombre de points de contrôle à 5 par photo. Ces paramètres, comme beaucoup d’autres, peuvent bien entendu être adaptés au cours de l’implémentation en fonction des premiers retours du terrain.
Il existe plusieurs types de points de contrôles que l’IA peut vérifier et qui permettent d’évaluer la qualité du travail effectué par les employés de terrain. Voici une liste non-exhaustive:
-Positionnement d’un équipement ou d’un composant
-Présence d’une protection sur un composant
-Présence d’un dispositif de sécurité sur l’équipement
-Validation d’un test de sécurité
-Présence et lecture d’une étiquette comportant une référence ou un numéro de série
-Validation de la conformité du contenu d’une étiquette
-Détection et validation du branchement d’un câble par rapport aux données d’inventaire
Entraîner les algorithmes à vérifier automatiquement la conformité du geste métier
Valider automatiquement la conformité du travail des employés de terrain requiert un entraînement des algorithmes. En effet, pour analyser un point de contrôle, l’IA doit l’avoir déjà vu au préalable dans diverses situations. L’équipe projet doit ainsi récolter des exemples où le point de contrôle est conforme (OK) et non conforme (KO) pour cet entraînement. Cette collecte se fait via l’application mobile de Deepomatic au fil des opérations. On estime que quelques centaines de photos sont requises pour amorcer l’entraînement.
Si vous n’avez pas collecté assez de photos pour un point de contrôle donné, Deepomatic recommande de le séparer du reste des points de contrôle. Vous pouvez alors simplement continuer la phase de collecte pour ce cas spécifique sans impacter l’entraînement des algorithmes avec les datasets qui sont complets. Le plan de déploiement sera ainsi adapté à la livraison progressive des points de contrôle. N’oubliez pas qu’un projet de computer vision ne s’implémente pas en une seule fois et que les itérations sont courantes.
Deepomatic accompagne des entreprises sur plusieurs secteurs à l’échelle internationale depuis 10 ans. Si votre société opère sur une de ces industries et géographies, vous pouvez tirer profit des entraînements des modèles d’IA et bénéficier ainsi d’un déploiement plus rapide.
Pour conclure, il faut retenir que les éléments qui composent la photo sont tout aussi importants que la qualité de la photo pour entraîner son IA. Dresser la matrice des points de contrôle à implémenter permet de concrétiser les attentes quant aux gestes métier des employés de terrain. Les équipes projets pourront itérer sur ces points de contrôle en fonction des premiers retours du terrain.
Dans le prochain article, nous verrons justement quels outils et indicateurs permettent aux équipes projet de mesurer les premiers résultats de l’utilisation de la computer vision pour le contrôle qualité des opérations de terrain.