
LE DEEP LEARNING, UNE REALITE ?
Le deep learning a fait fureur au cours des dernières années, mais il semble que la communauté se soit dégrisée récemment. Oui, l’apprentissage en profondeur demeure l’une des percées technologiques les plus importantes que nous ayons vues au cours de la dernière décennie. Cependant, on a parfois l’impression qu’on nous a menti. Ou plus précisément, on nous a promis beaucoup de choses et maintenant nous sommes un peu déçus car les promesses tardent à se réaliser.

En tant que communauté, nous nous sommes concentrés sur l’avancement de ce tout nouveau domaine. La recherche est à son apogée et des articles sont publiés littéralement tous les jours avec une telle variété de sujets que l’on pourrait s’y perdre. Aujourd’hui, le deep learning est déjà utilisé dans de nombreux cas pratiques qui génèrent une réelle valeur ajoutée, mais ça ne va pas assez vite. Les algorithmes de pointe doivent se traduire par d’avantage de systèmes de production.
LES CHALLENGES DE L’IA
Des opportunités existent, mais nous ne les saisissons pas. Pourquoi ? Premièrement, trop peu de gens possèdent le savoir-faire. Selon stateof.ai, l’enquête la plus récente et la plus complète sur l’intelligence artificielle, il y a 20 000 chercheurs et ingénieurs en deep learning dans le monde, mais seulement 3 000 sont disponibles à l’emploi. C’est deux fois moins que ce dont nous avons besoin. De plus, il faudrait être en compétition avec Google, Facebook, Tesla, etc. Autant dire qu’il vaut mieux avoir les poches pleines.

Ce n’est pas la solution. D’ailleurs, la plupart des projets innovants ne manquent pas d’entrer en production parce que leurs modèles de réseaux de neurones ne sont pas assez bons. Bien au contraire. Ce sont toutes les autres petites choses qui posent problème, surtout pour la vision par ordinateur :
- Construire votre premier jeu de données, l’améliorer en fonction de vos besoins professionnels tout en le versionnant.
- Gérer qui fait le travail d’annotation et les aider à être plus rapides et performants.
- Optimiser vos réseaux de neurones pour atteindre le meilleur niveau de performance.
- Déployer vos réseaux sur un cloud public ou privé, localement, ou sur des appareils embarqués et surveiller leurs performances en temps réel.
- Récupérer les erreurs détectées en production, ré-entraîner des modèles plus performants, puis mettre à jour les réseaux déployés à la volée.
…
Je vais m’arrêter ici, vous voyez l’idée.
LA SOLUTION: UN ECOSYSTEME COMPLET
Ce dont nous avons besoin, c’est d’un écosystème complet où vos jeux de données, vos modèles et vos systèmes déployés interagissent tous les uns avec les autres. Le principe selon lequel vous pouvez d’abord vous concentrer sur la construction de votre jeu de données, puis bricoler votre modèle pour obtenir un maximum de précision et enfin l’optimiser et le déployer, est obsolète. C’est comme ça qu’on faisait avant. Ça ne marche plus. Pas quand on sort du monde de la recherche et que l’on veut construire un système qui entrera réellement en production et qui s’occupera de tous les problèmes qui se poseront que l’on a pas forcément pu imaginer.
Oui, c’est difficile, car jouer avec le réseau de neurone est souvent la partie amusante. Sauf qu’il ne représente que 10% de la valeur totale. De plus, la différence n’est pas si grande entre un modèle standard et un modèle sur lequel vous avez passé d’innombrables semaines. Si vous voulez vraiment que votre système soit déployé, vous devez vous concentrer sur tout le reste.
Pour certains cas d’usage très spécifiques, vous voudrez une équipe d’experts, mais la plupart du temps, ce n’est pas le cas. Ce que vous voulez, c’est permettre aux gens d’utiliser cette technologie et de la leur rendre accessible. Comme l’a dit Andrej Karpathy (Directeur d’IA chez Tesla), nous avons besoin du logiciel 2.0.
Dans le “stack” 2.0, la programmation se fait en accumulant, massant et nettoyant les jeux de données. Par exemple, lorsque le réseau échoue dans certains cas difficiles ou rares, nous ne corrigeons pas ces prédictions en écrivant du code, mais en incluant plus d’exemples annotés de ces cas. Qui va développer les premiers IDEs du logiciels 2.0, qui aident tous les flux de travail dans l’accumulation, la visualisation, le nettoyage, l’annotation et le sourcing des jeux de données ? – Andrej Karpathy
C’est notre vision chez Deepomatic. Nous construisons la plate-forme à guichet unique où vous pouvez construire et gérer vos jeux de données, entraîner et optimiser vos modèles, puis les déployer et les surveiller en production sans aucune ligne de code tout en exploitant l’écosystème complet. Nous construisons le logiciel 2.0.
Leo Paillier | Solution Architect @Deepomatic
Pour en apprendre plus, visitez notre site, tweetez nous @deepomatic and partagez vos idées et opinions avec notre équipe en commentaire çi-dessous.