Azeo Avanade
Amphi 2 - SESSION 2.2 - 07/02/2018 13:30 > 14:00


Adapter son modèle d'Intelligence Artificielle pour le Edge Computing



Introduction

En 2021 plus de 10 milliards d'objets connectés sont utilisés dans le monde. Tous ces objets génèrent des données en continu qui nécessitent d'être stockées et évaluées en temps réel pour des applications critiques : Une vitesse de traitement que les solutions Cloud ne sont pas en mesure de maîtriser. L'Edge?Computing?représente une?solide alternative?selon laquelle les ressources informatiques, la capacité de stockage et la puissance de calcul sont maintenues au plus près des équipements terminaux qui génèrent les données.? La pertinence tant de la collecte des informations que de leur traitement efficace et temps réel nécessite des capacités que seule l'Intelligence Artificielle peut proposer. Ainsi, pour obtenir des décisions immédiates ou détecter des anomalies en temps réel, rien de mieux que?de placer l'IA à la périphérie. On parle désormais du «?Edge AI?» comme suite logique du Edge Computing. Ce nouveau paradigme impose la présence d'algorithmes de Machine Learning installés en local, sur des machines légères et peu coûteuses. L'un des principaux challenges techniques est de préserver la performance de ces algorithmes, particulièrement leur vitesse d'inférence.

Méthodologie

Un modèle de deep learning n'a pas la même rapidité selon s'il est exécuté sur un PC et sur un objet connecté. Notre objectif est de déterminer les solutions pour réduire ce gap de performance. Nous avons réalisé un important benchmark à partir de l'un de nos modèles « custom » de Computer Vision, sur différentes configurations : différents devices et différents frameworks d'inférence. Les premiers enseignements confirment l'importance et la technicité de la miniaturisation des algorithmes d'IA pour le Edge Computing (dont l'IoT). Nous présenterons lors de la conférence notre protocole de test, nos résultats ainsi que nos conclusions.

Originalité / perspective

L'originalité de la session est de proposer des techniques d'optimisation algorithmique et des méthodes pour exécuter des modèles en temps réel (> 25 prédictions / seconde ) sur des appareils de moins de 100 euros. Nous abordons également les perspectives et l'enjeu stratégique majeur (notamment industriel) que représente l'intelligence artificielle déployée à la périphérie du cloud.


Télécharger les slides

Revoir le live :



Jean-Pierre Riehl
Directeur de l’innovation


Jonathan Pacifico
Data Scientist
S'inscrire !
Nos sponsors

Les stands partenaires

{\rtf1}