01 oct. | 17:00 - 17:30

Master Class - Deploying inference models at the edge

Salle : Incubateur 1

Description

Réaliser l'inférence au plus près des données captées est de plus en plus souhaité. Que ce soit pour des raisons de performances énergétique, de confidentialité ou afin de limiter la quantité de données transférées.Les plateformes sur lesquelles l'inférence doit être réalisée sont très variées et imposent des contraintes en terme de capacités de calculs, espace mémoire, ou encore de types d'unités de calculs disponibles. Il existe un vaste choix de bibliothèques logicielles facilitant la conception, l'entraînement et l'optimisation de modèles d'apprentissage automatique. Néanmoins, les modèles résultants ne sont généralement pas déployables directement sans une adaptation et une optimisation permettant de satisfaire les contraintes imposés par ces plateformes cibles. Dans cette présentations, nous reviendrons sur les principales difficultés rencontrées lors du déploiement et de l'exécution de modèles sur diverses plateformes. Nous discuterons ensuite des différentes solutions permettant de déployer des modèles tout en respectant ces contraintes.

Thématiques

Les intervenants