Pour les équipes qui construisent des modèles complexes de l’auto-apprentissage, le temps et le coût sont des considérations importantes. Dans le Cloud, différents types d’instances peuvent être utilisés pour réduire le temps nécessaire au traitement des données et à la formation des modèles.
Les unités de traitement graphique (GPU) offrent de nombreux avantages par rapport aux processeurs (CPU) lorsqu’il s’agit de traiter rapidement de grandes quantités de données typiques dans les projets d’apprentissage automatique. Cependant, il est important que les utilisateurs sachent comment surveiller l’utilisation pour s’assurer que vous ne surchargez pas ou ne sous-provisionnez pas les ressources de calcul (et que vous ne payez pas trop pour les instances).
Notre nouveau laboratoire «Analyser les performances du CPU par rapport à celles du GPU pour AWS Machine Learning» aidera les équipes à trouver le juste équilibre entre coût et performance lors de l’utilisation des GPU sur AWS Machine Learning.
Vous prendrez le contrôle d’une instance P2 pour analyser les performances du CPU par rapport au GPU et vous apprendrez comment utiliser l’AWS Deep Learning AMI pour démarrer un serveur Jupyter Notebook, qui peut être utilisé pour partager des données et des expériences d’apprentissage automatique.
Dans cette vidéo, Logan Rakai, vous donnera un aperçu de ce que vous apprendrez dans ce laboratoire pratique.
Cet article a été modifié pour la dernière fois le 12 février 2018 14h38