Modele harkous facile

De nombreuses organisations pensent que les outils de conteneurisation comme docker et les fournisseurs de Cloud sont tout ce dont ils ont besoin pour résoudre ce problème. Mais alors que les conteneurs et les environnements de calcul élastique sont des parties cruciales de la solution, ils seuls ne suffisent pas. Les modèles de service, de routage et de gestion à grande échelle sont des défis importants qui requièrent une infrastructure de soutien. Le code de cet exemple vient de hamza harkous et son blog “un guide pour la mise à l`échelle des modèles de machine learning en production”. Nous ne traverserons pas le code ligne par ligne, comme hamza fournit une grande écriture dans le lien ci-dessus. Ce que nous devons faire clairement, c`est à quel point il est facile d`exécuter cet exemple de fiole à l`intérieur d`Anaconda Enterprise. Déploiement d`un modèle d`apprentissage automatique en tant qu`API REST avec une ligne de code pour vos scientifiques de données et les administrateurs informatiques qui les prennent en charge, Anaconda Enterprise fournit des outils puissants pour la création, la formation et le déploiement de modèles. Les scientifiques de données peuvent déployer des modèles en un seul clic, sans avoir à vous soucier de la conteneurisation, de la génération d`URL, du routage de modèle ou de la sécurité. Anaconda Enterprise prend soin de tout cela dans les coulisses.

Est-ce que cela ressemble à votre organisation? Votre équipe de science des données travaille sur des ordinateurs portables à l`aide d`outils open source installés à partir d`Internet ouvert. Ils forment leurs modèles avec un sous-ensemble de données de production qui s`adapte en mémoire sur leurs machines locales. Ils partagent des résultats avec les parties prenantes via des diapositives PowerPoint et des e-mails, pas déployé API REST. Avec Anaconda Enterprise, votre organisation peut développer, gouverner et automatiser les pipelines d`apprentissage automatique, tout en s`écheltant facilement. Anaconda Enterprise prend en charge un chercheur de données ou des milliers, travaillant sur des ordinateurs portables aux clusters de formation GPU aux clusters de production exécutant des milliers de nœuds. Tout d`abord, le chercheur de données doit encapsuler le modèle dans un cadre Web. Flask, Tornado et Shiny sont plusieurs choix populaires. De là, le chercheur de données doit empaqueter le modèle, les données et les packages/dépendances dans un format qui s`exécutera sur l`ordinateur portable du chercheur de données et sur les serveurs de production. Pour les grandes organisations, il s`agit d`un processus long et complexe. Le chercheur de données a-t-il une expérience de création d`applications Web qui gèrent gracieusement l`équilibrage de charge et les surtensions dans le trafic réseau? Si ce n`est pas le cas, le modèle risque de se bloquer lorsqu`il est confronté à une charge sérieuse pour la première fois après le déploiement. Alors pourquoi la dérivation de la valeur commerciale réelle de l`apprentissage automatique reste-t-elle insaisissable pour de nombreuses organisations? Nginx sera notre interface à l`Internet, et ce sera celui qui traite les demandes des clients.

Comments are closed.