Le Mini Master Program MACHINE LEARNING: with R, Python & Scala (Scikit-Learn et Spark)

Inscrivez-vous



Inscrivez-vous à notre master program Machine Learning.


    Mini Master: MACHINE LEARNING – Télépresentiel


    Le métier de Data Scientist est avant tout une vocation, qui se traduit par la pratique de traitement de données de différentes natures, à l’aide d’algorithmes adaptés, afin de répondre à des challenges de décision. Ainsi, au sein d’une équipe Data, vous serez en charge de choisir le modèle le plus performant, parmi une palette d’algorithmes : supervisés, non supervisés ou encore réseaux de neurones profonds (Deep Learning). L’importance de ce type particulier d’algorithmes, réside dans leur pouvoir à permettre à des machines d’agir sans être explicitement programmés et c’est exactement, la maîtrise de ces algorithmes, qui ont permis d’industrialiser des voitures automnes, de tirer profit de la reconnaissance vocale, d’effectuer des recherches Web efficaces et de construire une connaissance considérablement améliorée du génome humain.

    Le Machine Learning fait appel en fait, à plusieurs compétences interdisciplinaires, telle que la statistique, l’algèbre linéaire, l’optimisation et l’informatique, pour développer des systèmes automatisés, capables de passer au crible de grands volumes de données, afin de prendre des décisions, tout en minimisant l’intervention humaine. En tant que domaines d’application, le Machine Learning est désormais incroyablement omniprésent, avec des applications allant de l’intelligence d’affaires à la sécurité des pays, de l’analyse des interactions biochimiques à la surveillance structurelle du vieillissement des ponts, etc.


    Session télé-présentielle:


    Certifications du MiniMaster:

    • Certification « Mini Master en MACHINE LEARNING ».
    • Certification « Certified Associate Machine Learning Developper with R and Python »
    • Certification « Certified Associate ML developper for Apache Spark 2.4 – with Python and Scala »
    • Possibilité de passer des certifications de EMC2 en Machine Learning

    S'inscrire à la formation.


      Ce module de 5 jours en ligne présentera à l'apprenant les bases de l'environnement de programmation python, y compris les techniques de programmation python fondamentales telles que les fonctions lambdas, la lecture et la manipulation de fichiers csv et la bibliothèque numpy. Le cours présentera les techniques de manipulation et de nettoyage des données à l'aide de la populaire bibliothèque de science des données python pandas et présentera l'abstraction de la série et du DataFrame en tant que structures de données centrales pour l'analyse des données. Ce cours couvre également Seaborn et Matplotlib qui sont deux des bibliothèques de visualisation les plus puissantes de Python. À la fin de ce cours, les étudiants seront en mesure de prendre des données tabulaires, de les nettoyer, de les manipuler et d'exécuter des analyses statistiques inférentielles de base. Le module a pour objectifs:


      • Maîtriser le language de programmation python.
      • La manipulation et l'analyse des données en utilisant la bibliothèque Pandas.
      • Manipuler les matrices ou tableaux multidimensionnels en utilisant la bibliothèque Pandas.
      • Créer des représentations visuelles en utilisant Seaborn et Matplotlib qui sont deux des bibliothèques de visualisation les plus puissantes de Python.

      Ce module de 6 jours en téléprésentiel vise à présenter les détails nécessaires pour appréhender efficacement le Machine Learning et pour la construction de la connaissance, sur la base des données qui peuvent être de plusieurs natures. Les sujets traités comprennent entre autres :


      • L’apprentissage supervisé (algorithmes paramétriques/non paramétriques) ;
      • L’apprentissage non supervisé (clustering, réduction de la dimension, systèmes de recommandation) ;
      • Les bonnes pratiques en Machine Learning (théorie de biais/variance, processus d’innovation et IA).

      La formation s’appuiera également sur de nombreuses études de cas et applications, de sorte à pouvoir appliquer les algorithmes à de nouveaux problèmes telle que la classification d’un texte.

      Le but de cette partie d'une journée se focalise sur la statistique inférentielle, qui s’avère nécessaire pour introduire des approches de Machine Learning, telle que la régression. Les stagiaires seront capables de distinguer plusieurs lois de probabilité. Ils seront capables de calculer et interpréter des corrélations entre plusieurs variables, maitriser les concepts de base des tests d’hypothèses et de la théorie d’estimation. Les autres concepts sur la projection, l’inertie et les valeurs propres sont nécessaires dans le cadre de « feature engineering » et de la préparation des données. Des cas pratiques seront présentés pour illustrer chaque concept.


      • Présentation des concepts de base sur la statistique inférentielle ;
      • Notions sur les variables aléatoires et les probabilités ;
      • Les lois de probabilité classiques discrètes et continues ;
      • L’espérance mathématique, la variance et l’écart type ;
      • La covariance d’un couple de variables aléatoires ;
      • Le coefficient de corrélation linéaire ;
      • Corrélation, causalité et dépendance ;
      • Etude de cas pratiques : ajustements de lois, et calculs ;
      • L’inertie, les projections, les valeurs propres et l’effet cosinus ;
      • Notions sur l’échantillonnage ;
      • Notions sur la pratique de la théorie de l’estimation ;
      • Notions sur les tests d’hypothèses ;
      • Notions sur les distances, les métriques et les mesures de discordance et de similarité ;
      • Exactitude et précision ;
      • La préparation et la gestion des données.

      Apache Spark est un moteur de traitement de données très rapide dédié au Big Data. Cela permet d’effectuer un traitement de larges volumes de données de manière distribuée (cluster computing). Par ailleurs, Spark MLlib est la librairie de Machine Learning de Apache Spark. Tous les algorithmes machine learning de cette librairie sont optimisés pour le calcul en parallèle sur un cluster Spark. Cette partie de 3 jours introduit Spark et Spark SQL. De plus, ça explique la bibliothèque SPARK MLlib avec de vrais cas d'utilisation d'apprentissage automatique en utilisant scala et/ou python.

      • Formateur Machine Learning et Statistique: Ingénieur d’Etat et consultant statisticien, lauréat de l’Institut National de Statistique et d’Economie Appliquée (INSEA), le formateur a ainsi un doctorat en Statistique. Notre formateur a plus de 13 ans d’expérience dans le domaine professionnel (secteur privé et public), avec une expertise en matière de traitement et modélisation des données et une bonne connaissance des secteurs économiques. Il est au même temps professeur universitaire à l’université Alakhawayn (AUI). Il a aussi animé plusieurs formations de Machine Learning, dans le cadre de plusieurs groupes de travail et au profit des étudiants universitaires et des grands comptes tel que : Inwi.


      • Formateur Machine Learning avec Spark: Ingénieur d’Etat et consultant BIG DATA, lauréat de l’université Alakhawayn, le formateur a un doctorat en informatique de l’ENSIAS en partenariat avec l’université de Quebec. Il est au même temps professeur universitaire à l’INPT. Il a cumulé plus de 13 ans d’expérience dans le domaine professionnel, ainsi il était consultant et chef de projet dans une grande multinationale ou il a travaillé pour le compte de plusieurs clients francophones/anglophones à savoir : Schneider, Ciba, Pfizer, Solvay, Boehringer Ingelhem etc. Notre formateur possède plusieurs certifications en BIG DATA et SPARK. Il a aussi animé plusieurs formation BIG DATA, Machine Learning et datascience pour des grands comptes tel que: Inwi, Orange, Altran, PhoneGroup, Avito, Xhub, Lydec, Maroc PME…

      Programme détaillé du Mini Master Machine Learning - en téléprésentielle - 10 Jours + 5 jours

      Mot de bienvenue, présentation générale de la formation, des prérequis et des concepts de base sur Le Machine Learning

      Le but de la journée est d’introduire les concepts de base de Machine Learning. Les stagiaires auront une idée précise sur les prérequis, sur Data Analytics Lifecycle et les normes et standards en Machine Learning. Ils devront maitriser certaines techniques pour interroger leurs bases de données. Ainsi, ils sauront distinguer plusieurs types de variables et les caractériser, et ils sauront distinguer un problème déterministe et probabiliste. Des mises en situation seront abordées lors de cette première séance. Le programme de la journée se présente ainsi :

      • Ouverture des sessions de la formation : présentation des objectifs et identification des besoins et des attentes des stagiaires ;
      • Présentation de Machine Learning : quelques concepts de base et vocabulaire ;
      • L’apprentissage automatique en pratique : quelques exemples d’application ;
      • Les prérequis pour appréhender les approches d’apprentissage automatique ;
      • Aperçue sur les algorithmes d’apprentissage automatique : apprentissage supervisé, non supervisé et apprentissage forcé ;
      • Présentation de Data Analytics Lifecycle, Normes et standards en Machine Learning ;
      • Une vue d’ensemble sur les approches déterministes et probabilistes ;
      • Présentation de certains concepts de base sur les variables statistiques et les modèles en statistique ;
      • Une vue d’ensemble sur les différents types de variables ;
      • Quelques notions de la statistique descriptive : représentation et caractéristiques des variables (moyenne, variance, ecart type, model, quartiles, etc.) ;
      • Etudes de cas pratiques : représentation et exploration préliminaire des variables.

      Règles d’association, Arbres de décision et les forêts (aléatoires) d’arbres décisionnels

      Le but de la journée se focalise sur les règles d’associations et les arbres de décision. Il s’agit de deux objectifs des outils de Machine Learning. A la fin de la journée, les stagiaires sauront recommander des associations de produits en se basant sur des outils techniques et pourront effectuer la classification à l’aide des arbres de décision. Une introduction de concepts s’avère nécessaire. Ainsi, les stagiaires auront plus de détails sur la préparation des données en utilisant plusieurs libraires et la préparation des échantillons. Des calculs de fréquences, d’entropie et de gains d’information sont nécessaires pour la mise en place des algorithmes présentés. Concernant les forêts aléatoires, elles seront présentées comme une technique améliorée qui combine plusieurs arbres.

      Le programme de la journée se présente ainsi :

      • Présentation des librairies de Machine Learning sous R, Python et Scala ;
      • Préparation des échantillons : Notions préliminaires sur l’échantillonnage, échantillons d’apprentissage, de validation et de test ;
      • Introduction du concept de règle d’association : exemples et définitions ;
      • Présentation des concepts de : support, confidence, lift et leverage;
      • Etudes de cas pratiques sur les règles d’association ;
      • Fondements des algorithmes relatifs aux règles d’association : Apriori, Euclat, FP-growth ;
      • Présentation du principe de la classification : quelques exemples pratiques ;
      • Evaluation du degré de désordre : principe d’entropie, indice de Gini, gain d’information ;
      • Etude de cas pratiques sur l’arbre de décision ;
      • Forêts aléatoire vs arbre de décision : présentation de concepts et comparaison ;
      • Etude de cas pratiques sur les forêts aléatoires.

      Mise à niveau sur la statistique inférentielle et la préparation des données

      Le but de la journée se focalise sur la statistique inférentielle, qui s’avère nécessaire pour introduire des approches de Machine Learning, telle que la régression. Les stagiaires seront capables de distinguer plusieurs lois de probabilité. Ils seront capables de calculer et interpréter des corrélations entre plusieurs variables, maitriser les concepts de base des tests d’hypothèses et de la théorie d’estimation. Les autres concepts sur la projection, l’inertie et les valeurs propres sont nécessaires dans le cadre de « feature engineering » et de la préparation des données. Des cas pratiques seront présentés pour illustrer chaque concept.

      • Présentation des concepts de base sur la statistique inférentielle ;
      • Notions sur les variables aléatoires et les probabilités ;
      • Les lois de probabilité classiques discrètes et continues ;
      • L’espérance mathématique, la variance et l’écart type ;
      • La covariance d’un couple de variables aléatoires ;
      • Le coefficient de corrélation linéaire ;
      • Corrélation, causalité et dépendance ;
      • Etude de cas pratiques : ajustements de lois, et calculs ;
      • L’inertie, les projections, les valeurs propres et l’effet cosinus ;
      • Notions sur l’échantillonnage ;
      • Notions sur la pratique de la théorie de l’estimation ;
      • Notions sur les tests d’hypothèses ;
      • Notions sur les distances, les métriques et les mesures de discordance et de similarité ;
      • Exactitude et précision ;
      • La préparation et la gestion des données.

      La classification avec Naïve Bayes, SVM, KNN et neural network

      Le but de la journée se focalise sur des algorithmes avancés dédiés à la classification. Il s’agit de Naïve Bayes, SVM et KNN. Ces algorithmes sont largement utilisés et nécessitent l’introduction des concepts sur les probabilités conditionnelles, les distances et les similarités (déjà évoquées lors des séances de mise à niveau). D’autres notions vont être introduites pour la présentation du SVM, tels que les supports et les marginales. La deuxième partie sera consacrée aux réseaux de neurones qui sont plus adaptés pour des environnement Big Data. On s’attardera plus sur la conception d’un réseau de neurone, ses multiples utilisations et les interprétations y afférentes. Le programme de la journée se présente ainsi :

      • Pourquoi « Naïve » bayes ? ;
      • Classification avec naïve bayes : concepts et études de cas pratiques ;
      • Présentation des concepts de SVM : supports, marginal, problème linéaire, fonctions kernel ;
      • Classification avec SVM : études de cas pratiques ;
      • Notions sur les distances, les métriques et les mesures de discordance et de similarité ;
      • Mise en pratique de KNN : présentation des concepts et études de cas pratiques ;
      • Les réseaux de neurones : définition des neurones, couches, fonctions d’activation et biais ;
      • Mise en pratique des réseaux de neurones ;
      • Perfectionner les réseaux de neurones : vers des réseaux de neurones profonds.

      Clustering et Réduction de la dimension

      La cinquième séance de la formation a pour objectif de maitriser des algorithmes de clustring et de la réduction de la dimension. Ainsi, plus de détails relatifs au K-means seront présentés, notamment le choix du nombre optimal des clusters. Une mise en pratique de l’algorithme sera effectuée. La deuxième partie sera consacrée plus aux techniques de la réduction de la dimension, telles que l’ACP, l’AFC et l’ACM. Le programme de la journée se présente ainsi :

      • Clustering vs classification ;
      • Clustering avec K-means : présentation des concepts de base et mise en pratique ;
      • Pourquoi faire recours à une réduction de la dimension ?
      • L’Analyse en Composantes Principales : principes de bases, représentations et interprétations ;
      • L’Analyse Factorielle des Correspondances : table de contingence et profils, nuage des profils-lignes, nuage des profils-colonnes, relation de transition ;
      • L’Analyse des Correspondances Multiples : principes de base et interprétations ;
      • Principe de la classification hiérarchique ascendante : principes de base, analyse et interprétation des résultats ;
      • Etudes de cas pratiques.

      Régression linaire et régression logistique

      La sixième séance de la formation a pour objectif de détailler les modèles de la régression qui s’avèrent très utiles pour l’identification de l’impact et la prévision. Les stagiaires sauront comment concevoir un modèle de régression, comment estimer et interpréter les paramètres d’un modèle de régression, comment quantifier le degré d’explication d’un modèle et comment faire le diagnostic sur la base des tests et des résidus, et ce pour le modèle simple et multiple. La deuxième partie de la journée sera dédiée à la classification par la régression logistique. Durant cette partie de la formation, plusieurs notions seront abordées, telle que la matrice de confusion, la courbe ROC et la surface AUC, ainsi que d’autres métriques pour évaluer la performance du modèle de classification. Le programme de la journée se présente ainsi :

      • Régression linaire simple : présentation générale du modèle, estimation des paramètres, points levier, analyse de la variance, performance et diagnostique du modèle, interprétation des résultats ;
      • Etudes de cas pratiques ;
      • Régression linéaire multiple : présentation générale du modèle, estimation des paramètres, analyse de la variance, performance et diagnostique du modèle, interprétation des résultats, multiconinéarité, sélection des variables ;
      • Etudes de cas pratiques ;
      • Régression Logistique : présentation générale du modèle (cas binaire et multinomiale), estimation des paramètres, courbe ROC et AUC, mesures des performances ;
      • Etudes de cas pratiques.

      Extensions, évaluation de la performance et catégorisation des modèles

      La dernière séance sera consacrée à quelques extensions. Les stagiaires auront l’occasion de voir quelques formes d’un modèle GLM, les méthodes d’ensemble, des recommandations pour perfectionner les algorithmes de Machine Learning et des lignes directrices concernant le choix de l’approche la plus adaptée, dépendamment de la situation rencontrée. Lors de cette septième journée, une étude de cas global sera présentée, afin de récapituler la majorité des concepts abordés lors du Mini Master. Avant de clôturer la formation, les stagiaires devront impérativement présenter des projets, traitant certains points évoqués lors de la formation. Le programme de la journée se présente ainsi :

      • Quelques notions sur les séries chronologiques et les formes générales d’un modèle GLM ;
      • Méthodes d’ensemble : Boosting, Stacking, Bagging;
      • Perfectionnement des modèles : Tuning et méta-apprentissage ;
      • Catégorisation des modèles ;
      • Etude de cas global « Titanic »
      • Travaux de présentations et discussions générales.
      • Clôture de la formation

      • SPARK introduction
      • SPARK SQL
      • Qu'est-ce que l'apprentissage automatique?
      • Apprentissage supervisé
      • Apprentissage non supervisé
      • Pourquoi Spark pour le Machine Learning?
      • SPARK MLLIB
      • Examples of machine learning algorithms in Scala or python: Decision Trees, Clustering, Naive Bayes...

      • Introduction to Python
      • Conception de pipelines d'apprentissage automatique
      • Ingestion et exploration de données
      • Création d'ensembles de données d'entraînement et de test
      • Préparation des fonctionnalités avec des transformateurs
      • Comprendre la régression linéaire
      • Utilisation d'estimateurs pour créer des modèles
      • Créer un pipeline
      • Évaluation des modèles
      • Enregistrement et chargement de modèles
      • Réglage des hyperparamètres
      • Modèles basés sur des arbres
      • Validation croisée K-Fold
      • Optimiser les pipelines
      • Résumé

      Examples of machine learning algorithms with MLLIB

      • Introduction to Scala
      • Classification
      • Arbres de décision
      • Forêts aléatoires
      • Flux de travail typique de machine learning
      • Exploration de données et extraction de fonctionnalités
      • Utilisation du package Spark ML
      • Charger les données d'un fichier dans un DataFrame
      • Statistiques sommaires
      • Échantillonnage stratifié
      • Extraction de caractéristiques et pipelining
      • Former le modèle
      • Prévisions et évaluation du modèle
      • Enregistrer le modèle
      • Résumé

      Programme détaillé du python for datascience - en ligne - 5 jours

      Python part 1

      L'objectif de cette partie est d'avoir un niveau de compétence intermédiaire en programmation Python. Ca couvre les modules suivants:

      • Introduction
      • Why Python?
      • HELLO WORLD
      • INDENTATION
      • VARIABLES
      • DATA TYPES
      • NUMBERS
      • CASTING
      • STRINGS
      • BOOLEAN
      • LISTS
      • TUPLES
      • Set
      • Dictionaries

      Python part 2

      L'objectif de cette partie est d'avoir un niveau de compétence intermédiaire en programmation Python. Ca couvre les modules suivants:

      • If … Else
      • Loops
      • Functions
      • Lambda Functions
      • Array
      • Classes/Objects
      • Inheritance
      • Iterators
      • Scope
      • Modules
      • Datetime
      • JSON
      • RegEx
      • PIP
      • Try … Except
      • User Input
      • String Formating

      Numpy

      Ce module couvre l'utilisation de la bibliothèque numpy pour créer et manipuler des tableaux.

      • Introduction
      • Creating arrays
      • Lab 1 – Creating array
      • NumPy Array Indexing
      • Array Slicing
      • Lab 2 – Array Slicing
      • Data Types
      • Lab 3 – Data Type
      • Array Shape
      • Array Reshape
      • Lab 4 – Array reshape
      • Array Iterating
      • Lab 5 – Array iterating
      • Joining Array
      • Lab 6 – Joining array
      • Splitting Array
      • Lab 7 – Splitting array
      • Searching Arrays
      • Lab 8 – Searching array
      • Sorting Arrays
      • Lab 9 – Sorting array
      • Filter Array
      • Random Numbers
      • Lab 10 – Random number

      Pandas

      Ce module couvre l'utilisation du module pandas avec Python pour créer et structurer des données.

      • Introduction
      • Creating Data
      • Lab 1 – Creating data
      • Naive accessors
      • Indexing in Pandas
      • Lab 2 – Indexing
      • Summary Functions and Maps
      • Lab 3 – Summary Functions and Maps
      • Grouping and Sorting
      • Lab 4 – Grouping and Sorting
      • Data Types & Missing Values
      • Lab 5 – Data Types & Missing Values
      • Renaming and Combining

      Data Visualization

      Ce module couvre la création des des visualisations de données à l'aide de matplotlib et seaborn avec python.

      • Introduction
      • Line chart
      • Lab 1 – Line Charts - Los Angeles City Museums
      • Bar chart & Heatmap
      • Lab 2 – Bar chart & Heatmap
      • Scatter Plots
      • Lab 3 – Scatter plots
      • Distributions
      • Lab 4 – Distributions
      • Pairplot
      • Boxplot

      FAQs

      Le métier de Data Scientist est avant tout une vocation, qui se traduit par la pratique de traitement de données de différentes natures, à l’aide d’algorithmes adaptés, afin de répondre à des challenges de décision. Ainsi, au sein d’une équipe Data, vous serez en charge de choisir le modèle le plus performant, parmi une palette d’algorithmes : supervisés, non supervisés ou encore réseaux de neurones profonds (Deep Learning). L’importance de ce type particulier d’algorithmes, réside dans leur pouvoir à permettre à des machines d’agir sans être explicitement programmés et c’est exactement, la maîtrise de ces algorithmes, qui ont permis d’industrialiser des voitures automnes, de tirer profit de la reconnaissance vocale, d’effectuer des recherches Web efficaces et de construire une connaissance considérablement améliorée du génome humain.

      Le Machine Learning fait appel en fait, à plusieurs compétences interdisciplinaires, telle que la statistique, l’algèbre linéaire, l’optimisation et l’informatique, pour développer des systèmes automatisés, capables de passer au crible de grands volumes de données, afin de prendre des décisions, tout en minimisant l’intervention humaine. En tant que domaines d’application, le Machine Learning est désormais incroyablement omniprésent, avec des applications allant de l’intelligence d’affaires à la sécurité des pays, de l’analyse des interactions biochimiques à la surveillance structurelle du vieillissement des ponts, etc.

      Dans le même ordre d’idées, les responsables de cette formation ont conçu le mini master Machine Learning, afin de faire bénéficier les stagiaires d’une formation complète et qui répond aux standards internationaux. Le premier résultat escompté est de bien vous outiller, afin de maîtriser les techniques de Machine Learning les plus efficaces, dans l’objectif d’exercer à les mettre en œuvre et à les faire fonctionner par vous-même. Plus important encore, vous découvrirez non seulement les fondements théoriques de l’apprentissage, mais vous acquerrez également le savoir-faire pratique nécessaire pour appliquer efficacement les techniques présentées, à de nouveaux problèmes dans le cadre des situations réelles.

      Ensuite, la formation vise à présenter les détails nécessaires pour appréhender efficacement le Machine Learning et pour la construction de la connaissance, sur la base des données qui peuvent être de plusieurs natures. Les sujets traités comprennent entre autres :

      • L’apprentissage supervisé (algorithmes paramétriques/non paramétriques) ;
      • L’apprentissage non supervisé (clustering, réduction de la dimension, systèmes de recommandation) ;
      • Les bonnes pratiques en Machine Learning (théorie de biais/variance, processus d’innovation et IA).
      • La formation s’appuiera également sur de nombreuses études de cas et applications, de sorte à pouvoir appliquer les algorithmes à de nouveaux problèmes telle que la classification d’un texte.

      • Développer une idée claire de ce qu’implique l’apprentissage des modèles à partir des données ;
      • Maitriser les concepts d’une grande variété d’algorithmes de Machine Learning ;
      • Modéliser des données classiques et complexes et appliquer les algorithmes à un problème réel ;
      • Extraire de la connaissance sur la base des algorithmes et résultats issus de vos données ;
      • Etre capable d’évaluer les modèles générés à partir des données ;
      • Choisir entre plusieurs approches et entrainer des modèles ;
      • Optimiser les modèles en prenant compte des résultats escomptés (précision, fiabilité, exactitude, etc.).

      Le marché de l'analyse Big Data est en croissance à travers le monde et ce modèle de croissance forte se traduit par une excellente opportunité pour tous les professionnels de l'informatique. Les responsables du recrutement recherchent des professionnels certifiés Big Data Hadoop et Spark. Notre formation à la certification Big Data et Hadoop et Spark vous aide à saisir cette opportunité et à accélérer votre carrière. Notre cours Big Data Hadoop et Spark peut être suivi par des professionnels comme par des novices. Il est le mieux adapté pour:


      • Passionnés de Big Data
      • Développeurs logiciels, chefs de projet
      • Architectes logiciels
      • Consultant BI
      • Ingénieurs de données
      • Data Analyst
      • Data scientist
      • DBA et professionnels de la base de données
      • Ingénieurs en informatique
      • Diplômés cherchant à construire une carrière dans le domaine du Big Data

      Comme vous le savez, de nos jours, de nombreuses organisations manifestent de l'intérêt pour le Big Data et adoptent Hadoop et Spark dans le cadre de leur stratégie de solution, la demande d'emplois dans le Big Data et Spark augmente rapidement. Il est donc grand temps de poursuivre votre carrière dans le domaine du Big Data et de l'analyse avec notre formation qui prépare à la certification Hadoop et Spark avec Python et Scala.

      Il n'y a pas de tels prérequis pour la formation Mini Master Machine Learning ou data science avec R, Scikit Learn avec Python et Spark avec Python ou Scala. Cependant, une connaissance préalable de la programmation, Statistique sera utile mais n'est pas obligatoire. De plus, pour parfaire vos compétences, Itabacademy propose le cours gratuit "python for data science" à suivre à votre rythme lorsque vous vous inscrivez au cours Mini Master Machine Learning ou data science avec R, Scikit Learn avec Python et Spark avec Python ou Scala.



      WhatsApp Image 2020-07-29 at 15.15.18











        Ce que nos clients disent de nous

        Moulay Youssef Smaili
        Moulay Youssef Smaili
        30. Novembre, 2019.
        Ayant suivi la formation Big data & Machine learning durant la dernière session (octobre-novemvre 2019), je tiens à remercier les formateurs Dr Abdoullah et Dr Amine pour la qualité de la formation, leur pédagogie et leur gentillesse. Je vous souhaite une très bonne continuation et à très bientôt inchallah. Youssef.
        AK I
        AK I
        20. Octobre, 2019.
        Any big data course in itself is interesting, but thanks to a well designed organization of the material, the hands-on labs and moderators able to deliver knowledge and expertise in a shareable mode instead of a I-give/you-take mode, made it excellent. The staff was professionally great in doing exactly what it is suppose to do and with a genuine smile. I thank you for a job well done.
        Benjamin Ekia
        Benjamin Ekia
        20. Octobre, 2019.
        ITAB Academy centre avec des formateurs au point sur les différentes formations mon expérience au sein de cette établissement était très riche.
        alfousseyni.keita.@yahoo.com Keita
        alfousseyni.keita.@yahoo.com Keita
        20. Octobre, 2019.
        Tout d'abord, je dois avouer que le local est très propice pour l'apprentissage. J'ai fait la formation big data et Machine Learning et je dois avouer que le formateur est très compétant et il sait de quoi il parle et cela est largement suffisant.

        Quelques références

        ITAB ACADEMY en photos

        7,900.00MADAjouter au panier