Le Master Program BIG DATA: Hadoop ecosystem, Spark & Kafka MACHINE LEARNING: with R, Python & Scala (Scikit-Learn et Spark) - Rabat Agdal et Casa Maârif- Maroc

Inscrivez-vous



Inscrivez-vous à notre master program BIG DATA et Machine Learning.

Master Program : BIG DATA & MACHINE LEARNING – Présentiel et Télépresentiel


Le Master Program BIG DATA & Machine Learning d’ITAB ACADEMY est une formation organisée à partir des dernières tendances technologiques. C’est une Formation (type tronc commun) pour la préparation aux certifications professionnelles type : IBM, Cloudera, Hortonworks et Databricks.

Cela couvre des connaissances détaillées sur le Big Data et les outils de l'écosystème Hadoop tels que HDFS, YARN, MapReduce, Hive, Pig, HBase, Oozie, Flume et Sqoop. Par ailleurs, cette formation couvre également Apache Kafka, Apache Spark et l'écosystème Spark, qui comprend Spark RDD, Spark SQL et Spark Streaming. Tout au long de cette formation en ligne animée par un instructeur, vous travaillerez sur des labs afin de pratiquer tous les modules couverts dans ce programme.

Le métier de Data Scientist est avant tout une vocation, qui se traduit par la pratique de traitement de données de différentes natures, à l’aide d’algorithmes adaptés, afin de répondre à des challenges de décision. Ainsi, au sein d’une équipe Data, vous serez en charge de choisir le modèle le plus performant, parmi une palette d’algorithmes : supervisés, non supervisés ou encore réseaux de neurones profonds (Deep Learning). L’importance de ce type particulier d’algorithmes, réside dans leur pouvoir à permettre à des machines d’agir sans être explicitement programmés et c’est exactement, la maîtrise de ces algorithmes, qui ont permis d’industrialiser des voitures automnes, de tirer profit de la reconnaissance vocale, d’effectuer des recherches Web efficaces et de construire une connaissance considérablement améliorée du génome humain.

Le Machine Learning fait appel en fait, à plusieurs compétences interdisciplinaires, telle que la statistique, l’algèbre linéaire, l’optimisation et l’informatique, pour développer des systèmes automatisés, capables de passer au crible de grands volumes de données, afin de prendre des décisions, tout en minimisant l’intervention humaine. En tant que domaines d’application, le Machine Learning est désormais incroyablement omniprésent, avec des applications allant de l’intelligence d’affaires à la sécurité des pays, de l’analyse des interactions biochimiques à la surveillance structurelle du vieillissement des ponts, etc.

12,900.00MADAjouter au panier

Session télé-présentielle:

  • Dates: 30-31 Octobre, 06-07, 13-14, 20-21, 27-28, Novembre, 11-12, 18-19, 25-26 Décembre 2021, 01-02, 08-09 Janvier 2022.
  • Nombre de jours : 30 jours ( 6H/J) - 10 jours en ligne et 20 jours présentiels.
  • Horaire: De 9h00 à 15h00
  • Rabat: +212653906825 | +212537681495
  • Casablanca: +212777376560 | +212522986758
  • Paris:+33780919590

Session Rabat - présentielle:

  • Dates: 30-31 Octobre, 06-07, 13-14, 20-21, 27-28, Novembre, 11-12, 18-19, 25-26 Décembre 2021, 01-02, 08-09 Janvier 2022.
  • Nombre de jours: 30 jours ( 6H/J) - 30 jours en ligne et 20 jours présentiels.
  • Horaire: De 9h00 à 15h00
  • Lieu : 15, Avenue de France, Bureau N°3, Agdal, RABAT (à côté Pizza Hut ) Rabat Agdal, 0537681495 | 0653906825.

Session Casablanca - présentielle:

  • Dates: 04-05, 11-12, 18-19, 25-26 Décembre, 01-02 Janvier, 15-16, 22-23, 29-30 Janvier 2022, 05-06, 12-13 Février 2022.
  • Nombre de jours: 30 jours ( 6H/J) - 10 jours en ligne et 20 jours présentiels.
  • Horaire: De 9h00 à 15h00
  • Lieu : 219, BD Zerktouni Angle BD Roudani, 1er étage, Bureau N°14, Casa Maârif, 0777376560 | 0522986758.

Certifications du Master programme :

  • Certification of course completion
        « Mini Master en BIG DATA et MACHINE LEARNING »
  • Certification « BIG DATA Engineer »
  • Certification « Spark Developer »
  • Certification « Certified Associate Machine Learning Developper with R and Python »
  • Certification « Certified Associate ML developper for Apache Spark 2.4 – with Python and Scala »
  • Possibilité de passer les certifications d’IBM en BIG DATA et de EMC2 en Machine Learning.

S'inscrire à la formation.


Ce module de 5 jours couvre des connaissances détaillées sur le Big Data et les outils de l'écosystème Hadoop tels que HDFS, YARN, MapReduce, Hive, Pig, HBase, Oozie, Flume et Sqoop. Le module a pour objectifs :

  • Comprendre le phénomène Big Data et les notions qu’il recouvre.
  • Comprendre pourquoi tout le monde parle du Big Data et son impact dans l’entreprise.
  • Comment faire du Big Data ? Sur quelle plateforme technologique s’appuyer ?
  • Identifier et s’approprier les outils de l’écosystème Hadoop pour chaque cas d’usage.
  • Faire des labs pour maîtriser les composants du hadoop ecosystème: sqoop, hbase, hive, pig, flume et oozie.
Ce module de 5 jours couvre Apache Kafka, Apache Spark et l'écosystème Spark, qui comprend Spark RDD, Spark SQL et Spark Streaming. Ce module a pour objectifs:

  • Comprendre comment céer un cluster Spark dans le cloud (azure ou aws).
  • Comprendre pourquoi nous avons besoin de Spark.
  • Comprendre les composants de Spark et ses catégories.
  • Comprendre l'architecture de Spark.
  • Comprendre la différence entre les api de spark: RDD, dataframes et datasets et comment les utiliser dans Scala et / ou python.
  • Identifier et s’approprier les bibliothèques de l’écosystème Spark pour chaque cas d’usage.
  • Maitriser le Spark SQL.
  • Connaitre les principes de base du Spark Streaming Dstream et Spark Structured Streaming.
  • Faire des labs pour maîtriser les librairies de Spark: Spark RDD, Spark SQL, Dataframes, Datasets, Datasources, Spark dstream et Spark Structured Streaming.
  • Comprendre les bases de Kafka et ses composants tels que: messages, schémas, rubriques, partitions, producteurs, consommateurs, broker et clusters.
  • Simuler un flux ou streaming entre Kafka et Spark Structured Streaming.

Ce module de 4 jours vise à présenter les détails nécessaires pour appréhender efficacement le Machine Learning et pour la construction de la connaissance, sur la base des données qui peuvent être de plusieurs natures. Les sujets traités comprennent entre autres :


  • L’apprentissage supervisé (algorithmes paramétriques/non paramétriques) ;
  • L’apprentissage non supervisé (clustering, réduction de la dimension, systèmes de recommandation) ;
  • Les bonnes pratiques en Machine Learning (théorie de biais/variance, processus d’innovation et IA).

La formation s’appuiera également sur de nombreuses études de cas et applications, de sorte à pouvoir appliquer les algorithmes à de nouveaux problèmes telle que la classification d’un texte.

Apache Spark est un moteur de traitement de données très rapide dédié au Big Data. Cela permet d’effectuer un traitement de larges volumes de données de manière distribuée (cluster computing). Par ailleurs, Spark MLlib est la librairie de Machine Learning de Apache Spark. Tous les algorithmes machine learning de cette librairie sont optimisés pour le calcul en parallèle sur un cluster Spark. Cette partie de 4 jours introduit Spark et Spark SQL. De plus, ça explique la bibliothèque SPARK MLlib avec de vrais cas d'utilisation d'apprentissage automatique en utilisant scala et/ou python.

  • Formateur BID DATA: Ingénieur d’Etat et consultant BIG DATA, lauréat de l’université Alakhawayn, le formateur a un doctorat en informatique de l’ENSIAS en partenariat avec l’université de Quebec. Il est au même temps professeur universitaire à l’INPT. Il a cumulé plus de 13 ans d’expérience dans le domaine professionnel, ainsi il était consultant et chef de projet dans une grande multinationale ou il a travaillé pour le compte de plusieurs clients francophones/anglophones à savoir : Schneider, Ciba, Pfizer, Solvay, Boehringer Ingelhem etc. Notre formateur possède plusieurs certifications en BIG DATA et SPARK. Il a aussi animé plusieurs formation BIG DATA, Machine Learning et datascience pour des grands comptes tel que: Inwi, Orange, Altran, PhoneGroup, Avito, Xhub, Lydec, Maroc PME…


  • Formateur Machine Learning et Statistique: Ingénieur d’Etat et consultant statisticien, lauréat de l’Institut National de Statistique et d’Economie Appliquée (INSEA), le formateur a ainsi un doctorat en Statistique. Notre formateur a plus de 13 ans d’expérience dans le domaine professionnel (secteur privé et public), avec une expertise en matière de traitement et modélisation des données et une bonne connaissance des secteurs économiques. Il est au même temps professeur universitaire à l’université Alakhawayn (AUI). Il a aussi animé plusieurs formations de Machine Learning, dans le cadre de plusieurs groupes de travail et au profit des étudiants universitaires et des grands comptes tel que : Inwi.

Programme détaillé du Master program BIG DATA et Machine Learning - 20 jours - Présentiel et téléprésentiel

Hadoop

  • 1. Définition du BIG DATA
  • 2. BIG DATA use cases
  • 3. Hadoop
  • 4. Installation de cloudera
  • 5. Configuration d’une distribution BIG DATA dans le cloud
  • 6. Lab HDFS : Navigating in the hadoop filesystem (HDFS commands)

MapReduce & YARN

  • 1. MAPREDUCE and YARN
  • 2. LAB MAPREDUCE : Creating a mapreduce application that calculates the max temperature for each month in java
  • 3. LAB MAPREDUCE : Creating a mapreduce applaction that performs a wordcount using JAVA
  • 4. SQOOP, HUE, IMPALA
  • 5. SQOOP LAB : Moving a MYSQL database into HIVE using SQOOP and accessing it from impala in hue.

HBASE & Flume

  • 1. HBASE : NOSQL Database
  • 2. Lab HBASE
  • 3. FLUME : Ingesting unstructured data into Hadoop
  • 4. Lab Flume

HIVE & BI DASHBOARD with HUE

  • 1. HIVE : Managing HIVE datawarehouse using Apache HIVE
  • 2. Lab Hive
  • 3. Creating a BI Dashboard with Hue and SOLR

PIG & OOZIE

  • 1. PIG : Creating ETLs with Apache PIG
  • 2. LAB PIG
  • 3. OOZIE
  • 4. PROJECT OOZIE : Creating a Worflow in Oozie (flume, hive, sqoop)

Python & Scala

  • 1. Révision PYTHON
  • 2. Révision SCALA

Spark

  • 1. SPARK Introduction
  • 2. Why we need SPARK?
  • 3. What is SPARK?
  • 4. SPARK COMPONENTS
  • 5. SPARK COMPONENTS CATEGORIES
  • 6. SPARK Architecture
  • 7. What is an RDD?
  • 8. RDD features
  • 9. RDD sources
  • 10. RDD Workflow & DAG
  • 11. How to create an RDD?
  • 12. Transformations
  • 13. Actions
  • 14. Persistence
  • 15. RDD limitations
  • 16. Will Spark replace MapReduce?
  • 17. LAB SPARK : Creating a SPARK application in SCALA

SPARK SQL

  • 1. Qu'est-ce que SPARK SQL?
  • 2. Architecture de SPARK SQL
  • 3. Histoire des RDDs, DATAFRAMES et DATASETS
  • 4. Nouvelle API SPARK 2.0
  • 5. RDD (rappel)
  • 6. DATAFRAMES
  • 7. DATASETS
  • 8. SPARK SQL LAB1 : Creating dataframes & Datasets using SPARK .2.4 in scala or python
  • 9. SPARK SQL LAB2 : SPARK DATASOURCES in scala or python
  • 10. Spark SQL LAB3 : Analyzing flight delays in scala or python
  • 11. SPARK SQL LAB4 : Analyzing soccer games file between 1872 and 2019 in scala or python

Spark Streaming and Kafka

  • 1. Qu’est ce que SPARK STREAMING?
  • 2. Comment fonctionne SPARK STREAMING?
  • 3. Principes de base du SPARK Streaming
  • 4. Streaming Context
  • 5. DStream
  • 6. Caching
  • 7. Accumulators
  • 8. Broadcast Variables
  • 9. Checkpoints
  • 10. SPARK DSTREAM LAB : Streaming data from a PY file in Scala
  • 11. SPARK STRUCTURED STREAMING
  • 12. What is the difference between Spark Structured Streaming and DStreams?
  • 13. Programming model
  • 14. SSS – Example
  • 15. Handling Event-time and Late Data
  • 16. SPARK SSS LAB : SPARK - Structured Streaming using Python or SCALA DataFrames API
  • 17. APACHE KAFKA
  • 18. LAB1: Spark Structured Streaming and KAFKA
  • 19. LAB2: Confluent installation
  • 20. LAB KAFKA: Integrating SPARK SSS with Apache KAFKA.

Présentations des projects

  • 1. Classes & Objects
  • 2. Constructor
  • 3. Method overloading
  • 4. This keyword
  • 5. Inheritance
  • 6. Method Overriding
  • 7. Traits
  • 8. Scala collections
  • 9. Functions collections
  • 1. Cloudera CDP installation
  • 2. Delta Lake
  • 3. Tez and hive, pig & scoop on tez
  • 4. Zeppelin with Spark in scala (demo in spark)
  • 5. Dataikuu (on spark)
  • 6. Spark genomic
  • 7. COVID 19 prediction in python
  • 8. COVID 19, prediction in AWS SPARK or databricks
  • 9. MLFLOW
  • 10. DEEP LEARNING with tensorflow
  • 11. Snowflake
  • 12. Apache Kudu
  • 13. AUTOML

Mot de bienvenue, présentation générale de la formation, des prérequis et des concepts de base sur Le Machine Learning

Le but de la journée est d’introduire les concepts de base de Machine Learning. Les stagiaires auront une idée précise sur les prérequis, sur Data Analytics Lifecycle et les normes et standards en Machine Learning. Ils devront maitriser certaines techniques pour interroger leurs bases de données. Ainsi, ils sauront distinguer plusieurs types de variables et les caractériser, et ils sauront distinguer un problème déterministe et probabiliste. Des mises en situation seront abordées lors de cette première séance. Le programme de la journée se présente ainsi :

  • Ouverture des sessions de la formation : présentation des objectifs et identification des besoins et des attentes des stagiaires ;
  • Présentation de Machine Learning : quelques concepts de base et vocabulaire ;
  • L’apprentissage automatique en pratique : quelques exemples d’application ;
  • Les prérequis pour appréhender les approches d’apprentissage automatique ;
  • Aperçue sur les algorithmes d’apprentissage automatique : apprentissage supervisé, non supervisé et apprentissage forcé ;
  • Présentation de Data Analytics Lifecycle, Normes et standards en Machine Learning ;
  • Une vue d’ensemble sur les approches déterministes et probabilistes ;
  • Présentation de certains concepts de base sur les variables statistiques et les modèles en statistique ;
  • Une vue d’ensemble sur les différents types de variables ;
  • Quelques notions de la statistique descriptive : représentation et caractéristiques des variables (moyenne, variance, ecart type, model, quartiles, etc.) ;
  • Etudes de cas pratiques : représentation et exploration préliminaire des variables.

Règles d’association, Arbres de décision et les forêts (aléatoires) d’arbres décisionnels

Le but de la journée se focalise sur les règles d’associations et les arbres de décision. Il s’agit de deux objectifs des outils de Machine Learning. A la fin de la journée, les stagiaires sauront recommander des associations de produits en se basant sur des outils techniques et pourront effectuer la classification à l’aide des arbres de décision. Une introduction de concepts s’avère nécessaire. Ainsi, les stagiaires auront plus de détails sur la préparation des données en utilisant plusieurs libraires et la préparation des échantillons. Des calculs de fréquences, d’entropie et de gains d’information sont nécessaires pour la mise en place des algorithmes présentés. Concernant les forêts aléatoires, elles seront présentées comme une technique améliorée qui combine plusieurs arbres.

Le programme de la journée se présente ainsi :

  • Présentation des librairies de Machine Learning sous R, Python et Scala ;
  • Préparation des échantillons : Notions préliminaires sur l’échantillonnage, échantillons d’apprentissage, de validation et de test ;
  • Introduction du concept de règle d’association : exemples et définitions ;
  • Présentation des concepts de : support, confidence, lift et leverage;
  • Etudes de cas pratiques sur les règles d’association ;
  • Fondements des algorithmes relatifs aux règles d’association : Apriori, Euclat, FP-growth ;
  • Présentation du principe de la classification : quelques exemples pratiques ;
  • Evaluation du degré de désordre : principe d’entropie, indice de Gini, gain d’information ;
  • Etude de cas pratiques sur l’arbre de décision ;
  • Forêts aléatoire vs arbre de décision : présentation de concepts et comparaison ;
  • Etude de cas pratiques sur les forêts aléatoires.

Mise à niveau sur la statistique inférentielle et la préparation des données

Le but de la journée se focalise sur la statistique inférentielle, qui s’avère nécessaire pour introduire des approches de Machine Learning, telle que la régression. Les stagiaires seront capables de distinguer plusieurs lois de probabilité. Ils seront capables de calculer et interpréter des corrélations entre plusieurs variables, maitriser les concepts de base des tests d’hypothèses et de la théorie d’estimation. Les autres concepts sur la projection, l’inertie et les valeurs propres sont nécessaires dans le cadre de « feature engineering » et de la préparation des données. Des cas pratiques seront présentés pour illustrer chaque concept.

  • Présentation des concepts de base sur la statistique inférentielle ;
  • Notions sur les variables aléatoires et les probabilités ;
  • Les lois de probabilité classiques discrètes et continues ;
  • L’espérance mathématique, la variance et l’écart type ;
  • La covariance d’un couple de variables aléatoires ;
  • Le coefficient de corrélation linéaire ;
  • Corrélation, causalité et dépendance ;
  • Etude de cas pratiques : ajustements de lois, et calculs ;
  • L’inertie, les projections, les valeurs propres et l’effet cosinus ;
  • Notions sur l’échantillonnage ;
  • Notions sur la pratique de la théorie de l’estimation ;
  • Notions sur les tests d’hypothèses ;
  • Notions sur les distances, les métriques et les mesures de discordance et de similarité ;
  • Exactitude et précision ;
  • La préparation et la gestion des données.

La classification avec Naïve Bayes, SVM, KNN et neural network

Le but de la journée se focalise sur des algorithmes avancés dédiés à la classification. Il s’agit de Naïve Bayes, SVM et KNN. Ces algorithmes sont largement utilisés et nécessitent l’introduction des concepts sur les probabilités conditionnelles, les distances et les similarités (déjà évoquées lors des séances de mise à niveau). D’autres notions vont être introduites pour la présentation du SVM, tels que les supports et les marginales. La deuxième partie sera consacrée aux réseaux de neurones qui sont plus adaptés pour des environnement Big Data. On s’attardera plus sur la conception d’un réseau de neurone, ses multiples utilisations et les interprétations y afférentes. Le programme de la journée se présente ainsi :

  • Pourquoi « Naïve » bayes ? ;
  • Classification avec naïve bayes : concepts et études de cas pratiques ;
  • Présentation des concepts de SVM : supports, marginal, problème linéaire, fonctions kernel ;
  • Classification avec SVM : études de cas pratiques ;
  • Notions sur les distances, les métriques et les mesures de discordance et de similarité ;
  • Mise en pratique de KNN : présentation des concepts et études de cas pratiques ;
  • Les réseaux de neurones : définition des neurones, couches, fonctions d’activation et biais ;
  • Mise en pratique des réseaux de neurones ;
  • Perfectionner les réseaux de neurones : vers des réseaux de neurones profonds.

Clustering et Réduction de la dimension

La cinquième séance de la formation a pour objectif de maitriser des algorithmes de clustring et de la réduction de la dimension. Ainsi, plus de détails relatifs au K-means seront présentés, notamment le choix du nombre optimal des clusters. Une mise en pratique de l’algorithme sera effectuée. La deuxième partie sera consacrée plus aux techniques de la réduction de la dimension, telles que l’ACP, l’AFC et l’ACM. Le programme de la journée se présente ainsi :

  • Clustering vs classification ;
  • Clustering avec K-means : présentation des concepts de base et mise en pratique ;
  • Pourquoi faire recours à une réduction de la dimension ?
  • L’Analyse en Composantes Principales : principes de bases, représentations et interprétations ;
  • L’Analyse Factorielle des Correspondances : table de contingence et profils, nuage des profils-lignes, nuage des profils-colonnes, relation de transition ;
  • L’Analyse des Correspondances Multiples : principes de base et interprétations ;
  • Principe de la classification hiérarchique ascendante : principes de base, analyse et interprétation des résultats ;
  • Etudes de cas pratiques.

Régression linaire et régression logistique

La sixième séance de la formation a pour objectif de détailler les modèles de la régression qui s’avèrent très utiles pour l’identification de l’impact et la prévision. Les stagiaires sauront comment concevoir un modèle de régression, comment estimer et interpréter les paramètres d’un modèle de régression, comment quantifier le degré d’explication d’un modèle et comment faire le diagnostic sur la base des tests et des résidus, et ce pour le modèle simple et multiple. La deuxième partie de la journée sera dédiée à la classification par la régression logistique. Durant cette partie de la formation, plusieurs notions seront abordées, telle que la matrice de confusion, la courbe ROC et la surface AUC, ainsi que d’autres métriques pour évaluer la performance du modèle de classification. Le programme de la journée se présente ainsi :

  • Régression linaire simple : présentation générale du modèle, estimation des paramètres, points levier, analyse de la variance, performance et diagnostique du modèle, interprétation des résultats ;
  • Etudes de cas pratiques ;
  • Régression linéaire multiple : présentation générale du modèle, estimation des paramètres, analyse de la variance, performance et diagnostique du modèle, interprétation des résultats, multiconinéarité, sélection des variables ;
  • Etudes de cas pratiques ;
  • Régression Logistique : présentation générale du modèle (cas binaire et multinomiale), estimation des paramètres, courbe ROC et AUC, mesures des performances ;
  • Etudes de cas pratiques.

Extensions, évaluation de la performance et catégorisation des modèles

La dernière séance sera consacrée à quelques extensions. Les stagiaires auront l’occasion de voir quelques formes d’un modèle GLM, les méthodes d’ensemble, des recommandations pour perfectionner les algorithmes de Machine Learning et des lignes directrices concernant le choix de l’approche la plus adaptée, dépendamment de la situation rencontrée. Lors de cette septième journée, une étude de cas global sera présentée, afin de récapituler la majorité des concepts abordés lors du Mini Master. Avant de clôturer la formation, les stagiaires devront impérativement présenter des projets, traitant certains points évoqués lors de la formation. Le programme de la journée se présente ainsi :

  • Quelques notions sur les séries chronologiques et les formes générales d’un modèle GLM ;
  • Méthodes d’ensemble : Boosting, Stacking, Bagging;
  • Perfectionnement des modèles : Tuning et méta-apprentissage ;
  • Catégorisation des modèles ;
  • Etude de cas global « Titanic »
  • Travaux de présentations et discussions générales.
  • Clôture de la formation

  • SPARK introduction
  • SPARK SQL
  • Qu'est-ce que l'apprentissage automatique?
  • Apprentissage supervisé
  • Apprentissage non supervisé
  • Pourquoi Spark pour le Machine Learning?
  • SPARK MLLIB
  • Examples of machine learning algorithms in Scala or python: Decision Trees, Clustering, Naive Bayes...

  • Introduction to Python
  • Conception de pipelines d'apprentissage automatique
  • Ingestion et exploration de données
  • Création d'ensembles de données d'entraînement et de test
  • Préparation des fonctionnalités avec des transformateurs
  • Comprendre la régression linéaire
  • Utilisation d'estimateurs pour créer des modèles
  • Créer un pipeline
  • Évaluation des modèles
  • Enregistrement et chargement de modèles
  • Réglage des hyperparamètres
  • Modèles basés sur des arbres
  • Validation croisée K-Fold
  • Optimiser les pipelines
  • Résumé

Examples of machine learning algorithms with MLLIB

  • Introduction to Scala
  • Classification
  • Arbres de décision
  • Forêts aléatoires
  • Flux de travail typique de machine learning
  • Exploration de données et extraction de fonctionnalités
  • Utilisation du package Spark ML
  • Charger les données d'un fichier dans un DataFrame
  • Statistiques sommaires
  • Échantillonnage stratifié
  • Extraction de caractéristiques et pipelining
  • Former le modèle
  • Prévisions et évaluation du modèle
  • Enregistrer le modèle
  • Résumé

Programme détaillé du E-Learning du Master program BIG DATA et Machine Learning - 10 jours - En ligne

Python - Part 1

  • 1. Introduction
  • 2. Why Python?
  • 3. HELLO WORLD
  • 4. INDENTATION
  • 5. VARIABLES
  • 6. DATA TYPES
  • 7. NUMBERS
  • 8. CASTING
  • 9. STRINGS
  • 10. BOOLEAN
  • 11. LISTS
  • 12. TUPLES
  • 13. Set
  • 14. Dictionaries

Python - Part 2

  • 1. If … Else
  • 2. Loops
  • 3. Functions
  • 4. Lambda Functions
  • 5. Array
  • 6. Classes/Objects
  • 7. Inheritance
  • 8. Iterators
  • 9. Scope
  • 10. Modules
  • 11. Datetime
  • 12. JSON
  • 13. RegEx
  • 14. PIP
  • 15. Try … Except
  • 16. User Input
  • 17. String Formating

Scala- Part 1

  • 1. Introduction
  • 2. Hello word
  • 3. Expressions
  • 4. Values
  • 5. Variables
  • 6.Blocks
  • 7. Conditional expressions

Scala- Part 2

  • 1. Pattern matching
  • 2. While loop
  • 3. For loop
  • 4. Break statement
  • 5. Comments
  • 6. Functions
  • 7. Methods

Scala- Part 3

  • 1. Classes & Objects
  • 2. Traits
  • 3. Arrays
  • 4. Strings
  • 5. Scala collections
  • 6. Functions collections
  • 7. Tuple

Python part 1

L'objectif de cette partie est d'avoir un niveau de compétence intermédiaire en programmation Python. Ca couvre les modules suivants:

  • Introduction
  • Why Python?
  • HELLO WORLD
  • INDENTATION
  • VARIABLES
  • DATA TYPES
  • NUMBERS
  • CASTING
  • STRINGS
  • BOOLEAN
  • LISTS
  • TUPLES
  • Set
  • Dictionaries

Python part 2

L'objectif de cette partie est d'avoir un niveau de compétence intermédiaire en programmation Python. Ca couvre les modules suivants:

  • If … Else
  • Loops
  • Functions
  • Lambda Functions
  • Array
  • Classes/Objects
  • Inheritance
  • Iterators
  • Scope
  • Modules
  • Datetime
  • JSON
  • RegEx
  • PIP
  • Try … Except
  • User Input
  • String Formating

Numpy

Ce module couvre l'utilisation de la bibliothèque numpy pour créer et manipuler des tableaux.

  • Introduction
  • Creating arrays
  • Lab 1 – Creating array
  • NumPy Array Indexing
  • Array Slicing
  • Lab 2 – Array Slicing
  • Data Types
  • Lab 3 – Data Type
  • Array Shape
  • Array Reshape
  • Lab 4 – Array reshape
  • Array Iterating
  • Lab 5 – Array iterating
  • Joining Array
  • Lab 6 – Joining array
  • Splitting Array
  • Lab 7 – Splitting array
  • Searching Arrays
  • Lab 8 – Searching array
  • Sorting Arrays
  • Lab 9 – Sorting array
  • Filter Array
  • Random Numbers
  • Lab 10 – Random number

Pandas

Ce module couvre l'utilisation du module pandas avec Python pour créer et structurer des données.

  • Introduction
  • Creating Data
  • Lab 1 – Creating data
  • Naive accessors
  • Indexing in Pandas
  • Lab 2 – Indexing
  • Summary Functions and Maps
  • Lab 3 – Summary Functions and Maps
  • Grouping and Sorting
  • Lab 4 – Grouping and Sorting
  • Data Types & Missing Values
  • Lab 5 – Data Types & Missing Values
  • Renaming and Combining

Data Visualization

Ce module couvre la création des des visualisations de données à l'aide de matplotlib et seaborn avec python.

  • Introduction
  • Line chart
  • Lab 1 – Line Charts - Los Angeles City Museums
  • Bar chart & Heatmap
  • Lab 2 – Bar chart & Heatmap
  • Scatter Plots
  • Lab 3 – Scatter plots
  • Distributions
  • Lab 4 – Distributions
  • Pairplot
  • Boxplot

FAQs

Hadoop est un projet Apache (c'est-à-dire un logiciel open source) pour stocker et traiter le Big Data. Hadoop stocke les Big Data de manière distribuée et tolérante aux pannes sur du matériel de base. Ensuite, les outils Hadoop sont utilisés pour effectuer un traitement de données parallèle sur HDFS (Hadoop Distributed File System).


Au fur et à mesure que les organisations ont réalisé les avantages du Big Data Analytics, il y a donc une demande pour les professionnels du Big Data et Hadoop. Les entreprises recherchent des experts Big data et Hadoop ayant la connaissance de l'écosystème Hadoop et des meilleures pratiques concernant HDFS, MapReduce, Spark, HBase, Hive, Pig, Oozie, Sqoop & Flume.


La formation Itabacademy Hadoop et Spark est conçue pour faire de vous un praticien certifié Big Data en vous fournissant une formation pratique riche sur l'écosystème Hadoop et Spark. Cette formation de certification de développeur Hadoop et Spark est un tremplin vers votre parcours Big Data et vous aurez l'opportunité de travailler sur divers projets Big Data. Au même temps, la partie Spark est conçu pour vous fournir les connaissances et les compétences nécessaires pour devenir un développeur Big Data et Spark. Cette formation vous aidera à passer les certifications big data professionnels type : Cloudera, Databricks, IBM, Hortonworks et MapR.


Vous comprendrez les bases du Big Data et de Hadoop. Vous apprendrez comment Spark permet le traitement des données en mémoire et s'exécute beaucoup plus rapidement que Hadoop MapReduce. Vous découvrirez également les RDD, Spark SQL pour le traitement structuré, les différentes API proposées par Spark telles que Spark Streaming. Ce cours fait partie du parcours de carrière d'un développeur Big Data. Il englobera également les concepts fondamentaux tels que la capture de données à l'aide de Flume, le chargement de données à l'aide de Sqoop, un système de messagerie comme Kafka, etc.


La formation de certification Big Data Hadoop et Spark est conçu par des consultants experts pour faire de vous un praticien certifié Big Data et Spark. Le mini master Big Data Hadoop et Spark propose:


  • Connaissance approfondie du Big Data et de Hadoop, y compris HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator) et MapReduce
  • Connaissance approfondie de divers outils appartenant à l'écosystème Hadoop tels que Pig, Hive, Sqoop, Flume, Oozie et HBase
  • La capacité d'ingérer des données dans HDFS à l'aide de Sqoop & Flume, et d'analyser ces grands ensembles de données stockés dans HDFS
  • L'exposition à de nombreux projets basés sur l'industrie du monde réel qui seront exécutés dans cloudera ou le Cloud.
  • Connaissance approfondie de divers outils appartenant à Spark Ecosystem tels que Spark RDD, Spark SQL, Spark Streaming : dstream et structured streaming.
  • La puissance de la gestion des flux de données en temps réel via un système de messagerie de publication-abonnement comme Kafka

Le Big Data est l'un des domaines les plus rapides et les plus prometteurs, compte tenu de toutes les technologies disponibles sur le marché informatique aujourd'hui. Afin de profiter de ces opportunités, vous avez besoin d'une formation structurée avec le dernier programme d'études conformément aux exigences actuelles du secteur et aux meilleures pratiques.


Spark est l'un des outils les plus en croissance et les plus utilisés pour le Big Data & Analytics. Il a été adopté par plusieurs entreprises appartenant à divers domaines à travers le monde et offre donc des opportunités de carrière prometteuses.

La formation à la certification Big Data Hadoop et Spark vous aidera à devenir un expert du Big Data. Il perfectionnera vos compétences en vous offrant des connaissances complètes sur le framework Hadoop et aussi Spark. Pendant le cours Big Data & Hadoop, vous serez formé par nos instructeurs pour:


  • Maîtrisez les concepts de HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator) et comprenez comment travailler avec le stockage Hadoop
  • Comprendre l'architecture Hadoop 1.x, Hadoop 2.x et Hadoop 3.x
  • Comprendre le framework MapReduce
  • Mettre en œuvre une solution à l'aide de MapReduce
  • Apprenez les techniques d'ingestion de données à l'aide de Sqoop et Flume
  • Effectuer des opérations ETL et des analyses de données à l'aide de Pig and Hive
  • Implémentation du partitionnement et de l'indexation dans Hive
  • Comprendre HBase, c'est-à-dire une base de données NoSQL dans Hadoop, l'architecture et les mécanismes HBase
  • Planifier des tâches avec Oozie
  • Comprendre Apache Spark et son écosystème
  • Apprenez à utiliser RDD dans Apache Spark
  • Travailler sur un projet d'analyse Big Data avec Spark
  • Travailler sur un cluster Hadoop en temps réel
  • Ecrire des programmes Scala pour créer une application Spark
  • Comprendre Spark et son écosystème
  • Implémenter des opérations Spark sur Spark Shell Implémenter des applications Spark sur YARN (Hadoop)
  • Ecrire des applications Spark à l'aide des concepts Spark RDD
  • Executer des requêtes SQL à l'aide de Spark SQL
  • Expliquer Kafka et ses composants
  • Intégrer Kafka avec des systèmes de streaming en temps réel comme Spark Streaming
  • Utiliser Kafka pour produire et consommer des messages
  • Créer un processus d'application Spark Streaming
  • Implémentez différentes sources de données en streaming

Le marché de l'analyse Big Data est en croissance à travers le monde et ce modèle de croissance forte se traduit par une excellente opportunité pour tous les professionnels de l'informatique. Les responsables du recrutement recherchent des professionnels certifiés Big Data Hadoop et Spark. Notre formation qui prépare à la certification Big Data et Hadoop et Spark vous aide à saisir cette opportunité et à accélérer votre carrière. Notre cours Big Data Hadoop et Spark peut être suivi par des professionnels comme par des novices. Il est le mieux adapté pour:


  • Passionnés de Big Data
  • Développeurs logiciels, chefs de projet
  • Architectes logiciels
  • Consultant BI
  • Ingénieurs de données
  • Data Analyst
  • Data scientist
  • DBA et professionnels de la base de données
  • Ingénieurs en informatique
  • Diplômés cherchant à construire une carrière dans le domaine du Big Data

Comme vous le savez, de nos jours, de nombreuses organisations manifestent de l'intérêt pour le Big Data et adoptent Hadoop et Spark dans le cadre de leur stratégie de solution, la demande d'emplois dans le Big Data et Spark augmente rapidement. Il est donc grand temps de poursuivre votre carrière dans le domaine du Big Data et de l'analyse avec notre formation qui prépare à la certification Hadoop et Spark avec Python et Scala.

Il n'y a pas de tels prérequis pour la formation Big Data, Hadoop et Spark. Cependant, une connaissance préalable de la programmation, SQL et linux sera utile mais n'est pas obligatoire. De plus, pour parfaire vos compétences, Itabacademy propose le cours gratuit "python et Scala" à suivre à votre rythme lorsque vous vous inscrivez au cours Big Data, Hadoop et Spark.

Le métier de Data Scientist est avant tout une vocation, qui se traduit par la pratique de traitement de données de différentes natures, à l’aide d’algorithmes adaptés, afin de répondre à des challenges de décision. Ainsi, au sein d’une équipe Data, vous serez en charge de choisir le modèle le plus performant, parmi une palette d’algorithmes : supervisés, non supervisés ou encore réseaux de neurones profonds (Deep Learning). L’importance de ce type particulier d’algorithmes, réside dans leur pouvoir à permettre à des machines d’agir sans être explicitement programmés et c’est exactement, la maîtrise de ces algorithmes, qui ont permis d’industrialiser des voitures automnes, de tirer profit de la reconnaissance vocale, d’effectuer des recherches Web efficaces et de construire une connaissance considérablement améliorée du génome humain.

Le Machine Learning fait appel en fait, à plusieurs compétences interdisciplinaires, telle que la statistique, l’algèbre linéaire, l’optimisation et l’informatique, pour développer des systèmes automatisés, capables de passer au crible de grands volumes de données, afin de prendre des décisions, tout en minimisant l’intervention humaine. En tant que domaines d’application, le Machine Learning est désormais incroyablement omniprésent, avec des applications allant de l’intelligence d’affaires à la sécurité des pays, de l’analyse des interactions biochimiques à la surveillance structurelle du vieillissement des ponts, etc.

Dans le même ordre d’idées, les responsables de cette formation ont conçu le mini master Machine Learning, afin de faire bénéficier les stagiaires d’une formation complète et qui répond aux standards internationaux. Le premier résultat escompté est de bien vous outiller, afin de maîtriser les techniques de Machine Learning les plus efficaces, dans l’objectif d’exercer à les mettre en œuvre et à les faire fonctionner par vous-même. Plus important encore, vous découvrirez non seulement les fondements théoriques de l’apprentissage, mais vous acquerrez également le savoir-faire pratique nécessaire pour appliquer efficacement les techniques présentées, à de nouveaux problèmes dans le cadre des situations réelles.

Ensuite, la formation vise à présenter les détails nécessaires pour appréhender efficacement le Machine Learning et pour la construction de la connaissance, sur la base des données qui peuvent être de plusieurs natures. Les sujets traités comprennent entre autres :

  • L’apprentissage supervisé (algorithmes paramétriques/non paramétriques) ;
  • L’apprentissage non supervisé (clustering, réduction de la dimension, systèmes de recommandation) ;
  • Les bonnes pratiques en Machine Learning (théorie de biais/variance, processus d’innovation et IA).
  • La formation s’appuiera également sur de nombreuses études de cas et applications, de sorte à pouvoir appliquer les algorithmes à de nouveaux problèmes telle que la classification d’un texte.

  • Développer une idée claire de ce qu’implique l’apprentissage des modèles à partir des données ;
  • Maitriser les concepts d’une grande variété d’algorithmes de Machine Learning ;
  • Modéliser des données classiques et complexes et appliquer les algorithmes à un problème réel ;
  • Extraire de la connaissance sur la base des algorithmes et résultats issus de vos données ;
  • Etre capable d’évaluer les modèles générés à partir des données ;
  • Choisir entre plusieurs approches et entrainer des modèles ;
  • Optimiser les modèles en prenant compte des résultats escomptés (précision, fiabilité, exactitude, etc.).



Attestation MMBG




Ce que nos clients disent de nous

Moulay Youssef Smaili
Moulay Youssef Smaili
30. Novembre, 2019.
Ayant suivi la formation Big data & Machine learning durant la dernière session (octobre-novemvre 2019), je tiens à remercier les formateurs Dr Abdoullah et Dr Amine pour la qualité de la formation, leur pédagogie et leur gentillesse. Je vous souhaite une très bonne continuation et à très bientôt inchallah. Youssef.
AK I
AK I
20. Octobre, 2019.
Any big data course in itself is interesting, but thanks to a well designed organization of the material, the hands-on labs and moderators able to deliver knowledge and expertise in a shareable mode instead of a I-give/you-take mode, made it excellent. The staff was professionally great in doing exactly what it is suppose to do and with a genuine smile. I thank you for a job well done.
Benjamin Ekia
Benjamin Ekia
20. Octobre, 2019.
ITAB Academy centre avec des formateurs au point sur les différentes formations mon expérience au sein de cette établissement était très riche.
alfousseyni.keita.@yahoo.com Keita
alfousseyni.keita.@yahoo.com Keita
20. Octobre, 2019.
Tout d'abord, je dois avouer que le local est très propice pour l'apprentissage. J'ai fait la formation big data et Machine Learning et je dois avouer que le formateur est très compétant et il sait de quoi il parle et cela est largement suffisant.

Quelques références

ITAB ACADEMY en photos

12,900.00MADAjouter au panier