Le Master Program BIG DATA & Cloud AWS et MACHINE LEARNING & Artificial Intelligence- Rabat Agdal et Casa Maârif- Maroc

Inscrivez-vous



Inscrivez-vous à notre master program BIG DATA & Cloud AWS et Machine Learning & Artificial Intelligence.

Master Program : BIG DATA & Cloud AWS et MACHINE LEARNING & Artificial Intelligence – Présentiel et Télépresentiel


Le Master Program BIG DATA & Cloud AWS et Machine Learning & Artificial Intelligence d’ITAB ACADEMY est une formation organisée à partir des dernières tendances technologiques. C’est une Formation (type tronc commun) pour la préparation aux certifications professionnelles type : IBM, Cloudera, Hortonworks et Databricks.

Cela couvre des connaissances détaillées sur le Big Data & Cloud AWS et les outils de l'écosystème Hadoop tels que HDFS, YARN, MapReduce, Hive, Pig, HBase, Oozie, Flume et Sqoop. Par ailleurs, cette formation couvre également Apache Spark et l'écosystème Spark, qui comprend Spark RDD, Spark SQL et Spark Streaming. Tout au long de cette formation animée par un instructeur, vous travaillerez sur des labs afin de pratiquer tous les modules couverts dans ce programme.

Le métier de Data Scientist est avant tout une vocation, qui se traduit par la pratique de traitement de données de différentes natures, à l’aide d’algorithmes adaptés, afin de répondre à des challenges de décision. Ainsi, au sein d’une équipe Data, vous serez en charge de choisir le modèle le plus performant, parmi une palette d’algorithmes : supervisés, non supervisés ou encore réseaux de neurones profonds (Deep Learning). L’importance de ce type particulier d’algorithmes, réside dans leur pouvoir à permettre à des machines d’agir sans être explicitement programmés et c’est exactement, la maîtrise de ces algorithmes, qui ont permis d’industrialiser des voitures automnes, de tirer profit de la reconnaissance vocale, d’effectuer des recherches Web efficaces et de construire une connaissance considérablement améliorée du génome humain.

Le Machine Learning fait appel en fait, à plusieurs compétences interdisciplinaires, telle que la statistique, l’algèbre linéaire, l’optimisation et l’informatique, pour développer des systèmes automatisés, capables de passer au crible de grands volumes de données, afin de prendre des décisions, tout en minimisant l’intervention humaine. En tant que domaines d’application, le Machine Learning est désormais incroyablement omniprésent, avec des applications allant de l’intelligence d’affaires à la sécurité des pays, de l’analyse des interactions biochimiques à la surveillance structurelle du vieillissement des ponts, etc.

12,900.00MADAjouter au panier

Session télé-présentielle:

Session Rabat - présentielle:

  • Dates prévisionnelles: 24-25 Juin, 01-02, 08-09, 10-11, 15-16, 22-23, 29-30 Juillet 2023.
  • Nombre de jours: 22 jours ( 6H/J) - 08 jours en ligne et 14 jours présentiels.
  • Horaire: De 9h00 à 15h00
  • Lieu : 15, Avenue de France, Bureau N°3, Agdal, RABAT (à côté Pizza Hut ) Rabat Agdal, 0537681495 | 0653906825.

Session Casablanca - présentielle:

  • Dates prévisionnelles: 24-25 Juin, 01-02, 08-09, 10-11, 15-16, 22-23, 29-30 Juillet 2023.
  • Nombre de jours: 22 jours ( 6H/J) - 08 jours en ligne et 14 jours présentiels.
  • Horaire: De 9h00 à 15h00
  • Lieu : 219, BD Zerktouni Angle BD Roudani, 1er étage, Bureau N°14, Casa Maârif, 0777376560 | 0522986758.

Certifications du Master programme :

  • Certification of course completion
        « Master program en BIG DATA & Cloud AWS et MACHINE LEARNING & Artificial Intelligence »
  • Certification « BIG DATA Engineer »
  • Certification « Spark Developer »
  • Certification « Cloud AWS »
  • Certification « Data Scientist »
  • Certification « Artificial Intelligence »
  • Possibilité de passer les certifications d’IBM en BIG DATA et de EMC2 en Machine Learning.

S'inscrire à la formation.


Ce module couvre des connaissances détaillées sur le Big Data et les outils de l'écosystème Hadoop tels que HDFS, YARN, MapReduce, Hive, Pig, HBase, Oozie, Flume et Sqoop. Le module a pour objectifs :

  • Comprendre le phénomène Big Data et les notions qu’il recouvre.
  • Comprendre pourquoi tout le monde parle du Big Data et son impact dans l’entreprise.
  • Comment faire du Big Data ? Sur quelle plateforme technologique s’appuyer ?
  • Identifier et s’approprier les outils de l’écosystème Hadoop pour chaque cas d’usage.
  • Faire des labs pour maîtriser les composants du hadoop ecosystème: sqoop, hbase, hive, pig, flume et oozie.
Ce module couvre Apache Spark et l'écosystème Spark, qui comprend Spark RDD, Spark SQL et Spark Streaming. Ce module a pour objectifs:

  • Comprendre comment céer un cluster Spark dans le cloud (azure ou aws).
  • Comprendre pourquoi nous avons besoin de Spark.
  • Comprendre les composants de Spark et ses catégories.
  • Comprendre l'architecture de Spark.
  • Comprendre la différence entre les api de spark: RDD, dataframes et datasets et comment les utiliser dans Scala et / ou python.
  • Identifier et s’approprier les bibliothèques de l’écosystème Spark pour chaque cas d’usage.
  • Maitriser le Spark SQL.
  • Connaitre les principes de base du Spark Streaming Dstream et Spark Structured Streaming.
  • Faire des labs pour maîtriser les librairies de Spark: Spark RDD, Spark SQL, Dataframes, Datasets, Datasources, Spark dstream et Spark Structured Streaming.
Ce module de 2 jours a pour objectifs:

  • Être en mesure de prendre des décisions architecturales conformément aux bonnes pratiques et aux principes recommandés par AWS.
  • Utiliser les services AWS pour rendre votre infrastructure évolutive, fiable et hautement disponible
  • Exploiter les services gérés par AWS pour conférer davantage de flexibilité et de résilience à une infrastructure
  • Optimiser une infrastructure basée sur AWS pour en améliorer les performances et en diminuer les coûts
  • Utiliser le Well-Architected Framework pour améliorer des architectures existantes grâce aux solutions AWS

Ce module de 5 jours vise à présenter les détails nécessaires pour appréhender efficacement le Machine Learning et pour la construction de la connaissance, sur la base des données qui peuvent être de plusieurs natures. Les sujets traités comprennent entre autres :


  • Comprendre la théorie de base sous-jacente à la machine apprentissage.
  • Être capable de formuler des problèmes d'apprentissage automatique correspondant à différentes applications.
  • Comprendre une gamme d'algorithmes d'apprentissage automatique ainsi que leurs forces et leurs faiblesses.
  • Être capable d'appliquer des algorithmes d'apprentissage automatique pour résoudre problèmes de complexité moyenne.
  • Pour appliquer les algorithmes à un problème réel, optimisez les modèles appris et rendre compte des résultats attendus précision qui peut être obtenue en appliquant les modèles.
  • Apprécier l'importance de la visualisation dans les données solution d'analyse
  • Appliquer la pensée structurée aux problèmes non structurés
  • Comprendre une très large collection de machines algorithmes et problèmes d'apprentissage
  • Apprenez des sujets algorithmiques d'apprentissage automatique et mathématiquement suffisamment profond pour introduire les la théorie
  • Développer une appréciation de ce qui est impliqué dans apprendre à partir des données

Ce module de 2 jours vise à présenter les détails nécessaires pour appréhender efficacement l'intelligence artificielle . Ce module à pour but :


  • Expliquer ce qu'est l'intelligence artificielle ;
  • Identifier ses défis et ses opportunités ;
  • Décrire scientifiquement un projet d'IA et ses sous-disciplines.
  • Développer des solutions d’intelligence artificielle (NLP)
  • Formateur BID DATA: Ingénieur d’Etat et consultant BIG DATA, lauréat de l’université Alakhawayn, le formateur a un doctorat en informatique de l’ENSIAS en partenariat avec l’université de Quebec. Il est au même temps professeur universitaire à l’INPT. Il a cumulé plus de 13 ans d’expérience dans le domaine professionnel, ainsi il était consultant et chef de projet dans une grande multinationale ou il a travaillé pour le compte de plusieurs clients francophones/anglophones à savoir : Schneider, Ciba, Pfizer, Solvay, Boehringer Ingelhem etc. Notre formateur possède plusieurs certifications en BIG DATA et SPARK. Il a aussi animé plusieurs formation BIG DATA, Machine Learning et datascience pour des grands comptes tel que: Inwi, Orange, Altran, PhoneGroup, Avito, Xhub, Lydec, Maroc PME…

Programme détaillé du Master program BIG DATA & Cloud AWS et Machine Learning & Artificial Intelligence - 14 jours - Présentiel et téléprésentiel

Hadoop

  • 1. Définition du BIG DATA
  • 2. BIG DATA use cases
  • 3. Hadoop
  • 4. Installation de cloudera
  • 5. Configuration d’une distribution BIG DATA dans le cloud
  • 6. Lab HDFS : Navigating in the hadoop filesystem (HDFS commands)

MapReduce & YARN

  • 1. MAPREDUCE and YARN
  • 2. LAB MAPREDUCE : Creating a mapreduce application that calculates the max temperature for each month in java
  • 3. LAB MAPREDUCE : Creating a mapreduce applaction that performs a wordcount using JAVA
  • 4. SQOOP, HUE, IMPALA
  • 5. SQOOP LAB : Moving a MYSQL database into HIVE using SQOOP and accessing it from impala in hue.

HBASE & Flume

  • 1. HBASE : NOSQL Database
  • 2. Lab HBASE
  • 3. FLUME : Ingesting unstructured data into Hadoop
  • 4. Lab Flume

HIVE & BI DASHBOARD with HUE

  • 1. HIVE : Managing HIVE datawarehouse using Apache HIVE
  • 2. Lab Hive
  • 3. Creating a BI Dashboard with Hue and SOLR

PIG & OOZIE

  • 1. PIG : Creating ETLs with Apache PIG
  • 2. LAB PIG
  • 3. OOZIE
  • 4. PROJECT OOZIE : Creating a Worflow in Oozie (flume, hive, sqoop)

Python & Scala

  • 1. Révision PYTHON
  • 2. Révision SCALA

Spark

  • 1. SPARK Introduction
  • 2. Why we need SPARK?
  • 3. What is SPARK?
  • 4. SPARK COMPONENTS
  • 5. SPARK COMPONENTS CATEGORIES
  • 6. SPARK Architecture
  • 7. What is an RDD?
  • 8. RDD features
  • 9. RDD sources
  • 10. RDD Workflow & DAG
  • 11. How to create an RDD?
  • 12. Transformations
  • 13. Actions
  • 14. Persistence
  • 15. RDD limitations
  • 16. Will Spark replace MapReduce?
  • 17. LAB SPARK : Creating a SPARK application in SCALA

SPARK SQL

  • 1. Qu'est-ce que SPARK SQL?
  • 2. Architecture de SPARK SQL
  • 3. Histoire des RDDs, DATAFRAMES et DATASETS
  • 4. Nouvelle API SPARK 2.0
  • 5. RDD (rappel)
  • 6. DATAFRAMES
  • 7. DATASETS
  • 8. SPARK SQL LAB1 : Creating dataframes & Datasets using SPARK .2.4 in scala or python
  • 9. SPARK SQL LAB2 : SPARK DATASOURCES in scala or python
  • 10. Spark SQL LAB3 : Analyzing flight delays in scala or python
  • 11. SPARK SQL LAB4 : Analyzing soccer games file between 1872 and 2019 in scala or python

Spark Streaming and Kafka

  • 1. Qu’est ce que SPARK STREAMING?
  • 2. Comment fonctionne SPARK STREAMING?
  • 3. Principes de base du SPARK Streaming
  • 4. Streaming Context
  • 5. DStream
  • 6. Caching
  • 7. Accumulators
  • 8. Broadcast Variables
  • 9. Checkpoints
  • 10. SPARK DSTREAM LAB : Streaming data from a PY file in Scala
  • 11. SPARK STRUCTURED STREAMING
  • 12. What is the difference between Spark Structured Streaming and DStreams?
  • 13. Programming model
  • 14. SSS – Example
  • 15. Handling Event-time and Late Data
  • 16. SPARK SSS LAB : SPARK - Structured Streaming using Python or SCALA DataFrames API

Présentations des projects

  • 1. Classes & Objects
  • 2. Constructor
  • 3. Method overloading
  • 4. This keyword
  • 5. Inheritance
  • 6. Method Overriding
  • 7. Traits
  • 8. Scala collections
  • 9. Functions collections
  • 1. Cloudera CDP installation
  • 2. Delta Lake
  • 3. Tez and hive, pig & scoop on tez
  • 4. Zeppelin with Spark in scala (demo in spark)
  • 5. Dataikuu (on spark)
  • 6. Spark genomic
  • 7. COVID 19 prediction in python
  • 8. COVID 19, prediction in AWS SPARK or databricks
  • 9. MLFLOW
  • 10. DEEP LEARNING with tensorflow
  • 11. Snowflake
  • 12. Apache Kudu
  • 13. AUTOML
  • 1.Introduction
  • 2.Elastic Cloud Compute – EC2
  • 2.1.Introduction
  • 2.2.Amazon Machine Image
  • 2.3.Stockage de données
  • 2.4.Types d'instances
  • 2.5.Options de coût et de prix
  • S3 – Simple Storage Service ou Service de stockage simple
  • 3.1.Introduction
  • 3.2.S3
  • 3.3.Glacier
  • 3.4.Options de stockage
  • 4.Le réseau - Partie 1
  • 4.1.Cloud privé virtuel - VPC (Virtual private Cloud)
  • 4.2.Gérez votre VPC avec des sous-réseaux et des tables de routage
  • 4.3.Elastic Network Interface (Interface réseau élastique) et Elastic IP (adresse IP élastique )
  • 4.4.Groupes de sécurité et listes de contrôle d'accès réseau - NACL
  • 5.Le réseau - Partie 2
  • 5.1.Connexion de réseaux
  • 5.2.Load Balancing (Équilibrage de charge)
  • 5.3.Haute disponibilité
  • 5.4.Route 53 – DNS
  • 6.Élasticité, haute disponibilité et monitoring
  • 6.1.Haute disponibilité
  • 6.2.Élasticité
  • 6.3.Monitoring
  • 6.4.Mise à l'échelle automatique pour gagner en élasticité
  • 7. Gestion des identités et des accès - IAM
  • 7.1.IAM, introduction
  • 7.2.Octroi d'autorisations
  • 7.3.Organisation des utilisateurs avec des rôles
  • 7.4.Amazon Cognito
  • 7.5.Pattern multi-comptes
  • 8 Couche de base de données
  • 8.1.Considérations relatives à la base de données
  • 8.2.Service de base de données relationnelle - RDS
  • 8.3.Focus sur DynamoDB
  • 8.4.Sécurité et contrôles
  • 8.5.Migration des données vers AWS
  • 9.Les autres services AWS
  • 9.1.SQS, SWF and SNS
  • 9.2. Amazon ElastiCache
  • 9.3 CloudFront
  • 9.4 AWS Storage Gateway
  • 9.5. AWS CloudFormation
  • 9.6 AWS Elastic Beanstalk
  • 9.7 Amazon Kinesis
  • 9.8.Elastic Beanstalk
  • 9.9 Exploration des autres services AWS
  • 10. Les 5 piliers d’ AWS
  • 10.1 Excellence opérationnelle
  • 10.2.La sécurité
  • 10.3 La fiabilité
  • 10.4 Efficacité des performances
  • 10.5 Optimisation des coûts
  • 11. Préparation à l’examen

Mot de bienvenue, présentation générale de la formation, des prérequis et des concepts de base sur Le Machine Learning

Le but de la journée est d’introduire les concepts de base de Machine Learning. Les stagiaires auront une idée précise sur les prérequis, sur Data Analytics Lifecycle et les normes et standards en Machine Learning. Ils devront maitriser certaines techniques pour interroger leurs bases de données. Ainsi, ils sauront distinguer plusieurs types de variables et les caractériser, et ils sauront distinguer un problème déterministe et probabiliste. Des mises en situation seront abordées lors de cette première séance. Le programme de la journée se présente ainsi :

  • Objectifs et identification des besoins
  • Introduction à l’apprentissage automatique
  • Supervisé vs non-supervisé vs renforcement
  • Application ML et cas d’usages
  • Data analytics LifeCycle
  • Environement de travail (Python Fundamentals)
  • Overview of python
  • Set environement
  • Code your first script

    Sujet 2.1 Préparation des données .

  • Analyse de données avec Pandas.
  • Pandas DataFrame et série.
  • Importer et exporter des données.
  • Filtrer et trancher les données.
  • Nettoyer les données.
  • Sujet 2.2 Transformation des données.

  • Joindre des données.
  • Transformer les données.
  • Données agrégées.
  • Sujet 2.3 Visualisation des données.

  • Visualisation des données avec Matplotlib et Seaborn.
  • Visualiser les relations statistiques avec le nuage de points.
  • Visualiser les données catégorielles avec Bar Plot.
  • Visualiser la corrélation avec Pair Plot et Heatmap.
  • Visualiser les relations linéaires avec régression.
  • Sujet 2.4 Analyse des données.

  • Analyse des données statistiques.
  • Analyse des séries chronologiques.
  • Rubrique 2.5 Analyse avancée des données.

  • Canalisation des données.
  • Regrouper par et appliquer des fonctions personnalisées.
  • Régression linéaire.

    Rubrique 3.1 Présentation de l'apprentissage automatique et de Scikit Learn

  • Introduction à l'apprentissage automatique
  • Apprentissages supervisés vs non supervisés
  • Applications d'apprentissage automatique et études de cas
  • Qu'est-ce que Scikit Learn ?
  • Installation de Scikit-Learn
  • Sujet 3.2 Classement

  • Qu'est-ce que la classification ?
  • Algorithmes de classification
  • Flux de travail de classement
  • Matrice de confusion
  • Métriques de classification binaire
  • ROC et AUC
  • Sujet 3.3 Régression

  • Qu'est-ce que la régression ?
  • Algorithmes de régression
  • Flux de travail de régression
  • Métriques de régression
  • Surajustement et régularisations
  • Rubrique 3.4 Regroupement

  • Qu'est-ce que le regroupement ?
  • Regroupement K-Means
  • Analyse des silhouettes
  • Dendrogramme et regroupement hiérarchique
  • Sujet 3.5 Analyse en composantes principales

  • Malédiction du problème de dimensionnalité
  • Qu'est-ce que l'analyse en composantes principales (ACP) ?
  • Réduction des fonctionnalités avec PCA
  • Reprise classification
  • Classification en détail
  • Présentation du cas d’usage
  • Application du LifeCycle
  • Préparation de la data
  • Analyse exploratoire
  • Modélisation : Machine Learning
  • Déploiement
  • Reprise prédiction
  • Prédiction en détail
  • Présentation du cas d’usage
  • Application du LifeCycle
  • Préparation de la data
  • Analyse exploratoire
  • Modélisation : Machine Learning
  • Déploiement
  • Histoire et concept
  • Du système expert au machine learning
  • Raisonement et problem-solving
  • NLP : Natural Language Processing
  • Perception
  • Narrow Intelligence
  • General Intelligence
  • LLM : Large Language Models
  • Reprise NLP
  • Text classification
  • Préparation de la data text
  • Vectorization
  • Bag of Words
  • Neural Networks

Programme détaillé du E-Learning du Master program BIG DATA & Cloud AWS et Machine Learning & Artificial Intelligence - 08 jours - En ligne

Python - Part 1

  • 1. Introduction
  • 2. Why Python?
  • 3. HELLO WORLD
  • 4. INDENTATION
  • 5. VARIABLES
  • 6. DATA TYPES
  • 7. NUMBERS
  • 8. CASTING
  • 9. STRINGS
  • 10. BOOLEAN
  • 11. LISTS
  • 12. TUPLES
  • 13. Set
  • 14. Dictionaries

Python - Part 2

  • 1. If … Else
  • 2. Loops
  • 3. Functions
  • 4. Lambda Functions
  • 5. Array
  • 6. Classes/Objects
  • 7. Inheritance
  • 8. Iterators
  • 9. Scope
  • 10. Modules
  • 11. Datetime
  • 12. JSON
  • 13. RegEx
  • 14. PIP
  • 15. Try … Except
  • 16. User Input
  • 17. String Formating

Scala- Part 1

  • 1. Introduction
  • 2. Hello word
  • 3. Expressions
  • 4. Values
  • 5. Variables
  • 6.Blocks
  • 7. Conditional expressions

Scala- Part 2

  • 1. Pattern matching
  • 2. While loop
  • 3. For loop
  • 4. Break statement
  • 5. Comments
  • 6. Functions
  • 7. Methods

Scala- Part 3

  • 1. Classes & Objects
  • 2. Traits
  • 3. Arrays
  • 4. Strings
  • 5. Scala collections
  • 6. Functions collections
  • 7. Tuple

Numpy

Ce module couvre l'utilisation de la bibliothèque numpy pour créer et manipuler des tableaux.

  • Introduction
  • Creating arrays
  • Lab 1 – Creating array
  • NumPy Array Indexing
  • Array Slicing
  • Lab 2 – Array Slicing
  • Data Types
  • Lab 3 – Data Type
  • Array Shape
  • Array Reshape
  • Lab 4 – Array reshape
  • Array Iterating
  • Lab 5 – Array iterating
  • Joining Array
  • Lab 6 – Joining array
  • Splitting Array
  • Lab 7 – Splitting array
  • Searching Arrays
  • Lab 8 – Searching array
  • Sorting Arrays
  • Lab 9 – Sorting array
  • Filter Array
  • Random Numbers
  • Lab 10 – Random number

Pandas

Ce module couvre l'utilisation du module pandas avec Python pour créer et structurer des données.

  • Introduction
  • Creating Data
  • Lab 1 – Creating data
  • Naive accessors
  • Indexing in Pandas
  • Lab 2 – Indexing
  • Summary Functions and Maps
  • Lab 3 – Summary Functions and Maps
  • Grouping and Sorting
  • Lab 4 – Grouping and Sorting
  • Data Types & Missing Values
  • Lab 5 – Data Types & Missing Values
  • Renaming and Combining

Data Visualization

Ce module couvre la création des des visualisations de données à l'aide de matplotlib et seaborn avec python.

  • Introduction
  • Line chart
  • Lab 1 – Line Charts - Los Angeles City Museums
  • Bar chart & Heatmap
  • Lab 2 – Bar chart & Heatmap
  • Scatter Plots
  • Lab 3 – Scatter plots
  • Distributions
  • Lab 4 – Distributions
  • Pairplot
  • Boxplot

FAQs

Hadoop est un projet Apache (c'est-à-dire un logiciel open source) pour stocker et traiter le Big Data. Hadoop stocke les Big Data de manière distribuée et tolérante aux pannes sur du matériel de base. Ensuite, les outils Hadoop sont utilisés pour effectuer un traitement de données parallèle sur HDFS (Hadoop Distributed File System).


Au fur et à mesure que les organisations ont réalisé les avantages du Big Data Analytics, il y a donc une demande pour les professionnels du Big Data et Hadoop. Les entreprises recherchent des experts Big data et Hadoop ayant la connaissance de l'écosystème Hadoop et des meilleures pratiques concernant HDFS, MapReduce, Spark, HBase, Hive, Pig, Oozie, Sqoop & Flume.


La formation Itabacademy Hadoop et Spark est conçue pour faire de vous un praticien certifié Big Data en vous fournissant une formation pratique riche sur l'écosystème Hadoop et Spark. Cette formation de certification de développeur Hadoop et Spark est un tremplin vers votre parcours Big Data et vous aurez l'opportunité de travailler sur divers projets Big Data. Au même temps, la partie Spark est conçu pour vous fournir les connaissances et les compétences nécessaires pour devenir un développeur Big Data et Spark. Cette formation vous aidera à passer les certifications big data professionnels type : Cloudera, Databricks, IBM, Hortonworks et MapR.


Vous comprendrez les bases du Big Data et de Hadoop. Vous apprendrez comment Spark permet le traitement des données en mémoire et s'exécute beaucoup plus rapidement que Hadoop MapReduce. Vous découvrirez également les RDD, Spark SQL pour le traitement structuré, les différentes API proposées par Spark telles que Spark Streaming. Ce cours fait partie du parcours de carrière d'un développeur Big Data. Il englobera également les concepts fondamentaux tels que la capture de données à l'aide de Flume, le chargement de données à l'aide de Sqoop, un système de messagerie comme Kafka, etc.


La formation de certification Big Data Hadoop et Spark est conçu par des consultants experts pour faire de vous un praticien certifié Big Data et Spark. Le mini master Big Data Hadoop et Spark propose:


  • Connaissance approfondie du Big Data et de Hadoop, y compris HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator) et MapReduce
  • Connaissance approfondie de divers outils appartenant à l'écosystème Hadoop tels que Pig, Hive, Sqoop, Flume, Oozie et HBase
  • La capacité d'ingérer des données dans HDFS à l'aide de Sqoop & Flume, et d'analyser ces grands ensembles de données stockés dans HDFS
  • L'exposition à de nombreux projets basés sur l'industrie du monde réel qui seront exécutés dans cloudera ou le Cloud.
  • Connaissance approfondie de divers outils appartenant à Spark Ecosystem tels que Spark RDD, Spark SQL, Spark Streaming : dstream et structured streaming.
  • La puissance de la gestion des flux de données en temps réel via un système de messagerie de publication-abonnement comme Kafka

Le Big Data est l'un des domaines les plus rapides et les plus prometteurs, compte tenu de toutes les technologies disponibles sur le marché informatique aujourd'hui. Afin de profiter de ces opportunités, vous avez besoin d'une formation structurée avec le dernier programme d'études conformément aux exigences actuelles du secteur et aux meilleures pratiques.


Spark est l'un des outils les plus en croissance et les plus utilisés pour le Big Data & Analytics. Il a été adopté par plusieurs entreprises appartenant à divers domaines à travers le monde et offre donc des opportunités de carrière prometteuses.

La formation à la certification Big Data Hadoop et Spark vous aidera à devenir un expert du Big Data. Il perfectionnera vos compétences en vous offrant des connaissances complètes sur le framework Hadoop et aussi Spark. Pendant le cours Big Data & Hadoop, vous serez formé par nos instructeurs pour:


  • Maîtrisez les concepts de HDFS (Hadoop Distributed File System), YARN (Yet Another Resource Negotiator) et comprenez comment travailler avec le stockage Hadoop
  • Comprendre l'architecture Hadoop 1.x, Hadoop 2.x et Hadoop 3.x
  • Comprendre le framework MapReduce
  • Mettre en œuvre une solution à l'aide de MapReduce
  • Apprenez les techniques d'ingestion de données à l'aide de Sqoop et Flume
  • Effectuer des opérations ETL et des analyses de données à l'aide de Pig and Hive
  • Implémentation du partitionnement et de l'indexation dans Hive
  • Comprendre HBase, c'est-à-dire une base de données NoSQL dans Hadoop, l'architecture et les mécanismes HBase
  • Planifier des tâches avec Oozie
  • Comprendre Apache Spark et son écosystème
  • Apprenez à utiliser RDD dans Apache Spark
  • Travailler sur un projet d'analyse Big Data avec Spark
  • Travailler sur un cluster Hadoop en temps réel
  • Ecrire des programmes Scala pour créer une application Spark
  • Comprendre Spark et son écosystème
  • Implémenter des opérations Spark sur Spark Shell Implémenter des applications Spark sur YARN (Hadoop)
  • Ecrire des applications Spark à l'aide des concepts Spark RDD
  • Executer des requêtes SQL à l'aide de Spark SQL
  • Expliquer Kafka et ses composants
  • Intégrer Kafka avec des systèmes de streaming en temps réel comme Spark Streaming
  • Utiliser Kafka pour produire et consommer des messages
  • Créer un processus d'application Spark Streaming
  • Implémentez différentes sources de données en streaming

Le marché de l'analyse Big Data est en croissance à travers le monde et ce modèle de croissance forte se traduit par une excellente opportunité pour tous les professionnels de l'informatique. Les responsables du recrutement recherchent des professionnels certifiés Big Data Hadoop et Spark. Notre formation qui prépare à la certification Big Data et Hadoop et Spark vous aide à saisir cette opportunité et à accélérer votre carrière. Notre cours Big Data Hadoop et Spark peut être suivi par des professionnels comme par des novices. Il est le mieux adapté pour:


  • Passionnés de Big Data
  • Développeurs logiciels, chefs de projet
  • Architectes logiciels
  • Consultant BI
  • Ingénieurs de données
  • Data Analyst
  • Data scientist
  • DBA et professionnels de la base de données
  • Ingénieurs en informatique
  • Diplômés cherchant à construire une carrière dans le domaine du Big Data

Comme vous le savez, de nos jours, de nombreuses organisations manifestent de l'intérêt pour le Big Data et adoptent Hadoop et Spark dans le cadre de leur stratégie de solution, la demande d'emplois dans le Big Data et Spark augmente rapidement. Il est donc grand temps de poursuivre votre carrière dans le domaine du Big Data et de l'analyse avec notre formation qui prépare à la certification Hadoop et Spark avec Python et Scala.

Il n'y a pas de tels prérequis pour la formation Big Data, Hadoop et Spark. Cependant, une connaissance préalable de la programmation, SQL et linux sera utile mais n'est pas obligatoire. De plus, pour parfaire vos compétences, Itabacademy propose le cours gratuit "python et Scala" à suivre à votre rythme lorsque vous vous inscrivez au cours Big Data, Hadoop et Spark.

Le métier de Data Scientist est avant tout une vocation, qui se traduit par la pratique de traitement de données de différentes natures, à l’aide d’algorithmes adaptés, afin de répondre à des challenges de décision. Ainsi, au sein d’une équipe Data, vous serez en charge de choisir le modèle le plus performant, parmi une palette d’algorithmes : supervisés, non supervisés ou encore réseaux de neurones profonds (Deep Learning). L’importance de ce type particulier d’algorithmes, réside dans leur pouvoir à permettre à des machines d’agir sans être explicitement programmés et c’est exactement, la maîtrise de ces algorithmes, qui ont permis d’industrialiser des voitures automnes, de tirer profit de la reconnaissance vocale, d’effectuer des recherches Web efficaces et de construire une connaissance considérablement améliorée du génome humain.

Le Machine Learning fait appel en fait, à plusieurs compétences interdisciplinaires, telle que la statistique, l’algèbre linéaire, l’optimisation et l’informatique, pour développer des systèmes automatisés, capables de passer au crible de grands volumes de données, afin de prendre des décisions, tout en minimisant l’intervention humaine. En tant que domaines d’application, le Machine Learning est désormais incroyablement omniprésent, avec des applications allant de l’intelligence d’affaires à la sécurité des pays, de l’analyse des interactions biochimiques à la surveillance structurelle du vieillissement des ponts, etc.

Dans le même ordre d’idées, les responsables de cette formation ont conçu le mini master Machine Learning, afin de faire bénéficier les stagiaires d’une formation complète et qui répond aux standards internationaux. Le premier résultat escompté est de bien vous outiller, afin de maîtriser les techniques de Machine Learning les plus efficaces, dans l’objectif d’exercer à les mettre en œuvre et à les faire fonctionner par vous-même. Plus important encore, vous découvrirez non seulement les fondements théoriques de l’apprentissage, mais vous acquerrez également le savoir-faire pratique nécessaire pour appliquer efficacement les techniques présentées, à de nouveaux problèmes dans le cadre des situations réelles.

Ensuite, la formation vise à présenter les détails nécessaires pour appréhender efficacement le Machine Learning et pour la construction de la connaissance, sur la base des données qui peuvent être de plusieurs natures. Les sujets traités comprennent entre autres :

  • L’apprentissage supervisé (algorithmes paramétriques/non paramétriques) ;
  • L’apprentissage non supervisé (clustering, réduction de la dimension, systèmes de recommandation) ;
  • Les bonnes pratiques en Machine Learning (théorie de biais/variance, processus d’innovation et IA).
  • La formation s’appuiera également sur de nombreuses études de cas et applications, de sorte à pouvoir appliquer les algorithmes à de nouveaux problèmes telle que la classification d’un texte.

  • Développer une idée claire de ce qu’implique l’apprentissage des modèles à partir des données ;
  • Maitriser les concepts d’une grande variété d’algorithmes de Machine Learning ;
  • Modéliser des données classiques et complexes et appliquer les algorithmes à un problème réel ;
  • Extraire de la connaissance sur la base des algorithmes et résultats issus de vos données ;
  • Etre capable d’évaluer les modèles générés à partir des données ;
  • Choisir entre plusieurs approches et entrainer des modèles ;
  • Optimiser les modèles en prenant compte des résultats escomptés (précision, fiabilité, exactitude, etc.).



CERTIFICATE OF COMPLETION BD et ML




Ce que nos clients disent de nous

Moulay Youssef Smaili
Moulay Youssef Smaili
30. Novembre, 2019.
Ayant suivi la formation Big data & Machine learning durant la dernière session (octobre-novemvre 2019), je tiens à remercier les formateurs Dr Abdoullah et Dr Amine pour la qualité de la formation, leur pédagogie et leur gentillesse. Je vous souhaite une très bonne continuation et à très bientôt inchallah. Youssef.
AK I
AK I
20. Octobre, 2019.
Any big data course in itself is interesting, but thanks to a well designed organization of the material, the hands-on labs and moderators able to deliver knowledge and expertise in a shareable mode instead of a I-give/you-take mode, made it excellent. The staff was professionally great in doing exactly what it is suppose to do and with a genuine smile. I thank you for a job well done.
Benjamin Ekia
Benjamin Ekia
20. Octobre, 2019.
ITAB Academy centre avec des formateurs au point sur les différentes formations mon expérience au sein de cette établissement était très riche.
alfousseyni.keita.@yahoo.com Keita
alfousseyni.keita.@yahoo.com Keita
20. Octobre, 2019.
Tout d'abord, je dois avouer que le local est très propice pour l'apprentissage. J'ai fait la formation big data et Machine Learning et je dois avouer que le formateur est très compétant et il sait de quoi il parle et cela est largement suffisant.

Quelques références

ITAB ACADEMY en photos

12,900.00MADAjouter au panier