Le Mini Master Program Cloud Computing : Microsoft Azure, Pyspark on AWS, Devops and AWS solution architect - Rabat Agdal et Casa Maârif- Maroc
Inscrivez-vous
Inscrivez-vous à notre mini master Cloud Computing : Microsoft Azure, Pyspark on AWS, Devops and AWS solution architect
Mini Master: Cloud Computing : Microsoft Azure, Pyspark on AWS, Devops and AWS solution architect – Présentiel et Télépresentiel
Le mini Master Cloud Computing et DevOps : Microsoft Azure, Pyspark on AWS, Devops et Cloud AWS solution architect ; est un programme 100% cloud qui a pour objectif de permettre aux apprenants d’ACQUÉRIR UNE MEILLEURE CONNAISSANCE DU MONDE DU CLOUD COMPUTING et de l’agilité POUR ÊTRE EN MESURE DE DÉCIDER, CONCEVOIR, OU ENCORE MANAGER LE CLOUD - SELON leur NIVEAU D'IMPLICATION au sein de leurs sociétés.
Le Cloud est une infrastructure dans laquelle la puissance de calcul et le stockage sont gérés par des serveurs distants auxquels les usagers se connectent via une liaison Internet sécurisée. L'ordinateur de bureau ou portable, le téléphone mobile et autres objets connectés deviennent des points d'accès pour exécuter des applications ou consulter des données qui sont hébergées sur les serveurs.
Quant au Devops est une méthode agile qui met l’accent sur la collaboration et la communication entre les développeurs de logiciels et les professionnels des opérations informatiques, en automatisant le processus de livraison de logiciels et les changements d’infrastructure, on se basant sur des feed back régulier entre les deux parties.
Certifications du MiniMaster:
- Certification « Cloud Computing : Microsoft Azure, Pyspark on AWS, Devops and AWS solution architect ».
- Certification « Cloud Azure ».
- Certification «Devops ».
- Certification « Architecture Cloud AWS».
- Certification « Pyspark on AWS ».
- Possibilité de passer des certifications de l’AWS Solution Architect Associate.
7,900.00MADAjouter au panier
Session télé-présentielle:
- Dates prévisionnelles: 24-25 Juin, 01-02, 08-09, 15-16 Juillet 2023.
- Nombre de jours: 08 jours ( 6H/J)
- Horaire: De 9h00 à 15h00
- Rabat: +212653906825 | +212537681495
- Casablanca: +212777376560 | +212522986758
- Paris: +33780919590
Session Rabat - présentielle:
- Dates prévisionnelles: 24-25 Juin, 01-02, 08-09, 15-16 Juillet 2023.
- Nombre de jours: 08 jours ( 6H/J).
- Horaire: De 9h00 à 15h00
- Lieu : 15, Avenue de France, Bureau N°3, Agdal, RABAT (à côté Pizza Hut ) Rabat Agdal, 0537681495 | 0653906825.
S'inscrire à la formation.
- Savoir gérer les souscriptions et la facturation.
- Comprendre Microsoft Azure et connaître ses composants : architecture, outils, portails.
- Comprendre le fonctionnement de Azure Ressource Manager (ARM) et savoir organiser les ressources par groupes.
- Connaître les spécificités relatives au stockage dans Azure et comprendre comment assurer la sécurité des données.
- Comprendre les spécificités des machines virtuelles dans Azure et savoir les créer et les déployer.
- Savoir implémenter et gérer les accès réseaux pour interconnecter Azure avec le réseau de l’entreprise.
- Savoir implémenter et gérer les identités hybrides.
- Comprendre comment céer un cluster Spark dans le cloud AWS.
- Comprendre pourquoi nous avons besoin de Spark.
- Comprendre les composants de Spark et ses catégories.
- Comprendre l'architecture de Spark.
- Comprendre la différence entre les api de spark: RDD, dataframes et datasets et comment les utiliser dans python.
- Identifier et s’approprier les bibliothèques de l’écosystème Spark pour chaque cas d’usage.
- Maitriser le Spark SQL.
- Connaitre les principes de base du Spark Streaming Dstream et Spark Structured Streaming.
- Faire des labs pour maîtriser les librairies de Spark: Spark RDD, Spark SQL, Dataframes, Datasets, Datasources et Spark dstream.
- Paramétrer un dashboard.
- Définir un plan de test (Test & Feedback).
- Créer un projet d'équipe.
- Paramétrer des utilisateurs.
- Définir ce qu'est le cloud AWS et l'infrastructure globale de base
- Décrire les services clés de la plate-forme AWS et leurs cas d'utilisation courants
- Décrire les principes architecturaux de base du cloud AWS
- Décrire les aspects sécurité et conformité de base de la plate-forme AWS et le modèle de sécurité partagé
- Définir les modèles de facturation, de gestion de compte et de tarification
- Identifier les sources de documentation ou d'assistance technique (livres blancs, billets d'assistance).
- Décrire la proposition de valeur du cloud AWS
- Décrire les caractéristiques de base/essentielles du déploiement et de l'exécution dans le cloud AWS
Ingénieur d’Etat et consultant BIG DATA, lauréat de l’université Alakhawayn, le formateur a un doctorat en informatique de l’ENSIAS en partenariat avec l’université de Quebec. Il a plus de 15 ans d’expérience dans le domaine professionnel, ainsi il était consultant et chef de projet dans une grande multinationale. Notre formateur possède plusieurs certifications en BIG DATA et SPARK. Il a aussi animé plusieurs formation BIG DATA et Machine Learning pour des grands comptes tel que: Inwi, Orange, Maroc PME, Altran, PhoneGroup, Avito, Xhub, Lydec….
Notre formateur est un Ingénieur en informatique, lauréat de ISTY UVSQ Versailles – France et dispose également d’un master en contrôle de gestion et GRH. C’est un consultant expert en SI et organisation, disposant de plus de 20 ans d’expérience dans le domaine professionnel (secteur privé et public), avec une expertise en matière de SI et Transformation Digitale, Traitement et visualisation de données, Conseil en sécurité des données et en organisation. Il a animé plusieurs formations en Power BI, Azure, BIG DATA et Cloud au profit des étudiants universitaires et de grandes sociétés tels que : Orange, Inwi, IDEMIA , Promopharm Hikma, CIMR….
Consultant / Formateur expert possédant plus de 9 ans d’expériences dans l’administration des Infrastructure IT complexe et animation des formations avec les grands comptes et les administrations Publiques marocaine et étrangère tel que SFR Business Morocco, Intelcia, Orange, ACAPS et CHU Ibn Sina ... ( + 150 formations). Certifié en AWS, CISCO: CCCIE RS / CCIE Security,ITILv3 / ITILv4, Agile: Scrum Master et ISO 27001 LI Testing . Directeur d’un cabinet IT. Membre IEEE et chercheur dan Networking and Security Society.
Programme détaillé du Mini Master Cloud Computing : Microsoft Azure, Pyspark on AWS, Devops and AWS solution architect
Microsoft Azure – Infrastructure et déploiement
- GESTION DES SOUSCRIPTIONS AZURE
- Présentation
- Facturation
- Politique Azure
- GESTION DES ACCÈS AUX RESSOURCES CLOUD
- Utilisateurs et groupes Azure
- Contrôle d’accès basé sur les rôles
- SURVEILLANCE ET DIAGNOSTIQUE
- Présentation des possibilités de surveillances d’Azure
- Présentation des alertes Azure
- Présentation des logs d’activité Azure
- ANALYSE DES LOGS
- Introduction
- Requêtes et analyse des données des logs
- GESTION DES RESSOURCES AZURE AVEC ARM (AZURE RESOURCE MANAGER)
- Présentation des modèles ARM
- Organisation des ressources par groupes
- ASTUCES ET OUTILS AZURE
- Présentation du portail Azure
- Utilisation des outils : Azure PowerShell, Cloud Shell et Azure CLI
- PRÉSENTATION DU STOCKAGE AZURE
- Les comptes de stockage
- La réplication de données
- L’explorateur de stockage
- LES SERVICES DE STOCKAGE
- Le stockage de machines virtuelles
- Le systèmes de fichier Azure
- Le stockage structuré
- GESTION DU STOCKAGE ET MISE EN OEUVRE DE LA SÉCURITÉ
- Les clés d’accès partagées
- La sauvegarde Azure
- La synchronisation de fichiers
- STOCKAGE ET ACCÈS AUX DONNÉES
- Azure Content Delivery Network
- Service d’import et d’export de données
- SURVEILLANCE DU STOCKAGE
- Alertes et métriques
- Suivi de l’activité via les logs
Microsoft Azure – Infrastructure et déploiement
- PRÉSENTATION DES MACHINES AZURE
- Les machines virtuelles
- Considérations à prendre en compte pour la planification
- CRÉATION DE MACHINES VIRTUELLES
- Présentation du processus
- Création de Vms via le portail Azure
- Création de Vms via des cripts PowerShell
- Création de VMs à l’aide de modèles ARM
- DÉPLOIEMENT D’IMAGES DE MACHINES VIRTUELLES
- Déploiement d’images personnalisées
- Déploiement de VMs Linux
- CONFIGURATION DE MACHINES VIRTUELLES
- Configuration du réseau
- Configuration du stockage
- MISE EN OEUVRE DE LA HAUTE DISPONIBILITÉ
- Disponibilité
- Scalabitié
- Application d’extensions
- GESTION ET SURVEILLANCE DE MACHINES VIRTUELLES
- Introduction aux réseaux virtuels
- Création de réseaux virtuels Azure
- Présentation de l’adressage IP
- Présentation du routage
- AZURE DNS
- Présentation
- Implémentation : domaines, zones, types d’enregistrement et méthodes de résolution des noms
- CONNEXION DE RÉSEAUX VIRTUELS
- Connectivité inter-sites (VNet-to-VNet)
- Virtual Network Peering
- GESTION DE L’ACTIVE DIRECTORY AZURE
- Présentation des services AD
- Self-Service Password Reset
- Azure AD Identity Protection
- Intégration d’application SaaS avec Azure AD
- GESTION DES OBJETS AD
- Domaines
- Utilisateurs et groups Azure
- Les rôles Azure
- Gestion des périphériques
- IMPLÉMENTATION ET GESTION DES IDENTITÉS HYBRIDES
- Options d’intégration
- Proxy d’applications
Spark
- 1. SPARK Introduction
- 2. Why we need SPARK?
- 3. What is SPARK?
- 4. SPARK COMPONENTS
- 5. SPARK COMPONENTS CATEGORIES
- 6. SPARK Architecture
- 7. What is an RDD?
- 8. RDD features
- 9. RDD sources
- 10. RDD Workflow & DAG
- 11. How to create an RDD?
- 12. Transformations
- 13. Actions
- 14. Persistence
- 15. RDD limitations
- 16. Will Spark replace MapReduce?
- 17. LAB SPARK : Creating a SPARK application in PYTHON
SPARK SQL
- 1. Qu'est-ce que SPARK SQL?
- 2. Architecture de SPARK SQL
- 3. Histoire des RDDs, DATAFRAMES et DATASETS
- 4. Nouvelle API SPARK 2.0
- 5. RDD (rappel)
- 6. DATAFRAMES
- 7. DATASETS
- 8. SPARK SQL LAB1 : Creating dataframes & Datasets using SPARK .3.0 in python
- 9. SPARK SQL LAB2 : SPARK DATASOURCES in python
- 10. Spark SQL LAB3 : Analyzing flight delays in python
- 11. SPARK SQL LAB4 : Analyzing soccer games file between 1872 and 2019 in python
Azure DevOps - Part 1
- Création d'un projet d'équipe.
- Itérations et sécurité.
- Paramétrage des zones.
- Paramétrage des itérations.
- Paramétrage des utilisateurs et de la sécurité.
- Travaux pratiques : Créer et configurer un projet d'équipe.
- Contrôleur de code source
- Présentation des différents types de contrôleurs TFVC et GIT.
- Paramétrage du contrôleur de code source.
- Comprendre les concepts de branches et de fusion (branch/merging).
- Gestion des pull requests.
- Gestion de la mise sur étagère (shelving).
- Travaux pratiques : Paramétrer le contrôleur de code source.
- Work Items et Test Plan
- Tests exploratoires et planifiés : concept et méthodologie.
- Présentation des différents types de work items : Epic, Feature, UserStory, Task/Bug.
- Présentation de backlog au travers de rapports (Excel, MS Project, Power BI) sur les work items.
- Présentation du système de notifications.
- Travaux pratiques : Mettre en œuvre la planification de tests.
- Visual Management avec les Dashboards
- Paramétrer un Dashboard.
- Présentation des différents widgets existants.
- Visual Studio Market Place : pour quoi faire ?
- Travaux pratiques : Paramétrer et utiliser un Dashboard.
Azure DevOps - Part 2
- Connaître les concepts.
- Définir un plan de test (Test et Feedback).
- Test Driven Development (TDD).
- Tests unitaires, tests d'intégration, tests fonctionnels.
- Intégration Continue
- Les concepts d'intégration continue.
- Présentation des services de build.
- Visual Studio Team Services (VSTS).
- Les différents types de tasks de builds.
- Présentation de différents cas d'utilisation.
- Travaux pratiques : Utiliser VSTS Build.
- Utilisation release management
- Mise en œuvre du déploiement automatisé.
- Le catalogue de tâches.
- La problématique d'environnement.
- Présentation de différents exemples concrets.
- Travaux pratiques : Mettre en œuvre un déploiement automatisé.
- Customiser son team project
- Comment modifier un process ?
- Customisation du processus : template de process.
- Ajouter des champs personnalisés.
Introduction, mise en route avec les services AWS et la création dans le cloud
- Introduction au cloud AWS
- Définition du cloud
- Comparaison du cloud avec la solution sur site
- Explication des avantages du cloud AWS
- Identification des catégories de service AWS
- Description de l’architecture physique AWS
- Interaction avec AWS
- Mise en route avec le cloud
- Mise en route avec les services AWS
- Création de votre infrastructure
- Stockage de vos données
- Sécurisation de vos données
- Création dans le cloud
- Au-delà des serveurs et du stockage
- Surveillance de ressources AWS
- Gestion efficace de la demande
- Déploiement de services de base de données
- Automatisation du déploiement
- Connexion et partage de données
- Diffusion de contenu plus rapide
Introduction, mise en route avec les services AWS et la création dans le cloud
- Sécurité
- Sécurisation de votre infrastructure
- Gestion de l’authentification et de l’autorisation
- Évaluation de votre conformité et votre sécurité
- Protection de votre infrastructure contre les attaques par déni
- Maintien de la conformité
- Support et tarification
- Les bases de la tarification
- Obtenir de l’aide avec AWS (plans, technologies, programmes)
- Architecture
- Le cadre AWS Well-Architected
- Architectures de référence
- L’avenir du cloud
FAQs
Une formation au cloud computing pourrait vous ouvrir de nombreuses portes ! La gestion numérique et informatique des données est en pleine expansion, les entreprises se numérisent de plus en plus, et celles-ci recherchent dès lors des professionnels capables de les accompagner dans la gestion et le traitement de leurs données. Il est essentiel, à l'heure actuelle, de développer ses compétences informatiques pour répondre aux besoins des entreprises. Le marché de l'emploi dans l'informatique et la gestion de données est par conséquent particulièrement florissant, et le fait de justifier d'un diplôme ou d'une certification en cloud computing constitue un atout considérable dans votre recherche d'emploi.
L'utilisation du cloud computing représente de nombreux avantages pour les entreprises et les utilisateurs :
- il est plus efficace en cas de panne, car même si certains serveurs rencontrent des problèmes, les serveurs cloud sont en principe toujours en ligne et disponibles ;
- il est plus fonctionnel, car il permet d'éviter la gestion de serveurs physiques ;
- il est plus pratique, car il permet d'accéder aux données depuis n'importe quel appareil connecté, partout dans le monde, sans contrainte matérielle.
Il existe déjà une large variété de métiers du Cloud Computing. Voici quelques exemples des rôles les plus recherchés et les mieux rémunérés.
- L’architecte cloud se charge de concevoir l’infrastructure et les concepts initiaux d’une configuration cloud, et réfléchit stratégiquement aux possibilités d’amélioration. L’ingénieur cloud quant à lui se charge de gérer l’infrastructure cloud au quotidien et de corriger les éventuels bugs.;
- Le développeur cloud crée et optimise des applications à héberger sur le cloud public ou privé. Le consultant cloud quant à lui aide les clients à déployer ou à customiser les plateformes et logiciels cloud.
- En outre, le cloud computing est très utilisé pour l’analyse de données. Cette technologie est donc incontournable pour les Data Scientists, Data Analysts, Data Engineers et autres experts en science des données ou en Machine Learning.
Azure DevOps équipe les services de développement pour permettre aux équipes de planifier le travail, de s'unir pour le développement de code et de créer et déployer des applications. Azure DevOps soutient la culture et les processus qui amènent les développeurs, les chefs de projet et les contributeurs à développer des logiciels en collaboration.
Il permet aux organisations de développer et d'améliorer des produits plus rapidement que les approches traditionnelles de développement de logiciels.Les données générées chaque jour contiennent des tendances du marché, les préférences des clients et d’autres informations commerciales utiles. Il est nécessaire d’extraire des informations précieuses de ces données brutes. Nous avons besoin d’un outil efficace, évolutif et flexible pour effectuer différents types d’opérations sur les données volumineuses et en tirer profit.
Apache Spark est l’un des outils les plus étonnants qui permettent de traiter les données volumineuses. Comme nous le savons, Python est l’un des langages de programmation les plus utilisés par les spécialistes de la donnée. En raison de sa simplicité et de son interface interactive, les spécialistes de la donnée lui font confiance pour effectuer des analyses de données, de l’apprentissage automatique et bien d’autres tâches sur les big data.
Ainsi, la combinaison de Python et de Spark serait très efficace pour le monde du big data. C’est pourquoi la communauté Apache Spark a créé un outil appelé PySpark, qui est une API Python pour Apache Spark.
PySpark est utilisé dans plusieurs secteurs notamment dans :
- L’industrie du divertissement est l’un des plus grands secteurs qui se développe vers le streaming en ligne. La célèbre plateforme de divertissement en ligne Netflix utilise Apache Spark pour le traitement en temps réel afin de personnaliser les films en ligne ou les séries web pour ses clients. Elle traite environ 450 milliards d’événements par jour qui sont diffusés en continu sur l’application côté serveur.
- Le secteur commercial utilise également le système de traitement en temps réel d’Apache Spark. Les banques et d’autres secteurs financiers utilisent Spark pour récupérer le profil de média social du client et l’analyser afin d’obtenir des informations utiles qui peuvent aider à prendre la bonne décision. Les informations extraites sont utilisées pour l’évaluation du risque de crédit, les publicités ciblées et la segmentation des clients. Spark joue un rôle important dans la détection des fraudes et est largement utilisé dans les tâches d’apprentissage automatique.
- Le secteur de la santé: Apache Spark est utilisé pour analyser les dossiers des patients ainsi que les données des rapports médicaux afin d’identifier les patients susceptibles de rencontrer des problèmes de santé après leur sortie de la clinique.
- Commerce et E-commerce: Les principaux sites de commerce e-commerce comme Flipkart, Amazon, etc., utilisent Apache Spark pour la publicité ciblée. D’autres sites comme Alibaba proposent des offres ciblées, améliorent l’expérience client et optimisent les performances globales.
Ce que nos clients disent de nous
Quelques références
ITAB ACADEMY en photos
7,900.00MADAjouter au panier