Ecole Data

Databricks

Table Header
Durée :
3 jours
Public :
Data Engineer , Data Architects , Data Scientist , Data Analyst
Pré-requis :
Connaissance d’apache Spark, cloud, python.
Objectifs :
Cette formation vous fera découvrir l’environnement Databricks, vous apprendra à générer développer des applications impliquant beaucoup de données.
A l'issue de cette formation, vous aurez acquis les compétences nécessaires pour :
  • - Présenter Databricks et Apache Spark.
  • - Créer un Workspace et un cluster.
  • - Se connecter à de différentes sources pour lire et écrire des données.
  • - Comprendre les différents types de cluster et de ressources.
  • - Mettre en œuvre un traitement en streaming.
  • - Connecter Databricks à des outils gestion de versions comme Git.
  • - Comprendre la partie DevOps & Sécurité de Databricks.
Référence :
Demandeurs d'emploi :
Contactez-nous pour connaître les remises Pôle Emploi
Tarifs
Standard : 1700€ HT

Pour les personnes en situation de handicap, nous mettrons tout en œuvre pour vous accueillir ou pour vous réorienter.

Vous pouvez nous contacter au formation@lecoledeladata.com

 

Programme

Module 1 : Découvrir Découvrir Databricks.

  • Problématique
  • Qu’est-ce que Databricks ?
  • Architecture du produit Databricks
  • Apprendre à installer/configurer Databricks
  • Cas Pratique : Configurer Databricks

Module 2 : Présentation des fondamentaux de Spark.

  • Premier pas avec spark
  • Vue d’ensemble des composants
  • Découverte du référentiel d’artefact

Module 2 : Manipuler les données de la base

Module 3 : Conception de clusters Spark : Workspace, Runtimes, Clusters,
Notebooks, Workflows & Libraires.

Module 4 : Importer des données dans Databricks

Module 5 : Connexion vers et depuis Databricks.

Module 6 : Traitement en batch et en temps réel dans Databricks.

Module 7 : Montage d'Azure Data Lake dans Databricks.

Module 8 : ML dans Databricks.

Module 9 : Graphe dans Databricks.

Module 10 : Système de fichiers Databricks (DBFS).

Module 11 : Lecture et écriture depuis et vers divers services Azure et formats
de fichier.

Module 12 : Intégration de Git avec Databricks Repos.

Module 13 : Les pools Databricks.

Module 14 : Les instances spot de Databricks.

Module 15 : Les managed resource groups de Databricks.

Module 16 : Présentation de Databricks Delta Lake.

Module 17 : Databricks avec Azure Key Vault, App Configuration et Log
Analytics.

Module 18 : DevOps CI/CD pour Azure Databricks.

Module 19 : Sécurité et Monitoring dans Azure Databricks.

Module 20 : Sécurité et Monitoring dans Azure Databricks.

Les prochaines sessions

Toutes nos formations sont à réserver au moins 15 jours en avance.

Nos formations sont dispensées régulièrement dans les villes de Paris, Bordeaux, Lyon, Nantes, Toulouse et Aix-en-Provence.

Retour en haut