​​​​​​​Certificat Data Streaming

Certificat Data Streaming

Présentation

Aujourd’hui les données sont désormais omniprésentes dans un monde où la transformation digitale est dans les Roadmap des entreprises. Il devient donc urgent pour les entreprises de pouvoir collecter et conserver toutes ces données afin de ne pas rater une information critique voire importante.

Pour les clients, la nécessité de la mise en place de flux d’intégration en continue de données en temps réel est un prérequis au regard des processus métier de l’entreprise dans la cadre de prises de décision, de choix d’actions à mener ou d’éléments à proposer dans la cadre de recommandation. Le « Data Streaming » s’appuie sur des architectures BIG DATA avec une dimension temps réel car les décisions doivent être tout autant prises avec une temporalité de l’instant.

Le « Data Streaming » est une composante indispensable pour l’intégration des données en temps réel en amont de toute analyse permettant des actions ou décisions immédiates au regard des attendus des entreprises.

C’est dans ce contexte qu’il est envisagé de proposer un certificat « DATA Streaming» à Dauphine avec pour vocation de faire monter en compétences des « DATA Scientist » impliqués, ou susceptible de l’être, dans des projets de traitement de données massives en temps réel.

Objectifs

Connaitre les spécificités, la complexité et les problématiques des traitements des données massives en temps réel

Comprendre les concepts nécessaires aux traitements des données en temps réel

Découvrir les solutions et les applications existantes pour les traitements des données en temps réel.

Etre capable de proposer et d’auditer une architecture BIG DATA en temps réel

Etre capable de mettre en place le « Pipeline » de « Data Processing » pour des applications temps réel

Publics visés

Le certificat cible plusieurs publics :

  • Les « Data Scientist »
  • Les architectes BIG DATA
  • Les développeurs et les concepteurs de logiciel
  • Les consultants techniques du domaine de numérique  

Ce certificat s’adresse également aux informaticiens, mathématiciens ou autres qui souhaitent une reconversion professionnelle vers les métiers du numérique et particulièrement le domaine de la Data science, moyennant la validation des modules de mise à niveau recommandés pour ce certificat.

Thématique / Enseignement :

Pour la validation de ce certificat, l’apprenant devra suivre et valider les quatre modules de spécialisation suivants :

  1. Traitement de flux de données
  2. Architectures Lambda et Kappa
  3. Architecture et Programmation en Kafka Spark Streaming et Flink
  4. Projet DATA Streaming

Les modules de mise à niveau recommandés pour le certificat

Pour ceux et celles qui souhaitent acquérir ou approfondir les prérequis nécessaires à ce certificat, peuvent suivre un ou plusieurs des modules de mise à niveau suivants :

  1. Programmation Python
  2. Programmation Python avancée
  3. Environnements de développement et Framework : Linux (script Shell), Docker, Hadoop et Spark
  4. Programmation Java
  5. Introduction à la programmation Scala
  6. Fondamentaux de probabilité et statistiques
  7. Séries temporelles
  8. Algorithmique avancée

Conditions d’admission

Peuvent être admis au certificat « Data streaming », les candidats qui ont validé le test technique d’évaluation proposé par ce certificat au niveau de la procédure d’inscription.

Sont admis d’office les candidats qui ont validé, au minimum, les 4 modules de mise à niveau suivants :

  1. Programmation Python avancée
  2. Algorithmique avancée
  3. Séries temporelles
  4. Environnements de développement et Framework : Linux (script Shell), Docker, Hadoop et Spark