Type de contrat Titulaire, contractuel, militaire
Début du contrat 01/02/2022
Localisation Paris 15e Arrondissement, 75, Paris, Île-de-France
Niveau d'études Diplôme d'ingénieur, Master 2 ou titre équivalent de niveau Bac + 5
Domaine professionnel Spécialiste sécurité d'un domaine technique
Niveau d'expérience Junior (1 à 5 ans d'expérience)
Rémunération A définir selon expérience mensuel net
A définir selon expérience annuel brut (selon expérience)
Avantages en nature -
Télétravail Non

Data Engineer - Traitement de données F/H

Descriptif de l'organisation

Rejoindre l’Agence nationale de la sécurité des systèmes d’information (ANSSI), c’est mettre ses compétences au service de l’intérêt général en participant à une mission capitale, d’actualité et porteuse de grandes responsabilités dans un monde où la cybersécurité est devenue l’affaire de tous ! 

Au sein de la sous-direction des Opérations, la division Infrastructures, Données et Développements (DID2) est en charge des infrastructures systèmes et réseaux, de la gestion des données et des traitements associés, des environnements de développement et d’intégration de l’outillage de la sous-direction.

Intégré à cette division, le bureau Données (BD) est responsable du recueil des besoins métiers, de l'approvisionnement des données, des chaînes de traitement permettant de rendre ces données actionnables, du développement des interfaces et des outils d’accès aux données mais aussi de la conception et de l'exploitation de l'infrastructure de traitement Hadoop.

Descriptif des missions

Placé(e) sous l’autorité du chef de projet en charge de la gestion, de l’organisation et du traitement des données, vous êtes responsable de la conception, de la mise en œuvre, du suivi et de l’évolution des chaînes de traitement sur les clusters Hadoop gérés par le bureau.
A ce titre vous serez amené(e) à :

  • Spécifier et documenter les ensembles de données attendus par les métiers ;
  • Concevoir, développer et documenter les chaînes de traitement nécessaires ;
  • Faire évoluer les chaînes de traitement existantes ;
  • Mettre en place les indicateurs d’état et de suivi de la production ;
  • Evaluer les outils et technologies susceptibles d’améliorer les performances des chaînes de traitement ;
  • Echanger avec les bureaux de la sous-direction pour améliorer les productions ;
  • Participer aux groupes de travail sur le thème du traitement des données en environnement Hadoop;
  • Renforcer l’équipe sur les différents travaux menés, notamment en cas de crise ou d’absence. 

Contraintes et difficultés du poste

  • Nombreuses interactions à prévoir avec d’autres entités ; 
  • Engagement de la mission et des actions sur du long-terme ; 
  • Importance du périmètre couvert ; 
  • Pluridisciplinarité dans un écosystème technologique évoluant très rapidement. 

Profil recherché

Vous êtes titulaire d'un diplôme de niveau 7. Vous avez une première expérience dans le domaine du traitement de très gros volumes de données hétérogènes en environnement Hadoop.

Savoir-faire :

  • Excellente connaissance des langages de traitement de données dont Sql et Spark ;
  • Excellente connaissance des outils Unix standards dont bash, grep, sed, awk, jq
  • Très bonne connaissance des langages Python et Scala
  • Bonne connaissance des architectures de stockage et de traitement de données Hadoop ;
  • Connaissance des outils de traitement distribué dont Nifi, Drill ;
  • Connaissance générale des formats de modélisation et de présentation des données dont JSON et Parquet ;

Savoir-être :

  • Autonomie et travail en équipe ; 
  • Ecoute et communication en environnement de très grande expertise technique ; 
  • Disponibilité, rigueur, curiosité et humilité. 

Process de recrutement

  • Si votre candidature est présélectionnée, vous serez contacté(e) pour apprécier vos attentes et vos motivations au cours d'un entretien téléphonique ou physique.
  • Des tests techniques pourront vous être proposés.
  • Vous ferez l'objet d'une procédure d'habilitation.