Ingénieur Hadoop - Administration de l'infrastructure F/H
Descriptif de l'organisation
Au sein de la division infrastructures, données et développements (DID2) le bureau Données (BD) est en charge de la collecte de données techniques publiques, de la génération de ‘datasets‘ actionnables et de la mise à disposition de services à valeur ajoutée auprès des métiers de la sous-direction des Opérations (SDO).
S’appuyant pour cela sur un entrepôt de données très volumineux, le bureau Données administre et exploite plusieurs clusters de calcul Hadoop, conçoit et gère les systèmes de collecte de données, développe et supervise les traitements et les services d’accès, conseille et accompagne les métiers dans la définition de leurs besoins.
Descriptif des missions
Nous cherchons des profils à même de nous aider à répondre aux challenges posés par la collecte, la normalisation, le traitement et la mise à disposition de ‘datasets’ construits sur mesure à partir de données très volumineuses mais aussi de structure hétérogène.
Vous interviendrez en tant qu’Ingénieur(e) au sein d’une équipe pour déployer, administrer et superviser les clusters Hadoop sur lesquels s’appuient nos capacités de traitement de données.
A ce titre vous serez amené(e) à :
- Administrer et superviser l’ensemble des clusters Hadoop ;
- Identifier les axes d’amélioration en termes d’utilisation et de performance ;
- Tester de nouvelles configurations et/ou solutions d’optimisation ;
- Participer à l’évolution des architectures et infrastructures de traitement ;
- Administrer et superviser les systèmes de collecte des données ;
- Déployer les outils et paquetages requis pour le bureau et pour les métiers ;
- Garantir la disponibilité des ressources et renforcer la sécurisation des accès ;
- Suivre les évolutions technologiques susceptibles d’améliorer nos capacités de calcul ;
- Echanger avec les métiers pour mieux appréhender les attentes et besoins ;
- Intervenir sur les différentes missions du bureau en cas de crise ou d’absence.
Caractéristiques du poste
- Télétravail partiel possible ;
- Engagement de la mission et des actions sur du long-terme ;
- Domaine d’intervention, environnement technique et humain passionnant ;
- Pluridisciplinarité dans un écosystème technologique évoluant très rapidement.
Profil recherché
Vous êtes titulaire d'un diplôme de niveau 7 (Bac+5), école d'ingénieur ou cursus universitaire équivalent. Vous avez une première expérience dans le domaine de l’exploitation de gros clusters de calcul Hadoop.
Compétences requises :
- Excellente connaissance des environnements serveurs Gnu/Linux et des outils associés ;
- Bonne connaissance de l’écosystème Hadoop et applications associées ;
- Bonne connaissance des systèmes d’automatisation de déploiement dont Ansible ;
- Connaissance des mécanismes de sécurisation dont Kerberos ;
- Grande aisance dans l’utilisation des langages bash et python ;
- Méthodes d’analyse et de résolution de dysfonctionnements systèmes ;
- Aisance dans l’échange en anglais technique.
La connaissance des consoles de gestion Cloudera et Openstack est un plus.
Qualités attendues :
- Sens du service public ;
- Autonomie et capacité à travailler en équipe ;
- Adaptabilité, disponibilité, patience, rigueur, curiosité et humilité.
Process de recrutement
- Si votre candidature est présélectionnée, vous serez contacté(e) pour apprécier vos attentes et vos motivations au cours d'un entretien téléphonique ou physique.
- Des tests techniques pourront vous être proposés.
- Vous ferez l'objet d'une procédure d'habilitation.