Descriptif du poste

Élément clef de la chaîne, tu es le premier acteur du traitement de la data.

Ton but est de concevoir des plateformes permettant de traiter des volumes importants de données dans les meilleures conditions : scalabilité, sécurité, stabilité. Ton ingéniosité saura favoriser et préparer le travail des Data Scientists et Data Analysts.

Tes missions types :

  • Mettre en place des solutions et architectures Big Data permettant le traitement important de pipeline de données
  • Participer à la réalisation technique de chargement/traitement des données, tests de performance.
  • Déployer et industrialiser le cluster Hadoop…
  • Accompagner la réflexion des directions métiers par la réalisation de usecases

Profil recherché

Tu as un BAC+5, avec un parcours universitaire technique ou école d’ingénieur. Un large panel de compétences techniques reste indispensable dans ce rôle pivot :

  • Maîtrise des langages structurés (Javascript, Scala, Python…),
  • Maîtrise de divers systèmes d’exploitation : UNIX, Linux, Solaris,
  • Connaissances en solutions de bases de données (SQL, NoSQL…),
  • Forte expertise sur le stockage de données et les outils ETL,
  • Maîtrise des technologies du Big Data permettant le traitement et la manipulation de données (Hadoop, Spark, Kafka…),
  • La connaissance de méthodes agile est attendue.

Compétences clés :

  • Esprit analytique et de synthèse
  • Forte capacité d’adaptation et de réactivité
  • Rigoureux
  • Force de proposition
  • Esprit d’équipe et excellent relationnel