Data Engineer – Startup avancée -Data Marketing (H/F) - ALTAIDE
- CDI
Rejoindre une équipe de haut niveau travaillant sur des technologies avancées (Spark, ML, Elasticsearch, Kubernetes, Google Cloud, …)
Startup avancée (bientôt 40 personnes, plusieurs millions d’€ levés, plus de 800 de clients à travers le monde…), basée à Paris, Bordeaux et Montréal, nous sommes experts de l’automatisation de l’accès à la data pour les décideurs en marketing digital et ecommerce.
Fondée par un serial entrepreneur et un expert de la data, tous deux passionnés de search et sémantique, nous nous définissons comme une bande de techs enthousiastes et innovants.
Nos challenges techniques sont élevés: Fournir des analyses sémantiques du contenu, analyses de graphes, ou issues du machine learning sur des volumes nécessitant une approche web scale.
Grace aux performances de notre plateforme, nous connaissons une forte croissance. Nous recrutons donc un(e) Data Engineer.
Une mission passionnante :
Notre solution s’appuie sur les données pour aider nos clients à prendre des décisions prévisibles en termes de campagnes de référencement. Nous traitons ainsi une très grosse volumétrie.
En tant que Data Engineer, vous rejoignez notre gang de data nerds pour nous aider à fournir à nos clients des outils d’analyse perspicaces et fiables. Nos applications sont conçues pour évoluer à l’échelle du milliard de pages Web et des quantités massives de données sont traitées quotidiennement pour offrir à nos utilisateurs les informations leur permettant de prendre les meilleurs décisions pour leur site, tel que le contrôle de la similarité inter pages et le taux de contenu propre de chaque page, des visualisation de la redistribution de popularité de leur maillage de liens, et bien d’autres.
Au quotidien vos principales missions en tant que Data Engineer seront de :
En collaboration avec l’équipe produit et Data Science, écrire de nouveaux algorithmes d’analyse sémantique du contenu, analyses de graphes, et à base de machine learning sur les données de pages web ou évènements de logs serveurs
S’approprier Spark, DataFlow, Elasticsearch , Bigtable et autre Data warehouse afin de repousser les limites de leurs utilisations
Comprendre les performances associées à l’exécution des jobs, valider les performances sur des millions de pages et milliards de liens, et optimiser les jobs existants.
Créer de nouvelles façon d’explorer et de visualiser les rapports en temps réel
Environnement technologique :
Spark, Dataflow
Elasticsearch, MongoDB, Google BigQuery et BigTable
Java, Python
Kubernetes, Dataproc
Git, CI
Profil :
De formation école d’ingénieur ou équivalent, vous disposez de minimum deux ans d’expérience.
Vous savez développer en Java, et maîtriser soit Spark, Hadoop MR ou Apache Hive.
Vous avez une expérience dans l’écriture de jobs scalables d’analyse de données ou bien vous souhaitez monter en compétences dessus
Idéalement, vous savez utiliser Elasticsearch et MongoDB
Un plus serait également de connaître Python, Git et l’intégration continue.
Reconnu(e) pour votre excellence technique, vous êtes toujours en veille sur les nouveautés tant en termes de technologies que de solutions existantes permettant d’améliorer l’expérience.
Pourquoi rejoindre notre équipe ?
Un projet innovant avec des résultats concrets validés par des centaines de clients (dont les plus grands comptes de l’ecommerce européen)
L’opportunité de travailler au sein d’une top équipe intégrant des experts reconnus en développement, big data, machine learning…
Une attention portée à l’équilibre travail et vie personnelle
Un environnement de travail productif et agréable avec par exemple : horaires de travail flexibles, café à volonté, déjeuners d’équipe et afterworks réguliers, mutuelle, 100 € d’allocation pour l’achat de livres, une superbe terrasse de 100m2…
Des bureaux dans Bordeaux aux pieds d’une station de Tram
Du temps dédié à l’initiative, par exemple pour découvrir de nouvelles technos et approches
Des packages salaires compétitifs également