Big Data Senior Developer
Responder al anuncioDans un monde où les sources de données sont en constante évolution, Devoteam Data Driven aide ses clients à transformer leurs données en informations exploitables et les rendre ainsi impactantes pour plus de valeur business. Data Driven adresse les 3 grandes dimensions suivantes : Data Strategy, Data for Business et Data Foundation en appui d’expertise chez ses clients pour les rendre encore plus performants et compétitifs au quotidien. Au sein des équipes Nearshore de Devoteam Maroc, tu rejoindras les équipes de la tribu Data Foundation : une équipe enthousiaste de Data Engineers, de Data Ops, de Tech lead architectes et de chefs de projets travaillant sur les plateformes et l’écosystème Data : designer, construire et moderniser les plateformes et solutions Data, concevoir les data pipelines en mettant l’accent sur l’agilité et le DevOps appliqué à la Data. Tu seras le maillon essentiel pour fournir les données fiables et valorisées aux métiers leur permettant de créer leurs nouveaux produits et services et tu appuieras aussi les équipes Data Science en leur fournissant les environnements de données “datalab” nécessaires pour mener à bien leurs démarches exploratoires dans l’élaboration et l’industrialisation de leurs modèles, à savoir :Concevoir, développer et maintenir des pipelines de données efficaces pour extraire, transformer et charger les données de différentes sources vers des systèmes de stockage de données de type Lakehouse (datalake, datawarehouse)Écrire du code Scala, souvent associé à Apache Spark pour ses fonctionnalités concises et expressives, afin de réaliser des transformations complexes sur de grands volumes de donnéesS’appuyer sur les fonctionnalités offertes par Apache Spark, telles que les transformations et les actions distribuées, pour traiter les données à grande échelle de manière rapide et efficaceIdentifier et résoudre les problèmes de performance dans les pipelines de données, en optimisant les requêtes Spark, en ajustant la configuration de Spark et en mettant en œuvre les meilleures pratiques. Collaborer avec d'autres équipes pour intégrer les pipelines de données avec des bases de données SQL, noSQL, du streaming Kafka, des systèmes de fichiers de type buckets …Si besoin, concevoir et mettre en œuvre des pipelines de traitement des données en temps réel en utilisant les fonctionnalités de streaming de SparkMettre en œuvre les mécanismes de sécurité pour protéger les données sensibles en utilisant les fonctionnalités d'authentification, d'autorisation RBAC/ABAC, de chiffrement, d'anonymisation des donnéesDocumenter le code, les pipelines de données, les schémas de données et les décisions de conception pour assurer leur compréhension et maintenabilitéMettre en place les tests unitaires et d'intégration pour assurer la qualité du code et déboguer les problèmes éventuels dans les pipelines de donnéesTu donneras ta pleine mesure par la maîtrise de tes fondamentaux techniques, ta connaissance sur le bout des doigts des données que tu traites et que tu manipules et surtout en affirmant ta volonté à comprendre les besoins et le métier pour lequel tu travailleras. Ton terrain de jeu : la distribution, l’énergie, la finance, l’industrie, la santé et les transports avec plein de cas d’usage et de nouveaux défis Data à relever ensemble notamment la Data dans le Cloud. Ce qu’on attend de toi. Que tu aies foi dans la DataQue tu aides ton collègueQue tu sois gentil avec tes RHsQue tu t’éclates dans ta missionEt que les Codingame ne te fassent pas peur (tu ne seras pas seul : on t’aidera)Et plus sérieusement :Que tu maîtrises les fondamentaux de la Data : les technologies Hadoop, Spark, les data pipelines : l’ingestion, le traitement, la valorisation et l’exposition des donnéesQue tu souhaites t’investir sur les nouveaux paradigmes de la Data : Cloud, DaaS, SaaS, DataOps, AutoML et que tu t’engages à nos côtés dans cette aventureQue tu réalises des pipelines data performantsQue tu entretiennes cette double compétence Dev InfraQue tu sois proche des métiers, que tu les accompagnes dans la définition de leurs besoins, leurs nouveaux produits services : dans des ateliers, en définissant les user stories et en éprouvant au travers de POCEt coder est ta passion : tu travailles ton code, tu commit en Open Source, tu fais un peu de compétition alors rejoins nousCe qu’on t’apportera. Un manager à tes côtés en toute circonstanceUne communauté Data où tu y trouveras ta place : Ideation Lab, Hackathon, Meetup. . . Un parcours de formation et de certification via “myDevoteam Academy” sur les technologies du moment et à venir : Databricks, Spark, Azure Data, Elastic. io, Kafka, Snowflake, GCP BigQuery, dbt, Ansible, Docker, k8s …Un renfort de ton expertise dans le domaine de la Data pour devenir un Tech Lead Cloud (Azure, AWS, GCP …), un architecte des futures plateformes Data, un expert DataOps au service des métiers (Data as a Service) et de la Data Science (AutoML), un Data Office Manager en pilotage des projets Data Product, bref plein de nouveaux jobs en perspective …La possibilité de t’investir personnellement : être formateur interne, leader de communauté, participer aux entretiens candidats, aider à développer nos offres et pourquoi pas manager ta propre équipe. . . Quelques exemples de missions. La conception, la mise en place et le support des pipelines dataLe déploiement de solutions data dans une démarche Agile et DevOpsLe développement d’API REST pour exposer les donnéesLe support et l’expertise sur les technologies Data et les solutions déployées : Hadoop, Spark, Kafka, Elasticsearch, Snowflake, BigQuery, Azure, AWS. . . Évoluer au sein de la communautéÉvoluer au sein de la Tribe Data, c’est être acteur dans la création d’un environnement stimulant dans lequel les consultant-e-s ne cessent de se tirer vers le haut, aussi bien en ce qui concerne les compétences techniques que les soft-skills. Mais ce n’est pas tout, ce sont aussi des événements réguliers et des conversations slacks dédiées vous permettant de solliciter les communautés (data, AI/ML, DevOps, sécurité, . . . ) dans leur ensemble !À côté de cela, vous avez l’opportunité d’être moteur dans le développement des différentes communautés internes (retours d’expériences, workshops, articles, podcasts…). RémunérationLa rémunération fixe proposée pour le poste est en fonction de votre expérience et dans une fourchette de 46, 5k à 52, 5k. Développeur Nifi avec fortes compétences Java, 2 ans xp minimum sur NIFI (le profil doit avoir un très bon niveau sur NIFI). #J-18808-Ljbffr
-
¿Por qué está buscando trabajo en Trabajas.es?
Crear alerta de empleo
Cada día nuevos anuncios de trabajo Puede elegir entre una amplia gama de trabajos: nuestro objetivo es ofrecer una selección lo más amplia posible Déjenos enviar nuevos anuncios por correo electrónico Sea el primero en responder a las nuevas ofertas de empleo Todos los anuncios de trabajos en un único lugar (de empleadores, agencias y otros portales) Todos los servicios para demandantes de empleo son gratuitos Le ayudaremos a encontrar un nuevo empleo