Bienvenue sur le profil Malt de Raphaël !

Malt vous permet d'accéder aux meilleurs consultants freelances pour vos projets. Contactez Raphaël pour échanger sur votre besoin ou recherchez d'autres profils sur Malt.

Raphaël Le Nué

lead tech big data, développeur back-end

Peut se déplacer à Noisiel, Noisy-le-Grand, Chessy, Paris

  • 48.8548
  • 2.6288
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Raphaël.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Raphaël.

Localisation et déplacement

Localisation
Noisiel, France
Peut travailler dans vos locaux à
  • Noisiel et 10km autour
  • Noisy-le-Grand et 10km autour
  • Chessy et 10km autour
  • Paris et 10km autour

Préférences

Durée de mission
Préfèrerait :
≥ 6 mois
Préfèrerait éviter:
  • ≤ 1 semaine
  • ≤ 1 mois
  • entre 1 et 3 mois
  • entre 3 et 6 mois
Secteur d'activité
  • Biotechnologies
  • Centres de recherche
  • High tech
  • Industrie pharmaceutique
  • Internet des objets
+9 autres
Taille d'entreprise
Préfèrerait :
  • 11 - 49 personnes
  • 50 - 249 personnes
  • 250 - 999 personnes
  • 1000 - 4999 personnes
  • ≥ 5000 personnes
Préfèrerait éviter:
1 personne

Vérifications

Langues

Catégories

Compétences (19)

  • BigData
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Databases
  • Débutant Intermédiaire Confirmé
  • Architecture
  • Débutant Intermédiaire Confirmé
  • Langages
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Methodologies
  • TDD
    Débutant Intermédiaire Confirmé

Raphaël en quelques mots

Je développe principalement en Java (7 ans) récemment pour des API d'exposition, et plus particulièrement en Scala (4 ans) pour Spark et application console. Il faut savoir être un JVM polyglot de nos jours.

Initialement en méthodologie en V, je travaille maintenant avec un mix Scrum + Kaban pour la transparence et le manifeste Agile comme philosophie.
Pour rendre une application pérenne je promeus une conception collaborative.

Je suis apprécié pour mon engagement sur les projets, mon assertivité dans les échanges et mon pragmatisme en conception et développement.

Après avoir occupé les postes de Consultant, Intégrateur, Dev Java, Dev Big Data, Lead Dev Big Data dans des secteurs variés tel que la Grande Distribution, l’Energie, la Finance et les Transports, je souhaite continuer à assister les entreprises en tant qu'accompagnateur de la transformation de leur Master Data Management.

C'est pour trouver des missions s'inscrivant uniquement dans cette démarche que j'ai créé l'entreprise Flulo, le principe est le même que celui suivi par Google, Amazon ou Facebook, se servir des frameworks Open Source pour avoir un Master Data Management le plus fiable et Low Cost possible.

L'évolution vers des architectures scalables horizontalement et des développements spécifiques basés sur des frameworks open source devrait être la cible de toute entreprise car c'est le meilleur moyen de réduire et maitriser les couts matériels et de maintenance.

De plus, si on couple cela à un dé-silotage des organisations et une approche holistique, on trouve des raccourcis extrêmement bénéfiques à la productivité. (comme la création de rapport temps réel)

Expériences

FNAC Darty

Grande distribution

Consultant Technico Fonctionnel

Paris, France

octobre 2014 - février 2016

• Bilan: Mise en place d'une organisation complète de Zéro pour la création d'un Référentiel Produit unique de la Marketplace de la Fnac qui lui a permis de résister à la concurrence d'Amazon.
• Clés du succès: L'industrialisation des déploiements avec Gradle a permis de transformer notre activité et permis la réussite du projet. On est passé de 90% d'intégration et 10% de développement à 90% de développement et 10% d'intégration.

Détail:
• Réponse à Request for Proposal
• Démonstration de faisabilité Proof of Technology
• Démonstration de faisabilité affinée Proof of Concept
• Diriger les entretiens d’embauche techniques
• Former sur MDM CE11 / Java EE / Intégration
• Participation aux ateliers de recueil des besoins
• Rédaction de la Spécification Fonctionnelle Générale
• Rédaction de Spécifications Techniques
• Création & Maintenance du modèle de données
• Conception intégrée à MDM CE 11
• Industrialisation des déploiements (moins de 10 min, avec Gradle + ANT+ Shell Script)
• Automatisation de déploiement des tables DB2 SQL externes en environnements non ISO
• Développement d’IHM spécifiques : liens bidirectionnels, métadonnées des assets, modèle variant initial (avec de l’AJAX)
• Estimation de la charge du développement de Règles de Gestion
• Répartition des tâches
• Contrôle de l’avancement avec fichier de suivi partagé et point d’équipe quotidien
• Rédaction de la procédure de déploiement
Agile Java

EDF Commerce - EDF

Energie

Tech Lead Big Data

Paris, France

avril 2018 - juin 2019

Mission initiale d'alimentation et exposition de données de références:
• Auto-organisation autour d'un Kanban avec Daily Scrum
• Planning poker pour découpe en User Stories de 2 semaines
• Platforme Hortonworks: HDFS, Kafka, Spark, Hive, Hbase, Ambari, Yarn
• Adaptation: Initialisation avec Wip Limit à 1 pour enchaîner les Stories grâce à un focus de team
• Adaptation: Automatisations avec Gradle et Jenkins
• Adaptation: Création d'un installeur d'environnement de développement complet pour l'ensemble du pôle
• Adaptation: Démonstration avec projet en Angular JS pour partager avec les autres équipes
• Evolution: Rôle de support et accélérateur des équipes de production
• Adaptation: Test First avec Framework Cucumber et Behavior Driven Development
• Adaptation: Apprendre le Scala dans api d'alimentation Hbase avec Spark Streaming
• Adaptation: Création de Web Services d'exposition des données Hbase avec Jax-RS(Jersey2)
• Adaptation: Création de projet de test de performances et de montée en charge avec Gatling
• Adaptation: Api d' exposition rendue générique

• Bilan: Création du référentiel des consommations d’énergie et de leur facturation et d'api d'exposition nécessaire à la supervision marketing et aux applicatifs EDF sur vos smartphone.
• Clés du succès: L'organisation faite de petite itérations autour d'un tableau représentant les étapes nécessaire à la mise en production rapide permet une vision partagée. (Conception>Test>Développement>Déploiement)
Le code des traitements de flux et par lots, ainsi que celui des api d'exposition était le plus générique possible, cela a permis de modifier notre activité de 90% développement 10% intégration à 40% Montée en compétence sur les architectures Big Data 50% développement 10% intégration

Détail:
• Adaptation: Industrialisation des processus de développement dans chaque projets: Tests Cucumber avec rapport, Debug à chaud, bundle de livraison multi environnement ...
• Formation: Diffusion de bonnes pratiques via pair programming dans l'équipe et via des ateliers techniques avec le reste du pôle
• Adaptation: Reprise et amélioration du projet créateur d'api d'exposition génériques (Gradle+Spring Boot) des données du référentiel Hbase ( génération de code en contract first avec Swagger 2.0)
• Adaptation: Création d'un pur codebase ETL Spark+Scala (Hbase -> Elastic Search) dédié au index de recherches croisées et pagination des apis. Il créé des indexes en 3 à 10 min au lieu de 1 à 3h avec l'ancienne solution.
• Enrichissement et maintient d'un projet de récurrent avec Spark Streaming (Kafka -> Elastic Search)

Société Générale - Société Générale

Banque & assurances

Expertise Architecture Big Data

Fontenay-sous-Bois, France

juin 2019 - août 2019

• Bilan: Remplacement d'un traitement historique en python qui a couté 2 ans et a été refusé en production car la compilation à l’exécution représente un risque majeur de régression, le nouveau traitement a pris 2 semaines, compile sans risque de régression et permet des itérations rapides
• Clés du succès: L'approche holistique et la clé, cependant la tentative mise en place progressive (dite "at scale") de l'agilité par des rituels Scrum n'a pas permis le dé-silotage de l'organisation.

Détail:
• Formation: Assistance à la mise en place d'une nouvelle organisation plus Agile moins en silo avec d'un côté les service de régulation de fraude et de l'autre les services informatiques
• Adaptation: Rétro ingénierie sur code historique en Python, création de spécification fonctionnelles exploitable
• Développement: Développement d'un ETL avec multiples sources comme les journaux de connexions des employés pour la supervision de signaux d'alertes nécessaire à la détection de fraude
• Formation: Démonstration d'une nouvelle organisation autour de cet ETL avec la régulation qui explique une nouvelle règle, les tests sont écrit en français puis codé, puis le traitement est développé

OUI SNCF - SNCF

Transports

Expertise Architecture Big Data et Master Data Management

Paris, France

septembre 2019 - décembre 2019

1 recommandation externe

Consultez les recommandations qu'a reçues Raphaël

Formations

Certifications