Bienvenue sur le profil Malt de Raphaël !
Localisation et déplacement
- Localisation
- Noisiel, France
- Peut travailler dans vos locaux à
-
- Noisiel et 10km autour
- Noisy-le-Grand et 10km autour
- Chessy et 10km autour
- Paris et 10km autour
Préférences
- Durée de mission
-
Préfèrerait :≥ 6 moisPréfèrerait éviter:
- ≤ 1 semaine
- ≤ 1 mois
- entre 1 et 3 mois
- entre 3 et 6 mois
- Secteur d'activité
-
Préfèrerait :
- Biotechnologies
- High tech
- Internet des objets
- Jeux vidéo & animation
- Luxe
+4 autresPréfèrerait éviter:Défense & armée
- Taille d'entreprise
-
Préfèrerait :
- 11 - 49 personnes
- 50 - 249 personnes
- 250 - 999 personnes
- 1000 - 4999 personnes
- ≥ 5000 personnes
Préfèrerait éviter:1 personne
Vérifications
Charte du freelance Malt signée
Consulter la charte
Langues
Catégories
Compétences (20)
- BigData
-
Débutant Intermédiaire Confirmé
-
Débutant Intermédiaire Confirmé
- Databases
-
Débutant Intermédiaire Confirmé
- Architecture
-
Débutant Intermédiaire Confirmé
- Langages
-
Débutant Intermédiaire Confirmé
-
Débutant Intermédiaire Confirmé
-
Débutant Intermédiaire Confirmé
- Methodologies
-
Débutant Intermédiaire Confirmé
Raphaël en quelques mots
Initialement en méthodologie en V, je travaille maintenant avec un mix Scrum + Kaban pour la transparence et le manifeste Agile comme philosophie.
Pour rendre une application pérenne je promeus une conception collaborative.
Je suis apprécié pour mon engagement sur les projets, mon assertivité dans les échanges et mon pragmatisme en conception et développement.
Après avoir occupé les postes de Consultant, Intégrateur, Dev Java, Dev Big Data, Lead Dev Big Data dans des secteurs variés tel que la Grande Distribution, l’Energie, la Finance et les Transports, je souhaite continuer à assister les entreprises en tant qu'accompagnateur de la transformation de leur Master Data Management.
C'est pour trouver des missions s'inscrivant uniquement dans cette démarche que j'ai créé l'entreprise Flulo, le principe est le même que celui suivi par Google, Amazon ou Facebook, se servir des frameworks Open Source pour avoir un Master Data Management le plus fiable et Low Cost possible.
L'évolution vers des architectures scalables horizontalement et des développements spécifiques basés sur des frameworks open source devrait être la cible de toute entreprise car c'est le meilleur moyen de réduire et maitriser les couts matériels et de maintenance.
De plus, si on couple cela à un dé-silotage des organisations et une approche holistique, on trouve des raccourcis extrêmement bénéfiques à la productivité. (comme la création de rapport temps réel)
Expériences
Energisme
Energie
Formateur Expert Hbase/Phoenix et Accompagnateur - En tant que freelance
équipiers partage maintenant une vision simplifiée
d’architecture cible et gagnent en maîtrise à chaque
nouvelle étapes.
Détail:
• Animation d’une journée d’initiation à Hbase/Phoenix
• Prise en compte des problématiques de performances et
de multiplication des traitements
• Atelier pour résoudre un problème de hot-spotting
utilisant peu de regions du cluster (+3000 % de
performance de lecture et utilisation de -70% de
ressource disque)
• Participation aux réunions de brain storming pour
affinage d’une roadmap
• Proposition de simplifications d'architecture et
regroupements/réduction des traitements
• Assistance à la conception d’un traitement de Bulk
Loading plus performant grâce à Spark
. Démonstration de la performance du job map reduce permettant l'ingestion d'1 Million de ligne en 30 secondes.
FNAC Darty
Grande distribution
Consultant Technico Fonctionnel
• Clés du succès: L'industrialisation des déploiements avec Gradle a permis de transformer notre activité et permis la réussite du projet. On est passé de 90% d'intégration et 10% de développement à 90% de développement et 10% d'intégration.
Détail:
• Réponse à Request for Proposal
• Démonstration de faisabilité Proof of Technology
• Démonstration de faisabilité affinée Proof of Concept
• Diriger les entretiens d’embauche techniques
• Former sur MDM CE11 / Java EE / Intégration
• Participation aux ateliers de recueil des besoins
• Rédaction de la Spécification Fonctionnelle Générale
• Rédaction de Spécifications Techniques
• Création & Maintenance du modèle de données
• Conception intégrée à MDM CE 11
• Industrialisation des déploiements (moins de 10 min, avec Gradle + ANT+ Shell Script)
• Automatisation de déploiement des tables DB2 SQL externes en environnements non ISO
• Développement d’IHM spécifiques : liens bidirectionnels, métadonnées des assets, modèle variant initial (avec de l’AJAX)
• Estimation de la charge du développement de Règles de Gestion
• Répartition des tâches
• Contrôle de l’avancement avec fichier de suivi partagé et point d’équipe quotidien
• Rédaction de la procédure de déploiement
EDF Commerce - Groupe EDF
Energie
Tech Lead Big Data
• Auto-organisation autour d'un Kanban avec Daily Scrum
• Planning poker pour découpe en User Stories de 2 semaines
• Platforme Hortonworks: HDFS, Kafka, Spark, Hive, Hbase, Ambari, Yarn
• Adaptation: Initialisation avec Wip Limit à 1 pour enchaîner les Stories grâce à un focus de team
• Adaptation: Automatisations avec Gradle et Jenkins
• Adaptation: Création d'un installeur d'environnement de développement complet pour l'ensemble du pôle
• Adaptation: Démonstration avec projet en Angular JS pour partager avec les autres équipes
• Evolution: Rôle de support et accélérateur des équipes de production
• Adaptation: Test First avec Framework Cucumber et Behavior Driven Development
• Adaptation: Apprendre le Scala dans api d'alimentation Hbase avec Spark Streaming
• Adaptation: Création de Web Services d'exposition des données Hbase avec Jax-RS(Jersey2)
• Adaptation: Création de projet de test de performances et de montée en charge avec Gatling
• Adaptation: Api d' exposition rendue générique
• Bilan: Création du référentiel des consommations d’énergie et de leur facturation et d'api d'exposition nécessaire à la supervision marketing et aux applicatifs EDF sur vos smartphone.
• Clés du succès: L'organisation faite de petite itérations autour d'un tableau représentant les étapes nécessaire à la mise en production rapide permet une vision partagée. (Conception>Test>Développement>Déploiement)
Le code des traitements de flux et par lots, ainsi que celui des api d'exposition était le plus générique possible, cela a permis de modifier notre activité de 90% développement 10% intégration à 40% Montée en compétence sur les architectures Big Data 50% développement 10% intégration
Détail:
• Adaptation: Industrialisation des processus de développement dans chaque projets: Tests Cucumber avec rapport, Debug à chaud, bundle de livraison multi environnement ...
• Formation: Diffusion de bonnes pratiques via pair programming dans l'équipe et via des ateliers techniques avec le reste du pôle
• Adaptation: Reprise et amélioration du projet créateur d'api d'exposition génériques (Gradle+Spring Boot) des données du référentiel Hbase ( génération de code en contract first avec Swagger 2.0)
• Adaptation: Création d'un pur codebase ETL Spark+Scala (Hbase -> Elastic Search) dédié au index de recherches croisées et pagination des apis. Il créé des indexes en 3 à 10 min au lieu de 1 à 3h avec l'ancienne solution.
• Enrichissement et maintient d'un projet de récurrent avec Spark Streaming (Kafka -> Elastic Search)
Société Générale - Société Générale
Banque & assurances
Expertise Architecture Big Data
• Clés du succès: L'approche holistique et la clé, cependant la tentative mise en place progressive (dite "at scale") de l'agilité par des rituels Scrum n'a pas permis le dé-silotage de l'organisation.
Détail:
• Formation: Assistance à la mise en place d'une nouvelle organisation plus Agile moins en silo avec d'un côté les service de régulation de fraude et de l'autre les services informatiques
• Adaptation: Rétro ingénierie sur code historique en Python, création de spécification fonctionnelles exploitable
• Développement: Développement d'un ETL avec multiples sources comme les journaux de connexions des employés pour la supervision de signaux d'alertes nécessaire à la détection de fraude
• Formation: Démonstration d'une nouvelle organisation autour de cet ETL avec la régulation qui explique une nouvelle règle, les tests sont écrit en français puis codé, puis le traitement est développé
OUI SNCF - SNCF
Transports
Expertise Architecture Big Data et Master Data Management
• Clés du succès: L'approche holistique et la transparence, plusieurs équipes qui travaillait en silo ont travaillé ensemble
Détail:
• Prise en compte des différentes visions en silo ( Data architect, Architecte d'entreprise, Gouvernance de la donnée, équipiers historique utiliser un ETL propriétaire) pour répondre au besoin de supervision des ventes
• Participation au dé-silotage organisationnel
• Proposition d'une ébauche d'architecture Big Data pour aidé les équipiers à se projeter
• Assistance au Product Manager pour le découpage en itération plus petite
• Animation des premières réunions avec la gouvernance de la données
• Création d'un nouveau job temps réel permettant de récupérer les données des clics clients sur le site oui.sncf pour générer des rapport de type Google Analytics
1 recommandation externe
Consultez les recommandations qu'a reçues Raphaël