Maxime B.

développeur rpa certifié uipath et data engineer

Toulouse, France

  • 43.6043
  • 1.44199
Proposer un projet

Préférences

Déplacement
Peut faire la totalité d'une mission dans vos locaux
Zone d'activité
  • Bordeaux et 20km autour
  • Pau et 20km autour
  • Montpellier et 30km autour
  • Paris et 60km autour
Secteur d'activité
  • Aéronautique & aérospatiale
  • Agence & SSII
  • Agroalimentaire
  • Architecture & urbanisme
  • Arts & artisanat
+24 autres
Taille d'entreprise
  • 2 - 10 personnes
  • 11 - 49 personnes
  • 50 - 249 personnes
  • 250 - 999 personnes
  • 1000 - 4999 personnes
+1 autres

Vérifications

Catégories

Rejoignez la communauté Malt pour découvrir le profil complet de Maxime B.
Rejoignez la communauté Malt pour découvrir le profil complet de Maxime B.

Compétences (15)

  • BigData
  • Débutant Intermédiaire Confirmé
  • Databases
  • Débutant Intermédiaire Confirmé
  • Langages
  • Débutant Intermédiaire Confirmé
  • SQL
    Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • C
    Débutant Intermédiaire Confirmé
  • CSS
    Débutant Intermédiaire Confirmé
  • Tous
  • RPA
    Débutant Intermédiaire Confirmé

Maxime en quelques mots

Je suis convaincu que l’automatisation, la valorisation des données et l’Intelligence Artificielle peuvent apporter beaucoup aux entreprises. Je souhaite à court terme mettre à profit mes compétences en Data Engineering et Automatisation, pour ensuite évoluer dans quelques années vers un rôle de Data Scientist.

En parallèle, j’étudie également le DevOps pour pouvoir le transposer à la DataOps, discipline qui est en train de se créer en vue de fluidifier l’industrialisation des projets de data science qui pêchent souvent lors de cette étape de leur cycle de vie.

Expériences

mai 2020 - Aujourd'hui | Toulouse, France

Aéronautique & aérospatiale

Avions de Transport Régionaux

Automatisation de génération de contrats

Cadre du projet : Précédemment à la mise en place de la solution UiPath, les négociateurs perdaient beaucoup de temps à générer l’ensemble des documents contractuels liés aux offres commerciales. A présent, ils gagnent plusieurs jours à chaque campagne de vente, grâce à l’utilisation du robot RPA développé par DataPy.

Réalisation :
o Support aux choix d’architecture mettant en œuvre un robot Unattended,

o Développement complet du projet, en collaboration avec un business analyst et chef de projet DataPy.

Approche technologique: Ce projet est réalisé avec la technologie RPA d’UiPath. Un processus est réalisé à partir d’un Framework sur un studio et est intégré sur des VM côté ATR.
  • RPA
  • UiPath
mars 2016 - septembre 2019 | Toulouse, France

High tech

Omnium-finance

Apprentis BI & Data Science

Recensement de flux et mise à jour de BODI (Business Objects Data Integration)
o Cadre du projet : L’objectif était de recenser l’intégralité des flux d’information inter-application de l’entreprise, la planification de leurs échanges et épurer ceux qui ne fonctionnent plus ou sont inutiles. Puis, mettre à jour chaque flux pour les rendre compatibles avec la nouvelle version de BODI.
o Approche technologies : Manipulation de l’ETL BODI de SAP Dataservices. Gestion de quelques scripts SQL à revoir. Excel pour le recensement et la planification des flux.

Création de scripts SQL pour intégrer une nouvelle application à un entrepôt de données
o Cadre du projet : Omnium Finance possède un entrepôt de données où chaque application y stocke, via des flux, leurs données historiques. Or, deux nouvelles applications, qui à terme, vont remplacer deux anciennes, doivent être liées à cet entrepôt. Pour éviter de toucher à l’intégralité de la structure de l’entrepôt, ce projet intervient pour créer un mapping entre la nouvelle structure des données côté applicatif et l’ancienne structure côté entrepôt.
o Approche technologies : Excel pour mapper les différentes tables et colonnes et générer les scripts nécessaires. SQL Server pour recette et prod. BODI pour la création des flux d’alimentation vers l’entrepôt.

P.O.C. régression logistique
o Cadre du projet : L’objectif était de réaliser une preuve de concept pour éveiller l’entreprise sur les technologies du Machine Learning. Le prototype est un notebook sur Google Collab qui permet de déterminer si oui ou non un investisseur a un profil pour l’achat d’un bien immobilier ou un produit de placement.
o Approche technologies : SQL Server pour récupérer les données et les stockées dans des fichiers Excel. Python pour l’algorithme et l’interface (pandas, numpy, scikit-learn) avec Google Collab.
octobre 2019 - février 2020 | Toulouse, France

Aéronautique & aérospatiale

Airbus

Data Engineer sur Skywise

Refactoring d’un Data pipeline pour Skywise
o Cadre du projet : Il faut assurer l’automatisation de la création d’un dataset utilisé comme source pour un algorithme de machine learning, au travers d’un data-pipeline. Ce pipeline, déjà existant, doit être refactoré et changé d’environnement (d’un ETL vers un IDE).
o Approche technologies : Le pipeline déjà existant est sur une plateforme de développement d’Airbus appelée Skywise, sur un outil simili-ETL appelé Code Workbook. Le langage utilisé est Python avec une librairie Pyspark.

Création d’un Data pipeline à des fins statistiques
o Cadre du projet : Airbus souhaite pouvoir faire de l’analyse statistique sur un ensemble de données concernant les vols courts. Lors d’une configuration d’avion un arbre de modification est alimenté depuis plus de 30 ans. Il a été décidé de l’archiver et de refaire un nouvel arbre qui répond aux futurs besoins d’Airbus et qui puisse supporter une production bien plus importante qu’il y a 30 ans. Le client souhaite analyser l’existant à partir d’un grand dataset.
o Approche technologies : Le pipeline est créé sur l’outil d’airbus Skywise : Code workbook (ETL) et une interface simple composée du dataset visuel et de multiples filtres applicables est faite sur Skywise : Slate (un équivalent de Microsoft Access). Le langage est python avec le framework pyspark. Partie interface est réalisée avec les langages PostgreSQL et Javascript pour la gestion des filtres applicables en temps réel sur le dataset et la possibilité de télécharger ce dernier en l’état au format CSV.

février 2020 - mars 2020 | Toulouse, France

Automobile

PSA

Data engineer

1 recommandation externe

Formations

Certifications

Langues

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte