Mehdi Erraki

big data engineer - spark (scala/python) - hadoop

Peut se déplacer à Paris, Paris, Bordeaux, Nice, Montpellier

  • 48.85661400000001
  • 2.3522219000000177
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Mehdi.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Mehdi.

Localisation et déplacement

Localisation
Paris, France
Peut travailler dans vos locaux à
  • Paris et 50km autour
  • Paris
  • Bordeaux
  • Nice
  • Montpellier

Préférences

Durée de mission
  • ≤ 1 semaine
  • ≤ 1 mois
  • entre 1 et 3 mois
  • entre 3 et 6 mois
  • ≥ 6 mois

Vérifications

Langues

Catégories

Compétences (18)

Mehdi en quelques mots

Hi, I am a big-data-native engineer.

(Please find clients recommendations on my Linkedin profile : MEHDI ERRAKI )

I work as a freelancer and I am currently on two-years mission in healthcare industry.

During my 5 years data engineering experience so far, I have actively helped adding value on multiple projects related to large-scale and distributed data storing, managing, designing, processing, tooling, and valuing through :

- mastering of Spark technology (advanced implementation and optimization)
- my good knowledge of hadoop ecosystem and environments (experience with both cloud infrastructure, and on-premise distributions)
- being an active input for functional and technical design
- disposing of mathematics and data science background

Expériences

IQVIA

Secteur médical

Consultant Data Engineer indépendant chez Iqvia

Paris, France

juin 2018 - Aujourd'hui

- Conception fonctionnelle et technique, et développement pour une migration à grande échelle de la collecte des données médicales
vers un environnement Cloudera (Spark-Scala, Hive ,Kudu, Impala)
- Spark/Scala : conception, développement industrialisé, et optimisations avancées

Tradelab

E-commerce

ingénieur big data

Paris, France

novembre 2015 - mai 2018

Ingénieur Big Data à Tradelab (secteur du marketing digital – RTB) :
• Spark : développement (python, scala), documentation continue et suivi de l’évolution, formation et mentoring
• infra & web services : api et interface d’allocations de ressources dans le cloud (GCP), de lancement et de suivi des jobs Spark
(tornado-flask), système de scheduling, de gestion des tâches, et de scaling automatique
• statistiques et apprentissage : implémentation opérationnelle de modèles d’apprentissage supervisé pour l’optimisation des
enchères algorithmiques sur les espaces publicitaires (RTB)

Recommandations externes

Formations

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte