Balayez pour voir le profil suivant

Mohamed Diabakhaté

data scientist / data engineer senior

Paris, France

  • 48.8638
  • 2.3617
Proposer un projet

Vérifications

Rejoignez la communauté Malt pour découvrir le profil complet de Mohamed Diabakhaté
Rejoignez la communauté Malt pour découvrir le profil complet de Mohamed Diabakhaté

Découvrez ce que recherche Mohamed

Déplacement
Peut faire la totalité d'une mission dans vos locaux
Zone d'activité
Recherche des missions à Paris 3e Arrondissement et 10km autour

Mohamed en quelques mots

Designed and built applications from framing business to production for different levels of interlocutors
Designed and implement advanced modelling like attribution modelling
Built scalable and fault-tolerant systems and ensured architecture met business requirements.

Expériences

février 2017 - octobre 2019 | Paris, France

Agence & SSII

Digitalinkers

Data scientist/ Data engineer

Projet : Pipelines de données vers autres services

Contexte et objectif : Un site web centralisé avec plusieurs divisions. Les données de navigation remontée selon le contexte et les contraintes des divisions. Exécuter des pipelines d’extraction des logs vers des bases de données afin de simplifier les mesures d’indicateurs propres aux divisions ou permettre l’analyse de comportements ciblés.

Environnement travail/fonctionnel : Projet a livrer après établissement d’un cahier des charges.

Contraintes : Complexité des données Analytics. Sur-couche de collecte relative aux divisions. Donnée localisée, elle peuvent être remontées dans la langue du site web

Domaine d’intervention :
Recueil du besoin
Conception des pipelines
Industrialisation
Dashboard le cas échéant

Résultats :
Quotidiennement les données analytics alimentent différentes bases de données destinées aux acteurs autres que digital afin de mesurer l’évolution des comportements clients ‘online’.
Les données sont également accessibles aux équipes opérationnelles pour des analyses de type A/B, ou mesures de différences après modification (Ux).


Environnement technique : 
App Engine, Cloud Tasks, Bigquery, Dataflow, Airflow, Python, SQL, RestAPI

Projet : User Access

Contexte et objectif : L’administration des droits à Google Analytics décentralisé et fastidieux à monitorer. Proposer une interface de monitoring des divers droits d’accès à la plateforme

Environnement travail/fonctionnel : Projet à livrer après établissement d’un cahier des charges.

Contraintes : L’interface produite devait être interactive pour répondre à différents besoins non encore identifiés, Les actions réalisées depuis l’interface devait avoir une action dans l’outil maitre (l’ajout ou la suppression de droits)

Domaine d’intervention :
Recueil du besoin
Interface Google Analytics
Interface Google Tag Manager
Suivi des tagging plan Hubscan

Résultats :
Le monitoring de l’administration des droits d’accès à Google Analytics se fait via notre application. Elle permet de savoir quels personnes ont accès aux données en fonction du scope et de définir des normes sur les types d’accès pour les prestations externes

Environnement technique : 
Datastore, Appengine, Cloud Tasks, Bigquery, Jinja, Flask, Google Analytics, RestAPI

Projet : Conception d’un modèle d’attribution

Contexte et objectif : Client souhaitant connaitre les répercussions de ses dépenses média sur les comportements d’achats.

Environnement travail/fonctionnel : Depuis les locaux de DigitaLinkers et mettant en jeu, un volet pilotage d’agences avec principalement 2 agences média durant les développements, une solution technique à savoir l’outils de capture de l’information

Contraintes :
- Qualité de la donnée incoherence/ saisonnalité
- Position des agences
- Choix du modèle compromis compréhension/ justesse

Tâches réalisées :
Recueil du besoin
Analyse des données récoltées
Conception de l’infrastucture data
Conception du modèle d’attribution
Conception des dashboards d’exploitation
Accompagnement au changement

Résultats :
Le client a enrichi la vision sur ses campagnes média. Avec ce modèle, il leur est possible d’analyser les performances média sur différents niveaux (budgets, leviers, campagnes).

Environnement technique :
Collecte de la donnée réalisée par MixCommander, l’infrastructure data développée sur la plateforme Google Cloud Platform.
Stockage: Google Cloud Storage
Analytics, Bigquery, Vizualisation: Google Data Studio, SFTP


Projet : Analyse des données d’un chatbot

Contexte et objectif : Depuis les données logs d’un chatbot déployé sur Facebook Messenger, objectif était:
Analyser des textes sans réponse du bot,
Cibler les sujets prioritaires pour la suite de l’apprentissage du bat

Environnement travail/fonctionnel : En régie chez le client, accès limité aux données. Equipe de développement aux US

Contraintes : Les données collectées non-structurées, le contenu des textes en plusieurs langues ou sans structure grammaticale, très peu d’historique, Reflection autour de l’analytics et KPI du bot à définir


Domaine d’intervention :
Structuration de la données
Definition et mesure de KPI
Extraction de topics

Résultats :
Définition des premier indicateurs de performance. Identification de thèmes pour l’apprentissage du bot

Environnement technique : 
Spark, MixPanel, NLTK, Sci-kit learn, RestAPI

mai 2015 - janvier 2017

Agence & SSII

NetBooster

Data Scientist/ Data Engineer

Projet : Attribution

Contexte et objectif : Dans une agence de marketing digital, avec une position transverse et support des différents métiers, concevoir une infrastructure data permettant de réaliser des analyses et modèles autour de la problématique de l’attribution. Cette infrastructure avait pour objectif de fluidifier les informations entre divers pôles de l’agence travaillant sur le même client.

Environnement travail/fonctionnel : Fil rouge à l’agence

Contraintes : La synchronisation des données provenant d’outils différents est complexe, par exemple les identifiants du site web et ceux des servers web de publicité ne sont pas les mêmes, il faut prévoir une solution pour réaliser cette synchronisation.
La volumétrie quotidienne est importante alors que le délai de réponse pour les besoins opérationnels est très court. Les choix des types stockages et des interfaces ont été des contraintes importantes.


Domaine d’intervention :
Definition de l’architecture data
Synchronisation des identifiants vers les données Google Analytics
Construction du consumer journey
Analyse d’attribution
Segmentation
Construction de scénari d’activation

Résultats :
L’infrastructure permet l’analyse des logs de DoubleClick Manager et reconstruire le consumer journey enrichi ces données par des données de navigation sur le site web ainsi que l'ensemble des différents mots-clés tapés par un potentiel client. Il permet de réaliser des listes d’exclusion pour le mots-clés et les bannières publicitaires.

Environnement technique : 
Python, Bash sh, Compute engine, Bigquery, Kubernetes, DataFlow

Recommandations externes

Formations

Certifications

Langues

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte