Alexis Rosuel

data scientist - doctorant en mathématiques

Peut se déplacer à Paris

  • 48.8546
  • 2.34771
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Alexis.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Alexis.

Localisation et déplacement

Localisation
Paris, France
Peut travailler dans vos locaux à
  • Paris et 50km autour

Préférences

Durée de mission
  • ≤ 1 semaine
  • ≤ 1 mois
Taille d'entreprise
  • 1 personne
  • 2 - 10 personnes
  • 11 - 49 personnes
  • 50 - 249 personnes
  • 250 - 999 personnes
+2 autres

Vérifications

  • E-mail vérifié

Influence

Langues

Compétences (10)

Alexis en quelques mots

Après avoir travaillé 1 an en tant que data scientist et quelques mois en tant que software engineer, j'ai décidé de commencer une thèse en mathématiques / statistiques afin de contribuer aux récents progrès fait dans l'analyse de données de grandes dimensions via la théorie des grandes matrices aléatoires.

Au cours de mes précédents jobs, j'ai touché à beaucoup de domaines de la data : modélisation statistiques, design/implémentation/déploiement/monitoring de modèles de machine learning, data mining, analyses statiques ad-hoc, ETL de gros volumes de données dans le cloud.

Expériences

Hostnfly

Voyage & tourisme

Data Scientist

Paris, France

mai 2017 - juin 2018

J'ai intégralement développé et déployé le pricing dynamique de HostnFly reposant sur des modélisation statistiques de comportement du marché Airbnb à Paris et Lyon. A son maximum, le portfolio sous gestion 100% automatique par les algorithmes était de 300k€ de CA mensuel.

J'ai mis en place les pipelines de données (centaines de Go de données brutes scrappées quotidiennement, gérées avec Amazon Redshift / S3 / EC2), effectué les analyses statistiques poussées nécessaires, identifié les besoins en machine learning, et designé / implémenté / déployé / AB testé les solutions que j'ai proposées.

Tech stack :
- set-up et utilisation Amazon Redshift pour notre data warehouse
- Airflow pour le scheduler de tâches (ETL, pricing, analyses quotidiennes, ...)
- Amazon EC2 pour l'entrainement de modèles spécifiques nécessitants des ressources spécifiques
- setup et utilisation de Django pour l'API "data" interne à l'entreprise
- set-up et utilisation de Superset pour les dashboards par équipes

J'ai aussi diffusé et soutenu l'utilisation des méthodes statistiques pour répondre aux besoins ponctuels de chaque équipe (dispatch de ressources sur Paris, score de rétention des clients et analyses marketing entre autres). Enfin j'ai formé de nombreux utilisateurs interne à SQL afin de les rendre "data autonomes".

Cette expérience (dominante dans ma carrière) ma formé sur les métiers de data analyst/engineer/scientist avec une vision et des contrainte business importantes.

Recommandations externes

Formations

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte