Kassim Hassani

data engineer scala

Peut se déplacer à Lyon

  • 45.7539
  • 4.84699
Nouveau
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Kassim.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Kassim.

Localisation et déplacement

Localisation
Lyon, France
Peut travailler dans vos locaux à
  • Lyon et 50km autour

Préférences

Durée de mission
Préfèrerait :
  • entre 3 et 6 mois
  • ≥ 6 mois
Préfèrerait éviter:
  • ≤ 1 semaine
  • ≤ 1 mois
  • entre 1 et 3 mois
Secteur d'activité
Préfèrerait éviter:
Agence & SSII
Taille d'entreprise
  • 11 - 49 personnes
  • 50 - 249 personnes
  • 250 - 999 personnes
  • 1000 - 4999 personnes
  • ≥ 5000 personnes

Vérifications

Langues

Catégories

Compétences (10)

Kassim en quelques mots

Passionné par la data, j’exerce aujourd’hui mes compétences en tant que développeur scala/spark
De la start-up au grand groupe, j’ai travaillé sur des projets dans les domaines de la grande distribution ainsi que dans le juridique

Expériences

Wuha

Edition de logiciels

Data Scientist

Lyon, France

mars 2018 - mai 2019

– Contribution à l’amélioration du moteur de recherche basé sur ElasticSearch.
Utilisation de l’API en Javascript.

– Ajout de plugin ElasticSearch (Java)

– Mise en production d’un modèle de machine learning permettant la détection de pattern de document (Factures, CV, Contrats …) lors de leur indexation. Utilisation du projet MLeap pour permettre la sauvegarde de l’entrainement du modèle via Spark et son utilisation dans la pipeline d’indexation.
Mise en place d’un projet Spark et d’un notebook Scala pour permettre la modification de ce modèle

– Proof of Concept sur la détection de topics latents et son application au sein d’un moteur de recherche.

– Élaboration de plusieurs visualisations sur les métriques utilisateurs .
Utilisation d’Apache Zeppelin , et de D3.js selon les besoins

Stack : ElasticSearch, Scala, Spark, D3.js

ALTEN - Alten Organisation

Agence & SSII

Ingénieur d'étude

Lyon, France

septembre 2019 - octobre 2020

Data Engineer au sein de Carrefour.
Intervention sur différents corps de métier (Projets finances, logistique etc.)
– Développement API via une surcouche maison basée sur Scalatra
– Développement de job permettant l’alimentation de table Cassandra et Hive, de fichiers sur HDFS, d’index ElasticSearch (Spark/Scala)
– Utilisation de Spark Streaming pour traitement de flux Kafka
– Création de shell utilisant GCP schedulé via Ansible
Stack : Scala, Spark, Ansible, Azkaban, Jenkins, Git, Docker, Jira, Confluence, Hive, HDFS

Recommandations externes

Formations