Nabil Khamassi

senior data & devops engineer

Peut se déplacer à Paris

  • 48.8546
  • 2.34771
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Nabil.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Nabil.

Localisation et déplacement

Localisation
Paris, France
Peut travailler dans vos locaux à
  • Paris et 50km autour

Préférences

Secteur d'activité
Préfèrerait éviter:
  • Vins & Spiritueux
  • Défense & armée
  • Banque & assurances

Vérifications

Langues

Catégories

Compétences (17)

  • BigData
  • Débutant Intermédiaire Confirmé
  • Databases
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Methodologies
  • Débutant Intermédiaire Confirmé

Nabil en quelques mots

- Double diplôme ENSIMAG avec 9 ans d’expérience en programmation orientée objet et fonctionnelle, en architecture micro-services et en ingénierie Data, DevOps et Cloud

- Participation dans la mise en place d'architectures distribuées à forte contraintes techniques (sécurisation, acquisition, traitement, mise à disposition, exposition, monitoring et visualisation des données entreprise en temps réel et en batch) et à grands enjeux métier (bancaire, e-commerce, énergie, transport, grande distribution)

Expériences

Groupement les Mousquetaires - STIME - Intermarché

Agroalimentaire

Senior Data Engineer - DevOps Engineer

Châtillon, France

juin 2020 - Aujourd'hui

Le groupe Les Mousquetaires est un groupe majeur de grande distribution française avec plus de 40 milliards d’euros de chiffres d’affaires par an et regroupant différentes enseignes de commerce (Intermarché, Netto...), d’équipements de la maison (Bricorama, Bricomarché...), de pêche maritime, de mobilité et autres secteurs d’activité.

Mission de fiabilisation, de supervision et de sécurisation de la plateforme de collecte et d’analyse en temps réel des données (tickets de caisse, inventaire, articles, stocks, prix…) en provenance des 4000 points de vente avec une volumétrie de 80 millions de messages par jour.

- Mise en place de la chaîne de monitoring et d'alerting en temps réel sur les différents composants de la plateforme (Zookeeper, Kafka, Kafka Connect, Schema Registry) et des micro-services (Kafka Streams, Micronaut)

- Mise en place de la CI/CD sur l'ensemble des projets (build, test, qualité de code, construction des images docker et scan de vulnérabilités, déploiement automatisé sur les différents environnements Kubernetes, Autoscaling, gestion de la release)

- Mise en place des standards pour le déploiement des applications sur Kubernetes

- Mise à disposition d’un environnement Kubernetes de test en local

- Sécurisation du cluster Kafka : chiffrement TLS, authentification SASL/SCRAM et gestion des autorisations via les ACL

- Documentation et partage des bonnes pratiques Data et DevOps au sein de l'équipe

Environnement technique : Java, Kubernetes, Docker, OpenShift, Ansible, Vault, Harbor, Kustomize, K3s, K3d, Confluent (Kafka, Zookeeper, Kafka Streams, Kafka Connect, Schema Registry, MirrorMaker), Maven, Gradle, GitLab, Nexus, Prometheus, Alertmanager, Grafana, GNU/Linux

OUI.sncf

Voyage & tourisme

Senior Data Engineer - DevOps Engineer

Paris, France

avril 2019 - juin 2020

OUI.sncf, filiale de SNCF, est un acteur majeur du tourisme, expert de la distribution du train, 1er site d’e-commerce et 1ère agence de voyages en ligne en France avec plus de 100 millions de réservations et 4 milliards de revenus générés par an.

- Suivi en temps réel des statistiques de vente pour la direction et les Business Unit Train (TGV, TER, Intercités, OUIGO) via une chaîne sécurisée et supervisée d'acquisition, de traitement, de mise à disposition et de visualisation des données de vente (Kafka, Kafka Streams, Docker, Kafka Connect, Elasticsearch, Logstash, Kibana)

- Collecte, nettoyage et mise à disposition des données de campagne marketing pour des besoins d'aide à la décision de l'équipe de performance marketing et d'apprentissage automatique pour les Data Scientists (Scala, Spark, Zeppelin, Airflow)

- Mise en place du Datalake on-prem avec les différentes contraintes d’historisation, de sécurisation, de gouvernance, d'exposition et de visualisation des données (Scala, Spark, Kafka, Kafka Streams, Delta Lake)

- Participation aux ateliers de réflexion avec AWS dans le cadre de la future migration vers le Cloud du SI

- Mise en place d’un pipeline de traitement, de mise à disposition et de visualisation sur smartphone et en temps réel des données de vente dans le Cloud AWS (S3, Kinesis Streams, Kinesis Analytics, Kinesis Firehose, Lambda, Redshift, QuickSight)

- Développement d’une application de traitement des métadonnées des documents SAP BO pour les ingénieurs BI (Java, Retrofit, Hibernate, Oracle DB)

- Partage des bonnes pratiques Agile et DevOps au sein de l’équipe

Environnement technique : Agile Scrum, Java, Scala, Python, AWS, Spark, Kafka, Kafka Streams, Kafka Connect, Elasticsearch, Logstash, Kibana, Zeppelin, Delta Lake, Ansible, Airflow, GitLab, Jira, IntelliJ, Maven, Artifactory, Docker, Prometheus, InfluxDB, Grafana, GNU/Linux

STET

Banque & assurances

Senior Data Engineer

Paris, France

avril 2018 - avril 2019

Créée par six banques françaises, STET assure la compensation des moyens de paiement de détail (virements, prélèvements, image chèques, opérations par carte) entre l'ensemble des banques installées en France.

Le système CORE (COmpensation REtail) représente le système de paiement de détail le plus important en Europe, par les volumes et les valeurs échangés avec plus de 20 milliards d'opérations par an.

- Analyse, conception, développement, test et maintenance évolutive et corrective des statistiques sur les transactions au niveau national et au niveau belge avec différents critères (volume et montant des transactions, temps de réponse, facturation…) et à destination de l’EPC (European Payments Council), des banques françaises et belges et des régulateurs français (Banque de France) et belge (Centre d’Echange et de Compensation)

- Participation dans le développement de fonctionnalités métiers pour les virements interbancaires Instant Payment (virements bancaires européens en temps réel pour des montants inférieur à 15000 euros) et les prélèvements SEPA Direct Debit

Environnement technique : Scala, Spark, Confluent (Kafka, Kafka Streams, Kafka Connect), Cassandra, AWS, IntelliJ, Git, GitHub, Jenkins, Jira

EDF - EDF

Energie

Data Engineer

Paris, France

octobre 2017 - mars 2018

Recommandations externes

Formations

Certifications