Soufiane Taabani

data engineer - lead automation

Peut se déplacer à Paris, Paris

  • 48.8546
  • 2.34771
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Soufiane.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Soufiane.

Localisation et déplacement

Localisation
Paris, France
Peut travailler dans vos locaux à
  • Paris et 50km autour
  • Paris et 30km autour

Préférences

Durée de mission
  • entre 3 et 6 mois
  • ≥ 6 mois
Secteur d'activité
  • Automobile
  • Banque & assurances
  • Conseil & audit
  • Divertissements & loisirs
  • E-commerce
+6 autres

Vérifications

Influence

Langues

Catégories

Compétences (22)

  • BigData
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Testing
  • Débutant Intermédiaire Confirmé
  • Databases
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Cloud
  • Débutant Intermédiaire Confirmé

Soufiane en quelques mots

Consultant informatique technique, spécialisé dans le data engineering ( Certifié en BigData : Infrastructure, Stockage noSQL et Data science) et le QA automation ( certifié ISTQB ), riche de trois ans d’expérience dans le secteur bancaire, le spatial et l'automobile.

Expériences

standard chartered bank

Banque & assurances

Cloud Data Engineer

Boulogne-Billancourt, France

mars 2020 - Aujourd'hui

La stack technique :
- Python 3 : Pandas, Numpy, Requests, Flask, Reportlab, Psycopg2 ...
- AWS : Lambda, API gateway, S3, EC2, CloudWatch, SES, Athena ...
- Docker
- Kafka
- ELK

Alliance Renault-Nissan-Mitsubishi

Automobile

Data engineer

Paris, France

octobre 2019 - Aujourd'hui

Stack technique :

- Python
- Jenkins
- SOAP UI
- Jira, XRay
- ssh, Redis, Rabbit MQ
- Groovy
- Web services REST/SOAP
- Git
- Unix
- Bases de données SQL/NoSQL
- XML / JSON / XPath / JsonPath

BPCE - BPCE

Banque & assurances

Data analyst

Paris, France

mai 2018 - septembre 2019

Le projet :
- Le calcul de la probabilité des risques de crédit dans le cadre des normes de BALE II.
- Migration et Fusion des SI de la banque populaire.

La mission :
- Importation des flux depuis la plateforme hadoop mutualisée.
- Traitement et analyse des flux sur Jupyter avec Python 3 ( Pandas, numpy…)
- Création des tables Hive
- S’assurer de la qualité des données intégrées dans les bases de données Scripting SQL
- Supervision du cluster hadoop avec Ambari
- Automatisation de l’intégration des flux mensuels par du scripting shell.
- Rédaction des rapports d'analyse.
- Reporting auprès des membres de l’équipe projet
- Echange avec les experts métier

Méthodologies : Agile

Outils : Python, SQL DBX, Jupyter, Linux, Shell, TeraData Sql assistant, Putty, Hive, Ambari, Toad for
oracle, Squash, Package MS Office, Jira, confluence, Winscp, hadoop, hdfs …

1 recommandation externe

Formations

Certifications

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte