Albert Elkeslassy

architect big data/cloud/bi & data qualite

Peut se déplacer à Paris

  • 48.8409
  • 2.3881
Nouveau
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Albert.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Albert.

Localisation et déplacement

Localisation
Paris, France
Peut travailler dans vos locaux à
  • Paris 12e Arrondissement et 50km autour

Vérifications

Langues

Catégories

Compétences (13)

  • BigData
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Langages
  • Débutant Intermédiaire Confirmé
  • SQL
    Débutant Intermédiaire Confirmé
  • Tous
  • Débutant Intermédiaire Confirmé
  • BI
    Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé
  • Débutant Intermédiaire Confirmé

Albert en quelques mots

Expert Data, je suis spécialisé dans l'accompagnement (Architecture) et la mise en œuvre mise en œuvre de solutions BI/datalake sur les plateforme traditionnelles (Orache Exadata, teradata, DB2 ... ), propriétaire (Saagie) ou Cloud (AWS)

j'ai des compétences de conception /réalisation de prototypes ou solutions s'appuyant sur les langages R et python voir scala (spark), j'utilise les ETL ou le SQL, le langage shell.

Je m'appuie sur les solutions du marché ETL ( Informatica , Datastage ), d'orchestration ( Controll-M, Airflow)

Je suis sensible au méthodes de conception Agile , management ( Jira) et aux process de déploiement continu des projets (ci/cd)

j'ai des compétences en data science sur la mise en œuvre de méthodes de segmentation, classification /clustering, prédiction

Mes fonctions au sein des entreprises : Solution Architect ( ERDF, Ingenico, GE), Solutions Cloud AWS(Cora Informatique, Heuler Hermes), Chef de projet plateforme Big Data et Data quality ( BPI France ), Expertises ETL ( Societe generale, Canal+, La Poste)

Expériences

Bpifrance - BPI France

Banque & assurances

CHEF DE PROJET Big Data & Data Quality Tech leader

Maisons-Alfort, France

octobre 2017 - octobre 2020

2019/2020
• Responsable de l’intégration de la solution Data Clean (Informatica IDQ) dans le SI BPI
• Intégration des flux de qualité Data Clean , Data Vizualisation sous QLIK Sense
• Connexion des flux Qualité à Hive/Hadoop , Exadata, DB2, AWS Athéna et Redshift
• Mise en place de flux de qualité automatique et Vizualisation sous QLIK Sense ( bases BPI ~100 Tables/30000 requêtes)
• Solution intégrée BPI France ( Informatica IDQ – Tableau de bord QLIK Sense )
• Mise en œuvre et déploiement massive d’indicateurs de qualité
• Proocess devops
2017/2019
• Responsable de la mise en œuvre des solutions autour de l'architecture Big Data
• Mise en conformité des flux Big Data (GDPR)
• Responsable de la mise en place de la solution d'un Datalake et espace data labs Big Data
• Responsable des développement sur la plateforme technique Saagie ( Hadoop, Cloudera, Hive, Impala,Spark, Elastic Search, MongoDB)

  • architecture
  • mise en oeuvre
  • Hadoop
  • Amazon AWS

CORA Informatique

Grande distribution

Consultant Big Data / Cloud

Metz, France

septembre 2019 - mars 2020

Mission : Accompagnement sur la mise en œuvre d’une solution datalake / Cloud AWS + Snowflake
• A travers des ateliers de formation / vulgarisation
• Présentation des concept big data Hadoop et projection sur les solutions Amazon AWS ( EMR, …)
• Public responsables IT, MOA , chefs de projet, Production , DBA
• Mise en œuvre de l’architecture du Datalake Cora et des principes de mise en œuvre
• Mise ne œuvre des outils d’ingestion et de diffusion dans S3 ( Python / lambda / Python Spark )
• Flux tickets de caisse et données applicatives
• Industrialisation a l’aide de AWS lambda
• Accompagnement Interfaçage avec Snowflake (en cours),
• Orchestration a l’aide de Airflow ( en cours )

Euler Hermes France ( Group Alianz ), EQUIPE ARCHITECTURE IT - Hermès

Banque & assurances

SOLUTION ARCHITECT /BIG DATA ARCHITECT

Paris, France

janvier 2017 - septembre 2020

Responsabilité :

• Support projet MDM (ODS / Operational Data Warehouse implementation) Project Support (CDC IBM & Datastage )
• domaine fonctionnel calcul de Risque, gestion des dossiers de garantie aux entreprises (limits).
• En charge de l'implémentation de la solution Big Data Analytics on the Cloud ( Amazon AWS , hadoop, spark, CDC IBM)
• Garant des solutions globales d'architecture
• Facilite la définition de méthodes en adéquation avec l'architecture
Missions:

• Optimisation des architectures MDM existantes
• Mise en œuvre du design de l'architecture Big Data cible sous Amazon AWS
• Définition des best practice pour la mise en œuvre
• Challenge des solutions Big Data a travers des POC
• solution real time on Hadoop ecosystem vs Dse Graph
• Mise en œuvre de la solution Data Lake et cas d'usage ( Web Services - Machine Learning )
• environnement amazon AWS (EC2, EMR), Hadoop Hive , Hbase, spark, Dse graph,
• mise en œuvre du calcul des Notation ( Machine Learning )
• POC solution Real Time sur données production
• Etude de mise en place de solutions Cloud , Cloud Fondation

Environnement : DB2 Datastage, Amazon EMR, EC2, Hadoop, Hive/ Hbase, Spark, R/Pyhton, Datastax Cassandra/DSE

LEARNING TREE INTERNATIONAL

Education & e-learning

Formateur BIG DATA

Paris, France

octobre 2014 - octobre 2018

Recommandations externes

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte