Balayez pour voir le profil suivant

Moundir Jamal

architecte big data

Paris, France

  • 48.8546
  • 2.3477
Nouveau
Proposer un projet

Vérifications

Rejoignez la communauté Malt pour découvrir le profil complet de Moundir Jamal
Rejoignez la communauté Malt pour découvrir le profil complet de Moundir Jamal

Découvrez ce que recherche Moundir

Déplacement
Peut faire la totalité d'une mission dans vos locaux
Zone d'activité
Recherche des missions à Paris et 20km autour
Durée de mission
Recherche des missions entre 3 et 6 mois, ≥ 6 mois

Moundir en quelques mots

Architecte big data avec une dizaines d'années d’expériences en développement et mise en place d'architectures et solutions complexes, je suis actuellement en mission mais à l'écoute du marché pour une opportunité autour des technologies big data, je suis disponible sous 1 mois

Expériences

octobre 2018 - Aujourd'hui | Paris, France

Automobile

AAA DATA

Architecte Big Data

Migration du socle Big data on-premise vers une plateforme orienté Cloud Azure
o Conception de l’architecture et mise en place de l’infrastructure Big data sur Azure en
collaboration avec le cloud manager
o Sécurisation du tenant Azure en collaboration avec le cloud manager et le RSSI (Firewall
Barracuda, VNet, NSG, Endpoint sécurisé, Ségrégation des environnements, limitation
des plages d’IP, Azure AD)
o Choix, sizing et scaling des clusters Spark pour les Jobs Spark Java/Python et ML pour
Spark R et Sparklyr
o Ordonnancement des jobs et provisionning automatique des différents clusters et VM à
la demande (les clusters sont provisionnés et détruits à la demande)
o Mise en place des briques techniques pour assurer la migration vers le cloud Azure
▪ Soumission des jobs Spark Java, Python et R sur HDinsight
▪ Mise en place de workflows Oozie pour l’exécution de certains jobs (ex Sparklyr)
▪ Ingestion des données brutes depuis SAS et ou fichiers CSV
▪ Optimisation de la distribution de jobs pour la génération des parquets
▪ Transfère des données depuis le On-Premise vers Azure
• Mise en place d’une api qui se base sur l’azure datalake store sdk
• Passage par une VM de rebond sur Azure
• Passage par l’express route azure
o Migration des Jobs Spark
o Réconciliation des données avec Graphx
o Accompagnement des data scientist et industrialisation des modèles maching learning
Python/R et leurs déploiements sur Azure (modèles de prédiction basés sur du Random
Forest et Clustering)
o Optimisation, scaling et réduction des temps d’exécution
o Optimisation des insertions de données dans la base Azure CosmosDB (pour MongoDB)
o Exploration des données avec Azure Databricks et Apache Drill
o Pipeline de copie inter et intra Datalake Store avec Azure Data Factory
o Accompagnement de l’équipe métier dans l’exploitation et la valorisation des données
de l’entreprise
o Rédaction des documents techniques dont le DAT
décembre 2017 - octobre 2018 | Neuilly-sur-Seine, France

Conseil & audit

PwC

Architecte Big data

Etude, évaluation et accompagnement du client dans le choix de l’infrastructure
▪ On Premise avec HDP Hortonworks
▪ Cloud avec Azure HDInsight full Paas
▪ Cloud avec Hortonworks Cloudbreak sous Azure en mode Iaas
o Mise en place de la solution Big data sur Azure HDInsight
o Coordination avec les équipes Azure pour la mise en place de la solution
▪ Mise en place d’un Data lake Store
▪ Sizing & Scaling des vCores et RAM des serveurs du cluster Azure HDInsight (Spark
Cluster)
▪ Mise en place d’un ASE pour l’hébergement de l’application web
▪ Mise en place d’une instance Azure SQL Server
o Coordination avec les équipes sécurités et Admin Azure pour la sécurisation de la
plateforme (Firewall Palo Alto, WAF Imperva, VNet, Communication en HTTPS, Connexion
sur des Gateway Azure sécurisées, cryptage des données)
o Mise en place du socle technique
▪ Chargement et processing des données avec Spark
▪ Lecture/Ecriture des données sur l’Azure Data Lake Store
▪ Définition et mise en place des différents composants métiers
▪ Lancement des jobs Spark avec Apache Livy
▪ Sauvegarde des KPI et génération de rapport d’audit
▪ Conception et mise en place d’un moteur de règles
o Rédaction de DAT, HLD, STD …
mai 2015 - mai 2018 | Paris, France

Banque & assurances

SCOR

Architecte

Architecte transverse au sein des équipes Nat Cat (Catastrophes naturelles) et Forewriter (Souscription
de contrat facultative)
Projet : NAT CAT (Projet ARC & Projet Risk Reveal):
Plateforme de publication, d’accumulation et de calcul des pertes potentielles liées aux risques
de catastrophes naturelles sur l’ensemble du portefeuille SCOR.
Intervenants : Scor Paris & Londres
■ Réalisations :
o Participation aux worskshops avec le métier pour la mise en place des solutions
o Mise en place du modèle de données
o Etudes et validation des différentes solutions
 Définition des noeuds de management et calcul avec les admins Hadoop
 Stratégie de failover des traitements et réplication des données
 Sécurisation (Ranger, Knox, Kerberos)
 Mise en place d’un data lake pour la sauvegarde des données de catastrophes
naturelles (Period Loss Table Files)
 Copie des fichiers avec WEBHDFS
 Lancement des jobs depuis le Front
o Conception d’un framework d’agrégation et de calcul des pertes
o Mise en place du framework technique d’exécution des Jobs sur Hadoop
 Implémentation des mécanismes de négociation automatique (allocation
mémoire et CPU en fonction des données en entrée) avec le Yarn Ressource
Manager,
 Mise en place de la distribution des calculs sur différents containers du Cluster
Hadoop
 Gestion du failover
 Chargement des données depuis HDFS
 Authentification Kerberos

Projet : Forewriter:
Plateforme de souscription et tarification des contrats d’assurances Facultatives pour la
couverture des grands risques industriels & naturels
Réalisations :
o Amélioration des performances de l’application
 Audit
 Profiling et monitoring
 Analyse des plans d’exécutions des procédures stockées et requêtes SQL
o Pricing
 Mise en place du framework de calcul de prime et allocation de capital
 Etroite collaboration avec les actuaires
 Développement des modèles de pricing, des courbes d’expositions et
simulation Monte Carlo
· Modèles : Property, Engineering, Space, Offshore, Rétrocession et
Decennial
 Mise en place d’un framework de calibration pour le modèle Property
o GIS (Geographic Information System)
 Mise en place d’une nouvelle solution de cartographie (Geoserver) en
remplacement de Google Maps Engine
 Pilotage et suivi de la première version
 Mise en place d’une base de données Geo Spacial (PostGis)
o Mise en place d’un nouveau module d’extraction de données de catastrophes
naturelles en remplacement d’une solution externe
o Conception et mise en place de middlewares de communication entre Forewriter et
plusieurs autres systèmes
o Etudes, validation et mesures d’impact sur l’ensemble des modules techniques de la
plateforme.
o Participation à l’amélioration de la qualité des développements logiciel et d’intégration
continue
o Garant de la cohérence du modèle de données et des différentes briques logicielles de
la plateforme

Recommandations externes

Formations

Langues

shortlist-dynamic-search-heade
charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte