Xavier P.

expert node.js, web scraping, automatisation

Paris, France

  • 48.8546
  • 2.3477
Proposer un projet

Vérifications

Influence

Github

Github : Xavatar Xavatar
  • 42 Followers
  • 13 Repos
  • 0 Gists

Stack Overflow

Stack Overflow : user170412 user170412
  • 11 Réputation
  • 2 Bronze
  • 0 Argent
  • 0 Or
Rejoignez la communauté Malt pour découvrir le profil complet de Xavier P.
Rejoignez la communauté Malt pour découvrir le profil complet de Xavier P.

Découvrez ce que recherche Xavier

Déplacement
Travaille en partie dans vos locaux et en partie en télétravail
Zone d'activité
Recherche des missions à Paris et 100km autour, Nancy et 100km autour, Strasbourg et 100km autour
Compétences
Recherche des missions en Web Scraping, Formation, MongoDB, Node.js, API
Durée de mission
Recherche des missions ≤ 1 semaine, ≤ 1 mois, entre 1 et 3 mois, entre 3 et 6 mois

Xavier en quelques mots

Gagnez du temps grâce à l'automatisation : restez focus sur les tâches à valeur ajoutée !

Développeur et ingénieur back-end, je propose audits et expertise en Automatisation et Web Scraping pour vos besoins en:
  • automatisation des tâches répétitives et chronophages
  • extraction données
  • création base de données
  • génération fichiers de leads
  • développement moteur de recherche full-text
  • Growth Hacking

Je fais aussi des formations / initiations :
  • Web Scraping
  • Node.js / Puppeteer
  • MongoDB
  • Apache SOLR
  • Formation Growth Hacking
  • PhantomBuster

Je mets en oeuvre des robots de web scraping sur mesure pour:
  • scraper des profils de réseaux sociaux
  • extraire les données de contacts de sites annuaires
  • collecter les prix de fiches produits de N sites (veille tarifaire)
  • récolter les données d'annonces immobilières / automobiles
  • scraper les avis/reviews de consommateurs
  • automatiser la recherche de données depuis formulaires complexes
  • enrichir des données existantes via API

Je conçois des architectures de scraping full stack distribuées avec entre autre:
  • Node.js
  • Headless Chrome + Puppeteer
  • MongoDB
  • RabbitMQ
  • SOLR / ElasticSearch
  • GraphQL
  • API
  • Electron
  • React
  • Vue.js

Les robots d'extraction de données sont personnalisés selon les structures des sites et des données. Toute action humaine est automatisable: étapes de login, infinite scroll, gestion pagination, clics sur boutons, filtres, ...

Pour comprendre vos besoins d'extraction de données, en vue d'un devis / audit, doivent être identifiés:

  • 1: les sources: sites à partir desquels sont extraites les données
  • 2: le chemin de navigation: cheminement depuis la page d'accueil pour arriver aux données (clics sur catégories / menu, gestion pagination, etc)
  • 3: la liste des données à extraire
  • 4: le format du livrable des données extraites: JSON, CSV
  • 5: fréquence des automatisations si scraping nécessitant des MAJ + extractions de données régulières

Portfolio

Portfolio uniquement accessible aux membres

Expériences

janvier 2020 - janvier 2020 | Paris, France

Conseil & audit

Coopaname/ Jennifer Palmer

Intervenant formation Lead generation avec PhantomBuster

Formation personnalisée 1-to-1 à l'automatisation du processus de génération de leads à l'aide PhantomBuster + Dropcontact.
novembre 2019 - novembre 2019 | Nancy, France

Automobile

Bruno

Backend Node JS Crawling / Scraping / Alerting

A partir d'un cahier des charges déjà bien étoffé et pré-établi, j'ai eu pour mission de:
  • proposer une architecture de web scraping / extraction de données automatisée, avec des choix de techno. pertinentes vis à vis des besoins exprimés
  • mettre en oeuvre la stack de web crawling / web scraping de données, où l'extraction automatisée des données est déclenchée suite à la réception d'alertes spécifiques via API
  • développer, tester, et déployer les scripts Node.js correspondants sur les instances de serveurs AWS dédiés
octobre 2019 - novembre 2019 | Paris, France

L'Oréal Produits de Luxe France

Automatisation veille disponibilité stocks produits, et envoi fichier récapitulatif quotidien

Dans le but de pouvoir détecter les indisponibilités de stocks de certains produits de luxe depuis leurs fiches produits, j'ai mis en oeuvre l'automatisation quotidienne de l'extraction des informations telles que: Code EAN, prix, dispo stock, marque, depuis un site e-commerce spécifique.

Le résultat concret étant un fichier Excel avec les EANs et dispo. stocks de chaque produit, envoyé chaque jour au responsable des commandes de ces produits.
  • Scraping
  • Collecte de données
  • Web Scraping
  • Puppeteer
  • Node.js
octobre 2019 - octobre 2019 | Paris, France

Versailles Voyage

Enrichissement de données OpenStreetMap avec API Nominatim

15 missions Malt

Satisfaction des clients Malt : 5.0/5 (12 avis)

16 recommandations externes

Formations

Certifications

Langues

Groupes freelances

Groupes freelances uniquement accessible aux membres

charter modal image

Notre succès est une oeuvre collective

Contribuez à cette réussite et au sérieux de la communauté en signant la charte du freelance Malt.

Signer la charte