Xavier P.

expert node.js, web scraping, automatisation

Peut se déplacer à Paris, Paris, Nancy, Strasbourg

  • 48.8546
  • 2.3477
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Xavier.
Proposer un projet La mission ne démarrera que si vous acceptez le devis de Xavier.

Localisation et déplacement

Localisation
Paris, France
Peut travailler dans vos locaux à
  • Paris et 50km autour
  • Paris et 100km autour
  • Nancy et 100km autour
  • Strasbourg et 100km autour

Préférences

Durée de mission
  • ≤ 1 semaine
  • ≤ 1 mois
  • entre 1 et 3 mois
  • entre 3 et 6 mois

Vérifications

Influence

Github

Github : Xavatar Xavatar
  • 45 Followers
  • 6 Repos
  • 0 Gists

Stack Overflow

Stack Overflow : user170412 user170412
  • 27 Réputation
  • 4 Bronze
  • 0 Argent
  • 0 Or

Langues

Catégories

Compétences (22)

Xavier en quelques mots

Gagnez du temps grâce à l'automatisation : restez focus sur les tâches à valeur ajoutée !

Développeur et ingénieur back-end, je propose audits et expertise en Automatisation et Web Scraping pour vos besoins en:
  • automatisation des tâches répétitives et chronophages
  • extraction données
  • création base de données
  • génération fichiers de leads
  • développement moteur de recherche full-text
  • Growth Hacking

Je fais aussi des formations / initiations :
  • Web Scraping
  • Node.js / Puppeteer
  • MongoDB
  • Apache SOLR
  • Formation Growth Hacking
  • PhantomBuster

Je mets en oeuvre des robots de web scraping sur mesure pour:
  • scraper des profils de réseaux sociaux
  • extraire les données de contacts de sites annuaires
  • collecter les prix de fiches produits de N sites (veille tarifaire)
  • récolter les données d'annonces immobilières / automobiles
  • scraper les avis/reviews de consommateurs
  • automatiser la recherche de données depuis formulaires complexes
  • enrichir des données existantes via API

Je conçois des architectures de scraping full stack distribuées avec entre autre:
  • Node.js
  • Headless Chrome + Puppeteer
  • MongoDB
  • RabbitMQ
  • SOLR / ElasticSearch
  • GraphQL
  • API
  • Electron
  • React
  • Vue.js

Les robots d'extraction de données sont personnalisés selon les structures des sites et des données. Toute action humaine est automatisable: étapes de login, infinite scroll, gestion pagination, clics sur boutons, filtres, ...

Pour comprendre vos besoins d'extraction de données, en vue d'un devis / audit, doivent être identifiés:

  • 1: les sources: sites à partir desquels sont extraites les données
  • 2: le chemin de navigation: cheminement depuis la page d'accueil pour arriver aux données (clics sur catégories / menu, gestion pagination, etc)
  • 3: la liste des données à extraire
  • 4: le format du livrable des données extraites: JSON, CSV
  • 5: fréquence des automatisations si scraping nécessitant des MAJ + extractions de données régulières

Portfolio

Portfolio uniquement accessible aux membres

Expériences

Coopaname/ Jennifer Palmer

Conseil & audit

Intervenant formation Lead generation avec PhantomBuster

Paris, France

janvier 2020 - janvier 2020

Formation personnalisée 1-to-1 à l'automatisation du processus de génération de leads à l'aide PhantomBuster + Dropcontact.

Bruno

Automobile

Backend Node JS Crawling / Scraping / Alerting

Nancy, France

novembre 2019 - novembre 2019

A partir d'un cahier des charges déjà bien étoffé et pré-établi, j'ai eu pour mission de:
  • proposer une architecture de web scraping / extraction de données automatisée, avec des choix de techno. pertinentes vis à vis des besoins exprimés
  • mettre en oeuvre la stack de web crawling / web scraping de données, où l'extraction automatisée des données est déclenchée suite à la réception d'alertes spécifiques via API
  • développer, tester, et déployer les scripts Node.js correspondants sur les instances de serveurs AWS dédiés

L'Oréal Produits de Luxe France - L'Oréal Groupe

Automatisation veille disponibilité stocks produits, et envoi fichier récapitulatif quotidien

Paris, France

octobre 2019 - novembre 2019

Dans le but de pouvoir détecter les indisponibilités de stocks de certains produits de luxe depuis leurs fiches produits, j'ai mis en oeuvre l'automatisation quotidienne de l'extraction des informations telles que: Code EAN, prix, dispo stock, marque, depuis un site e-commerce spécifique.

Le résultat concret étant un fichier Excel avec les EANs et dispo. stocks de chaque produit, envoyé chaque jour au responsable des commandes de ces produits.
  • Scraping
  • Collecte de données
  • Web Scraping
  • Puppeteer
  • Node.js

Versailles Voyage

Enrichissement de données OpenStreetMap avec API Nominatim

Paris, France

octobre 2019 - octobre 2019

15 missions Malt

    (12 avis)

    16 recommandations externes

    Formations

    Certifications

    Groupes freelances

    ScrapingExperts

    2 membres

      Groupes freelances uniquement accessible aux membres