You're seeing this page as if you were . The main menu is still yours, though. Exit from immersion
Malt welcome

Bienvenue sur le profil Malt de Amelie !

Malt vous permet d'accéder aux meilleurs consultants freelances pour vos projets. Contactez Amelie pour échanger sur votre besoin ou recherchez d'autres profils sur Malt.

Amelie Medem

Data engineer 🚀 - Experte data - Python Spark SQL
Supermalter
5 missions
3 recommandations
  • Tarif indicatif
    650 €/ jour
  • Expérience8-15 ans
  • Taux de réponse100%
  • Temps de réponse1h
La mission ne démarrera que si vous acceptez le devis de Amelie.
Localisation et déplacement
Localisation
Paris, France
En télétravail uniquement
Travaille majoritairement à distance
Vérifications

Charte du freelance Malt signée

Consulter la charte
E-mail vérifié
Influence
24Followers
68Repos
6Gists
161Réputation
5Bronze
2Argent
0Or
Langues
Catégories
Ces profils correspondent aussi à votre recherche
Agatha FrydrychAF

Agatha Frydrych

Backend Java Software Engineer

Baptiste DuhenBD

Baptiste Duhen

Fullstack developer

Amed HamouAH

Amed Hamou

Senior Lead Developer

Audrey ChampionAC

Audrey Champion

Web developer

Compétences
Domaines d’expertise
Amelie en quelques mots
Bienvenue sur mon profil Malt 👋

J’interviens régulièrement sur les missions de Data Engineer, Data science et développement d'Application et : ✅

📒Data Engineer

Collecte des données via des sources variées (Site Web, API, Database) - Hadoop - Data Ingestion
Stockage des données dans des formats variés
Modélisation des données - Data Modeling
Création d'architectures de données efficaces - Data Architecture
Création et optimisation des performances des pipelines de données - Airflow - Data Pipeline
Développement et l’optimisation des traitements de données - Spark/PySpark/SQL - Data processing
Garantie de la qualité des données avec du suivi adéquat - Data qualité
Data Ops : gît, Gitlab CI/CD, Jenkins
Mise à disposition des données aux équipes de Data Science

📒Data Science

Je peux collecter de la donnée brute, réaliser les analyses statistiques pour identifier les tendances sous-jacentes et les caractéristiques les plus pertinentes. Exposer les résultats des analyses dans des dashboards métiers - Tableau. Modéliser les besoins métiers par des algorithmes de machines learning (prédiction, recommandation, classification, clustering, ...), exposer les modèles trouvés dans des API et mettre en production l'ensemble de la chaîne de prédiction (avec mises à jour en temps réel).

📒Développement d'API

API Django / Flask

📒Moteur de recherche

J'interviens dans toute la chaîne de la mise en place d'un moteur de recherche / De l'extraction de texte (Image, PDF,...), l'indexation, le regroupement en thématiques, jusqu'à la mise en service dans une plateforme Web.

🚀🚀🚀 Cette liste n'est pas exhaustive 🚀🚀🚀

Je propose des solutions utiles aux entreprises.
Expériences
  • Vizcab
    Data ingénieur / Développeur
    EDITION DE LOGICIELS
    avril 2024 - Aujourd'hui (12 mois)
    Paris, France
    - Conçoit et développe de nouveaux pipelines de données dans Azure Databricks pour l'ingestion de données vers/depuis des applications produits, Azure Data Lake et des bases de données PostgreSQL.

    - Crée et optimise des modèles pour organiser et structurer les données issues de diverses applications et sources, afin de les rendre exploitables par les utilisateurs.
    - Développe et maintient des tableaux de bord Power BI et Databricks pour visualiser les informations, surveiller les performances des pipelines et garantir la qualité des données.
    - Améliore la qualité du code en appliquant les meilleures pratiques et en établissant des pipelines CI/CD robustes grâce à Databricks Bundle Assets, GitLab et SonarQube.
    - Développe et met en œuvre des contrats de données comme cadre pour surveiller les modèles de données et définir des spécifications claires.
    - Collabore avec les équipes métiers pour identifier leurs besoins et fournir des solutions de données sur mesure qui apportent de la valeur.
    PySpark Databricks Microsoft PowerBI Gitlab CI/CD MySQL Modélisation des données Data contracts Extraire, transformer, charger (ETL) Data Pipeline Data Quality Data visualisation Microsoft Azure
  • EQUILIBRIUM SOLUTIONS LTD, UK
    Data Ingénieur Senior / Développeur
    AGENCE & SSII
    septembre 2022 - Aujourd'hui (2 ans et 6 mois)
    Manchester, Royaume-Uni
    - Collecte, transforme et restitue des données en provenance d’applications diverses qui permettent de suivre de près les activités des clients
    - Développement d’application et pipelines d’intégration des données de sources et formats différents. Ingestion et transformation dans le datalake. Orchestration des workflows de pipeline de données. Implémentation des tests unitaires et d’intégration.
    - Web Scrapping de données publiques pour enrichir la donnée interne
    - Modélisation des données
    - Indexation des données dans Elasticsearch
    - Construction des dashboards à destination du Marketing (Tableau)
    - Migration d’une application on-premises vers AWS
    Python PySpark Hadoop Airflow Elasticsearch SQL Amazon Web Services (AWS) PostgreSQL Data Engineer Tableau Data Engineering Python (Programming Language) Spark Web Scraping AWS Docker data ingenieur Cloud AWS
  • Cour des comptes, Paris.
    Machine learning ingénieur / Project Lead
    SECTEUR PUBLIC & COLLECTIVITÉS
    décembre 2017 - août 2022 (4 ans et 8 mois)
    ● Conçoit et supervise l’architecture et le développement de la plateforme de recherche unifiée de la Cour des comptes basée sur un datalake Hadoop.
    ● Construit les pipelines de scrapping Python pour collecter des pages HTML des rapports produits par la Cour des comptes de 1870 à 2022 (180 k+).
    ● Crée et développe les projets Python pour extraire les textes bruts de 250 k+ rapports de types PDF, Word, HTML, Images documents (OCR), etc.
    ● Implémente des programmes Python pour nettoyer, traiter et structurer les données hétérogènes, et surtout identifier les connexions entre les données pour leur indexation (Elasticsearch) et leur analyse textuelle.
    ● Dirige et développe les pipelines Spark d’ingestion des contenus en provenance de diverses bases de données (ex: contrôles, référentiel des agents de la Cour, ...).
    ● Développe collaborativement la plateforme Web du moteur de recherche (React, Django).
    ● Réalise un POC NER (Reconnaissance d'Entités Nommées) pour extraire automatiquement les noms et expressions pertinentes dans le texte des rapports (Spacy, Deep learning).
    ● Organise et dirige les workshops d’annotation manuelle (Doccano) des rapports pour constituer une base d’apprentissage du POC NER propre au contexte de la Cour des comptes.
    ● Organise plusieurs ateliers utilisateurs pour collecter les besoins internes sur la recherche efficace de textes, l’organisation des documents et les liens logiques entre les informations.
    ● Travaille main à main avec l’UX designer pour la réalisation des mockups de la plateforme de
    recherche.
    Python Scala SQL PySpark Hadoop Elasticsearch Docker BeautifulSoup Tesseract Spacy Tika Pandas Numpy data ingenieur Modélisation statistique Python (Programming Language) Natural Language Processing (NLP) Python (Programming Language) Analyse des besoins Gestion de projet Project management Management d'équipe
3 recommandations externes
EC
EB
SL

Estelle Comment et 2 autres personnes recommandent Amelie

Estelle CommentEC
26.11.2023
Pour le projet Plume Exploration, Amélie a été lead sur le backend de search, le frontend web, mais aussi les aspects produit, la relation avec les utilisateurs, et le recrutement, management et formation des devs juniors. Elle a mené la barque du projet depuis sa genèse, avec énergie, polyvalence, et diplomatie.
Emmanuel BismuthEB
23.11.2023
Amelie est une excellente Data Engineer. C'est un plaisir de travailler avec une véritable experte Data. Je vous la recommande vivement.
Sébastien LorberSL
13.06.2018
J'ai apprécié avoir Amélie dans mon équipe quand j'étais CTO de Stample.
Issue d'un cursus plutôt académique (PhD, data, machine learning, network analysis), elle a su monter en compétence rapidement sur les technologies que nous utilisions, aussi bien backend (Scala) que frontend (React). Aujourd'hui, je pense qu'Amélie a un profil polyvalent, qui lui permet d'être efficace sur de nombreux projets (back, front, data, ML, NLP, algo...).
Formations
  • Doctorat
    Université Pierre et Marie Curie - France
    2011
    Sujet: Méthodes automatiques pour la classification et la prédiction des pannes de réseaux
Certifications