Malt welcome

Bienvenue sur le profil Malt de Mohamed !

Malt vous permet d'accéder aux meilleurs consultants freelances pour vos projets. Contactez Mohamed pour échanger sur votre besoin ou recherchez d'autres profils sur Malt.

Mohamed LAMOUCHI

ingénieur data / consultant décisionnel
  • Tarif indicatif
    667 €/ jour
  • Expérience8-15 ans
  • Temps de réponse1h
La mission ne démarrera que si vous acceptez le devis de Mohamed.
Localisation et déplacement
Localisation
Bussy-Saint-Georges, France
Peut travailler dans vos locaux à
  • Bussy-Saint-Georges et 50km autour
  • Bussy-Saint-Georges et 50km autour
Vérifications

Charte du freelance Malt signée

Consulter la charte
E-mail vérifié
Langues
Catégories
Ces profils correspondent aussi à votre recherche
Agatha FrydrychAF

Agatha Frydrych

Backend Java Software Engineer

Baptiste DuhenBD

Baptiste Duhen

Fullstack developer

Amed HamouAH

Amed Hamou

Senior Lead Developer

Audrey ChampionAC

Audrey Champion

Web developer

Compétences
Mohamed en quelques mots
Bonjour,

Je suis consultant en informatique avec plus de 14 ans d'expérience, j'ai acquis beaucoup de compétence sur plusieurs technologies et plusieurs domaines fonctionnels.

A travers mes différentes expériences j'ai démontré ma motivation, ma rapidité d'adaptation sur les différents projets, mon professionnalisme ainsi que mon efficacité.
Expériences
  • Safran Aircraft Engines
    Architecte Data / BigData
    AÉRONAUTIQUE & AÉROSPATIALE
    octobre 2019 - avril 2020 (7 mois)
    Moissy-Cramayel, France
    Amélioration de l’architecture data actuelle
    - Changement du partitionnement des données cooked, d’un partitionnement fonctionnel vers un partitionnement technique
    - Mise en place d’un ordonnancement avec Nifi à la place de Oozie
    - Création des templates NIFI pour le lancement des traitements de collecte, d’Ingestion et des algorithmes
    - L’étude de l’utilisation de Drill comme connecteur aux données de la plateforme à partir des autres applications
    - Etude et POC pour l’utilisation de Hbase sur la plateforme.
    - Faire un POC sur Flume

    Amélioration de la performance d’accès à la base de données Hive
    - Etude d’utilisation de Drill comme connecteur et accélérateur pour la base Hive
    - Elargir l’utilisation de LLAP

    POC sur les outils dataviz
    - Participation aux ateliers de travail sur le choix de l’outil de dataviz

    Architecturer les traitements d’ingestion et d’indexation
    - Mise en place d’une architecture pour le lancement des traitements d’ingestion et d’indexation en détectant dynamiquement les nouvelles données
    - Rédaction du DAT

    Participation à la mise en place des algorithmes
    - Orientation de la conception et des développements pour respecter les normes internes et les bonnes pratiques
    - Support aux concepteurs et développeurs
    Scala Python Apache NIFI spark Hive Hbase MongoDB HQL HPL Oozie Java SQL Shell Docker Apache Drill Apache Flume
  • SOCIETE GENRALE
    Consultant BI et Ingénieur DATA
    BANQUE & ASSURANCES
    janvier 2017 - octobre 2019 (2 ans et 9 mois)
    Fontenay-sous-Bois, France
    Mise en place d’une application spark/scala pour l’évaluation des entreprises
    - Conception de l'architecture applicatifs
    - Création de la base et des tables associés sur Hive
    - Développement de l’ordonnancement avec Oozie
    - Développement des traitements avec scals/spark

    Mise en place d’une chaine CI/CD pour Talend
    - Définir l’arhcitecture de la chaine CI/CD
    - Installation et test des diffirents modules de la chaine CI/CD (continuous integration and continuous delivery)
    - Développement des playbooks sur ansible Tower pour la partie CD

    Maintenance Evolutive d’une application Scala/spark pour la catégorisation des opérations Bancaires
    - Suivi de la production des traitements existants
    - Correction des anomalies sur les traitements scala
    - Développement des évolutions sur les traitements (Scala et Talend)
    - Création des tables externes pour l’exploitation des fichiers sur le lake
    - Optimisation des traitements de catégorisation (scala/spark)

    Mise en place d'un datawarehouse et des datamarts pour le reporting :
    - Conception de l'architecture applicatifs
    - Modélisation et conception du modèle de la base de données décisionnelle (datawarehouse et des datamarts)
    - Développement des traitements d’alimentation avec Datastage PX
    - Développement des fiches control-M pour l’exécution et l’enchainement des traitements
    Mise en place d'un infocentre de reporting pour la mobilité bancaire :
    - Conception de l'architecture applicatifs
    - Développement des traitements Talend qui :
    * Récupèrent les données sur HDFS (Datalakes)
    * Calculent les différents indicateurs et qui traite les données bruts
    * Injectent les données dans la base MongodDB
    - Développement de l'application Web sur AngularJS
    - Génération des tableaux de reporting en Excel et permettre aux utilisateurs le téléchargement.

    Migration des machines de la base de données Vectorielle vers Redhat 7.1
    - Pilotage de la migration des serveurs Linux Redhat 5.1 vers Redhat 7.1 et de la base de donnée Vectorielle Harry Vectorial Server de la version 32 bits vers la version 64 bits.
    - Définition de la capacité des nouvelles machines.
    - Définir l'architecture cible et mise en place du plan de migration.
    - Adapter les traitements sur les nouvelles machines.
    - Développement des rapports décisionnels avec la suite Harry Liberty
    - Développement des traitements d'alimentation de la base de données Vectorielle Harry Vectorial Server
    scala spark HQL hive oozie TALEND BigData Datastage PX 11 Harry Pilot 8.7 Harry DASHNORD 8.7 Microstrategy 10 AngularJS Java Rest HVS SQL Shell Harry Vectorial Server Oracle 11g Teradata 14.1 15.1 MongoDB 3.4 SqlDevelopper Teradata Sql Client IntelliJ Winscp Putty MongoDB Compass Hadoop HDFS Linux RedHat 5.5 et 7.1 Windows Server 2018 Citrix
  • La Banque Postale
    Consultant BI et DWH
    BANQUE & ASSURANCES
    septembre 2014 - décembre 2016 (2 ans et 4 mois)
    Paris, France
    Tâches réalisées :
    - Conception et Développement des nouveaux traitements d’alimentation et d’extraction de données avec Talend.
    - Evoluer les traitements Talend existants.
    - Conception et développement des traitements d’alimentation d’un datamart R-OLAP avec Talend.
    - Mise en place de la version Talend Entreprise Data Integration :
    •Définition de l’architecture cible Talend.
    •Installation des different modules.
    •Rédaction des documents d’installation du serveur Talend et du studio de développement.
    •Trouver des solutions pour l’utilisation des MétaServlet.
    •Définition de la procédure de livraison entre les différents environnements et développement des outils de livraison.
    - Migration des Traitements Talend de la version TOS (Gratuite) vers la version TEDI (Payante)
    - Conception et modélisation d'un Datamart (R-OLAP).
    - Maintenance des outils décisionnels du système d’information de la surveillance prudentielle pour la direction des marchés financiers.
    - Etudes, conception et développement des nouvelles évolutions (Talend / WebService / PL/SQL)
    - Correction des anomalies dans les traitements PL/SQL.
    - Evolution des traitements PL/SQL.
    - Analyses et correction des problèmes de la production.
    - Optimisation des performances des traitements PL/SQL.
    Oracle 11g / 12c TALEND TOS TALEND TEDI SqlDevelopper SQL PL/SQL JAVA Windows XP Pro Windows 2003 Server
Recommandations externes
Formations
  • MASTER 2, Système d’Information, Information Scientifique et technique
    Université Marne la vallée en co-habilité avec le Commissariat d’Energie Atomique
    2005
  • Diplôme d’Ingénieur en Informatique, spécialité Système d'Information Avancé
    Université d'Oran ES-SENIA (ALGERIE)
    2003
  • MASTER 2 Professionnel, Traitement d’Information et Exploitation des Données
    Université de Versailles en co-habilité avec le CNAM et INT d’Evry
    2006