Marc Latour CV 2013-03-25

CV publié parMarcLatour dansTI.

Desired position type: Temps-plein
Lieu : Saint-Eustache Québec, Canada

marc_la_tour@hotmail.com
Tel:
Mobile:
(514) 240-0843

Résumé

MARC LATOUR, spécialiste en intégration d’information (ETL, DW, BI) et qualité des données

Disponibilité : immédiate

Sommaire des connaissances et de l’expérience professionnelle

• 23 ans d’expérience totale en TI dans de grandes entreprises de détail et distribution ou gestion de la fidélisation de la clientèle ou bancaires ou transport
• 13 dernières années en entreposage de données (DW) et intelligence d’affaires (BI) comme architecte de données, analyste BI, analyste d’affaires, développeur SQL et SSIS, architecte en ordonnancement des traitements, testeur, analyste en métadonnées, analyste en assurance et contrôle de qualité des données et autres, dans des projets d’ETL, de tableaux de bord, d’indicateurs clés de performance (« KPI »), de cartes de pointage ou de processus de contrôle de la qualité des données ou métadonnées
• Expert en bases de données et SQL (SQL Server, DB2, Oracle) et en architecture et modélisation de données (relationnelle et multidimensionnelle, métadonnées)

Caractéristiques professionnelles

• Très orienté client, intégration corporative, optimisation des processus, qualité et valeur ajoutée des systèmes d’informations, informatique sémantique
• Très autonome et très motivé et motivateur; travail de grande qualité et productivité
• Sait combiner une riche expérience de terrain et une solide formation technique et de gestion
• Sait offrir une combinaison et une polyvalence de rôles, de la conception au développement
• Habile à comprendre les besoins et à concevoir, proposer et mettre en oeuvre des solutions qui amalgament harmonieusement les impératifs d’affaires et TI
• Excellent collaborateur « Agile », visionnaire et conseiller auprès de tous les intervenants
• Passionné de tout ce qui touche l’intégration et la qualité de l’information, en particulier l’intelligence d’affaires et la sémantique : transformer les données en faits, en informations intelligibles, en connaissances prédictives et en valeur décisionnelle pour l’entreprise

Aspirations professionnelles

Jouer un ou une combinaison de rôles de concepteur, d’architecte, d’analyste, de développeur et de conseiller dans l’optimisation de processus d’affaires avec l’aide de technologies d’intégration d’information (ETL, DW, BI, SOA, Gestion de la qualité des données et des métadonnées, …) avec attrait particulièrement important pour les technologies Microsoft BI.

Formation

• Maîtrise en informatique de gestion à l’UQÀM, 1996 (thèmes principaux : valeur ajoutée TI, facteurs d’adoption des systèmes d’intelligence d’affaires, facteurs de qualité des informations) 

• BAC en informatique de gestion à l’UQÀM, 1988

Expérience

Architecte BI                                            La Coop Fédérée – 2012-08 à aujourd’hui

  • Employé, architecte de solution et de données du système d’entrepôt de données (EDD): un environnement complexe avec de multiples secteurs d’affaires et de multiples sources de données,  deux EDD et quinze comptoirs de données, plus de 500 tables et plus de 600 Packages SSIS dans un environnement SQL Server, Cognos et Sharepoint.
  • Produit la portion « profilage et analyse de la qualité de sources de données » et/ou participé à l’analyse des besoins d’information ou à la conception EDD et ETL pour plusieurs projets
  • Conçu un système de suivi des performances des traitements de l’EDD
  • Planifié une migration de la version SQL Server de l’EDD vers une version plus récente

 TI maîtrisées : SQL Server, T-SQL et TI associées, Power Designer, Visio, Excel, MS-Project, etc

 

Spécialiste BI et analyste d’affaires BI             Via Rail Canada – 2012-01 à 2012-05

  • Contractuel, spécialiste BI (architecture de données, analyse d’affaires et fonctionnelle).  
  • Produit une évaluation et des recommandations sur la qualité du système BI actuel (valeur ajoutée au niveau affaires, qualité des bases de données (SQL Server) et des traitements (SSIS, Céduleur $U), qualité des informations produites (SSRS, SSAS, PerformancePoint), utilisabilité du système BI, etc
  • Conçu et produit une version Star Schema complète, révisée et enrichie de la BD du DataMart existant afin d’incorporer de nouvelles fonctionnalités et des corrections
  • Produit l’analyse des besoins d’affaires, les spécifications des nouvelles fonctionnalités OLAP et tableaux de bord, les analyses fonctionnelles (« mappings »), les cas de tests, les composantes de tests et l’exécution des tests

 TI maîtrisées : SQL Server 2008 R2 et TI associées, Visio, MS-Excel, TFS, etc

 

Architecte et analyste principal BI, développeur BI   Groupe Dynamite- 2010-03 à 2012-01

  • Employé. Acteur constant, engagé dans l’évolution de l’équipe BI, leader et contributeur dans l’application de l’approche Agile et la livraison rapide de prototypes aux clients

 

Architecte de données responsable et acteur de l’évolution des modèles de données BI :

  • Créé ou modifié, documenté et migré les modèles de données et BD du BI (Power Designer, enterprise repository, SQL Server, Redgate et autres) pour de multiples projets BI et autres

 

Développeur SSIS et T-SQL:

  • Développé et testé de nombreux ETL SSIS et T-SQL pour plusieurs applications BI. Contribué à améliorer la traçabilité (« logs ») d’exécution et la configuration dynamique sous SSIS.
  • Conçu et développé intégralement la BD et le prototype de chargement d’un DataMart qui résout les problématiques de croisement des informations historiques associées aux produits et aux points de ventes dans le temps (ventes, inventaires, commandes attendues)
  • Conçu et développé une BD de métadonnées et des automatismes pour incorporer des métadonnées d’affaires aux outils BI et au dictionnaire SQL Server (extended properties). Spécifié les besoins pour l’application DotNet qui offrait des fonctionnalités de recherche, de visualisation et de mise à jour (individuelle ou massive) des métadonnées acquises
  • Conçu, analysé et participé au développement de plusieurs projets, dont un qui interface avec une application SaaS ou « Cloud computing » et un qui interface avec une  application «  eCommerce » et inclut l’expédition des colis vers les É.U. avec règles  douanes et autres

 TI maîtrisées : SQL Server 2008 R2 et TI associées, SSIS, Power Designer v15, Visio, MS-Excel, VBA Excel, Redgate (SQL utilities), TFS, etc

 

Conseiller et analyste en Gestion des métadonnées     Banque Nationale – 2009-10 à 2009-12

 Contractuel. Rôle de conseiller, d’analyste et de développeur pour la récupération de métadonnées d’affaires de plusieurs projets BI de la Banque, design du processus futur de saisie et de récupération de métadonnées pour des technologies cibles IBM InfoSphere :

  • Consultation d’intervenants et design (notation BPMN) du processus actuel et futur
  • Codification d’une interface de saisie de métadonnées sous Excel, Access, VBA, DAO pour valider la cohérence des règles de transformation et les récupérer dans un référentiel
  • TI maîtrisées : Visio et notations BPMN, MS-Excel, VBA, DAO, MS-Access, SQL Server

 

Exécution d’un processus ETL de Gestion du risque  Desjardins – 2009-07 à 2009-09

 Contractuel. Responsable de l’exécution d’un processus manuel d’ETL et de la production de rapports de gestion pour Encadrement des risques financiers du réseau au Mouvement Desjardins

  • Réception et intégration de sources Excel dans une BD MS-Access, mise à jour de données de contrôle, production de multiples rapports d’étapes et de contrôle (SQL Server)

 

Maîtrise et évolution d’un processus de Gestion du risque     Desjardins – 2007-10 à 2009-06

 Contractuel. Rôle d’analyste principal d’un système BI complexe de gestion du Risque de marché (suivi et contrôle de la Valeur nette, Valeur à risque et Gain et pertes des investissements) du Mouvement Desjardins, dans le cadre des Accords de Bâle. Un système utilisant 13 plateformes technologiques sous Unix, dont SAS, DataStage, Cognos, WebLogic, DB2 et Oracle, stockant 15 mesures de risque sous 20 dimensions et produisant des informations à l’AMF :

  • Planification et analyse TI, coatching et suivi des développeurs DataStage et Unix, codification (Unix + SQL) et exécution des tests fonctionnels, documentation et implantation
  • La rapidité de maîtrise de ce processus complexe, la compréhension des besoins des clients et la conception de solutions TI ingénieuses et robustes a généré un haut niveau de satisfaction de la part de la clientèle et de l’équipe de support de production
  • TI maîtrisées : SQL sur DB2, Quest, Unix, Excel, Word, Visio, XML/RML, documentation sous Lotus Notes, Processus de développement Desjardins et outils d’évaluation internes

 

Réingénierie du processus de ristourne aux membres   Desjardins – 2008-10 à 2009-06

 Contractuel. Simultanément avec le mandat ci haut, été un des analystes BI pour le projet de refonte d’un processus ETL complexe de ristourne aux membres du Mouvement Desjardins :

  • Évaluations des efforts, spécifications techniques des ETL DataStage (« mappings ») selon les règles d’affaires, coatching et suivi des développeurs DataStage, production, codification (SQL, Access, Excel) et exécution des tests fonctionnels
  • TI maîtrisées : SQL sur DB2, Quest, Excel, Word, Unix, MS Access, documentation sous Lotus Notes, Processus de développement couvrant tout le cycle de développement

 

Mise en place d’un système d’analyse de performance (KPIs) McKesson – 2007-07 à 2007-10

 Contractuel. Rôles simultanés d’analyste d’affaires, modélisateur de données, analyste BI et gestionnaire du projet (coté TI) pour la mise en place d’un tableau de bord sur la performance d’un processus opérationnel dans les entrepôts de McKesson. Ce projet a implanté un processus ETL, une BD multidimensionnelle comprenant une quinzaine de « KPI » sous six axes d’analyse, un cube OLAP sous Cognos PowerPlay et des rapports automatisés et ad hoc sous Impromptu :

  • Production de la vaste majorité des documents d’architecture, de conception, d’analyse et de projet (anglais) selon la méthodologie Météor couvrant tout le cycle de développement
  • Coatching et suivi des développeurs DataStage et Cognos
  • TI maîtrisées : SQL sur Oracle, Toad, Documentum, Ms Project server et client – comprenant la planification, la mise à jour et le suivi du projet, Excel,  Word, Visio

 

Mise en place de « KPIs » et de cartes de pointage      Aéroplan – 2006-10 à 2007-06

Contractuel. Rôles de concepteur, architecte de données, analyste et développeur TI pour la mise en place de deux systèmes de suivi de « KPIs » pour les départements Marketing et Finances :

  • Récupération des besoins d’affaires, rédaction (anglais) des spécifications formelles et des métadonnées Affaires et TI, architecture de la solution, production, codification (SQL) des extractions, contrôle de qualité des données avec les experts d’affaires, suivi du projet
  • Ces projets ont mis en place les premiers systèmes automatisés de KPIs chez ce client, produits et rendus accessibles dans un Univers Business Object
  • TI maîtrisées : SQL sur DB2, Quest central for DB2, Excel, Word

 

Auditeur de qualité d’un entrepôt de données             Aéroplan – 2006-06 à 2006-10

Contractuel. Rôle d’analyste expert pour l’audit de la qualité des données de l’entrepôt de données de l’une des plus importantes entreprises de fidélisation de la clientèle au Canada :

  • Récupération des règles d’affaires et autres métadonnées, codification (SQL) des traitements de contrôle de la qualité des ETL DataStage; découverte, analyse, enquête et rapports des divergences; élaboration des demandes de correction des données et/ou des processus ETL auprès de l’impartiteur IBM, suivi des dossiers, documentation (anglais), etc
  • TI maîtrisées : SQL sur DB2, Quest central for DB2, Excel, Word. Aperçu de Business Objects

 

Architecte d’entreprise, domaine de données corporatives  SAQ – 2004-06 à 2006-03

 Employé. Architecte d’entreprise spécialisé dans le domaine Données et informations :

  • Élaboré et documenté les architectures et les porte feuilles actuels, cibles et de transition, au sujet des informations, des processus d’affaires et des solutions applicatives, et plus spécifiquement les liens Informations versus Processus d’affaires
  • Produit des analyses préliminaires incluant requis d’affaires, impacts sur les informations, les processus d’affaires et le parc applicatif, scénarios de solutions, ébauche d’architecture
  • Participé au plan stratégique des TI et soutenu la production du plan stratégique d’entreprise  
  • Utilisé les méthodologies d’architecture de Gartner Group et de Deloitte
  • TI maîtrisées : Word; Power Point; Excel; Visio; Power AMC; SQL sous Oracle 9, TOAD

 

Architecte de données, contrôle et qualité des données     SAQ – 2003-06 à 2004-06

Employé. Principal architecte de données corporatif et responsable des normes et assurance qualité des données et informations ainsi que des métadonnées corporatives :

  • Défini des principes d’architecture et de qualité des données et des informations corporatives pour l’entreprise et évalué le système d’entrepôt de données en place
  • Produit un modèle conceptuel de données du système JDE actuel par un processus de rétro ingénierie et de profilage de la base de données JDE codifié en SQL
  • TI maîtrisées : Word; Power Point; Excel; Visio; SQL sour Oracle 9; TOAD; Power AMC

 

Architecte de bases de données – entrepôt de données Provigo – 2000-02 à 2002-12

 Employé. Dans le rôle d’architecte de données de l’entrepôt de données (ED) :

  • Une équipe de 17 personnes; système couvrant ventes, marges, approvisionnements et inventaires : 10 domaines et systèmes sources; 120 tables à haut volume
  • Intervenu principalement dans le transfert, le chargement et la qualité des données de l’ED ainsi que dans le coatching des analystes et des développeurs
  • Développé, documenté et mis à jour les modèles conceptuels et logiques de l’ED et codifié intégralement une cédule de traitement optimisée de 750 tâches sous Control-M
  • Conçu et prototypé (SQL, Unix Script) le traitement de 32 agrégations multidimensionnelles de données (forme de Data Mart) exploitées par MicroStategy-OLAP, MS Access, Intranet, etc
  • Codifié (SQL, Unix) de multiples requêtes et rapports ad hoc pour la haute direction
  • Développé et optimisé de nombreuses requêtes SQL complexes
  • Participé à l’expertise, aux décisions techniques et aux analyses auprès des intervenants TI et de dizaines d’utilisateurs de Mise en marché, Finances, Approvisionnement, etc
  • Contribué significativement au succès de cet ED, devenu une source informationnelle corporative reconnue, de haute qualité, performante et moins coûteuse
  • TI maîtrisées : SQL et BD Teradata; Unix Script; PowerDesigner; Control-M; Excel; Visio

 

Analyste principal – entrepôt de données                     Provigo – 1997-07 à 2000-02

 Employé. Dans le rôle d’analyste principal de l’entrepôt de données dans une équipe de 15 personnes :

  • Conçu, analysé et documenté le processus optimisé de traitement des ventes et coûtants de trois bannières et trois systèmes sources; intégré l’ancien système informationnel ainsi que les données d’approvisionnement et d’inventaires en magasins
  • Introduit le céduleur Control-M et produit une cédule optimisée de 500 tâches gérant parallélisme, accès simultanés, cycles répétitifs, ressources du système, etc
  • Approuvé les analyses, documenté et prototypé (SQL et Unix) le chargement de l’ED
  • Contribué de façon majeure à atteindre un niveau de qualité de données sans précédent, ayant engendré l’adoption de l’ED comme source corporative officielle d’information de gestion
  • TI maîtrisées : SQL et BD Teradata; Unix Script; céduleur Control-M; Visio; Excel, Word

 

Analyste principal – entrepôt de données      Gaz Métropolitain – 1995-11 à 1997-07

 Employé. Analyste principal du projet d’introduction des TI d’entrepôts de données :

  • Conçu, planifié et réalisé une étude préliminaire couvrant sept départements clés de l’entreprise et décrivant orientations, démarches, clientèles et rôles, technologies, architecture de données et projets requis pour introduire des TI d’entrepôts de données corporatives
  • Projet pilote : Conçu, planifié, analysé et participé à développer les extractions destinées à l’ED sous Oracle, incluant coatching et suivi des développeurs sur plateforme centrale

 

Analyste principal – Maintien/ fidélisation Clientèle        Gaz Métropolitain – 1995-07 à 1995-10

 Employé. Analyste principal de la partie Plate forme centrale du projet Maintien/ fidélisation Clientèle :

  • Conçu, analysé et participé à développer cette partie d’une application générant des dossiers clients complets, avec COBOL2; CICS; JCL; BD IDMS; VSAM
  • Supervisé des programmeurs-analystes produisant les composantes de plate-forme centrale
  • Innovations : conçu et popularisé un protocole d’accès (API multi-occurrences) avec générateur de modules COBOL2, permettant à des applications micro ou centrales de requêter « en ligne » des données reposant sur des BD centrales non relationnelles (forme de SOA + ESB primitif)

 

Analyste principal de l’Infocentre corporatif  Gaz Métropolitain – 1994-10 à 1995-07

 Employé. Analyste principal et responsable technique de l’Infocentre corporatif :

  • Conseillé et répondu aux besoins des utilisateurs et supervisé des analystes et programmeurs des extractions des données sources avec IBM/ MVS; BD IDMS; VSAM; JCL; COBOL2
  • Priorisé et analysé les demandes; créé les méta-données, vues et droits d’accès; assisté le reporting; formé sur l’outil 4GL; suivi et optimisé les performances de l’Infocentre
  • La satisfaction des utilisateurs de l’Infocentre a fortement monté durant mon passage

 

Analyste et programmeur sur plate-forme centrale     Gaz Métropolitain – 1988-01 à 1994-09

Employé. Analyste au développement d’applications sur plate-forme centrale :

  • Réalisé intégralement ou supporté plusieurs applications interactives et lots sur plate-forme centrale avec JCL; COBOL2; CICS; IDMS; IDMS-DC; VSAM; IBM/ MVS
  • Participé activement à l’introduction et la mise en place d’une technologie moderne d’ordonnancement des traitements informatiques sous Control-M

 

Compétences

  • Architecte de données (8 ans BI, 10 ans tot)
  • Analyste technique BI – mapping et autres (8 ans)
  • Architecte d’entreprise / données (1,9 ans)
  • SQL requêtes et scripts sous diverses technologies – voir plus bas (14 ans)
  • SQL sous SQL Server, requêtes et scripts T-SQL (3,0 ans)
  • SQL sous DB2, requêtes et scripts avec Quest (2,6 ans)
  • SQL sous Oracle, requêtes et scripts avec Toad (3,0 ans)
  • SQL sous Teradata, requêtes et scripts fast load, multi load et autres (5,4 ans)
  • MS SQL Server 2008 R2 et outils associés (3,0 ans)
  • SQL Server Management Studio (3,0 ans)
  • MS Visual Studio (3,0 ans)
  • SQL Server Business Intelligence Development Studio (2,0 ans)
  • MS Project (0,7)
  • MS Team Foundation Server (2,0 ans)
  • MS Source Control (2,5 ans)
  • SSIS développement (1,0 an)
  • Power Designer ou Power AMC (8 ans)
  • Visio (14 ans)
  • Produits Redgate tels SQL Compare, SQL Dependency Traker et autres (1,8 ans)
  • Control-M – ordonnancement des traitements (7,5 ans)
  • Unix Shell script ksh (7 ans)
  • Excel (14 ans)
  • VBA Excel (2 ans)
  • MS Access (1 an)
  • MS PowerPoint (4 ans)

Specialties

    BI, DW, ETL, Intégration d'information, ODS, Qualité des données

Langues parlées

    Anglais intermédiaire avec 4 mandats à produire des documents en anglais, Français parlé et écrit - haute qualité

214 total views, 1 today