Plateforme analytique pour la recherche médicale : défis et opportunités

NHGRI ImageCourtesy: National Human Genome Research Institute

Portez quelques capteurs de santé mobile (IOT) afin de connaître en temps réel votre rythme cardiaque, votre taux de glucose, les calories brûlées pendant la journée ou encore la durée de vos insomnies. Envoyez quelques gouttes de salives pour faire séquencer votre  ADN, tout savoir sur vos origines et accessoirement, découvrir les maladies que vous pourriez développer. Finalement, ajoutez votre dossier médical sur le cloud et vous voilà entré dans la médecine personnalisée.

Avec le prix du séquençage génétique qui a drastiquement diminué, et les algorithmes de machine learning qui évoluent très rapidement, la médecine est en route vers une nouvelle transformation. En effet, depuis que le génome humain a été séquencé en 2003, les progrès technologiques permettent la venue sur le marché de séquenceurs de plus en plus performants et abordables. Selon le NHGRI-funded genome-sequencing group, le coût du séquençage est passé de 100’000’000$ en 2001, à 100’000$ en 2009, 4000$ en 2015 et environ 800$ actuellement. Et ce n’est pas terminé, la compagnie Illumina fait miroiter un séquençage complet aux alentours de 100$ sous peu.

Cette baisse de coûts, associée aux progrès dans le domaine du machine learning, de l’IA ou du cognitive computing, ouvre de nouvelles voies aux chercheurs qui travaillent sur de nouveaux traitements personnalisés pour chaque patient. Cette médecine des 4 P (Predictive, Preventive, Personalized and Participatory) abandonne le «one-size-fits-all-approach» pour adapter la prévention et les traitements en tenant compte des différences génétiques, environnementales et des modes de vie des individus.

Cette nouvelle approche nous propose de beaux challenges, à nous, spécialistes de la donnée.

Les défis sont nombreux : de la consolidation des données à la puissance de calcul, en passant par la sécurisation de ces précieuses données.

Les chercheurs-médecins ne se contentent plus d’un petit jeu de données bien structurées; aujourd’hui, l’ensemble des données d’un patient est nécessaire, les radiographies, les données génétiques, les analyses de laboratoire, le dossier médical, les données des capteurs de santé (Fitbit, Empatica et autres), etc… Il faut donc mettre à disposition des environnements avec des données extrêmement hétérogènes et très gourmandes en espace de stockage. A titre d’exemple, le stockage d’un génome complet pour un patient est d’environ 125GB de données. Ajoutez-y les données d’imageries (radiologie) et on comprend rapidement les enjeux.

Lorsqu’un patient donne son consentement à l’utilisation de ses données pour la recherche, il s’attend à ce que ses données soient stockées de manière ultra sécurisée et utilisées selon les principes dictés par les multiples lois sur la protection des données, la recherche sur l’être humain, le GDPR et autres directives internationales.

Un important travail est alors mis en œuvre pour protéger ces données.

Pour les données génétiques par exemple, qui sont intrinsèquement identifiables, il est essentiel d’utiliser des mécanismes avancés de chiffrement, comme l’encryption homorphique, qui permettent d’utiliser directement ces données dans des traitements, sans jamais devoir les déchiffrer (https://infoscience.epfl.ch/record/229262/files/main.pdf).

Le traitement de l’imagerie est tout aussi complexe puisque certaines radiographiques doivent être anonymisées avant de les mettre à disposition des chercheurs. Il faut ainsi flouter les numéros de prothèses, ou encore le contour du visage, afin de garantir la confidentialité du patient. Un processus complexe, sachant que les appareils d’imagerie prennent des centaines d’images pour une seul coupe.

Le dossier médical du patient contient évidemment une grande quantité d’information bien trop souvent non structurée : les notes des médecins, des lettres de fin d’hospitalisation, l’anamnèse du patient, etc..

Ces documents ont une valeur certaine pour les chercheurs. On va y trouver les diagnostics, les antécédents médicaux, des résultats de tests, parfois des informations sur la parenté, les habitudes de vie, etc…

Toutes ces informations sont sous forme de texte libre et doivent être associées aux autres données du patient. Il faut donc développer des outils pour analyser ces textes et extraire de manière automatique les informations pertinentes, ce que l’on appelle généralement le Natural Language Processing ou Textmining.

Le temps précieux des médecins-chercheurs ne doit pas être gaspillé à analyser manuellement ces milliers de documents, ce qui est souvent le cas actuellement.

Des outils apparaissent sur le marché pour nous aider, mais la complexité est immense. Ces algorithmes doivent savoir détecter les pièges de la langue ; la double négation, les dates relatives (durant l’enfance, le mois dernier), etc… pour extraire des informations fiables pour le chercheur.

Des produits comme par exemple IBM Watson Explorer, Linguamatics, ou d’autres produits open source permettent de structurer ces textes avec plus ou moins de succès. En général, ces produits sont performants en anglais mais l’utilisation dans d’autres langues devient rapidement très problématique et engendre des efforts énormes pour atteindre des résultats similaires.

Ces textes libres doivent également être anonymisés. Il faut donc supprimer toutes les références identifiantes associées aux patients, aux médecins, aux lieux de traitement ou toute autre information qui tombe sous le sceau de la loi HIPAA par exemple. Là encore, des algorithmes sont disponibles mais une personnalisation en fonction du contexte est nécessaire : lexique propre à l’institution médicale, la région géographique (code postal, ville), etc…

Lorsque toutes ces données sont traitées, anonymisées et intégrées par le biais d’un pseudonyme (identifiant aléatoire correspondant à un sujet de recherche), elles peuvent être mise à disposition du chercheur. Le chercheur peut alors commencer son étude. Mais le travail de l’informaticien n’est pas pour autant terminé !

Afin de prévenir toute ré-identification malicieuse, des mesures de protection additionnelles sont parfois mises en place lors de l’analyse des données. En effet, certains attributs non sensibles d’un sujet de recherche pourraient éventuellement permettre de l’identifier en croisant le jeu de données mis à disposition avec d’autres sources de données publiques. Par exemple, une personne ayant une maladie rare, un âge très avancé ou une masse corporelle hors norme pourrait être ré-identifiée.

Afin de garantir la confidentialité des données, des calculs statistiques peuvent être effectués pour identifier les « outliers » et ajouter du bruit sur les résultats des requêtes. Bien entendu, le bruit ajouté est un juste équilibre entre la distorsion de la donnée, pour éviter l’identification du sujet, et le maintien de l’intégrité des données pour le chercheur. Les techniques de « differential privacy » sont alors appliquées pour prévenir ces problèmes. Ce mécanisme permet d’éviter, par exemple, qu’une personne malintentionnée effectue une multitude de requêtes sur un même jeu de données en changeant légèrement un paramètre pour tenter d’isoler un individu. L’algorithme va alors brouiller les données différemment entre chaque requête ou simplement préciser que l’individu se trouve dans une tranche particulière, par exemple > à 80 ans lorsque l’âge peut être identifiant.

La recherche médicale avance à grand pas, les lois et directives protègent les données personnelles et les informaticiens ont pour tâche de réconcilier les deux en mettant à disposition des environnements qui intègrent des données extrêmement hétérogènes, comme nous l’avons vu précédemment, qui garantissent la sécurité des données, qui sont ultra performants et qui puissent évoluer rapidement.

Voilà les défis auxquels les spécialistes IT de la donnée sont confrontés : fascinant, mais déroutant par sa complexité.

Les compétences nécessaires étant tellement pointues et variées (génomique, imagerie, sécurité, machine learning, textmining, data quality, etc…), une collaboration étroite avec le milieu académique est essentielle pour garantir d’intégrer l’état de l’art des technologies pour ce type de projet.

Et tout va très vite. Des initiatives technologiques voient le jour partout dans le monde afin d’accélérer la recherche sur la médecine personnalisée, qui est fort prometteuse.

Au Qatar, une initiative d’une ambition sans précédent vise à obtenir une cartographie génétique complète de la population du pays. Le projet pilote, démarré en 2015, a déjà séquencé plus de 6000 génomes (Qatar Genome Programme http://www.qatargenome.org.qa).

En 2015, le Président Obama a lancé « the precision medicine initiative », qui vise le séquençage de 1M d’individus aux Etats-Unis (https://obamawhitehouse.archives.gov/node/333101).

L’Angleterre (https://www.genomicsengland.co.uk/) a également son projet visant à séquencer 100’000 génomes ou encore la Suisse qui déploie actuellement un réseau de santé personnalisée (https://www.sphn.ch/en.html).

Des compagnies privées se lancent également dans la course. La plus connue, 23andme, possède déjà plus de 1.2M de génomes séquencés dans sa base de données. Elle manque cependant cruellement de données phénotypiques fiables (caractères anatomiques, physiologiques, etc).

Afin de contrer ce problème, d’autres modèles émergent comme Trinetx (https://www.trinetx.com/), qui se positionne comme intermédiaire pour la mise à disposition des données médicales. En effet, ils mettent gracieusement à la disposition des institutions de santé le hardware, le déploiement et le mapping des données (en général extrêmement coûteux) en échange des données médicales. Trinetx possède maintenant un bassin de 84 million de patients dont les pharmas sont très friandes.

Bref, des solutions sont à disposition avec de nombreuses startups, des produits développés par les universitaires et avec les grands acteurs IT (IBM, Oracle, Cisco, Deloitte, etc…) qui se lancent tous dans ce domaine. Mais malgré la compétition féroce, la maturité technologique de ces solutions est encore faible et très peu de solutions sont complètement intégrées. Et jongler avec une multitude de produits est inévitable actuellement.

En tout état de cause, l’informatique pour la recherche médicale est un domaine fascinant, en pleine mutation, et qui pousse les informaticiens dans de nouveaux retranchements pour répondre aux nombreux défis posés par les médecins-chercheurs de la santé personnalisée.

Remerciements à M. Sébastien Rocher et M. Nicolas Rosat pour leur aide précieuse.

Raphael Colsenet / 15 novembre 2017 (Première publication sur décideo.fr le 13 novembre 2017)

 

Advertisements

Messy data is fun.

Perpetuum mobile. Color gears on white isolated background.Whether you are an ETL developer, a business analyst or a data scientist, we all spend way too much time cleaning up and conforming our data set. We are bent on cleaning up our data to try to extract precious and valuable information. We spend long hours preparing our datasets and when we are finally ready to pursue our analysis, a new set of data is available. Then we need to start all over again! We will eventually ask a developer to build a job, if we want the solution to be sustainable. However even with tools like DataStage or Informatica, it’s not always easy to clean up datasets.

These “anomalies” that we seek to correct or structure have multiple origins: unstructured feed of information, human data entry errors,  wrong sensor or automated information, inconsistencies betweens IT processes.

New tools are now appearing on the market to help us quickly structure messy data. The beauty of it is that you don’t need to write a single line of code. Trifacta, for example uses what they call “predictive interaction.” This algorithm analyzes the interactions with the source file and will automatically suggest a list of possible transformations ordered by their probability of relevance. For example, in an unstructured file, after selecting a few email addresses, the program will automatically propose a rule to extract email addresses and display a distribution of data to which the rules apply. This application also facilitates the detection of anomalies, data aggregation based on advanced rules and the resolution of erroneous encoding problems on large sets without writing scripts or complex SQL.

A product a little less mature but also very interesting comes from Mountain View. “Google Refine” works on similar principles as Trifacta. Google Refine can quickly prepare, without coding, a dataset for a visualization tool or analysis. In addition, it is free. Videos are also available to quickly learn the tool.

The main advantage of these tools is to quickly transform a data set to actionable information and to maximize the analytical and decision-making time.

On the other hand, tools such as WhereScape Red can play a similar role to rapidly clean and merge multiple data sources and automate loading into a database. Redscape can also generate SQL code that could possibly serve as a basis for development with a traditional ETL tool or depending on the size of the solution and the company, eventually become the production system itself!

A range of products are now available to provide analysts datasets that can be rapidly exploited by visualization products (such as Tableau Software, SAP Lumira, Qlikview or Yellowfin), tools for predictive or statistical analysis (R, Tibco Spotfire, SAS, SPSS,..) or the good old Excel spreadsheet.

These applications also have some influence on the way we approach the preliminary phases of the BI project, since it is now easier to test our assumptions about data quality and dispersion of the data by performing fast and accurate proof of concepts. Our users can now have data available to validate their needs before the development of the solution starts. It’s another set of tools we can add to our agile project framework to be even more efficient.

In short, this new product line is expanding and certainly deserves the attention of all those for who data is their bread and butter.

Raphael Colsenet – Novembre 2014

Discovery tool; SAP Lumira or Tableau Software?

 Which one should I pick? This is a question I had to face a couple of weeks ago. So I played with each tool for a few days to come up with a decent answer.Colorful business statistics

But first, what is a discovery or visualization tool? The recent emergence of this new generation of BI tools is supposed to help our business users to better understand the amount of data available in the company. How is this supposed to happen? By creating stunning visualizations with an intuitive drag-and-drop interface. The premise of these tools is to deliver sexy environments in order to perform faster and more flexible self-service analysis. The users are able to quickly and with ease merge multiple data sources to produce meaningful information about their business. They no longer have to wait for the IT department to create heavy, expensive and painful solutions. Every sales rep will tell you that their “Discovery tools” are specially built for these kinds of needs.

These “magical tools” could raise a new set of questions about the accuracy of the data. Without any common semantic layer, how can you guaranty that the accounting and marketing departments will come up with the same number? I think that this tool should be used in conjunction with a unified semantic layer. But this is not the purpose of this post.

Let’s get back on track. So, I did a comparison of 2 tools available on the market but many others are available these days, they are popping up everywhere, SAS Visual Analytics, Qlickview and Tibco are only a few among many.

I used a trial version of Tableau (8.0.1) and Lumira (1.0.11) to do my evaluation. I thought that sharing my impressions could be interesting for those who are looking for a similar tool. Obviously, depending on your business context, other tools than Tableau and Lumira may be a better fit. In my case, these two tools were the most appropriate.

Let’s start with Tableau. Tableau is a powerful tool to explore data. Once the main functions are mastered, it is very easy to create meaningful visualizations. Tableau is a very mature tool, with a lot more visualizations and functions available.

Some great functions in Tableau:

  • Ability to use custom maps
  • A single GPS point could have multiple dimensions displayed (gender, age, marital status,…)
  • Very easy to customize the layout and information displayed
  • The visualizations can be integrated into a dashboard and linked to each other.

A training course is strongly recommended to accelerate the use of this tool. The company offers training on site, on line and they also organize a session in major North American cities (http://www.tableausoftware.com/learn/training?qt-training_tabs=3#qt-training_tabs ). The user community is also very active and it is relatively easy to find useful information on the web. Tableau also offers short videos on the web to help the users with the tool. The videos are very well done and fun to watch.

One big downside of Tableau in my evaluation context is the absence of a connector for SAP BusinessObjects 3.x or 4x (BO). According to a Tableau account manager, a beta version will be available to a few users in the coming months.

Until a connector is available, all semantic layers need to be rebuilt by IT or business users with strong knowledge of SQL and the database schema. Maintenance of the semantics layer will also be a constant effort to take into consideration. Despite the fact that no connection is offered to SAP BusinessObjects, Tableau has an impressive list of connectors such as Google Analytics, MapR Hadoop, Salesforce, OData, Microsoft Analysis Services, etc…

The program requires a lot of resources to run adequately. With a data set smaller than 100’000 rows, the performance was good on my computer. With a bigger sample (250’000 rows), Tableau starts to slowdown and closing other applications becomes mandatory. An experienced Tableau’s developer told me to try to keep the data set under 2 millions rows.  The POC was done with a computer equipped with Windows 7 64 bits with an Intel Corei3 2.93Ghz and 6 GB of RAM.

I opened a ticket because of a problem with my graphic card drivers and Tableau technical support was quick and efficient in resolving my issue.

Tableau offers exporting the data set to xls or access. Tableau will automatically create a MS Access database, pretty neat.  The ability to print and print to pdf is also available.

A server version of Tableau is required to share visualizations. A different license is required to access the server. Tableau reader is available for free but need to be installed on the computer.

Due to the intense competition in this market segment, the updates are very frequent. This means new functionalities on a regular basis for the business users but also more work for the windows administrator to package and upgrade the most recent releases.

A cloud version of Tableau is newly offered (500$/user/year) and according to their website has almost the same functionality as the desktop version and the same connectors.  I tried the cloud version (see below the visualization about the best skier nations).. expliquer les diff.

Overall, Tableau is an excellent tool with a lot functionalities and could really help users better understand their data.

Next is a brief review of my experience with Lumira (version 1.0.11)

The tool is very easy to learn. A couple of hours are sufficient to understand the basics and to create visualization. The learning curve for Lumira is slightly quicker than Tableau. This is probably a side effect of the limited number of functions available.

The main advantage of Lumira is the full integration with SAP products and especially BusinessObjects. All semantic layers and filters available in the universe are reusable in Lumira.

The user experience is similar to Webi, the users familiar with the universe will quickly understand the semantic layer in Lumira. The way to filter, exclude and drill through data is extremely well done and intuitive.

The user’s community is not very active on the web, probably due to the young age of the product. The online help and videos offered on the SAP website are not always useful and most of the time boring to watch.

Lumira allows you to export an image by email or export the dataset to excel, csv, SAP Hana, Streamwork and Explorer.

As Tableau, Lumira allows users to have more than one data source in their documents. Lumira offers connections to xls, csv, databases (additional configuration is required), SAP Hana and BusinessObjects 3 & 4.

A predictive module is available in the same interface. This module is also very promising. I saw a demo of the tool but I haven’t had a chance to play with it yet.

Lumira is HTML5 compatible and integrated to SAP BI4 Mobile suite, so the visualizations should be available to tablets and Smartphones.

Overall, the product is less stable than Tableau, in particular when the data source is modified. The installation was difficult and the help of a Windows Administrator might be required to use BusinessObjects universes (files that require administrator privileges need to be copied and updated manually).

This tool is limited compared to Tableau, but the functions available work fine and are easy to use.

Here are a few examples of geospatial limitations in Lumira:

  • Custom maps are not integrated.
  • The maximum point to display on a map is 3000. In my POC this was not enough to display the required information.
  • Only one measure at a time can be displayed on a single point.
  • Only bubble, Choropleth (map in which areas are shaded in proportion to a measure) or pie chart could be displayed on a map.

One interesting function in Lumira is the combination of Lat/Long and measure on a bar chart. Lumira will automatically display the country, region and sub-region on the x axis.

Another problem that will probably be fixed in the future release is the fact that you cannot use time dimension, Lumira only recognizes date dimension. It seems that this problem is specific to certain connectors, such as the one for BusinessObjects.

The integration of Intelli-sense in the editable field is very sharp; it makes it very easy and fast to create new variables or formula.

SAP Lumira helpdesk was also tested and here the service was also excellent.

Updates of Lumira are very frequent and we could assume to the product will evolve significantly in the near future. According to SAP, the focus of the development team for Lumira is SAP Hana; this could have a negative impact if you are planning to use Lumira with BO.

SAP offers a cloud version of Lumira to share and create visualization but right now the data source import is quite limited (csv and xlsx only). The cloud version is licensed as a subscription service with monthly charges with a minimum of a one year term. A free edition is available with 1GB of data. The Enterprise version starts at 24$USD per user.

 

Finally, here is my impression after testing these tools.

The current version of Lumira is not mature enough to justify an investment at this time. However based on the last release, this tool will quickly evolve and more functionalities will be added.

Tableau, on the other hand, is a tool that could potentially help the business users better understand their data. The negative aspect is that IT will have to invest significant amount of time to recreate the semantic layer before the users can use the tool (if you are planning to use a connection to a database).

Based on the cost perspective, both products are aligned (between 990$ to 1999$ depending on data source you want to use). Tableau Desktop is free for students!

If you need to select a tool right now, I think that Tableau is the best option. But SAP seems to invest massively in Lumira and this product could really have a bright future if you are an SAP shop.

Please share your comments or experience with these tools.

Raphael Colsenet – October 2013

2013-10-11 : Last week a new version of Lumira was released (sp12). This new version has a very nice user interface in HTML5 and it is now possible a create storyboards (composite of visualizations), a great feature! The personal version of Lumira is also now available for free! http://store.businessobjects.com/store/bobjamer/en_US/Content/pbPage.sap-lumira?source=text-na-estore-get-lumira&&resid=UlhAQwrR-gIAACnN0P4AAAAM&rests=1381515330685

Ngram Viewer de Google, une autre façon de jouer avec les mots!

Ngram Viewer de Google permet de visualiser en un instant la fréquence d’utilisation de concepts ou de mots-clés à travers le temps! Impressionnant!

Google a maintenant numérisé 20 millions de livres (1/7 des livres depuis Gutenberg!)*. Des milliards de mots numérisés et catégorisés dans différentes langues; anglais, bien entendu, mais aussi français, allemand, espagnol, russe, chinois, hébreu et depuis octobre dernier italien. Un outil fabuleux pour les ethnologues, linguistes et tous ceux qui s’intéressent à la culture!

Quelques exemples sur le BI et le MDM.

Ngram1p

Évolution des mots Master Data Management et Data Governance depuis 1980

Ngram2

Ralph Kimball et Bill Inmon avec un point culminant dans la littérature vers 2002

Essayez! Ngram Viewer

Raphael Colsenet – Avril 2013

*Source : Google research blog – Oct. 2012.

Why MDM is improving BI?

MDM_BI Master data has long been managed through functionalities embedded in operational business applications, which is not a bad strategy if a complete set of enterprise business processes are supported on the same ERP platform.  In reality, we know today that very few enterprises succeed in decommissioning legacy systems and keeping only the ERP platform as a single platform supporting enterprise business.

In the DW/BI context, MDM related issues are quite important since, by definition, DW/BI is based on a consolidated view of enterprise data. Traditionally, DW integrates many heterogeneous source systems with different structures, different business entity definitions and different levels of data quality. In order to integrate these sources in a consolidated view of enterprise data, DW best practice recommends the implementation of ETL processes.

These downstream processes are aimed at solving problems related to inconsistent data structures, lack of data integrity and data quality issues.  The ETL process ends with the creation of a consolidated view of enterprise data in a DW/BI environment. However, the consolidated data view is not always a “single version of truth” since the consolidation process depends on the DW/BI integration rules and goals. Frequently, not all data sources are integrated in DW, or some data is rejected due to the DW/BI approach of managing data quality issues (usually two approaches: the “all or nothing” or the “fix it in ETL” approach) making the DW/BI owner of a “consolidated version of truth”.

The BI/DW approach tries to address the MDM issues through a system integration process and create a local version of master data through a concept of “conformed dimensions”. This approach will, without exception, result in important discrepancies in MD between the BI/DW environment and operational systems since there is no synchronization process back to OLTP.

The main goal for any MDM initiative is to solve problems related to master data upstream and to create a consolidated, unified and clear picture of MD, also known as, the famous “golden record”.  This must be done through a solid process of governance (policies, procedures, ownership) supporting the actions (data capture, integration, sharing) and assuring MD quality (accuracy, timelines and completeness). When the “single version of truth” is available upstream and shared across the enterprise operational systems, DW/BI is sitting on a goldmine. Finally, DW/BI and OLTP speak the same language and report the same results.

Therefore, DW/BI will need to revisit ETL architecture, which should be simplified since the main integration issues are now transferred to the MDM process. ETL as a data quality improvement process will remain part of the DW/BI landscape, some DW/BI specific issues will continue to be treated there.

Your enterprise MDM and DW/BI initiatives must be aligned or part of the same information management program to provide you a best return.  It is not necessary to envisage a “big bang” 3-5 years MDM program. Smaller, bottom-up initiatives can deliver a great value quickly, increase your program visibility and, ultimately, help you obtain the necessary support to go forward with your program.

Cube Groupe Conseil Inc. – Novembre 2012

MDM dédié ou multidomaine?

Silos
Deux tendances sont présentes sur le marché des solutions MDM. Des applications MDM très spécifiques à un processus d’affaires comme les CDI ou PMI et une deuxième tendance qui se dit multidomaine. Ces dernières sont des plateformes capables d’évoluer pour prendre en charge plusieurs domaines de données. Un débat intéressant a lieu concernant les deux approches.

Les applications MDM spécialisées couvrent une seule problématique d’affaires, mais avec beaucoup de précision. Ainsi, une multitude de fonctionnalités prédéfinis sont disponibles par défaut pour un domaine de données particulier, par exemple; les fonctions de comparaison du nom et de l’adresse du client, du numéro d’assurance sociale, etc.

Cependant, certains voient ceci comme contradictoire, puisque cette approche va renforcer la création de silos de données à l’intérieur de l’entreprise.

Il sera alors très difficile de capitaliser sur l’investissement pour étendre les fonctionnalités de l’application MDM à d’autres logiques d’affaires qui doivent être corrigées. De plus, il faut maintenir une expertise spécifique dans le groupe TI pour chaque plateforme MDM ou domaines de données. Les fervents de l’approche multidomaine font valoir qu’une plateforme MDM génère un retour sur investissement plus important, accélère les délais de livraison et donc réduit le TCO. L’approche multidomaine analyse la problématique d’affaires pour ensuite se concentrer sur le modèle de données et l’interface utilisateur. Ainsi, il est plus facile de faire évoluer la plateforme pour intégrer de nouveaux domaines de données cohérents avec ceux déjà existants. On unifie les méthodes et outils de développement MDM pour réduire les coûts, les délais et les compétences requises.

MDMMultidomaine

Prenons l’exemple d’une entreprise qui oeuvre dans le domaine financier, avec le temps et l’acquisition d’autres compagnies, cette dernière possède plusieurs applications pour gérer ses produits. Le service marketing et le service financier font part des difficultés d’obtenir une vision harmonisée et globale de la gamme de produits offerte au sein de l’entreprise.

La solution toute désignée pour résoudre ce problème est une initiative MDM. L’entreprise s’engage alors dans l’acquisition d’une application PIM. À la suite du projet, la problématique semble résolue, mais la comptabilité soulève maintenant une nouvelle problématique, celle des conseillers en placement qui à travers les différents systèmes transactionnels possèdent des codes différents, ce qui complique énormément le calcul des commissions sur les produits. Il faudra donc maintenir une deuxième application. En ayant opté pour un MDM multidomaine, il sera possible de capitaliser sur l’investissement préalable en privilégiant l’extension de l’application MDM existante.

En bref, l’approche MDM multidomaine permet de résoudre un problème d’affaires tout en se positionnant pour prendre en charge ceux à venir. Les applications MDM quant à elles viennent combler une difficulté précise, très spécifique en déployant des outils spécialisés.

Raphael Colsenet – Septembre 2012

%d bloggers like this: