La valeur nette : la création de nouveaux usages
Respecter le cycle de vie de la donnée permet de dégager une première valeur marchande que nous avons appelé valeur brute. Cela permet de faire de la donnée un actif commercialisable qui peut être retrouvé dans le compte de résultat d’une organisation. En réalité, la majorité des organisations se servent de la donnée pour améliorer leur performance opérationnelle ou créer plus de valeur pour les consommateurs : elles créent une nouvelle valeur à partir de la valeur brute de la donnée. C’est ce que nous appelons valeur nette. Tout l’enjeu est ici de faire naître des cas d’usages permettant, grâce à l’utilisation des données, d’optimiser l’entreprise ou de permettre son développement.
Les cas d’usages peuvent être de deux natures :
- soit ils sont internes et concernent l’excellence opérationnelle, l’amélioration produit et l’amélioration des processus managériaux,
- soit ils sont externes et fonctionnement au travers du modèle d’Open Data, de la collaboration ou de la vente des données.
Dans tous les cas, et comme nous le verrons, l’enjeu majeur est l’émergence des cas d’usages qui permet de mettre en place des stratégies de données adéquates.
L’USAGE INTERNE
LA DONNEE POUR AMELIORER L’EXCELLENCE OPERATIONNELLE
Le premier usage de la donnée concerne l’optimisation des processus existants de l’organisation et la réduction des coûts, l’augmentation de la productivité ou l’amélioration de la qualité. La poursuite de ces objectifs nécessite l’installation de capteurs sur l’ensemble de la chaîne de production et de distribution. Une fois les données remontées et stockées, le traitement de ces très larges volumes de données permettront de générer l’information nécessaire soit à la prise de décision, soit à la modification en temps réel de la production grâce à une boucle de rétroaction sur les machines. Ces informations permettent d’agir sur quatre points de la chaîne de valeur :
- Logistique : La logistique peut être fluidifiée en équipant les produits et les entrepôts de capteurs. Un contrôle en temps réel des colis expédiés et reçus en magasin peut être mis en place conduisant à un gain de temps sur le contrôle des colis et à une optimisation de la ligne de production.
- Stock : Le gain de temps lors de l’inventaire est majeur (comparé aux inventaires manuels) et permet de faire baisser les coûts par le contrôle des pertes et la réduction de la masse salariale annuelle.
- Qualité : L’augmentation des contraintes réglementaires tout secteurs confondus impose aux organisations une traçabilité accrue des produits et services. Grâce aux capteurs placés à l’intérieur des produits, il est possible de suivre en détails tout le processus de production, de la réception des éléments jusqu’à l’expédition du produit fini.
- Maintenance : Les capteurs permettent d’obtenir une vision en temps réel de l’état du matériel, permettant ainsi d’anticiper les pannes sur la ligne de production ou de distribution afin d’éviter son arrêt complet. Les informations adéquates peuvent également être envoyées aux équipes techniques permettant de diminuer le temps alloué à chaque réparation. On peut même envisager une maintenance prédictive à partir de la modélisation permise par l’analyse des données corrélées à l’analyse des risques. Ce point est particulièrement important dans certaines industries comme l’aéronautique ou l’automobile.
- Commercialisation : Les produits sont automatiquement détectés et scannés lors du passage en caisse. Le prix et ses réductions éventuelles sont automatiquement contrôlés pour éviter toute erreur. Le capteur pouvant servir d’antivol, une réduction importante des pertes et des vols est possible.
LA DONNEE POUR AMELIORER L’OFFRE
La démultiplication des points de contacts physiques ou numériques avec les consommateurs permet aux entreprises de multiplier les moyens de collecte et le type de connaissances sur leurs consommateurs. Qu’elle soit collectée directement en magasin par les vendeurs, grâce à des capteurs dans les produits, ou lors d’interaction sur les réseaux sociaux la donnée est l’élément qui permet de comprendre le comportement des clients, d’anticiper leurs attentes et de percevoir où réside la valeur pour chacun. En répondant à ces besoins, l’entreprise augmente la satisfaction et la fidélisation client. En retour, l’augmentation des interactions des clients avec l’organisation génère davantage de données qui permettent d’approfondir et d’affiner la connaissance du consommateur. Par ailleurs, la relation entre la marque et le consommateur est d’autant plus renforcée et intime, induisant une plus grande fidélisation et favorisant la recommandation, action ultime du funnel d’acquisition de clients.
Si l’entreprise parvient à personnaliser l’ensemble de son offre elle constitue alors un écosystème vertueux et auto-alimenté qui attire et fidélise le client et maximise la valeur de chacune des parties prenantes. Cette valeur résiduelle, permet de dégager un avantage compétitif décisif.
Pour parvenir à personnaliser leurs offres, les entreprises se dotent de technologies qui permettent de contextualiser les informations dont elles disposent, en intégrant dans leurs analyses des données non-structurées ou des données externes. On a expliqué auparavant que la majeure partie des données exploitables pour l’entreprise sont présentes sous forme de données non-structurées, dès lors leur exploitation et leur croisement représentent un potentiel de valeur et de connaissances important encore largement sous-exploité par les organisations.
La start-up Price Match, rachetée par Priceline (Booking.com) en 2015, a par exemple créé un algorithme qui analyse la concurrence, l’historique des réservations, le taux de change et la météo pour suggérer aux hôteliers une politique tarifaire parfaitement adaptée à la demande. Cette contextualisation des données au-delà de la simple analyse permet de créer une valeur supplémentaire en adaptant l’offre en temps réel. Pour le consommateur, la valeur ajoutée du service réside dans la flexibilité des prix qui permet l’adéquation avec son propre budget. A l’extrême, l’hyper-personnalisation représente un marché de niche, très demandé par certains secteurs industriels ou dans le luxe. Elle permet une relation de proximité inégalée avec le client.
LA DONNEE POUR AMELIORER LES PROCESSUS MANAGERIAUX
Le recours aux analyses de données a deux conséquences managériales majeures :
- La prise de décision est plus objective et factuelle. Des éléments plus impartiaux sont rendus disponibles, réduisant la part de l’intuition dans la prise de décision, ce qui nécessite un accompagnement spécifique.
- Le raccourcissement des cycles de décisions. L’information est disponible quasi instantanément grâce aux analyses en temps réel de très larges quantités de données. La détection d’une tendance est aujourd’hui de quelques heures en comparaison de plusieurs semaines d’études dans le passé.
Quatre modèles d’analyses allant de l’informatif au prescriptif sont disponibles :
- La description. Elle permet de répondre à la question « que s’est-il passé ? » ou « que se passe-t-il ? ». C’est le reflet d’une situation présente ou passée. Les données collectées sont compilées et analysées pour fournir une photographie, une description précise de l’organisation qui sert de support à la prise de décision, comme l’historique de l’évolution du chiffre d’affaire d’une entreprise par exemple
- Le diagnostic. Il permet de répondre à la question « pourquoi cela s’est-il passé ? ». Ils servent à identifier l’origine et les causes d’une situation. Ce type d’information s’obtient par une analyse poussée des corrélations entre différentes variables. Par exemple, pour comprendre les raisons d’une baisse de son chiffre d’affaire, un diagnostic analysera l’évolution des paramètres « nombre de clients », « montant du panier moyen » ou « nombre de produits vendus » pour mettre en exergue leur impact individuel sur le chiffre d’affaire.
- Les analyses prédictives. Elles permettent de répondre à la question « que va-t-il se passer ? » grâce à des modèles probabilistes. En stratégie ou en veille, l’analyse probabiliste est utilisée pour estimer l’impact d’une décision stratégique sur la performance d’une entreprise et son environnement. Les algorithmes de référencement de Google (hors publicité) et les recommandations d’Amazon fonctionnent sur ce modèle.
- Les analyses prescriptives. Elles permettent de répondre à la question « Comment cela peut-il se passer ? » basés sur un ensemble de calculs algorithmiques simultanées d’une multitude de scénarios. Ces analyses font émerger un scenario optimal. C’est sur ce modèle (fondé sur la théorie des jeux) que fonctionne le GPS.
L’USAGE EXTERNE
La donnée n’a pas qu’une utilité interne. Elle peut aussi être valorisée à l’extérieur des murs de l’entreprise et donner lieu à des échanges, qu’ils soient monétisés ou non.
LA DONNEE GRATUITE : LE MODELE OPEN DATA
Les stratégies Open Data mise en place au cours des 10 dernières années, ne permettent pas de quantifier économiquement les retombées à cours termes de l’Open Data. En conséquence, les politiques d’ouvertures de données ont trois objectifs de long terme :
- Faciliter la circulation des connaissances
- Générer des externalités positives
- Dégager des bénéfices sociaux.
Des politiques d’Open Data sont aujourd’hui menées par le secteur public et le secteur privé mais poursuivent des objectifs différents :
- L’objectif de l’Open Data gouvernemental est d’améliorer la transparence des politiques publiques, favoriser la collaboration entre les institutions, réduire les coûts administratifs et stimuler l’innovation de nouveaux produits et services.
- L’objectif de l’Open Data dans le secteur privé rentre en opposition avec la valeur des informations qui peuvent être valorisées par un produit ou un brevet (vente, licence d’exploitation, etc.). La mise à disposition par une entreprise de ses données en Open Data est donc stratégique et poursuit deux objectifs :
- Créer un écosystème permettant à une innovation d’être adoptée plus rapidement (c’est le cas de Tesla qui ouvre ses brevets pour permettre à ses concurrents de rattraper leur retard et de développer le marché de la voiture électrique)
- Ouvrir son produit dans une logique de plateforme pour permettre l’accélération de l’effet de réseau (Facebook permet aux développeurs de créer des d’application pour sa plateforme afin de multiplier les services annexes et d’augmenter la valeur d’usage du réseau pour les utilisateurs.
L’ECHANGE DE DONNEES
La première saison du Bengs Lab, portant sur l’économie de partage, a démontré que le partage des ressources entre plusieurs entreprises permet d’optimiser la valeur des actifs latents. Les données font également partie des actifs pouvant être partagés, échangés par plusieurs entreprises pour en augmenter la valeur nette.
L’échange de données entre entreprises permet de dégager deux types de valeurs :
- Augmenter le nombre de cas d’utilisation des données et donc la valeur d’usage de celle-ci.
- Augmenter la collaboration et le partage des connaissances entre les entreprises. Dans une logique d’Open Innovation, cela permet à l’entreprise de maximiser son intégration à son écosystème et donc son adéquation au marché.
Néanmoins, le partage de tout actif incorporel soulève des enjeux importants en termes de réglementation. La loi interdit en particulier le partage des données lorsque celles-ci sont soumis aux législations relatives :
- aux lois de protection des données personnelles,
- à la propriété intellectuelle ou à un accord de confidentialité,
- à la création d’asymétries d’information nuisant à la libre concurrence.
LA DONNEE TARIFEE : VERS LA CREATION DE NOUVEAUX MODELES DE REVENUS
La dernière valeur externe de la donnée est sa valeur monétaire. Une entreprise peut décider de vendre ses données à des acteurs ayant identifié des usages propres à leur activité mais qui n’ont pas accès aux données nécessaires pour les formaliser. Les vendeurs de données sont de deux ordres. Soit ce sont des entreprises qui revendent leurs propres données, soit ce sont des acteurs spécialisés appelés des « data-brokers » qui licencient des données à d’autres entreprises après un processus d’agrégation, d’analyse et de nettoyage.
Pour déterminer la valeur d’une donnée, il existe trois modes de calculs selon Chignard et Benyayer :
- La tarification à prix coûtant. Il s’agit d’additionner les coûts fixes de production d’une donnée : le prix des capteurs et des réseaux de transport auquel on ajoute une marge.
- La tarification à l’usage. Celle-ci est définie en fonction du gain financier obtenu par l’utilisateur. Néanmoins, la valeur de la donnée n’est pas toujours connue au moment de la transaction par le vendeur (créant une asymétrie d’information), ou par l’acquéreur lui-même (la donnée pouvant être utilisée dans plusieurs cas).
- La tarification de marché. La valeur d’échange est définie suivant le rapport de l’offre et de la demande. Dans cette configuration, c’est la rareté de l’actif « donnée » ou du moins la difficulté de son accès qui lui confère sa valeur