Se connecterS'abonner en ligne

Les décisions prises au vu des traitements de Big Data sont NOTRE responsabilité

Référence de l'article : MSI5855
ImprimerEnvoyer par mailLinkedInTwitterFacebook
écrit par Olivier SIBONY,(28 Janvier 2017)

Dans les deux premiers articles de cette série sur le Big Data, j’ai montré que le big data risque d’être une machine à inventer des liens de causalité imaginaires, qu’il est souvent une « boîte noire », et que sa fausse neutralité peut nous faire commettre de graves erreurs. HBR et TechCrunch, entre autres, ont publié depuis des articles qui se font l’écho des mêmes préoccupations.
 
Mais bien sûr, on ne va pas renoncer aux données ! Le potentiel de création de valeur est énorme : ceux qui en doutent peuvent lire l’épais rapport du McKinsey Global Institute sur la question.
 
Surtout, même si les données ont des défauts, la décision « au feeling » en a… bien plus ! On n’a pas attendu le big data pour savoir que les décisions humaines sont hautement faillibles, et que les données permettent de les améliorer… même quand elles sont en petit nombre. C’est ce qu’on pourrait appeler le « small data ».

Small data 1, humains 0

Dès les années 1950, Paul Meehl montrait que dans un grand nombre de cas, un algorithme simple et robuste utilisé pour faire une « prédiction statistique » donne de meilleurs résultats que les « prédictions cliniques » des experts. Qu’il s’agisse de psychiatres, de conseillers d’orientation, de juges décidant de mise en liberté conditionnelle, ou d’innombrables autres exemples, l’intuition et l’expertise sont moins efficaces que nous ne le pensons.
 
Surtout, l’expertise est généralement moins efficace que l’utilisation de quelques critères simples. Comme le resume Daniel Kahneman dans Thinking, Fast and Slow :
 
« Environ 60% des études ont montré une meilleure performance pour l’algorithme. Les autres sont un match nul, mais un match nul doit être considéré comme une victoire pour les méthodes statistiques, puisqu’elles sont bien moins coûteuses à utiliser. Aucune exception n’a été démontrée de manière convaincante».
 
Il est frappant de constater qu’à peu près personne ne tire les conséquences de ces études et que le constat de Meehl suscite toujours autant de controverses : quelles que soient les preuves, nous continuons à y résister de toutes nos forces.

Par exemple, Orley Ashenfelter, un économiste de Princeton a proposé un modèle pour prédire les cours futurs des vins de Bordeaux, avec trois variables seulement : la température moyenne de la saison, la pluviométrie de l’hiver, et celle des vendanges. Personne ne l’a pris au sérieux… jusqu’à ce que son modèle démontre qu’il prévoyait mieux la qualité des futurs vins que les experts ! Et je n’ai toujours pas rencontré un seul professionnel des ressources humaines qui soit prêt à renoncer aux entretiens de recrutement. D’ailleurs, je n’y renoncerais pas non plus…

Le déni du small data

Pourquoi refusons-nous d’utiliser des modèles simples à la place de notre intuition ? Et pourquoi, dans le même temps, acceptons-nous d’utiliser des modèles de big data complexes et mystérieux ?
La raison est… humaine ! Accepter qu’un modèle simple et compréhensible fasse mieux que nous, les « experts », c’est se regarder sans fard dans le miroir et constater la médiocrité du jugement humain. Or nous ne sommes pas prêts à l’accepter (surtout si c’est le jugement en question, c’est le nôtre).

On objectera que nous déléguons déjà beaucoup de décisions à des machines : personne ne s’offusque qu’un avion de ligne soit sous le contrôle d’un pilote automatique ; et nous roulerons tous bientôt dans des voitures autonomes. Mais dans ces cas, la machine promet d’être « infaillible » (et reste, en théorie, sous supervision humaine).
Là est la grande différence avec les modèles simples de « small data » : même si, comme le rappelle Daniel Kahneman, ils sont supérieurs aux experts, c’est une supériorité relative. Et nous ne sommes pas prêts à nous en contenter.

Paradoxe du big data : plus c’est incompréhensible, plus on fait confiance

Exemple : supposez que vous puissiez savoir avec précision que le chasseur de têtes à qui vous confiez un recrutement a un excellent jugement dans 75% des cas. Vous le considèreriez comme un grand professionnel ! Accepteriez-vous de le remplacer par une machine, si on vous disait que la machine se trompera une fois sur cinq ? Sans doute pas.
 
Nous acceptons que l’erreur soit humaine, mais s’il s’agit de la machine, nous attendons l’apparence de la perfection. Quand le pilote automatique, présenté comme fiable à 100%, remplace un humain fiable à 99%, nous applaudissons. Mais si un algorithme réduit le nombre d’erreurs d’un cinquième sans pour autant le ramener à zéro, nous n’en voulons pas.

Ce « deux poids, deux mesures » explique le paradoxe de l’utilisation des données : si nous nous jetons dans les bras de modèles « big data » auxquels nous ne comprenons rien, ce n’est pas en dépit de leur opacité, mais à cause de celle-ci. Quand nous évaluons les algorithmes de Meehl — comme la formule d’Ashenfelter pour prévoir la valeur des vins –, nous les comparons à notre propre intuition : ce sont des rivaux dont nous minimisons les talents.

Mais quand on parle de big data, d’intelligence artificielle, voire de « machine learning », il n’est plus question de comparaison : on ne boxe plus dans la même catégorie ! De même qu’un champion d’échecs reste un grand champion même s’il existe des superordinateurs qui jouent mieux que lui, un manager qui utilise du « big data » reste un expert à ses propres yeux.
 
En d’autres termes, si Ashenfelter n’avait pas proposé d’additionner trois chiffres, mais construit un modèle nimbé de mystère et enrobé de buzzwords à la mode, les professionnels du vin ne lui auraient sans doute pas ri au nez. Plus les ordinateurs sont puissants, plus les bases de données sont gigantesques, plus les algorithmes sont incompréhensibles, et plus il sera facile de considérer que notre honneur d’experts est sauf.

Mieux que l’intelligence artificielle : la vôtre

Alors, comment ne pas tomber dans les pièges du big data ? En se souvenant de deux principes que nous enseigne l’utilisation du « small data ».

Le premier est simple : faites l’effort d’ouvrir la « boîte noire » ! Il n’y a aucune raison de ne pas comprendre les critères qu’elle utilise et la logique qu’elle applique. Si l’on vous assure qu’on utilise des méthodes mathématiques si avancées qu’il est impossible de vous expliquer leur fonctionnement, méfiez-vous…
 
Et surtout: si l’utilisation du « big data » vous conduit à des décisions qui vous surprennent, demandez-vous si vous seriez capable de les justifier. Pourriez-vous, par exemple, expliquer de manière convaincante à une personne dont la machine a rejeté la candidature sur la base de quels critères cette décision a été prise ? Car, machine ou pas, la responsabilité de la décision reste entre vos mains.
 
C’est au fond une idée simple que la pensée magique autour du Big Data finit par nous faire parfois perdre de vue : qu’elles soient « big » ou « small », les données doivent éclairer le jugement du manager, pas le remplacer. Et encore moins le dédouaner de ses responsabilités.

_____________________________________________________________________________
Article reproduit avec l'autorisation de l'éditeur :
https://www.contrepoints.org/2017/01/23/278704-big-data-ne-occulter-responsabilite 
 
(Mis en ligne le 28 Janvier 2017)

 
Articles similaires
Comment surfer sur Internet est devenu une drogue...Une synthèse de l'industrie mondiale de...Wannacry : LA cyberattaque, avec rançon à la...Vitesse moyenne d’Internet, la France parmi les...Decodex: Le Monde peut-il impunément dénigrer ses...Big Data : des données pas si transparentes que...De 3615 ULLA à Tinder, les différents business...Attention : votre smartphone sert...Les anti-Adblocker killers : une menace pour la...France : 3ème chaîne d'info gratuite, LCI,...LCP et Public Sénat participeront à la quatrième...Medias : la méfiance grandit. A qui la faute?Le succès d'AlibabaStegosploit : l'attaque par l'imageTouchez pas au grisbiCyber-guerre : la donnée est une armeBig Data: un tournant majeur pour...Comment forcer Google à vous oublier ?Enjeux et défis du web profondFaut-il démanteler l'ogre Google ?Facebook vs LinkedInPublicité: vers le paiement à la performanceGoogle, Amazon et Facebook: le triangle...Les business models du livre à l'ère...Ebola: le virus et les cybervirusPublicités en ligne, des innovations radicalesL’avenir est aux médias de nicheInnovation sur Internet : passer de pirate à...Les MOOCS et la déstabilisation internationale de...Le sell-off sur les valeurs info tech du Nasdaq:...Peut-on désaméricaniser Internet ?Netflix, un coup de canif à l’exception...Presse : retour à l’info payanteRecrutement : l'invasion internetLes médias et l’information : pourquoi tant de...La presse bientôt robotisée ?