Trois lectures sur les algorithmes

Pour bien commencer l'année 2017, j'ai eu le plaisir d'animer un atelier au Club de la presse de Strasbourg. Le thème retenu : les algorithmes, rien de moins !

Ce sujet brûlant d'actualité a été l'occasion de plonger le nez dans quelques lectures, dont je retiendrai surtout trois ouvrages.

Trois livres sur les algorithmes

Le savoir scientifique après les grands récits

A la fin des années 1970, le philosophe Jean-François Lyotard rédige un rapport sur l'état du savoir au XXe siècle pour le gouvernement du Québec.

Edité ensuite sous le titre de La condition postmoderne, ce livre très dense s'articule autour d'un paradoxe : le savoir scientifique, produit par une méthode opposée au savoir narratif, considère ce dernier comme un réservoir de fables. Pourtant il n'hésite pas à l'invoquer pour asseoir sa légitimité.

C'est par exemple le cas lorsqu'une nouvelle découverte scientifique est présentée dans les médias comme une épopée. Par extension, la science trouve sa légitimité en s'inscrivant dans ce que Lyotard nomme des métarécits.

Mais le milieu du XXe siècle est marqué par l'incrédulité face aux grand récits qu'étaient la dialectique de l'Esprit chère à Hegel ou l'émancipation de l'humanité propre aux Lumières.

Et avec l'avénement d'une société informatisée, le savoir devient une marchandise d'autant plus monnayable qu'elle peut se trouver validée sur des critères de performances plutôt que sur un caractère vrai ou juste.

La condition postmoderne

Il n'y qu'un pas entre ce constat et l'ère de post-vérité diagnostiquée depuis le Brexit et l'élection de Donald Trump.

Du point de vue de la vérité, il est impensable de présenter des mensonges comme des "faits alternatifs". Mais cette stratégie orwellienne a du sens si on raisonne en bête rapport input/output :

  • elle conforte à peu de frais une base de fidèles sceptiques envers le discours des médias classiques
  • cerise sur le gâteau, elle consolide un récit qui n'a aucun intérêt à reconnaître ses faiblesses puisqu'il entend devenir performatif

Sans offrir de réponse clé en main, l'essai de Lyotard décortique très bien les mécanismes qui amènent à la délégitimation d'un type de discours. Et réussit à traverser quarante ans de bouleversements techniques sans avoir pris une seule ride !

En songeant aux algorithmes

Le sociologue Dominique Cardon a publié fin 2016 un essai intutilé A quoi rêvent les algorithmes.

On notera d'emblée le clin d'oeil au légendaire Philip K. Dick et ce qu'il sous-entend en comparaison de Les androïdes rêvent-ils de moutons électriques ? : qu'une création technique de l'homme pourrait le supplanter jusque dans sa capacité à rêver.

Avant d'en arriver aux big data, Cardon détaille une typologie de quatre familles de calcul, chacune correspondant à un âge précis d'Internet :

  • les algorithmes placés à côté de leur objet. C'est par exemple le cas des premiers compteurs de visiteurs qui ont fleuri sur les pages web à la fin des années 1990. Des services comme Google Analytics ne sont que des versions améliorées de cette première famille de calculs.
  • les algorithmes placés au-dessus de leur objet. On convoquera le sacro-saint PageRank de Google, un calcul qui prend de la hauteur pour cartographier le web et choisir les pages qui font le plus autorité
  • les algorithmes placés dans leur objet. Un seul terme à retenir : Web 2.0. On y trouve pêle-même likes Facebook, retweets, etc etc...
  • les algorithmes placés en-dessous de leur objet. La notion à la mode est l'apprentissage automatique (machine learning en version originale).

A quoi rêvent les algorithmes

Cette ultime famille de calculs est capable de digérer des gigantesques masses de données (big data, donc) pour dresser des modèles prédictifs.

Si l'algo détecte après avoir traité une tonne de données que des gens se renseignent sur un aspirateur cyclonique trois semaines après avoir commandé La condition postmoderne, il va se servir de cette corrélation pour suggérer au prochain internaute qui se penche sur Lyotard des publicités ciblées.

Du genre glouton, ce type d'algo va réclamer toujours plus de données personnelles, et ses promoteurs militer en faveur de systèmes plus intrusifs pour les récolter. Il va en résulter :

  • un traitement de corrélations sans se préoccuper de leurs causes : les calculs sont tellement puissants qu'ils n'ont plus besoin de tester plusieurs hypothèses
  • une haute personnalisation des résultats de l'algorithme sans qu'on puisse faire d'hypothèses sur les étapes que suit l'algo. C'est un peu comme si une recette de cuisine ne donnait jamais le même plat à l'arrivée !
  • une critique tout sauf simple : les algorithmes nous enferment-ils dans des zones de confort ou sont-ils simplement notre reflet ? Est-ce que l'intelligence artificielle Tay est raciste ou est-ce que ce sont les twittos qui ont interagi avec elle ? Autant demander qui de la poule ou de l'oeuf était là en premier !

Le problème vient peut-être moins des algorithmes que de leurs concepteurs. Ces derniers n'oeuvrent pas pour la seule beauté du geste, ils cherchent à produire des effets bien précis tout en étant d'incorrigibles cachottiers...

En définitive, les algorithmes fournissent une carte du web facilitant la vie des internautes, suggèrent aussi bien un achat utile qu'une personne susceptible de nous plaire. Mais ils tracent aussi une route sans aucune alternative possible...

La dangereuse négation du politique

Le mirage numérique d'Evgeny Morozov est un livre au propos très subversif. Le chercheur biélorusse entend tordre le cou à un discours très optimiste récité depuis la Silicon Valley.

Une idée selon laquelle des services comme Uber se seraient affranchis de la politique classique, qu'ils dessineraient un nouveau monde dictés par leur propre grand récit.

Nenni !, réplique Morozov. Tous ces business ne sont pas nés par génération spontanée. La preuve, ils reproduisent les inégalités du monde qui les a vu éclore :

  • d'un côté, des personnes peuvent gagner des revenus supplémentaires en devenant chauffeur Uber ou en louant une chambre sur Airbnb
  • en contrepartie, ces "prestataires" doivent fournir des données personnelles (géolocalisation, adresse...)
  • de l'autre, les personnes disposant de moyens suffisants peuvent en profiter sans jamais que les prestataires arrivent à égalité avec eux
  • tout en étant moins espionnés que les autres

Le mirage numérique

Morozov soutient que ces grandes entreprises ne changent pas le monde, qu'elles ne renversent jamais l'ordre établi, qu'elles collent juste quelques rustines par ci par là.

Par exemple :

  • si une personne est à 100 euros près chaque mois, un génie de la Silicon Valley pourra lui proposer d'utiliser une application lui permettant d'économiser ces 100 euros
  • en échange d'informations budgétaires susceptibles d'être revendues à des publictaires, cela va sans dire
  • mais à aucun moment les causes politiques qui conduisent plusieurs gens à être dans le rouge chaque mois seront questionnées. Pire : elles seront validées par cette pure négation !

A partir de là, tout problème n'est plus appréhendé comme les conséquences de choix politiques mais comme un défaut d'information.

La solution est toute trouvée : il suffit de récolter cette information, quitte à encourager des systèmes de plus en plus intrusifs et à prétendre qu'on finira par avoir une vision "objective" du monde par les données.

C'est exactement la promesse faite l'an dernier au gouvernement français par un jeune data scientist : le chômage peut être résorbé simplement en traitant mieux les informations. Un an après, les résultats se font toujours attendre...

Les promoteurs de ce solutionnisme, non contents de réclamer la transparence pour tous tout en se gardant le droit d'agir en toute opacité, confortent en plus les hommes politiques dans une pratique du pouvoir axée uniquement sur la gestion.

En bref ce Mirage numérique est une lecture aussi salutaire que critique !

Par Raphaël da Silva dans la catégorie
Tags : #algorithmes, #big data,