Faire la morale ou la critique des algorithmes?

J'ai dévoré le dernier essai de Martin Gibert, Faire la morale aux robots, qui présente une introduction très claire et stimulante à l'éthique des algorithmes. Avec un style à la fois pédagogique et humoristique, il fait entrer en dialogue les grandes approches de philosophie morale (utilitarisme, déontologisme et éthique de la vertu) avec les problèmes pressants posés par le développement de l'intelligence artificielle (IA). Ce petit livre d'éthique appliquée deviendra sans doute un classique des cours de philo au cégep.

Ceci dit, les enjeux abordés dans ce livre représentent une infime partie de la réflexion nécessaire sur l'IA et ses nombreux impacts sur nos vies. Martin Gibert se pose avant tout la question de savoir comment programmer des robots vertueux, et non si nous avons besoin des robots, et à quel prix. Il le souligne d'emblée dans son introduction: « La question posée par l’éthique des algorithmes, c’est donc celle de savoir quelles règles implanter dans les robots, et comment le faire. Ce n’est pas la même chose que l’éthique de l’intelligence artificielle. Celle-ci correspond à la branche de l’éthique de la technologie qui évalue les systèmes d’IA et se demande s’ils sont bons pour nous. Faut-il développer des voitures autonomes, des robots militaires ou des robots sexuels? Faut-il accepter toute nouvelle technologie sous prétexte qu’elle serait plus efficace ? Quelles conséquences sur notre vie privée, sur les relations humaines ou sur la crise climatique? »[1]


Ainsi, le livre n'aborde pas les impacts de l'IA sur notre système économique, les dispositifs sécuritaires, les relations sociales, la sphère politique, etc. Il n’interroge pas non plus les impératifs et les mécanismes qui orientent le développement de ces technologies (dont les finalités sont d’abord de nature économique plutôt qu’humanitaire), ni leur imbrication dans des systèmes sociaux plus larges. Or, comme le souligne Rob Kitchin dans son article Thinking critically about and researching algorithms (2017), les algorithmes peuvent être étudiés de plusieurs points de vue (mathématique, informatique, politique, économique, juridique, philosophique, sociologique), ils sont encastrés dans des assemblages sociotechniques vastes et complexes, et ils posent notamment le défi de la « boîte noire » lié à leurs modes de fonctionnement opaques. Une multitude d’auteur·e·s soulignent d'ailleurs que les algorithmes sont insérés dans des relations de pouvoir, et qu’ils constituent eux-mêmes une nouvelle forme de pouvoir
sui generis: algocratie, gouvernementalité algorithmique, etc. Comme le note Nick Diakopoulos : « We’re living in a world now where algorithms adjudicate more and more consequential decisions in our lives... Algorithms, driven by vast troves of data, are the new power brokers in society. »[2]
 

Or, la perspective adoptée dans Faire la morale aux robots est celle de l'éthicien professionnel qui, placé devant un objet algorithmique quelconque, se demande comment bien le paramétrer. L'algorithme est considéré comme un donné, un objet trouvé devant soi et qui doit être bien programmé, plutôt que sous la forme d'un problème ou d'un élément inséré dans des rapports sociaux et un processus historique plus large. « Comment programmer les robots de façon morale? Voitures autonomes, assistants virtuels, algorithmes de recommandation, robots militaires ou artistes, robots de soin: je regarde les gens dans le bus et je me demande ce que le développement de l’intelligence artificielle changera à leur quotidien. J’entrevois aussi un problème difficile, mais pas insurmontable: comment programmer les robots en fonction de principes moraux qui puissent satisfaire tout le monde? » [3]

Dès lors, l'existence et la pertinence sociale des robots n'est pas questionnée; elle est présupposée comme allant de soi, la question étant surtout de bien les fabriquer afin que ceux-ci deviennent de bons agents avec lesquels il sera facile d'interagir. L'éthique des algorithmes vise dès lors à faciliter la fabrication des robots qui apparaîtront spontanément comme des objets familiers du quotidien, des compagnons sur qui nous pouvons compter et baser notre confiance.
« D’un point de vue pratique, on veut plutôt qu’ils soient de bons voisins. Les gens veulent que leurs voisins aient la capacité de répondre avec flexibilité et sensibilité dans des environnements réels et virtuels. Ils veulent avoir l’assurance que le comportement de leurs voisins suivra des normes, et qu’ils pourront avoir confiance en eux. Voilà, me semble-t-il, le sésame pour une bonne programmation. On veut pouvoir faire confiance aux robots. » [4]

L’approche théorique préconisée consiste à combiner des notions issues de l’éthique normative, la psychologie morale, l’informatique affective, les expériences de pensée et la science-fiction, afin d’interroger les interactions entre les individus et les machines sans contextualisation sociale ou historique. Gibert mentionne bien sûr les biais des algorithmes qui peuvent reproduire certaines formes de racisme ou de sexisme. Mais l’objectif ici n’est pas de questionner le capitalisme, ni de comprendre comment les algorithmes renforcent le patriarcat, le racisme et le colonialisme d’un point de vue global. La visée, plus modeste, consiste plutôt à guider ingénieur·e·s et informaticien·ne·s pour que les algorithmes puissent limiter les discriminations. « Peu importe le degré d’objectivité morale, et peu importe qu’on soit relativiste ou réaliste, on devrait pouvoir s’accorder sur certains principes de base: pas de racisme, pas de sexisme, pas de classisme, et le plus d’égalité possible entre les individus. Voilà, je crois, une bonne piste pour les programmeuses. Où trouver les principes pour paramétrer de bons algorithmes ? En regardant, lorsque c’est possible, sous le voile d’ignorance. »[5]


Mon commentaire ici ne vise pas directement les thèses de Gibert, notamment celle de miser sur l’éthique de la vertu plutôt que sur des robots utilitaristes ou déontologistes. Je souhaite seulement mettre en lumière les limites, sur les plans éthique, politique et épistémologique, d’un individualisme méthodologique couplé d’une approche normative qui fait abstraction des rapports sociaux et des relations de pouvoir qui guident le développement effectif des technologies algorithmiques. La réflexion sur ce que devrait être un robot idéal fait écran aux raisons qui motivent le développement des robots en général, et à l'analyse des conséquences liées à leur multiplication dans différentes sphères de la vie sociale: marché du travail, santé, éducation, vie quotidienne, espace médiatique, prisons, services policiers, armée, administration publique, etc.


Dans l’abstrait, j’aimerais certes que mon assistante personnelle Alexa ou Siri soit plus vertueuse, mais plus fondamentalement, devrait-on confier toujours plus d’aspects de nos existences, de nos décisions personnelles et collectives à des algorithmes développés d’abord et avant tout pour extraire nos données, augmenter la puissance technologique de grandes plateformes monopolistiques, et orienter nos comportements « pour notre propre bien », en généralisant l’usage du nudge comme manière de réguler les conduites et d’augmenter la prédictibilité des algorithmes? En voulant rendre les robots vertueux, ne risque-t-on pas de programmer des agents moins faillibles que l’« individu moyen », et par le fait même, de se faire faire la morale par les robots qui seront plus efficaces et vertueux que nous? Ceux-ci nous conseilleront toujours davantage, ou pourront prendre carrément des décisions automatisées à notre place, comme le préconisent les adeptes du fully automated decision making[6], dont la logique opère déjà dans le monde des entreprises friandes des algorithmes pour accroître leur productivité et compétitivité.


C’est pourquoi il devient urgent de développer une « théorie critique des algorithmes », c’est-à-dire une démarche transdisciplinaire qui vise à comprendre et critiquer les multiples ramifications de la logique algorithmique, ses dispositifs, sa culture et sa dimension idéologique, en mobilisant les outils des sciences sociales et de la philosophie pour débusquer les relations de pouvoir liés à ces nouvelles technologies. Les enjeux sociaux, économiques, éthiques et politiques soulevés par l’essor fulgurant des algorithmes devraient être analysés comme des phénomènes liés aux structures sociales, institutionnelles, économiques et culturelles de la société actuelle, plutôt que par des facteurs strictement techniques, individuels, moraux et psychologiques qui sont les principales dimensions analysées dans le champ émergent de l'éthique des algorithmes.

 

Bien sûr, cela n’empêche pas qu’il soit également nécessaire, parallèlement, de guider moralement le développement des algorithmes qui sont créées à grande vitesse de toute façon, souvent à notre insu. Si des éthiciens veillent au grain pour accompagner le développement des algorithmes, cela est certainement préférable à leur développement aveugle. Cela dit, il est tout aussi essentiel d’interroger les impératifs et les mécanismes qui président ce développement technologique qui est intimement lié à la reconfiguration du capitalisme, lequel pourrait bien, via ces nouveaux outils, renforcer son emprise sur nos vies. C’est pourquoi j’invite toutes celles et ceux qui s’intéressent à cet enjeu central du XXIe siècle, à lire attentivement le livre passionnant de Martin Gibert, mais aussi à explorer la littérature foisonnante des perspectives critiques sur les algorithmes : Soshana Zuboff, Antonio Casilli, Antoinette Rouvroy, Cathy O’Neill, Frank Pasquale, Adam Alter, Couldry & Mejias, Evgeny Morozov, Ruha Benjamin, etc.

En complément, un article introductif à l’éthique de l’intelligence artificielle de Martin Gibert propose un portrait plus complet des enjeux liés aux algorithmes, qui peuvent à la fois servir l’humain, asservir l’humain, remplacer l’humain, surveiller, discriminer ou manipuler l’humain. Au final, une éthique de l’intelligence artificielle ne saurait être complète sans une théorie critique des algorithmes, sans quoi la première risque de servir à programmer des robots vertueux au service du capital et de l'ordre social dominant. 




[1] Martin Gibert, Faire la morale aux robots, Atelier 10, Montréal, 2020, p. 13
[2] Diakopoulos, Nick (2013). « Algorithmic accountability reporting: On the investigation of black boxes. A Tow/Knight Brief ». Tow Center for Digital Journalism, Columbia Journalism School. Retrieved from http://www.nickdiakopoulos.com/wp-content/uploads/2011/07/Algorithmic-Accountability-Reporting_final.pdf

[3] Martin Gibert, Faire la morale aux robots, op. cit., p. 12.
[4] Ibid., p. 74.
[5] Ibid., p. 77.
[6]
Andrew McAfee, Erik Brynjolfsson, Machine, Platform, Crowd : Harnessing our Digital Future, W. W. Norton & Company, New York, 2017.

Commentaires

  1. Harrah's Hotel & Casino - Mapyro
    Harrah's Hotel & 전주 출장마사지 Casino is located in the heart of Las 문경 출장안마 Vegas, Harrah's Las Vegas 통영 출장안마 Casino Hotel, opened in 1993, the resort is located in the middle 울산광역 출장안마 of the Strip 태백 출장샵

    RépondreSupprimer
  2. Anyone who has been selected to play in any international or home match that falls under the jurisdiction of any national cricket federation inside the previous 24 months (defined by the ICC as a "participant"). The likelihood implied by the odds should be higher than the true likelihood for each potential end result to guarantee positive expected revenue. Bookmakers often hold an 11–10 benefit over their customers—for small wagers it's nearer to a 6–5 advantage—so the bookmaker will most likely survive 1xbet over lengthy term|the lengthy run}.

    RépondreSupprimer

Enregistrer un commentaire

Articles les plus consultés