vendredi 19 juin 2020

Comment réussir le coup d'État symbolique

Lisons un instant une récente chronique de Mathieu Bock-Côté avec les lunettes de Gramsci, grand penseur de la lutte pour l'hégémonie culturelle. "Depuis quelques années, le peuple québécois a assisté à un renversement complet de la représentation officielle de son histoire. En l'espace de 60 ans, nous sommes passés du statut de peuple conquis et dominé chez lui ayant même échoué à obtenir son indépendance [...] au statut de «majorité blanche» dominatrice. [...] Notre rapport à nous-mêmes s’est inversé: nous sommes passés de colonisés à colonisateurs – à tout le moins, c’est le discours officiel qui prend forme médiatiquement."

Cela fait-il 60 ans, 25 ans, ou bien seulement "quelques années" que ce "grand renversement" a eu lieu? Depuis le débat sur les accommodements raisonnables, la Charte des valeurs, l'attentat de la mosquée de Québec, le projet de loi 21, les récentes manifestations en soutien à Black Lives Matter? En réalité, rappelons que le discours nationaliste-conservateur à la sauce néo-duplessiste de MBC a déjà opéré un renversement complet du néo-nationalisme québécois hérité de la Révolution tranquille, et qu'il est devenu la version dominante du mouvement souverainiste et nationaliste depuis environ une décennie. Parallèlement, la "question identitaire" soulevée par les personnes qui subissent le racisme et des discriminations multiples dans leur vie quotidienne est devenue réellement audible pendant la même période, de même que la réaction des chroniqueurs de l'establishment qui continuent toujours de nier leurs revendications avec une résistance farouche.

L'enjeu ici est nul autre que "la représentation officielle de l'histoire", le "rapport à nous-mêmes", la "vision du monde", le contrôle du "récit dominant" et de "l'imaginaire collectif". MBC le sait bien, car son récit national-conservateur, qu'il veut faire apparaître comme subversif, contre-hégémonique, opposé à "l'empire du politiquement correct", au "discours médiatique dominant" ou cette "nouvelle doxa", est en réalité la vision du monde dominante dans l'espace médiatique québécois depuis une décennie, bien qu'elle soit de plus en plus contestée. Faire apparaître sa vision particulière du monde comme celle de la société tout en entière, opposée à une minorité d'élites intellectuelles-gauchistes, militantes, technocratiques et/ou artistiques qui seraient en position ultra-dominante, est le procédé rhétorique principal visant à cadrer un imaginaire renversé comme s'il était à l'endroit. Qui détient le bon portrait de la situation québécoise: notre intellectuel national omniprésent mais victime du nouvel ordre diversitaire, ou bien les méchants antiracistes fanatiques?

Pour lutter contre la montée du contre-discours antiraciste, MBC use de toute son imagination sémantique et lyrique pour faire apparaître celui-ci comme l'ennemi numéro 1, qui s'attaquerait à l'existence même du "peuple québécois" qui serait sur le point de disparaître. Cette lutte pour l'hégémonie devient une question de vie ou de mort: anglicisation accélérée de Montréal, effondrement imminent du système collégial francophone, "abolition de la manière dont nous nous sommes toujours représenté notre aventure collective", utilisation du jargon catholique pour titiller les souvenirs d'oppression religieuse de la majorité canadienne-française (repentance, confession, contrition, conversion, autoflagellation, rituel expiatoire), conditionnement idéologique, névrose, illusion racialiste, fantasme effrayant de la guerre des races, canadianisation mentale et politique du Québec, peuple assiégé par une "offensive médiatique permanente pour le culpabiliser et le forcer à mettre le genou à terre", victime "de campagnes de sensibilisation – autrement dit, à coup de campagnes de propagande."

Ce qui est intéressant avec cette logorrhée, c'est qu'elle met en lumière le mécanisme de défense de la projection, lequel consiste chez un sujet à déplacer un élément de son espace psychique interne dans un monde qui lui est extérieur. Qui ne s'est pas aperçu du martelage médiatique, la "ligne de parti" du Journal de Montréal qui affirme que ce sont d'abord les "Blancs" qui sont victimes de racisme? Qui n'a pas réalisé plus généralement la présence d'une campagne de propagande quasi ininterrompue des "élites médiatiques" que sont les chroniqueurs des médias de masse, et pour ne pas le nommer, Québecor, qui a un lectorat assidu de 4 millions de personnes, soit la moitié de la population totale du Québec?

Or, l'élite clérico-nationaliste a peur, car son grand récit sur l'histoire nationale et la négation acharnée du racisme présent dans la société (lequel n'est pas la même chose de dire que "le peuple québécois" serait raciste comme un bloc homogène), est en train de perdre du terrain à vitesse grand V. Le discours antiraciste devient "mainstream": tous les partis de la scène fédérale, sauf un, adoptent une motion reconnaissant la présence du racisme systémique au sein de de la Gendarmerie royale du Canada (rappelons que plus du tiers des personnes tuées par les GRC sont autochtones, et que plusieurs ont été assassinés par des policiers récemment dans différents coins du Canada). Alors que ce serait une opportunité en or pour condamner l'héritage raciste et colonial de l'État canadian, le Bloc et les chevaliers du nationalisme pur laine préfèrent résister à la tentation, parce que la reconnaissance de ce simple "concept" pourrait se retourner contre eux, les anéantir, comme si la reconnaissance d'un simple mot était le symbole du combat pour la survie du peuple québécois lui-même. Les nationalistes conservateurs d'ici s'acharnent donc, tel un réflexe d'assiégés, alors que même les conservateurs du Canada anglais admettent maintenant l'existence du racisme systémique, se rendant bien compte que de continuer à nier le phénomène s'apparente à une tentative puérile, vouée à l'échec. François Legault lui-même se retrouve encerclé, admettant du bout des lèvres le phénomène sans utiliser le vilain mot "racisme systémique", érigé en grand tabou ou phrase incantatoire qui fait trembler la terre de la conscience tranquille. Surprise: aucun conservateur n'a encore été victime d'une syncope ou n'est décédé suite à la reconnaissance verbale du racisme dans la police, au Canada comme ailleurs.

Rappelons enfin, pour revenir à Gramsci, le rôle central des luttes féroces prenant part dans la sphère des représentations culturelles, et de la nécessité de créer des "blocs historiques", c'est-à-dire des alliances entre divers groupes sociaux liés par une même vision du monde, pour conquérir, préserver ou renverser les pouvoirs établis. À ce titre, rappelons que le concept de "racisme systémique" est précisément cela, un concept, et que malgré son utilité pour débusquer différentes formes de discrimination qui passent souvent inaperçues au sein de nos institutions, il ne s'agit pas encore d'un récit, d'une vision du monde. Québécois et Québécoises, encore un effort si vous voulez renverser l'hégémonie nationale-conservatrice; il faudra inscrire cette lutte dans l'histoire longue du Québec et de l'imaginaire collectif, comme un moment clé de sa prise de conscience nationale. Le Québec pourra peut-être, bientôt, résoudre la contradiction majorité/minorités pour enfin créer un peuple large et ouvert, où tout le monde trouve sa place, une réelle nation démocratique qui ne s'offusque pas chaque fois qu'une injustice est soulevée en son sein.

Rappelons aussi, avec Althusser, le rôle des "appareils idéologiques d'État" (institution scolaire, religion, famille, syndicats, médias de masse) qui exercent un grand pouvoir sur la conscience populaire. L'hégémonie actuelle du nationalisme-conservateur ne vient pas de nulle part, car elle est relayée par toute une série de voix, textes, vidéos, interventions qui circulent abondement parmi ces espaces. Rappelons aussi que l'actuel premier ministre du Québec, François Legault, gouverne actuellement suivant la logique du nationalisme conservateur. D'ailleurs, son conseiller principal, Stéphane Gobeil, anciennement conseiller de Pauline Marois, est un adepte des thèses de Mathieu Bock-Côté; il a quitté le PQ en 2016 pour rejoindre la CAQ et favoriser son virage nationaliste, stratagème qui semble avoir bien fonctionné.

Enfin, ce n'est donc pas chose anodine si Mathieu Bock-Côté utilise l'expression "coup d'État symbolique" pour désigner le mouvement historique qui a récemment commencé à craquer la carapace dure du nationalisme conservateur. Comme l'idéologie bock-côtiste domine actuellement à la tête de l'État, qu'il s'agit en quelque sorte de la "représentation officielle de l'histoire" et du "rapport à nous-mêmes", toute tentative pour renverser cette vision officielle sera perçue comme un coup d'État, symbolique bien sûr. Mais les symboles et la culture jouent un rôle central dans la sphère politique, et c'est pourquoi les amis du régime y consacrent une part essentielle de leur activité mentale.

Aujourd'hui, alors que des artistes "bien de chez nous" comme Pierre Lapointe, Arianne Moffat et bien d'autres d'ailleurs, commencent à reconnaître le racisme et ses manifestations, les gardiens de l'orthodoxie tremblent et crachent leur fiel sur toute personne qui ose prononcer le mot maudit. Une dimension essentielle la lutte pour l'égalité fait tranquillement son chemin dans la conscience collective, elle devient lentement, mais sûrement, un nouvel élément du "sens commun". C'est pourquoi ceux qui prétendent parler en son nom, en s'arrogeant le monopole de la parole du "peuple québécois", se bouchent aujourd'hui les oreilles pour ne pas l'entendre parler par lui-même. La "réforme morale et intellectuelle du sens commun", comme le dit Gramsci, est le premier moment, et non le moindre, de la lutte pour l'hégémonie.

mercredi 17 juin 2020

Faire la morale ou la critique des algorithmes?

J'ai dévoré le dernier essai de Martin Gibert, Faire la morale aux robots, qui présente une introduction très claire et stimulante à l'éthique des algorithmes. Avec un style à la fois pédagogique et humoristique, il fait entrer en dialogue les grandes approches de philosophie morale (utilitarisme, déontologisme et éthique de la vertu) avec les problèmes pressants posés par le développement de l'intelligence artificielle (IA). Ce petit livre d'éthique appliquée deviendra sans doute un classique des cours de philo au cégep.

Ceci dit, les enjeux abordés dans ce livre représentent une infime partie de la réflexion nécessaire sur l'IA et ses nombreux impacts sur nos vies. Martin Gibert se pose avant tout la question de savoir comment programmer des robots vertueux, et non si nous avons besoin des robots, et à quel prix. Il le souligne d'emblée dans son introduction: « La question posée par l’éthique des algorithmes, c’est donc celle de savoir quelles règles implanter dans les robots, et comment le faire. Ce n’est pas la même chose que l’éthique de l’intelligence artificielle. Celle-ci correspond à la branche de l’éthique de la technologie qui évalue les systèmes d’IA et se demande s’ils sont bons pour nous. Faut-il développer des voitures autonomes, des robots militaires ou des robots sexuels? Faut-il accepter toute nouvelle technologie sous prétexte qu’elle serait plus efficace ? Quelles conséquences sur notre vie privée, sur les relations humaines ou sur la crise climatique? »[1]


Ainsi, le livre n'aborde pas les impacts de l'IA sur notre système économique, les dispositifs sécuritaires, les relations sociales, la sphère politique, etc. Il n’interroge pas non plus les impératifs et les mécanismes qui orientent le développement de ces technologies (dont les finalités sont d’abord de nature économique plutôt qu’humanitaire), ni leur imbrication dans des systèmes sociaux plus larges. Or, comme le souligne Rob Kitchin dans son article Thinking critically about and researching algorithms (2017), les algorithmes peuvent être étudiés de plusieurs points de vue (mathématique, informatique, politique, économique, juridique, philosophique, sociologique), ils sont encastrés dans des assemblages sociotechniques vastes et complexes, et ils posent notamment le défi de la « boîte noire » lié à leurs modes de fonctionnement opaques. Une multitude d’auteur·e·s soulignent d'ailleurs que les algorithmes sont insérés dans des relations de pouvoir, et qu’ils constituent eux-mêmes une nouvelle forme de pouvoir
sui generis: algocratie, gouvernementalité algorithmique, etc. Comme le note Nick Diakopoulos : « We’re living in a world now where algorithms adjudicate more and more consequential decisions in our lives... Algorithms, driven by vast troves of data, are the new power brokers in society. »[2]
 

Or, la perspective adoptée dans Faire la morale aux robots est celle de l'éthicien professionnel qui, placé devant un objet algorithmique quelconque, se demande comment bien le paramétrer. L'algorithme est considéré comme un donné, un objet trouvé devant soi et qui doit être bien programmé, plutôt que sous la forme d'un problème ou d'un élément inséré dans des rapports sociaux et un processus historique plus large. « Comment programmer les robots de façon morale? Voitures autonomes, assistants virtuels, algorithmes de recommandation, robots militaires ou artistes, robots de soin: je regarde les gens dans le bus et je me demande ce que le développement de l’intelligence artificielle changera à leur quotidien. J’entrevois aussi un problème difficile, mais pas insurmontable: comment programmer les robots en fonction de principes moraux qui puissent satisfaire tout le monde? » [3]

Dès lors, l'existence et la pertinence sociale des robots n'est pas questionnée; elle est présupposée comme allant de soi, la question étant surtout de bien les fabriquer afin que ceux-ci deviennent de bons agents avec lesquels il sera facile d'interagir. L'éthique des algorithmes vise dès lors à faciliter la fabrication des robots qui apparaîtront spontanément comme des objets familiers du quotidien, des compagnons sur qui nous pouvons compter et baser notre confiance.
« D’un point de vue pratique, on veut plutôt qu’ils soient de bons voisins. Les gens veulent que leurs voisins aient la capacité de répondre avec flexibilité et sensibilité dans des environnements réels et virtuels. Ils veulent avoir l’assurance que le comportement de leurs voisins suivra des normes, et qu’ils pourront avoir confiance en eux. Voilà, me semble-t-il, le sésame pour une bonne programmation. On veut pouvoir faire confiance aux robots. » [4]

L’approche théorique préconisée consiste à combiner des notions issues de l’éthique normative, la psychologie morale, l’informatique affective, les expériences de pensée et la science-fiction, afin d’interroger les interactions entre les individus et les machines sans contextualisation sociale ou historique. Gibert mentionne bien sûr les biais des algorithmes qui peuvent reproduire certaines formes de racisme ou de sexisme. Mais l’objectif ici n’est pas de questionner le capitalisme, ni de comprendre comment les algorithmes renforcent le patriarcat, le racisme et le colonialisme d’un point de vue global. La visée, plus modeste, consiste plutôt à guider ingénieur·e·s et informaticien·ne·s pour que les algorithmes puissent limiter les discriminations. « Peu importe le degré d’objectivité morale, et peu importe qu’on soit relativiste ou réaliste, on devrait pouvoir s’accorder sur certains principes de base: pas de racisme, pas de sexisme, pas de classisme, et le plus d’égalité possible entre les individus. Voilà, je crois, une bonne piste pour les programmeuses. Où trouver les principes pour paramétrer de bons algorithmes ? En regardant, lorsque c’est possible, sous le voile d’ignorance. »[5]


Mon commentaire ici ne vise pas directement les thèses de Gibert, notamment celle de miser sur l’éthique de la vertu plutôt que sur des robots utilitaristes ou déontologistes. Je souhaite seulement mettre en lumière les limites, sur les plans éthique, politique et épistémologique, d’un individualisme méthodologique couplé d’une approche normative qui fait abstraction des rapports sociaux et des relations de pouvoir qui guident le développement effectif des technologies algorithmiques. La réflexion sur ce que devrait être un robot idéal fait écran aux raisons qui motivent le développement des robots en général, et à l'analyse des conséquences liées à leur multiplication dans différentes sphères de la vie sociale: marché du travail, santé, éducation, vie quotidienne, espace médiatique, prisons, services policiers, armée, administration publique, etc.


Dans l’abstrait, j’aimerais certes que mon assistante personnelle Alexa ou Siri soit plus vertueuse, mais plus fondamentalement, devrait-on confier toujours plus d’aspects de nos existences, de nos décisions personnelles et collectives à des algorithmes développés d’abord et avant tout pour extraire nos données, augmenter la puissance technologique de grandes plateformes monopolistiques, et orienter nos comportements « pour notre propre bien », en généralisant l’usage du nudge comme manière de réguler les conduites et d’augmenter la prédictibilité des algorithmes? En voulant rendre les robots vertueux, ne risque-t-on pas de programmer des agents moins faillibles que l’« individu moyen », et par le fait même, de se faire faire la morale par les robots qui seront plus efficaces et vertueux que nous? Ceux-ci nous conseilleront toujours davantage, ou pourront prendre carrément des décisions automatisées à notre place, comme le préconisent les adeptes du fully automated decision making[6], dont la logique opère déjà dans le monde des entreprises friandes des algorithmes pour accroître leur productivité et compétitivité.


C’est pourquoi il devient urgent de développer une « théorie critique des algorithmes », c’est-à-dire une démarche transdisciplinaire qui vise à comprendre et critiquer les multiples ramifications de la logique algorithmique, ses dispositifs, sa culture et sa dimension idéologique, en mobilisant les outils des sciences sociales et de la philosophie pour débusquer les relations de pouvoir liés à ces nouvelles technologies. Les enjeux sociaux, économiques, éthiques et politiques soulevés par l’essor fulgurant des algorithmes devraient être analysés comme des phénomènes liés aux structures sociales, institutionnelles, économiques et culturelles de la société actuelle, plutôt que par des facteurs strictement techniques, individuels, moraux et psychologiques qui sont les principales dimensions analysées dans le champ émergent de l'éthique des algorithmes.

 

Bien sûr, cela n’empêche pas qu’il soit également nécessaire, parallèlement, de guider moralement le développement des algorithmes qui sont créées à grande vitesse de toute façon, souvent à notre insu. Si des éthiciens veillent au grain pour accompagner le développement des algorithmes, cela est certainement préférable à leur développement aveugle. Cela dit, il est tout aussi essentiel d’interroger les impératifs et les mécanismes qui président ce développement technologique qui est intimement lié à la reconfiguration du capitalisme, lequel pourrait bien, via ces nouveaux outils, renforcer son emprise sur nos vies. C’est pourquoi j’invite toutes celles et ceux qui s’intéressent à cet enjeu central du XXIe siècle, à lire attentivement le livre passionnant de Martin Gibert, mais aussi à explorer la littérature foisonnante des perspectives critiques sur les algorithmes : Soshana Zuboff, Antonio Casilli, Antoinette Rouvroy, Cathy O’Neill, Frank Pasquale, Adam Alter, Couldry & Mejias, Evgeny Morozov, Ruha Benjamin, etc.

En complément, un article introductif à l’éthique de l’intelligence artificielle de Martin Gibert propose un portrait plus complet des enjeux liés aux algorithmes, qui peuvent à la fois servir l’humain, asservir l’humain, remplacer l’humain, surveiller, discriminer ou manipuler l’humain. Au final, une éthique de l’intelligence artificielle ne saurait être complète sans une théorie critique des algorithmes, sans quoi la première risque de servir à programmer des robots vertueux au service du capital et de l'ordre social dominant. 




[1] Martin Gibert, Faire la morale aux robots, Atelier 10, Montréal, 2020, p. 13
[2] Diakopoulos, Nick (2013). « Algorithmic accountability reporting: On the investigation of black boxes. A Tow/Knight Brief ». Tow Center for Digital Journalism, Columbia Journalism School. Retrieved from http://www.nickdiakopoulos.com/wp-content/uploads/2011/07/Algorithmic-Accountability-Reporting_final.pdf

[3] Martin Gibert, Faire la morale aux robots, op. cit., p. 12.
[4] Ibid., p. 74.
[5] Ibid., p. 77.
[6]
Andrew McAfee, Erik Brynjolfsson, Machine, Platform, Crowd : Harnessing our Digital Future, W. W. Norton & Company, New York, 2017.