intelligence artificielle et bêtise humaine

On nous sert l’intelligence artificielle (IA) à toutes les sauces : des scénarios à la Terminator aux exploits de l’IA dans le pliage des protéines. À la fois menace existentielle et promesse radieuse.

Imaginons que je vous ai invité à manger à ma table, gratuitement, depuis une quinzaine d’années. Je vous ai nourri, diverti, informé sans vous demander un sou. Pas un sou, seulement la récolte de vos conversations, de vos connexions, de vos appartenances… De ces informations j’ai peu à peu su tirer des modèles de prédiction, de comportement qui me permettent aujourd’hui (ou me permettront bientôt) de produire des informations, des analyses, des projections qui remplaceront peu à peu les analyses et projections faites par des humains… À qui appartiennent ces modèles développés à partir des contenus et comportements laissés sur le web par les milliards de participants innocents ?

L’histoire de l’IA que retrace Daniel Andler dans son Intelligence artificielle, intelligence humaine : la double énigme est instructive en ce qu’elle montre bien l’évolution des prétentions de l’IA depuis ses débuts, une évolution vers plus de circonspection et d’humilité dans la recherche d’une intelligence générale. Cinq (5) replis ou renoncements ont marqué la croissance de l’IA telle qu’on la connait aujourd’hui : renoncement à la pensée « pensante », renoncement à l’équivalence avec l’intelligence humaine, renoncement à une intelligence générale, renoncement à l’indépendance à l’égard de l’intelligence humaine, puis renoncement à la réflexion.

L’IA symbolique des débuts a laissé place au connexionnisme1Le connexionnisme modélise les phénomènes mentaux ou comportementaux comme des processus émergents de réseaux d’unités simples interconnectées. Le plus souvent les connexionnistes modélisent ces phénomènes à l’aide de réseaux de neurones.. Plutôt que de tenter de prévoir toutes les questions possibles et d’y accoler toutes les réponses appropriées… les modèles massifs de language (LLM – large language models) utilisent d’énormes volumes de données pour comprendre le langage humain. La caractérisation ou l’étiquetage de ces masses de données permettent ensuite de prédire ou de classer de nouvelles données ou de répondre à de nouvelles questions. Malgré la qualité des productions langagières des ChatGPT ces systèmes sont toujours atteints de « cécité sémantique » : ils ne savent pas de quoi ils parlent !

Les IA sont devenues performantes parce qu’elles se sont spécialisées et sont devenues des SAI, des systèmes artificiels intelligents. Si certains peuvent encore rêver d’une IA générale, il lui manque encore plusieurs « ingrédients » : la conscience, le sens, le sens commun et des attributs du sujet : métacognition, affects.

Alors que les SAI deviennent de plus en plus performants, dépassant parfois incontestablement les capacités humaines, l’IA semble toujours incapable devant des tâches que des humains « ordinaires » ou même des enfants peuvent réaliser. Ce qui amène Andler à reformuler la question de la comparaison entre intelligence humaine et IA. L’intelligence animale a beaucoup en commun avec ce qui de l’intelligence humaine manque à l’intelligence artificielle. Andler est amené à distinguer deux types d’intelligence : l’intelligence (et la résolution) d’un Problème et l’évaluation d’une Situation vécue. Si la première forme d’intelligence correspond bien au champ d’application et d’expertise de l’IA, l’ancrage historique, écologique (phylogénétique) de l’intelligence animale (humaine ou non) lui permet de répondre avec plus ou moins d’intelligence aux Situations rencontrées.

Mais l’intelligence de l’animal, qu’il soit ou non humain, est celle d’un organisme vivant autonome naviguant dans un monde qui est le sien. C’est parce que l’animal a un monde, son Umwelt, et que c’est sa Situation qui le concerne et dont il veut se tirer au mieux, qu’au même titre que l’humain il résiste en dernière analyse à la comparaison avec l’intelligence artificielle.

Intelligence artificielle, intelligence humaine : la double énigme, Daniel Andler, Gallimard, 2023

Après avoir identifié des secteurs où une IA « puissante » se développera, dans son chapitre de conclusion intitulé L’intelligence artificielle et le bien Andler propose un principe général de modération. Qui prend parfois la forme d’un « principe de subsidiarité : ne faire appel à l’intelligence artificielle que lorsque sa contribution nette est positive. » Ou qui incite à ne pas donner de forme humanoïde à des systèmes qui n’ont que des capacités limitées. Aussi, il faut résister à la tendance qui ferait de l’IA une technologie de plus en plus essentielle, omniprésente. Pour éviter de voir la cité se transformer au service des intérêts de la technologie, comme cela s’est produit avec la diffusion de l’automobile.

Finalement, Andler en appelle même à « bannir l’intelligence artificielle de toute démarche requérant cette part de l’intelligence humaine qui, par-delà, ou en-deçà de la capacité à résoudre les Problèmes, permet à l’homme de naviguer dans l’existence — ce sans quoi il ne peut faire face aux Situations difficiles ou nouvelles. »

L’IA est essentiellement fondée sur la prise en compte massive du passé. Un passé qui pèse lourd pour maintenir le statut quo. Cependant, tel que formulé, cet appel à bannir l’IA des démarches d’orientation existentielle de l’humain me semble inapplicable : les humains utiliseront (toujours) toutes les intelligences à leur disposition pour s’orienter. Mais comme les puissances de l’IA coïncident de plus en plus (voir tableau 8.4, dans ce billet) avec les puissances financières, bannir l’IA… reviendrait à ouvrir des négociations entre humains (et vivants non-humains ?) sur l’avenir de la planète, SANS LA PRÉSENCE des puissances financières ! C’est une idée, ça.

Continuer la lecture de « intelligence artificielle et bêtise humaine »

Notes

  • 1
    Le connexionnisme modélise les phénomènes mentaux ou comportementaux comme des processus émergents de réseaux d’unités simples interconnectées. Le plus souvent les connexionnistes modélisent ces phénomènes à l’aide de réseaux de neurones.

communication numérique

Comment peut-on modérer les excès tout en favorisant la communication dans des réseaux appartenant aux usagers ? Si on veut rejoindre beaucoup de monde est-on condamné à mettre beaucoup d’efforts (et d’argent) à policer, exclure, contrôler, censurer ? Doit-on se satisfaire des limites actuelles des algorithmes des FB, X et autres Youtube qui décident à notre place ce que nous verrons, ou pas ?

Les enjeux entourant le contrôle des plateformes numériques devenues hégémoniques, omniprésentes sont d’actualité : loi fédérale C18 obligeant la négociations de « contributions » des plateformes au financement des média… poursuites aux USA contre les GAFAM pour abus de position dominante… 

L’Énoncé économique de l’automne déposé par la ministre Freeland comprenait l’annonce d’une nouvelle loi musclée sur la concurrence, y compris de nouvelles lignes directrices sur les fusions, une nouvelle norme d’« abus de position dominante » et des règles sur le droit à la réparation : https://www.linkedin.com/feed/update/urn:li:activity:7132855021548769282/  Une référence de Doctorow.

Il faut suivre ces débats, manifester notre appui et formuler des exigences en termes d’interopérabilité, de facilités d’exit, de transparence des algorithmes… 

Il faut aussi soutenir, expérimenter, utiliser et développer des solutions autonomes, indépendantes des GAFAM pour nos besoins de communication, d’échanges de savoirs et d’information. C’est à ça que se consacre Projet collectif avec ses plateformes En commun et Praxis. Non seulement sont-ce des solutions indépendantes mais elles sont aussi orientées éthiquement : des valeurs, des vertus dirait Durand Folco, guident le développement de ces plateformes alternatives. Des valeurs autres que le commerce et la publicité. 

« En commun est un environnement numérique éthique, gratuit, accessible et collaboratif, permettant de connecter les savoirs et les personnes pour une société plus équitable et écologique. Il vise à soutenir la collaboration intersectorielle et la mobilisation des connaissances des citoyen·nes, gestionnaires, professionnel·les, chercheur·ses, entrepreneur·es et toutes autres personnes travaillant au développement de réponses innovantes aux défis sociaux et environnementaux du Québec»

Cité par Le capital algorithmique.

Culture numérique et culture politique

La littératie numérique de la population en général est toute récente. C’est le téléphone intelligent qui a permis l’élargissement de la base des média sociaux. Internet dans sa forme accessible du Web existait depuis déjà 15 ans quand Facebook et Twitter ont pris leur envol… propulsés par l’arrivée du téléphone intelligent : on pouvait, enfin, visionner des vidéos de chatons et de chars sur son téléphone, en attendant son Big Mac, ou l’autobus! Ou, plus sérieusement, lire ses courriels, réagir aux dernières nouvelles, réagir en temps réel à ce qui se passe devant soi. 

Les #mots-clic (#hashtags) tels #BlackLivesMatter ou #MeeToo ont rendu visibles des gestes, des actions, des évènements en en multipliant l’écho, l’impact. La jeune femme courageuse qui a filmé la mort de Georges Floyd n’était pas journaliste, ni photographe. Seulement une passante avec son téléphone. 

Qu’est-ce qui a permis la montée en puissance si rapide des GAFAM ?

Un bon produit au départ, sans doute, qui a bénéficié d’un investissement en capitaux gigantesque. Des capitaux de risque pour commencer, puis des capitaux attirés par la position dominante, quasi monopoliste dans un deuxième temps. La protection légale des brevets et des logiciels « propriétaires » a fini de consolider la position dominante des entreprises en permettant l’enfermement des usagers dans des enclos opaques dont les flux d’information et de sollicitations sont contrôlés par des algorithmes propriétaires. 

La montée en puissance des plateformes numériques et média sociaux a été tellement fulgurante que les États et gouvernements ont tardé à légiférer, laissant s’installer des situations quasi-monopolistes où les GAFAM raflent maintenant la presque totalité des revenus publicitaires qui autrefois faisaient vivre journaux, télé et radio1Voir le graphique Répartition du marché publicitaire au Québec en 2003, 2012, 2018 et 2021 dans le billet précédent. Un avantage supplémentaire dont bénéficiaient les Google-Facebook disparaitra bientôt : les dépenses publicitaires y étaient déductibles d’impôt pour les annonceurs à un taux supérieur (100%) à celui accordé aux annonceurs dans les média « traditionnels ». Voir Ot­tawa plans tax re­form to drive ad­ver­tis­ing with Google and Meta back to Cana­dian me­dia

Mais peut-être que la majorité des gens n’ont rien à reprocher aux GAFAM… On se contente de profiter d’une plate-forme gratuite… en acceptant d’être suivi, ou de se voir offrir des publicités. So What ? On n’est pas obligé d’acheter ! Mais si ce qu’on me propose d’acheter n’est pas le meilleur deal ? Si on ne vous propose que des gros chars et des voyages dans le sud ? Des objets de désir pour ceux qui ont les moyens et aussi pour ceux qui les auront peut-être un jour…

Polarisation et fake news

Les études sur les effets des algorithmes de Youtube (2022) ou plus récemment de Facebook (revues Science et Nature, 2023) tendent à minimiser les effets idéologiques des plateformes : s’il y a un effet de chambre d’écho, il est (très) léger et touche surtout la tendance conservatrice. Mais les conséquences en terme d’action, de changement dans les attitudes ou les valeurs des usagers sont peu visibles. Les usagers sont actifs dans les choix qu’ils font de valoriser ou de rediffuser des unités d’information. Et ils ne sont pas naïfs non plus : ils sont souvent conscients de l’invraisemblance de certains mèmes qu’ils se font un malin plaisir de rediffuser (pour ennuyer les « wokes »?). 

OK les GAFAM ont réussi, grâce à leurs machines à siphonner l’info sur leurs milliards d’usagers, et s’accaparer le gros du gâteau des dépenses publicitaires. Une correction des crédits d’impôts inéquitables n’enlèvera pas l’avantage principal de ces plateformes qui se sont insinuées comme espaces publics dominants grâce à leurs algorithmes protégés par des lois du copyright et de la propriété intellectuelle capitalistes monopolistiques. 

Le financement des média par la publicité, directement (vente d’espace publicitaire) ou indirectement (subventions de la part des GAFAM qui ont fait main basse sur le marché publicitaire), s’est révélé un piège à long terme : on pouvait supprimer ou réduire grandement le prix de l’abonnement pour l’usager… en accroissant sa diffusion, mais en devenant dépendant de la publicité. Tant qu’on ne considère cette dernière que comme un simple reflet des valeurs (et produits) de la société, il n’y a pas de problème moral…Cependant la publicité n’est pas innocente ou sans conséquence. “La publicité favorise essentiellement les produits et les services les plus néfastes, que ce soit pour l’écologie ou pour la santé humaine.” Comment la publicité empêche la transition écologique et sociale.

Et si, à cause de l’évolution des TIC2Technologies et l’information et de la communication les média perdent le gros de leurs revenus publicitaires, pourquoi faudrait-il continuer de lier le financement des média au volume de publicité diffusée ailleurs ? C’est sur les profits exorbitants et la position dominante des GAFAM qu’il faut miser. Une position qui fut favorisée par les protections extraordinaires en matière de propriété intellectuelles et droits commerciaux qui ont été accordées aux Big Tech. 

« Les logiciels ont alors bénéficié d’une protection de leurs droits d’auteur bien supérieure à celle jamais appliqué aux œuvres littéraires, aux compositions musicales, aux enregistrements sonores, aux photos ou aux films.

« L’interdiction de contourner la gestion des droits numériques, ou DRM (digital right management), énoncée dans la section 1201 du DMCA, l’article 6 de l’EUCD et des lois similaires dans le monde, font du logiciel la classe d’œuvres la plus protégée par le droit d’auteur au monde. Les auteurs de logiciels (ou plutôt les entreprises qui les emploient) bénéficient de plus de restrictions en matière de droit d’auteur que le compositeur le plus talentueux, le sculpteur le plus brillant ou le plus grand écrivain. » Ma traduction (GB)

The Internet Con: How To Seize the Means of Computation de Cory Doctorow, page 156

Si les GAFAM ont atteint une position dominante non seulement dans le domaine des services numériques, mais bien dans l’économie toute entière, ce n’est pas parce que ces entreprises étaient plus intelligentes, entreprenantes ou généreuses que les autres. C’est qu’elles ont eu les moyens d’acheter la concurrence tout en enfermant leurs clientèles dans des environnements dont elles peuvent difficilement sortir. 

Tableau 8.4 Palmarès des entreprises capitalisées en bourse 2006-2021, page 219 in Le capital algorithmique ( aussi 2 autres tableaux dans billet précédent)

Les GAFAM ont su utiliser les TIC de façon innovante et ont ainsi contribué à créer un nouvel espace, un cyberespace où les discours mais aussi les produits s’échangent dorénavant. Les usagers et les concurrents des GAFAM ont eux aussi contribué à créer la culture, expérimenter les possibles, développer la littératie numérique sur laquelle repose le pouvoir des GAFAM. 

Faudrait-il diviser ces entreprises devenues quasi-monopoles ? Ou simplement redistribuer une partie des surprofits que cette position privilégiée leur permet ? Plutôt que de les briser certains proposent plutôt d’imposer aux quasi-monopoles une obligation d’interopérabilité avec les acteurs extérieurs, concurrents ou partenaires. Voir Pour l’interopérabilité des réseaux sociaux, par La Quadrature du Net, et The Internet Con: How To Seize the Means of Computation de Cory Doctorow. 

Mais cela ne résoudra pas le problème de la disparition des revenus publicitaires qui faisaient vivre les média traditionnels. Si l’interopérabilité favorise l’émergence d’un écosystème numérique plus sain, moins dominé par une oligarchie de quasi-monopoles, il y aura moins de « surprofits »… Mais cela risque de prendre du temps : même en situation de concurrence plus ouverte, le poids de l’habitudes et de la facilité risque de maintenir longtemps la position avantageuse des GAFAM. 

Et puis, la taxation sur les multinationales, qui devait s’établir à 15% suivant une entente signée par 136 pays en 2021… ne semble pas encore près de s’appliquer. OCDE 2023 : “Les entreprises multinationales continuent de déclarer des bénéfices faiblement imposés, même dans les juridictions où les taux de l’impôt sur les sociétés sont élevés, ce qui souligne la nécessité d’une réforme fiscale à l’échelle mondiale.”

Aussi les ententes particulières entre GAFAM et gouvernements, ou entre GAFAM et média seront encore nécessaires pendant un temps. Le déverrouillage des environnements numériques pour permettre l’échange d’information entre différents systèmes (on en parle pour les banques dans l’Énoncé économique de l’automne) redonnerait un dynamisme dans l’offre de services. Et les revenus tirés d’une taxation plus équitable, anti-monopoliste des GAFAM pourrait être redistribués suivant certains principes.

Catherine Dorion proposait, dans une annexe minoritaire au Mandat d’initiative sur l’avenir des médias, de taxer les GAFAM de 3% pour redistribuer en fonction de la présence de journalistes « patentés », c’est à dire membres de la Corporation. Je préfère, pour ma part, l’approche de De Grosbois dans La collision des récits :

Postulons qu’une lutte contre l’évasion fiscale des géants du web permette d’amasser des sommes dignes de ce nom pour l’information. [I]maginons qu’on alloue aussi des fonds à d’autres médias issus de la communauté. Les médias d’information pourraient être considérés comme éligibles sur la base de critères tels que ceux établis par Pierre Rimbert dans son «projet pour une presse libre»: être à but non lucratif, ne pas posséder plus d’un titre par type de contenu, ne pas avoir recours à la publicité. À ces critères, on pourrait ajouter l’accès du public aux budgets et aux dons substantiels, la disponibilité des archives numériques et l’adhésion à des normes minimales de validation des faits (renvoi aux sources, correction en cas d’erreurs manifestes, etc.). 

Une liste de médias admissibles à l’aide publique serait donc constituée sur ce type de critères non idéologiques. Ensuite, les montants disponibles pourraient être distribués en fonction du choix des citoyen.ne.s: on recevrait une fiche tous les ans sur laquelle on choisirait un ou plusieurs médias que l’on souhaite soutenir. Chaque citoyen.ne disposerait du même montant à octroyer, et des plafonds seraient mis en place pour assurer qu’une diversité de publications reçoive des fonds. Un tel modèle pourrait revitaliser les médias régionaux et locaux.

La collision des récits, Philippe de Grosbois

Pour aller plus loin :

Notes

  • 1
    Voir le graphique Répartition du marché publicitaire au Québec en 2003, 2012, 2018 et 2021 dans le billet précédent
  • 2
    Technologies et l’information et de la communication

la petite histoire

J’ai refait la « petite histoire » de mes 10 années en tant que webmestre du (des) site du RQIIAC… pendant lesquelles j’ai dû installer une vingtaine de systèmes de discussion-forum-wiki… Je n’ai pas terminé mais ça m’a fait quelque chose de passer à travers les images d’archives conservées sur Internet Archives.

J’ai inscrit les liens dans cette page, mais aussi j’ai sauvegardé les écrans car je compte visiter ces anciens sites lors d’une présentation et la connexion est tellement lente vers les archives (ils doivent utiliser des ordinateurs aussi vieux que leurs archives !) et je ne veux pas avoir à attendre chaque fois.

Les archives d’Internet, en plus des archives de la liste de discussion (4000 messages depuis 2001) et celles de mon blog (2000 billets depuis 2002)… ça me donne un matériel intéressant. En fait c’est à donner le tournis !

Prosélytisme

« I believe it’s about intellectual entrepreneurship, really. When you stop to think about it, not so many people are listening closely. Some of the most promising innovations are challenging and won’t go very far just by virtue of their intrinsic strength. They need proselytes to make their way into widespread acceptance. They need to be articulated clearly, and presented from different angles. Their significance has to be explained in different ways to different people. It’s challenging work, but my feeling is that too few people are doing it. I think this is a role I want to take on at this point. » (Sébastien Paquet: Reflecting on my Role) J’endosse sans nuance…. (cité par Remolino: intellectual entrepreneurship

moi aussi…