sentiment d’imposteur

Comme c’est souvent le cas, en finissant une période intense de réflexion et d’écriture (voir dernier billet), j’ai eu un sentiment d’insatisfaction, de culpabilité même. Le sentiment d’avoir tourné les coins ronds, d’avoir parlé au dessus de mes compétences… On appelle cela le syndrome de l’imposteur, ou de l’autodidacte. Je connaissais le premier terme mais j’aime bien le second, qui correspond assez à ma situation professionnelle où j’ai souvent appris par moi-même, l’informatique mais aussi l’urbanisme, l’économie, la santé publique, la gestion du logement communautaire, la nutrition, la gérontologie… en fait tous ces secteurs où mon métier d’organisateur communautaire m’amenait à accompagner des citoyens qui désiraient apprendre, prendre du pouvoir devant des appareils et professionnels qui étaient peu enclins à s’ouvrir à l’influence de leurs clients ou commettants.

Aujourd’hui à la retraite, je continue d’avancer à tâtons, sans avoir de plan ni de vision claire des enjeux. Finalement je poursuis une réflexion très personnelle, un parcours idiosyncrasique. Je suis un « columnist » sans journal qui, du haut de sa colonne, porte le regard, propose une interprétation, porte un jugement ou pose des questions. Du haut de sa boîte à savon, plutôt !

Ma réflexion est ancrée dans une vie de recherche et d’action, une culture d’alternative, d’opposition, de solidarité, d’engagement, de don. Une posture qui ressemble beaucoup à un ancrage religieux même si elle a pu prendre des formes anti-cléricales.

Cette religion qui donnait du sens et cadrait moralement, mais aussi culturellement, matériellement et socialement notre monde s’est disloquée sous la pression des jeunes qui refusaient la répression sexuelle; des femmes qui voulaient contrôler les naissances trop nombreuses et aussi accéder aux même droits que les hommes. La professionnalisation des métiers d’enseignante, d’infirmière, de travailleuse sociale rendait de plus en plus difficile le maintien de l’autorité religieuse sur les institutions de services publics. Cependant que plusieurs religieuses et pères et frères ont été des pionniers, des formateurs et fondateurs dans ces professions du soin et relation d’aide.

Il est temps de revenir à une société moins exubérante et excessive, moins obsédée par la réussite et l’enrichissement personnels. Une société qui valorise la sobriété dans la durée, le respect de la nature et de la vie sans artifice.

P.S. Il semble que j’aie glissé d’un sujet à l’autre… Du syndrome de l’imposteur à… celui de sauveur ? Ça m’apprendra à ne pas laisser un texte reposer quelques heures en mode brouillon !

intelligence artificielle et finalités sociales

La conférence de Yoshua Bengio (32 minutes) est sans doute ce qui m’a convaincu de m’inscrire à ce colloque « Intelligence artificielle en mission sociale ».  En tant que figure de prou (montréalaise et internationale) du secteur en forte croissante du Deep Learning j’étais curieux de voir ce qu’il avait à dire en général sur l’intelligence artificielle et en particulier sous cet angle novateur proposé par le colloque « en mission sociale ».

L’intervention de monsieur Bengio, faite en français et sur un ton presque « zen », mettait la table pour deux jours de discussions et conférences faites par des intervenants du monde des OBNL, de la recherche universitaire ou du monde des affaires (entreprises sociales, innovation sociale, services juridiques). Les avancées de l’intelligence artificielle sont réelles même si le monde ne changera pas du jour au lendemain. On est encore loin de l’intelligence du cerveau humain. C’était le message de Bengio : Les changements se feront graduellement aussi il est encore temps de prévenir les dérapages par une règlementation éthique.

Après avoir identifié les secteurs où les changements seront les plus importants, et les risques soulevés ou prévisibles, Bengio souligne l’importance d’améliorer le filet de sécurité (ex: revenus garantis) afin de soutenir l’adaptation des personnes à ces changements. Il en appelle à une meilleure fiscalité afin que la richesse produite par ces puissantes nouvelles technologies ne fassent pas que la concentrer encore plus tout en excluant, appauvrissant des masses de plus en plus grandes. Le remplacement des audits comptables par des audits moraux est suggéré afin de mesurer la contribution des entreprises au bien-être collectif.

La conférence de Charles C Onu (11 minutes) suivait : Saving Newborn with AI, où il expliquait comment l’enregistrement des pleurs des bébés naissants a permis de dépister, grâce au « machine learning », les enfants souffrant d’asphyxie périnatale au Nigeria. Voir le site de l’organisme www.ubenwa.com

L’intervention de Kathryn Hume (34 minutes) de chez Integrate.ai, s’intitulait Ethical Algorithms, Bias and Explainability in Machine Learning. L’intelligence artificielle est déjà utilisée par la justice américaine (entre autre pour aider les juges à statuer sur le risque associé à la liberté sous caution ou la libération sur parole) avec parfois des biais importants. Les algorithmes et « boites noires » qui définissent l’intelligence artificielle doivent être corrigés et expurgés des biais qui sont les nôtres (concepteurs, codeurs, analystes et usagers).

Et ce n’était que le début, la plénière d’ouverture de ce colloque de deux jours tenu les 25 et 26 janvier dernier à Montréal au Centre canadien d’architecture. Organisé par Alliance Impact Intelligence Artificielle (AIIA), on peut revoir la plupart des conférences et panels sur la chaine Youtube de AIIA.  La principale animatrice de l’évènement, Valentine Goddard, résume mieux que je ne saurais le faire les questions soulevées et pistes ouvertes dans un article (en anglais) au sous-titre (en français) synthétique : Pour que l’intelligence articifielle contribue au bien public, les citoyens doivent participer au débat sur les valeurs qui seront intégrées aux politiques et aux systèmes d’IA. Cet article et au moins deux autres, issus de conférences données au colloque((How can Indigenous knowledge shape our view of AI? et L’IA et nos principes de justice fondamentale)), font partie du dossier Dimensions éthique et sociale de l’intelligence artificielle, publié par la revue Options politique de l’IRPP, l’Institut de recherche en politiques publiques. Tracey Lauriaut mérite d’être lue : Values-based AI and the new smart cities, à propos du projet Sidewalk Labs (du groupe Alphabet) à Toronto.

L’intelligence artificielle est un terme flou, qui réfère autant à l’aide à la décision déjà à l’oeuvre dans les domaines juridique et médical, grâce à la consultation de masses importantes de données formelles accumulées dans ces secteurs, qu’aux systèmes de gestion des flux de circulation dans les villes ou encore aux méthodes du « deep learning » où les machines apprennent par elles-mêmes à partir de masses de données ou d’interactions pratiques dont elles tirent les leçons. Parce que les leçons ou décisions tirées de ces « apprentissages profonds » ne sont pas toujours explicables ou explicites (les interactions, corrélations et computations étant trop nombreuses et complexes), plusieurs conférenciers et auteurs ont mis de l’avant la nécessité de connaître et d’avoir accès aux algorithmes qui fondent les décisions et recommandations de l’IA. Une accessibilité aux algorithmes et aux données qui pourrait être garantie par une instance publique. On a parlé d’une éventuelle certification ISO pour le caractère éthique et respectueux des droits humains des mécanismes d’IA développés par les entreprises et les États.

Si on veut éviter que les règles habituelles s’appliquent au développement de l’IA, et ne servent qu’à accentuer et accélérer la concentration de richesse plutôt qu’à résoudre les problèmes qui confrontent nos collectivités, il est proposé de développer un Index de l’impact social qui permettrait de mesurer, en les distinguant des indicateurs habituels de rendement et résultats financiers, les coûts et rendements sociaux d’une entreprise ou une institution. La méthode proposée du Social Return On Investment (SROI) a fait l’objet d’une page et d’une fiche synthèse (pdf, 8 pages) par le TIESS l’an dernier. On y indique cependant que la « méthode SROI est très souvent coûteuse en ressources. »

Les annonces du gouvernement fédéral en soutien à une supergrappe d’entreprises autour de l’IA (SCALE.AI) n’avaient pas été faites au moment du colloque de janvier. Les gouvernements provincial et fédéral avaient annoncé en 2017 quelques 225M$ pour soutenir de développement des réseaux canadiens et québécois de recherche et développement en intelligence artificielle. Avec l’annonce récente du fédéral (15 février 2018) d’un financement milliardaire (950M$  pour les 5 grappes) qui « misera sur l’intelligence artificielle et la robotique afin de faire du Canada un chef de file mondial de la numérisation des chaînes d’approvisionnement industrielles » on ne semble pas s’orienter particulièrement vers la mission sociale ou la mesure de l’impact social des entreprises… On précise plutôt que l’objectif est d’accroître les revenus et la performance de ces entreprises. On comprend qu’il s’agit de la performance économique.

Les questions soulevées par le colloque de janvier, mais aussi par d’autres initiatives telle la Déclaration de Montréal IA Responsable_, sont d’autant pertinentes et urgentes que ces investissements massifs des gouvernements et entreprises privées risquent d’accélérer la concentration des richesses, des savoirs, des droits et des pouvoirs entre les mains d’un nombre de plus en plus restreint de corporations et de personnes.

Rôles des gouvernements, des OBNL, de la philanthropie

Le gouvernement fédéral Libéral se veut un leader mondial en matière de gouvernement numérique et ouvert : il occupe depuis peu un des quatre postes de représentants gouvernementaux (avec Italie, Afrique du Sud et Corée du Sud) au comité directeur du Partenariat pour un gouvernement ouvert ((Une organisation regroupant 75 gouvernements et des centaines d’organisations de la société civile)); le Canada est aussi devenu en mars 2017 l’un des 7 États membres du « Digital 7 », le D7, avec l’Estonie, Israël, la Nouvelle-Zélande, le Royaume-Uni, la Corée du Sud et l’Uruguay. Un groupe d’États dont la mission vise « à adopter la technologie numérique dans l’intérêt des citoyens.» Ce comité se veut « une tribune qui permet aux nations membres d’échanger des pratiques exemplaires, de déterminer la façon d’améliorer la prestation de services numériques aux citoyens, de collaborer à des projets communs et d’appuyer et de promouvoir leurs économies numériques respectives en expansion.» La représentante de la Nouvelle-Zélande, qui semble avoir le leadership pour le moment, insiste sur les dimensions citoyenne et démocratique de l’orientation : « develop a fully citizen-centric approach (…)  make sure all our citizens are thriving in a digital world. »

Le président du Conseil du Trésor, Scott Bryson, est le ministre représentant le Canada sur ces deux comités internationaux. De manière congruente avec les principes d’un gouvernement ouvert, Michael Karlin, du Secrétariat du Conseil du Trésor du Canada, proposait récemment pour commentaires et co-construction un document intitulé  :  Responsible artificial intelligence in the Government of Canada. En plus d’identifier différentes avenues concrètes par lesquelles l’IA pourrait aider à « mieux servir les canadiens », de même que les risques qui doivent être pris en compte, l’auteur nous rappelle que l’IA n’est pas une personne, mais bien un logiciel qui ne devrait en rien diminuer la responsabilité de l’organisation qui l’utilise.

AI is software, not a conscious being, and should not be ascribed agency over its actions. Doing so removes the accountability of an organization over its software. 

Une telle consultation semble bien reçue par le milieu, qui souligne toutefois l’effort à faire pour inclure des populations marginalisées ou réticentes (autochtones, syndicats). On note aussi les ressources limitées que les OBNL ont pour participer à de telles consultations, dont l’utilité ou l’impact sur les orientations gouvernementales sont loin d’être toujours évidents. Michael Geist parle même d’une « crise de la consultation » (Too Much of a Good Thing: What Lies Behind Canada’s Emerging Consultation Crisis).

Des initiatives comme celles de l’AIIA, ou encore la Déclaration de Montréal, ont le mérite de poser des questions, identifier des principes qui devraient guider l’action, de créer des ponts entre des mondes trop souvent étrangers (mission sociale et développement technologique). Que le gouvernement fédéral réfléchisse de manière ouverte et réactive aux conditions à réunir pour une application judicieuse et d’intérêt public de l’IA, c’est une bonne nouvelle. Mais c’est d’abord une question de régie interne des programmes et services gouvernementaux. Sûr que le gouvernement peut et doit jouer un rôle de bon élève, d’utilisateur exemplaire et responsable de la puissance de l’IA. Mais l’exemple suffira-t-il ? À la vitesse Grand V à laquelle les investissements se précipitent dans le domaine ?

Le fait d’assujettir chaque supergrappe à des chaines de production, de fabrication ou d’approvisionnement et à un financement au moins équivalent apporté par le privé, cela garantie que les investissements publics seront alliés à la croissance des intérêts dominants des secteurs retenus. Il est peut-être des réflexions qui mériteraient d’être menées à l’abris des pressions avides du marché.

La Fondation Ford et la Fondation MacArthur financent le AI Now Institute, logé à l’Université de New-York. L’institut a publié deux rapports. Le premier (2016) portait sur les impacts sociaux et économique de l’IA sur un horizon de 10 ans, alors que le second rapport, publié en 2017, se concentrait sur « labor and automation, bias and inclusion, rights and liberties, and ethics and governance. »