Publications

Innovation inclusive en matière d’intelligence artificielle : de la fragmentation à l’unité

27 mars 2023

Temps de lecture : 67 minutes

Préface

Veuillez noter que cette publication est une reproduction d’un article du livre Angles morts de la gouvernance de l’IA publié par l’UNESCO et Mila. Cette publication est disponible en libre accès sous la licence Attribution-Partage dans les mêmes conditions 3.0 Organisations internationales CC BY-SA 3.0 IGO. En utilisant le contenu de cette publication, les utilisateurs et utilisatrices acceptent d’être lié.e.s par les conditions d’utilisation du référentiel en libre accès de l’UNESCO, à l’exception de la section Réutilisation/Adaptation/Traduction. Pour tout travail dérivé, veuillez inclure la clause de non-responsabilité suivante : « Le présent travail n’est pas un document officiel de l’UNESCO ni de Mila et ne doit pas être considéré comme tel ».

Capture d'écran de la couverture du livre - Angles morts de la gouvernance de l’IA

[L’utilisation du logo de l’UNESCO ou de Mila sur les travaux dérivés est interdite. Le créateur ou la créatrice du travail dérivé est la seule personne responsable de toute action ou procédure judiciaire et indemnisera l’UNESCO et Mila et les dégagera de toute responsabilité en cas de préjudice, de perte ou de dommage occasionnés en conséquence à l’UNESCO ou à Mila. Les appellations employées dans cette publication et la présentation des données qui y figurent n’impliquent de la part de l’UNESCO et de Mila aucune prise de position quant au statut, au nom ou à la souveraineté des pays, des territoires, des villes ou des zones ou de leurs autorités, ou quant au tracé de leurs frontières ou limites. Les idées et les opinions exprimées dans cette publication sont celles des auteurs et auteures. Elles ne sont pas nécessairement celles des éditeurs et éditrices, de l’UNESCO ou de Mila, de son conseil d’administration ou de leurs pays membres respectifs.]

Citation: Ubalijoro, E., Poisson, G., Curran, N., Baek, K., Sabet-Kassouf, N. et Teng, M. (2023) Innovation inclusive en matière d’intelligence artificielle : de la fragmentation à l’unité. In B. Prud’homme, C. Régis, G. Farnadi, V. Dreier, S. Rubel et C. d’Oultremont (eds.), Angles morts de la gouvernance de l’IA. Paris, France et Montréal, Canada: UNESCO et Mila – Quebec Artificial Intelligence Institute, pp. 247-268. https://unesdoc.unesco.org/ark:/48223/pf0000384801

Auteur.e.s

Éliane Ubalijoro
Directrice exécutive, Durabilité à l’Ère Numérique et directrice du pôle canadien de Future Earth, Montréal, Canada.

Guylaine Poisson
Professeure agrégée, Département des sciences de l’information et de l’informatique, Université d’Hawaï à Mānoa, Honolulu, Hawaï, États-Unis.

Nahla Curran
Étudiante de premier cycle, Département d’économie, de philosophie et de science politique, Université de la Colombie-Britannique – Okanagan, Kelowna, Canada.

Kyungim Baek
Professeure agrégée, Département des sciences de l’information et de l’informatique, Université d’Hawaï à Mānoa, Honolulu, Hawaï, États-Unis.

Nilufar Sabet-Kassouf
Responsable des programmes stratégiques, Durabilité à l’Ère Numérique et Future Earth, Montréal, Canada.

Mélisande Teng
Étudiante au doctorat, Mila et Université de Montréal, et stagiaire LIEN-D, Future Earth, Montréal, Canada.

Éditeurs

UNESCO, Mila – Quebec Artificial Intelligence Institute

Résumé

L’intelligence artificielle (IA) façonne l’avenir de l’humanité. Mais qu’arrive-t-il quand seulement une partie de la société est présente à la table autour de laquelle cet avenir se définit ? L’innovation a tendance à se centrer sur le profit et la croissance, et à tout simplement reléguer l’inclusivité en marge. Il en résulte une ère numérique fragmentée où se multiplient les préjugés, les disparités et les inégalités, et qui commande des compromis sociaux relativement au bien-être général ainsi que des compromis technologiques quant à la performance et à la fiabilité de l’IA. Dans ce chapitre, nous examinons le rôle que jouent, au moment de définir des politiques en matière d’IA et de susciter la mobilisation de parties prenantes, le fossé numérique, le manque de diversité et de représentation dans le domaine de l’IA et celui des sciences, de la technologie, de l’ingénierie et des mathématiques (STIM) ainsi que l’incidence de l’innovation sur le financement de la recherche et ce qui la motive au sein du milieu universitaire, du gouvernement ou de l’industrie. Nous envisageons les conséquences qu’il y a à travailler en vase clos en vue d’améliorer la diversité et l’inclusion et examinons l’insuffisance d’une telle approche à susciter un changement systémique. Nous soutenons qu’il faut changer notre conception de l’innovation et envisager une innovation inclusive, et expliquons comment entraîner un tel changement. Inscrire l’inclusivité au cœur de l’avenir que nous façonnons au moyen de la technologie nous permettra de passer d’une ère numérique fragmentée à une unité qui profitera à tous et à toutes.


Cet article se rapporte aux Objectifs de Développement Durable (ODD) suivants : ODD 5 – Égalité entre les sexes ; ODD 9 – Industrie, innovation et infrastructure ; ODD 10 – Inégalités réduites ; ODD 11 – Villes et communautés durables ; ODD 16 – Paix, justice et institutions efficaces ; ODD 17 – Partenariats pour la réalisation des objectifs.

Introduction

L’intelligence artificielle (IA) est un moteur d’innovation dans une large gamme de secteurs et d’industries qui présentent différents besoins et doivent résoudre divers problèmes. En tant que telle, elle ne devrait pas évoluer en vase clos dans le seul domaine de la technologie ni d’aucune autre discipline. La conception, la mise au point, le déploiement et l’évaluation de technologies telles que l’intelligence artificielle sont complexes et nécessitent une interdisciplinarité. Mais qu’est-ce que l’innovation ? Il importe de répondre à cette question pour comprendre ce qui motive ou oriente actuellement l’innovation technologique.

Les innovations découlant de technologies et d’applications basées sur l’IA transforment rapidement de nombreux aspects de nos vies. Malheureusement, ce n’est pas toujours pour le bien de l’humanité. Dans ce chapitre, nous soutenons que les conséquences involontaires d’une IA inadaptée (empreinte de disparités et d’inégalités, et touchée par un nombre croissant de préjugés) peuvent être abordées en passant de l’idée d’« innovation » à celle d’« innovation inclusive ». L’innovation inclusive fait référence aux « moyens par lesquels de nouveaux biens et services sont offerts pour et/ou par ceux et celles qui ont été exclus du courant dominant du développement, en particulier les milliards d’individus vivant avec les revenus les plus faibles », ce qui élargit et diversifie finalement l’éventail de parties prenantes (Heeks et al., 2013, p. 1). Ce changement de mentalité devrait s’appliquer à toutes les étapes de la mise au point et du déploiement de technologies basées sur l’IA, ainsi que dans l’élaboration des politiques et l’amélioration des systèmes. Les innovations en matière d’IA devraient être intrinsèquement inclusives et interdisciplinaires. Selon Dre Katia Walsh (citée dans Larsen, 2021), « l’intelligence artificielle résulte de l’intelligence humaine, a été rendue possible par ses vastes talents et est également sujette à ses limites. Par conséquent, il est impératif que toutes les équipes qui travaillent dans la technologie et l’IA soient aussi diversifiées que possible ». La mesure dans laquelle l’IA peut vraiment profiter à la planète entière et même au-delà est liée au degré de diversité dont elle tient compte.

Dans ce chapitre, nous examinons certains des principaux obstacles à une innovation véritablement inclusive et les mesures nécessaires pour garantir que personne ne soit laissé pour compte. Ces obstacles comprennent les écarts et les préjugés inhérents qui touchent actuellement l’IA, la manière d’en financer les projets, ainsi que les motifs qui sous-tendent les investissements et orientent l’IA. L’incidence d’une technologie qui ne serait pas suffisamment inclusive ainsi que le manque d’efforts pour en pallier les causes sont largement sous-estimés et constituent un obstacle à la mise au point d’une IA qui profite à tous et à toutes. Les technologies de l’IA façonnent l’avenir de l’humanité, et une réflexion approfondie s’impose à ce sujet si nous souhaitons progresser convenablement.

Quête d’innovation

Depuis qu’Alan Turing (1950) a expliqué comment construire et tester des machines intelligentes et que l’expression « intelligence artificielle » a été adoptée en 1956 (McCarthy et al., 1955), des succès et des revers ont parsemé les soixante-dix ans d’histoire moderne de l’IA. L’engouement dont celle-ci fait l’objet depuis une dizaine d’années a été stimulé par l’accès à de grandes quantités de données, des ordinateurs abordables et rapides, et le développement de techniques d’apprentissage automatique, en particulier l’apprentissage profond. De nos jours, l’IA a imprégné de nombreux aspects de nos vies quotidiennes, des fils d’actualité des réseaux sociaux aux achats en ligne, en passant par la découverte de médicaments (Fleming, 2018 ; Jiménez-Luna et al., 2021 ; Lada et al., 2021) et la lutte contre les épidémies (Cho, 2020 ; Zeng et al., 2021). L’IA est l’une des forces majeures qui révolutionnent la société humaine et elle entraîne dans son sillage une nouvelle « ère numérique ».

Malheureusement, ces avancées ont créé une fracture mondiale d’un nouveau type, entre les riches et les pauvres en technologie. Les progrès rapides de l’IA ont creusé et élargi le fossé numérique et amplifié les a priori existants, par exemple, quant au niveau d’instruction, au genre, à la race, et à la distinction entre pays ou populations riches et pauvres (Carter et al., 2020). Il est intéressant de noter que les préjugés et les écarts observés actuellement dans l’IA reflètent en partie ceux qui ont tourmenté nos sociétés pendant des siècles. Alors que les avancées technologiques ont souvent amplifié le colonialisme au fil de l’histoire, il existe un réel danger d’aller vers de nouvelles formes de colonialisme renforcées par les technologies numériques et par ce qui propulse actuellement l’innovation dans ce domaine. Le colonialisme numérique se produit lorsque « des entreprises technologiques d’envergure extraient et analysent les données des utilisateurs et utilisatrices et qu’elles s’en servent à des fins de profit et d’influence sur le marché, obtenant un gain non négligeable pour avoir été la source des données » (Coleman, 2019, p. 417). C’est « l’exercice d’une autorité impériale dans la structure de l’écosystème numérique, logiciels, matériel électronique et connectivité de réseau, qui donne alors lieu à des formes de domination connexes » (Kwet, 2019, p. 1). Prenons à titre d’exemple la division du travail (celui de « travailleurs et travailleuses invisibles de l’IA », ce personnel chargé d’annoter des données, souvent issu de communautés moins privilégiées, et endurant l’isolement et des conditions de travail souvent difficiles) (Gray et Suri, 2019) et les préjugés dans les données utilisées pour entraîner les systèmes d’IA. Au fur et à mesure que nous concevons, multiplions et rassemblons les données qui alimentent les machines afin qu’elles apprennent, nous transférons inévitablement nos préjugés à l’IA. S’attaquer aux enjeux jusque-là négligés du développement et des politiques en matière d’IA servira non seulement à améliorer la technologie elle-même, mais également à lutter contre les préjugés et les écarts systémiques actuels et futurs (Li, 2020).

Il nous semble manifeste que, selon la manière dont nous envisageons les technologies basées sur l’IA, deux avenues s’ouvrent à nous : soit, par inadvertance, de nouvelles formes de colonialisme se perpétueront dans l’ère numérique (Voskoboynik, 2018), soit l’humanité pourra aller de l’avant, d’une manière inclusive, dans la poursuite d’un objectif commun consistant à régler les problèmes mondiaux actuels et à proposer de manière concertée des innovations ayant des retombées bénéfiques. Comment pouvons-nous nous assurer de suivre la bonne voie ?

Redéfinition des parties prenantes de l’IA

L’une des clés du succès des chercheurs et chercheuses du monde universitaire est d’obtenir du financement pour leurs recherches, et de publier dans des revues de premier plan et des actes de conférences. Pour y parvenir, il est conseillé aux personnes dont la carrière débute de donner la priorité à la recherche innovante dans leurs travaux. Mais qu’est-ce que l’innovation ? Lors de l’évaluation des propositions de recherche, les agences de financement envisagent l’innovation en tant qu’« activités et concepts créatifs, originaux et transformateurs » ou que « méthodes, approches, technologies de pointe ou concepts uniques et innovants » (National Science Foundation [NSF] and National Aeronautics and Space Administration [NASA] comme cité dans Falk-Krzesinski et Tobin, 2015, p. 15). Vu les occasions de financement limitées, un projet doit souvent montrer des avancées notables dans le domaine pour être considéré comme innovant. Cela signifie souvent qu’il faut s’efforcer d’employer la méthode la plus récente et la plus rapide qui soit et nécessitant de nombreuses ressources : technologies, algorithmes et systèmes dotés d’une puissance de calcul élevée, importante capacité de stockage, Internet rapide et fiable ou accès cellulaire (Thompson et al., 2020, p. 2).

Ces contraintes réduisent la portée de l’IA et sa capacité de répondre aux besoins mondiaux qui, à l’heure actuelle, se limitent principalement à ce qui engendre des profits dans les pays du Nord. En plus des problèmes inhérents qu’elles posent pour une société juste et équitable, elles représentent également des défis techniques dans la mise au point d’une « IA digne de confiance et vérifiable » (Dengel et al., 2021, p. 91) qui est adaptable en contexte de ressources limitées. Comme l’indiquent Dengel et autres (2021, p. 93),

current research evaluation methods and academic criteria tend to favor vertical, short-term, narrow, highly focused, community- and discipline-dependent research. It is the responsibility of all scientists in the academic world to foster a methodological shift that facilitates (or at least does not penalize) long-term, horizontal, interdisciplinary, and very ambitious research.

Cette optique s’applique également à l’industrie. Tel qu’il a été mentionné lors de la Conférence des Nations Unies sur le commerce et le développement à propos de la technologie et de l’innovation : « Comme pour toute nouvelle technologie, de nombreuses entreprises, lorsqu’elles innovent et produisent de nouveaux biens et services, ont tendance à se concentrer sur les consommateurs et consommatrices à revenu élevé qui peuvent supporter le coût initial élevé de ces produits » (UNCTAD, 2021, p. 125). Malheureusement, on néglige souvent la pertinence qu’auraient ces nouvelles technologies pour les pays en développement (’Utoikamanu, 2018).

Pour apporter les changements nécessaires dans la recherche et le développement, nous devons inclure toutes les parties prenantes qui sont touchées par les innovations en IA, pas seulement celles qui en bénéficient actuellement. De cette façon, nous pouvons percevoir la créativité d’une manière élargie qui comprend l’adaptabilité des techniques et leurs nouvelles applications.

Afin d’élargir les capacités de l’IA et de passer à des innovations plus inclusives, nous devons d’abord saisir les préjugés que les normes actuelles en matière d’innovation entraînent et perpétuent à la fois.

Fossé numérique et innovation inclusive

L’Organisation de coopération et de développement économiques définit le fossé numérique comme « l’écart qui sépare des individus, des ménages, des entreprises et des zones géographiques de différents niveaux socioéconomiques en ce qui a trait tant à l’accès aux technologies de l’information et de la communication (TIC) qu’à l’utilisation d’Internet dans une grande variété d’activités » (OCDE, 2001, p. 5).

Le fossé se creuse davantage entre le Nord et le Sud. Par exemple, en 2018, 80 % de la population en Europe utilisait Internet, contre seulement 25 % de la population en Afrique subsaharienne (UNCTAD, 2021, p. 78). Les ressources financières et technologiques se concentrent principalement dans les pays du Nord ou y sont acheminées, ce qui exclut souvent les parties prenantes du Sud de la scène mondiale de la recherche scientifique et de l’innovation (Chan et al., 2021 ; Garcia, 2021 ; Mishra, 2021 ; Reidpath et Allotey, 2019 ; Skupien et Rüffin, 2020). De plus, des écarts importants s’observent au sein des pays. La pandémie de COVID-19 a d’ailleurs attiré l’attention sur ces écarts alors que le monde passait en mode virtuel pour le travail, les achats, les services de santé et l’éducation, ce qui nécessite un ordinateur et une connexion Internet (United Nations, 2020). Bien qu’il s’agisse là d’un problème général et que cet exemple particulier soit récent, dans le domaine de la recherche et de l’éducation en matière d’IA, le manque de ressources causé par l’écart technologique est un problème à régler de toute urgence.

Le fossé technologique contribue de manière notable au manque de diversité des innovations en IA ou, pourrions-nous dire, il néglige ou sous-estime certaines grandes innovations. Comme ce domaine et son financement dépendent de la technologie de pointe, l’écart favorise l’étude et la recherche menées par des personnes issues de milieux socioéconomiques privilégiés (American University, 2020). Celles qui n’ont pas les moyens d’acheter un ordinateur ou dont l’accès Internet est lent ou inexistant sont mises de côté, ce qui a un effet sur le domaine dans son ensemble. Lorsque la grande majorité de la recherche en technologies basées sur l’IA est le fait de personnes provenant de milieux semblables, le reste du monde en est évincé. La technologie est souvent conçue et améliorée par des scientifiques et pour une partie de la population de leur pays, d’une région du monde. Il en résulte une inégalité que viendra alimenter la prochaine innovation technologique.

Pour réduire le fossé technologique, nous devons reconsidérer les critères d’évaluation de la qualité de l’innovation en matière d’IA, et l’innovation inclusive s’avère primordiale. Ainsi, on favoriserait de meilleures technologies basées sur l’IA adaptées à différentes communautés et on élargirait le bassin des parties prenantes. Alors que nous examinons comment les grands défis de ce siècle touchent de manière disproportionnée les personnes marginalisées, il est essentiel d’amener ces dernières à la pointe de l’innovation pour mettre l’innovation technologique au service de l’humanité et de la planète.

Diversité et représentation en IA et dans les STIM

Tant que l’inclusion sera perçue comme un « acte de charité » ou comme le fait d’accepter de revoir à la baisse nos ambitions de faire progresser la technologie, nous nous retrouverons avec des technologies tendancieuses. L’innovation inclusive doit être vue pour ce qu’elle est : un moyen d’aspirer à une technologie inclusive et équilibrée qui bénéficiera à tous et à toutes. Si nous voulons des machines capables de résoudre des problèmes complexes, nous devons les exposer à une grande variété de données. Cela signifie que des personnes possédant une expertise et des expériences diverses doivent participer à toutes les opérations du processus de développement de l’IA et des technologies basées sur l’IA : acquisition de données pour entraîner les systèmes d’IA, conception, mise au point, déploiement, exploitation, surveillance et maintenance. Une telle diversité devrait également caractériser tout ce qui concerne les politiques ou la prise de décisions liées à l’IA. Un manque de diversité et de représentation de toutes les parties prenantes pose le risque d’une omission par ignorance (pas nécessairement intentionnelle), ce qui rend le problème difficile à régler (Coded Bias, 2020).

Les enjeux de la diversité et de la représentation ne sont bien sûr pas inhérents à l’IA. Historiquement, le domaine des sciences, de la technologie, de l’ingénierie et des mathématiques (STIM) a eu une base à prédominance masculine blanche (Dancy et al., 2020, p. 1). La marginalisation dans les domaines des STIM touche indéniablement de nombreuses communautés, y compris les peuples autochtones, les personnes handicapées et les communautés LGBTI (Miller et Downey, 2020 ; Schneiderwind et Johnson, 2020). Dans ce chapitre, nous observerons plus particulièrement les préjugés sexistes, racistes et socioéconomiques.

| TABLEAU 1 |
Pourcentage de personnes employées aux États-Unis dans des professions informatiques et mathématiques (Bureau of Labor Statistics, 2010 ; 2020).

20102020
Femmes25.825.2
Hommes74.2*74.8*
Personnes blanches77.2*65.4
Personnes noires ou afro-américainen6.79.1
Asiatiques16.123.0
*Pourcentage estimé

Préjugés sexistes

Le tableau 1 montre une répartition professionnelle inégale dans le domaine de l’informatique et des mathématiques. Bien qu’il y ait généralement eu de légères améliorations en une décennie, la tendance n’est guère encourageante. Sans surprise, les femmes ne représentent, au sein des métiers de l’informatique et des mathématiques, que le quart du personnel et, fait alarmant, leur représentation a légèrement diminué au cours des dix dernières années. Bien que nous puissions attribuer ces mauvais résultats aux organisations axées sur la science qui n’embauchent pas autant de femmes que d’hommes (Picture a Scientist, 2020), l’écart de genre dans ce domaine commence bien plus tôt. Dans l’enfance, les filles font face à des stéréotypes relatifs aux STIM provenant de leurs parents, des normes sociales et des enseignants et enseignantes, ce qui en décourage beaucoup de s’intéresser à ce domaine (Hill, 2020). Les filles qui le font ou qui réussissent bien en mathématiques ou en sciences ne poursuivent pas toujours une carrière dans les STIM parce qu’elles pensent que ces professions sont « inappropriées à leur genre » (Hill et al., 2010, p. 22). Les facteurs observés dès un jeune âge démotivent de nombreuses femmes et filles très tôt. Les graves préjugés sexistes qui circulent par ailleurs dans les milieux de travail peuvent amener les femmes à délaisser une carrière dans les STIM. Ces préjugés ont trait, sans s’y limiter, à l’environnement de travail, aux responsabilités familiales et aux préjugés implicites (Hill et al., 2010, pp. 24-25).

Les préjugés inconscients envers les femmes peuvent représenter un obstacle majeur à la réussite et à l’avancement professionnel, et même motiver la décision de quitter le métier. Les lettres de recommandation rédigées pour des femmes illustrent par exemple les conséquences de tels préjugés. Les traits de personnalité y sont souvent relevés plutôt que l’expertise technique (Trix et Psenka, 2003, p. 215). De telles manifestations des préjugés inconscients réduisent la participation des femmes dans la conception de technologies basées sur l’IA et leur présence dans le monde scientifique en tant que décideuses politiques engagées. De plus, les femmes qui connaissent du succès dans leur domaine sont plus méprisées et moins appréciées que les hommes qui réussissent, ce qui rend l’environnement de travail malsain et difficile à changer. Dans les STIM relevant du secteur privé, les femmes quittent leur emploi en raison de l’incertitude quant à leurs chances d’avancement, du sentiment d’isolement, d’un environnement peu favorable et d’un horaire de travail intense (Hill et al., 2010, p. 24). N’ayant pas d’occasions d’avancement et étant victimes de microagressions constantes, les femmes n’ont aucune raison de rester dans un environnement où on essaie de les pousser vers la sortie.

En ce qui concerne l’état civil et les responsabilités familiales, il existe également des différences évidentes entre les hommes et les femmes. Dans les facultés universitaires de STIM, les femmes célibataires sont plus susceptibles d’occuper un poste menant à la permanence que celles qui sont mariées. En ce qui a trait aux enfants, les femmes s’abstiendraient d’en avoir ou retarderaient la maternité en raison d’exigences que le domaine leur impose et de l’approche traditionnelle selon laquelle il revient principalement à la femme de s’occuper des enfants (Hill et al., 2010, p. 26). De plus, une étude sur le maintien en fonction du personnel en génie a révélé que les femmes étaient plus susceptibles de délaisser le travail que les hommes en raison de problèmes de conciliation travail-famille (Frehill et al., 2008). Ces facteurs de discrimination fondés sur le genre contribuent tous au bas nombre de candidatures féminines et au faible maintien en fonction des femmes dans les STIM.

Préjugés racistes

De 2010 à 2020, il y avait une tendance à la hausse du nombre de personnes non blanches employées dans des professions du domaine de l’informatique et des mathématiques. Les facteurs qui contribuent à une faible présence de ces personnes dans le domaine sont semblables à ceux qui expliquent l’écart de genre. Dans cette section, nous nous concentrerons sur la sous-représentation des personnes noires, asiatiques, et hispaniques ou latino-américaines dans les STIM. Dès un jeune âge, les préjugés inconscients influent sur la décision d’un étudiant ou d’une étudiante de poursuivre ses études ou de les abandonner.

Une étude a révélé que les élèves noirs et noires à faible revenu auxquels au moins une personne noire a enseigné en 3e, 4e ou 5e année sont 29 % moins susceptibles d’abandonner l’école secondaire (Dodge, 2018). Au niveau secondaire, années où les STIM sont généralement présentées, les jeunes peuvent commencer à s’y intéresser avant d’aller au collège ; ces chances ne sont pas égales pour tous et toutes. Une étude de Teach for America a révélé qu’« une école sur quatre [aux États-Unis] propose des cours d’informatique » (Dodge, 2018). En règle générale, les écoles des quartiers aisés, qui ont une population étudiante majoritairement blanche, offrent d’aborder l’informatique, mais les jeunes issus de minorités ou à faible revenu n’ont pas cette chance. Sans y avoir été familiarisés au préalable à l’école, les jeunes cultivent difficilement de l’intérêt pour cette matière et croient peu en leurs chances d’étudier au collège dans un domaine perçu comme exigeant un talent inné (Leslie et al., 2015 ; Miller, 2017 ; Riegle-Crumb et al., 2019). Ils ont aussi souvent un faible sentiment d’identité et d’appartenance à la culture de l’« informaticien typique » (Metcalf et al., 2018, p. 613). Cet état de fait perpétue la croyance selon laquelle les personnes issues de minorités (tout comme les femmes) ne sont pas destinées à faire carrière dans les STIM, malgré l’intérêt qu’elles y portent (Dodge, 2018). Nous pouvons observer les conséquences de tels préjugés dans le système éducatif (aux États-Unis, par exemple) en examinant le faible pourcentage de personnes noires, asiatiques et hispaniques se joignant au marché du travail dans les STIM (Barber et al., 2020 ; Clark et Hurd, 2020).

Le milieu de travail lui-même peut devenir un autre champ de bataille quand les défis présents dans le système éducatif ont été surmontés. Le racisme et les préjugés touchant les STIM nuisent considérablement à la diversité dans le domaine (McGee et Bentley, 2017 ; McGee, 2020). À San Francisco, par exemple, 60 % des personnes noires et 42 % des Asiatiques et des Hispaniques travaillant dans les STIM subissent de la discrimination raciale (Dodge, 2018). Celle-ci ne prend pas toujours la forme d’un discours haineux. Comme les femmes, les personnes de minorités ethniques subissent des écarts salariaux et des microagressions, ne se voient pas offrir des promotions ou des projets importants, et moins de valeur est accordée à leur travail (Dodge, 2018). Ces facteurs contribuent tous à créer un milieu de travail néfaste qui non seulement nuit aux groupes minoritaires, mais diminue l’intérêt que ces derniers portent au domaine et conduit des personnes à le quitter complètement (Dodge, 2018). Par conséquent, attirer et retenir davantage de populations minoritaires dans l’enseignement des STIM est une première étape nécessaire pour atténuer les a priori dans l’IA.

Nous avons précédemment fait ressortir deux écarts majeurs qui surviennent tôt dans le système éducatif, à savoir les préjugés inconscients et le manque d’accès aux cours d’informatique pour les enfants issus de minorités. Le personnel éducatif est susceptible d’avoir des préjugés inconscients, et il ne faudrait pas sous-estimer son rôle dans le fait que les enfants s’intéressent ou non aux STIM (Bushweller, 2021). Il est donc important de prévoir une formation appropriée sur les préjugés tôt dans le parcours éducatif, car les écarts qui y naissent creusent ceux qu’on observe plus tard dans les STIM (Warikoo et al., 2016).

En ce qui concerne le manque de cours d’informatique, une solution possible à ce problème consiste à soutenir les organisations à but non lucratif offrant des programmes d’informatique, idéalement celles qui sont dirigées par des personnes de minorités ethniques. L’embauche d’enseignants et enseignantes, le don de technologies à jour et la recherche d’un environnement approprié sont des composantes essentielles de la réussite. Le fait qu’il y ait des responsables issus de minorités est un avantage ; les jeunes réussissent mieux lorsqu’ils et elles apprennent de personnes ayant un parcours semblable au leur (Rosen, 2018). L’intégration de programmes parascolaires au sein de la communauté, des programmes menés par la communauté, représente également un moyen d’encourager les cours d’informatique dans le cheminement scolaire en faisant augmenter la demande générale à cet égard. Il s’agit d’une piste de solution à ne pas négliger pouvant mener à l’innovation inclusive en IA.

Préjugés socioéconomiques

Enfin, un autre préjugé important dans le domaine a trait au statut socioéconomique. Une étude de Yale a révélé que la façon dont un individu prononce certains mots est révélatrice de son statut social (Cummings, 2019). Bien qu’une prononciation distincte ne soit pas un problème majeur en soi, le statut socioéconomique d’une personne peut influer sur une décision d’embauche. La même étude portant sur 274 « individus ayant une expérience de l’embauche » a révélé que, sans aucune information sur les compétences, ces responsables estimeraient que les candidats et candidates de statut socioéconomique élevé sont plus aptes à occuper le poste que ceux et celles de statut modeste (Cummings, 2019), et qu’ils et elles bénéficieraient d’un meilleur salaire et de chances accrues d’obtenir des primes.

Cette idée préconçue est généralisable à l’ensemble de la main-d’œuvre. Cependant, si nous revenons aux préjugés racistes dans les STIM, nous observons qu’il y a une intersection entre race et revenu, et que le genre recoupe également ces deux facteurs. Aux États-Unis, la population de nombreux quartiers défavorisés est fortement composée de groupes ethniques minoritaires, plus particulièrement de personnes noires ou latino-américaines. Cela découle d’une longue histoire de discrimination qui a ségrégué et ghettoïsé ces groupes ethniques, ainsi qu’à un financement réduit au strict minimum (Firebaugh et Acciai, 2016, p. 13372). Il en résulte des écoles mal financées et un accès limité aux emplois. Que des employeurs privilégient les candidats et candidates à revenu élevé s’ajoute au fait que le statut socioéconomique d’une personne influe dès son plus jeune âge sur son avenir à long terme. Il n’y a aucune obligation pour les entreprises d’embaucher un certain pourcentage de leurs recrues dans les quartiers défavorisés. Sans diversité socioéconomique dans les STIM, il y a peu de représentation d’une partie importante de la population et la technologie mise au point pour aider les populations de ces quartiers ne sera teintée que de l’optique de personnes à revenu élevé.

Il est particulièrement important de tenir compte de la diversité dans les STIM pour résoudre certains des principaux défis actuels de l’IA. L’un de ces défis concerne la « pénurie de talents », c’est-à-dire « le manque d’experts et d’expertes hautement qualifiés dans la construction de systèmes d’IA » (Dengel et al., 2021, p. 93). Comme nous l’avons vu, une partie importante de la population est actuellement exclue du développement et ne peut offrir son talent et son expertise en IA en raison de préjugés systémiques (quant au sexe, à la race, au statut socioéconomique) même dans les pays qui sont sur le côté technologiquement riche du fossé numérique. Un autre défi majeur concerne l’efficacité des systèmes d’IA au regard de la représentativité insuffisante des données qui les alimentent (Kuhlman et al., 2020).

Les humains nourrissent un algorithme « vierge » à partir de leurs expériences limitées et de leurs préjugés et, petit à petit, cet algorithme apprend à reproduire des comportements en conséquence. En fin de compte, on obtient une technologie peu fiable sans qu’il y ait faute de sa part. Elle n’a fait que son devoir : apprendre et reproduire ce qu’on lui a appris.

Biais algorithmique appliqué

Le manque de ressources et le fossé technologique qui sont à l’origine du manque de diversité dans la recherche posent particulièrement problème quand il est question des préjugés acquis par les technologies basées sur l’IA. De tels biais algorithmiques se manifestent dans des applications diverses, notamment dans des technologies de reconnaissance faciale ou des outils servant à embaucher du personnel. Dans le documentaire Coded Bias, Joy Buolamwini, chercheuse au MIT Media Lab, a découvert que l’IA de son projet Aspire Mirror – un « dispositif qui vous permet de vous regarder et de voir une réflexion sur votre visage en fonction de ce qui vous inspire ou de ce avec quoi vous espérez sympathiser » basé sur un logiciel de détection de visage51 – ne reconnaissait pas son visage de femme noire (Coded Bias, 2020). Elle a dû mettre un masque blanc pour que la machine détecte son visage. Cela pourrait sembler une simple erreur ou un bogue du logiciel, mais cette technologie a déjà de réelles applications, et l’expérience de Buolamwini a été reproduite mille fois.

L’un des usages les plus courants des technologies basées sur l’IA vise la surveillance et la sécurité, généralement la reconnaissance faciale. Coded Bias explore cette question en détail. Buolamwini y explique que, puisque l’algorithme de reconnaissance faciale est programmé par des hommes blancs, il est alimenté de visages blancs et masculins. Après avoir mentionné ce problème à des entreprises comme Microsoft et IBM, Buolamwini a constaté qu’IBM avait amélioré la précision de son algorithme pour qu’il reconnaisse non seulement la couleur de la peau, mais aussi le genre, comme le montre le tableau 2.

| TABLEAU 2 |
Degré de précision de l’algorithme d’IBM, en 2017 et en 2018 (Buolamwini, 2019).

20172018
Couleur de peau et genre
Foncée/masculin88.0%99.4%
Claire/masculin99.7%99.7%
Foncée/féminin65.3%83.5%
Claire/féminin92.9%97.6%

En juin 2020, M. Williams, un Noir du Michigan, a été arrêté pour vol après une reconnaissance faciale du voleur (Hill, 2020). Les policiers ayant eu confiance dans l’algorithme, ils l’ont arrêté sans effectuer de vérifications au préalable (par exemple, vérifier son alibi, interroger des témoins, etc.). Ce dernier a ensuite été libéré et il y a eu abandon des accusations, mais l’erreur commise par l’algorithme et le mauvais travail des policiers auraient pu coûter la vie à M. Williams61. Étant donné la surabondance de caméras en place, le recours à la reconnaissance faciale comme outil de surveillance devient lentement une réalité, et l’identification erronée et la poursuite de personnes innocentes peuvent monter en flèche (Raji et al., 2020). Dans le même ordre d’idée que les préjugés présents dans les activités de maintien de l’ordre et de sécurité, la technologie basée sur l’IA affecte par ailleurs inégalement des policiers et policières à certaines communautés (Heaven, 2020). Il y a toujours eu une surveillance excessive des communautés non blanches, des secteurs dits « ghettoïsés ». Un algorithme, par exemple celui que décrit l’article d’Osoba et Welser (2017), apprendra en se fondant sur ces données historiques sur l’affectation des ressources policières. Il apprendra à accroître la vigilance dans les secteurs où la tendance en matière de criminalité semble plus élevée, et conduira à une répartition inéquitable de l’effectif policier, qui mènera à son tour à une « criminalisation » inéquitable (Osoba et Welser IV, 2017, pp. 14-15). Cela entraînera une augmentation du nombre de personnes issues de minorités emprisonnées en raison de délits mineurs, comme la possession de marijuana, les excès de vitesse ou la situation d’itinérance, ce qui amplifie les préjugés inhérents au système (Heaven, 2020 ; O’Donnell, 2019). Ne pas corriger ces préjugés les renforcera au sein des systèmes d’IA, qui continueront alors à affecter l’effectif policier de manière inégale dans les communautés marginalisées.

Une quantité substantielle de biais algorithmiques marque également le processus de recrutement en IA et en informatique. L’excès de confiance dans les algorithmes creusera les écarts créés par les préjugés à l’embauche, ce qui se produit souvent à l’insu des employeurs (Hickok, 2020). Comme Bogen (2019) l’explique dans son article, l’IA intervient à plusieurs égards dans l’embauche, avant même la réception de candidatures. Les offres d’emploi ciblées faites dans Facebook, LinkedIn et Indeed contribuent à renforcer les préjugés racistes et sexistes en déterminant « qui est le plus susceptible de cliquer sur l’annonce » (Bogen, 2019). Une étude conjointe de l’Université Northeastern et de l’Université de Californie du Sud s’est penchée sur la diffusion asymétrique des offres d’emploi dans Facebook. Par exemple, dans les cas extrêmes, les emplois de caissier ou caissière « atteindraient un public à 85 % féminin », tandis que les postes dans les entreprises de taxi « atteindraient un public composé de 75 % de personnes noires », même si les employeurs offrent les postes à tous les groupes démogra- phiques (Ali et al., 2019, p. 4). C’est que l’algorithme a retenu la préférence des responsables du recrutement à l’égard des candidats et candidates, et il cible les personnes qui correspondent à cette préférence. Encore une fois, l’algorithme a pour tâche d’adapter et de répliquer les données qu’il reçoit, et d’apprendre de ces données.

Tout au long du processus d’embauche, l’algorithme peut éliminer un nombre important de candidats et candidates ayant de l’expérience, mais n’étant pas associés aux expressions ou aux mots-clés employés pour entraîner l’algorithme (Bogen, 2019). Certains algorithmes se fondent également sur des décisions d’embauche antérieures pour déterminer les candidatures à rejeter, ce qui peut perpétuer la discrimination (Dastin, 2018). D’autres outils d’embauche détermineront qui aura du succès dans un poste en fonction de l’expérience passée, d’évaluations de rendement, de la durée d’emploi et parfois de l’absence de renseignements négatifs comme des mesures disciplinaires (Bogen, 2019). Ces algorithmes d’embauche se trouvent bien sûr dans d’autres domaines que celui de l’IA. Les algorithmes d’embauche reproduisent et amplifient les préjugés humains dont nous discutons dans ce chapitre (quant au genre, à la race ou au statut socioéconomique), perpétuant le cercle vicieux qui alimente le manque de diversité en informatique et en programmation de l’IA.

Les problèmes liés à l’IA abordés jusqu’à présent (manque de diversité, biais algorithmique appliqué, recherche en vase clos au sein d’une seule discipline et innovation non inclusive) restent souvent sous-évalués en ce qui concerne les effets qu’ils ont tant sur la qualité de la technologie que sur la main-d’œuvre, et plus largement sur l’avenir de l’humanité. En renonçant à une innovation véritablement inclusive, nous compromettons essentiellement le bien-être et la prospérité dans le monde ainsi que des normes élevées en matière de performance et de fiabilité de l’IA (Dengel et al., 2021) au nom du profit à court terme. L’actuelle structure de financement de la recherche en IA est l’un des principaux facteurs qui alimentent cette compromission.


51. Pour plus d’information sur le projet Aspire Mirror, voir : http://www.aspiremirror.com/

52. Un incident similaire s’est produit en 2017. Un travailleur palestinien a été arrêté à tort à cause de la traduction automatique de Facebook, qui a rendu son « bonjour », écrit en arabe, par « attaquez-les » en hébreu et « faites-leur du mal » en anglais. Voir Berger (2017).

Structures de financement et motivations

Les obstacles à une IA véritablement inclusive se fondent sur la manière de financer la recherche dans ce domaine et les raisons de le faire. Dans l’état actuel des choses, les projets financés par l’industrie ou des organismes du secteur public ne mettent malheureusement pas l’accent sur l’inclusion et la diversité. Souvent, ce ne sont pas des projets interdisciplinaires ou collaboratifs, et ils ne tiennent pas compte de la croissance du capital humain, social et naturel autant que du rendement de l’investissement. Les innovations qui en découlent influent à leur tour sur l’orientation que les décideurs et décideuses font prendre aux nouvelles technologies, ce qui se répercute ensuite sur la façon de répartir le financement. Ainsi, un cercle vicieux complexe se perpétue.

Bien qu’il ne soit pas intentionnel, un cercle vicieux se crée vu le caractère indissociable des projets de recherche en IA, des sources de financement et des politiques, et il se renforce en raison d’une diversité limitée des parties prenantes bénéficiant des innovations en matière d’IA ou ayant de l’influence à cet égard.

IA et monde universitaire

Que ce soit directement ou indirectement, des entreprises mènent la plupart des recherches sur l’IA ou soutiennent les nouvelles technologies. Comme l’indique le rapport fédéral sur le financement de la recherche et du développement de 2021 du Congressional Research Service (2020), 54 % de la recherche appliquée et 85 % du développement aux États-Unis ont été financés par des entreprises (consulter la figure 1). Une évaluation récente de la politique et du financement en matière d’IA au Canada montre que même le financement public est principalement destiné à « l’industrie et [au] milieu universitaire ayant des liens avec l’industrie. Le milieu universitaire sert souvent d’intermédiaire entre l’industrie et le gouvernement. Indirectement, ces fonds peuvent toujours profiter à des organisations à but lucratif » (Brandusescu, 2021, p. 37). Cette réalité peut fortement entrer en jeu dans la recherche universitaire et l’élaboration de politiques ainsi que dans le degré d’influence qu’ont les entreprises sur l’innovation en IA.

En matière d’IA, le secteur privé est inextricablement présent dans le milieu universitaire. Selon le Artificial Intelligence Index Report produit par la Stanford Institute for Human-Centered Artificial Intelligence (Zhang et al., 2021, p. 21), plus de 15 % des publications évaluées par des pairs en 2019 provenaient d’entreprises présentes dans tous les grands pays et les grandes régions du monde. L’industrie absorbe également la majorité de l’expertise en IA issue du milieu universitaire (en 2019, 65 % des doctorants et doctorantes en IA en Amérique du Nord ont intégré l’industrie après avoir obtenu leur diplôme) (Zhang et al., 2021, p. 4). Les entreprises parrainent également de nombreuses conférences et plusieurs ateliers dans le domaine, ou y sont très présentes (Alford, 2021). Par exemple, lors de l’International Conference on Learning Representation (ICLR) tenue en 2021, près de 30 % des communications étaient le fait d’entreprises telles que Google, Amazon, IBM et Facebook. De plus, quatre communications de Google et une de Facebook faisaient partie des huit ayant obtenu un prix d’excellence (ICLR, 2021).

La plupart des entreprises en IA sont guidées par des programmes de recherche et développement fortement influencés par la demande du marché et le rendement de l’investissement. Les innovations qui révolutionnent le domaine, qui apportent de nouveaux éléments d’actif ou qui élargissent les horizons sont au cœur de ces programmes, et l’expertise et les compétences acquises dans le milieu universitaire constituent une ressource à part entière. C’est l’une des raisons pour lesquelles l’industrie finance la recherche universitaire. Il s’ensuit que de nombreux projets de recherche portent l’empreinte des besoins de l’industrie. Cette dynamique entre l’industrie et le monde universitaire crée une tension double. Premièrement, puisque la plupart des protagonistes de l’industrie de l’IA et de la technologie se concentrent dans les pays du Nord (Chan et al., 2021), les écarts qui empêchent l’innovation de vraiment profiter à tous et à toutes se creusent davantage. Deuxièmement, le domaine s’oriente de manière disproportionnée vers les intérêts du secteur privé plutôt que le bien public.

Des collaborations étroites entre l’industrie et le milieu universitaire ne posent pas problème en soi ; elles peuvent profiter à la recherche et à l’enseignement dans les établissements universitaires (Etzioni, 2019). Le capitalisme des parties prenantes, « une forme de capitalisme dans laquelle les entreprises recherchent la création de valeur à long terme en tenant compte des besoins de toutes leurs parties prenantes et de la société dans son ensemble », peut être envisagé comme une solution viable pour les personnes et la planète (Schwab et Vanham, 2021). Il oblige cependant les industries à placer l’interdisciplinarité et l’innovation inclusive au cœur de leur stratégie en matière d’IA, en opérant finalement un virage de la demande du marché vers les biens publics et en intégrant des personnes et des communautés marginalisées parmi les principales parties prenantes.

Boucles de rétroaction : financement public, motivations du secteur privé, politiques

L’enthousiasme suscité par l’IA réduit le financement de la recherche fondamentale au profit de la recherche appliquée et de la « grande innovation » commercialisable à court ou moyen terme. Ainsi, l’IA change rapidement les règles du jeu quant au financement des secteurs public et privé. La recherche et le développement appliqués sont souvent motivés par le potentiel de rendement sur l’investissement (en ce qui a trait à la fois au profit et à la croissance). Actuellement, la recherche appliquée est essentiellement financée par le secteur privé (Congressional Research Service, 2020, figure 1). Étant donné que l’industrie finance également indirectement la recherche universitaire (par exemple en soutenant des programmes de financement public) (Brandusescu, 2021), il est difficile de ne pas percevoir la forte influence du secteur privé sur l’orientation que prend l’IA. En outre, cette influence se répercute sur les stratégies de croissance économique qui, à leur tour, influent également sur les programmes de financement public (voir la figure 1).

| FIGURE 1 |
Structure de financement de l’IA et motivations. Adaptée des modèles de Kimatu (2016) et d’Ondimu (2012).

Illustration du diagramme de Venn « Grande innovation » passant au diagramme de Venn « Innovation inclusive ».

Ainsi, « il vaut la peine de se demander comment l’économie de l’innovation subit l’influence d’intérêts privés et du pouvoir privé et, par extension, comment se rédigent les politiques publiques en matière d’IA » (Brandusescu, 2021, p. 38). Compte tenu du mécanisme de rétroaction, en IA, entre le financement public et les innovations au sein du secteur privé, la nécessité de placer l’inclusivité au cœur de ces innovations n’a jamais été aussi pressante si nous voulons des technologies basées sur l’IA qui profitent à tout le monde et jouissent de la confiance de tous et de toutes. L’innovation est un moteur important de la recherche et du financement, et elle influe directement sur le milieu universitaire, le gouvernement et l’industrie. Passer de la « grande innovation » à l’« innovation inclusive » peut modifier les dynamiques de la recherche et du financement, les politiques en matière d’IA et la mobilisation des parties prenantes de telle sorte que personne ne soit laissé pour compte.

Il y a des avantages à faire sortir l’IA de l’actuel vase clos de la science et de la technologie, et d’élargir ses horizons à des domaines tels que les neurosciences, la linguistique informatique, l’éthique, la sociologie et l’anthropologie (Rahwan et al., 2019, p. 477). Il s’agit notamment d’accroître l’interdisciplinarité et, au-delà de la technique, d’intégrer des compétences qui font cruellement défaut à l’IA en général et qui, de ce fait, entravent ses progrès (Dengel et al., 2021).

La loi nationale sur l’intelligence artificielle adoptée aux États-Unis en 2020 (United States Congress, 2020) vise à répartir le financement de la recherche sur l’IA et ses applications au sein d’un plus large éventail d’organismes gouvernementaux, c’est-à-dire au-delà de la défense nationale, qui, auparavant, dirigeait principalement les politiques américaines en la matière (Delgado et Levy, 2021). Cette loi ainsi que d’autres politiques et initiatives amorcent un changement dans le fonctionnement des agences de financement. Elles reconnaissent la nécessité de revoir les priorités de financement : « L’intelligence artificielle devient de plus en plus un domaine hautement interdisciplinaire nécessitant l’expertise d’un large éventail de disciplines scientifiques et d’autres matières universitaires qui ont traditionnellement évolué de manière indépendante et qui continuent d’affronter des obstacles culturels et institutionnels nuisant à une collaboration à grande échelle » (United States Congress, 2020).

Comme l’a cependant indiqué le Congrès américain dans l’une de ses conclusions : « Les investissements fédéraux actuels et les mécanismes de financement sont largement insuffisants pour susciter et soutenir la collaboration interdisciplinaire et celle des secteurs public et privé à grande échelle, lesquelles seront nécessaires au perfectionnement de systèmes d’intelligence artificielle fiables aux États-Unis » (United States Congress, 2020, pp. 3-4). Cela n’est pas surprenant si l’on considère la forte influence du secteur privé sur les critères de financement de la recherche et de l’innovation décrits précédemment. De plus, compte tenu de ces critères, il n’est pas rare que des chercheurs ou chercheuses adaptent leurs travaux pour qu’ils correspondent aux occasions de financement. Par conséquent, en plus du fait que les politiques publiques en matière d’IA sont prises dans un cercle vicieux, la qualité de l’IA en elle-même n’a qu’à satisfaire aux exigences du marché. Malheureusement, la ligne d’action actuelle en ce qui a trait à l’IA est principalement tracée par un nombre limité de parties prenantes sans grande diversité (Delgado et Levy, 2021). Afin de revoir les motivations et de briser le cycle, les critères de financement devraient prioritairement se focaliser sur l’innovation inclusive. Il faut mettre en balance, d’une part, le profit et la croissance et, d’autre part, les occasions d’apprécier un capital humain, naturel et social florissant.

Un soutien accru du gouvernement et de l’industrie à des projets communautaires, collaboratifs et interdisciplinaires constitue une façon d’accorder la priorité à l’innovation inclusive. En ce moment, la recherche de projets innovants et prestigieux signifie malheureusement trop souvent qu’on ne choisit pas de travailler sur une IA inclusive dans un contexte de ressources limitées et en vue d’avoir un effet localement, car cela ne révolutionne pas expressément le domaine à court terme et n’attire pas de financement. À titre d’exemple, la National Science Foundation (NSF, 2021) a pris l’engagement d’augmenter le financement de l’IA appliquée. Bien que cet engagement vise à diversifier la recherche, ne pas ancrer de telles initiatives dans l’innovation inclusive risque d’orienter les fonds vers l’innovation technologique et de les éloigner de la recherche fondamentale ne présentant pas une viabilité commerciale à court terme, ce qui défavorise les étudiants et étudiantes qui s’intéressent à la recherche axée sur le bien public (Viglione, 2020). Changer les motivations qui alimentent actuellement le cercle vicieux du financement permettrait à un nombre accru de chercheurs et chercheuses d’entreprendre avant la mi-carrière des projets centrés sur l’innovation inclusive et nourrirait l’expertise en matière d’IA inclusive. Nous soutenons qu’une innovation inclusive est la seule véritable innovation qui devrait être envisagée en IA si nous voulons que celle-ci profite à tous et à toutes. Cet objectif est irréalisable lorsque l’innovation en IA se produit en vase clos et qu’elle est principalement parrainée par l’industrie, sous la pression des actionnaires et au nom du profit.

Ruissellement

Pour justifier l’actuel manque d’inclusion dans l’innovation, le concept d’économie de ruissellement a parfois été étendu à une « science du ruissellement ». Une forte concentration de ressources et d’universitaires dans les pays du Nord devrait « produire la meilleure science », dont « des méthodes, des théories et des idées » s’écouleront vers ceux du Sud (Reidpath et Allotey, 2019, p. 1). Tout comme l’économie de ruissellement, ce modèle n’est pas viable et constitue en fait le contraire de la réalité (Reidpath et Allotey, 2019, p. 1), en partie en raison de ce qui motive le financement et oriente la demande du marché, comme il en a été question précédemment. Par exemple, la combinaison de la forte demande en ressources et d’un assouplissement de la réglementation et des mesures de protection de la vie privée dans les pays du Sud entraîne une exploitation accrue des ressources, tant humaines (forage de données) que naturelles (matériaux) (Arezki, 2021 ; Arun, 2020, p. 594 ; Mishra, 2021).

Il est également important de tenir compte de l’environnement politique de régions où les applications basées sur l’IA sont déployées. Dans bien des cas, les technologies mises au point pour quelques groupes privilégiés s’avèrent nuisibles dans des régions n’ayant pas autant de ressources. Le rapport d’enquête des Nations Unies sur le génocide des Rohingyas a par exemple fait remarquer que « Facebook [avait] été un instrument utile à qui cherchait à répandre la haine » (Human Rights Council, 2018, p. 34). Cela démontre l’effet puissant que les médias sociaux peuvent avoir sur les droits humains lorsqu’on les utilise là où l’environnement politique et médiatique est malsain.

L’innovation rapide se produit souvent aux dépens des personnes qui devraient profiter du ruissellement, alors que des répercussions néfastes l’emportent de manière disproportionnée sur tout avantage potentiel (Schia, 2018, p. 827). Ce déséquilibre n’est que renforcé par la continuelle exclusion de personnes et de communautés marginalisées en tant que parties prenantes clés. Comme l’a déclaré Shirley Chisholm : « S’ils ne vous accordent pas une place à table, apportez une chaise pliante ». Il ne faut pas sous-estimer l’importance de la représentation, aussi difficile soit-il d’assurer celle-ci. Et même quand on y parvient, le travail est loin d’être terminé.

Réelle signification de « avoir une place à table »

Les enjeux décrits dans ce chapitre ne sont bien sûr pas uniquement liés à l’IA ou à la façon de percevoir l’innovation. Ils sont représentatifs de problèmes systémiques plus larges qui évoluent quotidiennement. L’un des principaux obstacles au moment de les régler est le fait que les efforts actuels sont fournis en vase clos plutôt qu’abordés selon une perspective systémique.

De nombreuses initiatives relatives à l’IA sont déjà en place, telles que AI4ALL53, l’African Master’s in Machine Intelligence (AMMI)54, Quantum Leap Africa (QLA)55, le Centro de Excelencia en Inteligencia Artificial en Medellín56 et l’African Supercomputing Center (ASCC) de l’Université Mohammed VI Polytechnique (UM6P)57 au Maroc, et font beaucoup pour que l’IA profite à tous et à toutes et qu’elle comprenne une pluralité de points de vue.

Des entreprises telles que Google et Microsoft, des fondations, des responsables politiques et des organismes de financement publics investissent d’une certaine manière dans des projets d’IA pour le bien social58 et, ce faisant, financent des projets qui ne seraient probablement pas sélectionnés en fonction des directives actuelles qui régissent le financement. Si de telles initiatives ne s’ancrent pas dans l’innovation inclusive, elles peuvent avoir un effet pervers : accroître la marginalisation de groupes minoritaires (Latonero, 2019). Ainsi, le fait que ces fonds s’inscrivent à l’extérieur du cycle de financement habituel accentue la mise en marge de projets plutôt que de s’y attaquer.

Une mise en marge se produit également sur le plan individuel. Lorsque les groupes marginalisés ont pour unique porte d’entrée dans la recherche innovante des programmes spécialisés, il y a accentuation du « syndrome de l’imposteur » (Tulshyan et Burey, 2021) si commun aux personnes issues de minorités travaillant en sciences ou occupant un poste de haut niveau. Ces programmes visent à réduire l’écart en augmentant la présence de ces personnes dans les coulisses et dans la prise de décisions. Ils se penchent toutefois rarement sur des problèmes systémiques plus larges étant à la source de préjudices, d’environnements toxiques, ou de collègues toxiques qui perpétuent l’idée que les personnes de groupes minoritaires doivent être « invitées » à se joindre au cercle des scientifiques ou des responsables. En plus de subir un manque de confiance en soi qui, nous l’avons vu, commence dès l’enfance, ces personnes s’imposent une panoplie d’obstacles et d’attentes après avoir été réduites au silence « à la table » par les autres et trop souvent par elles-mêmes.

Malheureusement, ces programmes d’inclusion sont souvent perçus comme des efforts « suffisants » pour réduire les écarts (Puritty et al., 2017). Bien sûr, ils ne le sont pas concrètement. Nous le constatons dans le pourcentage de femmes occupant des emplois en mathématiques et en informatique aux États-Unis, qui est passé de 25,8 % en 2010 à 25,2 % en 2020 (voir le tableau 1). Ce sont de bonnes initiatives, alors pourquoi ne fonctionnent-elles pas comme prévu ? Comme le mentionnent Dengel et autres (2021, p. 90), « … nous avons encore besoin de beaucoup de travail de recherche et d’un changement de paradigme en IA afin de mettre au point une véritable IA pour l’humanité, une IA centrée sur l’humain ». Nous soutenons qu’une condition importante à l’instauration de ce paradigme consiste à inscrire l’inclusivité au centre de l’innovation plutôt que de le faire dans la périphérie ou après-coup. Nous ne sommes pas les premières à exposer tous les préjugés et les problèmes que soulèvent les technologies de l’IA. Nous ne sommes pas non plus les premières à mentionner l’ampleur des progrès accomplis. Mais il est important de continuer à rehausser les normes en ce qui a trait à l’inclusivité et à l’innovation. Ces mesures ne peuvent que contribuer à améliorer les structures au sein desquelles nous travaillons et les innovations auxquelles nous aspirons (comme nous l’avons vu avec les systèmes de reconnaissance faciale, par exemple). Selon Giridharadas (2021), un auteur connu pour sa critique de la prise de décision exclusive des élites concernant la manière de résoudre les problèmes mondiaux, tous les grands défis exigent des solutions publiques, institutionnelles, démocratiques et universelles. L’action et la prise de décision collectives sont plus bénéfiques pour tout le monde que l’action individuelle :

all grand challenges […] require public, institutional, democratic and universal solutions. They need to solve the problem at the root and for everyone. What we do together is more interesting, compelling, more powerful, more valuable than what we do alone. Current neo-liberal myth is that what we do alone is better and more beautiful than what we do together. We need to bring back the notion that we live in society within which we have interdependence. Valuing what we do together needs to be reclaimed. Only this collective intelligence will allow us to solve the grand challenges we face.


53. Consulter le site Web de l’initiative AI4ALL (2021) pour de l’information.

54. Voir AIMS (2021) pour des renseignements sur l’African Institute for Mathematical Sciences et l’African Master’s in Machine Intelligence.

55. Consulter le site Web de Quantum Leap Africa (2021) pour des détails supplémentaires.

56. Ce centre a été mis en place grâce à un partenariat entre l’organisme colombien Ruta N et l’Institute for Robotic Process Automation & Artificial Intelligence. Consulter le site Web de Ruta N (2018) pour de l’information.

57. L’ASCC relève de l’UM6P. Des renseignements figurent sur le site Web (ASCC 2020).

58. Parmi ces initiatives figure le Google.com Impact Challenge pour les femmes et les filles (2021), AI for Good Research Lab (Microsoft, 2021) et Creating Sustained Social Impact (Microsoft Corporate Citizenship, 2021).

Conclusion

La mise au point de nouveaux algorithmes, le perfectionnement des ressources informatiques et la disponibilité de données abondantes ont entraîné la récente vague d’innovation en IA. Ces changements entraînent des transformations dans un large éventail d’industries et de secteurs qui vont probablement révolutionner la société, comme l’ont fait les révolutions industrielles passées. Ainsi, l’humanité risque une fois de plus de perpétuer un changement de système aux répercussions inéquitables, poussé notamment par des mentalités coloniales et des clivages socioéconomiques. En particulier, le fossé numérique creuse les inégalités en ce qui a trait à l’accès à l’IA et aux conséquences néfastes des préjugés humains transmis aux technologies basées sur l’IA.

Aborder les enjeux de l’IA jusque-là négligés commence par s’attaquer à nos propres préjugés. Nous avons discuté dans ce chapitre de la manière dont les préjugés des humains influent fortement sur l’IA et le domaine des STIM en général. Premièrement, la qualité et la précision des systèmes basés sur l’IA sont compromises par le manque de diversité des données et des ressources humaines à toutes les étapes de la mise au point de l’IA. Deuxièmement, ce problème est amplifié par la marginalisation de groupes entiers au sein des STIM en fonction du genre, de la race et du statut socioéconomique, ce qui accentue également la « pénurie des talents » qui préoccupe actuellement le domaine de l’IA. Cela se produit alors que la demande en IA monte en flèche (même si la technologie est inadaptée).

Il en découle que le financement, privé et public, est pris dans un cercle vicieux que renforcent les motivations que sont le profit à court terme et la croissance économique, ce qui oriente la trajectoire de l’IA et l’ère numérique. Ce cercle vicieux est commun là où règne la croyance en une croissance rapide axée sur la « grande innovation ». Comme nous le soutenons dans ce chapitre, l’attention doit se tourner vers l’« innovation inclusive », ce qui favorisera la diversité des points de vue et un renforcement des capacités, en particulier au sein de communautés marginalisées et pauvres en ressources. Pour que l’intelligence artificielle reflète vraiment le pouvoir de la conscience humaine, elle doit représenter la beauté et le pouvoir de la diversité.

L’interdépendance croissante des systèmes et des enjeux mondiaux décentre l’attention, l’amenant du pur profit vers une valorisation du capital naturel, humain et social. Il n’y a aucun moyen pour les gens et la planète de prospérer sans ce changement, et il est essentiel d’accorder la priorité aux solutions locales qui incarnent les principes éthiques universels de confiance, de responsabilité et d’empathie. Bien qu’il soit tentant de soutenir d’abord la croissance rapide et le profit à court terme au nom de l’« innovation », agir ainsi limiterait inévitablement le potentiel de nos systèmes d’IA au profit de quelques groupes privilégiés plutôt que de l’humanité dans son ensemble. Une fois que la recherche et le développement en matière d’IA seront guidés par l’innovation inclusive, nous serons en mesure de passer d’une IA et d’une ère numérique fragmentées à une unité qui profitera à tous et à toutes, y compris aux générations à venir.

Références

AI4ALL. 2021. Home page. https://ai-4-all.org/

AIMS (African Masters in Machine Intelligence). 2021. Home page. https://aimsammi.org

Alford, A. 2021. AI conference recap: Google, Microsoft, Facebook, and others at ICLR 2021. InfoQ. June 8. https://www.infoq.com/news/2021/06/conference-recap-iclr-2021/

Ali, M., Sapiezynski, P., Bogen, M., Korolova, A., Mislove, A. and Rieke, A. 2019. Discrimination through optimization: How Facebook’s ad delivery can lead to skewed outcomes. Proceedings of the ACM on Human-Computer Interaction, Vol. 3, No. 199, pp. 1–30. https://dl.acm.org/doi/pdf/10.1145/3359301

American University. 2020. Understanding the digital divide in education. School of Education Online blog, December 15. https://soeonline.american.edu/blog/digital-divide-in-education

Arezki, R. 2021. Transnational governance of natural resources for the 21st century. Brookings Institution blog, July 7. https://www.brookings.edu/blog/future-development/2021/07/07/transnational-governance-of-natural-resources-for-the-21st-century/

Arun, C. 2020. AI and the Global South: Designing for other worlds. M. D. Dubber, F. Pasquale and
S. Das (eds), The Oxford Handbook of Ethics of AI. Oxford, Oxford University Press, pp. 589–606.

ASCC (African SuperComputing Center). 2020. Home page.

Barber, P. H., Hayes, T. B., Johnson, T. L. and Márquez-Magaña, L. 2020. Systemic racism in higher education. Science, Vol. 369, No. 6510, pp. 1440–1441. https://www.science.org/doi/pdf/10.1126/science.abd7140

Berger, Y. 2017. Israel arrests Palestinian because Facebook translated “good morning”
to “attack them.” Haaretz, October 22. https://www.haaretz.com/israel-news/palestinian-arrested-over-mistranslated-good-morning-facebook-post-1.5459427

Bogen, M. 2019. All the ways hiring algorithms can introduce bias. Harvard Business Review, May 6. https://hbr.org/2019/05/all-the-ways-hiring-algorithms-can-introduce-bias

Brandusescu, A. 2021. Artificial intelligence policy and funding in Canada: Public investments, private interests. Centre for Interdisciplinary Research on Montreal, pp. 11–51. https://www.mcgill.ca/centre-montreal/files/centre-montreal/aipolicyandfunding_report_updated_mar5.pdf

Buolamwini, J. 2019. Compassion through computation: Fighting algorithmic bias. Video, World Economic Forum. https://youtu.be/5PGYOYZKsdY

Bureau of Labor Statistics (United States). 2010. Employed persons by detailed occupation, sex, race, and Hispanic or Latino ethnicity, labor force statistics from the current Population Survey. https://www.bls.gov/cps/aa2010/cpsaat11.pdf

—-. 2020. Employed persons by detailed occupation, sex, race, and Hispanic or Latino Ethnicity, labor force statistics from the current Population Survey. https://www.bls.gov/cps/cpsaat11.pdf

Bushweller, K. 2021. How to get more students of color into STEM: Tackle bias, expand resources. Education Week web article, March 2. https://www.edweek.org/technology/how-to-get-more-students-of-color-into-stem-tackle-bias-expand-resources/2021/03

Carter, L., Liu, D. and Cantrell, C. 2020. Exploring the intersection of the digital divide and artificial intelligence: A hermeneutic literature review. AIS Transactions on Human-Computer Interaction, Vol. 12, No. 4, pp. 253–275. https://aisel.aisnet.org/thci/vol12/iss4/5/

Chan, A., Okolo, C. T., Terner, Z. and Wang, A. 2021. The limits of global inclusion in AI development. Association for the Advancement of Artificial Intelligence. https://arxiv.org/pdf/2102.01265.pdf

Cho, A. 2020. Artificial intelligence systems aim to sniff out signs of COVID-19 outbreaks. Science, May 12. https://www.sciencemag.org/news/2020/05/artificial-intelligence-systems-aim-sniff-out-signs-covid-19-outbreaks

Clark, U. S. and Hurd, Y. L. 2020. Addressing racism and disparities in the biomedical sciences. Nature Human Behaviour, Vol. 4, No. 8, pp. 774–777. https://www.nature.com/articles/s41562-020-0917-7

Coded Bias. 2020. Motion picture, 7th Empire Media, Brooklyn, directed by Shalini Kantayya.

Coleman, D. 2019. Digital colonialism: The 21st century scramble for Africa through the extraction and control of user data and the limitations of data protection laws. Michigan Journal of Race and Law, Vol. 24, No. 2, pp. 417–439. https://repository.law.umich.edu/mjrl/vol24/iss2/6

Congressional Research Service (United States). 2020. Federal Research and Development (R&D) Funding: FY2021. https://fas.org/sgp/crs/misc/R46341.pdf

Cummings, M. 2019. Yale study shows class bias in hiring based on few seconds of speech. YaleNews, October 21. https://news.yale.edu/2019/10/21/yale-study-shows-class-bias-hiring-based-few-seconds-speech

Dancy, M., Rainey, K., Stearns, E., Mickelson, R. and Moller, S. 2020. Undergraduates’ awareness of white and male privilege in STEM. International Journal of STEM Education, Vol. 7, No. 52, pp. 1–17. https://stemeducationjournal.springeropen.com/articles/10.1186/s40594-020-00250-3

Dastin, J. 2018. Amazon scraps secret AI recruiting tool that showed bias against women. Reuters, October 10. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

Delgado, F. A. and Levy, K. 2021. A community-centered research agenda for AI innovation policy. Cornell Policy Review, May 4. https://www.cornellpolicyreview.com/a-community-centered-research-agenda-for-ai-innovation-policy/

Dengel, A., Etzioni, O., DeCario, N., Hoos, H., Li, F., Tsujii, J. and Traverso, P. 2021. Next big challenges in core AI technology. B. Braunschweig and M. Ghallab (eds.), Reflections on Artificial Intelligence for Humanity. Lecture Notes in Computer Science, Vol. 12600, Springer, Cham, pp. 90–115. https://doi.org/10.1007/978-3-030-69128-8_7

Dodge, A. 2018. What you need to know about the stem race gap. Ozobot blog, February 20. https://ozobot.com/blog/need-know-stem-race-gap

Etzioni, O. 2019. AI academy under siege. Inside Higher Ed, November 20. https://www.insidehighered.com/views/2019/11/20/how-stop-brain-drain-artificial-intelligence-experts-out-academia-opinion

Falk-Krzesinski, H. J. and Tobin, S. C. 2015. How do I review thee? Let me count the ways: A comparison of research grant proposal review criteria across US federal funding agencies. The Journal of Research Administration, Vol. 46, No. 2, pp. 79–94. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4892374/

Firebaugh, G. and Acciai, F. 2016. For blacks in America, the gap in neighborhood poverty has declined faster than segregation. Proceedings of the National Academy of Sciences, Vol. 113, No. 47,
pp. 13372–13377. https://www.pnas.org/content/pnas/113/47/13372.full.pdf

Fleming, N. 2018. How artificial intelligence is changing drug discovery. Nature, Vol. 557, No. 7706, pp. 55–57. link.gale.com/apps/doc/A572639347/AONE

Frehill, L. M., Di Fabio, N., Hill, S., Traeger, K., and Buono, J. 2008. Women in engineering: A review of the 2007 literature. SWE Magazine, Vol. 54, pp. 6–30.

Garcia, E. 2021. The international governance of AI: Where is the Global South? The Good AI blog, January 28. https://thegoodai.co/2021/01/28/the-international-governance-of-ai-where-is-the-global-south/

Giridharadas, A. 2021. Philanthropy and the state: Who is funding what and why? Video, UCL Institute for Innovation and Public Purpose. https://www.youtube.com/watch?v=fOAkNu7Y6f4

Google. 2021. Google Impact Challenge for Women and Girls: Introduction. https://impactchallenge.withgoogle.com/womenandgirls2021

Gray, M. L. and Suri, S. 2019. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Boston, Houghton Mifflin Harcourt.

Heaven, W.D. 2020. Predictive policing algorithms are racist. They need to be dismantled.
MIT Technology Review, July 17. https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice

Heeks, R., Amalia, M., Kintu, R., and Shah, N. 2013. Inclusive innovation: Definition, conceptualisation and future research priorities. Manchester Center for Development Informatics, No. 53, pp. 1–28. https://www.researchgate.net/publication/334613068_Inclusive_Innovation_Definition_Conceptualisation_and_Future_Research_Priorities

Hickok, M. 2020. Why was your job application rejected? Bias in recruitment algorithms, part 1. Montreal Ethics AI Institute blog, July 12. https://montrealethics.ai/why-was-your-job-application-rejected-bias-in-recruitment-algorithms-part-1/

Hill, C. 2020. The STEM gap: Women and girls in science, technology, engineering and math. AAUW resources section. https://www.aauw.org/resources/research/the-stem-gap/

Hill, C., Corbett, C. and St. Rose, A. 2010. Why so Few? Women in Science, Technology, Engineering, and Mathematics. Washington DC, AAUW. https://www.aauw.org/app/uploads/2020/03/why-so-few-research.pdf

Hill, K. 2020. Wrongfully accused by an algorithm. The New York Times, June 24. https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html

Human Rights Council. 2018. Report of the Independent International Fact-Finding Mission on Myanmar. Geneva. https://www.ohchr.org/Documents/HRBodies/HRCouncil/FFM-Myanmar/A_HRC_39_64.pdf

ICLR (International Conference on Learning Representations). 2021. Announcing ICLR 2021 Outstanding Paper Awards. https://iclr-conf.medium.com/announcing-iclr-2021-outstanding-paper-awards-9ae0514734ab

Jiménez-Luna, J., Grisoni, F., Weskamp, N. and Schneider, G. 2021. Artificial intelligence in drug discovery: Recent advances and future perspectives. Expert Opinion on Drug Discovery, Vol. 16, No. 9, pp. 1–11. https://www.tandfonline.com/doi/pdf/10.1080/17460441.2021.1909567

Kimatu, J. N. 2016. Evolution of strategic interactions from the triple to quad helix innovation models for sustainable development in the era of globalization. Journal of Innovation and Entrepreneurship, Vol. 5, No. 16, pp. 1–7. https://innovation-entrepreneurship.springeropen.com/articles/10.1186/s13731-016-0044-x

Kuhlman, C., Jackson, L. and Chunara, R. 2020. No computation without representation: Avoiding data and algorithm biases through diversity. arXiv Preprint. https://arxiv.org/pdf/2002.11836.pdf

Kwet, M. 2019. Digital colonialism: US empire and the new imperialism in the Global South. Race & Class, Vol. 60, No. 4, pp. 3–26. https://journals.sagepub.com/doi/pdf/10.1177/0306396818823172

Lada, A., Wang, M. and Yan, T. 2021. How machine learning powers Facebook’s news feed ranking algorithm. Engineering at Meta blog, January 26. https://engineering.fb.com/2021/01/26/ml-applications/news-feed-ranking/

Larsen, J. 2021. Levi-Strauss’ Dr. Katia Walsh on why diversity in AI and ML is non-negotiable. VentureBeat, August 2. https://venturebeat.com/2021/08/02/levi-strauss-dr-katia-walsh-on-why-diversity-is-non-negotiable-in-ai-and-machine-learning/

Latonero, M. 2019. Opinion: AI for good is often bad. Wired, November 18. https://www.wired.com/story/opinion-ai-for-good-is-often-bad/

Leslie, S., Cimpian, A., Meyer, M. and Freeland, E. 2015. Expectations of brilliance underlie gender distributions across academic disciplines. Science, Vol. 347, No. 6219, pp. 262–265. https://www.science.org/doi/full/10.1126/science.1261375

May, A. 2020. Dr. Fei-Fei Li: “We can make humanity better in so many ways.” Artificial Intelligence in Medicine, December 12. https://ai-med.io/ai-champions/dr-fei-fei-li-we-can-make-humanity-better-in-so-many-ways/

McCarthy, J., Minsky, M. L., Rochester, N. and Shannon, C. E. 1955. A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf

McGee, E. O. 2020. Interrogating structural racism in STEM higher education. Educational Researcher, Vol. 49, No. 9, pp. 633–644. https://journals.sagepub.com/doi/full/10.3102/0013189X20972718

McGee, E. and Bentley, L. 2017. The troubled success of Black women in STEM. Cognition and Instruction, Vol. 35, No. 4, pp. 265–289. https://www.tandfonline.com/doi/pdf/10.1080/07370008.2017.1355211

Metcalf, H.E., Crenshaw, T.L., Chambers, E.W. and Heeren, C. 2018. Diversity across a decade:
A case study on undergraduate computing culture at the University of Illinois. Proceedings of the 49th ACM Technical Symposium on Computer Science Education. Association of Computing Machinery, pp. 610–615. https://dl.acm.org/doi/abs/10.1145/3159450.3159497

Microsoft Corporate Citizenship. 2021. Creating sustained societal impact. https://www.microsoft.com/en-hk/sparkhk/creating-sustained-societal-impact

Microsoft Research. 2021. AI for Good Research Lab: Overview. https://www.microsoft.com/en-us/research/group/ai-for-good-research-lab/

Miller, O. 2017. The myth of innate ability in tech. Personal blog, January 9. http://omojumiller.com/articles/The-Myth-Of-Innate-Ability-In-Tech 4

Miller, R. A. and Downey, M. 2020. Examining the STEM climate for queer students with disabilities. Journal of Postsecondary Education and Disability, Vol. 33, No. 2, pp. 169–181. https://www.researchgate.net/publication/334654579_Examining_the_STEM_Climate_for_Queer_Students_with_Disabilities

Mishra, S. 2021. Opinion: Is AI deepening the divide between the Global North and South? Newsweek, March 9. https://www.newsweek.com/ai-deepening-divide-between-global-north-south-opinion-1574141

NSF. 2021. National Science Foundation Graduate Research Fellowship Program. https://www.nsf.gov/funding/pgm_summ.jsp?pims_id=6201

O’Donnell, R. M. 2019. Challenging racist predictive policing algorithms under the equal protection clause. New York University Law Review, Vol. 94, No. 544, pp. 544–580. https://www.nyulawreview.org/wp-content/uploads/2019/06/NYULawReview-94-3-ODonnell.pdf

Ondimu, S. 2012. Possible approaches to commercialisable university research in Kenya. The 7th KUAT Scientific, Technological and Industrialization Conference, pp. 1–16. https://www.researchgate.net/publication/328095915_Possible_Approaches_to_Commercialisable_University_Research_in_Kenya

Organization for Economic Co-operation and Development. 2001. Understanding the Digital Divide. https://www.oecd.org/digital/ieconomy/1888451.pdf

Osoba, O. and Welser IV, W. 2017. An Intelligence in our Image: The Risks of Bias and Errors in Artificial Intelligence. Santa Monica, RAND Corporation. https://www.rand.org/pubs/research_reports/RR1744.html

Picture a Scientist. 2020. Motion picture, Uprising Production, Antarctica, directed by Ian Cheney and Sharon Shattuck.

Puritty, C., Strickland, L. R., Alia, E., Blonder, B., Klein, E., Kohl, M. T., McGee, E., Quintana, M., Ridley, R. E., Tellman, B. and Gerber, L. R. 2017. Without inclusion, diversity initiatives may not be enough. Science, Vol. 357, No. 6356, pp. 1101–1102. https://www.science.org/doi/full/10.1126/science.aai9054

Quantum Leap Africa. 2021. Preparing Africa for the Coming Quantum Revolution. https://quantumleapafrica.org

Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J., Breazeal, C., Crandall, J. W., Christakis, N. A., Couzin, I. D., Jackson, M. O., Jennings, N. R., Kamar, E., Kloumann, I. M., Larochelle, H., Lazer, D., Mcelreath, R., Mislove, A., Parkes, D. C., Pentland, A. S., Roberts, M. E., Shariff, A., Tenenbaum, J. B. and Wellman, M. 2019. Machine behaviour. Nature, Vol. 568, No. 7753, pp. 477–486. doi: 10.1038/s41586-019-1138-y.

Raji, I. D., Gebru, T., Mitchell, M., Buolamwini, J., Lee, J. and Denton, E. 2020. Saving face: Investigating the ethical concerns of facial recognition auditing. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, pp. 145–151. https://dl.acm.org/doi/pdf/10.1145/3375627.3375820

Reidpath, D. and Allotey, P. 2019. The problem of “trickle-down science” from the Global North to the Global South. BMJ Global Health, Vol. 4, No. 4, pp. 1–3. https://gh.bmj.com/content/bmjgh/4/4/e001719.full.pdf

Riegle-Crumb, C., King, B. and Irizarry, Y. 2019. Does STEM stand out? Examining racial/ethnic gaps in persistence across postsecondary fields. Educational Researcher, Vol. 48, No. 3, pp. 133–144. https://journals.sagepub.com/doi/pdf/10.3102/0013189X19831006

Rosen, J. 2018. Black students who have one Black teacher are more likely to go to college.
Johns Hopkins University Hub, November 12. https://hub.jhu.edu/2018/11/12/black-students-black-teachers-college-gap/

Ruta N. 2018. Ruta N Medellín: Centro de Innovación y Negocios Inicio. https://www.rutanmedellin.org/es/

Schia, N. N. 2018. The cyber frontier and digital pitfalls in the Global South. Third World Quarterly, Vol. 39, No. 5, pp. 821–837. https://www.tandfonline.com/doi/pdf/10.1080/01436597.2017.1408403

Schwab, K. and Vanham, P. 2021. What is stakeholder capitalism? European Business Review, January 22. https://www.europeanbusinessreview.eu/page.asp?pid=4603

Schneiderwind, J. and Johnson, J. M. 2020. Why are students with disabilities so invisible in STEM education? Education Week, July 27. https://www.edweek.org/education/opinion-why-are-students-with-disabilities-so-invisible-in-stem-education/2020/07

Skupien, S. and Rüffin, N. 2019. The geography of research funding: Semantics and beyond.
Journal of Studies in International Education, Vol. 24, No. 1, pp. 24–38. https://journals.sagepub.com/doi/pdf/10.1177/1028315319889896

Thompson, N. C., Greenewald, K., Lee, K. and Manso, G. F. 2020. The computational limits of deep learning. MIT Initiative on the Digital Economy Research Brief, Vol. 4, pp. 1–16. https://arxiv.org/pdf/2007.05558.pdf

Trix, F. and Psenka, C. 2003. Exploring the color of glass: Letters of recommendation for female and male medical faculty. Discourse & Society, Vol. 14, No. 2, pp. 191–220. https://journals.sagepub.com/doi/pdf/10.1177/0957926503014002277

Tulshyan, R. and Burey, J. A. 2021. Stop telling women they have imposter syndrome. Harvard Business Review, February 11. https://hbr.org/2021/02/stop-telling-women-they-have-imposter-syndrome

Turing, A. M. 1950. Computing machinery and intelligence. Mind, Vol. 54, No. 236, pp. 433–460.

United Nations. 2020. Digital divide “a matter of life and death” amid COVID-19 crisis, Secretary-General warns virtual meeting, stressing universal connectivity key for health, development. Press release, June 11. https://www.un.org/press/en/2020/sgsm20118.doc.htm

UNCTAD. 2021. Technology and Innovation Report: Catching Technological Waves—Innovation with Equity. New York, United Nations Publications. https://unctad.org/webflyer/technology-and-innovation-report-2021

United States Congress. 2020. H.R.6216 – National Artificial Intelligence Initiative Act of 2020, pp. 1–56. https://www.congress.gov/bill/116th-congress/house-bill/6216/text#toc-H7A238FDF26594A338CB94267854F51D4

‘Utoikamanu, F. 2018. Closing the technology gap in least developed countries. UN Chronicle, December. https://www.un.org/en/chronicle/article/closing-technology-gap-least-developed-countries

Viglione, G. 2020. NSF grant changes raise alarm about commitment to basic research. Nature, Vol. 584, No. 7820, pp. 177–178. https://www.nature.com/articles/d41586-020-02272-x

Voskoboynik, D. M. 2018. To fix the climate crisis, we must face up to our imperial past. OpenDemocracy, October 8. https://www.opendemocracy.net/en/opendemocracyuk/to-fix-climate-crisis-we-must-acknowledge-our-imperial-past/

Warikoo, N., Sinclair, S., Fei, J. and Jacoby-Senghor, D. 2016. Examining racial bias in education: A new approach. Educational Researcher, Vol. 45, No. 9, pp. 508–514. https://journals.sagepub.com/doi/full/10.3102/0013189X16683408

Zeng, D., Cao, Z. and Neill, D. B. 2021. Artificial intelligence-enabled public health surveillance – from local detection to global epidemic monitoring and control. L. Xing, M. L. Giger and J. K. Min (eds), Artificial Intelligence in Medicine, pp. 437–453. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7484813/

Zhang, D., Mishra, S., Brynjolfsson, E., Etchemendy, J., Ganguli, D., Grosz, B., Lyons, T., Manyika, J., Niebles, J. C., Sellitto, M., Shoham, Y., Clark, J. and Perrault, R. 2021. Artificial intelligence index report. Stanford Institute for Human-Centered Artificial Intelligence. https://aiindex.stanford.edu/report/