Les grandes avancées du domaine de l'intelligence artificielle, tel que la victoire de Watson d'IBM sur les champions en titre de Jeopardy ! en 2011, la victoire de Gameplay (aujourd'hui filiale de Google) au jeu de Go contre le champion du monde Lee Sedol, pour n'en citer que quelques-unes, ont donné libre cours de nombreux scénarios relevant de la science-fiction. Pour revenir à notre réalité de tous les jours, il faudrait peut-être examiner de plus près les véritables capacités de l'IA d'aujourd'hui.
Bien que l'IA soit aujourd'hui une technologie omniprésente, un des défis majeurs réside dans le fait que la plupart des modèles d'IA sont tout simplement incompréhensibles pour les humains3. L'engouement récent pour l'IA a suscité une prise de conscience suffisante dans divers domaines pour que vous ayez probablement entendu le terme réseau neuronal profond (Deep Learning)2.
Dans les réseaux neuronaux profonds, les entrées de données sont combinées et recombinées dans de nombreuses couches cachées qui émulent les couches d'entrées neuronales dans le cerveau. Au fur et à mesure qu'elles continuent à le faire dans le contexte du modèle, il devient de plus en plus complexe et laborieux d'interpréter comment toutes les entrées se combinent pour former le résultat/prédiction final(e)3.
Ce manque de transparence de l'IA est qualifié de "Boîte Noire"3. Alors que les modèles de réseaux neuronaux profonds sont utiles pour classer les données en groupes (c'est-à-dire qu'ils vous permettent de regrouper les données non étiquetées selon leurs similarités), lorsque les données manquent cette capacité d'étiquetage, le problème est qu'il existe une tendance à opter par défaut pour des solutions de type "boîte noire" dans toutes les situations 3,4.
Ceci peut devenir problématique dans les scénarios où il est nécessaire de comprendre le raisonnement qui sous-tend la prédiction générée, lorsque la prédiction est utilisée pour mener des actions ultérieures qui peuvent affecter profondément la vie des gens, comme lors de la détermination du risque de récidive d'une personne3,4.
COMPAS est l'acronyme de Correctional Offender Management Profiling for Alternative Sanctions. Il s'agit d'un logiciel propriétaire utilisé dans 46 des 50 États américains, pour évaluer le risque d'arrestation future d'un prévenu afin d'aider le juge à prendre sa décision lors de la détermination de la peine2. L'algorithme propriétaire calcule sa prédiction sur la base des réponses à un questionnaire de 137 questions, et la manière dont il combine et recombine les réponses pour produire ses prédictions est compliquée et ininterprétable2.
En revanche, un modèle simple et interprétable créé par Angelino et al. (2018) ne prend en compte qu'une poignée de règles concernant l'âge et les antécédents criminels du défendeur. Il fonctionne comme suit : si la personne a soit plus de 3 infractions antérieures, soit est âgée de 18 à 20 ans et de sexe masculin, soit est âgée de 21 à 23 ans et a 2 ou 3 infractions antérieures, alors leur modèle simple prédit qu'elle sera arrêtée de nouveau dans les prochains 2 ans2.
En ce qui concerne la précision, des études ont démontré que l'ensemble transparent de règles d'Angelino et al. est tout aussi précis que COMPAS2. De plus, dans une étude récente menée au Dartmouth College, Julia Dressel et Hany Farid ont montré que le COMPAS ne prédit pas mieux le risque de récidive d'un individu que des volontaires recrutés au hasard sur Internet5.
Une autre critique des modèles "boîte noire" est que, comme ils dépendent des données qui les composent, si celles qui sont introduites dans ces modèles sont biaisées, les prédictions obtenues sont susceptibles de refléter également ce biais.
En outre, la nature cachée des modèles de type "Boîte Noire" rend intrinsèquement difficile l'identification et l’investigation des cas où l'algorithme peut contribuer à des résultats biaisés ou erronés 1,2,3.
Bien que les modèles de type "Boîte noire" puissent être utiles dans certaines situations, leurs limites sont connues, et c'est pourquoi il est important de minimiser la tendance à y recourir par défaut pour tous les scénarios. Ceci est particulièrement critique lorsque les prédictions de l'IA sont utilisées dans des décisions en aval qui peuvent affecter sérieusement la vie d'un ou de plusieurs individus.
Les modèles d'IA conçus pour être intrinsèquement explicables, où les utilisateurs peuvent comprendre comment les données saisies sont combinées pour formuler la prédiction résultante, sont nécessaires dans de tels cas.
La plateforme Peekaboo.ai est une solution d'IA puissante qui rencontre précisément ce besoin : elle fournit des conclusions basées sur vos données, de telle sorte que l'utilisateur puisse retracer les étapes de calcul et comprendre comment chaque règle est formulée à partir de ses données.
Peekaboo.ai trouve des relations dans vos données comme de nombreux algorithmes propriétaires de premier plan, mais ce qui le distingue des autres, c'est sa nature explicable. Pour en savoir plus sur la façon dont Peekaboo peut répondre à vos besoins en matière d'IA, visitez notre site Web.
Peekaboo.ai trouve des relations dans vos données comme de nombreux algorithmes propriétaires de premier plan, mais ce qui le distingue des autres, c'est sa nature explicable.
Pour en savoir plus sur la façon dont Peekaboo.ai peut répondre à vos besoins en matière d'IA, visitez softwords.ca.
Références:
Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., & Rudin, C. (2018, August 3). Learning certifiably optimal rule lists for categorical data. arXiv.org. Retrieved October 26, 2021, from https://arxiv.org/abs/1704.01701.
Rudin, C., & Radin, J. (2019). Why Are We Using Black Box Models in AI When We Don’t Need To? A Lesson From An Explainable AI Competition. Harvard Data Science Review, 1(2). https://doi.org/10.1162/99608f92.5a8a3a3d
Tanusree De, Prasenjit Giri, Ahmeduvesh Mevawala, Ramyasri Nemani, Arati Deo, Explainable AI: A Hybrid Approach to Generate Human-Interpretable Explanation for Deep Learning Prediction, Procedia Computer Science, Volume 168, 2020, Pages 40 -48, ISSN 1877-0509, https://doi.org/10.1016/j.procs.2020.02.255.
Tu J. V. (1996). Advantages and disadvantages of using artificial neural networks versus logistic regression for predicting medical outcomes. Journal of clinical epidemiology, 49(11), 1225–1231. https://doi.org/10.1016/s0895-4356(96)00002-9
Yong, E. (2018, January 29). A popular algorithm is no better at predicting crimes than random people. The Atlantic. Retrieved October 25, 2021, from https://www.theatlantic.com/technology/archive/2018/01/equivant-compas-algorithm/550646/.