61 rue Henri Barbusse 92110 Clichy Levallois
01 83 62 82 65
info@issmi.fr

Les systèmes d’intelligence artificielle sont obliqués et le cloud aggrave la situation

ISSMI, Le village d'emploi! Plus besoin de chercher un travail

Les systèmes d’intelligence artificielle sont obliqués et le cloud aggrave la situation

L’augmentation exponentielle des données aidant à nourrir des systèmes d’IA entraîne des erreurs. Se servir de la déroutante aptitude de stockage cloud pour les héberger ne risque pas d’accommoder la situation.

Selon Gartner Research, d’ici 2022, 85 % des projets d’IA engendreront des résultats erronés en raison du biais dans les données, les algorithmes ou conduit par les équipes responsables de leur gestion. De plus, selon l’institut de sondage Gallup, actuellement, 85 % des Américains utilisent au moins un appareil, un programme ou un service alimenté par l’IA.

David Linthicum, Chief Cloud Strategy Officer chez Deloitte, et contributeur de notre confrère d’Infoworld (Groupe IDG), connaît bien la question. Par conséquence, depuis la fin des années 1980, il s’attache au biais des systèmes d’intelligence artificielle. Le fait est que ce sont des individus qui programment et entrainent les systèmes d’IA, de sorte que, d’une façon ou d’une autre, ces systèmes héritent des préconçus de ceux qui les forment.

Une carence de compétences concluant la propagation d’erreurs

L’usage du cloud pour accueillir de coûteux systèmes d’intelligence artificielle ne fait qu’empirer les choses, car le nombre d’entreprises pouvant s’offrir des capacités d’intelligence artificielle a augmenté. Par contre, le nombre de personnes ayant certifié de solides compétences en IA n’a pas augmenté au même rythme. D’une part, les outils d’IA soumis à ce biais intrinsèque sont utilisés de façon plus générale. D’autre part, le manque de compétences signifie aussi que les erreurs dans la manière de construire les bases de connaissances vont se distribuer et perdurer pendant un certain temps.

Alors, de quelle nature sont ces préjugés ? Déjà, parce que la plupart du développement et de l’entrainement de l’IA est effectuée par des hommes, leurs préjugés conscients ou inconscients se retrouvent dans le code qu’ils écrivent et les femmes pourront s’apercevoir qu’elles sont désavantagées. Ainsi, une étude exécutée en 2015 a montré que lors d’une recherche d’images dans Google avec la requête « CEO », seulement 11 % des personnes apparaissant dans les résultats étaient des femmes, alors qu’aux États-Unis 27 % des CEO sont des femmes. Google a précipitamment corrigé le problème.

Limiter les préjugés des systèmes IA pour limiter les préjudices

Ces biais assimilés de l’IA ont aussi un impact négatif sur l’activité des entreprises. Par exemple, le fait de ne pas accorder suffisamment de prêts à un nombre suffisant de femmes, alors qu’elles représentent environ 55 % du marché, est une perte de profit. Au pire, cette faiblesse pourrait aussi informer les entreprises à des actions en justice.

Que faire, alors ? En réalité, les systèmes d’IA biaisés sont plus la norme que l’exception. Les responsables IT doivent reconnaître que ces préjugés existent, ou qu’ils peuvent exister, et prendre des mesures pour en limiter les méfaits. Heureusement, des outils émergents permettent déjà de limiter les préjugés des systèmes d’intelligence artificielle. Reste que, l’IT doit chercher à débusquer ceux qui sont cachés et prendre des mesures pour en borner les préjudices.