61 rue Henri Barbusse 92110 Clichy Levallois
info@issmi.fr

Intelligence Artificielle : Google aurait des principes

ISSMI, trouver un job chez des grands comptes

Intelligence Artificielle : Google aurait des principes

Le développement de l’Intelligence Artificielle ne saurait se passer de principes. C’est Sundar Pichai, le CEO de Google, qui vous le dit, dans un article de blog intitulé : « L’intelligence artificielle chez Google : nos principes ». Et le moins que l’on puisse dire, c’est que c’est assez vague.

 

Triple objectif pour ce texte : rassurer le grand public qui découvre de nouvelles technologies et de nouveaux usages, donner un cadre à une industrie en pleine expansion, mais aussi montrer aux employés de l’entreprise que la direction prend au sérieux une polémique récente.

Le 4 juin, la division Google Cloud de l’entreprise annonçait avoir mis fin à sa collaboration avec l’armée américaine sur un projet d’analyse des données de vol des drones militaires par les outils d’IA maison.

L’affaire Google Cloud

La société de Mountain View avait en effet été largement critiquée en interne pour son engagement dans ce projet baptisé « Maven » (dit aussi Algorithmic Warfare Cross-Functional Team). Lors d’une réunion interne Diane Greene, dirigeante de l’activité Cloud de Google, avait officiellement annoncé que le contrat passé avec le gouvernement américain ne serait pas renouvelé en 2019. Elle l’a redit récemment dans une note de blog.

Si Google ne travaillerta plus sur des systèmes d’armement, cela ne signifie toutefois pas l’arrêt de sa collaboration avec les militaires. « Même si nous ne développerons pas d’IA pour des armes, nous continueront nos travaux avec le gouvernement et les militaires dans beaucoup d’autres secteurs. Ceci inclue la cybersécurité, le recrutement militaire, la santé des vétérans, la recherche et le sauvetage » mentionne Sundar Pichai.

7 principes pour aller mieux ?

Le CEO fait donc le service après vente avec ce texte. Que dit-il d’autre ? Il énonce 7 objectifs à respecter pour le développement des applications d’IA.

  • Être socialement profitable : « Lorsque nous examinerons les possibilités de développement et d’utilisation des technologies de l’IA, nous tiendrons compte d’un large éventail de facteurs sociaux et économiques, et irons de l’avant lorsque nous estimons que les avantages globaux probables dépassent largement les risques et les inconvénients prévisibles » assure le dirigeant.
  • Éviter de créer ou de renforcer des biais injustes : « Nous chercherons à éviter les impacts injustes sur les personnes, en particulier ceux qui sont liés à des caractéristiques sensibles telles que la race, l’origine ethnique, le sexe, la nationalité, le revenu, l’orientation sexuelle, les compétences et les convictions politiques ou religieuses » dit-il.
  • Être conçues et testé avec un objectif de sécurité : « Nous concevrons nos systèmes d’IA de manière prudente et nous chercherons à les développer conformément aux meilleures pratiques en matière de recherche sur la sécurité de l’IA » explique Sundar Pichai.
  • Être responsable envers les gens : « Nos technologies d’IA feront l’objet d’une direction et d’un contrôle humains appropriés » note le dirigeant.
  • Comporter des principes de privauté : « Nous donnerons la possibilité d’avis et de consentement, encouragerons les architectures avec des mesures de protection de la vie privée et fournirons une transparence et un contrôle appropriés sur l’utilisation des données » ajoute le boss de Google.
  • Maintenir de hauts standards d’excellence : « Les outils d’IA ont le potentiel de débloquer de nouveaux domaines de recherche scientifique et de connaissance dans des domaines critiques comme la biologie, la chimie, la médecine et les sciences de l’environnement » explique Sundar Pichai. « Nous travaillerons (à) un leadership réfléchi dans ce domaine, en nous appuyant sur des approches scientifiquement rigoureuses et multidisciplinaires. Et nous partagerons de manière responsable les connaissances sur l’IA en publiant du matériel éducatif, des best practices et des recherches qui permettront à plus de personnes de développer des applications IA utiles ».
  • Les mettre à disposition pour des usages en accord avec ces principes : « Nous allons travailler à la limitation des applications potentiellement nuisibles ou abusives » termine t-il.

Quant aux dégâts que pourraient provoquer les outils d’Intelligence Artificielle, Sundar Pichai précise sa pensée. « Là où il y a risque de dommage, nous le ferons si seulement nous pensons que le bénéfice est substantiellement supérieur au risque, et nous incorporeront des contraintes de sécurité adéquates. Nous ne développerons par d’armes ou de technologies dont l’objectif est de causer directement ou de faciliter des blessures au gens. Nous n’utiliserons pas de technologie de collecte d’informations qui sont contraires aux lois internationales. Nous ne travaillerons pas sur des technologies qui sont contraires aux droits humains et aux principes des lois internationales. »

En France, Google continue de développer ses produits d’Intelligence artificielle. La création d’une nouvelle équipe de recherche basée à Paris a été annoncée à la fin du mois dernier.