Google est un leader mondial dans la recherche en intelligence artificielle. Ayant récemment ouvert un centre de recherche à Paris, la firme de Mountain View est un des plus gros employeurs de chercheurs en intelligence artificielle et acquiert régulièrement des sociétés dans ce domaine.

Sundar Pichai, le CEO de Google, a publié l’été dernier une tribune contenant un nouvel ensemble de 7 principes éthiques sur la façon dont sera appliquée l’intelligence artificielle (IA) au sein du groupe. Le géant technologique à travers ces principes assure que l'IA sera utilisée pour des applications socialement bénéfiques, sécurisées et ne créant pas de parti pris injuste. 

La publication de cette charte éthique fait suite à la controverse du projet Maven, un contrat de 9 millions de dollars signé entre Google et le département américain de la Défense. Google collabore dans le cadre de ce programme avec l’armée américaine en fournissant ses technologies d’IA afin d’améliorer la reconnaissance vidéo de drones de combat.

 

la controverse du projet Maven Google
Le projet Maven liant Google avec le Pentagone a été très controversé

 

Cette collaboration controversée avec le Pentagone a opposé au sein de l’entreprise des milliers d'employés à la direction du groupe. En avril 2018, plus de 4 000 employés ont signé une pétition exigeant que Google cesse de travailler sur le projet Maven, une dizaine d'employés par la suite ont démissionné en signe de protestation. Peu de temps après, en juin 2018, Diane Greene, la vice-présidente de Google Cloud, a déclaré au personnel que la société avait décidé de ne pas reconduire le contrat du projet Maven avec le Pentagone après l’expiration de celui-ci en mars 2019.

 

Être bénéfique pour la société

Les nouvelles technologies impactent la société dans son ensemble. Les progrès de l’IA concernent de nombreux domaines encore mal définis. Google s’engage à privilégier l’impact positif des potentielles applications « tout en continuant de respecter les normes culturelles, sociales et juridiques » dans les pays où est présent le géant américain.

 

Éviter la création ou le renforcement des discriminations

Google s’engage à ce que ses algorithmes d’IA ne créent pas davantage d’injustices et de discriminations basées sur « la race, l'origine ethnique, le sexe, la nationalité, le revenu, l'orientation sexuelle, la capacité et les croyances politiques ou religieuses ».

 

Insister sur la sécurité

Google s’engage à encadrer strictement le développement et le déploiement de ses applications d’IA par des tests appropriés et des bonnes pratiques de sécurité.

 

Responsabilité envers les utilisateurs

Les technologies d’IA du groupe seront supervisées par un contrôle humain appropriés en s’appuyant sur les retours des utilisateurs.

 

Transparence et contrôle des données

Les principes de confidentialité du groupe seront intégrés dans le développement et l'utilisation des technologies de l’IA. Le traitement des données personnelles se fera après obtention au préalable du consentement des utilisateurs.

 

Le consentement des utilisateurs
Le consentement des utilisateurs est nécessaire pour le traitement des données personnelles

 

Maintenir des normes scientifiques d’excellence

Google s’engage à travailler avec des spécialistes issus des domaines concernés afin de promouvoir une rigueur et une intégrité intellectuelle et scientifique dans la façon de faire progresser le développement de l’IA.

 

Être conçu pour une utilisation conforme à ces principes

Google veillera notamment à ce que les objectifs principaux et l’usage potentiel des technologies basées sur l’IA n’ait pas d’effet nocifs ou inadaptés.

Avec ces 7 principes, Google rappelle que le groupe respecte des valeurs et se veut concerné par l’impact sociétal de l’IA. Le géant de l’internet se recentre ainsi sur son ancien slogan interne « Don't be evil » (« Ne soyez pas malveillants »), non sans rappeler les trois lois de la robotique formulées par l'écrivain de science-fiction Isaac Asimov. Google veut se montrer responsable et conscient de l’impact significatif sur la société que l’IA pourrait avoir dans les années à venir. Le leader américain se veut une force bénéfique pour la société en proposant de régir ces technologies par des normes éthiques.

 

Quels impacts pour les métiers de la Data Science ?

 

Des enjeux juridiques et éthiques

Google à travers ses recommandations éthiques annonce les enjeux à venir et souhaiterait en définir les lignes directrices et les bonnes pratiques. Il s’agit pour le groupe américain de maintenir à la fois sa position dominante dans le secteur de la data science et de se positionner en leader sur les réflexions éthiques. La firme de Mountain View n’en est pas à son premier coup d’essai puisqu’elle avait déjà créé en décembre 2017 un comité d'éthique pour son intelligence artificielle, Google Deepmind.

 

Les enjeux juridiques des applications
Google prend compte des enjeux juridiques et éthiques qu'impliquent ses applications

 

Former à l’éthique les développeurs et les data scientists

Selon l’association française Data For Good, il est urgent de former et de sensibiliser les futurs ingénieurs et data scientists aux questions éthiques. En faisant référence à un « serment d’Hippocrate » des data scientists, il s’agirait de responsabiliser les développeurs en réfléchissant davantage sur la contextualisation et l’impact de l’utilisation des données sur lesquelles ils travaillent.

 

Plus de transparence et de contrôle sur la confidentialité

Le débat publique sur l’éthique et IA ne cesse de croître et fait l’objet d’un questionnement mondial. Les GAFA ont désormais autant de pouvoir que des États nations, ils ne sont plus seulement des grandes entreprises mais sont devenus grâce à leurs technologies des pourvoyeurs de commodités au même titre que l’eau ou l’électricité. Ces multinationales ont le potentiel de résoudre des problèmes qui pourraient impacter largement au delà de leurs problématiques initiales. L’inquiétude des utilisateurs incitent ces géants de l’internet à rendre les systèmes algorithmiques plus transparents et compréhensibles en renforçant les droits existants et en organisant une médiation avec leurs utilisateurs.

 

L’armement et la politique des secteurs tabous ?

En refusant de fournir ses technologies pour fabriquer des armes ou faire de la surveillance qui porterait atteinte au normes internationales communément admises, Google se prive ainsi de potentiels contrats de défense qui seront d’autant plus prisés à l’avenir par ses concurrents américains comme Oracle, Microsoft et IBM. En ce qui concerne la politique et le Marketing électoral, l’autre géant de l’internet Facebook, a vu son image considérablement ternie en terme de fiabilité et confidentialité auprès de ses utilisateurs suite au scandal Facebook-Cambridge Analytica. L’affaire était apparue lorsque avait été révélé que la société de micro-ciblage électoral Cambridge Analytica avait recueilli et exploité les données de près de 87 millions d'utilisateurs de la plateforme, impactant ainsi le résultat au référendum du Brexit au Royaume-Uni et l’élection de Donald Trump aux États-Unis en 2016. Mike Schroepfer le directeur technique de Facebook a annoncé en avril 2018 par la suite la restriction de l’API du réseau social afin de limiter significativement la possibilité d’en extraire massivement des données.

 

 

Déposer un commentaire

Inscrivez-vous à notre newsletter