Quand les politiques et les législateurs agiront-ils plus efficacement contre l’intelligence artificielle ? Après que des milliers d’experts et des personnalités éminentes de la Silicon Valley aient appelé à une pause, des employés d’OpenAI et de Google DeepMind mettent à leur tour en garde contre les risques du développement rapide et sans limite de cette technologie. Selon eux, l’Humanité court vers la catastrophe.

Depuis le lancement de ChatGPT fin 2022, l’intelligence artificielle est lancée à vive allure. Plus rien ne l’arrête, pas même les politiques et les législateurs. Les startups et les géants de la tech rivalisent d’ingéniosité pour sortir des modèles de plus en plus stupéfiants. Mais derrière cette course folle à l’IA se cachent de nombreux risques pour la société humaine.

Les salariés ont les mains liées par des accords de confidentialité

Un groupe d’employés actuels et anciens des principales sociétés d’IA a publié mardi une lettre pour mettre en garde contre ces dangers du développement rapide de cette technologie. Onze des dix-neuf signataires travaillent ou ont travaillé pour OpenAI. Deux autres sont des employés actuels et anciens de Google DeepMind. Les six individus restants ont préféré garder l’anonymat, craignant sans doute pour leur poste.

Dans leur lettre, ces ingénieurs disent avoir les mains liées par des accords de confidentialité qui les empêchent d’exprimer publiquement leurs préoccupations, sans craindre des représailles de la part de leurs employeurs. Ils regrettent l’absence de protection pour les lanceurs d’alerte souhaitant parler. La plupart des grands groupes ont établi des clauses de non-dénigrement qu’ils font signer aux salariés.

Les acteurs de l’intelligence artificielle ne regarderaient que les gains financiers

Les employés d’OpenAI et de Google DeepMind mettent également en garde contre les risques d’une IA non réglementée. Ils citent la diffusion de fausses informations, la perte massive d’emplois en un temps record, l’aggravation des inégalités existantes et les systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité.

Et le pire c’est que les entreprises d’IA ont de « faibles obligations » de partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes. Les signataires pensent que les entreprises en ont cure de leurs devoirs et qu’elles ne donnent la priorité qu’aux gains financiers. Face à cette situation, ils conviennent « qu’un débat rigoureux est crucial compte tenu de l’importance de cette technologie ».

Il faut supprimer les accords limitant la liberté des lanceurs d’alerte

En attendant que les pouvoirs publics agissent pour freiner les entreprises d’IA, ils invitent celles-ci à prendre un certain nombre de mesures. Les chercheurs les invitent à supprimer les accords limitant la liberté des lanceurs d’alerte. Aussi, les signataires exhortent les grands groupes à mettre en place une procédure anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations aux membres du conseil d’administration et à d’autres régulateurs concernés ou organisations.

Les entreprises d’IA doivent soutenir une culture de la critique

Par ailleurs, les entreprises sont appelées à soutenir une culture de la critique et à ne pas exercer de représailles à l’encontre de ceux qui partagent des informations confidentielles pour lancer des alertes « après que d’autres procédures ont échoué ». Notons que ce n’est pas la première fois que des concepteurs d’IA alertent sur cette technologie. En mars 2023, des milliers d’experts, dont Elon Musk, avaient appelé à une pause de six mois dans le développement de l’intelligence artificielle.

Les réglementations contre l’intelligence artificielle se mettent en place, mais trop lentement

Quelques mois plus tard, des personnalités éminentes de la Silicon Valley, dont Sam Altman, avaient mis en garde contre les risques d’une guerre nucléaire. Face à ces mises en garde, les gouvernements du monde entier ont adopté des mesures de prévention. L’UE, par exemple, a voté l’IA Act pour réglementer cette innovation. Mais les progrès de ces textes qui se veulent contraignants sont plus lents que le développement de l’IA.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.