AI INDEX REPORT 2024: Les risques liés à l'Intelligence Artificielle préoccupent toujours les dirigeants d’entreprises et experts à travers le monde
07/05/2024

AI INDEX REPORT 2024: Les risques liés à l'Intelligence Artificielle préoccupent toujours les dirigeants d’entreprises et experts à travers le monde

En juin 2023, lors d'un débat entre experts de haut niveau organisé par les Munk Debates sur la question de savoir si l'intelligence artificielle représente une menace existentielle pour l'humanité, deux groupes d'experts ont présenté des perspectives contrastées (https://munkdebates.com/debates/artificial-intelligence/). Le groupe défendant une position rassurante, composé de Yann LeCun de l'Université de New York, de Meta et lauréat du Turing Award, ainsi que de Melanie Mitchell de l'Institut Sante Fe, a soutenu la possibilité d'éviter une apocalypse due à une perte de contrôle des modèles d'IA ou à leur utilisation malveillante. Ce groupe a réussi à convaincre une partie du public, passant de 33% à 36% des votes après le débat, et a été déclaré vainqueur.

En revanche, le groupe opposé, comprenant Max Tegmark du MIT et Yoshua Bengio, lauréat du Turing Award, a exprimé des inquiétudes quant au développement rapide et faiblement réglementé de l'IA. Ils ont mis en garde contre les risques tels que les deep-fakes, la propagande de masse, la concentration du pouvoir économique et politique, ainsi que la menace existentielle de perdre le contrôle sur les intelligences artificielles générales ou leur utilisation malveillante. Bien que leur soutien initial fût de 67%, ils ont réussi à maintenir la confiance de 64% du public après avoir exposé leurs arguments.

Dans le septième rapport de l'Indice de l'IA publié par l'Université de Stanford en avril 2024 (https://aiindex.stanford.edu/report/), les dirigeants d'entreprises et les experts continuent d'exprimer des préoccupations majeures concernant les risques associés à l'intelligence artificielle, notamment en ce qui concerne la gouvernance des données, la fiabilité, la transparence, la sécurité et l'équité.

Les efforts déployés par les dirigeants d'entreprises et les gouvernants pour assurer le développement d'une IA responsable, transparente, explicable, sûre et équitable sont encore insuffisants. Il est nécessaire de renforcer l'évaluation des risques liés au développement et à l'utilisation des modèles d'IA à tous les niveaux, en commençant par la gouvernance des données. Il est également important de se demander combien d'organisations disposent d'un comité des données pour garantir une gestion appropriée des données.

 

logo IFPF

l’Institut Français de Prévention de la Fraude (IFPF) offre des services de formation et de renforcement de capacités dans le domaine de la gouvernance, risques, contrôles et conformité, et en particulier dans le domaine de gestion des risques de fraude, corruption et blanchiment, à l’attention des cadres et des dirigeants.

Nous trouver
  • 12-14 Rond-Point des Champs-Elysées, 75008 Paris, France