Les recommandations basées sur l’IA sont faciles à abuser, avertissent des chercheurs

Des expériences démontrent la facilité avec laquelle un attaquant peut manipuler l’IA pour promouvoir la désinformation, les théories du complot et d’autres récits.

Les systèmes de recommandation basés sur l’IA sont utilisés dans de nombreux services en ligne que nous apprécions aujourd’hui, notamment les moteurs de recherche, les sites d’achat en ligne, les services de streaming et les médias sociaux. Cependant, leur influence croissante sur ce que les gens voient et font sur Internet a suscité des inquiétudes quant à leur susceptibilité à divers types d’abus, comme leur utilisation active pour diffuser de la désinformation et promouvoir des théories du complot.

Andy Patel, chercheur au Centre d’excellence en intelligence artificielle du fournisseur de cybersécurité F-Secure, a récemment réalisé une série d’expériences pour apprendre comment de simples techniques de manipulation peuvent affecter les recommandations basées sur l’IA sur un réseau social.

« Twitter et d’autres réseaux sont devenus des champs de bataille où différentes personnes et différents groupes poussent différents récits. Il s’agit notamment de conversations organiques et de publicités, mais aussi de messages destinés à saper et à éroder la confiance dans les informations légitimes« , a déclaré Patel. « Examiner comment ces « combattants » peuvent manipuler l’IA permet d’exposer les limites de ce que l’IA peut faire de manière réaliste, et idéalement, comment elle peut être améliorée.« 

Manipulation IA

Une enquête du PEW Research Center menée fin 2020 a révélé que 53 % des Américains obtiennent des nouvelles à partir des médias sociaux. Les personnes interrogées âgées de 18 à 29 ans ont identifié les médias sociaux comme leur source d’information la plus fréquente. Dans le même temps, la recherche a mis en évidence les risques potentiels liés au fait de se fier aux médias sociaux comme source : une enquête de 2018 a révélé que les messages Twitter contenant des faussetés ont 70 % plus de chances d’être retweetés.

Pour ses recherches, Patel a collecté des données sur Twitter et les a utilisées pour entraîner des modèles de filtrage collaboratif (un type d’apprentissage automatique utilisé pour coder les similitudes entre les utilisateurs et le contenu en fonction des interactions précédentes) destinés à être utilisés dans des systèmes de recommandation. Il a ensuite réalisé des expériences consistant à réentraîner ces modèles à l’aide d’ensembles de données contenant des retweets supplémentaires (empoisonnant ainsi les données) entre des comptes sélectionnés, afin de voir comment les recommandations changeaient.

En sélectionnant des comptes appropriés à retweeter et en faisant varier le nombre de comptes effectuant des retweets ainsi que le nombre de retweets qu’ils publiaient, même un très petit nombre de retweets suffisait à manipuler le système de recommandation pour qu’il favorise les comptes dont le contenu était partagé par les retweets injectés.

Déjà confrontés à ces attaques dans le monde réel

Bien que les expériences aient été réalisées à l’aide de versions simplifiées des mécanismes d’IA que les plateformes de médias sociaux et d’autres sites Web sont susceptibles d’utiliser lorsqu’ils fournissent des recommandations aux utilisateurs, M. Patel pense que Twitter et de nombreux autres services populaires sont déjà confrontés à ces attaques dans le monde réel.

« Nous avons effectué des tests contre des modèles simplifiés pour en savoir plus sur la façon dont les attaques réelles pourraient fonctionner. Je pense que les plateformes de médias sociaux sont déjà confrontées à des attaques similaires à celles démontrées dans cette recherche, mais il est difficile pour ces organisations d’être certaines que c’est bien ce qui se passe, car elles ne verront que le résultat, et non la façon dont cela fonctionne », a déclaré Patel.

Selon Matti Aksela, vice-président de l’intelligence artificielle chez F-Secure, il est important de reconnaître et de relever les défis potentiels liés à la sécurité de l’IA.

« Comme nous nous appuyons de plus en plus sur l’IA à l’avenir, nous devons comprendre ce que nous devons faire pour la protéger des abus potentiels. Le fait que l’IA et l’apprentissage automatique alimentent de plus en plus de services dont nous dépendons nous oblige à comprendre ses forces et ses faiblesses en matière de sécurité, en plus des avantages que nous pouvons obtenir, afin de pouvoir faire confiance aux résultats. Une IA sécurisée est le fondement d’une IA digne de confiance« , a déclaré M. Aksela.

Au sujet de l'auteur
Damien Bancal (damienbancal.fr) est un expert internationalement reconnu en cybersécurité. Il a fondé le projet Zataz en 1989. ZATAZ.com est devenu une référence incontournable en matière d'information sur la sécurité informatique et les cybermenaces pour le grand public. Avec plus de 30 ans d'expérience, Damien Bancal s'est imposé comme une figure majeure dans ce domaine, contribuant à la sensibilisation et à la protection des internautes contre les cyberattaques. Sa carrière est marquée par une forte implication dans l'éducation à la cybersécurité, notamment à travers des conférences et des publications spécialisées. Il est l'auteur de plusieurs ouvrages (17) et articles (plusieurs centaines : 01net, Le Monde, France Info, Etc.) qui explorent les divers aspects du piratage informatique et de la protection des données. Il a remporté le prix spécial du livre du FIC/InCyber 2022. Finaliste 2023 du 1er CTF Social Engineering Nord Américain. Vainqueur du CTF Social Engineering 2024 du HackFest 2024 (Canada). Damien Bancal a également été largement reconnu par la presse internationale dont le New York Times, qui souligne non seulement son expertise mais aussi son parcours inspirant. Par exemple, un portrait de La Voix du Nord le décrit comme "Monsieur Cybersécurité", soulignant son influence et son rôle essentiel dans ce domaine. Enfin, il figure parmi les personnalités les plus influentes dans la cybersécurité, comme le souligne Le Big Data, et a été classé parmi les 500 personnalités tech les plus influentes en 2023 selon Tyto PR. Chroniqueur TV et Radio (France Info, M6, RTL, Medi1, Etc.) Volontaires de la réserve citoyenne - Gendarmerie Nationale et de l'Éducation Nationale. Médaillé de la DefNat (Marine Nationale) et de la MSV (Gendarmerie Nationale). Entrepreneur, il a lancé en 2022 la société veillezataz.com.

Articles connexes

Laisser un commentaire

*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.