Dans leur dernier rapport, les experts de Kaspersky révèlent l’influence profonde de l’IA sur le paysage de la cybersécurité en 2023. L’analyse explore les implications multi-facettes de l’IA, en se concentrant d’une part sur son utilisation par les défenseurs et les autorités, et d’autre part sur son potentiel d’exploitation par les cybercriminels. Ce rapport est une partie du Kaspersky Security Bulletin (KSB), une compilation annuelle de prédictions et d’études approfondies qui mettent en lumière les principaux changements dans le domaine de la cybersécurité.
Avec la rapidité à laquelle les progrès technologiques et les évolutions sociales s’installent dans notre quotidien, le terme « IA » s’est clairement positionné en tête des sujets de discussion les plus en vogue en cette année 2023. Le développement des grands modèles de langage (LLM) et la montée en puissance des préoccupations en matière de sécurité et de confidentialité créent un lien direct entre l’IA et le monde de la cybersécurité. Les chercheurs de Kaspersky montrent comment les outils d’IA ont aidé les cybercriminels dans leurs activités malveillantes en 2023, tout en mettant en évidence les applications défensives potentielles permises par cette technologie.
Voilà quelques-unes des prédictions des experts de l’entreprise concernant les conséquences de l’IA sur le paysage des menaces :
Des vulnérabilités plus complexes
À mesure que les modèles de langage sont intégrés dans un plus grand nombre de produits grand public, il faut s’attendre à ce que de nouvelles vulnérabilités complexes apparaissent à l’intersection de l’IA générative et des technologies traditionnelles, élargissant ainsi la surface d’attaque à sécuriser pour les professionnels de la cybersécurité. Les développeurs vont donc devoir étudier de nouvelles mesures de sécurité, comme l’approbation par l’utilisateur des actions lancées par les agents LLM.
Un assistant IA complet pour les spécialistes de la cybersécurité
Les membres de la Red team et les chercheurs en cyber exploitent l’IA générative pour créer des outils de cyberdéfense innovants, ce qui pourrait aboutir à la création d’un assistant numérique basé sur le LLM ou sur l’apprentissage automatique (ML). Cet outil pourrait permettre à la Red Team d’automatiser certaines tâches, en apportant des conseils basés sur des commandes exécutées dans un environnement de pentesting.
Les réseaux neuronaux seront de plus en plus utilisés pour générer des visuels utiles aux arnaqueurs
Au cours de l’année à venir, les escrocs pourraient renforcer leurs stratégies en utilisant des réseaux neuronaux, et tirer parti des outils d’IA pour créer des contenus frauduleux de plus en plus convaincants. Avec la capacité de générer sans effort des images et des vidéos convaincantes, il faut s’attendre à une escalade des cybermenaces en matière de fraude et d’escroquerie.
L’IA ne causera pas pour autant de changement révolutionnaire dans le paysage des menaces en 2024
Malgré les tendances décrites plus tôt, les experts de Kaspersky restent sceptiques quant à la possibilité que l’IA bouleverse de manière significative le paysage des menaces dans un avenir proche. Si les cybercriminels adoptent l’IA générative, il en va de même pour les cyber-défenseurs, qui utiliseront les mêmes outils, voire des outils plus avancés, pour tester le perfectionnement de la sécurité des logiciels et des réseaux. C’est pourquoi il est finalement peu probable que l’IA modifie radicalement le paysage des attaques.
Davantage d’initiatives réglementaires en matière d’IA, avec la contribution du secteur privé
La rapidité du développement des technologies pose la question de l’élaboration de politiques et de réglementations pour les contrôler autant que possible. Le nombre d’initiatives réglementaires liées à l’IA est appelé à augmenter. Les acteurs non étatiques, tels que les entreprises technologiques, compte tenu de leur expertise dans le développement et l’utilisation de l’intelligence artificielle, peuvent apporter une contribution précieuse aux discussions sur la réglementation de l’IA, tant au niveau mondial que national.
Un filigrane pour le contenu généré par l’IA
Il faudra davantage de réglementations, ainsi que les mesures des prestataires de services, pour signaler et identifier les contenus générés par l’IA, ces outils étant de plus en plus pourvus contre les technologies de détection. Les développeurs et les chercheurs, pour leur part, contribueront à l’élaboration de méthodes de filigrane pour les contenus IA afin d’en faciliter l’identification et la provenance.
« L’intelligence artificielle dans le domaine de la cybersécurité est une arme à double tranchant. Ses capacités d’adaptation renforcent nos défenses, et constituent un rempart contre les menaces en constante évolution. Toutefois, ce caractère dynamique comporte également sa part de risques, car les attaquants tirent parti de l’IA pour élaborer des attaques plus sophistiquées. Il est essentiel de trouver un juste équilibre, en garantissant une utilisation responsable sans partage excessif de données sensibles, pour sécuriser nos frontières numériques », commente Vladislav Tushkanov, expert en sécurité chez Kaspersky.