Aujourd’hui, la technologie évolue à un rythme effréné, l’intelligence artificielle (IA) est devenue une arme à double tranchant. Il est regrettable que, si l’IA a ouvert un panorama étonnant de possibilités dans presque tous les secteurs, elle ait également trouvé son chemin dans l’univers cybercriminel pour alimenter de nouvelles cyberattaques plus professionnelles, plus complexes et plus efficaces. Par conséquent, il est difficile d’exagérer la menace catégorique des cybermenaces basées sur l’IA qui augmentent au sein des entreprises du monde entier, de sorte que la stratégie de défense doit être intégrée et multicouche.
Depuis que l’IA a commencé à pénétrer le dark web et d’autres activités criminelles, les menaces ont changé. Jusqu’à présent, ces attaques impliquaient la participation humaine et l’utilisation des outils d’attaque, mais l’utilisation des technologies d’IA encore naissantes rend ces attaques plus automatiques, plus spécifiques et plus flexibles. Alors que les attaques humaines reposent sur leur capacité à en savoir plus sur la cible et dépendent donc de leur expérience, les attaques opérées par l’IA peuvent collecter d’énormes ensembles de données en très peu de temps, en plus de quoi ces systèmes peuvent ajuster leurs paramètres de fonctionnement en fonction de l’objectif, qui dans ce cas est de lancer une attaque de phishing. Ce qui rend également ces systèmes suffisamment intelligents pour apprendre les résultats des tentatives précédentes et les intégrer dans leur système d’exploitation.
La pandémie de COVID-19 qui a débuté au début de 2020 a entraîné une augmentation du nombre de travailleurs à distance, ce qui a exposé l’entreprise à de nouveaux risques de la part des cybercriminels. Les cyberattaques soutenues par l’IA ont commencé à apparaître lorsque la cyberattaque a utilisé l’apprentissage automatique et le traitement du langage naturel pour élaborer le message et ses attaques. Par exemple, l’attaque qui a commencé en 2020 est connue sous le nom d’attaque « SolarWinds »[1], où les pirates ont utilisé l’IA pour développer une porte dérobée personnalisée à travers laquelle ils pourraient accéder à des informations sensibles via les systèmes de l’organisation sans être repérés. Il s’agissait d’un grand pas en avant par rapport aux types de piratages précédents, qui ont prouvé que l’IA peut être utilisée pour améliorer l’anonymat et les capacités des campagnes adverses.
En 2021, par rapport à l’année précédente, l’utilisation de l’IA a augmenté dans la création de logiciels malveillants et de stratagèmes de phishing. Les acteurs de la menace ont commencé à utiliser des modèles génératifs pour générer des logiciels malveillants et des sujets de phishing « sur mesure » qui ressemblaient presque à ceux de la réalité. Par exemple, considérée comme déployée en mai 2021, l’attaque par ransomware « DarkSide » [2] a utilisé des emails générant de l’IA pour sécuriser l’installation d’un ransomware. Ces développements ont mis en évidence le fait que les outils d’IA, quatrièmement, étaient devenus très facilement accessibles aux pirates informatiques puisqu’ils pouvaient désormais automatiser la production de nombreuses techniques d’attaque élaborées et sophistiquées et individualisées à une échelle qui n’avait pas été possible auparavant.
En 2022, les attaques qui utilisent l’ingénierie sociale à l’aide de l’IA sont devenues plus complexes. Les fraudeurs ont utilisé des deep fakes synthétiques d’intelligence artificielle pour dissimuler l’identité des personnes avec lesquelles la cible est en communication. Par exemple, en août 2022, un employé d’une entreprise de logiciels a succombé à un chantage d’ingénierie sociale en utilisant un audio truqué généré par l’IA de l’employé en question. [3] À cet égard, le méfait actuel était un exemple éloquent de la capacité changeante de l’IA à influencer et à tromper les gens avec des systèmes de sécurité démodés.
En 2023, plus de la moitié des personnes interrogées en cybersécurité estimaient que l’IA générative serait plus bénéfique pour les cyberattaquants que pour les défenseurs au cours des deux prochaines années. [4] Leur plus grande inquiétude était de savoir ce que l’IA pouvait faire pour les adversaires en termes de phishing, de développement de logiciels malveillants spécifiques et de propagation de fausses nouvelles. Les pirates utilisaient déjà de grands modèles génératifs pour créer des chatbots peu recommandables et simplifier considérablement la rédaction d’e-mails de phishing et la génération de logiciels malveillants personnalisés. Ces changements de points de vue parmi les spécialistes de la sécurité signifiaient la nécessité pour les organisations de revoir et d’améliorer leurs approches pour lutter contre les menaces de sécurité plus élaborées basées sur l’IA.
Les responsables de la sécurité ont déclaré en 2024 que l’automatisation des cybercrimes grâce à l’intelligence artificielle serait à l’ordre du jour au cours de l’année à venir. Selon les recherches de Netacea[5], 95 % des responsables de la sécurité estiment que l’IA sera utilisée pour automatiser les attaques et 93 % estiment que l’IA sera utilisée pour générer des deep fakes afin de se faire passer pour des personnes réellement dignes de confiance. L’escalade de l’utilisation de l’IA dans les opérations de cessez-le-feu devrait être plus répandue à l’avenir, où les chercheurs estiment que le type de cyberattaques de contrôle de l’IA sera le plus important dans un avenir proche. C’est tout aussi inquiétant pour les organisations, car cela souligne l’importance pour les organisations d’adopter un système de protection à plusieurs niveaux pour lutter contre les menaces et les exploitations qui impliquent l’utilisation de l’intelligence artificielle, analyser le comportement des utilisateurs, former les utilisateurs, se préparer aux incidents et partager des informations.
Les coûts des cyberincidents ne se limitent pas à des milliers de dollars, mais peuvent atteindre des centaines de milliers ou des millions de dollars. Dans un rapport de Cybersecurity Ventures, il a été révélé que les coûts de la cybercriminalité à l’échelle mondiale devraient atteindre 10 $. 5 trillions par an en 2025 contre 3 trillions de dollars en 2015. [6] D’autres coûts sont liés à l’image de l’organisation, aux ramifications juridiques et à la perturbation des activités. De nombreux secteurs, notamment les domaines médical et financier, sont particulièrement vulnérables aux sanctions et aux réactions acrimonieuses des consommateurs en cas de fuite de données. Cela signifie simplement la nécessité d’investir dans une bonne politique et une bonne pratique de cybersécurité.
Les menaces liées à l’IA nécessitent l’utilisation de l’IA afin d’atténuer ces menaces dans la lutte durable contre de tels cyberéléments. Les solutions de sécurité basées sur l’IA peuvent traiter de grandes quantités de données en quelques secondes et peuvent identifier les événements et les activités qui nécessitent une attention immédiate, ces activités pourraient être liées à une menace potentielle. Les algorithmes de ML peuvent apprendre de manière rafraîchissante à partir d’un nouvel ensemble de données en cas d’évolution des modèles de menace. Les solutions de threat intelligence basées sur des réseaux de neurones artificiels sont souvent capables de détecter et de neutraliser les menaces avant qu’elles ne soient productives. Par exemple, l’IA peut capturer des modèles du réseau qui sortent de l’ordinaire, ce qui pourrait indiquer une violation. Par conséquent, ces systèmes, grâce à leur intégration d’analyses avancées et d’apprentissage automatique, sont capables de fournir une détection et une réponse aux menaces beaucoup plus rapides et beaucoup plus précises que les méthodes conventionnelles.
En plus de détecter le danger évident, les organisations doivent superviser les activités non identifiées qui impliquent une attaque en cours. L’analyse comportementale implique l’observation des utilisateurs ainsi que du système et l’identification des anomalies. Par exemple, si, pour une raison quelconque, le compte d’un employé commençait à accéder à une quantité importante de données du réseau protégé de l’organisation après les heures de bureau, cela pourrait être considéré comme suspect. Les outils d’analyse comportementale informatisés basés sur l’IA peuvent développer des modèles comportementaux standard pour les utilisateurs et les systèmes d’une organisation. Ces outils fonctionnent en surveillant et en analysant le comportement au jour le jour ; Il serait facile pour ces outils d’identifier un léger décalage qui pourrait résulter d’un attaquant. Il permet aux organisations d’empêcher une menace de devenir critique, car elle est traitée avant qu’elle n’en arrive à ce point.
Cela dit, la fuite du facteur humain est toujours considérée comme l’un des aspects les plus critiques qui exposent un système au piratage. Néanmoins, la présence croissante de l’IA dans les ruptures de cybersécurité n’élimine pas le recours au facteur humain, principalement le phishing et l’ingénierie sociale. Il est donc nécessaire de sensibiliser les utilisateurs aux dangers et aux mesures qu’ils doivent prendre pour protéger leurs comptes contre les cybercriminels. Les programmes de sensibilisation et les sessions de formation consistent souvent à conseiller les employés sur les différents risques et sur la façon dont ils doivent les gérer. Par exemple, il faut faire comprendre aux travailleurs ce qu’est un e-mail d’hameçonnage, ne pas cliquer sur les liens d’inconnus, et toujours signaler de tels événements. Cela signifie qu’en formant et en sensibilisant à la cybersécurité, les organisations sont susceptibles de minimiser une cyberattaque.
Cependant, si les stratégies préventives de lutte contre la cybercriminalité ont été fortement mises en œuvre, les organisations ne peuvent pas exclure la survenue de la cybercriminalité. Par conséquent, il est essentiel de reconnaître un plan d’intervention en cas d’incident pour s’assurer qu’une organisation est prête à faire face à la survenance d’un incident. Ce plan doit montrer comment la menace sera découverte et isolée, comment les acteurs malveillants seront éliminés du réseau et comment la récupération des réseaux/systèmes compromis sera réalisée. L’IA a des applications dans le processus de traitement d’un incident en fournissant une aide dans la détection de l’incident, son type et la manière de prévenir l’incident. Par exemple, les technologies d’IA sont capables de déterminer l’origine d’une attaque, quel système a été pénétré et commence le processus de réparation. Lorsque de telles tâches sont exécutées manuellement, cela prend du temps, ce qui permet à l’organisation de gérer l’incident en un minimum de temps, réduisant ainsi l’impact de l’attaque.
La cybersécurité est toujours un jeu d’équipe et souvent les organisations doivent demander l’aide de leurs homologues des autres organisations, du gouvernement et des experts sur le terrain pour se défendre contre les nouvelles menaces. De bons renseignements sur les menaces peuvent être fournis aux communautés et de cette façon, l’organisation sera en mesure de comprendre les dangers auxquels elle est confrontée et de proposer des mesures défensives qui peuvent être efficaces à ce moment-là. La coopération avec les industries et les programmes de partage d’informations tels que la Cyber Threat Alliance (CTA) ou les centres de partage et d’analyse d’informations (ISAC) offrent de bonnes opportunités de coopération. Grâce à de tels processus, les organisations peuvent obtenir des informations sur les nouveautés en matière de menaces et utiliser les expériences collectives des différents membres pour améliorer les systèmes de cybersécurité existants.
L’IA, y compris l’apprentissage automatique, est en plein essor et il en va de même pour l’utilisation de l’intelligence artificielle par les cybercriminels qui contribuent au développement de cyberattaques meilleures, automatiques et crédibles. Par conséquent, à mesure que les menaces basées sur l’IA persistent et que de nouvelles menaces sont développées, il devient nécessaire pour les organisations d’utiliser un modèle de défense à plusieurs niveaux contre les menaces. À l’aide de l’identification des menaces basée sur l’intelligence artificielle, de la surveillance comportementale, de la sensibilisation des utilisateurs, de la réponse aux incidents de sécurité et de la coopération, une cyberdéfense organisationnelle peut être créée pour répondre aux exigences du monde contemporain. La guerre contre les cybercrimes basés sur l’IA persiste, mais cette stratégie globale et préventive garantirait la protection des actifs organisationnels à l’avenir.