L’intelligence artificielle (IA) a révolutionné de nombreux secteurs, en offrant des solutions innovantes et une efficacité accrue dans des domaines variés, comme la santé, la finance ou encore les transports. Cependant, l’IA est une arme à double tranchant : si elle peut renforcer la sécurité et l’analyse, elle est également exploitée à des fins malveillantes. Les cybercriminels, en particulier, s’adaptent rapidement pour tirer parti des capacités croissantes de l’IA, posant de nouveaux défis en matière de cybersécurité.

Comme le souligne Etay Maor, stratège en chef de la sécurité chez Cato Networks, « l’intelligence artificielle ne remplacera pas les humains, mais ceux qui savent l’utiliser surpasseront ceux qui ne le font pas ». Cette observation s’applique autant aux défenseurs de la cybersécurité qu’aux cybercriminels. Les outils basés sur l’IA permettent d’automatiser et de simplifier de nombreuses tâches auparavant complexes, comme la création de logiciels malveillants ou la conception de campagnes de phishing ciblées.

Cependant, l’IA reste une technologie imparfaite, et certains outils supposés sophistiqués se révèlent être des versions reconditionnées de modèles existants. Cela montre que, pour l’instant, l’exploitation de l’IA par les criminels présente encore des limites.

L’exploitation des GPTs : une nouvelle menace

Les GPTs (« Generative Pre-trained Transformers »), introduits par OpenAI en novembre 2023, ont élargi les possibilités d’utilisation de l’IA générative. Ces modèles personnalisables permettent à des utilisateurs de définir des instructions spécifiques et d’intégrer des API externes pour répondre à des besoins particuliers. Par exemple, une entreprise peut configurer un GPT pour analyser automatiquement des données ou fournir une assistance client améliorée.

Toutefois, cette personnalisation présente aussi des risques majeurs

Les cybercriminels peuvent exploiter ces modèles pour :

  • Extraire des informations sensibles

    En accédant à des données ou à des configurations intégrées dans les GPTs.

  • Contourner des protections

    Les mesures de restriction basées sur des instructions peuvent être aisément manipulées par des attaquants avertis.

  • Développer des outils malveillants 

    Les GPTs peuvent être détournés pour automatiser des attaques à grande échelle.

Pour l’instant, l’utilisation de l’intelligence artificielle par les cybercriminels se concentre sur des tâches relativement simples mais redoutablement efficaces :

  • Phishing avancé

    Les IA permettent de générer des emails de phishing très convaincants, adaptés à des cibles précises et difficiles à distinguer de communications légitimes.

  • Code malveillant

    En analysant du code existant, les IA peuvent écrire des segments malveillants ou modifier des fichiers pour les rendre indétectables par les antivirus.

  • Impersonation

    Les modèles d’IA générative peuvent créer des fausses voix ou visages pour des attaques de type deepfake, augmentant les risques de fraudes et de désinformation.

Ces exemples montrent que l’IA est surtout utilisée pour améliorer l’efficacité des stratégies existantes, plutôt que pour en créer de nouvelles.

Lire aussi: Apple GPT : ce que nous savons sur les travaux d’Apple en matière d’IA Générative

Quelles solutions pour les contrer ?

Face à ces menaces, il est essentiel pour les entreprises et les utilisateurs de renforcer leurs pratiques de cybersécurité. Voici quelques recommandations :

  • Limiter l’utilisation des outils IA à des données non sensibles

    Évitez de partager des informations confidentielles avec des systèmes comme les GPTs.

  • Surveiller les activités anormales

    Implémenter des outils de détection qui peuvent signaler des comportements suspects.

  • Former les équipes

    Les organisations doivent éduquer leurs employés aux risques spécifiques liés à l’IA.

  • Mises à jour régulières

    Les fournisseurs d’outils IA comme OpenAI publient fréquemment des patchs pour corriger les vulnérabilités. Assurez-vous que vos systèmes sont toujours à jour.

L’évolution de l’IA ouvre des perspectives fascinantes mais soulève également des inquiétudes majeures en matière de cybersécurité. Les cybercriminels adaptent rapidement leurs méthodes, et les défenseurs doivent rester vigilants pour contrer ces nouvelles formes d’attaques.

L’IA, comme toute technologie, dépend de l’usage qui en est fait. Elle peut être une alliée puissante ou une menace redoutable. En comprenant ses risques et en adoptant des stratégies proactives, il est possible d’en tirer le meilleur tout en minimisant les dangers.