L’ère de l’intelligence artificielle (IA) a considérablement accéléré le développement et la sophistication des cyberattaques. Les défenseurs commencent tout juste à reconnaître et à appliquer le potentiel de l’IA générative pour basculer l’équilibre de la cybersécurité en leur faveur et prendre une longueur d’avance sur les adversaires.
En même temps, il est crucial de comprendre comment l’IA peut être potentiellement détournée par des acteurs malveillants. Microsoft et OpenAI publient une recherche sur les menaces émergentes à l’ère de l’IA. Mettant en lumière des activités associées à des acteurs de menaces connus. Y compris des injections de prompt, des tentatives de mésusage des grands modèles de langage, et des fraudes.
Leurs analyses révèlent que les acteurs de menaces utilisent la technologie des grands modèles de langage (LLM) comme un outil de productivité supplémentaire dans leur arsenal offensif.
Bien que Microsoft et ses partenaires, y compris OpenAI, n’aient pas encore observé de techniques d’attaque ou d’abus particulièrement novatrices ou uniques résultant de l’utilisation de l’IA par ces acteurs. Ils continuent d’étudier ce paysage de près pour anticiper de potentielles évolutions.
Un partenariat stratégique pour une utilisation sûre de l’IA
Le partenariat entre Microsoft et OpenAI. Incluant la publication de cette recherche, vise à garantir une utilisation sûre et responsable des technologies d’IA telles que ChatGPT. Tout en maintenant les normes éthiques les plus élevées pour protéger la communauté contre un usage potentiellement abusif.
Dans le cadre de cet engagement. Les deux entreprises ont pris des mesures pour perturber les actifs et les comptes associés aux acteurs de menaces. Améliorer la protection de la technologie et des utilisateurs des LLM d’OpenAI contre les attaques ou abus, et définir les garde-fous et mécanismes de sécurité autour de leurs modèles.
Ils s’engagent aussi à utiliser l’IA générative pour perturber les acteurs de menaces et exploiter la puissance de nouveaux outils. Y compris Microsoft Copilot for Security, pour renforcer les défenseurs partout dans le monde.
Une approche fondée sur des principes
La progression de la technologie crée une demande pour des mesures de cybersécurité et de sécurité solides. L’ordre exécutif de la Maison Blanche sur l’IA impose des exigences strictes pour les systèmes d’IA ayant des impacts importants. Ces exigences comprennent des tests de sécurité rigoureux et une supervision gouvernementale.
Microsoft et OpenAI renforcent la sécurité de leurs modèles d‘intelligence artificielle conformément à l’appel du décret en faveur de normes complètes en matière de sûreté et de sécurité de l’intelligence artificielle. Cette collaboration vise à garantir la création, le déploiement et l’utilisation responsables de ces modèles en collaboration avec notre écosystème.
En accord avec le leadership de Microsoft à travers l’IA et la cybersécurité. Ils annoncent des principes qui façonnent la politique de Microsoft et les actions atténuant les risques associés à l’utilisation de nos outils et API d’IA. Par les menaces persistantes avancées des États-nations (APTs), les manipulateurs persistants avancés (APMs), et les syndicats de cybercriminalité.
Ces principes comprennent
- L’identification et l’action contre l’utilisation malicieuse des ressources d’IA de Microsoft par des acteurs de menaces identifiés.
- La notification à d’autres fournisseurs de services d’IA lorsqu’une utilisation malveillante est détectée.
- La collaboration avec d’autres parties prenantes pour échanger régulièrement des informations sur l’utilisation de l’IA par les acteurs de menaces.
La sécurité à l’ère de l’IA nécessite une vigilance constante et une collaboration étroite entre les leaders technologiques pour anticiper et neutraliser les menaces émergentes. Microsoft et OpenAI, grâce à leur partenariat stratégique, sont bien placés pour répondre à ces défis. Protégeant ainsi leurs plateformes et leurs utilisateurs contre les abus potentiels tout en favorisant une innovation responsable dans l’utilisation de l’IA.
Lire aussi: Confidentialité des données : Un guide pour les individus et les familles