Vous avez besoin du Cloud Computing ? Commencez dès maintenant

Perte d'argent importante ? Choisissez judicieusement votre solution de sécurité des LLM.

Akamai Wave Blue

écrit par

Maxim Zavodchik, Alex Marks-Bluth, et Neeraj Pradeep

November 27, 2024

Maxim Zavodchik

écrit par

Maxim Zavodchik

Maxim Zavodchik est Senior Manager of Apps & APIs Threat Research chez Akamai.

Akamai Wave Blue

écrit par

Alex Marks-Bluth

Alex Marks-Bluth is a Security Researcher at Akamai, with deep experience in using data science to solve web security problems.  He enjoys cricket and cooking, in between juggling work and family.

Neeraj Pradeep

écrit par

Neeraj Pradeep

Neeraj Pradeep is a Senior Security Researcher at Akamai with extensive experience in cybersecurity and a curious mind driven by a passion for solving complex challenges. He enjoys long drives with her family.

 

Les LLM sont une nouvelle surface d'attaque complexe que la plupart des entreprises ne comprennent pas entièrement.
Les LLM sont une nouvelle surface d'attaque complexe que la plupart des entreprises ne comprennent pas entièrement.

Édito et commentaires supplémentaires de Tricia Howard

En tant que RSSI de votre organisation, votre tâche consiste à prévoir et à déjouer les nouvelles menaces de cybersécurité. Cette année, tous les regards sont rivés sur les grands modèles de langage (LLM), malgré les risques potentiels. L'acronyme LLM (Large Language Model) ne signifie cependant pas seulement « grand modèle de langage ». Sans une évaluation adéquate de la cybersécurité, spécifique à votre environnement, LLM peut également signifier Large Loss of Money en anglais (« perte d'argent importante »). Ces systèmes pilotés par l'IA promettent des gains d'efficacité et de l'innovation, mais cachent des risques de cybersécurité qui pourraient entraîner un désastre financier pour votre organisation.

Vos finances et votre réputation peuvent être en danger

Votre entreprise a sans doute commencé à utiliser des LLMS ; peut-être les utilisez-vous déjà vous-même. Il est possible que d'autres responsables cherchent à doter votre organisation de son propre LLM pour ses clients et/ou ses employés. Bien que les « gains immédiats » puissent montrer des améliorations de l'efficacité et de la productivité à court terme, les LLM doivent être considérés dans une optique à long terme. L'intégration des LLM dans votre entreprise sans une évaluation approfondie de la cybersécurité peut entraîner des pertes financières massives, du type de celles que l'on associe généralement aux violations.

Demandez-vous également quelles seraient les conséquences sur votre réputation si les LLM généraient un contenu nuisible ou offensant qui affecterait la confiance de vos clients et l'intégrité de votre marque. Nous avons rédigé cet article de blog car vous n'êtes pas le/la seul(e) à vous poser des questions sur la manière de naviguer dans les eaux troubles de l'IA.

Une nouvelle surface d'attaque complexe

Les LLM sont une nouvelle surface d'attaque complexe que la plupart des entreprises ne comprennent pas entièrement, ce qui est normal pour toute transformation technologique majeure. Nous devons envisager notre surface d'attaque de l'intérieur vers l'extérieur. Des injections rapides à l'exfiltration de données, les LLM ouvrent de nouveaux vecteurs pour les cybercriminels sophistiqués.

Un audit de ces nouvelles technologies centré sur la sécurité est crucial. En général, il est vivement conseillé d'effectuer des tests préalables pour toute nouvelle technologie, mais c'est particulièrement important pour les LLM. Les défenseurs n'ont fait qu'effleurer la surface de ces technologies puissantes, et les attaquants n'ont aucune procédure à respecter, ce qui leur donne un avantage regrettable. Les attaquants n'ont pas d'actionnaires à satisfaire : si une attaque échoue, ils passent à autre chose et tentent d'ouvrir une nouvelle brèche.. En revanche, vous devez protéger votre organisation dès la première tentative.

Quel est le risque financier du déploiement d'un LLM sans une évaluation adéquate de la cybersécurité ?

Dans le monde virtuel, les bits et les octets sont rois, mais les signes de dollar ne doivent pas être ignorés. Un cadre de cybersécurité est un outil parmi d'autres et, pour être efficace, il faut utiliser l'outil adéquat

La plupart des cadres d'évaluation de la cybersécurité ne sont pas conçus pour évaluer les pertes financières des attaques liées à l'IA. Ces cadres techniques ne sont que des cadres. Ils ne sont pas exhaustifs. Même s'ils pouvaient estimer le coût d'une violation, ils ne vous montreraient certainement pas comment une vulnérabilité apparemment mineure pourrait se transformer en une crise se chiffrant en millions de dollars. Plus les LLM seront intégrés dans nos vies quotidiennes, plus ces risques continueront d'augmenter.

Comment les attaquants peuvent-ils manipuler les LLM ?

Le temps dont un attaquant a besoin pour produire un impact majeur est considérablement réduit avec les LLM. Imaginez qu'un attaquant manipule votre LLM pour révéler des données propriétaires ou lancer des commandes nuisibles. En quelques minutes seulement, votre organisation pourrait subir des dommages financiers et de réputation d'une ampleur sans précédent.

Des données sensibles (informations sur les clients, propriété intellectuelle ou secrets internes) peuvent être dérobées via une vulnérabilité du LLM. Le coût financier de ce type d'incident est élevé : amendes réglementaires, notifications de violation et mesures correctives coûteuses. Il faut savoir que 60 % des petites entreprises ferment dans les six mois qui suivent une violation de données. Pensez également aux sanctions prévues par le Règlement général sur la protection des données (RGPD) qui peuvent représenter jusqu'à 4 % du chiffre d'affaires mondial.

Une instruction malveillante peut déclencher des actions non autorisées, entraînant l'arrêt du système ou, pire encore, l'accès d'un attaquant à des systèmes critiques. Combien de temps votre entreprise peut-elle survivre à une déconnexion totale ? Selon Gartner, le coût moyen d'une interruption de service informatique est de 5 600 dollars par minute. Multipliez ce chiffre par des heures, voire des jours, d'indisponibilité.

Les LLM peuvent être manipulés pour générer un contenu frauduleux ou exécuter de fausses transactions. Dans les secteurs très réglementés, comme la finance, une seule transaction frauduleuse peut entraîner des amendes, la perte de contrats et des poursuites judiciaires. Le coût total peut se chiffrer en millions.

L'atteinte à votre réputation est la menace la plus insidieuse en matière de sécurité des LLM. Un seul faux pas, tel qu'un dérapage ou une violation de la vie privée, peut causer des dommages irréparables à la réputation. Le marché actuel est plus compétitif que jamais et la confiance des clients est fragile. Perdre cette confiance peut entraîner une perte définitive de revenus, les clients se tournant vers vos concurrents.

Les atteintes à la réputation sont une bombe à retardement financière

Lorsqu'un incident impliquant des LLM est rendu public, vous ne risquez pas seulement de subir des amendes ou des mesures réglementaires. Vous risquez de perdre la confiance des clients, même en l'absence d'une violation directe ou d'une défaillance technique.

Contrairement aux cybermenaces traditionnelles, l'interface de chat des LLM constitue un risque sérieux, car le résultat (un langage humain apparemment inoffensif) peut devenir dangereusement toxique. Nous savons combien les mots peuvent blesser les gens, mais ces mots peuvent également nuire à votre technologie.

Une menace plus « douce », mais plus insidieuse et imprévisible

Les LLM représentent une menace bien plus insidieuse et imprévisible que les cyberrisques classiques auxquels vos équipes sont préparées. Dans le cas des menaces traditionnelles, la surface d'attaque est généralement très technique, définie par la technologie de la cible ou par des flux d'applications spécifiques.

Cependant, avec les LLM, le "protocole" est un langage naturel, ce qui élargit considérablement la surface d'attaque et permet des techniques de manipulation qui vont au-delà des vulnérabilités technologiques classiques et s'étendent à la manipulation humaine. Depuis des années, l'ingénierie sociale est une méthode d'attaque privilégiée contre les êtres humains. Aujourd'hui, ces mêmes concepts peuvent être utilisés contre notre technologie.

Dans le cadre de nos recherches sur les vulnérabilités liées à l'injection rapide dans de nombreux ensembles de données, un grand nombre de cas entraînent une atteinte à la réputation. Il s'agit de résultats toxiques, offensants, biaisés ou manipulés, ainsi que de réponses involontaires du LLM qui s'éloignent de l'intention initiale du développeur du LLM. Nous avons tous vu l'impact négatif qu'un comportement toxique peut avoir sur les êtres humains, et plus la technologie cherche à imiter le fonctionnement de notre cerveau, plus nous devons être conscients de ces menaces technologiques « plus douces ».

Que faire pour se protéger contre les menaces des LLM ?

Les LLM ne sont pas qu'un outil de plus dans votre pile technologique : ils constituent une nouvelle surface d'attaque avec des risques uniques. Si vous n'évaluez pas soigneusement les vulnérabilités de sécurité et les risques financiers que présentent ces systèmes, vous vous exposez à un désastre potentiel. Avant de déployer une solution de sécurité LLM, veillez à ce qu'elle intègre ces quatre éléments clés :

  1. Contrôles de sécurité rapides (protection contre les injections rapides)
  2. Environnement de test et segmentation
  3. Intégration de l'analyse comportementale
  4. Pistes d'audit rigoureuses

Contrôles de sécurité rapides (protection contre les injections rapides)

Votre solution de sécurité des LLM doit filtrer entièrement le contenu des instructions en entrée et en sortie afin de détecter et de bloquer toute tentative d'extraction de données propriétaires, et utiliser des techniques défensives de création d'instructions qui empêchent la manipulation des LLM. Elle doit également inclure des restrictions contextuelles de l'instruction et des contrôles de validation pour empêcher l'exécution de commandes nuisibles.

Environnement de test et segmentation

Les interactions avec les LLM sont exécutées dans un environnement de test et l'environnement du LLM est séparé des systèmes opérationnels critiques afin d'empêcher l'exécution de commandes non autorisées. La microsegmentation est un élément clé du cadre Zero Trust et c'est le moment idéal pour votre entreprise de commencer à évoluer vers ce modèle si ce n'est pas déjà fait. L'identification rapide des mouvements latéraux (et la capacité à les arrêter) peut faire la différence entre une alerte et un incident.

Intégration de l'analyse comportementale

Votre solution de sécurité LLM doit utiliser l'analyse comportementale pour établir une base de référence des interactions LLM typiques. Elle doit signaler et vérifier tout comportement atypique afin d'identifier les activités potentiellement frauduleuses ou non autorisées.

Pour sécuriser les LLM, vous devez les considérer comme des humains avec une puissance de calcul incroyablement rapide. Tirez parti de vos spécialistes de l'ingénierie sociale et de vos « pirates humains » pour trouver des stratégies de protection de ces technohumains surpuissants.

Pistes d'audit rigoureuses

La tenue de journaux d'audit complets des interactions des LLM pour suivre les entrées, les sorties et les transactions est la clé d'une stratégie de sécurité des LLM efficace. Cela peut également s'avérer utile dans le cadre d'enquêtes à la suite d'un incident afin d'évaluer et de lutter rapidement contre les actions frauduleuses. Comme vous le savez, la question n'est pas desavoir si, mais quand vous subirez une attaque, donc l'hypothèse d'une brèche est un atout majeur pour une solution de sécurité des LLM.

Et ensuite ?

Les LLM sont une opportunité d'apprentissage pour chacun d'entre nous, en particulier pour les responsables de la protection contre les risques digitaux. Prenez le temps de faire des recherches et des tests, comme pour les autres grands progrès technologiques.

Akamai continuera de tirer parti de sa grande visibilité pour découvrir, surveiller et signaler les menaces envers la sécurité de ses clients, de ses collaborateurs et de la communauté de la sécurité dans son ensemble. Pour vous tenir au courant de nos dernières découvertes, suivez-nous sur les réseaux sociaux ou consultez notre page consacrée aux études sur la sécurité.



Akamai Wave Blue

écrit par

Maxim Zavodchik, Alex Marks-Bluth, et Neeraj Pradeep

November 27, 2024

Maxim Zavodchik

écrit par

Maxim Zavodchik

Maxim Zavodchik est Senior Manager of Apps & APIs Threat Research chez Akamai.

Akamai Wave Blue

écrit par

Alex Marks-Bluth

Alex Marks-Bluth is a Security Researcher at Akamai, with deep experience in using data science to solve web security problems.  He enjoys cricket and cooking, in between juggling work and family.

Neeraj Pradeep

écrit par

Neeraj Pradeep

Neeraj Pradeep is a Senior Security Researcher at Akamai with extensive experience in cybersecurity and a curious mind driven by a passion for solving complex challenges. He enjoys long drives with her family.