Sie sind an Cloud Computing interessiert? Legen Sie jetzt los

Bringen LLMs große finanzielle Verluste mit sich? Wählen Sie Ihre LLM-Sicherheitslösung mit Bedacht aus.

Akamai Wave Blue

Verfasser

Maxim Zavodchik, Alex Marks-Bluth, und Neeraj Pradeep

November 27, 2024

Maxim Zavodchik

Verfasser

Maxim Zavodchik

Maxim Zavodchik ist Senior Manager von Apps & APIs Threat Research bei Akamai.

Akamai Wave Blue

Verfasser

Alex Marks-Bluth

Alex Marks-Bluth is a Security Researcher at Akamai, with deep experience in using data science to solve web security problems.  He enjoys cricket and cooking, in between juggling work and family.

Neeraj Pradeep

Verfasser

Neeraj Pradeep

Neeraj Pradeep is a Senior Security Researcher at Akamai with extensive experience in cybersecurity and a curious mind driven by a passion for solving complex challenges. He enjoys long drives with her family.

 

LLMs stellen eine komplexe neue Angriffsfläche dar, die die meisten Unternehmen nicht vollständig verstehen.
LLMs stellen eine komplexe neue Angriffsfläche dar, die die meisten Unternehmen nicht vollständig verstehen.

Redaktion und weitere Kommentare von Tricia Howard

Als CISO Ihres Unternehmens besteht Ihre Aufgabe darin, neue Cybersicherheitsbedrohungen vorherzusehen und abzuwehren. Die glänzenden neuen (und potenziell gefährlichen) Trendobjekte dieses Jahres sind große Sprachmodelle (LLMs). Das Akronym LLM steht jedoch nicht nur für „Large Language Model“ (großes Sprachmodell) – ohne eine angemessene, auf Ihre Umgebung abgestimmte Bewertung der Cybersicherheit kann LLM auch „Large Loss of Money“ (großer finanzieller Verlust) bedeuten. Diese KI-gestützten Systeme versprechen Effizienzgewinne und Innovation, doch unter der Oberfläche von LLMs verstecken sich Cybersicherheitsrisiken, die für Ihr Unternehmen finanzielle Katastrophen bedeuten könnten.

Ihre Finanzen und Ihr Ruf sind möglicherweise gefährdet

Ihr Unternehmen hat wahrscheinlich begonnen, LLMs zu verwenden; möglicherweise verwenden Sie sie selbst. Es ist möglich, dass sich andere Führungskräfte auf den Aufbau eines eigenen proprietären LLM für Ihre Kunden und/oder Mitarbeiter konzentrieren. Auch wenn die „ersten Fortschritte“ kurzfristig Effizienz- und Produktivitätssteigerungen zeigen können, müssen LLMs über einen langen Zeitraum betrachtet werden. Die Integration von LLMs in Ihr Unternehmen ohne eine gründliche Bewertung der Cybersicherheit kann zu massiven finanziellen Verlusten führen – die Art von Verlusten, die wir normalerweise eher mit Sicherheitsverstößen in Verbindung bringen.

Sie sollten sich darüber hinaus fragen, was die Auswirkungen auf Ihren Ruf wären, falls LLMs schädliche oder beleidigende Inhalte generieren, die Ihr Kundenvertrauen und Ihre Markenintegrität beeinträchtigen würden. Wir haben diesen Blogbeitrag geschrieben, weil Sie nicht der Einzige sind, der Fragen zum Navigieren in den unruhigen KI-Gewässern hat.

Eine komplexe neue Angriffsfläche

LLMs stellen eine komplexe neue Angriffsfläche dar, die die meisten Unternehmen noch nicht vollständig verstehen, aber das ist bei jeder großen technologischen Transformation zu erwarten. Bei unserer Angriffsoberfläche müssen wir von innen nach außen denken. Von Prompt-Injections bis hin zu Datenextraktionen – LLMs eröffnen anspruchsvollen Cyberkriminellen neue Vektoren.

Eine sicherheitsorientierte Prüfung dieser neuen Technologien ist von entscheidender Bedeutung. Die Durchführung einer Due-Diligence-Prüfung ist für jede neue Technologie eine gute Faustregel, bei LLMs ist sie aber besonders wichtig. Die Verteidiger haben bisher nur an der Oberfläche dieses technologischen Schwergewichts gekratzt und dadurch, dass sich Angreifer nicht an bürokratische Regeln halten, haben diese einen Vorteil. Angreifer haben keine Aktionäre, die besänftigt werden müssen – wenn ein Angriff keinen Erfolg hat, machen sie einfach weiter und versuchen es auf eine neue Weise. Sie müssen Ihr Unternehmen jedoch beim ersten Mal schützen.

Welches finanzielle Risiko besteht bei der Implementierung eines LLM ohne eine angemessene Cybersicherheitsbewertung?

Unsere Cyberwelt besteht aus Bits und Bytes, aber auch Dollarzeichen sollten nicht ignoriert werden. Ein Cyber-Framework ist eines der vielen Tools, die für diese Aufgabe benötigt werden. Und um diese Aufgabe gut zu bewältigen, müssen Sie das richtige Tool einsetzen

Die meisten Frameworks zur Evaluierung der Cybersicherheit sind nicht darauf ausgelegt, finanzielle Verluste aufgrund von KI-bezogenen Angriffen einzubeziehen. Diese technischen Rahmenwerke sind genau das – Rahmen. Sie sind nicht allumfassend. Auch wenn sie die Kosten einer Sicherheitsverletzung schätzen könnten, sie würden Ihnen sicherlich nicht zeigen, wie eine scheinbar geringfügige Schwachstelle zu einer Millionen-Dollar-Krise eskalieren könnte. Diese Risiken werden weiter zunehmen, wenn mehr LLMs in unser tägliches Leben integriert werden.

Auf welche Weise können Angreifer LLMs manipulieren?

Die Zeit, die ein Angreifer benötigt, um einen massiven Einfluss zu erzielen, wird mit LLMs erheblich verkürzt. Stellen Sie sich vor, ein Angreifer manipuliert Ihr LLM, um proprietäre Daten preiszugeben oder schädliche Befehle auszuführen. In wenigen Minuten könnte Ihr Unternehmen mit finanziellen Schäden und Reputationsschäden in noch nie dagewesenem Ausmaß konfrontiert sein.

Vertrauliche Daten – Kundeninformationen, geistiges Eigentum oder interne Geheimnisse – können durch eine LLM-Schwachstelle nach außen geraten. Die finanziellen Kosten, die sich daraus ergeben, sind hoch: Strafen durch Aufsichtsbehörden, Benachrichtigungen über Sicherheitsverstöße und kostspielige Abhilfemaßnahmen. Denken Sie daran, dass 60 % der kleinen Unternehmen innerhalb von sechs Monaten nach einer Datenschutzverletzung schließen müssen. Denken Sie auch an Strafen im Zusammenhang mit der Datenschutz-Grundverordnung (DSGVO). Solche Strafen können bis zu 4 % des weltweiten Umsatzes erreichen.

Eine böswillige Aufforderung kann nicht autorisierte Aktionen auslösen, die zum Herunterfahren des Systems führen oder schlimmer noch: Ein Angreifer könnte Zugriff auf kritische Systeme erlangen. Wie lange könnte Ihr Unternehmen offline überleben? Laut Gartner betragen die durchschnittlichen Kosten für IT-Ausfallzeiten 5.600 US-Dollar pro Minute. Multiplizieren Sie dies mit den Stunden oder sogar Tagen Ausfallzeit.

LLMs können manipuliert werden, um betrügerische Inhalte zu generieren oder falsche Transaktionen auszuführen. In stark regulierten Branchen wie dem Finanzsektor könnte eine einzige betrügerische Transaktion zu Geldstrafen, anullierten Verträgen und Gerichtsverfahren führen. Die Gesamtkosten? Potenziell in Millionenhöhe.

Der Schaden für Ihren Ruf ist die heimtückischste Bedrohung, wenn es um die LLM-Sicherheit geht. Ein einzelner Fehlschlag, wie z. B. eine unangemessene Ausgabe oder eine Verletzung der Privatsphäre, kann zu irreparablen Rufschädigungen führen. Der heutige Markt ist wettbewerbsfähiger denn je und das Vertrauen der Kunden ist fragil. Der Verlust dieses Vertrauens könnte zu dauerhaften Umsatzeinbußen führen, wenn Kunden zu Ihren Mitbewerbern abwandern.

Reputationsschäden sind eine finanzielle Zeitbombe

Wenn ein Vorfall mit LLMs öffentlich wird, geht es nicht nur um Geldstrafen oder behördliche Maßnahmen. Sondern man kann dadurch auch das Vertrauen der Kunden verlieren – selbst wenn keine direkte Sicherheitsverletzung oder kein technischer Fehler vorliegt.

Im Gegensatz zu herkömmlichen Cyberbedrohungen stellt die chatbasierte Schnittstelle von LLMs selbst ein ernstes Risiko dar, da die Ausgabe – scheinbar harmlose menschliche Sprache – gefährlich toxisch werden kann. Wir wissen, wie Worte Menschen verletzen können, aber diese Worte können auch Ihre Technologie schädigen.

Eine „weichere“, aber heimtückischere und unvorhersehbare Bedrohung

LLMs stellen eine Bedrohung dar, die weitaus heimtückischer und unvorhersehbarer ist als die herkömmlichen Cyberrisiken, für die Ihre Sicherheitsteams gerüstet sind. Bei herkömmlichen Bedrohungen ist die Angriffsfläche in der Regel hochtechnisch und wird durch die Technologie oder spezifische Anwendungsflüsse des Ziels definiert.

Bei LLMs ist das „Protokoll“ jedoch eine natürliche Sprache, die die Angriffsfläche erheblich erweitert und Manipulationstechniken ermöglicht, die über klassische technologische Schwachstellen hinausgehen und menschlichen Manipulationsversuchen stark ähneln können. Social Engineering ist seit Jahren eine bevorzugte Methode, um Menschen anzugreifen. Jetzt können dieselben Konzepte gegen unsere Technologie eingesetzt werden.

In unserer Forschung zu Prompt-Injection-Schwachstellen in mehreren Datensätzen haben viele Fälle Reputationsschäden zur Folge. Dabei handelt es sich um toxische, beleidigende, voreingenommene oder manipulierte Ausgaben sowie unbeabsichtigte Reaktionen des LLM, die von der wahren Absicht des LLM-Entwicklers abweichen. Wir alle haben gesehen, welche negativen Auswirkungen toxisches Verhalten auf Menschen haben kann, und je mehr unsere Technologie unserem Gehirn ähnelt, desto bewusster müssen wir uns dieser „abstrakteren“ technologischen Bedrohungen sein.

Was können Sie tun, um sich vor LLM-Bedrohungen zu schützen?

LLMs sind nicht nur ein weiteres Tool in Ihrem Technologie-Stack – sie stellen eine neue umfangreiche Angriffsfläche mit einzigartigen Risiken dar. Wenn Sie diese Systeme nicht sorgfältig auf Sicherheitsschwachstellen und finanzielle Risiken prüfen, kann es potenziell immer zu Katastrophen kommen. Sie sollten deshalb sicherstellen, dass jede von Ihnen bereitgestellte LLM-Sicherheitslösung vier wichtige Aspekte umfasst:

  1. Prompt-Sicherheitskontrollen (Schutz vor Prompt-Injections)
  2. Sandboxing und Segmentierung
  3. Integration von Verhaltensanalysen
  4. Strenge Prüfprotokolle

Prompt-Sicherheitskontrollen (Schutz vor Prompt-Injections)

Ihre LLM-Sicherheitslösung sollte eine umfassende Prompt-Inhaltsfilterung für Eingabe und Ausgabe umfassen, um Versuche zur Extraktion proprietärer Daten zu erkennen und zu blockieren. Ebenso sollte sie defensive Prompt Engineering-Techniken beinhalten, die eine LLM-Manipulation verhindern. Dies sollte kontextbezogene Prompt-Einschränkungen und Validierungsprüfungen umfassen, um sich vor schädlicher Befehlsausführung zu schützen.

Sandboxing und Segmentierung

Sie sollte sicherstellen, dass LLM-Interaktionen in Sandboxes ausgeführt werden und dass die LLM-Umgebung von kritischen Betriebssystemen segmentiert wird, um nicht autorisierte Befehlsausführungen zu verhindern. Mikrosegmentierung ist ein wichtiger Bestandteil von allen Zero-Trust-Frameworks und es gibt keinen besseren Zeitpunkt als jetzt, um den Wechsel zu Zero Trust zu vollziehen, sofern Sie dies nicht bereits getan haben. Laterale Netzwerkbewegungen schnell zu erkennen – und sie zu stoppen – kann den Unterschied zwischen einem Alarm und einem Vorfall bedeuten.

Integration von Verhaltensanalysen

Ihr LLM-Sicherheitsprodukt sollte Verhaltensanalysen verwenden, um eine Baseline typischer LLM-Interaktionen zu erstellen. Sie sollte atypisches Verhalten kennzeichnen und überprüfen, um potenziell betrügerische oder nicht autorisierte Aktivitäten zu identifizieren.

Um LLMs zu sichern, müssen Sie sie als Menschen mit extrem schneller Verarbeitungsleistung betrachten. Nutzen Sie Ihre Social Engineers und „Human Hacker“, um Strategien zum Schutz dieser leistungsstarken Techno-Menschen zu finden.

Strenge Prüfprotokolle

Die Pflege umfassender Auditprotokolle für LLM-Interaktionen zur Verfolgung von Eingaben, Ausgaben und Transaktionen ist für eine erfolgreiche LLM-Sicherheit von entscheidender Bedeutung. Dies kann auch bei Nachuntersuchungen von Vorfällen nützlich sein, um betrügerische Handlungen schnell zu bewerten und zu bekämpfen. Denn wie Sie wissen: Die Frage ist nicht, ob Sie angegriffen werden, sondern wann. Eine gute LLM-Sicherheitslösung sollte also immer davon ausgehen, dass ein Verstoß vorliegt.

Wie geht es weiter?

LLMs stellen für uns alle eine Lernmöglichkeit dar, insbesondere diejenigen von uns, die das digitale Leben schützen. Nehmen Sie sich die Zeit, um zu recherchieren und zu testen – genau wie bei anderen bedeutenden technologischen Fortschritten.

Akamai wird auch weiterhin unsere umfassende Transparenz nutzen, um Bedrohungen für die Sicherheit unserer Kunden, Kollegen und der Sicherheitsgemeinschaft im Allgemeinen zu erkennen, zu überwachen und zu melden. Um von unseren aktuellen Erkenntnissen zu profitieren, können Sie uns in den sozialen Medien folgen oder sich unsere Sicherheitsforschungsseite ansehen.



Akamai Wave Blue

Verfasser

Maxim Zavodchik, Alex Marks-Bluth, und Neeraj Pradeep

November 27, 2024

Maxim Zavodchik

Verfasser

Maxim Zavodchik

Maxim Zavodchik ist Senior Manager von Apps & APIs Threat Research bei Akamai.

Akamai Wave Blue

Verfasser

Alex Marks-Bluth

Alex Marks-Bluth is a Security Researcher at Akamai, with deep experience in using data science to solve web security problems.  He enjoys cricket and cooking, in between juggling work and family.

Neeraj Pradeep

Verfasser

Neeraj Pradeep

Neeraj Pradeep is a Senior Security Researcher at Akamai with extensive experience in cybersecurity and a curious mind driven by a passion for solving complex challenges. He enjoys long drives with her family.