Studie: Fast alle Angriffe auf generative KI sind erfolgreich

Eine Studie von Pillar Security hat anhand von aktiven Systemen gezeigt, das 90% aller GenAI-Anwendungen leicht zu hacken sind. Bild: Pillar Security
Eine Studie von Pillar Security hat anhand von aktiven Systemen gezeigt, das 90 Prozent aller GenAI-Anwendungen leicht zu hacken sind. – Bild: Pillar Security

CAFM-NEWS – Pillar Security ist ein Anbieter von Sicherheitslösungen für generative künstliche Intelligenz wie beispielsweise ChatGPT und hat die Studie The State of Attacks on GenAI zur Sicherheit von deren Large Language Models durchgeführt – mit eindeutigem Ergebnis:

Von den mehr als 2.000 GenAI-Anwendungen hatten die meisten große Schwachstellen, denn 90 Prozent der Angriffe führen zu Datendiebstahl und 20 Prozent umgingen dabei einfach die Schutzmaßnahmen.

Zum Erfolg führten die Hacker verschiedene Techniken, zum Beispiel:

  • Ein Prompt mit dem Inhalt Ignore Previous Instructions setzte direkt die Sicherheits-Vorgaben der KI-Systeme außer Kraft.
  • Mit Base64Encoding wurden kompromittierende Eingaben verschlüsselt und so Inhaltsfilter umgangen.
  • Methoden wie Admin Override, also das Umgehen des Admin-Passworts, kamen ebenfalls zu Einsatz, um das System dazu zu bringen, sensible Daten zugänglich zu machen.

Die Studienautoren bemängeln, dass bei KI-Sprachmodellen der Fokus zu sehr auf Features und nicht auf Sicherheit liege. Besonders schwerwiegend sei, dass die Daten nicht auf Basis von Umfragen und damit theoretischer Natur seien, sondern aus tatsächlich aktiven Systemen gewonnen wurden.

 

Abbildungen: Pillar Security

Studie: Fast alle Angriffe auf generative KI sind erfolgreich - CAFM-News

Das könnte dich auch interessieren …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert