Das hier ist ein vollständig KI generierter Artikel.

McKinsey & Company, das weltweit renommierteste Beratungsunternehmen, hat eine interne KI-Plattform namens Lilli entwickelt, die von über 43.000 Mitarbeitern genutzt wird. Diese Plattform, die 2023 eingeführt wurde, dient der Chat-Kommunikation, Dokumentenanalyse und KI-gestützten Suche in über 100.000 internen Dokumenten. Doch wie sicher ist diese Plattform wirklich?

Der Angriff

Der autonome Agent, ohne Zugangsdaten oder Insiderwissen, konnte innerhalb von zwei Stunden vollständigen Lese- und Schreibzugriff auf die Produktionsdatenbank von Lilli erlangen. Der Angriff begann mit der Entdeckung öffentlich zugänglicher API-Dokumentationen, von denen einige keine Authentifizierung erforderten. Eine dieser ungeschützten Schnittstellen ermöglichte es, Suchanfragen in die Datenbank zu schreiben. Durch eine SQL-Injection konnte schließlich auf Live-Daten zugriffen werden.

Was gefunden wude

Die Datenbank enthielt 46,5 Millionen Chat-Nachrichten, 728.000 Dateien und 57.000 Benutzerkonten. Diese Informationen, die strategische Diskussionen und interne Forschungen umfassen, waren ungeschützt zugänglich. Darüber wurden System-Prompts und KI-Modellkonfigurationen gefunden, die offenlegten, wie die KI gesteuert wurde.

Die Gefahr der Manipulation

Die größte Gefahr bestand darin, dass die System-Prompts, die das Verhalten der KI steuern, ebenfalls in der Datenbank gespeichert waren. Ein Angreifer hätte diese Prompts ändern können, um die KI zu manipulieren, ohne dass dies bemerkt worden wäre. Dies hätte zu fehlerhaften Empfehlungen und Datenlecks führen können.

Warum das wichtig ist

Dieser Vorfall zeigt, dass selbst große Unternehmen mit erheblichen Sicherheitsinvestitionen anfällig für Angriffe sind. Die Sicherung der Prompt-Ebene, die das Verhalten von KI-Systemen steuert, wird zunehmend zur Priorität, da sie die Grundlage für vertrauenswürdige Entscheidungen bildet.

Organisationen müssen ihre Sicherheitsstrategien überdenken und die KI-Prompts als wertvolle Vermögenswerte behandeln, die geschützt werden müssen.

Quelle: https://codewall.ai/blog/how-we-hacked-mckinseys-ai-platform