Einführung
Die Technologien der künstlichen Intelligenz entwickeln sich rasant, und grosse Sprachmodelle (Large Language Models, LLM), autonome Agenten und andere IA‑Systeme finden zunehmend Eingang in Unternehmen. Diese Innovationen bringen jedoch neue Sicherheitsherausforderungen mit sich. Angriffe wie Prompt‑Injection, die Manipulation von Trainingsdaten oder die Exfiltration sensibler Informationen können die Vertraulichkeit und Integrität von Systemen gefährden. Kleine und mittlere Unternehmen (KMU), die IA‑Lösungen in ihre Produkte oder Prozesse integrieren, müssen diese Problematiken verstehen, um ihre eigenen Daten und diejenigen der Kunden zu schützen.

Sicherheitsprobleme und Risiken für LLM und KI‑Modelle
Die Risiken für Sprachmodelle und intelligente Agenten unterscheiden sich von denen traditioneller Anwendungen. Modelle können durch sorgfältig gestaltete Eingaben dazu gebracht werden, unerwünschte oder gefährliche Ausgaben zu erzeugen. Dieses Phänomen – Prompt‑Injection – kann dazu führen, dass sensible Daten preisgegeben oder unautorisierte Aktionen in einem automatisierten Workflow ausgeführt werden. Es besteht auch die Gefahr sogenannter adversarialer Angriffe: Werden Eingabedaten minimal manipuliert, kann ein Angreifer bewirken, dass das Modell falsche oder schädliche Antworten liefert. Enthalten Trainingsdaten proprietäre oder persönliche Informationen, besteht zudem die Gefahr, dass das LLM sie während der Nutzung „durchsickern“ lässt. Schliesslich kann die Lieferkette der Modelle – Bibliotheken, API‑Anbieter und Datensätze – eine Angriffsfläche darstellen, wenn Herkunft und Integrität der Komponenten nicht überprüft werden.

Wer kann betroffen sein?
Die Folgen einer Sicherheitslücke in einem IA‑basierten System können ein breites Spektrum an Akteuren betreffen. KMU, die Sprachmodelle zur Automatisierung des Kundendienstes oder zur Analyse grosser Datenmengen einsetzen, riskieren die Vertraulichkeit der Kundendaten. Entwickler und IT‑Teams, die Modelle von Drittanbietern integrieren, sind den Schwachstellen der Lieferkette ausgesetzt. Auch Endnutzer können Schaden nehmen, wenn eine IA manipuliert wird, um falsche Empfehlungen zu geben oder beleidigende oder betrügerische Inhalte zu verbreiten. Zudem können Partner und Lieferanten, die mit den APIs des Unternehmens interagieren, in einen Sicherheitsvorfall hineingezogen werden, wenn Schutzmassnahmen unzureichend sind.

Was sollte unternommen werden
Um diese Risiken zu mindern, ist ein ganzheitlicher Ansatz für die Sicherheit von IA‑Systemen erforderlich. Zunächst sollten Unternehmen eine Risikoanalyse durchführen, um zu verstehen, wo und wie Modelle eingesetzt werden, welche Daten sie verarbeiten und welche Folgen ein Missbrauch hätte. Strenge Zugriffskontrollen auf APIs und Modelle, starke Authentifizierung und das Prinzip der minimalen Rechte sind ratsam. Eingaben an die Modelle sollten fortlaufend überwacht werden, um anomale Muster oder potenzielle Injection‑Angriffe zu erkennen. Logging und Auditing der Interaktionen mit der IA sind wichtig, um Ereignisse bei einem Vorfall rekonstruieren zu können. Anbieter von Modellen und Datensätzen sollten sorgfältig ausgewählt und Lizenzen sowie Datenherkunft geprüft werden, um Urheberrechtsverletzungen und die Aufnahme vertraulicher Informationen zu vermeiden. Schulungen bleiben ein Eckpfeiler: Entwickler müssen die Besonderheiten der Modelle und mögliche Angriffswege kennen, Mitarbeitende im Umgang mit IA sollten für die Grenzen des Systems sensibilisiert werden.

Zerberos und Security Reviews für KI
Penetrationstests und Sicherheitsreviews für IA‑Systeme mögen ungewöhnlich erscheinen, sind aber unerlässlich, um die Widerstandsfähigkeit neuer Technologien zu gewährleisten. Zerberos bietet gezielte Sicherheitsüberprüfungen für LLMs, KI‑Modelle und autonome Agenten an. Diese Audits analysieren, wie das Modell Benutzereingaben verarbeitet, überprüfen die Qualität der Trainingsdaten, kontrollieren die zugrunde liegende Infrastruktur und bewerten Integrationen mit anderen Systemen. Durch systematische Analyse werden versteckte Schwachstellen identifiziert und praxisnahe Empfehlungen zur Risikominderung gegeben. Für ein KMU bedeutet die Investition in eine solche Bewertung, reputations- und finanzielle Schäden vorzubeugen und sicherzustellen, dass der Einsatz von KI sicher und regelkonform erfolgt.

Fazit
Der Einsatz grosser Sprachmodelle und intelligenter Agenten eröffnet Unternehmen enorme Chancen, erfordert aber besondere Aufmerksamkeit für die Sicherheit. Probleme wie Prompt‑Injection, adversariale Angriffe und Datenverluste können das Vertrauen der Kunden zerstören und erheblichen Schaden anrichten. Alle Beteiligten – KMU, Entwickler, Endnutzer und Partner – können betroffen sein; deshalb muss der Schutz umfassend geplant werden. Risikomapping, Zugriffskontrollen, Überwachung der Eingaben, Schulung des Personals und die Auswahl vertrauenswürdiger Anbieter sind wesentliche Schritte. Eine unabhängige Überprüfung durch Spezialisten wie Zerberos liefert eine tiefe und objektive Sicht auf den Sicherheitszustand der eigenen IA‑Systeme. Mit einem proaktiven Ansatz lassen sich die Potenziale der künstlichen Intelligenz nutzen, während die Gefahren minimiert werden.