Cloud and Threat Report – Generative AI 2025
Generative AI: Chancen nutzen, Risiken verstehen
Die Nutzung von Generative AI (genAI) nimmt in Unternehmen weltweit rasant zu. Damit verbunden steigen jedoch auch die Herausforderungen, insbesondere im Bereich der Datensicherheit. Im Report von Netskope zum Thema Cloud und Bedrohungen im Kontext von AI werfen sie einen datenbasierten Blick auf Trends, Risiken und Schutzmaßnahmen rund um genAI im Jahr 2025.
Organisationen profitieren zunehmend von der Leistungsfähigkeit moderner Large Language Models (LLMs). Gleichzeitig erfordert ihre Einführung klare Regeln, technische Kontrollen und eine flexible IT-Infrastruktur, um Risiken wie Datenlecks wirksam zu begegnen.
https://www.netskope.com/netskope-threat-labs/cloud-threat-report/generative-ai-2025
Datensicherheit als zentrale Herausforderung
Zwei der wichtigsten Einsatzbereiche von genAI in Unternehmen sind:
- Zusammenfassung von Inhalten (z. B. E-Mails, Berichte)
- Texterstellung auf Basis von internen Daten
Beide Anwendungsfälle erfordern das Einspeisen sensibler Daten in die genAI-Plattform – was potenziell ein Sicherheitsrisiko darstellt. Besonders problematisch wird es, wenn Mitarbeitende Schatten-IT betreiben, also nicht genehmigte Anwendungen nutzen.
Eine Analyse mit Netskope zeigt, dass vor allem folgende Datentypen in genAI-Apps hochgeladen werden – oft entgegen der Unternehmensrichtlinien:
- Quellcode – verursacht fast 50 % aller Richtlinienverstöße
- Regulierte Daten (z. B. personenbezogene Informationen)
- Geistiges Eigentum (z. B. interne Strategiedokumente)
- Passwörter und API-Schlüssel
Der rasante Wandel der Tool-Landschaft
Der Markt für genAI-Tools verändert sich dynamisch. Innerhalb eines Jahres hat sich die Vielfalt neuer Apps massgeblich erhöht. Dabei dominieren bekannte Plattformen wie:
- ChatGPT
- Microsoft 365 Copilot
- Google Gemini
- Anthropic Claude
- GitHub Copilot
Hinzu kommen Hunderte anderer Anwendungen, die nun genAI-Funktionen integriert haben. Während lediglich 4,9 % der Mitarbeitenden regelmäßig eigenständige genAI-Apps nutzen, arbeiten rund 75 % täglich mit Anwendungen, die genAI im Hintergrund verwenden – beispielsweise zur Codevervollständigung, Textoptimierung oder Analyse.
30-facher Anstieg beim Datentransfer an AI-Plattformen
Ein besonders alarmierender Trend: Das Volumen sensibler Daten, das an genAI-Apps gesendet wird, ist im letzten Jahr um mehr als das 30-Fache gestiegen. Jede dieser Interaktionen stellt ein mögliches Einfallstor dar, wenn technische, organisatorische oder rechtliche Schutzmaßnahmen nicht greifen.
Technologie-Stack für flexible Sicherheit: SASE mit KI-Orchestrierung
Moderne IT-Infrastrukturen benötigen einheitliche Sicherheitslösungen, die datengetriebene Entscheidungen ermöglichen und zugleich flexibel und skalierbar sind. Netskope bietet Unternehmen genau das mit einer Plattform, die folgende Komponenten nativ integriert:
- Security Service Edge (SSE)
- Cloud Access Security Broker (CASB)
- Cloud Firewall
- Secure Web Gateway (SWG)
- Private Access für Zero Trust Network Access (ZTNA)
Die sogenannte Next Gen SASE Branch kombiniert diese Technologien mit einem kontextsensitiven Sicherheitsnetzwerk (Context-Aware SASE Fabric), Zero-Trust-Strategien und einer KI-basierten Orchestrierung (SkopeAI). Das Ergebnis ist eine agile, sichere Umgebung – auch für Unternehmen ohne klassischen Netzwerkperimeter.
Daten schützen, Innovation ermöglichen
Die Zukunft von LLMs und generativer AI ist in Bewegung. Neue Modelle wie DeepSeek-V3 zeigen, wie schnell Kosten, Fähigkeiten und Marktanteile sich verändern können. Der Umgang mit diesen Entwicklungen erfordert nicht nur technische Lösungen, sondern auch einen strategischen Ansatz für Risiko-Management, Governance und Benutzeraufklärung.
Fazit: Composable ist der Schlüssel zur Flexibilität in der AI-Ära
Organisationen stehen heute vor der Herausforderung, Kontrolle und Freiheit in Einklang zu bringen: Sie müssen die Vorteile von genAI ausschöpfen, ohne dabei ihre sensibelsten Assets zu gefährden. Ein composable IT-Ansatz zahlt direkt auf diese Herausforderung ein — indem er flexible Module bereitstellt, die sich je nach Bedarf kombinieren und skalieren lassen. So entsteht eine sichere und gleichzeitig anpassungsfähige Architektur für das Zeitalter der generativen künstlichen Intelligenz.
Ob Sie auf Copilot, Claude oder kommende LLMs setzen — mit einem composable und datenzentrierten Sicherheitsansatz bleiben Sie agil und vorbereitet.