ChatGPT für Kundenanfragen, Microsoft Copilot für die Dokumentenerstellung, ein KI-gestütztes Bewerbermanagement, automatisierte Kreditentscheidungen: Künstliche Intelligenz ist in österreichischen Unternehmen angekommen. Was als Produktivitätswerkzeug beginnt, wird schnell zum rechtlichen und technischen Minenfeld. Seit Februar 2025 gilt die Schulungspflicht des EU AI Act, ab August 2026 greifen die Hochrisiko-Anforderungen vollständig. Wer KI einsetzt, ohne die Risiken systematisch zu bewerten, riskiert Bußgelder bis 35 Millionen Euro, DSGVO-Verstöße und Haftungsansprüche, die ein Sachverständiger im Streitfall bewerten muss. Dieser Beitrag zeigt, welche konkreten Risiken ein IT-Gutachter bei KI-Implementierungen aufdeckt – und warum eine unabhängige Bewertung vor dem Ernstfall wertvoller ist als danach.
Der EU AI Act: Was seit Februar 2025 gilt und was ab August 2026 kommt
Der EU AI Act ist die weltweit erste umfassende KI-Regulierung. Er verfolgt einen risikobasierten Ansatz: Je höher das Risiko eines KI-Systems für Grundrechte, Sicherheit und demokratische Prozesse, desto strenger die Anforderungen. Für österreichische Unternehmen ist die gestaffelte Umsetzung entscheidend.
Seit 2. Februar 2025 sind KI-Systeme mit inakzeptablem Risiko verboten. Dazu zählen Social-Scoring-Systeme, Emotionserkennung am Arbeitsplatz oder manipulative KI, die Schwächen von Personen ausnutzt. Gleichzeitig gilt die KI-Kompetenzpflicht nach Artikel 4: Alle Mitarbeitenden, die KI-Systeme nutzen oder betreiben, müssen nachweislich geschult sein. Diese Pflicht gilt unabhängig von der Risikoklasse des Systems – sie betrifft also auch den Einsatz von ChatGPT oder Microsoft Copilot.
Ab 2. August 2026 werden die Anforderungen für Hochrisiko-KI-Systeme vollständig wirksam: Konformitätsbewertungen, umfassende Dokumentation, Risikomanagement, menschliche Aufsicht und Audits werden verpflichtend. Transparenzpflichten für generative KI gelten bereits seit August 2025. KI-generierte Inhalte müssen als solche gekennzeichnet werden.
Die Sanktionen sind erheblich: Bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes bei schweren Verstößen, bis zu 7,5 Millionen Euro oder 1,5 Prozent bei leichteren Vergehen. Die österreichische KI-Servicestelle der RTR wird als nationale Aufsichtsbehörde die Einhaltung überwachen. Die Kontrollen erfolgen stichprobenartig oder bei Beschwerden.
Für die Praxis bedeutet das: Jedes Unternehmen, das KI einsetzt – und sei es nur ein Chatbot für den Kundenservice –, unterliegt zumindest der Schulungspflicht. Viele Unternehmen haben das Thema auf der Agenda, aber die konkrete Umsetzung – Bestandsaufnahme, Risikoklassifizierung, Dokumentation – fehlt häufig noch, insbesondere bei KMU.
Warum KI-Risiken eine eigene Bewertung brauchen
KI-Risiken unterscheiden sich fundamental von klassischen IT-Risiken. Ein herkömmliches IT-System verhält sich deterministisch: Bei gleichem Input liefert es den gleichen Output. Ein KI-System, insbesondere ein auf Machine Learning basierendes, verhält sich probabilistisch. Es trifft Vorhersagen auf Basis statistischer Muster, und diese Vorhersagen können fehlerhaft sein, ohne dass ein klassischer Softwarefehler im technischen Sinne vorliegt.
Wenn ein ERP-System eine falsche Rechnung erstellt, liegt ein nachweisbarer Programmfehler oder eine Fehlkonfiguration vor. Wenn ein KI-gestütztes Kreditbewertungssystem einen Antrag ablehnt, kann die Ursache in verzerrten Trainingsdaten liegen, in einem statistischen Bias, der bestimmte Bevölkerungsgruppen systematisch benachteiligt – ohne dass der Algorithmus im technischen Sinne „falsch“ funktioniert. Die Bewertung, ob dieses Ergebnis akzeptabel ist, erfordert eine Kombination aus technischer Analyse, rechtlicher Einordnung und ethischer Bewertung, die über klassische IT-Audits hinausgeht.
Ein IT-Sachverständiger, der KI-Systeme bewertet, muss daher nicht nur den Code und die Infrastruktur prüfen, sondern auch die Trainingsdaten, die Modellarchitektur, die Entscheidungslogik, die Monitoring-Mechanismen und die organisatorischen Rahmenbedingungen des KI-Einsatzes. Das ist eine andere Disziplin als die klassische IT-Forensik, aber sie baut auf den gleichen Grundprinzipien auf: methodische Analyse, nachvollziehbare Dokumentation und objektive Bewertung.
Die sechs Risikobereiche, die ein IT-Gutachter prüft
In der Praxis lassen sich die Risiken beim KI-Einsatz in sechs Bereiche gliedern, die ein Sachverständiger systematisch untersucht.
1. Datenschutz und DSGVO-Konformität
Die DSGVO bleibt parallel zum AI Act vollständig in Kraft, und KI-Systeme sind besonders datenintensiv. Der Sachverständige prüft, auf welchen Daten das KI-System trainiert wurde und ob personenbezogene Daten ohne Rechtsgrundlage verarbeitet werden. Gerade bei der Nutzung cloud-basierter KI-Dienste wie ChatGPT, Claude oder Gemini stellt sich die Frage, ob Mitarbeiter personenbezogene Daten in die Systeme eingeben und diese Daten damit an Drittanbieter übertragen werden – möglicherweise in Drittstaaten außerhalb der EU.
Ein häufiges Szenario: Ein Mitarbeiter gibt Kundendaten in ChatGPT ein, um eine Antwort auf eine Kundenbeschwerde formulieren zu lassen. Damit werden personenbezogene Daten an OpenAI übermittelt, ohne dass eine Rechtsgrundlage oder ein Auftragsverarbeitungsvertrag vorliegt. Das ist ein DSGVO-Verstoß, der bei einer Prüfung durch die Datenschutzbehörde Konsequenzen haben kann.
Der Sachverständige analysiert, ob das Unternehmen klare Richtlinien für die Eingabe von Daten in KI-Systeme definiert hat, ob Auftragsverarbeitungsverträge mit KI-Anbietern abgeschlossen wurden, ob eine Datenschutz-Folgenabschätzung (DSFA) für KI-Anwendungen durchgeführt wurde und ob technische Maßnahmen wie Anonymisierung oder Pseudonymisierung vor der KI-Verarbeitung implementiert sind.
2. Bias und Diskriminierung
KI-Systeme lernen aus historischen Daten. Wenn diese Daten Verzerrungen enthalten, reproduziert das System diese Verzerrungen – oft unsichtbar und in großem Maßstab. Ein KI-gestütztes Bewerbermanagement, das auf historischen Einstellungsentscheidungen trainiert wurde, könnte systematisch Bewerberinnen benachteiligen, wenn in der Vergangenheit überwiegend Männer eingestellt wurden. Ein Kreditbewertungssystem könnte bestimmte Postleitzahlen als Risikofaktor gewichten und damit indirekt sozioökonomische Diskriminierung reproduzieren.
Der Sachverständige prüft, ob die Trainingsdaten auf Repräsentativität und bekannte Bias-Muster untersucht wurden, ob regelmäßige Bias-Audits stattfinden, ob Mechanismen zur Erkennung und Korrektur von Diskriminierung implementiert sind und ob die Entscheidungskriterien des Systems nachvollziehbar dokumentiert werden. Im Streitfall – etwa wenn ein Bewerber oder eine Bewerberin eine diskriminierende Ablehnung behauptet – ist die Frage, ob das Unternehmen angemessene Maßnahmen zur Bias-Prävention getroffen hat, entscheidend für die Haftung.
3. Transparenz und Erklärbarkeit
Der AI Act verlangt Transparenz auf mehreren Ebenen. Nutzer müssen wissen, dass sie mit einem KI-System interagieren. Bei Hochrisiko-Systemen müssen die Entscheidungen des Systems nachvollziehbar und erklärbar sein. KI-generierte Inhalte müssen als solche gekennzeichnet werden.
In der Praxis bedeutet das: Wenn ein Unternehmen einen Chatbot einsetzt, muss der Kunde erkennen können, dass er nicht mit einem Menschen kommuniziert. Wenn ein KI-System eine Entscheidung trifft, die eine Person betrifft – etwa eine Bonitätsprüfung oder eine Schadensbeurteilung –, muss das Unternehmen erklären können, wie diese Entscheidung zustande gekommen ist.
Der Sachverständige bewertet, ob das Unternehmen diese Transparenzanforderungen erfüllt. Das umfasst die Prüfung, ob KI-Systeme gegenüber Nutzern korrekt deklariert sind, ob Erklärungsmechanismen (Explainable AI) implementiert sind, ob die Entscheidungslogik dokumentiert und für betroffene Personen nachvollziehbar ist und ob KI-generierte Inhalte systematisch gekennzeichnet werden.
4. Sicherheit und Robustheit
KI-Systeme bringen eigene Sicherheitsrisiken mit, die über klassische IT-Sicherheit hinausgehen. Adversarial Attacks manipulieren Eingabedaten gezielt, um das KI-System zu täuschen – etwa durch minimale Bildveränderungen, die eine Bilderkennungs-KI zu falschen Klassifikationen verleiten. Prompt Injection nutzt die Verarbeitung natürlicher Sprache aus, um KI-Chatbots zu unbeabsichtigten Aktionen zu veranlassen. Data Poisoning manipuliert Trainingsdaten, um das Verhalten des Modells systematisch zu verfälschen. Model Theft extrahiert das trainierte Modell oder seine Parameter über gezielte Abfragen.
Der Sachverständige prüft, ob das Unternehmen diese KI-spezifischen Bedrohungen kennt und angemessene Gegenmaßnahmen implementiert hat. Das umfasst die Absicherung der Trainingsdaten-Pipeline, die Robustheitstests gegen adversariale Eingaben, die Eingabevalidierung bei KI-Systemen mit Nutzereingaben und die Überwachung des Modellverhaltens im laufenden Betrieb (Model Monitoring).
5. Governance und menschliche Aufsicht
Der AI Act verlangt menschliche Aufsicht (Human Oversight) über KI-Systeme, insbesondere bei Hochrisiko-Anwendungen. Das bedeutet nicht, dass ein Mensch jede einzelne Entscheidung überprüfen muss, aber es muss sichergestellt sein, dass Menschen das System verstehen, seine Ergebnisse interpretieren können, bei Bedarf eingreifen können und die Letztentscheidung bei kritischen Fragen behalten.
Der Sachverständige bewertet die KI-Governance-Struktur des Unternehmens: Gibt es eine klare Zuständigkeit für KI-Systeme? Sind Freigabeprozesse für neue KI-Anwendungen definiert? Existieren Eskalationswege, wenn das System fehlerhafte oder unerwartete Ergebnisse liefert? Wird die Performance der KI-Systeme regelmäßig überprüft, und gibt es definierte Schwellenwerte, bei deren Unterschreitung ein menschliches Eingreifen vorgesehen ist?
In der Praxis stellt der Sachverständige häufig fest, dass KI-Tools von einzelnen Abteilungen eingeführt werden, ohne dass die IT-Abteilung oder die Geschäftsführung davon Kenntnis hat. Diese sogenannte Schatten-KI ist das KI-Äquivalent der Schatten-IT und stellt ein erhebliches Compliance-Risiko dar: Ein System, von dem das Unternehmen offiziell nichts weiß, kann weder risikoklassifiziert noch dokumentiert noch überwacht werden.
6. Dokumentation und Nachweispflichten
Der AI Act verlangt umfassende Dokumentation: Risikobewertungen, technische Dokumentation, Aufzeichnung der Entscheidungen des Systems, Schulungsnachweise. Für Hochrisiko-Systeme kommen Konformitätsbewertungen und die Registrierung in einer EU-KI-Datenbank hinzu.
Der Sachverständige prüft, ob diese Dokumentation vollständig, aktuell und nachvollziehbar ist. In der Praxis ist die Dokumentation oft die größte Schwachstelle. Unternehmen setzen KI ein, dokumentieren aber weder den Zweck, noch die Datengrundlage, noch die Risikoklassifizierung. Im Streitfall – sei es eine Behördenprüfung, ein Haftungsanspruch oder ein Versicherungsfall – ist die fehlende Dokumentation das schwerwiegendste Problem, weil sie nicht nachträglich erstellt werden kann, ohne dass dies auffällt.
Typische Fälle, in denen ein Gutachten gebraucht wird
Die Praxis zeigt vier wiederkehrende Konstellationen, in denen ein IT-Gutachten zu KI-Risiken benötigt wird.
Der erste Fall ist die Behördenprüfung. Ab 2026 wird die österreichische Aufsichtsbehörde die Einhaltung des AI Act kontrollieren. Wenn bei einer Stichprobenprüfung oder nach einer Beschwerde Verstöße festgestellt werden, braucht das Unternehmen eine unabhängige Bewertung, ob seine KI-Systeme den gesetzlichen Anforderungen entsprechen. Der Sachverständige dokumentiert den Ist-Zustand, bewertet die Compliance-Lücken und kann dem Unternehmen helfen, die Argumentation gegenüber der Behörde auf eine solide technische Grundlage zu stellen.
Der zweite Fall ist der Diskriminierungsvorwurf. Ein Bewerber, ein Kunde oder eine Kundin behauptet, durch ein KI-System diskriminiert worden zu sein. Das Unternehmen muss nachweisen, dass das System keine systematische Diskriminierung enthält oder dass angemessene Maßnahmen zur Bias-Prävention getroffen wurden. Der Sachverständige analysiert das System, die Trainingsdaten und die Entscheidungslogik und liefert eine objektive Bewertung.
Der dritte Fall ist der DSGVO-Verstoß. Die Datenschutzbehörde prüft die Verarbeitung personenbezogener Daten durch KI-Systeme. Der Sachverständige bewertet, ob die Datenverarbeitung rechtmäßig war, ob technische Schutzmaßnahmen angemessen waren und ob die fehlende DSFA ein Verschulden begründet.
Der vierte Fall ist die Geschäftsführerhaftung. Ein KI-System verursacht einen Schaden – sei es durch eine fehlerhafte automatisierte Entscheidung, einen Datenschutzverstoß oder einen Compliance-Mangel. Der Gesellschafter macht den Geschäftsführer verantwortlich. Hier stellt sich die Frage, ob der Geschäftsführer angemessene Sorgfalt walten ließ: War eine KI-Bestandsaufnahme durchgeführt worden? Gab es ein Risikomanagement? Waren die Mitarbeiter geschult? Der Maßstab ist vergleichbar mit der IKS-Rechtsprechung des OGH bei klassischen Betrugsfällen: Nicht ob der Schaden eingetreten ist, sondern ob die Vorsorgemaßnahmen dem Stand der Technik und dem Wissensstand entsprachen.
Präventive KI-Bewertung: Warum vorher besser ist als nachher
Die wertvollste Leistung eines IT-Sachverständigen im KI-Bereich liegt nicht in der Aufarbeitung eines Schadenfalls, sondern in der präventiven Bewertung. Ein KI-Audit vor dem Ernstfall liefert eine systematische Bestandsaufnahme aller im Unternehmen eingesetzten KI-Systeme, einschließlich Schatten-KI, die einzelne Abteilungen ohne zentrale Freigabe nutzen. Es umfasst eine Risikoklassifizierung nach den Kategorien des AI Act, eine Gap-Analyse zwischen dem Ist-Zustand und den gesetzlichen Anforderungen, konkrete Maßnahmenempfehlungen mit Priorisierung und einen Dokumentationsrahmen, der die Nachweispflichten abdeckt.
Der entscheidende Vorteil: Eine dokumentierte präventive Bewertung ist im Streitfall der stärkste Beweis dafür, dass das Unternehmen seine Sorgfaltspflichten ernst genommen hat. Selbst wenn trotz angemessener Maßnahmen ein Problem auftritt, schützt die Dokumentation vor dem Vorwurf des Organisationsverschuldens.
Besonders für KMU, die keine eigene Compliance-Abteilung haben, bietet eine externe KI-Bewertung durch einen allgemein beeideten und gerichtlich zertifizierten Sachverständigen die Kombination aus technischer Tiefe und rechtlicher Verwertbarkeit, die interne Ressourcen allein selten leisten können.
Fazit: KI-Einsatz ohne Risikobewertung ist fahrlässig
Der EU AI Act macht die Risikobewertung beim KI-Einsatz zur gesetzlichen Pflicht. Aber auch unabhängig von der Regulierung gilt: KI-Systeme treffen Entscheidungen, die Menschen betreffen, und diese Entscheidungen müssen nachvollziehbar, fair und sicher sein. Ein IT-Sachverständiger liefert die unabhängige technische Bewertung, die Unternehmen brauchen – ob präventiv als KI-Audit, im Behördenverfahren als Compliance-Nachweis oder im Streitfall als gerichtsverwertbare Analyse.
Als allgemein beeideter und gerichtlich zertifizierter IT-Sachverständiger unterstütze ich Unternehmen bei der Bewertung ihrer KI-Systeme – von der Bestandsaufnahme über die Risikoklassifizierung bis zur gerichtsfesten Dokumentation. Kontaktieren Sie mich für ein unverbindliches Erstgespräch.