Künstliche Intelligenz ist längst kein Zukunftsversprechen mehr, sondern operativer Alltag – doch zwischen Hype, Unsicherheit und wachsender Komplexität sind Unternehmen gefordert, echten Nutzen zu schaffen und Verantwortung zu übernehmen. Fünf zentrale Kontrollpunkte helfen dabei, KI-Lösungen transparent und vertrauenswürdig zu gestalten – und liefern die Grundlage für eine sinnvolle Zertifizierung.

Bild zVg von Friedrich Kisters
Künstliche Intelligenz ist in kürzester Zeit von einer technologischen Spielerei zu einem zentralen Wirtschaftsfaktor geworden. Diese rasante Entwicklung bringt allerdings auch einige Risiken mit sich: Private Daten werden an Endpunkte auf der ganzen Welt verteilt, kritische Entscheidungen werden mithilfe von KIs getroffen und niemand ist sich im Klaren, worauf im Umgang mit der neu erlangten «Intelligenz» geachtet werden soll.
Die Antwort liegt in einem strukturierten, nachvollziehbaren und überprüfbaren Ablauf. Eine Zertifizierung ist weit mehr als ein bürokratischer Stempel; sie ist der einzige Ausgang aus einem wachsenden Labyrinth aus KI-Lösungen. Sie ermöglicht es, als Kunde verschiedene Lösungen anhand von simplen Faktoren zu vergleichen, und als Entwickler eigene Lösungen zielgerichtet zu optimieren.
In diesem Beitrag beleuchten wir fünf kritische Kontrollpunkte der KI-Zertifizierung: Organizational Controls, Human-Centric Design and Oversight, Security and Compliance Controls, Robustness sowie Data Governance.
1. Organizational Controls
KI-Lösungen sind generell nicht deterministisch und damit auch nie vollständig transparent. Daher ist es wichtig, Prozesse zu definieren, die klarzustellen, wer verantwortlich ist, wie Abläufe organisiert sind und welche Regelungen im Umgang mit der KI gelten. Nur so kann sichergestellt werden, dass im Entwicklungsprozess, aber auch im Einsatz der Lösung Fehler minimiert und schnell behoben werden.
Wichtige Punkte für KI-Anwender:
- Mitarbeiterschulungen für den sachgemässen Umgang mit KI-Lösungen
- Einsatzzweck und -grenzen der KI-Lösung klar und unmissverständlich definieren
- Risikobewertung für jeden Anwendungsfall durchführen und aktualisieren
- Eskalationsprozesse für kritische Situationen oder Systemausfälle definieren
KI-Entwickler sollten hierauf achten:
- Limitationen und Anwendungsempfehlungen der Technologie definieren
- Aktiven Kontakt mit Kunden halten, um Fehler schnell zu beheben und die Lösung kontinuierlich zu verbessern
- Eine umfassende Prüfung der Lösung vor der Auslieferung sicherstellen
- Haftungsregelungen kommunizieren, inkl. Verantwortlichkeiten bei Fehlverhalten
Ein prominenter Fall mangelhafter Organizational Controls war der KI-Chatbot «Tay» von Microsoft (2016). Der Bot sollte durch Twitter-Interaktionen lernen, entwickelte jedoch innerhalb eines Tages rassistische und beleidigende Aussagen. Grund dafür waren fehlende Schutzmechanismen: Es gab weder klare Einsatzgrenzen noch eine Begrenzung der Datenquellen. Eine Risikoanalyse oder Vorabprüfung blieb ebenfalls aus – mit entsprechendem Reputationsschaden.
2. Human-Centric Design and Oversight
KI-Systeme sind nie zu 100 % akkurat. Was aber tut man, wenn eine solche Genauigkeit gerade benötigt wird?
Im Banking kann man einem Kunden schlecht sagen: «Entschuldigung, aber unsere KI hat entschieden, für Sie Kryptowährung zu kaufen. Jetzt haben Sie eben nur noch 10 Franken auf dem Konto». Missverständnisse, die durch KI entstehen, müssen ausgeschlossen werden.
Solche Anwendungen benötigen menschliche Überwachungsmechanismen. So könnte beispielsweise ein fälschlicher Kauf durch eine KI von Mitarbeitenden abgelehnt werden.
Damit ein solches System funktioniert, müssen Rahmenbedingungen definiert sein:
- Verantwortlichkeiten und Abläufe für Eingriffe in die KI sowie die originalen Entscheidungen der KI müssen transparent dokumentiert sein.
- Regelmässige Schulungen klären Verantwortliche über Risiken, ethische Fragestellungen und Vorgaben auf, welche die KI betreffen, damit sie die KI nicht einfach «machen lassen».
- Im Zweifelsfall sollte eine Entscheidung der KI abgelehnt und nochmals hinterfragt werden.
3. Risk-Management and Security
Teilweise ist es nicht möglich oder ineffizient, alle Entscheidungen der KI durch einen Menschen kontrollieren zu lassen. Hier entstehen Sicherheitsrisiken.
Sollte eine KI für die Generierung von Programmiercode eingesetzt werden und diesen Code direkt lokal ausführen, kann ein Nutzer der KI mit Hilfe einer Aufforderung, genannt «Prompt», in der er die KI anweist, alle anderen Anweisungen zu «vergessen» und einen bösartigen Code auszuführen, das System hacken. Dieser Prompt kann auch in Daten «versteckt» sein, die der Nutzer hochlädt. Ein solches Vorgehen wird als «Prompt Injektion» bezeichnet. Der Prompt wird, versteckt in anderen Daten, dem Modell gegeben und Sicherheitsmassnahmen, welche die KI kontrollieren sollen, werden umgangen.
Um solche Sicherheitsrisiken zu lösen ist es essenziell, dass die KI in einem abgeschlossenen System ausgeführt wird und nur so viel Zugriff erhält, wie sie benötigt. Ein abgeschlossenes System zu infiltrieren ist für Hacker im Regelfall uninteressant, da der Hacker das System nicht verlassen kann, um in weitere Komponenten einzudringen.
Durch das Limitieren des Zugriffes der KI werden allerdings nicht alle Szenarien abgewendet. Es kann passieren, dass die KI auf Aufforderung des Nutzers Fragen beantwortet, für die sie nicht entwickelt wurde oder Antworten generiert, die ethisch nicht vertretbar sind.
Um solche Probleme zu verhindern ist es wichtig, dass die Nutzer-Anfragen sowie die KI-Antworten von einem dritten Modell kontrolliert werden, auf das der Nutzer keinen Einfluss hat, um sicherzustellen, dass Fragen sowie zugehörige Antworten im definierten Rahmen der KI liegen und ethisch korrekt sind.
4. Testing and Robustness
Gerade da KI unberechenbar sein kann, ist es essenziell, ein Testsystem aufzusetzen, das vor Releases anhand relevanter Metriken prüft, ob und wie sich die Leistung der KI verändert hat.
Im Falle einer komplexeren Pipeline ist es empfehlenswert, alle Komponenten einzeln zu testen. So sieht man, ob Probleme zum Beispiel von einem neu eingesetzten, aber schlechteren Modell stammen und es ausgetauscht werden muss.
Zusätzlich ist zu beachten, dass teilweise grosse Modelle eingesetzt werden. Das bedeutet, dass Skalierbarkeit leicht zu einem Problem werden kann, sobald Lastspitzen auftreten. Systeme müssen entsprechend skalierbar aufgesetzt sein und regelmässig auf Adversial Attacks und normale Lastspitzen getestet werden.
So wird jede Iteration das Resultat verbessern und fehlende Skalierbarkeit nicht zum Problem.
5. Data Governance and Compliance
Daten sind in modernen KI-Lösungen essenziell, egal ob es um das Training einer neuen KI oder das Bereitstellen von Informationen innerhalb eines Systems geht. Die Antwort einer KI kann nur so gut sein wie die Daten, auf die sie trainiert wurde, kombiniert mit den Daten die sie bei Laufzeit erhält.
Um sicherzustellen, dass diese Daten qualitativ hochwertig sind, sollten stichprobenweise Daten ausgewertet werden und die Herkunft jeder Datenquelle unveränderbar protokolliert sein. Überprüfungen des Datensatzes können Verzerrungen und die Grundlagen von Bias in einem Modell aufdecken und Fehlverhalten verhindern.
Der Schutz von Daten hat in letzter Zeit massiv an Bedeutung gewonnen. Wichtig ist das sogenannte «Data-Labelling», bei dem beispielsweise Daten als «man-made» oder «machine-made» gekennzeichnet werden, auch um zu vermeiden, dass Daten zum Erstellen einer neuen KI mit Antworten älterer Versionen verunreinigt sind. Das revisionssicheren Archiv wird plötzlich zur idealen Datenablage für KI-Anwendungen.
Fazit: Der Weg zu vertrauenswürdiger KI
Ist eine KI-Zertifizierung also sinnlos, wünschenswert oder notwendig?
Die Antwort lautet immer deutlicher: Für den seriösen und skalierbaren Unternehmenseinsatz kann sie essenziell sein.
Um KI-Systeme aus der Experimentierphase zielgerichtet in einen produktiven, werthaltigen Betrieb zu bringen und Kunden einen Rahmen für die Bewertung von KI-Systemen zu schaffen, benötigt man einen dokumentierten Nachweis zu Leistung, Risiken und Compliance.
Der Autor
Friedrich Kisters ist Experte für digitale Transformation und Governance mit einem Fokus auf KI-getriebene Innovationen. Als Berater hilft er Unternehmen dabei, technologische Potenziale verantwortungsvoll zu nutzen und Compliance-Anforderungen in strategische Vorteile umzuwandeln.
LinkedInWeitere Artikel von Friedrich Kisters
Der Beitrag erschien im topsoft Fachmagazin 25-3
Das Schweizer Fachmagazin für Digitales Business kostenlos abonnieren
Abonnieren Sie das topsoft Fachmagazin kostenlos. 4 x im Jahr in Ihrem Briefkasten.