1. AI Trust, Risk, und Security Management (AI TRiSM)
Die schnellen Fortschritte im Bereich KI-Technologie machen es erforderlich, Anwendungen durch eine solide und gleichzeitig flexible KI-Regulierung zu regeln und zu schützen. KI bringt zweifellos einige Risiken mit sich, wie z.B. falsche oder verzerrte Trainingsdaten, „Halluzinationen“ für eine höhere Kreativität oder plausibel erscheinende, von Large Language Models als Tatsachen präsentierte Aussagen, die bei näherer Betrachtung doch nicht der Wahrheit entsprechen.
Hier einige Beispiele aus der Praxis:
- Voreingenommenes Recruiting-Tool: Ein KI-basiertes Recruiting-Tool wurde anhand von Lebensläufen trainiert, die über einen Zeitraum von zehn Jahren gesammelt wurden und hauptsächlich von männlichen Bewerbern stammten. Die Folge: Das System litt unter einem Gender Bias und bevorzugte unverhältnismäßig oft männliche Bewerber gegenüber ihren weiblichen Pendants.
- Erfundene Gerichtsverfahren: Ein US-Anwalt setzte generative KI ein, um Präzedenzfälle für einen aktuellen Fall zu finden – mit auf den ersten Blick vielversprechenden Ergebnissen. Als jedoch herauskam, dass mindestens sechs der im juristischen Schriftsatz genannten Fälle überhaupt nicht existierten, wurde die Recherche zum Problem für den Anwalt. Nach einer gründlichen Prüfung der eingereichten Dokumente wiesen die Richter darauf hin, dass die eingereichten Fälle sowohl falsche Namen und Aktenzeichen als auch gefälschte interne Zitate und Anführungszeichen enthielten. Nach weiteren Anhörungen wurde dem Anwalt ein hohes Bußgeld auferlegt.
- Fehlerhafte medizinische Diagnosen: Bei der Beantwortung medizinischer Fragen lieferte ein generatives KI-Modell Antworten, die auf den ersten Blick plausibel erschienen. Tatsächlich waren diese Antworten jedoch grundlegend falsch, was auf fehlerhafte bzw. falsch interpretierte Quellen zurückzuführen war. Derartige Fehlinterpretationen bringen mögliche Gesundheitsrisiken und rechtliche Komplikationen mit sich, insbesondere in sensiblen Bereichen wie Diagnostik und Behandlung.
Der demokratisierte KI-Zugriff im Allgemeinen sowie einige wichtige Stakeholder – sei es in militärischen Szenarien, im Gesundheits- oder im Verlagswesen – erhöhen den dringenden Bedarf an „TRiSM“-Kontrollen zusätzlich. Diese Regulierungen sind unerlässlich, um die Vertrauenswürdigkeit, Fairness, Transparenz und Zuverlässigkeit von KI-Technologien sicherzustellen. Darüber hinaus spielen sie eine entscheidende Rolle in Bezug auf den Datenschutz sowie den Umgang mit den breiteren gesellschaftlichen Auswirkungen der KI.
Wir müssen ein Gleichgewicht zwischen Innovation und verantwortungsvoller Nutzung schaffen und den positiven Beitrag von KI fördern, während wir gleichzeitig mögliche Risiken und Gefahren reduzieren. Ohne entsprechende Leitplanken können KI-Modelle ungehindert Fehlinformationen verbreiten oder unbeabsichtigte negative Auswirkungen nach sich ziehen. TRiSM umfasst die Operationalisierung von KI-Modellen, proaktiven Datenschutz und Risikokontrollen. Gartner® zufolge werden Unternehmen, die „AI Trust, Risk, and Security Management“ auf ihre KI-Lösungen anwenden, bis 2026 gut 50 % genauere Informationen verwenden, um Fehlentscheidungen zu reduzieren.
TRiSM verbessert die Bias-Kontrolle, fördert Fairness und unterstützt Unternehmen durch ein transparentes KI-Management dabei, wettbewerbsfähig zu bleiben. Gartner erwartet eine 50%ige Ergebnisverbesserung für Modelle, die „AI Trust, Risk, and Security Management“ unterliegen. KI-Risikomanagement-Verfahren sollten jedoch nicht nur interne, sondern auch externe KI-Risiken reduzieren, über die Sie keine direkte Kontrolle haben. KI-Modelle von Drittanbietern, z. B. Suchen und Chats, bringen u. a. das Risiko von Fehlinformationen, die zu falschen Entscheidungen führen, unbeabsichtigten Auswirkungen der verbreiteten KI-Nutzung oder Schwachstellen in häufig verwendeten KI-Frameworks mit sich.
KI-Services von Drittanbietern mit TRiSM liefern genauere Informationen, wenn auch möglicherweise insgesamt weniger Inhalt. Ohne TRiSM steigt jedoch das Risiko von Fehlinformationen. Durch einen ganzheitlichen Ansatz für das KI-Risikomanagement, der sowohl interne als auch externe Faktoren berücksichtigt, können Unternehmen ihre KI-Systeme besser schützen und die Stabilität des übergreifenden KI-Ökosystems verbessern. Denn „AI Trust, Risk, and Security Management“ dreht sich nicht nur um die Minimierung von Risiken, sondern auch darum, das volle Potenzial von KI zu erschließen, um in unserem digitalen Zeitalter ethisch korrekte Entscheidungen zu treffen.
Unser Leitfaden „Responsible AI“ gibt Ihnen tiefere Einblicke in die Einführung sicherer, ethisch korrekter und nachhaltiger Praktiken im Bereich KI – sowie darüber, warum Responsible AI ein moralischer, wirtschaftlicher und regulatorischer Imperativ ist.