9 Minuten Lesezeit Mit Insights von Dr. Lisa Falco Lead Data Consultant lisa.falco@zuehlke.com Proaktive Leitplanken können helfen, die Zukunft der KI zu sichern Verständlichkeit & Interpretierbarkeit sind die Grundlage für Responsible-AI-Anwendungsfälle Zühlke's Responsible-AI-Framework definiert den Prozess Die Einführung sicherer, ethischer und nachhaltiger Praktiken im Zusammenhang mit KI ist nicht nur ein moralisches Thema. Mit zunehmender KI-Regulierung wird dies zu einer globalen Verpflichtung. Hier erfahren Sie alles, was Ihr Unternehmen über die Zukunft der verantwortungsvollen KI (künstliche Intelligenz) wissen muss. Für viele ist KI sowohl ein mächtiger Wegbereiter als auch die Büchse der Pandora. Sie ist bereits zu unglaublich kreativem und algorithmischem Denken fähig, aber immer mehr Intelligenz allein wird sie nicht dazu befähigen, sich selbst zu kontrollieren. Stattdessen müssen menschliche Hände eingreifen, um KI zu einem ethischen und vertrauenswürdigen Werkzeug zu machen - einem Werkzeug, das neues Geschäftspotenzial eröffnet, ohne dass jemand in Schwierigkeiten gerät. Dieser Prozess setzt das Verständnis einiger zentraler Konzepte voraus, die das Potenzial und die möglichen Fallstricke dieser aufstrebenden Technologie aufzeigen. Im Grunde geht es dabei um drei Dinge: das Was, das Warum und das Wie des verantwortungsvollen Denkens. Zunächst die große Frage: Was bedeutet das Wort “verantwortungsbewusst" überhaupt, wenn es um KI geht? Was ist Responsible AI? Verantwortung und Ethik sind nicht genau dasselbe, aber sie haben gemeinsame Wurzeln. Wenn es um künstliche Intelligenz und Technologie im Allgemeinen- geht, bedeuten beide, offen und mit guten Absichten zu handeln. Die Möglichkeiten der künstlichen Intelligenz ändern sich schnell. Es ist zwar unmöglich, Regeln aufzustellen, die jeden Anwendungsfall vorhersagen, aber man kann - und sollte - bereit sein, den Menschen zu zeigen, was hinter dem Vorhang vor sich geht. Es ist sehr schwer, ethische KI umzusetzen, wenn man nicht weiß, was die KI eigentlich tut. Deshalb braucht es Leitplanken für verantwortungsvolle KI, die Erklärbarkeit und Interpretierbarkeit enthalten. „Die meisten Unternehmen haben gute Absichten mit KI. Aber wenn ein Modell nicht gründlich validiert wird, kann es leicht zu unbeabsichtigten Folgen kommen - mit potenziell schwerwiegenden Auswirkungen für den Endnutzenden“. Erklärbarkeit bedeutet hier, dass Sie Ihre Arbeitsweise darlegen können: Welche Datensätze und Quellen fließen in ein KI-System ein, damit es Ergebnisse liefert? Welche Eingabedaten haben den größten Einfluss auf die Ausgabe? Und wie kommt ein KI-Modell zu einer bestimmten Entscheidung? Diese Erklärungsebene kann entweder durch die Verwendung eines inhärent erklärbaren Modells oder durch die Anwendung von erklärenden Werkzeugen auf ein ursprüngliches Modell erreicht werden. Interpretierbarkeit kann auf unterschiedliche Weise definiert werden. Ein Schwerpunkt liegt darauf, den Menschen dabei zu helfen, zu verstehen, wie eine Entscheidung durch ein KI-Modell getroffen wird. Ein weiterer Schwerpunkt ist die Unterstützung der Endnutzenden bei der Interpretation der Ergebnisse, um ihnen zu helfen, die Ergebnisse des Prozesses zu verstehen. Aber ein echtes Responsible-AI-Framework geht noch tiefer als nur diese Ebene der Transparenz. Er kann auch eine "KI für den guten Zweck"-Mentalität und -Prozesse fördern, die zu besseren Ergebnissen führen - für die Menschen, den Planeten und das Business. Das bedeutet also Erklärbarkeit, Interpretierbarkeit, Nachhaltigkeit und Gleichheit - alles unter dem Banner der Verantwortung. Aber warum? Was macht die Formalisierung dieses Ansatzes so notwendig? Warum ist Responsible AI so wichtig? Die kurze Antwort lautet, dass das Warum in zwei Bereiche unterteilt werden sollte: 1. Abmilderung unbeabsichtigter Konsequenzen Die meisten Unternehmen verfolgen mit KI gute Absichten, aber wenn ein Modell nicht gründlich validiert wird und keine sorgfältige Risikoanalyse und -minderung erfolgt, kann es leicht zu unbeabsichtigten Folgen kommen. Dies kann schwerwiegende Folgen für die Endnutzenden haben, und deshalb ist es wichtig, Zeit und Ressourcen in das Verständnis aller möglichen Risiken zu investieren, die ein Produkt mit sich bringt. Denken Sie z. B. an den Instagram-Algorithmus, der Teenagern Nachrichten zum Abnehmen lieferte, oder an das Überprüfungssystem der Apple-Kreditkarte, das unwissentlich Frauen diskriminierte. Bei dem letztgenannten Beispiel war selbst die Entfernung des Geschlechts aus dem Datenpool nicht ausreichend sicher. Denn wenn man das Geschlecht nur aus dem Training des KI-Modells entfernt, können diese Modelle immer noch das Geschlecht in anderen Verhaltensweisen wie dem Einkaufsverhalten erkennen und auf dieser Grundlage voreingenommene Urteile fällen. Das ist natürlich sehr problematisch, aber es ist ein großartiges Beispiel dafür, warum man erklärbare KI braucht. Damit man verstehen kann, warum die Technologie ihre Entscheidungen trifft. 2. Anpassung an regulatorische Änderungen Ein weiteres Kuchenstück in puncto Verantwortung nähert sich rasch in Form von weitreichenden Gesetzesänderungen und KI-Gesetzgebung. Mit dem kürzlich vorgelegten EU AI Act sollen die Anforderungen an den Einsatz von KI in verbrauchernahen Produkten festgeschrieben werden, wobei der Schwerpunkt auf dem offenen Zugang zu Daten und dem Verbot von Praktiken liegt, die als "inakzeptable Risiken" angesehen werden, wie etwa KI-gestütztes Social Scoring und Verhaltensmanipulation. Entscheidend ist, dass das Gesetz zur künstlichen Intelligenz die Möglichkeit hat, weltweit den Ton anzugeben - ähnlich wie die DSGVO vor ihr. Und das ist eine gute Sache. Bis jetzt war der KI-Bereich eine Art Wilder Westen. „Mit dem KI-Gesetz sollen die Anforderungen an eine verantwortungsvolle KI festgelegt werden. Bislang war der KI-Bereich eine Art Wilder Westen“. Die Nichteinhaltung von Vorschriften hat natürlich rechtliche Konsequenzen für jedes Unternehmen, das mit bzw. in der EU Geschäfte macht, aber es gibt noch einen dritten, noch härteren Anreiz: die Vermeidung von finanziellen Verlusten. Auch abgesehen von der Verantwortung selbst kann eine schlecht entwickelte KI dramatischeFolgen haben, wenn sie Fehler macht oder Entscheidungen trifft, die zu Rufschädigung führen. Wie jedes Unternehmen weiß: Wenn man etwas falsch macht, kann das zu kostspieligen Klagen führen. Wie kann man also ein Responsible-AI-Mindset festigen und in die Praxis umsetzen? Die Antwort liegt vielmehr in einer vorausschauenden Planung als in vorschnellem Handeln und dem Versuch, den Kurs zu korrigieren, wenn es bereits zu spät ist. Setzen Sie Ihre Idee mit unserem Responsible-AI-Framework in die Praxis um Wir von Zühlke unterstützen unsere Kunden dabei, Responsible-AI-Praktiken zu verankern, indem wir unser vierteiliges Framework für Responsible AI nutzen, das den Prozess vom ersten Moment an formalisiert. Hier sehen Sie, wie es sich zusammensetzt: Die menschliche Ebene Die menschliche Ebene Die auf den Menschen ausgerichtete KI oder "menschliche Ebene" stellt einige ziemlich grundlegende Fragen zu jedem KI-Anwendungsfall: Ist das gut für die Menschen? Welche Folgen wird es haben? Welche potenziellen Risiken gibt es? Bei der menschlichen Ebene geht es wirklich darum, weiter zu denken, als es ein Ingenieur normalerweise tun würde. Es geht um die Frage: Sollten wir das überhaupt tun? Und wenn wir feststellen, dass ein gewisses Schadensrisiko besteht, was können wir tun, um es zu mindern? Das bedeutet aber nicht, dass jedes Projekt automatisch ein No-Go ist. Bei fast jedem Produkt lassen sich Risiken finden, wenn es missbraucht oder mit falschen Daten gefüttert wird. Aber es ist Ihre Pflicht, diese Risiken zu mindern. Sie müssen nur die Stakeholder und die Menschen berücksichtigen, die von der betreffenden KI betroffen sind. Wenn Ihr KI-Produkt beispielsweise darüber entscheidet, wer eine Kreditkarte erhalten soll, ist die Bank der Stakeholder, aber der Endkunde ist derjenige, der davon betroffen ist. Sie müssen also jede menschliche Facette Ihres Projekts berücksichtigen und allen gegenüber verantwortungsvoll handeln. Dieses menschliche Element geht jedoch weit über die Anfangsphase eines KI-Projekts hinaus. Es bedeutet auch, dass eine Ebene menschlicher Aufsicht hinzugefügt werden muss, die überwachen, Fehler erkennen, Dinge korrigieren und zusätzliche Schritte unternehmen kann, um zu verhindern, dass die Dinge wieder aus dem Ruder laufen. Sie brauchen einen wirksamen und effizienten Mechanismus für den Fall, dass die Dinge aus dem Ruder laufen. Die Datenebene Die Datenebene Die Datenebene ist der Ort, an dem Offenheit und ethische Praktiken ins Spiel kommen. Es geht darum, sicherzustellen, dass die Daten, die in ein KI-Modell oder -Produkt einfließen, nach ethischen Grundsätzen beschafft wurden, dass in jeder Hinsicht Transparenz herrscht und dass sie korrekt sind. Das kann eine große Aufgabe sein, wenn man sich auf riesige, öffentlich verfügbare Modelle stützt, die das gesamte Internet durchforsten. Einfacher wird diese, wenn man selbst KI-Modelle erstellt. Wenn Sie ein kleineres System entwickeln, möchten Sie wirklich wissen, welche Daten in Ihr Modell eingeflossen sind, wie es die Dinge beeinflusst und ob diese Daten für das jeweilige Problem repräsentativ sind. In der Praxis bedeutet das Datenprüfung - mit einem wachsamen Auge auf Verzerrungen und andere nicht offensichtliche Einflüsse, die Ihr Datensatz haben könnte. Die Postleitzahl einer Person ist beispielsweise nicht repräsentativ für ihr Einkommen, aber Datenproxys und Störfaktoren könnten ein KI-Modell dazu verleiten, dies zu glauben. Die Modellebene Die Modellebene Bei der Modellebene geht es um Erklärbarkeit und Validierung: Sie müssen in der Lage sein, das Verhalten jedes von Ihnen verwendeten KI-Modells zu erklären und eine ausgewogene Validierung sowie eine kontinuierliche Überwachung der Leistung durchzuführen. Validierung ist ohne Erklärbarkeit möglich, aber es ist wirklich wichtig, beide Bereiche zu berücksichtigen. Wenn Sie ein großes generatives KI-Modell nutzen, dann haben Sie dieses quasi von der Stange und damit keine Kontrolle über die Daten. Was Sie jedoch tun können: Achten Sie sehr genau darauf, welche Daten Sie zur Validierung auswählen, wie Sie alle Grenzfälle durchdenken und wie Sie sie erklären. Sie sollten Algorithmen bevorzugen, die besser erklärbar sind und bei denen Sie den Eingabe- und Ausgaberaum kontrollieren können. Mit anderen Worten: Sie müssen in der Lage sein, zu erklären, wie und warum die Dinge funktionieren, und Sie müssen die gelieferten Ergebnisse klar zu interpretieren wissen. Letztendlich bedeutet dies, dass die Wahl des KI-Modells, das Sie verwenden möchten, mit Verantwortung verbunden ist. Die Ebene der Nachhaltigkeit Die Ebene der Nachhaltigkeit Nicht jeder KI-Anwendungsfall muss zwangsläufig gut für den Planeten sein, aber es gibt Möglichkeiten, wie die KI-Verwaltung aus der Nachhaltigkeitsperspektive proaktiv gehandhabt werden kann. KI-Systeme verbrauchen enorme Mengen an Energie. Global gesehen, benötigen Rechenzentren etwa 3 % des gesamten weltweit verbrauchten Stroms und sind für 2 % der gesamten Treibhausgasemissionen verantwortlich. Das mag nicht viel klingen, aber es entspricht in etwa dem Anteil der gesamten Luftfahrtindustrie. Deshalb ist der Einsatz von KI mit einigen wichtigen Überlegungen bzgl. der Nachhaltigkeit verbunden. Aus diesen Überlegungen ergeben sich einige offensichtliche Best Practices, wie z. B. die Modelle nicht öfter als nötig umzuschulen und sich für einen grünen Cloud-Anbieter zu entscheiden. Dies sind Entscheidungen, die im Vorfeld und fortlaufend bedacht werden sollten und nicht erst im Nachhinein. Sicherstellen, dass Ihr Rahmenwerk in Ihre bestehenden Arbeitsabläufe passt Auf jeder Ebene geht es darum, die richtigen Prozesse zu implementieren. Die gute Nachricht ist, dass dies weder transformativ noch prohibitiv sein muss. Unser Responsible-AI-Framework sollte sich in die ethischen Daten-Workflows eines modernen Unternehmens einfügen. Diese Checklisten und Prozesse sollten sich an Ihrer bisherigen Arbeitsweise orientieren. Niemand möchte ein Framework einführen, das nur eine Ansammlung von Hürden und Komplikationen darstellt. Diese Prozesse müssen also so implementiert werden, dass sie qualitativ hochwertige Ergebnisse liefern und Data Engineers die Arbeit erleichtern. Denn andernfalls ist der verantwortungsvolle Umgang mit KI nur ein weiteres aufgezwungenes To Do und kein neues Mindset, das von Anfang an intelligentere und zukunftssichere Projekte ermöglicht. Sprechen Sie mit uns, wie unsere ISO-zertifizierten Strategen, Scientisten und Ingenieure Ihnen dabei helfen können, mit der richtigen Datenstrategie und Responsible-Data-&-AI-Lösungen neue Werte in großem Umfang zu schaffen. You might also like... Data & AI – EU-KI-Gesetz: Wie lässt sich Künstliche Intelligenz in Zukunft regulieren Mehr erfahren Data & AI – Machine Learning: Methoden und Anwendungen Mehr erfahren Data & AI – Der EU Data Act: Was Sie für die Datenökonomie brauchen Mehr erfahren
Medizintechnik & Gesundheitsindustrie – Jenseits von ChatGPT: Generative AI im Gesundheitswesen Mehr erfahren