Tech Updates

Veröffentlicht am 08. Feb. 2023

Was hat Unternehmens-Automatisierung mit KI und Ethik zu tun?

Was hat Unternehmens-Automatisierung mit KI und Ethik zu tun?

Künstliche Intelligenz und Ethik – da weiß ich Bescheid! Natürlich kennen Sie die Diskussion darüber, welches Leben schützenswerter ist: Kindergartengruppe oder Seniorin? Wen soll das autonome Fahrzeug verschonen, wenn es keinen Ausweg gibt?  

Schnell wird offensichtlich, dass bei dieser Art der Fragestellung die eine oder andere Gruppe diskriminiert würde. Dabei gibt es zahlreiche Kompromisse und offene Fragen, die weit über dieses Beispiel hinausgehen. Wir möchten Ihnen einen Einblick in unsere tägliche Arbeit mit künstlicher Intelligenz (KI) und die damit verbundenen ethischen Fragen geben. 

 

Fairness und Unparteilichkeit sind entscheidende Aspekte, die bei Entwicklung und Einsatz von KI-Systemen zu berücksichtigen sind. Über die Ethik in der KI gibt es unterschiedliche Meinungen. Was sollte als “fair” angesehen werden? Unvoreingenommenheit – also der Einsatz von KI-Systemen, die restlos alle Aspekte des realen Lebens widerspiegeln, und sich z. B. nicht nur auf bestimmte Zielgruppen konzentrieren – ist zwar eines der Kernprinzipien der Fairness. Aber es ist nicht immer möglich, dieses Ziel zu erreichen.  

 

Unser Anspruch muss selbst darüber hinausgehen: Wenn wir über Fairness nachdenken, müssen wir bewusste und auch unbewusste Vorurteile wahrnehmen. Ein faires System darf bestehende Fehler in Regelwerken oder Entscheidungsprozessen weder nachahmen noch verfestigen.  

Mit erklärbarer KI gegen Automatisierung von Vorurteilen 

 

Die Interpretation von Kennzahlen und Messwerten ist ein wichtiger Faktor bei der Bestimmung von Fairness. Systematisches Datenqualitätsmanagement und erklärbare KI bieten Möglichkeiten, Vorurteile zu vermeiden, indem wir das Konzept der Fairness erklären: Dass es für Untergruppen genauso gilt wie für Einzelpersonen, und dass bestimmte Entscheidungen vielleicht sogar getroffen wurden, weil sie für den gesellschaftlichen Fortschritt notwendig waren. In vielerlei Hinsicht fördert die Erklärung der Entscheidungsfindung zudem das Vertrauen in unsere KI-Systeme. Diese Systeme haben das Potenzial, verschiedene Branchen und Industriezweige zu revolutionieren, aber sie müssen mit gesundem Menschenverstand und gerecht entwickelt und eingesetzt werden. 

 

Transparenz ist entscheidend: Der Schöpfer eines technischen Werkzeugs kann den Algorithmus frei gestalten. Entscheidungen über sein Verhalten fallen dabei ausschließlich in die Hoheit des Betreibers. Auch Algorithmen von Plattformen wie der Google-Suche sind teilweise intransparent. Die Anbieter können Inhalte verändern oder nicht anzeigen. Künstliche Intelligenz fügt hier eine neue Dimension hinzu: Während KI-Methoden in der Vergangenheit typischerweise Modelle erforderten, die auf einen Anwendungsfall spezialisiert waren und auf exklusiven Trainingsdaten aufbauten, entsteht eine Generalisten-Generation von KI, also Anwendungen, die mehrere Aufgaben gleichzeitig beherrschen. Moderne KI kann z. B. einen langen technischen Text in wenigen Punkten zusammenfassen und einen komplexen Inhalt in einem anderen Stil paraphrasieren. Denken Sie auch an das sehr populäre ChatGTP. Es gibt keinen Hinweis darauf, auf welche Quellen sich die Antworten stützen, ob diese Quellen zuverlässig sind und welche anderen möglichen Quellen vernachlässigt wurden. 

 

Eine Möglichkeit, die Fairness eines KI-Systems zu gewährleisten, besteht darin, die richtige Interpretation der Parameter sorgfältig zu prüfen. Es ist wichtig, nicht nur die Gesamtleistung der KI zu berücksichtigen, sondern auch die Leistung innerhalb bestimmter Untergruppen, die für Diskriminierung anfällig sein könnten. Ein Merkmal, das in der Realität mit der Wahrscheinlichkeit p beobachtet wird, sollte vom KI-System mit der gleichen Wahrscheinlichkeit p eingestuft werden, und zwar nicht nur für die Gesamtdaten, sondern auch innerhalb einzelner Untergruppen. 

 

Um Fairness zu erreichen, muss auch sichergestellt werden, dass die Untergruppen das gleiche Verhältnis von falsch-positiven zu falsch-negativen Ergebnissen aufweisen. Dies kann zeitaufwändig sein, da alle Untergruppen untersucht werden müssen, anstatt eine Gesamtschlussfolgerung zu ziehen. Wir sollten falsch klassifizierte Fälle berücksichtigen, da die Toleranz für Fehlklassifizierungen von der jeweiligen Anwendung abhängt. Ist es beispielsweise akzeptabel, dass 5 % der fehlerfreien Produkte als fehlerhaft eingestuft werden oder dass 5 % der Personen fälschlicherweise die Einreise in ein Land verweigert wird? Diese Fragen sind besonders wichtig, wenn sich die Ergebnisse eines KI-Systems direkt auf das Leben einer Person auswirken, z. B. wenn ein KI-System entscheiden soll, wer einen neuen Arbeitsplatz bekommt. 

 

Welche Fragestellung eignet sich zur automatischen Klassifizierung? 

 

KI-Systeme liefern Ergebnisse, die über Kategorien wie gut oder schlecht hinausgehen. Eine KI z. B. zur Erkennung von Radfahrern kann immer auf ihre Leistung getestet werden, ob sie bei verschiedenen Personen, Fahrrädern, Umgebungen, Gruppen und Verhaltensweisen angemessen und in gleichem Maße funktioniert. Sie kann auch daraufhin getestet werden, ob sie systematische Probleme, also Verzerrungen für bestimmte Teile der Anwendung hat. Wenn sie zum Beispiel bei Personen mit Bärten und Piercings weniger gut funktioniert, ist diese Verzerrung leicht messbar, die in Voreingenommenheit resultiert.  

 

Um diese Voreingenommenheit zu vermeiden, ist es wichtig, relevante Merkmale zu identifizieren und persönliche Informationen wie Alter, Geschlecht oder Nationalität stets zu entfernen. Wenn sich die Leistung des KI-Systems verringert, nachdem diese Merkmale entfernt wurden, ist es möglicherweise keine geeignete Lösung für die automatische Klassifizierung. Entwicklungs- und Testdatensätze sollten außerdem so vielfältig wie möglich sein, um sicherzustellen, dass es zu keiner Fehlklassifizierung von Einzelpersonen oder Gruppen kommt. 

 

Um für die mögliche Verzerrung durch KI-Systeme zu sensibilisieren, ist es wichtig, Kunden und Beteiligte über diese Themen aufzuklären. Die Bedeutung von Fairness sollte für jedes Projekt spezifisch neu definiert werden. Dazu gehört und Kennzahlen einzuführen, um z. B. die Fehlklassifizierungen zu begrenzen. Daten zum Trainieren und Testen des KI-Systems müssen repräsentativ sein. Das bedeutet, dass wir Merkmale ausschließen, die zu Diskriminierung führen könnten. Auch die annotierten Daten, die nach der menschlichen Überprüfung übrigbleiben, müssen auf Voreingenommenheit überprüft werden. 

 

Ein Ansatz zur Bewertung und Kontrolle der Fairness eines KI-Systems ist die Verwendung erklärbarer KI und aktiver menschlicher Kontrolle. Dazu gehört, dass eine vielfältige Gruppe von Testern das Modell mit unterschiedlichen Eingabedaten bewertet, Bewertungsmaßstäbe für Teilmengen von Daten definiert und einen Testsatz mit besonders problematischen Daten oder Proben erstellt. Dieser Testsatz kann mit Beispielen aus dem tatsächlichen System und Kommentaren von Nutzern angereichert werden, um sicherzustellen, dass das Modell während seiner Entwicklung und – wenn nötig – auch während des Betriebs fair und unparteiisch bleibt. 

Das könnte Sie auch interessieren

Tech Updates

Shopify Payments nun in Polen verfügbar

Michał Pękala

Michał Pękala

March 17, 2025

Tech Updates

Alles, was Sie über Webportale in Ihrer Digitalstrategie wissen müssen

Michał Pękala

Michał Pękala

February 12, 2025

Tech Updates

KI-gestützte Softwareentwicklung – Die Sicht von Cloudflight

Tech Updates

Nutzen, Herausforderungen und Umsetzung von Enterprise Knowledge Management

Stefan Starke

Stefan Starke

July 12, 2024