Risikoanalyse

Wie werden Risiken erhoben und gemapped?

Die EU KI-Verordnung verfolgt einen risikobasierten Ansatz. Wo der Einsatz von KI-Systemen ein höheres Risiko für Gesundheit, Sicherheit und Grundrechte darstellt, sind auch höhere Anforderungen an das KI-System und dessen Einsatz zu erfüllen. Insbesondere bei KI-Systemen, die in den Bereich „Hochrisiko“ (Art. 6 EU KI-VO) fallen, ist u.a. eine menschliche Aufsicht vorgesehen, die der Risikominimierung dient (Art. 14 EU KI-VO). Die Ermittlung von Risiken und getroffenen Maßnahmen ist eine bewährte Herangehensweise in der Qualitätssicherung von Software. Auch in der EU KI-Verordnung ist für Hochrisiko-KI-Systeme die Einrichtung eines Risikomanagementsystems vorgeschrieben (Art. 9 EU KI-VO).

Mit dem KI-Cockpit bieten wir genau solche Maßnahmen zur Qualitätssicherung in Form von menschlicher Aufsicht an. In dem Versuch den Anforderungen der EU KI-Verordnung zu entsprechen, müssen diese Maßnahmen zu den identifizierten Risiken der jeweiligen KI-Software passen (Art. 14 Abs. 1 EU KI-VO). In der Softwareentwicklung gibt es bereits etablierte Normen, Prüfkataloge und Methoden zur Risikoerfassung (z.B. ISO 27001, ISO 27005, BSI 200-3), die für die Bearbeitung der Anforderungen von Artikel 9 der EU KI-Verordnung herangezogen werden können. Das KI-Cockpit zielt mit der menschlichen Aufsicht allerdings auf die spezifischen „neuen“ KI-basierten Risiken und ihre Mitigation ab, weshalb der erste Schritt der Integration eines KI-Cockpits auch in der Auseinandersetzung mit den spezifischen KI-bezogenen Risiken bestehen sollte. Ausgehend von diesen spezifischen Risiken (und dem Autonomiegrad des KI-Systems) kann die KI-Cockpit Variante gewählt werden, welche diese am wirksamsten reduziert.

Zur Erhebung dieser spezifischen KI-basierten Risiken hat das Projekt die folgende interaktive Vorgehensweise (weiter-)entwickelt. Dieses sehr gründliche Vorgehen wird nicht für alle Situationen und KI-Systeme passend sein; spezifische Risiken können ein anderes Vorgehen erforderlich machen, und auch die Ressourcen müssen bereitgestellt werden. Alternative Herangehensweisen zur Risikoerhebung sind etwa im KI-Prüfkatalog des Frauenhofer-Institut oder im Risikomanagement-Standard des BSI zu finden. In der HOL-Cockpit Variante sind zudem die KI-Risiken der Plattform plot4.ai hinterlegt, um den Anwender:innen der Cockpit Variante einen Eingangspunkt in die Erfassung der KI-Risiken der angeschlossenen Software zu geben.

KI-Risikoworkshop

Risiken von KI-Systemen lassen sich grob in technische Risiken (Fehler, Schwächen, Sicherheitsprobleme in der KI-Software selbst) und ethisch-soziale Risiken unterteilen. Während die erste Fehlergruppe üblicherweise einen technischen Zugang erfordert, der bei der Entwicklung und Einführung von Softwaresystemen ohnehin erforderlich ist, können letztere durch Software-Entwickler:innen nicht immer ausreichend adressiert werden. Zur Erhebung KI-spezifischer Risiken schlagen wir die Durchführung eines Risikoworkshops vor, welche alle Beteiligten dabei unterstützten soll, die relevanten KI-basierten Risiken ihres KI-Systems zu ermitteln.

Zielgruppe

Der hier empfohlene Risikoworkshop dient der Erhebung der ethisch-sozialen Risiken. Diese sind zentral geprägt durch die Anwendungsdomäne des KI-Systemsund die Positionierung der KI im Entscheidungsprozess. Vor diesem Hintergrund wird ein partizipatives Verfahren der Risikoermittlung empfohlen, welches auf eine breite Beteiligung sowohl in der Rollendimension als auch in Bezug auf die Diversität der Akteur:innen abzielt.

Wir schlagen hierbei eine Zusammensetzung der Zielgruppe analog zum Vorgehen im KIDD Projekt vor.

  • Auswahl nach Funktion im Unternehmen

    • z.B. Betriebsrat, Diversity-, Gleichstellungs-, Behinderten- und Datenschutzbeauftragte, Personalabteilung usw.

  • Auswahl nach relevanten Vielfalts- und potentiellen Diskriminierungskriterien

    • z.B. Alter, Geschlecht / geschlechtliche Identität und ethnische Herkunft / Nationalität

Dies hat eine Reihe von Vorteilen:

  • Insbesondere die sozialen Risiken, die sich aus der Fairness derKI-Algorithmen ergeben, sind nur sinnvoll durch Personen diverser Hintergründe und Rollen zu erfassen.

  • Ein zentrales unternehmerisches Risiko bei der Einführung von KI-Systemen ist auch das mangelnde Vertrauen der Arbeitnehmer:innen (und ihrer Interessenvertretungen) in die als intransparent empfundenen KI-Werkzeuge. Eine Beteiligung der Abeitnehmer:innen bei der Gestaltung der menschlichen Aufsicht kann Vertrauen schaffen und damit die Akzeptanz und Nutzung der KI-Systeme stärken.

Workshop Ablauf & Material

Im Rahmen des Workshops geht es zentral um eine erste partizipative Risikoanalyse sowie die Gewichtung, Beschreibung und Priorisierung der gefundenen Risiken und geeigneter Gegenmaßnahmen.

Die Beschreibung des Ablaufs findet sich im Leitfaden.

Die erste Arbeitsphase zur Sammlung der Kontextfaktoren und Verortung der Risiken findet auf einem Plakat statt.

In der zweiten Arbeitsphase, werden die einzelnen Risiken und angedachten Maßnahmen auf Arbeitsblättern spezifiziert.

Ergebnis

Im Ergebnis liegen priorisierte und beschriebene Risiken des KI-Systems in seinem Einsatzkontext sowie Maßnahmenvorschläge zur Minimierung des Risikos vor. Die Risiken und Maßnahmen können in dieser Form einen Beitrag zum allgemeinen Software-Risikomanagement darstellen, sowie die Grundlage für die Wahl und Konfiguration des KI-Cockpits bilden. Bezüglich der tatsächlichen Konfiguration des KI-Cockpits enthalten die kommenden Kapitel sowie die Dokumentation der KI-Cockpit Varianten alle relevanten Informationen.

Fieldlab Vignetten: Risikoanalyse

Die Fallvignetten dienen der Illustration der praktischen Umsetzung und der Herausforderungen der in den Kapiteln formulierten idealisierten Vorgehensweisen. Sie stellen kein vollständiges Bild der Arbeit in den Fieldlabs da, sondern sind bewusst zugespitzt, um unterschiedliche Aspekte darzustellen.

Fieldlab A: Human Ressources
Fieldlab B: Verkehr
Fieldlab C: Pflege

Fairness

Persönlichkeitsrechte & falsche KI-Entscheidungen

Zugänglichkeit & falsche KI-Ergebnisse

Zuletzt aktualisiert