Autonomiestufen

Was sind Autonomiestufen und wie sollten sie definiert werden?

Ein zentraler Ausgangspunkt für die Gestaltung des KI-Cockpits ist die Idee, analog zum Autopiloten im Flugzeug und den Autonomiestufen des autonomen Fahrens auch bei der Steuerung von KI-Systemen auf das bewährte Konzept der Autonomiestufen zurückzugreifen. [Kapitel: KIC-Leitbild] Im Folgenden werden die Vorteile der Steuerung von KI-Systemen über Autonomiestufen kurz erläutert, um anschließend eine Methodik zu Definition und Evaluation von Autonomiestufen vorzustellen, welche die Nutzer:innen des KI-Cockpits als Grundlage für die Konfiguration verwenden können.

Autonomiestufen Modell

Das folgende Modell zur Definition von Autonomiestufen bearbeitet besonders zwei Fragen:

  1. Welche Prozesse sollen automatisiert werden? Diese Frage muss am Anfang der Überlegungen stehen, statt von einer bestehenden Verteilung der Funktionen auszugehen;

  2. Wann und wie verändern sich die Autonomiestufen über Zeit? Die einmal getroffene Zuweisung der Verteilung von Funktionen ist nicht statisch, sondern muss dynamisch gedacht werden: So, dass sich die Verteilung über Autonomiestufen im Laufe der Zeit und als Reaktion auf sich entwickelnde kontextuelle Anforderungen, ändern kann. Diese dynamische Umverteilung trägt dazu bei, die Arbeitslast auszubalancieren, das Situationsbewusstsein zu verbessern und die Widerstandsfähigkeit des Systems zu erhöhen.

Im Ergebnis sollen Autonomiestufen die Interaktion von Mensch und KI-System so gestalten, dass ein hybrides Team entsteht, bei dem sich die Fähigkeiten von KI und Mensch ergänzen, die Kontrolle aber weiterhin beim Menschen liegt [Kapitel: Human in Command].

Autonomiestufen Methodik

Für die Einführung eines KI-Cockpits ist die Auseinandersetzung mit Autonomiestufen bedeutsam, da sie die Interaktion zwischen Menschen und KI mitdefinieren. Die Rahmenbedingungen dieser Interaktion bestimmen etwa darüber, welche Cockpit-Variante naheliegend ist [Kapitel: KIC-Produkte], und sind direkt prägend für die Verteilung der Aufgaben zwischen KI und Nutzer:innen. Basierend auf den obigen Annahmen wird das folgende Vorgehen bei der Definition von Autonomiestufen empfohlen:

Phase 1: Aufteilung und Zuweisung von Aufgaben

Man beginnt mit der Zerlegung der Funktionalität des KI-Systems in Schlüsselaufgaben. Jede Aufgabe wird anhand der folgenden Taxonomie von Parasuraman et al. (2000), entsprechend der vier Phasen der menschlichen Informationsverarbeitung, kategorisiert:

  • Informationsbeschaffung (Information Acquisition)

  • Informationsanalyse (Information Analysis)

  • Entscheidung und Handlungsauswahl (Decision and Action Selection)

  • Ausführung der Handlung (Action Execution)

Außerdem wird für jede Aufgabe der aktuelle Automatisierungsgrad (Autonomiestufe) ermittelt, der von der vollständig manuellen bis zur vollständig autonomen Ausführung reicht (Parasuraman et al. 2000).

Phase 2: Risikoanalyse

Für jede Aufgabe wird bewertet:

  • Systemzuverlässigkeit: Konsistenz der Leistung, Fehlerraten und Vertrauensniveau.

  • Bedarf an menschlicher Aufsicht: Überwachungsanforderungen, Risiken der Automatisierungsverzerrung und Arbeitsbelastung des / der KIC-Opterator:in (Parasuraman / Riley 1997).

  • Ethische und regulatorische Implikationen: Transparenz, Befangenheit und Einhaltung gesetzlicher Regeln wie der EU KI-Verordnung.

Phase 3: Aufgabenzuweisung und dynamische Zuweisung

Man entscheidet, ob jede Aufgabe:

  • Vollständig automatisiert

  • Manuell durch Menschen gesteuert

  • Geteilt (dynamische Zuweisung je nach Kontext)

werden soll.

Hierbei sollten die sozio-technischen Implikationen für die Anwendungsdomäne (z.B. durch partizipative Methoden) mitgedacht werden: Wie ändern sich hierdurch die menschlichen Rollen, Arbeitsabläufe und Organisationsstrukturen und wo ist Automatisierung von den Menschen erwünscht und akzeptiert? Darüber hinaus müssen auch Aspekte der technischen Machbarkeit und die in Phase 2 identifizierten technischen und ethischen Risiken in der Entscheidung Berücksichtigung finden.

Es werden dynamische Übergabeprotokolle und Bedingungen für die adaptive Automatisierung definiert, die sich am Prinzip der sinnvollen menschlichen Kontrolle (meaningful human control) orientieren (Azmandian et al. 2023). Dort wo eine Steuerung durch Autonomiestufen ermöglicht wird und die Tätigkeit folglich zwischen Menschen und KI umverteilt werden kann, muss klar sein, unter welchen Bedingungen ein Wechsel eingeleitet werden soll und welche Folgen und dies für das System und die menschliche Aufsichtsfähigkeit hat.

Phase 4: Bewertung der hybriden Intelligenz

Die folgenden Aspekte sollten evaluiert werden:

  • Kollaboration: Unterstützt das System die Zusammenarbeit zwischen Mensch und KI?

  • Anpassungsfähigkeit: Passt sich das System an die Eingaben der Benutzer:in oder den Kontext an (Akata et al. 2020)?

  • Erklärbarkeit: Sind KI-Entscheidungen transparent und verständlich (Akata et al. 2020)?

  • Entstehende menschliche Aufgaben: Welche neuen Rollen ergeben sich für den Menschen in diesem System (Knowledge at Wharton 2024)?

  • Geteilte Kontrolle: Können Aufgaben gemeinsam von Mensch und KI ausgeführt werden (Tang et al. 2023)?

Phase 5: Zusammenfassung und Gesamtreflexion

Die Analyse schließt mit einer Gesamtbetrachtung:

  • Stärken und Schwächen: Eine Reflexion über die hybride Leistung (Dellermann et al. 2019).

  • Design-Empfehlungen: Verbesserungsvorschläge basierend auf den Prinzipien der hybriden Intelligenz.

  • Soziotechnische Implikationen: Änderungen an menschlichen Rollen, Arbeitsabläufen und Organisationsstrukturen (Knowledge at Wharton 2024).

Basierend auf den Ergebnissen können Autonomiestufen festgelegt oder angepasst werden.

Fieldlab Vignetten: Autonomiestufen

Die Fallvignetten dienen der Illustration der praktischen Umsetzung und der Herausforderungen der in den Kapiteln formulierten idealisierten Vorgehensweisen. Sie stellen kein vollständiges Bild der Arbeit in den Fieldlabs da, sondern sind bewusst zugespitzt, um unterschiedliche Aspekte darzustellen.

Aufteilung und Zuweisung von Aufgaben

Fieldlab A: Human Ressources
Fieldlab B: Verkehr
Fieldlab C: Pflege

Bei der Zerlegung der Aufgaben in Fieldlab A wurde deutlich, dass relevante Aufgaben entlang aller vier Phasen der Informationsverarbeitung verortet sind. Ein Großteil dieser Aufgaben wird durch klassische Algorithmen erledigt, der KI kommen zwei Aufgaben in der Informationsbeschaffung und -analyse zu. Diese KI-basierten Funktionen sind der Kernfunktionalität (Matching-Algorithmus) vorgeschaltet und laufen parallel zu klassischen (nicht KI-basierten) Formen der Informationsbeschaffung und -analyse, die als Rückfall-Option verwendet werden können.

In Fieldlab B basiert die Kernfunktionalität, die Objekt- und Ereigniserkennung, auf KI (Informationsanalyse & Entscheidungen). Die Ausführung der Maßnahmen (Maßnahmenauswahl & Ausführung der Maßnahme) findet hingegen manuell, oder über klassische deterministische Algorithmen statt (z.B. das Absenden einer Verkehrswarnung im Radio) statt.

In Fieldlab C sind die Kernfunktionalitäten (Transkription & Generierung von Aufgaben aus der transkribierten Pflegedokumentation) grundsätzlich von der KI-gestützt. Im Gegensatz zu Fieldlab B gibt es hier allerdings nicht-KI-basierte Rückfalloptionen (Eingabe via Chat, statt Sprache & deterministische Generierung von Aufgaben auf Schlagwortbasis).


Akata, Z., Balliet, D., De Rijke, M., Dignum, F., Dignum, V., Eiben, G., ... & Welling, M. (2020). A research agenda for hybrid intelligence: augmenting human intellect with collaborative, adaptive, responsible, and explainable artificial intelligence. Computer, 53(8), 18-28. https://doi.org/10.1109/MC.2020.2996587

Azmandian, M., Savransky D., Yu C., & Kunze, L. (2023). Variable autonomy and meaningful human control in robot design. Frontiers in Robotics and AI, 10:1129352.

Chen, H., Chen, Y., Wang, W., Lin, D., & Huang, J. (2022, November). A Dynamic Safe Arbitrator for Human-Machine Shared Control. 2022 China Automation Congress (CAC), 3395-3400. IEEE. https://doi.org/10.1109/CAC57257.2022.10055010

Dellermann, D., Ebel, P., Söllner, M., & Leimeister, J. M. (2019). Hybrid intelligence. Business & Information Systems Engineering, 61(5), 637-643. https://doi.org/10.1007/s12599-019-00595-2

Knowledge at Wharton (2025). Why hybrid intelligence is the future of human-ai collaboration. https://knowledge.wharton.upenn.edu/article/why-hybrid-intelligence-isthe-future-of-human-ai-collaboration/. Abgerufen Mai 2025.

Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human factors, 39(2), 230-253. https://doi.org/10.1518/001872097778543886

Parasuraman, R., Sheridan, T. B., & Wickens, C. D. (2000). A model for types and levels of human interaction with automation. IEEE Transactions on systems, man, and cybernetics-Part A: Systems and Humans, 30(3), 286-297. https://doi.org/10.1109/3468.844354

Zuletzt aktualisiert