Definition: Was wir unter Künstlicher Intelligenz verstehen
Unter Künstlicher Intelligenz verstehen wir Systeme, die möglichst eigenständig Aufgaben lösen, indem sie in einer bestimmten Situation die beste mögliche Aktion wählen [59, p. 34]. Eine einheitliche Definition existiert bislang nicht [59, p. 1]. Welche Fähigkeiten ein solches System benötigt, das möglichst eigenständig Aufgaben lösen soll, hängt davon ab, in welchem Umfeld es sich befindet.
Kategorisierung von KI-Systemen
Da mittlerweile tausende von KI-Tools verfügbar sind, bieten wir im Folgenden eine Kategorisierung an, die hilft, unterschiedliche KI-Systeme einzuordnen und die Möglichkeiten von KI-Systemen einzuschätzen:
- Einzwecksysteme, die auf eine Aufgabe spezialisiert sind und Menschen unterstützen.
- Automatische Entscheidungssysteme, die Menschen Entscheidungen in spezifischen Situationen und Umgebungen abnehmen.
- Autonome Roboter, die selbstständig und in unterschiedlichen Umgebungen Entscheidungen treffen können.
- Mehrzwecksysteme, die Menschen unterstützen und für viele Zwecke eingesetzt werden.
Der Trend: Autonome und planende Künstliche Intelligenz
Heute dominieren spezialisierte Systeme, doch die Entwicklung bewegt sich in Richtung größerer Vielseitigkeit und Autonomie. Wir sehen vier zentrale Linien [60, p.
195]:
- eine weitere Zunahme spezialisierter Systeme mit hoher Effizienz in engen Aufgabenbereichen
- vielseitigere Systeme, die in unterschiedlichen Umgebungen nutzbar sind
- verkörperte KI-Systeme (Roboter) in unterschiedlichen Bereichen von Pflege bis Raumfahrt
- mehr Autonomie von KI-Systemen insbesondere bei Fahrzeugen und in Notfällen
Diese Entwicklungen eröffnen Chancen für Innovationen, bergen aber auch ethische und sicherheitspolitische Risiken – etwa bei autonomen Waffensystemen, die aktuell diskutiert werden [61]. Während Systeme der allgemeinen Künstliche Intelligenz (Artificial General Intelligence, AGI) auf menschlichem Niveau in den kommenden Jahren als unwahrscheinlich gelten, erscheinen weitere Annäherungen an AGI als realistisch [4].
Schlüsseltechnologien der KI
Diese Entwicklung wird von fünf Schlüsseltechnologien geprägt:
- Large Action Models (LAMs): verbinden Sprachverstehen mit Handlungsfähigkeit [62]
- Multimodale KI: Verarbeitung von Sprache, Text und Bild, Einsatz in Echtzeitinteraktion, Medizin, Industrie oder Forschung [4]
- Edge AI: Ausführung direkt auf lokalen Geräten für Datenschutz, Latenz und Resilienz [12]
- Kausale KI: Ursache-Wirkung statt Korrelationen, derzeit noch experimentell [63]
- Agentische Modularität: Koordination spezialisierter Subagenten – analog zu Teamarbeit [4]
LAMs gelten als Treiber der Entwicklung: Die Fähigkeit von KI-Agenten, Aufgaben zu lösen, deren Bearbeitung durch einen Menschen mehrere Minuten oder Stunden in Anspruch nimmt, verdoppelt sich aktuell etwa alle sieben Monate. Dieser sogenannte „Time Horizon“ beschreibt den Zeitraum, über den ein Agent mit mindestens 50 % Erfolgswahrscheinlichkeit autonom planen und handeln kann [64]. Während KI-Agenten heute zuverlässig Aufgaben mit einer Komplexität von 30–60 Minuten lösen, dürfte ihr Planungshorizont bis 2029 auf Wochen- und bis Anfang der 2030er-Jahre auf Monatsprojekte anwachsen, sofern der aktuelle Entwicklungspfad anhält [65, 64]. Denn trotz aller Fortschritte erkennen heutige Agenten Korrelationen in Daten, aber sie verstehen nicht, warum etwas passiert – und wie eine Handlung eine andere beeinflusst. Sie simulieren also Intelligenz nur: Ihnen fehlt die Fähigkeit, Ursache-Wirkungs-Zusammenhänge explizit zu modellieren.
„Bis Maschinen lernen, kausal zu denken, wird es keine echte Intelligenz geben.“ [63] Doch genau diese Fähigkeit ist zentral, wenn Agenten verlässlich, adaptiv und erklärbar handeln sollen. Sie müssen verstehen können, was passiert, wenn sie eine bestimmte Entscheidung treffen [63, 66]. Denn eine 50 %-Erfolgsquote bedeutet: Jede zweite Aufgabe schlägt fehl [64]. Wir sehen in kausalen Modellen die entscheidende Voraussetzung für autonome, generalisierende und robuste KI-Agenten. Nach aktueller Einschätzung liegt die Wahrscheinlichkeit für die Verfügbarkeit robuster, kausaler Modelle bis 2030 bei etwa 50%, erst ab 2035 ist eine hohe Wahrscheinlichkeit (> 70 %) realistisch [67].
Der Fortschritt ist real, aber noch nicht ausreichend. Ob KI-Agenten wirklich autonom und verlässlich handeln können, hängt maßgeblich davon ab, ob – und wie schnell – robuste kausale Modelle entwickelt werden.
Das ganze Whitepaper zum Download gibt es hier >>
Quellen:
[59] S. Russell und P. Norvig, Artificial Intelligence. A modern Approach, Bd. 4, New Jersey: Pearson, 2020.
[60] J. Reinhart, O. Mayer und C. Greiner, Künstliche Intelligenz entfesselt, Bd. 2, Vogel Verlag, 2025.
[61] United Nations, „Lethal Autonomous Weapon Systems (LAWS). Report of the Secretary-General.,“ 2024.
[62] PromptHub, „OpenAI DevDay 2025 Roundup: Apps, Agents, and the New AI Stack.,“ 2025. [Online].
[63] J. Pearl und D. Mackenzie, The Book of Why: The New Science of Cause and Effect, Basic Books, 2018.
[64] METR, „Measuring AI ability to complete long tasks. Model Evaluation & Threat Research.,“ 2025. [Online]. Available: metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks.
[65] A. Anup, „AI agents are getting twice as capable every few months,“ 2024. [Online]. Available: www.anup.io/ai-agents-are-getting-twice-as-capable/ .
[66] J. Peters, D. Janzing und B. Schölkopf, Elements of Causal Inference: Foundations and Learning Algorithms, MIT Press, 2017.
[67] B. Schölkopf, „Causality for Machine Learning,“ in Association for Computing Machinery, New York, NY, USA, 2022, p. 765–804.