Es steht außer Frage, dass Künstliche Intelligenz (KI) zunehmend in alle Lebensbereiche vordringt – von Gesundheitswesen über Finanzwesen bis hin zu öffentlichen Dienstleistungen. Neben den großen Potenzialen, die KI bietet, werden jedoch auch kritische Stimmen laut: Sie warnen vor Risiken wie der Aushöhlung demokratischer Strukturen oder der Verstärkung gesellschaftlicher Ungleichheiten. Um solchen Risiken zu begegnen, zielen gesetzliche Regelungen wie der EU AI Act darauf ab, die Sicherheit von KI-Systemen zu gewährleisten. Die praktische Umsetzung dieser Anforderungen gestaltet sich jedoch schwierig: Viele Organisationen tun sich schwer damit, abstrakte Prinzipien in konkrete Designentscheidungen zu übersetzen. In der Praxis wird Compliance daher oft als nachgelagerter Schritt verstanden – und erst gegen Ende der Entwicklung berücksichtigt. Das kann zu teuren Neugestaltungen oder sogar zu regulatorischen Verstößen führen. Es braucht einen wirkungsvolleren Ansatz – und genau hier setzt Value-based Engineering (VBE) an.
VBE macht ethische Anforderungen zu einem integrierten Bestandteil des gesamten Entwicklungsprozesses. Statt Compliance als letzte Hürde zu betrachten, verankert VBE ethische Überlegungen bereits in den frühen Phasen der Systemgestaltung. Da das Ergebnis des VBE-Prozesses in konkreten Systemanforderungen mündet, entstehen Systeme, bei denen das Risiko, die Werte der Stakeholder zu verletzen, minimiert wird. Der folgende Blogbeitrag stellt fünf Argumente vor, wie Value-based Engineering nicht nur zur Einhaltung regulatorischer Anforderungen wie des EU AI Act beiträgt, sondern auch bestehende Lücken und Unklarheiten im Gesetz konstruktiv adressiert.
Einblick 1: VBE ermöglicht kontextspezifische Systemanalysen
Eine der größten Stärken von VBE liegt in seiner Kontextbezogenheit. Das bedeutet: Die Systemanforderungen, die im Rahmen einer VBE-Analyse entstehen, sind genau auf das Einsatzfeld des jeweiligen KI-Systems zugeschnitten. Das ist entscheidend, denn KI-Systeme sind keine Lösungen von der Stange. Auch wenn bestimmte Eigenschaften übertragbar sind, operieren KI-Systeme oft in sehr unterschiedlichen Umfeldern, richten sich an verschiedene Zielgruppen und adressieren spezifische Herausforderungen.
VBE macht deutlich, dass sich ethische Anforderungen nicht pauschal auf alle Systeme übertragen lassen.
Stattdessen müssen Risiken, ethische Fragestellungen und technische Anpassungen jeweils in Relation zum praktischen Einsatz des Systems betrachtet werden. Ein Beispiel: Ein Algorithmus, der Fairness bei Bewerbungs-Empfehlungen auf LinkedIn verbessern soll, ist nicht ohne Weiteres auf das Content-Recommendation-System von TikTok übertragbar. Beide Plattformen sind soziale Netzwerke, doch Nutzer:innen interagieren mit ihnen auf völlig unterschiedliche Weise. Fragen der Fairness, Voreingenommenheit und Transparenz stellen sich in jedem Fall anders – und lassen sich nicht mit einem Einheitsansatz lösen.
Einblick 2: VBE bietet einen Bottom-up-Ansatz zur Risikoanalyse
Die Einschätzung von Risikostufen ist eine zentrale Herausforderung bei der Umsetzung des EU AI Act.
Der Gesetzgeber verfolgt hier einen Top-down-Ansatz, indem er KI-Systeme in Kategorien wie „inakzeptables Risiko“, „hohes Risiko“ oder „begrenztes Risiko“ einteilt. Zwar nennt der EU AI Act Beispiele für Systeme innerhalb dieser Kategorien, die Einordnung ist in der Praxis jedoch nicht immer eindeutig.
Beispiel: Ein KI-gestützter Bibel-Chatbot, der spirituelle Gespräche auf Basis biblischer Texte führt.
Fällt dieser unter „hohes Risiko“? Oder ist er als akzeptabel einzustufen? Allein auf Basis der vordefinierten Kategorien lässt sich diese Frage nicht klar beantworten. VBE würde diese Situation anders analysieren: Es untersucht, wie Nutzer:innen mit dem System interagieren – und welche potenziellen Risiken daraus entstehen könnten. Entsteht emotionale Abhängigkeit? Wird falsches Wissen über religiöse Inhalte verbreitet? Gibt es Datenschutzbedenken wegen sensibler Eingaben?
Durch den Bottom-up-Ansatz von VBE werden solche Fragen frühzeitig gestellt.
Die daraus abgeleiteten Risiken fließen direkt in konkrete Systemanforderungen ein.
VBE ergänzt den EU AI Act somit um ein kontextsensibles und differenziertes Analysemodell.
Einblick 3: VBE leitet Werte bottom-up durch Stakeholder-Einbindung ab
Ein KI-System, das konform mit dem EU AI Act ist, muss die Werte und Rechte seiner Nutzer:innen respektieren.Der EU AI Act verweist in diesem Zusammenhang auf die Charta der Grundrechte der EU als ethischen Referenzrahmen. Viele internationale Organisationen und Expertengruppen verfolgen einen ähnlichen Ansatz: Sie nutzen vordefinierte Werte-Listen als Grundlage für „Trustworthy AI“. AlgorithmWatch hat 173 solcher Richtlinien aus Institutionen wie der OECD oder Microsoft gesammelt.
Doch lassen sich solche festen Listen in der Praxis auf komplexe Systeme übertragen?
Die Antwort ist oft: nur bedingt.
Es gibt keinen globalen Konsens über die eine Liste von Werten. Werte sind immer kontextabhängig: Vertrauen in den Geisteswissenschaften ist nicht dasselbe wie „Trusted Computing“ in der IT. Viele dieser Listen mischen ethische Prinzipien (z. B. Wohltätigkeit) mit juristischen Rechten (z. B. Datenschutz) – und erzeugen so logische Inkonsistenzen. Und schließlich: Feste Listen verhindern, dass neue, kontextspezifische Werte sichtbar werden.
VBE begegnet diesen Herausforderungen, indem es keine feste Werteliste vorgibt. Stattdessen arbeitet VBE mit Ansätzen wie der Tugendethik und Deontologie und erarbeitet gemeinsam mit Stakeholdern jene Werte, die für sie relevant sind. Später werden diese Stakeholder-Werte mit offiziellen Dokumenten wie der EU-Grundrechtecharta abgeglichen – um Lücken zu erkennen und gesetzlich geforderte Werte sicherzustellen. So stellt VBE sicher, dass Systemanforderungen sowohl rechtlich relevante als auch kontextuell bedeutsame Werte abbilden.
Einblick 4: VBE betrachtet ethische Risiken systemweit
Viele bestehende Ansätze zur KI-Risikoanalyse konzentrieren sich ausschließlich auf die technischen Komponenten eines Systems – etwa auf Daten, Modelle und Algorithmen. Doch KI-Systeme sind in der Regel nur ein Teil eines größeren „System-of-Systems“. Die KI-Komponente ist also lediglich eine potenzielle Quelle für wertebezogene Risiken – ein wirklich regelkonformes System muss Risiken jedoch auf gesamter Systemebene berücksichtigen.
VBE begegnet dieser Komplexität, indem es Compliance systemisch denkt, anstatt einzelne technische Schwächen isoliert zu beheben. Es bezieht organisatorische Abläufe, Entscheidungsstrukturen und gesellschaftliche Auswirkungen mit ein – und schafft so eine fundierte, kontextspezifische Grundlage für verantwortungsvolles Systemdesign.
Einblick 5: VBE als Wegbereiter für AI Governance nach ISO 42001
Value-based Engineering (VBE) unterstützt auf natürliche Weise den Aufbau verantwortungsvoller KI-Governance – insbesondere im Hinblick auf Normen wie ISO 42001, dem international anerkannten Standard für KI-Managementsysteme. Die inhaltlichen Parallelen zwischen VBE und ISO 42001 zeigen, wie VBE als praxisnahes Werkzeug dienen kann, um Governance-Strukturen für KI gezielt zu definieren und umzusetzen. Konkret: Viele Elemente von VBE spiegeln sich in den Anforderungen von ISO 42001 wider.
Zum Beispiel ähnelt das „Concept and Context Exploration“ in VBE der ISO-Vorgabe, den Kontext der Organisation zu analysieren.
Auch die Stakeholderanalyse von VBE entspricht dem ISO-Konzept der „interessierten Parteien“.
Durch die strukturierte Methodik von VBE entlang des gesamten Systementwicklungszyklus können Organisationen KI-Systeme entwickeln, die nicht nur regulatorisch konform sind – etwa mit dem EU AI Act –, sondern auch langfristig Verantwortlichkeit und Vertrauen sichern.