Ethikrat: Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern
„Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung“, sagt Alena Buyx, die Vorsitzende des Deutschen Ethikrates.
KI-Systeme haben heutzutage in nahezu alle Bereiche des öffentlichen und privaten Lebens Einzug gehalten und reichen von Krebsdiagnostik in der Medizin und intelligenten Tutorsystemen in der Schule über Empfehlungssysteme auf Onlineplattformen bis hin zu Software, die Entscheidungen im Sozial- und Justizwesen oder bei der Polizei unterstützen soll.
„KI-Anwendungen können menschliche Intelligenz, Verantwortung und Bewertung nicht ersetzen“, betont Julian Nida-Rümelin, der stellvertretende Vorsitzende des Deutschen Ethikrates und stellvertretende Sprecher der zuständigen Arbeitsgruppe. Dieser Schluss ergibt sich in der Stellungnahme aus einer Betrachtung zentraler philosophischer und anthropologischer Begriffe, die für das Verhältnis von Mensch und Maschine bedeutsam sind: Intelligenz, Vernunft, Handlung und Verantwortung.
Für die ethische Bewertung von KI ist das von Bedeutung, denn es genügt nicht, nur die Technologien zu verstehen. Auch die komplexen Wechselwirkungen zwischen Mensch und Technik sowie gesellschaftliche Effekte müssen beachtet werden. Deshalb lautet für den Ethikrat die zentrale Schlüsselfrage für die ethische Beurteilung: Werden menschliche Autorschaft und die Bedingungen für verantwortliches Handeln durch den Einsatz von KI erweitert oder vermindert?
Mit dieser Frage setzt sich der Deutsche Ethikrat in seiner Stellungnahme exemplarisch in vier Anwendungsbereichen auseinander – Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung. Dabei zeigt sich, dass die Beurteilung von KI immer kontext-, anwendungs- und personenspezifisch erfolgen muss. „Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben“, sagt Judith Simon, die Sprecherin der Arbeitsgruppe. „Daher ist es wichtig, genau hinzuschauen, für wen dies mit erweiterten Handlungsspielräumen verbunden ist und wessen Handlungsmöglichkeiten eher vermindert werden.“
Dieses Anliegen schlägt sich auch in den Empfehlungen nieder, die der Deutsche Ethikrat zum Einsatz von KI in jedem der vier untersuchten Anwendungsbereiche formuliert. Für den Medizinbereich richten sich Empfehlungen unter anderem auf die Qualitätssicherung bei der Entwicklung und Nutzung von KI-Produkten, auf die Vermeidung ärztlicher Kompetenzverluste und auf das Ziel, die Privatsphäre von Patientinnen und Patienten mit intensiver Datennutzung in der medizinischen Forschung in Einklang zu bringen. Dabei gilt es, das Vertrauensverhältnis zwischen allen beteiligten Personen zu schützen und die vollständige Ersetzung medizinischer Fachkräfte zu vermeiden.
Der Einsatz von KI in der schulischen Bildung sollte nach den Empfehlungen des Ethikrates nicht durch technologische Visionen gesteuert werden, sondern sich an grundlegenden Bildungsvorstellungen orientieren und auf Elemente beschränken, die nachweislich die Kompetenzen und sozialen Interaktionen der Lernenden erweitern, ihre Privatsphäre schützen und die Persönlichkeitsbildung fördern.
Im Bereich der öffentlichen Kommunikation und Meinungsbildung empfiehlt der Ethikrat unter anderem Weiterentwicklungen der Regeln für Online-Plattformen hinsichtlich der Auswahl und Moderation von Inhalten sowie zu personalisierter Werbung und zum Datenhandel. Außerdem fordert er besseren Zugang auf Plattformdaten für die Forschung und empfiehlt, den Aufbau einer digitalen Kommunikationsinfrastruktur in öffentlich-rechtlicher Verantwortung zu erwägen.
Für den Einsatz von KI in der öffentlichen Verwaltung rät der Ethikrat zu Ansätzen, die vor Diskriminierungen schützen und dem blinden Befolgen maschineller Empfehlungen vorbeugen. Weiterhin fordert er, dass Einzelfallbetrachtungen sowie die Einsichts- und Einspruchsrechte von Betroffenen gewährleistet werden. Bei der Anwendung von KI in der Arbeit von Gefahrenabwehrbehörden sollten gesellschaftliche Aushandlungsprozesse über ein angemessenes Verhältnis zwischen Risiken und Chancen solcher Ansätze geführt werden.
Ergänzend identifiziert der Deutsche Ethikrat zehn Querschnittsthemen und Empfehlungen, die bereichsübergreifend von Bedeutung für die ethische Einordnung von KI-Anwendungen sind. Darin geht es unter anderem darum, KI zur Entscheidungsunterstützung und nicht zur Entscheidungsersetzung zu verwenden, die Diffusion von Verantwortung zu verhindern, menschliche Kontrolloptionen nicht zu beeinträchtigen und den Zugang zu den Entscheidungsgrundlagen insbesondere in Bereichen mit hoher Eingriffstiefe zu gewährleisten. Weitere Forderungen zielen darauf ab, Verzerrungen, Abhängigkeiten und Missbrauch von Technik sowie unerwünschte Verluste menschlicher Fertigkeiten zu vermeiden. Über alle Anwendungsbereiche hinweg gilt es, die Interessen der Menschen, von denen die in KI-Anwendungen verwendeten Daten stammen, in den Mittelpunkt zu stellen, übermäßige Eingriffe in die Privatsphäre mithilfe effektiver rechtlicher und technischer Vorkehrungen zu verhindern und gleichzeitig eine gemeinwohlorientierte Datennutzung zu ermöglichen.