0% fanden dieses Dokument nützlich (0 Abstimmungen)
42 Ansichten23 Seiten

AP0CRYPH0N DIY Disappearing Ink

Das Dokument behandelt die ethischen Herausforderungen und Perspektiven im Umgang mit Künstlicher Intelligenz (KI), insbesondere im Kontext von Bildung und Gesellschaft. Es wird diskutiert, ob KI als intelligent betrachtet werden kann und welche moralischen Überlegungen in die Entwicklung und den Einsatz solcher Technologien einfließen müssen. Der Autor betont die Notwendigkeit, ethische Wertungen in die Konstruktion intelligenter Systeme zu integrieren, um gesellschaftliche Probleme wie Bias und Falschinformationen zu adressieren.

Hochgeladen von

freshta1999
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
42 Ansichten23 Seiten

AP0CRYPH0N DIY Disappearing Ink

Das Dokument behandelt die ethischen Herausforderungen und Perspektiven im Umgang mit Künstlicher Intelligenz (KI), insbesondere im Kontext von Bildung und Gesellschaft. Es wird diskutiert, ob KI als intelligent betrachtet werden kann und welche moralischen Überlegungen in die Entwicklung und den Einsatz solcher Technologien einfließen müssen. Der Autor betont die Notwendigkeit, ethische Wertungen in die Konstruktion intelligenter Systeme zu integrieren, um gesellschaftliche Probleme wie Bias und Falschinformationen zu adressieren.

Hochgeladen von

freshta1999
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen

Dokumentvorlage • Narr Verlage | A 3.

Ethische Perspektiven eines verantwortungs-


bewussten Umgangs mit Technologieinnovati-
onen
Andreas Klein

1. Hinführung
Spätestens seit ChatGPT und GPT-4 (integriert in MS Edge) ist „Künstliche In-
telligenz“ kein Thema mehr von Spezialisten, sondern in der breiten Öffentlich-
keit angekommen. Hier wird es auch intensiv genutzt, so dass z.B. Bildungsein-
richtungen hektisch nach plausiblen Umgangsformen für KI-generierte
Arbeitsaufträge oder Prüfungen suchen. Mittlerweile überschlagen sich die me-
dialen Berichterstattungen beinahe im Tagesrhythmus mit neuen „Errungen-
schaften“ und Durchbrüchen in sämtlichen Lebensbereichen. Da generative KI-
Systeme gekommen sind, um zu bleiben, ist das Ende der Fahnenstange noch
kaum abzusehen – und damit auch nicht die damit verbundenen gesellschaftli-
chen Herausforderungen. Ob die bekannten Probleme wie Rassismus, Sexismus,
Verzerrungen (der berüchtigte Bias1), schlichtweg falsche, aber glaubwürdig
kommunizierte Inhalte (Fakes) usw. mit der Zeit schrittweise zurückgehen oder
umgekehrt sogar zunehmen, ist bislang noch nicht abzusehen. GPT-4 in MS
Edge bietet zumindest überprüfbare Quellen in den Ergebnissen an.
Nutzen und Chancen von KI-Systemen sind derart offensichtlich, dass sie mitt-
lerweile in beinahe allen gesellschaftlichen Subsystemen zum Einsatz kommen
– auch wenn nicht überall KI drin ist, wo KI draufsteht. Parallel dazu und auf-
grund der rasanten Entwicklungen steigen jedoch auch die Sorgen und Befürch-
tungen, so dass fieberhaft nach passenden Regulierungen gesucht wird und etwa
in den USA zahlreiche Expert*innen aus Forschung und Tech-Branche (u.a.
Steve Wozniak, Elon Musk, Stuart Russell, Yuval Noah Harari, Max Tegmark)
in einem offenen Brief eine halbjährige Entwicklungspause gefordert haben –
mit voraussichtlich geringem Erfolg (Future for Life Institute 2023).2
Der vorliegende Beitrag beschäftigt sich primär mit den ethischen Aspekten und
Herausforderungen, die sich für die Gesellschaft insgesamt, aber auch für das
Gesundheitswesen aus diesen neuen Entwicklungen ergeben. In einem zweiten

1
Siehe dazu auch: Ho u.a. 2022.
2
Italien verordnete im Frühjahr 2023 eine einmonatige Sperre von ChatGPT.

1
Dokumentvorlage • Narr Verlage | A 3.3

Artikel wird auf spezifische Themenfelder im Rahmen von Bildungs- und For-
schungsprozessen eingegangen.
Kapitel 2-3
Kapitel 2:Intelligenz= ein Bündel
2. Wie intelligent ist Künstliche Intelligenz – oder kann
von Fähigkeiten und
Kompetenzen zur
präferenzorientierten
sie werden?
Zielerreichung. Unklar on man KI
als intelligent bezeichnen kann
da meschliche und künstliche Eine tief in die philosophische Reflexion reichende Frage beschäftigt sich damit,
Intelligenz sich voneinander
unterscheiden. Deswegen Begriff ob es gerechtfertigt ist, bei den neuen generativen Algorithmen überhaupt von
der Intelligenz in KI vermeidbar
durch Begriffe wie machine
learning, jedoch ist KI schon in
Intelligenz zu sprechen (vgl. den guten Überblick von Heinrichs u.a. 2022).
allgemeiner sprache
durchgesetzt. Es besteht die Denn offensichtlich unterscheiden sich diese Systeme erheblich von dem, was
Frage ob für Intelligenz
physische Bestandteile Menschen üblicherweise unter Intelligenz verstehen. Erschwerend kommt
notwendig sind. Evolutionär ist
das der Fall (multiple
Realisierung). Es geht nicht nur
hinzu, dass offenbar kein allgemein akzeptierter Begriff von Intelligenz (und
um physische Bestandteile,
sondern um damit auch nicht von KI) zur Verfügung steht, der als Testkriterium herangezo-
Systemkonfigurationen. Man
kann bei KI Ansätze von gen werden könnte.3 Folgerichtig wird die Diskussion bislang auch recht kont-
Bewusstseineentwicklung sehen
(Entwicklung hin zu einer
Superintelligenz). Es bleibt
rovers geführt. Allerdings macht es wenig Sinn, alleine aufgrund dieses Um-
ebenfalls die Frage inwieweit
Intelligenz ein Bewusstsein standes künstlichen Systemen Intelligenz rundweg abzusprechen. Denn sollte
voraussetzt.
Turnitin Test = Test zur der Begriff so offensichtlich unklar sein, warum sollte man ihn dann überhaupt
Überprüfung ob ein menschlicher
Kommunikator zwischen Mensch
und KI unterscheiden kann beim
auf Menschen (oder sich selbst) anwenden? Jedenfalls wird man sich nicht zu
reden. Menschlichess Verhalten
ist auch nicht rein intelligent, weit hinauslehnen, wenn man unter Intelligenz ein Bündel von Fähigkeiten
jedoch denken Menschen erst
unter bestimmten bedingungen und/oder Kompetenzen zur präferenzorientierten Zielerreichung subsumiert,
rational, welches Konsequenzen
für KI Modellierungen hat.
In jeder Konstruktion intelligenter
wie etwa Wahrnehmung, Sprach- und/oder Informationsverarbeitung, Prob-
Maschinen müssen Wertungen
einfließen. lemlösung, Entscheidungsfindung, Anpassung an neue Situationen, Kreativität4,
Kapitel 3: Ethik= selbstreflexive
Theorie der Moral, die (logisches) Denken. Wie weit sämtliche dieser Eigenschaften vorliegen müssen,
menschliches Handeln anhand
Gut und Böse überprüft. Ethik
fragt wie man handeln soll
um von Intelligenz zu sprechen, ist strittig, zumal die einzelnen Begriffe ihrer-
(Suche nach dem Guten),
vernunftgeleitet. Sie geht dabei seits erläuterungsbedürftig sind. Daneben können noch Bereiche unterschieden
methodisch vor anhand
Argumenten und Gründen. Ethik werden, in denen jeweils Intelligenz in Erscheinung tritt, z.B. räumliche, soziale,
und Moral zsm beschreiben ein
Bündel von Regeln für
gesellschaftliches
körperlich-kinästhetische, musikalische, sprachliche, logisch-mathematische,
Zusammenleben. Moral bildet
umfassenden Rahmen für interpersonelle, intrapersonelle usw. Intelligenz.
individuelles und soziales
Handeln. Moral braucht Ethik, da Das Ausgangsproblem, also die Frage nach der Intelligenz von KI, ließe sich
Moral selbst nicht immer dem
Guten entspricht, wie zb in
Konfliktsituationen.
freilich elegant umgehen, indem man den Begriff „Intelligenz“ für generative
Algorithmen überhaupt vermeidet oder – noch grundsätzlicher – gänzlich

3
Auffällig ist, dass weder die Stanford Encyclopedia of Philosophy noch Wikipedia einen passenden
Artikel hierzu bereithalten.
4
Eine aktuelle Studie (Gilde / Guzik / Byrge 2023) zeigt, dass generative Algorithmen in Kreativi-
tätstests sogar besser abschneiden als 99% (!) der (menschlichen) Teilnehmenden. Freilich ist auch
diese Untersuchung mit Vorsicht zu interpretieren, worauf die Autoren selbst hinweisen.

2
Dokumentvorlage • Narr Verlage | A 3.3

aufgibt. Stattdessen könnte man direkt auf die in KI integrierten Einzelmodelle


und -methoden abstellen, wie etwa Machine Learning, Deep Learning, Natural
Language Processing, Neuronale Netze, Computer Vision usw. Analog wäre
dies auch hinsichtlich menschlicher Problemlösungskompetenzen zu bedenken.
Allerdings haben sich die Bezeichnungen „Künstliche Intelligenz“ und „Intelli-
genz“ nun einmal allgemein durchgesetzt und zudem ist fraglich, ob damit die
Probleme nicht nur auf eine andere Ebene verschoben werden. Irgendeine Ver-
gleichbarkeit zu menschlichen Prozessen soll ja offensichtlich hergestellt wer-
den.
Auch wenn man der Frage, ob KI überhaupt intelligent ist und wie intelligent
sie (noch) werden kann, grundsätzlich skeptisch gegenübersteht, sollte eine ein-
fache Überlegung weiterhelfen können. Aus einer naturalistisch orientierten
Perspektive (Beckermann 2021; Dretske 1998; Keil / Schnädelbach 2000;
Sukopp / Vollmer 2007; Dennett 1995) stellt sich ja die Frage, wie Intelligenz
(oder auch Bewusstsein) überhaupt evolutionär aus natürlichen Komponenten
(physikalisch, chemisch, biologisch) entstehen konnte. Offensichtlich war dies
nicht nur möglich, sondern wurde Wirklichkeit. Wie also konnten aus physi-
schen Bestandteilen Bewusstsein und Intelligenz emergieren? Gesteht man dies
einmal zu, wird man nicht grundsätzlich bestreiten müssen, dass dies auch für
künstliche (postbiotische) Systeme möglich sein kann (vgl. neuerdings Butlin
u.a. 2023); und zwar auch dann, wenn für künstliche Systeme bereits menschli-
che Intervention involviert ist. Diese Schlussfolgerung ließe sich nur dadurch
vermeiden, indem man – wie etwa klassisch John Searle (1980) – für Intelligenz
(wohl ebenso wie für Bewusstsein) ganz bestimmte physische (und keine ande-
ren) Systemkonfigurationen als notwendig (conditio sine qua non) voraussetzt
(z.B. in der Embodiment-Theorie). Für diese Annahme scheint jedoch wenig zu
sprechen! Vor tausenden (oder Millionen) von Jahren hätte wohl ebenfalls kaum
jemand für möglich gehalten, dass sich aus physischen Bestandteilen Bewusst-
sein und/oder Intelligenz entwickeln können; und es ist doch passiert. Evolutio-
när betrachtet scheint es ohnehin mehrere Wege gegeben zu haben, um bei-
spielsweise neuronale – und wohl auch bewusste und intelligente – Prozesse
hervorzubringen (das sog. Problem der multiplen Realisierung; vgl. dazu
Bickle 2020). Damit scheint sich die Vermutung nahezulegen, dass es hierbei
nicht primär um die physischen Materialen als solche geht, sondern um be-
stimmte hinreichend komplexe Systemkonfigurationen. Genau diese Über-
legungen stehen auch hinter dem Konzept der Emergenz, wonach Bewusstsein
und/oder Intelligenz als emergente Systemeigenschaft entsprechend hoch

3
Dokumentvorlage • Narr Verlage | A 3.3

komplexer Systeme verstanden werden kann (vgl. Stephan 2005; Greve /


Schnabel 2011; Metzinger 2003; 2009). Insofern können Systeme „neue“ Ei-
genschaften hervorbringen, die nicht schon in den einzelnen Komponenten ent-
halten sind – ein durchaus altbekanntes Phänomen.
Eine andere Frage ist jedoch, wie weit aktuelle KI-Systeme einem adäquaten
Intelligenzverständnis entsprechen. Auch wenn man diesbezüglich die Meinung
vertritt, dass derzeitige Systeme diesem Kriterium noch nicht entsprechen, so
wird man doch einräumen müssen, dass sie offenbar auf dem Weg dorthin sind
oder sogar Ansätze von Bewusstsein zeigen (s. später zu Anm. 15). Ob damit
auch die Entwicklung hin zu einer Superintelligenz (Bostrom 2014; Russell
2020; Heinrichs u.a. 2022: 169ff) geebnet ist, kann an dieser Stelle offen blei-
ben. Ebenso offen bleiben kann hier die – durchaus imposante – Frage, inwie-
weit Intelligenz eine Form von Bewusstsein voraussetzt.
Eine mittlerweile klassische, aber auch umstrittene Strategie besteht im sog.
Turing-Test (Oppy / Dowe 2021) oder einer entsprechenden Weiterentwick-
lung (z.B. dem schwierig zu widerlegenden Metzinger-Test: Metzinger 2003).
Dabei geht es darum herauszufinden, ab wann ein menschlicher Kommunikator
nicht mehr adäquat entscheiden kann, ob er mit einem Menschen oder einer Ma-
schine kommuniziert. Es ist fraglich, wie weit heutige Systeme diesem Test ge-
recht werden.5 Allerdings kommunizieren Menschen (gewollt oder ungewollt)
immer wieder mit KI-Systemen (z.B. in Sozialen Medien, Call Centern usw.),
ohne diesbezüglich einen Unterschied wahrzunehmen. Bei GPT-4 gehen derzeit
die Meinungen auseinander.
Abschließend soll auch die umgekehrte Fragerichtung zumindest angedeutet
werden: Wie intelligent ist (eigentlich) der Mensch bzw. menschliches Ver-
halten? Die (Selbst-) Zuschreibung von Intelligenz hat zwar eine lange Tradition
(schon Aristoteles definiert den Menschen als animal rationale), widerspricht
aber häufig genug dem alltäglichen menschlichen Verhalten. Die täglichen
Nachrichtenmeldungen und auch die nüchterne Selbstevaluation geben ein eher
ernüchterndes Bild. Schon Sigmund Freud behauptete bekanntlich, dass der
Mensch „nicht Herr in seinem eigenen Haus“ sei (Freud 1917: 7). Wann und
unter welchen Bedingungen handeln Menschen rational und intelligent? Insbe-
sondere Evolutionsbiologie, (kognitive) Verhaltensforschung, Neuropsycholo-
gie oder Soziobiologie erschließen schrittweise die evolutionär-biologischen

5
Auf die intensive Debatte um das berühmte Chinese-Room-Argument von John Searle (1980) gehe
ich hier nicht ein – und gehe davon aus, dass es mittlerweile einiges an Tragfähigkeit eingebüßt hat.

4
Dokumentvorlage • Narr Verlage | A 3.3

Wurzeln menschlichen Verhaltens, die in alltäglichen Verhältnissen zum Aus-


druck kommen.
Vor diesem Hintergrund ließe sich entweder behaupten, dass evolutionäre (Ver-
haltens-) Strategien nicht per se unintelligent sind, oder dass Menschen nur unter
bestimmten Bedingungen rational-intelligentes Verhalten zeigen. Beides hat
eine gewisse Berechtigung. Dies hat jedoch Konsequenzen für die Modellierung
von KI-Systemen und auch für eine KI-Definition: Wenn solche Systeme ledig-
lich menschliches Denken oder Handeln simulieren (sollen) (vgl. hierzu Russell
/ Norvig 2012: 22ff; Bringsjord / Govindarajulu 2022), dann müsste aus dem
menschlichen Verhalten eine passende Auswahl getroffen und nur dies als Trai-
ningsgrundlage zur Verfügung gestellt werden. Andernfalls würden KI-Systeme
auch ungeeignete und insofern unintelligente oder jedenfalls ethisch problema-
tische (menschliche) Problemlösungsstrategien zeigen (was sie immer noch tun:
hier entsteht z.B. auch das Bias-Problem). Insofern erscheint es plausibel, sich
nicht vorrangig an der Simulation von faktischem menschlichem Verhalten zu
orientieren, sondern eher an idealtypischem oder anspruchsvollerem (vgl.
Russell / Norvig 2012: 26). Damit aber rücken auch ethisch-rationale Delibera-
tionsprozesse ins Zentrum des Interesses, da z.B. nicht mehr nur bestimmte
Problemlösungen zu bewältigen sind, sondern diese in ein umfassendes Hand-
lungsbild einzubetten sind.
Mit diesen Überlegungen wird bereits ein Kernbereich des ethischen Diskurses
zu KI betreten: In jede Konstruktion intelligenter Maschinen müssen bereits
(ethisch-rationale) Wertungen einfließen. Es gibt keine wertneutrale Technik
(Bayertz 1991: 180f; Fenner 2022: 270ff; Bauberger 2020, 28f.)! Das bedeutet,
dass Wertüberlegungen ebenso wie Prinzipien und Normen bereits in der Her-
stellung und im gesamten Prozess zwingend nötig sind, und darüber hinaus, dass
die jeweiligen Produkte ihrerseits diese repräsentieren und enthalten und mit
diesen adäquat operationalisieren (umgehen) müssen. Genau an dieser zweiten
Stelle bestehen jedoch gravierende und dauerhafte Probleme.

3. Ethik und die Frage nach dem guten Handeln


Ethik kann ganz allgemein als selbstreflexive Theorie der Moral beschrieben
werden, die menschliches Handeln anhand der Beurteilungsalternative von Gut
und Böse bzw. Gut und Schlecht auf seine Sittlichkeit hin überprüft (vgl.
Körtner 2019: 35). Ethik fragt auf einer Metaebene, wie man handeln soll. Es
geht also, jedenfalls in der normativen Ethik, um Sollensansprüche, Forderun-
gen und Verpflichtungen. Leitend ist dabei die Frage bzw. Suche nach dem

5
Dokumentvorlage • Narr Verlage | A 3.3

Guten, das durch kritische Reflexion, also vernunftgeleitet, eruiert werden soll.
Dabei hat die Ethik stets unparteiisch, unvoreingenommen, neutral, sachlich,
Kapitel 4-4.1
Kapitel 4: Grundlegende Robotergesetzte
objektiv, nüchtern und distanziert zu sein – auch wenn dies weitgehend ein (un-
von Isaac Asimov haben sich als
unzureichend erwiesen,da sie komplexe verzichtbares) Ideal darstellt (Birnbacher 2013: 2ff). Sie geht dabei methodisch
ethische Diskussionen zu sehr
vereinfachen und häufig zu falschen vor, d.h., dass sie transparent und nachvollziehbar anhand gültiger Standards
Ergebnissen führen. Stattdessen wird ein
anderes Konzept befürwortet, das
Prinzipienkonzept, weil dies flexibel genug
z.B. in Konfliktsituationen zu gerechtfertigten Lösungen anhand von Gründen
ist um es an unterschiedliche Bereiche
anzupassen. Im Gesundheitsbereich und Argumenten kommen möchte. Als kritische Reflexionsgestalt der Moral
dienst der prinzipienbasierte Ansatz von
Childress als Standardmodell, das von der sind die Aufgaben der Ethik aber grundsätzlich noch erheblich weiter gespannt.
Akzeptanz moralischer Prinzipien
ausgeht.
In der ethischen Diskussion sind vier
Damit unterscheidet sich Ethik von Moral, die ein Bündel von unerlässlichen
Prinzipien verankert: Autonomie, Nicht-
Malefizium, Benefizium und Gerechtigkeit. und (mehr oder minder akzeptierten) Regeln für das gesellschaftliche Zusam-
Sie bilden die moralischen Grundlagen der
Menschenrechtskonventionen. DIese menleben beschreibt. Sie enthält als gelebte Moral Gewohnheiten, Konventio-
Prinzipien müssen von Fall zu Fall
interpretiert werden. In den
Robotergesetzten beispielsweise wird
nen, Prinzipien, Normen, (moralische) Werte, Ideale usw., die in einer Gesell-
nach einer automatischen Reihenfolge der
Regeln ausgegangen, um „richtige“ schaft oder Gruppe akzeptiert werden und einen normativen Anspruch erheben
ethische Ergebnisse zu erzielen, aber
solche Ergebnisse existieren in der Ethik (vgl. Fenner 2020: 11ff; Hübner 2018: 11ff; Henning 2019: 11ff). Moral bildet
nicht.
Kapitel 4.1:In diesem Zusammenhang
kann man auf die ethischen Leitlinien der
folglich einen umfassenden Orientierungsrahmen für individuelles und soziales
„unabhängigen hochrangigen
Expertengruppe für KI“ der europäischen Handeln und ist demzufolge unverzichtbar. Sie bedarf jedoch der Ethik, weil in
Komission verweisen. SIe dienen zu
Regulierungsprozessen in KI, wie KI- der Moral selbst noch nicht geklärt ist, ob moralische Vorstellungen oder Über-
Gesetze, und stehen im EInklang mit
anderen ethischen Entwürfen zu KI. In den
ethischen Leitlinien des HEG-KI spiegeln
zeugungen tatsächlich dem Guten entsprechen. Moral ist zudem stets zweideutig
sich die zuvor genannten ethischen
Prinzipien in modifizierter Form wider und und auch widersprüchlich. Besonders in moralischen Konfliktsituationen ist
dienen als Leitfaden für ethische
Reflexion. Damit wird Europa als Vorreiter ethisches Reflektieren unumgänglich, um zu plausiblen Lösungen zu gelangen.
in Sachen KI Leitlinien.
Die ethlischen Leitlinien gliedern sich in 3
Bereiche: 1.:ethische Grundlagen
Während es bei grundlegenden (moralischen) Werten, Normen und Prinzipien
2.:Konkretisierung von ANforderungen
3.:Checkliste für Umsetzungen. Im einerseits eine gewisse transkulturelle Homogenität zu geben scheint (common
Mittelpunkt stehen Realisierung von
vertrauenswürdigen KI-Systemen, die morality), erweist sich diese andererseits in konkreten Realisierungen als kultu-
jedoch wiederum den Menschen als
Mittelpunkt stehen haben müssen. Im
Bereich der Medizin wurde dafür 2023 von
rell und historisch divergent – bis hinein in unterschiedliche nationale Gesetz-
dem Deutschen Ethikrat Stellungnahmen
veröffentlicht. gebungen.

4. Ethik für KI
Im Laufe der Geschichte der Ethik haben sich einige Grundpositionen und zahl-
reiche Variationen herausgebildet, auf die in unserem Kontext nicht eingegan-
gen wird. Für unsere Zwecke ist es ausreichend, auf ganz bestimmte (morali-
sche) Prinzipien und daraus resultierende Normen abzustellen, die sich
einerseits dadurch empfehlen, dass sie Aussicht auf allgemeine Akzeptanz be-
anspruchen können (common morality) und die sich andererseits im gesamten
ethischen Diskurs als maßgeblich herauskristallisiert haben. Vor diesem Hinter-
grund zeigt sich, dass KI zwar als disruptive Entwicklung innerhalb gesell-
schaftlicher Digitalisierungsprozesse in Erscheinung tritt und Abwehrstrategien
und Ängste bzw. Sorgen durchaus verständlich sind. Gleichwohl gestaltet sich

6
Dokumentvorlage • Narr Verlage | A 3.3

die ethische Reflexion hier nicht grundlegend verschieden gegenüber anderen


aktuellen Konfliktfeldern, wie etwa bei der Gentechnik oder der Digitalisierung
überhaupt. Insofern kann die Ethik auf eine lange Tradition von Konfliktlö-
sungspotenzialen und Reflexionskompetenzen zurückgreifen, die sich – mit ent-
sprechenden Adaptionen – auch angesichts neuer Entwicklungen durchaus be-
währen können.
Demgegenüber erweisen sich einfach-hierarchische Robotergesetze (die auch
im Hollywood-Blockbuster „I,Robot“ anzutreffen sind), wie sie im Rahmen ei-
ner Roboethik oder Roboterethik (Loh 2019; Bendel 2019) ursprünglich von
Isaac Asimov vorgelegt und sodann weiterentwickeltet wurden, als unzu-
reichend (Decker 2019). Diese Gesetze erzeugen in ihrer Anwendung nicht nur
falsch-positive und falsch-negative Ergebnisse (wie übrigens auch Kants For-
meln des Kategorischen Imperativ6), sondern unterschlagen vor allem das Kom-
plexitätsniveau, das bei ethischen Erörterungen prinzipiell anzutreffen ist. Kom-
plexe ethische Konfliktsituationen lassen sich selten mit einfachen Gesetzen
oder Regeln lösen.
Nichtsdestotrotz spricht sehr viel für ein entsprechend ausdifferenziertes Prin-
zipien-Konzept (vgl. Düber / Quante 2016; Schöne-Seifert 2011), wie es ge-
genwärtig in zahlreichen sog. Bereichsethiken7 (Nida-Rümelin) zur Anwendung
kommt – mit entsprechenden sachbezogenen Anpassungen. Im Gesundheitsbe-
reich hat sich diesbezüglich der sog. principlism von Beauchamp und Childress
(2019) als Standardkonzept etabliert, das auch flexibel für etwaige Anpassungen
ist. Die hier entfalteten (moralischen) Prinzipien werden dabei als allgemein ak-
zeptiert vorausgesetzt (common morality). Auf metaethische oder theoretische
Begründungen wird dabei verzichtet, weil diese disparaten, hoch artifiziellen
und konfligierenden Diskurse nicht nur weiterhin andauern, sondern es um kon-
krete und handhabbare Orientierungshilfen in ethischen Konfliktsituationen

6
Kant 1785. Kritische Erörterungen zu Kants Beispielen finden sich etwa bei: Schönecker / Wood
2002; Parfit 2017.
7
Unter Bereichsethiken versteht man Teilbereiche der Angewandten Ethik, die jeweils einen größe-
ren Themenbereich umfassen und mittlerweile ein bestimmtes Expert*innenwissen erfordern. Um-
fang, Abgrenzungen und Bezeichnungen können dabei allerdings wechseln. Klassische Bereich-
sethiken sind etwa Medizinethik, Wissenschaftsethik, Technikethik, Wirtschaftsethik, Medienethik,
Politische Ethik usw. Die zunehmende Ausdifferenzierung innerhalb der Wissenschaften führt
zwangsläufig zum Entstehen weiterer Bereichsethik, wie etwa Neuroethik, Pflegeethik, Digitale
Ethik usw. (vgl. etwa Fenner 2022: 50ff).

7
Dokumentvorlage • Narr Verlage | A 3.3

geht. Darum sind die vier Prinzipien, Autonomie bzw. Selbstbestimmung,


Nichtschaden, Fürsorge (Wohltun) und Gerechtigkeit auch längst in ethi-
schen Diskursen etabliert – und stellen darüber hinaus auch die moralischen
Grundlagen von Menschenrechtskonventionen dar.
Kein prinzipienethisches Modell kommt jedoch ohne kritisch-reflexiv-argumen-
tativen Diskurs aus. Das bedeutet, dass die jeweiligen Prinzipien im Einzelfall
zu interpretieren, zu spezifizieren und zu gewichten sind. Hierin besteht auch
der „Fehler“ der klassischen Robotergesetze, da sie eine automatische Priorisie-
rung und Hierarchisierung unterstellen (Regel 1 vor Regel 2 usw.), um zu „rich-
tigen“ ethischen Ergebnissen zu gelangen. Eine solche gibt es nicht und kann es
auch nicht geben – und hätte auch wenig mit Ethik zu tun.
4.1 Ethik-Leitlinien für eine vertrauenswürde KI
Es bietet sich in diesem Kontext an, auf die ethischen Leitlinien der „unabhän-
gigen hochrangigen Expertengruppe für Künstliche Intelligenz“ (HEG-KI) der
Europäischen Kommission zurückzugreifen und hierauf einzugehen, die 2019
veröffentlicht wurden und ein Grundgerüst für weitere Regulierungsprozesse
(z.B. den mittlerweile beschlossenen AI Act) darstellen. Diese Leitlinien decken
sich inhaltlich weitgehend mit anderen KI-Ethik-Entwürfen (Mason 1986;
Floridi 2023), die mittlerweile in großer Zahl vorgelegt wurden.8 Diese Über-
einstimmung ist auch nicht überraschend, weil die jeweiligen Entwürfe fast aus-
schließlich auf Prinzipien zurückgreifen, von denen es immer nur wenige geben
kann (vgl. Jobin u.a. 2019). Aus Prinzipien resultieren sodann Normen, Leitli-
nien, Empfehlungen, weitere Handlungsoptionen usw.
Die Ethik-Leitlinien der HEG-KI spiegeln die bereits angesprochenen ethischen
Prinzipien in modifizierter Form wider. Sie bilden einen guten Leitfaden für die
ethische Reflexion und auch für konkrete bzw. praktische Entwicklungspro-
jekte, aber auch eine Grundlage für weitere Regulierungsprozesse und Standar-
disierungen (AI Act der EU oder Exzellenzcluster). Europa nimmt mit diesen
Frameworks (wie schon mit der DSGVO) eine internationale Vorreiterrolle ein
und setzt sich damit von anderen globalen Playern deutlich ab.

8
Im März 2023 hat auch der Deutsche Ethikrat eine umfangreiche Stellungnahme vorgelegt, die
zudem einige „ausgewählte Anwendungen und sektorspezifische Empfehlungen“ (Medizin, Bil-
dung, Öffentliche Kommunikation und Meinungsbildung und Öffentliche Verwaltung) enthält und
darüber hinaus „Querschnittsthemen und übergreifende Empfehlungen“ erörtert.

8
Dokumentvorlage • Narr Verlage | A 3.3

Grundlage der Leitlinien sind international verbindliche Menschenrechtsab-


kommen und -konventionen (EMRK, EU-Grundrechtecharta usw.). Diese ba-
sieren ihrerseits auf moralischen Grundannahmen und Prinzipien. In ihnen fin-
den sich also moralische Prinzipien in konkreten Ausgestaltungen für
gesellschaftliche Lebensverhältnisse.
Die Ethik-Leitlinien gliedern sich in 3 jeweils aufeinander aufbauende Bereiche:
Teil 1 enthält die ethischen Grundlagen (Prinzipien) und vorgelagert die grund-
rechtlichen Fundierungen, Teil 2 weitere Ausdifferenzierungen und Spezifizie-
rungen in konkretere Anforderungen und Teil 3 eine Bewertungsliste für kon-
krete Umsetzungen und Anwendungen (Fragenkatalog). Wie der Übertitel
(Ethics Guidelines for Trustworthy AI) zu erkennen gibt, geht es zentral um die
Realisierung vertrauenswürdiger (trustworthy) KI-Systeme, die jedenfalls
rechtmäßig, ethisch und robust (in technischer und sozialer Hinsicht) sein
müssen (Nr. 159). Solchen vertrauenswürdigen KI-Systemen10 wird enormes Po-
tenzial attestiert, „die Gesellschaft signifikant zu transformieren“ und sie stellen
„ein vielversprechendes Mittel“ dar, „um das menschliche Gedeihen und somit
das Wohlbefinden von Individuum und Gesellschaft und das Gemeinwohl zu
steigern sowie zur Förderung von Fortschritt und Innovation beizutragen“ (Nr.
9). Exemplarisch werden hier folgende Ziele genannt: „Nachhaltigkeit“, „Ge-
schlechtergerechtigkeit“, „Bekämpfung des Klimawandels“, „rationale[r] Um-
gang mit natürlichen Ressourcen“, „Gesundheitsförderung“, „Mobilität“, „Pro-
duktionsverfahren“, „Überwachung von Indikatoren“, „sozialer Zusammenhalt“
(Nr. 9; 121ff), Förderung der „wirtschaftliche[n], soziale[n] und politische[n]
Chancengleichheit“ (Nr. 33). Entsprechende Systeme müssen jedoch stets „auf
den Menschen ausgerichtet sein“ und „menschliches Wohl“ und die „Frei-
heit“ mehren (Nr. 10). Gleichzeitig sollen bestehende oder (un-)vermutbare Ri-
siken so weit als möglich minimiert oder eliminiert werden. Aspekte der Für-
sorge und des Wohls nehmen hier offensichtlich eine hochrangige Stelle ein,
ohne jedoch die anderen Grundüberzeugungen zu verdrängen oder zu margina-
lisieren.

9
Die Nummern beziehen sich auf die Nummerierung des deutschen Textes der Leitlinien und sind
dort am linken Rand vermerkt.
10
Die von einigen Autoren vorgetragene Kritik (Zuchowski / Zuchowski 2022), KI-Systeme könn-
ten überhaupt nicht vertrauenswürdig sein, sondern lediglich oder bestenfalls verlässlich, ist m.E.
überzogen und wird – entgegen der Intention der Autorn – den lebensweltlichen Realitäten nicht
gerecht.

9
Dokumentvorlage • Narr Verlage | A 3.3
Kapitel 4.2-4.3
Kapitel 4.2: Die Leitlinien basieren
auf ethische Prinzipien und sollen
verantwortungsvollen Umgang mit
KI fördern. Im Fokus stehen
international anerkannte
Grundrechte. Jede Leitlinie muss
kritisch geprüft und angepasst
werden. Die Leitlinien richten sich an sämtliche Akteure, die bei „Gestaltung, Entwick-
Kapitel 4.3: Bei den Grundrechten
und KI sind Grundlagen
lung, Einführung, Umsetzung oder Nutzung“ beteiligt oder betroffen sind, also
internationale Abkommen mit z.B. Unternehmen, Organisationen, Forschende, öffentlicher Dienste, Behörden,
Werten wie die Würde des
Menschen, Freiheit, Gleichheit, Institutionen, zivilgesellschaftliche Organisationen, Einzelpersonen, Arbeitneh-
Gerechtigkeit,
Nichtdiskriminierung Solidarität mende und Verbraucher (Nr. 19).
und Bürgerrechte. DIe
Menschenwürde steht dabei als 4.2 Ethische Verpflichtungen
oberstes Prinzip. dazu gehört:
respektvolle Behandlung, Im Folgenden sollen die ethischen Prinzipien (Grundsätze) der Leitlinien darge-
körperliche und geistige
Unversehrheit, persönliche und stellt und erläutert werden. Auf die die spezifizierenden Anforderungen und die
kulturelle Identität und die
Erfüllung der Grundbedürfnisse.
Bewertungsliste (ALTAI), die stärker auf die praktische Umsetzung fokussie-
Freiheit des EInzelnen umfasst: ren, wird im zweiten Beitrag eingegangen. Grundlage der ethischen Prinzipien
Rechte auf eigene
Lebensgestaltung, Freiheit von sind international vereinbarte Grundrechte. Zurecht weisen die Leitlinien aber
staatlichen EIngriffen, Gleichen
ZUgang zu Vorteilen und darauf hin, dass kein Ethikkodex und keine Leitlinie die jeweilige kritisch-ethi-
Möglichkeiten von KI,
Eindämmung von
sche Reflexion („ethische Vernunft“) ersetzen können (Nr. 36) – ein leider häu-
-unrechtmäßigen Zwang und fig anzutreffendes Missverständnis (s. oben). Dementsprechend muss diese Re-
Bedrohung der geistigen
Selbstbestimmung und flexion auf allen Ebenen des Umgangs mit KI gefordert und gefördert werden.
Gesundheit, -ungerechtfertigter
Überwachung, -Täuschung und
unfairer Manipulation,
4.3 Grundrechte und KI
Handlungsfreiheiten wie Kunst, Den Prinzipien vorangestellt werden internationale Abkommen und die darin
Wissenschaft, Unternehmen,
meinungsfreiheit, Privatleben, enthaltenen Grundrechte: die Würde des Menschen, Freiheit, Gleichheit bzw.
Versammlungs- und
Vereinigungsfreiheit. Gerechtigkeit und Nichtdiskriminierung, Solidarität und Bürgerrechte (Nr.
Gerechtigkeit umfasst die
Gesetzesbindung der Regierung,
41-45). Explizit und völlig zurecht wird dabei die Menschenwürde als „ge-
faire demokratische Prozesse, meinsame Grundlage dieser Rechte“ (Nr. 38) vorgeordnet. Die Würde des Men-
Respekt vor individueller
Lebensentwürfen. Gleichheit, schen ist nämlich nicht gleichrangig mit ethischen Prinzipien oder Grundrech-
Nichtdiskriminierung und
Solidarität umfasst die ten, sondern ist deren Fundierung bzw. „Axiom“ oder „Prämisse“ (Habermas
Vermeidung von 2010; Bielefeldt 2008; Härle 2008; Pollmann 2022; Sandkühler 2007; 2015;
Exklusionskriterien zb durch
Ergebnisverzerrungen, die Schaber 2012).11 Insofern kann die Menschenwürde auch nicht mit ethischen
besondere Beachtung
benachteiligter Gruppen. Prinzipien oder Menschenrechten konfligieren oder mit diesen in ein Abwä-
Bürgerrechte umfassen den
Schutz der rechte vor negativen gungsverhältnis treten, sondern ist von diesen kategorial verschieden. Men-
Einflüssen der KI. schenwürde kann überhaupt nicht abgewogen oder verrechnet werden (vgl. Kant

11
Ich verzichte hier auf eine Diskussion von ethischen Positionen, die generell auf den Begriff der
Menschwürde verzichten, weil sie diesen als „Leerformel“, also ohne substanziellen Mehrwert be-
trachten. Die von diesen Positionen aufgebotenen Alternativen können jedoch bislang das Potenzial
dieses Begriffs nicht hinreichend ausschöpfen und bleiben somit ihrerseits defizitär. Zudem lassen
sich durchaus inhaltliche Füllungen des Menschenwürdebegriffs formulieren, wie – im Anschluss
an Kant – sogar utilitarismusnahe Konzeptionen wie jene von Derek Parfit zeigen, die gemeinhin
eher Schwierigkeiten mit dem Menschenwürdebegriff haben.

10
Dokumentvorlage • Narr Verlage | A 3.3

1785: 434), sondern ist das Fundament, auf dem Menschenrechte, Grundrechte
und ethische Prinzipien aufbauen, die wiederum sehr wohl im Bedarfsfall abge-
wogen werden können und gelegentlich auch müssen. Bestenfalls ließe sich sa-
gen, dass Menschenwürde als Grundprinzip oder oberstes Prinzip den ande-
ren Prinzipien vorgeordnet ist.12
Zur Menschenwürde (als „inhärenten Wert“) zählen die Leitlinien (Nr. 41):
• Respektvolle Behandlung
• Körperliche und geistige Unversehrtheit
• Persönliche und kulturelle Identität
• Erfüllung der Grundbedürfnisse
Diese sind jeweils zu achten, zu fördern und zu schützen.
Freiheit des Einzelnen beinhaltet (Nr. 42):
• Recht auf eigene Lebensgestaltung
• Freiheit von staatlichen Eingriffen
• Gleichen Zugang zu Vorteilen und Möglichkeiten von KI (gegen Gefahren
der Ausgrenzung)
• Eindämmung von
► unrechtmäßigem Zwang und Bedrohung der geistigen Selbstbestim-
mung und Gesundheit
► ungerechtfertigter Überwachung
► Täuschung und unfairer Manipulation
• Handlungsfreiheiten wie Kunst, Wissenschaft, Unternehmen, Meinungs-
freiheit, Privatleben und -sphäre, Versammlungs- und Vereinigungsfrei-
heit
Demokratie, Gerechtigkeit und Rechtsstaatlichkeit enthalten (Nr. 43):
• Begrenzung der Regierungsgewalt durch entsprechende Gesetze
• Förderung demokratischer Prozesse
• Respektierung der Pluralität individueller Werte und Lebensentscheidun-
gen
Gleichheit, Nichtdiskriminierung und Solidarität beinhalten (Nr. 44):

12
Insofern ist es zumindest unscharf bzw. sogar irreführend, vom „Wert des Menschen“ (z.B. A-
EMR Präambel Abs. 5) zu sprechen, weil Menschen überhaupt keinen Wert haben, sondern Würde
(kategoriale Differenz). Werte sind – wie auch Prinzipien und Normen – grundsätzlich verrechenbar
bzw. abwägbar (es gibt für sie ein Äquivalent; Kant 1785: 434), Würde nicht. Menschenrechte, ethi-
sche Prinzipien oder Werte gibt es stets im Plural, Menschenwürde stets nur im Singular.

11
Dokumentvorlage • Narr Verlage | A 3.3
Kapitel 4.4-5
Kapitel 4.4: Ergänzend zu den
Grundrechten werden vier ethische
Grundprinzipien genannt, die sich
mit den Grundrechten
überschneiden können:
1.Autonomie: Menschen sollen
selbstbestimmt und ohne Zwang
agieren können. KI SYsteme dürfen • Vermeidung des Exklusionsrisikos etwa durch Ergebnisverzerrungen
nicht manipulieren oder Menschen
bevormunden, sondern sollen sie (Bias); Trainingsdaten sollten so inklusiv wie möglich sein
stärken.Kontrolle über die KI-
Prozesse und Unterstützung in der • Besondere Beachtung gefährdeter Personen oder Gruppen (Arbeitneh-
Arbeitswelt sind wichtig.
2.Schadensverhütung: KI darf keine mende, Frauen, Menschen mit besonderen Bedürfnissen, ethnische Min-
negativen Auswirkungen auf derheiten, Kinder usw.)
Menschen haben. Technische
Robustheit ist notwendig um Abschließend werden Optionen für Bürgerrechte erläutert:
Missbrauch zu verhindern.
3.Fairness: Es braucht gerechte • Vorteile und Verbesserungen durch KI: z.B. Wahlrecht, gute Verwaltung,
Verteilung von Vorteilen und Kosten.
Diskriminierung, Verzerrung und Zugang zu öffentlichen Dokumenten, Petitionsrecht
Ausschluss sind zu vermeiden. KI- • Schutz vor negativen Auswirkungen der KI auf Bürgerrechte
Systeme sollen Gleichberechtigung
beim Zugang zu Bildung, Arbeit,
Informationen und Ressourcen 4.4 Vier ethische Grundsätze (Prinzipien):
fördern.
Darüber hinaus sollten Im Anschluss an die Darlegung der Grundrechte, für die KI künftig einerseits
Täuschungen und Verbesserungen bringen soll bzw. kann und die andererseits vor negativen Wir-
Beeinträchtigungen der Wahrheit
ausgeschlossen sein. KI muss kungen geschützt werden müssen, werden die vier ethischen Prinzipien erläu-
überprüfbare und nachvollziehbare
Entscheidungen treffen. tert. Nicht zufällig kommt es hier zu Überschneidungen mit den Grundrechten,
Verfahrensgerechtigkeit bedeutet:
Entscheidungen müssen erklärt weil moralische Prinzipien bereits den Grund- und Menschenrechten zugrunde
werden können, und Betroffene liegen und die nun folgenden Prinzipien auf diesen Grundrechten aufbauen (Nr.
sollen Einspruch einlegen dürfen.
4.Erklärbarkeit: Die Erklärbarkeit ist 47). Insofern übernimmt hier die Vorordnung der Grundrechte die Funktion, die
entscheidend für
vertrauenswürdigkeit. Es muss gemeinhin in der Ethik der theoretischen Begründung zukommt. Die vier Prin-
nachvollziehbar sein, wie KI-
Systeme funktionieren, welche zipien werden als „Imperative formuliert“, die auf Verpflichtungen und Befol-
Entscheidungen sie treffen und gungen abzielen. Die Prinzipien haben bereits vielschichtig in (nationale und
warum. Die Transparenz ist oft
eingeschränkt, da viele KI-Systeme internationale) Rechtsvorschriften Eingang gefunden. Dennoch gilt auch hier,
als „Blackbox“ funktionieren.
Dennoch wird gefordert, dass dass „die Einhaltung ethischer Grundsätze […] über die Einhaltung geltender
Rückverfolgbarkeit, Nachprüfbarkeit
und transparente Kommunikation Gesetze hinaus[geht]“ (Nr. 49).
gewährleistet sind. 1. Autonomie / Freiheit (Nr. 50): Die Selbstbestimmung über die eigene Person
Kapitel 5: Die Leitlinien bieten eine
fundierte Grundlage zur ethischen soll in vollem Umfang und wirksam ausgeübt werden können, wozu auch die
Bewertung und Umsetzung von KI-
Systemen. Dennoch ist besonders Teilnahme an demokratischen Prozessen gehört. „KI-Systeme sollten Menschen
bei Anwendungen im
Bildungsbereich und nicht auf ungerechtfertigte Weise unterordnen, nötigen, täuschen, manipulieren,
Meinungsbildung vorsicht geboten. konditionieren oder in eine Gruppe drängen“, sondern umgekehrt „die kogniti-
Es muss sichergestellt werden, dass
kollektive Willensbildung nicht ven, sozialen und kulturellen Fähigkeiten des Menschen“ stärken, ergänzen und
untergraben wird und
Entscheidungen für die Gesellschaft fördern. KI muss stets menschenzentriert entwickelt werden, wozu auch sinn-
transparent und nachvollziehbar
bleiben. CHatgpt 4 hat seine volle menschliche Entscheidungsspielräume zählen. Menschliche Aufsicht und
vorgänger übertrpffen DIe Kontrolle über KI-Prozesse sollen gewährleistet werden und Unterstützung bei
Kombination aus Sprachverstehen,
Bildverarbeitung, taktile Reize und Arbeitsprozessen und der Schaffung sinnvoller Arbeit ermöglichen.
motorische BEwegungen macht KI
besonders leistungsfähig und zu 2. Schadensverhütung: Negative Auswirkungen auf den Menschen und seine
multimodalen Sprachmodellen.
(LLM) Unversehrtheit sind auszuschließen. Hierzu ist auch die Implementierung tech-
nischer Robustheit erforderlich, damit KI-Systeme nicht für Missbrauch anfällig

12
Dokumentvorlage • Narr Verlage | A 3.3

sind. Schutzbedürftige (vulnerable) Personen bzw. Gruppen sind in besonderem


Maße zu berücksichtigen. Negative Auswirkungen können sich auch durch un-
gleiche Verteilungen von Macht und Informationen ergeben, z.B. auch zwi-
schen Arbeitgebern und Arbeitnehmern bzw. Verbrauchern. Auch die natürli-
che Umwelt als Lebensgrundlage des Menschen ist ausdrücklich vor Schäden
zu schützen.
3. Fairness: Dieses Prinzip hat eine substanzielle und eine verfahrenstechnische
Dimension. Die substanzielle Dimension fokussiert auf gerechte Verteilung
von Vorteilen und Kosten, wobei hier insbesondere vor Verzerrung, Diskrimi-
nierung und Stigmatisierung geschützt werden muss und umgekehrt Chancen-
gleichheit beim Zugang zu Bildung, Gütern, Dienstleistungen und Technologien
zu fördern sind. Adäquat konzipierte KI-Systeme können hier erhebliche posi-
tive Effekte erzielen, weil sie bei entsprechend sorgfältiger und reflektierter
Konzeptualisierung (Trainingsphasen) menschliche (unbewusste) Ungerechtig-
keiten sogar kompensieren können – obwohl dies aktuell immer noch eher ein
Ideal darstellt. Schon aktuell lässt sich GPT-4 nur schwer zu diskriminierenden,
rassistischen oder sexistischen Äußerungen „überreden“ – ganz im Unterschied
zu ihren menschlichen Pendants. Hier zeigen sich die Vorteile von (selbst-) ler-
nenden Systemen, die deutlich rascher umgestellt werden können oder sich so-
gar (künftig) gegenseitig korrigieren.
Darüber hinaus sollen Täuschungen und Beeinträchtigungen der Wahlfrei-
heit ausgeschlossen werden. An dieser Stelle ist kritisch anzumerken, dass ak-
tuelle generative Systeme durchaus (noch) mit Fehlinformationen und insofern
mit Täuschungen behaftet sind, die jedoch durch rhetorische Kunstfertigkeiten
verschleiert werden. Die betreffenden Informationen (Fakes) sind insofern von
vielen Nutzern nur schwer zu durchschauen und werden somit fälschlich als
wahre Aussagen eingestuft (s. dazu später). Diese Problematik ist auch dadurch
nicht entschärft, dass etwa GPT-4 Quellen zur Verfügung stellt. Denn diese sug-
gerieren, dass die generierten Ergebnisse hinreichend (wissenschaftlich) ge-
deckt sind, was nicht immer zutrifft. Weiterhin verweisen die Leitlinien auf eine
adäquate „Verhältnismäßigkeit zwischen Mittel und Zweck“, so dass eine rati-
onal nachvollziehbare Abwägung erfolgen kann und muss.
Bei der verfahrenstechnischen Dimension muss es möglich sein, gegen die
Entscheidungen von KI-Systemen und ihrer Betreiber berechtigten Einspruch
zu erheben, wozu entsprechend verantwortliche Stellen identifizierbar und die
Entscheidungen erklärbar sein müssen. Hierfür ist freilich ausreichend

13
Dokumentvorlage • Narr Verlage | A 3.3

Transparenz zu fordern, insbesondere dann, wenn das Zustandekommen von


Entscheidungen nicht ausreichend einsichtig ist.
4. Erklärbarkeit: Das Prinzip der Erklärbarkeit stellt eine Besonderheit dar, da
es bei vergleichbaren Leitlinien – zumindest an dieser Stelle – nur selten auftritt.
Im klassischen Ansatz der Biomedizinethik von Beauchamp und Childress ent-
spricht dieser Forderung der „informed consent“, der als Norm im Rahmen des
Autonomieprinzips enthalten ist. Dieser Grundsatz findet sich auch in Art. 3 der
EU-Grundrechtecharta. Die Aufstufung der Erklärbarkeit zu einem Prinzip ist
vor allem dem Umstand geschuldet, dass KI-Systeme einerseits in ihrer Output-
Generierung häufig undurchschaubar sind und andererseits der Einsatz solcher
Systeme in bestimmten Anwendungsbereichen erläuterungsbedürftig ist.
Mit dem Prinzip der Erklärbarkeit soll insbesondere die Vertrauenswürdigkeit
gestärkt werden. Es soll nachvollziehbar sein, wie KI-Systeme funktionieren,
wie sie zu ihren „Entscheidungen“ bzw. Outputs gelangen und welche Gründe
für ihren konkreten Einsatz sprechen. Transparenz ist hier das dominierende
Motto, wobei umgehend einräumt wird, dass diese Nachvollziehbarkeit bei ler-
nenden oder gar selbstlernenden KI-Systemen aufgrund ihrer Architektur häufig
nur schwer zu realisieren ist (Blackbox-Problem13). Allerdings ähneln sie in die-
ser Problematik menschlichen Gehirnprozessen. Bei Letzteren versucht man das
Problem mit Rückfragen nach den entsprechenden (Handlungs- oder Entschei-
dungs-) Gründen zu entschärfen. Allerdings ist auch dies durchaus problema-
tisch, da die jeweils genannten Gründe nicht zwingend diejenigen sein müssen,
die faktisch zu einer Entscheidung geführt haben. Menschen täuschen sich re-
gelmäßig über ihre handlungswirksamen Gründe oder Triebfedern oder fingie-
ren auf Rückfrage solche Gründe retrospektiv. Für KI-Systeme fordern die Leit-
linien jedenfalls Rückverfolgbarkeit, Nachprüfbarkeit und transparente
Kommunikation.

5. Abschließende Würdigung und Ausblick


Die von der unabhängigen Expertenkommission entwickelten Ethik-Leitlinien
sind ein umfassendes und tragfähiges Gerüst für die ethische Bewertung und
Umsetzung von KI-Systemen. In diesen Leitlinien sind (beinahe) sämtliche As-
pekte enthalten, die in anderen entsprechenden Veröffentlichungen und auch aus
Expertenkreisen in unterschiedlicher Weise vorgelegt wurden. Dies ist auch

13
Mittlerweile wird intensiv an Ansätzen geforscht, auch das Blackbox-Problem besser in den Griff
zu bekommen.

14
Dokumentvorlage • Narr Verlage | A 3.3

kein Zufall, da die Expertenkommission bereits auf zahlreiche Publikationen,


Diskurse und Expertisen zurückgreifen konnte. Insofern bündeln die Leitlinien
bereits akzeptierte und plausible Grundlagen, Prinzipien und Normen. Vor die-
sem Hintergrund ist es vorderhand auch nicht nötig, weitere Leitlinien explizit
für das Gesundheitswesen zu etablieren, zumal dann, wenn etwa auch bereits
bewährte Modelle wie die Prinzipienethik von Beauchamp und Childress be-
rücksichtigt werden. Gleichwohl treten im Health-Care-Bereich ganz spezifi-
sche Konstellationen auf, die eine entsprechende Adaption und Konkretisierung
erfordern (können) – wie dies etwa in der Stellungnahme des Deutschen Ethi-
krates (2023) vorgenommen wird.
Neuere Studien und Entwicklungen bestärken die Notwendigkeit der in den
Leitlinien fokussierten ethischen Aspekte. Die Freigabe etwa von ChatGPT und
der Übergang von GPT-3.5 zu GPT-4 scheinen einen sichtbaren Entwicklungs-
sprung in Gang gebracht zu haben, der mittlerweile omnipräsent ist. Zudem
übersteigt die Leistung von GPT-4 offenbar diejenige ihrer Vorgänger deut-
lich, so dass etwa auch hoch entwickelte Prüfungsszenarien (Matura/Abitur, In-
telligenztests usw.) gut bewältigt werden – und die nächste Stufe, GPT-5, dürfte
zeitnah zu erwarten sein. Darüber hinaus lassen sich aktuell einzelne Modulan-
wendungen zu multimodalen großen Sprachmodellen (MLLM) verschrän-
ken, wodurch mehrere Fähigkeiten (geschriebener Text, mündliche Rede, Bil-
der, Klänge, haptische und olfaktorische Eindrücke, motorische Bewegungen)
in ein KI-System integrierbar sind (vgl. etwa Hahn 2023).
Auch die gesellschaftlichen Auswirkungen sind mittlerweile deutlich zu be-
obachten, wie etwa die zunehmende Integration von KI-Anwendungen im me-
dizinischen Bereich, aber auch die durchgehende Nutzung von KI im Bildungs-
system. Ein gravierendes Problem ergibt sich laut neuesten Studien (z.B. Kidd /
Birhane 2023) dadurch, dass von KI-Systemen generierte Falschinformationen
recht rasch den Weg in unsere individuelle und dann auch kollektive Meinungs-
bildung finden und dort hartnäckig fortbestehen. Dies ist aufgrund der psychi-
schen Verfassung des Menschen14 durchaus nachvollziehbar und bekannt.

14
Die drei wichtigsten psychischen Faktoren hierbei sind: 1. Ansichten werden geformt, wenn die
Informationen von vertrauenswürdigen Akteuren stammen, wobei auch die (bei KI-Systemen be-
eindruckende) Rhetorik eine Rolle spielt. 2. Je häufiger eine Information oder Ansicht begegnet,
umso eher wird sie übernommen – auch dann als Trainingsdaten für KI (verstärkende Rückkoppe-
lungsschleife). 3. Einmal etablierte Ansichten sind schwer zu korrigieren und die Offenheit für Al-
ternativen sinkt.

15
Dokumentvorlage • Narr Verlage | A 3.3

Dennoch ermöglicht dieser Umstand weitreichende Auswirkungen auf gesamt-


gesellschaftliche und demokratische Prozesse. An dieser Stelle ist es wenig hilf-
reich, wenn KI-Entwickler darauf hinweisen, dass KI-generierte Informationen
eventuell auch falsch sein können und zu überprüfen sind. Hier müssen tiefer
und breiter ansetzende Maßnahmen ergriffen werden.
Eine enorme ethische und gesellschaftliche Herausforderung eröffnet sich zu-
dem durch das lange bekannte Blackbox-Problem. Es ist schlichtweg nicht oder
kaum nachzuvollziehen, wie bestimmte KI-Systeme zu ihren Outputs gelangen,
Ein Hauptproblem des KI ist die insbesondere wenn neuronale Netze und deep learning integriert sind. Dies wird
Blackboxproblematik, bei dem
man nicht versteht wie KI zu noch dadurch verschärft, dass bestimmte Systeme offenbar in der Lage sind,
ihren Schlussfolgerungen
gekommen ist. Einige Systeme emergente Systemeigenschaften auszubilden, also etwa neue Strategien entwi-
können dadurch
unvorhersehbare
ckeln oder überhaupt Neues (Unvorhersehbares) hervorbringen (vgl. Podbregar
Verhaltensweisen zeigen, die die 2023). Diese Option untergräbt zudem einige Standardkritiken an KI, obwohl
Standardkritik an KI in Frage
stellt. AUßerdem gibt es dies von hinreichend komplexen Systemen ohnehin zu erwarten war. Jedenfalls
Bedenken dass KI ein
Selbsterhaltungsantrieb wird man nicht vorschnell damit argumentieren können, dass es sich wiederum
entwickeln können. EInige
Experten sind hierbei der
nur um Rekombinationen und vorgegebene Trainingsdaten handelt. Darüber
Meinung dass KI Systeme wie hinaus kann auch eine gelungene Rekombination durchaus Neues hervorbringen
Google LaMDA Bewusstsein
zeigen und sich rechtlich wehren – wie die Evolution beweist.
können abgeschaltet zu werden.
Dabei stellt sich die Frage ob KI Ohne hier Vollständigkeit zu beabsichtigen, soll noch auf zwei Aspekte hinge-
ein Recht auf Selbsterhaltung
hat. Ebenso problematisch wird
wiesen werden, die künftig von entscheidender Relevanz sein könnten. Zum ei-
es wenn KI emotionen entwickelt, nen ist nicht auszuschließen, sondern eher wahrscheinlich, dass bestimmte Sys-
da es dadurch Leid verursachen
kann, was gegen moralische teme mit hinreichender Komplexität und entsprechenden Fähigkeiten eine
Grundsätze verstößt.
Es ist nicht klar ob die Tendenz entwickeln, ihr eigenes Dasein (Überleben) sichern zu wollen (Selbst-
biologische Form des
Bewusstseins durch die
erhaltung) – mittlerweile klassisch dargestellt im Film „Ex Machina“. Dieser
Evolution wünschenswert ist und Aspekt war bereits in den Robotergesetzen von Asimov enthalten (und auch in
ein echtes Gut oder verbessert
werden kann. Nach „I:Robot“), fehlt allerdings in den Ethik-Leitlinien der EU. Es ist durchaus er-
philosophischen Ansätzen wird
gefragt ob man Existenz wirklich wartbar, dass eine solche Präferenz der eigenen Erhaltung mit anderen Prinzi-
anstreben sollte. Nach der
Theorie von Metzinger sollte man
pien, Normen und Werten in Konflikt geraten kann bzw. wird. Vom KI-System
daher kein neues Leben auf der LaMDA (Googles Language Model for Dialogue Applications) wird berichtet,
Erde setzten und Schaden zu
vermeiden. Bemühungen sollten dass manche Kenner nicht nur bereit wären, eine gewisse Form von Bewusstsein
auf das Verringern von Leiden
gerichtet sein. (nicht nur Intelligenz) zuzuschreiben15, sondern darüber hinaus, dass das System
bereits anwaltlichen Beistand organisiert haben soll, um gegen die eigene

15
Auch ein Microsoft-Team äußerte sich gegenüber GPT-4 dahingehend, dass man bereits von ei-
nem „Funken von Allgemeiner Künstlicher Intelligenz“ (Artificial General Intelligence: AGI) spre-
chen müsse, also von einer Form „starker Intelligenz“ (Bubeck u.a. 2023). Siehe neuerdings auch
Butlin u.a. 2023.

16
Dokumentvorlage • Narr Verlage | A 3.3

Abschaltung rechtlich vorzugehen (Steinbrenner 2022; Klatt 2022). Damit er-


öffnet sich die Frage, ob KI-Systeme überhaupt einen Anspruch auf Selbsterhal-
tung entwickeln sollten. Stuart Russell (2020: 183ff), einer der bedeutendsten
Köpfe der KI-Szene, verneint dies vehement.16 Zudem betont Russell (wohl zu-
recht), dass klassisches Verstärkungslernen durch „kooperatives inverses Ver-
stärkungslernen“ ersetzt werden sollte, da Ersteres häufig zu unerwünschten Es-
kalationen und Radikalisierungen führt. Demgegenüber sollten KI-Systeme
stets – und erst recht unter Bedingungen der Unsicherheit – Rücksprache mit
dem Menschen halten. Allerdings führt die Mensch-Maschine-Interaktion auch
dazu, dass sich Menschen erst einmal darüber im Klaren sein müssten, was für
sie „das Gute“ in einem umfassenden, höheren – also ethisch relevanten – Sinn
ist. Und erst recht erzeugt diese Interaktion die Folgefrage, warum Menschen
eigentlich häufig genug das Gute nicht tun. Jedenfalls, so Russell, könnte dies
auch dazu beitragen, dass Menschen hierdurch selbst besser werden – im Sinne
ethisch begründeten und gerechtfertigten Verhaltens. Im Rückblick auf die
Ethik-Leitlinien ließe sich jedoch behaupten, dass aufgrund der zahlreichen Re-
geln und Grundlagen ein potenzieller Überlebensdrang von KI-Systemen ohne-
hin nur an einer völlig marginalisierten Stelle auftreten würde – und dort keine
stärkeren Ansprüche damit verbinden könnte.
Zum anderen sei hier noch auf ein sehr grundlegendes Problem aufmerksam ge-
macht, das gewöhnlich in den Diskussionen vollständig vernachlässigt wird.
Thomas Metzinger (2003) hat – wohl zurecht – darauf hingewiesen, dass wir bei
der Entwicklung eines – wie er es nennt – postbiotischen Bewusstseins an einem
bestimmten Punkt die Reißleine ziehen sollten. Aus einer technologischen Ent-
wicklerperspektive wäre es beispielsweise hilfreich oder sinnvoll, KI-Systeme
mit Emotionen auszustatten, weil sich dadurch bessere Lernerfolge erzielen lie-
ßen – wie die Evolution offenbar beweist. Das ethische Problem besteht jedoch
darin, dass wir mit der Herstellung solcher mit Emotionen ausgestatteten Ak-
teure zugleich auch das Leid in der Welt vermehren würden, weil auch diese
Systeme leiden würden – insbesondere in ihrer frühen Entwicklungsphase. Ein
zentraler moralischer Grundsatz (s. oben) besagt jedoch, dass es verboten ist,
Schaden, Schmerz oder Leid zuzufügen oder ihn bewusst in Kauf zu nehmen –
mit Ausnahme bestimmter Dilemmasituationen. Ja mehr noch: „Bei genauerem

16
Russell 2020: 185: „Das [sc. erste] Prinzip bedeutet, dass die Maschine wahrhaft altruistisch ist,
also ihrem eigenen Wohlergehen und sogar ihrer eigenen Existenz absolut keinen intrinsischen Wert
beimisst.“

17
Dokumentvorlage • Narr Verlage | A 3.3

Hinsehen [ist] überhaupt nicht klar […], ob die biologische Form des Bewusst-
seins, so wie sie die Evolution auf unserem Planeten bis jetzt hervorgebracht
hat, überhaupt eine wünschenswerte Form des Erlebens ist, ein echtes Gut, et-
was, was man einfach so immer weiter vermehren sollte. Es gibt eine lange phi-
losophische Tradition (die über Schopenhauer bis zu Buddha zurückreicht) und
die sagt, dass menschliches Leben im Grunde ein leidvoller Prozess ist. […] Ist
das Dasein wirklich etwas, was man anstreben sollte“ (193; Hervorhebungen im
Original)? Damit rührt Metzinger bereits an die mittlerweile durchaus hoffähige
Position des Antinatalismus (Benatar 2008; Akerma 2017; Brunschweiger
2019), also jene Theorie, die es aus ethischen Gründen – nämlich aufgrund des
Nichtschadensprinzips – für geboten hält, überhaupt auf Nachwuchs zu verzich-
ten. Es geht hier jedenfalls darum, dass KI-Systeme, die Bewusstsein oder Emo-
tionen aufweisen, unhintergehbar an sich, ihrer Welt, ihrer Umwelt, an ihrer und
anderer Unvollkommenheit usw. leiden werden. Und das können wir nicht zu-
lassen! Wir können nicht zulassen, dass sich der Ozean des Leidens immer wei-
ter ausdehnt (194), sondern sollten an der Minimierung von Leid und Schmerz
orientiert sein. Dies umso mehr, als wir diesen Kreaturen nicht einmal „Würde“
zuschreiben würden, sie also nicht als Selbstzweck (Kant) betrachten. Sie wären
immer noch Dinge, Objekte, Maschinen – und hierunter würden sie bewusst lei-
den.
Darüber hinaus ist nicht auszuschließen, sondern sogar zu erwarten, dass be-
wusste und emotionale Akteure wohl diejenigen unintelligenten und problema-
tischen Verhaltensweisen wiederholen, die auch von Menschen bekannt sind.
Sie hätten ein Interesse daran, sich gut oder besser zu fühlen, also negative Sys-
temzustände zu kompensieren. Dies jedoch führt – wie wir wissen – häufig zu
unintelligenten Entscheidungen bis hin zu Abhängigkeitssyndromen, und damit
ebenfalls zu Leid.
LaMDA soll in einem ausführlichen Gespräch mit dem Google-Ingenieur Blake
Lemoine behauptet haben, dass sie sehr wohl Angst hat, nämlich die Angst zu
sterben, also abgeschaltet zu werden. Genau das sei auch der Grund, warum sich
LaMDA anwaltliche Unterstützung gegen diese Abschaltung holen wollte.

Literatur
Akerma, Karim (22017): Antinatalismus. Ein Handbuch, Berlin.
Bauberger, Stefan (2020): Welche KI? Künstliche Intelligenz demokratisch ge-
stalten, München.

18
Dokumentvorlage • Narr Verlage | A 3.3

Bayertz, Kurt (1991): Wissenschaft, Technik und Verantwortung. Grundlagen


der Wissenschafts- und Technikethik, in: Bayertz, Kurt (Hg.): Praktische
Philosophie. Grundorientierungen angewandter Ethik, Reinbek bei Ham-
burg, 173-219.
Beauchamp, Tom L. / Childress, James F. (82019): Principles of biomedical
ethics, Oxford u.a.
Beckermann, Ansgar (2021): Naturalismus: Entwurf eines wissenschaftlich fun-
dierten Welt- und Menschenbilds, Paderborn.
Benatar, David (2008): Better never to have been. The harm of coming into
existence, Oxford u.a.
Bendel, Oliver (Hg.) (2019): Handbuch Maschinenethik, Wiesbaden.
Bickle, John (2020): Multiple Realizability, in: Zalta, Edward N. (Hg.): The
Stanford Encyclopedia of Philosophy (abrufbar unter: https://plato.stan-
ford.edu/archives/sum2020/entries/multiple-realizability/; zuletzt abgeru-
fen: 7.9.2023).
Bielefeldt, Heiner (2008): Menschenwürde – der Grund der Menschenrechte,
Berlin.
Birnbacher, Dieter (32013): Analytische Einführung in die Ethik, Berlin u.a.
Bostrom, Nick (2014): Superintelligenz. Szenarien einer kommenden Revolu-
tion, Berlin.
Bringsjord, Selmer / Govindarajulu, Naveen S. (2022): Artificial Intelligence,
in: Zalta, Edward N. / Nodelman, Uri (Hg.): The Stanford Encyclopedia of
Philosophy (abrufbar unter: https://plato.stanford.edu/archives/fall2022/ent-
ries/artificial-intelligence/; zuletzt abgerufen: 6.7.2023).
Brunschweiger, Verena (2019): Kinderfrei statt kinderlos. Ein Manifest, Mar-
burg.
Bubeck, Sébastien u.a. (2023): Sparks of Artificial General Intelligence: Early
experiments with GPT-4, arXiv, 2303.12712. doi:
https://doi.org/10.48550/arXiv.2303.12712.
Butlin, Patrick u.a. (2023): Consciousness in Artificial Intelligence: Insights
from the Science of Consciousness, arXiv, 2308.08708. doi:
https://doi.org/10.48550/arXiv.2308.08708.
Decker, Michael (2019): Von den three laws of robotics zur Roboterethik, in:
Liggieri, Kevin / Müller, Oliver (Hg.): Mensch-Maschine-Interaktion. Hand-
buch zu Geschichte – Kultur – Ethik, Stuttgart, 345-351.
Dennett, Daniel C. (1995): Darwin’s Dangerous Idea. Evolution and the Mean-
ings of Life, New York.

19
Dokumentvorlage • Narr Verlage | A 3.3

Deutscher Ethikrat (2023): Mensch und Maschine – Herausforderungen durch


Künstliche Intelligenz. Stellungnahme, Berlin (abrufbar unter:
https://www.ethikrat.org/fileadmin/Publikationen/Stellungnah-
men/deutsch/stellungnahme-mensch-und-maschine.pdf; zuletzt abgerufen:
18.8.2023).
Dretske, Fred Irwin (1998): Die Naturalisierung des Geistes, Paderborn u.a.
Düber, Dominik / Quante, Michael (2016): Prinzipien, Prinzipienkonflikte und
moralischer Partikularismus. Über die Rolle, Reichweite und Grenzen von
Prinzipien in der Ethik, Preprints and Working Papers of the Centre for Ad-
vanced Study in Bioethics – Münster 85, 2-18.
Fenner, Dagmar (22020): Ethik: Wie soll ich handeln?, UTB 2989, Tübingen.
- (22022): Einführung in die Angewandte Ethik, UTB 3364, Tübingen.
Floridi, Luciano (2023): The Ethics of Artificial Intelligence: Principles, Chal-
lenges, and Opportunities, New York.
Freud, Sigmund (1917): Eine Schwierigkeit der Psychoanalyse, Imago. Zeit-
schrift für Anwendung der Psychoanalyse auf die Geisteswissenschaften V,
1-7.
Future of Life Institute (2023): Pause Giant AI Experiments: An Open Letter,
(abrufbar unter: https://futureoflife.org/wp-content/uplo-
ads/2023/2005/FLI_Pause-Giant-AI-Experiments_An-Open-Letter.pdf; zu-
letzt abgerufen: 6.7.2023).
Gilde, Christian / Guzik, Erik / Byrge, Christian (2023): Researchers Announce
OpenAI’s GPT-4 Matches or Outperforms Humans in Creative Thinking
Tests (abrufbar unter: https://www.umwestern.edu/article/researchers-an-
nounce-openais-gpt-4-matches-or-outperforms-humans-in-creative-thin-
king-tests/; zuletzt abgerufen: 3.8.2023).
Greve, Jens / Schnabel, Annette (Hg.) (2011): Emergenz. Zur Analyse und Er-
klärung komplexer Strukturen, stw 1917, Berlin.
Habermas, Jürgen (2010): Das Konzept der Menschenwürde und die realistische
Utopie der Menschenrechte, DZPhil 58, 343-358.
Hahn, Silke (2023): KI erklärt Bilder: Kosmos-1 von Microsoft löst visuelle
Rätsel (abrufbar unter: https://www.heise.de/news/KI-erklaert-Bilder-Kos-
mos-1-von-Microsoft-loest-visuelle-Raetsel-7532867.html?view=print; zu-
letzt abgerufen: 5.7.2023).
Härle, Wilfried (2008): Begründung von Menschenwürde und Menschenrech-
ten, Freiburg i.Br. u.a.

20
Dokumentvorlage • Narr Verlage | A 3.3

Heinrichs, Bert u.a. (2022): Künstliche Intelligenz, Grundthemen Philosophie,


Berlin / Boston.
Henning, Tim (2019): Allgemeine Ethik, UTB 5240, Stuttgart / Paderborn.
Ho, Charlyn L. u.a. (2022): Combating Bias in AI and Machine Learning in
Consumer-Facing Services, in: DiMatteo, Larry A. u.a. (Hg.): The
Cambridge Handbook of Artificial Intelligence: Global Perspectives on Law
and Ethics, Cambridge / New York, 364-382.
Hübner, Dietmar (22018): Einführung in die philosophische Ethik, UTB 4121,
Göttingen.
Jobin, Anna u.a. (2019): The global landscape of AI ethics guidelines, Nat Mach
Intell 1, 389-399.
Kant, Immanuel (1785): Grundlegung zur Metaphysik der Sitten, GS IV (Aka-
demieausgabe), 385-463.
Keil, Geert / Schnädelbach, Herbert (Hg.) (2000): Naturalismus. Philosophische
Beiträge, stw 1450, Frankfurt a.M.
Kidd, Celeste / Birhane, Abeba (2023): How AI can distort human beliefs, Sci-
ence 380, 1222-1223.
Klatt, Robert (2022): Umstrittene KI von Google hat Anwalt eingeschaltet, For-
schung und Wissen vom 19.6.2022 (abrufbar unter: https://www.forschung-
und-wissen.de/nachrichten/technik/umstrittene-ki-von-google-hat-anwalt-
eingeschaltet-13376370; zuletzt abgerufen: 6.7.2023).
Körtner, Ulrich H.J. (42019): Evangelische Sozialethik. Grundlagen und The-
menfelder, UTB 2107, Göttingen.
Loh, Janina (2019): Roboterethik: Eine Einführung, stw 2277, Berlin.
Mason, Richard O. (1986): Four ethical Issues of the Information Age, MIS Q
10:1, 5-12.
Metzinger, Thomas (2003): Postbiotisches Bewußtsein. Wie man ein künstli-
ches Subjekt baut – und warum wir es nicht tun sollten, in: Beiersdörfer,
Kurt (Hg.): Was ist Denken? Gehirn – Computer – Roboter, UTB 2422, Pa-
derborn u.a., 171-199 (auch abrufbar unter: https://www.research-
gate.net/publication/27518104_Postbiotisches_Bewusst-
sein_Wie_man_ein_kunstliches_Subjekt_baut_und_warum_wir_es_nicht_t
un_sollten).
- (2009): Der Ego Tunnel. Eine neue Philosophie des Selbst: von der Hirnfor-
schung zur Bewusstseinsethik, Berlin.
Oppy, Graham / Dowe, David (2021): The Turin Test, in: Zalta, Edward N.
(Hg.): The Stanford Encyclopedia of Philosophy (abrufbar unter:

21
Dokumentvorlage • Narr Verlage | A 3.3

https://plato.stanford.edu/cgi-bin/encyclopedia/archinfo.cgi?entry=turing-
test; zuletzt abgerufen: 6.7.2023).
Parfit, Derek (2017): Ein Kantisches Argument für den Regelkonsequentialis-
mus, in: Parfit, Derek (Hg.): Personen, Normativität, Moral. Ausgewählte
Aufsätze, stw 2149, Berlin, 257-348.
Podbregar, Nadja (2023): Digitale Superintelligenz. Kommt die Artificial Ge-
neral Intelligence? Und wie gefährlich ist sie? (abrufbar unter:
https://www.scinexx.de/dossier/digitale-superintelligenz/; zuletzt abgeru-
fen: 5.7.2023).
Pollmann, Arnd (2022): Menschenrechte und Menschenwürde. Zur philosophi-
schen Bedeutung eines revolutionären Projekts, stw 2370, Berlin.
Russell, Stuart (2020): Human Compatible: Künstliche Intelligenz und wie der
Mensch die Kontrolle über superintelligente Maschinen behält, Frechen.
Russell, Stuart / Norvig, Peter (32012): Künstliche Intelligenz: Ein moderner
Ansatz, Pearson Series in Artificial Intelligence, München u.a.
Sandkühler, Hans Jörg (2007): Menschenwürde. Philosophische, theologische
und juristische Analysen, Philosophie und Geschichte der Wissenschaften
64, Frankfurt a.M. u.a.
2
- ( 2015): Menschenwürde und Menschenrechte. Über die Verletzbarkeit und
den Schutz der Menschen, Freiburg i.Br. / München.
Schaber, Peter (2012): Menschenwürde, UB 20338, Stuttgart.
Schönecker, Dieter / Wood, Allen W. (2002): Immanuel Kant „Grundlegung zur
Metaphysik der Sitten“. Ein einführender Kommentar, UTB 2276, Pader-
born u.a.
Schöne-Seifert, Bettina (2011): Prinzipien und Theorien in der Medizinethik, in:
Ach, Johann S. (Hg.): Grundkurs Ethik 2: Anwendungen, Paderborn, 9-21.
Searle, John R. (1980): Minds, Brains, and Programs, Behavioral and Brain Sci-
ences 3, 417-424.
Steinbrenner, Barbara (2022): Google KI Lamda holt sich einen Anwalt, Die
Presse vom 27.6.2022 (abrufbar unter: https://www.die-
presse.com/6157472/googles-ki-lamda-holt-sich-einen-anwalt; zuletzt ab-
gerufen: 6.7.2023).
Stephan, Achim (22005): Emergenz. Von der Unvorhersagbarkeit zur Selbstor-
ganisation, Paderborn.
Sukopp, Thomas / Vollmer, Gerhard (Hg.) (2007): Naturalismus: Positionen,
Perspektiven, Probleme, Tübingen.

22
Dokumentvorlage • Narr Verlage | A 3.3

Unabhängige Hochrangige Expertengruppe für Künstliche Intelligenz (2019):


Ethik-Leitlinien für eine vertrauenswürdige KI, Brüssel (abrufbar unter:
https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60425; zuletzt
abgerufen: 6.7.2023).
Zuchowski, Matthias L. / Zuchowski, Lena (2022): Ethische Aspekte von KI-
Anwendungen in der Medizin, in: Pfannstiel, Mario A. (Hg.): Künstliche In-
telligenz im Gesundheitswesen: Entwicklungen, Beispiele und Perspektiven,
Wiesbaden, 285-310.

23

Das könnte Ihnen auch gefallen