AP0CRYPH0N DIY Disappearing Ink
AP0CRYPH0N DIY Disappearing Ink
1. Hinführung
Spätestens seit ChatGPT und GPT-4 (integriert in MS Edge) ist „Künstliche In-
telligenz“ kein Thema mehr von Spezialisten, sondern in der breiten Öffentlich-
keit angekommen. Hier wird es auch intensiv genutzt, so dass z.B. Bildungsein-
richtungen hektisch nach plausiblen Umgangsformen für KI-generierte
Arbeitsaufträge oder Prüfungen suchen. Mittlerweile überschlagen sich die me-
dialen Berichterstattungen beinahe im Tagesrhythmus mit neuen „Errungen-
schaften“ und Durchbrüchen in sämtlichen Lebensbereichen. Da generative KI-
Systeme gekommen sind, um zu bleiben, ist das Ende der Fahnenstange noch
kaum abzusehen – und damit auch nicht die damit verbundenen gesellschaftli-
chen Herausforderungen. Ob die bekannten Probleme wie Rassismus, Sexismus,
Verzerrungen (der berüchtigte Bias1), schlichtweg falsche, aber glaubwürdig
kommunizierte Inhalte (Fakes) usw. mit der Zeit schrittweise zurückgehen oder
umgekehrt sogar zunehmen, ist bislang noch nicht abzusehen. GPT-4 in MS
Edge bietet zumindest überprüfbare Quellen in den Ergebnissen an.
Nutzen und Chancen von KI-Systemen sind derart offensichtlich, dass sie mitt-
lerweile in beinahe allen gesellschaftlichen Subsystemen zum Einsatz kommen
– auch wenn nicht überall KI drin ist, wo KI draufsteht. Parallel dazu und auf-
grund der rasanten Entwicklungen steigen jedoch auch die Sorgen und Befürch-
tungen, so dass fieberhaft nach passenden Regulierungen gesucht wird und etwa
in den USA zahlreiche Expert*innen aus Forschung und Tech-Branche (u.a.
Steve Wozniak, Elon Musk, Stuart Russell, Yuval Noah Harari, Max Tegmark)
in einem offenen Brief eine halbjährige Entwicklungspause gefordert haben –
mit voraussichtlich geringem Erfolg (Future for Life Institute 2023).2
Der vorliegende Beitrag beschäftigt sich primär mit den ethischen Aspekten und
Herausforderungen, die sich für die Gesellschaft insgesamt, aber auch für das
Gesundheitswesen aus diesen neuen Entwicklungen ergeben. In einem zweiten
1
Siehe dazu auch: Ho u.a. 2022.
2
Italien verordnete im Frühjahr 2023 eine einmonatige Sperre von ChatGPT.
1
Dokumentvorlage • Narr Verlage | A 3.3
Artikel wird auf spezifische Themenfelder im Rahmen von Bildungs- und For-
schungsprozessen eingegangen.
Kapitel 2-3
Kapitel 2:Intelligenz= ein Bündel
2. Wie intelligent ist Künstliche Intelligenz – oder kann
von Fähigkeiten und
Kompetenzen zur
präferenzorientierten
sie werden?
Zielerreichung. Unklar on man KI
als intelligent bezeichnen kann
da meschliche und künstliche Eine tief in die philosophische Reflexion reichende Frage beschäftigt sich damit,
Intelligenz sich voneinander
unterscheiden. Deswegen Begriff ob es gerechtfertigt ist, bei den neuen generativen Algorithmen überhaupt von
der Intelligenz in KI vermeidbar
durch Begriffe wie machine
learning, jedoch ist KI schon in
Intelligenz zu sprechen (vgl. den guten Überblick von Heinrichs u.a. 2022).
allgemeiner sprache
durchgesetzt. Es besteht die Denn offensichtlich unterscheiden sich diese Systeme erheblich von dem, was
Frage ob für Intelligenz
physische Bestandteile Menschen üblicherweise unter Intelligenz verstehen. Erschwerend kommt
notwendig sind. Evolutionär ist
das der Fall (multiple
Realisierung). Es geht nicht nur
hinzu, dass offenbar kein allgemein akzeptierter Begriff von Intelligenz (und
um physische Bestandteile,
sondern um damit auch nicht von KI) zur Verfügung steht, der als Testkriterium herangezo-
Systemkonfigurationen. Man
kann bei KI Ansätze von gen werden könnte.3 Folgerichtig wird die Diskussion bislang auch recht kont-
Bewusstseineentwicklung sehen
(Entwicklung hin zu einer
Superintelligenz). Es bleibt
rovers geführt. Allerdings macht es wenig Sinn, alleine aufgrund dieses Um-
ebenfalls die Frage inwieweit
Intelligenz ein Bewusstsein standes künstlichen Systemen Intelligenz rundweg abzusprechen. Denn sollte
voraussetzt.
Turnitin Test = Test zur der Begriff so offensichtlich unklar sein, warum sollte man ihn dann überhaupt
Überprüfung ob ein menschlicher
Kommunikator zwischen Mensch
und KI unterscheiden kann beim
auf Menschen (oder sich selbst) anwenden? Jedenfalls wird man sich nicht zu
reden. Menschlichess Verhalten
ist auch nicht rein intelligent, weit hinauslehnen, wenn man unter Intelligenz ein Bündel von Fähigkeiten
jedoch denken Menschen erst
unter bestimmten bedingungen und/oder Kompetenzen zur präferenzorientierten Zielerreichung subsumiert,
rational, welches Konsequenzen
für KI Modellierungen hat.
In jeder Konstruktion intelligenter
wie etwa Wahrnehmung, Sprach- und/oder Informationsverarbeitung, Prob-
Maschinen müssen Wertungen
einfließen. lemlösung, Entscheidungsfindung, Anpassung an neue Situationen, Kreativität4,
Kapitel 3: Ethik= selbstreflexive
Theorie der Moral, die (logisches) Denken. Wie weit sämtliche dieser Eigenschaften vorliegen müssen,
menschliches Handeln anhand
Gut und Böse überprüft. Ethik
fragt wie man handeln soll
um von Intelligenz zu sprechen, ist strittig, zumal die einzelnen Begriffe ihrer-
(Suche nach dem Guten),
vernunftgeleitet. Sie geht dabei seits erläuterungsbedürftig sind. Daneben können noch Bereiche unterschieden
methodisch vor anhand
Argumenten und Gründen. Ethik werden, in denen jeweils Intelligenz in Erscheinung tritt, z.B. räumliche, soziale,
und Moral zsm beschreiben ein
Bündel von Regeln für
gesellschaftliches
körperlich-kinästhetische, musikalische, sprachliche, logisch-mathematische,
Zusammenleben. Moral bildet
umfassenden Rahmen für interpersonelle, intrapersonelle usw. Intelligenz.
individuelles und soziales
Handeln. Moral braucht Ethik, da Das Ausgangsproblem, also die Frage nach der Intelligenz von KI, ließe sich
Moral selbst nicht immer dem
Guten entspricht, wie zb in
Konfliktsituationen.
freilich elegant umgehen, indem man den Begriff „Intelligenz“ für generative
Algorithmen überhaupt vermeidet oder – noch grundsätzlicher – gänzlich
3
Auffällig ist, dass weder die Stanford Encyclopedia of Philosophy noch Wikipedia einen passenden
Artikel hierzu bereithalten.
4
Eine aktuelle Studie (Gilde / Guzik / Byrge 2023) zeigt, dass generative Algorithmen in Kreativi-
tätstests sogar besser abschneiden als 99% (!) der (menschlichen) Teilnehmenden. Freilich ist auch
diese Untersuchung mit Vorsicht zu interpretieren, worauf die Autoren selbst hinweisen.
2
Dokumentvorlage • Narr Verlage | A 3.3
3
Dokumentvorlage • Narr Verlage | A 3.3
5
Auf die intensive Debatte um das berühmte Chinese-Room-Argument von John Searle (1980) gehe
ich hier nicht ein – und gehe davon aus, dass es mittlerweile einiges an Tragfähigkeit eingebüßt hat.
4
Dokumentvorlage • Narr Verlage | A 3.3
5
Dokumentvorlage • Narr Verlage | A 3.3
Guten, das durch kritische Reflexion, also vernunftgeleitet, eruiert werden soll.
Dabei hat die Ethik stets unparteiisch, unvoreingenommen, neutral, sachlich,
Kapitel 4-4.1
Kapitel 4: Grundlegende Robotergesetzte
objektiv, nüchtern und distanziert zu sein – auch wenn dies weitgehend ein (un-
von Isaac Asimov haben sich als
unzureichend erwiesen,da sie komplexe verzichtbares) Ideal darstellt (Birnbacher 2013: 2ff). Sie geht dabei methodisch
ethische Diskussionen zu sehr
vereinfachen und häufig zu falschen vor, d.h., dass sie transparent und nachvollziehbar anhand gültiger Standards
Ergebnissen führen. Stattdessen wird ein
anderes Konzept befürwortet, das
Prinzipienkonzept, weil dies flexibel genug
z.B. in Konfliktsituationen zu gerechtfertigten Lösungen anhand von Gründen
ist um es an unterschiedliche Bereiche
anzupassen. Im Gesundheitsbereich und Argumenten kommen möchte. Als kritische Reflexionsgestalt der Moral
dienst der prinzipienbasierte Ansatz von
Childress als Standardmodell, das von der sind die Aufgaben der Ethik aber grundsätzlich noch erheblich weiter gespannt.
Akzeptanz moralischer Prinzipien
ausgeht.
In der ethischen Diskussion sind vier
Damit unterscheidet sich Ethik von Moral, die ein Bündel von unerlässlichen
Prinzipien verankert: Autonomie, Nicht-
Malefizium, Benefizium und Gerechtigkeit. und (mehr oder minder akzeptierten) Regeln für das gesellschaftliche Zusam-
Sie bilden die moralischen Grundlagen der
Menschenrechtskonventionen. DIese menleben beschreibt. Sie enthält als gelebte Moral Gewohnheiten, Konventio-
Prinzipien müssen von Fall zu Fall
interpretiert werden. In den
Robotergesetzten beispielsweise wird
nen, Prinzipien, Normen, (moralische) Werte, Ideale usw., die in einer Gesell-
nach einer automatischen Reihenfolge der
Regeln ausgegangen, um „richtige“ schaft oder Gruppe akzeptiert werden und einen normativen Anspruch erheben
ethische Ergebnisse zu erzielen, aber
solche Ergebnisse existieren in der Ethik (vgl. Fenner 2020: 11ff; Hübner 2018: 11ff; Henning 2019: 11ff). Moral bildet
nicht.
Kapitel 4.1:In diesem Zusammenhang
kann man auf die ethischen Leitlinien der
folglich einen umfassenden Orientierungsrahmen für individuelles und soziales
„unabhängigen hochrangigen
Expertengruppe für KI“ der europäischen Handeln und ist demzufolge unverzichtbar. Sie bedarf jedoch der Ethik, weil in
Komission verweisen. SIe dienen zu
Regulierungsprozessen in KI, wie KI- der Moral selbst noch nicht geklärt ist, ob moralische Vorstellungen oder Über-
Gesetze, und stehen im EInklang mit
anderen ethischen Entwürfen zu KI. In den
ethischen Leitlinien des HEG-KI spiegeln
zeugungen tatsächlich dem Guten entsprechen. Moral ist zudem stets zweideutig
sich die zuvor genannten ethischen
Prinzipien in modifizierter Form wider und und auch widersprüchlich. Besonders in moralischen Konfliktsituationen ist
dienen als Leitfaden für ethische
Reflexion. Damit wird Europa als Vorreiter ethisches Reflektieren unumgänglich, um zu plausiblen Lösungen zu gelangen.
in Sachen KI Leitlinien.
Die ethlischen Leitlinien gliedern sich in 3
Bereiche: 1.:ethische Grundlagen
Während es bei grundlegenden (moralischen) Werten, Normen und Prinzipien
2.:Konkretisierung von ANforderungen
3.:Checkliste für Umsetzungen. Im einerseits eine gewisse transkulturelle Homogenität zu geben scheint (common
Mittelpunkt stehen Realisierung von
vertrauenswürdigen KI-Systemen, die morality), erweist sich diese andererseits in konkreten Realisierungen als kultu-
jedoch wiederum den Menschen als
Mittelpunkt stehen haben müssen. Im
Bereich der Medizin wurde dafür 2023 von
rell und historisch divergent – bis hinein in unterschiedliche nationale Gesetz-
dem Deutschen Ethikrat Stellungnahmen
veröffentlicht. gebungen.
4. Ethik für KI
Im Laufe der Geschichte der Ethik haben sich einige Grundpositionen und zahl-
reiche Variationen herausgebildet, auf die in unserem Kontext nicht eingegan-
gen wird. Für unsere Zwecke ist es ausreichend, auf ganz bestimmte (morali-
sche) Prinzipien und daraus resultierende Normen abzustellen, die sich
einerseits dadurch empfehlen, dass sie Aussicht auf allgemeine Akzeptanz be-
anspruchen können (common morality) und die sich andererseits im gesamten
ethischen Diskurs als maßgeblich herauskristallisiert haben. Vor diesem Hinter-
grund zeigt sich, dass KI zwar als disruptive Entwicklung innerhalb gesell-
schaftlicher Digitalisierungsprozesse in Erscheinung tritt und Abwehrstrategien
und Ängste bzw. Sorgen durchaus verständlich sind. Gleichwohl gestaltet sich
6
Dokumentvorlage • Narr Verlage | A 3.3
6
Kant 1785. Kritische Erörterungen zu Kants Beispielen finden sich etwa bei: Schönecker / Wood
2002; Parfit 2017.
7
Unter Bereichsethiken versteht man Teilbereiche der Angewandten Ethik, die jeweils einen größe-
ren Themenbereich umfassen und mittlerweile ein bestimmtes Expert*innenwissen erfordern. Um-
fang, Abgrenzungen und Bezeichnungen können dabei allerdings wechseln. Klassische Bereich-
sethiken sind etwa Medizinethik, Wissenschaftsethik, Technikethik, Wirtschaftsethik, Medienethik,
Politische Ethik usw. Die zunehmende Ausdifferenzierung innerhalb der Wissenschaften führt
zwangsläufig zum Entstehen weiterer Bereichsethik, wie etwa Neuroethik, Pflegeethik, Digitale
Ethik usw. (vgl. etwa Fenner 2022: 50ff).
7
Dokumentvorlage • Narr Verlage | A 3.3
8
Im März 2023 hat auch der Deutsche Ethikrat eine umfangreiche Stellungnahme vorgelegt, die
zudem einige „ausgewählte Anwendungen und sektorspezifische Empfehlungen“ (Medizin, Bil-
dung, Öffentliche Kommunikation und Meinungsbildung und Öffentliche Verwaltung) enthält und
darüber hinaus „Querschnittsthemen und übergreifende Empfehlungen“ erörtert.
8
Dokumentvorlage • Narr Verlage | A 3.3
9
Die Nummern beziehen sich auf die Nummerierung des deutschen Textes der Leitlinien und sind
dort am linken Rand vermerkt.
10
Die von einigen Autoren vorgetragene Kritik (Zuchowski / Zuchowski 2022), KI-Systeme könn-
ten überhaupt nicht vertrauenswürdig sein, sondern lediglich oder bestenfalls verlässlich, ist m.E.
überzogen und wird – entgegen der Intention der Autorn – den lebensweltlichen Realitäten nicht
gerecht.
9
Dokumentvorlage • Narr Verlage | A 3.3
Kapitel 4.2-4.3
Kapitel 4.2: Die Leitlinien basieren
auf ethische Prinzipien und sollen
verantwortungsvollen Umgang mit
KI fördern. Im Fokus stehen
international anerkannte
Grundrechte. Jede Leitlinie muss
kritisch geprüft und angepasst
werden. Die Leitlinien richten sich an sämtliche Akteure, die bei „Gestaltung, Entwick-
Kapitel 4.3: Bei den Grundrechten
und KI sind Grundlagen
lung, Einführung, Umsetzung oder Nutzung“ beteiligt oder betroffen sind, also
internationale Abkommen mit z.B. Unternehmen, Organisationen, Forschende, öffentlicher Dienste, Behörden,
Werten wie die Würde des
Menschen, Freiheit, Gleichheit, Institutionen, zivilgesellschaftliche Organisationen, Einzelpersonen, Arbeitneh-
Gerechtigkeit,
Nichtdiskriminierung Solidarität mende und Verbraucher (Nr. 19).
und Bürgerrechte. DIe
Menschenwürde steht dabei als 4.2 Ethische Verpflichtungen
oberstes Prinzip. dazu gehört:
respektvolle Behandlung, Im Folgenden sollen die ethischen Prinzipien (Grundsätze) der Leitlinien darge-
körperliche und geistige
Unversehrheit, persönliche und stellt und erläutert werden. Auf die die spezifizierenden Anforderungen und die
kulturelle Identität und die
Erfüllung der Grundbedürfnisse.
Bewertungsliste (ALTAI), die stärker auf die praktische Umsetzung fokussie-
Freiheit des EInzelnen umfasst: ren, wird im zweiten Beitrag eingegangen. Grundlage der ethischen Prinzipien
Rechte auf eigene
Lebensgestaltung, Freiheit von sind international vereinbarte Grundrechte. Zurecht weisen die Leitlinien aber
staatlichen EIngriffen, Gleichen
ZUgang zu Vorteilen und darauf hin, dass kein Ethikkodex und keine Leitlinie die jeweilige kritisch-ethi-
Möglichkeiten von KI,
Eindämmung von
sche Reflexion („ethische Vernunft“) ersetzen können (Nr. 36) – ein leider häu-
-unrechtmäßigen Zwang und fig anzutreffendes Missverständnis (s. oben). Dementsprechend muss diese Re-
Bedrohung der geistigen
Selbstbestimmung und flexion auf allen Ebenen des Umgangs mit KI gefordert und gefördert werden.
Gesundheit, -ungerechtfertigter
Überwachung, -Täuschung und
unfairer Manipulation,
4.3 Grundrechte und KI
Handlungsfreiheiten wie Kunst, Den Prinzipien vorangestellt werden internationale Abkommen und die darin
Wissenschaft, Unternehmen,
meinungsfreiheit, Privatleben, enthaltenen Grundrechte: die Würde des Menschen, Freiheit, Gleichheit bzw.
Versammlungs- und
Vereinigungsfreiheit. Gerechtigkeit und Nichtdiskriminierung, Solidarität und Bürgerrechte (Nr.
Gerechtigkeit umfasst die
Gesetzesbindung der Regierung,
41-45). Explizit und völlig zurecht wird dabei die Menschenwürde als „ge-
faire demokratische Prozesse, meinsame Grundlage dieser Rechte“ (Nr. 38) vorgeordnet. Die Würde des Men-
Respekt vor individueller
Lebensentwürfen. Gleichheit, schen ist nämlich nicht gleichrangig mit ethischen Prinzipien oder Grundrech-
Nichtdiskriminierung und
Solidarität umfasst die ten, sondern ist deren Fundierung bzw. „Axiom“ oder „Prämisse“ (Habermas
Vermeidung von 2010; Bielefeldt 2008; Härle 2008; Pollmann 2022; Sandkühler 2007; 2015;
Exklusionskriterien zb durch
Ergebnisverzerrungen, die Schaber 2012).11 Insofern kann die Menschenwürde auch nicht mit ethischen
besondere Beachtung
benachteiligter Gruppen. Prinzipien oder Menschenrechten konfligieren oder mit diesen in ein Abwä-
Bürgerrechte umfassen den
Schutz der rechte vor negativen gungsverhältnis treten, sondern ist von diesen kategorial verschieden. Men-
Einflüssen der KI. schenwürde kann überhaupt nicht abgewogen oder verrechnet werden (vgl. Kant
11
Ich verzichte hier auf eine Diskussion von ethischen Positionen, die generell auf den Begriff der
Menschwürde verzichten, weil sie diesen als „Leerformel“, also ohne substanziellen Mehrwert be-
trachten. Die von diesen Positionen aufgebotenen Alternativen können jedoch bislang das Potenzial
dieses Begriffs nicht hinreichend ausschöpfen und bleiben somit ihrerseits defizitär. Zudem lassen
sich durchaus inhaltliche Füllungen des Menschenwürdebegriffs formulieren, wie – im Anschluss
an Kant – sogar utilitarismusnahe Konzeptionen wie jene von Derek Parfit zeigen, die gemeinhin
eher Schwierigkeiten mit dem Menschenwürdebegriff haben.
10
Dokumentvorlage • Narr Verlage | A 3.3
1785: 434), sondern ist das Fundament, auf dem Menschenrechte, Grundrechte
und ethische Prinzipien aufbauen, die wiederum sehr wohl im Bedarfsfall abge-
wogen werden können und gelegentlich auch müssen. Bestenfalls ließe sich sa-
gen, dass Menschenwürde als Grundprinzip oder oberstes Prinzip den ande-
ren Prinzipien vorgeordnet ist.12
Zur Menschenwürde (als „inhärenten Wert“) zählen die Leitlinien (Nr. 41):
• Respektvolle Behandlung
• Körperliche und geistige Unversehrtheit
• Persönliche und kulturelle Identität
• Erfüllung der Grundbedürfnisse
Diese sind jeweils zu achten, zu fördern und zu schützen.
Freiheit des Einzelnen beinhaltet (Nr. 42):
• Recht auf eigene Lebensgestaltung
• Freiheit von staatlichen Eingriffen
• Gleichen Zugang zu Vorteilen und Möglichkeiten von KI (gegen Gefahren
der Ausgrenzung)
• Eindämmung von
► unrechtmäßigem Zwang und Bedrohung der geistigen Selbstbestim-
mung und Gesundheit
► ungerechtfertigter Überwachung
► Täuschung und unfairer Manipulation
• Handlungsfreiheiten wie Kunst, Wissenschaft, Unternehmen, Meinungs-
freiheit, Privatleben und -sphäre, Versammlungs- und Vereinigungsfrei-
heit
Demokratie, Gerechtigkeit und Rechtsstaatlichkeit enthalten (Nr. 43):
• Begrenzung der Regierungsgewalt durch entsprechende Gesetze
• Förderung demokratischer Prozesse
• Respektierung der Pluralität individueller Werte und Lebensentscheidun-
gen
Gleichheit, Nichtdiskriminierung und Solidarität beinhalten (Nr. 44):
12
Insofern ist es zumindest unscharf bzw. sogar irreführend, vom „Wert des Menschen“ (z.B. A-
EMR Präambel Abs. 5) zu sprechen, weil Menschen überhaupt keinen Wert haben, sondern Würde
(kategoriale Differenz). Werte sind – wie auch Prinzipien und Normen – grundsätzlich verrechenbar
bzw. abwägbar (es gibt für sie ein Äquivalent; Kant 1785: 434), Würde nicht. Menschenrechte, ethi-
sche Prinzipien oder Werte gibt es stets im Plural, Menschenwürde stets nur im Singular.
11
Dokumentvorlage • Narr Verlage | A 3.3
Kapitel 4.4-5
Kapitel 4.4: Ergänzend zu den
Grundrechten werden vier ethische
Grundprinzipien genannt, die sich
mit den Grundrechten
überschneiden können:
1.Autonomie: Menschen sollen
selbstbestimmt und ohne Zwang
agieren können. KI SYsteme dürfen • Vermeidung des Exklusionsrisikos etwa durch Ergebnisverzerrungen
nicht manipulieren oder Menschen
bevormunden, sondern sollen sie (Bias); Trainingsdaten sollten so inklusiv wie möglich sein
stärken.Kontrolle über die KI-
Prozesse und Unterstützung in der • Besondere Beachtung gefährdeter Personen oder Gruppen (Arbeitneh-
Arbeitswelt sind wichtig.
2.Schadensverhütung: KI darf keine mende, Frauen, Menschen mit besonderen Bedürfnissen, ethnische Min-
negativen Auswirkungen auf derheiten, Kinder usw.)
Menschen haben. Technische
Robustheit ist notwendig um Abschließend werden Optionen für Bürgerrechte erläutert:
Missbrauch zu verhindern.
3.Fairness: Es braucht gerechte • Vorteile und Verbesserungen durch KI: z.B. Wahlrecht, gute Verwaltung,
Verteilung von Vorteilen und Kosten.
Diskriminierung, Verzerrung und Zugang zu öffentlichen Dokumenten, Petitionsrecht
Ausschluss sind zu vermeiden. KI- • Schutz vor negativen Auswirkungen der KI auf Bürgerrechte
Systeme sollen Gleichberechtigung
beim Zugang zu Bildung, Arbeit,
Informationen und Ressourcen 4.4 Vier ethische Grundsätze (Prinzipien):
fördern.
Darüber hinaus sollten Im Anschluss an die Darlegung der Grundrechte, für die KI künftig einerseits
Täuschungen und Verbesserungen bringen soll bzw. kann und die andererseits vor negativen Wir-
Beeinträchtigungen der Wahrheit
ausgeschlossen sein. KI muss kungen geschützt werden müssen, werden die vier ethischen Prinzipien erläu-
überprüfbare und nachvollziehbare
Entscheidungen treffen. tert. Nicht zufällig kommt es hier zu Überschneidungen mit den Grundrechten,
Verfahrensgerechtigkeit bedeutet:
Entscheidungen müssen erklärt weil moralische Prinzipien bereits den Grund- und Menschenrechten zugrunde
werden können, und Betroffene liegen und die nun folgenden Prinzipien auf diesen Grundrechten aufbauen (Nr.
sollen Einspruch einlegen dürfen.
4.Erklärbarkeit: Die Erklärbarkeit ist 47). Insofern übernimmt hier die Vorordnung der Grundrechte die Funktion, die
entscheidend für
vertrauenswürdigkeit. Es muss gemeinhin in der Ethik der theoretischen Begründung zukommt. Die vier Prin-
nachvollziehbar sein, wie KI-
Systeme funktionieren, welche zipien werden als „Imperative formuliert“, die auf Verpflichtungen und Befol-
Entscheidungen sie treffen und gungen abzielen. Die Prinzipien haben bereits vielschichtig in (nationale und
warum. Die Transparenz ist oft
eingeschränkt, da viele KI-Systeme internationale) Rechtsvorschriften Eingang gefunden. Dennoch gilt auch hier,
als „Blackbox“ funktionieren.
Dennoch wird gefordert, dass dass „die Einhaltung ethischer Grundsätze […] über die Einhaltung geltender
Rückverfolgbarkeit, Nachprüfbarkeit
und transparente Kommunikation Gesetze hinaus[geht]“ (Nr. 49).
gewährleistet sind. 1. Autonomie / Freiheit (Nr. 50): Die Selbstbestimmung über die eigene Person
Kapitel 5: Die Leitlinien bieten eine
fundierte Grundlage zur ethischen soll in vollem Umfang und wirksam ausgeübt werden können, wozu auch die
Bewertung und Umsetzung von KI-
Systemen. Dennoch ist besonders Teilnahme an demokratischen Prozessen gehört. „KI-Systeme sollten Menschen
bei Anwendungen im
Bildungsbereich und nicht auf ungerechtfertigte Weise unterordnen, nötigen, täuschen, manipulieren,
Meinungsbildung vorsicht geboten. konditionieren oder in eine Gruppe drängen“, sondern umgekehrt „die kogniti-
Es muss sichergestellt werden, dass
kollektive Willensbildung nicht ven, sozialen und kulturellen Fähigkeiten des Menschen“ stärken, ergänzen und
untergraben wird und
Entscheidungen für die Gesellschaft fördern. KI muss stets menschenzentriert entwickelt werden, wozu auch sinn-
transparent und nachvollziehbar
bleiben. CHatgpt 4 hat seine volle menschliche Entscheidungsspielräume zählen. Menschliche Aufsicht und
vorgänger übertrpffen DIe Kontrolle über KI-Prozesse sollen gewährleistet werden und Unterstützung bei
Kombination aus Sprachverstehen,
Bildverarbeitung, taktile Reize und Arbeitsprozessen und der Schaffung sinnvoller Arbeit ermöglichen.
motorische BEwegungen macht KI
besonders leistungsfähig und zu 2. Schadensverhütung: Negative Auswirkungen auf den Menschen und seine
multimodalen Sprachmodellen.
(LLM) Unversehrtheit sind auszuschließen. Hierzu ist auch die Implementierung tech-
nischer Robustheit erforderlich, damit KI-Systeme nicht für Missbrauch anfällig
12
Dokumentvorlage • Narr Verlage | A 3.3
13
Dokumentvorlage • Narr Verlage | A 3.3
13
Mittlerweile wird intensiv an Ansätzen geforscht, auch das Blackbox-Problem besser in den Griff
zu bekommen.
14
Dokumentvorlage • Narr Verlage | A 3.3
14
Die drei wichtigsten psychischen Faktoren hierbei sind: 1. Ansichten werden geformt, wenn die
Informationen von vertrauenswürdigen Akteuren stammen, wobei auch die (bei KI-Systemen be-
eindruckende) Rhetorik eine Rolle spielt. 2. Je häufiger eine Information oder Ansicht begegnet,
umso eher wird sie übernommen – auch dann als Trainingsdaten für KI (verstärkende Rückkoppe-
lungsschleife). 3. Einmal etablierte Ansichten sind schwer zu korrigieren und die Offenheit für Al-
ternativen sinkt.
15
Dokumentvorlage • Narr Verlage | A 3.3
15
Auch ein Microsoft-Team äußerte sich gegenüber GPT-4 dahingehend, dass man bereits von ei-
nem „Funken von Allgemeiner Künstlicher Intelligenz“ (Artificial General Intelligence: AGI) spre-
chen müsse, also von einer Form „starker Intelligenz“ (Bubeck u.a. 2023). Siehe neuerdings auch
Butlin u.a. 2023.
16
Dokumentvorlage • Narr Verlage | A 3.3
16
Russell 2020: 185: „Das [sc. erste] Prinzip bedeutet, dass die Maschine wahrhaft altruistisch ist,
also ihrem eigenen Wohlergehen und sogar ihrer eigenen Existenz absolut keinen intrinsischen Wert
beimisst.“
17
Dokumentvorlage • Narr Verlage | A 3.3
Hinsehen [ist] überhaupt nicht klar […], ob die biologische Form des Bewusst-
seins, so wie sie die Evolution auf unserem Planeten bis jetzt hervorgebracht
hat, überhaupt eine wünschenswerte Form des Erlebens ist, ein echtes Gut, et-
was, was man einfach so immer weiter vermehren sollte. Es gibt eine lange phi-
losophische Tradition (die über Schopenhauer bis zu Buddha zurückreicht) und
die sagt, dass menschliches Leben im Grunde ein leidvoller Prozess ist. […] Ist
das Dasein wirklich etwas, was man anstreben sollte“ (193; Hervorhebungen im
Original)? Damit rührt Metzinger bereits an die mittlerweile durchaus hoffähige
Position des Antinatalismus (Benatar 2008; Akerma 2017; Brunschweiger
2019), also jene Theorie, die es aus ethischen Gründen – nämlich aufgrund des
Nichtschadensprinzips – für geboten hält, überhaupt auf Nachwuchs zu verzich-
ten. Es geht hier jedenfalls darum, dass KI-Systeme, die Bewusstsein oder Emo-
tionen aufweisen, unhintergehbar an sich, ihrer Welt, ihrer Umwelt, an ihrer und
anderer Unvollkommenheit usw. leiden werden. Und das können wir nicht zu-
lassen! Wir können nicht zulassen, dass sich der Ozean des Leidens immer wei-
ter ausdehnt (194), sondern sollten an der Minimierung von Leid und Schmerz
orientiert sein. Dies umso mehr, als wir diesen Kreaturen nicht einmal „Würde“
zuschreiben würden, sie also nicht als Selbstzweck (Kant) betrachten. Sie wären
immer noch Dinge, Objekte, Maschinen – und hierunter würden sie bewusst lei-
den.
Darüber hinaus ist nicht auszuschließen, sondern sogar zu erwarten, dass be-
wusste und emotionale Akteure wohl diejenigen unintelligenten und problema-
tischen Verhaltensweisen wiederholen, die auch von Menschen bekannt sind.
Sie hätten ein Interesse daran, sich gut oder besser zu fühlen, also negative Sys-
temzustände zu kompensieren. Dies jedoch führt – wie wir wissen – häufig zu
unintelligenten Entscheidungen bis hin zu Abhängigkeitssyndromen, und damit
ebenfalls zu Leid.
LaMDA soll in einem ausführlichen Gespräch mit dem Google-Ingenieur Blake
Lemoine behauptet haben, dass sie sehr wohl Angst hat, nämlich die Angst zu
sterben, also abgeschaltet zu werden. Genau das sei auch der Grund, warum sich
LaMDA anwaltliche Unterstützung gegen diese Abschaltung holen wollte.
Literatur
Akerma, Karim (22017): Antinatalismus. Ein Handbuch, Berlin.
Bauberger, Stefan (2020): Welche KI? Künstliche Intelligenz demokratisch ge-
stalten, München.
18
Dokumentvorlage • Narr Verlage | A 3.3
19
Dokumentvorlage • Narr Verlage | A 3.3
20
Dokumentvorlage • Narr Verlage | A 3.3
21
Dokumentvorlage • Narr Verlage | A 3.3
https://plato.stanford.edu/cgi-bin/encyclopedia/archinfo.cgi?entry=turing-
test; zuletzt abgerufen: 6.7.2023).
Parfit, Derek (2017): Ein Kantisches Argument für den Regelkonsequentialis-
mus, in: Parfit, Derek (Hg.): Personen, Normativität, Moral. Ausgewählte
Aufsätze, stw 2149, Berlin, 257-348.
Podbregar, Nadja (2023): Digitale Superintelligenz. Kommt die Artificial Ge-
neral Intelligence? Und wie gefährlich ist sie? (abrufbar unter:
https://www.scinexx.de/dossier/digitale-superintelligenz/; zuletzt abgeru-
fen: 5.7.2023).
Pollmann, Arnd (2022): Menschenrechte und Menschenwürde. Zur philosophi-
schen Bedeutung eines revolutionären Projekts, stw 2370, Berlin.
Russell, Stuart (2020): Human Compatible: Künstliche Intelligenz und wie der
Mensch die Kontrolle über superintelligente Maschinen behält, Frechen.
Russell, Stuart / Norvig, Peter (32012): Künstliche Intelligenz: Ein moderner
Ansatz, Pearson Series in Artificial Intelligence, München u.a.
Sandkühler, Hans Jörg (2007): Menschenwürde. Philosophische, theologische
und juristische Analysen, Philosophie und Geschichte der Wissenschaften
64, Frankfurt a.M. u.a.
2
- ( 2015): Menschenwürde und Menschenrechte. Über die Verletzbarkeit und
den Schutz der Menschen, Freiburg i.Br. / München.
Schaber, Peter (2012): Menschenwürde, UB 20338, Stuttgart.
Schönecker, Dieter / Wood, Allen W. (2002): Immanuel Kant „Grundlegung zur
Metaphysik der Sitten“. Ein einführender Kommentar, UTB 2276, Pader-
born u.a.
Schöne-Seifert, Bettina (2011): Prinzipien und Theorien in der Medizinethik, in:
Ach, Johann S. (Hg.): Grundkurs Ethik 2: Anwendungen, Paderborn, 9-21.
Searle, John R. (1980): Minds, Brains, and Programs, Behavioral and Brain Sci-
ences 3, 417-424.
Steinbrenner, Barbara (2022): Google KI Lamda holt sich einen Anwalt, Die
Presse vom 27.6.2022 (abrufbar unter: https://www.die-
presse.com/6157472/googles-ki-lamda-holt-sich-einen-anwalt; zuletzt ab-
gerufen: 6.7.2023).
Stephan, Achim (22005): Emergenz. Von der Unvorhersagbarkeit zur Selbstor-
ganisation, Paderborn.
Sukopp, Thomas / Vollmer, Gerhard (Hg.) (2007): Naturalismus: Positionen,
Perspektiven, Probleme, Tübingen.
22
Dokumentvorlage • Narr Verlage | A 3.3
23