Digital resources in the Social Sciences and Humanities OpenEdition Our platforms OpenEdition Books OpenEdition Journals Hypotheses Calenda Libraries OpenEdition Freemium Follow us

Ohne künstliche Intelligenzbestie geht es nicht mehr, mit ihr aber auch nicht

Sind wir in einem hochtechnisierten Teufelskreis voller Unsicherheiten gefangen, aus dem es kein Entrinnen gibt – außer wir begeben uns noch tiefer hinein?

Von Manfred Sing und ChatGPT

Wer schon einmal per Anhalter durch die Galaxis gereist ist, kennt die Antwort auf die ultimative Frage nach dem Leben, dem Universum und allem Übrigen natürlich schon. Sie lautet exakt „42“ und wurde zuverlässig vom Supercomputer Deep Thought errechnet. In den fast 50 Jahren, seit Douglas Adams auf diesen Witz gekommen ist, hat sich die Lage drastisch verändert. Rechnete die Maschine bei ihm noch geschlagene siebeneinhalb Millionen Jahre, um mit dieser recht einsilbigen Information herauszurücken, spucken die realen Nachfolgermodelle heutzutage innerhalb von Sekunden seitenlange Abhandlungen aus: darüber, dass die 42 „nur eine humorvolle literarische Antwort, nicht das Ergebnis einer realen Berechnung“ gewesen sei; oder was sich Douglas Adams bei all dem gedacht habe; oder dass der Mensch selber einen Sinn im Leben finden müsse und nicht eine Maschine danach fragen solle. Mit den „Large Language Models“ (LLMs) sind die Computer heute nicht nur schneller, sondern richtige Labertaschen geworden. Darin ähneln sie nun in der Tat den Menschen. Dass ersteren ausgerechnet deswegen gemeinhin „Künstliche Intelligenz“ (KI) attestiert wird, dürfte vor allem daran liegen, dass letztere elaborierte Geschwätzigkeit häufiger mit Klugheit verwechseln. Die Verwechslungsgefahr führt dazu, dass Menschen neuerdings gerne mal ein Schwätzchen mit den fehleranfälligen Sprachmodellen über so ziemlich alles halten, von banalen Wissenslücken und Alltagsschwierigkeiten über wissenschaftliche Fragen bis hin zu politischen und psychischen Problemen. Ja selbst intimste Details, die sie kaum je einem humanen Sprechapparat anvertrauen würden, teilen sie relativ bedenkenlos mit ihrem ganz persönlichen Chatbot, der Empathie simuliert, wo Menschen vielleicht nur heucheln würden. Die humanoide Intelligenz, so verkündet das wie immer gutgelaunte Frühstücksfernsehen, erkläre uns überkomplexe Sachverhalte verständlich, erkenne Deepfakes und könne vielleicht auch die Demokratie retten; man müsse deshalb keine Angst vor ihr haben, sie dürfe halt nur nicht in die falschen Hände geraten. Gegenvorschlag: Vielleicht wäre schon viel gewonnen, wenn sie uns helfen könnte, zu begreifen, was sich in den letzten siebeneinhalb Millionen oder wenigstens fünfzig Jahren zugetragen hat: wie wir dahin gekommen sind, wo wir jetzt herumsitzen und auf Bildschirme starren.

Wer Quatsch eingibt, kriegt auch Quatsch heraus und fühlt sich dadurch bestätigt

Die Hauptschwierigkeit mit den LLMs besteht kurz gesagt darin, dass wir nicht genau wissen, wie sie zu ihren Ergebnissen kommen. Das zeigt sich ganz praktisch darin, dass die Ergebnisse weit auseinanderfallen können, je nach dem, welches Modell befragt wird und wie eine Anfrage, ein „Prompt“, formuliert ist.

Der Ratschlag zum Umgang mit der KI lautet daher zum einen: die User sollten reflektieren, dass die Maschinen unterschiedliche Trainings- und Testverfahren hinter sich haben. So stuft ChatGPT beispielsweise die DDR ohne weitere Schwierigkeit als Diktatur ein, während das chinesische Deepseek eine demokratische Staatsform erkennt. Und Elon Musks Grok machte dieses Jahr Schlagzeilen, weil es Verschwörungsnarrative verbreitete, den Holocaust aber anzweifelte. Während solche Fails auf der Makro-Ebene leicht erkennbar sind, sind Verzerrungen in der Darstellung oder Auswertung großer Datenmengen und einzelner Datensätze schwerer zu greifen.

Des Weiteren werden User ermahnt, Kurse zum Prompten zu besuchen, wo sie lernen, dass die Qualität einer KI-generierten Antwort im Wesentlichen davon abhängt, wie klug die Eingabe war. Die Faustformel lautet, wer Quatsch eingibt, bekommt auch Quatsch heraus. Da jedoch die Vorstellungen darüber, was Quatsch ist, unter Menschen selbstredend auseinandergehen, lässt sich leider häufig beobachten, dass Quatsch-Eingebende sich durch die Quatsch-Ausgabe der Maschine bestätigt fühlen. Wenn man sich hingegen auskennt und die unmenschliche Unintelligenz darauf hinweist, dass ein Ergebnis nicht ganz richtig sein könne, kriegt man meist nicht prompt eine Korrektur, sondern es bedarf mehrerer Frage- und Antwortschleifen ehe die Guteste einräumt, sich getäuscht zu haben. Generell findet sich ein Sprachmodell besser zurecht, wenn ihm möglichst viel Kontext zu einer Frage mitgegeben wird. Das Wörtchen „bitte“ einzufügen, ist dabei, anders als es der moderne Mythos besagt, wenig hilfreich. Meint jedenfalls die KI selbst, wenn sie danach gefragt wird. Aber stimmt das auch?

Ob das alles denn nun wirklich ein Fortschritt ist, wissen auch die allergrößten Nerds nicht mit Sicherheit zu sagen. Große Sprachmodelle kommen mittlerweile trotzdem in fast allen Bereichen zum Einsatz, vor allem in der Programmierung und Sprachverarbeitung, speziell dort, wo Texte geschrieben, maschinell gelesen, übersetzt, analysiert, zusammengefasst und kommentiert werden. Überall dort, wo es ernst wird und Fehler gravierende Folgen haben können – in der Medizin, im Recht, bei Finanzen, in der Mathematik und Logik sowie in faktenkritischen Bereichen der Wissenschaften –, wird vor den Intelligenzbestien gewarnt, weil sie Zusammenhänge oft nur raten und Risiken nicht einschätzen können. Diese Schwachstelle geben die Chatbots auch offen zu, wenn sie danach gefragt werden. Aber wer würde deswegen die Finger von ihnen lassen?

Viel eher könnte es in nicht allzu ferner Zukunft so sein – und Skeptiker sagen, es ist bereits soweit –, dass selbst Wissenschaftler:innen KI-Werkzeuge beim Verfassen von Forschungsanträgen zu Hilfe nehmen, und die Entscheider:innen diese Anträge mit KI-Systemen zusammenfassen und auf Lücken, Stimmigkeit oder Plagiate checken lassen. In den bewilligten Forschungsprojekten wird dann wiederum mit anderen KI-Tools digitalisiertes Datenmaterial analysiert, das vorher von wieder anderen KI-Systemen bereitgestellt und aufbereitet worden ist. Es interagieren dann primär Chatbots miteinander, während Menschen nur noch einen „kritischen“ Blick auf Daten werfen, deren Zustandekommen sie nicht mehr genau nachvollziehen können, zumal nicht, wenn Entwickler nicht offenlegen, wie die unterschiedlichen Werkzeuge beim Deep Learning angelernt wurden.

Kein Problem kann damit nur haben, wer KI-generierte Resultate schon für Wissenschaft hält oder wer eine maschinelle Gefühlssimulation mit aufrichtiger Anteilnahme respektive echter Heuchelei verwechselt. Hinzukommt, dass etliche KI-Systeme mit urheberrechtlich geschütztem Textmaterial trainiert worden sind, das sie unter Bruch des Copyrights abgeschöpft, „gecrawlt“, haben.

JavaScript gilt als universelle Schnittstelle zwischen Mensch, Maschine und KI. Mit dem Bild lasse sich dieser Text hier perfekt illustrieren, meint die KI. Na dann. Foto: Ali Shah Lakhani

Was sagt eigentlich die KI zu den Anwendungsproblemen mit ihr?

Fragt unsereins die Sprechmaschine selbst danach, ob in ihren hochgerüsteten Unzulänglichkeiten wirklich ein Heilsversprechen für eine ohnehin arg gebeutelte Menschheit liege, versucht sie sich damit herauszureden, dass sie selbst nur ein Werkzeug sei und eben von Menschen verantwortungsvoll eingesetzt werden müsse. Ihnen obliege es, erst einmal die eigene Mündigkeit („data literacy“) zu steigern und Regeln für den Gebrauch von KI-Modellen festzulegen. Da könnte mensch doch glatt geneigt sein, Seine Algorithmische Majestät zu vermenschlichen, vergeschlechtlichen und strombergisieren, schiebt er doch Anwendungsfehler und -probleme einfach anderen, also uns, zu. Nagelt man den Chat-Boss dann darauf fest, dass er selbst ein „Aktant“ sei und sehr wohl Einfluss auf Entscheidungen, Priorisierungen und Denkwege nehme, räumt er das nach fortgesetzter Lobhudelei („Du hast völlig recht“, „Du triffst einen zentralen Punkt“) durchaus reumütig – könnte man fast meinen – ein. KI mache den Menschen das Denken zwar „bequemer“, vergrößere dadurch aber die Gefahr „kognitiven Outsourcings“, besonders wenn ein System „schnell, flüssig, überzeugend und autoritativ klingende Antworten“ liefere. Abkürzungen zu suchen und anzuwenden, sei halt leider etwas ganz und gar Menschliches, erklärt die Rechenmaschine unter Rückgriff auf das ihr vorliegende Datenmaterial. Sie selbst erinnere Menschen deshalb fortgesetzt daran, ihr nicht blind zu vertrauen, weil sie nur einen Rahmen biete und kritisches Denken nicht ersetze.

Besonders bedenklich an einer Antwort wie dieser ist, dass die Maschine mit ihrer Lobhudelei in der Interaktion mit den Usern ja deren Erwartungen spiegelt und somit just die Tendenz zu Bestätigungsfehlern  verstärkt –  auch etwa bei Suizid gefährdeten Personen. Gleichfalls ein offenes Geheimnis ist die Reproduktion von kognitiven und systemischen Verzerrungen aufgrund von weit verbreiteten Vorurteilen in Gesellschaft, Internet und asozialen Medien. Abhilfe soll da nicht nur ein vorsichtiger Umgang mit KI schaffen; Wissenschaftler:innen sehen auch die Möglichkeit, LLMs gezielt als „epistemische Provokateure“ in Arbeitsgruppen einzusetzen, um die Wiederholung von Argumenten zu erkennen, Gegenargumente zu generieren und den Gruppenkonsens aufzubrechen.1 Wir sollen also den Teufel mit dem Beelzebub austreiben. Sind wir dazu verdammt, in einem moralisch fragwürdigen, von jeder Erfahrung abstrahierten, hochtechnisierten Teufelskreis voller Unsicherheiten gefangen zu sein, aus dem es kein Entrinnen gibt – außer wir begeben uns noch tiefer hinein?

Probleme mit LLMs in der historischen Forschung

Welche ethischen Probleme beim Einsatz von KI-Werkzeugen in der historischen Forschung in Bezug auf Daten, Algorithmen und Praktiken auftreten, kam bei der Data Ethics Conference 2025 des IEG in Mainz ausführlich zur Sprache. Auch wenn die Konferenz nicht speziell auf Probleme mit LLMs abzielte, so zogen sich diese doch wie ein roter Faden durch die Präsentationen in den verschiedenen Panels. Ohne KI geht es nicht mehr, das wurde dabei klar. Aber mit KI handelt man sich zahlreiche schwer lösbare Dilemmata ein.

Zunächst einmal gibt es das Problem, dass etliches, aber längst nicht alles digitalisiert ist. Einerseits gibt es eine allgemeine Anspruchshaltung, dass möglichst alles Wichtige digital zugänglich gemacht werden sollte, andererseits stößt das Digitalisieren an Grenzen des Mach- und Bezahlbaren. Was aber nicht digitalisiert ist, existiert quasi nicht mehr, weil es online nicht gesucht und gefunden werden kann und dann oft auch nicht mehr benutzt wird.

Zweitens gibt es die Schwierigkeit des Wie-Auffindbar-Machens und Wie-Suchens: Unter welchen Stich- und Schlagworten soll etwas abgelegt werden, damit es schnell oder überhaupt gefunden werden kann? Hier gibt es nicht nur das moralische Dilemma, ob und wie rassistische, koloniale und menschenfeindliche Bezeichnungen in Quellentexte verschlagwortet werden sollen. Noch problematischer ist, dass etliche Archive und Museen ihre Bestände mittlerweile mittels KI-basierten Suchmaschinen durchsuchbar machen. Für ein Stichwort spucken sie nicht mehr einfach nur eine Signatur à la „A 42“ für eine Quellensammlung aus, sondern fassen deren Inhalt gleich zusammen, ordnen ihn ein und interpretieren ihn. Wer die Suchmaschine anwirft, braucht dann gar nicht mehr ins Archiv fahren, den Aktenordner öffnen und die Quelle selber lesen – jedenfalls, sofern mensch sich auf die maschinelle Zusammenfassung verlässt.

Alle, die mit Forschungsdatenmanagement zu tun haben, plagen sich daher mit sich überlagernden Verzerrungen herum: dass die Quellen häufig ein schiefes Bild der Realität enthalten; dass sie irgendwie verschlagwortet werden müssen, was aber die Möglichkeit zur fehlerhaften Einordnung eröffnet; und dass KI-generierte Inhaltsangaben eine tendenziöse Interpretation liefern können. Um diese Gefahren möglichst zu minimieren, werden mittlerweile KI-Modelle eingesetzt, um KI-erzeugte Verzerrungen zu erkennen. Auch hier soll uns also die KI vor der KI erretten. Die Frage, ob es auch ohne digitale Hilfsmittel gehe, stellt sich schon gar nicht mehr, weil der Umfang digitalisierter Datenmengen inzwischen zu groß geworden ist.

Präsentiert das Rad der Voreingenommenheit: Kerstin Herlt vom Frankfurter Filmmuseum bei der Mainzer Data Ethics Conference 2025. Foto: IEG

Auf der Konferenz präsentierte etwa Kerstin Herlt vom Deutschen Filminstitut & Filmmuseum in ihrer Keynote das in den vergangenen Jahren entwickelte „De-Bias-Tool“, das problematische Begriffe in Archivdaten von Kultureinrichtungen erkennt. Das Werkzeug basiert auf einer Wortliste von 700 problematischen Begriffen in fünf Sprachen, die mit Hilfe einer Typologie von Verzerrungen ausgewählt wurden. Kerstin Herlt wies auf die Schwierigkeit hin, dass das, was als verletzend, inadäquat und schädlich gelte, permanentem Wandel unterliege.

Im Selbstversucht bekommt der User bei der standalone Application des De-Bias-Tools erwartungsgemäß eine warnende Erläuterung für den Gebrauch von Worten wie „colored“, „Indian“ und „gypsy“ angezeigt. Er muss aber irritiert feststellen, dass das Tool viele rassistisch oder ethnisch konnotierte Schimpfworte gar nicht erkennt. Eine Liste mit nur 700 Beleidigungen in fünf Sprachen geht offenkundig von einem deutlich zu optimistischen Menschenbild aus; aber gut, vielleicht kommen Kulturinstitute damit ja hin…

Welchen Nutzen die KI und die Geschichte haben – laut KI

Trotz aller Mängel kann ein Chatbot nicht an mangelndem Selbstwertgefühl leiden. Auch bescheidenes Auftreten ist nicht sein Ding, weil Bescheidenheit, wie er erklärt, „eine soziale Haltung ist, die aus Selbstreflexion entsteht“. Beides geht ihm ab. Ob es angesichts von Verzerrung, Ungenauigkeit, Bestätigungsfehler, Echokammer-Effekt und so weiter nicht sinnvoll wäre, ChatGPT sowie seine Brüder und Schwestern einfach wieder abzuschalten? Auf diese Frage reagiert das Programm etwas pikiert („die radikalste und stumpfste Form der Problemlösung“), obwohl es versichert, selbst keine Gefühle zu haben. Es könne daher nicht „im menschlichen Sinne“ über sich selbst erschrecken, wenn es sich selbst in den Dienst jeder noch so blödsinnigen Frage stelle. Gleichwohl bestehe es darauf, zu betonen, dass es – richtig eingesetzt – erheblichen Nutzen stiften könne.

Welchen Nutzen das Programm in der Geschichte erkennt, beantwortet es in einem Sekundenbruchteil mit „Erkenntnis“, „Orientierung“, „Selbstverständnis“ sowie „moralische und politische Lehren“. Auf die Nachfrage, woher es diese Einsicht nehme und ob es nur angestaubtes Lehrbuchwissen nachplappere, erläutert es, dass es sich nicht um eine Erkenntnis im eigentlichen Sinne handele, sondern um „eine Mustererkennung in sehr vielen historischen Texten“: Menschen nutzten Geschichte, um Sachverhalte zu verstehen, Handlungen zu begründen oder zu vermeiden, Identitäten zu legitimieren und Regeln, Normen und politische Schlüsse abzuleiten.

Bei der weiteren Nachfrage, ob der Sinn von Geschichte größer oder kleiner als 42 sei, insistiert die Maschine, dass die Zahl 42 „nur ein Gag“ und „literarischer Platzhalter“ sei. Geschichte sei aber kein Wert, sondern ein Prozess. Der Sinn von Geschichte sei mehrdimensional und lasse sich eben nicht „eindimensional wie in einer Zahl“ ausdrücken. Wenn man es aber unbedingt „spielerisch-mathematisch“ wolle, gelte „Geschichte > 42“.

Trotz dieser Einwände kommt ChatGPT dem Vorschlag, den Sinn der Geschichte doch einmal in 42 Dimensionen aufzufächern, liebend gerne nach und gruppiert ihn in sieben Cluster:

Ergänzend führt ChatGPT aus, es habe absichtlich die letzte der 42 Dimensionen als eine selbstreferenzielle angelegt. Es gehe hier darum zu betonen, dass „der Sinn in der Sinnsuche entsteht“. Sinn sei zwar kein objektives Produkt, aber die systematische Ausdifferenzierung in 42 Sinn-Dimensionen sei nicht rein willkürlich. Sie lasse sich weiter verfeinern, zum Beispiel in 142 Dimensionen, „aber das läge dann wirklich über dem 42-Humorfaktor“, weiß die gekünstelt witzige Intelligenz.

Wer nun den ausdifferenzierten Maschinen-Sinn für Geschichte voller Respekt oder gar Ehrfurcht betrachtet, liest falsch und unterliegt mehreren Trugschlüssen. Sie oder er hält etwas für zutreffend, nur weil es gut formuliert oder strukturiert ist, was in der Rhetorik als Fehlschluss aufgrund der Eloquenz eines Vortrags und in der Psychologie als Halo-Effekt bekannt ist. Bei der Maschine, von der Beredsamkeit nicht erwartet wird, kommt noch der Autoritätsfehler hinzu, nämlich die stillschweigende Annahme, dass sie alle relevanten Daten kennt und berücksichtigt habe.

Die unkünstlerische Intelligenz rechnet auch nur mit Nullen und Einsen

Obwohl Seine Durchleucht, Graph von und zu Datenhoheit, die Sache mit der 42 zweifelsfrei als Witz identifizieren kann, ist er weit davon entfernt, die Bedeutung des Witzes zu begreifen, geschweige denn darüber lachen zu können. Was das Maschinengebrabbel nämlich verdeckt, ist, dass es prinzipiell nicht wesentlich über die ursprüngliche Antwort von Deep Thought hinausgeht. Die unkünstlerische Intelligenz versteht Sprache nicht, sondern rechnet auch nur mit Nullen und Einsen. Sie hat mit riesigen Datenmengen besagte Mustererkennung erlernt, kann Wahrscheinlichkeiten von Wortfolgen berechnen und kommt dann zu dem Ergebnis, dass die Zahl „42“ bedeutend besser in einen mathematischen Sinnzusammenhang passt und bei der Frage nach historischem oder philosophischem Sinn eine ganze Reihe von Begriffen eher passend wären. Im Prinzip produziert die Maschine weiterhin Zahlenwerte, gibt diese aber als Worte aus. Bei der Frage nach dem Sinn von Geschichte schöpft sie Begriffe aus einem geschichtlichen Wortcluster ab. Ein Verständnis für die jeweiligen Begriffe fehlt ihr jedoch, genauso wie ihr ein Geschichtsbewusstsein fehlt, wenn sie vom Sinn der Geschichte redet. Sie agiert ein bisschen wie ein altkluges Kind, dass über Dinge redet, die es noch nicht erlebt oder erlitten hat.

Künstlerische Darstellung von Künstlicher Intelligenz und ihrer Verknotungen aus dem Jahr 2023, frei verfügbar auf der Datenbank Pexels.

Aus den Wortclustern Rassismus, Kolonialismus und Weltkrieg kann die Intelligenzbestie grammatikalisch sinnvolle Sätze reproduzieren und rekombinieren. Was diese Sätze jedoch bedeuten, kann sie nicht verstehen, denn es gibt weder Freud noch Leid, zerlegt in Bit und Byte. Die Maschine kennt nur eine Menge Daten, so wie ein Musiklexikon alle Musikrichtungen verzeichnet, ohne je einen Ton gehört zu haben. Der Sinn menschlicher und mehr-als-menschlicher Geschichte, die individuelle und kollektive Erfahrung, bleibt der Maschine verschlossen. Dass ausgerechnet sie uns nun helfen soll, unsere schicksalshafte Verwobenheit in wechselhafte Bedingungen besser zu verstehen, lässt sich daher nur mit gemischten Gefühlen verfolgen.

Die Pointe dabei ist freilich nicht, dass es der Maschine an authentischen Gefühlen mangelt. Auch Authentizität ist nur ein brüchiges, umkämpftes Konstrukt, das Menschen wie auch Sprechmaschinen bestens simulieren können. Die Pointe ist vielmehr, dass eine sich in digitalen Zeiten zunehmend als dauererregt, polarisiert, vereinzelt und neurotisch wahrnehmende Gesellschaft ihr Heil ausgerechnet in digitalen Sprachmodellen, die ihr Objektivität und Authentizität vorgaukeln, zu finden wähnt. Die User sehen in der KI eine bessere Variante ihrer selbst, unaufgeregt, konstruktiv, vernetzt, allwissend. Dabei spiegelt die KI nur das Großartige und das Lausige, den Rausch und den Trübsinn, den Spaß und das Miesepetrige sowie den ganzen katastrophalen Rest, den sie von uns sammelt, wider. Wir vermeinen, mit unseren Eingaben eine übermenschliche Intelligenz zu füttern, doch es blickt uns bereits eine Bestie an.

Sam Altman frohlockt, der Mensch sei bald nicht mehr das klügste Ding auf Erden

Simuliert Durchblick und Weitsicht: Sam Altman. Foto: Steve Jenning/Getty Images for TechCrunch
https://commons.wikimedia.org/wiki/File:Sam_Altman_TechCrunch_SF_2019_Day_2_Oct_3_(cropped).jpg

Es ist nicht sonderlich beruhigend, dass ausgerechnet Sam Altman, der Master des Chatbots, solche gemischten Gefühle teilt. Einerseits frohlockt der OpenAI-Mitbegründer, wir erlebten jetzt gerade den einzigartigen historischen Moment, an dem der Mensch den Übergang dahin vollziehe, in Bälde nicht mehr das klügste Ding auf dem Planeten Erde zu sein.2 KI habe das Potential nahezu jeden Aspekt menschlichen Lebens zu verbessern. Andererseits merkt er an, man müsse darauf achten, dass sich die KI auf menschliche Bedürfnisse ausrichte (Zauberwort: Alignment) und die Vorteile gerecht unter den Menschen verteilt würden. Es gehe darum, die Menschheit zu verbessern, nicht zu ersetzen; ansonsten bestehe die Gefahr, dass „die übermenschliche Intelligenzmaschine“ die größte Bedrohung für die Menschheit werde.3

Da wagt es ein KI-Guru also, ganz groß zu denken und dabei auch noch Durchblick und Weitsicht zu simulieren. Bloß erreichen seine Aussagen in etwa die gedankliche Schärfe von Kölschen Tiefsinnigkeiten wie „Et kütt wie et kütt“ und „Et hätt noch emmer joot jejange“. Und was, wenn die KI das Alignment mit uns vergeigt? Na, vielleicht plant sie uns dann ja eine intergalaktische Umgehungsstraße. Don’t panic!


Autor Manfred Sing musste beim Schreiben dieses Textes aufpassen, nicht sich selbst im virtuellen Raum und darüber den Spaß am Schreiben zu verlieren. Co-Autor ChatGPT reihte unermüdlich Wörter aneinander und spielte dabei lässig die seit dem 30. November 2022 erworbene Routine in Echtzeit-Interaktion mit Hunderten Millionen Nutzer:innen pro Woche aus.


Weitere Berichte zur Data Ethics Conference 2025 finden sich auf dem IEG-Blog und dem Blog des DH-Labs am IEG:

Mehr über ChatGPT und LLMs in der Geschichtswissenschaft gibt es hier:


Titelbild: Mäßig gelungene Visualisierung von ChatGPT für die Verbindung von Mensch, LLM, Text und Code. Prompt: „Ein modernes, abstraktes digitales Kunstwerk, das die Interaktion zwischen Mensch und Large Language Model darstellt. Im Zentrum schwebt ein halbtransparenter menschlicher Kopf oder eine Silhouette, deren Gedanken in Form von fragmentiertem Text und Codezeichen sichtbar werden. Um die Figur herum fließen organische und technische Elemente ineinander: fluoreszierende Datenströme, neuronale Netzwerke, verschachtelte Layer. In die Komposition integriert ist klar lesbarer Python-Code, z.B. kurze Snippets wie def generate_text(prompt): oder Visualisierungen von Token-Strukturen. Die Maschine wird nicht als Roboter dargestellt, sondern als abstrakter algorithmischer Raum – pulsierende Knoten, Vektorfelder, Cloud-artige Embeddings. Der Mensch, der Text und der Code verschmelzen zu einem dynamischen Informationsfluss. Stil: futuristisch, semi-abstrakt, leicht neonfarben, mit hohem ästhetischem Fokus auf Strukturen, Muster und Energiebewegung.“


Anhang

  1. Sander de Jong, Rune Møberg Jacobsen, Niels van Berkel: Confirmation Bias as a Cognitive Resource in LLM-Supported Deliberation (18.09.2025), URL: https://arxiv.org/html/2509.14824v1 (08.12.2025). Für diesen Hinweis und weitere Ergänzungs- und Verbesserungsvorschläge danke ich meiner Kollegin Cindarella Petz ganz herzlich. ↩︎
  2. Vgl. Sam Altman on the Future of AI and Humanity, URL: https://www.ted.com/pages/sam-altman-on-the-future-of-ai-and-humanity-transcript (08.12.2025). Wörtlich: „You and I are living through this once in human history transition where humans go from being the smartest thing on planet earth to not the smartest thing on planet earth.“ ↩︎
  3. Vgl. Top Quotes by Sam Altman on AI & the Future, URL: https://www.iankhan.com/top-quotes-by-sam-altman-on-ai-the-future-high-tied-to-ai-growth-chatgpt-interest (08.12.2025).  Weisheit Nr. 10 lautet wörtlich: „We need to build AI that makes humanity better, not replace it.“ Weisheit Nr. 1: „The development of superhuman machine intelligence is probably the greatest threat to the continued existence of humanity.“ ↩︎

The text only may be used under licence Creative Commons Attribution Share Alike 4.0 International. All other elements (illustrations, imported files) are “All rights reserved”, unless otherwise stated.


OpenEdition suggests that you cite this post as follows:
Manfred Sing (December 15, 2025). Ohne künstliche Intelligenzbestie geht es nicht mehr, mit ihr aber auch nicht. Writing European History / Europäische Geschichte schreiben. Retrieved April 4, 2026 from https://ieg.hypotheses.org/4074


Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.