“Wie kann Methoden-Kompetenz für die digitalen Geisteswissenschaften im Studium verankert werden?” ist eine grundlegende Frage, die insbesondere auch für die Lehre in den Digital Humanities von höchster Relevanz ist. Im Rahmen der Konferenz “Deutscher Orientalistentag”, die im Herbst 2022 an der Freien Universität Berlin stattfand, wurde seitens der AG Multilingual Digital Humanities des Fachverbands DHd e.V. eine Podiumsdiskussion über aktuelle Herausforderungen im Kontext von Multilingualität und Digital Humanities veranstaltet. Dabei wurde deutlich, dass neben grundlegenden Fragen zum Arbeiten mit digitalen Methoden in der Lehre, insbesondere das Thema “Schulungen zu digitalen Tools, die das Arbeiten mit multilingualen Daten ermöglichen” in den Area Studies Fächern einen dringenden Bedarf darstellt. Dabei ist zu berücksichtigen, dass gerade Dozent:innen ohne eine tiefere fachliche DH-Expertise großen Bedarf sehen, Wege zu erschließen, wie multilinguale Data & Tool-Literacy Teil der Lehrpraxis werden kann, ohne dass diese Lehrenden ihrerseits zeit und mittelaufwändige Fortbildungen absolvieren müssen.
Es besteht darüber hinaus ein großes Interesse auf Seiten der Studierenden, Methoden und Ansätze der multilingualen Digital Humanities etwa in philologischen Seminaren bereits während des Studiums zu erlernen. Die wenigsten Studien- und Prüfungsordnungen sind aber darauf, wie auf neuartige Formen der Seminar- und Prüfungsarbeiten – wie etwa das Kuratieren von Datensets oder das Entwickeln von Code – eingestellt.
In Zusammenarbeit mit der DHd AG Multilingual DH, dem Referat für Digitale Forschungsdienste der Staatsund Universitätsbibliothek Hamburg, der Universitätsbibliothek und dem Fach Arabistik der Freien Universität Berlin und der Philipps-Universität Marburg sollen im Rahmen eines Workshops und unter Beteiligung aller Statusgruppen Handreichungen und Best Practices erarbeitet werden, wie die Förderung von multilingualer Data Literacy niedrigschwellig in die Lehre integriert werden kann. Wir laden Angehörige aller akademischen Statusgruppen mit Bezug zur Lehre ein, mit uns zusammen Ansätze und Lösungen zu diskutieren und Best Practices zu entwickeln. Besonders möchten wir diejenigen zur Teilnahme ermutigen, die bereits erste Erfahrungen mit kritischen Diskursen zu Multilingualität und nichtlateinischen Schriften haben, aber auch Angehörige aller anderen Fachrichtungen und Disziplinen sind herzlich eingeladen, teilzunehmen.
Die Veranstaltung findet im Rahmen der Veranstaltungsreihe “Digital Humanities – Wie geht das?” des Referats für Digitale Forschungsdienste an der Staats- und Universitätsbibliothek Hamburg statt und ist beschränkt auf 20 Teilnehmer:innen. Um Anmeldung bis zum 30. April 2023 an [email protected]wird gebeten.
Die Plätze werden entlang der Statusgruppen nach Eingang vergeben. Sollten keine Plätze mehr frei sein, führen wir eine Warteliste, sodass kurzfristig noch die Möglichkeit zum Nachrücken besteht.
Datum: Montag, der 08.05.2023 (von 10-17 Uhr / ganztägig) Ort: Staats- und Universitätsbibliothek Hamburg
Am 27.02. fand an der SUB der erste vom Referat für Digitale Forschungsdienste veranstaltete Workshop statt, der ergänzend zum Vortrag zu Graphentheorien und -technologien im Januar (hier der Bericht) die Gelegenheit bieten sollte, unter Anleitung selbst tätig zu werden und am Beispiel der Korrespondenzdaten des Projekts Dehmel Digital erste Praxiserfahrung mit Neo4J zu sammeln. Hamburg zeigte sich zu diesem Anlass von seiner schönsten Seite und die Teilnehmer:innen konnten die Aussicht und Dachterrasse des Bücherturms bei bester Wintersonne genießen.
Quelle: Yuki Davis
Nachdem alle Teilnehmer:innen den Weg in den Seminarraum gefunden und sich mit Kaffee, Tee und Keksen eingedeckt hatten, begann die Veranstaltung mit einer kurzen Vorstellungsrunde. Hierbei wurde deutlich, wie unterschiedlich die Hintergründe der Teilnehmer:innen waren: Aus Bibliotheken, Universitäten und Forschungsanstalten kamen Interessierte angereist, unter anderem aus Hamburg, Berlin und sogar aus Zürich.
Quelle: Yuki Davis
Danach eröffnete Franziska Klemstein den eigentlichen Workshop mit dem schon eingangs genannten Zitat von Michael Hunger: “Die Welt ist ein Graph”, um zu demonstrieren, wie allgegenwärtig Relationen und Beziehungen sind. Entsprechend wurden die Teilnehmer:innen gebeten, sich ihre eigenen Projekte, oder auch nur den Raum zu vergegenwärtigen und auf Papier die Skizze eines Graphen zu erstellen, der in Knoten und Kanten Beziehungen darstellt und eine oder mehrere spezifische Fragestellungen beantworten sollte.
Quelle: Yuki Davis
Nach einer Viertelstunde angeregter Arbeit wurden dann die Ergebnisse präsentiert. In einem Fall wurde danach gefragt, welche Personen im Raum mit welcher Hardware welche Betriebssysteme nutzen würden. Andere Teilnehmer:innen fragten nach der Genese eines Artikels vom Entstehen zur Publikation, oder auch nach der Verknüpfung von Forschungsprojekten zu Infrastruktur und Institutionen. Mein eigener Graph sollte das Datenmodell für das Kairener Brief- und Salon-Netzwerk um May Ziyadeh abbilden:
Quelle: Jonas Müller-Laackman
Mein erster Entwurf hatte noch einen Knoten für “Rolle”, was aber über die zeitliche Entwicklung schwer darstellbar ist. Dieses Problem hatten mehrere Teilnehmer:innen und mit ein wenig mehr Zeit wäre das sicherlich ein spannender Punkt zur weiteren Diskussion gewesen. Vielleicht Material für einen künftigen Workshop? Zentrale Erkenntnis dieser Übung war sowohl die Allgegenwart von Relationen, aber auch ganz konkret, wie wichtig es ist, sich im Vorfeld Gedanken über Sinn und Zweck des Graphen zu machen und zu klären, welche Fragestellungen der Graph am Ende beantworten soll. Auch die Richtung der Kanten und korrekte Bezeichnungen sind essenziell. Franziska betonte hier auch noch, dass im Verlauf der Arbeit an Graphen immer wieder geprüft werden muss, ob der Graph die Ansprüche noch immer gut bedienen kann, oder ob er entsprechend angepasst werden muss.
Quelle: Yuki Davis
Nach einer recht ausführlichen Diskussion über die Herausforderungen, mit denen man sich in der Übung konfrontiert sah, folgte dann die wohlverdiente Pause, in der sich die Teilnehmer:innen mit Kaffee und Tee ausgestattet auf der Dachterrasse im Sonnenschein über das gerade Gelernte austauschen, oder einfach nur die Aussicht genießen konnten.
Quelle: Yuki Davis
In der zweiten Hälfte des Workshops ging es dann los mit der Arbeit an Neo4J selbst. Zunächst gab es eine kurze Einführung zu den grundlegenden Eigenschaften und Anwendungsszenarien von Neo4J: Knoten und Kanten haben immer eine interne ID und können verschiedene Eigenschaften besitzen. In den Konventionen werden Knoten immer im CamelCase geschrieben: (:EinKnoten), Kanten werden groß und mit Unterstrich bezeichnet: [:EINE_KANTE], wobei hier auch alles klein geschrieben werden kann. In Abfragen lassen sich Kanten und Knoten über Variablen ansteuern, die jeweils aber nur für die Abfrage gültig sind: (e:EinKnoten) oder [k:EINE_KANTE]. Auf Umlaute sollte verzichtet werden, interessanterweise funktioniert aber die Nutzung von arabischer Schrift, was mich persönlich natürlich sehr gefreut hat:
Es besteht übrigens von Haus aus nicht die Möglichkeit, den Graph gegen vorher festgelegte Schemata oder Onthologien zu prüfen, was eine gewisse Disziplin voraussetzt, arbeitet man in Teams. Zwar gibt es Workarounds, XML-Verwöhnte werden sich hier aber umgewöhnen müssen. Neo4J Desktop bietet aber etwa die Möglichkeit, bereits getätigte Abfragen als Favoriten zu speichern, so kann man sich bei komplexeren Abfragen lästiges Nachschauen oder Copy’n’Paste sparen.
Quelle: Yuki Davis
Nachdem grundlegende Befehle und Abfragen in der Neo4J-eigenen Abfragesprache Cypher gelernt und geübt wurden, sollten die Teilnehmer:innen sich zunächst überlegen, ob die vorher erstellten Graph-Modelle so wohl in Neo4J umsetzbar wären und was daran noch geändert werden müsse oder welche potenziellen Fehlerquellen es geben könnte.
Eine kurze Diskussion später konnten die Teilnehmer:innen dann endlich statt mit ausgedachten Platzhaltern konkret mit Inhalten aus der Praxis arbeiten, nämlich mit einem Beispieldatensatz aus Korrespondenzdaten der Briefedition Dehmel Digital. Im Vorfeld wurden die Korrespondenzdaten und Personendaten aus dem Projekt aufbereitet und durch Franziska in einem Git zur Verfügung gestellt. Nach einer kurzen Aufklärung über die notwendigen Aufbereitungsschritte (so kann Neo4J etwa nicht mit leeren Feldern umgehen, Arrays in Feldern müssen reduziert werden), wurden die Teilnehmer:innen zunächst eingeführt in den Neo4J-eigenen CSV-Import, der tatsächlich sowohl für lokale, als auch für Daten von remote ziemlich einfach ist:
// CSV importieren, bei lokal ist URL = 'file:///'
LOAD CSV FROM 'URL' AS row
fieldterminator ';'
CREATE (p:Person {name: row[0], gnd: row[1]})
// CSV importieren und Briefe und Relationen erstellen:
LOAD CSV FROM 'URL' AS row
fieldterminator ';'
MATCH (n1:Person {GND: row[2]}), (n2:Person {GND: row[4]})
CREATE (n1)-[:verfasste]->(b:Brief {ID: row[0], Autor_in: row[1], Empfaenger_in: row[3]})-[:empfing]->(n2)
Die Desktop-Version von Neo4J bietet außerdem einen komfortablen CSV-Import über die GUI.
Mit den importierten Daten hatte man nun einen ansehnlichen Graphen, der die Korrespondenz über die Beispielmetadaten gut darstellte. Die Teilnehmer:innen diskutierten nun über Anwendungsfälle und stellten erste Abfragen zu den Korrespondenzen. Leider gab der Zeitrahmen komplexere Abfragen nicht her, wie etwa die Errechnung eines Clusterkoeffizienten oder die Erstellung eines Triangle Count. Letzterer hätte im Beispieldatensatz aber ohnehin nicht funktioniert, da keine Person-Person-Beziehungen enthalten waren. Franziska erörterte das Vorgehen in der Theorie, die entsprechenden Folien finden sich ebenfalls im verlinkten Git.
Quelle: Jonas Müller-Laackman
Da einige Teilnehmer:innen pünktlich ihre Züge erreichen mussten, endete der Workshop also annähernd planmäßig. Ein Vormittag reich an neuen Eindrücken und gelerntem Wissen ging zuende und ich kann da nur für mich reden, aber ich denke, dass das Thema Graphen für mich erst begonnen hat. Im Laufe des Workshops stellten sich immer wieder Probleme dar, die nicht einfach beantwortet oder gelöst werden konnten, etwa die Ebene der Zeitlichkeit oder auch die Frage, wie man die Neo4J-Graphen dann gut in die eigenen Interfaces integriert (Spoiler: Für Kartendarstellungen gibt es eine Neo4J-eigene App). Vielen Dank auf jeden Fall an Franziska Klemstein für die gute Einführung in Neo4J, vielen Dank an alle Teilnehmer:innen, ich hoffe ihr hattet so eine gute Zeit wie ich und natürlich auch vielen Dank an Yuki und David beim Organisieren.
Quelle: Yuki Davis
Für Interessierte gibt es neben der DHd-AG Graphen und Netzwerke noch regelmäßige Events von Neo4J, weiterhin findet in diesem Jahr auch wieder die GraphHNR 2023 statt, die passenderweise Temporalität zum Thema hat. Und ich bin mir auch recht sicher, dass das Thema Graphen auch an der SUB noch nicht abgeschlossen ist. 🙂
Neo4J ist kostenlos nutzbar als Desktop-Anwendung oder zum Ausprobieren in einer Online-Sandbox. Für kommerzielle oder große Anwendungsfälle bietet Neo4J kostenpflichtige Angebote. In der GraphAcademy gibt es für Selbstlerner:innen eine große Menge an Materialien und ergänzend dazu eine gute Dokumentation.
Zu guter Letzt hier noch die wichtigsten Cypher-Snippets:
// Knoten erstellen
// Person = Label
// name, GND = Eigenschaft
CREATE (n:Person {name: 'Ida Dehmel', GND: 'https://...'})
RETURN n;
// Knoten löschen - Option A
MATCH (n:Person {name: 'Ida Dehmel'})
DELETE n;
// Knoten löschen - Option B
MATCH (n:Person)
WHERE ID(n) = 0
DELETE n;
// Alles anzeigen
MATCH (n)
RETURN n;
// Eigenschaften und Bezeichnungen ändern
MATCH (n:Person {name: 'Ida Dehmel'})
SET n.biographical_data = '1870-1942'
RETURN n;
// Kante erstellen
MATCH (n:Person), (b:Brief)
WHERE n.name = 'Richard Dehmel'
AND b.ID = 'HANSb29366'
CREATE (n)-[:verfasste]->(b)
// Kante mit Eigenschaft versehen
MATCH (n:Person {name: 'Richard Dehmel'}), (b:Brief)
CREATE (n)-[:verfasste {Datum: '09.05.1907'}]->(b)
// Knoten mit Kanten löschen
MATCH (n:Brief)
WHERE ID(n) = 0
DETACH DELETE n
Für Anwender:innen von Markup-Sprachen bietet dieses Jahr wieder die Gelegenheit, sich fachübergreifend auszutauschen.
Den Anfang macht die MarkupUK, die als Präsenzveranstaltung vom 1. bis 3. Juni 2023 in London ihre Tore öffnet. Die Konferenz, die im jährlichen Wechsel mit der Schwesterkonferenz XML Prague stattfindet, steht dieses Jahr unter dem Motto markup quality assurance, Qualitätssicherung in Markup-Projekten.
Auch wenn das Programm noch nicht im Detail steht, wird mit ziemlicher Sicherheit auch das jährliche Schematron Users Meetup im Rahmen der MarkupUK stattfinden.
CfP läuft bis zum 24. März 2023.
Anfang August (31. Juli bis 4. August 2023) schließt sich die Balisage als reine Online-Konferenz an. Bis zum 7. April 2023 besteht die Möglichkeit, ein Paper einzureichen. An der SUB werden wir einen gemeinsamen Besuch Konferenz organisieren. Mehr dazu hier an dieser Stelle.
Ein kurzer Einblick in Graphtechnologien und die Graphentheorie.
Am Dienstag, den 31. Januar 2023 eröffnete Dr. Franziska Klemstein die Veranstaltungsreihe “Digital Humanities – Wie geht das?”, die vom Referat für Digitale Forschungsdienste der Staats- und Universitätsbibliothek Hamburg veranstaltet wird. In einem spannenden Vortrag führte sie in das Thema Graphen ein, welche in den letzten Jahren im Bereich der Digital Humanities zunehmend an Bedeutung gewinnen.
Im ersten Teil des Vortrags ging es um die Theorie, die hinter Graphen steckt. Dabei wurde und wird zwischen den Begriffen Graph und Netzwerk gerade in der geisteswissenschaftlichen Nutzung nicht immer klar unterschieden, beziehen sich doch beide oft beschreibend auf das gleiche oder zumindest wesensähnliche Phänomen: Die semantische Modellierung und Visualisierung von Entitäten und den Beziehungen dieser Entitäten zueinander.
Quelle: Franziska Klemstein
Der Ursprung der Graphentheorie liegt in der Mathematik. Als Beispiel nennt Franziska hier die Eulerkreis- und Traveling Salesman-Probleme. Das Eulerkreis-Problem beschreibt die Frage, wie alle Kanten eines Graphen in einem Zyklus enthalten sein können. Anschaulich wird dies etwa im “Königsberger Brückenproblem”, das fragt, wie alle Brücken in Kaliningrad genau einmal überquert werden können und on man am Ende wieder am Ausgangspunkt ankommt, ohne dass ein Weg zweimal begangen werden muss. Ein anderes Beispiel ist das “Haus vom Nikolaus”. Das Traveling Salesman-Problem beschreibt eine ähnliche Situation: Kaufleute müssen auf ihrer Reise mehrere Orte besuchen. Wie müssten sie reisen, um die kürzeste Route zu befahren, jeden Ort – außer dem Ausgangspunnkt – nur einmal zu besuchen, und am Ende wieder am Ausgangspunkt anzukommen?
Graphentheorie setzt sich also mit Kanten und Knoten auseinander und nimmt diese als Analysemuster für die Beantwortung theoretischer Fragestellungen. Analog dazu werden Graphen in den Digital Humanities genutzt, um etwa Netzwerke von Personen darzustellen, wobei solche Netzwerke als “zentrale Metapher für gesellschaftliches Geschehen” verstanden werden. Hierbei können Knoten etwa für Personen oder Orte stehen, während die Kanten Aussagen über die Beziehungen zwischen den Knoten treffen.
Im zweiten Teil des Vortrags ging es schließlich um die in der Arbeit mit Graphen eingesetzten Technologien. Wer sich schon einmal mit Konzepten wie dem Semantic Web auseinandergesetzt hat, wird schon einmal vom Resource Description Framework (RDF) gehört haben. Es beschreibt Beziehungen zwischen Entitäten in Tripeln, also im Muster Subjekt-Prädikat-Objekt. Dadurch entsteht ein Graph, in dem Entitäten zueinander semantisch in Beziehung gesetzt werden.
<!-- Beispiel eines RDF-Ausdrucks in XML -->
<rdf:RDF
xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
xmlns="http://example.org/">
<Person>
<hasName>Sascha</hasName>
<hasSister>
<Person>
<hasName>Eike</hasName>
</Person>
<Type>younger</Type>
</belongsTo>
</Person>
</rdf:RDF>
Ein anderer Ansatz ist der Labelled Property Graph (LPG), in dem die Knoten und Kanten nicht nur Namen, sondern auch Eigenschaften besitzen können. Diese Eigenschaften werden in key/value-Paaren angegeben und sollen eine bessere Übersicht gewährleisten.
// Beispiel desselben Ausdrucks in Cypher
(p1:Person {name: "Sascha})-[:HAS_SISTER {type: "younger"}]->(p2:Person {name: "Eike"})
Hierfür gibt es verschiedene Technologien und Analysetools, unter anderem Neo4J, Blazegraph, NetworkX oder OrientDB. NetworkX etwa bietet eine Python-Bibliothek, die gerichtete und ungerichtete Graphen darstellen kann, setzt aber natürlich die Kenntnis von Python voraus. Neo4J hingegen bietet ein ganzes Ökosystem, das neben einer Graph-Datenbank samt proprietärer Softwarelösung für die lokale Anwendung auf dem eigenen Computer auch Cloud-Lösungen für kommerzielle Zwecke anbietet. Ein großer Pluspunkt ist dabei sicherlich die Benutzer:innenfreundlichkeit von Neo4J, dem allerdings das kommerzielle Geschäftsmodell entgegensteht. Für eine konsequente OpenScience-Praxis ist Neo4J damit nur bedingt nutzbar, als mächtiges Tool für die Arbeit mit Graphen aber sicherlich nicht zu unterschätzen, zumal von Haus aus auch der Import von Daten-Batches, sowie der Export in verschiedene Dateiformate wie .json und .csv unterstützt wird.
Dazu trägt auch die Query-Sprache von Neo4J bei, Cypher, in der – wie oben bereits gezeigt – ähnlich wie bei SQL mit einfachen und klaren Ausdrücken Graphenstrukturen geschaffen und abgefragt werden können. Folgende Abfrage gibt zum Beispiel alle Schwestern von Sascha aus.
// Ausgabe aller Schwestern der Person mit dem Namen "Sascha"
MATCH (:Person {name: 'Sascha'})-[:HAS_SISTER]->(p:Person)
RETURN p
In einem Beispiel aus dem Datensatz der Brief-Edition von Dehmel Digital wurde schließlich anhand eines kleinen Beispiels demonstriert, wie Neo4J zur Erkennung von Gemeinschaften und Zusammengehörigkeiten in einem Korrespondenznetzwerk genutzt werden kann. Hierbei kommt das Prinzip des Triangle-Count zur Anwendung, bei dem alle Sets von drei Knoten gezählt werden, die untereinander durch Kanten verbunden sind. Daraus resultiert der Clusterkoeffizient, der eine numerische Aussage über die Einbettung bestimmter Knoten in solche Dreier-Sets trifft und damit Aufschluss über die Quantität der Vernetzung von etwa Personen in einem Korrespondenznetzwerk gibt.
Dabei, wie auch in allen anderen Formen datengestützter Arbeit in den Geisteswissenschaften, gibt es natürlich immer zu bedenken, dass dererlei Aussagen immer nur auf der Basis eines kuratierten Datensatzes gemacht werden können: Ist der Datensatz über das Korrespondenznetzwerk nicht vollständig, ist die Aussage über eine solche “Cliquenbildung” nur begrenzt belastbar, bzw. bezieht sich allein auf den untersuchten Datenausschnitt.
Zusammenfassend gab der Vortrag einen guten Überblick über die Potenziale und Grenzen von Graphentechnologien und führte in einige Grundverständnisse und Theorien ein, die bei der Arbeit mit Graphen zugrunde liegen. Dabei wurde als Technologie-Beispiel Neo4J mit einem Beispiel aus der Dehmel-Edition vorgestellt.
Hieran anschließend wird am 27. Februar 2023 an der SUB ein Workshop stattfinden, an dem erste Erfahrungen mit Neo4J anhand von Beispieldatensätzen mit der Dehmel-Edition praktisch gesammelt werden können. Einige wenige Plätze sind noch offen, weitere Informationen gibt es im SUB-Blog.
Wer nicht teilnehmen kann, Neo4J aber trotzdem mal ausprobieren möchte, findet in der Neo4J-eigenen Graph Academy Online-Einführungskurse mit einem Sandbox-Server, auf dem verschiedene Szenarien ausprobiert werden können.
Die Folien des Vortrags wurden via GitHub bereitgetellt.
Wie oft haben Sie ein digitales Forschungsangebot in Ihrem Browser oder gar auf Ihrem Smartphone geöffnet und gedacht: Mensch, das ist mal ein ansprechendes Design! Und so einfach! Nie? Selten? Das wundert nicht. Im Kontext von Forschungssoftware – und dazu zähle ich digitale Editionen oder Browser-basierte Software – gilt in der Regel: “Form follows Function“. Was im Produktdesign des Bauhaus etwa noch durchaus gehaltvolle Ergebnisse nach sich zog, sieht in der Forschung mitunter anders aus, doch dazu später. Ganz anders ist die Lage bei Angeboten etwa in den Sozialen Medien. Die Essenz bei Plattformen wie Twitter, AirBNB oder Facebook/Meta ist die einfache Nutzbarkeit. Jede:r Nutzer:in soll einen möglichst direkten und einfachen Zugang bekommen und nicht erst ein dickes Handbuch (womöglich zum Download als .pdf) wälzen müssen, um das Angebot nutzen zu können. Klar, das Vermarktungskonzept basiert auf der Aggregierung von so vielen Daten wie möglich. Ein komplizierter Einstieg wäre da nur hinderlich. Hier wird also die Form deutlich aufgewertet.
Aber warum ist das so? Und warum sind Interfaces und UX (User Experience) noch immer nicht zentrales Element bei der Entwicklung von Forschungs- und Publikationsdesign? Schließlich ist etwa bei Datenvisualisierungen die Darstellung nicht nur bloß hübsch, sondern sorgt ganz konkret für verschiedene Interpretationen.1 Und sorgt nicht die Bedienbarkeit einer kritischen digitalen Edition ganz konkret für die Nutzbarkeit etwa des kritischen Apparats im Kontext einer wissenschaftlichen Arbeit? Ist nicht letztlich die Verwertbarkeit und damit Nutzbarkeit zentrales Ziel der Forschung, zumindest im Idealfall?
Sicher, ein einfacher Grund für die Marginalisierung von UX-Design im Rahmen von Forschungsprojekten ist schnell ausgemacht: Fast alles, was im Forschungsbetrieb geschieht, muss im engen Korsett der Forschungsförderung stattfinden. Dabei ist häufig kaum Platz für die Einstellung von Research Software Engineers, geschweige denn für Interface-Designer:innen. Und doch setzt das Problem viel tiefer an, denn nicht alle Katastrophen, die mir in meinem Arbeitsleben schon untergekommen sind, lassen sich damit begründen. Grundlegende Design-Prinzipien können, wenn direkt von Anfang an mitgedacht, in der Entwicklung einfließen und nicht nur den Prozess, sondern auch das Ergebnis nachhaltiger gestalten. Doch oft wird das – ähnlich wie Tests im übrigen, dazu an anderer Stelle mehr – oft noch als unnötige Mehrarbeit betrachtet und in den Projektplanungsprozess erst gar nicht eingebunden.
Nehmen wir ein Beispiel aus den Laws of UX, das “Hick’s Law”, das etwa in Punkt 2 sagt: “Break complex tasks into smaller steps in order to decrease cognitive load.” Dieses Prinzip ist Teil jeder Projektplanung. Alle Forschungsprojekte, die Backlogs oder ein geordnetes Task-Management verwenden, kennen die Notwendigkeit, nicht “Daten in TEI-XML kodieren” in das Backlog zu schreiben, sondern die Aufgaben in kleinere, konkretere Tasks zu unterteilen, die dann je nach Organisationsprinzip unter größeren Entitäten wie “Epics” oder “Milestones” subsummiert werden können. Damit sieht die Arbeitslast nicht nur besser zu bewältigen aus, sie ist es auch. Und es ist realistischer, abschätzen zu können, was in welcher Priorität und Reihenfolge abgearbeitet werden kann und muss.
Hieronymus beim Studium der Laws of UX. Quelle: https://resolver.sub.uni-hamburg.de/kitodo/PPN1670649210
Um das ganze auf die UX von etwa digitalen Editionen zu übertragen schauen wir uns zwei digitale Editionen an: The glosses to the first book of the Etymologiae of Isidore of Seville: a digital scholarly edition und Kitāb ʿAyn al-Naẓar fī ʿIlm al-Jadal. Selbst ohne einen Buchstaben Arabisch lesen zu können, fällt gleich auf, dass die erste Edition deutlich schwieriger zu bedienen ist, als die zweite. Über konkrete Design-Entscheidungen kann man immer streiten, dass bei der Isidore-Edition aber “Form follows Function” leitendes Prinzip war, während bei der ʿAyn al-Naẓar-Edition ein Kompromiss zugunsten der Usability gemacht wurde. Gerade Forscher:innen, die aus einer fremden Disziplin auf die Editionen kommen, werden sich mit zunehmender Komplexität schwer mit der einfachen Benutzbarkeit tun. Je einfacher und durchschaubarer Interfaces gestaltet sind, desto weniger “cognitive load” sind die Nutzer:innen ausgesetzt.
Ein Beispiel, in dem ganz klar zugunsten des Interface-Designs gearbeitet wurde, ist etwa die Plattform COINS, auf der Nutzer:innen auf einem virtuellen Tisch Münzen aus dem Münzkabinett Berlin betrachten können. Die Nutzung ist hoch explorativ und macht selbst Nicht-Numismatiker:innen Freude. Hier zeigt sich aber auch ein Problem, das mit zunehmendem Fokus auf Interface-Design auftreten kann: Komplexe UIs (User Interface) mit vielen graphischen Elementen gehen schnell zulasten der Performance. Browser müssen immer mehr Rechenleistung erbringen, obwohl sie ursprünglich dafür nicht ausgelegt waren. Hier muss also sichergestellt werden, dass auch bei “Form follows Function”-Ansätzen eine Bedienbarkeit gewährleistet werden kann – diesmal aus Performance-Gründen, nicht weil man das Interface schlicht nicht versteht.
Warum sollte man also in der Forschung mehr “Function follows Form” wagen? Zunächst einmal ganz simpel: Der Spaß an der Sache. Auch Forschung darf, nein, sollte Spaß machen und jede:r bedient lieber eine schöne Plattform, als ein hässliches Baustellen-Gif-Produkt mit dem Charme einer 90er-Privatwebsite. Man arbeitet schließlich auch offline lieber an einem ordentlichen, aufgeräumten und hübsch eingerichteten Schreibtisch, als an einem wackligen Plastik-Schreibtisch voll mit Stapeln an Zetteln, Büchern und Papieren ohne Struktur. Eine Forschungsplattform ist weiterhin nicht zum Selbstzweck da. Je attraktiver sie nutzbar ist, desto mehr Forscher:innen aus der jeweiligen Fachdisziplin werden sie nutzen. Und schließlich, wenn man schon das Zeitargument bemühen möchte: Möglicherweise bedarf es einem gewissen Mehraufwand, während des Entwicklungsprozesses UX mitzudenken. Dafür sparen Nutzer:innen am Ende Zeit, da die Bedienung nicht erst gelernt werden muss.
Ein ordentliches Interface und gutes UX-Design macht nicht nur den Forschungsprozess effizienter, er lässt auch die Publikation oder Forschungsplattform wortwörtlich in einem besseren Licht erscheinen und wird mehr Nutzer:innen ansprechen. Es ist schöner anzuschauen, spart Zeit und sorgt letztlich auch für eine größere Verwertbarkeit. Dabei sollte immer darauf geachtet werden, dass die Form nicht zulasten der Performance geht. Allgemein sollte sich in der wissenschaftlichen Praxis aber ein deutliches Commitment zugunsten von UX-Design durchsetzen2, damit niemand ein .pdf-Handbuch ausdrucken muss, um eine digitale Forschungsplattform bedienen zu können.
Entsprechende Entwicklungen finden bereits statt. So hat das IDE im Frühjahr 2022 eine eigene Winterschool zum Thema Interface-Design bei Digitalen Editionen veranstaltet und UX wird auch in größeren Institutionen wie der SUB immer wieder Gegenstand von Diskussionen zur Weiterentwicklung von Services für Forscher:innen. [↩]
Im ersten Quartal diesen Jahres finden an der SUB erstmalig Veranstaltungen im Rahmen der Veranstaltungsreihe “Digital Humanities – Wie geht das?” statt, die ab April auch über das DDLitLab der Uni Hamburg gefördert werden wird. Die ersten beiden Events werden sich um das Thema Graphen drehen und von Franziska Klemstein (Uni Weimar) geleitet werden.
31.01.2023 um 17:00 Uhr auf Zoom, Registrierung erbeten.
Aus dem SUB-Blog:
Graphen haben sich in den vergangenen Jahren zu einem für die Digital Humanities zentralen Technologiezweig entwickelt, da sie sich hervorragend für die semantische Modellierung von Daten eignen. Die Graphentheorie beschäftigt sich komplementär mit dem theoretischen Fundament und der Frage nach Eigenschaften und Beziehungen der Elemente eines Graphen. In ihrem Vortrag wird Dr. Franziska Klemstein (Bauhaus-Universität Weimar) über die verschiedenen Graphentechnologien und -theorien sprechen und Einblick geben in Anwendungsszenarien und Einsatzbereiche von Graphen.
Am 27.02.2023 von 9:00 – 13:00 Uhr vor Ort an der SUB Hamburg. Aufgrund der Platzbeschränkung auf 15 Teilnehmer:innen wird um Registrierung an forschungsdienste(at sub.uni-hamburg.de gebeten.
Aus dem SUB-Blog:
Netzwerkanalyse ist einer der klassischen Einsatzbereiche für Graphen in den Digital Humanities, Neo4J eine der zentralen Technologien für semantische Graphenmodellierung. In diesem BYOD-Workshop1 sollen Teilnehmer:innen die Möglichkeit bekommen, erste praktische Erfahrungen in der Arbeit mit Neo4J zu sammeln. Hierfür werden Beispiel-Datensets aus dem Korrespondenznetzwerk von Ida und Richard Dehmel zur Verfügung gestellt, die im Projekt Dehmel Digital an der UHH und SUB erschlossen werden. Der Workshop richtet sich an Interessierte, die bereits erste Erfahrungen mit DH-Methoden gesammelt haben und praktisch in das Thema Graphen einsteigen wollen.
Um ehrlich zu sein: Anfänge sind schwer. Auch die von Wissenschaftsblogs. Daher wird das hier kein ausdifferenziertes, akademisches Willkommen in feinsinniger Sprache, sondern kommuniziert ganz einfach das, was das hier ist: Ein Anfang.
Also: Moin!
Willkommen auf dem neuen Blog des Referats für Digitale Forschungsdienste der Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky, und ja, es geht auch kürzer: SUB Hamburg. Wir wollen in den nächsten Wochen und Monaten diese Plattform nutzen, um darüber zu berichten, was wir hier so machen. Ausführliche Infos dazu gibt es im Bereich Über das Blog. Wir wollen die Plattform aber nicht für uns allein haben, sondern bieten anderen Akteur:innen, die in, um, über Hamburg arbeiten und interessante Dinge zu oder über DH im weitesten Sinne zu sagen haben an, selbst tätig zu werden, mit uns in Kontakt zu treten und eigene Artikel hier zu veröffentlichen. Interessierte wenden sich dafür bitte an forschungsdienste at sub.uni-hamburg.de.
Blick vom Bücherturm der SUB über Hamburg. Quelle: David Maus
Aber wer sind wir? Wir, das ist zum einen der Referent für Digitale Forschungsdienste an der SUB, Jonas Müller-Laackman, und zum anderen der Leiter der Abteilung Forschung und Entwicklung an der SUB, David Maus. In dieser Funktion möchten wir mit diesem Blog dazu beitragen, die Kommunikation über DH auf ein pragmatisches Niveau zu bringen und die Zusammenarbeit und gegenseitige Unterstützung von Angehörigen aller akademischen und beruflich im Feld der Digital Humanities beheimateten Statusgruppen zu fördern.
Die fancy Potenz mit Exponent 3 ist übrigens nicht einfach nur sehr schlau und sehr mathematisch, sie ist schlicht der umständlichen Tripel-H-Schreibweise unseres ursprünglichen Titels “Digital Humanities in der Hansestadt Hamburg” geschuldet und das sieht so einfach netter aus.
Und da jetzt Freitag Nachmittag ist und vermutlich fast alle schon im Wochenende oder auf dem Weg dahin, beende ich diese kurze Einführung hiermit und freue mich auf zahlreiche spannende Berichte, Artikel, HowTos und was es sonst noch so braucht.