Lexi, Paul und Leia – Personas für die föderierte lexikalische Suche
Am 26. Januar 2026 trafen sich elf Expert:innen des Scientific Coordination Committees Lexical Resources und der Task Area Lexical Resources sowie praktisch arbeitende Lexikografinnen des Zentrums für digitale Lexikographie der deutschen Sprache an der Berlin-Brandenburgischen Akademie der Wissenschaften. In einem eintägigen Workshop erarbeitete die Gruppe Personas, die typische Anwender:innen der lexikalischen föderierten Suche (LexFCS) repräsentieren und anhand derer Bedürfnisse und Arbeitsweisen die LexFCS zielgerichtet weiterentwickelt werden soll. Mit dieser Zielstellung schloss die Veranstaltung unter anderem an einen vorausgehenden Workshop zur Evaluierung der Föderierten Inhaltssuche für lexikalische Ressourcen an.
Die Gestaltung von Personas ist eine Methode, die unter anderem in der Software-Entwicklung eingesetzt wird, um es Entwickler:innen leichter zu machen, sich in verschiedene Nutzergruppen hineinzuversetzen und deren Wünsche und Anforderungen, aber auch ihre Probleme und Ärgernisse in Bezug auf die Software nachzuvollziehen. Dieses Hineinversetzen gelingt mit Personas aufgrund ihrer konkreten Anschaulichkeit häufig besser als auf der Grundlage von abstrakten Erhebungsdaten („30 Prozent unserer Nutzenden können mit einer Tabellenkalkulation arbeiten, 20 Prozent sind promoviert, …“).
Bereits vor dem Beginn des Text+ Projektes konnten mit Hilfe von User-Stories erste Erkenntnisse über typische Nutzendengruppen gewonnen werden. Auch der intensive Austausch mit dem SCC als Schnittstelle zur Text+ Community hat während der gesamten Projektlaufzeit wichtige Hinweise auf Bedürfnisse und Erwartungen von Nutzenden beigetragen. Mit dem Leibniz-Institut für Deutsche Sprache in Mannheim verfügt zudem ein Text+ Partner über große Erfahrung im Bereich der Wörterbuchbenutzungsforschung. Aus diesem Fundus wurden in Vorbereitung auf den Workshop zunächst zehn kurze Persona-Skizzen entwickelt: die Editionsphilologin, der Korpuslinguist, die Lexikografin, die Nachwuchswissenschaftlerin, der Handschriftenforscher/Mediävist, die Archivkuratorin/Datenverantwortliche, der Computational-Humanities-Forscher, die Lehrende, der thematische forschende Historiker und die Lexikostatistikerin.
Für die Ausdifferenzierung wurden zu Beginn des Workshops drei Personas gemeinsam ausgewählt und anschließend in Kleingruppen detailliert ausgestaltet. Die drei fertig entwickelten Personas – Lexi (die Lexikografin), Paul (der Romanistikstudent) und Leia (die Lexikostatistikerin) – wurden anschließend im Plenum vorgestellt. Lexi, Paul und Leia bilden das Spektrum möglicher Nutzungsgruppen nicht vollständig ab, markieren aber zentrale Punkte innerhalb dieses Spektrums und verdeutlichen so auch die inhaltliche und methodische Spannweite der Text+ Community innerhalb der Datendomäne „Lexikalische Daten“.
Weiterentwicklung der LexFCS
Im zweiten Teil des Workshops wurden die Personas miteinander verglichen und insbesondere gemeinsame Pain Points, Frustrationen, Unsicherheiten und ausstehende Anforderungen an die LexFCS zusammengetragen. Es wurde schnell deutlich, dass einige Schwierigkeiten bereits durch kleinere UI-Anpassungen behoben werden könnten, dass aber auch Bedarf für aufwändigere Weiterentwicklungen der LexFCS und ebenso für die zugrundeliegenden lexikalischen Ressourcen besteht. Das trifft besonders auf den gezielten Zugriff auf weitere Informationspositionen wie beispielsweise Frequenzinformation zu, aber auch auf Arten der Datenrückgabe bis hin zu erweiterten Download-Möglichkeiten und die Verknüpfung von (Teil-)Ergebnissen unterschiedlicher Ressourcen bereits in der Abfrage oder im Aggregator der LexFCS.
Beim Vergleich der Personas konnten wir feststellen, dass für einige Teile der Text+ Community (wie Paul und Lexi) die LexFCS bereits ein gut nutzbares Werkzeug darstellt, das im Detail aber trotzdem Verbesserungspotenzial aufweist. Für andere Teile der Text+ Community (wie Leia) ist die derzeitige Funktionalität der LexFCS zwar noch vergleichsweise wenig ergiebig, zeigt aber große Entwicklungsmöglichkeiten für die Zukunft auf. Abhängig von der Zielrichtung und Komplexität ihrer jeweiligen Forschungsfragen und Suchstrategien benötigen Lexi, Paul und Leia spezifische Hilfe und Dokumentation für den Umgang mit der LexFCS und für die Interpretation der Ergebnisdaten.
Die Arbeit an den Personas und die aus diesen abgeleiteten Erkenntnisse und Herausforderungen sind für uns eine wichtige Grundlage zur strategischen Planung der weiteren Entwicklung der LexFCS in den kommenden Monaten und darüber hinaus.

Persona: Lexi
Mein Name ist Lexi Graf, ich habe einen Master in Lexikographie und ich beschäftige mich seit vielen Jahren mit der Erstellung und Überarbeitung von Wörterbuchartikeln. Dabei bediene ich mich wissenschaftlicher Online-Plattformen, z.B. um Korpusbelege für eine gegebene Wortbedeutung zu finden und zu studieren. Meine Erfahrungen mit solchen Plattformen sind gut, aber sicher noch ausbaufähig. Spezifische Kenntnisse im Bereich Digital Humanities habe ich nicht; auch sind nur geringe technische Vorkenntnisse vorhanden, sodass ich ausschließlich einen webbasierten Zugriff auf Online-Ressourcen verwenden kann.
Das Werkzeug LexFCS kannte ich bis dato noch nicht, finde die Software aber sehr interessant, weil man damit in vielen lexikalischen Ressourcen gleichzeitig suchen kann.
Bei der Erstellung und Überarbeitung von Wörterbuchartikeln ist es stets notwendig, eine möglichst vollständige Übersicht über die Lesarten, d.h. die Bedeutungen eines Lemmas zu erhalten. In der LexFCS möchte ich hierzu eine zielgerichtete Suche durchführen. Im Kontext dieses Use-Cases erwarte ich bei der einfachen Eingabe eines Lemmas eine Übersicht über vorhandene Wörterbuchartikel zu diesem Lemma – das heißt als Default-Suche sollte die Eingabe meines Suchwortes, z.B. Welle, stets auf der Ebene Lemma/Stichwort/Headword suchen, nicht im gesamten Wörterbucheintrag.
Die Trefferliste sollte im Idealfall für jeden Treffer einen relevanten Teilausschnitt des Wörterbucheintrags zeigen; insbesondere sollten die Wortbedeutungen eines Lemmas sichtbar hervorgehoben werden. Es sollte möglich sein, Angaben zur Form (Grammatik) einfach zu verbergen. Dies sollte nicht nur auf Trefferebene möglich sein, sondern auch auf der Ebene der gesamten Trefferliste.
Bei hochpolysemen Lemmata wäre es von Vorteil, nach bestimmten Wortbedeutungen suchen zu können (z.B. Welle als Naturereignis oder Welle als Maschinenteil); hierzu habe ich aber keine entsprechende Anfrage formulieren können.
Auch würde ich mir mehr Unterstützung bei der Erstellung der Anfragen wünschen. So gibt es Homographen, die sich im Genus unterscheiden (z.B. „der Leiter“, „die Leiter“). Wie spezifiziere ich hier das Genus? Suche ich z.B. mit genus=f, oder genus=fem, oder genus=femininum? Wäre es vielleicht möglich, dass die Software meine Absicht erkennt (sobald ich „genus“ schreibe) und dann eine Autokorrektur bzw. eine automatische Vervollständigung vornimmt? Jedenfalls würde ich mir mehr Beispielanfragen in der Online-Hilfe wünschen.
Bei der Nutzung der LexFCS ist mir die große Anzahl lexikalischer Ressourcen positiv aufgefallen. Leider musste ich die jeweiligen Suchen stets abbrechen, da einige Ressourcen eine sehr lange Antwortzeit benötigten. Hier sollte der Knopf zum Abbruch deutlicher im Browser hervorgehoben werden. Auch würde ich erwarten, dass ich jederzeit im Eingabefeld eine neue Suche anstoßen kann, sodass die noch laufende Suche dann automatisch abgebrochen wird.
(Lexi wurde von Selina Lang, Anja Pfeiffer, Alexander Steckel und Claus Zinn entwickelt.)
Persona: Paul
Ich bin Paul, 21 Jahre alt und studiere im dritten Semester Bachelor Romanistik (Schwerpunkt Französistik) und Germanistik. Mein Studium verbindet sprachwissenschaftliche, literatur- und kulturwissenschaftliche Inhalte. Besonders im Rahmen eines Einführungsseminars habe ich meine Begeisterung für den Bereich der Digital Humanities entdeckt. Seitdem bringe ich mir eigenständig bei, wie man Texte mit Python verarbeiten und analysieren kann. Ich verstehe mich nicht als klassischer Lexikographie-Nutzer. Wörterbücher spielten für mich lange Zeit eigentlich kaum eine Rolle, abgesehen vielleicht von gelegentlichen Prüfungen in der Schule. Im Studienalltag greife ich eher pragmatisch auf digitale Wörterbücher oder Übersetzungs-Apps zurück, um unbekannte Wörter schnell nachzuschlagen.
Im Rahmen eines sprachwissenschaftlichen Seminars beschäftige ich mich nun erstmals intensiver mit lexikalischen Ressourcen. Ziel meiner Seminararbeit ist es, französische Einflüsse auf den deutschen Wortschatz zu untersuchen. Konkret analysiere ich Wortlisten mit Verben auf der Endung -ieren (z.B. gruppieren, filetieren, marschieren) und interessiere mich besonders für deren etymologische Herkunft. Für diese Fragestellung benötige ich eine Möglichkeit, ressourcenübergreifend nach bestimmten Wortformen zu suchen und gezielt diejenigen Einträge zu identifizieren, die etymologische Hinweise auf das Französische enthalten. Auf Empfehlung meiner Dozentin bin ich dabei auf die LexFCS gestoßen. Ich verwende die LexFCS explorativ, aber zielgerichtet. Ich formuliere Suchanfragen nach bestimmten Wortformen und filtere die Ergebnisse so, dass nur Einträge mit relevanten etymologischen Informationen angezeigt werden (etwa solche, die Hinweise wie das Kürzel „frz.“ enthalten). Dabei ist mir wichtig, die Suche möglichst granular gestalten zu können: Ich erwarte, dass die Endpunkte tatsächlich nur passende Treffer liefern, idealerweise ergänzt durch Hit-Highlighting und die Hervorhebung suchrelevanter Metadaten. So kann ich schnell erkennen, warum ein Eintrag gefunden wurde und ob er für meine Analyse geeignet ist.
Damit die LexFCS für mich einen echten Mehrwert bietet, müssen die eingebundenen Wörterbücher einheitlich strukturiert und übersichtlich sein. Nur so kann ich die Einträge effizient vergleichen und sicherstellen, dass ich die relevanten Informationen nicht übersehe. Außerdem erwarte ich, dass die LexFCS sämtliche Informationen bereitstellt, die auch in den jeweiligen Quellen enthalten sind. Fehlen Inhalte oder werden sie nur teilweise angezeigt, leidet für mich die Verlässlichkeit der Ergebnisse, insbesondere im Hinblick auf wissenschaftliche Fragestellungen. Ein weiterer zentraler Wunsch ist eine Export-Funktion. Die Möglichkeit, Suchergebnisse in ein tabellarisches Format (z.B. CSV) zu exportieren, würde mir erlauben, meine Daten schnell weiterzuverarbeiten und in eigenen Analysen zu nutzen.
Frustrierend sind für mich vor allem falsche oder fehlende Treffer, da sie meine Analyse verfälschen oder unnötige Nacharbeit verursachen. Auch den Einstieg in unterschiedliche Anfragesprachen und Suchmodi empfindet ich als Hürde, da es aktuell keine kompakte Übersicht oder ein Cheatsheet mit Beispielen gibt. Weitere Probleme sehe ich im fehlenden Export von Ergebnissen, unzureichenden oder fehlenden Beschreibungen einzelner Wörterbücher und UX-Schwächen (z.B. schließt der Hilfe-X-Button die gesamte Seite und es gibt keinen Reset-Button bei der Suche). Diese Punkte erschweren mir insbesondere den Einstieg und führen dazu, dass ich mich unsicher fühle, ob ich das Tool wirklich „richtig“ nutze.
Für die Zukunft wünsche ich mir eine LexFCS, die besonders einsteigerfreundlich, transparent und gut dokumentiert ist. Dazu gehören eine ausführliche, leicht auffindbare Dokumentation mit Beispielanfragen, flexible Filtermöglichkeiten und strukturierte Exportfunktionen. Eine solche Weiterentwicklung würde es ermöglichen, die LexFCS nicht nur für einzelne Seminararbeiten zu nutzen, sondern sie langfristig als festen Bestandteil meines digitalen Werkzeugkastens zu etablieren.
(Paul wurde von Hanna Fischer, Gaetano Manzone und Frank Wiegand entwickelt.)
Persona: Leia
Ich bin Leia und ich arbeite als Psycholinguistin an einer großen deutschen Universität. Meine Arbeit ist forschungsnah ausgerichtet und ich führe viele Experimente zur Sprachproduktion und zum Sprachverstehen durch. Eine wichtige Grundlage für diese Experimente sind oft lexikostatistische Zusammenhänge. Deswegen habe ich einen breiten Hintergrund vor allem in quantitativer Linguistik, statistischen Verfahren und datengetriebenen Analysen. Mit typischen Wörterbüchern, vor allem den gedruckten, arbeite ich eigentlich nicht, aber ich habe schon oft spezialisierte lexikalische Datenbanken wie z.B. Celex als Datengrundlage für Experimente verwendet.
Die LexFCS stelle ich mir wie eine große, umfassende lexikalische Datenbank vor, aus der ich die Eingangsdaten für meine empirische Forschung gewinnen kann. Das sind meist Listen von Wörtern mit bestimmten linguistischen Eigenschaften. Für mich ist es daher wichtig, genau zu wissen, welche Wörterbücher welche linguistischen Informationen bieten, damit ich gezielt Teilmengen von Lemmata daraus ermitteln kann. Die vollständigen Wörterbuchartikel interessieren mich dabei nicht. Ich weiß, dass nicht jedes Wörterbuch alle Informationen bietet, die ich benötige. Deswegen würde ich gern die Ergebnislisten aus einzelnen Wörterbüchern gezielt weiterverarbeiten und zusammenfassen, um z.B. eine Liste von mindestens dreisilbigen Abstrakta zu bilden, die alle aus dem Englischen stammen oder um eine Liste aller Adjektive, die mit -bar enden, zu extrahieren.
Wenn das nicht direkt in der LexFCS funktioniert, ist das nicht so schlimm. So etwas könnte ich auch selbst tun, wenn ich die Ergebnislisten der einzelnen Wörterbücher als CSV-Datei herunterladen könnte. So ein flaches, tabellenartiges Ausgabeformat würde mir schon ausreichen: ein Wort und in den weiteren Spalten die Eigenschaften, die mich interessieren. Die würde ich gern spezifisch auswählen können und ich würde auch gern die Datenformate genau festlegen oder zumindest erfahren, in welchen Formaten die Datenfelder zurückgeliefert werden. Besonders wichtig ist mir das bei den numerischen Feldern, beispielsweise zu Frequenzinformationen. Leider ist die LexFCS bislang dafür noch nicht vorbereitet: Bei vielen Wörterbüchern bekomme ich derzeit einfach einen langen Text zurückgeliefert, mit dem ich so eigentlich nicht viel anfangen kann.
Außerdem habe ich den Eindruck, dass die einzelnen Angaben und Formate in den Wörterbüchern der LexFCS ziemlich unterschiedlich sind. Vieles, was mich interessiert, kann ich auch gar nicht gezielt abfragen, z.B. wie häufig ein Wort eigentlich vorkommt oder aus welcher Sprache es stammt. Die Ergebnisse sind am Ende zu unterschiedlich, um sie automatisch miteinander zu vergleichen und zusammenzufassen. Es würde vielleicht schon helfen, wenn die LexFCS die Ergebnisse sortieren oder zusammenfassen könnte, aber Sortier- und Aggregationsfunktionen habe ich keine gefunden.
Mir ist klar, dass vieles von dem, was ich gern nutzen würde, eine ziemlich komplexe Abfragesprache erfordert. Für eine detaillierte Dokumentation dazu und am besten auch Tutorials wäre ich wirklich sehr dankbar.
(Leia wurde von Thomas Eckart, Alexander Geyken, Uwe Kretschmer und Axel Herold entwickelt.)
OpenEdition schlägt Ihnen vor, diesen Beitrag wie folgt zu zitieren:
Axel Herold (27. März 2026). Lexi, Paul und Leia – Personas für die föderierte lexikalische Suche. Text+ Blog. Abgerufen am 2. April 2026 von https://doi.org/10.58079/15yfq
