About GRIP
Generative Research Interface Protocol
Das Problem
Forschende in den Digital Humanities stehen vor einem wiederkehrenden Problem: Für ihre Daten gibt es selten passende Standardinterfaces. Briefkorrespondenzen brauchen andere Darstellungen als Umfragedaten, Zitationsnetzwerke andere als Sammlungsinventare. Die Entwicklung maßgeschneiderter Interfaces ist zeitaufwändig und erfordert Expertise in UX-Design und Softwareentwicklung.
Gleichzeitig können Large Language Models (LLMs) wie Claude oder ChatGPT zunehmend Code generieren. Doch ohne domänenspezifisches Wissen produzieren sie generische Lösungen, die wissenschaftliche Anforderungen nicht erfüllen.
Die Lösung: GRIP
GRIP ist ein methodisches Framework, das Sprachmodellen beibringt, passende Interface-Empfehlungen für Forschungsdaten zu generieren. Es kodifiziert das Wissen darüber, welche Interface-Archetypen für welche Datenstrukturen und Forschungsintentionen geeignet sind.
Kernidee: Das eigentliche Produkt ist der System-Prompt und das mentale Modell. Die Website beweist, dass das Modell funktioniert.
Beispiel
Eine Historikerin hat eine Sammlung von 500 Briefen zwischen Hannah Arendt und Karl Jaspers. Sie beschreibt ihre Daten einem LLM, das mit GRIP kontextualisiert ist:
- Topologie-Erkennung: Briefe sind sequenziell (chronologisch geordnet, mit Vor- und Nachfolger)
- Intentions-Erkennung: Die Forscherin will die intellektuelle Beziehung verstehen (Immersion, nicht Vergleich)
- Matrix-Lookup: Sequenziell + Verstehen = Reader
- Spezialisierung: Briefkorrespondenzen → Edition-Spezialisierung
- Empfehlung: Reader mit Timeline-Navigation, Annotationsleiste, Referenz-Verlinkung, Kontextpanel für Personen und Orte
Die 3-Ebenen-Taxonomie
GRIP organisiert Interface-Wissen in drei hierarchischen Ebenen:
Warum diese Struktur?
Die Zahlen 4-12-48 sind nicht willkürlich:
- 4 Archetypen ergeben sich aus der Kreuzung von 4 Topologien × 4 Intentionen, wobei die Matrix auf 4 distinkte Interface-Grundformen konvergiert
- 12 Spezialisierungen (3 pro Archetyp) decken die häufigsten Anwendungsfälle in den Digital Humanities ab, basierend auf etablierten Metadatenstandards (TEI, DDI, MODS, LIDO)
- 48 Modi (4 pro Spezialisierung) bieten verschiedene Perspektiven auf denselben Datensatz, analog zu Views in Datenbanksystemen
Die Entscheidungsmatrix
Die Zuordnung von Daten zu Archetypen erfolgt über zwei Dimensionen:
Topologie (Datenstruktur)
- Sequenziell: Daten mit inhärenter Reihenfolge (Briefe, Protokolle, Zeitreihen)
- Multidimensional: Tabellarische Daten mit mehreren Variablen (Umfragen, Messwerte)
- Vernetzt: Daten mit Beziehungen zwischen Entitäten (Zitationen, Verwandtschaften)
- Hierarchisch: Baumstrukturen mit Über-/Unterordnung (Taxonomien, Inventare)
Intention (Forschungsziel)
- Verstehen: Tiefes Eintauchen in Inhalte, Kontexterschließung
- Vergleich: Mustererkennung, Trends, Korrelationen
- Rekonstruktion: Beziehungen nachvollziehen, Pfade finden
- Kuratierung: Daten bereinigen, validieren, anreichern
Die Kombination ergibt 16 Felder: 4 primäre (eindeutige Zuordnung), 8 sekundäre (ableitbar), 4 ambige (erfordern Rückfragen zur Klärung).
Kognitive Grundlagen
Jeder Archetyp basiert auf Erkenntnissen aus der Mensch-Computer-Interaktion (Human-Computer Interaction, HCI). Die Design-Entscheidungen sind wissenschaftlich fundiert:
Reader
Tiefes Lesen erfordert ununterbrochenen Textfluss. Optimale Zeilenlänge: 60-75 Zeichen. Zu lange Zeilen erschweren den Zeilenrücksprung, zu kurze unterbrechen den Lesefluss.
Dyson, M. C. (2004). How physical text layout affects reading from screen.
Scope
Präattentive Verarbeitung: Das visuelle System erkennt Muster (Farbe, Form, Position) in unter 250ms, bevor bewusste Aufmerksamkeit einsetzt. Small Multiples nutzen diesen Effekt besser als interaktive Einzelcharts.
Healey, C. G., & Enns, J. T. (2012). Attention and visual memory in visualization and computer graphics.
Navigator
Bei Netzwerkvisualisierungen ist die räumliche Position eines Knotens (Zentralität, Cluster-Zugehörigkeit) oft informativer als sein Label. Ab ca. 50 Knoten wird die Darstellung ohne Filter unübersichtlich ("Hairball-Problem").
McGuffin, M. J., & Jurisica, I. (2009). Interaction techniques for selecting and manipulating subgraphs in network visualizations.
Workbench
Mode Awareness: Bei Datenbearbeitung müssen Nutzende jederzeit wissen, ob sie sich im Lese- oder Bearbeitungsmodus befinden. Fehlende visuelle Trennung führt zu versehentlichen Änderungen.
Sellen, A. J., & Harper, R. H. (2003). The Myth of the Paperless Office.
Methodik
GRIP wurde durch einen iterativen Knowledge-Engineering-Prozess entwickelt:
1. Domänenanalyse
Analyse bestehender Forschungsinterfaces in den Digital Humanities: Welche Patterns wiederholen sich? Welche Datenstrukturen erfordern welche Darstellungsformen?
2. Taxonomie-Entwicklung
Induktive Ableitung der Archetypen aus beobachteten Interfaces. Validierung durch Mapping auf etablierte Metadatenstandards (TEI P5, DDI, MODS, LIDO, SKOS).
3. Prompt Engineering
Iterative Verfeinerung des System-Prompts durch Tests mit verschiedenen LLMs (Claude, GPT-4). Messung: Generiert das LLM sinnvolle Empfehlungen für gegebene Datenbeschreibungen?
4. Prototyping
Implementierung der 20 Demo-Interfaces als Proof-of-Concept. Die Website wendet GRIP auf sich selbst an (selbstreferenzieller Prototyp).
Zielgruppen
Forschende in den Digital Humanities
Nutzen GRIP, um passende Interface-Empfehlungen für ihre Daten zu erhalten. Beschreiben ihre Datenstruktur und Forschungsziele, erhalten konkrete UI-Spezifikationen.
LLM-Entwickler und Prompt Engineers
Nutzen die GRIP-Wissensbasis als System-Prompt-Komponente. Die Markdown-Dokumente sind für Context Windows optimiert.
UX-Designer für Forschungssoftware
Referenzieren die kognitiven Prinzipien und Design Rationales. Jede Archetyp-Entscheidung ist wissenschaftlich begründet.
Limitationen
GRIP ist ein Experiment, kein fertiges Produkt. Bekannte Einschränkungen:
- Domänenfokus: Die Taxonomie ist auf Digital Humanities optimiert. Andere Domänen (Naturwissenschaften, Wirtschaft) erfordern möglicherweise andere Archetypen.
- Keine automatische Erkennung: GRIP erkennt die Topologie nicht automatisch aus Dateien. Nutzende müssen ihre Datenstruktur beschreiben.
- Validierung ausstehend: Die Effektivität der LLM-generierten Empfehlungen wurde noch nicht in kontrollierten Studien evaluiert.
- Implementierungstiefe: Von 48 definierten Modi sind erst 4 (Edition) vollständig implementiert.
- Kognitive Prinzipien: Die zitierten HCI-Studien sind teilweise älter. Neuere Forschung zu Touch-Interfaces und Mobile-First-Design ist nicht integriert.
Für LLM-Entwickler
Die Wissensbasis in knowledge/ ist für System-Prompts optimiert:
- 04-SYSTEM-PROMPT.md – Kondensierter Prompt
- 02-MAPPINGS.md – Wenn-Dann-Logik
- 05-ARCHETYPEN.md – Spezifikationen
- 10-SPEZIALISIERUNGEN.md – Heuristiken
- 15-MODI.md – 48 Modi definiert
- 16-CONTEXT-MAP.md – Wissensbedarf
Technologie
- Vanilla JavaScript (ES6+)
- CSS Custom Properties
- Statische Website
- Client-Side Rendering
- Keine Framework-Dependencies
- GitHub Pages ready
Wissenschaftliche Standards
GRIP orientiert sich an etablierten Metadatenstandards der Digital Humanities:
- TEI P5 – Text Encoding Initiative für kritische Editionen
- DDI – Data Documentation Initiative für Umfragedaten
- MODS – Metadata Object Description Schema für bibliografische Daten
- LIDO – Lightweight Information Describing Objects für Sammlungsinventare
- SKOS – Simple Knowledge Organization System für Thesauri und Ontologien
Literaturverweise
- Dyson, M. C. (2004). How physical text layout affects reading from screen. Behaviour & Information Technology, 23(6), 377-393.
- Healey, C. G., & Enns, J. T. (2012). Attention and visual memory in visualization and computer graphics. IEEE Transactions on Visualization and Computer Graphics, 18(7), 1170-1188.
- McGuffin, M. J., & Jurisica, I. (2009). Interaction techniques for selecting and manipulating subgraphs in network visualizations. IEEE Transactions on Visualization and Computer Graphics, 15(6), 937-944.
- Sellen, A. J., & Harper, R. H. (2003). The Myth of the Paperless Office. MIT Press.
- Tufte, E. R. (2001). The Visual Display of Quantitative Information (2nd ed.). Graphics Press.
- Few, S. (2012). Show Me the Numbers: Designing Tables and Graphs to Enlighten (2nd ed.). Analytics Press.