Hauptinhalt
Agile Qualitätssicherung von Metadaten zu kulturellen Objekten im Kontext von Datenintegrationsprozessen
Finanziert von der Deutschen Forschungsgemeinschaft (2023–2025)
Die Qualität von Metadaten zu kulturellen Objekten spielt eine entscheidende Rolle für ihre Zugänglichkeit und weitere Nutzung. Dies gilt prinzipiell für jegliche Datenangebote, in besonderer Weise trifft es für Verbundplattformen wie die Deutsche Digitale Bibliothek (DDB) und das Graphikportal ebenso wie für die wachsenden Datenangebote von NFDI-Konsortien wie NFDI4Culture und Text+ zu. Zu integrierende Daten weisen sehr häufig eine andere, dabei nicht selten geringere Qualität als von den Zielsystemen gewünscht auf. Die Daten müssen im Vorfeld der Integration in ein Zielsystem in einem in der Regel aufwändigen Prozess und im Dialog zwischen Datengebenden und Datennehmenden analysiert und gegebenenfalls angepasst werden. Wenn eine Software zur Qualitätssicherung verwendet wird, muss diese von Softwareentwickelnden angepasst werden, sobald Änderungen an den Qualitätsanforderungen vorgenommen werden. Domänenexpert*innen haben bisher kaum eine Chance, eine Qualitätssicherung mit existierenden Werkzeugen eigenständig durchzuführen, geschweige denn bestehende Qualitätsanforderungen anzupassen.
Ziel des Projekts ist es, Domänenexpert*innen mit wenig Technologiewissen in die Lage zu versetzen, die fachspezifische Qualitätssicherung von Metadaten selbst zu definieren und durchzuführen. Hierzu sollen ein Prozess und eine Web-basierte Software entwickelt werden, mit der im Vorfeld der eigentlichen Qualitätssicherung die Qualitätsanforderungen von den Domänenexpert*innen semiautomatisch definiert werden können. Im Anschluss wird daraus automatisch der benötigte Input für verschiedene Techniken der Qualitätssicherung, z.B. Schematron, oder bestehende Software und Frameworks, wie z.B. das Metadata Quality Assessment Framework, generiert. Diese bestehenden Komponenten werden in den Qualitätssicherungprozess eingebettet und können ohne die bisher benötigte technische Expertise eingesetzt werden. Die Qualitätsanalyse und damit einhergehende mögliche Qualitätsverbesserungen werden dabei separat definiert und voneinander unabhängig durchführbar sein. Die im Projekt entwickelte Software wird der Kern eines eigenständigen Prozesses zur agilen Qualitätssicherung, der seinerseits in bestehende Datenintegrationsprozesse integriert, aber auch unabhängig davon verwendet werden kann. Der Prozess wird automatisierter und leichter anpassbar als bisherige Qualitätssicherungsmechanismen sein. Als konkrete Anwendungsfälle dienen die Qualitätssicherung von LIDO-Daten für die Integration in die DDB und in das Graphikportal sowie von TEI-Header-Daten im TextGrid Repository. Die Evaluation des Ansatzes ist eingebettet in die NFDI-Konsortien NFDI4Culture und Text+. Da der Ansatz unabhängig von konkreten Datenformaten und Technologien und damit generisch ist, ist eine Übertragbarkeit auf die Qualitätssicherung von Metadaten in weiteren Anwendungsbereichen möglich.
Kooperationspartner
Péter Király, PhD, Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen (GWDG) - LinkedIn Profil
Regine Stein, Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB)