Trip Report KIM Workshop 2012

MPDL

Wird in den kommenen Tagen von mir befüllt. Awu 17:18, 25 April 2012 (CEST)

=Keynote „Linked Data Cloud: die frühen Jahre“ - Jürgen Klett, DNB=

Dieser Vortrag bietet einen Überblick über die historische und zukünftige Entwicklung der „Linked Data Cloud“. Derzeit erfährt „Linked Data“ einen Hype. Ein stabiles und qualitativ hochwertiges Niveau wird erst in den kommenden Jahren erreicht werden. Um den Vernetzungsgrad zu erhöhen und Stabilität zu erreichen, werden zusätzliche Infrastruktur, Werkzeuge und passgenaue Erschließungsprozesse benötigt. Trotzdem steht Linked Data noch am Anfang, zentrale organisatorische, rechtliche und infrastrukturelle Fragen sind noch offen.

Bibliotheken setzen folgende Erwartungen, in „Linked Data“: größere Sichtbarkeit, größere Reichweite, leichterer Zugang, neue Dienste / Anwendungskontexte, Interoperabilität mit anderen Domänen und mehr Arbeitsteilung/ Nachnutzung.

Der Referent stellt auch die Frage nach der Zukunft der bibliografischen Erschließung und Dienste im Zeitalter des Webs: „Linked Data“ ist (nur) eine Sichtweise und hilfreich, um Erschließung neu zu definieren. Es wird zu einer Rollenverschiebung bei bibliothekarischen Dienstleistungen kommen: mehr Backend, weniger Frontend. Die bibliografische Recherche wird die Recherche im Web sein.

Herr Klett fordert folgende Qualitätsmerkmale von Linked Data: Persistenz, Transparenz, Nachnutzbarkeit, Interoperabilität, Offenheit, Vernetzungsgrad. Davon ausgehend zeigt er folgende Herausforderungen auf: Verlässlichkeit, Interoperabilität/Nachnutzbarkeit, verteilte Datenhaltung und Datenvernetzung.

Die Plattform „Culture Graph“ (http://culturgraph.org) wird als offene Plattform zur Datenvernetzung vorgestellt. Sie bietet persistente Identifizierung von Entitäten, Verwaltung und Veröffentlichung von Mappings, Berechnung von Ähnlichkeiten und Verknüpfungen und Offene Daten / Freie Software. Die Plattform enthält 88 Mio. Datensätze im System. Herr Klett zieht folgendes Fazit: vernetzte Daten im WWW sind die Zukunft, aber wir stehen vor noch einigen Herausforderungen. Der Nachweis des Mehrwerts von „Linked Data“ muss erst noch erbracht werden. Es wird keinen klaren Schnitt zwischen alt und neu geben: MARC/MAB werden weiterhin bestehen bleiben, andererseits werden RDA und BIBFrame an Bedeutung gewinnen. Eine komplette Auseinanderentwicklung wird nicht erfolgen. Best-Practices werden sich herausbilden und Erschließungsprozesse und Werkzeuge müssen an die Entwicklungen angepasst werden. Das Größte Risiko stellen fehlende Kommunikation und zu wenig Kooperation dar.

=Session 1: „Konkordanzmanagement“ moderiert von Adrian Pohl, hbz=

Vortrag 1 „Der Standardthesaurus Wirtschaft (SWT) - Linked Data als Dauerbaustelle“ – Joachim Neubert, ZBW
Dieser Vortrag erläutert Probleme und Lösungen im Hinblick auf Versionierung und Mapping des Standardthesaurus Wirtschaft. Dieser umfasst 6000 Deskriptoren in Deutsch und Englisch und bildet ein feinmaschiges Begriffsnetz mit Ober- und Unterbegriffen und verwandten Begriffen. Durch regelmäßige Änderungen bestehen verschiedene Versionen. Zur Verwaltung wird das „STW-Versionierungskonzept“ eingesetzt. Dieses beinhaltet folgende Komponenten:  a skos:ConceptScheme, void:Dataset ; dcterms:issued "2012−03−21"^^xsd:date ; owl:versionInfo "8.10" ; Aus Semantic Web Perspektive besteht das Problem, dass RDF-Aussagen über einzelne Versionen von Concepts und ConceptScheme (und damit über die Änderungen/Mappings zwischen Versionen) nicht möglich sind. Folgende Lösungsansätze werden verfolgt:  a skos:Concept, zbwext:Descriptor ; skos:inScheme  ; rdfs:label "Real estate loan"@en, "Realkredit"@de ; owl:deprecated true ; dcterms:isReplacedBy  ; skos:historyNote "Deprecated (used at last in version 8.04)"@en, "Stillgelegt (zuletzt verwendet in Version 8.04)"@de
 * RDF-Statements über STW-Version
 * stabile URIs für skos: ConceptScheme und skos:Concept
 * Entstehungstag: http://zbw.eu/swt
 * 303-Redrict auf versionierte URL
 * Kompletter Bestand historischer RDFa/rdf/ttl-Dateien wird vorgehalten (mit Hinweis auf obsolete Version)
 * Kompletter Bestand historischer RDFa/rdf/ttl-Dateien wird vorgehalten (mit Hinweis auf obsolete Version)
 * Suchfunktion und Webservices arbeiten immer auf aktueller Version
 * Frühere Versionen sind verfügbar: Änderungen sind also intellektuell nachvollziehbar.
 * eine detaillierte Änderungshistorie ist als Textdatei abgelegt.
 * URI weiter definiert – RDFa-Seite:

Für den STW existieren verschiedene Mappings, die durch unterschiedliche Verfahren erstellt wurden: Das Mapping zu DBMedia wurde komplett automatisch (lexikalisches Matching, automatische Evaluierung der Matches) erstellt. Dabei traten folgende Probleme auf: keine Evaluation und Korrektur, nicht-verknüpfte, deutsche Wikipedia-Artikel fielen raus, stellenweise Verzerrung durch Up-Posting, zum Teil fehlende Konzepte in DBMedia. Zur Lösung wird nun ein internes Evaluierungs- und Korrekturprojekt durchgeführt. Das Mapping zur SWD (Schlagwortnormdatei) wurde rein intellektuell erstellt. Dies war sehr zeitintensiv, es gab keinerlei Tool-Unterstützung. Die Ausgabe aus dem DNB-System stellte ein eigener, aufwändiger Arbeitsschritt dar. Für zukünftige Mappings stellt der toolgestützte Mapping-Workflow eine vielversprechende Perspektive dar. Er sieht drei Arbeitsschritte vor: 1. automatische Generierung von Vorschlägen, ggf. Reduzierung auf einen Ausschnitt (obere/untere Thresholds) 2. intellektuelle Bewertung der Vorschläge 3. Speicherung der Entscheidung (Art des Matches oder noMatch), Als mögliche Tools werden SILK (für Massendaten, http://www4.wiwiss.fu-berlin.de/bizer/silk/) und Amalgame (http://semanticweb.cs.vu.nl/amalgame/) vorgestellt.

Vortrag 2 „Matching von Titeldaten - Fragen und Ansätze“ Adrian Pohl, hbz
=Session 2: Ontologien in Anwendung - Normdaten (Moderation: Kai Eckert=