11. BSZ-Kolloquium 2010
Refine
Keywords
- Bibliotheksinformationssystem (4)
- aDIS|BMS (4)
- Datenmigration (3)
- Resource Description and Access (3)
- Austauschformat (2)
- BAM-Portal (2)
- Bibliotheksservice-Zentrum Baden-Württemberg (2)
- GND (2)
- Gemeinsame Normdatei (2)
- Hochschulbibliothek (2)
Language
- German (22)
Has Fulltext
- yes (22)
Year of publication
- 2010 (22)
Gliederung des Vortrags:
1. Digitalisierung Schritt für Schritt
2. Anwendung von DWork
2.1 Anlegen eines Datensatzes
2.2 Erstellung der Strukturdaten (Inhaltsverzeichnis)
2.3 Einspielung der Image-Sequenz und Verknüpfung mit den Strukturdaten
2.4 Konvertierung der Images und OCR
2.5 Export für die Webpräsentation
2.6 Archivierung
3. Die Webpräsentation eines digitalen Buches
Abstract des Vortrags:
Zur Überführung der einzelnen Schritte bei der Buchdigitalisierung in einen geregelten Workflow bedarf es außer des notwendigen technischen Equipments, wie Digitalisierungsgeräten (Scanner, Roboter, Kameras etc.), PCs zur Aufnahmesteuerung und zur Nachbearbeitung sowie geeigneten Speichermedien auch eines geeigneten Steuerungsinstruments. Zu diesem Zweck wurde von der IT-Abteilung der UB Heidelberg das System DWork entwickelt, das seit 2008 im Digitalisierungszentrum der UB Heidelberg eingesetzt wird. DWork bildet sämtliche Schritte der Digitalisierung ab, beginnend beim Anlegen der bibliographischen Daten durch den Import aus wahlweise dem lokalen OPAC oder aus der Verbunddatenbank, über die inhaltliche Erschließung in Form von Strukturdaten, die Zuordnung zwischen gescannten Images und den Strukturdaten, der Erstellung der Webpräsentation bis hin zur abschließenden Datenarchivierung.
Gliederung des Vortrags:
1. BibTip am KIT
1.1. Exemplarische Empfehlungen im KIT Katalog
1.2. BibTip Statistiken des KIT Kataloges
2. Rückblick und aktueller Stand der Dienstleistung BibTip
3. Shared Recommendations
3.1. Motivation
3.2. Grundüberlegung und Funktionsweise
3.3. Aspekte von Shared Recommendations
3.3.1. Cold Start Problem
3.3.2. Kleine lokale Communities
3.3.3. Frisches Blut
3.4. Bestandsaktivierung durch Sharing
3.5. Einflüsse auf Empfehlungsabdeckung
4. Ausblick
Abstracts des Vortrags:
Der am KIT entwickelte Empfehlungsdienst BibTip wird inzwischen in zahlreichen Bibliothekskatalogen im Inland und zunehmend auch im Ausland eingesetzt. Ein wesentliches Charakteristikum des Dienstes ist die Aggregierung lokalen Rechercheverhaltens in Form von Verknüpfungen zwischen verschiedenen Informationsobjekten. Das heißt statistische Analyse und Empfehlungsberechnung erfolgen auf den lokalen Beobachtungsdaten des jeweiligen Kataloges, um eine bestmögliche Abstimmung des Empfehlungsdienstes auf die Nutzergruppe des Kataloges zu ermöglichen. Mittels der aktuellen BibTip-Weiterentwicklung Shared Recommendations ist es nun möglich, lokale Empfehlungen auch in Fremdkatalogen zu nutzen. Die Einführung von Shared Recommendations bedeutet dabei keine Abkehr von dem bewährten Prinzip der lokalen Nutzungsbetrachtung, sondern vielmehr eine Erweiterung. Anhand von verschiedenen Beispielen wird der Nutzen verdeutlicht, sowie die unterschiedlichen Aspekte des Sharings herausgearbeitet.
Gliederung des Vortrags:
1. Metadaten aus BAM in XML-Format
2. Aufbau einer passenden Ontologie
3. Bildung von RDF-Tripel mit XSLT
4. RDF-Tripel à Datenbank
5. Web-Oberfläche mit Suchformular mit SPARQL-Abfrage-Logik
Abstract des Vortrags:
Das BSZ betreibt BAM, das gemeinsame Portal zu Bibliotheken, Archiven, Museen. Das Portal sammelt die Metadaten von diesen drei kulturellen Sektoren, indexiert sie mit Hilfe der technischen Plattform Lucene und macht sie als zentraler Nachweispunkt von Kulturgütern einer breiten Öffentlichkeit zugänglich. Gegenwärtig umfassen die Bestände des BAM-Portals rund 42,8 Millionen Datensätze, davon rund 1,8 Millionen Digitalisate, die von mehreren großen Bibliotheken bzw. Bibliotheksverbünden, 16 Museen und Museumsnetzwerken sowie mehreren Archiven eingebracht werden.
Auf Basis dieser Daten erstellt das BSZ zurzeit einen Prototyp, der diese Metadaten über XSLT-Transformationen in RDF-Tripel umwandelt. Die Tripel werden in eine Semantic-Web-taugliche Datenbank integriert und verknüpft. Mit einer prototypischen Implementierung einer Weboberfläche mit Suchformular können SPARQL-Abfrage-Logik und erste Ergebnisausgaben erprobt werden. Der Vortrag stellt die Vorgehensweise bei der Erstellung dieses Prototyps dar und präsentiert erste Ergebnisse, Erfahrungen und Erkenntnisse.
Gliederung des Vortrags:
1. Definition des Semantic Web
2. Webstandards
3. Standards für das Semantic Web
4. Ontologien – mehr als nur Formate
5. Bibliotheken und das Semantic Web
6. Best Practice Projekte
7. Gute Gründe für das Semantic Web
Abstract des Vortrags:
Das Semantic Web ist in aller Munde, aber wer kann tatsächlich mit wenigen Sätzen sagen, was sich dahinter verbirgt? Ist es vielleicht nur ein neuer Hype? Oder gar alter Wein in neuen Schläuchen? Wenn dem nicht so ist, dann müssen wir fragen, was das Semantic Web konkret für das Bibliothekswesen bringt, welche Best Practice Projekte es gibt und welchen Aufwand es bedeutet, unsere Informationssysteme „Semantic-Web-Ready“ zu machen.
Um das zu beantworten, sollten wir uns zuvor mit den Grundlagen des Semantic Web vertraut gemacht haben. Dazu will dieser Vortrag einen Beitrag leisten. Es werden gängige Definitionen des Semantic Web vorgestellt, die Basistechnologien benannt und Beispiele von Best Practice-Projekten gegeben. Die Darstellung setzt bei den uns vertrauten Webtechnologien wie HTML, URL und Dublin Core an und schlägt eine Brücke zu den Basistechnologien des Semantic Web wie RDF, XML und OWL.
Danach wird argumentiert, warum die Bibliotheken sich bei diesem Thema in der Pole-Position befinden. Am Ende sind Sie in der Lage, sich selbst einen Weg durch den Dschungel der Begriffswelt des Semantic Web zu bahnen und das hier gelernte zu vertiefen. Wenn Sie von einem Kollegen oder einer Kollegin gefragt werden, was das „Semantic Web“ ist, haben Sie eine fundierte Antwort parat.
Gliederung des Vortrags:
1. Einführung/Überblick
a. Grundidee und Anspruch
b. Zielgruppe
c. Projekthistorie
d. Projektkonsortium und inhaltliche Module
e. Technische Architektur
2. Anforderungen/Randbedingungen für die Umsetzung
a. Funktionale Anforderungen
b. Recherche-Szenarien
c. Highlights
d. Technische Umsetzung, konkreter Ansatz
3. Ausblick
Abstract des Vortrags:
Mit LEO-BW (Landeskunde entdecken, erleben, erforschen online) wird ein umfassendes landeskundliches Online-Informationssystem für Baden-Württemberg aufgebaut, über das die Angebote zahlreicher Landeseinrichtungen vernetzt abgerufen werden können. Realisiert wird LEO-BW im Rahmen eines Einführungsprojekts mit zurzeit 17 Partnern unter Leitung des Landesarchivs Baden-Württemberg im Auftrag der baden-württembergischen Landesregierung.
Eine erste Version des Systems mit ausgewählten Inhalten wird der Öffentlichkeit zum 60jährigen Landesjubiläum im April 2012 vorgestellt. Dabei werden Grundinformationen zum Land sowie seinen Städten und Gemeinden aus Geschichte und Gegenwart in Verbindung mit Karten, Abbildungen, Literatur und Quellen präsentiert. Die beteiligten Institutionen decken nicht nur einen Großteil landeskundlicher Fachbereiche ab, sondern sie gewährleisten zugleich durch ihre institutionell gepflegten Fachinformationssysteme die Qualität des gemeinsamen Internetangebots. Zentrale Rechercheinstrumente des Informationssystems bilden die Ortsnormdatenbank des Landesarchivs, die auf einer geografisch eindeutigen Zuordnung des jeweiligen Ortes basiert (Georeferenzierung), sowie die Persönlichkeitsdatenbank der Württembergischen Landesbibliothek. Für Recherche und Ergebnispräsentation kommt auch ein GIS zum Einsatz.
Um möglichst viele und qualitativ hochwertige Treffer zu erzielen, müssen Schnittstellen und Inhalte mit den beteiligten Institutionen definiert werden. Die Informationen werden entweder im „LEO-BW-Data-Warehouse“ vorgehalten oder über Webservices an das Portal angebunden. Die Ergebnispräsentation erfolgt in LEO-BW selbst oder über eine Verlinkung auf die institutionellen Informationssysteme der Partner. In weiteren Ausbaustufen soll das Informationssystem sowohl inhaltlich – insbesondere durch die Beteiligung weiterer Content-Provider – als auch funktional ständig weiterentwickelt werden.
Die Deutsche Digitale Bibliothek ist eine von vielen weltweit laufenden Bemühungen, den online-Zugang für digitalisierte Information aus Kultur und Wissenschaft zu verbessern. Bereits Anfang des 20. Jahrhunderts hatte Paul Otlet die Idee der Ubiquität des Wissens, der elektronischen Übertragung von Bildern über Telefonleitungen direkt auf einen Fernsehbildschirm am Arbeitsplatz. Nicht nur Bücher, sondern Quellen auf unterschiedlichen Trägern (Text, Bild, Ton) und aus Archiven, Museen sowie anderen Gedächtnisinstitutionen sollten so zugänglich gemacht werden.
Die Deutsche Digitale Bibliothek ist ein Bund-Länder-Projekt der Bundesrepublik Deutschland. Es wird 2010 und 2011 aus dem Konjunkturprogramm II mit fünf Millionen Euro und ab 2011 für fünf Jahre mit 2.6 Mio. Euro jährlich finanziert. Das ist eine gute finanzielle Ausstattung des Projektes, die selbstverständlich die Erwartungen in das Ergebnis erheblich steigern. Es wird erwartet, dass die Zusammenarbeit mit dem Theseus-Programm, insbesondere das Teilprojekt Contentus die erwarteten Innovationen bei der besseren Nutzung der online verfügbaren Ressourcen ermöglicht. Die Deutsche Digitale Bibliothek wird nationaler Datenaggregator für die Europeana sein, eine Aufgabe, die den europäischen Regierungen bereits seit einiger Zeit von der Europäischen Kommission zugedacht worden war.
Einige Länder wie Frankreich, Österreich oder Italien haben solche Portale bereits seit einiger Zeit aufgebaut.
Daneben gibt es aber auch sog. Spartenportale, die z. B. aus Museen Europas (ATEHNA) oder europäischen Archiven (APEnet) Daten an Europeana liefern. Die Deutsche Digitale Bibliothek will nicht nur die Archive, Bibliotheken und Museen als Gedächtnisinstitutionen berücksichtigen, sondern auch Bild- und Filmarchive sowie Institutionen der Denkmalpflege. Inwieweit die Rundfunk- und Fernsehanstalten sowie die Verlage (Zeitungen, Zeitschriften, Bücher) mitarbeiten werden, ist noch Verhandlungssache.
Der Schwerpunkt der Angebote soll auf Digitalisaten in hoher Qualität liegen, d. h. bei Büchern möglichst OCR-erschlossene Volltexte. Auch die hohe Qualität der Metadaten zu den Digitalisaten ist wichtig, denn ein Teil der Ziele in Hinsicht auf die Verknüpfung der digitalen Objekten mit weiteren Internetressourcen (semantic web) lässt sich nur dann realisieren. Es ist den Beteiligten klar, dass hier am Beginn Kompromisse geschlossen werden müssen. Vielleicht helfen aber auch schon Werkzeuge zur automatischen Anreicherung der Daten z. B. durch entity recognition, die Daten besser vernetzbar zu machen. Eine solche Verbesserung der Daten könnte als Dienstleistung auch an die Institutionen zurückfließen, die die Daten liefern werden. Die grundsätzliche Ausrichtung der Deutschen Digitalen Bibliothek ist es, die angebotenen Digitalisate umsonst zugänglich zu machen. Doch wird für die Zukunft, z. B. wenn Verlagsangebote einbezogen werden, der Nachweis auch kommerzieller Angebote nicht ausgeschlossen. Die nicht kommerzielle Nutzung wird bedeutsam sein für den Aufbau der Deutschen Digitalen Bibliothek als Arbeitsplatz für Einzelne und Gruppen, als Möglichkeit, das Angebot mit anderen zu vernetzen und dort in anderen Umgebungen weiterzuentwickeln. Die Deutsche Digitale Bibliothek soll für Schüler/innen, Studierende, an Schulen und Hochschulen Lehrende, Journalist/innen und kulturell bzw. wissenschaftlich Interessierte ein Platz der Kooperation und der sozialen Vernetzung werden.
Die Deutsche Digitale Bibliothek will im sog. Extranet den Daten liefernden Kultur- und Wissenschaftseinrichtungen nicht nur die Möglichkeit eröffnen, ihre Daten hochzuladen und zu pflegen, sondern auch weitere Informationen anzubieten. Dazu zählen vor allem Fragen des Urheber-, Verwertungs- und Leistungsschutzrechtes sowie der Lizensierung von geistigem Eigentum. Die Deutsche Digitale Bibliothek wird und muss sich hier eng an die vergleichsweise strengen Vorgaben des deutschen Rechts halten.
Trotz solcher möglichen Einschränkungen wird die Deutsche Digitale Bibliothek der zentrale Nachweisort für Digitalisate aus deutschen Kultur- und Wissenschaftseinrichtungen sein und somit ältere Plattformen vergleichbarer Art ablösen.
Gliederung des Vortrags:
1. Rahmenkonzept 2009
2. Auftrag der GWK
3. Ziele
4. Organisation und Verfahren
5. Themen
6. Arbeitsgruppen
7. Termine
Abstract des Vortrags:
Anfang 2009 beauftragte die Gemeinsame Wissenschaftskonferenz des Bundes und der Länder (GWK) die Leibniz-Gemeinschaft mit der Erarbeitung eines Konzeptes zur Fachinformationsinfrastruktur vor allem bezogen auf die WGL-Informationsinfrastruktureinrichtungen jedoch mit einer auf Erweiterung hin angelegten Perspektive. Eine vom Präsidenten der WGL eingesetzte Arbeitsgruppe unter Leitung von Sabine Brünger-Weilandt, Präsidiumsbeauftragte für Informationsinfrastruktur, erarbeitete ein entsprechendes Rahmenkonzept, das der GWK im September vorgelegt wurde. Es enthält den Vorschlag, unter Einbeziehung aller wichtigen Akteure ein umfassendes Konzept inkl. Strukturvorschlag für Deutschland zu entwerfen.
Die GWK ist diesem Vorschlag gefolgt und hat die Leibniz-Gemeinschaft im Oktober 2009 damit beauftragt, unter ihrer Federführung ein nationales Gesamtkonzept für die Informationsinfrastruktur zu erarbeiten und im Frühjahr 2011 vorzulegen. Die Leitung wurde wiederum Frau Brünger-Weilandt übertragen, die in Abstimmung mit dem Präsidenten der Leibniz-Gemeinschaft eine Kommission „Zukunft der Informationsinfrastruktur“ (KII) gebildet hat, an der u. a. auch Vertreter des Bundes und der Länder sowie der GWK als ständige Gäste teilnehmen. Die bundesweit wichtigsten Informationseinrichtungen sind ebenso involviert wie Nutzergruppen der verschiedenen wissenschaftlichen Disziplinen. Vertreter der wissenschaftlichen Verlage und Nutzer aus der forschenden Industrie sind als Experten einbezogen. Die Kommission umfasst mittlerweile ca. 130 Personen aus ca. 60 Institutionen.
Acht themenorientierte Arbeitsgruppen leisten nach einem einheitlichen Arbeitsauftrag die inhaltliche Zuarbeit zu dem Gesamtkonzept. Ein erster wichtiger Erfolg ist, dass hierbei eine inhaltliche und organisatorische „Verzahnung“ mit der Arbeit der Allianz-Initiative Digitale Information erfolgt ist.
Folgende Themen werden behandelt:
1. Lizenzierung
2. Hosting / Langzeitarchivierung
3. Nichttextuelle Materialien
4. Retrodigitalisierung / kulturelles Erbe
5. Virtuelle Forschungsumgebungen
6. Open Access / elektronisches Publizieren
7. Forschungsdaten
8. Informationskompetenz / Ausbildung
Gliederung des Vortrags:
1. Elektronische Dokumentlieferung
2. Aktueller Stand
3. Möglichkeiten der Lieferung und des Empfangs
4. Zeitplan
Abstract des Vortrags:
Bisher wurden Aufsatzkopien in der Fernleihe per Post, Containerdienst oder Bücherauto verschickt. Seit Juni 2010 können Aufsatzkopien in der verbundinternen Online-Fernleihe von der gebenden Bibliothek als PDF-Datei an die nehmende Bibliothek übermittelt werden. Bisher haben etwa 180 Bibliotheken PDF-Dokumente erhalten, etwa 50 Bibliotheken liefern bereits elektronisch.
Es gibt zwei Möglichkeiten der Lieferung und des Empfangs von PDF-Dateien: Bibliotheken mit einem eher geringen Bestellaufkommen nutzen die Möglichkeit, Dokumente direkt über die Dienstoberfläche zu verschicken und abzurufen, große Geber- und Nehmerbibliotheken automatisieren möglichst viele Arbeitsschritte und liefern/empfangen die Dokumente über den SFTP-Server des BSZ. Im nächsten Schritt wird die verbundübergreifende elektronische Lieferung von Aufsätzen realisiert.
Gliederung des Vortrags:
1. Metadaten für E-Books (Cornelia Katz)
2. Neueinspielung RVK (Armin Kühn)
3. Bibliografien im Verbund (Dieter Janka)
4. SRU-Schnittstelle (Cornelia Katz)
Abstract des Vortrags:
Metadaten für E-Books
Die Absprachen zur arbeitsteiligen maschinellen Übernahme bzw. Erfassung von Titeldaten zu E-Book-Sammlungen sind verbundübergreifend getroffen. In diesem Vortrag wird dazu ein kurzer Überblick gegeben werden und der Bezug zum Verfahren im SWB hergestellt.
Neueinspielung RVK
Nach Ersteinspielung der RVK im Jahre 2005 hat sich die Normdatei der RVK verändert und weiterentwickelt. Ende August wurden die im SWB vorhandenen RVK-Normsätze mit einem neuen Gesamtabzug der RVK im SWB abgeglichen und die Neuerungen wurden eingespielt. Es sind nun über 810.000 gültige RVK-Normdatensätze im SWB vorhanden. Vorgestellt wird das Einspielverfahren und die erzielten Ergebnisse.
Bibliografien im Verbund
In der Katalogisierungsdatenbank des Südwestdeutschen Bibliotheksverbundes können seit jeher in Absprache mit dem BSZ auch Daten für Bibliografien erfasst, selektiert und auf Wunsch als bibliografische Sichten abgebildet werden. In einem kurzen Abriss werden die verschiedenen Möglichkeiten hierzu beispielhaft vorgestellt und Voraussetzungen dafür benannt.
SRU-Schnittstelle
Mit Inbetriebnahme der ersten aDIS/BMS-Lokalsysteme in den Hochschulbibliotheken Offenburg und Ludwigsburg wurde auch die SRU-Schnittstelle, die das Anlegen, Korrigieren und Löschen von Lokaldaten über den Erfassungsclient des aDIS/BMS-Systems ermöglicht, realisiert. Im Vortrag wird diese Schnittstelle von Verbundsystemseite vorgestellt.
Gliederung des Vortrags:
1. Das Robert-Schumann-Haus
2. Nachlasserschließung im SWB
3. Korrespondenz, Lebensdokument und Werkmanuskript: OPAC-Anzeige und Erfassung
4. Das Exilarchiv der DNB
5. Digitalisate
Abstract des Vortrags:
Das Robert-Schumann-Haus in Zwickau besitzt die weltweit umfangreichste Sammlung von Dokumenten zu Robert und Clara Schumann. Einen Schwerpunkt der Sammlung stellt der autobiographische, literarische und musikliterarische Nachlass Robert Schumanns dar.
Das Robert-Schumann-Haus entschloss sich 2009 dazu, dem SWB beizutreten und dort auch den Nachlass zu erschließen. Um eine Erschließung des Nachlasses nach RAK-RNA zu ermöglichen, waren Formaterweiterungen und die Einführung neuer Codierungen nötig. So wurden neue PICA-Felder z. B. für das Incipit, für den Beschreibstoff und den Erhaltungszustand eingerichtet. Für die vier Materialhauptgruppen nach RAK-RNA (Werkmanuskript, Korrespondenz, Lebensdokument, Sammlungen und Objekte) wurden neue Codierungen eingeführt, um die bestehenden Dokumenttypen zu verfeinern. Das Ergebnis ist eine (momentan) einstufige Erfassungsstruktur, die es insbesondere kleineren Einrichtungen ermöglicht, auf unkomplizierte Weise Nachlässe und andere Bibliotheksbestände in einer einzigen Datenbank zu erfassen.