11. BSZ-Kolloquium 2010
Refine
Keywords
- Bibliotheksinformationssystem (4)
- aDIS|BMS (4)
- Datenmigration (3)
- Resource Description and Access (3)
- Austauschformat (2)
- BAM-Portal (2)
- Bibliotheksservice-Zentrum Baden-Württemberg (2)
- GND (2)
- Gemeinsame Normdatei (2)
- Hochschulbibliothek (2)
Language
- German (22)
Has Fulltext
- yes (22)
Year of publication
- 2010 (22)
Gliederung des Vortrags:
1. Das Bibliothekssystem Koha
2. Die Koha-Community
3. Koha im BSZ
4. Die neue Version 3.2
5. Fazit und Ausblick
Abstract des Vortrags:
Koha ist ein vollständig web-basiertes integriertes Open-Source-Bibliotheks-system und verfügt über die Module Katalogisierung, Ausleihe, Erwerbung, Zeitschriftenverwaltung und OPAC. Besonders der OPAC besticht dabei durch den Einsatz von Suchmaschinentechnologie in Verbindung mit zahlreichen Web-2.0-Features. Die Community um Koha ist international. Weltweit wird das System in über 1.000 Bibliotheken und Informationseinrichtungen unterschiedlichster Größe, Ausrichtung und Spezialisierung eingesetzt.
Das BSZ betreut das System seit Ende 2009 für die Bibliotheken der Hochschule für Jüdische Studien in Heidelberg und der Lehrerseminare in Stuttgart und Weingarten. Die Betreuung erfolgt dabei nach dem Model Software-as-a-Service innerhalb eines umfangreichen Dienstleistungspakets. Mit der Version 3.2 hat Koha dank der erfolgreichen Zusammenarbeit zwischen Anwendern und verschiedenen Supportdienstleistern zahlreiche Funktionalitäten hinzugewonnen. Außerdem wurden die Erwerbung und einige vorhandene Module grundlegend überarbeitet und erweitert.
Gliederung des Vortrags:
1. Datenmodell IBS|BW (Wolfgang Heymans)
2. Auf geht's! Unser Weg von Horizon zu aDIS (Birgit Gruber)
3. Die aDIS-Pyramide (Susanne Schuster)
4. Biologie der Datenmigration: von Horizon nach aDIS (Clemens Elmlinger)
5. aDIS/BMS für das Identity Management: Wie ermöglicht aDIS/BMS kleinen Einrichtungen die Teilnahme an der DFN-AAI-Föderation? (Ulrich Kleiber)
Gliederung des Vortrags:
1. Ist-Zustand an der PHBL Februar 2010
2. Vorbereitungsphase
3. Migration - Allgemeines
4. Fazit aus den Abteilungen
4.1 Ausleihe
4.2 Erwerbung
4.3 Katalogisierung
4.4 Zeitschriften
4.5 Fernleihe
4.6 Opac
Abstract des Vortrags:
Die Pädagogische Hochschulbibliothek Ludwigsburg hat sich bereit erklärt, als zweite Pilotbibliothek nach Offenburg für das Projekt IBS/BW zu fungieren. In der PHBL wurden seit 2004 nach und nach alle verfügbaren Horizon-Module eingesetzt und seit über einem Jahr wird die RFID-Technologie von Bibliotheca RFID Reutlingen für die Ausleihe, einen Selbstverbucher und ein Rückgabegerät genutzt. Der Vortrag streift nur kurz die Zeit vor der Migration und richtet sein Augenmerk vorwiegend auf die Zeit nach der Migration und die dadurch entstehenden Veränderungen, Verbesserungen oder Probleme in den einzelnen Abteilungen der Bibliothek.
Gliederung des Vortrags:
1. Bibliotheksgröße
2. Standortfrage
3. Horizonmodule
4. Intercard-Lesegerät
5. Umdenken mit aDIS
6. Zukunftsmusik
Abstract des Vortrags:
Die Leiterin der Bibliothek der Hochschule Offenburg, Petra Möhringer, gibt einen Überblick über die Merkmale der Hochschulbibliothek, die dafür sprachen die Bibliothek als Pilot für das Projekt IBS/BW auszuwählen. Die Erfahrungen zeigen bereits, dass in aDIS an einigen Stellen grundsätzlich umgedacht werden muss. Außerdem schließt sie einige Wünsche für die zukünftige Entwicklung der Software an.
Gliederung des Vortrags:
1. Vorgeschichte des Projekts
2. Das Projekt IBS|BW
3. Motivation und Projektziele
4. Konsortium beteiligter Bibliotheken
5. Zentrales Betriebsmodell
6. Organisationsstruktur des IBS-Projekts
7. Kernaufgaben der IBS-AG
8. Zeitplan des IBS-Projekts
9. Aktueller Stand und Ausblick
Abstract des Vortrags:
Im Rahmen des Projekts IBS|BW wird von einem Konsortium aus wissenschaftlichen Bibliotheken ein gemeinsames, integriertes Bibliothekssystem in Baden-Württemberg eingeführt. Durch die Beteiligung des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg und den Erwerb einer Landeslizenz steht es allen wissenschaftlichen Bibliotheken in Baden-Württemberg frei, dem Konsortium beizutreten. Bei der europaweiten Ausschreibung unter Federführung der Universität Ulm wurde das integrierte Bibliothekssystem aDIS|BMS der Firma aStec ausgewählt. Als zukunftsweisend stellt sich das zentrale Betriebsmodell dar: Durch die zentrale Bereitstellung einer hochverfügbaren Serverclusterlösung am Zentrum für Datenverarbeitung (ZDV) der Universität Tübingen sowie dem BSZ als zentralen Service-Verantwortlichen werden Synergien geschaffen und die Zusammenarbeit der Partnereinrichtungen langfristig gesichert. Im Vortrag werden Projektinhalt und -vorgehen erläutert sowie das zentrale Betriebsmodell vorgestellt.
Abstract des Vortrags:
Mit Begeisterung werden in der Digitalen Bibliothek laufend Akronyme neu erfunden und entschlüsselt - DC, DINI, DRIVER, METADISS, METIS, OAI, OpenDOAR neben ROAR, sind fast zufällige Beispiele. Doch verbergen sich hinter den Akronymen regelmäßig Standards, die verbreitet, ausgelegt, angewendet und implementiert werden müssen.
Unter Mitgestaltung der OPUS-Gemeinschaft sind im Lauf des letzten Jahres Fortschritte gemacht worden im Bereich der weiteren Standardisierung des elektronischen Publizierens: das Gemeinsame Vokabular für Dokument- und Publikationstypen legt eine Grundlage für die Gestaltung von OAI-Schnittstellen für simples Dublin Core aber auch qualifiziertes XMetaDissPlus.
XMetaDissPlus wiederum dient als Schnittstelle zur Katalogisierung in Bibliotheken und Verbünden, aber auch zur Pflichtablieferung an die DNB und findet sich in den Mindestanforderungen und Empfehlungen des DINI-Zertifikates 2010 für Dokumenten- und Publikationsservices wieder. Gleichzeitig sind aber sowohl das Gemeinsame Vokabular als auch XMetaDissPlus so gestaltet, dass sie unabhängig von einer konkreten Software verwendet und in Repositorien auf der technischen Grundlage z.B. von DSpace, EPrint, Fedora oder eben auch OPUS implementiert werden können.
Dies wird unterstützt durch die Erarbeitung und Veröffentlichung der zugehörigen XML-Schemata. Der Vortrag führt aus, welchen Grundsätzen XMetaDissPlus, das Gemeinsame Vokabular und das DINI-Zertifikat folgen - auch im Hinblick auf weitere Anwendungen wie z.B. das Zählverfahren nach METIS der VG Wort. Der Vortrag zeigt gleichzeitig, welche Grundsätze verabredet wurden, um die einmal veröffentlichten Standards zu entwickeln und zukunftsfähig zu halten.
Gliederung des Vortrags:
1. OPUS – der Hochschulschriftenserver mit der größten Verbreitung
2. Anforderungen an Institutionelle Repositorien
3. Lösungskonzepte in OPUS 4
4. Das OPUS 4 Projekt
5. Die Zukunft von OPUS
Abstract des Vortrags:
Mit über hundert Installationen ist OPUS die in deutschen Bibliotheken am häufigsten eingesetzte Anwendung für Institutionelle Repositorien. Auch für das BSZ ist OPUS das Mittel der Wahl, um im Rahmen von Hosting-Angeboten Hochschulschriftenserver zu realisieren. Im Zuge der Digitalisierung des wissenschaftlichen Publizierens ist dabei das ursprüngliche „Nice-to-have“ zu einer zentralen Komponente im Dienstleistungsspektrum wissenschaftlicher Bibliotheken erwachsen. Dazu muss es divergierende Anforderungen vereinbaren: Die Einbettung in nationale wie internationale Open-Access-Netzwerke erfordert Konformität zu Standards, die Vernetzung mit lokalen Informationssystemen der Hochschule dagegen flexible Datenmodelle und ad-hoc erweiterbare Schnittstellen. Der Web-gewohnte Nutzer schließlich erwartet entsprechend komfortable Oberflächen.
Die neue Version OPUS 4 geht auf diese Herausforderung durch ein erweiterbares Datenmodell, ein variables Kollektionskonzept, konfigurierbare Publikations- und Redaktionsworkflows, professionelle Formulargestaltung sowie Suchmaschinentechnologie ein, verbunden mit anpassbaren Im- und Exportschnittstellen, die die einschlägigen bibliothekarischen Formate bedienen. Doch das Entwicklungsprojekt für OPUS 4 verzögert sich immer wieder. Was sind die Ursachen dafür? Wie und in welcher Form wird Opus noch in 2010 zur Verfügung stehen? Welche Lehren haben wir insgesamt daraus gezogen?
Aber das Release von OPUS 4 ist nicht alles. Auf die Version 4.0 werden die Versionen 4.1 und irgendwann 5.0 folgen. Die softwaretechnischen Aspekte des Open-Access, der Integration der Repositorien in die Hochschulinfrastruktur, der Austausch von Erfahrungen und die Betreuung der Publizierenden bedarf einer Zusammenarbeit der OPUS-Anwender. Um diese zu fördern baut das BSZ als OPUS-Geschäftsstelle eine Community-Plattform auf.
Gliederung des Vortrags:
1. Digitalisierung Schritt für Schritt
2. Anwendung von DWork
2.1 Anlegen eines Datensatzes
2.2 Erstellung der Strukturdaten (Inhaltsverzeichnis)
2.3 Einspielung der Image-Sequenz und Verknüpfung mit den Strukturdaten
2.4 Konvertierung der Images und OCR
2.5 Export für die Webpräsentation
2.6 Archivierung
3. Die Webpräsentation eines digitalen Buches
Abstract des Vortrags:
Zur Überführung der einzelnen Schritte bei der Buchdigitalisierung in einen geregelten Workflow bedarf es außer des notwendigen technischen Equipments, wie Digitalisierungsgeräten (Scanner, Roboter, Kameras etc.), PCs zur Aufnahmesteuerung und zur Nachbearbeitung sowie geeigneten Speichermedien auch eines geeigneten Steuerungsinstruments. Zu diesem Zweck wurde von der IT-Abteilung der UB Heidelberg das System DWork entwickelt, das seit 2008 im Digitalisierungszentrum der UB Heidelberg eingesetzt wird. DWork bildet sämtliche Schritte der Digitalisierung ab, beginnend beim Anlegen der bibliographischen Daten durch den Import aus wahlweise dem lokalen OPAC oder aus der Verbunddatenbank, über die inhaltliche Erschließung in Form von Strukturdaten, die Zuordnung zwischen gescannten Images und den Strukturdaten, der Erstellung der Webpräsentation bis hin zur abschließenden Datenarchivierung.
Gliederung des Vortrags:
1. BibTip am KIT
1.1. Exemplarische Empfehlungen im KIT Katalog
1.2. BibTip Statistiken des KIT Kataloges
2. Rückblick und aktueller Stand der Dienstleistung BibTip
3. Shared Recommendations
3.1. Motivation
3.2. Grundüberlegung und Funktionsweise
3.3. Aspekte von Shared Recommendations
3.3.1. Cold Start Problem
3.3.2. Kleine lokale Communities
3.3.3. Frisches Blut
3.4. Bestandsaktivierung durch Sharing
3.5. Einflüsse auf Empfehlungsabdeckung
4. Ausblick
Abstracts des Vortrags:
Der am KIT entwickelte Empfehlungsdienst BibTip wird inzwischen in zahlreichen Bibliothekskatalogen im Inland und zunehmend auch im Ausland eingesetzt. Ein wesentliches Charakteristikum des Dienstes ist die Aggregierung lokalen Rechercheverhaltens in Form von Verknüpfungen zwischen verschiedenen Informationsobjekten. Das heißt statistische Analyse und Empfehlungsberechnung erfolgen auf den lokalen Beobachtungsdaten des jeweiligen Kataloges, um eine bestmögliche Abstimmung des Empfehlungsdienstes auf die Nutzergruppe des Kataloges zu ermöglichen. Mittels der aktuellen BibTip-Weiterentwicklung Shared Recommendations ist es nun möglich, lokale Empfehlungen auch in Fremdkatalogen zu nutzen. Die Einführung von Shared Recommendations bedeutet dabei keine Abkehr von dem bewährten Prinzip der lokalen Nutzungsbetrachtung, sondern vielmehr eine Erweiterung. Anhand von verschiedenen Beispielen wird der Nutzen verdeutlicht, sowie die unterschiedlichen Aspekte des Sharings herausgearbeitet.
Gliederung des Vortrags:
1. Metadaten aus BAM in XML-Format
2. Aufbau einer passenden Ontologie
3. Bildung von RDF-Tripel mit XSLT
4. RDF-Tripel à Datenbank
5. Web-Oberfläche mit Suchformular mit SPARQL-Abfrage-Logik
Abstract des Vortrags:
Das BSZ betreibt BAM, das gemeinsame Portal zu Bibliotheken, Archiven, Museen. Das Portal sammelt die Metadaten von diesen drei kulturellen Sektoren, indexiert sie mit Hilfe der technischen Plattform Lucene und macht sie als zentraler Nachweispunkt von Kulturgütern einer breiten Öffentlichkeit zugänglich. Gegenwärtig umfassen die Bestände des BAM-Portals rund 42,8 Millionen Datensätze, davon rund 1,8 Millionen Digitalisate, die von mehreren großen Bibliotheken bzw. Bibliotheksverbünden, 16 Museen und Museumsnetzwerken sowie mehreren Archiven eingebracht werden.
Auf Basis dieser Daten erstellt das BSZ zurzeit einen Prototyp, der diese Metadaten über XSLT-Transformationen in RDF-Tripel umwandelt. Die Tripel werden in eine Semantic-Web-taugliche Datenbank integriert und verknüpft. Mit einer prototypischen Implementierung einer Weboberfläche mit Suchformular können SPARQL-Abfrage-Logik und erste Ergebnisausgaben erprobt werden. Der Vortrag stellt die Vorgehensweise bei der Erstellung dieses Prototyps dar und präsentiert erste Ergebnisse, Erfahrungen und Erkenntnisse.
Gliederung des Vortrags:
1. Definition des Semantic Web
2. Webstandards
3. Standards für das Semantic Web
4. Ontologien – mehr als nur Formate
5. Bibliotheken und das Semantic Web
6. Best Practice Projekte
7. Gute Gründe für das Semantic Web
Abstract des Vortrags:
Das Semantic Web ist in aller Munde, aber wer kann tatsächlich mit wenigen Sätzen sagen, was sich dahinter verbirgt? Ist es vielleicht nur ein neuer Hype? Oder gar alter Wein in neuen Schläuchen? Wenn dem nicht so ist, dann müssen wir fragen, was das Semantic Web konkret für das Bibliothekswesen bringt, welche Best Practice Projekte es gibt und welchen Aufwand es bedeutet, unsere Informationssysteme „Semantic-Web-Ready“ zu machen.
Um das zu beantworten, sollten wir uns zuvor mit den Grundlagen des Semantic Web vertraut gemacht haben. Dazu will dieser Vortrag einen Beitrag leisten. Es werden gängige Definitionen des Semantic Web vorgestellt, die Basistechnologien benannt und Beispiele von Best Practice-Projekten gegeben. Die Darstellung setzt bei den uns vertrauten Webtechnologien wie HTML, URL und Dublin Core an und schlägt eine Brücke zu den Basistechnologien des Semantic Web wie RDF, XML und OWL.
Danach wird argumentiert, warum die Bibliotheken sich bei diesem Thema in der Pole-Position befinden. Am Ende sind Sie in der Lage, sich selbst einen Weg durch den Dschungel der Begriffswelt des Semantic Web zu bahnen und das hier gelernte zu vertiefen. Wenn Sie von einem Kollegen oder einer Kollegin gefragt werden, was das „Semantic Web“ ist, haben Sie eine fundierte Antwort parat.
Gliederung des Vortrags:
1. Einführung/Überblick
a. Grundidee und Anspruch
b. Zielgruppe
c. Projekthistorie
d. Projektkonsortium und inhaltliche Module
e. Technische Architektur
2. Anforderungen/Randbedingungen für die Umsetzung
a. Funktionale Anforderungen
b. Recherche-Szenarien
c. Highlights
d. Technische Umsetzung, konkreter Ansatz
3. Ausblick
Abstract des Vortrags:
Mit LEO-BW (Landeskunde entdecken, erleben, erforschen online) wird ein umfassendes landeskundliches Online-Informationssystem für Baden-Württemberg aufgebaut, über das die Angebote zahlreicher Landeseinrichtungen vernetzt abgerufen werden können. Realisiert wird LEO-BW im Rahmen eines Einführungsprojekts mit zurzeit 17 Partnern unter Leitung des Landesarchivs Baden-Württemberg im Auftrag der baden-württembergischen Landesregierung.
Eine erste Version des Systems mit ausgewählten Inhalten wird der Öffentlichkeit zum 60jährigen Landesjubiläum im April 2012 vorgestellt. Dabei werden Grundinformationen zum Land sowie seinen Städten und Gemeinden aus Geschichte und Gegenwart in Verbindung mit Karten, Abbildungen, Literatur und Quellen präsentiert. Die beteiligten Institutionen decken nicht nur einen Großteil landeskundlicher Fachbereiche ab, sondern sie gewährleisten zugleich durch ihre institutionell gepflegten Fachinformationssysteme die Qualität des gemeinsamen Internetangebots. Zentrale Rechercheinstrumente des Informationssystems bilden die Ortsnormdatenbank des Landesarchivs, die auf einer geografisch eindeutigen Zuordnung des jeweiligen Ortes basiert (Georeferenzierung), sowie die Persönlichkeitsdatenbank der Württembergischen Landesbibliothek. Für Recherche und Ergebnispräsentation kommt auch ein GIS zum Einsatz.
Um möglichst viele und qualitativ hochwertige Treffer zu erzielen, müssen Schnittstellen und Inhalte mit den beteiligten Institutionen definiert werden. Die Informationen werden entweder im „LEO-BW-Data-Warehouse“ vorgehalten oder über Webservices an das Portal angebunden. Die Ergebnispräsentation erfolgt in LEO-BW selbst oder über eine Verlinkung auf die institutionellen Informationssysteme der Partner. In weiteren Ausbaustufen soll das Informationssystem sowohl inhaltlich – insbesondere durch die Beteiligung weiterer Content-Provider – als auch funktional ständig weiterentwickelt werden.
Die Deutsche Digitale Bibliothek ist eine von vielen weltweit laufenden Bemühungen, den online-Zugang für digitalisierte Information aus Kultur und Wissenschaft zu verbessern. Bereits Anfang des 20. Jahrhunderts hatte Paul Otlet die Idee der Ubiquität des Wissens, der elektronischen Übertragung von Bildern über Telefonleitungen direkt auf einen Fernsehbildschirm am Arbeitsplatz. Nicht nur Bücher, sondern Quellen auf unterschiedlichen Trägern (Text, Bild, Ton) und aus Archiven, Museen sowie anderen Gedächtnisinstitutionen sollten so zugänglich gemacht werden.
Die Deutsche Digitale Bibliothek ist ein Bund-Länder-Projekt der Bundesrepublik Deutschland. Es wird 2010 und 2011 aus dem Konjunkturprogramm II mit fünf Millionen Euro und ab 2011 für fünf Jahre mit 2.6 Mio. Euro jährlich finanziert. Das ist eine gute finanzielle Ausstattung des Projektes, die selbstverständlich die Erwartungen in das Ergebnis erheblich steigern. Es wird erwartet, dass die Zusammenarbeit mit dem Theseus-Programm, insbesondere das Teilprojekt Contentus die erwarteten Innovationen bei der besseren Nutzung der online verfügbaren Ressourcen ermöglicht. Die Deutsche Digitale Bibliothek wird nationaler Datenaggregator für die Europeana sein, eine Aufgabe, die den europäischen Regierungen bereits seit einiger Zeit von der Europäischen Kommission zugedacht worden war.
Einige Länder wie Frankreich, Österreich oder Italien haben solche Portale bereits seit einiger Zeit aufgebaut.
Daneben gibt es aber auch sog. Spartenportale, die z. B. aus Museen Europas (ATEHNA) oder europäischen Archiven (APEnet) Daten an Europeana liefern. Die Deutsche Digitale Bibliothek will nicht nur die Archive, Bibliotheken und Museen als Gedächtnisinstitutionen berücksichtigen, sondern auch Bild- und Filmarchive sowie Institutionen der Denkmalpflege. Inwieweit die Rundfunk- und Fernsehanstalten sowie die Verlage (Zeitungen, Zeitschriften, Bücher) mitarbeiten werden, ist noch Verhandlungssache.
Der Schwerpunkt der Angebote soll auf Digitalisaten in hoher Qualität liegen, d. h. bei Büchern möglichst OCR-erschlossene Volltexte. Auch die hohe Qualität der Metadaten zu den Digitalisaten ist wichtig, denn ein Teil der Ziele in Hinsicht auf die Verknüpfung der digitalen Objekten mit weiteren Internetressourcen (semantic web) lässt sich nur dann realisieren. Es ist den Beteiligten klar, dass hier am Beginn Kompromisse geschlossen werden müssen. Vielleicht helfen aber auch schon Werkzeuge zur automatischen Anreicherung der Daten z. B. durch entity recognition, die Daten besser vernetzbar zu machen. Eine solche Verbesserung der Daten könnte als Dienstleistung auch an die Institutionen zurückfließen, die die Daten liefern werden. Die grundsätzliche Ausrichtung der Deutschen Digitalen Bibliothek ist es, die angebotenen Digitalisate umsonst zugänglich zu machen. Doch wird für die Zukunft, z. B. wenn Verlagsangebote einbezogen werden, der Nachweis auch kommerzieller Angebote nicht ausgeschlossen. Die nicht kommerzielle Nutzung wird bedeutsam sein für den Aufbau der Deutschen Digitalen Bibliothek als Arbeitsplatz für Einzelne und Gruppen, als Möglichkeit, das Angebot mit anderen zu vernetzen und dort in anderen Umgebungen weiterzuentwickeln. Die Deutsche Digitale Bibliothek soll für Schüler/innen, Studierende, an Schulen und Hochschulen Lehrende, Journalist/innen und kulturell bzw. wissenschaftlich Interessierte ein Platz der Kooperation und der sozialen Vernetzung werden.
Die Deutsche Digitale Bibliothek will im sog. Extranet den Daten liefernden Kultur- und Wissenschaftseinrichtungen nicht nur die Möglichkeit eröffnen, ihre Daten hochzuladen und zu pflegen, sondern auch weitere Informationen anzubieten. Dazu zählen vor allem Fragen des Urheber-, Verwertungs- und Leistungsschutzrechtes sowie der Lizensierung von geistigem Eigentum. Die Deutsche Digitale Bibliothek wird und muss sich hier eng an die vergleichsweise strengen Vorgaben des deutschen Rechts halten.
Trotz solcher möglichen Einschränkungen wird die Deutsche Digitale Bibliothek der zentrale Nachweisort für Digitalisate aus deutschen Kultur- und Wissenschaftseinrichtungen sein und somit ältere Plattformen vergleichbarer Art ablösen.
Gliederung des Vortrags:
1. Rahmenkonzept 2009
2. Auftrag der GWK
3. Ziele
4. Organisation und Verfahren
5. Themen
6. Arbeitsgruppen
7. Termine
Abstract des Vortrags:
Anfang 2009 beauftragte die Gemeinsame Wissenschaftskonferenz des Bundes und der Länder (GWK) die Leibniz-Gemeinschaft mit der Erarbeitung eines Konzeptes zur Fachinformationsinfrastruktur vor allem bezogen auf die WGL-Informationsinfrastruktureinrichtungen jedoch mit einer auf Erweiterung hin angelegten Perspektive. Eine vom Präsidenten der WGL eingesetzte Arbeitsgruppe unter Leitung von Sabine Brünger-Weilandt, Präsidiumsbeauftragte für Informationsinfrastruktur, erarbeitete ein entsprechendes Rahmenkonzept, das der GWK im September vorgelegt wurde. Es enthält den Vorschlag, unter Einbeziehung aller wichtigen Akteure ein umfassendes Konzept inkl. Strukturvorschlag für Deutschland zu entwerfen.
Die GWK ist diesem Vorschlag gefolgt und hat die Leibniz-Gemeinschaft im Oktober 2009 damit beauftragt, unter ihrer Federführung ein nationales Gesamtkonzept für die Informationsinfrastruktur zu erarbeiten und im Frühjahr 2011 vorzulegen. Die Leitung wurde wiederum Frau Brünger-Weilandt übertragen, die in Abstimmung mit dem Präsidenten der Leibniz-Gemeinschaft eine Kommission „Zukunft der Informationsinfrastruktur“ (KII) gebildet hat, an der u. a. auch Vertreter des Bundes und der Länder sowie der GWK als ständige Gäste teilnehmen. Die bundesweit wichtigsten Informationseinrichtungen sind ebenso involviert wie Nutzergruppen der verschiedenen wissenschaftlichen Disziplinen. Vertreter der wissenschaftlichen Verlage und Nutzer aus der forschenden Industrie sind als Experten einbezogen. Die Kommission umfasst mittlerweile ca. 130 Personen aus ca. 60 Institutionen.
Acht themenorientierte Arbeitsgruppen leisten nach einem einheitlichen Arbeitsauftrag die inhaltliche Zuarbeit zu dem Gesamtkonzept. Ein erster wichtiger Erfolg ist, dass hierbei eine inhaltliche und organisatorische „Verzahnung“ mit der Arbeit der Allianz-Initiative Digitale Information erfolgt ist.
Folgende Themen werden behandelt:
1. Lizenzierung
2. Hosting / Langzeitarchivierung
3. Nichttextuelle Materialien
4. Retrodigitalisierung / kulturelles Erbe
5. Virtuelle Forschungsumgebungen
6. Open Access / elektronisches Publizieren
7. Forschungsdaten
8. Informationskompetenz / Ausbildung
Gliederung des Vortrags:
1. Elektronische Dokumentlieferung
2. Aktueller Stand
3. Möglichkeiten der Lieferung und des Empfangs
4. Zeitplan
Abstract des Vortrags:
Bisher wurden Aufsatzkopien in der Fernleihe per Post, Containerdienst oder Bücherauto verschickt. Seit Juni 2010 können Aufsatzkopien in der verbundinternen Online-Fernleihe von der gebenden Bibliothek als PDF-Datei an die nehmende Bibliothek übermittelt werden. Bisher haben etwa 180 Bibliotheken PDF-Dokumente erhalten, etwa 50 Bibliotheken liefern bereits elektronisch.
Es gibt zwei Möglichkeiten der Lieferung und des Empfangs von PDF-Dateien: Bibliotheken mit einem eher geringen Bestellaufkommen nutzen die Möglichkeit, Dokumente direkt über die Dienstoberfläche zu verschicken und abzurufen, große Geber- und Nehmerbibliotheken automatisieren möglichst viele Arbeitsschritte und liefern/empfangen die Dokumente über den SFTP-Server des BSZ. Im nächsten Schritt wird die verbundübergreifende elektronische Lieferung von Aufsätzen realisiert.
Gliederung des Vortrags:
1. Metadaten für E-Books (Cornelia Katz)
2. Neueinspielung RVK (Armin Kühn)
3. Bibliografien im Verbund (Dieter Janka)
4. SRU-Schnittstelle (Cornelia Katz)
Abstract des Vortrags:
Metadaten für E-Books
Die Absprachen zur arbeitsteiligen maschinellen Übernahme bzw. Erfassung von Titeldaten zu E-Book-Sammlungen sind verbundübergreifend getroffen. In diesem Vortrag wird dazu ein kurzer Überblick gegeben werden und der Bezug zum Verfahren im SWB hergestellt.
Neueinspielung RVK
Nach Ersteinspielung der RVK im Jahre 2005 hat sich die Normdatei der RVK verändert und weiterentwickelt. Ende August wurden die im SWB vorhandenen RVK-Normsätze mit einem neuen Gesamtabzug der RVK im SWB abgeglichen und die Neuerungen wurden eingespielt. Es sind nun über 810.000 gültige RVK-Normdatensätze im SWB vorhanden. Vorgestellt wird das Einspielverfahren und die erzielten Ergebnisse.
Bibliografien im Verbund
In der Katalogisierungsdatenbank des Südwestdeutschen Bibliotheksverbundes können seit jeher in Absprache mit dem BSZ auch Daten für Bibliografien erfasst, selektiert und auf Wunsch als bibliografische Sichten abgebildet werden. In einem kurzen Abriss werden die verschiedenen Möglichkeiten hierzu beispielhaft vorgestellt und Voraussetzungen dafür benannt.
SRU-Schnittstelle
Mit Inbetriebnahme der ersten aDIS/BMS-Lokalsysteme in den Hochschulbibliotheken Offenburg und Ludwigsburg wurde auch die SRU-Schnittstelle, die das Anlegen, Korrigieren und Löschen von Lokaldaten über den Erfassungsclient des aDIS/BMS-Systems ermöglicht, realisiert. Im Vortrag wird diese Schnittstelle von Verbundsystemseite vorgestellt.
Gliederung des Vortrags:
1. Das Robert-Schumann-Haus
2. Nachlasserschließung im SWB
3. Korrespondenz, Lebensdokument und Werkmanuskript: OPAC-Anzeige und Erfassung
4. Das Exilarchiv der DNB
5. Digitalisate
Abstract des Vortrags:
Das Robert-Schumann-Haus in Zwickau besitzt die weltweit umfangreichste Sammlung von Dokumenten zu Robert und Clara Schumann. Einen Schwerpunkt der Sammlung stellt der autobiographische, literarische und musikliterarische Nachlass Robert Schumanns dar.
Das Robert-Schumann-Haus entschloss sich 2009 dazu, dem SWB beizutreten und dort auch den Nachlass zu erschließen. Um eine Erschließung des Nachlasses nach RAK-RNA zu ermöglichen, waren Formaterweiterungen und die Einführung neuer Codierungen nötig. So wurden neue PICA-Felder z. B. für das Incipit, für den Beschreibstoff und den Erhaltungszustand eingerichtet. Für die vier Materialhauptgruppen nach RAK-RNA (Werkmanuskript, Korrespondenz, Lebensdokument, Sammlungen und Objekte) wurden neue Codierungen eingeführt, um die bestehenden Dokumenttypen zu verfeinern. Das Ergebnis ist eine (momentan) einstufige Erfassungsstruktur, die es insbesondere kleineren Einrichtungen ermöglicht, auf unkomplizierte Weise Nachlässe und andere Bibliotheksbestände in einer einzigen Datenbank zu erfassen.
Gliederung des Vortrags:
1. Derzeitiger Einsatz von Normdateien
2. Die “Gemeinsame Normdatei” (GND)
2.1. GND-Format
2.2. GND-Übergangsregeln
3. Umsetzung
3.1. Zeitplan
3.2. Umstiegsszenario im BSZ
3.3. Bibliotheken/Lokalsysteme
Abstract des Vortrags:
Normdateien sind ein wichtiges Instrument, um bei der Suche im Katalog präzise und vollständige Informationen zu erhalten. Im deutschsprachigen Raum werden derzeit drei getrennte Normdateien geführt: Gemeinsame Körperschaftsdatei (GKD), Schlagwortnormdatei (SWD) und Personennamendatei (PND). Diese Normdateien liegen in unterschiedlichen Formaten vor und werden nach unterschiedlichen Regeln erstellt. Im Projekt „Gemeinsame Normdatei“ (GND) sollen die getrennten Normdateien zusammengeführt werden. Dazu wurde ein einheitliches Format erarbeitet, das sich an MARC21 orientiert. Die unterschiedlichen Regelungen werden vereinheitlicht. Die GND wird in den SWB implementiert. In den Bibliotheken müssen Schulungen zum neuen Format und den neuen Regeln stattfinden. Der Datenexport für die Lokalsysteme wird mit den Anwendern abgestimmt.
Gliederung des Vortrags:
1. „Mission“ und Beteiligte
2. Stand der Arbeiten
3. RDA-Toolkit
4. Tests
5. Schulungen
6. Deutsche Übersetzung und deutsche RDA-Anwendungsbestimmungen
7. Europäische Nationalbibliotheken und RDA
8. Ausblick
Abstract des Vortrags:
Der Standardisierungsausschuss hat im Jahre 2004 die Internationalisierung der deutschen Standards beschlossen. Was mit dem Datenformat bereits erreicht worden ist, der Umstieg von MAB2 auf MARC 21, soll nun mit den vorbereitenden Arbeiten eines Umstiegs von RAK auf RDA fortgesetzt werden.
RDA, „Resource Description and Access“, ist der neue, internationale Erschließungsstandard für Bibliotheken, Archive und Museen. Der Vortrag informiert über den gegenwärtigen Stand der Arbeiten, unter anderem über die ersten Testergebnisse des RDA-Toolkits, die Schulungen zur Vorbereitung auf RDA, die Erstellung einer deutschen Übersetzung der RDA sowie die der deutschen Anwendungsbestimmungen.
Ein Überblick über die Aktivitäten in anderen europäischen Ländern und die nächsten Schritte im Entwicklungsprozess des neuen Standards runden den Vortrag ab.