Skip to content
Publicly Available Published by De Gruyter April 4, 2018

„Wolkenkuckucksheim. Bibliotheken in der Cloud“

Österreichischer Bibliothekartag vom 12. bis 15. September 2017 in Linz

  • Fabian Franke

    Dr. Fabian Franke

    ORCID logo EMAIL logo
    , Konstanze Söllner

    Konstanze Söllner

    ORCID logo EMAIL logo
    and Ludger Syré

    Dr. Ludger Syré

    ORCID logo EMAIL logo
From the journal ABI Technik

Der Österreichische Bibliothekartag 2017 wurde am 11. September an der Johannes Kepler Universität in Linz eröffnet. Er startete schwungvoll mit dem Trio „De Strawanza“, einem Grußwort der neuen IFLA-Präsidentin Glòria Pérez-Salmerón und einem beflügelten MR Dr. Peter Seitz (Bundesministerium für Wissenschaft, Forschung und Wirtschaft). Der Bibliothekartag stand 2017 unter dem Motto „Wolkenkuckucksheim – Bibliotheken in der Cloud“. Das Motto bot viele Gelegenheiten zu metaphorischen Vergleichen. Die Vögel in der gleichnamigen Komödie des Aristophanes beschließen bekanntlich, sich eine Stadt in den Wolken zu errichten, um damit mehr Einfluss zu erhalten, geraten aber schließlich unter die Herrschaft eines neuen Despoten. Dieses Leitmotiv brachte VÖB-Präsident Dr. Werner Schlacher in seiner Eröffnungsrede den Zuhörenden nahe, und auch später klang es in den umfangreichen Sessions zur ALMA-Einführung immer wieder durch. Zunächst hob Peter Seitz jedoch in seinem kenntnisreichen Grußwort hervor, wie gut die österreichischen Bibliotheken auch international aufgestellt sind, insbesondere in den Arbeitsbereichen Cloud-Systeme, Open Access und Europäische Open-Science-Cloud-Initiative (EOSC). Dies konnte auch an den Vorträgen des Bibliothekartags abgelesen werden, der sich in mehreren Sessions der ALMA-Einführung, dem Übergang in die Open-Access-Publikationswelt, den Themen Forschungsdatenmanagement und Informationskompetenz sowie weiteren wichtigen Arbeitsfeldern in Bibliotheken widmete.

Abb. 1:  Dr. Werner Schlacher, Präsident der VÖB, eröffnet den Österreichischen Bibliothekartag (Bild: Copyright Christoph Ekmpter)
Abb. 1:

Dr. Werner Schlacher, Präsident der VÖB, eröffnet den Österreichischen Bibliothekartag (Bild: Copyright Christoph Ekmpter)

Abb. 2:  Grußwort der IFLA-Vorsitzenden Glòria Pérez-Salmerón (Bild: Copyright Christoph Ekmpter)
Abb. 2:

Grußwort der IFLA-Vorsitzenden Glòria Pérez-Salmerón (Bild: Copyright Christoph Ekmpter)

Umstellung auf das Cloud-System ALMA

Besonders hervorgehoben werden soll der hochkarätige Veranstaltungsteil zum Thema „ALMA-Einführung“. Dieser bot einen umfangreichen Überblick über die ALMA-Umstellung aus den verschiedenen Perspektiven. Ein überwiegend junges Auditorium folgte der Reihe unterschiedlicher Vorträge, die mit „Landnahme in Wolkenkuckucksheim: Der Österreichische Bibliothekenverbund auf seinem Weg zu Alma“ von Wolfgang Hamedinger startete, d. h. mit der Verbundperspektive. Hamedinger nahm zunächst darauf Bezug, dass ein EU-weites Ausschreibungsverfahren (mit Teststellung) in dieser Ausführlichkeit bisher von niemandem durchgeführt worden sei. Er schilderte, dass man sich aktuell in der Implementierung der sogenannten Kohorte 2 von fünf und der laufenden Verbundimplementierung befinde. Oberstes Ziel sei, dass alle Bibliotheken während des Verbundumstiegs in ihrer Arbeitsumgebung bleiben können. PRIMO werde aus ALMA versorgt. ALMA war aus Sicht Hamedingers für die Verbundarbeit noch nicht so weit vorbereitet, als der Umstieg begann, so dass der gesamte Prozess hochkomplex gewesen sei. Ziel sei es, die in den letzten 20 Jahren entwickelten Dienste in die neue Verbundumgebung zu überführen, wobei einige auch stillgelegt werden könnten, da sie von ALMA anders oder besser gelöst würden. Definitiv sei die ALMA-Architektur des neuen Verbundes „schöner“ als in ALEPH, da es inaktive und ungenutzte Daten nicht mehr gibt. Eine Besonderheit des Umstiegs in Österreich war die sechsmonatige Konzeptionsphase (Conceptual Design) für die „Kür“, d. h. für Anliegen, die für den Vertrag noch nicht fertig ausgearbeitet waren. Diese war notwendig, man stand aber unter hohem zeitlichem Druck, denn die Zuschlagsfrist war bereits überschritten. Hinter der Konzeptionsphase stand die Absicht, die Konzepte zu High Level Design Dokumenten zu erklären, die Ex Libris verpflichtend umsetzt – für den gegenteiligen Fall war die Möglichkeit eines Ausstiegs offengehalten. In die Konzeptionsphase hatte man denn auch zentrale Themen wie den Datenschutz, die Migrationsphase und den Migrationsbetrieb ausgelagert. Ein wichtiger Anteil des Gesamtumstiegs war auch die Priorisierung der sogenannten Zusatzfunktionalitäten, sowohl aus Sicht der Bibliotheken als auch des Verbundes. Der Datenschutz stellte von Anfang an einen Brennpunkt dar, es gab dazu eine wichtige Klarstellung von Ex Libris im Zuge des Verkaufs an ProQuest.

An den Bibliotheken selbst waren functional experts für die unterschiedlichen Module benannt worden, dies war insgesamt eine recht große Gruppe. Die Übersetzung der Hilfeseiten durch den KOBV konnte nachgenutzt werden. Eine Herausforderung war der systemimmanente Doppelumstieg – d. h. der zeitgleiche Umstieg auf MARC 21 –, was zur Potenzierung der Anforderungen führte, insbesondere beim Parallelbetrieb verschiedener Systeme. Entsprechend hoch war der Ressourcenbedarf bei den functional experts. Mit der Implementierung der GND im Rahmen der Community Zone nach umfangreichen Spezifikationen der OBVSG sei man zufrieden, sagte Wolfgang Hamedinger, die Betreuung von GND-Setup und Authority profile werde von der Verbundzentrale übernommen. Der MAB2-MARC 21-Konverter ist das Herzstück des Umstiegs. Bei der ALMA-Einführung in Berlin war der Einsatz aufgrund der Ressourcensituation nicht möglich. Zwar funktioniere die Programmierung durch Ex Libris sehr gut, dennoch habe es sich um ein äußerst komplexes Projekt gehandelt. Im Vortrag „Verbund goes Alma – Datenspaziergänge“ von Josef Labner und Verena Schaffner wurde das Thema MAB-MARC-Umstieg aufgenommen. Das Projektmanagement durch Ex Libris ist aus Sicht von Wolfgang Hamedinger verbesserungsfähig, die Entwickler seien aber fähig. Alma starte auf jeden Fall nicht auf dem Prüfniveau von ALEPH, man müsse die Möglichkeiten erst einmal kennenlernen und sich auf einen Paradigmenwechsel einstellen.

Der Vortrag endete mit der Frage, ob die komplexe Gesamtablösung von ALEPH und ALEPHINO in Österreich wie geplant bis 2021 abgeschlossen sein kann – verständlicherweise ein Thema, das einen großen Zuhörerkreis in Linz umtrieb. Die OBVSG erhält nach Aussage von Hamedinger die Betriebszusage von ALEPH bis Ende 2020 aufrecht, das ALEPH-Zentralsystem werde nach dem Umstieg der letzten Kohorte, also spätestens 2021, definitiv abgeschaltet. In jedem Fall sei aber auch an eventuelle neue Verbundteilnehmer gedacht, es solle keine Mehrklassengesellschaft geben, alle würden bei den Steigerungsraten ähnlich behandelt wie die Gruppe 1, die bis Jahresende 2017 unterzeichnen kann, das Modell heiße also zurecht „ALMA für alle“. Der Vortrag endete mit einem Dank an die Mitarbeiterinnen und Mitarbeiter der OBVSG.

Anschließend berichtete Olivia Kaiser über „Ein Monat ALMA an der UB Wien“. Etwa 10 Prozent des Personals waren an der UB Wien in den Umstieg direkt eingebunden, ohne dass eine Freistellung von den anderen Aufgaben stattfinden konnte. Die Schulung der Systembibliothekarinnen und -bibliothekare erfolgte über Videos und Webinare, es gab keine Onsite-Workshops und keine Einführung in das Gesamtkonzept von ALMA, was für die heiße Phase der Implementierung wünschenswert gewesen wäre. Die Grundkonfiguration durch die Systemverantwortlichen erfolgte also, ohne ALMA wirklich genau zu kennen. Vergleichbar sei dies damit, dass man Fliegen im Flugsimulator lerne, das erste Mal live aber schon mit einer voll besetzten Maschine fliegt. Eine Vermehrung der Standorte sei unumgänglich gewesen, ebenso die Überarbeitung von 4,5 Millionen Exemplarsätzen und die Umstellung von mehr als 40 gewachsenen Signaturstrukturen im Rahmen der MARC-Umstellung. Ein typisches Problem sei in PRIMO entstanden, als das Einschalten der Deduplizierungsfunktion zu Chaos beim Bestellzetteldruck geführt habe. Die Migration der E-Shelfs, also der Favoritenlisten der Nutzerinnen und Nutzer, sei durch die OBVSG gewährleistet gewesen.

Eine Besonderheit bei ALMA ist, dass dieses nicht über eine reguläre Druckfunktion verfügt, sondern alles per Mail versendet – es gibt aber verpflichtende Drucke, die physisch auf einem Drucker ausgegeben werden müssen. Es musste mit lokalen Mitteln ein Verteilungsmechanismus und eine Benutzeroberfläche zur Kontrolle der Printjobs geschaffen werden, die Umsetzung des Etikettendrucks ist jedoch eine größere Baustelle und noch in Arbeit. Die API für Benutzerdaten musste sogar neu programmiert werden. Nacharbeiten waren auch bei Änderungen des Benutzerinnen- oder Benutzerstatus nötig, diese wirkten sich im Mahnwesen nicht wie gewünscht aus.

An der UB Wien wurden ein eigener first und second level support (durch Systembibliothekarinnen und -bibliothekare) eingerichtet. Die Vergabe von Rechten könne dabei zu einer regelrechten „Klickorgie“ werden. Echte Katastrophen seien jedoch ausgeblieben, ärgerlicherweise habe vor allem das Login via Shibboleth erst einmal schlecht funktioniert. Als offene Baustellen nannte Olivia Kaiser das Mahnwesen, die Feinjustierung von Berechtigungen, den Bereich Analytics (Daten stammen immer vom Vortag!), den Etikettendruck sowie die Anpassung von Formularen. Die Vorbereitungen waren insgesamt schwieriger und umfangreicher als erwartet, der Durchführungszeitraum – wie immer – viel zu kurz. Insbesondere der Formatwechsel von MAB zu MARC wurde als erschwerendes Zusatzprojekt empfunden. Die Schulungen waren zeitaufwendig, das Vermittlungskonzept von Ex Libris nicht ideal und unzureichend angesichts der Komplexität des Systems. Ermüdend seien lange, zeitraubende Kommunikationswege zu Ex Libris und die Vielfalt der Kommunikationstools gewesen, das Sprachproblem kam hinzu. In der Diskussion des Vortrags wurde besonders darauf verwiesen, dass der Verbundansatz es ermöglicht, die Lösungen der vorangehenden Kohorten nachzunutzen, z. B. die Javascript-Lösung aus Wien für den Etikettendruck. Gerade die Phase der Datenbereinigung, zum Teil von Artefakten aus Vor-Vorgängersystemen, sei nicht zu unterschätzen, resümierte Olivia Kaiser.

Abb. 3:  Blick ins Auditorium (Bild: Copyright Christoph Ekmpter)
Abb. 3:

Blick ins Auditorium (Bild: Copyright Christoph Ekmpter)

Anschließend berichtete Silvia Köpf (WU Bibliothek Wien) über den ALMA-Umstieg innerhalb der Kohorte 1, darunter fünf ALEPH-Bibliotheken und eine ALEPHINO-Bibliothek. Sie untermauerte noch einmal die Feststellung, dass die functional experts der Bibliotheken im gesamten Prozess eine zentrale Rolle spielten – sie waren nicht nur Ansprechpartner für Ex Libris und testeten sämtliche Workflows, sondern führten auch die internen Mitarbeiterschulungen durch. Dieses umfangreiche Expertennetzwerk müsse auf jeden Fall aufrechterhalten bleiben, wenn man die Möglichkeiten des Systems ausreizen will. Datenanpassungen erforderten die Bildung von sieben Unter-AGs aus dem Kreis der functional experts zu den Themen Holdings, Exemplar (Signaturen, Standorte), lokale Felder, elektronisch/Print u. a. Insbesondere die Konfiguration über ein EXCEL-Sheet an Ex Libris war wegen des Zeitverzugs gewöhnungsbedürftig, auch wenn es „nur“ eine halbe Stunde dauert, bis der Auftrag umgesetzt ist. Ein besonderer Arbeitsschwerpunkt lag auf dem Thema Datenschutz sowie Identity Management. In Betriebsvereinbarungen wurde das Verhindern von Tracking, die Protokollierung der Verwendung von Nutzerdaten und der Umgang mit Logfiles über Reports aus Analytics geregelt. Im Mai 2018 steht die neue Datenschutz-Grundverordnung (DSGVO) der EU ins Haus, dann müsse das Thema Datenschutz noch einmal betrachtet werden. Für Bibliotheken, die nicht über ein Authentifizierungssystem ihrer Hochschule verfügen, stellt sich bei Einführung eines Cloud-Systems die Aufgabe, ein solches zu schaffen, wenn man nicht Passwörter in der Cloud archivieren will.

Christian Kieslinger berichtete über den ALMA-Umstieg der FH St. Pölten, einer kleinen Hochschulbibliothek mit nur vier Mitarbeiterinnen und Mitarbeitern. Der Umstieg erforderte weitere Entwicklungen vor Ort, z. B. die Authentifizierung via Shibboleth, den Nutzerdatenabgleich mit dem Campussystem (insbesondere für die Gruppe der Schülerinnen und Schüler), und alle Bearbeiterinnen und Bearbeiter müssen künftig als „named user“ hinterlegt sein. Sehr anschaulich waren die Einblicke in die Umstiegssituation an einer kleinen Bibliothek, insbesondere die nicht immer leicht zu erfüllenden personellen Voraussetzungen. Mindestens zwei Mitarbeiterinnen und Mitarbeiter einer Bibliothek müssen bspw. den Ex-Libris-Zertifizierungsprozess absolvieren, damit ALMA selbstständig konfiguriert werden darf. In der Go-Live-Phase seien drei gleichzeitig anwesende Mitarbeiterinnen und Mitarbeiter der Bibliothek zu wenig gewesen. Ein besonderes Problem waren nicht abgeschlossene Rechnungen, die storniert werden mussten, weil ein Schließen nicht möglich war. Dies führte zu einer Mailflut von Lieferantenantworten am Umstiegstag. Für jede Zeitschrift mussten ein Holding pro Jahrgang und alle Bestellungen neu angelegt werden. Signaturen konnten nicht in MARC-Subfelder zerlegt werden, es ergaben sich teils schwer vorhersehbare Dominoeffekte, weil die Funktionalitäten des Systems noch nicht überschaut wurden. Die Empfehlung der St. Pöltener lautete denn auch, Datenbereinigungen – wenn möglich – immer im Ursprungssystem vorzunehmen, einheitliche Nutzergruppen und Rechte vorab einzuführen sowie die Gebührenordnung radikal zu vereinfachen. Insgesamt hätte man sich mehr Ex-Libris-Betreuung bei der Initialkonfiguration, insbesondere vor Ort gewünscht. Man ist jedoch zufrieden, weil der gemeinsame Umstieg Chancen bietet, die eine kleine Hochschulbibliothek allein nicht gehabt hätte.

Nadine Cerny (OBVSG) konzentrierte sich in ihrem Vortrag „Verbund goes Alma – Primo4Alma“ auf die Änderungen, die sich durch den ALMA-Umstieg für den Discovery Service PRIMO ergeben haben. Für diesen Umstieg wurde ein eigener Projektplan erstellt, da es sich um einen komplexen Prozess handelte, mit verschiedenen Übergangssituationen aufgrund der Systemwechsel. Primo4Alma ist die neue PRIMO-Instanz, in der diejenigen Bibliotheken abgebildet sind, die bereits auf Alma umgestiegen sind. Im Frühjahr 2018 sollen die Linking-Arbeiten bei der OBVSG durchgeführt werden, so dass eine Network Zone entsteht und PRIMO zukünftig nur noch mit dem lokalen Publishing, d. h. zusätzlichen lokalen Daten, die sich nicht bereits in der Network Zone befinden, versorgt wird. Kommende Herausforderungen sind die Verlinkungsprozesse aller Institution Zones mit der Network Zone. Wenn die Network Zone konstituiert ist, wird OBV-PRIMO live gehen und aus ALMA versorgt, nicht mehr aus ALEPH.

Die Session „European Open Science Cloud – Use Case Austria“ war überraschend schwach besucht – verglichen mit den Blöcken zur Einführung des neuen Bibliothekssystems ALMA. Nur relativ wenige österreichische Teilnehmerinnen und Teilnehmer schienen sich für das Thema zu interessieren, möglicherweise eine „Nebenwirkung“ der ressourcenintensiven Systemumstellung. Thomas Haselwantner (ZID Innsbruck) berichtete zunächst über das Hochschulraum-Strukturmittel-Projekt „e-Infrastructures Austria Plus“, das ein Nachfolgeprojekt von e-infrastructures Austria ist. In verschiedenen Paketen sollen unterschiedliche Themen bearbeitet werden. So sollen Patterns erarbeitet werden, wie Daten entstehen und wie Forscherinnen und Forscher in den Disziplinen mit den Daten umgehen, und nicht mehr nur, wo die Daten liegen. Diese „Research Lifecycle Patterns“ sollen Wissenschaftlerinnen und Wissenschaftler bei der Projektumsetzung unterstützen. Aufsetzend auf dem Research Lifecyle der University of Florida möchte man österreichspezifische Patterns entwickeln, startend mit fünf Fachbereichen. Man möchte ein generisches DMP Template sowie disziplinspezifische DMPs erstellen, da Wissenschaftlerinnen und Wissenschaftler für diese Arbeit nur 1–2 Stunden Zeit hätten. Die FWF-Vorlage soll bis Januar 2018 vorliegen, die Vorgaben österreichischer Förderer werden berücksichtigt. In einem weiteren Arbeitspaket sollen institutionelle Repositorien aufgebaut werden. Dies wird mehrere Jahre in Anspruch nehmen. Haselwantner stellte fest, dass Wissenschaftlerinnen und Wissenschaftler in Zukunft ihre Daten in der Cloud erstellen werden, dann lägen diese bei Microsoft oder Amazon. Die Suites der Universitäten (GÉANT IaaS framework agreement) enthielten von sich aus bereits alle Werkzeuge, um derartige Arbeitsweisen zu unterstützen. Dieser Aspekt müsse bei der Errichtung von Infrastrukturen mitgedacht werden. Anwendungen müssten cloud-ready sein, damit man später auch den Anbieter wechseln könne. Es ist möglich, über Géant den Standort der Amazon- und Microsoft-Server zu wählen, um Datenschutzauflagen nachzukommen. Die genutzten Server befinden sich also in Europa, Großbritannien ist explizit ausgenommen.

Susanne Blumesberger (UB Wien) stellte in ihrem Vortrag die Frage „Beschreibung von Forschungsdaten nach den FAIR Principles: Metadaten fit für die Zukunft?“ und widmete diesen Arbeitspaket 5 im Rahmen von e-infrastructures Austria Plus. Im Rahmen dieses Arbeitspaketes ist geplant, bei den Institutionen in Erfahrung zu bringen, was sich beim Umgang mit Metadaten in Repositorien verändert. Man will versuchen, mögliche Standards aufzuspüren. Das Projekt vereint Katalogisierer ebenso wie Wissenschaftler verschiedener Fachbereiche.

Barbara Sanchez Solis und Paolo Budroni meldeten sich abschließend zum Thema „EOSC – Use Case Austria“ zu Wort. Im Rahmen von „EOSC – Use Case Austria“ soll geklärt werden, wie der österreichische Beitrag zur EOSC aussieht. Im Hintergrund steht auch die kommende EU-Ratspräsidentschaft Österreichs. Barbara Sanchez Solis verwies zu Beginn darauf, dass unter der Überschrift EOSC ein digitales Ökosystem entstehen soll, das Interoperabilität sichert. Der Fokus liege also auch auf der Nachhaltigkeit, abgehend von der starken Projektförderung der letzten Jahre. Man möchte auch Regeln aufstellen, wie die Zusammenarbeit mit Microsoft und Amazon laufen könnte. Bibliotheken gehörten dem service layer der EOSC an. Ziel sei quasi die Schaffung eines „Schengen-Raums“ für Daten und Infrastruktur im Bereich des Datenschutzes, des Vokabulars sowie großer Trainingsprogramme (dabei sei an ungefähr 500 000 Personen gedacht, wie nach Aussage von Barbara Sanchez Solis und Paolo Budroni aus der Europäischen Kommission kolportiert worden sei). Bibliotheken seien die stabilsten Institutionen in Europa, so dass die Durchführung großer transversaler EU-Projekte ohne sie nicht möglich ist. Dazu gehöre aber auch die Öffnung zu anderen Institutionen hin. Budroni appellierte an die Anwesenden, dass der Moment für den Übergang in die EOSC jetzt sei, und dass Bibliotheken Selbstbewusstsein entwickeln müssten, beim Arbeiten mit Daten den Support zu übernehmen.

Aus dem Publikum wurde in der Diskussion geäußert, dass das Handeln der Politik widersprüchlich sei und das operative Geschäft schwierig mache, so bspw. im Zusammenspiel von EOSC und der österreichischen Auslegung der neuen Urheberrechts-Richtlinie der EU. Paolo Budroni ergänzte dazu, die Kommission habe AGs einberufen, um die Widersprüche zu evaluieren. In wenigen Wochen würde die EOSC-Declaration herausgebracht werden, im Anschluss werde eine Roadmap unter Berücksichtigung der Urheberrechtslage verfasst, die Anfang nächsten Jahres fertiggestellt werde, rechtzeitig für die österreichische Ratspräsidentschaft, um diese Fragen zu lösen. Etwa 40 Prozent der Daten an medizinischen Universitäten seien closed, für etwa 20 Prozent werde dieser Status geprüft. Eine AG werde die Vorarbeiten für RDM-Policies insbesondere der medizinischen Universitäten leisten.

Neue Technologien und ihre Auswirkungen

Fragen der Aus- und Fortbildung waren beim Österreichischen Bibliothekartag ebenfalls vertreten, wenngleich auch nur mit wenigen Vorträgen. So berichteten etwa Michael Zeiller und Barbara Geyer-Hayden über eine Auswertung von 16 Studienprogrammen des Bibliothekswesens in der DACH-Region (9 BA, 7 MA) sowie von 9 Studienprogrammen des Wissensmanagements in der Region DACH+ (1 BA, 5 MA, 3 MBA, inklusive der Niederlande). Dabei wurde die Frage gestellt, wie groß die Überschneidungen der Studienprogramme sind. Es überwiegen die Studienprogramme aus Deutschland, hier gibt es mehrere Hochschulen mit BA- und MA-Studiengängen, in Österreich und der Schweiz gibt es nur wenige Studiengänge (Lehrgänge wurden ausdrücklich nicht betrachtet). Nicht überraschend gab es im inhaltlichen Spektrum eine ganze Reihe von Überschneidungen, wie eine Inhaltsanalyse ergab. Sogar „Bestandsmanagement“ ist ein Thema von Wissensmanagement-Studiengängen. Allerdings erfordere die Weiterarbeit mit den Daten ein differenzierteres Kategorienschema und einen Blick auf den Umfang (Workload). Moderator Bruno Bauer stellte anschließend die Frage, wie weit die Absolventen der Studiengänge in den unterschiedlichen Einsatzfeldern tätig werden können. Angesichts der Veränderungen im Bibliothekswesen sei die Frage eigentlich falsch, ob Wissensmanagerinnen oder Wissenschaftsmanager in Bibliotheken einsetzbar seien, lautete die Antwort der Referenten. Es sei im Prinzip alles möglich. In Unternehmen sei das Wissensmanagement eine organisatorische Aufgabe, und nicht selten wird diese wiederum von den Bibliothekarinnen und Bibliothekaren der Firmen wahrgenommen, soweit vorhanden.

Ursula Georgy schloss einen Vortrag zum Thema innovationsorientierte Personalentwicklung an. Sie berichtete, dass zu 90 Prozent die Initiative von den Befragten selbst ausgeht, es findet also kaum systematische Personalentwicklung statt. Die Sorge für die Zukunft steht für die Befragten im Vordergrund. Grundsätzliche Strukturen sind vorhanden, denn 65,7 Prozent der Einrichtungen verfügen über einen Fortbildungsetat. Für die Arbeitswelt von morgen würden Kompetenzen wichtiger werden, als schnell veraltendes Fachwissen, d. h. die Fähigkeit, sich neues Wissen anzueignen. Kernkompetenzen müssen einen überdurchschnittlichen Kundennutzen erzeugen, z. B. in der Auskunft. Diese müssen dann auch in eine entsprechende Organisationskultur eingebettet sein, die innovationsrelevante Bedingungen bereitstellt. Eine entsprechende Kompetenzanalyse könne zu einem Kompetenzmodell für alle Beschäftigten einer Institution führen. Diese zeige auch, welche Kompetenzen mittels Weiterbildung entwickelt werden müssen. Das Modell „innovationsorientierte Personalentwicklung“ umfasst Kundenwert und Kompetenzstärke. Handlungsorientierung und Transferorientierung seien wichtige Elemente von Trainingsmaßnahmen, um schon während der Fortbildung ins Handeln zu kommen bzw. die Kenntnisse auch passend zur eigenen Unternehmenskultur einzusetzen.

Susanne Blumesberger stellte schließlich ihre Master Thesis „Zwischen zwei Stühlen? Requirements-Engineers als Mittler zwischen IT und Bibliothek“ vor. Das Thema wurde ihr nach eigener Aussage im Praktikum am ZID der Universität Wien nahegebracht. Die damit verbundene Befragung richtete sich nicht nur an Bibliothekarinnen und Bibliothekare, sondern auch an Technikerinnen und Techniker. Requirements Engineering ist zwar der Mehrheit der Einrichtungen bekannt, aber kein Thema in der täglichen Arbeit. Im Zentrum der Arbeit eines Requirements Engineer steht, dass es einerseits keine Angst vor Änderungen geben darf, andererseits diese auch nicht schleichend eintreten dürfen, sondern gut dokumentiert sein müssen. Wichtig sei auch die Auflösung von Widersprüchen.

Christian Erlinger berichtete anschließend über die von ihm durchgeführte Programmierung von Telegram-Chatbots für ein Goobi-Repositorium und für den Open Access Button und outete sich als Whatsapp-Verweigerer. Die Idee für die Chatbots habe er sich von SciHub abgeschaut, das einen (russischsprachigen) Chatbot für den Telegram-Messenger anbietet. Eine REST-API erlaubt vollumfänglich die Nutzung. Der von Erlinger programmierte Bot heißt oabot (Open Access TelegramBot) und läuft wie bereits erwähnt unter Telegram. Die Smartphone-Nutzung mittels DOI-Kopieren ist sehr intuitiv. Die Suche ist mittels Eingabe von DOI, URL und exaktem Titelstring möglich. Die Volltext-Übermittlung eines Repositorium-Inhalts funktioniert, wenn die URL im Header des jeweiligen PDFs vorhanden ist. Beim oabot-Chatbot werden keine Daten lokal gespeichert, sondern nur zwischen OAB- und Telegram-API vermittelt. Der Chatbot für die Abfrage des Goobi-Repositoriums greift auf den SOLR-Index des Repositoriums zu. Er könne sehr gut demonstrieren, wie wichtig die strukturierte Einbettung von bibliographischen Metadaten sei. Zum Abschluss stellte Erlinger die Frage, wie es mit dem Einsatz von Instand Messaging als Automaten in Bibliotheken aussieht. Er empfiehlt diesen Einsatz, weil zwar ein Anfangsaufwand besteht, der Bot dann aber stabil läuft. Ein Bot könne nicht nur als Suchplattform, sondern auch für den Dokumentenlieferservice oder als Push-Dienst und Alert eingesetzt werden, zumal die E-Mail-Nutzung immer weiter zurückgedrängt werde. Die Voraussetzung für eine unaufwändige Programmierung seien aber offene Systeme.

Bibliotheken im Spannungsfeld politischer und wirtschaftlicher Rahmenbedingungen

Christoph Schäffler berichtete über den digitalen Aspekt der Zusammenführung einer Öffentlichen und einer Wissenschaftlichen Bibliothek (Fachhochschule Wiener Neustadt und Stadtbücherei Wiener Neustadt). Als Bibliothekssystem der neuen Bibliothek wird Worldshare Management und WorldCat eingesetzt. WMS sei von vornherein jedoch nicht darauf ausgelegt, öffentliche Bibliotheken zu versorgen. Im Vorfeld des eigentlichen Zusammenführungsprojekts wurden an der FH verschiedene ILS getestet (ALMA, Koha, WMS). In dieser Situation sei die Stadt auf die FH-Bibliothek zugekommen mit der Ansage, die Stadtbibliothek 2019 zu übernehmen. Die digitale Zusammenlegung sollte schon vorher stattfinden. Ein zeitversetztes Vorgehen war dabei nicht möglich, beide Bibliotheken mussten gleichzeitig umgestellt werden. Beide hatten mit BibliothecaPlus dieselbe IT-Umgebung, in einer Zweigstelle gab es zusätzlich ein selbstprogrammiertes System. Was waren nun die speziellen Herausforderungen? Da die neue Hauptstelle noch nicht existiert, wurde ein Konzept für spezielle Shelfing Locations entwickelt, um die Daten 2019, d. h. bei der eigentlichen Zusammenführung, nicht ein weiteres Mal migrieren zu müssen. Zusammenfassend empfahl Schäffler, sich in einer Migrationssituation von Überflüssigem zu trennen, sich an neuen Konzepten auszurichten und immer den Benefit zu sehen, auch wenn mal das Etikettenprogramm nicht gleich funktioniert.

Open-Access-Abkommen

Der letzte Veranstaltungstag war dem Schwerpunkt „Open-Access-Abkommen“ gewidmet. Er startete mit einem Firmenvortrag von Alison Hope und Sonja Pretis (Emerald). Wie schon beim Themenschwerpunkt Forschungsdaten war der Hörsaal kaum gefüllt – überraschend angesichts des Stellenwertes des Themas für das Land Österreich. Emerald hat mit der Kooperation E-Medien Österreich (KEMÖ) einen Dreijahresvertrag geschlossen. In der Folge stiegen nicht nur die Downloads, sondern auch die Anzahl der Autorinnen und Autoren aus Österreich, und man hofft auf eine weitere Steigerung angesichts der Open-Access-Komponente. Emerald möchte im Rahmen eines Offsetting-Modells APC-Voucher ausgeben. Es werden in den drei Vertragsjahren gestaffelt 80, 90 bzw. 100 Voucher zur Verfügung gestellt. Die Besonderheit ist, dass grundsätzlich jede Autorin und jeder Autor, die oder der an einer österreichischen Einrichtung tätig ist, Voucher erhalten kann. Um die Autorinnen und Autoren auf das Angebot aufmerksam zu machen, hat man auf der Website ein Pop-up für Österreich geschaltet. Im Einreichungssystem ScholarOne müssen die Einreichenden die entsprechende Option ankreuzen, was allerdings nicht von allen sofort verstanden wird. Bei Akzeptanz wird eine Nachricht versendet, mit der um CC-BY-Lizenzierung gebeten wird. Geprüft wird auch die Berechtigung der Autorinnen und Autoren (Zugehörigkeit zu Österreich). Wenn die Lizenz erteilt wird, wird der Aufsatz veröffentlicht. An die Bibliotheken erfolgt die Information, welche Autorinnen und Autoren der Einrichtung die Voucher genutzt haben. Die Anzahl der Voucher ist aus Sicht des Verlages zu hoch angesetzt, und dies bestätigt sich jetzt nach dem ersten Jahr der Vertragslaufzeit. 45 genutzte Voucher waren bislang das Maximum. Emerald sieht das Ganze aber als Projekt. Man könne niemanden zum Open Access zwingen, sehe die Aufgabe des Verlages in der Information, nicht in der Überwachung von Compliance. Emerald beabsichtigt, mit Open-Access-Proceedings, Open-Access-Büchern und Open-Access-Gold-Zeitschriften eine neue Open-Access-Marke einzuführen.

Brigitte Kromp lieferte den langerwarteten Zwischenbericht vom Projekt AT2OA (Austria to Open Access), alle Teilprojektleitungen waren ebenfalls anwesend. Teilprojekt 1, die Analyse der Auswirkung der Umstellung, wurde schon sehr umfangreich bearbeitet. Es soll in diesem Teilprojekt untersucht werden, wie viel eine Umstellung auf Open Access für Österreich kosten würde, ob diese ohne Mehrkosten möglich ist und welche Kostenverschiebungen sich auf institutioneller Ebene ergeben. Die Zusammenarbeit in allen Teilprojekten findet auf einer sehr breiten institutionellen Basis statt. Für jeden einzelnen Partner soll am Ende eine Kosten- und Einsparungsanalyse vorliegen (sowohl für die Transition als auch für Publikationsfonds). In Teilprojekt 2 stehen der Abschluss von Transformationsverträgen und die Analyse der Ergebnisse im Mittelpunkt. Man startete mit Verlagen, die für möglichst viele Projektpartner in Frage kommen. Elsevier legte kein Angebot vor. Nature wird im kommenden Jahr gemeinsam mit Springer verhandelt, Wiley befindet sich in der Marktsondierung. Alle drei Verträge laufen mit Jahresende 2017 aus. Teilprojekt 3 umfasst sehr viele Teilnehmer. Ziel ist die Vereinheitlichung der Konditionen der Publikationsfonds. Teilprojekt 4: Um der Marktkonzentration bei den Verlagen entgegenzuwirken, sollen alternative Publikationsmodelle gefördert werden. An diesem Teilprojekt nehmen ebenfalls sehr viele Einrichtungen teil. Hier geht es auch um Open-Access-Monographien.

Eingehender schilderte Brigitte Kromp die Open-Access-Transformationsmodelle in Österreich. Die Modelle sind Offsetting Deals, Read & Publish Deals und Switch Deals. Der weltweit erste Offsetting-Vertrag wurde durch die KEMÖ mit IOP geschlossen (APCs werden jeweils im folgenden Jahr von den Subskriptionsgebühren abgezogen). Für Österreich müssen mindestens 80 Prozent der APCs abgezogen werden, damit dies als Offsetting-Vertrag gilt (derzeit sind es zwischen 90 und 96 Prozent). Beobachtet wird, dass Autorinnen und Autoren sich mit Open Access erst im Moment der Einreichung auseinandersetzen. Hier seien nur die Verlage im Spiel. Bibliotheken sähen diese in der Pflicht, die Autorinnen und Autoren umfangreich zu informieren. Es seien allerdings weder die Publisher auf die geänderten Modelle noch die Universitäten auf die veränderten Kostenstrukturen vorbereitet.

Das Fazit lautete denn auch: Offsetting ist finanziell prinzipiell risikolos, denn man hat die Rückfallposition des traditionellen Subskriptionssystems, kann aber kompliziert in der Administration sein. Read & Publish ist finanziell viel riskanter wegen der Vorauszahlung, aber in der administrativen Umsetzung erfolgreicher. Bei gut funktionierendem Read & Publish entscheiden sich 90 Prozent der Autorinnen und Autoren für Open Access. Read & Publish müsse aber viel besser verhandelt sein und der Workflow müsse funktionieren, denn sonst werde zu viel bzw. umsonst bezahlt.

Aus dem Publikum wurden die Referentinnen von Emerald befragt, warum man so viele Voucher eingeplant habe und warum überhaupt noch einmal das alte Modell zum Zuge gekommen sei? Die großzügige Schätzung der Voucher bei Emerald sollte ermöglichen, dass grundsätzlich alle Autorinnen und Autoren in Österreich im Open Access publizieren können. Man spare sich damit auch den Workflow der Identifizierung der corresponding authors. Der Vertrag war in jedem Fall kostenneutral. Er stellt eigentlich ein Titelkontingent dar, wie beispielsweise bei Springer (RSC hatte nur im Folgejahr ausgeschüttet). Bei Springer müssen die Universitäten jedoch prüfen, ob die Autorin oder der Autor zur Einrichtung gehört, und selbst für diese sei es sehr schwierig, obwohl sie Zugang zur Einrichtungsdatenbank haben. Universitäten wollen nach Einschätzung von Emerald nur freiwilligen Open Access der Wissenschaftlerinnen und Wissenschaftler. Ein nachträgliches Ändern der Entscheidung, im Open Access zu publizieren, ist für die Verlage sehr aufwändig. Bei Emerald werde dies im Moment durch händisches Eingreifen in der kurzen Frist zwischen Acceptance und Erscheinen bewerkstelligt. Emerald bezeichnet sich als Open-Access-Verlag, will auf Nachfrage aber nicht alle Zeitschriften auf Open Access umstellen.

Márton Villányi (diesjähriger Förderpreisträger der VÖB) und Magdalena Andrae berichteten schließlich über den Springer-Compact-Vertrag für Österreich. Der Read-Teil umfasst ca. 2000 Zeitschriften, der Publish-Teil ca. 1600 Zeitschriften. 34 Institutionen nehmen daran teil. Bei acceptance gibt es die Möglichkeit auf ein Opt-out vom Open Access. Die Einrichtungen bestätigen diesen über ein eigens eingerichtetes Tool, in dem die Einrichtungszugehörigkeit verifiziert und der FWF informiert wird. Der Nachteil besteht nach Ansicht der Referenten darin, dass die Autorinnen und Autoren nichts davon merken, dass die Bibliothek ihrer Einrichtung den gesamten Workflow verantwortet und die Verträge schließt. Die Auswertung der Usage erfolgte exemplarisch, denn der Publish-Anteil wäre für manche Einrichtung nicht so interessant, dafür aber der Read-Anteil. Bis 2015 bestand Cross Access, ab 2016 gelte Springer Compact. Für alle Einrichtungen kam eine sehr starke Erhöhung der lizenzierten Inhalte hinzu (ohne Gold Open Access). Die Zahl der Denials ging daraufhin stark zurück, insbesondere etwa an Fachhochschulen und Universitäten mit fachlichem Schwerpunkt. 2016 kehrte sich das Verhältnis von Closed- zu Open-Access-Artikeln um (80 Prozent und mehr Open Access). Am meisten profitierte die Medizinische Universität Wien, danach folgten die Universität Innsbruck und die Universität Wien, was eine sechsstellige theoretische Kostenersparnis bei den APCs bedeutete. Dieser Wert ist natürlich unter der Voraussetzung zu betrachten, dass sich in der APC-Welt vielleicht nicht alle Autoren für Open Access entschieden hätten. Es gab 34 Prozent Medizinanteil und 10 Prozent Life Sciences bei den Zeitschriften, wobei es eine starke Konzentration auf bestimmte Zeitschriften, insbesondere solche mit Österreich-Bezug gibt. Diese seien natürlich dann auch Kandidaten für einen „Flip“ zu vollständigem Open Access. Für 2017 soll die Auswertung fortgesetzt werden. Es wird sich dann zeigen, ob 2016 einfach nur ein großer Nachholeffekt eingetreten ist oder ob die Zahlen weiter so hoch bleiben. Neue Kompetenzfelder für Konsortialstellen tun sich bei der Zusammenführung der Usage-Daten von den Einrichtungen auf. Bei weiteren Verlagen könnte das zu einer wichtigen Arbeitsvoraussetzung für Analysen werden.

Andreas Ferus beschäftigte sich abschließend mit dem Open-Access-Monitoring: Bibliothekarische Expertise sei sehr wichtig für das Monitoring, reiche aber bei Weitem nicht aus. Monitoring ist aus Sicht von Ferus eine Erscheinung der Transitionsphase, wobei aber unklar sei, wie lange diese dauern wird. Zudem werde es sicher auch in Zukunft Closed-Access-Publikationen geben. In Dänemark gibt es beispielsweise ein nationales FIS/CRIS-System, was das Monitoring auf nationaler Ebene sehr erleichtert. An österreichischen Universitäten sieht es hingegen ganz unterschiedlich aus. Das Monitoring findet derzeit nur für APCs statt, sollte aber für alle Open-Access-Kosten stattfinden – auch in Hinsicht auf die Total Costs for Publication. Dazu benötigt man auch die Unterstützung durch die Finanzleiterinnen und -leiter der Universitäten, um die Daten automatisch abziehen zu können. Gemeinsame Standards und Schnittstellen zwischen allen relevanten IT-Anwendungen seien die nächsten wichtigen Schritte. Ziel ist ein nachvollziehbarer, laufender Prozess. Das Monitoring von hybridem Open Access bedeutet neue Herausforderungen. Man beabsichtigt, auch den OpenAire-Standard zu prüfen. Ebenso verhält es sich bei delayed Open Access sowie anderen als Zeitschriften-Publikationen.

Informationskompetenz im Alltag, in der Hochschullehre, in Öffentlichen Bibliotheken und in Schulbibliotheken

Drei hintereinander folgende Veranstaltungsblöcke beschäftigten sich mit der Informationskompetenz. Den Beginn machte das Forum Informationskompetenz, das in diesem Jahr zum dritten Mal von der Kommission Informationskompetenz der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB) durchgeführt wurde. Das Forum stellt aktuelle Themen aus dem Arbeitsbereich Informationskompetenz in den Mittelpunkt. In diesem Jahr stand es unter der Frage „Informationskompetenz im Alltag – Aufgabe für Bibliotheken?“ Nach drei kurzen Impulsen aus Deutschland (Fabian Franke), Österreich (Michaela Zemanek) und der Schweiz (Gary Seitz) wurde ausgiebig diskutiert. Dabei standen oft praktische Fragen im Mittelpunkt: Wie überzeuge ich Unterhaltsträger, der Bibliothek genügend Ressourcen für die Vermittlung von Informationskompetenz zur Verfügung zu stellen? Wie schaffe ich es, dass viele Nutzerinnen und Nutzer meine Kurse besuchen? Wie motiviere ich Kolleginnen und Kollegen, Kurse vorzubereiten und durchzuführen? Welche Qualifikationen benötigt ein Teaching Librarian? Haben wir genügend und ausreichend qualifiziertes Personal für die flächendeckende Förderung von Informationskompetenz? Es wurde sehr deutlich: Die Herausforderungen sind in Österreich, Deutschland und der Schweiz ähnlich. Und wie können sie am besten gemeinsam bestehen, indem wir uns auch über Ländergrenzen hinweg austauschen und zusammenarbeiten. Einig waren sich alle Teilnehmenden, dass Informationskompetenz im digitalen Zeitalter zum Erkennen von Fake News und zur Bewertung von Informationen unverzichtbar ist und von Bibliotheken gefördert werden muss.

Abb. 4:  Ausrichter des Österreichischen Bibliothekartags war wie immer die Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB) (Bild: Copyright Christoph Ekmpter)
Abb. 4:

Ausrichter des Österreichischen Bibliothekartags war wie immer die Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB) (Bild: Copyright Christoph Ekmpter)

Auch die klassischen Präsentationen in den beiden Vortragsblöcken zur Informationskompetenz gaben die Vielfalt der bibliothekarischen Aktivitäten wieder. Fabian Franke analysierte, wie schwierig die Umsetzung der Empfehlungen zur Informationskompetenz der Hochschulrektorenkonferenz an den deutschen Hochschulen ist. Bisher gibt es nur wenige Beispiele von neuen Strukturen zur Förderung von Informationskompetenz und digitaler Kompetenz an den Hochschulen. Detlev Dannenberg zeigte anhand vieler praktischer Beispiele, wie eine Bibliothek kompetenzorientiert ihre Kurse optimieren kann. Rebecca Ulmer berichtete über die Pläne der Fachhochschule Wiener Neustadt und die Stadtbücherei Wiener Neustadt zur Umsetzung des Gemeinsamen Referenzrahmens Informationskompetenz des Deutschen Bibliotheksverbands.

Mit dem Bereich E-Learning befassten sich zwei Vorträge: Hannah Alker-Windbichler und Karin Lach präsentierten grundlegende Herausforderungen bei der Erstellung von Open Educational Resources. „Ohne O wäre es leichter“ war ihr Fazit – denn dann bräuchte man nicht so sehr auf die rechtlichen Rahmenbedingungen speziell bei der Verwendung von Grafiken achten. Michaela Zemanek berichtete über einen Online-Kurs zum Discovery-System für Bibliothekarinnen und Bibliothekare. Einige standen dieser Form der Fortbildung skeptisch gegenüber, andere gaben an, in hohem Maße davon zu profitieren.

Den Abschluss der Vorträge zur Informationskompetenz bildete eine Präsentation von Sarah Schmelzer über die Zusammenarbeit von Bibliothek und Schule.

Abb. 5:  An der Johannes Kepler Universität Linz (Bild: Copyright Christoph Ekmpter)
Abb. 5:

An der Johannes Kepler Universität Linz (Bild: Copyright Christoph Ekmpter)

Drei Blöcke Informationskompetenz beim Österreichischen Bibliothekartag 2017 – das zeigt deutlich die Bedeutung dieses Aufgabengebiets für die österreichischen Kolleginnen und Kollegen. Die Beiträge waren durchweg höchst praxisorientiert, so dass alle Teilnehmenden wertvolle Anregungen mit nach Hause nehmen konnten.

Digitalisierung – ein ständiges Thema

Als ein weiterer roter Faden zog sich das Thema Digitalisierung durch den Österreichischen Bibliothekartag; teils waren ihm eigene Sektionen gewidmet, teils versteckten sich einschlägige Vorträge in anderen Themenblöcken.

In Anwesenheit von Hans Zotter, dem früheren Leiter der Sondersammlungen an der UB Graz, berichteten Karl Lenger aus IT-Sicht und Manfred Mayer als Restaurator in launiger und unterhaltsamer Weise von 20 Jahren Digitalisierung in Graz. Anhand alter Fotos, die die ersten eingesetzten Kameras und das Urmodell des Kameratisches aus dem Jahr 1997 zeigten, demonstrierten sie die Entwicklung ihres Laboratoriums. Heute ist der Grazer Buchtisch in vielen Ländern im Einsatz und nachgerade zu einem Markenzeichen von Graz in der Fachwelt geworden. Dazu trug auch der kleine Bruder des Grazer Buchtischs, der 2008 konstruierte Traveller bei, mit dem die Vortragenden beispielsweise wochenlang armenische Handschriften in Eriwan scannten. Aufträge wie dieser wurden für die Grazer Digitalisierer existenziell wichtig, da die heimische Universität die Finanzierung der Hardwareausstattung verweigerte; aus diesem Grund stellten die Grazer Digitalisierer mit Hilfe von Vestiga. The Manuscript Research Centre of Graz University ihre Arbeit auf eine finanziell gesicherte Grundlage.

Erster Interessent und Abnehmer eines Grazer Buchtisches war seinerzeit die UB Heidelberg. Auf ihrer Zeitreise durch 16 Jahre Digitalisierung erzählte Maria Effinger, dass die ersten Digitalisate von Palatina-Handschriften noch in Graz hergestellt worden waren, gespeichert auf 470 CDs, dass aber ab 2006 mit einem eigenen Buchtisch gearbeitet werde konnte und später ein weiterer Buchtisch in das Digitalisierungsstudio in Rom einzog, wo die UB Heidelberg die im Vatikan überlieferten Palatina-Handschriften einscannte. Die insgesamt über 2 800 Handschriften, festgehalten auf rund einer Million Scans, erfreuen sich weltweit hoher Zugriffszahlen. Insgesamt stellte die UB Heidelberg, die mit der lokal entwickelten Workflowsoftware DWork arbeitet, mittlerweile 5,8 Millionen Seiten ins Netz. Dass Digitalisierung eigentlich Mittel zum Zweck ist, unterstreichen die in Heidelberg entstandenen digitalen Editionen (Welscher Gast, Lorscher Codex).

In ganz andere Dimensionen der Digitalisierung führte der Vortrag von Felix Horn. Er zeigte auf, wie an der Bayerischen Staatsbibliothek in München dreidimensionale Kulturgüter digitalisiert werden, damit sie beispielsweise in das landeskundliche Portal bavarikon eingestellt werden können, in dem Kultur- und Wissensschätze Bayerns präsentiert werden. Die Ergebnisse der aufwendigen 3-D-Digitalisierung können in diesem Portal anhand zahlreicher Objekte bestaunt werden; Bücher, Skulpturen, Plastiken, Münzen, Globen, Möbel und andere Gegenstände lassen sich hin und her bewegen, vergrößern, verkleinern und drehen. Um diese Effekte zu erzielen, werden von dem auf einem Drehteller stehenden Objekten zahlreiche Scans erstellt, die später aufwendig zusammengefügt werden.

In der Veranstaltung der VÖB-Kommission für Landesbibliotheken unter dem Motto „Regionalgeschichte im Netz“ zeigte Ludger Syré (Badische Landesbibliothek, Karlsruhe) auf, dass eine Bibliothek durchaus eine Standard-Digitalisierungssoftware einsetzen kann – in diesem Fall das System Visual Library – und dennoch mit relativ geringem Aufwand materialspezifische Zugänge zu retrodigitalisierten regionalen Ressourcen schaffen kann. Dem Nutzer werden für unterschiedliche Dokumente zusätzliche Sucheinstiege geboten, darunter Zeitleisten (Adressbücher, Gesetzblätter), Personen- und Redenregister (Landtagsprotokolle), Kalendersuchen (Zeitungen, Theaterzettel), Titel- und Autorenregister (Theaterzettel) oder auch kartenbasierte geografische Einstiege (topografische Ansichten). Auch virtuelle Ausstellungen (Kochbücher) können auf den digitalisierten Beständen aufsetzen. Alle eingebundenen Scripte und Module liegen außerhalb der Workflowsoftware, bleiben also bei neuen Systemversionen erhalten.

Einen hohen Stellenwert besitzt nach wie vor das 2003 ins Leben gerufene BAM Austria; in Linz griff die Gruppe das Thema Digitalisierung auf. Zunächst berichteten Vertreter der drei Sparten Bibliothek, Archiv und Museum von lokalen Aktivitäten. Regina Doppelbauer bekannte, dass die Albertina in Wien von ihren 1,1 Millionen Kunstwerken bislang erst 91 600 online gestellt habe. Die Strategie des Museums zielt darauf, das Material zu erschließen bzw. zu digitalisieren, die Datenlage zu verbessern (etwa durch Verschlagwortung und Normdatenverwendung) und die Rechte- und Zugangsverwaltung zu klären. Zu diesem Zweck hat das Museum eine eigene Bildpolitik entwickelt.

Eine Tour d´Horizon durch 20 Jahre Digitalisierung an der Österreichischen Nationalbibliothek, beginnend im Jahr 1997 mit der Katalogzetteldigitalisierung, unternahm Max Kaiser. Imponierend fiel die Vielfältigkeit der Materialien aus, die von historischen Tageszeitungen über Porträts, Rechtsquellen und Theaterzettel bis hin zu Plakaten und Ansichtskarten reicht. Wie andere große Bibliotheken auch hat die ÖNB mit Google einen Vertrag über die systematische Digitalisierung des Bestandes vom 16. bis zum 19. Jahrhundert geschlossen. Davon betroffen sind rund 600 000 Bände in einem Umfang von 200 Millionen Seiten, von denen inzwischen 480 000 Bände fertig sind, so dass das Unternehmen voraussichtlich 2019 beendet werden wird. Das Google-Projekt hat über seinen eigentlichen Zweck hinaus positive Nebeneffekte, weil es zugleich eine Art innere Revision bedeutet: Nicht oder unzureichend katalogisierte Bestände fallen ebenso auf wie zahlreiche interessante Fundstücke zwischen den Buchseiten.

Das dem Bundeskanzleramt unterstehende Österreichische Staatsarchiv in Wien besitzt 200 Kilometer Archivmaterial vom Jahr 816 bis in die Gegenwart. Aufgrund dieses Umfangs müssen Schwerpunkte bei der Digitalisierung gesetzt werden; vor allem aber sollten alle Findmittel online zur Verfügung stehen. Eine besondere Herausforderung, so Thomas Just, stellt die elektronische Aktenführung der abgebenden Stellen dar. Ein weiteres Problem ist das ungelöste Gebot der Langzeitarchivierung.

Eben diese war auch Gegenstand der anschließenden Podiumsdiskussion, an der neben den drei Referenten weitere Vertreter von Archiven und Bibliotheken teilnahmen. Diskutiert wurden die Motive und der Umfang der Digitalisierung, aber auch Probleme wie das Urheberrecht und die Frage der Standards und Normen, deren Halbwertszeit immer geringer zu werden scheint. Schließlich landete die Debatte beim Geld und damit bei dem Widerspruch, dass Digitalisierung zwar allseits erwartet, aber unzureichend finanziert wird. Den Blickwinkel des Nutzers brachte Christoph Hoffmann vom Austrian Centre for Digital Humanities, einem Institut der Österreichischen Akademie der Wissenschaften, ein, der auf die Durchsuchbarkeit aller aggregierten Digitalisate abhob. Bemängelt wurde zudem, dass es in Österreich eine mit der Deutschen Digitalen Bibliothek vergleichbare Plattform nicht gibt; für eine solche kann die Europeana kein Ersatz sein, auch wenn diese mit österreichischen Digitalisaten beliefert wird.

Abschließend zu diesem Globalthema mögen zwei weitere Vorträge Erwähnung finden. Armin Brinzing beschrieb die Digitalisierungsbestrebungen der Bibliotheca Mozartiana, die zur Stiftung Mozarteum in Salzburg gehört. Das 2016 eröffnete Portal „Mozartiana digital“ ermöglicht den freien Zugang zu Handschriften, Noten und Büchern. Es wurde mit der Software Visual Library realisiert, nachdem der Österreichische Bibliothekenverbund – ähnlich wie das hbz in Deutschland – eine Hostingfunktion für dieses Programm übernommen hatte. Bei der Erschließung wird besonderer Wert auf exemplarspezifische Angaben (z. B. Provenienzen) und zusätzliche Informationen (z. B. Musikincipits) gelegt. Die Metadaten zu den Briefen der Familie Mozart stammen aus einer komplexen, selbst entwickelten Datenbank, eine Schnittstelle besteht aber auch zum Internationalen Quellenlexikon der Musik (RISM).

Abb. 6:  Blick in die Firmenausstellung (Bild: Copyright Christoph Ekmpter)
Abb. 6:

Blick in die Firmenausstellung (Bild: Copyright Christoph Ekmpter)

Eine andere Software zur Gestaltung und Steuerung des Digitalisierungsworkflows, nämlich Goobi, setzt die Oberösterreichische Landesbibliothek in Linz ein. Gregor Neuböck schilderte die einzelnen Arbeitsschritte und verwies auf den überregionalen Austausch der Anwender und die Weiterentwicklung der Software, die er wegen ihrer feinen Konfigurierbarkeit als eine Art „Schweizer Messer“ der Digitalisierung bezeichnete.

Österreichischer Bibliothekartag Linz: ca. 100 Veranstaltungen, ca. 50 Aussteller, ca. 640 Teilnehmerinnen und Teilnehmer

Rednerinnen und Redner bei der Eröffnung am Dienstagabend

Dr. Susanne Casagranda

Leiterin der UB Linz

Prof. Dr. Andreas Janko

Vizerektor für Lehre und Studierende der Johannes Kepler Universität Linz

Wolfgang Stanek

Landtagsabgeordneter von Oberösterreich

MR Dr. Peter Seitz

Bundesministerium für Wissenschaft, Forschung und Wirtschaft

Dr. Werner Schlacher

Präsident der VÖB

Glòria Pérez-Salmerón

Präsidentin der IFLA

Klaus Tapken

Vertreter der Aussteller

About the authors

Fabian Franke

Dr. Fabian Franke

Konstanze Söllner

Konstanze Söllner

Ludger Syré

Dr. Ludger Syré

Published Online: 2018-4-4
Published in Print: 2018-4-25

© 2018 by De Gruyter

Downloaded on 2.6.2024 from https://www.degruyter.com/document/doi/10.1515/abitech-2018-0012/html
Scroll to top button