Digitalisierung: Der Vatikan macht sein Pergament permanent

Von

Die Manuskripte der Vatikanischen Bibliothek sind oft Jahrhunderte alt, auf edlen Büttenpapieren oder gar Pergament geschrieben - aber eben nicht verewigt: Der Zahn der Zeit nagt an den Schätzen. Nun sollen sie mit Hilfe einer Nasa-Technologie digitalisiert werden.

Papst Benedikt XVI. in der vatikanischen Bibliothek: Die Zugänglichkeit zu den Quellen soll für kommende Generationen durch Digitalisierung gesichert werden Zur Großansicht
AP / L'Osservatore Romano

Papst Benedikt XVI. in der vatikanischen Bibliothek: Die Zugänglichkeit zu den Quellen soll für kommende Generationen durch Digitalisierung gesichert werden

Nicht selten sind die Bücherschränke das Jüngste in der Vatikanbibliothek, viele wurden gegen Ende des 16. Jahrhunderts angeschafft. Die Bestände selbst umfassen jedoch um ein Vielfaches ältere Manuskripte. Vom Codex Vaticanus aus dem 4. Jahrhundert über spätantike Abschriften der Werke Vergils und die Einsetzungsbulle Honorius III. für den Franziskanerorden von 1223 bis zu mehreren Handschriften Martin Luthers ruhen unschätzbare Werte in der päpstlichen Sammlung. Die vordringlichste Aufgabe sind natürlich der Erhalt und die Pflege des wertvollen Materials, daneben aber auch die wissenschaftliche Forschung und Auswertung der Dokumente. Das Problem dabei: Letzteres steht oft im Gegensatz zum Ersteren, die hochempfindlichen Pergamente würden regelmäßige Lektüre durch wissbegierige Forscher nicht sehr lange überleben.

Die Folge ist die sehr rigorose Zugangsbeschränkung, aber bereits seit einem Jahrhundert mühen sich die vatikanischen Bibliothekare außerdem, auf fotografischem Wege Reproduktionen der Folianten herzustellen und sie so für einen erweiterten Leserkreis zugänglich zu machen. Seit 1907 existiert ein eigenes fotografisches Labor, das in den Folgejahren kontinuierlich ausgebaut und erweitert wurde und mittlerweile mit modernster Digitaltechnik ausgestattet ist.

Vom Fotolabor zur Hightech-Ausstattung

Nun aber sind die frommen Buchbewahrer der Vatikanischen Apostolischen Bibliothek, so ihr voller Name, in einem weiteren Schritt dabei, die digitale Zugänglichkeit auch für kommende Generationen sicherzustellen. Dafür wird dieselbe Technologie verwendet, die auch die Nasa zur Speicherung der Daten nutzt, die während ihrer Missionen zu Sonne, Mond und Sternen angefallen sind.

Zunächst wird jede einzelne Manuskript-Seite mit einer 50-Megapixel-Hasselblad-Kamera fotografiert. Die Daten werden dann ins Flexible Image Transport System (FITS) konvertiert, ein nicht-proprietäres Format. FITS wurde von der amerikanischen Raumfahrtbehörde bereits 1981 entwickelt, die aktuelle Version wurde 2008 veröffentlicht. Es erlaubt mehrere Datenfelder in frei gewählten Dimensionen, ist also für zwei- oder dreidimensionale Bilder geeignet, wobei die dritte Dimension für Farbschemata genutzt werden kann. Neben dem Material von Raummissionen oder Fotos vom Hubble-Teleskop werden in jüngerer Zeit auch Forschungsdaten aus der Nuklearmedizin in diesem Format gesichert.

Ein erster Testlauf mit insgesamt 7.500 Seiten, verteilt auf 23 Manuskripte, ist derzeit im Gange und soll bis Juni beendet werden. Zuvor wurde eine über zwei Jahre ausgedehnte Machbarkeitsstudie durchgeführt, die verschiedene Aspekte der Planungen umfasste. Die fotografische Umsetzung wurde dabei ebenso beleuchtet wie unterschiedliche elektronische Speicherformate oder die Wartung der Archive, wie der "Osservatore Romano" berichtete. Nun soll im nächsten Schritt der gesamte Bibliotheksbestand digitalisiert werden.

Das sind mit 80.000 Handschriften an die 40 Millionen Seiten, die Experten schätzen den erforderlichen Speicheraufwand auf 45 Petabyte (45 Millionen Gigabyte). Noch in diesem Jahr soll dann die erste Projektphase beginnen, die drei Jahre andauern und mit einem Kostenaufwand von 25 Millionen Euro auch die teuerste sein wird. Am Ende soll das Unterfangen einen Kostenrahmen von 50 Millionen Euro nicht übersteigen. 160 Mitarbeiter sind bis dahin mit der Digitalisierung beschäftigt, außerdem werden zwei Datencenter errichtet. Eines soll im Vatikanstaat selbst installiert werden, das andere in Castel Gandolfo, der päpstlichen Sommerresidenz.

Günstig muss es sein und zukunftsträchtig

Die Entscheidung für FITS fiel aus zwei Gründen. Neben finanziellen Erwägungen spielte vor allem die Zukunftsträchtigkeit der Operation eine Rolle. Generationen von Informatikern haben über der Frage gebrütet, wie sich auch angesichts eines schnellen und sich weiter beschleunigenden technischen Wandels die Lebensdauer digitaler Daten erhöhen lässt. Ein Problem, von dem auch Otto Normaluser betroffen ist. In beinah jedem Haushalt dürften noch heute zahllose 3,5-Zoll-Disketten unversehrt herumliegen. Die darauf abgelegten Daten können die meisten ihrer Besitzer allerdings nicht mehr lesen, weil ihre Computer gar kein Diskettenlaufwerk mehr haben. Noch schlimmer wird es, wenn in Zukunft Datenformate nicht mehr erkannt werden.

Bereits in den neunziger Jahren gab es erste Versuche zur Digitalisierung der Bestände, wie Luciano Ammenti, Informatikchef der Vatikanbibliothek, berichtet. Die damalige Zusammenarbeit mit IBM war allerdings nicht von Erfolg gekrönt. Die Techniker von Big Blue hätten die besonderen Erfordernisse der Aufgabe gar nicht verstanden, weder hinsichtlich der wissenschaftlichen Auswertung antiker Schriften, noch in Bezug auf die Konservierung. Außerdem hätte die Verwendung von Formaten wie TIFF, PDF oder JPG immense Kosten produziert, selbst wenn pro eingescannter Seite nur ein Cent fällig geworden wäre.

Nachdem das Vorhaben dann für mehrere Jahre stillgelegen hatte, erregte schließlich das Nasa-System die Aufmerksamkeit der päpstlichen Techniker. FITS hat den großen Vorteil, ein Open-Source-Format zu sein, damit ist es von jedermann zum Nulltarif zu verwenden. Gleichwohl wird es seit Jahrzehnten von der Forschergemeinde regelmäßig aktualisiert und ist inzwischen im universitären und wissenschaftlichen Bereich verbreitet. Die entsprechenden Plugins machen es ohne weiteres mit gängigen Betriebssystem wie Windows, Mac oder Linux kompatibel. Da das System bereits seit Jahrzehnten ohne Probleme arbeite, könne auch für die Zukunft dieselbe Funktionalität erwartet werden.

Open Source ist das Geheimnis

Schwieriger sehe es mit der verwendeten Hardware aus, jedoch arbeite die Bibliothek gemeinsam mit den beim Projekt engagierten Unternehmen an der Entwicklung kompatibler Peripheriegeräte auch für die Zukunft. "Dafür schließen sich die beteiligten Unternehmen und wir zu einem Aktualisierungsprogramm zusammen, dessen Dreijahresintervalle die Lesbarkeit der Daten gewährleisten sollen", erklärt Ammenti.

Bis die Pläne zur Digitalisierung endgültig grünes Licht erhielten, bedurfte es jedoch einiger Überzeugungskraft. Denn es gab unter den Verantwortlichen Befürchtungen, die sehr empfindlichen Manuskripte könnten bei ihrer Digitalisierung Schaden nehmen. Doch dann siegte die Tradition des "Dienstes an der Kultur, den der Heilige Stuhl seit Jahrhunderten fördert und entwickelt und dabei seine Verpflichtung und Einsatzwillen den Möglichkeiten anpasst, die neue Technologien eröffnen", so der Präfekt der Vatikanischen Bibliothek Cesare Pasini.

Wenn alles gut geht, dann sind die wunderbaren Bücherschätze der Päpste in ihrer digitalen Version beinah für die Ewigkeit gesichert. Niemand muss sich dann noch Sorgen machen, so großartige Werke wie das Lehrbuch über die Falknerei des Stauferkaisers Friedrich II. ("De arte venandi cum avibus"), das Lorscher Evangeliar oder Dantes Göttliche Komödie zu beschädigen, selbst wenn er noch so lange darin liest. Und auch die in Italien unvermeidlichen Renovierungsarbeiten, wegen derer die Bibliothek noch bis September geschlossen bleibt, wären dann endlich kein Hindernis mehr.

Diesen Artikel...
  • Aus Datenschutzgründen wird Ihre IP-Adresse nur dann gespeichert, wenn Sie angemeldeter und eingeloggter Facebook-Nutzer sind. Wenn Sie mehr zum Thema Datenschutz wissen wollen, klicken Sie auf das i.
  • Auf anderen Social Networks teilen

Forum - Diskussion über diesen Artikel
insgesamt 6 Beiträge
Alle Kommentare öffnen
    Seite 1    
1. Die Zeit wird es zeigen
Stefan Albrecht 07.05.2010
Zitat von sysopDie Manuskripte der Vatikanischen Bibliothek sind oft Jahrhunderte alt, auf edlen Büttenpapieren oder gar Pergament geschrieben - aber eben nicht verewigt: Der Zahn der Zeit nagt an den Schätzen. Nun sollen sie mit Hilfe einer Nasa-Technologie digitalisiert werden. http://www.spiegel.de/netzwelt/web/0,1518,692797,00.html
Bin mal gespannt, ob die "NASA Technologie" in 200 Jahren noch funktioniert und ob die "digital verewigten Dokumente" dann noch lesbar sind. Da habe ich doch so meine Zweifel. Nicht zuletzt, weil für das Funktionieren unserer heutigen Datenverarbeitung eine enorme Infrastruktur mit Kraftwerken, hochkomplexen Geräten und Energiequellen notwendig ist. Und was Festplatten anbelangt, so hat man doch wenig Erfahrung, wie sich diese in 100 Jahren verhalten. Wenn deren Daten nicht ständig gesichert werden, droht Verlust, weshalb jedes Unternehmen tagtäglich Backups von seinen Daten macht. Da sind "alte Pergamente" doch wesentlich weniger aufwendig zu handhaben... Und man weiss, wie sie gelagert werden müssen, um auch in 300 Jahren noch lesbar zu sein.
2. ein "nicht-proprietäres Format", das keiner nutzt wird teuer
variofox 07.05.2010
Ich verstehe nicht, warum die Leute immer so großen Wert auf "nicht-proprietäre Formate" legen. Die hohe Verbreitung von HTML, PDF, Word, JPG, GIF und Konsorten garantieren völlig unabhängig davon, ob die Formate "proprietär" oder international standardisiert sind oder nicht, daß auch in 100 Jahren noch sehr viele Menschen und Unternehmen ein Interesse daran haben, diese Formate zu lesen - und entsprechende Reader/Konverter billig zu haben sein werden. Ich bin mal gespannt, wie es mit dem "nicht-proprietären Format" FITS in 30 Jahren weitergehen wird. Sicherlich werden die NASA und andere finanziell gut ausgestattete Gruppen auch dann noch ihre alten Bilder lesen wollen und für teures Geld Konverter programmieren lassen. Für finanziell schlechter gestellte Vorhaben (zB Forschung...) sind diese Formate aber garantiert bald unzugänglich. Und jetzt komme bitter keiner mit dem Argument, daß es JETZT irgendeinen Open Source-Viewer gibt. Der läuft nämlich fast sicher in 10 Jahren schon nicht mehr auf den dann aktuellen Betriebssystemen. Sicherlich ist es gut, die Bilder nicht in handelsüblichen JPGs zu speichern, dafür ist die Qualität zu schlecht. Aber ein "nicht proprietäres" Exotenformat halte ich auch für fragwürdig.
3. OpenSource > Proprietär
suprafluid 07.05.2010
Zitat von variofoxIch verstehe nicht, warum die Leute immer so großen Wert auf "nicht-proprietäre Formate" legen. Die hohe Verbreitung von HTML, PDF, Word, JPG, GIF und Konsorten garantieren völlig unabhängig davon, ob die Formate "proprietär" oder international standardisiert sind oder nicht, daß auch in 100 Jahren noch sehr viele Menschen und Unternehmen ein Interesse daran haben, diese Formate zu lesen - und entsprechende Reader/Konverter billig zu haben sein werden. Ich bin mal gespannt, wie es mit dem "nicht-proprietären Format" FITS in 30 Jahren weitergehen wird. Sicherlich werden die NASA und andere finanziell gut ausgestattete Gruppen auch dann noch ihre alten Bilder lesen wollen und für teures Geld Konverter programmieren lassen. Für finanziell schlechter gestellte Vorhaben (zB Forschung...) sind diese Formate aber garantiert bald unzugänglich. Und jetzt komme bitter keiner mit dem Argument, daß es JETZT irgendeinen Open Source-Viewer gibt. Der läuft nämlich fast sicher in 10 Jahren schon nicht mehr auf den dann aktuellen Betriebssystemen. Sicherlich ist es gut, die Bilder nicht in handelsüblichen JPGs zu speichern, dafür ist die Qualität zu schlecht. Aber ein "nicht proprietäres" Exotenformat halte ich auch für fragwürdig.
Eben das garantieren sie ja nun nicht. Ein Format ist im Grunde nichts anderes als ein Verschlüsselungsalgorithmus für elektronische Daten. Dass er derzeit weit verbreitet ist, sagt nichts über seinen Status in ein paar Jahrzehnten aus. Würden die Dokumente im PDF- oder DOC-Format gespeichert, hieße das Unmengen wertvoller Daten der Willkür eines Wirtschaftsunternehmens ausliefern. Wären Adobe respektive Microsoft morgen insolvent, entschlössen sich, den Support für die alten Formate zugunsten eines neuen aufzugeben oder verlangten zu hohe Lizenzgebühren für die Verwendung ihrer Formate, hätten wir nichts mehr als ein paar Petabyte Datenmüll. Ist dagegen der Sourcecode bekannt, das heißt die Verschlüsselung der Daten, kann sich diesen in 50 Jahren jeder geübte Hobbyprogrammierer aufrufen und sich selbst einen Reader dafür schreiben. So viel zum Thema Kosten. Für längerfristige Datensicherungen sind quelloffene Formate (fast) immer die bessere Alternative.
4. Weil Sie gerade "Word" sagen
vincent040580 07.05.2010
Ich verstehe nicht, warum die Leute immer so großen Wert auf "nicht-proprietäre Formate" legen. Die hohe Verbreitung von HTML, PDF, Word, JPG, GIF und Konsorten garantieren völlig unabhängig davon, ob die Formate "proprietär" oder international standardisiert sind oder nicht, daß auch in 100 Jahren noch sehr viele Menschen und Unternehmen ein Interesse daran haben, diese Formate zu lesen - und entsprechende Reader/Konverter billig zu haben sein werden. Wenn ich mir nur einmal die Office Suite von Microsoft ansehe dann kann ich mir wirklich gut vorstellen wie es mit meinen Daten in ein paar Jahren aussieht. Dateien mit Word 2003 oder Excel 2003 abgespeichert kann man zwar mit Office 2007 öffnen allerdings sind manche Funktionen nicht mehr vorhanden und die Darstellung kann auch ganz schön vom "original" abweichen, da sind manche Firmen ganz schön beschäftigt Ihre alten Office Dokumente wieder gerade zu siehen. Aber der Vatikan und die Nasa hätten bestimmt ewig viel Lust alle paar Jahre jedes Dokument wieder auszugraben um es neu zu formatieren das es auch mit der neuen Version von M$ Software wieder exakt so aussieht wie sie es mal gespeichert haben.
5. handhaben oder verstecken
luftschutz 08.05.2010
Zitat von Stefan AlbrechtBin mal gespannt, ob die "NASA Technologie" in 200 Jahren noch funktioniert und ob die "digital verewigten Dokumente" dann noch lesbar sind. Da habe ich doch so meine Zweifel. Nicht zuletzt, weil für das Funktionieren unserer heutigen Datenverarbeitung eine enorme Infrastruktur mit Kraftwerken, hochkomplexen Geräten und Energiequellen notwendig ist. Und was Festplatten anbelangt, so hat man doch wenig Erfahrung, wie sich diese in 100 Jahren verhalten. Wenn deren Daten nicht ständig gesichert werden, droht Verlust, weshalb jedes Unternehmen tagtäglich Backups von seinen Daten macht. Da sind "alte Pergamente" doch wesentlich weniger aufwendig zu handhaben... Und man weiss, wie sie gelagert werden müssen, um auch in 300 Jahren noch lesbar zu sein.
sind sie eben nicht, wenn sie tatsächlich gehandhabt werden und nicht nur in entsprechend klimatisierten Bunkern versteckt werden. Es geht um den Zugang zu Informationen, nicht nur um den Erhalt von Reliquien.
Alle Kommentare öffnen
    Seite 1    
Diskussion geschlossen - lesen Sie die Beiträge! zum Forum...
News verfolgen

HilfeLassen Sie sich mit kostenlosen Diensten auf dem Laufenden halten:

alles aus der Rubrik Netzwelt
Twitter | RSS
alles aus der Rubrik Web
RSS
alles zum Thema Vatikan
RSS

© SPIEGEL ONLINE 2010
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH



  • Drucken Senden
  • Nutzungsrechte Feedback
  • Kommentieren | 6 Kommentare

Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Einfach und bequem: Direkt bei Amazon kaufen.