Neue Produkte - die Funktionen der Beteiligten Martin Grötschel, Joachim Lügger Neue Produkte für die digitale Bibliothek: die Rolle der Wissenschaften1 Vorbemerkung Bücher und Zeitschriften stellen in der Form, wie wir sie heute kennen, für traditionelle Texte ideale "Träger" dar. Sie sind kompakt und leicht. Wir können sie überall hin mitnehmen und fast zu jeder Zeit und an jedem Ort lesen. Sie haben, im Informatik-Jargon ausgedrückt, eine phantastisch einfache "Benutzerschnittstelle", wir können sie ohne "elektrischen Anschluß" und ohne "Systemaufbau" sofort "verarbeiten". Ihre lineare Form ist leicht zu verstehen. Wichtige Bücher möchten wir jederzeit und auf immer in einer Bibliothek zur Verfügung haben. Bücher sind vergleichsweise beständig, sie bilden und erzeugen Geschichte. Das Herumstöbern in Buchregalen erfüllt uns mit Vorfreude und Entdeckerlust. Das Blättern in einem Buch hat sinnliche Qualität. Gemessen an der Zeit, die wir selbst zum Lesen aufwenden, ist ein Buch meistens recht preiswert. Andererseits, Bücher sind statisch und nicht interaktiv. Man kann nicht in ihnen "clicken" oder entlang ihrer Verweise "durch die ganze Welt reisen". Für die Darstellung dynamischer Verhältnisse sind sie nicht geeignet. Ihre Bilder sind fixiert. Ihr Inhalt und ihre Form können sich nicht den Bedürfnissen und Interessen des Lesers anpassen. Ihre lineare Form ist zwar leicht zu verfolgen, aber die Korrespondenz zur komplex verzweigten Struktur des Wissens ist nur schwach ausgeprägt. Dauerhaftes Wissen schlägt sich heute nicht nur in druckbaren Texten und Bildern nieder, sondern in Algorithmen, in sich dynamisch weiterentwickelnden Softwaresystemen, in komplexen Datensammlungen und ihren Visualisierungen, in Animationen dynamischer Verhältnisse, in technischen Dokumentationen, die kaum ausgedruckt werden können, weil sie sich zu oft ändern oder weil sie zu umfangreich sind. Dies geschieht an vielen Orten der Welt und nicht nur im Bereich der Wissenschaften. Der materielle Transport und die Archivierung von Büchern und Zeitschriften sind oft teuer, oft teurer als diese selbst. Obendrein ist der Prozeß ihrer Produktion zeitaufwendig. Und, man kann ein aktuelles Buch oder Teile davon nicht einfach kopieren oder per elektronischer Post verteilen, ohne das Copyright zu verletzen. Hinzu kommt die Tatsache, daß der Umfang wissenschaftlicher Erkenntnisse explosionsartig wächst, während gleichzeitig die Budgets zum Literaturerwerb stagnieren oder sogar sinken. Im wissenschaftlichen Publikationswesen besteht also offensichtlich Handlungsbedarf. Wir skizzieren in diesem Artikel die gegenwärtige Situation aus der Sicht der Wissenschaft, wobei wir uns auf Beispielmaterial aus der Mathematik (unserem eigenen Fachgebiet), der Physik, Chemie und Informatik stützen und insbesondere die Bedürfnisse dieser und verwandter Disziplinen im Blickfeld haben. Die Situation ist nicht so hoffnungslos, wie es zunächst erscheinen mag. Leistungsfähige Rechner, digitale Speichermedien, elektronische Netze und neue Such- und Verwaltungssoftware lassen einen Ausweg aus der "Krise" möglich erscheinen. Die globale digitale Bibliothek, benutzbar von jedem und zu vernünftigen Preisen, ist keine Fiktion mehr. Die Produkte, die in diese Bibliothek führen und aus denen sie besteht, befinden sich derzeit in der Entstehung. Zur Verwirklichung dieser Utopie ist allerdings die koordinierte Zusammenarbeit aller Beteiligten notwendig. Informationsflut und Informationsmangel Bücher und Zeitschriften können längst nicht mehr alle unsere Informationsbedürfnisse befriedigen, vor allem nicht im wissenschaftlichen Bereich, selbst dann nicht, wenn unsere Instituts- oder Universitätsbibliothek alles2 vor Ort zur Verfügung hätte, was heute aus vielen Gründen unmöglich ist. Das zentrale Problem des wissenschaftlichen Informationswesens ist derzeit: "Wie können Informationsflut und gleichzeitiger Informationsmangel beseitigt werden?" Über beide Phänomene ist viel geschrieben worden. Wir geben einige Hinweise. Statistische Untersuchungen zeigen, daß sich die Menge wissenschaftlicher Publikationen alle 10 bis 16 Jahre (abhängig von der Dynamik der einzelnen Disziplinen) verdoppelt. Dieser Trend hält seit über 100 Jahren an und scheint derzeit ungebrochen. Ein konkretes Beispiel aus der Chemie: Die American Chemical Society (ACS), mit über 150.000 Mitgliedern die zur Zeit größte wissenschaftliche Gesellschaft der Welt, hat im Jahre 1900 in einer einzigen Zeitschrift 135 Seiten Forschungsliteratur veröffentlicht, 1935 waren es bereits 4.500 Seiten in drei Journalen, 1995 publizierte die ACS 24 Journale, 4 Magazine sowie die Advanced ACS Abstracts, die zusammen 125.000 Seiten mit Forschungsaufsätzen und 80.000 weitere Seiten mit "supporting material" veröffentlichten. Der Chemical Abstract Service (CAS) hat in den ersten 30 Jahren seines Bestehens eine Million Artikel bearbeitet, allein 1995 waren es 500.000. Die Existenz einer Informationsflut in den Wissenschaften ist unbestreitbar. Auch wenn nicht alle Artikel wissenschaftlich erstrangig sind und einige Ergebnisse vielleicht mehrfach publiziert werden - das war auch früher so - geht hiermit auch ein explosionsartiges Anwachsen von wissenschaftlich relevantem Wissen einher. Der gleichzeitige Informationsmangel stellt sich dadurch ein, daß der einzelne auf immer weniger Information direkten Zugriff hat. Dies wird verursacht durch steigende Kosten von Büchern und Zeitschriften bei gleichzeitig stagnierenden Etats der Bibliotheken. Informationsmangel hat aber auch damit zu tun, daß Papiermedien eine geringe Verfügbarkeit haben und "schwerfällig" sind. Die schwierige finanzielle Situation der wissenschaftlichen Bibliotheken in Deutschland ist ausführlich in einem Artikel des DFG-Bibliotheksausschusses (Zeitschrift für Bibliothekswesen und Bibliographie 42 (1995), S. 427-430) beschrieben. Drei Schlaglichter aus unserem eigenen Umfeld sollen die Lage beleuchten. Der Bibliotheksetat der Technischen Universität Berlin ist von DM 8 Mio. im Jahre 1988 auf DM 6 Mio. im Jahre 1995 gesunken. Der Etat der Fachbereichsbibliothek Mathematik der TU Berlin betrug 1978 DM 152.000, im Jahre 1995 belief er sich auf DM 154.000. Der Durchschnittspreis eines Abonnement-Jahrgangs wissenschaftlicher Zeitschriften an der Fachbereichsbibliothek Mathematik der Universität Bielefeld lag 1980 bei DM 224,-, im Jahre 1995 bei DM 940,-. Dies entspricht einer Steigerung von 319 % in 14 Jahren. Die Wissenschaft muß ohne Frage um eine adäquate finanzielle Ausstattung ihrer Bibliotheken kämpfen. Aber sie muß sich auch genau überlegen, wofür sie die verfügbaren Mittel verwenden will. Selbst wenn die Budgetsteigerungen mit der Inflationsrate Schritt hielten, mehr können wir kaum erwarten, so ist doch auch klar, daß eine "Vollversorgung" mit den herkömmlichen Mitteln ausgeschlossen ist. Würde die gesamte neue wissenschaftliche Literatur gedruckt und könnten wir den Ankauf bezahlen, so wüßten wir nicht "wohin mit dem Papier". Eine Verdoppelung der gedruckten Literatur in einem bestimmten Zeitraum impliziert auch eine Verdoppelung der Lagerkapazitäten der Bibliotheken, die alles verfügbar haben wollen. Wer soll diese bereitstellen? Wir würden uns außerdem in den Papierbergen kaum noch zurechtfinden. In diesem Sinne gilt: Papier hat seine "Systemgrenzen" erreicht. Es ist klar, daß wir nach neuen Wegen der Informationsversorgung suchen müssen - und zwar rasch. Veränderungen der Kommunikationsstrukturen Das wissenschaftliche Publizieren hat eine historische Wasserscheide erreicht. Überall verfügbare digitale Netze, preiswerte Server mit Speichern im Giga- und Terabytebereich, Laserdrucker und hochleistungsfähige Lichtsatz- und Grafiksoftware transformieren unsere Welt von einer, in der nur einige wenige Verlage wissenschaftliche Arbeiten drucken und vertreiben konnten, in eine, in der praktisch jeder selbst drucken oder auch die Verteilung von Artikeln, Büchern, Software etc. zu geringen Kosten und über große Entfernungen hinweg offerieren kann - "blitzschnell" und effizient. Verleger und Bibliotheken sehen sich dadurch vor große Herausforderungen gestellt, ebenso die Wissenschaften mit ihrer Standardpraxis des Begutachtens und des Referierens. Viele Fragen bleiben noch unbeantwortet. Viele Probleme sind ungelöst. Der Strukturwandel bringt aber auch völlig neue Formen der wissenschaftlichen Kommunikation mit sich. Er eröffnet uns bisher unbekannte Chancen der effektiveren Zusammenarbeit über große Entfernungen hinweg. Aber dieser Strukturwandel löst auch Ängste aus. Viele Menschen, vor allem im Bereich der Bibliotheken, in Verlagen und Zentren der Fachinformation, empfinden die Zukunft eher als Bedrohung. Das gesamte System der wissenschaftlichen Veröffentlichung in Journalen droht zusammenzubrechen. Dies gilt nicht nur in finanzieller, sondern auch in organisatorischer Hinsicht. In der Mathematik ist es nicht selten, daß ein Artikel erst zwei bis drei Jahre nach seiner Fertigstellung in einem Journal erscheint. Häufig dauert es ein weiteres Jahr, bis dieser Artikel in Bibliotheken sauber archiviert aufgestellt und damit zugreifbar ist. Dieser Prozeß ist eindeutig zu lang. Die Mathematik behilft sich daher mit Preprints, die heute über das Internet auch auf elektronischem Wege verteilt werden. Welche Bibliothek aber archiviert Preprints? Ein enorm wichtiger, aber von Verlagen und Bibliotheken fast vollständig ignorierter Bereich ist die Dokumentation und Archivierung wissenschaftlicher Software und Daten. Wer sichert die Ergebnisse aus mathematischen Experimenten (z.B. in Algebra oder Zahlentheorie), die sich in umfangreichen und oft in langwieriger "Handarbeit" errechneten Datensammlungen niederschlagen? Wie kann man sich gegen den Verlust von digitalisierter Information schützen, die zusammen mit ihren Datenträgern "veraltet"? In aufwendigen und teuren Verfahren erhobene Daten, z.B. aus Erdbeobachtungen und Raumfahrtmissionen oder aus statistischen Erhebungen, drohen verloren zu gehen, weil der technologische Wandel "zu schnell" vonstatten geht und die Dokumentation hinterherhinkt. Das Internet und das Web bringen obendrein im Bibliotheksbereich bisher unbekannte und hochgradig dynamische Formen der Darstellung wissenschaftlicher Ergebnisse hervor: über die ganze Welt verstreute Multimedia-Information. Wissenschaftler als Verleger? Die engen finanziellen Rahmenbedingungen und die neuen technischen Möglichkeiten führen zu erheblichen Reibungen zwischen den am Publikationsprozeß beteiligten Gruppen. Das Rollenspiel wird neu definiert. Darüber sind sich alle im klaren: die Wissenschaftler, die Verleger, die Buchhändler und die Bibliothekare. Verleger werfen insbesondere den Wissenschaftlern vor, daß sie - staatlich subventioniert - ihre Rolle übernehmen wollen und damit einen ganzen Wirtschaftszweig gefährden. Gleichzeitig haben Buchhändler Angst, durch elektronische Direktlieferung von Verlagen an Bibliotheken ausgeschaltet zu werden. Bibliotheken fürchten, daß Verlage eigene elektronische Bibliotheken anbieten und damit die klassischen Bibliotheken überflüssig machen werden. Wir wollen kurz das Verhältnis zwischen Verlagen und Wissenschaftlern diskutieren. In der "guten alten Zeit" hat ein Wissenschaftler bei einem Verlag ein handschriftliches Manuskript abgeliefert. Der hat dieses in einem langen, mehrstufigen Produktionsprozeß in ein ansehnliches Produkt verwandelt und dieses vertrieben. Heute sind die Wissenschaftler in der Mathematik, Physik, Informatik und vielen anderen Bereichen gezwungen, ganz andere Vorleistungen zu erbringen. Wissenschaftliche Verlage haben, Zug um Zug, viele Teile des Produktionsprozesses auf die Wissenschaftler verlagert. Wissenschaftler liefern heute die Texte in Lichtsatzqualität ab (in Formaten wie TEX, LATEX, Postskript). Auch die gesamte wissenschaftliche Qualitätskontrolle (durch ein von wissenschaftlichen Herausgebern gesteuertes Gutachtersystem) wird durch Wissenschaftler übernommen. Verlage erhalten somit kostenlos, abgesehen von marginalen Honoraren für Hauptherausgeber von Zeitschriften, druckfertiges und qualitätsgeprüftes "Material" aus dem Wissenschaftsbereich. Gerade jetzt, wo aufgrund von Finanzengpässen die Abbestellung von Zeitschriften die Regel ist und nicht der Neuerwerb, beginnen Wissenschaftler sich zu fragen, warum die Zeitschriften so teuer sind und warum die Lastenverschiebung zu ihren Ungunsten keine Kostenreduktionen mit sich gebracht hat. Hinzu kommt, daß viele Verlage den Weg in die elektronische Welt scheuen. Sie behaupten, daß elektronische Zeitschriften teurer seien als gedruckte. Von Kostensteigerungen von 20 % bis 30 % ist zu hören. Diese "Berechnungen" sind aus der Sicht der Wissenschaftler nicht nachvollziehbar. Gegenrechnungen liegen vor. Dies führt dazu, daß einzelne Wissenschaftler oder wissenschaftliche Gesellschaften elektronische Journale gründen und diese kostenlos im Internet anbieten, wobei die dabei entstehenden, nach Rechnung der Wissenschaftler relativ geringen Zusatzkosten vielfach durch wissenschaftliche Einrichtungen getragen werden. Gerade letzteres wird heftig kritisiert. Übersehen wird dabei, daß wissenschaftliche Einrichtungen (wie etwa das CERN oder das Konrad-Zuse-Zentrum) in vielen Bereichen ihrer Aktivität sogenannte verlegerische Tätigkeiten übernehmen mußten, weil sich kein kommerzieller Partner dafür finden ließ. Wir erwähnen hier das Angebot von wissenschaftlicher Software, Test- und Meßdaten etc. In diesem Bereich besteht eine steigende Nachfrage, meßbar z.B. durch die Anzahl der täglichen Zugriffe auf die Web-Server. Dem steht derzeit kein kommerzielles Angebot gegenüber. Wer aber einmal gelernt hat, Software und große Datenmengen strukturiert anzubieten und die elektronische Infrastruktur hierfür aufgebaut hat, hat keinerlei Probleme mehr, dies auch mit Preprints oder elektronischen Zeitschriften und Büchern zu tun. Neben dem durch die Verlage "geförderten" Erwerb der Kompetenz in satz- und drucktechnischer Aufarbeitung wissenschaftlicher Manuskripte hat der Wissenschaftler nun auch gelernt, die Distribution in die eigenen Hände zu nehmen. Ob wir Bytes verteilen, die mathematische Software repräsentieren, oder mathematische Artikel, ist technisch gesehen kaum ein Unterschied. Heute geschieht dies weltweit effizient, einfach und kostengünstig durch das World Wide Web. Ist diese Entwicklung sinnvoll? Sollen Wissenschaftler ihr fachliches Informationswesen in Eigenregie betreiben? Wir wissen es nicht! Mathematiker wollen Mathematik machen. Sie wollen dabei von fachlich kompetenten Dienstleistern (Verlegern, Bibliothekaren etc.), die auf dem neuesten Stand des technischen Fortschritts stehen, angemessen und zu fairen Preisen unterstützt werden. Nur dann, wenn hier keine Hilfe erfolgt, bleibt den Wissenschaftlern nichts anderes übrig, als das Heft selbst in die Hand zu nehmen. In naher Zukunft werden sich die neuen Strukturen in der Welt des elektronischen Publizierens herausbilden. Alle Beteiligten müssen die Herausforderungen der digitalen Welt annehmen und mit den neuen Möglichkeiten experimentieren. Für den kommerziellen Bereich gibt es viele Chancen, sich neue Märkte zu erschließen und zu rationalisieren. Das kann aber nicht dadurch geschehen, daß man abwartet und auf einen sanften Übergang hofft. Netze sind eine globale Entwicklung. Geschwindigkeitserhöhungen im Entwicklungsprozeß kommen von vielen Seiten und bedrohen diejenigen, die nicht Schritt halten. Verteilte elektronische Informationsstrukturen Zur Bewältigung der Informationsflut und zur Beseitigung des Informationsmangels sehen wir nur einen Weg. Das wissenschaftliche Publikationswesen muß auf elektronische Basis gestellt werden. Der Weg dahin ist gar nicht so weit. Bereits heute liegt fast die gesamte neue Literatur elektronisch (digital) vor. Dadurch können die enormen Vorteile digitaler Speicherung (insbesondere Absuchbarkeit) und elektronischen Transports ausgenutzt werden. Zugegeben, nicht alle Probleme sind geklärt. Es gibt z.B. noch Medienbrüche und Formatprobleme, auch Fragen zur langfristigen Archivierung sind noch offen. Aber wir stehen ja erst am Anfang einer langen Entwicklung. Es geht jetzt darum, Kompetenz für die Zukunft zu erwerben. Hierzu sind Experimente zum Aufbau neuer Informations- und Kommunikationsstrukturen notwendig, die verteilt und nicht zentral organisiert sind. Darüber sind sich z.B. die großen wissenschaftlichen Fachgesellschaften einig. Aus diesem Grunde haben die Deutsche Mathematiker-Vereinigung (DMV), die Deutsche Physikalische Gesellschaft (DPG), die Gesellschaft Deutscher Chemiker (GDCh) und die Gesellschaft für Informatik (GI) Anfang 1995 eine Kooperationsvereinbarung getroffen, um gemeinsam einen vernünftigen Übergang zu finden. Allen Beteiligten ist klar, daß dazu eine intensive Zusammenarbeit nicht nur mit Verlagen, Fachinformationszentren und Bibliotheken notwendig ist, sondern daß auch Rechenzentren und Softwarehäuser einbezogen werden müssen. In der DMV wird derzeit intensiv ein Vorhaben diskutiert und in Teilen bereits realisiert, das zum Ziel hat, ein verteiltes elektronisches Informations- und Kommunikationssystem aufzubauen, das am Arbeitsplatz des Mathematikers einen effizienten Zugang zu * Literaturnachweis- * Volltext- * Fakten- Information * Software- } ermöglicht und dabei * nutzergesteuert * nutzerfreundlich und * kostengünstig ist. Dabei wird besonderer Wert auf hohe Qualität der Information gelegt. Der DMV ist klar, daß dies ein langfristiger Plan ist und daß sie die bestehenden Hürden nicht alleine überwinden kann. Wer sich neben DPG, GDCh und GI, die in ähnlichen Kategorien denken, noch und wie an diesem innovativen Vorhaben beteiligen wird, ist noch offen. Die DMV sucht nach weiteren Partnern und Förderern, mit denen diese Pläne verwirklicht werden können. Was ist die digitale Bibliothek? Das traditionelle Spektrum der wissenschaflichen Information und Kommunikation besteht aus * Büchern (Monographien, Lehrbücher, Referateorgane, Tagungsbände, Nachschlagewerke etc.) * Zeitschriften, * Preprints, wobei letztere erst seit etwa 25 Jahren existieren. Sie sind ebenfalls ein Kind einer neuen Technologie, des Fotokopierens. In der elektronischen Welt ist dieses Spektrum deutlich größer. Zu elektronischen Büchern, Zeitschriften und Preprints kommen * Forschungssoftware, * Datensammlungen in elektronischer Form, * Visualisierungen, * Animationen, * Multimedia- und Hypermedia-Produkte, * elektronische Newsletter und Diskussionsforen, * globale Hypertexte und verteilte Informationssysteme. Diese Medien scheinen auf den ersten Blick völlig unterschiedlich zu sein. Sie sind jedoch letztlich nichts anderes als digital codierte Information. These: Die digitale Bibliothek ist eine digital strukturierte Sammlung digitaler Information, die über digitale Netze bereitgestellt und abgerufen wird, heute in - weltweit - verteilten offenen Informationssystemen, wobei die Kommunikationsschnittstellen des Internet bzw. des World Wide Web (globale digitale Bibliothek) benutzt werden. Wir erläutern die in dieser These, die gleichzeitig unsere Definition der zukünftigen digitalen Bibliothek darstellt, auftretenden Begriffe. Digitale Information * beruht in der elektronischen Welt auf Bits und Bytes, ist "geschrieben" in einem flexiblen "Alphabet", in einer universellen "Sprache", gleichermaßen geeignet für die Darstellung und Verarbeitung (durch Computer) von Texten und Grafiken, Visualisierungen und Animationen, Sprache und Musik, Videos und Filmen. * ist von Natur aus verteilt, schon wegen ihrer Vielfalt und ihres Umfangs. Sie entsteht an vielen Orten und in vielen Institutionen. Andere verarbeiten und speichern sie in weiter aufbereiteten Formen und transferieren sie an wiederum andere Orte, Institutionen oder Personen. * ist fast beliebig zu neuartigen Dokumenten und Publikationsformen mischbar, mittels Hyperlinks vernetzt und integriert in Hypermediasystemen, z.B. Texte mit Grafiken und Fotos, Ton und Musik, Sprache und Videoinformation, oder wissenschaftliche Dokumente mit ablauffähigen Algorithmen und dynamischen Simulationen oder Verdichtungen großer und komplexer Datenmengen zu leicht erfaßbaren Bildern (z.B. aus der Wetterbeobachtung oder der Geoinformation). * ist auf den verschiedensten Kommunikationskanälen übertragbar, in digitalen Netzen oder auch per Funk (Rund- und Satellitenfunk), selbst in analogen Netzen (Telefon und Modem), synchron (zur sofortigen Verwendung) oder auch asynchron ("losgelöst" von der Zeit). * kann - unter Beibehaltung der Identität - auf den unterschiedlichsten Trägern existieren, z.B. auf Plattenspeicher, CD-ROM oder in Silizium gebrannt, als permanenter Ausdruck oder auch "nur" flüchtig auf dem Bildschirm und simultan als Ton (auch vorgelesener Text) oder auch abgespielt (Video). * existiert im Internet in den unterschiedlichsten Speicherformen und -formaten, "griffbereit" für jeden, dessen PC oder Workstation nur am Internet angeschlossen ist. Früher waren dazu noch Spezialkenntnisse notwendig. Das Web hat jedoch den Zugriff auf die unterschiedlichsten Ressourcen digitaler Information so einfach gemacht wie die Bedienung eines Computers mit der Maus. Digitale Strukturinformation * ist das Mittel zur inhaltlichen Ordnung (in Datenbanken und Hypertexten), Erschließung (Retrieval oder Browsen), Übertragung (Kommunikationsverfahren) und Interpretation (Präsentation, Ausdruck, Abspiel) digitaler Information. * ist entweder implizit vorgegeben (Schnittstelle, Datenformat, Standard) oder wird explizit ausgehandelt (Kommunikationsprotokoll); immer ist sie - explizit oder implizit - integraler "Bestandteil" digitaler Information. * hat durch das World Wide Web eine völlig neue Dimension gewonnen. Informationsressourcen lassen sich jetzt weltweit in eindeutiger Weise benennen und miteinander assoziieren. Ohne es besonders zu bemerken, "bewegt" sich der Internet-Anwender heute von Rechner zu Rechner, von Dokument zu Dokument - über alle nationalen Grenzen hinweg. * läßt sich (damit) auch unabhängig von der eigentlichen Information übertragen, als Zeichenkette und asynchron (per E-mail). Man kann nun gleichsam ein ganzes Netz von Informationen "verschicken", indem man einen Zeiger (die URL) auf das Netz übermittelt. Offene Systeme * sind Hardware- und Softwaresysteme, die sich an weltweit gültige Standards zum Austausch von Information halten, über Computer- und Netzgrenzen hinweg. * erlauben damit sowohl die Verarbeitung und Speicherung digitaler Information nach örtlichen oder systembedingten Gegebenheiten (die konkrete Form der Information kann, aus Effizienzgründen, systemabhängig sein) als auch den jederzeitigen "Übergang" zu anderen offenen Systemen (Systemunabhängigkeit der Information bzw. Interoperabilität der Systeme). * sind deshalb - und (nur) bei weltweiter Akzeptanz des jeweiligen Standards - auch für die langfristige Archivierung digitaler Information geeignet, sofern der Austausch von Information nicht durch andere Randbedingungen eingeschränkt ist, z.B. durch rechtliche. Die immer stärker expandierende digitale Welt löst nicht nur überkommene Publikationsformen ab. Sie ermöglicht ihrerseits die Mischung und erneute Integration von Komponenten der unterschiedlichsten Medien (visuellen und auditiven) zu eigenständigen und neuartigen Formen der Publikation (Hypertext- bzw. Hypermediapublikationen). Das Internet, das World Wide Web und - in naher Zukunft - die globalen Datenautobahnen treiben diesen Prozeß der fortschreitenden Öffnung - über alle nationalen Grenzen hinaus wirkend - mit großer Kraft voran. Sie lassen die globale digitale Bibliothek Wirklichkeit werden. Und, diese Bibliothek enthält bereits heute weltweite Nachrichtensysteme und leistungsfähige Strukturen zur Lokalisierung und Identifizierung der über die ganze Welt verstreuten Information. Information existiert - unter Beibehaltung ihrer "Identität" - an den verschiedensten Orten, in den unterschiedlichsten technischen Ausprägungen und Kommunikationskanälen immer auf der Grundlage desselben universellen Codes, dem Bit. Dadurch wird nicht nur die universelle Verarbeitung (durch Computer) möglich, sondern auch die universelle Übertragung (in digitalen Netzen). Bedürfnisse und Interessen der Wissenschaften These: Der freie und ungehinderte Austausch wissenschaftlicher Information - effizient und zu fairen Kosten - ist die Voraussetzung aller Wissenschaften. * Wissenschaftliche Forschung ist darauf angewiesen, daß ihre Ergebnisse weltweit zugänglich sind. Globale digitale Netze, wie das Internet, bieten hier neue, bisher noch nicht voll ausgelotete Möglichkeiten und Chancen, denn sie sind effizient, kosteneffektiv und weitreichend - und sie sind heute obendrein sehr einfach zu benutzen. * Der Übergang in die elektronische Welt ist nicht nur möglich, sondern auch - aus Kostengründen - erforderlich. Die Verteilung von Information in digitaler Form und über globale Netze ist heute um Faktoren 300 bis 1.000 (je nach Art der Daten) kostengünstiger als der Transport von Information in Form von Papier (Bücher, Journale). Ohne die Geschwindigkeit der elektronischen Post und ohne Anschluß an das Internet mit seinen hochspezialisierten Software- und Datenarchiven ist Spitzenforschung, zumindest in aktuellen Gebieten der Mathematik, Informatik und der Naturwissenschaften, kaum noch denkbar. Es ist unbestritten, daß Verlage - selbst in so ideell orientierten Bereichen wie der Mathematik - durch kommerziell-professionelles und marktorientiertes Verhalten einen wichtigen Beitrag zur Verbreitung wissenschaftlicher Information geleistet haben. Die traditionellen Informationsversorger verhalten sich aber i.a. gegenüber digitalen Netzen und Medien bisher außerordentlich zurückhaltend. Sie befürchten - nicht ganz unbegründet -, die finanzielle Basis für ihre Aktivitäten zu verlieren. Denn wie in den Netzen womit Geld verdient werden kann, ist derzeit noch ungeklärt. Wir haben in einer Arbeit über "Bibliotheken im Zeitalter globaler elektronischer Netze" aber auch dargelegt, daß die Wahrung der wesentlichen Informationsinteressen der Mathematik nicht mehr zu gewährleisten ist, wenn sie allein Verlegern überlassen wird, die im Rahmen des traditionellen Publizierens verharren möchten. Sie verpassen dadurch nicht nur ihre eigenen Chancen, im immer härter werdenden globalen Wettbewerb zu bestehen, sondern sie geben auch die potentiellen Kostenvorteile nicht an die Wissenschaften zurück - und sie können die von ihnen eigentlich geforderten Dienste bereits heute nicht mehr leisten. Wenn eine der führenden mathematischen Fachzeitschriften, die Mathematischen Annalen, heute von nicht mehr als 500 Institutionen abonniert wird, weil sie so teuer geworden ist, so ist dies ein deutliches Anzeichen dafür, daß die weltweite Versorgung mit mathematischer Literatur ernsthaft gefährdet ist. Es ist ein Fehler zu glauben, daß die essentiellen Bedürfnisse einer demokratischen Gesellschaft bereits dadurch geregelt wären, daß man sie vollständig dem Spiel der kommerziellen Interessen überläßt. Der Staat ist mitverantwortlich. Er muß nicht nur geeignete Rahmenbedingungen schaffen, den nationalen und internationalen Verkehr auf der Datenautobahn regeln und sicher auch den Schutz des Bürgers vor Mißbrauch der Netze und vor Computer-Kriminalität organisieren, sondern er muß vor allem den freien und ungehinderten Zugang zu der für uns alle wesentlichen Information sicherstellen. These: Die exponentielle Progression in der Leistungsfähigkeit der Computer, der digitalen Speichermedien und Netze bzw. die exponentielle Degression ihrer Kosten läßt die "Informationsexplosion" beherrschbar erscheinen. Dabei sind offene Systeme für den Informationsaustausch besonders geeignet. Die Leistungsfähigkeit von Computern verdoppelt sich alle 18 Monate, bei konstanten Kosten für das Gerät. In 10 Jahren werden die Computer also rund 100mal leistungsfähiger sein als heute - und dabei vermutlich noch kleiner. Dieselbe Aussage gilt für digitale Speichermedien. Ein Gigabyte Plattenspeicher kostet heute um die 600 DM. In 10 Jahren werden also 150 Gigabyte Plattenspeicher für etwa 1.000 DM zu haben sein, obendrein in einem wesentlich kleineren Gerät. Dieser Platz reicht aber bereits aus, um die gesamte Weltproduktion an mathematischen Publikationen der nächsten 10 Jahre zu speichern, in Lichtsatzqualität, zusammen mit allen Grafiken. Für die Leistungssteigerung von Netzen nehmen Fachleute noch höhere Faktoren an. Die Netze der Zukunft werden in 10 Jahren bis zu 1.000mal leistungsfähiger als die heutigen sein, ebenfalls zu denselben Kosten. Solche Netze würden dann mit einer (derzeit kaum vorstellbaren) Bandbreite von 154.000 Megabit pro Sekunde arbeiten. Das entspricht - bei vollem Abzug des Overheads und bei nur halber Auslastung - einer "echten" Transportleistung von 8 Gigabyte pro Sekunde. Der Transfer der gesamten mathematischen Weltproduktion eines Jahres (heute etwa 10 Gigabyte und in 10 Jahren um die 20 Gigabyte) wird solche Netze also für weniger als 3 Sekunden (ihrer Systemzeit) in Anspruch nehmen. Wir erleben gegenwärtig den Siegeszug der offenen Systeme, sowohl in technologischer als auch in gesellschaftlicher Hinsicht. Der Rückfall der Apple Macintosh Systeme gegenüber PC-orientierten ist nur ein erstes technologisches Beispiel. Hier haben ein geschlossenes Design, obwohl es sehr "schön" und zukunftsträchtig war, und eine isolierte Firmenpolitik dem kommerziellen Erfolg entgegengearbeitet. Der PC hingegen war technologisch rückständig,3 aber er war von Beginn an offen konzipiert - er "gehört" niemandem allein, nicht einmal IBM. Das Internet ist selbst ein Musterbeispiel für den Erfolg offener Systeme. Sie zeichnen sich vielleicht weniger durch ihre technologische Brillianz aus,4 als vielmehr durch ihre Universalität und die daraus resultierende Akzeptanz - mit erheblichen Folgen auch für den kommerziellen Erfolg. Wir verstehen "Offenheit" weniger in einem technologischen Sinne, als vielmehr in einem gesellschaftlichen. Die Mathematik und die Naturwissenschaften sind in diesem Sinne die allerersten Beispiele offener "Systeme". Ihre Universalität und weltweite Gültigkeit beruhen nicht nur auf den Leistungen einzelner "Geistesriesen", sondern vor allem auf ihrer (langfristigen) der Wahrheit verpflichteten Tradition, einem weltweiten und freizügigen Austausch von Information, der ihre Ergebnisse einer ständigen Kritik und Überprüfung aussetzt. In der Physik, der Chemie und in vielen Bereichen der Ingenieurwissenschaften geht es um die weltweite Nachvollziehbarkeit der Experimente und Verfahrensweisen. Unbestritten ist, daß die mathematische Grundlagenforschung zu den Voraussetzungen für die Fortschritte in Technologie und Wirtschaft zu zählen ist. Der freizügige Zugang und der Austausch von Information wird mehr und mehr als ein Grundrecht erkannt, dessen Grad der Realisierung nicht nur den Fortschritt der Demokratie kennzeichnet, sondern auch ihren Erfolg in einem kommerziellen Sinne. Neue Produkte für die digitale Bibliothek Als man vor etwa zwanzig Jahren an die Konstruktion der ersten Supercomputer ging, glaubte man, daß sich weltweit etwa 10 dieser Maschinen würden absetzen lassen (in den USA etwa 6), denn sie galten als sehr teuer5 (um die 20 Millionen DM). Die Ironie dieser Geschichte ist, daß die Workstations von heute, und neuerdings auch PCs, in derselben Leistungsklasse liegen wie die damaligen "Größtrechner". Als die ersten Entwickler der Netze Anfang der 80er Jahre die teuren Maschinen vernetzten (um deren hohe Kosten auf verschiedene Institutionen verteilen zu können) und sie für den Versand von elektronischer Post "mißbrauchten", hätte niemand auch nur geahnt, daß E-mail einmal eines der Hauptmotive für die Verbreitung der Netze sein würde. Noch vor etwas mehr als drei Jahren galten die Entwickler des World Wide Web beim CERN und dem NCSA und eine handvoll Anwender als Exoten. Wir müssen zugeben, daß es uns kaum möglich ist, die Auswirkungen der neuen Technologien und ihrer spinoffs (und Produkte) realistisch einzuschätzen. Bisher ist - in dieser durch extreme Miniaturisierung gekennzeichneten Welt - noch fast jede Vorhersage von der dann eintretenden Wirklichkeit weit überholt worden. These: Die neuen Technologien transformieren das Kommunikationsverhalten in Naturwissenschaft und Mathematik. Institute und auch Einzelpersonen können im Internet autonom publizieren und annoncieren, unabhängig vom Verlagswesen, vom Buchhandel und von Zentren der Fachinformation. Wir schildern zunächst einige fast noch konventionell anmutende Entwicklungen: * Wissenschaftler schreiben, archivieren und verschicken ihre Texte und Dokumente elektronisch, in Lichtsatzqualität. Sie benutzen globale Netze zur Distribution ihrer Ergebnisse, nicht nur in Form von Artikeln. Dabei verwenden sie sowohl "aktive" Nachrichtensysteme (E-mail-Verteiler) zur Information über Neuigkeiten als auch "passive" Informationssysteme und Archive, die absuchbar (durch Browsen) oder abfragbar (durch Retrieval) sind. Diese enthalten neben Artikeln, Software und Datensammlungen auch Informationen allgemeiner Art, wie z.B. über aktuelle Forschungsprojekte. * Einzelpersonen sind heute in der Lage, mit sehr geringem Aufwand (mit dem Einsatz nur eines Bruchteils ihrer Arbeitszeit) ganze wissenschaftliche Fachgruppen mit aktueller Forschungsliteratur zu versorgen - und sie tun es auch. Der Preprint-Server (eine Workstation) von Paul Ginsparg beim Los Alamos National Laboratory versorgt heute die gesamte Gemeinschaft der Hochenergiephysiker mit praktisch der kompletten Forschungsliteratur (E-prints) per E-mail und interaktiv. Dieses Beispiel macht auch in anderen Fächern Schule, auch in der Mathematik. Server vom Ginsparg-Typ versorgen heute mehr als 30.000 Personen mit Nachrichten über neue E-Prints und mit deren Volltexten, täglich und unmittelbar, sobald diese verfügbar sind. * M. L. Mauldin, ein Informatiker der Michigan University, hat - ebenfalls im Alleingang - große Teile des World Wide Web indiziert. Das von ihm entwickelte Lycos-System verwendet einen sogenannten "Robot", der in der Lage ist, täglich etwa 50.000 Web-Seiten zu erfassen, zu abstrahieren, mit Schlüsselworten der Netzumgebung des Dokuments zu versehen und in Lycos zu integrieren. Das gesamte System enthält heute über 16 Millionen WEB-Seiten. Das System "merkt" sehr schnell, ob sich im Web etwas geändert hat und wo. Es verwendet dazu ein spezielles Verfahren, das nur die Update-Information der Seiten, und nicht die vollständigen Seiten, abfragt. Die Internet-Community nutzt das Lycos-System sehr intensiv. Es verarbeitet bis zu 300.000 Anfragen pro Tag. Lycos ist sehr nützlich, wenn man nach spezifischen Begriffen oder Schlüsselworten sucht, wie z.B. nach Namen. Dieses sind nur einige Beispiele für die Art und Weise, in der das "Netz" sich strukturiert. Wir übergehen die hunderte von fachspezifischen und universellen virtuellen Bibliotheken zur Erschließung des Web. Bei der Erstellung der prominentesten, der World Wide Web Virtual Library (vormals beim CERN, jetzt betrieben von der W3-Organization) kooperieren viele hunderte Personen auf freiwilliger Basis miteinander. Es ist eine bisher fast beispiellose, interdisziplinäre Kollaboration. Inzwischen gibt es obendrein sehr viele Suchmaschinen im Internet und viele sind auf "Literatur" spezialisiert. * Auch die bibliographische Arbeit, der Nachweis traditioneller Forschungsliteratur, profitiert von den neuen Möglichkeiten. A. Achilles, ein wissenschaftlicher Assistent der Universität Karlsruhe, hat im Internet in BibTEX-Form vorliegende Bibliographien von etwa 600 Spezialisten der Computer Science zu einer Datenbank mit jetzt etwa 400.000 Einträgen (Gesamtumfang: etwa 165 Megabyte an BibTEX-Daten) integriert, die auch URLs, also Verweise auf Volltexte (über 10.000) und andere Informationssysteme (etwa 1.100), enthält. Weitere 10 Server spiegeln diese Datenbanken, die jeweils etwa 1.000 mal am Tag aufgerufen werden. Achilles benötigt für die "zentrale" Pflege der Daten nur etwa einen Tag in der Woche. Die Spiegelungen erfolgen vollautomatisiert. * Wissenschaftliche Fachgesellschaften, Institute und Fachgruppen betreiben elektronische wissenschaftliche Journale; in der Mathematik sind es derzeit bereits über 30. Der technische Aufwand für den Aufbau und den Betrieb ist so gering, daß er (wieder) von einzelnen Personen und zu einem Bruchteil ihrer Zeit vorgenommen werden kann. Das Electronic Journal of Combinatorics (ElJC), versehen mit einem hochrangigen Editorial Board, hat sein technischer Editor N. Calkin innerhalb von drei Monaten technisch aufgebaut und in Betrieb genommen. Die Integration eines neuen Artikels in den Server der ElJC kostet ihn nach eigener Aussage nur wenige Minuten. Das System informiert dann seine heute an die 1.000 "Abonnenten" (die kostenlos auf Volltexte zugreifen können) per E-mail, unmittelbar sobald das geschehen ist, d.h. innerhalb weniger Minuten, weltweit. Auch der Prozeß der Begutachtung ist durch den Einsatz von E-mail beschleunigt. U. Rehmann hat für die Deutsche Mathematiker-Vereinigung (DMV) in vergleichbarer Zeit das technische Modell der Documenta Mathematica entwickelt, eines universellen mathematischen E-Journals, das die DMV Anfang 1996 in Betrieb nehmen wird. * Fachgruppen verschiedener wissenschaftlicher Teildisziplinen (in der Mathematik und in Deutschland die Fachgruppen Computeralgebra, Optimierung, Scientific Computing und Stochastik der DMV) betreiben eigene elektronische Informationssysteme mit moderierten Diskussionsforen und Web-Servern, mit denen sie - weltweit - aktuelle Nachrichten verteilen und "Datenbanken" für ihr Fachgebiet führen. Sie verwenden Hypertext-Systeme, die sehr einfach zu benutzen sind. Ihre Informationsangebote enthalten neben einfachen Anfragen und Kommentaren auch Artikel und Bibliographien sowie umfangreiche Software- und Datensammlungen aus der aktuellen Forschung. Die Netzbibliothek "netlib" numerischer Forschungscodes z.B. umfaßt heute an die 130 solcher "Bibliotheken" mit zusammen über 20.000 einzelnen Modulen, also mehrfach verwendbare Programmquellen, die nach den verschiedensten Gesichtspunkten kombiniert abgefragt und abgerufen werden können. Auch die großen wissenschaftlichen Fachgesellschaften schließen sich an, die American Mathematical Society (AMS), die European Mathematical Union (EMS) und die International Mathematical Union (IMU). Sie alle bieten nicht nur E-Journale an, sondern auch Preprints, wissenschaftliche Software und Datensammlungen, Bibliographien und eine Fülle organisatorischer Informationen (Projektbeschreibungen, Adressen etc.). Alles bisher Geschilderte beruht auf schon fast traditioneller Netztechnologie (in Hard- und Software), die weltweit im Einsatz ist. Wir kommen jetzt zu Anwendungen, die wir noch als experimentell ansehen müssen. Möglicherweise ist aber diese Einschätzung bereits jetzt zu konservativ, denn der Multicast Backbone (MBone)6, auf den wir uns im wesentlichen beschränken, ist schon seit über einem Jahr im Internet etabliert - er wird weltweit eingesetzt, auch in Verbindung mit relativ langsamen Leitungen. Er gilt als die heute preiswerteste Art der Realisierung von Diensten und Leistungen bezüglich Teleconferencing, Telecollaboration, Telearbeit etc. These: Die neuen Technologien lassen auf breiter Basis absolut neuartige Informations- und Kommunikationsformen entstehen. Heute kann sich praktisch jedes Institut im Internet in einen weltweiten "Sender" (und ein Archiv) von Videoinformation und Experimentaldaten verwandeln. * Bedeutende wissenschaftliche Tagungen senden ihr volles Programm live über den MBone des Internet, weltweit und oft in voller Länge, über mehrere Tage hinweg. Beim Workshop über "Die Zukunft der mathematischen Kommunikation" des MSRI im Dezember 1994 in Berkeley konnten etliche hundert Teilnehmer die Diskussionen verfolgen, ohne anreisen zu müssen (die Tagungsräume des MSRI fassen auch nur etwa 150 Personen). Einige Workshops lassen auch aktive Eingriffe der "entfernten" Teilnehmer zu, die damit "vor Ort" präsent sind und mitdiskutieren. Nicht so offensichtlich ist der eigentliche revolutionäre Inhalt dieser Technologie - wir sind ja an weltweite Fernsehübertragungen gewöhnt. Im Prinzip können heute alle am Internet angeschlossenen Institute "Sendestationen" mit weltweiter Reichweite werden, preiswert, ohne Einsatz von Satellitentechnologie. Wenn sie dann z.B. die Vorträge bedeutender Besucher und Persönlichkeiten auch archivieren und im Netz zugreifbar machen, könnte quasi wie von selbst ein globales und jederzeit und von jedem Ort der Welt abrufbares historisches Wissenschaftsarchiv entstehen, eine "virtuelle Schatzkammer", nicht nur für die Wissenschaften selbst, sondern auch für die Lehre, für Schulen und die berufliche Fortbildung - und für die Gesellschaft insgesamt. * Auch Meßdaten großen Umfangs lassen sich in Echtzeit über das Internet vermitteln. Das Woods Hole Oceanographic Institute hat im Jahre 1993 einen Unterwasserroboter, der mit einer Videokamera und Geräten zur Erfassung von chemischen Daten ausgerüstet war, zur Erkundung des Bodens der Sea of Cortez eingesetzt. Die besondere Qualität dieses Experiments, an dem simultan mehrere Meeresforschungsinstitute aktiv teilnahmen und das alle am MBone angeschlossenen Personen verfolgen konnten, lag in seiner verteilten und interaktiven Natur. Der Roboter schickte nicht nur Videobilder seiner Umgebung, sondern auch seine Meßdaten in Echtzeit über den MBone an auf gewisse Analysen spezialisierte Institute, die diese sofort auswerteten und damit den weiteren Weg des Roboters mehr oder weniger direkt mit beeinflussen konnten. Sie steuerten den Roboter damit sowohl mittels der Videoinformation als auch auf der Grundlage seines besonderen Instrumentariums, das damit zu einem erweiterten "Sensorium" geworden war. Es bedarf wohl keiner besonderen Erwähnung, daß die aktiv beteiligten Institute ihre Software zur Steuerung nicht nur über das Internet ausgetauscht, sondern auch das komplexe Zusammenspiel vorher im Internet simuliert und abgestimmt hatten. Die bei den Instituten vorhandenen Spezialgeräte lassen sich jedoch nicht so einfach "austauschen" - das wäre zu teuer. Der MBone und das Internet sind deshalb die notwendige Voraussetzung für eine solche wissenschaftliche Kollaboration großen Stils. Sie haben für eine kurze Zeit mehrere und regional voneinander weit entfernte Institute zu "einem einzigen" integriert. Gegenüber Verfahren dieser Art muten die Unternehmungen der NASA schon fast konventionell an - so selbstverständlich ist uns inzwischen die Raumfahrt mit ihren routinemäßigen Himmels- und Erdbeobachtungen geworden. * Die NASA überträgt nicht nur - im MBone schon fast regelmäßig - Bilder und Videos live aus ihren Raumstationen und Weltraumflügen (hier steuert nur sie selbst), z.B. von der Reparatur des Hubble-Teleskops, sondern sie stellt auch schon seit einiger Zeit ihr sehr umfangreiches Bildmaterial in digitalen Bibliotheken bereit, auf die jeder kostenlos zugreifen kann, wenn er nur Anschluß an das Internet hat. Sie erstellt obendrein für Lehrer und Schulen ausführliches Unterrichtsmaterial, das man auf dieselbe Weise abgreifen kann. Nicht nur die NASA bietet heute wunderschöne und qualitativ hochwertige Aufnahmen aus der Raumfahrt und Astronomie im Internet an. Die Kollision des Kometen Shoemaker-Levy9 mit dem Jupiter konnten über 60.000 Menschen "online" verfolgen, und viele hundert live im MBone. Für Schulen und die Erwachsenenbildung sind solche Möglichkeiten von unschätzbarem Wert. Wissenschaftliche Autoren und auch Amateure haben auf der Grundlage dieses freizügig verteilten Bildmaterials inzwischen eine ganze Reihe von Hyperbüchern erstellt, die sie zum Teil auf CD-ROM anbieten (hier entwickelt sich also ein Markt), zum Teil aber auch - kostenlos - im Internet, das sich mehr und mehr zu der globalen digitalen Bibliothek entwickelt. Hier können die Bibliotheken eine neue Rolle übernehmen, denn für viele ist der Zugriff auf derartige Multimediaprodukte von zu Hause aus noch nicht möglich. Auch und gerade für Verlage ergeben sich völlig neue Chancen, weil auch sie und ihre Autoren Materialien dieser Art verwenden, aufbereiten und "mit Mehrwert versehen" verkaufen können. Die Stärke digitaler Medien liegt in Funktionen, die traditionelle Publikationsarten prinzipiell nicht bieten können. Bereits ihre heutigen Formen zeigen revolutionäre Eigenschaften, sowohl bezüglich Effizienz und Reichweite als auch durch ihre Vielseitigkeit, die sich aus der beliebigen Kombinierbarkeit von Eigenschaften bisher getrennter Medienformen ergibt. Obendrein arbeiten sie zu revolutionären Leistungs-Kosten-Relationen, ein Faktor, der mit den dramatischen technologischen Fortschritten immer stärker ins Gewicht fallen wird. Das Internet hat bereits heute fast alle Charakteristiken einer globalen Infrastruktur. Es ist ubiquitär, universell und preiswert, in der westlichen Welt auch im kommerziellen Bereich. Wer den Einbruch "seines" Marktes bei traditionellen Medien fürchtet, wird bei den digitalen Medien seine Chancen suchen müssen. Die Verantwortung der Wissenschaften Der Prozeß des Übergangs in die digitale Welt - ein tiefgreifender Wandel - hat nicht nur begonnen, sondern er ist (auch in Deutschland) bereits weit fortgeschritten. Wichtige, auch kommerzielle und am traditionellen Austausch wissenschaftlicher Information beteiligte Partner haben ihn - in einem technischen Sinne - jeweils für sich vollzogen. Notwendig ist nun aber die Anpassung auf breiter gesellschaftlicher Basis, national und inernational. Die Ausbildung entsprechender organisatorischer und rechtlicher Strukturen darf nicht hinter der rasanten Entwicklung neuer und immer leistungsfähigerer Technologien zurückbleiben. Hier sind die Wissenschaften vor eine besondere Verantwortung gestellt. Insbesondere muß das Zusammenspiel zwischen den Wissenschaften mit ihren Bibliotheken, den Verlagen und dem Buchhandel und den Zentren der Fachinformation neu gestaltet und den veränderten Verhältnissen besser gerecht werden. These: Wissenschaftliche Fachgesellschaften und Institutionen müssen nicht nur die durch neue Technologien gegebenen Chancen wahrnehmen und nutzen, sondern diese Entwicklungen auch selbst mitbestimmen und vorantreiben. Es gilt, Kompetenz zu entwickeln und zu wahren. Eine Sammlung digitaler Information allein ist noch keine digitale Bibliothek. Diese einfache Wahrheit gilt schon bei einfachen örtlichen (oft nur schwach strukturierten) digitalen Sammlungen, um so mehr bei auf mehrere Standorte verteilte Information. Aber es geht nicht nur um * neue Informationsstrukturen für verteilte Informationssammlungen, also um Strukturinformation für den einfachen, effizienten und kostengünstigen Zugriff (Erschließung von verteilten, heterogenen Datenbeständen). Für die digitale Information müssen auch (technische) Mechanismen und (organisatorische) Verfahrensweisen gefunden und erprobt werden, um sicherzustellen: * die Qualität und Zuverlässigkeit - durch Übertragung traditioneller Begutachtungs- und Review-Verfahren in die elektronische Welt; für nichtreferiertes Material (Preprints, Software etc.) tragen die wissenschaftlichen Institutionen eine besondere Verantwortung. * die Identität und Authentizität - durch Einsatz elektronischer Identifizierungs- und Authentifizierungsmittel (z.B. digitale Unterschriften oder auch durch weltweite Registrierung bzw. Annoncierung; bei Software: in Koordination mit Updates). * die Urheberrechte der Autoren und der an den Forschungsaufgaben beteiligten Institutionen - sowohl bei der elektronischen Weitergabe als auch bei der traditionellen (auf Papier) sowie der Mischformen. * die universelle Nutzbarkeit - durch Nutzung universeller Netze, aber z.B. auch durch Einführung hinreichender Redundanz in der Archivierung (Spiegeln von verteilten Archiven) und durch Mechanismen zur Lokalisierung (Identifizierung) der gesuchten Information. * die langfristige Archivierbarkeit in einem technischen Sinne - durch Unterstützung und Fortentwicklung offener Informations- und Kommunikationsstandards (Kompatibilität der Daten und Formate, Interoperabilität der Systeme). * die langfristige Archivierung (Bestandserhaltung) in einem inhaltlichen Sinne - durch aktive Einflußnahme auf Entscheidungen, was langfristig zu bewahren und wie es bereitzustellen ist.