Entdecken Sie Millionen von E-Books, Hörbüchern und vieles mehr mit einer kostenlosen Testversion

Nur $11.99/Monat nach der Testphase. Jederzeit kündbar.

Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW
Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW
Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW
eBook606 Seiten6 Stunden

Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW

Bewertung: 0 von 5 Sternen

()

Vorschau lesen

Über dieses E-Book

eLearning und Open Access sind wichtige Themen der zukünftigen Informationsversorgung wissenschaftlicher Einrichtungen.
Sie können jedoch nur im Kontext eines Gesamtkonzepts der Informationsversorgung sinnvoll diskutiert werden. Beide Themen werden in dieser Studie daher vor allem in Wechselwirkung mit anderen Elementen einer integrierten Informationsversorgung der Hochschulen des Landes NRW diskutiert.
Im ersten Teil der Studie wird ein Modell für die zukünftige Informationsversorgung in NRW entwickelt. Der letzte Teil gibt einen Gesamtüberblick über den Status Quo der wissenschafltichen Informationsversorgung in sowohl Nordrhein-Westfalen als auch im internationalem Kontext. Dabei wurde sowohl auf aktuelle Literatur zu den Themenkomplexen zurückgegriffen als auch eine Reihe von Interviews mit Gesprächspartnern aus den relevanten Feldern der landesweiten und internationalen Informationsversorgung durchgeführt.
SpracheDeutsch
Herausgeberepubli
Erscheinungsdatum10. Juni 2015
ISBN9783737552363
Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW

Ähnlich wie Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW

Ähnliche E-Books

Wissenschaft & Mathematik für Sie

Mehr anzeigen

Ähnliche Artikel

Rezensionen für Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW

Bewertung: 0 von 5 Sternen
0 Bewertungen

0 Bewertungen0 Rezensionen

Wie hat es Ihnen gefallen?

Zum Bewerten, tippen

Die Rezension muss mindestens 10 Wörter umfassen

    Buchvorschau

    Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW - Manfred Thaller

    Grafik3

    Simone Görl, Johanna Puhl, Manfred Thaller

    Empfehlungen für die weitere

    Entwicklung der Wissenschaftlichen

    Informationsversorgung des Landes NRW

    Köln 2011

    Vorwort

    eLearning und Open Access sind wichtige Themen der zukünftigen Informationsversorgung wissenschaftlicher Einrichtungen. Sie können jedoch nur im Kontext eines Gesamtkonzepts der Informationsversorgung sinnvoll diskutiert werden. Beide Themen werden in dieser Studie daher vor allem in Wechselwirkung mit anderen Elementen einer integrierten Informationsversorgung der Hochschulen des Landes NRW diskutiert.

    Zum Aufbau: Teil I versucht, ein in sich konsistentes Modell für die zukünftige Informationsversorgung wissenschaftlicher Einrichtungen zu entwickeln. Dies sind Interpretationen und Empfehlungen des Projektteams.

    Teil II schildert den landesweiten (und teilweise nationalen) Sachstand. Er wurde zunächst vom Projektteam in vorbereitenden Gesprächsrunden und aus der Literatur erarbeitet und danach auf einem Workshop mit den Teilnehmern der vorherigen Runden diskutiert und auf Grund dessen überarbeitet. Diese Version der Ergebnisse wurde in einer letzten Phase des Projekts schließlich mit internationalen Experten erörtert.

    Teil III schildert einerseits die Informations- und Bildungslandschaft in verschiedenen, mit NRW vergleichbaren, Regionen oder Ländern und andererseits die Reaktionen bei Experten dieser Regionen auf unseren Entwurf.

    Soweit dem Textfluss zu Liebe keine geschlechtsneutralen Bezeichnungen verwendet wurden, steht die männliche Form für beide. „Hochschule" wird unterschiedslos für Universitäten und Fachhochschulen verwendet; es sei denn, es wird auf institutionelle Unterschiede hingewiesen.¹

    Wir danken dem Ministerium für Innovation, Wissenschaft und Forschung des Landes Nordrhein-Westfalen, das diese Studie finanziert hat.

    Köln, im Frühsommer 2011      Simone Görl, Johanna Puhl, Manfred Thaller

    1. Executive Summary

    Manfred Thaller

    In der Zeit bis 2025 wird die Informationstechnologie ihre Entwicklung zu einem räumlich und zeitlich hochverfügbaren Bestandteil der gesellschaftlichen Umwelt weiter fortsetzen, wobei jetzt noch bestehende Brüche zwischen unterschiedlichen Technologieebenen weiter überwunden werden.

    Die Informationsinfrastrukturen der Hochschulen des Landes NRW müssen sich in diese Entwicklung einbringen: Im Interesse des Landes, das – ohne einzelne Einrichtungen zu bevorzugen – sie insgesamt als Wissenschaftssystem zum Nutzen der Bürger finanziert. Dies liegt auch im Eigeninteresse der einzelnen Hochschulen, die im Wettbewerb untereinander und mit den Hochschulen anderer Wissenschaftslandschaften nur bestehen können, wenn sie diesen Wettbewerb im Rahmen akademischer Exzellenz führen können, ohne von infrastrukturellen Mängeln abgelenkt zu werden.

    Die nächsten fünfzehn Jahre werden in der Informationstechnologie auf allen Ebenen von der Konvergenz noch getrennter Lösungen geprägt werden. Dies ändert die Rahmenbedingungen für optimale organisatorische Lösungen. Das jetzige Denken in Begriffen separater Einrichtungen, die für sich jeweils alle Probleme der Bereitstellung der Informationstechnologie lösen, sollte daher ersetzt werden durch die Konzeption einer gemeinsamen technischen Basisinfrastruktur, auf der die spezifischen Dienste einzelner Fachabteilungen aufsetzen.

    Die gilt sowohl innerhalb der Hochschulen, bei denen die Trennung der IT-Systeme einzelner Abteilungen aufgehoben wird, als auch zwischen den Hochschulen, die durch die Kooperation bei technischen Diensten, die unterhalb einer bestimmten Kapazität nicht effektiv betrieben werden können, erheblich gewinnen.

    Die Bereitstellung der Information durch das wissenschaftliche Bibliothekssystem bleibt vom Betrieb der technischen Infrastruktur, auf der diese Information bereitgestellt wird, sachlich getrennt. Auch hier gibt es jedoch viele Problembereiche, deren Lösung in der Kooperation mehrerer Hochschulen, oder der Hochschulen des Landes insgesamt, besser gelingt als in einzelnen Einrichtungen.

    Zur Unterstützung dieser technischen Konvergenz innerhalb der Hochschulen einerseits, zur Verbesserung ihrer Möglichkeiten bei der Bereitstellung der für ihre Wettbewerbsfähigkeit benötigten Infrastrukturen zusammen zu arbeiten, werden konkrete Empfehlungen für wesentliche Bereiche der Informationsversorgung gemacht. Unter Verzicht auf Details der Umsetzung sind sie im Folgenden zusammengestellt.

    Grundsätzlich:

    (1.1) Wir empfehlen, das Konzept im Bereich der Informationsinfrastrukturen unabhängig nebeneinander stehender Hochschulen zu Gunsten eines Schichtenmodells aufzugeben. Manche Infrastrukturen und Dienstleistungen sollten in Zukunft landeseinheitlich betrieben werden. Bei der Mehrzahl wird die gemeinsame kooperative Bereitstellung für eine Gruppe einander sachlich oder räumlich nahestehender Hochschulen sinnvoll werden. Einige Infrastrukturen und Dienstleistungen sind weiterhin am sinnvollsten in den einzelnen Hochschulen zu erbringen. Der Übergang zwischen beiden Modellen wird die volle Länge des zu Grunde liegenden Zeitraums von fünfzehn Jahren beanspruchen. Dieser Prozess sollte daher nicht durch eine einmalige punktuelle Reform unterstützt werden, sondern durch die langfristige Überprüfung aller Fördermaßnahmen darauf, ob sie den Wandel in die gewünschte Richtung unterstützten.

    (1.2) Wir empfehlen ferner, innerhalb der Hochschulen die übergangslose Integration der digitalen Angebote der einzelnen Einrichtungen zu einem Angebot der Hochschule insgesamt energisch voranzutreiben.

    (1.3) Da wir die Hochschulen des Landes als ein integrales System für die Bürger des Landes verstehen, empfehlen wir jedoch auch dringend, die Integration weiter zu treiben und auf oberster Ebene einen Gesamtauftritt der wissenschaftlichen Einrichtungen des Landes zu realisieren, der insbesondere alle im weitesten Sinne bibliothekarischen Ressourcen, die vom Steuerzahler finanziert werden, zu einer integrierten Ressource zusammen fasst.

    Für den Bereich der allgemeinen IT-Basisdienste:

    (2.1) Fördermaßnahmen zur weiteren Entwicklung aller IT bezogenen Infrastrukturen an den Hochschulen sind an eindeutige Kriterien für die effektive und explizite IT-Governance an den Hochschulen zu binden. Nur wenn der Ausbau der IT-Infrastruktur als Problem der Hochschulleitung erkannt wird, sind Verbesserungen möglich.

    (2.2) Fördermaßnahmen müssen die Konvergenz der IT-Infrastrukturen innerhalb der Hochschulen befördern; sie sollten in keinem Fall die Unterschiede zwischen einzelnen Sparten hochschulinterner Einrichtungen betonen.

    (2.3) Die Kooperation der Hochschulen leidet derzeit darunter, dass die kooperative Nutzung von Ressourcen scheinbar durch die Unabhängigkeit der Hochschulen behindert wird. Es besteht der Eindruck, dass jede Zusammenarbeit, bei der es zum Austausch geldwerter Leistungen kommt, als rein kommerziell und daher marktoffen organisiert werden muss. Die Hochschulen sind jedoch weiterhin öffentlich-rechtliche Einrichtungen. Wir empfehlen die Verbesserung der Kooperation beim Betrieb gemeinsamer Infrastrukturkomponenten nach dem Modell kommunaler Zweckverbände.

    (2.4) Die Ausnutzung der zusammengefassten Marktmacht der Hochschulen des Landes durch koordinierte Beschaffungen ist energisch voranzutreiben.

    Im Bereich der Informationsbeschaffung:

    (3.1) Die Aktivitäten bei der Informationsbereitstellung, die bisher auf Bibliotheken, Medienzentren, eLearning-Zentren und andere Einrichtungen verteilt sind, sind an den einzelnen Hochschulen zu einem integrierten Angebot zusammen zu fassen.

    (3.2) Es ist stärker als bisher zwischen der technischen und der sozialen Komponente der Informationsbeschaffung und der Beratung bei der Benutzung bereit gestellter Ressourcen zu unterscheiden. Die technischen Komponenten eignen sich genauso zur kooperativen Bereitstellung im Rahmen sachlich oder räumlich naheliegender Einrichtungen, wie dies bei den technischen Basisdiensten der Fall ist.

    (3.3) Für die landesweiten Komponenten der kooperativen Informationsbereitstellung existiert im HBZ (Hochschulbibliothekszentrum) eine offensichtliche Trägereinrichtung. In der gegenwärtigen Organisationsform ist es innerhalb eines Systems der Kooperation zwischen den Hochschulen jedoch ein Fremdkörper, wenn es von diesen nicht beeinflusst wird. Wir empfehlen daher die Überführung in eine Konstruktion im Sinne eines „Zweckverbandes", der vom MIWF und den Hochschulen des Landes gemeinsam betrieben wird.

    (3.4) Die jetzige Struktur des Verbundkataloges ist ineffektiv. Zur Verbesserung des jetzigen Zustandes und zur Vorbereitung der Umstellung auf zukunftsweisende technische Lösungen werden konkrete Fördermaßnahmen empfohlen. Diese betreffen vor allem die Bereinigung der Dubletten in den Verbunddaten einerseits, eine radikale Vereinfachung der Erschließungsinformationen andererseits.

    Übergreifende Maßnahmen:

    (4.1) Für die Bereiche Langzeitarchivierung, eLearning und Open Access werden, innerhalb der voranstehend beschriebenen Strukturen, konkrete Maßnahmen empfohlen.

    2. Ein Leitbild für die wissenschaftliche

    Informationsversorgung des Landes NRW im Jahre 2025 – Empfehlungen

    Manfred Thaller

    Die folgenden Empfehlungen beruhen auf einer Reihe von allgemeinen Prämissen über die effektive und zukunftssichere Gestaltung von großflächigen Informationssystemen und deren Beziehung zu den Hochschulen des Landes.

    (1) Wir gehen davon aus, dass die Informationstechnologie in Zukunft noch wesentlich mehr als bisher eine der Grundvoraussetzungen für das Funktionieren gesellschaftlicher Teilsysteme sein wird. Dies bedeutet, dass nur hochverfügbare, verlässliche Informationssysteme und Infrastrukturen von den Bürgern benutzt werden; wird diese Verlässlichkeit für die Informationsinfrastrukturen der Hochschulen nicht sichergestellt, werden diese nicht als für die Informationsgesellschaft relevante Einrichtungen wahrgenommen werden.

    (2) Wir gehen ferner davon aus, dass für die Informationstechnologie das Gleiche gilt wie für alle anderen netzartigen Infrastrukturen: Der Wettbewerb findet durch die effektive Nutzung des Netzes statt; das Netz selbst wird von der öffentlichen Hand zur kompetitiven Nutzung bereitgestellt. Für die Hochschulen bedeutet dies, dass ein Modell gefunden werden muss, bei dem sie die gewonnenen Freiheiten nicht verlieren, sie jedoch gleichzeitig beim Aufbau hochschulübergreifender Strukturen unterstützt werden und auf derartige übergreifende Strukturen zugreifen können.

    (3) Dies lässt sich auch auf den Vorschlag verdichten, dass die Sicherstellung der Informationsversorgung der Hochschulen nicht als die Förderung zusammenhanglos nebeneinander stehender Einrichtungen verstanden wird, sondern als konsequenter Aufbau eines landesweiten Forschungs- und Bildungssytems, das größer ist als die Summe seiner Teile.

    (4) Als wesentlichen Trend der nächsten fünfzehn Jahre identifizieren wir die technische Konvergenz. Dies führt zu zahlreichen Einzelempfehlungen, die die stärkere Integration von informationstechnischen Infrastrukturen aus bisher getrennt agierenden organisatorischen Einheiten der Hochschulen betreffen. Weiterhin führen diese zu zusätzlichen Empfehlungen, die die Kooperation und den gemeinsamen Betrieb von Infrastruktureinheiten mehrerer Hochschulen zum Inhalt haben.

    (5) Unter der „Informationsversorgung der wissenschaftlichen Einrichtungen" verstehen wir alle organisatorischen und operativen Herangehensweisen zur optimalen Nutzung der neuen Informationstechnologien im engen Zusammenspiel mit der Fortführung bisheriger Informationen beschaffender oder verwaltender Einrichtungen. Das sind nach unserem Verständnis:

    Die Bibliotheken als informationsbeschaffende und -vermittelnde Einrichtungen, auf deren künftiger Rolle ein Schwergewicht dieser Darstellung ruht.

    Die Rechenzentren als informationsverarbeitende Einrichtungen.

    Alle organisatorischen Vorkehrungen, um diesen beiden Einrichtungen die Beschaffung der von ihnen benötigten Materialien, seien es Publikationen, sei es Hardware, effektiv ermöglichen sollen.

    Alle Teilaspekten der Informationsversorgung oder -verarbeitung gewidmeten Einrichtungen, insbesondere die Medienzentren und eLearning-Zentren.

    Der Frage der Einbindung dieser Einrichtungen in die Gesamtstruktur der Hochschule, also auch deren Verwaltungssystemen.

    Der Frage der optimalen Unterstützung dieser Strukturen durch eine gezielte Landespolitik der wissenschaftlichen Informationsversorgung.

    (6) Innerhalb dieser Gesamtmenge von Informationseinrichtungen unterscheiden wir nicht nach den derzeitigen organisatorischen Trägern; im Gegenteil gehen wir davon aus, dass viele organisatorische Trennungen ältere technische Entwicklungsstände widerspiegeln. Wir unterscheiden aber sehr stark zwischen der allgemeinen inhaltsagnostischen technischen Infrastruktur und der Bereitstellung und Verarbeitung der Information. Als saloppes Beispiel: Eine Verschmelzung der Serverlandschaften von Bibliotheken, Rechenzentren und Verwaltungen zu einer effizienten technischen Infrastruktur scheint uns mittelfristig unverzichtbar. Den Betrieb einer Bibliothek unter der Ägide des technischen Leiters des universitären Serverparks halten wir für genauso unsinnig, wie den Betrieb des Serverparks unter bibliothekarischen Gesichtspunkten.

    (7) Ähnlich unterscheiden wir stark zwischen infrastrukturellen Leistungen, die die direkte Kommunikation mit den universitären Benutzern – Lehrende, Forschende, Studierende, Verwaltende – voraussetzen und solchen, die dies nicht tun. Ein Callcenter für die bibliothekarische Beratung wäre ein Unding; das gemeinsame Hosten bibliothekarischer Inhalte für mehrere Institutionen in einem gemeinsamen technischen Zentrum ist es nicht.

    (8) Eine Strategie ohne Ziele ist eine Chimäre; nur wenn klar ist, was erreicht werden soll, kann diskutiert werden, wie dies am besten geschieht. In dieser Studie haben wir daher bewusst beschrieben, wie unseres Erachtens das Ergebnis eines fünfzehnjährigen Entwicklungsprozesses aussehen sollte. Dass auf dem Wege dahin viele Übergangsformen und Kompromisse nötig sein werden, ist offensichtlich. Sie vorwegnehmend beschreiben zu wollen, hätte für eine Studie der vorliegenden Art nur von der Darstellung des Zieles abgelenkt.

    Die folgenden Seiten beschreiben unsere Annahmen zu den technischen Entwicklungen der nächsten fünfzehn Jahre und geben Empfehlungen, wie konsistent auf sie reagiert werden sollte. Diese Empfehlungen bauen auf den voranstehenden Prämissen auf; sie richten sich an den mit Hochschulinformationssystemen vertrauten Leser und gehen unmittelbar auf Detailprobleme ein. Eine verkürzte Darstellung des fachlichen Leitbildes, das aus diesen Prämissen abgeleitet wurde und der zu Grunde gelegten Szenarien findet sich im Abschnitt 2.5. unten.

    2.1. Technologische Trends bis 2025

    Die folgende Studie untersucht Trends bis zum Jahre 2025. Sie tut dies nicht, weil dies ein rundes Jahr wäre: Vielmehr spiegelt die Wahl des Zeitraumes die Überzeugung wider, dass fünfzehn Jahre jener Bereich sind, innerhalb dessen informationstechnische Voraussagen mit einiger Sicherheit gemacht werden können. Oder, genauer gesagt: Voraussagen über informationstechnische Entwicklungen, die bis zu einem Stadium der Reife gediehen sind, dass die alltäglichen Abläufe der Informationsversorgung in den Hochschulen praktisch beeinflusst.

    Dies fußt auf zwei Annahmen:

    Wir gehen davon aus, dass die Zeitspanne zwischen der ersten Funktionsfähigkeit einer neuen Technologie unter Laborbedingungen und einer praktischen Durchsetzung dieser Technologie in der Allgemeinheit circa fünfzehn Jahre beträgt. (Wir verweisen darauf, dass der „Alto" von Xerox im Jahre 1972 konzeptualisiert wurde, der erste kommerziell partiell erfolgreiche PC, der dessen Prinzipien umsetzte, der AppleMacintosh erst 1984 erschien – und in der für den alltäglichen Betrieb damals wesentlich wichtigeren Microsoft Welt die erste Windows Version, die mit einiger Berechtigung von sich sagen kann, die Palo-Alto-Prinzipien umzusetzen (Windows 3.0), erst im Jahre 1990 freigegeben wurde.)

    Wir gehen ferner davon aus, dass ein technisches Konzept, das in Anspruch nimmt, auf existierenden technologischen Plattformen realisiert werden zu können, sich entweder innerhalb von zehn Jahren flächendeckend durchsetzt, oder auf Dauer Nischencharakter behält. (Wir verweisen auf die Geschichte der Expertensysteme.)

    Beide Annahmen sind nicht trennscharf genug, um Voraussagen über technische Details zu machen: Ob Userinterfaces des Jahres 2025 überwiegend auf Touchscreens abgestimmt sind, ob u.U. sogar die Tastatur als konfigurierbarer Teil eines Touchscreens realisiert wird und dadurch die Rahmenbedingungen für das Design von Interfaces radikal verändert werden, ist nicht vorhersagbar.

    Allerdings halten wir dies für weniger relevant, als die uns eindeutig erscheinende Vorhersage, dass etwa die Texteingabe weiterhin wesentlich tastaturbestimmt sein wird und weder von der Stimmeingabe, noch von handschriftlicher Styluseingabe abgelöst werden wird. Beide letztere Varianten sind seit zehn Jahren prinzipiell verwendbar, zeigen nach dem zweiten oben angegebenen Kriterium jedoch keine Tendenzen, die bestehenden Eingabeformen flächendeckend zu verdrängen.

    Die genannten Annahmen scheinen uns manche Szenarien, die in der Tat das Potential hätten, die Informationsversorgung wirklich radikal neu zu gestalten, auszuschließen. Derartige Szenarien, die wir explizit nicht berücksichtigen, sind insbesondere die folgenden:

    Direct mind interfaces, also Interfaces, die die Steuerung von Rechnern durch Gedanken zulassen, sind noch in einem so frühen Stadium der Entwicklung, dass wir sie für die nächsten fünfzehn Jahre ignorieren.

    3D Technologien werden in den nächsten fünfzehn Jahren eine erhebliche, um Größenordnungen wichtigere Rolle spielen. Wir sehen sie jedoch als eine einfache lineare Fortschreibung des Trends zu einer größeren Wichtigkeit nichttextueller Medien. Wir sehen weder GUIs, die echte inhaltliche Fortschritte der Informationsdarstellung auf der relativ beschränkten Oberfläche von 2D Medien erlauben würden, noch echte 3D Interfaces, durch die räumliche, etwa holographische Projektion raumfüllender Interfaces, als derzeit berücksichtigenswerte Trends an.

    Sehr signifikante Wandlungen in den langfristig aufzubauenden Strukturen zur Informationsversorgung könnten von genuin langlebigen Speichermedien mit hoher Kapazität ausgehen (Dies bedeutet: mindestens 100 Jahre garantierter Haltbarkeit, bei mindestens 10 TB Kapazität zum Kaufkraftäquivalent des Preises einer derzeitigen CD-ROM / DVD-ROM professioneller Qualität.) Eine derartige Technologie würde einen erheblichen Einfluss auf die zur langfristigen Informationsversorgung notwendigen technischen Strukturen ausüben und Teile der im Folgenden beschriebenen Trends konterkarieren. Wir stellen jedoch nicht nur fest, dass bisher alle Versuche in diese Richtung weisende Speichermedien, vornehmlich holographisch orientiert, fehlgeschlagen sind, sondern zudem alle Medien, die in die Nähe der Marktreife kamen, so konzipiert waren, dass noch einige Jahre mit zunehmend höheren Informationsdichten gearbeitet werden sollte, was dem Gedanken eines langfristig gleichbleibend verfügbaren Mediums eben gerade nicht entspricht.

    Unter Ausschluss der genannten Szenarien halten wir die folgenden technischen Trends für die nächsten fünfzehn Jahre für prägend.

    2.1.1.

    Trend I: Technologische Konvergenz

    Auf den ersten Blick scheinen die Entwicklungen der letzten fünf Jahre eher eine Tendenz zur Diversifizierung anzudeuten.

    Im Jahre 2005 gab es de facto nur zwei Betriebssysteme: Eines, das keine klare Trennung zwischen Systemkern und Userinterface hat (Windows) und eines, das diese klare Trennung aufwies (Unix) – auch wenn in einem Fall die Unterschiede in der Ausgestaltung des Interfaces (Apple seit Mac OS X) so gravierend sind, dass es als drittes Betriebssystem wahrgenommen wird. In den letzten Jahren entstanden aus der Notwendigkeit verschiedene mobile Devices zu unterstützen wieder deutlich voneinander abweichende Betriebssysteme.

    Im Jahre 2005 gab es de facto nur mehr eine Grundform des Endgerätes: Verschiedene Laptops, Desktops oder Laptops und Desktops als Frontends für Rechnerkonfigurationen höherer und hoher Leistung stellten eine einheitliche Metapher des Zugangs zu Rechnerressourcen bereit. Auch hier haben die mobilen Devices erstmals wieder eine deutliche Diversifizierung eingeleitet.

    Im Jahre 2005 schien schließlich, völlig unabhängig von den mobilen Devices, die Entwicklung praxisrelevanter Programmiersprachen abgeschlossen – unter anderem dadurch, dass die zunehmende Rechenleistung den Performanz-Nachteil von Scriptsprachen verwischte. Seitdem zeichnet sich wieder eine stärkere Diversifizierung der Sprachen ab.

    Diese Diversifizierung einzelner Aspekte der technologischen Landschaft steht der Herausbildung einer voll integrierten konvergenten Informationslandschaft jedoch keineswegs im Wege. Dies wird dadurch erzwungen, dass zum Unterschied etwa zum Jahre 1995 mittlerweile zahlreiche Dienste existieren, die als genuin und zentral alltagsrelevant gelten und deren nicht-Erreichbarkeit – etwa auf einer neuen Endgeräteklasse – deren Erfolg in Frage stellt.

    Dieses Prinzip sei an einem fiktiven Beispiel näher beschrieben:

    Es ist klar, dass im Jahre 2025 erwartet werden wird, dass auch während Flugreisen ständiger Kontakt zu den gewohnten Informationsdienstleistungen gewährleistest ist. Im Folgenden sei aufgezeigt, dass diese Erwartung – die Erwartung nach der ständigen Verfügbarkeit informationstechnischer Leistungen, unabhängig von der dafür eingesetzten Technologie – innerhalb von mindestens drei Szenarien möglich ist, die derzeit bestehende technische Trends in unterschiedlicher Weise fortschreiben.

    Beobachtend, dass Desktops, Laptops und mobile Geräte sich durch die intermediäre Klasse von Tablets zuletzt wieder ein wenig annähern, besteht ein radikales Szenario in der Annahme, dass die Entwicklung biegsamer Displays in den nächsten fünfzehn Jahren solche Fortschritte macht, dass sie sich zu falt- und ggf. auch knautschbaren flachen Objekten weiter entwickeln. Ein derartiges Gerät könnte mit einem handgroßen Prozessor verbunden werden und auf einem Teil ihrer Oberfläche via Touchscreen eine Tastatur emulieren. Auch könnte es übergangslos zwischen Wohnung und Büro auch in den dazwischen benutzten Verkehrsmitteln verwendet werden.

    Beobachtend, dass informationstechnische Komponenten und mobile Endgeräte insgesamt radikal billiger werden, besteht ein anderes radikales Szenario in der Annahme, dass die Umwelt in den nächsten Jahren immer stärker mit auf den lokalen Einsatzort optimierten Benutzeroberflächen durchsetzt wird. Diese Benutzeroberflächen könnten jeweils mit der persönlichen Datenhaltung auf einem anderswo lokalisierten Rechner verbunden werden. Gehen wir von einer heimischen Medienkonsole, einem heutigen Endgeräten noch recht nahen Büroarbeitsplatz und einem als Touchscreen ausgestalteten ausklappbaren Esstischchen im Flugzeug aus, haben wir die gleiche übergangslose Nutzung von Informationsdiensten zwischen Wohnung und Büro, sowie den dazwischen liegenden Verkehrsmitteln, wie in Szenario 1 vor uns. Diese Nutzung findet aber auf der Basis einer im Detail völlig anderen technischen Entwicklung statt.

    Beide bisher genannten Szenarien sind Extreme: Zahllose Zwischenformen existieren. Verwiesen sei etwa auf die Möglichkeit, die Datenhaltung gerätetechnisch noch wesentlich stärker von deren Verarbeitung zu trennen wie heute, sodass etwa ein USB-Nachfolge-Speichergerät mit unterschiedlichen informationsverarbeitenden Geräten zu Hause, im Verkehrsmittel und im Büro verbunden werden könnte.

    Allen genannten Szenarien ist allerdings gemeinsam, dass sie eine Interoperabilität von Informationsdiensten und -objekten voraussetzen, die wesentlich über der heutigen liegt. Hierin, nicht in der Frage, wie ein bestimmtes Kommunikationsprotokoll bedient werden kann, liegt die große Herausforderung für die weitere Entwicklung der Informationsversorgung im Allgemeinen und der der Hochschulen im Besonderen.

    Diesen Entwicklungen gerecht zu werden, setzt erhebliche intellektuelle und finanzielle Investitionen voraus. Wir vermuten, dass sie in Zukunft als „mobile revolution" oder Ähnliches bezeichnet werden wird, da sie letzten Endes darauf zurückzuführen ist, dass die Differenz zwischen hochmobilen (Smartphones), teilmobilen (Laptops) und stationären (PCs) Endgeräten verschwindet.

    Sie als „Revolution zu bezeichnen scheint uns allerdings nur aus der Sicht eines auf Aufmerksamkeit bedachten karrierebewussten Medientheoretikers sinnvoll: Aus der Gesamtsicht der Entwicklung der Informationstechnologie der letzten 40 Jahre betrachtet, ist sie schlicht der nächste logische Schritt in einer organischen, iterativen Entwicklung ubiquitärer Informationsstrukturen. Die Ergebnisse und Verläufe des ersten dieser Schritte – die „PC Revolution – und des zweiten – „die Internetrevolution" – scheinen uns daher eine solide Basis für die Beurteilung der weiteren Entwicklung.

    Zusammenfassende These: Es ist nicht mit grundsätzlich neuen Formen der Informationsbereitstellung zu rechnen. Information, die nicht so bereit gestellt wird, dass sie auf allen Plattformen verfügbar ist, wird als amateurhaft und unzuverlässig gelten.

    2.1.2.

    Trend II: Verfügbarkeit

    Die Bereitstellung von „Rechenleistung – sei es als Prozessorleistung, sei es als Speicherkapazität – erfolgt zunehmend unabhängig von ihrer Inanspruchnahme. Dieser Trend ist offensichtlich und schlägt sich einerseits in der Virtualisierung von Serverleistung an den einzelnen Hochschulen, in hoher Aufmerksamkeit für die großflächige Verfügbarkeit von überörtlichen Ressourcen („Grid, „Cloud") wider.

    Hier scheint uns der Blick auf die längerfristige Bedeutung dieser Trends jedoch ein wenig durch deren kurzfristige Erscheinungsformen getrübt. Dies gilt insbesondere für die Diskussion um das Paradigma des „Cloud Computing". Auch wenn das National Institute of Standards and Technology selbst davor warnt, dass die Definition des Konzepts sich noch weiter entwickle, ist seine Definition derzeit wohl die Seriöseste:

    „Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction."²

    Laut dieser Erklärung liegt das Schwergewicht der Definition auf der Art und Weise, wie ein wohldefinierter Pool von Diensten verfügbar gemacht wird. Dagegen wird in der – durchaus auch in Informationseinrichtungen verbreiteten – popularisierten Form darunter häufig das Prinzip verstanden, dass informationstechnische Ressourcen von einem Anbieter bezogen würden, dessen technische Struktur nicht nur für den Endabnehmer, sondern auch für dessen Institution nicht transparent sind – woraufhin meist ein Verweis auf Amazon, Microsoft oder andere kommerzielle Anbieter erfolgt, häufig gekoppelt mit der Aussage, dass informationstechnische Leistung in Zukunft genauso anonym bezogen werden würde, wie Elektrizität heute. Dies scheint uns eine unsinnige Vermischung von Konzepten.

    Die häufig bemühte Analogie zur Elektrizität wirkt nur auf den ersten Blick überzeugend: Schließlich wird Elektrizität vom Anbieter bereitgestellt und vom Kunden verbraucht, Information dagegen vom Kunden bereitgestellt und vom Anbieter verarbeitet, wonach sie oft bei ihm verbleibt – wenn die „Verarbeitung" nicht ohnehin schon in ihrer Speicherung besteht. Der Anbieter von Rechenleistung hat also eine Verfügungsmöglichkeit über Eigentum des Kunden, die ein Anbieter von Elektrizität nie haben kann. (Ganz abgesehen davon, dass wir uns ja gerade dabei befinden, die zentrale Erzeugung von Elektrizität wieder durch eine weniger zentrale zu ersetzen.)

    Vor allem aber wird übersehen, dass die durch die Namensgebung „Cloud implizierte strukturelle Transparenz des Informationssystems nur für den Abnehmer, nicht für den Anbieter gilt. Die suggerierte „weltweite Cloud, in der die Information „irgendwo gespeichert wird, beschreibt günstigenfalls die Ansicht des Endkunden, der in der Tat nicht weiß, auf welchem Kontinent seine Daten gespeichert werden. Für den Anbieter dieser Leistung ist dies hingegen vollkommen klar und nachverfolgbar. Ohne der Versuchung erliegen zu wollen, hier durch scherzhaft anmutende Beispiele den seriösen Bereich zu verlassen: Es dürfte klar sein, dass die Bundeswehr derzeit kein Interesse daran hat, ihre Daten „in der Cloud zu speichern, wenn dies bedeuten kann, dass sie sich letzten Endes in Pakistan befinden.

    Die Informationen der Hochschulen mögen weniger sensibel sein; bedenkt man, welch enormer Widerstand gegen das Prinzip des Open Access auf Grund von alten Copyright-Regelungen geleistet wird und wie viele durchaus sinnvolle Informationsdienstleistungen durch Datenschutzregelungen verhindert werden, ist es schwer vorstellbar, dass Hochschulen die Kontrolle über die von ihnen verwendeten und generierten Informationen so völlig abgeben.

    Wir gehen in der folgenden Studie daher von folgenden Annahmen aus:

    Die Cloud-Technologien bilden eine hervorragende Plattform für die Bildung institutionsübergreifender IT-Infrastrukturen. Als solche bilden sie und ihre Weiterentwicklungen das Rückgrat der Informationsinfrastruktur der Hochschulen des Landes im Jahre 2025.

    Diese Infrastrukturen gehen jedoch nicht in einer „anonymen Cloud" nach der populären Verzerrung des technischen Konzepts auf, sondern bilden eine Infrastruktur, die nach wie vor von den Hochschulen kontrolliert und in Abgrenzung zu anderen Domänen der Informationsversorgung betrieben wird.

    Während wir also davon ausgehen, dass die informationstechnischen Infrastrukturen der Hochschulen in deutlicher Abgrenzung zu sonstigen gesellschaftlich genutzten Informationsinfrastrukturen weiter bestehen werden, weisen wir allerdings darauf hin, dass die zunehmende Bildung weit gespannter und dadurch robusterer und ausfallssicherer Informationsinfrastrukturen sehr wohl eine gravierende Konsequenz für den weiteren Betrieb auch hochschuleigener Informationsinfrastrukturen haben wird.

    Um bei der häufig verwendeten, wenn auch irreführenden Metapher der Elektrizitätsversorgung zu bleiben: Mehrstündige Stromausfälle in einer Hochschule würden heute den Hochschulbetrieb de facto weitestgehend lahm legen. Abgesehen von Lehrräumen ohne Tageslicht gibt es viele andere Aspekte des normalen Betriebs, die ohne funktionierende Stromversorgung nicht möglich wären. Ein mehrstündiger – auch unangekündigter Ausfall von zentral verwalteten IT-Leistungen – gilt jedoch nach wie vor als normal. Es gibt immer noch Hochschulbibliotheken, die es bei Arbeiten während des Wochenendes als normal ansehen, dass ihre Homepage anderthalb Tage nicht erreichbar ist. Dies entspricht durchaus einer gesamtgesellschaftlichen Situation:

    Mehrstündige Stromausfälle, von denen einige tausend Bürger betroffen sind, haben einen Neuigkeitswert, der meist bis in die Tagesschau reicht. Der Ausfall von Informationsinfrastrukturen bleibt dagegen kaum kommentiert – es sei denn, er betrifft Dienste, die jetzt schon von der Allgemeinheit als funktionierend vorausgesetzt werden, wie etwa Google oder Amazon.

    Wenn wir nach dem bisherigen jedoch davon ausgehen, dass es insgesamt zur Herausbildung auf der Cloud-Technologie basierender Informationsinfrastrukturen kommt, deren Ausfallssicherheit durch diese Technologien erheblich zunimmt, ist davon auszugehen, dass das vorübergehende Nichtfunktionieren von Informationsinfrastrukturen in naher Zukunft als ebenso nicht tolerierbar gilt, als heute das Nichtfunktionieren der Elektrizitätsversorgung.

    Zusammenfassende These: Dies bedeutet in weiterer Folge, dass Informationsdienstleistungen, die nicht hochverfügbar sind, in Zukunft als strukturell defizient und de facto nicht verwendungsfähig angesehen werden. Information, die nach heutigen Maßstäben nicht hochverfügbar ist, wird in Zukunft als nicht verfügbar gelten.

    2.1.3.

    Trend III: Bereitstellungsmedium

    Fragt man heute nach der Bedeutung digitaler Angebote im Bereich wissenschaftlicher Publikationen, wird stets darauf verwiesen, dass dies stark von der Disziplin abhänge. Dabei wird meist prognostiziert, dass es in den jetzt weniger technologie-affinen Fächern, insbesondere den Geisteswissenschaften noch lange dauern werde, bis die Bereitstellung von Information in digitalen Zeitschriften und insbesondere Medien herausragende Bedeutung gewinnen werde.

    Dass die digitalen Informationsmedien in den Natur- und Ingenieurwissenschaften, bei denen ältere Zeitschriften und Nachschlagewerke sehr rasch obsolet werden, schon sehr fortgeschritten ist, ist unübersehbar. Bei den dieser Studie u.a. zu Grunde liegenden Besuchen ausländischer Bibliotheken fiel auf, dass beispielsweise in der Bibliothek der technischen Universität Dänemarks³ Printmedien de facto verschwunden sind.

    Diese in der hochschulinternen Diskussion vorgenommene Kontrastierung zwischen den Naturwissenschaften einer- und den Geisteswissenschaften andererseits, übersieht unseres Erachtens nach jedoch eine ganze Reihe von Trends, oder bewertet sie systematisch unter.

    Beim Besuch gerade international bekannter öffentlicher Bibliotheken, auch und besonders des Auslandes, fällt auf, dass dort die digitalen Angebote für die Öffentlichkeit mittlerweile sehr viel stärker wahrgenommen werden, als die Printmedien. Das typische Bild einer öffentlichen Bibliothek des Auslandes zeigt eng besetzte Bildschirmarbeitsplätze und Bücherregale, zwischen denen Leere herrscht. Dies hat unzweifelhaft damit zu tun, dass nach unserem Eindruck die öffentlichen Bibliotheken des Auslandes mittlerweile in sehr hohem Maße eher als soziale Einrichtungen, denn als Bibliotheken im bisherigen Sinne wahrgenommen werden (Vgl. Kapitel 6 und 12) es zeigt aber doch auch, dass die digitale Vermittlung von Information auch im privaten Bereich, bei dem die rasche Vermittlung keineswegs den Stellenwert hat, wie in den Naturwissenschaften, mittlerweile mindestens genauso wichtig ist, wie die über Printmedien – und in manchen Ländern diese überholt zu haben scheint.

    Ferner ist darauf hinzuweisen, dass die Initiative von Google zur systematischen Digitalisierung älterer Literatur mittlerweile ein Ausmaß erreicht hat, das nicht mehr vernachlässigt werden kann. Bei Hochrechnung der derzeitigen Trends, die sich auf Bibliotheken stützten, die zwischen sich nahezu die gesamte gedruckte Überlieferung abdecken, ist es unzweifelhaft, dass die Printmedien vor 1900 bis zum Jahre 2020 vollständig in digitalisierter Form vorliegen werden, abzüglich von Inselbeständen, bei denen betreuende Fachbibliothekare im Interesse der Erhaltung der eigenen Funktion die Digitalisierung verhindern werden. Es ist relativ schwer vorstellbar, dass der Widerstand der Verlage angesichts dieser Situation die Digitalisierung der Bestände zwischen 1900 und heute auf Dauer verhindern kann. Wofür es deutliche Anzeichen gibt: Der Verlag de Gruyter ist nachhaltig in die Bereitstellung von eBooks eingestiegen.⁴ Wichtiger aber noch, der Verlag stellt in Eigeninitiative das gesamte Verlagsprogramm rückwirkend in digitalisierter Form zur Verfügung:

    „De Gruyter macht mehr als 50.000 hochwertige Titel aus über 260 Jahren Verlagsgeschichte verfügbar. Die Titel sind sowohl elektronisch (nur für Bibliotheken und Institutionen) als auch als Hardcover Reprint erhältlich. Falls eine Retrodigitalisierung notwendig ist, ist der gewünschte Titel in maximal 10 Wochen lieferbar".

    Dies scheint uns vor allem deshalb signifikant, da de Gruyter zweifellos einer der Verlage ist, der von der öffentlichen Mehrfachsubventionierung hochwertiger geisteswissenschaftlicher Literatur in der Bundesrepublik mit am meisten profitiert hat. (Also dem System aus Steuermitteln erstellte wissenschaftliche Ergebnisse mit aus Steuermitteln stammenden Druckkostenzuschüssen zu publizieren, um die entstehenden ungemein hochpreisigen Publikationen anschließend ganz überwiegend durch aus Steuermitteln getragene wissenschaftliche Bibliotheken erwerben zu lassen.) Dass selbst hier die Bedeutung der digitalen Bereitstellung erkannt wird, halten wir für eines der wichtigsten Anzeichen der letzten Jahre für die Durchsetzung der digitalen Bereitstellung von Publikationen.

    Schließlich ist unübersehbar, dass in den letzten beiden Jahren die Bereitstellung von eBooks auf dedizierten Lesegeräten in erheblichem Maße zugenommen hat. Obwohl diese Geräte nach wie vor offensichtliche Schwächen haben, scheint ihre Verwendung deutlich zuzunehmen (Verkaufszahlen potentieller Statussymbole scheinen uns im derzeitigen Stadium dieser Technologie weniger wichtig).

    Trotzdem erscheint uns die Technologie der dedizierten eBook-Lesegeräte an sich nur ein – und keinesfalls der wichtigste – Aspekt des allgemeinen Trends. Ihrer Natur nach höchst allgemeine Geräte – deren Markt dem für PCs oder Videoplayer entspricht – werden fast mit Sicherheit nur als unterschiedliche Realisierungen einer gemeinsamen Basistechnologie ihr Potential ausschöpfen können. Die derzeitige Phase miteinander konkurrierender Plattformen für wechselseitig inkompatible eBook-Formate entspricht offensichtlich der Phase der zweiten Hälfte der 1980er Jahre bei der Etablierung von Standards für die Arbeitsplatzrechner. Eine Marktbereinigung steht also noch bevor.

    Diese Technologie steht aber auch deshalb nicht im Zentrum unserer Überlegungen, weil unserem Erachten nach sehr scharf zwischen dem bevorzugten Medium für die Informationsbereitstellung und dem für die Informationsaufnahme zu unterscheiden ist.

    Die Digitalisierung der Texte ist ein wichtiger Faktor für die weitere Entwicklung der Vertriebswege von Textpublikationen – und die Aussicht, bei einer Reise in einem einige hundert Gramm schweren Medium den Inhalt von einigen hundert für das augenblickliche Forschungsprojekt relevanten wissenschaftlichen Texte mit sich zu führen, hat offensichtlich das Potential den wissenschaftlichen Arbeitsprozess ebenso stark zu beeinflussen, wie die ständige Verbindung des mitgeführten Laptops mit den Internet. Nichtsdestoweniger haben wir erhebliche Zweifel, wieweit papiergebundene Information in den nächsten fünfzehn Jahren durch nicht-papiergebundene bei der Verwendung durch Benutzer oder Benutzerin vollständig ersetzt werden kann.

    Der Grund dafür liegt in der Konfiguration typischer Arbeitsplätze. Beim Verfassen wissenschaftlicher Arbeiten sind Verfasser oder Verfasserin üblicherweise von einer Vielzahl von Texten umgeben. Der Arbeitsplatzrechner, in dem der eigene Text geschrieben wird, steht dabei meist in der Mitte und ist von mehr oder minder zahlreichen sekundären Texten umgeben, aus denen die verwendeten Informationen übernommen werden, etwa folgendermaßen:

    Bild 6

    Abbildung 1: Blickachsen zwischen einzelnen Informationsträgern

    Das bedeutet, dass die sekundären Materialien, aus denen die Informationen entnommen werden, die in das neu zu produzierende Dokument integriert werden, im Idealfall so ausgerichtet werden, dass die Dokumente jeweils parallel zur Blickrichtung des Arbeitenden liegen (der seinen Kopf, ohne die Körperposition zu ändern, dem jeweils benötigten Stück zuwendet). Im Idealfall: Dass viele Dokumente nicht in der Idealposition liegen können, weil man versuchen muss, sie so zu arrangieren, dass eine Vielzahl davon gleichzeitig möglichst vollständig aufgedeckt ist, trifft zu; dass es eine Reihe von Disziplinen gibt, bei denen Informationen direkt am Bildschirm integriert werden müssen, weil sie schlecht oder gar nicht ausdruckbar sind (z.B. Simulationen von Prozessen, von denen für naturwissenschaftliche Studien Zahlenwerte abgelesen werden, oder Proto-Datenbanken, die in manchen geisteswissenschaftlichen Disziplinen den Zettelkasten ersetzt haben), ebenfalls.

    Grundsätzlich stellt dieses Szenario dem Versuch, Informationen ausschließlich aus nicht-papiergebundenen Medien für die eigene Arbeit abzulesen, aber ein zweistufiges Hindernis entgegen.

    Einerseits besteht der große Vorzug der derzeitigen Generation der Lesegeräte darin, dass es möglich ist, viele, ja sehr viele, Bücher mittels eines Displays mit sich führen zu können. Der Versuch, diese Texte gleichzeitig im Blick zu behalten würde jedoch erfordern, dass eine größere Anzahl derartiger Geräte parallel im Einsatz wäre – was zumindest kurzfristig weniger wahrscheinlich ist. Langfristig wird sich dies wohl dadurch lösen, dass der Arbeitsplatz der Zukunft zur Gänze mit einer hochauflösenden Präsentationsoberfläche bedeckt ist, auf der die relevanten Seiten dann mit einer an das jetzige iPhone angelehnten Verschiebelogik „übereinander" oder nebeneinander positioniert werden können. Dies erwarten wir aber frühestens zum Ende der hier diskutierten Planungsperiode: Wie aus dem oben stehenden Blickachsenargument ablesbar, wäre es dazu notwendig, die Seiten stufenlos rotieren zu können. Zumindest bei

    Gefällt Ihnen die Vorschau?
    Seite 1 von 1