Publizieren im Umbruch – Brauchen wir noch wissenschaftliche Zeitschriften?

Jahrzehntelang waren wissenschaftliche Fachzeitschriften der einzige Weg, neue Forschungsergebnisse zu kommunizieren. Daran hat sich vom Prinzip her bis heute nur sehr wenig geändert. Die überwiegende Mehrheit aller wissenschaftlichen Zeitschriften funktioniert noch wie im Zeitalter, als es noch kein Internet, keine sozialen Netzwerke oder Crowd-basierte Wissensplattformen gab. Ist diese Form der Verbreitung von Forschungsergebnissen im 21. Jahrhundert überhaupt noch angemessen? Der Autor sagt: Nein.

Weg mit den Wissenskonserven?

2014 sprach der Neurogenetiker Björn Brembs in einem Beitrag von der „digitalen Steinzeit“, als er den derzeitigen Zustand der digitalen Infrastruktur in der Wissenschaft charakterisierte und dabei vom Versäumnis vieler Institutionen sprach, auf eine effizientere und womöglich auch kostengünstigere Weise als bisher Forschungsergebnisse zu dokumentieren und kommunizieren [Bre14]. Neben etlichen Beispielen nannte er das Unvermögen von Fachzeitschriften, sich an die Möglichkeiten des digitalen Zeitalters anzupassen, was die Aufbereitung von Daten, aber auch den ungehinderten Zugang zu wissenschaftlichen Ergebnissen, sowie dem daraus resultierenden akademischen Diskurs betrifft. Andreas Degkwitz, Direktor der Universitätsbibliothek der Humboldt-Universität formulierte es in einem Aufsatz in der Berliner Tageszeitung  Tagesspiegel (16.6.2014) drastisch: „Weg mit den Wissenskonserven“ [Deg14]. Sind Artikel in Fachzeitschriften also wirklich „Auslaufmodelle“, wie Degkwitz sie bezeichnet, und wie könnte digitales Publizieren die Arbeit von Wissenschaftlern im 21. Jahrhundert prinzipiell verändern?

Über Jahrzehnte, wenn nicht Jahrhunderte war die Aufgabe von Fachzeitschriften in der Wissenschaft klar definiert: sie dienten dazu, Forschungsergebnisse in einer zitierfähigen Form niederzulegen und zu verbreiten. Offensichtliche Aufgabe der im Zuge dessen aufkommenden Wissenschaftsverlagen war es dabei, diesen Prozess zu organisieren und produktionsseitig umzusetzen. Die Verbreitung der Inhalte erfolgte zunächst ausschließlich über Bibliotheken, die die Fachzeitschriften über Abonnements bezogen. Was vielen Wissenschaftlern heute nicht bekannt ist: erst in den späten fünfziger Jahren des letzten Jahrhunderts begannen wissenschaftliche Zeitschriften den Prozess des Peer Review als Maßnahme der Qualitätssicherung einzuführen. Dabei prüfen zunächst unabhängige Fachleute aus der wissenschaftlichen Community (peers) das eingereichte Manuskript, bevor es zur Publikation angenommen oder in dieser Form abgelehnt wird. Zusätzlich wenden viele Herausgeber ein weiteres Verfahren zur Filterung von Arbeiten in „ihren“ Zeitschriften an, indem sie eingereichte Manuskripte bereits vor dem Peer Review aus unterschiedlichen Gründen ablehnten (editorial pre-selection). In dieser Weise arbeiten bis heute weltweit mehr als 20.000 überwiegend englischsprachige wissenschaftliche Zeitschriften allein in den naturwissenschaftlichen, technischen und medizinischen Disziplinen (engl. Abk.: STM).

Die digitale Welt hält Einzug in die Wissenschaftskommunikation

Dieser Prozess und die damit verbundene Verteilung der Aufgaben war im Zeitalter gedruckter Werke bis etwa Mitte der neunziger Jahre nicht nur ein etablierter, sondern auch der beste Weg, Forschungsergebnisse zu dokumentieren und zu verbreiten. Das änderte sich allerdings mit den vielfältigen Möglichkeiten, die sich ab der Jahrhundertwende durch den Einzug des Internets und der digitalen Medien nicht nur im Alltagsleben neu ergaben. Auf einmal war es möglich, überall und jederzeit digitale Kopien von Inhalten abzurufen, mit anderen Nutzern im Internet zu diskutieren, Daten zu verändern oder zu aktualisieren, diese mit einem Mausklick weiterzugeben usw. Soziale Netzwerke wurden zu einer aus dem Alltag vieler Menschen heute nicht mehr wegzudenkenden Komponente des unkomplizierten Austauschs von Informationen. Blogs stellten eine neue Art dar, eigene Beiträge zu veröffentlichen, ohne auf eine Zeitschrift oder Zeitung angewiesen zu sein. In einigen Bereichen der Wissenschaft, wie der Mathematik, Physik oder Informatik wurden diese Möglichkeiten bereits seit 1991 aktiv genutzt, wie der Erfolg des Repositoriums arXiv eindrucksvoll belegt, in das Anfang 2015 der millionste Beitrag als Preprint eingestellt wurde. Mittlerweile wurde dieses Konzept durch eine unabhängige Initiative am Cold Spring Harbor Laboratory auch auf die Biowissenschaften (bioRxiv) und andere Gebiete erweitert. Auch wenn diese Beiträge nicht durch das Peer-Review-Verfahren begutachtet werden, nutzen viele Forscher das arXiv, um sich unmittelbar nach der Veröffentlichung eines Beitrags über neueste Ergebnisse konkurrierender Forschergruppen zu informieren. Die möglicherweise erst Monate später in einer Fachzeitschrift erscheinende, begutachtete Fassung spielt zur Information nur noch eine untergeordnete Rolle, vor allem, nachdem das arXiv ein eigenes Zitierungssystem eingeführt hat, um die dort eingestellten Beiträge eindeutig referenzierbar zu machen.

Warum verfahren Forscher derart und posten ihre Beiträge zunächst auf einem Repositorium, statt auf die Veröffentlichung in einer renommierten Zeitschrift zu warten? Neben dem Zeitgewinn bei der Veröffentlichung spielt auch der Anspruch auf Priorität eine immer größere Rolle, nicht nur in der biomedizinischen Forschung. Außerdem stehen die Beiträge auf diese Weise einem Diskurs unmittelbar zu Verfügung, der dann noch zu Anpassungen oder Ergänzungen des Textes in weiteren Versionen führen kann, statt irgendwann auf einmal wie in Stein gemeißelt in einer Fachzeitschrift zu erscheinen.

Trotz dieser Vorzüge hat dieses Verfahren in vielen Gebieten der Wissenschaft bislang nicht Einzug gehalten, was möglicherweise eher dem Fehlen einer entsprechenden technischen Plattform, als einer grundlegenden Skepsis der Forscher zuzuschreiben ist. Das immer wieder von Kritikern zu hörende Argument, ein System wie das arXiv mache nur Sinn, weil Physiker in riesigen Gruppen arbeiten und ohnehin alle Ergebnisse kennen und miteinander teilen, verkennt sowohl die Struktur der physikalischen Forschung, als auch die tatsächliche Nutzung des arXiv: Die überwiegende Mehrheit der Arbeit dort wurde von wenigen oder nur einem Autor verfasst, und die wenigsten Physiker arbeiten in der Hochenergiephysik. 2006 erhielt der Mathematiker Grigori Perelman für den Beweis der Poincaré-Vermutung, die er ausschließlich auf dem arXiv veröffentlicht hatte, die Fields-Medaille zugesprochen, die in der Mathematik den Stellenwert des Nobelpreises hat [Spi06]. Wäre es daher nun nicht folgerichtig, über ein System zur Dokumentierung und Verbreitung wissenschaftlicher Ergebnisse nachzudenken, das sich des Prinzip eines Preprint-Servers, wie zum Beispiel des arXiv, bedient, aber ergänzt um die bewährten Verfahren der Qualitätssicherung – und alles das mit den heutigen technischen, digitalen Möglichkeiten und nicht mit Prozessen, die vom Workflow her auf analogen Verfahren, wie der Drucktechnik aus dem letzten Jahrhunderts fußen?

Eine neue Plattform – das Gedankenexperiment

Wie müsste so ein System aussehen, das wir losgelöst von etablierten Verfahren und Geschäftsmodellen in der Verlagsbranche auf der grünen Wiese entwickeln könnten, der Physiker bezeichnet diese Herangehensweise als ein Gedankenexperiment? Wir benötigen zunächst einen virtuellen Raum, der es Forschern erlaubt, ihre neuesten Ergebnisse als Manuskript abzulegen. Das müsste nicht notwendigerweise eine einzige physikalische Plattform sein, da wir wissen, dass nahezu alle Institutionen hinreichende Serverkapazitäten besitzen, um diese Anforderung erfüllen zu können.  Es würde also ausreichen, lediglich die Metadaten mit den üblichen bibliografischen Angaben sowie den Abstract und einen Link auf das dezentral abgelegte Dokument auf der neuen Plattform zu speichern. Verwendet der Autor ein Repositorium wie zum Beispiel das arXiv, erfüllt dieses bereits ohnehin die Aufgabe des dezentralen Servers. Das Format, in dem die Beiträge auf dem Server oder Repositorium vorliegen, ist unerheblich, da es in jeder Form plattformunabhängig lesbar dargestellt werden kann, nachdem es als XML konvertiert wurde. Zusätzlich kann der Autor optional weitere Daten und Quellenmaterial auf seinem Instituts-Server mit dem abgelegten Beitrag verlinken, um die Überprüfbarkeit seiner Ergebnisse zu unterstützen – eine wichtige Voraussetzung zur Reproduzierbarkeit von Forschungsergebnissen heutzutage. Der Beitrag erhält sofort nach dem Ablegen auf der Plattform einen Document Object Identifier (DOI), der eine eindeutige Kennzeichnung und damit Zitierbarkeit des Artikels gewährleistet. Als sozusagen eine zentrale Anlaufstelle für neueste wissenschaftliche Ergebnisse „klammert“ die neue Plattform auf diese Weise nun die dezentral vorliegenden Arbeiten aus allen Forschungsgebieten. Um eine leichtere Auffindbarkeit der relevanten Arbeiten zu gewährleisten, kann der Nutzer über eine Volltextsuche navigieren, oder gezielt nach bestimmten Kriterien die Suche eingrenzen. Semantische Verfahren oder Nutzerprofile, wie wir es zum Beispiel von anderen Plattformen im Alltagsbereich kennen, unterstützen den Leser dabei, relevante Arbeiten zu finden, die möglicherweise von anderen Forschern mit dem gleichen Interessenschwerpunkt gelesen wurden – natürlich anonymisiert. Auf diese Weise findet man unter den wöchentlich hundert oder mehr neuen Arbeiten im eigenen Fachgebiet rasch die Beiträge, die die eigene Forschung am meisten unterstützen. Vorteilhaft ist hierbei auch, dass man hierbei nicht durch „Silos“ oder „Konserven“ (Degkwitz) in Form von Fachzeitschriften in seiner Suche eingeengt ist, oder die interdisziplinäre Recherche durch eine zu eng fixierte Themenstellung der verschiedenen Zeitschriften beschränkt wird.

Im zweiten Schritt wollen wir für unsere Plattform nun ein Instrument zur Qualitätssicherung einführen, das sich vom Grundsatz her am Verfahren des Peer Review orientiert, aber es um die heutigen Möglichkeiten digitaler Netzwerke und Kommunikation erweitert: Wissenschaftler können jeden Beitrag auf der Plattform positiv bewerten (ähnlich des „+1“-Konzeptes bei Google+ oder MathOverflow) oder einen Kommentar abgeben. Zusätzlich ist es möglich, einen vollständigen Gutachterbericht zu verfassen, der dieselben Elemente enthält, wie wir es vom klassischen Peer Review kennen, wie zum Beispiel Originalität, Neuheit der Ergebnisse, Vollständigkeit, Sprache und Form. Diese Kriterien können einzeln bewertet werden und werden dann zu einem Gesamturteil zusammengefasst. Zusätzlich muss der Gutachter eine (ausführliche) Stellungnahme zur Arbeit abgeben, wie in einem konventionellen Referee Report. Zwei Faktoren sind hierbei wichtig: sowohl die gutachterliche Stellungnahme, als auch ein Kommentar sind nicht anonymisiert, sondern werden jeweils mit dem vollen Namen des Verfassers gekennzeichnet, dessen vollständiges Forschungsprofil (über ORCID) einsehbar ist. Das ist wichtig, um größtmögliche Transparenz zu erzeugen, die im Falle einer verdeckten Identität von Gutachter oder Kommentaren nicht gewährleistet wäre. Dieses Verfahren heißt Open Peer Review (OPR) – erfolgt es wie in unserem Gedankenexperiment erst nach der Veröffentlichung wird es als (Open) Post-Publication Peer Review (PPPR) bezeichnet. PPPR wird zum Beispiel von F1000, The Winnower oder ScienceOpen angewandt, während OPR inzwischen auch von einer Reihe von neueren Plattformen oder Megajournalen unterstützt wird (PLoS Medicine, PeerJ).  Ein weiteres neues Element ist die Freiwilligkeit: Gutachter können spontan selbst entscheiden, ob sie einen Kommentar oder eine Stellungnahme verfassen wollen, werden also nicht vorher ausgewählt oder eingeladen (ScienceOpen). Es ist naheliegend, dass diese Bereitschaft eher bei einem Beitrag vorliegt, den ein Wissenschaftler aus eigenem Forschungsinteresse bereits ohnehin selbst gelesen hat, als bei einem Artikel, der ihm von außen von einer Fachzeitschrift zur Begutachtung neu angetragen wird – meist auch noch zum zeitlich unpassendsten Zeitpunkt. Das 2012 neu gestartete Open-Access-Megajournal F1000 Research geht allerdings nicht ganz so weit und lässt nur eingeladene Gutachter zum Post-Publication Peer Review zu. Ausserdem können nur die in diesem Megajournal eingereichten Publikationen, mittlerweile einige Tausend, begutachtet werden. Das Open-Science-Netzwerk ScienceOpen lässt dagegen prinzipiell die Kommentierung oder offene Begutachtung aller derzeit knapp 39 Millionen Fachbeiträge auf seiner Seite zu, unabhängig davon wann oder wo sie ursprünglich veröffentlicht wurden. Theoretisch kann dann ein Experte auch noch zwei Jahre nach der ersten Veröffentlichung eines Artikels ein Gutachten schreiben, also wenn zum Beispiel neue Daten oder eigene Ergebnisse vorliegen. Ein grosser Vorteil dieses Open PPPR Verfahren liegt daher in der zusätzlichen Qualitätssicherung, welche weiteren gibt es noch?

Was sind die Vorteile?

Ein weiterer, wesentlicher Vorteil in diesem offenen, transparenten Verfahren liegt in der Qualität der verfassten Stellungnahmen, die naheliegenderweise mindestens so gut, wenn nicht größer ist, als im klassischen anonymisierten Gutachterverfahren. Zu dieser Einschätzung kam knapp die Hälfte der befragten Wissenschaftler in einer Umfrage der STM-Organisation im Jahr 2008 [Gro14]. Die Bereitschaft, eine fundierte Stellungnahme abzugeben steigt vor allem dann, wenn das Gutachten zitierbar ist, was über die Vergabe eines DOI, wie beim Artikel selbst, realisiert werden könnte. Der Autor hat die Möglichkeit, auf die Kommentare oder Gutachten direkt zu antworten, wie wir es sonst nur vom geschlossenen Peer-Review-Verfahren kennen. Auf diese Weise entwickelt sich das Konzept vom klassischen Peer Review weiter zu einem regelrechten Diskurs, dem unverzichtbaren Element der Kommunikation unter Forschern, wie es die Wissenschaft über Jahrhunderte geprägt hat. Als Ergebnis des Feedbacks, das ein Autor auf diese Weise erhält, ist es möglich, Korrekturen oder Bearbeitungen vorzunehmen, die der Verbesserung des ursprünglichen Beitrags  dienen. Dabei ist dieser Prozess zeitlich vollkommen entkoppelt von der Veröffentlichung, er kann wenige Woche oder Jahre nach der ersten Veröffentlichung erfolgen, je nachdem ob und in welchem Maße eine Anpassung vom Autor für erforderlich gehalten wird. Die neuen Fassungen des Beitrags erhalten einen angepasste DOI, der die betreffende Version des Beitrages genau kennzeichnet und damit weiterhin ein exaktes Zitieren aller Fassungen gewährleistet.

Hier erkennen wir den großen Vorteil gegenüber klassischen Fachzeitschriften, in denen in der Regel lediglich zwei ausgewählte Gutachter zu einem bestimmten Zeitpunkt kurz nach der Einreichung des Manuskriptes eine Stellungnahme abgeben, in der natürlich spätere Erkenntnisse oder Hinweise weiterer Gutachter keinen Einfluss nehmen können. Der Beitrag steht danach „wie in Stein gemeißelt“ im Internet oder als gedruckter Zeitschriften-Band im Regal einer Bibliothek – Änderungen oder Korrekturen sind, wenn überhaupt, nur über „Comments“ oder als „Note added in Proof“ möglich – ein altmodisches Verfahren aus einer Zeit, als der druckbasierte Workflow kein anderes Verfahren zuließ. Nichtsdestotrotz ist es bemerkenswert, dass dieser Prozess von fast allen der 20.000 STM-Fachzeitschriften noch heute genauso unterstützt wird.

Altmetrics & Co. statt Journal Impact Factor

Die Unzulänglichkeit des Journal Impact Factors (JIF) wird mittlerweile von vielen Wissenschaftlern und Bibliothekaren bemängelt. Bereits 1997 wiesen Studien darauf hin, dass der JIF nicht zur Evaluierung von Forschung genutzt werden solle [Seg97]. Sogar der „Erfinder“ des JIF, Eugene Garfield, stellt 1999 fest, dass der Impact Factor kein perfektes Werkzeug zur Messung der Qualität von Fachartikeln sei [Gar99]. Dennoch nutzen bis heute Institutionen nach wie vor den JIF, um Forscher und Forschung miteinander zu vergleichen und zu bewerten. Ein verhängnisvoller Fehler, wie eine Zeitschrift selbstkritisch bemerkte, die besonders stark von dem Hype um den Impact Factor profitiert: Nature stellt 2005 fest, dass nur ein kleiner Bruchteil der veröffentlichten Arbeiten überproportional zum JIF beiträgt, im Betrachtungszeitraum also 89% des JIF gerade einmal nur von einem Viertel aller Veröffentlichungen erzeugt wurde [Nat05]. Das Editorial von Nature bestätigte außerdem die Feststellung von Eugene Garfield, was die irrige Korrelation zwischen Qualität eines Beitrages und dem Impact Factor der Zeitschrift, in der er publiziert wurde, betrifft [Nat05]. Statt des Impact Factors ist die Erfassung der Zitate pro Artikel eine weitaus sinnvollere Größe, wobei diese natürlich nur eindimensional die bloße Zahl der Nennungen einer Arbeit in neueren Veröffentlichungen erfassen kann. Denn diese Zahl enthält keinerlei Angaben darüber, ob es zum Beispiel eine positive oder negative Zitierung war, und was konkret zitiert wurde: nur ein bestimmtes Detail, wie eine Abbildung in der Arbeit oder die zusammenfassende Schlussfolgerung. Zusätzlich ist heute daher die Erfassung aller Erwähnungen des Artikels in sozialen Netzwerken hilfreich, wie es vom Londoner Start-Up Altmetric angebotenen wird und mittlerweile auch schon von einer Reihe etablierter Verlage und Fachzeitschriften als Article Level Metrics verwendet wird. Neben der Anzahl der Erwähnungen in sozialen Netzen wie zum Beispiel Twitter, Google+ oder Mendeley erhält der Leser eines Beitrags so auch Informationen über den Verfasser eines Tweets oder Posts, sowie dessen Inhalt. Diese zusätzlichen Informationen können dazu dienen, die Qualität eines Beitrages viel genauer und vor allem zeitnah zur Veröffentlichung einzuschätzen, als es bisher möglich ist. Außerdem könnte damit jedes Institut oder Community selbst individuelle Kriterien festlegen, die anhand dieser Article Level Metrics transparent und nachvollziehbar zu einer faireren Bewertung des wissenschaftlichen Beitrags einzelner Artikel zu einem Forschungsgebiet und damit letztlich der Leistung einzelner Forscher oder deren Institutionen führen.

Virtuelle Zeitschriften im 21. Jahrhundert: Collections statt Journals?

Ein letzter verbleibender Kritikpunkt an unserer neuen Plattform könnte darin liegen, dass die individuelle Zusammenstellung von Beiträgen wegfiele, wie sie Herausgeber oder Redakteure, tagtäglich vornehmen. Das ist zunächst richtig, aber in unserem Gedankenexperiment können wir auch dieses Merkmal klassischer Fachzeitschriften durch ein Verfahren ersetzen, das sich durch eine weitaus größere Flexibilität auszeichnet: Klassische Fachzeitschriften und deren Erscheinungsweise in Bänden (Volumes) oder Jahrgängen sind nämlich zeitlich und räumlich beschränkt auf den Zeitpunkt der Veröffentlichung und den Verlag, in dem sie erscheinen. Auf unserer Plattform wollen wir eine Möglichkeit schaffen, davon losgelöst jederzeit jeden Beitrag, den wir auswählen, in eine Collection einzufügen. Dieses flexible Konzept wurde von F1000 Anfang 2014 vorgestellt und wird von PLoS seit längerem praktiziert, bleibt aber in der Auswahl auf den auf der eigenen Plattform publizierte Artikel begrenzt. Diese räumliche Beschränkung heben wir nun dadurch auf, dass wir prinzipiell jeden Artikel, der zu irgendeinem Zeitpunkt auf irgendeinem Server oder in einer beliebigen Quelle erschienen ist, mit in eine Collection integrieren können. Diese Auswahl wird von einem oder mehreren Editors getroffen, welche ähnlich wie bei einem Herausgeber einer Fachzeitschrift ein bestimmtes Fachgebiet vertreten. Im Unterschied zu klassischen Herausgebern arbeiten diese jedoch nicht für den Verlag, der diese Zeitschrift herausgibt, sondern freiwillig und unabhängig. Diese Collections können jederzeit ergänzt oder verändert werden, und die Nutzung aller Beiträge wird kumulativ in ihrer Gesamtheit erfasst [Gro15]. Die von mir auf der Plattform ScienceOpen Mitte April 2015 erstellte Collection über das zugegebenermaßen sehr spezielle Thema „Perspectives of Scholarly Publishing“ mit inzwischen über 70 ausgewählten Fachartikeln anderer Autoren wurde innerhalb von zwei Monaten bereits mehr als 5.000-mal genutzt, nach zwei Jahren bereits über 70.000-mal. Ist das nicht genau die Sichtbarkeit, die sich Autoren wünschen? Und ist es nicht die Form der Auswahl und der Filterung, die sich ein Herausgeber wünscht? Unabhängig vom Erscheinungsdatum oder der Zeitschrift, in der die ausgewählte Publikation erschienen ist? Beiträge können weiterhin auch verschiedenen Collections zugeordnet werden, was ein weiterer entscheidender Unterscheid zu Fachzeitschriften ist und einen großen Vorteil im Zeitalter mehr und mehr interdisziplinär geprägter Forschung darstellt. Auf diese Weise können Leser Collections nutzen, um „gefiltert“ zum Beispiel die wichtigsten Arbeiten in einem Fachgebiet zu übersehen, wobei die Auswahl subjektiv durch einen Fachkollegen erfolgt. Hier übernehmen also Collections die Rolle des „Filterns“, was wir bisher nur von klassischen Fachzeitschriften kannten.

Open Access – Alles oder nichts?

Einen offensichtlichen Aspekt haben wir in der Diskussion unserer neuen Plattform bisher außer Acht gelassen, möglicherweise, weil er inzwischen eine fast selbstverständliche Forderung geworden ist, nicht nur der Forschungsförderung oder Politik, sondern auch vieler Forscher: Open Access. Das beschriebene Verfahren funktioniert nur dann, wenn sämtliche Informationen, Ergebnisse, Daten und Gutachten offen und frei zugänglich verfügbar sind. Klassische Abonnement-basierte Geschäftsmodelle, mit denen üblicherweise Fachzeitschriften jahrzehntelang an Bibliotheken verkauft wurden, stellen sich daher als unvereinbar dar mit der Aufgabe einer Plattform, welche einen freien und ungehinderten Diskurs von Wissenschaftlern ermöglichen soll. Bereits 2002 hat Peter Suber die wesentlichen Aspekte von Open Access und dessen Vorteile zusammengefasst [Sub02]. Verfolgt man die neuesten Entwicklungen in Holland und momentan auch auf EU-Ebene, ist es wohl weniger eine Frage des „ob“, als des „wann“ dieses Modell flächendeckend als Geschäftsmodell in der wissenschaftlichen Forschungslandschaft implementiert wird.

Die hier skizzierte Vision einer neuen Plattform zur wissenschaftlichen Kommunikation und Dokumentation ist nicht neu. Bereits 2011 stellte der britische Mathematiker und Fields-Medaillen-Gewinner Timothy Gowers ähnliche Gedanken zur Erweiterung des arXiv um ein offenes Gutachtersystem auf, die auf seinem Blog von vielen Forschern sehr intensiv diskutiert wurden [Gow11]. Bereits diese Beobachtung verrät, dass das von Blogs entlehnte Konzept auch im wissenschaftlichen Bereich funktioniert und eine vielversprechende Form zur Förderung des wissenschaftlichen Diskurses darstellen kann. Die Verknüpfung von Open Access und Open Peer Review wird von Nikolaus Kriegeskorte sehr ausführlich beschrieben und diskutiert [Kri12]. Die mittlerweile intensive Auseinandersetzung mit den hier beschriebenen Aspekten zeigt, dass diese Ideen nicht mehr nur Gedankenexperimente oder Hirngespinste einiger Open-Access-Fanatiker sind, sondern vielmehr eine immer näher rückende Realität. Mittlerweile nutzen eine Reihe von neu gegründeten Publikations-Plattformen oder Megajournals einzelne Elemente, wie zum Beispiel offenes Peer Review. Dennoch macht die Zahl der dort veröffentlichten Beiträge derzeit noch eine fast verschwindend kleine Zahl aus, gemessen an den etwa 1,8 Millionen publizierten Artikeln, die in klassischen STM-Fachzeitschriften 2014 veröffentlicht wurden. 2013 betrug zudem die Zahl der Open Access veröffentlichten Artikeln weltweit nur etwa  130.000 jährlich, was allerdings 32% mehr war, als im Vorjahr [Ste15]. Gelingt es, durch entsprechende Vorgaben der fördernden Organisationen oder Institutionen, alle Forschungsbeiträge (Gold) Open Access zu publizieren, wäre eine wesentliche Voraussetzung für die Umsetzung des beschriebenen Verfahrens geschaffen. Allerdings ist das keine notwendige Bedingung, um den Weg wissenschaftlicher Kommunikation im 21. Jahrhundert zu beschreiten.

Ein klares Fazit

Klassische Fachzeitschriften haben, zumindest in den Naturwissenschaften und der Medizin, ausgedient. Es gibt keinen technischen oder prozessualen Grund mehr, neue Forschungsergebnisse ausschließlich in Form von Fachzeitschriften zu veröffentlichen. Neue interdisziplinäre Plattformen, die auf vorhandenen Repositorien oder Servern an den Institutionen aufbauen, werden die Fachzeitschriften mittelfristig bis auf wenige Ausnahmen ersetzen. Erst mit diesen neuen Plattformen wird der wissenschaftliche Diskurs mittels der Möglichkeiten einer vernetzten Forscher-Community und den digitalen Technologien des 21. Jahrhunderts vorangetrieben. Jeder Wissenschaftler hat es heute selbst in der Hand, ob er weiterhin nach Prestige und Impact Factor die Zeitschriften auswählt, in denen er oder seine Mitarbeiter publizieren, oder ob er die weitaus größeren Chancen nutzen möchte, die sich durch die vielfältigen neuen Möglichkeiten sozialer Netzwerke und digitaler Infrastruktur heutzutage ergeben, wie wir bereits jetzt an der Nutzung der Plattform ScienceOpen sehen, auf der derzeit etwa 3 Millionen Artikel Open Access verfügbar sind und mit über 38 Millionen Artikeln auf dieser frei zugänglichen und kostenlos zu nutzenden Plattform insgesamt verknüpft sind.

Nachtrag:

Im Februar 2018 habe ich einen Blog verfasst, der sich mit der Vision und den konkreten Anforderungen an eine neue Open-Science-Plattform befasst. Dazu gibt es ein Google Doc, in dem alle Interessierten mit diskutieren und selbst Vorschläge machen können.

 

Alexander Grossmann ist Physiker und Professor für Verlagsmanagement an der HTWK University of Applied Sciences in Leipzig. Nachdem er 12 Jahre u.a. als Publishing Director und Vice President Publishing bei Wiley, Springer und De Gruyter gearbeitet hatte, gründete 2013 mit einem Partner aus USA die Open-Science-Plattform ScienceOpen.

Dieser Artikel wurde unter einer CC-BY 4.0-Lizenz veröffentlicht, die eine kostenlose Nutzung oder Weitergabe überall und jederzeit erlaubt. Die ursprüngliche Version dieses Beitrags erschien 2015 in der Zeitschrift Laborjournal und wurde nur minimal aktualisiert und angepasst.

Image Credit: CC 0

Referenzen:

[Bre14] Björn Brembs: Laborjournal 7/8, 22-25 (2014)

[Deg14] Andreas Degkwitz: Tagesspiegel, 16.6.2014 – http://www.tagesspiegel.de/wissen/wie-open-access-die-forschung-veraendert-weg-mit-den-wissenskonserven/10058452.html (2014)

[Spi06] SpiegelOnline, 22.8.2006 – http://www.spiegel.de/wissenschaft/mensch/jahrhundert-beweis-einsiedler-verschmaeht-mathe-medaille-a-432910.html (2006)

[Gro14] Alexander Grossmann: ScienceOpen Blog, 29.9.2014 – http://blog.scienceopen.com/2014/09/peer-review-mojo/ (2014)

[Gro15] Alexander Grossmann: ScienceOpen Research, DOI: 10.14293/S2199-1006.1.SOR-EDU.EYYXOX.v1 (2015) und 10.14293/S2199-1006.1.SOR-EDU.CLSSV9W.v1

[Sub02] Peter Suber: Journal of Biology, 1:3 (2002)

[Gow11] Timothy Gowers: Gower’s Weblog Blog, 31.10.2011 – https://gowers.wordpress.com/2011/10/31/how-might-we-get-to-a-new-model-of-mathematical-publishing/ (2011)

[Kri12] Nikolaus Kriegeskorte: Frontiers in Computational Neurosciences, 6 (79) 1-18 (2012)

[Ste15] Wim van de Stelt: Vortrag, Academic Publishing in Europe (APE-15), Berlin (2015)

[Seg97] Per O. Seglen: BMJ 314:497 (1997)

[Gar99] Eugene Garfield: CMAJ 161 (8), 979-980 (1999)

[Nat05] Editorial: Nature 435 (7045) 1003-1004 (2005)

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s