Forschung Wer Daten publik macht, wird öfter zitiert

Freier Zugang zu Forschungsergebnissen - das fordern immer mehr Wissenschaftler und Politiker. Eine Analyse von Gen-Studien zeigt nun, dass sich Offenheit lohnt. Wer die Quelldaten seiner Untersuchung publiziert, wird häufiger von Forscherkollegen zitiert.

Gensequenz: Öffentliche Daten werden von auch von Kollegen genutzt
DPA

Gensequenz: Öffentliche Daten werden von auch von Kollegen genutzt


Das Teilen von Erkenntnissen und Informationen erleichtert die Arbeit von Forschern. Auch deshalb sind in den vergangenen Jahren immer mehr Open-Access-Journale entstanden, in denen Wissenschaftler Fachartikel lesen können, ohne dafür zahlen zu müssen. Gratis sind diese Magazine trotzdem nicht, denn anstelle der Leser zahlen die Autoren für die Prüfung ihrer Artikel und für das Bereitstellen auf einem Webserver.

Ein neuer Trend in der Wissenschaft ist auch Open Data. Forscher veröffentlichen dabei die Rohdaten ihrer Studie. Dass sich eine solche Offenheit auszahlt, haben nun zwei Wissenschaftler von der Duke University in Durham (USA) gezeigt. Wer seine Daten publik mache, dessen Studien würden häufiger von Kollegen zitiert, schreiben Heather Piwowar und Todd Vision im Fachblatt "PeerJ".

Piwowar und Vision hatten 10.555 Artikel aus den Jahren 2001 bis 2009 analysiert, in denen es um die Expression von Genen ging. Studien mit frei zugänglichen Quelldaten seien im Schnitt neun Prozent häufiger zitiert worden. Zitate sind in der Wissenschaft eine wichtige Währung: Je mehr ein Artikel davon einheimst, als umso anerkannter gilt er. Wobei auch noch unterschieden wird, in welchen Fachmagazinen die Zitate auftauchen. Jene mit hohem Einfluss (Impact Factor) sind besonders wichtig.

Die Untersuchung ergab übrigens auch, dass Forscher ihre eigenen, frei zugänglichen Daten im Schnitt auch noch zwei Jahre nach der Erstveröffentlichung in weiteren Studien verwendeten. Andere Forscher, also Dritte, nutzen öffentlich zugängliche Quelldaten sogar noch mindestens sechs Jahre nach ihrer Erstveröffentlichung.

"Es ist beruhigend zu sehen, dass sich das Teilen von Daten für Forscher auszahlt", sagte der Biologe Vision. Laut seiner Analyse nimmt die Wiederverwendung von Forschungsdaten sogar zu. Nicht nur die Zahl der Artikel steige, die sich auf bereits publizierte Daten bezögen, sagte Piwowar, auch die Anzahl der darin verwendeten Datensätze. Von 2002 bis 2004 seien im Schnitt nur ein bis zwei Datensätze pro Artikel wiederverwendet worden. 2010 hätten Autoren in einem Viertel der Artikel auf drei oder mehr Datensätze zurückgegriffen.

hda

Forum - Diskutieren Sie über diesen Artikel
insgesamt 6 Beiträge
Alle Kommentare öffnen
Seite 1
ohne.merc 01.10.2013
1.
Es sollte sowieso zum Standard werden, dass zu einer Publikation immer auch freier Zugang zu den zugrundeliegenden Daten gehört. Ganz besonders natürlich bei öffentlich finanzierten Forschungsprojekten. Hier verbietet es sich sogar, irgendeinen Teil der Forschungsergebnisse zurückzuhalten. Die Öffentlichkeit zahlt, die Öffentlichkeit bekommt.
spon-facebook-10000123096 01.10.2013
2. optional
sollte eigentlich der Standard sein. Ich will nicht wissen wie viel "Forschungsergebnisse" auf gefälschten/missinterpretierten Daten basieren. Damit will ich jetzt übrigens nicht die gesamte Wissenschaft infragestellen. Aber es gibt nunmal überall schwarze Schafe.
hoverfly 01.10.2013
3. Eindimensional
Dieser Artikel erscheint mir ziemlich eindimensional und unterstreicht gerade dadurch, warum es viele Wissenschaftler gibt, die ihre Daten eben nicht unmittelbar frei geben: Solche Daten sind nicht selten mit ungeheurem Aufwand (und viel Steuergeldern) über Jahre hinweg gesammelt worden und verhelfen den Forschern nur dann eine Zukunft in der Wissenschaft, wenn sie diese selbst als Erstautoren auswerten können - und das kostet Zeit. Sie haben absolut nichts davon, irgendwo in der Referenzliste eines Theoretikers aufzutauchen, der die Daten aus dem Internet abgreift: Die teuer steuerfinanzierte Studie ist dann verpufft, weil Berufungskommissionen sich an den Nature/Science-Papern der Computerzampanos blind starren (und nicht verstehen). Viel gravierender aber ist, dass die meisten Daten mit bestimmter Fragestellung und unter speziellen Randbedingungen ermittelt werden und damit nur eingeschränkte Aussagen zulassen. Diese Aspekte gehen aber weitgehend verloren, wenn Daten dutzender Studien in den in SPON so gern zitierten Metastudien verwurstet werden, - wenn also gewissermaßen Äpfel mit Birnen verglichen werden. 9% mehr Zitate ist da ein arg kleiner Effekt; spannender wäre zu erfahren, was es wissenschaftlich bringt - aber dazu müsste man sich ja mit Inhalten beschäftigen, für die der Computer leider noch zu dumm ist...
illoran 01.10.2013
4. Schwierig
Zitat von ohne.mercEs sollte sowieso zum Standard werden, dass zu einer Publikation immer auch freier Zugang zu den zugrundeliegenden Daten gehört. Ganz besonders natürlich bei öffentlich finanzierten Forschungsprojekten. Hier verbietet es sich sogar, irgendeinen Teil der Forschungsergebnisse zurückzuhalten. Die Öffentlichkeit zahlt, die Öffentlichkeit bekommt.
Das ist nicht selten leichter gesagt als getan. Ich arbeite selbst in einem Bereich in dem alle Resultate auf Computersimulationen basieren, was dazu führt das eine einzelne Publikation häufig auf mehreren hundert Gigabyte Rohdaten beruhen. Die sind natürlich alle gebackupt und Katalogisiert so das auf Nachfrage Einblick gewährt werden kann. Aber diese Menge von Rohdaten der gesamten Öffentlichkeit zur Verfügung zu stellen ist eben so sinnfrei wie technisch utopisch. Bevor man sich an derartige Vorhaben wagt sollte man vielleicht zunächst ernstere Probleme bekämpfen die überhaupt erst zum frisieren von Forschungsdaten führen. Namentlich Impact Faktoren und Publikationsdruck.
hoverfly 01.10.2013
5. Eindimensional
Dieser Artikel erscheint mir ziemlich eindimensional und unterstreicht gerade dadurch, warum es viele Wissenschaftler gibt, die ihre Daten eben nicht unmittelbar frei geben: Solche Daten sind nicht selten mit ungeheurem Aufwand (und viel Steuergeldern) über Jahre hinweg gesammelt worden und verhelfen den Forschern nur dann eine Zukunft in der Wissenschaft, wenn sie diese selbst als Erstautoren auswerten können - und das kostet Zeit. Sie haben absolut nichts davon, irgendwo in der Referenzliste eines Theoretikers aufzutauchen, der die Daten aus dem Internet abgreift: Die teuer steuerfinanzierte Studie ist dann verpufft, weil Berufungskommissionen sich an den Nature/Science-Papern der Computerzampanos blind starren (und nicht verstehen). Viel gravierender aber ist, dass die meisten Daten mit bestimmter Fragestellung und unter speziellen Randbedingungen ermittelt werden und damit nur eingeschränkte Aussagen zulassen. Diese Aspekte gehen aber weitgehend verloren, wenn Daten dutzender Studien in den in SPON so gern zitierten Metastudien verwurstet werden, - wenn also gewissermaßen Äpfel mit Birnen verglichen werden. 9% mehr Zitate ist da ein arg kleiner Effekt; spannender wäre zu erfahren, was es wissenschaftlich bringt - aber dazu müsste man sich ja mit Inhalten beschäftigen, für die der Computer leider noch zu dumm ist...
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2013
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.