Neue Messmethode: Forscher-Ranking sieht Charité an der Spitze

Von

Welches Ranking zählt? Research Gate will mit eigener Metrik messen Zur Großansicht

Welches Ranking zählt? Research Gate will mit eigener Metrik messen

"Gefällt mir"-Button statt Impact Factor: Ein Berliner Start-up will mit einer neuen Methode den Grad wissenschaftlicher Reputation besser abbilden. ResearchGate hat so nun eine Top-Ten-Liste deutscher Universitäten erstellt. Ganz vorn ist die Berliner Charité - aber wenig begeistert.

Hamburg - Es ist sicher nicht leicht, in der akademischen Welt einen Wandel zu bewirken. Ijad Madisch weiß das. Der Havard-Absolvent hatte seinen Plan, eine Internetplattform eigens für Forscher zu schaffen, zunächst in Deutschland präsentiert. Keiner seiner Professoren konnte sich für die Idee erwärmen, also suchte der Sohn syrischer Eltern in den USA nach Investoren. Zurück kam er mit dem Support von Matt Cohler, Mitgründer des Karrierenetzwerks LinkedIn und Facebook-Mitarbeiter der ersten Stunde.

Das war 2008. Heute hat ResearchGate nach eigenen Angaben schon über 2,7 Millionen Mitglieder, die sich über ihre Arbeit austauschen und sich und ihre Studien gegenseitig bewerten. Kürzlich besuchte die Bundeskanzlerin auf ihrem Trip durch die neuen Medienwelten die Büros des Start-ups, das Kritiker gern "Facebook für Wissenschaftler" nennen. Madisch stört das kaum, er berichtet lieber Erfolgsgeschichten. Wie die von Rick, dem philippinischen Studenten, der einen Biokraftstoff entwickelte und über Research Gate einen Käufer aus Spanien fand. Oder die der Krebsforscherin, die im Austausch endlich die Formel für ihr Medikament entdeckte.

"Wir machen die Wissenschaft schneller", ist Madisch überzeugt. Nun will er einen Grundpfeiler der Wissenschaften stürzen: Dem renommierten Impact Factor, einem wichtigen Bewertungsmaßstab für wissenschaftliche Reputation, will er seinen eigenen Score gegenüberstellen. Damit tritt der 32-Jährige, gern mit Mütze und Geek-Brille unterwegs, gegen ein über hundert Jahre etabliertes System an. Dieses misst, vereinfacht gesagt, wie oft die Arbeit eines Forschers in einem renommierten Fachblatt wie "Science" oder "Nature" zitiert wurde.

Fotostrecke

5  Bilder
Top Ten der Forschung: Research Gate will mit eigenem Maßstab messen
Die erste Bewertung internationaler Forschungseinrichtungen durch Research Gate liegt nun vor und überrascht - allerdings auch die, die sich plötzlich auf der Top-Ten-Liste wiederfinden. So kann sich die Berliner Charité plötzlich Spitzenreiter der deutschen Forschung nennen und zieht locker an der Universität Heidelberg vorbei (Platz 2). Dennoch herrscht in Berlin Verwirrung. "Wir kennen diesen Score nicht, und wir kommentieren ihn nicht", ist die knappe Antwort.

Bei der Goethe-Universität in Frankfurt, ebenfalls laut neuem Score unter den Top Ten deutscher Universitäten, ist man zwar weniger reserviert, aber genauso überfragt. "So sehr wir die Einstufung begrüßen, so wenig sehen wir uns angesichts der Vielfalt von Rankings und Ranglisten derzeit imstande, die Seriosität und Methodik dieser Rangfolge gegenüber einer Impact-Bewertung abschätzen zu können", sagt der Uni-Sprecher. Die Universitäten München, Heidelberg und Hamburg geben erst gar keinen Kommentar ab.

Tatsächlich ist der Impact Factor in Rankings zur Bewertung der Reputation von Forschungseinrichtungen nur ein Messfaktor von vielen. Gezählt wird meist die Zahl der Nobelpreisträger oder die Höhe der Drittmitteleinwerbung. Der Score von Research Gate zeigt hingegen die aktuelle Stellung von Institutionen im Vergleich untereinander - rein von ihrer Forschungsleistung her, sagt Sprecherin Danielle Bengsch. Man erfahre dadurch viel besser, was die Wissenschaftsgemeinschaft von einer Institution hält.

Die neue Metrik beziehe die gesamte Forschung eines Wissenschaftlers mit ein, also wissenschaftliche Fachartikel genauso wie Roh- und Negativdaten mit einem besonderen Fokus auf im Internet publizierten Daten. Kritiker halten diese allerdings für wenig aussagekräftig. Die meisten der über zwei Millionen Mitglieder seien zwar bei Research Gate angemeldet, sie würden die Plattform aber selten bis gar nicht nutzten.

"Falsch", sagt Bengsch. Laut eigener Auswertung sei mehr als ein Drittel der Mitglieder mindestens einmal im Monat auf der Seite. Und der eigene Score sei, wie auch die gesamte Entwicklung der Plattform, eben kein fertiges Produkt, sagt Ijad Madisch. Als nächstes möchte er, dass Forscher ebenfalls direkt auf Research Gate publizieren, wie dies auf anderen sogenannten Open-Access-Seiten wie der "Public Library of Science" (Plos) erfolgt, die Publikationen kostenlos bereitstellen und mitunter viele Fachrichtungen vereinen. Ob die Wissenschaftler da mitmachen und sich die Plattform tatsächlich durchsetzen kann, bleibt angesichts der Reaktionen von Seiten der Unis abzuwarten.

Diesen Artikel...
  • Aus Datenschutzgründen wird Ihre IP-Adresse nur dann gespeichert, wenn Sie angemeldeter und eingeloggter Facebook-Nutzer sind. Wenn Sie mehr zum Thema Datenschutz wissen wollen, klicken Sie auf das i.
  • Auf anderen Social Networks teilen

Forum - Diskutieren Sie über diesen Artikel
insgesamt 8 Beiträge
Alle Kommentare öffnen
    Seite 1    
1. Wenig Aussagekraft
tl-hd 11.04.2013
Man kann sich über die ganzen Rankings sicher streiten, weil die Aussagekraft meist begrenzt ist. Dieses Ranking hier hat aber meiner Ansicht nach deutlich weniger Aussagekraft als andere Rankings, weil hier lediglich die ResearchGate-Scores der Wissenschaftler der jeweiligen Institute aufaddiert werden. Kurz gesagt: Hier ist nicht unbedingt die beste Uni vorne, sondern die Uni, deren Mitarbeiter auf ResearchGate die größte Aktivität zeigen. Punkte gibt es z.B. für Publikationen (aber nur für die, die auch auf ResearchGate erfasst sind) und für Beiträge in den ResearchGate Foren. Dazu kommt noch, dass Wissenschaftler häufig die Uni wechseln (z.B. Doktorarbeit an Uni X, dann also PostDoc zur Uni Y und später zur Uni Z usw.). Soweit ich das sehe, ordnet ResearchGate aber alle Publikationen eines Wissenschaftlers seiner aktuellen Uni zu, unabhängig davon, an welcher Uni er zur Zeit der Publikation gearbeitet hat. Das wäre in etwa so, als wenn man z.B. Autobauer nicht nach der Anzahl der verkauften Autos oder dem Umsatz bewerten wollte, sondern danach, wie aktiv die Mitarbeiter auf einer bestimmten Internetplattform zum Thema Autos sind. Die Verzerrung sieht man schon, wenn man sich z.B. die Rangliste für Nordamerika ansieht. Dort ist laut ResearchGate das NIH auf Platz 1 und Harvard auf Platz 2. Bei den von ResearchGate erfassten Publikationen hat aber Harvard einen mehr als doppelt so hohen Wert wie das NIH. Die Aktivität der NIH-Mitarbeiter auf ResearchGate scheint dies aber mehr als wettzumachen. Letzten Endes ist dieses Ranking also nur ein Weg, um Wissenschaftler zur Aktivität auf ResearchGate zu animieren. Die Aussagekraft ist jedenfalls deutlich geringer als bei anderen Rankings.
2. charity lady
cassandros 11.04.2013
Zitat von sysopResearch Gate hat so nun eine Top-Ten-Liste deutscher Universitäten erstellt. Ganz vorn ist die Berliner Charité - aber wenig begeistert.
Die Charite hat auch so ihre ... Problemchen und Schattenseiten: - Potenzmittel-Skandal: Charité-Professor räumt seinen Posten - SPIEGEL ONLINE (http://www.spiegel.de/wissenschaft/mensch/potenzmittel-skandal-charite-professor-raeumt-seinen-posten-a-649672.html) - Forschung und Finanzen: Die merkwürdigen Mittelchen des Charité-Professors Kiesewetter - SPIEGEL ONLINE (http://www.spiegel.de/wissenschaft/mensch/forschung-und-finanzen-die-merkwuerdigen-mittelchen-des-charite-professors-kiesewetter-a-615211.html) Es ist nicht alles Gold, was glänzt!
3. Der Sinn solcher Rankings
Feindbild_Mensch 11.04.2013
... geht gegen null. Natürlich schneiden immer die großen und alten Universitäten gut dabei ab, weil einfach mehr Leute irgendwo in Kontakt kamen. Mal ein Beispiel - frage an alle Professoren in Deutschland nach der Reputation deutscher Unis. Drei Antwortmöglichkeiten 1. Antwort: wird immer die eigene Uni sein, alles andere wäre ja dämlich. 2. und 3. Antwort: werden nach eigenen Berührungspunkten ausgewählt. So und nun - wer bekommt bei so einer Umfrage wohl mehrheitlich Stimmen?
4. was soll der Beitrag eigentlich sagen
gudddi 11.04.2013
Aha, also ein Ranking, von dem die Gerankten nichts wissen und dessen Aussagekraft fragwürdig ist. Das ist ja mal ein wirklich wichtiger Beitrag. Anstatt die Problematik des Impact Factors zu benennen, heißer Titel, laue Recherche, kaum Inhalt - aber das scheint seit längerem der Trend bei spon wissenschaft.
5. Beispiel
vitalik 11.04.2013
Naja, die Geschichte ist ja nicht so toll. Ein Uni-Absolvent, denn die Professoren nicht unterstütz haben, hat sich einen Investor gesucht und ne Seite (Social Network) aufgebaut und dann kommen gleich die Beispiele, wie toll das Netzwerk ist. Da wurde Menschen zusammengebracht und Investoren gefunden, die ja sonst nie zusammenfinden würden. Glaubt das irgendeiner?
Alle Kommentare öffnen
    Seite 1    
News verfolgen

HilfeLassen Sie sich mit kostenlosen Diensten auf dem Laufenden halten:

alles aus der Rubrik Wissenschaft
Twitter | RSS
alles aus der Rubrik Mensch
RSS
alles zum Thema Open Access
RSS

© SPIEGEL ONLINE 2013
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH



  • Drucken Senden
  • Nutzungsrechte Feedback
  • Kommentieren | 8 Kommentare
Fotostrecke
Streit um Abo-Gebühren: Forscher revoltieren gegen Fachverlag