Dies ist ein Beitrag für die Blogparade #dhiha5: „Forschungsbedingungen und Digital Humanities: Welche Perspektiven hat der Nachwuchs?“

Bisher gilt für Zeitschriften in der Wissenschaft das Prinzip: erst Peer-Review, dann Veröffentlichung. So ist die Veröffentlichung selbst schon ein Maßstab für Qualität, ebenso wie der Name und der Ruf der Zeitschrift und der Ruf der Wissenschaftler, die den Artikel vor der Veröffentlichung verbessern. (Bei Monographien ist das etwas anders, da erscheinen die Rezensionen erst nach der Veröffentlichung).

Im Rahmen der „Digital Humanities“ hört man häufiger den neuen Leitspruch: „Publish first, filter later.“ Egal, ob es ein großer oder kleiner Gedanke ist, er soll publiziert werden, und nie war das einfacher als in der digitalen Welt der Einsen und Nullen. Gefiltert wird dann im Nachhinein über RSS-Feeds, Kommentare, Verlinkungen in Blogs und sozialen Netzwerken wie Facebook, Twitter, Google Plus und Academia.edu, sodass am Ende nur noch die wissenschaftlichen „Goldstückchen“ übrig bleiben.

Im Prinzip klingt das sehr vernünftig. Auch beim Brainstorming werden zuerst alle Ideen ohne Wertung gesammelt, das hebt die Kreativität. Erst im zweiten Schritt werden alle Ideen in der Diskussion bewertet und gegebenenfalls verworfen. Beim Ideenaustausch von Mensch zu Mensch funktioniert das auch ganz gut.

Oft wird aber vergessen, welche zentrale Rolle Algorithmen beim „digitalen Goldwaschen“ spielen. Algorithmen lösen für uns das Problem, den Überblick in die Flut der Informationen zu behalten. Ich gebe mal zwei Beispiele für Algorithmen:

  • Google-Suche: Wir geben ein paar Begriffe in das Suchfeld ein. Der Algorithmus von Google berechnet die Relevanz und zeigt uns auf der ersten Seite die wichtigsten Einträge an.
  • Facebook: 300 Freunde posten jeden Tag hunderte Beiträge, Links und Fotos. In unserer Neuigkeiten-Timeline tauchen aber nicht alle chronologisch-systematisch auf, sondern sie werden von Facebook vorgefiltert.
  • Twitter: Immer wieder sind Accounts darunter, die Spam oder Links auf Viren verbreiten. Algorithmen lesen die Tweets mit, sammeln Spam-Meldungen und sorgen irgendwann dafür, dass Spam-Accounts möglichst schnell gesperrt werden und die anderen Nutzer nicht stören.

Natürlich beeinflussen wir durch Wortwahl, Kommentare, Links, Likes, Faves und Anklicken von Spam-Buttons die Ergebnisse dieser Algorithmen. Und nur wenn die Algorithmen meistens anzeigen, was wir wollen, sind wir auf Dauer zufrieden mit den Ergebnissen. Aber: Diese Algorithmen sind zentraler Teil der Geschäftsmodelle für private Firmen und müssen geheim bleiben.

Das heißt auch, dass wir ihre Qualitätskriterien nicht verstehen und überprüfen können. Und diese geheimen Qualitätskriterien entscheiden immer häufiger darüber, welche wissenschaftlichen Erkenntnisse sichtbar werden und welche nicht.

Vier fiktive Beispiele sollen zeigen, wie Algorithmen konkret auf die Wissenschaft wirken können:

  • Ein Mitarbeiter einer Wissenschaftsorganisation sucht Teilnehmer für eine Podiumsdiskussion. Er sucht bei Google nach dem Thema und findet dazu drei Wissenschaftler auf den ersten drei Seiten der Suchergebnisse. Die lädt er später auch ein. Wichtige Wissenschaftler ohne Internetpräsenz und Google+-Account hat der Mitarbeiter nicht eingeladen, weil sie bei den Suchmaschinen-Ergebnissen weiter hinten waren. So war auch dieser Tweet gemeint:
  • Eine Nachwuchswissenschaftlerin bewirbt sich auf eine wissenschaftliche Mitarbeiterstelle. Bei Google tauchen zuerst Nachrichtenseiten auf, bei denen die Bewerberin in ein schlechtes Licht gerückt wird. Die Richtigstellungen sind bei Google erst auf Seite 10 aufgelistet. Aufgrund der schlechten Online-Reputation ist das Auswahlkomitee skeptisch.
  • Eine Wissenschaftlerin hat ein neues Paper geschrieben. Sie veröffentlicht den Link bei Facebook, um Ihre „befreundeten“ Kollegen darauf aufmerksam zu machen. Keiner „liked“ den Beitrag. Erst, als sie an den gleichen Text ein Eulenfoto anhängt, schreiben ihre Freunde Kommentare, liken und klicken auf den Link zum Paper. Seitdem hängt sie immer ein süßes Bild an ihre Texte, weil er erst dann bei ihren Kollegen in der Neuigkeiten-Liste sichtbar wird.
  • Ein Nachwuchswissenschaftler möchte bei einer Konferenz, die er zu Hause über Livestream verfolgt, mittels Twitter einen wichtigen Punkt zur Diskussion ergänzen und auf sein gerade neuerschienenes Buch dazu verlinken. Aus unerfindlichen Gründen wird kurz vorher sein Twitter-Account gesperrt. Es dauert zwei Wochen, bis der Account wieder frei wird, ohne dass eine klare Begründung für die Sperrung existiert. Nach der Tagung wird das Buch eines Kollegen rezensiert, der sich auf der Twitterwall erfolgreich positionieren konnte.
Three owls
Quinn Dombrowski: Three owls, CC-BY-SA 2.0 US

Das sind nur einzelne, mehr oder weniger wirklichkeitsnahe Beispiele. Aber immer häufiger nehmen Algorithmen für uns Bewertungen vor, bei denen wir aber nicht mehr verstehen und kontrollieren können, wie diese Bewertungen zustande kommen. Diese Bewertungen bewusst zu manipulieren ist dadurch vielleicht schwierig, aber doch nicht unmöglich. Also: Postet mehr Eulenbilder!

Wie können wir also wissenschaftliche Qualität in Zukunft evaluieren? Müssen wir die Algorithmen öffentlich machen? Müssen wir private Plattformen mit geschäftlichen Interessen meiden? Solche und andere Fragen werden am Montag und Dienstag (11.-12.06.2013) bei der Tagung #DHIHA5 (Digital Humanities á l’Institut Historique Allemand) in Paris diskutiert. Kommentare, Ideen, Anregungen dazu sind hier und über den Twitter-Hashtag #DHIHA5 sehr willkommen!

Veröffentlicht von Sascha Foerster

Sascha Foerster ist Geschäftsführer der Bonn.digital GbR, Social-Media-Berater, Community Manager, Moderator für Barcamps und Speaker bei Digital-Events.

Beteilige dich an der Unterhaltung

5 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert