Im August, als viele der bei Wikipedia aktiven Beitragsschreiber am Strand lagen, lief ein einzelner Verfasser zur Hochform auf. Er schrieb über Abaraeus cuneatus, eine Käferart, erstmals beschrieben 1903, keine Unterarten, über Azteca subopaca, eine Ameise, 1899 entdeckt, über Abborrhåltjärnen, ein See in Schweden, 0,0825 Quadratkilometer groß. Von Awie Aades bis Zwie Zyzzyva fügte der Autor in einem einzigen Monat des vergangenen Jahres 216664 Texte der schwedischen Wikipedia-Site hinzu, rund 7200 Artikel pro Tag. So viel schafft ein guter Journalist vielleicht in seinem ganzen Leben.
Lexikon geschrieben von Logarithmen: Etliche Artikel von Wikipedia entstammen einem Computerprogramm
Der Autor heißt „lsjbot“ und ist kein Mensch, sondern ein Computerprogramm. Unermüdlich wie ein Roboter durchforstet die Software Datenbanken wie das offizielle Artenverzeichnis der Biologie, den „Catalogue of Life“. Aus derlei Beständen trägt er in Millisekunden Fakten wie Entdecker, Verbreitung und Gattung zusammen, sucht geeignete Bilder dazu, strickt nach einer Schablone einen Text darum und veröffentlicht alles im Netz. Ein Mensch ist in diesem Prozess nicht mehr erforderlich. Dank lsjbot ist so gut wie jede bekannte Lebensform, jedes noch so seltene Insekt im schwedischen Wikipedia aufgeführt. Zugleich ist der Software-Roboter im philippinischen Wikipedia in den Sprachen Cebuano und Waray-Waray bewandert. Dort schreibt er vor allem über kleine philippinische Orte, die in keinem Reiseführer stehen.
Kürzlich knackte lsjbot die Marke von 2,7 Millionen Texten. Sein Programmierer, der Schwede Sverker Johansson, kann damit in Anspruch nehmen, für 8,5 Prozent aller Wikipedia-Einträge weltweit verantwortlich zu sein, mehr als jeder andere Mensch. Johansson hat nach eigenen Angaben Universitätsabschlüsse in Linguistik, Ingenieurwesen, Wirtschaftswissenschaften und Teilchenphysik, auch Theologie habe er studiert. Der 53-Jährige unterrichtet an der Universität Jönköping, beschreibt sich aber selbst als „chronischen Studenten“. Sein Hauptziel im Leben sei, „alles zu lernen“.
Womöglich ist Johansson irgendwann klar geworden, dass dieses Ziel für Menschen, selbst für einen eifrigen Lerner wie ihn, unerreichbar ist. Vielleicht setzt er deshalb auf eine Software wie lsjbot, die seit nunmehr zwei Jahren das Wissen der Welt sammelt und bei wikipedia.se abliefert.
Viele menschliche Wikipedia-Autoren sehen den Einzug der Roboter allerdings skeptisch. „Die deutschsprachige Wikipedia-Community hat sich eindeutig gegen Bots ausgesprochen, die Artikel neu anlegen“, sagt Jan Apel von der Wikimedia-Stiftung, der die Verwaltung der Enzyklopädie obliegt. Computergenerierte Texte nennen manche Autoren abschätzig Botikel. So ganz frei von Roboter-Software ist indes auch das deutschsprachige Wikipedia nicht. Rund 63 Bots pflegen in der deutschen Ausgabe das menschliche Wissen – sie berichtigen fehlerhafte Links, ergänzen Bildinformationen, archivieren und sichern die Seite regelmäßig. In Tausenden Artikeln über Städte aktualisieren Bots zum Beispiel automatisch die Einwohnerzahlen. Sie erledigen den Kleinkram, dessen menschliche Autoren bei mittlerweile 1,7Millionen Artikeln in deutscher Sprache nicht mehr Herr werden. Beim Saubermachen, Aufräumen und Sortieren sind die Roboter-Helfer hochwillkommen.
Doch anders als die Schweden oder auch die Holländer – hier hat lsjbots schärfster Konkurrent „Joopwikibot“ schon 500000 Artikel verfasst – ziehen die Deutschen eine scharfe Grenze: Selbst schreiben dürfen die Roboter nicht. Die meisten der Bot-Artikel seien „äußerst ernüchternd“, sagt Jan Apel, „bestenfalls reine Faktensammlungen nach dem Schema ’A ist eine Gemeinde von Bund hat XEinwohner’. Dazu eine Quelle und eine Infobox. Ende des Artikels.“ Der Informationsgehalt dieser Textstummel sei oft gering. Außerdem generierten die künstlichen Einträge oft zusätzliche Arbeit, weil jemand die Artikel später warten und auf Qualität kontrollieren müsse. „Ich mache das, um online absolute Demokratie zu schaffen“, hielt lsjbot-Erfinder Johansson im Wall Street Journal dagegen. Viele der Grundgerüste könnten Autoren helfen, darauf aufzubauen. Als etwa 2012 der Taifun Yolanda über die Philippinen fegte, starben auch in der 40000-Einwohner-Stadt Basey Menschen. Lsjbot hatte bereits einen Artikel über die Stadt verfasst, das habe Journalisten die Berichterstattung erleichtert, so Johansson.
Überhaupt: Auch Journalismus ist keine rein menschengemachte Angelegenheit mehr. Manche Medien wie die Los Angeles Times setzen bereits auf Roboterautoren. Ereignet sich zum Beispiel in Kalifornien ein Erdbeben, wird dessen Stärke von Überwachungssystemen automatisch erfasst. Die Daten gehen an den Katastrophenschutz und auch an die Zeitung. Nachts und am Wochenende, wenn kaum jemand in der Redaktion arbeitet, kümmert sich ein Computer um solche Daten und kreiert Textstücke, die dann auf der Webseite latimes.com erscheinen: „Am Ort Xkam es um YUhr zu einem Erdbeben der Stärke Z.“ Redakteure kümmern sich so schnell wie möglich darum, den Artikel auszubauen. Eine ähnliche Technik verwendet die LATimes bei Morden – hier stammen die Daten vom Gerichtsmediziner und von der Polizei. Mittlerweile ist die Times ein Vorbild für weitere Nachrichtenseiten in den USA. Der „gute, alte Journalismus“ werde deshalb aber nicht abgeschafft, sagt der Times-Programmierer Ken Schwencke. „Man muss immer noch nachträglich recherchieren, ausbauen und den guten alten Job machen.“ Auch lsjbot-Erschaffer Johansson betont den menschlichen Faktor: „Ich bin eine Person, derjenige, der ihn gebaut hat“, sagte er dem Wall Street Journal. „Ohne meine Arbeit würden alle diese Artikel nicht existieren.“