Wikipedia ist eines der erfolgreichsten Gemeinschaftsprojekte der Geschichte. Es ist die größte Enzyklopädie, die jemals von Zehntausenden Freiwilligen, sogenannten Wikipedianern, erstellt, geschrieben und bearbeitet wurde. Obwohl jeder jede Seite bearbeiten kann, verlassen sich Millionen von Benutzern auf der ganzen Welt immer noch darauf als erste Informationsquelle sowie für die Überprüfung von Fakten und eingehende Recherchen. Da Wikipedia vollständig auf die Bemühungen seiner ehrenamtlichen Redakteure angewiesen ist, kann sein Erfolg insbesondere durch toxische Sprache beeinträchtigt werden.

Ivan Smirnov und Kollegen untersuchten, wie die ehrenamtliche Arbeit auf der Wikipedia-Website durch böswillige Kommentare auf der Seite „Benutzergespräche“, die mit jedem Redakteur verknüpft ist, beeinträchtigt wurde. Alle 57 Millionen Kommentare, die von 8,5 Millionen Redakteuren in den sechs aktivsten Sprachausgaben von Wikipedia auf Benutzerkonversationsseiten gepostet wurden, wurden analysiert, um die möglichen Auswirkungen von Toxizität auf das redaktionelle Verhalten zu untersuchen. Die Ergebnisse ergaben, dass toxische Kommentare immer mit einer verringerten Redaktionsaktivität verbunden sind, was kurzfristig einer Reduzierung von 0,5 bis 2 aktiven Tagen für jeden Benutzer entspricht. Berücksichtigt man die Zahl der aktiven Mitwirkenden bei Wikipedia, kommt dies einem Produktivitätsverlust über viele Jahre gleich.

Giftige Kommentare wurden durch einen vom Pivot API-Projekt entwickelten Algorithmus zur Toxizitätserkennung identifiziert. Eine Analyse aller 57 Millionen Kommentare, die in den letzten 20 Jahren von Redakteuren der sechs aktivsten Sprachversionen von Wikipedia (Englisch, Deutsch, Französisch, Spanisch, Italienisch und Russisch) auf Benutzerkonversationsseiten gepostet wurden, zeigt, dass toxische Kommentare auf Benutzerkonversationsseiten im Durchschnitt zu einem Rückgang der Redakteursaktivität führen. Dieser Effekt ist besonders ausgeprägt, wenn sich giftige Kommentare an neue Personen richten.

Wenn giftige Kommentare auf der Benutzerseite eines Benutzers erscheinen, wenn dieser zum ersten oder zweiten Mal einen Beitrag zu Wikipedia leistet, ist die Wahrscheinlichkeit, dass der Benutzer weiterhin Beiträge leistet, 1,8-mal geringer als bei Benutzern, die keine giftigen Kommentare erhalten. Insgesamt könnte die Toxizität zum Verlust von 265 Personenjahren ehrenamtlicher Arbeit an der englischen Version von Wikipedia und zu einem geringeren Wachstum der Mitwirkendenbasis der Website geführt haben. Toxizität könnte auch zum anhaltenden Mangel an Geschlechter- und Rassenvielfalt unter Wikipedia-Nutzern beitragen, sagten die Autoren.

Die Auswirkungen toxischer Kommentare dürften auf lange Sicht größer sein, da sie das Risiko, dass ein Redakteur das Projekt vollständig verlässt, deutlich erhöhen. Anhand eines agentenbasierten Modells zeigten die Forscher, dass toxische Angriffe auf Wikipedia das Potenzial haben, den Fortschritt des gesamten Projekts zu behindern, und betonten, wie wichtig es ist, toxische Sprache auf kollaborativen Plattformen wie Wikipedia zu reduzieren, um deren anhaltenden Erfolg sicherzustellen.