Das falsche Versprechen unregulierter Plattformen
Im Januar 2025 hat Mark Zuckerberg angekündigt, dass die Plattformen des Meta-Konzerns – darunter Facebook und Instagram – den Faktencheck durch Dritte beenden werden. Inhaltliche Einschränkungen bei kontroversen Themen werden abgebaut und automatische Moderationssysteme zurückgefahren. Dieser Entscheid setzt einen besorgniserregenden Trend fort und hat weitreichende Auswirkungen darauf, wie die sozialen Medien den öffentlichen Diskurs gestalten.
Zuckerberg stellte die Änderungen als Stärkung der freien Meinungsäusserung dar, doch ähnliche Massnahmen bei X (ehemals Twitter) haben bereits gezeigt, wie weniger Moderation zu mehr Fragmentierung und Polarisierung beiträgt.
Der Mythos der freien Meinungsäusserung in sozialen Medien
Uneingeschränkte Meinungsäusserung ist nicht gleichbedeutend mit demokratischem Diskurs. In der Praxis läuft «freie Meinungsäusserung» in den sozialen Medien oft auf Drangsalierung hinaus, was die Meinungsvielfalt unterbindet. Wenn sich Plattformen aus der Moderation von Inhalten zurückziehen, geben sie die Kontrolle an diejenigen ab, die den Diskurs durch Einschüchterung dominieren. Die Opfer dieses Mobbings, das sich häufig gegen Stimmen von Randgruppen und Minderheiten richtet, werden über kurz oder lang aus der öffentlichen Diskussion verdrängt. Freie Meinungsäusserung geniessen nur die Lauten und Aggressiven.
Sichere digitale Räume schaffen, für alle
Die Wikimedia-Bewegung schlägt eine andere Richtung ein. Wir wissen, dass echter Diskurs nur dann möglich ist, wenn Menschen angstfrei ihre Meinung und ihr Wissen einbringen können. Deshalb wollen wir digitale Räume schaffen, in denen alle frei an der Gesamtheit des menschlichen Wissens teilhaben können – ohne Furcht vor Diskriminierung und Drangsalierung.
Unsere Projekte – zum Beispiel Wikipedia – zeigen klar, dass Community-Richtlinien und Schutz vor Belästigung den offenen Dialog nicht behindern, sondern fördern. Ausgehend vom Allgemeinen Verhaltenskodex der Wikimedia-Bewegung (Universal Code of Conduct) ist Wikimedia CH laufend bestrebt, die Freiwilligen, die hinter Wikipedia und anderen Wikimedia-Projekten stehen, noch besser zu schützen.
In diesem Rahmen bieten wir nun praktische Unterstützung von psychologischer Beratung bis zu juristischer Hilfe an, um Belästigungen und Hassreden einzudämmen und so Barrieren für die Teilnahme auf unseren Plattformen abzubauen.
Echter Diskurs erfordert Moderation
Die Social Media Plattformen prägen die Art und Weise, wie Milliarden von Menschen Informationen beziehen und miteinander kommunizieren. Die Abkehr von der Moderation hat Einfluss darauf, wer auf sichere Weise an wichtigen öffentlichen Debatten teilnehmen kann. Wenn die Stimmung in diesen Diskussionsräumen immer feindseliger wird, gehen wertvolle Stimmen und Standpunkte im Dialog verloren.
Der Gegensatz «entweder Moderation oder freie Meinungsäusserung» ist irreführend. Echte Meinungsfreiheit benötigt sichere Räume, in denen sich der öffentliche Diskurs entfalten kann. Das bedeutet, dass wir Community-Standards definieren und durchsetzen, die die Teilnehmenden schützen und gleichzeitig den offenen Dialog fördern.
Unterstützen Sie wirklich freies Wissen
Wikimedia CH fördert digitale Räume, in denen alle auf sichere Weise zum menschlichen Wissen beitragen können. Wir unterstützen die Freiwilligen, die unsere Plattformen möglich machen. Als Non-Profit-Organisation, die weder Werbeeinnahmen noch staatliche Gelder annimmt, sind wir auf Spenden von all denen angewiesen, die unsere Vision vom inklusiven, freien Wissen teilen.
Bitte leisten Sie eine steuerlich absetzbare Spende, und helfen Sie uns, diese wichtige Arbeit fortzusetzen. Ihre Unterstützung trägt dazu bei, dass Wikipedia und andere Wikimedia-Projekte als digitale Räume erhalten bleiben, in denen das Wissen für alle frei, zugänglich und sicher bleibt.