Facebooks Algorithmus spaltet Nutzergruppen – interne Recherchen wurden ignoriert
Facebook wird seit Jahren für seine Rolle bei der Beeinflussung der öffentlichen Meinung kritisiert, und die jüngste Erkenntnis, dass der Algorithmus des Unternehmens Benutzergruppen trennt, ist nur der jüngste Skandal, der auftaucht. Facebook führte interne Studien durch, die zeigten, wie sein Algorithmus die Verbraucher polarisierte und sie in immer kleinere Gruppen aufteilte, aber die Top-Führungskräfte des Unternehmens entschieden sich angeblich dafür, diese Informationen zu ignorieren.
Das Wall Street Journal berichtete im Mai 2021, dass Facebook 2018 eine interne Untersuchung durchgeführt habe, um zu untersuchen, wie die Algorithmen des Unternehmens das Nutzerverhalten beeinflussen. Laut der Studie drängte das Empfehlungssystem von Facebook die Menschen zu polarisierenderen und extremeren Inhalten, wodurch „Echokammern“ geschaffen wurden, in denen die Menschen nur Sichtweisen ausgesetzt waren, die ihre bereits bestehenden Ideen stützten.
Der Bericht behauptet weiter, dass Mark Zuckerberg, der CEO von Facebook, und andere hochrangige Beamte von der Studie wussten, sich aber dafür entschieden, sie zu ignorieren, um das Wachstum und die Engagement-Zahlen des Unternehmens aufrechtzuerhalten. Trotz der Rolle des Algorithmus bei der Polarisierung der Gesellschaft wurde er als zu wichtig für das Geschäftsmodell von Facebook angesehen, um ihn zu ändern.
Angesichts der Geschichte von Facebook, Wachstum und Engagement eine höhere Priorität einzuräumen als dem Wohlbefinden der Nutzer, ist dieses Ergebnis nicht völlig unerwartet. Der Algorithmus des Unternehmens zielt darauf ab, Werbeeinnahmen und Engagement-Metriken wie Likes und Shares zu maximieren, indem Benutzer so lange wie möglich auf der Plattform gehalten werden. Der Algorithmus erreicht dies, indem er Inhalten Priorität einräumt, die wahrscheinlich das Interesse der Menschen aufrechterhalten, was häufig kontroverse, provokative oder emotional aufgeladene Inhalte beinhaltet, die starke Reaktionen hervorrufen können.
Zahlreiche Experten haben diese Strategie kritisiert und behauptet, dass sie ein giftiges Umfeld fördert, in dem Benutzer häufig polarisierenden und anstößigen Inhalten ausgesetzt sind. Die Tatsache, dass dies durch Facebooks eigene Forschung unterstützt wird, sollte sowohl dem Unternehmen als auch der Gesellschaft als Ganzes als Warnung dienen.
Es ist bekannt, wie sich der Algorithmus von Facebook auf das Nutzerverhalten auswirkt. Laut Studien kann die Exposition gegenüber polarisierenden Inhalten in sozialen Medien die bestehende Polarisierung in realen Ideen verschärfen und es für Einzelpersonen schwieriger machen, einen Konsens zu erzielen oder produktive Gespräche zu führen. Dies ist besonders besorgniserregend in einer Zeit eskalierender politischer Polarisierung und sozialer Instabilität, in der es wichtiger denn je ist, Unterschiede zu überwinden und Gemeinsamkeiten zu finden.
Obwohl es nicht der einzige Faktor ist, der die Gesellschaft spaltet, ist der Algorithmus von Facebook ein bedeutender. Facebook hat die Pflicht, dafür zu sorgen, dass seine Algorithmen der Gesellschaft als einer der größten und wichtigsten Plattformen im Internet nicht schaden. Dazu gehört, dem Problem der Polarisierung aggressiver entgegenzutreten und Maßnahmen zu ergreifen, um seine Auswirkungen zu mindern.
Es gibt zahlreiche Möglichkeiten, wie Facebook mit dieser Situation umgehen kann. Eine Strategie wäre, den Algorithmus so zu ändern, dass er Inhalten den Vorrang gibt, die mit größerer Wahrscheinlichkeit die Konversation fördern und Lücken verringern. Dies kann dazu führen, dass Inhalte, die emotional aufgeladen oder umstritten sind, weniger in den Mittelpunkt rücken und Inhalte aus einem breiteren Spektrum von Quellen gefördert werden, einschließlich solcher mit unterschiedlichen politischen oder ideologischen Meinungen.
Um zu verhindern, dass Benutzer ungenauem oder irreführendem Material ausgesetzt werden, das ihre bereits bestehenden Meinungen stützt, wäre eine andere Strategie, in umfassendere Faktenprüfungs- und Content-Management-Verfahren zu investieren. Dies kann die Zusammenarbeit mit unabhängigen Faktenprüfern oder den Einsatz von Systemen der künstlichen Intelligenz zur Erkennung und Identifizierung fragwürdiger Inhalte beinhalten.
Schließlich sollte Facebook Maßnahmen ergreifen, um mehr Rechenschaftspflicht und Offenheit in der Art und Weise zu fördern, wie seine algorithmische Entscheidungsfindung erfolgt. Dies könnte bedeuten, die Transparenz der Algorithmen zu erhöhen und den Plattformbenutzern mehr Autorität über die Inhalte zu geben, die sie sehen.
Welche Strategie Facebook auch immer wählt, es ist offensichtlich, dass das Unternehmen es sich nicht länger leisten kann, das Problem der Polarisierung zu ignorieren. Die interne Studie des Unternehmens bestätigt, wovor viele Experten seit Jahren warnen, nämlich dass der Algorithmus von Facebook soziale Spaltungen verursacht und unsere Fähigkeit beeinträchtigt, produktive Gespräche zu führen und Gemeinsamkeiten zu finden. Facebook muss sofort handeln, um dieses dringende Problem zu lösen, wenn es seine erklärte Mission erfüllen will, Menschen zusammenzubringen.