Die Europäische Union verschärft die Regulierung von Social-Media-Plattformen und plant, sich auf die Bekämpfung von „süchtig machenden Design“-Funktionen in Apps wie TikTok und Instagram zu konzentrieren, die sich an Minderjährige richten. EU-Kommissionspräsidentin von der Leyen sagte am Dienstag auf dem Europagipfel „Künstliche Intelligenz und Kinder“ in Dänemark, dass die EU noch in diesem Jahr gegen die Plattform vorgehen und die Umsetzung entsprechender Vorschriften vorantreiben werde.

Von der Leyen hob hervor, dass die EU Maßnahmen gegen das „süchtig machende Design“ von TikTok ergriffen habe, das Funktionen wie endloses Scrollen, automatische Wiedergabe und kontinuierliche Push-Benachrichtigungen umfasst. Sie sagte auch, dass das gleiche Problem auch auf den Meta-eigenen Instagram- und Facebook-Seiten bestehe. Es wird davon ausgegangen, dass diese Plattformen es versäumt haben, ihr eigenes Mindestalter von 13 Jahren wirksam durchzusetzen. Sie betonte, dass die EU Plattformen untersuche, die Kinder in einen „Kaninchenbau mit schädlichen Inhalten“ schicken, etwa Videos, die Essstörungen wie Magersucht oder Selbstverletzung fördern.
Um den Schutz von Minderjährigen im Internet zu stärken, hat die Europäische Kommission außerdem eine eigene Anwendung zur Altersüberprüfung entwickelt, die laut von der Leyen die „höchsten Datenschutzstandards der Welt“ aufweist. Die Anwendung wird den Mitgliedstaaten zur Integration in ihre jeweiligen digitalen Geldbörsen zur Verfügung stehen, während der Altersüberprüfungsprozess einfach über eine Online-Plattform abgerufen und durchgeführt werden kann. „Es gibt keine Ausreden mehr – die Technologie zur Altersüberprüfung ist da“, sagte sie. Die Europäische Kommission könnte bereits im Sommer einen Gesetzesvorschlag vorlegen und wartet derzeit auf die Einreichungen ihrer Sonderexpertengruppe zur Online-Sicherheit von Kindern.
Diese Runde regulatorischer Verbesserungen zu Fragen der Kindersicherheit auf sozialen Plattformen findet vor dem Hintergrund der allgemeinen „Verschärfung der Regulierung“ der Europäischen Union gegenüber US-amerikanischen Technologiegiganten statt. Im vergangenen Jahr hat die Europäische Union aufgrund von Kartell- und Wettbewerbsgesetzen nacheinander Bußgelder in Höhe von insgesamt mehr als 7 Milliarden US-Dollar gegen eine Reihe großer Technologieunternehmen verhängt, was in den Vereinigten Staaten für Unmut gesorgt hat. Einige Beamte warnten, dass die EU dadurch einige wirtschaftliche Chancen im Bereich der künstlichen Intelligenz verpassen könnte. US-Präsident Donald Trump versucht diesen Strafen gegen US-Unternehmen entgegenzuwirken. Unternehmen wie Apple, Meta und Google mussten wegen angeblicher Verstöße gegen EU-Vorschriften mit hohen Bußgeldern rechnen und haben Einspruch eingelegt.
Im Februar dieses Jahres unterzeichnete Trump ein Memorandum des Präsidenten, in dem er vorschlug, die Einführung von Zöllen und anderen Methoden in Betracht zu ziehen, um „gegen digitale Dienstleistungssteuern, Bußgelder und damit verbundene unfaire Maßnahmen ausländischer Regierungen gegen US-Unternehmen vorzugehen“. Unterdessen leitete die Europäische Union Anfang des Jahres auch eine Untersuchung gegen Elon Musks X (ehemals Twitter) ein, weil es Vorwürfe gab, der Chatbot der Plattform, Grok, habe nicht einvernehmliche pornografische Bilder von Frauen und Kindern erstellt und verbreitet.
Die rechtliche Prüfung der Sicherheit von Minderjährigen in sozialen Medien nimmt weltweit zu. Im März wurde in einer hochkarätigen US-Klage entschieden, dass einige Designfunktionen von Meta und YouTube – darunter unendliches Scrollen und Autoplay – Suchtverhalten bei Teenagern förderten und ihrer psychischen Gesundheit schadeten. Kürzlich ergab eine vorläufige Untersuchung der Europäischen Kommission außerdem, dass Meta es versäumt hat, Minderjährige unter 13 Jahren wirksam vom Zugriff auf seine Plattform abzuhalten. Minderjährige konnten bestehende Erkennungsmechanismen leicht umgehen und stellten daher einen Verstoß gegen die einschlägigen Anforderungen des EU-Gesetzes über digitale Dienste dar.
Zusätzlich zu Initiativen auf EU-Ebene versuchen einige Länder, noch weiter zu gehen. Im Dezember dieses Jahres führte Australien als erstes Land ein „völliges Verbot“ sozialer Medien für Personen unter 16 Jahren ein und verbot Minderjährigen die Nutzung der gängigen sozialen Plattformen. Auch europäische Länder wie Spanien, Frankreich und das Vereinigte Königreich drängen auf eine ähnliche Gesetzgebung und planen, Kinder und Jugendliche durch Anhebung der Altersgrenzen, eine erzwungene Identitätsprüfung oder direkte Zugangsbeschränkungen so weit wie möglich von sozialen Medien zu isolieren. Aufgrund des vielfältigen regulatorischen Drucks müssen Plattformen wie TikTok und Instagram in Zukunft möglicherweise tiefgreifende Anpassungen an ihren Kernproduktdesigns vornehmen, um den höheren Standards der Europäischen Union und anderer Länder für den Online-Schutz von Kindern zu entsprechen.