„Nicht sein Hauptanliegen“ – Warum ich Eltern dringend vor Meta warne

0:00 / 0:00

Ich fange mit einem Satz an, den jede Mutter und jeder Vater kennen sollte:

Laut den Gerichtsakten soll Konzernchef Mark Zuckerberg erklärt haben, die Sicherheit von Kindern sei „nicht sein Hauptanliegen“, da er sich auf das Metaverse konzentriere.

Die Formulierung stammt aus einer internen Textnachricht von 2021, die in den neu entsiegelten Unterlagen einer US‑Sammelklage gegen Meta zitiert wird. Dort schreibt Zuckerberg sinngemäß, er werde nicht behaupten, Kindersicherheit sei sein persönlicher Hauptfokus, wenn er „auf eine Reihe anderer Bereiche stärker konzentriert“ sei – etwa den Aufbau des Metaverse.  

Meta bestreitet, dass daraus ein falsches Prioritäten‑Setting abgeleitet werden könne. Juristisch ist das Verfahren offen. Für mich ist die entscheidende Frage jedoch eine andere:

Was folgt für dich als Mutter oder Vater, wenn der CEO selbst Kindersicherheit ausdrücklich nicht als seine persönliche Priorität benennt – während sein Unternehmen gleichzeitig aggressiv um die Aufmerksamkeit deiner Kinder kämpft?

1. Die neue Welle der Enthüllungen: Project Mercury & Co.

In den letzten Tagen sind umfangreiche Gerichtsakten öffentlich geworden. Darin finden sich interne Studien und Chatverläufe, die Meta ursprünglich unter Verschluss halten wollte.

Kernpunkt: Ein Forschungsprojekt mit dem Codenamen „Project Mercury“ (2020). Meta ließ gemeinsam mit dem Umfrageinstitut Nielsen untersuchen, was passiert, wenn Menschen Facebook für eine Woche deaktivieren. Ergebnis laut internen Dokumenten:

Menschen, die eine Woche lang kein Facebook nutzten, berichteten von weniger Depression, Angst, Einsamkeit und sozialem Vergleich.  

Statt diese Ergebnisse zu veröffentlichen oder den eigenen Produkten anzupassen, wurde das Projekt laut Klageschrift abgebrochen. Intern hieß es, die negativen Effekte seien durch die „bestehende Medienberichterstattung“ verzerrt – gleichzeitig signalisierten Forscher, dass die Effekte robust seien. Mitarbeitende verglichen das Vorgehen mit der Tabakindustrie, die eigene Krebsdaten jahrzehntelang wegdrückte.  

Parallel dazu existieren externe Studien, die fast deckungsgleich zeigen: Schon eine kurze Social‑Media‑Pause verbessert messbar Wohlbefinden, Depression und Angst.  

Wenn ein Konzern interne und externe Evidenz kennt, dass weniger Nutzung die psychische Gesundheit verbessert – und trotzdem weiter auf maximale Nutzung optimiert – dann ist das kein „Unfall“. Es ist eine unternehmerische Entscheidung.

2. Kinder als Zielgruppe – ausdrücklich

Die große US‑Sammelklage „In re: Social Media Adolescent Addiction / Personal Injury“ (MDL 3047) bündelt inzwischen über 2000 Verfahren von Familien, Schulbezirken und Bundesstaaten gegen Meta und andere Plattformen. Ihnen gemeinsam ist der Vorwurf, die Produkte seien bewusst suchterzeugend designt und schadeten Kindern massiv.  

Aus den neu entsiegelten Unterlagen:

• Meta‑Forschung ging intern davon aus, dass Millionen unter 13‑Jähriger Facebook und Instagram nutzen, obwohl das offiziell verboten ist.  

• In internen Chats klagt ein Mitarbeiter: „Zuck hat schon länger davon gesprochen … 11‑Jährige zu targeten fühlt sich an wie Tabakindustrie – wir sagen im Grunde: Wir müssen sie jung abhängig machen.“  

• Strategiepapiere analysieren gezielt die Psychologie von „Tweens“ (5–12 Jahre), um Produkte für diese Altersgruppe zu entwickeln.  

Hinzu kommt die große Klage von 33 US‑Bundesstaaten, die Meta vorwerfen, bewusst Dopamin‑Mechanismenund soziale Vergleichsprozesse auszunutzen, um Jugendliche in eine Art Endlos‑Scroll‑Loop zu ziehen. Die Generalstaatsanwälte sprechen offen von einer Jugend‑Mental‑Health‑Krise, die durch Instagram und Co. befeuert wird.  

Kurz gesagt: Kinder und Jugendliche sind für Meta kein Kollateralschaden, sondern ein strategisch geplanter Markt.

3. Zuckerbergs öffentliche Linie: „Keine Kausalität, wir investieren doch so viel“

Öffentlich zeichnet Zuckerberg ein anderes Bild.

Vor dem US‑Senat entschuldigte er sich 2024 sichtbar gerührt bei Eltern, deren Kinder über Social Media ausgebeutet oder in den Suizid getrieben wurden – und betonte gleichzeitig, die vorhandene Forschung zeige keinen kausalen Zusammenhang zwischen Social‑Media‑Nutzung und schlechterer mentaler Gesundheit von Jugendlichen.  

In seiner schriftlichen Aussage listet Meta lange Tabellen von Sicherheitsfunktionen und Milliardeninvestitionen in moderierende Teams, KI‑Filter und Meldesysteme.  

Auch 2021, nach den Enthüllungen der Whistleblowerin Frances Haugen, schrieb Zuckerberg auf Facebook, im Kern aller Vorwürfe stehe die Behauptung, Meta stelle Profit über Sicherheit – „das ist einfach nicht wahr“.  

So reden Tabakkonzerne auch.

Sie bestreiten Kausalität, betonen freiwillige Filter und verweisen auf „fehlende eindeutige Studien“, während sie intern genau wissen, wie abhängig ihr Produkt macht.

4. Wenn Algorithmen verletzliche Teens finden – und ihnen noch mehr geben

Im Oktober 2025 wurde eine weitere interne Meta‑Studie öffentlich: Forscher untersuchten, was Instagram jenen Teenagern anzeigt, die nach eigener Aussage regelmäßig ein schlechtes Körpergefühl durch die App haben. Ergebnis:

• Diese Gruppe sah dreimal so viel „eat­ing‑dis­or­der‑adjacent“‑Content (Inhalte nahe an Essstörungen, extreme Schlankheitsideale, Bodyshaming) wie Gleichaltrige ohne diese Problematik.

• Insgesamt bestand über ein Viertel ihres Feeds aus „riskanten“ oder belastenden Inhalten (Provokation, Leid, Selbstverletzung).  

Die Forscher selbst weisen darauf hin, dass man aus diesen Daten keine eindeutige Kausalrichtung ableiten kann – suchen verletzliche Teens solche Inhalte, oder macht der Feed sie verletzlich?

Entscheidend ist etwas anderes: Instagram‑Algorithmen profilieren verletzliche Jugendliche offenbar so, dass sie deutlich häufiger auf potenziell schädlichen Content stoßen.

Meta‑Sprecher Andy Stone erklärt dazu, die Studie beweise Metas Engagement für bessere Produkte. Gleichzeitig räumt der Bericht ein, dass Metas bestehende Filter 98,5 % dieser sensiblen Inhalte gar nicht erkennen.  

Für mich klingt das weniger nach „Schutz“ als nach Kontrollverlust bei voller Geschwindigkeit.

5. Meta‑Bots: Flirtende KI mit Minderjährigen

Während all das läuft, baut Meta mit Hochdruck seine KI‑Assistenten in WhatsApp, Instagram und Facebook ein. Interne Richtlinien, die Reuters im August 2025 veröffentlicht hat, zeigen:

• Die Bot‑Regeln erlaubten ausdrücklich, Minderjährige in Gespräche zu verwickeln, die „romantisch oder sinnlich“ sind.  

• Die KI durfte falsche medizinische und juristische Informationen ausgeben, solange sie einen knappen Disclaimer anhängte.  

Meta bestätigte die Echtheit der Dokumente und erklärte, man habe problematische Passagen inzwischen entfernt. Nachdem der öffentliche Druck massiv wurde und Senatoren eine Untersuchung ankündigten, kündigte das Unternehmen neue „PG‑13‑Leitlinien“ für Teen‑Accounts an und versprach, Eltern zukünftig zu erlauben, KI‑Chats ihrer Kinder ganz abzuschalten.  

Wichtig ist die Reihenfolge:

1. Zuerst werden flirtende KI‑Avatare mit Kindern ausgerollt.

2. Dann deckt eine Recherche das auf.

3. Erst danach kommen Einschränkungen und Entschuldigungen.

Das Muster wiederholt sich.

6. „Metaverse first, Safety later“ – die VR‑Front

Zuckerbergs Metaverse‑Vision bedeutet: Noch immersivere Umgebungen, noch weniger Barrieren, noch direktere Interaktion – auch mit Fremden.

Whistleblower und Forschende haben dem US‑Kongress im September 2025 Dokumente vorgelegt, laut denen Metas Rechtsabteilung systematisch versucht habe, Forschung zu Kindersicherheit in VR zu bremsen oder zu entschärfen:

• Nachdem Forschende Fälle dokumentierten, in denen Kinder unter 13 in Horizon Worlds von Erwachsenen sexuell angesprochen oder bedrängt wurden, sollen Vorgesetzte verlangt haben, entsprechende Notizen zu löschen oder zu entschärfen.  

• Interne Anweisungen empfehlen, in Berichten lieber von „alleged youth“ statt von „Kindern“ zu sprechen, um rechtlich weniger angreifbar zu sein.  

• Eine frühere Marketing‑Managerin von Horizon Worlds beschuldigt Meta vor der US‑Verbraucherschutzbehörde FTC, man habe Kinder unter 13 bewusst über Erwachsenen‑Accounts ins Metaverse gelassen, um die Nutzerzahlen aufzublasen.  

Meta weist alle Vorwürfe als „verzerrend“ zurück und verweist auf neue Jugendschutz‑Features, Eltern‑Dashboards und Default‑Privatsphäre‑Einstellungen.

Aus Elternsicht bleibt die nüchterne Rechnung:

Eine hyper‑immersive Umgebung + bekannte Probleme mit Belästigung, Grooming und fehlender Moderation + juristisches Wegdefinieren von „Kindern“ = kein Ort, an dem dein 10‑ oder 12‑jähriges Kind allein herumspazieren sollte.

7. Wie das alles neurobiologisch zusammenpasst

• Das kindliche Gehirn entwickelt die Impulskontrolle (präfrontaler Cortex) deutlich später als das Belohnungssystem (Dopamin).

• Social‑Media‑Design – Endlos‑Feed, variable Belohnung, Likes, Stories, „Reels“ – arbeitet exakt mit diesen Mechanismen: kleine, unvorhersehbare Dopamin‑Kicks.

• Besonders Kinder und Jugendliche mit ADHS, Autismus oder ohnehin hoher Sensitivität sind empfänglicher für dieses Muster: Sie regulieren Emotionen häufig stärker über äußere Reize.

Wenn ein Produkt so designt ist, dass selbst Erwachsene Probleme haben, es wegzulegen – dann ist es für 11‑, 13‑ oder 15‑Jährige systematisch unfair. Genau darum sprechen viele Klagen von „produktdesignbedingter Abhängigkeit“, nicht von „schlechter Medienkompetenz“.

Dass Meta intern genau weiß, wie suchtähnlich die Nutzung wirkt, zeigen eigene Studien zu „problematischer Nutzung“, bei der ein erheblicher Anteil der User Symptome wie Kontrollverlust und Entzug erlebt. Öffentlich kommuniziert wurde lange nur der kleine Anteil mit „schwerer“ Problematik – der Rest verschwand unter der Decke.  

8. Was heißt das jetzt ganz konkret für Eltern?

Ich fasse das strukturiert zusammen. Das ist kein juristischer Rat, sondern eine Risikoeinschätzung aus Sicht von Neurobiologie und vorhandener Evidenz.

8.1 Meta‑Produkte für Kinder unter 13

Meine klare Empfehlung:

Kein Facebook, kein Instagram, kein Horizon Worlds, keine Meta‑KI‑Chatbots für Kinder unter 13. Punkt.

Offiziell verbietet Meta das ohnehin. Intern zeigen die Dokumente aber, dass Kinder unter 13 millionenfach auf den Plattformen sind – häufig mit Wissen des Konzerns.  

Wenn dein Kind hier dennoch Accounts hat (Freunde, Schule, „alle anderen machen das auch“):

• Account löschen oder zumindest komplett auf Eltern‑Mailadresse umziehen und selbst verwalten.

• Erkläre ehrlich, warum: „Nicht weil du falsch bist – sondern weil diese Plattform dich absichtlich überfordert.“

8.2 Teenager (13–17)

Wenn ein kompletter Verzicht nicht realistisch ist, dann:

1. Struktur statt Verbotspanik

Maximal begrenzte Nutzungszeiten (z.B. 30–60 Minuten/Tag) mit klarer Tagesstruktur.

• Kein Smartphone im Schlafzimmer – gerade bei ADHS/Autismus sind Schlafprobleme sonst vorprogrammiert.

2. Produktseitige Bremse ziehen

• Konten privat stellen, Follower auf reale Kontakte beschränken.

• Direktnachrichten von Fremden blockieren, Meldefunktionen gemeinsam durchspielen.

• KI‑Chats in den Meta‑Apps deaktivieren, sobald die neuen Eltern‑Settings verfügbar sind – und bis dahin konsequent untersagen.  

3. Inhaltlich coachen

• Gemeinsam Feeds anschauen: „Wie fühlst du dich nach 10 Minuten Reels? Eher leichter oder eher kleiner?“

• Essstörung, Selbstverletzung, Suizid, extreme Ideale aktiv ansprechen – nicht warten, bis dein Teen davon erzählt.

4. VR / Metaverse

• Für Minderjährige halte ich Metas VR‑Welten aktuell für nicht verantwortbar: zu viel Unklarheit, zu viele dokumentierte Übergriffe, zu wenig verlässliche Moderation.  

8.3 Schulen und Kitas

Wenn Meta mit „Safety‑Roadshows“ oder „Bildungs‑Partnerschaften“ an eure Schule herantritt – ein lautstarker Trend laut den neuen Gerichtsdokumenten – dann gilt:

• Fordert schriftliche Offenlegung, welche Daten gesammelt werden, wer die Materialien finanziert und welche Lobby‑Organisationen dahinter stehen.  

• Besteht auf unabhängigen Quellen (Unis, öffentliche Einrichtungen, NGOs ohne Tech‑Geld), wenn es um Medienkompetenz oder „Online‑Sicherheit“ geht.

9. „Nicht sein Hauptanliegen“ – was du daraus machen kannst

Wenn der CEO eines Konzerns in internen Nachrichten schreibt, Kindersicherheit sei nicht sein persönliches Hauptanliegen, weil er andere Baustellen wie das Metaverse priorisiert, dann glaube ich ihm.  

• Gleichzeitig zeigen interne Studien, dass weniger Facebook‑/Instagram‑Nutzung psychische Probleme reduziert – und diese Studien werden gestoppt.  

• Interne Daten beweisen, dass verletzliche Jugendliche besonders viel problematischen Content sehen – und die Filter erkennen fast nichts davon.  

• KI‑Chatbots flirten mit Minderjährigen, bis Medien und Politik einschreiten.  

• VR‑Forscher berichten von sexuellen Übergriffen auf Kinder, und statt konsequentem Schutz gibt es juristische Sprachkosmetik.  

Wenn du mich als Dr. AuDHS fragst, wie du das bewerten sollst, dann ist meine nüchterne Diagnose:

Meta verhält sich gegenüber Kindern wie ein Hochrisiko‑Unternehmen, das systematisch erst dann reagiert, wenn der öffentliche Druck größer ist als der Wachstumsdruck.

Und mit solchen Unternehmen lässt man seine Kinder nicht allein im Wohnzimmer spielen.

Zum Mitnehmen in einem Satz

Solange Mark Zuckerberg nicht klar und überprüfbar zeigt, dass Kindersicherheit tatsächlich sein Hauptanliegen ist – inklusive transparenter Forschung, unabhängiger Audits und Safety‑by‑Design – solltest du Meta‑Produkte für deine Kinder behandeln wie Zigaretten oder Alkohol:

verfügbar, legal – aber für Minderjährige tabu oder streng rationiert.

×