Der Aufstieg der künstlichen Intelligenz verändert die sozialen Medien rasant, aber eine neue CNET-Umfrage zeigt, dass die meisten Amerikaner Schwierigkeiten haben, zwischen authentischen Inhalten und KI-generierten Fälschungen zu unterscheiden. Trotz weit verbreitetem Bewusstsein für die Präsenz von KI im Internet sind nur 44 % der Erwachsenen in den USA, die soziale Medien nutzen, zuversichtlich, dass sie von KI erstellte Bilder und Videos identifizieren können. Diese Kluft zwischen Wahrnehmung und Realität verdeutlicht eine wachsende Herausforderung für Einzelpersonen, die sich in einer zunehmend synthetischen digitalen Landschaft zurechtfinden.
Die Allgegenwart von KI-generierten Inhalten
Fast alle Erwachsenen in den USA (94 %), die soziale Medien nutzen, glauben, dass sie auf Inhalte stoßen, die von KI erstellt oder verändert wurden. Dazu gehören hyperrealistische Bilder, bizarre Videos und Texte, die menschliche Schrift mit beunruhigender Genauigkeit nachahmen. Tools wie Sora von OpenAI und Nano Banana von Google machen es einfacher denn je, überzeugende Deepfakes zu erstellen, was das Vertrauen in visuelle und textliche Informationen untergräbt.
Das Problem besteht nicht einfach darin, dass KI existiert; Es liegt daran, dass die meisten Menschen es nicht zuverlässig erkennen können. Ein Viertel (25 %) der Erwachsenen in den USA gibt zu, dass ihnen das Selbstvertrauen fehlt, zwischen echten und gefälschten Medien zu unterscheiden, wobei ältere Generationen (Boomer, 40 %; Gen X, 28 %) den geringsten Grad an Sicherheit zum Ausdruck bringen.
Wie Benutzer auf KI-generierte Medien reagieren
Die Umfrage untersuchte auch, wie Menschen auf die Verbreitung von KI-generierten Inhalten reagieren:
- Verifizierungsversuche: 72 % der Erwachsenen in den USA unternehmen Maßnahmen, um Inhalte zu überprüfen, wenn sie verdächtig sind, wobei die Generation Z (84 %) an der Spitze steht. Die gebräuchlichste Methode ist die visuelle Prüfung auf Artefakte (60 %), obwohl neuere KI-Modelle bei der Vermeidung offensichtlicher Fehler immer ausgefeilter werden.
- Bedenken hinsichtlich der Kennzeichnung: Die Hälfte der Befragten (51 %) glaubt, dass eine bessere Kennzeichnung von KI-generierten Inhalten von entscheidender Bedeutung ist, insbesondere bei Millennials und der Generation Z (56 % bzw. 55 %).
- Fordert eine Einschränkung: 21 % der Erwachsenen in den USA befürworten ein vollständiges Verbot von KI-generierten Inhalten, wobei die Generation Z mit 25 % am lautesten ist. Weitere 36 % befürworten eine strenge Regulierung.
- Wahrgenommener Wert: Nur 11 % finden KI-Inhalte nützlich, informativ oder unterhaltsam, während 28 % der Meinung sind, dass sie wenig bis gar keinen Wert haben.
Die Grenzen aktueller Lösungen
Während einige Plattformen Tools zum Filtern von KI-generierten Inhalten einführen (z. B. Pinterest), deutet die Umfrage auf ein umfassenderes systemisches Problem hin. Der zunehmende Realismus der KI macht einfache visuelle Kontrollen weniger effektiv. Alternative Methoden wie die Suche nach Labels (30 %) oder die Suche nach Inhalten an anderer Stelle (25 %) werden immer wichtiger, aber auch diese haben ihre Grenzen.
Besorgniserregende 25 % der Erwachsenen in den USA unternehmen überhaupt keine Maßnahmen, um Inhalte zu überprüfen, insbesondere unter den Babyboomern (36 %) und der Generation X (29 %). Diese Untätigkeit ist gefährlich, da die KI möglicherweise als Waffe für Betrug, Manipulation oder Desinformation eingesetzt werden kann.
Was kann getan werden?
Die Bekämpfung KI-generierter Fehlinformationen erfordert einen vielschichtigen Ansatz:
- Verbesserte Erkennungstools: Es sind ausgefeiltere KI-Erkennungstechnologien erforderlich, aber sie müssen den sich schnell entwickelnden Fähigkeiten der generativen KI immer einen Schritt voraus sein.
- Verbesserte Kennzeichnungsstandards: Eine klare und konsistente Kennzeichnung von KI-generierten Inhalten ist unerlässlich, die Durchsetzung bleibt jedoch eine Herausforderung.
- Medienkompetenzbildung: Es ist von entscheidender Bedeutung, das öffentliche Bewusstsein für die Risiken von Deepfakes und KI-Manipulation zu schärfen.
- Verantwortung der Plattform: Social-Media-Plattformen müssen mehr Verantwortung für die Erkennung und Eindämmung der Verbreitung synthetischer Inhalte übernehmen.
Die Realität ist, dass KI-generierte Inhalte nicht verschwinden werden. Bis wirksame Gegenmaßnahmen umgesetzt werden, müssen Einzelpersonen bei der Überprüfung der Informationen, auf die sie online stoßen, wachsam, skeptisch und proaktiv bleiben. Die Umfrage unterstreicht, dass das Vertrauen in das, was wir sehen und lesen, schwindet und die Wiederherstellung dieses Vertrauens eine gemeinsame Anstrengung von Technologieunternehmen, politischen Entscheidungsträgern und der Öffentlichkeit gleichermaßen erfordert.





















