KI-Chatbots haben Schwierigkeiten, bei Eilmeldungen korrekt zu berichten: Der Fall Charlie Kirk

0
36

Die rasche Verbreitung von Fehlinformationen und Verschwörungstheorien rund um den Tod von Charlie Kirk, einem konservativen Kommentator, hat einen kritischen Fehler bei der Verwendung von KI-Chatbots für aktuelle Nachrichten deutlich gemacht. Nach seiner Schießerei bei einer öffentlichen Veranstaltung in Utah wurde das Internet schnell mit unbestätigten Behauptungen und Spekulationen überschwemmt, was durch ungenaue und irreführende Antworten von KI-Chatbots noch verstärkt wurde. Dieser Vorfall verdeutlicht die Grenzen der künstlichen Intelligenz, wenn es um die genaue und verantwortungsvolle Berichterstattung über sich schnell entwickelnde Ereignisse geht.

Die Bot-getriebene Desinformation

Die ersten Berichte über den Vorfall waren chaotisch und es herrschte Unklarheit darüber, ob Kirk lebte oder tot war. Diese Unsicherheit schuf einen fruchtbaren Boden für Online-Spekulationen, und die Nutzer wandten sich schnell den sozialen Medien zu, um unbestätigte Informationen zu verbreiten und zu verstärken. Allerdings verschärften KI-Chatbots, die in Plattformen wie X integriert waren und auf die über Dienste wie Google zugegriffen wurde, das Problem oft, indem sie ungenaue oder irreführende Informationen lieferten.

  • Widersprüchliche Berichte: KI-Chatbots lieferten widersprüchliche Berichte. Einige behaupteten zunächst, Kirk sei gestorben, zogen die Informationen jedoch später zurück.
  • Validierung von Verschwörungstheorien: In anderen Fällen bestätigten Chatbots scheinbar bestehende Verschwörungstheorien, einschließlich Behauptungen über geplante Attentate und ausländische Beteiligung, indem sie KI-generierte Antworten lieferten, die diese falschen Narrative stützten.
  • Irreführende Behauptungen: Ein Chatbot behauptete fälschlicherweise, CNN, NYT und Fox News hätten einen registrierten Demokraten als Verdächtigen identifiziert, was sich als unwahr herausstellte. Ein anderer Bot bezeichnete ein Video der Schießerei als „Meme“, obwohl Sicherheitsexperten dessen Echtheit bestätigten.

Die Rolle der algorithmischen Verzerrung

Die ungenaue Berichterstattung von Chatbots ist auf mehrere Faktoren zurückzuführen, die der KI-Technologie innewohnen.

  • Mangelnde menschliche Verifizierung: Im Gegensatz zu menschlichen Journalisten können Chatbots keine örtlichen Beamten anrufen, auf Dokumente aus erster Hand zugreifen oder Bilder authentifizieren – wichtige Schritte bei der Verifizierung von Informationen.
  • Echokammereffekt: KI-Algorithmen neigen dazu, Informationen zu priorisieren, die sich häufig wiederholen, wodurch Unwahrheiten an Bedeutung gewinnen und genaue Berichte übertönt werden.
  • Priorisierung der lautesten Stimmen: Chatbots sind anfällig für wiederholte Behauptungen von Websites mit geringer Interaktion, Social-Media-Beiträgen und KI-generierten Content-Farmen, die von böswilligen Akteuren erstellt wurden.

Der breitere Trend: Veränderte Strategien zur Nachrichtenüberprüfung

Dieser Vorfall ereignet sich, da große Technologieunternehmen zunehmend auf KI und Community-Moderation angewiesen sind, um die Nachrichtenüberprüfung zu verwalten, ein Wandel, der Bedenken hinsichtlich der Zukunft der Nachrichtenkompetenz aufkommen lässt.

  • Reduzierte Zahl menschlicher Faktenprüfer: Viele Unternehmen haben ihre Investitionen in menschliche Faktenprüfer zugunsten einer KI-gesteuerten Inhaltsmoderation zurückgefahren.
  • Die „Dividende des Lügners“: KI ermöglicht es Einzelpersonen, zu behaupten, dass echte Informationen falsch seien, was Verwirrung und Misstrauen sät, ein Phänomen, das als „Dividende des Lügners“ bekannt ist.
  • Verringertes Vertrauen in traditionelle Quellen: Eine Umfrage von Pew Research zeigt, dass Personen, die auf KI-generierte Suchergebnisse stoßen, weniger wahrscheinlich auf zusätzliche Quellen klicken als Personen, die herkömmliche Suchmaschinen verwenden.

McKenzie Sadeghi, Forscherin bei NewsGuard, bringt es auf den Punkt: „Algorithmen erfordern keinen Kommentar“ und betont die unersetzliche Rolle des menschlichen Urteilsvermögens bei der verantwortungsvollen Berichterstattung. Deborah Turness, CEO von BBC News and Current Affairs, schloss sich dieser Meinung an und warnte: „Wie lange wird es dauern, bis eine durch KI verfälschte Schlagzeile in der realen Welt erheblichen Schaden anrichtet?“

Der Fall Charlie Kirk ist eine deutliche Erinnerung an die Notwendigkeit von Vorsicht und Skepsis, wenn man sich für aktuelle Nachrichten auf KI-Chatbots verlässt, und unterstreicht die anhaltende Debatte über die Rolle künstlicher Intelligenz in einer sich schnell entwickelnden Medienlandschaft.

Die zunehmende Abhängigkeit von KI bei der Nachrichtenbeschaffung hat Bedenken hinsichtlich zunehmender Fehlinformationen und der Auswirkungen von KI auf Nachrichten und Politik geweckt

Previous articleTinder nutzt KI, um Ihre Fotos für bessere Übereinstimmungen zu analysieren
Next articleMicrosoft und G42 erweitern die Rechenzentrumskapazität der VAE mit einer Investition von 200 Millionen US-Dollar