Gesellschaft: Künstliche Intelligenz und Desinformation
Konstanz () – Forscher warnen vor einer nächsten Generation an Desinformation im Internet durch sogenannte „Künstliche Intelligenz“. Offensichtliche „Copy-and-Paste-Bots“ würden vermutlich ersetzt durch koordinierte Gemeinschaften von „KI-Schwärmen“, so ein internationales Forschungsteam, das seine Erkenntnisse nun in der Fachzeitschrift „Science“ veröffentlicht hat.
Gemeint seien KI-gesteuerte Flotten, die sich in Echtzeit anpassen, Gruppen infiltrieren und in großem Umfang einen Anschein von gemeinschaftlicher Meinung erwecken können. Ein Chor aus scheinbar unabhängigen Stimmen schaffe die Illusion eines breiten öffentlichen Konsenses, während er in Wirklichkeit Desinformation verbreitet.
Dabei würde es zu einer Verschmelzung von großen Sprachmodellen (LLMs) mit Multiagentensystemen zu „schädlichen KI-Schwärmen“ kommen, die soziale Dynamiken authentisch imitieren – und nach Ansicht der Forscher den demokratischen Diskurs bedrohen, indem sie falsche Tatsachen zementieren und Konsens suggerieren.
Das Forschungsteam zeigt in seiner Analyse auf, dass die zentrale Gefahr nicht nur in falschen Inhalten bestehe, sondern vor allem in einem „künstlichen Konsens“: Der falsche Eindruck, dass „ja jeder das sage“, könne Überzeugungen und Normen beeinflussen, selbst wenn einzelne Behauptungen umstritten sind. Dieser anhaltende Einfluss, so die Forscher, könne tiefgreifende kulturelle Veränderungen bewirken, die über Normenverschiebungen hinausgehen und die Sprache, Symbole und Identität einer Gemeinschaft auf subtile Weise verändern.
„Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses – unabhängige Stimmen – zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann“, sagte Jonas R. Kunst von der BI Norwegian Business School, einer der Hauptautoren des Science-Artikels.
Darüber hinaus können KI-Schwärme auch die Trainingsdaten von regulärer künstlicher Intelligenz verunreinigen, indem sie das Internet mit gefälschten Behauptungen überfluten. Auf diese Weise könnten sie ihren Einfluss auf etablierte KI-Plattformen ausweiten.
Die Forscher warnen, dass diese Bedrohung nicht nur theoretisch ist: Analysen legten nahe, dass derartige Taktiken bereits angewendet werden.
Die Forscher definieren einen schädlichen KI-Schwarm als eine Gruppe von KI-gesteuerten Akteuren, die dauerhafte Identitäten bewahren und ein Gedächtnis haben, sich auf gemeinsame Ziele koordinieren und dabei Ton und Inhalt variieren. Sie passen sich in Echtzeit an Interaktionen und menschliche Reaktionen an, benötigen nur minimale Aufsicht durch Menschen und können plattformübergreifend eingesetzt werden. Im Vergleich zu früheren Bot-Netzen könnten solche Schwärme schwieriger zu erkennen sein, da sie heterogene, kontextbezogene Inhalte generieren und sich dennoch in koordinierten Mustern bewegen.
„Über die Täuschungen oder die Sicherheit von einzelnen Chatbots hinaus müssen wir neue Gefahren erforschen, die sich aus der Interaktion von vielen KI-Akteuren ergeben“, sagte David Garcia, Professor an der Universität Konstanz, und ebenfalls an der Untersuchung beteiligt.
Statt einzelne Beiträge zu moderieren, plädieren die Forscher für Schutzmaßnahmen, die koordiniertes Verhalten und die Herkunft der Inhalte verfolgen: statistisch unwahrscheinliche Muster von Koordinierung aufdecken, Verifizierungsoptionen unter Wahrung des Datenschutzes anbieten und Hinweise auf KI-Einflussnahme über verteilte Beobachtungszentren weitergeben.
Gleichzeitig sollten Anreize verringert werden, indem die Monetarisierung von gefälschten Interaktionen eingeschränkt und die Rechenschaftspflicht erhöht werden, so die Empfehlung der Forscher.
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
| Text-/Bildquelle: | Übermittelt durch www.dts-nachrichtenagentur.de |
| Bildhinweis: | Roboter (Archiv) |
Häufig gestellte Fragen (FAQ)
Wie heißen die Personen in diesem Beitrag?
Die vollständigen Namen der Personen im Artikel sind: Jonas R. Kunst, David Garcia.
Welche Organisationen oder Institutionen werden genannt?
Hier sind die genannten Organisationen, Parteien oder Institutionen:
BI Norwegian Business School, Universität Konstanz, Forschungsteam, Fachzeitschrift "Science"
Wann ist das Ereignis passiert?
Nicht erwähnt
Wo spielt die Handlung des Artikels?
Die Orte, an denen das beschriebene Ereignis stattfindet oder stattfand, sind:
Konstanz, BI Norwegian Business School.
Worum geht es in einem Satz?
Forscher warnen vor der Bedrohung durch KI-gesteuerte "Schwärme", die Desinformation im Internet verbreiten, indem sie falschen Konsens generieren und so den demokratischen Diskurs gefährden, während sie gleichzeitig die Trainingsdaten anderer KI-Systeme verunreinigen können.
Was war der Auslöser für den Vorfall?
- Warnung vor Desinformation durch Künstliche Intelligenz
- Ersetzung von Copy-and-Paste-Bots durch KI-gesteuerte Schwärme
- Möglichkeit der Imitation sozialer Dynamiken
- Illusion eines breiten öffentlichen Konsenses
- Verschmelzung großer Sprachmodelle mit Multiagentensystemen
- Bedrohung des demokratischen Diskurses
- Einfluss auf Überzeugungen und Normen durch künstlichen Konsens
- Verunreinigung von Trainingsdaten etablierter KI durch gefälschte Behauptungen
- Schwierigkeit der Erkennung koordinierter Verhaltensweisen bei KI-Schwärmen
- Notwendigkeit neuer Schutzmaßnahmen gegen koordiniertes Verhalten
Wie hat die Öffentlichkeit oder Politik reagiert?
- Forschungsteam warnt vor KI-gesteuerten "Schwärmen" zur Desinformation
- Anstieg von KI-gesteuerten Flotten, die Gemeinschaftsmeinungen simulieren
- Gefahr eines "künstlichen Konsens" durch koordiniertes Verhalten
- Einfluss auf Überzeugungen und gesellschaftliche Normen
- KI-Schwärme können Trainingsdaten regulärer KI verunreinigen
- Taktiken dieser Art bereits im Einsatz
- Vorschläge für Schutzmaßnahmen und Verfolgung koordinierten Verhaltens
- Empfehlungen zur Einschränkung der Monetarisierung falscher Interaktionen
Welche Konsequenzen werden genannt?
- Gefahr des Zusammenbruchs unabhängiger Stimmen im demokratischen Diskurs
- Einfluss auf Überzeugungen und Normen
- Tiefgreifende kulturelle Veränderungen
- Verunreinigung von Trainingsdaten regulärer KI
- Erweiterung des Einflusses auf etablierte KI-Plattformen
- Erschwerter Nachweis von organisierten KI-Schwärmen
- Notwendigkeit neuer Schutzmaßnahmen
- Bedarf an Verifizierungsoptionen und Hinweisen auf KI-Einflussnahme
- Verringerung von Anreizen zur Monetarisierung gefälschter Interaktionen
- Erhöhung der Rechenschaftspflicht
Gibt es bereits eine Stellungnahme?
Ja, im Artikel wird eine Stellungnahme einer Person zitiert: "Die Gefahr besteht nicht mehr nur in Fake News, sondern darin, dass die Grundlage des demokratischen Diskurses - unabhängige Stimmen - zusammenbricht, wenn ein einzelner Akteur Tausende von einzigartigen, KI-generierten Profilen kontrollieren kann", sagte Jonas R. Kunst von der BI Norwegian Business School.
- BDI kritisiert Rohstoffpolitik der Bundesregierung - 14. Februar 2026
- Union begrüßt geplante Ausstattung von Zugbegleitern mit Bodycams - 14. Februar 2026
- Umweltminister: Autobauer sollen mehr deutschen Stahl kaufen - 14. Februar 2026

