In einem Policy Forum diskutieren Daniel Schroeder und Kollegen die Risiken bösartiger „KI-Schwärme“, die eine neue Klasse groß angelegter, koordinierter Desinformationskampagnen ermöglichen und erhebliche Gefahren für die Demokratie bergen. Die Manipulation der öffentlichen Meinung beruht seit Langem auf Rhetorik und Propaganda. Moderne KI-Systeme haben jedoch neue, leistungsstarke Werkzeuge zur Beeinflussung menschlicher Überzeugungen und Verhaltensweisen im gesellschaftlichen Maßstab geschaffen. Große Sprachmodelle (LLMs) und autonome Agenten können heute riesige Mengen an überzeugenden, menschenähnlichen Inhalten generieren. Werden diese Systeme zu kollaborativen KI-Schwärmen kombiniert – Ansammlungen KI-gesteuerter Personas, die Erinnerungen und Identität bewahren –, können sie soziale Dynamiken imitieren und Online-Communities leicht infiltrieren, wodurch falsche Narrative glaubwürdig erscheinen und weit verbreitet werden.
Laut den Autoren können KI-Systeme , anders als frühere, arbeitsintensive Einflussoperationen, die von Menschen durchgeführt wurden, kostengünstig, konsistent und in enormem Umfang operieren und ehemals isolierte Desinformationskampagnen in persistente, adaptive Kampagnen verwandeln, die weltweit ernsthafte Risiken für demokratische Prozesse darstellen. Schroeder
et al. Die Autoren erörtern die Technologie, die diesen schädlichen Systemen zugrunde liegt, und identifizieren Wege, über die sie den demokratischen Diskurs auf weit verbreiteten digitalen Plattformen schädigen können. Sie argumentieren, dass die Abwehr dieser Systeme mehrschichtig und pragmatisch sein muss und nicht auf die vollständige Verhinderung ihrer Nutzung abzielt, was höchst unwahrscheinlich ist, sondern darauf, die Kosten, das Risiko und die Sichtbarkeit von Manipulationen zu erhöhen.
Da solche Bemühungen eine globale Koordination jenseits von Unternehmens- und Regierungsinteressen erfordern würden, schlagen Schroeder
et al. ein dezentrales „KI-Einfluss-Observatorium“ vor, bestehend aus einem Netzwerk akademischer Gruppen, Nichtregierungsorganisationen und anderen zivilgesellschaftlichen Institutionen, um unabhängige Aufsicht und Maßnahmen zu steuern. „Der Erfolg hängt davon ab, gemeinschaftliches Handeln zu fördern, ohne die wissenschaftliche Forschung zu behindern und gleichzeitig sicherzustellen, dass die Öffentlichkeit widerstandsfähig und rechenschaftspflichtig bleibt“, schreiben die Autoren. „Indem wir uns jetzt zu strengen Messungen, angemessenen Schutzmaßnahmen und gemeinsamer Aufsicht verpflichten, könnten die anstehenden Wahlen sogar zu einem Testfeld für eine demokratische KI-Governance werden, anstatt einen Rückschlag zu bedeuten.“
