Zum Inhalt springen

Stresstest für KI-Vision-Systeme: Überdenken, wie kontradiktorische Bilder erzeugt werden

Deep Neural Networks (DNNs) sind zu einem Eckpfeiler der modernen KI-Technologie geworden und treiben ein florierendes Forschungsfeld für bildbezogene Aufgaben voran. Diese Systeme haben Anwendungen in der medizinischen Diagnose, der automatisierten Datenverarbeitung, der Computer Vision und verschiedenen Formen der industriellen Automatisierung gefunden, um nur einige zu nennen. Mit zunehmender Abhängigkeit von KI-Modellen wächst auch unser Bedürfnis, diese anhand kontradiktorischer Beispiele gründlich zu testen. Einfach ausgedrückt sind kontradiktorische Beispiele Bilder, die strategisch mit Rauschen modifiziert wurden, um eine KI dazu zu bringen, einen Fehler zu machen. Das Verständnis kontradiktorischer Bilderzeugungstechniken ist für die Identifizierung von Schwachstellen in DNNs und die Entwicklung sichererer und zuverlässigerer Systeme von entscheidender Bedeutung.Trotz ihrer Bedeutung weisen aktuelle Techniken zur Erstellung kontradiktorischer Beispiele erhebliche Einschränkungen auf. Wissenschaftler haben sich hauptsächlich darauf konzentriert, das hinzugefügte Rauschen durch eine als solche bekannte Einschränkung mathematisch klein zu machen Lp- Norm. Dies hält die Änderungen zwar subtil, führt jedoch häufig zu körnigen Artefakten, die unnatürlich aussehen, da sie nicht mit den Texturen des Originalbildes übereinstimmen. Selbst wenn das Rauschen klein und schwer zu erkennen ist, kann es daher leicht erkannt und durch Sicherheitsvorfilter blockiert werden, die nach ungewöhnlichen Frequenzmustern suchen. Eine bemerkenswerte Herausforderung in diesem Bereich besteht daher darin, über die bloße Minimierung des Lärms hinauszugehen und stattdessen gegnerische Angriffe zu entwickeln, die noch subtiler sind.Vor diesem Hintergrund haben der Doktorand Masatomo Yoshida und Professor Masahiro Okuda von der Graduate School of Science and Engineering der Doshisha-Universität in Japan eine Methode entwickelt, um additives Rauschen in kontradiktorischen Beispielen mit der “-Spektralform” des Bildes in Einklang zu bringen. Ihre Studie, veröffentlicht in Band 13 der Zeitschrift IEEE-Zugriff Führt am 24. Dezember 2025 ein innovatives Framework namens Input-Frequency Adaptive Adversarial Perturbation (IFAP) ein.Im Gegensatz zu früheren frequenzbewussten Methoden, die nur bestimmte Frequenzbänder manipulierten, verwendet IFAP eine neue Einschränkung der spektralen Hüllkurve. Dadurch kann das hinzugefügte Rauschen adaptiv mit der gesamten Frequenzverteilung des Eingabebildes übereinstimmen und so sicherstellen, dass die Störung spektral dem Originalinhalt entspricht.Die Forscher testeten IFAP anhand verschiedener Datensätze, darunter Hausnummern, allgemeine Objekte und komplexe Texturen wie Gelände und Stoffe. Um die Leistung zu bewerten, verwendeten sie einen umfassenden Satz von Metriken, darunter eine neue, von ihnen entwickelte Metrik namens Frequency Cosine Similarity (Freq_Cossim). Während Standardmetriken normalerweise auf Fehler auf Pixelebene prüfen, misst Freq_Cossim speziell, wie gut die Form der Spektralprofilfrequenz des Rauschens mit der des Originalbildes übereinstimmt.Die Ergebnisse zeigten, dass IFAP bestehende kontradiktorische Generierungstechniken hinsichtlich struktureller und struktureller Ähnlichkeit mit dem Ausgangsmaterial deutlich übertraf. Obwohl der gegnerische Angriff optisch natürlicher und subtiler war, blieb er äußerst effektiv und täuschte erfolgreich eine breite Palette von KI-Architekturen. Interessanterweise zeigten die Forscher auch, dass diese harmonisierten Störungen widerstandsfähiger gegen gängige Bildreinigungstechniken wie JPEG-Komprimierung oder Unschärfe sind. Da das Rauschen so gut in die natürlichen Texturen des Bildes integriert ist, ist es für einfache Transformationen viel schwieriger, es zu beseitigen, ohne das Bild selbst wesentlich zu verändern.IFAP hat wichtige Auswirkungen darauf, wie kontradiktorische Beispiele in der KI-Forschung eingesetzt werden. Indem Forscher verstehen, wie sie Rauschen erzeugen können, das mit der menschlichen Wahrnehmung übereinstimmt, können sie bessere gegnerische Angriffe implementieren, um KI-Modelle zu stresstests und zu robuster umzuschulen. “Wir glauben, dass unsere Arbeit zur Entwicklung äußerst zuverlässiger KI-Modelle für Bereiche wie die medizinische Diagnose führen könnte, die nicht durch geringfügige Änderungen der Bildqualität oder des Rauschens verwechselt werden” sagt Prof. Okuda.Mit Blick auf die Zukunft setzt diese Studie einen neuen Maßstab dafür, wie wir KI-Sicherheit und -Leistung bei bildzentrierten Aufgaben bewerten. “Bewertungskriterien, die die Übereinstimmung mit der menschlichen Wahrnehmung und Häufigkeitsmerkmalen betonen, wie unsere Forschung vorschlägt, könnten in den nächsten 5 bis 10 Jahren häufiger vorkommen” schließt Prof. Okuda. “Dieser Wandel wird wahrscheinlich die Zuverlässigkeit von KI-Systemen erhöhen, die wichtige Infrastrukturen der Gesellschaft wie medizinische Versorgung und Transport unterstützen.”

Autoren-Avatar
LabNews.AI
The Editors in Chief of labnews.ai are Marita Vollborn and Vlad Georgescu. They are bestselling authors, science writers and science journalists.More details on X-Press Journalistenbüro GbRFind out more abot their books on Bestsellerwerkstatt.More Info on Wikipedia:https://de.wikipedia.org/wiki/Marita_Vollbornhttps://de.wikipedia.org/wiki/Vlad_Georgescu