Zum Inhalt springen

Menschen vertrauen KI bei Entscheidungen über Leben und Tod

KI-Systeme entscheiden bereits, wie Krankenwagen geleitet werden, wie Lieferketten funktionieren und wie autonome Drohnen ihre Einsätze planen. Doch wenn diese Systeme eine riskante oder kontraintuitive Entscheidung treffen, wird von Menschen oft erwartet, dass sie diese ohne Herausforderung akzeptieren, warnt eine neue Studie der University of Surrey.

Die Forschung, veröffentlicht in der Annalen der Operations Research, untersuchte den Einsatz von Optimierungsalgorithmen in relevanten Bereichen wie Transport, Logistik, Gesundheitswesen und autonomen Systemen. Optimierungsalgorithmen sind Systeme, die über die bestmögliche Aktion entscheiden, indem sie Kompromisse nach festen Regeln wie Zeit, Kosten oder Kapazität abwägen. Im Gegensatz zu Vorhersagemodellen, die abschätzen, was passieren wird, entscheiden Optimierungsalgorithmen, was getan werden soll.

Optimierungsalgorithmen entscheiden, was unter strengen Grenzen wie Gewicht, Kosten, Zeit und Kapazität priorisiert, verzögert oder ausgeschlossen wird. Dennoch sind diese Entscheidungen mathematisch korrekt, aber praktisch undurchsichtig.

Die Ergebnisse des Forschungsteams deuten darauf hin, dass unser zunehmendes ‘Blind Trust’ ernsthafte Sicherheits- und Verantwortungsrisiken in den zunehmenden Bereichen des Alltagslebens mit sich bringt, in denen Optimierungsalgorithmen eingesetzt werden.

Mithilfe einer klassischen Optimierungsherausforderung, die als Knapsack-Problem bekannt ist, zeigt die Forschung, wie Modelle des maschinellen Lernens die Struktur einer Optimierungsentscheidung lernen und sie dann in einfacher Sprache erklären können. Die Methode zeigt, welche Einschränkungen am wichtigsten waren, warum bestimmte Optionen ausgewählt wurden und welche Kompromisse andere verdrängt haben.

Die Studie zeigt, wie Unternehmen Optimierungsalgorithmen in Frage stellen können, bevor ihre Entscheidungen in die Praxis umgesetzt werden. Anstatt bestehende Systeme zu ersetzen, arbeitet der Ansatz mit ihnen zusammen und nutzt maschinelles Lernen zur Analyse von Entscheidungen und erklärbare KI, um aufzudecken, warum eine Option einer anderen vorgezogen wurde und welche Einschränkungen und Kompromisse das Ergebnis prägten.

Dr. Wolfgang Garn, Autor der Studie und außerordentlicher Professor für Analytik an der University of Surrey, sagte:

„Die Menschen werden zunehmend aufgefordert, Optimierungssystemen zu vertrauen, die wichtige Entscheidungen stillschweigend prägen“. Wenn etwas falsch aussieht, haben sie oft keine Möglichkeit, es in Frage zu stellen. Unsere Arbeit öffnet diese Entscheidungen, damit Menschen die Logik sehen, sie in Frage stellen und eingreifen können, bevor Konsequenzen aus der realen Welt eintreten“

Dies ist besonders wichtig für autonome Systeme wie Lieferdrohnen. Drohnen müssen ständig entscheiden, welche Pakete sie tragen möchten, und dabei die Akkulaufzeit, das Nutzlastgewicht und die Sicherheitsanforderungen in Einklang bringen. Ohne Transparenz können Regulierungsbehörden und Betreiber diese Entscheidungen nicht einfach begründen oder prüfen.

Anstatt bestehende Optimierungssoftware zu ersetzen, arbeitet der Ansatz damit zusammen. Bei diesem Ansatz wird maschinelles Lernen eingesetzt, um Lösungen zu analysieren, die Machbarkeit zu erklären und spröde oder risikoreiche Entscheidungen vor dem Einsatz zu identifizieren.

Die Forschung führt einen strukturierten Rahmen ein, der sicherstellt, dass Erklärungen auf echte Entscheidungsträger zugeschnitten sind. Anstelle technischer Ergebnisse können Systeme für Menschen lesbare Überlegungen liefern, wie zum Beispiel: “Es wurden zu viele schwere Gegenstände ausgewählt oder Batteriegrenzwerte wurden über den Lieferwert priorisiert.”

Dr. Garn fuhr fort:

„Regulierungsbehörden beginnen, härtere Fragen zu automatisierten Entscheidungen zu stellen. Wenn Sie nicht erklären können, warum Ihr System eine Option einer anderen vorgezogen hat, werden Sie Schwierigkeiten haben, die Genehmigung — zu erhalten oder sich zu verteidigen, wenn etwas schief geht. Dieser Rahmen macht diese Erklärung möglich“

Autoren-Avatar
LabNews.AI
The Editors in Chief of labnews.ai are Marita Vollborn and Vlad Georgescu. They are bestselling authors, science writers and science journalists.More details on X-Press Journalistenbüro GbRFind out more abot their books on Bestsellerwerkstatt.More Info on Wikipedia:https://de.wikipedia.org/wiki/Marita_Vollbornhttps://de.wikipedia.org/wiki/Vlad_Georgescu