Unabhängiges Magazin für Wirtschaft und Bildung

13. Dezember 2024

Search form

Search form

Künstliche Intelligenz versus Sicherheit und Fairness


Künstliche Intelligenz versus Sicherheit und Fairness
© Pexels.com/tara winstead

Neuronale Netzwerke können heutzutage bereits selbständige Entscheidungen treffen. Ob diese immer rational und fair sind, ist oftmals fraglich. Die TU Wien und das AIT forscht nun an Methoden, um das zu gewährleisten.


(red/czaak) Viele Entscheidungen, die bisher von Menschen getroffen wurden, werden bereits jetzt von Maschinen getroffen und künftig wird das noch zunehmen. Daten, die via Künstliche Intelligenz ausgewertet und interpretiert werden, sind die Grundlage dafür. Besonders in sensiblen Bereichen wäre eine zuverlässige Garantie vorteilhaft, dass die KI-gestützten Antworten tatsächlich sinnvoll sind, oder zumindest, dass bestimmte schwere Fehler ausgeschlossen sind.

Ein Team der TU Wien und des AIT Austrian Institute of Technology entwickelte nun Methoden, mit denen zertifiziert werden kann, dass bestimmte neuronale Netzwerke fair und sicher sind. Das Projekt ist Teil des Doktoratsprogramms Secint an der TU Wien, in dem interdisziplinäre Forschung zwischen Machine Learning, Computersicherheit und Datenschutz sowie formalen Methoden in der Computerwissenschaft durchgeführt wird. Die Ergebnisse wurden diese Woche auf der renommierten Veranstaltung „International Conference on Computer Aided Verification“ in Montreal präsentiert. 


Relevante Bereiche und Entscheidungen zum Thema Sicherheit

Dass künstliche Intelligenz manchmal zu Fehlern neigt, ist bekannt. Wenn das dann bloß dazu führt, dass ein Mensch in einem computergenerierten Bild sechs Finger an einer Hand aufweist, ist das kein großes Problem. Aber künstliche Intelligenz wird sich auch in Bereichen durchsetzen, in denen Sicherheitsfragen eine zentrale Rolle spielen. „Denken wir zum Beispiel an Entscheidungen, die von einem selbstfahrenden Auto getroffen werden – oder auch von einem Computersystem, das für medizinische Diagnostik eingesetzt wird“, sagt Anagha Athavale vom Institut für Logic und Computation der TU Wien.


Athavala analysiert neuronale Netzwerke, die darauf trainiert sind, bestimmte Eingabedaten bestimmten Kategorien zuzuordnen. Der Input könnte zum Beispiel eine Verkehrssituation sein, und das neuronale Netzwerk ist darauf trainiert, zu entscheiden, in welchen Situationen man lenken, bremsen oder beschleunigen soll. Oder der Input besteht aus Datensätzen über verschiedene Bankkunden, und das neuronale Netz wurde trainiert zu entscheiden, ob eine Person einen Kredit bekommen soll oder nicht.


Fairness und Robustheit

„Im Normalfall verlangen wir von einem solchen neuronalen Netz Robustheit und Fairness“, erklärt Anagha Athavale. Robustheit ist dann gegeben, wenn zwei Situationen, die sich nur in kleinen Details unterscheiden, auch zum selben Ergebnis führen. Und Fairness ist gegeben, wenn sich zwei Situationen nur in einem Parameter unterscheiden, der für die Entscheidung eigentlich keine Rolle spielen sollte, dann sollte das neuronale Netz dasselbe Ergebnis liefern.


„Zwei Personen haben finanziell sehr ähnliche Daten, unterscheiden sich aber im Geschlecht oder in der Ethnizität. Das sind Parameter, die etwa auf eine Kreditvergabe keinen Einfluss haben sollten. Das System sollte somit also in beiden Fällen dasselbe Ergebnis liefern“, erläutert Athavale.


Das ist allerdings alles andere als selbstverständlich: Immer wieder zeigt sich, dass Machine Learning zu Diskriminierung führen kann – etwa einfach dadurch, dass man neuronale Netze mit Daten trainiert werden, die von vorurteilsbehafteten Menschen generiert wurden. Ganz automatisch bekommt die künstliche Intelligenz somit die Vorurteile der Menschen antrainiert.


Lokale und globale Variablen

Deshalb haben wir ein System entwickelt, das auf Vertrauen basiert", erklärt Anagha Athavale. "Unsere Anwendung prüft das neuronale Netz nicht nur auf bestimmte Eigenschaften, sondern gibt auch Auskunft über den Grad des Vertrauens“, skizziert TU Expertin Anagha Athavale. Diese auf Vertrauen basierende Sicherheitseigenschaft ist eine wichtige Änderung in der Art und Weise, wie globale Eigenschaften von neuronalen Netzen definiert werden. Um dieses Problem zu lösen, waren mathematische Tricks nötig. Athavale musste Wege finden, um das Verhalten des neuronalen Netzes zuverlässig abzuschätzen, ohne bestimmte mathematische Funktionen zu verwenden, die normalerweise in neuronale Netze eingebaut sind.

Sie entwickelte Vereinfachungen, die es dennoch erlauben, zuverlässige, strenge Aussagen über das neuronale Netz als Ganzes zu machen. Der Erfolg dieser Methode zeigt: Es ist nicht nötig, einer künstlichen Intelligenz blind zu vertrauen, schon gar nicht, wenn sie wichtige Entscheidungen trifft. „Es ist technisch möglich, ein neuronales Netz rigoros zu testen und gewisse Eigenschaften mit mathematischer Zuverlässigkeit zu garantieren und das ist ein wichtiges Resultat für die Zusammenarbeit von Mensch und Maschine“, betont Anagha Athavale vom Institut für Logic und Computation der TU Wien.

Links

red/czaak, Economy Ausgabe Webartikel, 01.11.2024