IBM lanciert Wächter für künstliche Intelligenz
IBM hat ein Tool vorgestellt, das Entscheidungen von KIs dem Menschen gegenüber offenlegen soll. Damit will das US-Unternehmen verhindern, dass Algorithmen zu verzerrten und unfairen Ergebnissen gelangen.

IBM hat das "AI Fairness 360 Kit" lanciert. Ein Tool, das die Entscheidungen von KI-Algorithmen für den Menschen transparenter machen soll. Wie die "BBC" berichtet, wolle das US-Unternehmen damit sicherstellen, dass künstliche Intelligenz bei ihren Berechnungen fair und ausgewogen bleibt. Das Tool könne die KI-Prozesse analysieren und auch Anpassungen vorschlagen.
IBM reagiere mit der Software auf Befürchtungen, dass KI-Programme gewisse Bevölkerungsgruppen diskriminieren könnte und nicht mehr nachvollziehbare Ergebnisse produziert. So habe es Fälle gegeben, in denen KIs Gesichter von Menschen mit dunkler Hautfarbe nicht erkannt habe, weil sie auf weisse Konterfeis trainiert worden seien.
Je stärker KI in Alltag und Wirtschaft - von der Autoversicherung bis zur Strafverfolgung - zum Einsatz komme, umso grösser werde das Probleme unfairer Entscheidungen durch die Technologie, schreibt die BBC.
Das IBM-Tool soll verschiedene Möglichkeiten bieten, Verzerrungen in KIs zu erkennen. (Source: ibmcode-staging.us-east.containers.mybluemix.net)
Dashboard gegen die KI-Black-Box
KI-Algorithmen seien heute oftmals eine Art "Black Box". Das heisst, Menschen könnten kaum noch nachvollziehen, wie ihre Ergebnisse zustande kommen. Das IBM-Tool versuche dem Abhilfe zu schaffen, indem es seinen Nutzern die KI-Prozesse auf einem Dashboard viduell anzeige. Dabei sollen auch die Faktoren deutlich werden, die zur finalen Entscheidung geführt hätten. Dazu kämen Aufzeichnungen über Genauigkeit, Leistung und Fairness des Algorithmus.
Das Tool sei Open Source und soll mit einer Vielzahl von gängigen Frameworks für den Aufbau von Algorithmen zusammenarbeiten. Andere KI-Entwickler wie Google, Facebook oder Microsoft arbeiteten an ähnlichen Lösungen, heisst es weiter. Ein Zeichen, dass sich die KI-Entwicklergemeinde des Problems von verzerrten Entscheidungen ihrer Programme zunehmend bewusst werde.
Die Intransparenz von KI-Entscheidungen war auch Thema an einem Swiss-Re-Event. Den Bericht dazu finden Sie hier.

Update: Parlament befürwortet nationalen Adressdienst

OpenAI schiesst gegen Deepseek

Beekeeper sammelt 35 Millionen US-Dollar ein

Wie alte Ehepaare Gespräche am Laufen halten

BenQ lanciert Studio-Monitore für kreative Apple-User

Governance in der Datenökonomie – die Basis für digitales Vertrauen

ZHAW-Spin-off Rwai bekommt Kapital zum Ausbau seiner KI-Plattform

Update: Bundesrat eröffnet Vernehmlassung zum Breitbandausbau

Sony entwickelt Display-System mit individuell steuerbaren RGB-LEDs
