Inhalt
newsletter Newsletter

OpenAIs KI-Mikroskop "Microscope" soll die Analyse neuronaler Netze erleichtern und somit für transparentere Künstliche Intelligenz sorgen.

Ein echtes Mikroskop, so richtig mit Stativ, Revolverkopf, Objektträger und Lichtquelle, hat OpenAI natürlich nicht gebaut. Das Innenleben Künstlicher Intelligenz wird per Software erforscht.

Diese Software folgt zumindest dem Gedanken eines echten Mikroskops: Sie zoomt auf die Inhalte und Entscheidungen einzelner Neuronen in künstlichen neuronalen Netzen für Bildverarbeitung ein. Derzeit werden neun gängige Modelle unterstützt.

Microscope soll so die komplexen Interaktionen Tausender oder Zehntausender Neuronen nachvollziehbar und insbesondere wissenschaftlich besser diskutierbar machen.

Anzeige
Anzeige

Ein Wissenschaftler könnte laut OpenAI beispielsweise die Behauptung aufstellen, dass Googles KI-Modell InceptionV1 für die Auto-Erkennung auf Reifen- und Fenster-Detektoren basiert. Mit direkten Links auf die Neuronen, die ihn zu seiner These motivierten, soll dann die Argumentation einfacher und schneller von der Hand gehen.

Das Bildanalysemodell Inceptionv1 unter dem OpenAI Microscope: Der Blick in einzelne Neuronen ist manchmal etwas unheimlich. Praktisch für wissenschaftliche Diskussionen ist die direkte Verlinkung. Bild: OpenAI (Screenshot)
Das Bildanalysemodell Inceptionv1 unter dem OpenAI Microscope: Der Blick in einzelne Neuronen ist manchmal etwas unheimlich. Praktisch für wissenschaftliche Diskussionen ist die direkte Verlinkung. Bild: OpenAI (Screenshot)

Effzientere Neuronenanalyse für KI-Forscher

Neu ist die Visualisierungstechnik für Neuronen nicht, sie ist bereits als Open Source verfügbar. Allerdings soll die Analyse nun in Sekunden möglich sein statt in Minuten. Die Möglichkeit zur Verlinkung einzelner Neuronen soll die Kollaboration zwischen Forschern erleichtern.

"Microscope erleichtert die Feature-Analyse im Inneren der neuronalen Netze und wir hoffen, dass das der Wissenschaft dabei hilft, diese komplizierten Systeme zu verstehen", schreibt OpenAI zur Veröffentlichung. In Zukunft soll Microscope mehr Modelle und neue Visualisierungstechniken unterstützen.

Dämmerlicht in der Blackbox-KI

Die Nachvollziehbarkeit von KI-Entscheidungen könnte für die Zukunft der Technologie grundlegend relevant sein, einerseits für die Fehleranalyse, andererseits, um für mehr Technik-Akzeptanz bei Menschen zu sorgen, beispielsweise im Kontext medizinischer Diagnosen durch Künstliche Intelligenz.

Entsprechend viele Projekte laufen schon für mehr KI-Transparenz: Im letzten November stellte Facebook "Captum" vor, eine Software, die zeigt, welche Signale in einem neuronalen Netz welchen Einfluss auf dessen Entscheidungsfindung hatten. Auch Google, IBM und Microsoft bieten Werkzeuge an, die einen Blick in die "Blackbox KI" ermöglichen sollen.

Empfehlung

Der KI-Investor, Biomediziner und Computerwissenschaftler Vijay Pande hat eine andere Perspektive auf das Blackbox-Risiko: Der undurchsichtige Denkprozess einer Maschine sei letztlich ebenso wenig exakt nachvollziehbar wie der eines Menschen.

Quelle: OpenAI

Weiterlesen über KI verstehen:

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!