Fake-Media im positiven Sinne: Eine neue Deepfake-GAN-Methode für medizinische Aufnahmen soll hochauflösende Trainingsdaten für Diagnose-KIs liefern.

Künstliche Intelligenz soll Ärzte zukünftig bei Diagnosen entlasten, gerade bei jenen, die visuell anspruchsvoll sind: zum Beispiel die frühe Krebserkennung auf einem CT-Scan. Die pixelgenaue Analyse der KI kann gefährliche Zellstrukturen im Optimalfall früher identifzieren als jede menschliche Expertin. Kürzlich zeigten Wissenschaftler eine KI-Software, die sich entwickelnden Brustkrebs bis zu fünf Jahre im Voraus finden können soll.

Nun wird es mittlerweile Allgemeinwissen sein, dass die Präzision von KI-Aktivitäten jedweder Art mit der Verfügbarkeit von Trainingsdaten zusammenhängt. Das gilt insbesondere im medizinischen Kontext. Gerade hier kann es allerdings sein, dass die notwendigen Daten zum Schutz der Privatsphäre unter Verschluss gehalten werden.

Deepfakes zum Wohle der Menschheit

Es existiert ein Ausweg aus diesem Dilemma: Die mächtige KI-Bildfälschungsmethode nach dem GAN-Prinzip, im Alleingang verantwortlich für die Deepfake-Debatte der letzten Monate mit teils grausligen Anwendungen, ist in der Lage, anhand echter medizinischer Bilder weitere künstliche zu erstellen und so die Menge an Trainingsdaten für die eigentliche Diagnose-KI zu steigern (siehe Titelbild).

Beispiele für medizinische KI-Bilder im Vergleich zu Originalaufnahmen. Bild: Universität Lübeck

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: OpenXR, Oculus Half Dome und Fake-Holodecks | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.