Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Die KI-Forscherin Melanie Mitchell zeigt, warum der Weg zu genereller Künstlicher Intelligenz schwierig ist und wie sich aus der KI-Forschung eine echte Wissenschaft entwickeln könnte.

Seit dem Beginn der KI-Forschung in den 1950er-Jahren ist das Feld geprägt von optimistischen Vorhersagen, großen Investitionen - und darauffolgender Enttäuschung.

KI-Forscherin Melanie Mitchell warnt, dass dieses Wechselspiel aus "KI-Frühling" und "KI-Winter" womöglich noch nicht vorbei ist: Trotz rasanter Entwicklungen und Durchbrüche dank neuronaler Netze würden wir noch immer auf selbstfahrende Autos, multifunktionale Haushaltsroboter und künstliche Gesprächspartner warten.

Ein Grund für den eingangs beschriebenen Zyklus sieht Mitchell in unserem noch immer begrenzten Verständnis der Natur und der Komplexität von Intelligenz. In ihrem Paper "Why AI is harder than you think" zeigt sie vier Fehlschlüsse auf, die noch immer die KI-Forschung und ihre Kommunikation prägen - und deren Vermeidung echte Fortschritte begünstigen würden.

Anzeige
Anzeige

Fehlschluss 1: Enge Intelligenz befindet sich in einem Kontinuum mit genereller Intelligenz

KI-Fortschritte bei einer bestimmten Aufgabe wie dem Lesen oder Schreiben werden häufig als erster Schritt zu einer generelleren Form Künstlicher Intelligenz beschrieben, so Mitchell. Der Schachcomputer Deep Blue wurde als erster Schritt einer KI-Revolution bezeichnet, OpenAIs Text-KI GPT-3 als Schritt zu einer generellen Intelligenz. Zahlreiche weitere Beispiele zeigten diesen Optimismus.

Der amerikanische Philosoph Hubert Dreyfus war früh auf Kriegsfuß mit den großen Versprechen der KI-Forschung. Er sprach vom "Ersten-Schritt-Fehlschluss" als der Behauptung, dass wir uns seit dem Beginn der KI-Forschung in einem Kontinuum zur generellen KI bewegen, "sodass jede noch so triviale Verbesserung unserer Programme als Fortschritt zählt". Diese Annahme sei vergleichbar mit jener, dass der erste Affe, der auf einen Baum geklettert sei, Fortschritte auf dem Weg zur Mondlandung gemacht habe.

Das "unerwartete Hindernis" im angenommenen Kontinuum des KI-Fortschritts sei schon immer das Problem des gesunden Menschenverstands gewesen, zitiert Mitchell Dreyfus.

Fehlschluss 2: Leichte Dinge sind leicht und schwere Dinge sind schwer

Schon früh nach Beginn der KI-Forschung wurde klar, dass es "schwerer ist als angenommen", Künstliche Intelligenz zu erschaffen, sagte etwa John McCarthy, ein Urvater der KI-Forschung. KI-Legende Marvin Minskey, ebenfalls Mitbegründer des Forschungsgebiets, erklärte den Sachverhalt mit einem Satz: "Leichte Dinge sind schwer."

Was er damit meint: Dinge, die Menschen jeden Tag ohne Nachdenken tun, wie sich in der Welt bewegen, Gespräche führen oder über einen belebten Bürgersteig gehen, erwiesen sich als die schwierigsten Herausforderungen für Maschinen. Die vermeintlich schwierigen Aufgaben wie logisches Denken, Schachspielen, Go oder Sätze in hunderte Sprachen zu übersetzen, erwiesen sich hingegen als vergleichsweise leicht.

Empfehlung

KI sei schwieriger, als wir denken, da wir uns der Komplexität unserer eigenen Denkprozesse weitgehend unbewusst seien, sagt Mitchell. Menschen seien im Bereich der Wahrnehmung und Motorik von Natur aus derart fähig, dass sie das Schwierige leicht aussehen ließen.

"Im Allgemeinen sind wir uns am wenigsten bewusst, was unser Verstand am besten kann", sagte Minsky.

Fehlschluss 3: Die Verlockung der hoffnungsvollen Eselsbrücken

Menschen beschreiben Tiere oder Maschinen häufig mit Begriffen, die sich auf menschliche kognitive, konative und affektive Vorgänge beziehen. 1976 prägte der Computerwissenschaftler Drew McDermott dafür den Begriff der "hoffnungsvollen Eselsbrücke" (wishful mnemonics).

"Eine Hauptquelle für Einfältigkeit von KI-Programmen ist die Verwendung von Begriffen wie 'UNDERSTAND' oder 'GOAL', um auf Programme und Datenstrukturen zu verweisen. Wenn ein Forscher die Hauptschleife seines Programms 'UNDERSTAND' nennt, begeht er (bis zum Beweis seiner Unschuld) lediglich einen Zirkelbeweis. Er könnte aber auch eine Menge Leute in die Irre führen, am ehesten sich selbst. Was er stattdessen tun sollte, ist, sich auf diese Hauptschleife als 'G0034' zu beziehen und zu sehen, ob er sich selbst oder jemand anderen davon überzeugen kann, dass G0034 Ansätze von Verstehen implementiert", zitiert Mitchell.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Noch heute sei es üblich, so über KI zu sprechen, schreibt die KI-Forscherin. Neuronale Netze seien zwar lose vom Gehirn inspiriert, aber dennoch völlig anders. KIs lernen, können das Gelernte jedoch nicht in anderen Kontexten anwenden.

Firmen wie IBM sprächen aber davon, dass ihre Produkte lesen, verstehen oder sehen. Benchmarks testeten die Fähigkeit, Fragen zu beantworten, Leseverständnis oder das Verständnis natürlicher Sprache. Im besten Fall führten solche Beweisführungen die Öffentlichkeit in die Irre. Im schlimmsten Fall prägten sie unterbewusst, wie KI-Forscher über ihre eigenen Systeme nachdenken und wie nahe sie diese an menschlicher Intelligenz sehen.

Fehlschluss 4: Alle Intelligenz ist im Gehirn

Ohne Hirn ist nicht viel los im menschlichen Geist, das ist klar. Doch ist Intelligenz etwas, das vom Körper gelöst werden kann? Ist ein eingelegtes Gehirn im Konservierungsglas so intelligent wie im menschlichen Schädel?

Laut Mitchell ist die darauf vorherrschende Antwort der KI-Forschung ein klares "Ja". Der Geist würde als eine Art Computer verstanden, der Informationen aufnimmt, speichert, verarbeitet und ausgibt. Der Körper spiele keine große Rolle, das Gehirn sei zumindest in der Theorie komplett lösbar vom restlichen Körper.

Nahezu alle aktuellen KI-Systeme seien daher ohne Körper konzipiert - mit seltenen Ausnahmen in der Robotik. Doch auch deren Interaktionen mit ihrer Umwelt seien stark eingeschränkt.

Die Vorstellung, dass zumindest biologische Intelligenz nichts mit Körpern zu tun hat, wird von der Embodiment genannten These der Kognitionswissenschaft angegriffen. Kurz zusammengefasst sagt die Embodiment-These, dass unser Bewusstsein einen Körper benötigt und physikalische Interaktionen voraussetzt.

Wahrnehmung ist etwa mit motorischen Fähigkeiten verknüpft, ein klassisches Beispiel ist das Zählen an Fingern: Kinder lernen, das Konzept einer Anzahl mit der Bewegung der gleichen Anzahl von Fingern zu repräsentieren. Mit der Zeit reduziert sich die benötigte Bewegung immer weiter.

Die Embodiment-These geht jedoch davon aus, dass das Gehirn die Programme für motorische Bewegung weiter als Repräsentation für Zahlen nutzt, auch wenn die Bewegung nicht mehr stattfindet. Ohne Körper gäbe es diese motorischen Fähigkeiten nicht - und damit keine Möglichkeit, diese für das Zählen zu nutzen.

Menschliche Intelligenz ist laut der Embodiment-These ein stark körperlich integriertes System mit eng miteinander verbundenen Attributen wie Emotionen, Wünschen, einem Gefühl des Selbst und Autonomie sowie einem gesunden Menschenverstand. Es sei noch nicht geklärt, ob Intelligenz überhaupt von diesen Attributen getrennt werden könne, schreibt Mitchell.

Ist KI mehr Alchemie als Wissenschaft?

1892 sagte der Psychologe William James über die Psychologie seiner Zeit: "Das ist keine Wissenschaft, es ist lediglich die Hoffnung einer Wissenschaft."

Dies sei auch die perfekte Charakterisierung aktueller KI-Forschung, so Mitchell. Es benötige ein genaueres Vokabular für die Fähigkeiten von Maschinen sowie ein besseres Verständnis für Intelligenz und wie sie sich in verschiedenen Systemen in der Natur manifestiere.

KI-Forscher müssten stärker mit anderen Wissenschaften gemeinsam die Intelligenz erforschen und zusammenarbeiten, fordert Mitchell, sonst bliebe die KI-Forschung eine Art Alchemie. Nur so könnten Fragen beantwortet werden, wie:

  • Wie können wir den tatsächlichen Fortschritt in Richtung "genereller" oder "menschlicher" KI beurteilen?
  • Wie können wir die Schwierigkeit einer bestimmten Domäne für KI im Vergleich zu Menschen beurteilen?
  • Wie sollten wir die tatsächlichen Fähigkeiten von KI-Systemen beschreiben, ohne uns und andere mit Wunschvorstellungen zu täuschen?
  • Inwieweit können die verschiedenen Dimensionen der menschlichen Kognition (einschließlich kognitiver Verzerrungen, Emotionen, Ziele und Verkörperung) entwirrt werden?
  • Wie können wir unsere Intuitionen darüber verbessern, was Intelligenz ist?

Um wahre Fortschritte in der KI-Forschung zu erzielen und insbesondere, um zu verstehen, warum diese schwerer sind, als sie erscheinen, müsse die KI-Forschung "von der Alchemie zur Entwicklung eines wissenschaftlichen Verständnisses von Intelligenz übergehen", schließt Mitchell.

Ob KI wirklich intelligent ist, oder zumindest die Intelligenz-Zuschreibung legitim ist, diskutiere ich im Artikel: Ist Künstliche Intelligenz wirklich intelligent?

Via: Arxiv

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!