Was ist eigentlich Künstliche Intelligenz? Was bedeutet Machine Learning? Und wie war das nochmal mit den GANs? Hier findet ihr knackige Definitionen zu häufig verwendeten Fachbegriffen.

Hinweis: Der Artikel wird regelmäßig aktualisiert. Letztes Update: 17. November 2019

Wer über die Zukunft der Computer nachdenkt, kommt an Künstlicher Intelligenz nicht vorbei. Und wer über die Vergangenheit der Computer nachdenkt, eigentlich auch nicht – der Traum von der denkenden Maschine findet sich schon bei den antiken Griechen.

Doch die Zeit der Legenden scheint vorbei: Künstliche Intelligenz ist heute überall. Doch was ist das eigentlich, was wir heute KI nennen? Und wie funktioniert sie?

Künstliche Intelligenz / Artificial Intelligence

Einer der Gründerväter der Künstlichen Intelligenz, John McCarthy, bezeichnete KI als “die Wissenschaft und Technik der Herstellung intelligenter Maschinen”, also als Betätigungsfeld für Forscher und Ingenieure.

Heute meint der Begriff meist eben diese intelligenten Maschinen: Künstliche Intelligenz steht für Computersysteme, die sich intelligent verhalten.

Intelligenz meint hier: Sie lösen Aufgaben, die normalerweise Intelligenz erfordern, etwa Sprache verstehen und von sich geben, Bilderkennung, Entscheidungsfindung oder Übersetzungen.

Schwache / Enge KI

KIs erlernen und erledigen – anders als der Mensch – meist nur eine Aufgabe auf hohem Niveau. Eine solche KI wird daher schwache oder enge KI (weak oder narrow AI) genannt. Innerhalb ihres Spezialgebiets sind sie mittlerweile häufig dem Menschen überlegen. Alle aktuellen KI-Systeme sind schwache KIs.

Generelle / Starke KI

Eine KI mit menschenähnlicher Intelligenz, die ihren Verstand auf viele unterschiedliche Aufgaben anwenden kann, existiert noch nicht. Sie ist aber das große Ziel der KI-Forschung. Eine solche KI wird generelle Künstliche Intelligenz (Artifcial General Intelligence) genannt. Gebräuchlich, aber auf Grund ihrer philosophischen Ursprünge weniger eindeutig, sind die Bezeichnungen starke oder echte KI (strong oder true AI). Im Deutschen findet sich vereinzelt auch die Übersetzung allgemeine Künstliche Intelligenz.

Super-KI

Entwickelt sich die generelle Künstliche Intelligenz so weit, dass sie den Menschen in allen Belangen übertrifft, entsteht eine Künstliche Super Intelligenz (Artificial Super Intelligence). Für viele KI-Warner markiert die Entstehung einer KSI – Singularität genannt – das wahrscheinliche Ende der Menschheit. Manche KI-Experten hoffen hingegen, dass die Super-KI die großen Probleme der Menschheit löst wie den Klimawandel, Armut und Krankheit.

Wie man eine Künstliche Intelligenz erschafft

Es existieren verschiedene Methoden, um Künstliche Intelligenz zu schaffen. Grundsätzlich können zwei unterschiedliche Ansätze unterschieden werden:

Die sogenannte „Good, Old-Fashioned AI“ (GOFAI) bestimmte die KI-Forschung bis in die späten 1980er und strebte nach einer starken KI. Die Idee: Menschliches Denken besteht aus dem logischen Kombinieren einzelner Begriffe, die unser Wissen über die Welt enthalten.

SHRDLU war eines der ersten KI-Programme, das versuchte, natürliche Sprache zu verstehen. Die zwischen 1968 und 1970 entstandene KI kann nach Aufforderung geometrische Objekte bewegen und Auskünfte über sie geben.

Aus dieser Vorstellung entstanden sogenannte Expertensysteme, die einfache Informationen über die Welt in symbolische Kategorien verpacken und mit diesen in logischen Schlussfolgerungen operieren.

Die GOFAI konnte die großen Erwartungen an KI nicht erfüllen – es brach der erste KI-Winter ein. Forschungsgelder wurden gestrichen und Projekte eingestampft. Heute werden solche KIs etwa in der Prozessautomatisierung eingesetzt.

Maschinelles Lernen / Machine Learning

Der aktuelle Liebling der KI-Forschung ist das Maschinelle Lernen (Machine Learning), hier insbesondere das Deep Learning.

Maschinelles Lernen schafft Computersysteme, die mit Hilfe von Daten lernen, Aufgaben zu erfüllen. Anstatt eines Entwicklers, der Zeile für Zeile Anweisungen in Form von Programmiercode vorgibt, schreibt die Software nach dem ersten Anstoß ihren Code eigenständig fort und optimiert ihn für ein besseres Ergebnis.

Aktueller Favorit der Forschungsdisziplin ist das sogenannte Deep Learning: Maschinelles Lernen mit mehrschichtigen neuronalen Netzen, die mit immer höherer Genauigkeit Muster in Daten erkennen und so menschliche Vorlieben lernen, Gegenstände erkennen oder Sprache verstehen.

Maschinelles Lernen treibt eine große Anzahl aktueller KI-Dienste an. Egal ob Google, Netflix oder Facebook: Lernende Algorithmen sprechen Empfehlungen aus, verbessern Suchmaschinen und lassen Sprachassistenten Antworten geben.

(Künstliche) Neuronale Netze / (Artificial) Neural Networks

Künstliche neuronale Netze sind von einem rudimentären Bild des menschlichen Gehirns inspiriert: Ein Algorithmus schafft verschiedene Schichten verbundener Neuronen oder Knotenpunkte, die Informationen untereinander austauschen. Ihre mathematischen Anfänge haben die neuronalen Netze im Jahr 1943.

Die Architektur besteht im einfachsten Fall aus einer Input-Schicht, einer mittleren, versteckten Schicht (Hidden Layer) und einer Output-Schicht. Das Input-Signal wird durch die anfangs zufällig generierten Werte der mittleren Neuronen modifiziert und an die Output-Schicht weitergegeben.

Ein einfaches künstliches neuronales Netzwerk. Ein Kreis entspricht einem künstlichen Neuron, ein Pfeil zeigt die Verbindung eines Outputs eines Neurons zum Input eines anderen. Bild: Wikipedia.

Ein einfaches künstliches neuronales Netzwerk. Ein Kreis entspricht einem künstlichen Neuron, ein Pfeil zeigt die Verbindung eines Outputs eines Neurons zum Input eines anderen. Bild: Glosser.caColored neural networkCC BY-SA 3.0.

Der Output kann nun mit dem Input verglichen werden – war die Vorhersage richtig oder nicht? Anhand des Ergebnisses werden die Werte der mittleren Neuronen modifiziert und der Vorgang wird mit einem neuen Input wiederholt. Durch viele Wiederholungen wird die Vorhersage immer präziser.

Kurz gesagt: Neuronale Netze sind Algorithmen, die sich selbst optimieren.

Wer tiefer einsteigen will, dem sei diese hervorragende englischsprachige Videoreihe empfohlen.

Tiefes Lernen / Deep Learning

Tiefes Lernen oder Deep Learning ist Maschinelles Lernen mit Neuronalen Netzen mit mehr als einer versteckten Schicht (Hidden Layer).

Diese komplexen neuronalen Netze traten ihren Siegeszug spätestens 2012 an, als ein solches Netzwerk den ImageNet-Wettbewerb für Bildanalyse haushoch gewann.

Jede Schicht eines tiefen neuronalen Netzes kann eigene Bildinformationen analysieren: Ränder, Texturen und Muster bis hin zu Objekten. Bild: Distil.

Jede Schicht eines tiefen neuronalen Netzes kann eigene Bildinformationen analysieren: Ränder, Texturen und Muster bis hin zu Objekten. Bild: Distil.

Tiefes Lernen ist verantwortlich für den KI-Boom der letzten Jahre, insbesondere bei der Bilderkennung, dem autonomen Fahren oder für Deepfakes.

Der Durchbruch von Deep Learning wird möglich durch immer schnellere Prozessoren und dedizierte KI-Chips wie Googles TPU sowie riesige Datenmengen, die für das Training der Maschine eingesetzt werden.

Generative Adversarial Network (GAN)

GANs bestehen aus zwei neuronalen Netzen (Agenten), die sich gegenseitig verbessern. Beide werden mit einem gemeinsamen Datensatz, etwa Fotos, trainiert.

Ein Agent erstellt danach dem Datensatz ähnliche Inhalte, der andere gleicht diese mit dem ursprünglichen Datensatz ab. Erkennt er sie als Fälschung, zwingt das den Fälscher, seinen Inhalt zu verbessern – bis er so aussieht, als gehöre er wie ein Original zum Trainingsdatensatz.

In 4,5 Jahren sind die GAN-KIs immer besser darin geworden, menschliche Portraits zu generieren.

Mit genug Wiederholungen entsteht ein Meisterfälscher: GANs erzeugen täuschend echte Menschen, Deepfakes, Straßenzüge oder Fake-Models. Sie dichten, musizieren und erschaffen teure Kunstwerke, machen aus Retro-Games HD-Versionen. Seit ihrer Einführung 2014 sind sie stetig besser geworden.

Training, Training, Training

Das Training gehört zu Künstlicher Intelligenz wie Platzhalter in mathematische Formeln. Doch wie gelernt und trainiert wird, hängt ganz von der KI ab. Ich stelle euch einige Lernmethoden vor, die im KI-Training eingesetzt werden.

Überwachtes Lernen / Supervised Learning

Beim überwachten Lernen wird die KI in dem Sinne überwacht, dass ihre Trainingsdaten vorbereitet werden. Ein Beispiel: Soll eine KI Objekte auf Fotos erkennen, werden vor dem Training alle Katzen, Autos, Bäume usw. auf den Trainingsfotos markiert.

Oculus Rift: Oculus enthüllt Exklusivtitel "Asgard's Wrath"

Beispiel für ein von einem Menschen für das KI-Training vorbereitete Bild. Bild: Samasource

Dieser Markierungsprozess (“labeln”) ist zeitaufwendig, aber die Grundlage für erfolgreiches überwachtes Training – die KI weiß dank der intensiven menschlichen Vorarbeit, nach welchen Mustern sie suchen soll.

Überwachtes Lernen steckt hinter einem Großteil aktuell breit eingesetzter KIs, zum Beispiel für das autonome Fahren, die Gesichtserkennung oder die Online-Suche. Die Labels werden oft von Niedriglohnarbeitern gesetzt, in den letzten Jahren ist daraus eine weltweite Industrie geworden.

Unüberwachtes Lernen / Unsupervised Learning

Unüberwachtes Lernen ist der Hoffnungsträger der KI-Forschung. Denn im Gegensatz zum überwachten Lernen werden Daten nicht aufwendig vorbereitet: Die KI bekommt große Datenmengen ohne Labels und sucht eigenständig nach Mustern in den Daten.

Die Methode hat zwei Vorteile: Erstens sind gut aufbereitete, umfangreiche Datensätze selten. Zweitens kann eine KI so Zusammenhänge in Daten aufdecken, die Menschen verborgen bleiben.

In den Worten des KI-Forschers Yann LeCun klingt das so: “Wenn Intelligenz ein Kuchen ist, ist der Großteil des Kuchens unüberwachtes Lernen, das Sahnehäubchen ist überwachtes Lernen und die Kirsche ist bestärkendes Lernen.”

Bot or not? Mit diesem Browser-Tool könnt ihr KI-Fake-Texte entlarven

OpenAIs mächtige Text-KI GPT-2 wurde durch selbstüberwachtes Lernen möglich: Der Fortschritt bei der Textgenerierung durch Künstliche Intelligenz bringt auch neue Werkzeuge, um Fake-Texte zu entdecken.

Mittlerweile hat sich auch der Begriff des selbstüberwachten Lernens (Self-Supervised Learning) verbreitet. Je nach Auffassung ist das eine besondere Variante des unüberwachten Lernens oder ein Synonym. LeCun hat bereits verkündet, er würde fortan nur noch vom selbst- statt vom unüberwachten Lernen sprechen.

Beim selbstüberwachten Lernen wird häufig ein Teil der Trainingsdaten zurückgehalten und die KI muss diese vorhersagen, etwa das nächste Wort in einem Satz. Dadurch wird sie gezwungen, wichtige Details über die Daten zu lernen wie semantische Repräsentationen.

Selbstüberwachtes Lernen wird beispielsweise für KI-Skalierung benutzt und ermöglichte die großen Fortschritte von Sprach-KIs in den letzten 1,5 Jahre. OpenAI setzt die Lernmethode für den mächtigen GPT-2-Algorithmus ein.

Bestärkendes Lernen / Reinforcement Learning

Bestärkendes Lernen setzt auf Zuckerbrot und Peitsche: Immer, wenn die KI ihre Aufgabe erfolgreich ausführt, wird sie belohnt. Verfehlt sie ihr Ziel, bekommt sie entweder nichts oder wird bestraft.

OpenAI bringt mit bestärkendem Lernen KIs Verstecken spielen bei.

Mit dieser Versuch-und-Irrtum-Methode entwickelt sich die KI in vielen Bereichen durch Ausprobieren vom Anfänger zum Profi, etwa in Go und Schach, Dota 2, Starcraft 2 oder Poker. Alle jüngsten Erfolge setzen auf sogenanntes tiefes bestärkendes Lernen (Deep Reinforcement Learning), einer Kombination aus bestärkendem und tiefem Lernen.

Transferlernen / Transfer Learning

Als Transferlernen werden Trainingsmethoden bezeichnet, bei denen gelernte Fähigkeiten einer KI auf ein neues, aber verwandtes Problem angewandt werden. Ein Beispiel ist Googles Bilderkennungs-KI Inception, die von Forschern zur Erkennung von Lungenkrebs eingesetzt wird.

KI-Startups wie Kheiron trainieren bewährte Bilderkennungs-KIs um zur Krebsdiagnose.

Auf lange Sicht könnte Transferlernen KIs weg von Inselbegabungen hin zu mehr Flexibilität führen. Die Erforschung des Transferlernens ist daher ein wichtiger Beitrag zu einer generellen Künstlichen Intelligenz.

Imitierendes Lernen / Imitation Learning

Imitierendes Lernen nutzt Demonstrationen als Trainingsmaterial für KIs. Das können etwa in Videospielen Aufzeichnungen menschlicher Spieler sein, die sich durch ein Game kämpfen, oder ein Roboter lernt, indem er menschliche Bewegungen beobachtet.

Der Artari-Klassiker Montezumas Revenge galt als notorisch schwer zu knacken für KIs. Mittlerweile ist es geschafft - unter anderem indem die KI sich menschliche Spieler zum Vorbild nahm.

Den Atari-Klassiker “Montezumas Revenge” konnten KIs lange nicht durchspielen Mittlerweile ist es geschafft, indem sich die KI mit imitierendem Lernen an menschlichen Spielmanövern orientierte.

Ein Vorteil des imitierenden Lernens gegenüber bestärkendem Lernen ist die höhere Flexibilität: In manchen Umgebungen sind Belohnungen schwer zu definieren oder zu erreichen. Eine reine Versuch-und-Irrtum-Methode bringt die KI dann nicht weiter. Hier hilft die menschliche Demonstration, von der die KI den Weg lernen kann.

Few-Shot-Lernen / Few Shot Learning

Oft werden unzählige Beispiele benötigt, bis eine KI erfolgreich Muster in Daten erkennt. Sogenannte One-Shot- und Few-Shot-Lernmethoden helfen KIs, ähnlich wie der Mensch anhand weniger Beispiele oder sogar mit nur einem Beispiel eine neue Fähigkeit zu lernen.

Nvidias KI kann tanzen lassen, Mimik übertragen und Straßenaufnahmen generieren. Dafür braucht das Multitalent nur wenige Beispiele, etwa einige Fotos eines Nachrichtensprechers. Video: Nvidia

In der Praxis könnten KIs so neue Aufgaben ohne umfangreiches Training lernen. Beispielsweise gelang es Samsung-Forschern mit wenigen Beispielen die Gesichter von Personen auszutauschen. Eine israelische Forschergruppe ging sogar noch einen Schritt weiter und entwickelte eine Methode für Echtzeit-Deepfakes ohne vorheriges Gesichtertraining.

Letzte Aktualisierung am 12.12.2019 / Affiliate Links / Bilder von der Amazon Product Advertising API / Preis inkl. MwSt., zzgl. Versandkosten

Letzte Aktualisierung am 12.12.2019 / Affiliate Links / Bilder von der Amazon Product Advertising API / Preis inkl. MwSt., zzgl. Versandkosten

Weiterlesen über Künstliche Intelligenz:

steady2

MIXEDCAST #171: Das Carmack-Drama, Stormland und Magic Leak | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.