Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Künstliche Intelligenz treibt Computer, wie wir sie heute kennen, an ihre Grenzen. Brauchen wir neue Computer, die vom Gehirn inspiriert sind?
Mit Laura und Julian sprechen wir darüber, wie das „Neuromorphic“ in Neuromorphic Computing kommt, wie ist das Feld entstanden ist, welche Ziele es verfolgt und wie es KI voranbringen kann.
Unsere Gäste: Laura Kriener und Julian Göltz
Laura Kriener erwarb ihren M.Sc. in Physik an der Universität Heidelberg. Ihre Masterarbeit in der Electronic Visions Group am Kirchhoff-Institut befasste sich mit der Anwendung von Schaltungssimulationen im Entwicklungsprozess von neuromorpher Hardware. Derzeit arbeitet sie zusammen mit Mihai A. Petrovici an ihrer Doktorarbeit in der Neuro-Inspired Theory, Modeling and Applications Gruppe an der Universität Bern. Ihre Forschung konzentriert sich auf Lernalgorithmen, die von den Neurowissenschaften und dem maschinellen Lernen inspiriert sind, und deren Einsatz auf neuromorphen Plattformen.
Julian Göltz erwarb einen MASt in angewandter Mathematik an der University of Cambridge und einen MSc in Physik von der Universität Heidelberg. In seiner Masterarbeit am Kirchhoff-Institut für Physik hat er einen Deep-Learning-Algorithmus für spikende Neuronen abgeleitet und realisierte ihn auf einer neuromorphen Plattform. Jetzt ist er Mitglied der Neuro-Inspired Theory, Modeling and Applications Gruppe an der Universität Bern. Dort arbeitet er mit Mihai A. Petrovici an allgemeinen Theorien der neuronalen Dynamik und synaptischen Plastizität an der Schnittstelle von maschinellem Lernen und Neurowissenschaften.
Kapitel
00:00:00 Vorstellung des Themas und unserer Gäste 00:03:05 Was ist Neuromorphic Computing? 00:09:20 Kurze Botschaft unseres Sponsors BWI 00:10:00 Was haben neuronale Netze und Neuromorphic Computing gemein? 00:16:02 Emulation vs. Architektur beim Neuromorphic Computing 00:18:00 Analoge vs. digitale Rechenverfahren 00:21:15 Differenzierung zum Quantencomputing 00:25:36 Die Geschichte des Neuromorphic Computing 00:32:16 Wie hat Deep Learning das Neuromorphic Computing verändert? 00:35:55 Was bedeutet Neuromorphic Computing für die KI-Entwicklung? 00:39:50 Wie läuft Deep Learning auf neuromorpher Hardware? 00:44:15 Sparse und spiking bei neuronalen Netzen – was ist der Unterschied? 00:52:00 Der Vorteil von spikenden neuronalen Netzen 00:59:24 Was ist die größte Herausforderung beim Neuromorphic Computing derzeit? 01:05:07 Kann ich als KI-Entwickler schon voll auf Neuromorphic Computing setzen? 01:07:25 Haben wir in fünf Jahren einen neuromorphen Chip im iPhone? 01:08:00 Würde der Wechsel auf Neuromorphic Computing neue Fertigungsverfahren benötigen? 01:11:33 Was könnte ein neuromorpher Chip im iPhone besser leisten? 01:18:28 Warum können neuromorphe Systeme robuster sein als herkömmliche? 01:25:47 Reagenzglas vs. Chipfabrik: Könnten Bio-Computer auch gezüchtet werden? 01:31:02 Ist die Biologie überhaupt ein gutes Vorbild fürs Computing? 01:39:16 Max‘ Philo-Solo: Wo ist die Grenze zwischen Emulation und Reproduktion? 01:45:20 Wo kann man mehr über Neuromorphic Computing lernen? 01:47:52 Wie kann man ins Neuromorphic Computing einsteigen?
Danke an unseren Sponsor:
BWI, das IT-Systemhaus der Bundeswehr
Der Deep Minds Podcast wird unterstützt von der BWI, dem IT-Systemhaus der Bundeswehr. Als ihr zuverlässiger Partner unterstützt sie mit Innovationen und ihrer IT-Expertise die Digitalisierung der Streitkräfte und treibt diese voran.
DEEP MINDS ist ein Video-Podcast mit Menschen, die sich mit Künstlicher Intelligenz und Wissenschaft befassen. Max und Matthias stellen ihnen einfache und schwere Fragen über Technologie, Forschung, Entwicklung und unsere Zukunft.
oder einer positiven Bewertung bei iTunes, Spotify und Co.
Danke!
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.