KIP-Veröffentlichungen

Jahr 2022
Autor(en) Sebastian Billaudelle
Titel From transistors to learning systems: circuits and algorithms for brain-inspired computing
KIP-Nummer HD-KIP 22-91
KIP-Gruppe(n) F9
Dokumentart Dissertation
Abstract (de)

Die kognitiven Fähigkeiten des menschlichen Gehirns prägen schon seit langem die Erforschung und Entwicklung neuartiger Technologien und versprechen dabei eine effiziente und adaptive Informationsverarbeitung.
In dieser Arbeit befassen wir uns mit einigen der Herausforderungen, die sich auf dem Weg zu biologisch inspirierten Rechensystemen stellen, und erarbeiten neuartige elektronische Transistorschaltungen sowie Algorithmen für das Lernen in diesen neuromorphen Systemen.

Zunächst stellen wir eine neue Neuronenschaltung für BrainScaleS-2 vor.
Hierbei handelt es sich um eine neuromorphe Plattform, welche einige der wichtigsten Eigenschaften des Nervensystems in integrierter Analogelektronik darstellt.
Unsere Siliziumneuronen emulieren die zugrundeliegende Dynamik auf 1000-fach beschleunigten Zeitskalen und sind in der Lage, die reichhaltige Dynamik und die in elektrophysiologischen Messungen beobachteten neuronalen Aktivitätsmuster präzise nachzubilden.
Darüber hinaus dienen sie als auch Baustein für funktionelle Netzwerke.
Wir diskutieren zwei verschiedene Ansätze für das Lernen in derartigen biologisch inspirierten Systemen:

Wir präsentieren einen Optimierungsalgorithmus für pulsbasierte neuronale Netzwerke, welcher sich an den enormen Fortschritten des maschinellen Lernens und den dort etablierten Methoden wie der automatischen Differenzierung orientiert.
Unser Ansatz macht die physikalischen Prozesse im Inneren der elektronischen Schaltungen differenzierbar und ermöglicht so die Optimierung von neuronalen Netzwerken durch Gradientenabstieg.
Dabei ist er kompatibel zu verschiedenen Kodierungsschemata sowie Netzwerktopologien.
Wir veranschaulichen die Fähigkeiten unseres Optimierungsansatzes – aber auch unserer neuen Schaltungen –, indem wir pulsbasierte Netzwerke auf verschiedene bild- und sprachbasierte Klassifizierungsprobleme optimieren.
Hierbei nutzen wir effiziente Kodierungen sowie die beschleunigte Emulation durch unsere Schaltungen um energieeffiziente und niedriglatente Inferenzergebnisse zu erzielen.

Darüber hinaus schlagen wir einen von der Biologie inspirierten Lernmechanismus für strukturelle Plastizität vor und demonstrieren seine Umsetzung auf BrainScaleS-2.
Die Lernregel ermöglicht die selbstorganisierte Bildung von rezeptiven Feldern in einem ausgedünnten Netzwerkgraphen und erlaubt so das Lernen mit eingeschränkten Ressourcen.

Die vorliegende Arbeit kombiniert einen von den herausragendsten Eigenschaften des biologischen Nervensystems inspirierten Ansatz mit einer pragmatischen Strategie mit dem Ziel von den erfolgreichen Methoden des maschinellen Lernens zu profitieren.
Dies ermöglicht es uns, einige der wichtigsten Themen des analogen, von der Biologie inspirierten Rechnensanzusprechen.

Abstract (en)

The cognitive capabilities of the human brain have long inspired the research and development of novel computing paradigms, promising self-adapting, fast, and energy-efficient computation.
In this thesis, we address some of the challenges that arise on the road to biology-inspired processing, and to that end propose novel transistor-level electronic circuits as well as algorithms for brain-inspired learning in neuromorphic systems.

We, first, present a collection of neuron circuits for \bss2, a neuromorphic platform capturing some of the nervous system's key properties in integrated analog electronics.
Our silicon neurons accurately emulate the dynamics of the underlying model equations at 1000-fold accelerated time scales and are capable of precisely replicating the rich dynamics and firing patterns observed in electrophysiological recordings.
They furthermore serve as a building block for functional networks.
We discuss two different approaches for learning in such biology-inspired systems:

Inspired by the tremendous progress of machine learning, we introduce a framework for gradient-based optimization of neuromorphic spiking neural networks.
By attaching gradients to the internal, physically evolving dynamics and exposing them to automatic differentiation frameworks, our approach maintains a very general scope and can be applied to arbitrary loss functions and feedforward as well as recurrent topologies.
We demonstrate the capabilities of both our neuromorphic circuits and the training framework by solving inference tasks on imaging and natural language datasets.
In that process, we exploit temporally sparse coding schemes as well as the accelerated emulation of neural dynamics to achieve energy-efficient inference at low classification latencies.

We further propose a biology-inspired mechanism for structural plasticity as well as an accompanying on-chip implementation on \bss2.
The plasticity scheme enables the self-organized formation of receptive fields in a sparse network graph and allows learning with constrained resources.

The present work thus combines the bottom up approach of drawing inspiration from the nervous system's key architectural properties with the top-down strategy of adopting successful methods from machine learning.
This allowed us to address some of the most challenging topics of analog brain-inspired computing.

bibtex
@phdthesis{transistors,
  author   = {Sebastian Billaudelle},
  title    = {From transistors to learning systems: circuits and algorithms for brain-inspired computing},
  school   = {Universität Heidelberg},
  year     = {2022}
}
Beispielbild
KIP - Bibliothek
Im Neuenheimer Feld 227
Raum 3.402
69120 Heidelberg