KIP-Veröffentlichungen

Jahr 2025
Autor(en) Simon Jonscher
Titel Gradient-Based Learning of Neuron Parameters in Spiking Neural Networks on Neuromorphic Hardware
KIP-Nummer HD-KIP 25-22
KIP-Gruppe(n) F9
Dokumentart Masterarbeit
Abstract (de)

Die von der Natur inspirierten spiking neural networks (SNNs) bieten eine fehlertolerante und energieeffiziente Lösung für die Signalverarbeitung. Da sich der interne Zustand jedes Neurons in SNNs im zeitlich dynamisch entwickelt, sind sie gut für die Verarbeitung zeitlicher Informationen geeignet, was sie ideal für Aufgaben wie Spracherkennung macht. Es hat sich als vorteilhaft erwiesen, nicht nur synaptische Gewichte zwischen den Neuronen zu trainieren, sondern auch Parameter, die die zeitliche Dynamik des Neurons beeinflussen. Das neuromorphe System BrainScales-2 (BSS-2) ermöglicht eine schnelle und energieeffiziente Emulation des Verhaltens von SNNs auf analogen Schaltkreisen und ist gleichzeitig hoch konfigurierbar. In dieser Arbeit wird eine Schnittstelle für das gradientenbasierte Training von Neuronenparametern auf dem neuromorphen System implementiert. Durch die Charakterisierung der Hardware-Parameter für die Konfiguration der synaptischen und der Membran-Zeitkonstante wird gezeigt, dass diese Parameter auf BSS-2 trainiert werden können. Mehrere Simulationsexperimente, in denen die Auswirkungen von Modellvereinfachungen, die für die Ausführung auf BSS-2 erforderlich sind, unterstreichen die Leistungsverbesserungen, die erzielt werden, wenn beide Zeitkonstanten trainiert werden. Unter Anwendung dieser Vereinfachungen werden ein feedforward und ein rekurrentes SNN auf dem Spiking Heidelberg Digits (SHD) Datensatz auf dem neuromorphen Substrat unter Einbeziehung beider Zeitkonstanten trainiert.

Abstract (en)

Inspired by nature, spiking neural networks (SNNs) provide a fault-tolerant and energy-efficient solution for signal processing. Since the internal state of each neuron in SNNs evolves over time, they are well-suited for processing temporal information, making them ideal for tasks like speech-recognition. Apart from only training synaptic weights between neurons, additional training parameters that influence the temporal dynamics of the neuron has been proven beneficial. The mixed-signal neuromorphic system BrainScales-2 (BSS-2) enables a fast and energy-efficient emulation of the behavior of SNNs on analog circuits, while also being highly configurable. This work implements an interface for gradient-based training of neuron parameters on the neuromorphic system. To demonstrate that neuron parameters can be trained on BSS-2, the hardware parameters are characterized to configure the synaptic and membrane time constant, respectively. Several simulation experiments, analyzing the effects of model simplification that are required for execution on BSS-2, simultaneously highlight the performance improvement achieved when these time constants are trained in addition to the weights. Applying these simplifications, a feedforward and a recurrent SNN are trained on the Spiking Heidelberg Digits (SHD) dataset on the neuromorphic substrate with time constants included in the set of learnable parameters.

bibtex
@mastersthesis{jonscher2025,
  author   = {Jonscher, Simon},
  title    = {Gradient-Based Learning of Neuron Parameters in Spiking Neural Networks on Neuromorphic Hardware},
  school   = {Universität Heidelberg},
  year     = {2025},
  type     = {Masterarbeit}
}
Datei pdf
KIP - Bibliothek
Im Neuenheimer Feld 227
Raum 3.402
69120 Heidelberg