CORDIS - Forschungsergebnisse der EU
CORDIS

From A to B: Generalizing the mathematics of artificial neural networks (ANNs) to biological neural networks (BNNs)

Projektbeschreibung

Fortgeschrittene mathematische Werkzeuge zur Analyse des Lernens im Gehirn

Künstliche neuronale Netze, die auf künstlicher Intelligenz (KI) beruhen, sind weit verbreitet, aber die im Gehirn beheimateten biologischen neuronalen Netze sind von Natur aus effektiver. Während künstliche neuronale Netze Funktionen darstellen, repräsentieren biologische neuronale Netze stochastische Prozesse. Das Gehirn hat demonstriert, dass es schneller lernt und besser generalisieren kann. Es sind jedoch weitere theoretische Arbeiten erforderlich, um die Lernmechanismen im Gehirn vollständig zu verstehen. In diesem Zusammenhang wird das Team des ERC-finanzierten Projekts A2B fortgeschrittene mathematische Werkzeuge zur Analyse von Lernprozessen in biologischen neuronalen Netzen entwickeln. Zu den Projektzielen zählt die Gewinnung von Erkenntnissen darüber, wie das Gehirn lernt, die Verbesserung der KI-Effizienz mit reduzierten Trainingsdaten und das Training neuromorpher Computerchips zur Emulation biologischer neuronaler Netze. Die Projektarbeit beginnt mit einer Neuinterpretation des lokalen Aktualisierungsprozesses der Parameter biologischer neuronaler Netze als eine spezifische und nicht genormte ableitungsfreie Optimierungsmethode.

Ziel

Why does the brain outperform AI? Artificial neural networks (ANNs) are at the core of the AI revolution. In the past years, enormous efforts have been made to unravel their mathematical properties, leading to fundamental insights and mathematical guarantees on when and why deep learning works well. ANNs are inspired by biological neural networks (BNNs) but differ in many respects: ANNs represent functions while BNNs represent stochastic processes, and the gradient-based deep learning applied for ANNs is very different from the local updating of BNNs.
BNNs are superior to ANNs in the sense that the brain learns faster and generalizes better. Despite the urgency for answers and the rich and interesting mathematical structures that BNNs create, scarcely any theoretical attempts have been made to understand learning in the brain. The stochastic process structure of BNNs and the need to understand the statistical convergence behavior call for a mathematical statistics approach. This project proposes the development of advanced mathematical tools in nonparametric and high- dimensional statistics to analyze learning in BNNs as a statistical method. The starting point is a novel interpretation of the local updating of BNN parameters as a specific and non-standard, derivative-free optimization method. Whereas derivative-free optimization is thought to be slow, our conjecture is that it leads to favorable statistical properties in the setting underlying BNNs.
If the research is successful, it has the potential to open a new research area in mathematical statistics and provide insights into how the brain learns. It could also lead to recommendations on how to make AI more efficient with less training data and how to train neuromorphic computer chips mimicking BNNs.

Programm/Programme

Gastgebende Einrichtung

UNIVERSITEIT TWENTE
Netto-EU-Beitrag
€ 2 000 000,00
Adresse
DRIENERLOLAAN 5
7522 NB Enschede
Niederlande

Auf der Karte ansehen

Region
Oost-Nederland Overijssel Twente
Aktivitätstyp
Higher or Secondary Education Establishments
Links
Gesamtkosten
€ 2 000 000,00

Begünstigte (1)