Home Medizin Das Geheimnis der Lerneffizienz des menschlichen Gehirns wurde enthüllt

Das Geheimnis der Lerneffizienz des menschlichen Gehirns wurde enthüllt

von NFI Redaktion




Forscher der MRC Brain Network Dynamics Unit und der Fakultät für Informatik der Universität Oxford haben ein neues Prinzip entwickelt, um zu erklären, wie das Gehirn die Verbindungen zwischen Neuronen während des Lernens anpasst. Diese neuen Erkenntnisse könnten die weitere Forschung zum Lernen in Gehirnnetzwerken leiten und zu schnelleren und robusteren Lernalgorithmen in der künstlichen Intelligenz führen.

Der Kern des Lernens besteht darin, herauszufinden, welche Komponenten in der Informationsverarbeitungspipeline für einen Fehler in der Ausgabe verantwortlich sind. In der künstlichen Intelligenz wird dies durch Backpropagation erreicht: die Anpassung der Parameter eines Modells, um den Fehler in der Ausgabe zu reduzieren. Viele Forscher glauben, dass das Gehirn ein ähnliches Lernprinzip nutzt.

Allerdings ist das biologische Gehirn aktuellen maschinellen Lernsystemen überlegen. Beispielsweise können wir neue Informationen lernen, indem wir sie nur einmal sehen, während künstliche Systeme hunderte Male mit denselben Informationen trainiert werden müssen, um sie zu lernen. Darüber hinaus können wir neue Informationen lernen und gleichzeitig das Wissen, das wir bereits haben, beibehalten, während das Erlernen neuer Informationen in künstlichen neuronalen Netzen häufig bestehendes Wissen beeinträchtigt und dieses schnell verschlechtert.

Diese Beobachtungen motivierten die Forscher, das grundlegende Prinzip zu identifizieren, das das Gehirn beim Lernen anwendet. Sie untersuchten einige bestehende mathematische Gleichungen, die Veränderungen im Verhalten von Neuronen und in den synaptischen Verbindungen zwischen ihnen beschreiben. Sie analysierten und simulierten diese Informationsverarbeitungsmodelle und stellten fest, dass sie ein grundlegend anderes Lernprinzip verwenden als künstliche neuronale Netze.

In künstlichen neuronalen Netzen versucht ein externer Algorithmus, synaptische Verbindungen zu modifizieren, um Fehler zu reduzieren, während die Forscher vorschlagen, dass das menschliche Gehirn zunächst die Aktivität von Neuronen in eine optimal ausgewogene Konfiguration bringt, bevor es synaptische Verbindungen anpasst. Die Forscher gehen davon aus, dass dies tatsächlich ein effizientes Merkmal der Art und Weise ist, wie menschliche Gehirne lernen. Dies liegt daran, dass dadurch Störungen reduziert werden, indem vorhandenes Wissen erhalten bleibt, was wiederum das Lernen beschleunigt.

In Nature Neuroscience beschreiben die Forscher dieses neue Lernprinzip, das sie „prospektive Konfiguration“ nennen. Sie zeigten in Computersimulationen, dass Modelle, die diese prospektive Konfiguration verwenden, bei Aufgaben, denen Tiere und Menschen in der Natur typischerweise gegenüberstehen, schneller und effektiver lernen können als künstliche neuronale Netze.

Die Autoren verwenden das reale Beispiel eines Bären, der Lachse fischt. Der Bär kann den Fluss sehen und hat gelernt, dass er wahrscheinlich einen fängt, wenn er auch den Fluss hört und den Lachs riecht. Doch eines Tages kommt der Bär mit einem beschädigten Ohr am Fluss an und kann ihn nicht hören. In einem künstlichen neuronalen Netzwerk-Informationsverarbeitungsmodell würde dieser Mangel an Gehör auch zu einem Mangel an Geruch führen (denn während des Lernens gibt es keinen Ton, die Rückausbreitung würde mehrere Verbindungen verändern, einschließlich derjenigen zwischen Neuronen, die den Fluss und den Lachs kodieren) und der Bär würde dies tun schlussfolgern, dass es keinen Lachs gibt, und hungern. Aber im tierischen Gehirn stört das Fehlen von Geräuschen nicht das Wissen, dass der Lachs noch riecht und der Lachs daher wahrscheinlich immer noch zum Fangen da ist.

Derzeit besteht eine große Lücke zwischen abstrakten Modellen zur prospektiven Konfiguration und unserem detaillierten Wissen über die Anatomie von Gehirnnetzwerken. Zukünftige Forschungen unserer Gruppe zielen darauf ab, die Lücke zwischen abstrakten Modellen und realen Gehirnen zu schließen und zu verstehen, wie der Algorithmus der prospektiven Konfiguration in anatomisch identifizierten kortikalen Netzwerken implementiert wird.“


Rafal Bogacz, leitender Forscher, Professor der MRC Brain Network Dynamics Unit und der Nuffield-Abteilung für klinische Neurowissenschaften in Oxford

Der Erstautor der Studie, Dr. Yuhang Song, fügt hinzu: „Beim maschinellen Lernen ist die Simulation zukünftiger Konfigurationen auf vorhandenen Computern langsam, da diese auf grundlegend andere Weise funktionieren als das biologische Gehirn.“ „Es muss ein neuer Computertyp oder eine dedizierte, vom Gehirn inspirierte Hardware entwickelt werden, die in der Lage ist, die geplante Konfiguration schnell und mit geringem Energieverbrauch umzusetzen.“

Quelle:

Zeitschriftenreferenz:

Lied, Y., et al. (2024). Ableitung neuronaler Aktivität vor Plastizität als Grundlage für Lernen über Backpropagation hinaus. Naturneurowissenschaften. doi.org/10.1038/s41593-023-01514-1.

Related Posts

Adblock Detected

Please support us by disabling your AdBlocker extension from your browsers for our website.