Wie Erkenntnisse über das menschliche Lernen eine intelligentere künstliche Intelligenz fördern können

Kredit: Gemeinfrei

Die jüngsten Durchbrüche bei der Entwicklung künstlicher Systeme, die den Menschen in einer Vielzahl anspruchsvoller Spiele übertreffen, haben ihre Wurzeln in neuronalen Netzen, die von der Informationsverarbeitung im Gehirn inspiriert wurden. In einem Review veröffentlicht am 14. Juni in Trends in den Kognitionswissenschaften, aktualisieren Forscher von Google DeepMind und der Stanford University eine Theorie, die ursprünglich entwickelt wurde, um zu erklären, wie Menschen und andere Tiere lernen – und heben ihre potenzielle Bedeutung als Rahmen für die Entwicklung von Agenten mit künstlicher Intelligenz hervor.

Erstveröffentlichung 1995 (Psychol Rev., 102(3):419-57), besagt die Theorie, dass Lernen das Produkt zweier komplementärer Lernsysteme ist. Das erste System erwirbt nach und nach Wissen und Fähigkeiten aus Erfahrungen, das zweite speichert spezifische Erfahrungen, damit diese wiederholt werden können, um eine effektive Integration in das erste System zu ermöglichen. Das Papier baute auf einer früheren Theorie des einflussreichen britischen Computer-Neurowissenschaftlers David Marr und auf damals neueren Entdeckungen in neuronalen Netzlernmethoden auf.

„Die Beweise scheinen zwingend zu sein, dass das Gehirn über diese beiden Arten von Lernsystemen verfügt, und die Theorie der komplementären Lernsysteme erklärt, wie sie sich gegenseitig ergänzen, um eine leistungsstarke Lösung für ein zentrales Lernproblem bereitzustellen, mit dem das Gehirn konfrontiert ist“, sagt Stanford Professor of Psychology James McClelland, Hauptautor des Artikels von 1995 und leitender Autor des aktuellen Review.

Das erste System der vorgeschlagenen Theorie, das im Neocortex des Gehirns platziert ist, wurde von Vorläufern der heutigen tiefen neuronalen Netze inspiriert. Wie bei den heutigen tiefen Netzwerken enthalten diese Systeme mehrere Schichten von Neuronen zwischen Eingang und Ausgang, und das Wissen in diesen Netzwerken steckt in ihren Verbindungen. Darüber hinaus werden ihre Verbindungen nach und nach durch Erfahrung programmiert, was zu ihrer Fähigkeit führt, Objekte zu erkennen, Sprache wahrzunehmen, Sprache zu verstehen und zu produzieren und sogar optimale Aktionen beim Spielen und anderen Situationen auszuwählen, in denen intelligentes Handeln von erworbenem Wissen abhängt.

Solche Systeme stehen vor einem Dilemma, wenn neue Informationen erlernt werden müssen: Wenn an den Verbindungen große Änderungen vorgenommen werden, um das neue Wissen schnell in die Verbindungen zu zwingen, verzerrt dies alles andere bereits in den Verbindungen gespeicherte Wissen radikal.

“Hier kommt das komplementäre Lernsystem ins Spiel”, sagt McClelland. Bei Menschen und anderen Säugetieren befindet sich dieses zweite System in einer Struktur namens Hippocampus. „Indem wir Informationen über die neue Erfahrung zunächst im Hippocampus speichern, stellen wir sie für den sofortigen Gebrauch zur Verfügung und bewahren sie auch auf, damit sie in den Kortex zurückgespielt werden können, indem wir sie mit fortlaufenden Erfahrungen und gespeicherten Informationen aus anderen relevanten Erfahrungen verschachteln. ” Dieser Zwei-System-Aufbau ermöglicht somit sowohl ein sofortiges Lernen als auch eine schrittweise Integration in die strukturierte Wissensrepräsentation im Neocortex.

„Komponenten der neuronalen Netzwerkarchitektur, denen es gelungen ist, in einer Vielzahl von Computerspielen wie Space Invaders und Breakout eine Leistung auf menschlichem Niveau zu erreichen, wurden von der Theorie komplementärer Lernsysteme inspiriert“, sagt der kognitive Neurowissenschaftler von DeepMind, Dharshan Kumaran, der Erstautor des Reviews. „Wie in der Theorie nutzen diese neuronalen Netze einen Speicherpuffer ähnlich dem Hippocampus, der die jüngsten Episoden des Spiels speichert und sie in verschachtelter Weise wiedergibt. Dies verstärkt die Nutzung der tatsächlichen Spielerfahrung erheblich und vermeidet die Tendenz zu einem bestimmten lokalen Lauf Erfahrung, um das Lernen im System zu dominieren.”

Kumaran hat sowohl mit McClelland als auch mit DeepMind-Mitbegründer Demis Hassabis (ebenfalls Co-Autor der Review) an Arbeiten zusammengearbeitet, die die Rolle des Hippocampus erweiterten, wie er in der 1995er Version der komplementären Lernsystemtheorie vorgesehen war.

„Meiner Ansicht nach“, so Hassabis, „wird die erweiterte Version der komplementären Lernsystemtheorie wahrscheinlich weiterhin einen Rahmen für zukünftige Forschungen bieten, nicht nur in den Neurowissenschaften, sondern auch bei der Entwicklung der Künstlichen Allgemeinen Intelligenz, unserem Ziel bei Google DeepMind.”


Leave a Comment