Einige Modelle der künstlichen Intelligenz können bereits dem menschlichen Gehirn ähneln, bevor sie überhaupt etwas gelernt haben. Diese erstaunliche Erkenntnis stammt aus einer Studie, die die traditionellen Ansätze des maschinellen Lernens in Frage stellt, die oft auf der massiven Analyse von Daten basieren.
Diese Forschung, die an der Johns Hopkins Universität durchgeführt und in
Nature Machine Intelligence veröffentlicht wurde, deutet darauf hin, dass das anfängliche Design eines KI-Systems möglicherweise wichtiger ist als die langen Trainingsprozesse. Letztere verbrauchen üblicherweise viel Energie und Zeit. Das Team verglich verschiedene Arten von Architekturen neuronaler Netze, um zu sehen, welche Aktivitätsmuster erzeugen, die denen ähneln, die im Gehirn beobachtet werden.
Die Forscher untersuchten drei Haupttypen von Designs: Transformer, vollständig verbundene Netze und Faltungsnetzwerke. Sie erstellten Dutzende Varianten dieser Modelle und setzten sie dann Bildern aus, ohne jegliches Training. Die Reaktionen dieser Systeme wurden anschließend mit der Gehirnaktivität verglichen, die bei Menschen und Primaten auf die gleichen visuellen Reize aufgezeichnet wurde.
Unter allen getesteten Architekturen zeigten die Faltungsnetzwerke ein besonderes Verhalten. Wenn die Anzahl ihrer künstlichen Neuronen erhöht wurde, näherte sich ihre interne Aktivität stärker den menschlichen Gehirnmustern an. Diese Fähigkeit war von Anfang an vorhanden, ohne dass Daten zur Anpassung der Modellparameter verwendet wurden.
Diese nicht trainierten Faltungsnetzwerke erwiesen sich als vergleichbar mit konventionellen KI-Systemen, die ihrerseits üblicherweise Millionen von Bildern zum Lernen benötigen. Der Leiter der Studie erklärte, dass, wenn das Training mit Massen von Daten wirklich entscheidend wäre, solche Ergebnisse allein durch die Änderung der Architektur nicht möglich gewesen wären.
Diese Beobachtung bietet neue Ansätze für die künftige Entwicklung der künstlichen Intelligenz. Ausgehend von einem besser konzipierten, von der Biologie inspirierten Ausgangsdesign könnte es möglich sein, die für das Lernen erforderlichen Ressourcen erheblich zu reduzieren. Die Arbeiten werden nun fortgesetzt, um einfache, ebenfalls vom Lebendigen inspirierte Algorithmen in neue Entwicklungsrahmen zu integrieren.
So könnte der Weg zu effizienteren KI-Systemen weniger über die rohe Datenkraft führen als über eine raffinierte Konzeption, die sich direkt von den Prinzipien inspirieren lässt, die sich in der biologischen Evolution bewährt haben.
Wie ein Faltungsnetzwerk visuelle Informationen strukturiert
Ein neuronales Faltungsnetzwerk ist in aufeinanderfolgenden Schichten organisiert, ähnlich wie der visuelle Kortex in unserem Gehirn. Jede Schicht ist auf die Erkennung von zunehmend komplexen Merkmalen spezialisiert. Die erste kann Konturen oder Farbwechsel erkennen, während die folgenden Formen oder Zusammenstellungen identifizieren.
Diese hierarchische Struktur ermöglicht eine sehr effiziente Verarbeitung von Bildern. Anstatt jeden Pixel unabhängig zu analysieren, extrahiert das Netzwerk schrittweise die bedeutungsvollen Elemente. Es ist diese Organisation, die von Natur aus eine dem Gehirn ähnliche interne Aktivität zu verleihen scheint, sogar ohne vorheriges Lernen.
Die Tatsache, dass diese nicht trainierten Netzwerke bereits eine solche Ähnlichkeit mit der Gehirnaktivität zeigen, deutet darauf hin, dass ihr "Konstruktionsplan" grundsätzlich für die visuelle Aufgabe geeignet ist. Dies zeigt die Bedeutung der richtigen Wahl der Ausgangsarchitektur, noch bevor man beginnt, das System mit Daten zu füttern, um es zu verfeinern.
Warum das anfängliche Design das Lernen beschleunigen kann
Das Lernen in der künstlichen Intelligenz beruht oft auf der Anpassung von Millionen, ja Milliarden interner Parameter. Dieser Prozess, genannt Training, erfordert üblicherweise enorme Mengen an Beispielen und Rechenleistung. Er startet typischerweise von einem zufälligen oder sehr einfachen Anfangszustand.
Wenn das Modell bereits von einem Zustand nahe der Lösung startet, wie diese Studie nahelegt, ist der Weg bis zum Erreichen eines guten Leistungsniveaus viel kürzer.
Das ist der potenzielle Vorteil einer Architektur, die von Anfang an "auf den Kortex abgestimmt" ist. Sie versetzt das System in eine günstige Konfiguration und reduziert den Bedarf an Daten und Iterationen. Dies könnte zu Modellen führen, die schneller lernen, mit weniger Energie, inspiriert von den Effizienzprinzipien, die die biologische Evolution hervorgebracht hat.
Quelle: Nature Machine Intelligence