Denken neuronale Netze wirklich wie Menschen?

Transparenz
DAS WICHTIGSTE IM ÜBERBLICK

Neuronale Netze sind leistungsstarke KI-Werkzeuge, aber sie sind keine menschlichen Gehirne. Sie sind noch weit davon entfernt, wie Menschen denken zu können, aber sie werden bereits zur Lösung einer Vielzahl von Problemen eingesetzt. Mit ihrer weiteren Entwicklung werden sie noch leistungsfähiger und fähiger werden.

Neuronale Netze sind in der Tat wie das menschliche Gehirn aufgebaut, mit Tausenden von algorithmischen Knotenpunkten, die Daten unabhängig, aber koordiniert verarbeiten.

Aber nur weil diese Ähnlichkeit besteht, bedeutet das nicht, dass die KI menschenähnliche – oder gar gottähnliche – Denkfähigkeiten entwickelt hat. Es gibt viele Unterschiede zwischen natürlichen und künstlichen Gehirnen, sowohl in der Struktur als auch im Umfang, was bedeutet, dass wir weit davon entfernt sind, dass die KI auch nur annähernd die Leistung und Komplexität des menschlichen Geistes erreicht.

Schnelle und leistungsfähige künstliche Intelligenz

Künstliche neuronale Netze (KNNs) sind in einer Vielzahl von Anwendungen nützlich. Da sie komplexe Datenmuster aufschlüsseln und einer schnellen Analyse unterziehen können, sind sie für schnelllebige Situationen wie den Betrieb autonomer Fahrzeuge und Echtzeitdialoge besser geeignet als andere Arten der künstlichen Intelligenz.

Die meisten neuronalen Netzwerkarchitekturen bestehen aus verschiedenen Schichten, Knoten und Funktionselementen, die ihnen helfen, Verzerrungen, Datenverluste und Aktualisierungen zu berücksichtigen, sagt Akash Takyar, CEO des Entwicklers digitaler Lösungen LeewayHertz.

In den meisten Fällen sind diese Designs von den Neuronen, Synapsen und hierarchischen Strukturen des menschlichen Gehirns inspiriert. Die Eingabedaten fließen durch jede Schicht des ANN, wo sie verarbeitet und in eine Form der Ausgabe umgewandelt werden – normalerweise eine Entscheidung, Empfehlung oder Vorhersage.

Auf diese Weise ist es immer noch ein Computer, der Bits und Bytes verarbeitet, aber die Wege, die er benutzt, um Rohdaten in verwertbare Informationen umzuwandeln, sind komplexer.

Gehirntraining

Auch wenn dies wie ein simuliertes menschliches Gehirn aussieht, deuten neuere Studien darauf hin, dass dies nicht der Fall ist. Ein Team am MIT untersuchte kürzlich mehr als 11 000 neuronale Netze und stellte fest, dass sie nur dann die zellähnlichen Verarbeitungseigenschaften des menschlichen Denkens aufweisen, wenn sie darauf trainiert wurden.

Der wissenschaftliche Mitarbeiter Rylan Schaeffer erklärte:

“Dies deutet darauf hin, dass die Forscher, die die Modelle trainierten, diese Ergebnisse mit bestimmten, biologisch unplausiblen Implementierungsentscheidungen einbinden mussten, um ein Ergebnis mit Gitterzellen zu erzielen.”

Ohne diese Einschränkungen entwickelten nur wenige Netzwerke die zellähnliche Aktivität, die zur Vorhersage der tatsächlichen Gehirnfunktionalität verwendet werden kann, die sich auf natürliche Weise ohne Vorbedingungen entwickelt.

Diese Studie legt nahe, dass Datenwissenschaftler die Behauptung, neuronale Netze ahmten das menschliche Gehirn weitgehend nach, wahrscheinlich zurücknehmen sollten. Mit den richtigen Parametern können sie Ergebnisse auf der Grundlage natürlicher neuronaler Bahnen erzielen, aber auch ohne diese Parameter können sie Ergebnisse liefern, ohne diese gehirnähnlichen Architekturen zu bilden.

Ila Fiete, Hauptautorin der Studie und Mitglied des McGovern Institute for Brain Research des MIT, sagte:

“Wenn man Deep-Learning-Modelle einsetzt, können sie ein mächtiges Werkzeug sein, aber man muss sehr vorsichtig sein, wenn man sie interpretiert und feststellt, ob sie wirklich De-novo-Vorhersagen machen oder sogar Aufschluss darüber geben, was das Gehirn optimiert.”

Unterschiede beim Lernen

Ein weiterer wichtiger Unterschied zwischen neuronalen Netzen und lebenden Gehirnen ist die Art und Weise, wie sie lernen. Laut Maxim Bazhenov, Ph.D. und Professor für Medizin an der University of California San Diego’s School of Medicine, überschreiben KNNs alte Daten, wenn sie neue Daten erhalten, während ein Gehirn kontinuierlich lernt und neue Daten einbezieht, um ein besseres Verständnis zu erreichen.

Dies führt bei neuronalen Netzen zu einem Phänomen, das als “katastrophales Vergessen” bezeichnet wird und dazu führt, dass sie plötzlich bei der Ausführung zuvor bekannter Aufgaben versagen oder einst genaue Vorhersagen ändern.

Seltsamerweise besteht eine der Lösungen für dieses Problem darin, eine einfache biologische Funktion in das künstliche Modell einzubauen: den Schlaf.

Durch den Wechsel der Trainingsroutine zwischen Spikes mit neuen Daten und Offline-Perioden stellen die Forscher einen Rückgang des katastrophalen Vergessens fest, da das Modell alte Erinnerungen wieder abruft, ohne alte Trainingsdaten zu verwenden. Dies ahmt die gleiche Art von “synaptischer Plastizität” nach, die beim Schlafen auftritt.

Kleine Gehirne

Trotz dieser Ähnlichkeiten bleibt die Tatsache bestehen, dass das menschliche Gehirn weitaus leistungsfähiger ist als selbst das fortschrittlichste neuronale Netz.

Als Forscher der Hebrew University in Jerusalem herausfinden wollten, wie komplex ein neuronales Netz sein müsste, um die Rechenleistung eines einzelnen menschlichen Neurons zu erreichen, waren sie von den Ergebnissen schockiert. Während einige Neuronen “flachen” neuronalen Netzen entsprechen, d. h. sie haben keine hochgradig geschichtete Architektur, benötigten die Neuronen in der Großhirnrinde tiefe, siebenschichtige Netze, wobei jede Schicht bis zu 128 Recheneinheiten enthält.

Und das für ein einziges Neuron. In einem durchschnittlichen Gehirn gibt es mehr als 10 Milliarden Neuronen, von denen jedes einzelne tiefe Netzwerke mit fünf bis acht Schichten erfordert. Vor diesem Hintergrund hat die Informatik noch einen weiten Weg vor sich, bevor sie ein künstliches Äquivalent zum menschlichen Gehirn schaffen kann.

Die Zusammenfassung

Dies bedeutet jedoch nicht, dass die KI ein falsches Versprechen ist oder dass bei ihrer Entwicklung und Umsetzung keine Vorsicht geboten ist. Selbst ein künstliches Reptiliengehirn kann erheblichen Schaden anrichten, wenn es unkontrolliert bleibt, genau wie ein Krokodil.

Es bedeutet jedoch, dass die künstliche Intelligenz, die wir heute haben, selbst wenn sie dem menschlichen Gehirn nachempfunden ist, noch in den Kinderschuhen steckt und bei weitem nicht an die intuitive, intellektuelle Schärfe unseres Verstandes heranreicht.

Die künstliche Intelligenz ist keineswegs eine Bedrohung, sondern kann unsere angeborenen kognitiven Fähigkeiten erheblich verbessern – und ja, genau wie ein natürliches Gehirn können diese Fähigkeiten zum Guten oder zum Schlechten eingesetzt werden.

Verwandte Begriffe

In Verbindung stehende Artikel

Arthur Cole
Mitwirkender Autor
Arthur Cole
Mitwirkender Autor

Arthur Cole ist ein freiberuflicher Technologiejournalist, der seit mehr als 20 Jahren über IT- und Unternehmensentwicklungen berichtet. Er schreibt für eine Vielzahl von führenden Technologie-Websites, darunter IT Business Edge, Enterprise Networking Planet, Point B and Beyond und mehrere Anbieterdienste.