Forscher der Tsinghua-Universität haben eine Trainingsmethode für optische neuronale Netzwerke namens Full-Forward-Modus (FFM) entwickelt, die den Trainingsprozess direkt in physikalischen optischen Systemen ausführen kann, ohne einen Backpropagation-Algorithmus zu benötigen. Diese Methode bietet folgende Vorteile:
-
Reduzierte Abhängigkeit von mathematischen Modellen, wodurch Probleme durch ungenaue Modelle vermieden werden.
-
Zeit- und Energieeinsparung durch parallele Verarbeitung großer Datenmengen.
-
Effektives Selbsttraining auf optischen neuronalen Netzwerken im freien Raum mit einer Genauigkeit nahe dem theoretischen Wert.
-
Hochwertige Bildgebung auch in komplexen Streuumgebungen mit einer Auflösung nahe der physikalischen Grenze.
-
Parallele Bildgebung von verborgenen Objekten außerhalb der Sichtlinie.
Das Kernprinzip von FFM besteht darin, das optische System als parametrisiertes Vor-Ort-Neuronales-Netzwerk abzubilden, den Gradienten durch Messung des Ausgangsfeldes zu berechnen und die Parameter mit einem Gradientenabstiegsalgorithmus zu aktualisieren. Es nutzt das Prinzip der räumlichen Symmetrie und Reziprozität, sodass Daten und Fehlerberechnung den gleichen physikalischen Vorwärtspropagationsprozess und die gleiche Messmethode teilen können.
Die Forscher haben die Leistung von FFM durch mehrere Experimente validiert:
-
Klassifizierungstraining auf den MNIST- und Fashion-MNIST-Datensätzen, wobei die Genauigkeit des von FFM gelernten Netzwerks nahe am theoretischen Wert lag.
-
Hochauflösende Fokussierung in streuenden Medien mit einer Fokusgröße nahe der Beugungsgrenze.
-
Parallele Wiederherstellung und Bildgebung von verborgenen Objekten in Szenarien ohne direkte Sichtlinie.
Diese Forschung bietet einen neuen Ansatz für das Training optischer neuronaler Netzwerke und könnte die Entwicklung von optischen Rechen- und Bildgebungstechnologien vorantreiben.