作者: Mark Miller
DOI: 10.1007/978-3-642-46948-0_9
关键词:
摘要: Aus der Konstellation--sehr viele Parameter, wenige Pattern--resultiert das Problem des “Overlearning”. Die dadurch entstehenden negativen Auswirkungen konnen jedoch mit Netzwerk-Komplexitatsreduktionen begrenzt werden. Hier stehen verschiedene Methoden zur Auswahl. Eine Untergruppe diktiert Architektur-Veranderungen basierend auf Testvariablen, die nach Trainings-Konvergenz errechnet andere Methode beinhaltet Erganzung zu optimierenden Zielfunktion um komplexitatshemmende Penalty-Terme. Stopp-Training bricht den Trainingvorgang ab, wenn Fehler einer Untermenge Trainingspattern zunimmt. Es kann gezeigt werden, Trainingsperformance signifikant erhoht werden kann, indem dynamische Topologie-Veranderungen und modifizierte Komplexitats-Penalty-Terme erganzt wird.