Das Optimieren von Neuronalen Netzen für den Einsatz zur Prognose in der Ökonomie

作者: Mark Miller

DOI: 10.1007/978-3-642-46948-0_9

关键词:

摘要: Aus der Konstellation--sehr viele Parameter, wenige Pattern--resultiert das Problem des “Overlearning”. Die dadurch entstehenden negativen Auswirkungen konnen jedoch mit Netzwerk-Komplexitatsreduktionen begrenzt werden. Hier stehen verschiedene Methoden zur Auswahl. Eine Untergruppe diktiert Architektur-Veranderungen basierend auf Testvariablen, die nach Trainings-Konvergenz errechnet andere Methode beinhaltet Erganzung zu optimierenden Zielfunktion um komplexitatshemmende Penalty-Terme. Stopp-Training bricht den Trainingvorgang ab, wenn Fehler einer Untermenge Trainingspattern zunimmt. Es kann gezeigt werden, Trainingsperformance signifikant erhoht werden kann, indem dynamische Topologie-Veranderungen und modifizierte Komplexitats-Penalty-Terme erganzt wird.

参考文章(3)
Yann LeCun, John Denker, Sara Solla, None, Optimal Brain Damage neural information processing systems. ,vol. 2, pp. 598- 605 ,(1989)
Lorien Y. Pratt, Stephen Jose Hanson, Comparing Biases for Minimal Network Construction with Back-Propagation neural information processing systems. ,vol. 1, pp. 177- 185 ,(1988)
David E. Rumelhart, Andreas S. Weigend, Bernardo A. Huberman, Generalization by Weight-Elimination with Application to Forecasting neural information processing systems. ,vol. 3, pp. 875- 882 ,(1990)