Siirry suoraan sisältöön
Analogue Imprecision In Mlp Training, Progress In Neural Processing, Vol 4
Analogue Imprecision In Mlp Training, Progress In Neural Processing, Vol 4
Tallenna

Analogue Imprecision In Mlp Training, Progress In Neural Processing, Vol 4

Lue Adobe DRM-yhteensopivassa e-kirjojen lukuohjelmassaTämä e-kirja on kopiosuojattu Adobe DRM:llä, mikä vaikuttaa siihen, millä alustalla voit lukea kirjaa. Lue lisää
Hardware inaccuracy and imprecision are important considerations when implementing neural algorithms. This book presents a study of synaptic weight noise as a typical fault model for analogue VLSI realisations of MLP neural networks and examines the implications for learning and network performance. The aim of the book is to present a study of how including an imprecision model into a learning scheme as a"e;fault tolerance hint"e; can aid understanding of accuracy and precision requirements for a particular implementation. In addition the study shows how such a scheme can give rise to significant performance enhancement.
ISBN
9789814498692
Kieli
englanti
Julkaisupäivä
23.8.1996
Formaatti
  • PDF - Adobe DRM
Lue e-kirjoja täällä
  • Lue e-kirja mobiililaitteella/tabletilla
  • Lukulaite
  • Tietokone