Gå direkte til innholdet
Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization
Spar

Training von quanten-neuronalen Netzwerken mit Hilfe der Stochastic Gradient Line Bayesian Optimization

Les i Adobe DRM-kompatibelt e-bokleserDenne e-boka er kopibeskyttet med Adobe DRM som påvirker hvor du kan lese den. Les mer
Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Kunstliche Intelligenz, Note: 1,3, Hochschule fur Technik Stuttgart (Fakultat Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfahigkeit der "e;Stochastic Gradient Line Bayesian Optimization"e; (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung fur "e;Quantum Neural Networks"e; (QNN) und vergleicht diese mit der "e;Adaptive Moment Estimation"e; (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Starken in der rauschfreien Optimierung, wahrend SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.
ISBN
9783963554520
Språk
Tysk
Utgivelsesdato
15.2.2024
Tilgjengelige elektroniske format
  • PDF - Adobe DRM
Les e-boka her
  • E-bokleser i mobil/nettbrett
  • Lesebrett
  • Datamaskin