Bachelorarbeit aus dem Jahr 2024 im Fachbereich Informatik - Kunstliche Intelligenz, Note: 1,3, Hochschule fur Technik Stuttgart (Fakultat Vermessung, Informatik und Mathematik), Sprache: Deutsch, Abstract: Die vorliegende Bachelorarbeit untersucht die Leistungsfahigkeit der "e;Stochastic Gradient Line Bayesian Optimization"e; (SGLBO) aus der Publikation von Tamiya und Yamasaki (2022), im Kontext der Parameteroptimierung fur "e;Quantum Neural Networks"e; (QNN) und vergleicht diese mit der "e;Adaptive Moment Estimation"e; (Adam). Die Ergebnisse zeigen, dass beide Algorithmen in der Lage sind, QNNs zu trainieren. Dabei zeigt Adam vor allem Starken in der rauschfreien Optimierung, wahrend SGLBO signifikant bessere Ergebnisse in verrauschten Umgebungen erzielt. Damit konnten die Ergebnisse aus der Publikation von Tamiya und Yamasaki (2022) reproduziert werden.