Workshop über Bayesche Optimierung, Versuchsanordung und Banditen, Sierra Nevada, Spain
In den vergangenen Jahren wurden wichtige Fortschritte bei den Lernansätzen für sequentielle Entscheidungsprozesse erzielt. Diese stammen aus verschiedenen Gemeinschaften, die unterschiedliche Terminologien verwenden: Bayesche Optimierung, Versuchsanordnung, Banditen (x-armige Banditen, kontextuelle Banditen, Gaussche-Prozess-Banditen), Active Sensing, personalisierte Recommender-Systeme, automatische Algorithmenkonfiguration, Reinforcement-Learning und so weiter.
Dieselben Gemeinschaften verwenden manchmal auch unterschiedliche Methodologien. Einige konzentrieren sich verstärkt auf eine praktischere Leistung während andere sich intensiver mit den theoretischen Aspekten eines Problems befassen. Daraus ergeben sich unterschiedliche Methoden, um Erkundung und Nutzung von Lernprozessen abzuwägen.
Die Veranstaltung möchte Stakeholder zusammenführen, um Unterschiede und Gemeinsamkeiten zu bestimmen, gemeinsame Benchmarks vorzuschlagen, viele praktische Anwendungen zu prüfen und die Lücke zwischen Theorie und Praxis zu verringern.Weitere Informationen: hier(öffnet in neuem Fenster)