DZIEKAN i RADA WYDZIAŁU INFORMATYKI, ELEKTRONIKI I TELEKOMUNIKACJI AKADEMII GÓRNICZO-HUTNICZEJ im. ST. STASZICA W KRAKOWIE |
|
---|---|
zapraszają na publiczną dyskusję nad rozprawą doktorską mgr. inż. Wojciecha Korczyńskiego |
|
Agent-based memetic computing in continuous optimization | |
Termin: | 6 października 2017 roku o godz. 12:00 |
Miejsce: | Centrum Informatyki AGH, s. 1.20 ul. Kawiory 21, pawilon D-17 |
PROMOTOR: | Dr hab. inż. Aleksander Byrski - Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie |
RECENZENCI: | Dr hab. inż. Bogdan Trawiński, prof. nadzw. - Politechnika Wrocławska |
Dr hab. Dariusz Barbucha, prof. nadzw. - Akademia Morska w Gdyni | |
Z rozprawą doktorską i opiniami recenzentów można się zapoznać w Czytelni Biblioteki Głównej AGH, al. Mickiewicza 30 |
mgr inż. Wojciech Korczyński
Promotor: dr hab. inż. Aleksander Byrski (AGH)
Dyscyplina: Informatyka
Klasyczne stwierdzenie no-free-lunch stanowi jedną z głównych motywacji do rozwoju nowych metaheurystyk, tj. metod ogólnego przeznaczenia stosowanych w rozwiązywaniu problemów poszukiwawczych i optymalizacyjnych trudnych do rozwiązania przy pomocy powszechnych technik analitycznych. Problemy te zwane są często „problemami czarnej skrzynki” z racji nikłej wiedzy nt. ich dziedziny. Metaheurystyki, mimo że nie gwarantują znalezienia rozwiązania optymalnego, pozwalają na uzyskanie zadowalających wyników w krótkim czasie i z wykorzystaniem rozsądnych środków obliczeniowych.
Przez lata wyraźną popularność w dziedzinie obliczeń metaheurystycznych zdobyły metody populacyjne, a w szczególności algorytmy ewolucyjne inspirowane darwinowską teorią doboru naturalnego. W licznych badaniach dowiedziono ich skuteczności w rozwiązywaniu problemów trudnych. Ponadto, prace Michaela Vose'a pozwoliły na uznanie ich jako dobrze zdefiniowanych algorytmów globalnej optymalizacji. Jednakże, klasyczne algorytmy ewolucyjne posiadają pewne wady (np. wysoki nakład obliczeniowy, nieuwzględnienie niektórych ważnych cech ewolucji), które stały się bodźcem do tworzenia nowych metaheurystyk, stanowiących połączenie różnych technik i podejść.
Znaczący skok jakościowy w dziedzinie obliczeń ewolucyjnych przyniosło wprowadzenie koncepcji agentowości. Okazało się, że systemy agentowe są w stanie osiągać lepsze rozwiązania niż techniki klasyczne, wymagając przy tym mniejszego nakładu obliczeniowego. Jednocześnie, możliwa stała się symulacja takich istotnych cech ewolucji, jak dekompozycja populacji czy koewolucja gatunków. Jednym z przykładów skutecznego zastosowania systemu wieloagentowego w obszarze metaheurystyk ewolucyjnych jest system EMAS (Evolutionary Multi-Agent System).
Dalsze usprawnienia zostały zapewnione przez metody hybrydowe, takie jak algorytmy memetyczne, które łączą eksploatację lokalnego przeszukiwania ze zorientowanymi na eksplorację metaheurystykami ewolucyjnymi. Dodatkowo, wstępne badania wykazały możliwość efektywnej realizacji algorytmów memetycznych w środowisku agentowym.
Pomimo iż metaheurystyki populacyjne stanowią efektywne narzędzia, problemem pozostaje ich wydajność. W szczególności w tę kategorię wpisują się algorytmy memetyczne, z racji ogromnej liczby ewaluacji osobników. Dlatego niezbędne jest opracowywanie nowych, wydajnych metod memetycznych, gdyż zastosowanie dedykowanych operatorów przeszukiwania lokalnego umożliwi zwiększenie efektywności przeszukiwania przestrzeni rozwiązań w agentowych systemach obliczeniowych w porównaniu do ewolucyjnych systemów wieloagentowych oraz klasycznych algorytmów ewolucyjnych, umożliwiając jednocześnie osiągnięcie lepszych rozwiązań w krótszym czasie.
W celu poparcia powyższej tezy dokonano przeglądu metod poprawy wydajności metaheurystyk. Następnie, zaprezentowano technikę buforowania funkcji oceny przystosowania, umożliwiającą zmniejszenie złożoności obliczeń memetycznych i pozwalającą na uzyskanie lepszych wyników w krótszym czasie, niż w przypadku relewantnych metod ewolucyjnych i agentowych. Kolejno, przeprowadzono eksperymentalną weryfikację zaproponowanego podejścia przy wykorzystaniu trudnych, wielowymiarowych (5000 wymiarów) funkcji ciągłych. Również, przedyskutowano możliwości przyśpieszenia obliczeń poprzez delegację ich najkosztowniejszych części do urządzeń GPU i FPGA.
Wśród najważniejszych efektów niniejszej pracy zidentyfikować można: