Publikacje

15-03-2019 r.
, red. Roman Zajdel
  1. Zajdel R., Kusy M., Application of Reinforcement Learning to Stacked Autoencoder Deep Network Architecture Optimization. (2018) eds. L. Rutkowski, et al., Lecture Notes in Artificial Intelligence, 10841, 267–276. DOI: 10.1007/978-3-319-91253-0_26.
  2. Zajdel R., Epoch-incremental Dyna-learning and prioritized sweeping algorithms (2018) Neurocomputing, Vol. 319, 13-20, DOI: 10.1016/j.neucom.2018.08.068, dostęp on-line: https://doi.org/10.1016/j.neucom.2018.08.068.
  3. Kluska J., Wiktorowicz K., Gniewek L., Zajdel R., Płoucha R., Zakorczmenny D., Układy wykorzystujące logikę rozmytą i sieci neuronowe. Sprawozdanie z pracy badawczej. Grant 8 T11A 028 11, Rzeszów 1998.
  4. Kusy M., Zajdel R., Application of Reinforcement Learning Algorithms for the Adaptive Computation of the Smoothing Parameter for Probabilistic Neural Network. IEEE Transactions on Neural Networks and Learning Systems, Vol. 25, No. 9, 2163-2175, 2015. DOI: 10.1109/TNNLS.2014.2376703,
  5. Kusy M., Zajdel R., Comparison of Two Radial Function Based Models: Support Vector Machine and Neural Network in the Classification of Ovarian Cancer Data, Proceedings of International Symposium on Innovations in Intelligent Systems and Applications, INISTA, Turkey, Istanbul, 2005, pp. 316-320.
  6. Kusy M., Zajdel R.: Prediction Capabilities of Nonlinear Models in Normalized Medical Data Classification, Artificial Intelligence and Soft Computing (A. Cader, L. Rutkowski, R. Tadeusiewicz, J. Żurada, Eds.), Academic Publishing House EXIT, s. 267-272, Warszawa 2006
  7. Kusy M., Zajdel R., Probabilistic neural network training procedure based on Q(0)-learning algorithm in medical data classification. Applied Intelligence, Vol. 41, No. 3, pp. 837–854, 2014. DOI 10.1007/s10489-014-0562-9.
  8. Kusy M., Zajdel R., Probabilistic Neural Network Training Procedure with the Use of SARSA Algorithm, Rutkowski et al. (Eds.): ICAISC 2015, Part I, LNAI 9119, pp. 49–58, 2015. DOI: 10.1007/978-3-319-19324-3_5.
  9. Kusy M., Zajdel R., Stateless Q-Learning Algorithm for Training of Radial Basis Function Based Neural Networks in Medical Data Classification, eds. Korbicz J., Kowal M., Intelligent Systems in Technical and Medical Diagnostics, Advances in Intelligent Systems and Computing, Vol. 230, 2014, pp 267-278.
  10. Wiktorowicz K., Zajdel R., Sterowanie rozmyte robotem mobilnym Khepera, PAK 4’97, 112-115.
  11. Wiktorowicz K., Zajdel R., A Fuzzy Navigation of a Mobile Robot, Systems Science, 1997, 23, 4, 87-100.
  12. Zajdel R., Algorytmy rozmyto – neuronowe i ich zastosowanie do sterowania małym robotem mobilnym, rozprawa doktorska, Wrocław 1998.
  13. Zajdel R., Algorytmy uczenia ze wzmocnieniem Dyna-R i prioritized sweeping-R, Inżynieria wiedzy i systemy ekspertowe. Re A. Grzech [i in.], Akademicka Oficyna Wydaw. EXIT, Warszawa 2009, 161-169.
  14. Zajdel R., Epoch-Incremental Queue-Dyna Algorithm, Lecture Notes in Artificial Intelligence, L. Rutkowski, R. Tadeusiewicz, L. A. Zadeh, J. M. Zurada, Eds., Vol. 5097, 1160-1170, 2008.
  15. Zajdel R., Epoch-incremental reinforcement learning algorithms, Int. Journal of Applied Mathematics and Computer Science, Vol. 23, No. 3, 623-635, 2013. DOI: 10.2478/amcs-2013-0047.
  16. Zajdel R., Epokowo-inkrementacyjny algorytm uczenia się ze wzmocnieniem wykorzystujący kryterium średniego wzmocnienia. PAK 7’2013, 700-703.
  17. Zajdel R., Epokowo-inkrementacyjny algorytm uczenia ze wzmocnieniem w środowisku GRID, Postępy automatyki i robotyki, cz. 1, Kielce, 439-449, 2011.
  18. Zajdel R., Experimental study on parameter selection for reinforcement learning algorithms, Theoretical and Applied Informatics, 20, 2, 71-85, 2008.
  19. Zajdel R., Fuzzy epoch-incremental reinforcement learning algorithm, Lecture Notes in Artificial Intelligence, Rutkowski, M. Korytkowski, R. Scherer, R. Tadeusiewicz, L. A. Zadeh, J. M. Zurada, Eds., 7267 (1), 359-366, 2012.
  20. Zajdel R., Fuzzy Q(λ)-Learning Algorithm, Springer-Verlag Berlin, Lecture Notes in Computer Science, t.6113/2010, 256-263, 2010.
  21. Zajdel R., Prioritized epoch-incremental Q-learning algorithm, Theoretical and Applied Informatics, 24, 2, 159-171, 2012.
  22. Zajdel R., Rozmyta sieć neuronowa w sterowaniu robotem mobilnym, III KK Nauk.: Inżynieria wiedzy i systemy ekspertowe, Wrocław 1997, t. 1, 225-232.
  23. Zajdel R., Sterowanie robotem mobilnym Khepera z wykorzystaniem logiki rozmytej i uczenia ze wzmocnieniem, II KK Algorytmy Ewolucyjne i Optymalizacja Globalna, Rytro 1997, 307-314.
  24. Zajdel R., Układy logiki rozmytej i sieci neuronowych. Sprzęt i oprogramowanie - część 1, PAK, 1996, 8, 209-212.
  25. Zajdel R., Układy logiki rozmytej i sieci neuronowych. Sprzęt i oprogramowanie - część 1I, PAK, 1996, 9, 237-240.
  26. Zajdel R., Uczenie się ze wzmocnienie w trybie epokowo-inkrementacyjnym. Oficyna Wydawnicza Politechniki Rzeszowskiej, Rzeszów 2015.
  27. Zajdel R., Uczenie się ze wzmocnieniem w trybie epokowo-inkrementacyjnym, Sprawozdanie z pracy badawczej. Grant KBN nr N N516 374536, Rzeszów 2009-2012.
  28. Zajdel R., Uczenie ze wzmocnieniem regulatora Takagi-Sugeno metodą elementów ASE/ACE, PAK, 2005, 1, 47-49.
  29. Zajdel R., Wiarygodność reguł rozmytych otrzymanych w procesie uczenia, PAK, 2003, 4, 28-30.
  30. Zajdel R., Płoucha R., Regulator rozmyty Takagi-Sugeno w sterowaniu adaptacyjnym robotem mobilnym, Konf. Nauk.-Tech.: Automation’98, Warszawa 1998, 193-200.
  31. Zajdel R., Świder K., Using Neural and Neuro-Fuzzy Architectures for Character Recognition with MATLAB, Proc. 4. International Workshop, Fuzzy-Neuro-Systeme ‘97: Computational Intelligence, Germany, Soest 1997, 549-556.
  32. Zajdel R., Wiktorowicz K., O doborze reguł sterowania dla regulatora rozmytego, PAK, 2005, 1, 44-46.
  33. Zajdel R., Wiktorowicz K., Synteza regulatora rozmytego i neuronowego dla obiektów nieliniowych, Konf. Nauk.-Tech.: "Zastosowania Komputerów w Elektrotechnice", Poznań/Kiekrz 1996, 161-164.

Nasze serwisy używają informacji zapisanych w plikach cookies. Korzystając z serwisu wyrażasz zgodę na używanie plików cookies zgodnie z aktualnymi ustawieniami przeglądarki, które możesz zmienić w dowolnej chwili. Więcej informacji odnośnie plików cookies.

Akceptuję