MARC details
| 000 -LEADER |
| fixed length control field |
09175nam a2200493 i 4500 |
| 003 - CONTROL NUMBER IDENTIFIER |
| control field |
TR-AnTOB |
| 005 - DATE AND TIME OF LATEST TRANSACTION |
| control field |
20230908001004.0 |
| 007 - PHYSICAL DESCRIPTION FIXED FIELD--GENERAL INFORMATION |
| fixed length control field |
ta |
| 008 - FIXED-LENGTH DATA ELEMENTS--GENERAL INFORMATION |
| fixed length control field |
171111s2022 xxu e mmmm 00| 0 eng d |
| 035 ## - SYSTEM CONTROL NUMBER |
| System control number |
(TR-AnTOB)200450587 |
| 040 ## - CATALOGING SOURCE |
| Original cataloging agency |
TR-AnTOB |
| Language of cataloging |
eng |
| Description conventions |
rda |
| Transcribing agency |
TR-AnTOB |
| 041 0# - LANGUAGE CODE |
| Language code of text/sound track or separate title |
Türkçe |
| 099 ## - LOCAL FREE-TEXT CALL NUMBER (OCLC) |
| Classification number |
TEZ TOBB FBE BİL YL’22 AKT |
| 100 1# - MAIN ENTRY--PERSONAL NAME |
| Personal name |
Aktaş, Yasin Furkan |
| Relator term |
author |
| 9 (RLIN) |
139192 |
| 245 10 - TITLE STATEMENT |
| Title |
Çok ajanlı sistemlerde derin pekiştirmeli öğrenme yöntemi ile koordinasyon ve görev planlama / |
| Statement of responsibility, etc. |
Yasin Furkan Aktaş; thesis advisor Ahmet Murat Özbayoğlu. |
| 246 13 - VARYING FORM OF TITLE |
| Title proper/short title |
Learnıng coordınatıon behavıour and mıssıon plannıng ın a multı-agent system usıng deep reınforcement learnıng |
| 264 #1 - PRODUCTION, PUBLICATION, DISTRIBUTION, MANUFACTURE, AND COPYRIGHT NOTICE |
| Place of production, publication, distribution, manufacture |
Ankara : |
| Name of producer, publisher, distributor, manufacturer |
TOBB ETÜ Fen Bilimleri Enstitüsü, |
| Date of production, publication, distribution, manufacture, or copyright notice |
2022. |
| 300 ## - PHYSICAL DESCRIPTION |
| Extent |
xiv, 73 pages : |
| Other physical details |
illustrations ; |
| Dimensions |
29 cm |
| 336 ## - CONTENT TYPE |
| Content type term |
text |
| Content type code |
txt |
| Source |
rdacontent |
| 337 ## - MEDIA TYPE |
| Media type term |
unmediated |
| Media type code |
n |
| Source |
rdamedia |
| 338 ## - CARRIER TYPE |
| Carrier type term |
volume |
| Carrier type code |
nc |
| Source |
rdacarrier |
| 502 ## - DISSERTATION NOTE |
| Dissertation note |
Tez (Yüksek Lisans Tezi)--TOBB ETÜ Fen Bilimleri Enstitüsü Temmuz 2022 |
| 520 ## - SUMMARY, ETC. |
| Summary, etc. |
Günümüzde çok ajanlı sistemler oyun, sağlık, lojistik, ulaşım gibi sivil sektörlerin yanında askeri sektörlerde de yerini almış ve merkeziyetçi yaklaşımlara göre daha verimli ve güvenilir bir yöntem olduğu için gün geçtikçe bu konuda yapılan çalışmalar yaygınlaşmıştır. Öğrenme tabanlı yöntemler matematiksel olarak modellenmesi zor olan bilgisayar görüsü ve doğal dil işleme gibi problemlerde veriye dayalı denetimli yaklaşımlarla başarım sağladığı bilinmektedir. Pekiştirmeli öğrenme yaklaşımında ise denetimsiz öğrenme metodu sayesinde çevre ile etkileşim göstererek veri toplama yükünü azaltmaktadır. Derin pekiştirmeli öğrenme Go, Starcraft gibi oyunlarda gösterdiği performans ile karar verme ve planlama problemleri konusunda potansiyelini kanıtlamaktadır. Çok araçlı sistemlerde takım davranışını gerçekleştirmek için katmanlı mimarilerin kullanılması zaman ve işçilik açısından yüksek maliyetlidir. Ayrıca görev planlama, kontrol, karar verme gibi problemlerde optimizasyon ve matematiksel modelleme yöntemleri yeterince hızlı olmamakla birlikte optimal bir sonuç elde etmek bazen mümkün olmamaktadır. Bu problemlerin çözümünü mümkün ve efektif hale getirmek için öğrenme tabanlı yöntemlerin iyi bir alternatif olduğu görülmektedir. Bu sebeple bu çalışmada iki ana konu ele alınmıştır. Birincisinde, çok ajanlı sistemlerde düşük v seviyeli aksiyonlar ile derin pekiştirmeli öğrenme yöntemleri kullanılarak koordineli takım davranışı öğrenimi ele alınmıştır. Bu kapsamda bir simülasyon ortamı geliştirilmiş ve bu ortamda derin pekiştirmeli öğrenme yöntemleri kullanılarak avcıların koordinasyon ile avları yakalaması amaçlanmıştır. Böylelikle düşük seviyeli hız ve hareket aksiyonlarını kullanarak takım koordinasyon davranışı öğrenimi ile tek ajanın yapabileceğinin üzerine çıkılması hedeflenmektedir. İkinci olarak çok araçlı sistemlerde merkezi görev planlama ve dağıtık gerçekleştirme üzerine durulmuştur. Düşük seviyeli davranışlardan koordinasyon öğrenmek yerine görev öncesi planlama ile araçlar arası koordineli rota planlaması yaparak araçların elde edilen rotaları dağıtık olarak gerçekleştirmesi hedeflenmektedir. Araç rota planlama problemi kombinatorik ve NP-zor bir problem olmakla beraber genellikle klasik optimizasyon yöntemleriyle çözülmektedir. Fakat bu yöntemler ile çok iyi bir sonucun elde edilmesi uzun sürmekte, hatta bazen kısıtları sağlayan yeterince iyi bir sonuç elde edilememektedir. Daha emniyetli ve hızlı sonuç vermekte olan hiyerarşik yöntemler, öğrenme tabanlı yöntemler ve hibrit yöntemler bu çalışmada önerilmiştir. Bu kapsamda öncelikle homojen araçlarda araç rotalama, kapasite kısıtlı homojen araçlarda rotalama, heterojen araçlarda rota planlama problemleri üzerine deneyler gerçekleştirilmiştir. Son olarak heterojen araçlarda görev planlama probleminin çözümünden elde edilen rotaları 5 ayrı kara aracının bulunduğu ve her bir aracın hareket planlama çerçevesine sahip olduğu bir simülasyon ortamında kullanarak konsept doğrulaması gerçekleştirilmiştir. Özetle, yapılan çalışmalar sonucunda birinci çalışmada çok ajanlı sistemlerde koordineli davranış öğreniminin mümkün olabileceği gösterilmiştir. İkinci çalışmada ise öğrenme tabanlı ve hiyerarşik yöntemlerin çok daha hızlı çalıştığı kanıtlanmıştır. Önerilen hibrit yöntem ile derin pekiştirmeli öğrenme ve sezgisel optimizasyon yöntemlerinin elde ettiği çözümlerde iyileştirme sağlanmıştır. Problem boyutu büyüdüğünde elde edilen iyileştirme miktarı da artmaktadır. |
|
| Summary, etc. |
Today, multi-agent systems have taken their place in the military sectors as well as in civil sectors such as gaming, health, logistics and transportation, and since they are more efficient and reliable methods than centralized approaches, studies on this subject are becoming more common day by day. It is known that artificial intelligence and machine learning-based learning methods provide many successes with data-centric supervised approaches in difficult problems such as visual and language problems, which are almost impossible to model mathematically. In the reinforcement learning approach, it reduces the burden of data collection by interacting with the environment with the unsupervised learning method in control and decision-making problems. Deep reinforcement learning proves its potential in decision making and planning problems with its performance in games such as Go and Starcraft. Using layered architectures to implement team behavior in multi-vehicle systems is known to be costly in terms of time and labor. In addition, optimization and mathematical modeling methods are not fast enough in problems such as task planning, control and decision making and sometimes it is not possible to obtain the result. Learning-based methods seem to be a good alternative to make this more feasible and effective. Therefore, in this study, basically two main issues are discussed. First, vii learning of coordinated team behavior using deep reinforcement learning methods with low-level actions in multi-agent systems is discussed. In this context, a simulation environment with 2 agents and 10 prey was developed and it was aimed to catch the prey by using deep reinforcement learning methods in this environment. Thus, it is aimed to exceed the ability of a single agent with team coordination by learning coordinated behavior with low-level speed, movement actions. The second is about central task planning and distributed execution in multi-vehicle systems. Instead of learning coordination from low-level behaviors, it is aimed to realize distributed route execution after making coordinated route planning between vehicles by making pre-mission planning. Although the vehicle route planning problem is a combinatorial and NP-hard problem, it is usually solved by classical optimization methods. However, it may take minutes to achieve a very good result with these methods, and sometimes they cannot be optimized enough and give low performed results. Some hierarchical methods, learning-based methods and hybrid methods have been proposed as methods that will give safer and faster results to classical optimization methods. In this context, first of all, a number of experiments were carried out on vehicle routing in homogeneous vehicles, routing in homogeneous vehicles with limited capacity, route planning problems in heterogeneous vehicles. Finally, the concept verification was carried out in a simulation environment where there are 5 different ground vehicles and each vehicle has a motion planning framework, and the study was concluded by performing mission planning solutions in heterogeneous vehicles. In summary, as a result of the studies, it was seen that learning of coordinated behavior in multi-agent systems is possible in the first study. As a result of the second study, learning-based and hierarchical methods work much faster and give successful results. Although deep reinforcement learning methods yield successful results, they give safer and better results when used as an initial solution generator for heuristic optimization methods in a hybrid way. |
| 653 ## - INDEX TERM--UNCONTROLLED |
| Uncontrolled term |
Derin pekiştirmeli öğrenme |
|
| Uncontrolled term |
Optimizasyon |
|
| Uncontrolled term |
Hibrit yöntemler |
|
| Uncontrolled term |
Koordinasyon |
|
| Uncontrolled term |
Görev planlama |
|
| Uncontrolled term |
Rota planlama |
|
| Uncontrolled term |
Sezgisel yöntemler |
|
| Uncontrolled term |
Çok ajanlı sistemler |
|
| Uncontrolled term |
Deep reinforcement learning |
|
| Uncontrolled term |
Heuristics |
|
| Uncontrolled term |
Optimizaton |
|
| Uncontrolled term |
Mission planning |
|
| Uncontrolled term |
Route planning |
|
| Uncontrolled term |
Coordination |
|
| Uncontrolled term |
Multi-agent system |
| 700 1# - ADDED ENTRY--PERSONAL NAME |
| Personal name |
Özbayoğlu, A. Murat |
| 9 (RLIN) |
125250 |
| Relator term |
advisor |
| 710 ## - ADDED ENTRY--CORPORATE NAME |
| Corporate name or jurisdiction name as entry element |
TOBB Ekonomi ve Teknoloji Üniversitesi. |
| Subordinate unit |
Fen Bilimleri Enstitüsü |
| 9 (RLIN) |
77078 |
| 942 ## - ADDED ENTRY ELEMENTS (KOHA) |
| Koha item type |
Thesis |
| Source of classification or shelving scheme |
Other/Generic Classification Scheme |