:::: MENU ::::
JADE

JADE: Adaptive Differential Evolution with Optional External Archive

“JADE: Adaptive Differential Evolution with Optional External Archive” başlıklı çalışma Zhang Jingqiao ve Arthur C. Sanderson tarafından yapılmış olur IEEE transactions on evolutionary computation dergisinin 2009 yılındaki 13.5 sayısının 945-958.sayfaları arasında basılmıştır.

Çalışmada DE için “DE/current-to-pbest” ismi verilen bir mutasyon stratejisi önerilmiş ve opsiyonel harici arşiv ve kontrol parametrelerinin uyarlanabilir bir şekilde güncellenmesi yaklaşımı geliştirilmiştir.

“DE/current-to-best” yaklaşımının genelleştirilmiş halidir. Opsiyonel arşiv işlemi ilerleme durumu hakkında bilgi vermek için geçmiş verileri kullanmaktadır. Her iki yaklaşım da popülasyonu çeşitlendirmekte ve yakınsama performansını arttırmaktadır.

Parametre uyarlaması otomatik olarak kontrol parametrelerini uygun değerlere günceller ve bir kullanıcının parametre ayarları ile optimizasyon problemleri arasındaki ilişki hakkında daha önceden bilgi sahibi olmamasını sağlar.Bu durum algoritmanın sağlamlığını(robustness) arttırmaya yarar.

Yötem 20 benchmark fonksiyonunda test edilmiş ve iyi sonuçlar elde edilmiştir. JADE, harici bir arşivle nispeten yüksek boyutlu problemler için umut verici sonuçlar üretmiştir.

DE’nin kontrol parametrelerinin ne ölçüde etki ettiğini belirleyebilmek için deneme yanılma metodu ile bir çok kıyaslama yapılmalıdır. Bu uzun ve can sıkıcı bir süreçtir. O yüzden uyarlanabilir(adaptive) ve kendini uyarlayan(self-adaptive) yöntemler önerilmiştir.

Parametre Kontrol Mekanizmaları 3’e ayrılabilir:

1-Deterministik Parametre Kontrolü: Kontrol parametresi evrimsel araştırmadan gelen herhangi bir geri beslemeyi dikkate almadan bazı deterministik kurallarla değiştirilir. Holland[Adaptation in Natural and Artificial Systems] tarafından önerilen mutasyon oranlarının zamana bağlı değişimi örnek gösterilebilir.

2-Uyarlamalı Parametre Kontrolü: Evrimsel araştırmadan gelen geri bildirim, kontrol parametrelerini dinamik olarak değiştirmek için kullanılır. Örnekler;
Rechenberg’in “1/5 inci kural” [Evolutionary Algorithms in Theory and Practice: Evolution Strategies, Evolutionary Programming, Genetic Algorithms] ve
bulanık mantık uyarlamalı DE’ler [A fuzzy adaptive differential evolution algorithm] ve [Fuzzy logic controlled multiobjective differential evolution]
SaDE [Self-adaptive differential evolution algorithm for numerical optimization]
jDE [Self-adapting control parameters in differential evolution: A comparative study on numerical benchmark problems]
SaNSDE [Self-adaptive differential evolution with neighborhood search]
ve çalışmada önerilen JADE.

3-Kendiliğinden Uyumlu Parametre Kontrolü: Kontrol parametrelerinin kendine adaptasyonunu gerçekleştirmek için “evrimi evrimleştiren” bir yöntem kullanılır. Kontrol parametreleri doğrudan bireylerle ilişkilidir ve mutasyon ve rekombinasyon / çapraz geçişten geçer. Daha iyi parametre değerleri, hayatta kalma olasılığı daha yüksek bireyler üretme eğiliminde olduğu için, bu değerler daha fazla yavruya yayılabilir. Çok amaçlı optimizasyon (MOO) için SPDE [The self-adaptive pareto differential evolution algorithm] ve [Exploring dynamic self-adaptive populations in differential evolution] DESAP bu kategoriye dahildir.

Uyarlanabilir(adaptive) ve kendini uyarlayan(self-adaptive) yöntemler iyi dizayn edilebilirse sağlamlık ve yakınsama oranını geliştirir.

DE/rand/1/bin mutasyon stratejisi sağlam(robost) olarak bilinirken, yakınsama oranı açısından daha başarısızdır. Bazı çalışmalarda ise DE/current-to-best/1/bin mutasyon stratejisi ile birlikte oranlı olarak kullanılmıştır.

Şimdiye kadar, yalnızca en iyi çözümlerin bilgisini kullanan açgözlü bir DE varyantına (DE/current-to-best/1/bin ve DE/best/1/bin gibi) dayanan herhangi bir yöntem geliştirilmemiştir. Bunun nedeni açgözlü bir varyant genellikle daha az güvenilirdir ve özellikle multimodal problemleri çözerken erken yakınsama gibi problemlere yol açabilir. [“A comparative study of differential evolution variants for global optimization] ve [A comparison of algorithms for the optimization of fermentation processes] çalışmaları incelenebilir.

Uyarlamalı bir DE algoritmasında aç gözlü DE değişkenlerinin güvenilirliği daha az önemli bir sorun olduğundan hızlı yakınsaması daha çekici hale gelir.

Çalışmada en iyi çözüm yerine, yakın zamanda keşfedilen en iyi değerler esas alınarak bir yöntem önerilmiştir.

Klasik DE’de F parametresi tüm popülasyon için sabit iken, sonraki uyarlamalarda her bireye ait ayrı F değerleri verilerek çözüm aranmıştır.

Mutasyon stratejileri DE/–/k şeklinde isimlendirilmektedir. Buradaki k, kabul edilen fark vektörlerinin(xr1,g − xr2,g hariç) sayısına işaret etmektedir.

Örneğin:

de-rand-current-to-best-bes

Sınırları taşan bireyler aşağıdaki formüle göre yeniden düzenlenmiştir. Bu yöntemin özellikle optimal çözüm sınırın yakınında veya sınırında bulunuyorsa iyi çalıştığı iddia edilmiştir.

Klasik DE’de CR parametresi tüm popülasyon için sabit iken, sonraki uyarlamalarda her bireye ait ayrı CR değerleri verilerek çözüm aranmıştır.

ADAPTİF DE ALGORİTMALARI

DESAP [Exploring dynamic self-adaptive populations in differential evolution]: Çok başarılı sonuçlar üretememiştir.

FADE[A fuzzy adaptive differential evolution algorithm]: Bulanık mantık ile bireylere ait en uygun Fi ve CRi değerlerini bularak çözüme ulaşmaya çalışır. Büyük boyutlu problemlerde daha iyi sonuç vermiştir. Çok amaçlı optimizasyon için [Fuzzy logic controlled multiobjective differential evolution] önerilmiştir.

SaDE [Self-adaptive differential evolution algorithm for numerical optimization]

DE/rand/1 ve DE/current-to-best/1 mutasyon stratejelerini kullanır. Son 50 jenerasyonda hangi strateji daha başarılı birey ürettiyse o stratejiden yeni birey üretilir.

[Evolutionary algorithm with competing heuristics] ve [Competing heuristics in evolutionary
algorithms] çalışmalarını inceleyelim.

SaDE’de mutasyon faktörleri, ortalama 0.5, standart sapma 0.3 ile normal dağılıma göre bağımsız olarak her bir nesilde üretilir ve aralığa (0, 2) indirgenir. Bu düzen, hem yerel hem de (küçük Fi değerleriyle) ) ve küresel (büyük Fi değerleriyle) evrim süreci boyunca potansiyel olarak iyi mutasyon vektörleri üretmek için başarılı sonuçlar vermektedir.

Çaprazlama olasılıkları, ortalama CRm ve standart sapma 0.1 ile bağımsız bir normal dağılıma göre rastgele oluşturulmuştur. Fi’nin tersine, CRi değerleri, bir sonraki yeniden nesil oluşmadan beş nesil boyunca sabit kalır. Ortalama CRm, 0.5 olarak başlatılmıştır. CR, uygun değerlere uyarlamak için, son CRm güncellemesinden bu yana kaydedilen başarılı CR değerlerine dayanarak her 25 nesilde CRm’yi güncelleştirir.

SaDE’de local search procedure (quasi-Newton method) önerilmiştir.

Kısıtlı optimizasyon için SaDE [“Self-adaptive differential evolution algorithm for constrained real-parameter optimization]

jDE [Self-adapting control parameters in differential evolution: A comparative study on numerical benchmark problems]

jDE-2 [Performance comparison of self-adaptive and adaptive differential evolution algorithms]

JADE

Arşivleme işlemi aktif değilse mutasyon işlemi:

de-current-to-pbest-1

Arşivleme işlemi aktifse mutasyon işlemi:

with-archive

A: arşivlenmiş alt çözümleri
P: Mevcut popülasyonu işaret eder
r2 bireyi A ve P’nin birleşiminden rastgele olarak seçilir

Her jenerasyon sonrasında çözüm geliştirememiş parentlar arşive kaydedilir. Eğer arşiv boyutu aşılırsa arşiv boyutuna düşünceye kadar rastgele bireyler silinir. Arşiv ilerleme yönü hakkında bilgi verir ve popülasyonun çeşitliliğini de geliştirebilir.

Çalışmada F parametresinin büyüklüğünün popülasyonun çeşitliliğini artırdığı gösterilmiştir.

JADE algoritmasının sözde kodu:

jade-pseudo-code

Parametre Uyarlama

Her jenerasyonda her xi bireyi için
CRi = randni(μCR, 0.1)
şeklinde hesaplanır ve 0-1 aralığına indirgenir.

mean μCR = 0,5 olarak başlatılır ve her jenerasyonda:

μCR = (1 − c) · μCR + c · meanA(SCR)

SCR :set of all successful crossover probabilities
c=0-1 arasında pozitif bir sabittir

meanA= Ortalamadır

şeklinde güncellenir.

Benzer şekilde Fi her jenerasyonda

Fi = randci(μF , 0.1)

Fi ≥ 1 ise 1 alınır, Fi ≤ 0 ise yeniden üretilir.
μF = Konum parametresi ile Cauchy dağılımı

μF=0,5 alınır ve her jenerasyonda;

μF = (1 − c) · μF + c · meanL (SF )

şeklinde güncellenir.

SF: set of all successful mutation factors

meanL(·): Lehmer ortalamasıdır.

lehmer

Normal dağılımla karşılaştırıldığında, Cauchy dağılımı aç gözlü mutasyon stratejilerinde (DE/best,DE/current-to-best ve DE/current-to-pbest) eğer mutasyon faktörleri belli bir değer etrafında yoğunlaşırsa mutasyon faktörlerini çeşitlendirmek için daha yararlıdır.

Lehmer ortalaması daha büyük başarılı mutasyon faktörlerine daha fazla ağırlık verir. Bu nedenle Lehmer ortalaması daha büyük mutasyon faktörlerini yaymak için yararlıdır, bu da ilerleme oranını iyileştirir.

SF’nin aritmetik ortalaması mutasyon faktörünün optimal değerinden daha küçük olma eğilimindedir ve bu nedenle daha küçük bir μF’ye neden olur ve sonuçta erken yakınsama yaratır.

Daha küçük bir μF eğilimi esas olarak evrimsel araştırmada başarı ihtimali ve ilerleme hızı arasındaki tutarsızlıktan kaynaklanmaktadır.

Küçük Fi ile DE/current-to-pbest, (1 + 1) evrim stratejisine (ES) [(1 + 1) evolution strategy (ES)] benzer. (1 + 1) ES için, mutasyon varyansı ne kadar küçük olursa, genellikle başarılı birey üretme ihtimalinin daha yüksek olduğu bilinmektedir (corridor ve sphere fonksiyonları için).

Bununla birlikte, 0’a yakın bir mutasyon varyansı değersiz/anlamsız/küçük/abes bir evrim ilerlemesine neden olur.

Basit ama etkili olan yöntem, evrimsel araştırmada daha hızlı ilerleme sağlamak için daha büyük başarılı mutasyon faktörlerine daha fazla ağırlık vermektir.

Sabit c ile ilgili olarak, c = 0 ise parametre uyarlaması yapılmaz. Aksi halde, başarılı bir CRi veya Fi’nin ömrü kabaca 1 / c jenerasyondur; Yani, 1 / c jenerasyon sonra, μCr veya μF’nin eski değeri, c sıfıra yakın olduğunda (1 – c) 1 / c → 1 / e ≈% 37 faktörü kadar azaltılır.

ce

JADE’de;

C parametre uyum oranını kontrol eder
P mutasyon stratejisinin açgözlülüğünü belirler

1/c ∈ [5, 20] vep ∈ [5%, 20%] önerilmektedir. Anlamı;

ΜCR ve μF değerlerinin ömrü 5 ila 20 jenerasyondur ve mutasyonda en iyi% 5-20 yüksek kaliteli çözümleri dikkate alıyoruz.

Çalışmada kullanılan benchmark fonksiyonları:

D = 30 veya 100 alınarak test edilenler:

13-fonksiyon

D = 2 veya 6 arasında alınarak test edilenler:

7fonksiyon

Çalışmayı indirmek için:

jade_adaptive_differential_evolution_with_optional_external_archive


Metaheuristics in large-scale global continues optimization: A survey

“Metaheuristics in large-scale global continues optimization:A survey” başlıklı çalışma Sedigheh Mahdavi, Mohammad Ebrahim Shiri ve Shahryar Rahnamayan tarafından yapılmış olup Information Sciences dergisinin 2015 yılındaki 295.sayının 407–428.sayfaları arasında basılmıştır.

Çalışmada 200’den fazla makale incelenerek metasezgisellerin büyük ölçekli küresel sürekli optimizasyon için getirdikleri çözümler üzerinde durulmuştur.

LSGO çözümü için önerilen yöntemlerin sınıflandırılması:

hierarchical-classification-lsgo-techniques

Cooperative Coevolution (CC) Birlikte Evrim algoritmaları problemi ayırma(decomposition) işlemi yaparak çözüme gitmeye çalışmaktadır. Bu yaklaşım böl ve fethet(divide-and-conquer) yaklaşımı temel alınarak geliştirilmiştir. Non-decomposition-based(Ayırma temelli olmayan) metodlar ise kullandıkları bazı efektif parametreler ile arama uzayını daha iyi araştırarak çözüm önerisi sunmaktadırlar.

Cooperative Coevolution (CC) Birlikte Evrim algoritmaları

İlk CC stratejileri tek boyuta indirgeme ve yarıya bölme şeklinde idi.

Cooperative Coevolution (CC) Birlikte Evrim süreci kabataslak aşağıdaki gibidir:

1.Adım: Büyük boyut daha küçük alt boyutlara bölünür
2.Adım: Round-robin(http://bilgisayarkavramlari.sadievrenseker.com/2008/11/19/round-robin/) stratejisi çerçevesinde önceden tanımlanmış iterasyon kadar alt bölümler işletirilir
3.Adım: n-boyutlu çözümü oluşturmak için tüm alt bileşenlerin çözümleri birleştirilir.

2 çeşit alt parçalardaki sonucu birleştirme metodu vardır.
1-Rastgele birleştirme metodu
2-En iyileri birleştirme metodu

birlestirme-metodlari

2 çeşit ana gruplama stratejisi vardır.
1-Statik gruplama
2-Dinamik gruplama
2-a-Rastgele dinamik gruplama
2-b-Öğrenme temelli dinamik gruplama

Aşağıdaki tabloda farklı gruplama ve birleştirme stratejileri kullanarak yapılmış bazı çalışmalarla ilgili bilgilere yer verilmiştir:

major-variants-cc-method

CC metodları ayrılabilir(separable) problemler için başarılı sonuçlar üretsede ayrılamayan(non-separable) problemlerde başarılı olamamışlardır. Bunun nedeni ayrılamayan problemlerdeki değişkenlerin birbirleriyle olan bağlantısıdır.

Statik gruplama

Statik gruplama önerisi ile yapılan çalışmalar genellikle 100 boyuttan daha düşük problemler için başarılı olurken, daha büyük boyutlarda çözüme ulaşamamışlardır. Ayrıca ayrılamayan(non-separable) problemlerde başarılı olamamışlardır.

Dinamik gruplama

Özellikle ayrılamayan(non-separable) problemlere çözüm olarak düşünülen bu yaklaşımda birbiri ile ilişkili parametrelerin aynı grupta toplanarak çözülmeleri sağlanmaya çalışılmıştır.

Dinamik gruplama, rastgele dinamik gruplama ve öğrenme temelli dinamik gruplama olarak ikiye ayrılabilir.

Rastgele dinamik gruplama

-Kooperatif birlikte evrim temelli rastgele dinamik gruplama ile çözüm önerisi:
1-n boyutlu vektör rastgele bir şekilde m adet s boyutlu vektöre bölünür. Örneğin 1000 boyutlu problem için 20 adet 50 boyutlu parça gibi.
2-Daha sonra her bir alt bölüm ilgili algoritma ile belirlenen FEs sayısı kadar adım çözülmeye çalışılır.
3-Her bir alt bölüme bir ağırlık vektörü atanır ve popülasyonun en iyi, en kötü ve rastgele çözümleri ile optimize edilmeye çalışılır.
4-Sonlandırma kriterine ulaşılmadıysa başa dönülür.

adaptif-dinamik-gruplama

DECC-G algoritması ile rastgele gruplama metodu 1000 boyuta kadar olan ölçeklenebilir ayrılmaz(scalable non-separable) problemler için iyi sonuçlar üretmiştir, yalnız ilişkili parametreler arttıkça bu performans düşmüştür.

MLCC, JADE, CCPSO, CCPSO2, CCOABC algoritmaları da ilgili çalışmada kısa kısa anlatılmıştır.

Öğrenme temelli dinamik gruplama

Problemdeki ilişkili değişkenlerin hangileri olduğu uzman bilgisi gerektirmektedir. Bu bilgiyi optimizasyona başlamadan önce elde edebileceğimiz gibi, optimizasyon süresincede öğrenebiliriz. Öğrenme temelli dinamik gruplamanın amacı ilişkili değişkenleri aynı alt grup altına toplamaktır.

Hangi parametrelerin birbirleri ile ilişkili olduğunu bulmak için;

interactions

best= o ana kadar erişilmiş en iyi değer
new= mevcut çözüm
rand= rastgele çözüm

Üretilen 2 yeni çözüm(xj ve x’j) fonksiyon değerlemesine tutulur, eğer f(x’), f(x)’den daha iyiysek i ile k değişkenleri arasındaki etkileşim olasılığı(interaction probability) artırılır. k parametresi hesaba katıldığında çözüm iyileşiyorsa demek ki i ile k arasında bir ilişki vardır şeklinde bir yorum yapılabilir.

Chen ve ark. [Wenxiang Chen, Thomas Weise, Zhenyu Yang, Ke Tang, Large-scale global optimization using cooperative coevolution with variable interaction learning, in: Parallel Problem Solving from Nature, PPSN XI, Springer, 2010, pp. 300–309.] CC method with Variable Interaction Learning (CCVIL) isminde bir metod önermişlerdir.

[Mohammad Nabi Omidvar, Xiaodong Li, Xin Yao, Cooperative co-evolution with delta grouping for large scale non-separable function optimization, in: 2010 IEEE Congress on Evolutionary Computation (CEC), IEEE, 2010, pp. 1–8.] çalışmasında iki ardışık iterasyondaki boyutlar arasındaki değişimden elde edilen DELTA değerine göre gruplama yapılması düşünülmüştür. Birden fazla non-separable alt grup var ise performansı düşmektedir.

Önerilen bazı matematiksel teoremlere, varyanslara ve çeşitli istatistiki parametrelere bağlı ayırma stratejileri de geliştirilmiştir.

AYRIŞMAYAN YÖNTEMLER (Non-decomposition methods)

Ayrışmayan yöntemlerde böl ve fethet yaklaşımı yerine bölme yapmadan çözüme ulaşma yaklaşımı önerilmiştir. Bu yöntemlerde yeni mustasyon, seleksiyon, çaprazlama yöntemleri önerme, lokal arama dizaynı ve kullanımı, karşıtlığa dayalı öğrenme,örnekleme operatörü, Hibridizasyon, artan veya azaltılan popülasyon büyüklüğü yöntemleri öne çıkmaktadır.

non-decomposition-based-methods

Sürü zekasına uygulanan ayrışmayan yöntemler

Popülasyonu etkin kullanmak için bireylerin popülasyondan çıkarılması veya eklenmesi hedeflenmiştir. Bunun için 3 kriter belirlenmiştir:

1-En iyi birey; k adet iterasyonda değiştirilmediğinde, sürüye yeni bir birey eklenir.
2-Bireyler, k adet iterasyonda en iyiyi en iyi duruma getirmek için bir veya daha fazla çözüm bulabilirse, arama ilerlemesini artırmak için gereksiz bireyler sürüden çıkarılır.
3-En iyi çözüm değiştirilmediğinde ve popülasyon büyüklüğü popülasyonun maksimum boyutuna eşit olduğunda, yeni bir birey eklemek için mevcut sürüdeki zayıf uygunluk değerine sahip bir birey çıkarılır.

-Bireylerin hareket alanını sınırlama,
-bireylerin standart sapma değerleri amaç fonksiyonunu çok küçük şekilde etkiliyorsa yeniden başlatma stratejisi,
-rotasyon matrisi ile bireylerin hareket alanına müdahale etme,
-her adımda bir çift birey seçerek bu iki bireyi yarıştırıp iyi olanı gelecek jenerasyona aktarırken, kötü olan bireyin ise iyi olana göre eğitilmesi,
gibi yaklaşımlar da önerilmiştir.

Durgunluğu engellemek(fighting stagnation) için ne yapılabilir? sorusuna “belirli bir durgunluk eşiğinden sonra yeniden başlatma(restarting) uygulanabilir” şeklinde bir cevap verilebilir.

Popülasyon çeşitliliğini artırmak için bir sonraki jenerasyona aktarılacak deneme bireyin seçimi yapılırken rastgele üretilen 0-1 aralığındaki bir sayı, önceden belirlenmiş (pr) değerinden küçükse mevcut bir sonraki jenerasyondaki birey, değilse mevcut jenerasyondaki birey deneme bireyine aktarılır. Aşağıda bu durumun gösterimi mevcuttur:

trial-particle

Evrimsel hesaplamaya uygulanan ayrışmayan yöntemler

Mutasyon operatörü uygulanırken bireylere açılar eklenmiştir. Bireyler bir matris formunda düşünülerek alt matrislere bölünerek işlem yapılması sağlanmıştır.

Bireylerin global korelasyon matrisi oluşturulur ve belirli bir eşik değerin altındaki değişkenler zayıf bağımlı değişkenler(weakly dependent variables) olarak adlandırılır.

Küresel daralma(global shrinking) olarak isimlendirilen teknikle arama uzayını potansiyel bölgeye çekmek için Gauss ve Cauchy modelleri kullanılır. Yerel keşif(local exploration) olarak isimlendirilen teknikle her grubun boyutu uyarlamalı olarak ayarlanır. Her alt grup farklı 3 algoritma ile çözümlenir ve fitness değerine en çok etki eden parametreler belirlenir.

Problemin unimodal mı multimodal mı olduğunu tespit etmek arama uzayına yapılacak davranışları etkilediğinden önemlidir.

Popülasyonun alt gruplara bölünerek her gruba bir ölçekleme faktörü verilmesi ve 0,1 ile 1,0 arasında rastgele değerleri alt gruplara ölçekleme faktörü olarak verme yaklaşımları da mevcuttur.

Cauchy mutasyon temelli global en iyi etrafında bir aday çözüm önerisi geliştirilmiştir.

Öklid uzaklık tabanlı çeşitlilik metriği(Euclidean distance-based diversity metric) temelli bir popülasyon çeşitliliği ölçüm metoduna göre fitness/çeşitlilik değerlerine bağlı yeni çözüm önerileri geliştirilmiştir.

Minimum Population Search (MPS) küçük popülasyon ile arama uzayını taramayı garanti etmektedir. MPS keşif ve sömürü dengesini iyi kurarak LSGO’ya çözüm bulmaya çalışmaktadır.

Karşıtlığa dayalı öğrenme ile bağlantılı yaklaşımlar

Popülasyon ilk oluşturulurken, bir de karşıt popülasyon oluşturulur ve iterasyonlar başlamadan bu iki popülasyon karşılaştırılarak en iyi olanlar tek popülasyon halinde bırakılır. Araştırma sürecinde de daha önceden belirlenen olasılık değerine göre her birey için oluşturulan karşıt birey ile işleme devam edilir.

Yerel arama ile bağlantılı yaklaşımlar

Quasi-Newton metodu ile yakınsama hızı artırılmaya çalışılmıştır. Yerel aramayı gerçekleştiren bir çok farklı yöntem önerilmiştir.

Tabu arama ile bağlantılı yaklaşımlar

Popülasyon daha alt parçalara bölünmüş, yerel arama gerçekleştirilmiş ve Tabu arama temelli bazı yaklaşımlar önerilmiştir.

Kıyas Fonksiyonları ve performans ölçümleri

CEC’08 setindeki
G1 (Shifted Sphere), G4 (Shifted Rastrigin),G6 (Shifted Ackley) : separable
G2 (Schwefel),G3(Shifted Rosenbrock),G5(Shifted Griewank),G7 (Fast Fractal):non-separable
olaran tanımlanmıştır.

CEC’2010 test fonksiyonları:

cec-2010-test-functions

LSGO ile ilgili Örnek Uygulamalar:

applications-of-lsgo

Sonuç ve Değerlendirme

LSGO’nun çözümlemesinin zor olmasının sebepleri:

1-Boyut arttıkça arama uzayı büyümektedir
2-Boyut arttıkça problemin tipi değişebilir(unimodal -> multimodal)
3-Boyut arttıkça hesaplama maliyeti büyümektedir.
4-Non-seperable fonksiyonlar için ilişkili değişkenlerin tespit edilmesi.

Ne Yapılabilir?

1-Optimum bölümleme nasıl yapılabilir? İlişkili değişkenler nasıl tespit edilebilir?
2-CC algoritmaları kısmi çözümler üretmektedir, bu algoritmaların performansı nasıl artırılabilir?
3-Fully non-separable problemleri bölerek çözmek sonuç getirmediğinden ne gibi bir strateji ile çözülebilir? Bölümleme yapmadan çözüme ulaşmaya çalışan güçlü algoritmalar paralel olarak çalıştırılabilir. Bölümleme yapmadan çözüme ulaşmaya çalışan güçlü algoritmalar ile yerel arama tabanlı yaklaşımlar hibrit olarak kullanılabilir.
4-CEC’2013 kıyas fonksiyonları gerçek dünya problemlerini daha iyi karakterize etmektedir. Her geçen gün kıyas fonksiyonları güncellenmektedir. Güncellemeler yapıldıkça çözüm yöntemleri de başarısız olmaktadır bu yüzden sürekli çözüm önerileri geliştirilmektedir.
5-Gerçek dünya problemlerinden bazıları çözülmeli ve bunlardan bir kıyas fonksiyon seti oluşturulmalıdır.
6-1000 boyutun üzerindeki problemlerle pek ilgilenilmemektedir. Ölçeklenebilirlik çalışmaları yapılabilir.

Çalışmayı indirmek için:

metaheuristics-in-large-scale-global-continues-optimization-a-survey