DEPS er sett saman av to uavhengige algoritmar: differensiell evolusjon og partikkelsverm-optimalisering. Begge er spesielt eigna for numeriske problem, for eksempel ikkje-lineær optimalisering, og er komplementære til kvarandre ved at dei jamnar ut manglane til kvarandre.
Innstillingar
|
Beskriving
|
Endringsrate for agent
|
Definerer sannsynet for at eit individ vil velja den differensielle utviklingsstrategien.
|
Gå ut frå at variablane ikkje er negative
|
Merk av for denne for å tvinga fram at variablane må vera positive.
|
DE: Overkryssingssannsyn
|
Definerer sannsynet for at individet skal kombinerast med det globalt beste punktet. Dersom overkryssing ikkje er brukt, vert punktet sett samen frå individet sitt minne.
|
DE: Skaleringsfaktor
|
Ved overkryssinga bestemmer skaleringsfaktoren «farten» på rørslene.
|
Læringssyklar
|
Set kor mange gjentakingar som skal køyrast. I kvar gjennomkøyring lagar alle individa ei gjetting på den beste løysinga og deler kunnskapane seg i mellom.
|
PS: Kognitiv konstant
|
Bestemmer kor viktig eige minne skal vera (spesielt det beste resultatet så langt).
|
PS: Koeffisient for innsnevring
|
Definerer farten partiklane/individa flytter mot kvarandre.
|
PS: Sannsynet for mutasjon
|
Definerer sannsynet for at i staden for å flytta ein komponent av partikkelen mot det beste punktet vil det velja ein ny verdi tilfeldig frå det gyldige området for variabelen.
|
PS: Sosial konstant
|
Set kor viktig det beste globale punktet skal vera mellom alle partiklane/individa.
|
Vis forbetra løysingsstatus
|
Viss slått på vert det under heile løysingsprosesssen vist eit dialogvindauge som viser informasjon om den gjeldande prosessen, nivåa på stagnasjon, den for tida beste løysinga og sannsynet for å stoppa eller halda fram problemløysaren.
|
Storelik på svermen
|
Definerer talet på individ som skal delta i læringsprosessen. Kvart individ finn sine eigne løysingar og yter til den samla kunnskapenpen.
|
Stagnasjonsgrense
|
Viss så mange individ finn løysingar innan eit nært område, vert gjentakinga stoppa og den beste av desse verdiane vert vald som optimal.
|
Stagnasjonstoleranse
|
Definerer i kva område løysingar vert sett på som «like».
|
Bruk ACR-komparator
|
Viss slått av (standard) vert BCH-comparator brukt. Han samanliknar to individ ved først å sjå på avgrensingsbrota, og berre viss dei er like, vert den noverande løysinga målt.
Viss slått på, vert ACR-komparatoren brukt. Han samanliknar to individ som er avhengige av den gjeldande iterasjonen og målar kor gode dei er ut frå kunnskap om dei verst kjende løysingane i biblioteka (med omsyn til avgrensingane deira).
|
Bruk tilfeldig startpunkt
|
Viss denne er slått på, vert biblioteket fylt opp med tilfeldige punkt.
Viss denne er slått av, vert dei gjeldande verdiane (gjevne av brukaren) sette inn i biblioteket som referansepunkt.
|
Gjetting av variable grenser
|
Viss denne er slått på (standard), vil algoritmen prøve å finne variable grenser ved å sjå på startverdiane.
|
Terskel for variable grenser
|
Når ein gjettar variabelavgrensingar, bestemmer denne grensa korleis verdiane skal forskyvast for å laga avgrensingane. Slå opp i wikien for å sjå eksempel på korleis desse verdiane vert rekna ut.
|
Variabelavhengig gjetting tek omnsyn til korleis menneske oppfører seg ved læring og deling av informasjon. Kvar einskild har tilgang til eit felles bibliotek med kunnskap som vert delte mellom alle individa
Innstillingar
|
Beskriving
|
Gå ut frå at variablane ikkje er negative
|
Merk av for denne for å tvinga fram at variablane må vera positive.
|
Læringssyklusar
|
Set kor mange gjentakingar som skal køyrast. I kvar gjennomkøyring lagar alle individa ei gjetting på den beste løysinga og deler kunnskapane seg i mellom.
|
Vis forbetra løysingsstatus
|
Viss slått på vert det under heile løysingsprosesssen vist eit dialogvindauge som viser informasjon om den gjeldande prosessen, nivåa på stagnasjon, den for tida beste løysinga og sannsynet for å stoppa eller halda fram problemløysaren.
|
Storleik på biblioteket
|
Bestemmer kor mykje informasjon som skal lagrast i det felles biblioteket. Kvart individ lagrar kunnskapar her og spør etter informasjon.
|
Storelik på svermen
|
Definerer talet på individ som skal delta i læringsprosessen. Kvart individ finn sine eigne løysingar og yter til den samla kunnskapen
|
Stagnasjonsgrense
|
Viss så mange individ finn løysingar innan eit nært område, vert gjentakinga stoppa og den beste av desse verdiane vert vald som optimal.
|
Stagnasjonstoleranse
|
Definerer i kva område løysingar vert sett på som «like».
|
Bruk ACR-komparator
|
Viss slått av (standard) vert BCH-comparator brukt. Han samanliknar to individ ved først å sjå på avgrensingsbrota, og berre viss dei er like, vert den noverande løysinga målt.
Viss slått på, vert ACR-komparatoren brukt. Han samanliknar to individ som er avhengige av den gjeldande iterasjonen og målar kor gode dei er ut frå kunnskap om dei verst kjende løysingane i biblioteka (med omsyn til avgrensingane deira).
|
Gjetting av variable grenser
|
Viss denne er slått på (standard), vil algoritmen prøve å finne variable grenser ved å sjå på startverdiane.
|
Terskel for variable grenser
|
Når ein gjettar variabelavgrensingar, bestemmer denne grensa korleis verdiane skal forskyvast for å laga avgrensingane. Slå opp i wikien for å sjå eksempel på korleis desse verdiane vert rekna ut.
|
Innstillingar
|
Beskriving
|
Går ut frå at variablane er heiltal
|
Merk denne for å tvinga fram at variablane må vera heiltal.
|
Gå ut frå at variablane ikkje er negative
|
Merk av for denne for å tvinga fram at variablane må vera positive.
|
Epsilon-nivå
|
Epsilon-nivå. Gyldige verdiar er i området 0 (svert snevert) til 3 (svært ope). Epsilon er toleransen for avrunding mot null.
|
Avgrens djupna på grein-og-grense
|
Gjev den maksimale djupna for grein-og-grense. Ein positiv verdi betyr at djupna er absolutt. Ein negativ verdi betyr at djupna for grein-og-grense er relativ.
|
Tidsgrense for problemløysaren
|
Set maksimaltid for algoritmen for å koma fram til ei løysing.
|