Evrimsel oyun teorisi ve seçilim

Martin Nowak evolutionary dynamics kitabında üremeyi şöyle basitçe modeller:

\(\dot{x} = \frac{dx}{dt} = r\cdot x \)

Burada \(x \) değişkeni türün nüfusunu belirtiyor. Dolayısıyla \(\dot{x} \) terimi de türün nüfusunun zamana göre değişimini gösteriyor, yani zaman geçtikçe nüfusunun ne kadar arttığını ya da azaldığını ifade ediyor. Bu artış ya da azalış da o anki nüfusun sabit bir \(r \) sayısıyla çarpımına eşit olduğu bir modelle gösterilsin diyor. Bu arada doğum ve ölüm oranlarının çoğalma katsayısında olduğunu da unutmamak lazım. Yani aradaki fark çoğalmayı veriyor ve bu fark aslında nüfusun azalması da demek olabilir.

Bu şekildeki bir modelde nüfus artışı tabii ki üssel bir davranış gösterecektir.

\(r = 1.1 \) değeri için yukarıdaki grafiği elde ettim. Toplamda yirmi adım bile gidilmeden nüfus bir milyonu geçti. Böyle bir ortamda bütün türler aynı hızda çoğalırdı ama. Nowak hemen sonra gelen seçilim kısmının başında “seçilim değişik türlerin bireyli değişik oranlarda çoğalırsa meydana gelir” diyor. Eğer her tür aynı oranda çoğalsaydı nüfuslarını birbirlerinden ayıran tek fark başlangıçtaki nüfusları olacaktı. Diğer bir deyişle nüfusların başlangıçtaki oranları nesiller geçtikçe hiç değişmeyecekti. Bu durumda gerçekten de bir seçilimden bahsetmek zor olabilir.

İkinci cümlede ise seçilim olması için en az iki tür olmalıdır diyor. Bu da seçimden bahsedilebilmesi için anlaşılır bir varsayım hatta tanım bile olabilir.

O zaman iki türden oluşan modeli şöyle veriyor:

\(\dot{x} = a\cdot {x}\)

\(\dot{y} = b\cdot {y}\)

Burada \(a > b \) ise birinci tür ikinci türden çok daha hızlı üreyecektir ve zaman geçtikçe birinci türün nüfusunun ikinci türün nüfusuna oranı sürekli artacaktır. \(b > a \) olduğu durumda da tersi senaryo gözlenecektir.

Tabii ki her türün sınırsız büyüdüğü modeller pek gerçekçi değil. Ekosistemimizin maksimum birey sayısına sahip olduğunu varsayalım ve modelimizi buna uygun hale getirelim. Bu modelde toplam bir sayıdan bahsetmek yerine nüfus oranları kullanılacak. Yine aynı değişkenleri kullanıyoruz ama artık \(x \) değişkeni birinci türün nüfusunu değil de birinci türün nüfusunun toplam birey sayısına oranını veriyor. Bu oranlar haliyle minimum 0 ve maksimum 1 değerine sahip olabilirler.

Kitapta bunun için şu model veriliyor:

\(\dot{x} = a\cdot {(x-\phi)}\)

\(\dot{y} = b\cdot {(y- \phi)}\)

Buradaki \(\phi \) teriminin görevi türlerin nüfuslarının oranlarının toplamını 1 değerinde sabit tutmak. Bunu sağlamak için de

\(\phi = a\cdot {x} + b\cdot{y} \)

eşitliğinin sağlanması gerekiyor. Yani her adımda \(\phi \) değeri o adımdaki nüfusların oranına göre tekrar hesaplanıyor.

Aşağıdaki python programıyla bu modeli denedim.

import numpy as np
import matplotlib.pyplot as plt


a = 1.1
b = 1.3
number_of_iterations = 100

def constrainedA(x, phi) :
    return x*(a - phi)

def constrainedB(y, phi) :
    return y*(b - phi)

def phi(x, y):
    return a*x + b*y;
x = 0.5
y = 0.5

x_population = np.array([[0, x]])
y_population = np.array([[0, y]])
total = np.array([[0, x+y]])

for i in range(0, number_of_iterations):
    phi_value = phi(x, y)
    delta_x = constrainedA(x, phi_value)
    delta_y = constrainedB(y, phi_value)
    x += delta_x
    y += delta_y
    x_population = np.append(x_population, np.array([[i, x]]), axis = 0)
    y_population = np.append(y_population, np.array([[i, y]]), axis = 0)
    total = np.append(total, np.array([[i, x+y]]), axis = 0)

plt.plot(x_population[:, 0], x_population[:, 1])
plt.plot(y_population[:, 0], y_population[:, 1])
plt.plot(total[:, 0], total[:, 1])
plt.xlabel("zaman")
plt.ylabel("nüfus")
#plt.plot(y_population[:, 0], y_population[:, 1])
plt.show()

Sonuç olarak da şu grafiği elde ettim:

Bu programda adım sayısını 20’den 100’e yükselttim. Bu sayede türlerin birinin diğerini ekosistemden nasıl sildiğini görebiliyoruz. Kırmızı çizgiyle gösterilen türün çoğalma katsayısı 1.3, mavi çizgiyle gösterilen türünkü ise 1.1 idi. Yeşi çizgi de nüfus oranlarının toplamını gösteriyor ve sürekli 1 değerine sahip.

Martin Nowak bu modeli daha iyinin hayatta kalmasına (Survival of the fitter) örnek olarak veriyor. Gerçekten de bu modelde daha iyi çoğalma yeteneğine kalan tür hayatta kalıyor ve diğeri yok oluyor. Sonra aynı modeli ikiden fazla tür için kurup bu sefer de en iyinin hayatta kalması (Survival of the fittest) fikrini gösteriyor. Bu modelde iki genellemeye gidiyor:

\(\phi = \sum_{i=1}^{n} x_{i} \cdot {f_{i}} \)

\(\dot{x_{i}} = x_{i} \cdot (f_{i} – \phi) \)

Bu modelde \(x_{i}\) i numaralı türün nüfus oranını \(f_{i}\) de aynı türün çoğalma fonksiyonunu (fitness) gösteriyor. Modelin gerisi aynı şekilde çalıştırılıyor.

Bu noktadan sonra Nowak iki yeni durum için modelimiz nasıl olmalı diye bir soru soruyor:

  1. Ekosistemdeki ilk mevcut tür daha sonradan gelen tür ne kadar iyi olursa olsun mücadeleyi kazansın (Survival of the first)
  2. Ekosistemdeki her tür hayatta kalsın (Survival of all)

Bu durumda Nowak doğrusal fitness fonksiyonu şartından vazgeçmemiz gerekir diyor ve şu modeli sunuyor:

\(\dot{x} = a\cdot {x^c}-\phi \cdot {x}\)

\(\dot{y} = b\cdot {y^c}- \phi \cdot {y}\)

Bu modelde nüfus oranlarının toplamını sabitlemek için şu eşitliğe ihtiyacımız var:

\(\phi = a\cdot{x^c} + b\cdot {y^c} \)

Modeldeki \(c \) sabitinin birden büyük seçersek 1. olasılığı modellemiş oluyoruz. 1. senaryonun aklıma takılan kısmı bunu nasıl programlayacağımdı. Bu senaryoda söylenen şey şu: Mesela bütün toplam nüfus sadece \(x \) türünden oluşuyorsa sisteme ekleyeceğimiz bir \(y \) türü bireyi çoğalma potansiyeli diğer türden yüksek olsa bile yok olmaya mahkumdur. Yani programda ilk anda \(x = 1 \) ile başlamam gerekecek. Ardından sisteme minimum bir \(y \) değeri eklemem lazım. Bunun yerine başlangıçta minimum \(y \) ile başlamayı seçtim.

import numpy as np
import matplotlib.pyplot as plt


a = 1.1
b = 2.0
c = 1.3
number_of_iterations = 20

def constrainedA(x, phi) :
    return a*pow(x, c) - x*phi

def constrainedB(y, phi) :
    return b*pow(y, c) - y*phi

def phi(x, y):
    return a*pow(x, c) + b*pow(y, c);
x = 0.999
y = 0.001

x_population = np.array([[0, x]])
y_population = np.array([[0, y]])

for i in range(0, number_of_iterations):
    phi_value = phi(x, y)
    delta_x = constrainedA(x, phi_value)
    delta_y = constrainedB(y, phi_value)
    x += delta_x
    y += delta_y
    x_population = np.append(x_population, np.array([[i, x]]), axis = 0)
    y_population = np.append(y_population, np.array([[i, y]]), axis = 0)

plt.plot(x_population[:, 0], x_population[:, 1])
plt.plot(y_population[:, 0], y_population[:, 1])
plt.show()

Bu sefer programda toplam nüfus oranlarını göstermek istemedim, çünkü o zaman birinci türün çok çabuk 1 değerine ulaşması net gözükmüyordu.

Grafikte çok net görülmüyor ama daha ilk adımda birinci tür bütün popülasyonu ele geçirdi.

Bu senaryo tabii ki her başlangıç değeri için bu sonucu vermiyor. Örneğin aynı \(c \) sabiti için \(x \) türünü nüfusun yüzde sekseni olacak şekilde başlatınca bu sonuç çıkıyor.

Görüldüğü gibi daha iyi fitness fonksiyonuna sahip olan \(y \) yok olmadığı gibi bütün ekosistemi de ele geçirdi.

Eğer \(c < 1 \) olacak şekilde bir seçim yaparsak iki tür de yok olmadan beraber yaşama şansını yakalayabiliyor.

Bunun denemesini de aşağıdaki programla yaptım.

import numpy as np
import matplotlib.pyplot as plt


a = 1.2
b = 0.8
c = 0.5
number_of_iterations = 20

def constrainedA(x, phi) :
    return a*pow(x, c) - x*phi

def constrainedB(y, phi) :
    return b*pow(y, c) - y*phi

def phi(x, y):
    return a*pow(x, c) + b*pow(y, c);
x = 0.5
y = 0.5

x_population = np.array([[0, x]])
y_population = np.array([[0, y]])

for i in range(0, number_of_iterations):
    phi_value = phi(x, y)
    delta_x = constrainedA(x, phi_value)
    delta_y = constrainedB(y, phi_value)
    x += delta_x
    y += delta_y
    x_population = np.append(x_population, np.array([[i, x]]), axis = 0)
    y_population = np.append(y_population, np.array([[i, y]]), axis = 0)

plt.plot(x_population[:, 0], x_population[:, 1], label='x')
plt.plot(y_population[:, 0], y_population[:, 1], label='y')
plt.legend()
plt.show()

Grafikte de görüldüğü gibi iki tür de yok olmadı.

Heralde bu özellikleri sağlayan daha başka modeller de vardır ama konuya bu şekilde girilmesi hoşuma gitti. Bir modelin olası sonuçlarından çok, istenen sonucu açıklayabilecek bir model sunma tekniği ilgimi çekti. Çalışmalarıma biraz da bu kitaptan devam edeyim, belki şansım bu sefer döner.

Network karşılıklılığı (5)

Bu tür oyunlarda işbirlikçiler duruma göre ihanetçilerle beraber yaşayabiliyor ve hatta bazı durumlarda daha üstün bile olabiliyorlar. Anladığım kadarıyla burada Oyuncular bir çizgenin (graph) köşeleri olacak şekilde tanımlanıyor. Bu durumda her köşe ya işbirlikçi ya da ihanetçi stratejilerine sahip oluyor. Sonra bir \(k \) tamsayısı ile her köşenin kaç kenara sahip olduğu tanımlanıyor. Yani her oyuncu bu kadar komşuya sahip oluyor. Her oyuncu sadece kendi komşularıyla oynuyor ve standard kazanç matrisine göre kazançlar hesaplanıyor. Bir oyuncu birden fazla komşuyla oynadığında kazançları da oyunlardaki kazançların toplamı oluyor.

Bu modelin evrimleşmesi de şu şekilde gerçekleşiyor. Herhangi bir adımda seçilen rastgele bir oyuncu ölüyor. Sonra bu ölen oyuncunun köşesini kapmak için o köşenin komşu oyuncularından birisi kazançlarına göre seçiliyor.

Her komşu iki oyuncu birbiriyle şu matrise göre oyun oynuyor:

\(M = \begin{bmatrix} R&&S \\T&&P \end{bmatrix} \)

Yukarıdaki kurallarla birleştirince matris şu biçime dönüşüyor:

\(M = \begin{bmatrix} R&&S + H\\T – H&&P \end{bmatrix} \)

\(H = \frac{(k+1)(R – P) – T + S}{(k+1)(k – 2)} \)

Aşağıdaki python programıyla bu oyunun simülasyonunu yapmaya çalıştım:

import numpy as np
import matplotlib.pyplot as plt

strategies = np.array([[1, 0], [0, 1]])

k = 3 #number of edges

R = 3
S = 5
T = 5
P = 1

H = ((k + 1) * (R - P) - T + S)/((k + 1)*(k - 2))
payoff = np.array([[R, S + H], [T - H, P]])

number_of_iterations = 100

increment = 0.01
steady_states = np.array([[0, 0]])


for s1 in np.arange(0, 1.0, increment):
    s2 = 1 - s1
    species = np.array([s1, s2])

    for i in range(0, number_of_iterations):

        difference = (payoff.dot(species) - species.dot(payoff).dot(species))*species
        species = species + difference
        species = np.clip(species, 0, 1)

        
    steady_states = np.append(steady_states, np.array([[s1, species[0]]]), axis = 0)

plt.plot(steady_states[:, 0], steady_states[:, 1])
plt.ylabel("işbirlikçi türün sondaki oranı")
plt.xlabel("işbirlikçi türün başlangıçtaki oranı")
plt.show()

Bu simülasyonun sonucunda da aşağıdaki grafiği elde ettim.

k = 3 için elde ettiğim sonuç

Bu kazanç matrisi ve model için işbirlikçilik daha iyi bir stratejiymiş.

Grup seçilimi (4)

Bu seçilim türünde oyunların sadece kişiler arasında değil, gruplar arasında da oynandığı varsayılır. Anladığım kadarıyla geçtiğimiz altmış yıl içinde bu yönde de bir sürü model üzerine çalışılmış. Makalede izlenen yöntem şöyle. Bütün nüfus \(m \) gruba bölünüyor. Her grupta en fazla \(n \) birey olabiliyor. Aynı gruptaki bireyler birbirleriyle tutsak ikilemi şeklinde karşılaşıyorlar. Her adımda bütün nüfustan rastgele bir birey üremek için seçiliyor. Oluşan yeni birey aynı gruba ekleniyor. Eğer bu grup maksimum büyüklüğe ulaşırsa belli bir olasılıkla bu grup iki gruba ayrılıyor ve toplam nüfus sınırsızca büyümesin diye rastgele seçilen bir grup yok ediliyor. Geri kalan olasılıkla ise grup ikiye bölünmüyor, bunun yerine aynı gruptan rastgele seçilen bir birey ölüyor.

Bu modelde yukarıda da anlattığım gibi oyunlar sadece grup içlerinde oynanıyor. Gruplar arası karşılaşmalar yok ama grupların bölünme dinamikleri her gruptaki bireylerin uygunluğu ile ilişkili olduğundan sonuçta sanki gruplar arası bir oyun oynanıyormuş gibi bir sonuç çıkıyor. İşin matematiksel detayına bu aşamada girmek istemiyorum. Belki ileride bu modelleri olduğu gibi programlayıp gerçekten de sonuçtaki modelin oluştuğunu gösterebilirim. Şimdilik sadece makalede verilen sonuç kazanç matrisini vereceğim ve bu matrise uygun programla yaptığım simülasyon sonuçlarına bakacağım.

\(M = \begin{bmatrix} (n+m)\cdot R&&n \cdot S + m \cdot R \\n \cdot T + m \cdot P &&(n + m) \cdot P \end{bmatrix} \)

Aşağıdaki programda önce kazanç matrisini tutsak ikilemi şartlarına uygun bir şekilde kurdum. Sonra grup sayısı ve grup büyüklüğü parametreleriyle oynayarak bu oyunun işbirlikçiler için avantajlı hale getirilebileceğini gösterdim.

import numpy as np
import matplotlib.pyplot as plt

strategies = np.array([[1, 0], [0, 1]])

m = 20 #number_of_groups
n = 10 #size of groups

R = 3
S = 0
T = 5
P = 1
payoff = np.array([[(n+m)*R, (n*S + m*R)], [(n*T + m*P), (n + m)*P]])

number_of_iterations = 100

increment = 0.01
steady_states = np.array([[0, 0]])

for s1 in np.arange(0, 1.0, increment):
    s2 = 1 - s1
    species = np.array([s1, s2])

    for i in range(0, number_of_iterations):

        difference = (payoff.dot(species) - species.dot(payoff).dot(species))*species
        species = species + difference
        species = np.clip(species, 0, 1)

        
    steady_states = np.append(steady_states, np.array([[s1, species[0]]]), axis = 0)

plt.plot(steady_states[:, 0], steady_states[:, 1])
plt.ylabel("işbirlikçi türün sondaki oranı")
plt.xlabel("işbirlikçi türün başlangıçtaki oranı")
plt.show()
m = 20 ve n = 10 için işbirlikçilik kazanan bir strateji oluyor

Akraba seçilimi (Karşılıklılık 3)

Bu mekanizmada toplumda karşılaşmaların çoğunluğunun akrabalar arasında olduğu varsayılıyor.

Okuduğum makalede akrabalık şu şekilde programlanmış. Karşılıklı oyun oynayan kişilerin ortalama akrabalığına \(r \) denmiş. Bu sayı da 0 ile 1 arasında bir değere sahip. Bizim karşılaşmadaki kazancımız, rakibin oyundaki kazancı ile kendi kazancımızın \(r \) ile çarpımının toplamı oluyor. Toplam kazançlar da sabir kalsın diye toplamlar \(1 + r \) sayısına bölünüyor. Bu şartlar altında kazanç matrisi aşağıdaki hale geliyor:

\(M = \begin{bmatrix} R&&\frac{T + r \cdot S}{1 + r}\\\frac{S+ r \cdot T}{1+r}&&P \end{bmatrix} \)

Bunun neden böyle olduğunu çıkarmaya çalışayım şimdi. Orijinal oyunda kazanç matrisi şu şekilde:

\(M = \begin{bmatrix} R&&S\\T&&P \end{bmatrix} \)

Bu matrise göre iki işbirlikçi karşılaşırsa ikisi de R kazanır. Yukarıdaki kurala göre ise ikisi de \(R + r \cdot R \) kazanacak ama. Bu sayıyı da \(1 + r \) sayısına bölersek ikisi için kazanç $late R $ olur.

İşbirlikçi ihanetçiye karşı oynarsa, işbirlikçi S, ihanetçi de T kazanacak. Şimdi buna kuralı uygularsak, işbirlikçi \(T + r \cdot S \) kazanacak ama bunu da \(1 + r \) ile böleceğiz. Benzer şekilde ihanetçi de \(S + r \cdot T \) kazanacak ve bunu da \(1 + r \) ile böleceğiz. Böylece iki kazancın da toplamı \(\frac{S + r\cdot T}{1 + r} + \frac{T + r \cdot S}{1 + r} = \frac{S + r\cdot T + T + r \cdot S }{1+r} = \frac {(1 + r) S + (1 + r) T}{1 + r} = \frac{(1 + r)(S+T)}{1 + r} = S + T \) olur.

İki ihanetçinin karşılaşması da iki işbirlikçi karşılaşması gibi analiz edilebilir ve orada da ikisi de P kazanır.

Makale bu matris için kararlı stratejilerin şu şekilde hesaplandığını belirtiyor.

İşbirlikçi stratejinin kararlı olabilmesi için

\(r > r_c = \frac {T – R}{R – S} \)

ve ihanetçi stratejinin kararlı olması için de

\(r < r_d = \frac{P – S}{T-P} \) olması gerekiyor.

Bu sistemi de aynı şekilde programladım ve denemeler yaptım ama nedense makaledeki gibi sonuçlar elde edemedim. Sanırım ya programım yanlış, makaleyi yanlış anladım ya da bilmediğim başka bir şeyler var. Öncelikle benim beklentim şu şekildeydi: Akrabalığı artırdıkça işbirlikçilerin kararlı bir duruma gelmesini bekliyordum ama bazı matris türlerinde hiç olmadı.

Önce kullandığım programı buraya koyayım. Sonra birkaç çıktıya da bakarız.

import numpy as np
import matplotlib.pyplot as plt

strategies = np.array([[1, 0], [0, 1]])

R = 2
S = 5
T = 4
P = 2
r = 0.2
payoff = np.array([[R, (T + r*S)/(1 + r)], [(S + r*T)/(1 + r), P]])

number_of_iterations = 100

increment = 0.01
steady_states = np.array([[0, 0]])

for s1 in np.arange(0, 1.0, increment):
    s2 = 1 - s1
    species = np.array([s1, s2])

    for i in range(0, number_of_iterations):

        difference = (payoff.dot(species) - species.dot(payoff).dot(species))*species
        species = species + difference
        species = np.clip(species, 0, 1)

        
    steady_states = np.append(steady_states, np.array([[s1, species[0]]]), axis = 0)

plt.plot(steady_states[:, 0], steady_states[:, 1])
plt.ylabel("işbirlikçi türün sondaki oranı")
plt.xlabel("işbirlikçi türün başlangıçtaki oranı")
plt.show()
r = 0.2 için simülasyon çıktısı
r = 1.0 için simülasyon çıktısı

Bu denemelerde beklediğim şekilde bir değişiklik göremediğim için biraz hayal kırıklığına uğradığımı söylemem lazım ama bu akrabalık seçilimi için tek model değil tabii ki. Belki diğer modeller beklediğim sonuçları verir ya da belki ben bir hata yapmışımdır da o hatayı bu sırada bulurum.

Dolaylı karşılıklılık

Doğrudan karşılıklılıkta birisine karlı vereceğimiz kararı, o kişinin bize geçmişte nasıl davrandığına bakarak veriyorduk. Dolaylı karşılıklılıkta bu kararı o birisinin geçmişte başkalarına nasıl davrandığına bakarak veriyoruz.

Oyuncular arasında tutsak ikilemindeki gibi oyunlar oynanıyor. Bu karşılaşmalar da diğer oyuncular tarafından izleniyor. Karşılaşmalarda işbirliğinin getirisi az. Buna karşın ihanetin kısa vadede getirisi fazlayken aynı zamanda kötü ün de kazandırıyor.

Karşılaşmaların oynanması şu şekilde. İhanet edenler kimle oynarsa oynasın ihanet ediyor. İşbirlikçiler işbirlikçilere karşı her zaman işbirliği yapıyor. İşbirlikçiler bir ihanetçiyi \(q \) ihtimalle tanıyor ve ihanetçiyle sadece \(1 – q \) ihtimalle işbirliği yapıyor. Bu şartlar altında payoff matrisi aşağıdaki şekle dönüşüyor.

\(M = \begin{bmatrix} R&&(1-q)S+qP\\(1-q)T+qP&&P \end{bmatrix} \)

Bir başkasının ününü bilme şansı \(q \) aşağıdaki eşitsizliği sağladığında doğrudan karşılıklılıkla aynı sonuçlar elde ediliyor.

\(q > \frac{T-R}{T-P} \)

Makaledeki bu sonuçları denemek için aşağıdaki python programını yazdım ve denemeler yaptım.

import numpy as np
import matplotlib.pyplot as plt

strategies = np.array([[1, 0], [0, 1]])

R = 5
S = 1
T = 7
P = 3
q = 0.51
prisoner_dilemma_payoff = np.array([[R, (1 - q)*S + q*P], [(1-q)*T + q*P, P]])

number_of_iterations = 100

payoff = prisoner_dilemma_payoff

increment = 0.01
steady_states = np.array([[0, 0]])


for s1 in np.arange(0, 1.0, increment):
    s2 = 1 - s1
    species = np.array([s1, s2])

    for i in range(0, number_of_iterations):

        difference = (strategies.dot(payoff).dot(species) - species.dot(payoff).dot(species))*species
        species = species + difference
        species = np.clip(species, 0, 1)
        
    steady_states = np.append(steady_states, np.array([[s1, species[0]]]), axis = 0)

plt.plot(steady_states[:, 0], steady_states[:, 1])
plt.ylabel("1. türün sondaki oranı")
plt.xlabel("1. türün başlangıçtaki oranı")
plt.show()

Programdaki R, S, T ve P değerleri için yukarıdaki eşitsizlik aşağıdaki gibi oluyor.

\(q > \frac{7 – 5}{7 – 3} = \frac {2}{4} = 0.5 \)

Yani programdaki \(q = 0.51\) değeri için işbirlikçi stratejinin kararlı olduğu bir dağılım da olmasını bekliyordum. Programı çalıştırınca aşağıdaki sonucu aldım.

\(q = 0.51\)

Bu sonuç doğrudan karşılıklılıktaki simülasyonun aksine verilen eşitsizliğe uygun çıktı. \(q \) değeri yükseldikçe işbirliği daha etkili bir strateji olacak mı diye bir uç değeri de denedim.

\(q = 0.99 \)

Gerçekten de bu simülasyona göre ihanet stratejisi uygulayanlar popülasyonda tanındığı zaman toplum işbirliği stratejisini benimsemeye başlıyor.

Doğrudan karşılıklılık

Evrimsel oyun teorisi kitabında bir sonraki konu karşılıklılık konusuydu. Cevap aranan soru anladığım kadarıyla şöyleydi: Oyun teorisi karşımızdakine ihanet etmemiz gerekir derken, toplum için daha iyi çözümler olan kooperasyon stratejilerine gerçek hayatta hangi mekanizmalarla erişebiliyoruz?

Martin Nowak bu soruya cevap veren beş adet mekanizma bulmuş. Kitap bu konuya kısaca değindiğinden bu konuyu Christine Taylor ve Martin Nowak’ın “Transforming the dilemma” başlıklı makalesinden öğrenmeye karar verdim.

Makalede ilk mekanizma olarak doğrudan karşılıklılık mekanizmasından bahsediliyor. Toplumlarda ikilemlere dayalı oyunlar oynanırken sonsuz büyüklükte bir toplumda herkesin rastgele kişilerle oyunlar oynadığını varsaymıştık. Gerçek hayatta ise bu oyunlar değişik şekilde oynanıyor. Örneğin bu mekanizmada olduğu gibi aynı kişiler aynı oyunu birbirleriyle defalarca oynayabiliyor. Bu durumda ikisi de diğer oyuncunun daha önce hangi stratejileri kullandığını biliyor ve kendi stratejilerini buna göre güncelleyebiliyor.

Bu mekanizmada iki oyuncu arasındaki karşılaşmadan sonra \(\omega \) olasılıkla tekrar karşılaşma oluyor. Bu durumda iki oyuncu arasında ortalama karşılaşma sayısı da \(\frac{1}{1 – \omega} \) formülüyle hesaplanabilir. İki oyuncunun karşılaşma kuralları şöyle:

İki oyuncu da işbirlikçiyse o zaman ikisi de işbirlikçi kalır. İhanet stratejisini seçen her zaman ihanet stratejisini uygular. İşbirlikçi ihanet stratejisi kullanan oyuncuyla karşılaştığında ikinci karşılaşmadan itibaren ihanet stratejisi kullanmaya başlar.

Bu durumda payoff matrisi aşağıdaki şekle dönüşür:

\(M = \begin{bmatrix} \frac {R}{1-\omega}&&S+\frac{\omega \cdot P}{1 – \omega}\\T+\frac{\omega \cdot P}{1 – \omega}&&\frac{P}{1-\omega} \end{bmatrix} \)

Aşağıdaki programla \(\omega \) değişkeninin etkisini denemeye çalıştım. Aslında bu değişkenle matrisin elemanları ve dolayısıyla elemanlar arasındaki ilişkiler değişeceğinden bu ikilemin başka bir oyun tipine dönüşmesini beklemek çok normal. Aslında bunu daha iyi görmek için oyuncuların karşılaşmalarını tek tek simüle edip aynı sonuca yaklaştığını göstermek lazım ama bu denemeleri ilerideki yazılarda yapmak istiyorum. Makalede bu dönüşüm için bir eşitsizlik veriliyor:

\(\omega > \frac{T-R}{T-P} \)

Eğer eşitsizlik sağlanmıyorsa ihanet eden strateji her durumda popülasyonu domine ediyor. Eğer eşitsizlik sağlanıyorsa işbirlikçi strateji de evrimsel açıdan kararlı bir durum olabiliyor. \(\omega \) değeri büyüdükçe, yani oyuncular arasındaki karşılaşma sayısı arttıkça işbirlikçi strateji de daha dominant olmaya başlıyor. Bu sonuçları denemek için aşağıdaki python programını kullandım:

import numpy as np
import matplotlib.pyplot as plt

strategies = np.array([[1, 0], [0, 1]])

R = 5
S = 1
T = 7
P = 3
omega = 0.60
prisoner_dilemma_payoff = np.array([[R/(1-omega), S + (omega*P)/(1 - omega)], [T + (omega*P)/(1-omega), P/(1-omega)]])

number_of_iterations = 100

payoff = prisoner_dilemma_payoff

increment = 0.01
steady_states = np.array([[0, 0]])


for s1 in np.arange(0, 1.0, increment):
    s2 = 1 - s1
    species = np.array([s1, s2])

    for i in range(0, number_of_iterations):

        difference = (strategies.dot(payoff).dot(species) - species.dot(payoff).dot(species))*species
        species = species + difference
        species = np.clip(species, 0, 1)
        
    steady_states = np.append(steady_states, np.array([[s1, species[0]]]), axis = 0)

plt.plot(steady_states[:, 0], steady_states[:, 1])
plt.ylabel("1. türün sondaki oranı")
plt.xlabel("1. türün başlangıçtaki oranı")
plt.show()

\(\omega = 0.6 \) değeri için aşağıdaki sonucu aldım

\(\omega = 0.6 \) değeri için işbirlikçi strateji belli bir yoğunluktan sonra kararlı bir strateji oluyor.

Programdaki R, S, T ve P değerlerini eşitsizlikte yerlerine koyduğumda

\(\omega > \frac{7 – 5}{7 – 3} = \frac {2}{4} = 0.5 \)

eşitsizliğini buluyoruz. Bu eşitsizliği sınıra yakın bir yerde denemek istedim.

\(\omega = 0.51\) değeri için şu grafiği elde ettim.

\(\omega = 0.51 \)

Eşitsizliğin söylediğinin aksine hiçbir durumda işbirlikçi stratejisi kararlı olamadı. Belki de programda küçük bir hata yapmışımdır. Bunu da incelemem lazım.

Eğer \(\omega \) değeri bire yaklaşırsa oyuncular arasında karşılaşma sayısı da artar. Bu durumda grafiğin nasıl olduğuna da bakmak istedim.

\(\omega = 0.99 \)

Gerçekten de hemen hemen her başlangıç durumu için işbirlikçi strateji kararlı bir strateji oldu.

İskenderiyeli Heron’la tanışmam

Şirkette bazen yapmam gereken işler varken küçük değişikliklere ihtiyacım oluyor. Bugün de işi rölantide yaparken youtube’da video seyredeyim dedim. Geçen binyılın ikinci yarısında MIT’de verilen bir bilgisayar dersine takıldım. Bazı derslerde hocalar kendi tecrübelerinden, kendi bilgeliklerinden bahsettiği için bu dersleri arada seyrediyorum. O dersteki bir cümleleri benim için genelde bütün o anlattığı konudan daha faydalı olabiliyor.

Konuya giriş dersinde hoca karekök hesaplama için İskenderiyeli Heron’un kullandığı yöntemi örnek olarak kullandı. Karekök öğrenim ve meslek hayatım boyunca sürekli kullandığım bir fonksiyondu ve nasıl hesaplandığını hiç düşünmemiştim. Lisede bunu kağıt kalemle yapan arkadaşlar vardı ama kullandıkları yöntemi öğrenmeyi düşünmemiştim. Ben bunu hesaplamaya kalksam sonucu heralde tahmini kökün yakınlarında taylor serileri yardımıyla arardım.

İskenderiyeli Heron’un yöntemi çok daha basit görünüyor ama. Peki bu yöntem nasıl işliyor?

Karekökünü bulmak istediğimiz sayı 40 olsun. Önce bir başlangıç noktası seçelim. Mesela 1. Her adımda bu başlangıç sayısını aradığımız sayıya yaklaştırmaya çalışacağız, yani her adımda güncellediğimiz bu başlangıç sayısı bir sonraki adımın başlangıç sayısı olacak. En iyisi bu örneği hareket halinde görelim.

Aradığımız sayının karesi 40 ve başlangıç noktamız 1.

\(\frac{1 + \frac{40}{1}}{2} = 20.5 \)

yani başlangıç sayısı ile aradığımız sayının karesinin başlangıç sayısına bölümünün aritmetik ortalamasını hesapladık. Bu sonuç bir sonraki adımın başlangıç sayısı olacak.

\(\frac{20.5 + \frac{40}{20.5}}{2} = 11.2256 \)

Bu şekilde diğer adımları da hesaplamaya devam edelim.

\(\frac{11.2256 + \frac{40}{11.2256}}{2} = 7.3944 \)

\(\frac{7.3944 + \frac{40}{7.3944}}{2} = 6.4019 \)

\(\frac{6.4019 + \frac{40}{6.4019}}{2} = 6.3250 \)

\(\frac{6.3250 + \frac{40}{6.3250}}{2} = 6.3245 \)

\(\frac{6.3245 + \frac{40}{6.3245}}{2} = 6.3245\)

Sadece dört ondalık basamak kullandığımdan bu noktadan sonra adımlarda bir değişiklik olmuyor. Peki bu bulduğumuz sonuç 40’ın karekökü mü?

\(6.3245² = 39.99930025 \)

Tabii ki değil ama oldukça yakın. Böyle basit bir yöntem için oldukça başarılı. Tabii ki bu yöntemle ilgili kafamda bazı sorular vardı. Birincisi neden çalışıyor?

Önce şunu bir kontrol edelim. Herhangi bir adımda bulduğumuz sayı verilen sayının karekökü ise bir sonraki adımın sonucu ne olur?

x sayısının karekökünü aradığımızı varsayalım. Yani bir adımda bulduğumuz sayı \(\sqrt{x} \) ise bir sonraki adım için hesabımız

\(\frac{\sqrt{x} + \frac{x}{\sqrt{x}}}{2} = \frac{\sqrt{x}\cdot{\sqrt{x} + x}}{2\sqrt{x}} = \frac{x + x}{2\sqrt{x}} = \frac{2x}{2\sqrt{x}} = \sqrt{x}\)

Yani bu yöntem bir kere karekökü bulursa hep o noktada kalıyor. Peki şimdi ikinci soru: Bu yöntem her zaman kareköke yaklaşır mı?

Bunun da cevabı evet ve ispatı bu adreste mevcut. İspatta kullanılan adımlar kısaca şöyle. Her adımda elde ettiğimiz arasonuç sıfırdan büyüktür. İkinci adımdan itibaren elde ettiğimiz arasonuçlar aradığımız karekökten büyüktür ya da kareköke eşittir.İkinci adımdan sonra her adımda bulunan arasonuç bir önceki adımda bulunan arasonuçtan büyük değildir. Yani elde ettiğimiz dizi monoton azalan ve altta sınırlı bir dizi. Bu durumda bu dizinin limiti vardır ve bu yöntemde o limit verilen sayının kareköküdür.

Aslında ikinci soru birinci soruyu da içeriyor ama her zaman soruları doğru sırada soramayabiliyorum. O tarihlerde bu kadar basit ve güzel yöntemlerin biliniyor ve kullanılıyor olması gerçekten de etkileyici.

İki kişilik oyun tipleri

Evrimsel oyun teorisi konusunda okuduğum son kitapta nedense fitness generating function kısmını bir türlü anlayamadım. Teknik kitaplar her şeyi oldukça basit bir şekilde anlatmalarıyla meşhur değiller zaten. Bunun üzerine kitapta bahsedilen makalelere bakmaya başladım ve bu da bir yerde çıkmaz sokakla bitti. Akademisyen olmadığım için belli bir altyapımın olmadığının farkındayım ama bu altyapıyı sağlamanın kolay bir yolu da olmalıdır diye düşünüyordum. Neyse, aramaya devam edeceğim. Bu sırada yoluma Jun Tanimoto’nun Fundamentals of Evolutionary Game Theory and its Applications adlı kitabından devam etmeye karar verdim.

Kitap önce iki kişilik oyunları belli sınıflara ayırıp biraz teoriden bahsediyor. Benim hedefim kuru teori yerine bu oyunları, algoritmaları ve simülasyonlarını programlamak olduğundan hemen python denemelerine başladım.

Bu denemelerden bahsetmeden önce biraz notasyondan bahsetmem gerekecek. İki kişilik ve iki stratejili oyunlarla başladım. Buna 2×2 oyunlar da deniyor, payoff matrisimiz de 2×2 matris.

OyuncularCooperation (C)Defection (D)
Cooperation (C)R, RS, T
Defection (D)T, SP, P

Kısaca bu tabloyu kullanmayı anlatayım. Cooperation işbirliği stratejisi oluyor, Defection da ihanet. Her adımda seçilen iki kişi birbiriyle stratejilerine göre bir oyun oynuyor. Bütün oyun bu tabloda kodlanmış durumda ve seçilen stratejilere göre kazançları da R, S, T, P değerleriyle tanımlanıyor. Oyuncuların biri soldaki sütundaki stratejilerden birine sahip, diğeri de ilk satırdaki stratejilerden birini oynuyor. Bu durumda şu eşleşmeler mümkün:

Birinci oyuncu: Cooperation   İkinci oyuncu: Cooperation
Birinci oyuncu: Cooperation   İkinci oyuncu: Defection
Birinci oyuncu: Defection     İkinci oyuncu: Cooperation
Birinci oyuncu: Defection     İkinci oyuncu: Defection 

Her eşleşme için tablodaki eşleşme hücresindeki değerler oyuncuların kazançlarını belirliyor. Bu durumda yukarıdaki eşleşmeler için sonuçlar şöyle olacak:

Birinci oyuncu: Cooperation   İkinci oyuncu: Cooperation
Bu durumda kazançlar tablodaki R, R değerlerinin olduğu hücreden okunacak. Yani birinci oyuncunun kazancı R değeri kadar, ikinci oyuncunun kazancı da R değeri kadar olacak.

Birinci oyuncu: Cooperation   İkinci oyuncu: Defection
Bu durumda kazançlar tablodaki S, T değerlerinin olduğu hücreden okunacak. Yani birinci oyuncunun kazancı S değeri kadar, ikinci oyuncunun kazancı da T değeri kadar olacak.

Birinci oyuncu: Defection     İkinci oyuncu: Cooperation
Bu durumda kazançlar tablodaki T, S değerlerinin olduğu hücreden okunacak. Yani birinci oyuncunun kazancı T değeri kadar, ikinci oyuncunun kazancı da S değeri kadar olacak.

Birinci oyuncu: Defection     İkinci oyuncu: Defection
Bu durumda kazançlar tablodaki P, P değerlerinin olduğu hücreden okunacak. Yani birinci oyuncunun kazancı P değeri kadar, ikinci oyuncunun kazancı da P değeri kadar olacak.

Programda kullanırken bu tabloyu kitapta da gösterildiği gibi aşağıdaki M matrisi haline getirdim.

\(M = \begin{bmatrix} R&&S\\T&&P \end{bmatrix} \)

Kitapta olası oyunları incelemek için şu iki değer de hesaplanıyor.

\(D_{g} = T - R \)
\(D_{r} = P - S \)

\(D_{g} \) terimi sıfırdan büyükse davranış risk alma ikilemine sahip oluyormuş. \(D_{r} \) terimi sıfırdan büyükse bu sefer de davranış riskten kaçma ikilemine sahip oluyormuş.

Önce bu sınıflamayı kısaca vereyim, ilerki yazılarda bu sınıflamalar üzerine biraz daha düşünmeye çalışırım.

Tutsak ikilemi: Burada hem \(D_{g} \) hem de \(D_{r} \) sıfırdan büyük

Tavuk: Bu tip oyunlarda \(D_{g} \) sıfırdan büyük ve \(D_{r} \) sıfırdan büyük değil.

Geyik avı: Bu tip oyunlarda sadece \(D_{r} \) sıfırdan büyük oluyor.

İkilemsiz tip: Bu tip oyunlarda ne \(D_{g} \) ne de \(D_{r} \) sıfırdan büyüktür.

Bu oyun türleri hakkında internette bir sürü bilgi bulunabilir. Bu nedenle kitapta verilen algoritma ve bu tipler için yazdığım programı göstereceğim. Son olarak da bu tiplerin sonuçlarını grafik üzerinden kısaca anlatmaya çalışacağım.

Seçilen oyuncunun stratejisi iki ihtimalden (Cooperation ya da Defection) biri olacak. Bunları da şu iki vektörle tanımlayalım:

\(\vec{e_{1}} = \begin{pmatrix}1\\0\end{pmatrix} \) Cooperation stratejisini oynayan bireyi simgelesin.

\(\vec{e_{2}} = \begin{pmatrix}0\\1\end{pmatrix} \) de Defection stratejisini oynayan bireyi simgelesin.

Stratejilerin nüfustaki oranları da aşağıdaki vektörle (Transpose edilmiş hali) verilsin.

\(s^{T} =\) $latex \begin{pmatrix}s_1&&s_2\end{pmatrix}

Cooperation stratejisini kullanan bir bireyin rastgele seçilen başka bir bireye karşı beklenen kazancı şu şekilde veriliyor:

\(e_{1}^{T} \cdot M \cdot s \)

Aynı şekilde Defection stratejisini kullanan bir bireyin rastgele seçilen başka bir bireye karşı beklenen kazancı da şu şekilde olur:

\(e_{2}^{T} \cdot M \cdot s \)

Bireylerin çoğalma mekanizması da şu şekilde tanımlanıyor:

\(\frac{\overset {.}{s_{i}}}{s_{i}} = {e_{i}}^{T} \cdot M \cdot s – {s}^{T} \cdot M \cdot s \)

Burada \(\overset {.}{s_{1} \) terimi Cooperation stratejisini kullanan bireylerin oranının değişim miktarını gösteriyor. \(\overset {.}{s_{2} \) terimi de Defection stratejisini kullanan bireylerin oranının değişim miktarını gösteriyor. \(s_{1} \) ve \(s_{2} \) terimleri de bu iki stratejiyi kullanan bireylerin toplam nüfustaki oranları ve toplamları da haliyle bir olmak zorunda. Bu iki toplam hep sabit kaldığından birinin oranındaki artış ile diğer grubun oranındaki azalış da büyüklük olarak birbirine eşit olmak zorunda.

Sistemin dinamik davranışını incelemek için de aşağıdaki python programını yazdım. Program açıklamalarını kodun içine eklemeye çalıştım. İstenen oyun tipi simülasyonunu elde etmek için payoff değişkeni program başındaki tiplerden birine eşitlemek yeterli olacaktır.

import numpy as np
import matplotlib.pyplot as plt

strategies = np.array([[1, 0], [0, 1]]) #strateji vektörleri

prisoner_dilemma_payoff = np.array([[5, 1], [7, 3]]) #tutsak ikilemi oyun tipi

chicken_dilemma_payoff = np.array([[5, 1], [7, 0]]) #tavuk oyun tipi

stag_hunt_dilemma_payoff = np.array([[8, 1], [7, 3]]) #geyik avı oyun tipi

trivial_payoff = np.array([[7, 3], [5, 1]]) #ikilemsiz oyun tipi

number_of_iterations = 100 # her bir oyunun kaç jenerasyon boyunca oynanacağı

payoff = prisoner_dilemma_payoff  # seçilen oyun tipi

increment = 0.01
steady_states = np.array([[0, 0]]) # oyun bittiğinde nüfusun hangi oranlardan oluştuğu

for s1 in np.arange(0, 1.0, increment): #0-1 aralığında değişik başlangıç  konumları yaratılıyor
    s2 = 1 - s1  # nüfus oranları toplamı 1 olmalı
    species = np.array([s1, s2]) # ilk durum olarak türlerin oranı belirlenmiş oldu

    for i in range(0, number_of_iterations): # bu şartlar için oyun belirlenen jenerasyon miktarı kadar oynanacak

        difference = (strategies.dot(payoff).dot(species) - species.dot(payoff).dot(species))*species # strateji vektörlerinin değişim miktarları hesaplanıyor
        species = species + difference # bu stratejileri kullanan bireylerin nüfustaki oranları güncelleniyor
        species = np.clip(species, 0, 1) # nüfus oranlarının her zaman 0 ile 1 arasında olması sağlanıyor

    steady_states = np.append(steady_states, np.array([[s1, species[0]]]), axis = 0)  # oyunun sonunda elde edilen oranlar kayıtlara ekleniyor

#Alttaki kısımda da simülasyon sonuçları grafik olarak hazırlanıyor
plt.plot(steady_states[:, 0], steady_states[:, 1])
plt.ylabel("1. türün sondaki oranı")
plt.xlabel("1. türün başlangıçtaki oranı")
plt.show()
Tutsak ikilemi oyununda başlangıçta Cooperation stratejisini uygulayanların oranı ne olursa olsun oyunun sonunda nüfus tamamen Defection stratejili bireyler kalıyor.

Tutsak ikileminde kullandığım matris \(M = \begin{bmatrix} 5&&1\\7&&3 \end{bmatrix} \) şeklindeydi.

Tavuk tipi oyunda dahemen hemen her nüfus dağılımı için iki stratejinin de temsil edildiği denge durumları meydana geldi.

Tavuk tipi oyunda kullandığım matris de \(M = \begin{bmatrix} 5&&1\\7&&0 \end{bmatrix} \) şeklindeydi.

Geyik avı tipi oyunda bir orana kadar hep Cooperation stratejisi kazanıyor, o orandan sonra ise Defection. İki stratejinin bir arada süregeldiği bir durum olmuyor.

Geyik avında kullandığım matris de \(M = \begin{bmatrix} 8&&1\\7&&3 \end{bmatrix} \) şeklindeydi.

İkilemsiz oyun tipinde de her dağılım için Cooperation stratejisi nüfusu ele geçiriyor.

Bu oyun tipinde de \(M = \begin{bmatrix} 7&&3\\5&&1 \end{bmatrix} \) matrisini kullandım.

Şimdilik bu yazıyı burada bitireyim. Amacım basit oyunların simülasyonlarını kolayca yapmanın bir yolunu bulmaktı ve şimdilik bu kitaptaki yöntemle çalışabiliyorum gibi gözüküyor. Umarım konular ilerledikçe buna yakın bir performans gösterebilirim.

Lojistik büyüme modelinin kararlılığı

Lojistik büyüme modeli aşağıdaki diferansiyel denklemle tanımlanıyor.

\(\frac{dx}{dt} = x \frac {r}{K}(K – x) \)

Burada \(x \) o anlık nüfusu verirken \(\frac{dx}{dt} \) terimi de bir sonraki an için nüfusun ne kadar değişeceğini belirtiyor. \(K – x \) ifadesi, nüfus \(K \) teriminden büyük olduğunda negatif , küçük olduğunda da pozitif oluyor. Yani nüfus bu terimden büyükken nüfusun değişimi negatif (azalma yonünde), küçükken de pozitif (artış yönünde) olmakta. Bu durumda bu sistemde nüfus K değerine ulaşma eğiliminde olmalı. \(\frac {r}{K} \) terimi de bu yaklaşmanın hızını kontrol ediyor.

Kendimce yaptığım bu analiz sonunda tahmin yapmam gerekirse denge noktasının \(x = K \) noktasında olduğunu söylerdim. Bunların matematiksel çıkarımını yapmadan sadece deneysel gözlemlerini yapmak istiyorum. Bunun için aşağıdaki programı nüfusun ilk değeri için \(x = K = 300\) noktasında başlattım. Beklentim sabit bir grafik elde etmek.

import numpy as np
import matplotlib.pyplot as plt

def h(r, K, x):
    return r*(1 - x / K)

r = 0.021476
K = 300
x = K
populations = np.array([x])

for i in range(1, 1000):
    x = x + x*h(r, K, x)
    populations = np.append(populations, [x])

plt.plot(populations)
plt.ylabel("nüfus")
plt.xlabel("zaman")
plt.show()

Nüfus gerçekten de sabit kalıyor. Peki başlangıç nüfusunu bu değerden biraz uzaklaştırırsak ne olur?

import numpy as np
import matplotlib.pyplot as plt

def h(r, K, x):
    return r*(1 - x / K)

r = 0.021476
K = 300
x = K + 10
populations = np.array([x])

for i in range(1, 1000):
    x = x + x*h(r, K, x)
    populations = np.append(populations, [x])

plt.plot(populations)
plt.ylabel("nüfus")
plt.xlabel("zaman")
plt.show()

Bu programda nüfusu \(x = K + 10\) değerinden başlattım.

Kafamdan yaptığım analizden de beklediğim gibi nüfus gerçekten de kararlı duruma dönmeye çalışıyor. Demek ki bu sistem asimptotik kararlılığa sahip. Elbette bu çıkarımı matematiksel ispatı vermeden yapamam ama bu yazılarda daha çok sezgisel çalışmayı düşünüyorum.

Lotka-Volterra modelinin kararlılığı

Evrimsel oyun teorisi kitabında şimdi de sistemlerde kararlılıklar konusuna giriş kısmına geldim. Nüfus konusunda kararlılıktan kastedilen şöyle bir şey. Sistemdeki nüfuslar kararlı bir durumdaysa, bu nüfuslarda yapılan ufak değişiklikler sonunda sistem yine bu kararlı olduğu durumdaki nüfuslara yakın sayılarda kalacak. Anladığım kadarıyla kararlı durumdaki sayılara dönmek zorunda değil. Bu farklı kararlılıkların da değişik isimleri var. Örneğin nüfuslar bir zaman sonra (çok uzun zaman da olsa) baştaki kararlı durumdaki sayılara dönüyorsa asimptotik kararlılık deniyor. Eğer baştaki sayılara dönmüyorlar ama her zaman yakınlarda kalıyorlarsa da Lyapunov kararlı deniyormuş.

Geçenlerde bir yazıda Lotka-Volterra modelini anlamaya çalışmıştım. Modelin denklemleri aşağıdaki gibiydi:

\(\frac{dx}{dt} = \alpha x – \beta x \cdot y \)

\(\frac{dy}{dt} = \delta x \cdot y – \gamma y \)

\(x \) ve \(y \) av ve avcı türlerinin nüfuslarıdır. \(\frac{dx}{dt}\) ve \(\frac{dy}{dt}\) değerleri de bu nüfusların her adımda ne kadar değiştiğini gösteriyor. Eğer kararlı bir durumdaysak bu değişimlerin 0 olmasını bekleriz, yani nüfusların sabit kaldığı noktalardayızdır. Nüfusların sabit kalacağı noktaların biri iki nüfusun da sıfır olduğu yerdir. İki tür de yok olduğundan yeni bireylerin oluşma şansı yoktur (normal şartlarda). Bu çok ilginç bir durum değil ama. Bunun yerine bu iki türün aynı anda kararlı bir şekilde varlığını sürdürebildiği bir çözüme bakmak istiyorum. Bunun için değişim terimlerinin sıfır olduğu diğer çözümlere bakacağım.

Önce x nüfusundaki değişikliğin sıfır olması için y nüfusunun kaç olması gerektiğini bulayım.

\(\frac{dx}{dt}= \alpha x – \beta x \cdot y = 0\)

\(\alpha x = \beta x \cdot y \)

\(\frac{\alpha}{\beta} \frac {x}{x} = y \)

\(y = \frac {\alpha}{\beta} \)

Şimdi aynı şekilde y nüfusundaki değişikliğin sıfır olması için x nüfusunun ne olması gerektiğine bakayım.

\(\frac{dy}{dt} = \delta x \cdot y – \gamma y = 0\)

\(\delta x \cdot y = \gamma y \)

\(x = \frac {\gamma}{\delta} \frac {y}{y} \)

\(x = \frac {\gamma}{\delta} \)

Bu eşitlikleri aşağıdaki programla denediğim zaman nüfusların gerçekten de sabir kaldığını gördüm.

from random import betavariate
import numpy as np
import matplotlib.pyplot as plt

alpha = 0.1
beta = 0.04
gamma = 0.04
delta = 0.01

x = gamma/delta
y = alpha/beta


populations = np.empty((0, 2), int)
populations = np.append(populations, np.array(
    [[x, y]]), axis=0)

for i in range(1, 1000):
    x = x + alpha*x - beta*x*y
    if x < 0:
        x = 0
    y = y + delta*x*y - gamma*y
    if y < 0:
        y = 0
    populations = np.append(populations, np.array(
        [[x, y]]), axis=0)

f, (ax1, ax2) = plt.subplots(2)

line1, = ax1.plot(populations[:, 0], color="b")
line2, = ax2.plot(populations[:, 1], color="r")

ax1.set_ylabel("Av")
ax2.set_ylabel("Avcı")
ax2.set_xlabel("zaman")
plt.show()

Peki bu kararlı nüfusları azıcık değiştirirsem ne olur diye düşündüm.

from random import betavariate
import numpy as np
import matplotlib.pyplot as plt

alpha = 0.1
beta = 0.04
gamma = 0.04
delta = 0.01

x = gamma/delta + 0.01
y = alpha/beta - 0.01


populations = np.empty((0, 2), int)
populations = np.append(populations, np.array(
    [[x, y]]), axis=0)

for i in range(1, 1000):
    x = x + alpha*x - beta*x*y
    if x < 0:
        x = 0
    y = y + delta*x*y - gamma*y
    if y < 0:
        y = 0
    populations = np.append(populations, np.array(
        [[x, y]]), axis=0)

f, (ax1, ax2) = plt.subplots(2)

line1, = ax1.plot(populations[:, 0], color="b")
line2, = ax2.plot(populations[:, 1], color="r")

ax1.set_ylabel("Av")
ax2.set_ylabel("Avcı")
ax2.set_xlabel("zaman")
plt.show()

Bu programda başlangıç nüfuslarını çok az değiştirdim ve sonuçta aşağıdaki nüfus değişim grafiğini elde ettim.

Burada da görüldüğü gibi nüfuslar kararlı nüfusların yakınlarında kalıyor ama kararlı nüfuslara dönmüyor. Demek ki bu sistemde asimptotik kararlılık değil de Lyapunov kararlılığı var. Bunu böyle pat diye söyledim ama dayanağım ne? Şimdiye kadar sadece tek bir deneme yaptım ve bu denemeyi sonsuza kadar bile götürmedim. Demek ki biraz da matematik yapmak gerekecek ama o da başka bir yazıda artık.