Olasılık ya da Yapay Zekanın Matematiksel Temelleri – 3

Bir önceki yazının linki şöyle dursun.

Serinin bir önceki yazısı biraz kısaydı, gerisi nerede diye soranlar oldu. Doğrusu şu; başlangıçta laf ebeliğiyle, basit akıl yürütmelerle konu ilerliyor ama bu ilelebet böyle gitmiyor. Anlatmak da, anlamak da kolay değil, hele matematik jargonuna alışık olmayan için. Bundan sonrası gitgide daha teknik ve karmaşık olacak, başka yolu yok.

Hala aynı sorudayız. İçinde $N$ tane top olan bir torbadan $k$ numaralı topu çektik ve $N$’yi tahmin etmeye çalışıyoruz. İki tahmin modeli bulduk $$T_1(k)=2k-1 \quad \text{ve} \quad T_2(k)=k,$$ bunlardan hangisi daha iyi anlamaya çalışıyoruz, daha doğrusu iki tahmin modelini nasıl karşılaştırabiliriz diye düşünüyoruz. En son doğru sonucu bulma ihtimali kriterine göre $T_2$’nin daha iyi olduğunu ama bu kritere çok da bel bağlamamak gerektiğini not aldık.

Bir sonraki fikir şu: Tahmin modeli, adı üstünde, sadece tahmin yaptığına göre doğru cevabı bulmaya değil de tahminlerin doğru cevaba ne kadar yakın olduğuna odaklanalım. Mesela torbabada 10 top olsun ($N=10$), torbadan çektiğimiz topun numarasına göre ($k$) her iki modelin tahminlerini aşağıdaki tablo üzerinden inceleyelim.

k k çekme ihtimali Gerçek T1 T2 Gerçek–T1 Gerçek–T2
1 1 / 10 10 1 1 9 9
2 1 / 10 10 3 2 7 8
3 1 / 10 10 5 3 5 7
4 1 / 10 10 7 4 3 6
5 1 / 10 10 9 5 1 5
6 1 / 10 10 11 6 -1 4
7 1 / 10 10 13 7 -3 3
8 1 / 10 10 15 8 -5 2
9 1 / 10 10 17 9 -7 1
10 1 / 10 10 19 10 -9 0

Torbadan çektiğimiz topun kaç geleceğini bilmediğimiz için, her bir durumu olasılıklarıyla beraber (bu örnekte bütün olasılıklar eşit ama hep böyle olmaz) sıraladık ve sonra da tahmin modellerinin $k$ değeri çıktığında yaptığı tahmini ve bu gerçek cevapla tahmin arasındaki farkı yazdık. Gördüğünüz gibi $T_1$’in tahminleri gerçekten bazen fazla, bazen de az. Bunları doğrudan birbiriyle toplayacak olsak artılar eksiler birbirini götürecek, onun yerine eksi işaretli hatalarla artı olanlar birbirine denk gelsin diye mesela hataların karesini alabiliriz. Şimdilik “Niye hataların karesini alıyoruz da, mutlak değerlerini almıyoruz?” diye sormayın, o da olur ama teknik sebeplerden karesi daha makbul. Tezcanlılıkla hata karelerini toplamaya girişmek de sakıncalı, çünkü her bir hata, o hataya sebep olan gözlemin gerçekleşme ihtimaline bağlı. Bu örnekte her bir gözlemin olasılığı eşit ama pekala torbadan bazı numaraların çıkma ihtimalinin daha yüksek olduğu bir durumla da karşılaşabilirdik.

En doğrusu şu: Her bir gözlem ($k$) için, bu gözlemi yapma ihtimalimizle bu gözlemi yaptığımız durumda ortaya çıkan hata karesini çarpalım, sonra da bunların hepsini toplayalım. Böylelikle her bir hatayı, hatanın gerçekleşme ihtimaline göre ağırlıklandığımız için ortalama hata kareleri toplamını bulmuş oluruz. İngilizce mean squared error derler, MSE diye de kısaltırlar. Bakalım $N=10$ iken ne oluyormuş MSE bizim modellerde: $$MSE(T_1) = \frac{1}{10} 9^2 + \frac{1}{10} 7^2 + \cdots + \frac{1}{10} (-7)^2 + \frac{1}{10} (-9)^2=330$$  ve  $$MSE(T_2) = \frac{1}{10} 9^2 + \frac{1}{10} 8^2 + \cdots + \frac{1}{10} (1)^2 + \frac{1}{10} (0)^2=285.$$

MSE kriterine göre de $T_2$ daha iyi çıktı. Yukarıdaki hesap sadece $N=10$ durumu için geçerli ama biraz elinizi kirletip, ufak bir hesabı göze alırsanız her $N$ için $T_2$’nin düşük ortalama hata kareleri toplamı verdiğini bulabilirsiniz.

“Hikayenin düğümü çözüldü $T_2$ daha iyi çıktı” diye düşünüyorsanız, yanılıyorsunuz. Bir sonraki fikir ve süpriz gelişmeler bir sonraki yazıda.

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

*

Şu HTML etiketlerini ve özelliklerini kullanabilirsiniz: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>