Anlatı Entropisi Nedir?
Bazı hikayeler beyninize yapışır. Yıllarca unutmazsınız. Bazıları ise kitabı kapatır kapatmaz silinir — ne kadar iyi yazılmış olursa olsun.
Bu fark rastlantı değil. Ölçülebilir.
Anlatı Entropisi (Sn), Bulut Doktrini çerçevesinde Levent Bulut tarafından formalize edilen bir yapısal karmaşıklık metriğidir. Bir anlatı sisteminin içindeki bilgi düzensizliğini, veri çürümesini ve nedensel iletkenliği ölçer.
Formül
Sn = ∫(If × Cb) dt
- If = Bilgi Sürtünmesi (Information Friction): Okuyucunun anlamı çözmek için harcaması gereken bilişsel direniş
- Cb = Nedensel Dallanma (Causal Branching): Her sahne öğesinin açtığı olası gelecek sayısı
- dt = Anlatının kronolojik aralığı üzerinden integral
Basitçe: bir sahnenin okuması ne kadar dirençliyse ve kaç farklı yöne dallanabiliyorsa, Sn o kadar yüksektir.
İki Ölüm: Soğuk Ölüm ve Isı Ölümü
Sn çok düşükse → Anlatı Soğuk Ölümü
Her şey tahmin edilebilir. Bilgi dirençsiz akar, geriye bilişsel iz bırakmaz. Sistem yapısal olarak inerttir. Okuyucu sayfaları çevirir ama bir şey tutunmaz.
Sn çok yüksekse → Anlatı Isı Ölümü
Entropi kontrolsüz artar. Bilişsel yük yapısal kapasiteyi aşar. Okuyucu matriksten tamamen kopar "frenler yanar." Sistem anlamsız gürültüye çöker.
Anlatı mühendisinin görevi Sn'yi optimal bölgede tutmaktır: bilişsel bağlılığı sürdürecek kadar yüksek, sistemi çözmeyecek kadar kontrollü.
Bilgi Sürtünmesi (If)
Bilgi Sürtünmesi, okuyucunun doğrusal olmayan, parçalı veya kasıtlı olarak engellenen veriyi çözerken karşılaştığı ölçülebilir bilişsel dirençtir.
Mükemmel kronolojik bir hikayede If ≈ 0'dır.
Kafka'nın Dönüşümünün açılış cümlesi maksimum If'e sahiptir:
"Gregor Samsa bir sabah huzursuz rüyalardan uyandığında, yatağında dev bir böceğe dönüştüğünü fark etti."
Okuyucunun beyni hemen dallanmaya başlar: Bu metafor mu? Gerçek mi? Rüya mı? Bu yükü taşıyan cümle, okuyucuyu aktif işleme zorlar. Ve bu nedenle unutulmaz.
Nedensel Dallanma (Cb)
Nedensel Dallanma, her anlatı öğesinin okuyucunun zihninde açtığı olası nedensel gelecek sayısını ölçer.
Düşük Cb sahnesi:
"Adam kapıyı kapattı ve gitti."
Yüksek Cb sahnesi:
"Adam kapıyı kapattı. Anahtar içeride kaldı."
İkinci cümlede okuyucu hemen sorular üretir: Kasıtlı mi? Kilidli mi? Dönecek mi? Kim bekliyor içeride? Bu dallanma, sahneyi bellekte canlı tutar.
Vakum Değişkeni ve Sn
Anlatı Entropisi'nin en güçlü kaynağı Vakum Değişkeni (Ω) yapısal yokluktur. Orada olması gereken ama olmayan nesne. Söylenmesi beklenen ama söylenmeyen söz. Beklenilen ama gerçekleşmeyen hareket.
Yokluk, varlıktan daha yüksek If üretir. Çünkü beyin boşluğu doldurmaya zorlanır ve bu aktif süreç, sahneyi belleğe kazır.
Neden Bazı Sahneler Unutulmuyor?
Yüksek Sn'li sahneler üç şeyi aynı anda yapar:
- Beyne tam cevap vermez — If yoluyla aktif işlemeyi zorlar
- Birden fazla gelecek açar — Cb yoluyla merak yaratır
- Yapısal yoklukla tamamlanmamışlık hissi bırakır Ω yoluyla belleğe kazınır
Bu üçü birleştiğinde sahne kapanmaz. Beyin onu işlemeye devam eder kitabı kapatıktan sonra da, yıllarca.
Anlatı Entropisi ve Shannon Entropisi Farkı
Claude Shannon'ın 1948'deki Bilgi Teorisi entropiyi mesaj belirsizliği olarak ölçer: bir sistemde kaç farklı mesaj mümkün?
Anlatı Entropisi bunu farklı bir boyuta taşır: okuyucunun bilişsel ve biyolojik yükünü ölçer. Shannon kanalı optimize eder; Sn okuyucunun sinir sistemini hedefler.
Farkın tam açıklaması için: Shannon vs Sn — DOI: 10.5281/zenodo.19421808
Akademik Kayıt
- Temel makale: DOI: 10.5281/zenodo.18652451
- Ölçüm protokolü: DOI: 10.5281/zenodo.19410663
- Shannon karşılaştırması: DOI: 10.5281/zenodo.19421808
- SSRN: ssrn.com/author=10279856
- Yazar: leventbulut.com
İlgili İçerikler