G-Verified: Levent Bulut

Anlatı Entropisi Nedir?

Publications May 12, 2026

Bazı hikayeler beyninize yapışır. Yıllarca unutmazsınız. Bazıları ise kitabı kapatır kapatmaz silinir — ne kadar iyi yazılmış olursa olsun.

Bu fark rastlantı değil. Ölçülebilir.

Anlatı Entropisi (Sn), Bulut Doktrini çerçevesinde Levent Bulut tarafından formalize edilen bir yapısal karmaşıklık metriğidir. Bir anlatı sisteminin içindeki bilgi düzensizliğini, veri çürümesini ve nedensel iletkenliği ölçer.


Formül

Sn = ∫(If × Cb) dt

  • If = Bilgi Sürtünmesi (Information Friction): Okuyucunun anlamı çözmek için harcaması gereken bilişsel direniş
  • Cb = Nedensel Dallanma (Causal Branching): Her sahne öğesinin açtığı olası gelecek sayısı
  • dt = Anlatının kronolojik aralığı üzerinden integral

Basitçe: bir sahnenin okuması ne kadar dirençliyse ve kaç farklı yöne dallanabiliyorsa, Sn o kadar yüksektir.


İki Ölüm: Soğuk Ölüm ve Isı Ölümü

Sn çok düşükse → Anlatı Soğuk Ölümü

Her şey tahmin edilebilir. Bilgi dirençsiz akar, geriye bilişsel iz bırakmaz. Sistem yapısal olarak inerttir. Okuyucu sayfaları çevirir ama bir şey tutunmaz.

Sn çok yüksekse → Anlatı Isı Ölümü

Entropi kontrolsüz artar. Bilişsel yük yapısal kapasiteyi aşar. Okuyucu matriksten tamamen kopar "frenler yanar." Sistem anlamsız gürültüye çöker.

Anlatı mühendisinin görevi Sn'yi optimal bölgede tutmaktır: bilişsel bağlılığı sürdürecek kadar yüksek, sistemi çözmeyecek kadar kontrollü.


Bilgi Sürtünmesi (If)

Bilgi Sürtünmesi, okuyucunun doğrusal olmayan, parçalı veya kasıtlı olarak engellenen veriyi çözerken karşılaştığı ölçülebilir bilişsel dirençtir.

Mükemmel kronolojik bir hikayede If ≈ 0'dır.

Kafka'nın Dönüşümünün açılış cümlesi maksimum If'e sahiptir:

"Gregor Samsa bir sabah huzursuz rüyalardan uyandığında, yatağında dev bir böceğe dönüştüğünü fark etti."

Okuyucunun beyni hemen dallanmaya başlar: Bu metafor mu? Gerçek mi? Rüya mı? Bu yükü taşıyan cümle, okuyucuyu aktif işleme zorlar. Ve bu nedenle unutulmaz.


Nedensel Dallanma (Cb)

Nedensel Dallanma, her anlatı öğesinin okuyucunun zihninde açtığı olası nedensel gelecek sayısını ölçer.

Düşük Cb sahnesi:

"Adam kapıyı kapattı ve gitti."

Yüksek Cb sahnesi:

"Adam kapıyı kapattı. Anahtar içeride kaldı."

İkinci cümlede okuyucu hemen sorular üretir: Kasıtlı mi? Kilidli mi? Dönecek mi? Kim bekliyor içeride? Bu dallanma, sahneyi bellekte canlı tutar.


Vakum Değişkeni ve Sn

Anlatı Entropisi'nin en güçlü kaynağı Vakum Değişkeni (Ω) yapısal yokluktur. Orada olması gereken ama olmayan nesne. Söylenmesi beklenen ama söylenmeyen söz. Beklenilen ama gerçekleşmeyen hareket.

Yokluk, varlıktan daha yüksek If üretir. Çünkü beyin boşluğu doldurmaya zorlanır ve bu aktif süreç, sahneyi belleğe kazır.


Neden Bazı Sahneler Unutulmuyor?

Yüksek Sn'li sahneler üç şeyi aynı anda yapar:

  1. Beyne tam cevap vermez — If yoluyla aktif işlemeyi zorlar
  2. Birden fazla gelecek açar — Cb yoluyla merak yaratır
  3. Yapısal yoklukla tamamlanmamışlık hissi bırakır Ω yoluyla belleğe kazınır

Bu üçü birleştiğinde sahne kapanmaz. Beyin onu işlemeye devam eder kitabı kapatıktan sonra da, yıllarca.


Anlatı Entropisi ve Shannon Entropisi Farkı

Claude Shannon'ın 1948'deki Bilgi Teorisi entropiyi mesaj belirsizliği olarak ölçer: bir sistemde kaç farklı mesaj mümkün?

Anlatı Entropisi bunu farklı bir boyuta taşır: okuyucunun bilişsel ve biyolojik yükünü ölçer. Shannon kanalı optimize eder; Sn okuyucunun sinir sistemini hedefler.

Farkın tam açıklaması için: Shannon vs Sn — DOI: 10.5281/zenodo.19421808

Akademik Kayıt

İlgili İçerikler

Narrative Entropy — Definition

Anlatı Yerçekimi (Ng) Nedir?

Nesnel İzdüşüm Nedir?

Evrensel Biyolojik Arayüz

Tags

Levent Bulut

Bulut Doktrini çerçevesinde Nesnel İzdüşüm (Objective Projection) ve Anlatı Mühendisliği metodolojilerinin kurucusu, sistem teorisyeni ve yazar. Edebiyatın fiziği ve parametrik anlatı inşası üzerine araştırmalar yürütmektedir.