NNF
Blog
AIOpen SourceEngineering
NNFNNF
··7 dk okuma
Paylaş

MemPalace ve AI Belleğinin Gerçek Sorunu

MemPalace, AI konuşmalarını özetlemek yerine yapılandırıyor. Saray mimarisini, AAAK sıkıştırma diyalektini ve benchmark iddialarının gerçekçiliğini inceliyoruz.

MemPalace ve AI Belleğinin Gerçek Sorunu

Günde birkaç saat Claude ya da ChatGPT ile çalışıyorsak şu sahneyi mutlaka yaşamışızdır: Geçen ay bir mimari kararı tartıştık, nedenini adım adım açıkladık, modelle birlikte tradeoff'ları hesapladık. Bugün aynı konuya döndüğümüzde model bunların hiçbirini hatırlamıyor. Biz de "neydi o konuşma..." diye tarayıcı geçmişimize bakıyoruz.

Bu, sıradan bir UX sorunu değil. Daha temelde bir şey: AI ile çalışmanın yarattığı en önemli düşünce birikimi — kararların neden alındığı, hangi seçeneklerin neden elendiği, hangi denemenin neden patladığı — hiçbir yerde depolanmıyor. Jira ticket'ına yazılmıyor. Confluence sayfasına geçmiyor. O konuşma kapanınca gidiyor.

MemPalace bu problemi farklı bir açıdan ele alıyor. Çözümü iki parçadan oluşuyor ve ikisi de kendi alanında ilginç.


Saray Mimarisi: Bilgiyi Düzenleyerek Bulmak

Projenin ismi boşuna seçilmemiş. Antik Yunan'da hatiplerin kullandığı "loci yöntemi"nden geliyor: Uzun bir konuşmayı ezberlemek için her fikri hayali bir binanın farklı odalarına yerleştiriyoruz. Binanın içinde yürürken fikirleri "görüyoruz."

MemPalace bunu veri mimarisine uyarlamış. Klasik yaklaşım şudur: Her şeyi vektöre at, benzerlik aramasıyla bul. Basit, çalışır, ama kalabalıklaşınca gürültü artar. MemPalace ise hiyerarşik bir yapı kuruyor:

  • Wing: Bir kişi ya da proje. Her biri bağımsız.
  • Hall: Bellek tipi. hall_facts kararları tutar, hall_events oturumları, hall_preferences alışkanlıkları. Her wing'de aynı koridorlar var.
  • Room: Spesifik bir konu. auth-migration, graphql-switch, ci-pipeline. Serbest isimlendirme.
  • Closet: O odanın sıkıştırılmış özeti.
  • Drawer: Verbatim orijinal metin. Dokunulmamış.

Sistem burada bir şey daha yapıyor: Aynı room adı birden fazla wing'de geçiyorsa aralarında tunnel açılıyor. auth-migration hem Kai'nin wing'inde hem de Driftwood projesinin wing'inde varsa, sorgu birini bulduğunda diğerini de getiriyor.

Bu yapının retrieval'a etkisini benchmark etmişler. 22.000'den fazla gerçek konuşma belleği üzerinde:

Filtreleme R@10
Tüm closetlarda ara %60.9
Wing filtreli %73.1
Wing + Hall %84.8
Wing + Room %94.8

Yapı, performansa +34 puan katkı sağlıyor. Mimari dekorasyon değil; retrieval kalitesinin temel bileşeni.


AAAK: Modelin Okuması İçin Tasarlanmış Bir Dil

İkinci yenilik daha tuhaf ama belki daha orijinal.

AI bellek sistemlerinin çoğu özetleme yapar: Uzun konuşmayı modele ver, "bunu özetle" de. Bu pahalı ve kayıplı. MemPalace farklı bir şey deniyor: İnsan tarafından okunması gerekmeyen, sadece LLM'ler tarafından okunacak bir kısaltma diyalekti — AAAK.

Örnek vermek gerekirse, normal İngilizce bir paragraf:

Priya manages the Driftwood team: Kai (backend, 3 years), Soren (frontend), Maya (infrastructure), and Leo (junior, started last month). They're building a SaaS analytics platform. Current sprint: auth migration to Clerk. Kai recommended Clerk over Auth0 based on pricing and DX.

AAAK versiyonu:

TEAM: PRI(lead) | KAI(backend,3yr) SOR(frontend) MAY(infra) LEO(junior,new)
PROJ: DRIFTWOOD(saas.analytics) | SPRINT: auth.migration→clerk
DECISION: KAI.rec:clerk>auth0(pricing+dx) | ★★★★

30x sıkıştırma. İddia edilen şey lossless — bilgi kaybı yok, sadece insan okuma konforu feda edilmiş. Fine-tuning yok, özel bir decoder yok. Herhangi bir metin okuyabilen model bunu anlıyor: Claude, GPT, Gemini, Llama.

Bunun pratik sonucu şu: Sistem her oturum başında yaklaşık 170 token ile "kritik bağlam"ı yüklüyor. Alternatiflerle kıyaslaması şöyle:

Yöntem Yüklenen token Yıllık maliyet (tahmini)
Her şeyi yapıştır 19.5M — context'e sığmaz İmkânsız
LLM özetleme ~650K ~$507
MemPalace wake-up ~170 ~$0.70
MemPalace + 5 arama ~13.500 ~$10

19.5 milyon token rakamı şuradan geliyor: Günde birkaç saat AI kullanıyorsak yıllık bu kadar token birikir. Tamamını context'e koymak mümkün değil; LLM özetleme hem pahalı hem kayıplı; AAAK ise token sayısını drastik düşürürken bilgiyi tutuyor.


Knowledge Graph: Zamanın İzini Sürmek

Projenin az dikkat çeken ama teknik olarak sağlam bir parçası da bilgi grafiği.

SQLite üzerinde temporal entity-relationship triple'ları tutuyor. Zep'in Graphiti'si ile aynı fikir — fark şu ki Neo4j yerine SQLite, cloud yerine local.

kg.add_triple("Kai", "works_on", "Orion", valid_from="2025-06-01")
kg.add_triple("Maya", "assigned_to", "auth-migration", valid_from="2026-01-15")
kg.add_triple("Maya", "completed", "auth-migration", valid_from="2026-02-01")

# Ocak'ta ne doğruydu?
kg.query_entity("Maya", as_of="2026-01-20")
# → Maya → assigned_to → auth-migration (aktif)

Her triple'ın bir geçerlilik penceresi var. Bir şey geçmişte doğruydu ama artık değilse invalidate ediyoruz. Geçmişe dönük sorgular yine çalışıyor, güncel sorgular güncel durumu gösteriyor.

Bunun üzerine bir contradiction detection katmanı da koymuşlar. Sisteme "Soren auth migration'ı tamamladı" yazarsak, Maya'nın o göreve atanmış olduğunu biliyor ve çakışmayı bayraklıyor. Yaş, süre, tarih gibi dinamik hesaplanan değerlerde de çalışıyor.


Benchmark İddiası ve Gerçekçilik Payı

MemPalace'in en iddialı pazarlama cümlesi şu: "The highest-scoring AI memory system ever benchmarked."

LongMemEval üzerindeki sonuçları:

Mod R@5 API çağrısı
Raw (ChromaDB) %96.6 Sıfır
Hybrid + Haiku rerank %100 (500/500) ~500

Yayımlanmış rakiplere kıyasla: Mem0 ve Zep ~%85 civarında, Mastra %94.87, Supermemory ~%99. Ham modda sıfır API çağrısıyla %96.6 gerçekten iyi bir sonuç.

Ama bir not düşmemiz gerekiyor: LongMemEval tek bir benchmark. Akademik veri setleri her zaman gerçek dünya kullanımını birebir temsil etmez. "En yüksek skor" iddiası benchmarkın kendi sınırları içinde geçerli. Farklı kullanım senaryolarında tablo değişebilir.


Kullanım ve Entegrasyon

Kurulum nispeten temiz:

pip install mempalace
mempalace init ~/projects/myapp
mempalace mine ~/chats/ --mode convos
mempalace search "auth konusunda ne karar verdik"

Claude Code ile MCP üzerinden entegre olduğunda 19 tool sunuyor. Bunlar arasında arama, yazma, knowledge graph sorguları, wing/room navigasyonu ve agent diary var. MCP entegrasyonu çalışınca manuel mempalace search komutuna gerek kalmıyor — AI kendi karar veriyor ne zaman arayacağına.

Local model kullananlar için de çözüm var: mempalace wake-up komutu kritik bağlamı bir metin dosyasına çıkarıyor, bunu model system prompt'una yapıştırıyoruz. Llama ya da Mistral ile de tamamen offline çalışıyor.

Claude Code hook'ları da var: Her 15 mesajda bir otomatik kayıt ve context compaction öncesi acil kayıt. Bunlar konuşma akışı sırasında bağlamın kaybolmaması için.


Gerçek Kısıtlamalar

Projeyi abartmadan değerlendirmek için birkaç şeyin altını çizmemiz lazım.

Onboarding sürtüşmesi yüksek. Mine, init, wing yapılandırması, konuşma export'u — bunların hepsini yapacak kullanıcı profili dar. Power user'lar için güçlü bir araç, genel kitle için henüz çok manuel.

Platform riski var. Anthropic ve OpenAI native memory sistemleri geliştiriyor. Bu sistemler iyileştikçe MemPalace'in temel gerekçesi — "AI'ın hafızası yok" — aşınıyor. Proje bu trendi takip etmek zorunda.

Traction henüz minimal. 11 star, 0 fork. Yeni repo olması hesaba katılsa bile bu sayılar prematüre bir lansman izlenimi veriyor. Gerçek dünya stresine henüz girmemiş.


README'nin Anlattığı ile Gerçeklik Arasındaki Mesafe

Projeyi teknik açıdan inceledikten sonra bir adım geri çekilip sormamız gereken bir soru var: Bunların ne kadarı gerçekten çalışıyor, ne kadarı iyi yazılmış bir vizyon belgesi?

AAAK'ın "lossless" iddiası doğrulanabilir değil. README, 30x sıkıştırmanın sıfır bilgi kaybıyla gerçekleştiğini söylüyor. Ama "lossless" burada matematiksel bir garanti değil, bir iddia. Sıkıştırma ne kadar agresifleşirse, hangi bilginin "kritik" olduğuna dair kararlar kaçınılmaz olarak giriyor. Bir konuşmada geçen "şimdilik Auth0 kullanıyoruz ama memnun değiliz" gibi belirsiz bir cümle AAAK'ta nasıl temsil ediliyor? README bunu göstermiyor.

Benchmark seçimi sorunlu. LongMemEval, yapılandırılmış soru-cevap formatında bellek testleri içeriyor — yani "bu konuşmada X ne söyledi?" tarzı sorgular. Gerçek kullanımda sormadığımız şey bu değil. Biz "geçen ay auth konusunda neden vazgeçtik" ya da "o deploy neden patlamıştı" gibi belirsiz, bağlam ağırlıklı sorular soruyoruz. Bu tür sorgularda palace yapısının ne kadar işe yaradığını gösteren bağımsız bir test yok.

"Store everything" yaklaşımının karanlık tarafı. MemPalace'in temel felsefesi "her şeyi sakla, sonra bul." Bu kulağa temiz geliyor ama pratikte bir sorun yaratıyor: Zaman içinde çelişkili bilgiler birikir. Bir kararı aldık, sonra tersine çevirdik, sonra tekrar değiştirdik — bunların hepsi drawer'larda duruyor. Knowledge graph bu çelişkileri invalidate mekanizmasıyla çözüyor, ama bunun manual işlem gerektirip gerektirmediği, ya da otomatik çıkarımın ne kadar güvenilir olduğu README'de net değil.

Kimin için yazıldığı belli, kimin kullanacağı belirsiz. Proje, kendi AI workflow'unu aktif olarak yöneten, konuşma exportlarını düzenli tutan, wing/room taksonomisi kurmaya zaman ayıracak bir kullanıcı profilini varsayıyor. Bu profil mevcut — ama küçük. Daha geniş bir kitle için bu kadar kurulum gerektiren bir araç, kullanılmayan araçlar kategorisine hızla giriyor.

11 star, 0 fork sayısını ciddiye almak gerekiyor. Bu projenin değersiz olduğu anlamına gelmiyor. Ama şu an için gerçek dünya koşullarında stres testi görmemiş bir sistem. Büyük ve karmaşık bir konuşma tarihiyle ne oluyor, çakışan wing isimlendirmeleri nasıl ele alınıyor, mining süreci hatalı formatlı export dosyalarıyla nasıl başa çıkıyor — bunların cevaplarını ancak kullanım görmüş bir proje verebilir.

Bütün bunları söyledikten sonra şunu da ekleyelim: Bunlar projeyi çürüten değil, olgunlaşmamış olduğunu gösteren bulgular. Fikir sağlam, uygulama erken aşamada. İkisi farklı şeyler.


Sonuç Yerine

MemPalace'in yaptığı şeyi şöyle özetleyebiliriz: AI konuşmalarını özetlemek yerine yapılandırıyor. Bu fark küçük görünüyor ama retrieval kalitesine yansıması büyük.

AAAK diyalekti ise daha geniş bir fikrin prototipi gibi duruyor: İnsan okuma konforu için değil, model tüketimi için optimize edilmiş bilgi gösterimi. Bu fikrin nereye gideceği ilginç bir soru.

Şu an için MemPalace, doğru profildeki kullanıcı için — çok AI konuşması yapan, teknik seviyeleri yüksek, workflow'larını özelleştirmekten kaçınmayan insanlar — gerçek bir değer sunuyor. Mainstream için henüz erken. Ama temel fikir, yani yapısal bellek + lossless sıkıştırma kombinasyonu, üzerinde düşünmeye değer.


Bağlantılar

Proje

Benchmark

Rakip Araçlar

Bağlam için


nonamefirm.com