Context window optimalisatie: zo haal je meer uit je tokens
Reageer
Die twee-stap aanpak met samenvatting is goed. Ik doe iets vergelijkbaars maar dan met een map-reduce patroon: splits het document in stukken, laat elk stuk samenvatten, en combineer de samenvattingen. Werkt goed voor heel lange documenten (100+ pagina's).
Die map-reduce aanpak klinkt slim voor echt lange documenten. Ga ik uitproberen. Hoe ga je om met informatie die over meerdere chunks verspreid is? Soms heb je context uit hoofdstuk 2 nodig om hoofdstuk 7 te snappen.
Prompt caching bij Anthropic is echt een kostenbesparenr. Ik gebruik het voor een chatbot die een vast system prompt van 2000 tokens heeft. Zonder caching was dat bij 1000 gesprekken per dag een flink bedrag. Nu betaal ik die tokens maar 1x.
Handige tips! Ik wist niet van die prompt caching feature. Werkt dat alleen via de API of ook in de chat interface? Ik gebruik vooral Claude Pro via de website.