Sla over naar inhoud

Mijn LLM-stap geeft soms vrije tekst, soms JSON, downstream breekt

Standaard LLM-output is tekstueel en niet betrouwbaar parsebaar. Voor automatie heb je structured output nodig: JSON-mode of tool-calling. Dan is de output gegarandeerd geldig JSON met je schema.

Probeer dit eerst zelf

  1. 1OpenAI: zet response_format op {type: 'json_object'} of beter: 'json_schema' met een schema-definitie. Anthropic: gebruik tool-use om een schema af te dwingen.
  2. 2Definieer een minimaal schema: alleen de velden die je nodig hebt, met types en required-markers. Hoe strakker, hoe betrouwbaarder de output.
  3. 3Sluit het schema in de prompt af met expliciete instructie 'antwoord met alleen JSON, geen toelichting'. Dat dempt de overshoot bij oudere modellen.
  4. 4Test op edge-cases: invoer met geen relevante info, met conflicterende info, met heel lange invoer. Wat doet het model?
  5. 5Vang JSON.parse-fouten op met een fall-back: tweede LLM-call met de instructie 'fix dit JSON', of een hardgecodeerd default-record.

Wanneer ons inschakelen

Heb je LLM-output die je downstream wilt verwerken en bepaalde velden zijn cruciaal, dan helpt een gevalideerd schema plus assertion. Daar kunnen we mee opzetten.

Zie ook

Past het bovenstaande niet?

Beschrijf je situatie hieronder. We sturen jouw input plus de stappen die je al zag naar onze AI en geven gericht vervolg-advies. Als het te risicovol is om zelf te doen, zeggen we dat ook.

Wie ben je?

Voor de AI-vraag hebben we je e-mailadres en bedrijfsnaam nodig, zo kunnen we opvolgen als de AI er niet uitkomt, en voorkomt het misbruik van de tool.

Maximaal 2 vragen per uur en 5 per dag, bewust beperkt zodat de AI snel en goed blijft. Voor meer help je jezelf en ons door direct contact op te nemen.

Of doe het helemaal niet zelf

Onze Managed IT-klanten zoeken dit soort vragen niet op. Eén aanspreekpunt, vaste prijs per maand, en het is binnen werktijd opgelost.