Torna al Blog
JSONIAChatGPTClaudeLLMProduttività

JSON e Intelligenza Artificiale: Guida Completa

Paulo Giavoni

Paulo Giavoni

Ingegnere & Specialista BIM

10 febbraio 202612 min read
JSON e Intelligenza Artificiale: Guida Completa

Questo articolo traduce e spiega, in un linguaggio accessibile, le principali ricerche accademiche (2023-2025) su come l'uso di JSON migliora la comunicazione con IA come ChatGPT, Claude e Gemini — risparmiando token, riducendo gli errori e ottenendo risposte più precise.

Basato su oltre 30 articoli accademici e documentazione tecnica: OpenAI, Anthropic, Google DeepMind, Microsoft Research e arXiv.


1. Concetti Fondamentali#

Cos'è JSON?#

JSON (pronunciato "gei-son") è un modo standardizzato di organizzare le informazioni che computer e programmi possono leggere facilmente. Pensatelo come una "scheda organizzata" con campi ben definiti.

Esempio in linguaggio comune:

Text
1"Mi chiamo Paolo, ho 40 anni,
2vivo a Milano e lavoro come
3ingegnere elettrico."

Stesso esempio in JSON:

JSON
1{
2 "nome": "Paolo",
3 "eta": 40,
4 "citta": "Milano",
5 "professione": "ingegnere elettrico"
6}

Spiegazione semplice: JSON è come compilare un modulo invece di scrivere un tema. Invece di un testo continuo, metti ogni informazione nel suo "campo" giusto. Questo evita confusione e facilita la lettura da parte delle macchine.

Cosa sono gli LLM?#

LLM sta per Large Language Model (Modello Linguistico di Grandi Dimensioni). Sono i programmi di intelligenza artificiale dietro strumenti come ChatGPT, Claude e Gemini. Funzionano prevedendo la prossima parola basandosi su tutto ciò che hanno "letto" durante l'addestramento — miliardi di testi da internet, libri e documenti.

Cosa sono i Token?#

Il token è l'"unità di lettura" dell'IA. Non è esattamente una parola — a volte è una sillaba, un pezzo di parola o un simbolo. Per esempio, la parola "ingegnere" potrebbe essere divisa in 2 o 3 token. Più token usi, più costa la chiamata all'API dell'IA e più tempo impiega a rispondere.

Spiegazione semplice: Pensa ai token come "monete" che spendi ogni volta che parli con l'IA. Ogni parola, virgola o simbolo costa monete. Se riesci a dire la stessa cosa spendendo meno monete, risparmi soldi e tempo.

Cosa sono le Allucinazioni dell'IA?#

L'allucinazione è quando l'IA inventa informazioni che sembrano vere ma sono false. Per esempio, potrebbe inventare un libro che non esiste, creare una data sbagliata o generare dati completamente fittizi con totale sicurezza. Questo succede perché l'IA non "sa" le cose — calcola solo quale sia la parola successiva più probabile.


2. Economia dei Token: JSON Risparmia o Costa di Più?#

Scoperta sorprendente: Il JSON puro in realtà USA PIÙ token di altri formati! Ma gli approcci di prompting strutturato (che includono JSON) possono far risparmiare tra il 30% e l'87% dei token.

L'assunzione comune che JSON risparmi token rispetto al linguaggio naturale è più complessa di quanto sembri. Le ricerche mostrano che JSON è uno dei formati meno efficienti in termini di token, consumando circa il doppio dei token rispetto al formato TSV (dati separati da tabulazione) e il 30-56% in più rispetto a YAML.

Il motivo tecnico è la tokenizzazione BPE (Byte Pair Encoding): le parentesi graffe { }, le virgolette, le virgole e i nomi dei campi ripetuti del JSON generano frammenti di token separati.

Confronto Efficienza dei Formati#

FormatoToken RelativiRisparmio vs JSON
JSON standard100% (riferimento)
YAML44-70%30-56% in meno
TSV (tabulazione)~50%~50% in meno
Function Calling~58%42% in meno
JSON compatto~80%~20% in meno

Fonte: Microsoft Data Science / David Gilbertson (2024)

Spiegazione semplice: Immagina di inviare un messaggio di testo e ogni lettera costa denaro. Il JSON è come scrivere con molte virgolette, parentesi e ripetizioni — costa più "caratteri". Tuttavia, il VALORE del JSON non sta nell'usare meno lettere, ma nell'ORGANIZZARE le informazioni in modo che l'IA capisca meglio e sbagli meno.

Dove Avviene il Vero Risparmio#

Il vero risparmio di token viene da come usi i formati strutturati, non dal JSON in sé:

TecnicaRisparmioStudio
Pseudocodice strutturato55-87% input, 41-70% outputCodeAgents (Yang et al., 2025)
Sintesi codice per estrazione110x riduzione costiEVAPORATE (Stanford, 2023)
Compressione promptfino al 60% totaleCompactPrompt (arXiv, 2025)
Patch JSON (RFC 6902)30%+ riduzioneJSON Whisperer (arXiv, 2025)

3. Allucinazioni: JSON Riduce gli Errori Inventati?#

Risposta breve: JSON elimina completamente gli errori di FORMATO (strutturali), ma non elimina gli errori di CONTENUTO (fattuali). Per combattere entrambi, la migliore strategia combina JSON con RAG.

Due Tipi di Allucinazione#

TipoEsempioJSON lo Risolve?
Allucinazione Strutturale (formato errato)L'IA restituisce testo libero invece di JSON valido, o omette campi obbligatori✅ SÌ — 100% risolto con decodifica vincolata
Allucinazione Fattuale (contenuto errato)L'IA restituisce JSON perfetto ma il contenuto è inventato: {"capitale": "Napoli"}❌ NON direttamente — richiede RAG o validazione

Spiegazione semplice: Pensala così: JSON garantisce che l'IA compili il "modulo" correttamente (tutti i campi, formato giusto). Ma non garantisce che le RISPOSTE scritte nei campi siano vere. È come se qualcuno compilasse un curriculum formattato perfettamente, ma mentisse sull'esperienza lavorativa.

La Migliore Strategia: JSON + RAG#

Lo studio di Béchard e Ayala (NAACL 2024) ha mostrato il risultato più convincente:

  • Senza RAG: l'IA inventava passaggi errati nel 21% dei casi
  • Con RAG + output strutturato: quel numero è sceso a meno del 7,5%
  • Riduzione: circa 65-70%

Spiegazione semplice: RAG (Retrieval-Augmented Generation) è come dare un "bigliettino" all'IA. Invece di rispondere a memoria (e inventare), prima cerchi i documenti giusti e li invii insieme alla domanda. JSON + RAG = formato corretto + contenuto corretto.

Campi Vincolati contro l'Allucinazione#

Una tecnica parziale ma efficace è limitare i valori possibili nei campi JSON. Per esempio:

JSON
1{
2 "categoria": "elettrica | idraulica | meccanica",
3 "priorita": "bassa | media | alta | urgente"
4}

Combinato con temperatura bassa (0.1-0.4), questo impedisce all'IA di inventare categorie inesistenti.


4. Ragionamento vs. Struttura: Quando JSON Danneggia?#

Il grande dibattito: Uno studio influente (EMNLP 2024) ha affermato che forzare JSON degrada il ragionamento fino al 38%. Tuttavia, risposte successive hanno mostrato che il problema non è JSON in sé, ma una IMPLEMENTAZIONE sbagliata.

L'articolo "Let Me Speak Freely?" di Tam et al. ha avuto un grande impatto mostrando che il modello LLaMA-3-8B aveva un calo del 38% nelle prestazioni quando forzato a rispondere in JSON. Il meccanismo era rivelatore: la modalità JSON metteva il campo answer PRIMA del campo reason, costringendo l'IA a dare la risposta finale prima di ragionare.

Tuttavia, il team di dottxt (creatori di Outlines) ha pubblicato una confutazione dettagliata mostrando che, con prompt adeguati, la generazione strutturata migliorava le prestazioni sugli stessi test.

Il benchmark JSONSchemaBench (Geng et al., 2025) — il più rigoroso fino ad oggi, con 10.000 schemi JSON reali — ha confermato che la decodifica vincolata migliora costantemente le prestazioni fino al 4%, anche nei compiti di ragionamento.

Spiegazione semplice: Immagina di chiedere a qualcuno di risolvere un problema di matematica, ma pretendendo che scriva la risposta PRIMA di mostrare il calcolo. Ovviamente sbaglierà di più! Il problema non è usare un modulo organizzato, ma l'ORDINE dei campi.

La Soluzione: Pensare Prima, Strutturare Dopo#

L'approccio raccomandato dalla ricerca è il pattern a due fasi:

❌ SBAGLIATO (risposta prima del ragionamento):

JSON
1{
2 "risposta": "42",
3 "ragionamento": "..."
4}

✅ CORRETTO (ragionamento prima della risposta):

JSON
1{
2 "ragionamento": "Prima calcolo X, poi Y...",
3 "risposta": "42"
4}

La libreria Instructor ha mostrato che includere un campo chain_of_thought nello schema JSON aumenta le prestazioni del 60% nei benchmark di matematica.


5. Strumenti di Decodifica Vincolata#

Spiegazione semplice: La "decodifica vincolata" è come mettere "guardrail" all'IA. Invece di lasciare che l'IA scriva qualsiasi cosa, il sistema blocca i token non validi ad ogni passo, garantendo che l'output sia sempre un JSON valido. È come un modulo digitale che non ti permette di digitare lettere nel campo del numero di telefono.

Cinque Approcci Tecnici Principali#

StrumentoMetodoVelocità
Outlines (Willard & Louf, 2023)Macchina a stati finiti (FSM)Veloce, overhead minimo
XGrammar (Dong et al., 2025)Automa pushdown byte-level< 40 microsec/token, 100x più veloce
Guidance (Microsoft)Maschera token in tempo reale~50 microsec/token, 0 startup
Structured Outputs (OpenAI/Anthropic/Google)Vincolo CFG server-sideIntegrato nell'API, 100% conformità
Instructor (libreria open-source)Validazione + retry automaticoAlta conformità, non garantita al 100%

OpenAI ha lanciato Structured Outputs ad agosto 2024, raggiungendo il 100% di conformità allo schema. Anthropic (Claude) ha seguito a novembre 2025. Google Gemini usa decodifica controllata basata su schemi OpenAPI 3.0.


6. Risultati dei Benchmark#

Scoperta principale: Nessun formato (JSON, YAML, Markdown) è universalmente superiore. La differenza di qualità tra modelli grandi e piccoli (21 punti percentuali) è MOLTO maggiore di qualsiasi differenza tra formati.

Lo studio più completo fino ad oggi (McMillan, 2025) ha testato 9.649 esperimenti con 11 modelli e 4 formati e ha concluso che la scelta del formato non influisce significativamente sulla precisione aggregata.

Spiegazione semplice: È come la differenza tra calligrafia e contenuto di un tema. Cambiare la "calligrafia" (formato) fa poca differenza se lo "studente" (modello) è bravo. Un modello avanzato (GPT-4, Claude Opus) sarà più preciso indipendentemente dal formato.

Numeri Principali dei Benchmark#

BenchmarkRisultato Principale
StructuredRAG (Shorten et al., 2024)Tasso di successo medio: 82,55%. Gemini 1.5 Pro: 93,4% vs LLaMA 8B: 71,7%
FOFO (ACL 2024)La capacità di seguire il formato è indipendente dalla qualità del contenuto generato
Format Bias (Do et al., 2025)Varianza di prestazione tra formati ridotta da 235 a 0,71 con mitigazione
StructEval (arXiv, 2025)Anche i modelli di frontiera hanno punteggi limitati; la generazione è più difficile della conversione

7. Guida Pratica: Le 6 Regole d'Oro#

Sulla base di tutta la ricerca analizzata, queste sono le raccomandazioni pratiche:

Regola 1: Metti sempre 'ragionamento' prima di 'risposta'#

Non chiedere mai all'IA di dare la risposta finale come primo campo. Includi sempre un campo di ragionamento prima del campo risposta. Questo permette all'IA di "pensare" prima di rispondere, aumentando la precisione fino al 60%.

Regola 2: Usa campi con valori vincolati (enum)#

Quando possibile, definisci i valori permessi per ogni campo. Invece di lasciare che l'IA scriva qualsiasi testo, limita le opzioni:

JSON
1{
2 "stato": "in_attesa | in_corso | completato | annullato",
3 "tipo": "residenziale | commerciale | industriale"
4}

Regola 3: Combina JSON con RAG per contenuti fattuali#

Se la precisione fattuale è critica, non affidarti solo a JSON. Fornisci documenti di riferimento insieme al prompt. JSON garantisce il formato; RAG garantisce il contenuto.

Regola 4: Mantieni gli schemi semplici e piatti#

Oggetti JSON con molti livelli di nidificazione sono significativamente più difficili per l'IA. Preferisci strutture semplici e piatte quando possibile.

Regola 5: Usa Structured Outputs dell'API quando disponibile#

Se usi l'API di OpenAI, Anthropic o Google, attiva la modalità Structured Outputs. Questo garantisce il 100% di conformità allo schema senza sforzo aggiuntivo.

Regola 6: Per risparmiare token, ottimizza la rappresentazione#

Rimuovi gli spazi bianchi non necessari, usa nomi di campo corti e considera formati come YAML se la tua pipeline lo supporta. Per l'editing di JSON, usa patch (RFC 6902) invece di riscrivere l'intero documento.


8. Conclusioni#

Dopo aver analizzato oltre 30 studi accademici, tre conclusioni si distinguono:

Conclusione 1: Il risparmio di token viene dall'APPROCCIO, non da JSON#

Il JSON puro usa più token di altri formati. Tuttavia, approcci di prompting strutturato (schemi compatti, sintesi di codice, patch) offrono riduzioni reali del 30-87% nei token.

Conclusione 2: Errori di formato e di contenuto sono problemi distinti#

La decodifica vincolata elimina il 100% degli errori di formato (JSON non valido, campi mancanti). Tuttavia, gli errori di contenuto (informazioni inventate) richiedono tecniche complementari come RAG.

Conclusione 3: Il degrado del ragionamento è un problema di implementazione#

La perdita di qualità nel ragionamento non viene da JSON in sé, ma da implementazioni scadenti (disallineamento dei token, ordine dei campi sbagliato, assenza del campo di ragionamento). Framework ben implementati come Guidance e DOMINO eguagliano o superano le prestazioni senza vincoli.


9. Riferimenti Accademici#

  1. Willard, B. T. & Louf, R. (2023). "Efficient Guided Generation for Large Language Models." arXiv:2307.09702. Libreria Outlines.
  2. Tam, Z. R. et al. (2024). "Let Me Speak Freely? A Study on the Impact of Format Restrictions on LLM Performance." EMNLP 2024. arXiv:2408.02442.
  3. Geng, S. et al. (2025). "JSONSchemaBench: A Rigorous Benchmark of Structured Outputs." arXiv:2501.10868.
  4. Beurer-Kellner, L. et al. (2024). "DOMINO: Guiding LLMs The Right Way." ICML 2024. arXiv:2403.06988.
  5. Dong, Y. et al. (2025). "XGrammar: Flexible and Efficient Structured Generation Engine." MLSys 2025. arXiv:2411.15100.
  6. Yang, Y. et al. (2025). "CodeAgents: Token-Efficient Framework for Multi-Agent Reasoning." arXiv:2507.03254.
  7. Arora, S. et al. (2023). "EVAPORATE: Language Models for Structured Data Lakes." PVLDB.
  8. Béchard, C. & Ayala, O. (2024). "Reducing Hallucination in Structured Outputs via RAG." NAACL Industry. arXiv:2404.08189.
  9. Shorten, C. et al. (2024). "StructuredRAG: JSON Response Formatting with LLMs." arXiv:2408.11061.
  10. McMillan, A. (2025). "Structured Context Engineering for File-Native Agentic Systems." arXiv:2602.05447.

Share:

Questions or Feedback?

I'd love to hear your thoughts on this article. Reach out directly and let's start a conversation.

Follow me on LinkedIn for more BIM tips and updates