Un Modello di Linguaggio di Grande Scala (LLM) è un tipo di sistema di intelligenza artificiale addestrato a comprendere e generare testo. È la tecnologia dietro strumenti come ChatGPT, Claude e Gemini. Nonostante il nome tecnico, l'idea di base è semplice: un LLM apprende modelli di linguaggio leggendo enormi quantità di testo, quindi utilizza quei modelli per prevedere cosa dovrebbe venire dopo in una determinata sequenza di parole.

Come vengono addestrati gli LLM

L'addestramento avviene in due fasi principali:

  • Pre-addestramento. Il modello legge miliardi di documenti da internet, libri e altre fonti. A ogni passo, gli viene data una porzione di testo con le ultime parole nascoste e impara a prevedere quali dovrebbero essere quelle parole. Questo processo si esegue su migliaia di chip di computer specializzati (GPU o TPU) per settimane o mesi. Alla fine, il modello ha imparato la grammatica, i fatti, i modelli di ragionamento e molto altro — semplicemente imparando a prevedere la parola successiva.
  • Addestramento fine. Il modello pre-addestrato grezzo è utile ma imprevedibile. Gli sviluppatori lo addestrano ulteriormente su set di dati curati di conversazioni umane e utilizzano una tecnica chiamata Apprendimento per Rinforzo con Feedback Umano (RLHF) — dove i valutatori umani valutano le risposte del modello e il modello si adatta per produrre risposte con valutazioni più elevate. È questo che fa sì che ChatGPT o Claude sembrino un assistente utile e non un generatore di testo casuale.

Concetti chiave che incontrerai

Token

Gli LLM non elaborano il testo carattere per carattere o parola per parola. Invece, dividono il testo in token — porzioni che sono approssimativamente di 3-4 caratteri in media. La parola "comprensione" potrebbe essere un token; una parola meno comune come "epistemologia" potrebbe essere divisa in tre. Il prezzo della maggior parte degli strumenti di intelligenza artificiale è indicato in token (ad es. "$0,003 per 1.000 token").

Finestra di contesto

La finestra di contesto è quanto testo un LLM può "vedere" contemporaneamente — sia il tuo input che il suo output precedente. I modelli iniziali avevano finestre di contesto di 4.096 token (circa 3.000 parole). I modelli moderni come GPT-4 e Claude 3 supportano centinaia di migliaia di token, rendendo possibile l'elaborazione di interi libri in una sola richiesta. Una finestra di contesto più grande è direttamente utile per attività come la sintesi di documenti lunghi o il mantenimento di conversazioni lunghe.

Parametri

I parametri sono i valori numerici all'interno del modello che codificano tutto ciò che ha imparato durante l'addestramento. Le dimensioni del modello sono descritte in miliardi di parametri: GPT-3 aveva 175 miliardi, mentre modelli più recenti si dice siano nel trilione. Più parametri significano generalmente più capacità, ma anche più costi di calcolo per eseguire.

Temperatura

La temperatura controlla quanto il modello è "creativo" o imprevedibile. A temperatura 0, il modello sceglie sempre il token più statisticamente probabile — gli output sono deterministici e ripetitivi. A temperature più elevate, il modello campiona da un'ampia gamma di token possibili, producendo testo più vario e a volte più creativo (ma anche più erratico). La maggior parte degli strumenti di scrittura di intelligenza artificiale consente di regolare questo cursore.

Cosa sono bravi a fare gli LLM

  • Sintetizzare e riscrivere il testo
  • Tradurre tra lingue
  • Rispondere a domande in base al contesto che fornisci
  • Scrivere e modificare codice
  • Redigere email, rapporti e materiale di marketing
  • Spiegare argomenti complessi in termini semplici

Cosa non sono bravi a fare gli LLM

  • Ricordo dei fatti affidabile. Gli LLM spesso "allucinano" — producono testo che sembra sicuro ma è fatto falsamente. Non affidarti mai a un LLM per citazioni, statistiche o qualsiasi cosa che richieda dati verificati senza controllare indipendentemente.
  • Informazioni in tempo reale. La conoscenza di un modello ha una data di scadenza. Non può dirti il prezzo delle azioni di oggi o le notizie di ieri a meno che non abbia uno strumento di ricerca web allegato.
  • Ragionamento coerente su lunghe catene di logica. Per attività che richiedono molti passaggi sequenziali di ragionamento preciso (ad esempio, matematica complessa), i modelli continuano a fare errori.

I principali modelli nel 2026

Il panorama si è consolidato intorno a un pugno di fornitori all'avanguardia:

  • OpenAI — GPT-4o e la serie di modelli di ragionamento o-series
  • Anthropic — Claude 3 e 4 serie (con focus su sicurezza e contesto lungo)
  • Google — Gemini 1.5 e 2.0 (integrato con Google Workspace)
  • Meta — Llama 3 (pesi aperti, esegue localmente)
  • Mistral — Modelli open-source efficienti

La maggior parte degli strumenti di intelligenza artificiale che valuti su questo sito utilizza uno dei modelli sopra come motore sottostante, quindi costruisce un prodotto specializzato — un assistente di scrittura, uno strumento SEO, un aiuto per la codifica e così via.

Riepilogo

Un LLM è un motore statistico addestrato a prevedere testo plausibile. La sua intelligenza è reale ma diversa dall'intelligenza umana: riconoscimento di modelli ampi piuttosto che comprensione profonda. L'implicazione pratica è che gli LLM sono potenti acceleratori per la scrittura, la codifica e il lavoro con le informazioni — ma richiedono una sollecitazione accurata e una revisione umana per essere utilizzati in modo affidabile. La prossima guida tratta proprio di questo.