Corso AI in 10 puntate

Puntata 1

Perché adesso?

Probabilmente usi già l'AI ogni giorno. Per scrivere un'email difficile, per riassumere un documento lungo, per fare brainstorming quando sei a corto di idee. Forse la usi senza nemmeno chiamarla AI: un suggerimento automatico, una funzione "scrivi per me", un chatbot che risponde al posto di un operatore.

L'AI è diventata ovunque in pochissimo tempo. Troppo in fretta per capirla davvero.

Il problema è questo: la maggior parte delle persone la usa come una scatola nera. Funziona, quando funziona. Delude, quando delude. Ma nessuno sa bene perché. Nessuno sa cosa sta succedendo dentro. E senza capire cosa c'è dentro, è quasi impossibile usarla bene — sapere cosa chiederle, come chiederlo, cosa aspettarsi, e soprattutto quando fidarsi della risposta.

Questo corso serve a questo. Non a farti diventare un ingegnere. Non a farti scrivere codice. A darti la mappa concettuale che manca a quasi tutti: capire come funziona davvero l'AI, in modo da usarla meglio oggi e orientarti da solo domani, quando cambierà di nuovo.


Perché proprio adesso?

L'AI non è nuova. I ricercatori lavorano su questi problemi da decenni. Ma fino a pochi anni fa era relegata nei laboratori: costosa, complicata, accessibile solo a pochi specialisti.

Poi è cambiato tutto, quasi contemporaneamente, per tre ragioni.

La prima è il calcolo: le GPU — le schede grafiche usate inizialmente per i videogiochi — si sono rivelate perfette per i calcoli paralleli richiesti dai modelli di AI. Addestrarli è diventato molto più veloce e, grazie al cloud, accessibile a chiunque senza comprare hardware da milioni di dollari.

La seconda è i dati: internet ha prodotto miliardi di pagine di testo, milioni di conversazioni, libri, articoli, codice. Una quantità di materiale che nessun essere umano potrebbe leggere in mille vite, ma che i modelli possono assorbire e imparare a imitare.

La terza è un'architettura chiamata Transformer, introdotta nel 2017, che ha reso possibile costruire modelli molto più grandi e capaci di quelli precedenti. GPT, Claude, Gemini — tutto nasce da lì.

Quando queste tre cose si sono incontrate, il risultato è stato un salto qualitativo che nessuno si aspettava così presto. E siamo ancora all'inizio.


Cosa imparerai in questo corso

Il corso è fatto di dieci puntate, ognuna leggibile in cinque-dieci minuti. Non sono lezioni da studiare: sono concetti da capire, con esempi concreti e senza tecnicismi inutili. Ogni puntata costruisce su quella precedente, ma ognuna ha senso anche da sola.

Ecco di cosa tratta ciascuna.

Puntata 2 — Cos'è un modello
Prima di entrare nei dettagli tecnici, dobbiamo capire cosa sia davvero un modello: non un programma, non un database, ma qualcosa di completamente diverso. Capirai la differenza tra la programmazione tradizionale e il machine learning, e perché questa differenza cambia tutto.

Puntata 3 — Dai dati ai token
Un modello non legge testo come lo leggiamo noi. Legge numeri. La tokenizzazione è il processo che trasforma le parole in pezzi numerici chiamati token: capire cos'è un token spiega perché il modello a volte sbaglia parole strane, perché un testo lungo diventa costoso, e come funziona il "limite di contesto".

Puntata 4 — Embedding, significati e spazi vettoriali
I token sono numeri, ma i numeri da soli non hanno significato. Gli embedding sono il modo in cui il modello rappresenta il significato: parole simili finiscono vicine, parole opposte finiscono lontane, in uno spazio a centinaia di dimensioni. È qui che il modello comincia davvero a "capire".

Puntata 5 — Dentro il Transformer
Il Transformer è l'architettura su cui si basano tutti i modelli moderni, da GPT a Claude a Gemini. Capirai il meccanismo di attenzione — come il modello decide, leggendo una frase, quali parole contano di più per capire ogni singola parola — e perché questo approccio ha cambiato tutto rispetto ai modelli precedenti.

Puntata 6 — Come si allena un modello
Un modello non viene programmato: viene addestrato. In questa puntata scoprirai come miliardi di parametri — inizialmente casuali — convergono verso qualcosa che funziona, grazie a un processo iterativo di previsione ed errore. Capirai anche la differenza tra pretraining, fine-tuning e RLHF: i tre stadi che trasformano un modello grezzo in un assistente utile.

Puntata 7 — Come genera testo un LLM
Quando scrivi un prompt e il modello risponde, cosa succede esattamente? La risposta è più strana e affascinante di quello che pensi: il modello non "sa" la risposta, la genera token per token, scegliendo ogni volta il pezzo di testo più plausibile. Capirai cosa è la temperatura, cosa sono le allucinazioni, e perché il modello a volte inventa cose che sembrano vere.

Puntata 8 — Dare al modello ciò che non sa: RAG e tools
Il modello sa solo quello che ha imparato durante l'addestramento. Se gli chiedi del tuo bilancio 2024 o delle ultime notizie, non sa rispondere. Oppure inventa. Il RAG è la tecnica che risolve questo problema: collegare il modello a fonti esterne, documenti, database, in tempo reale. Capirai come funziona e quando usarlo.

Puntata 9 — Agenti AI: quando il modello agisce da solo
Fino a qui, sei sempre tu a guidare. Ma gli agenti AI cambiano le regole: invece di rispondere a una domanda, un agente riceve un obiettivo e decide da solo quali passi fare, quali strumenti usare, come correggere gli errori. È la frontiera più interessante dell'AI pratica.

Puntata 10 — Come scegliere il modello giusto
GPT, Claude, Gemini, LLaMA, Mistral: ogni settimana esce qualcosa di nuovo, ognuno si dichiara il migliore. Come scegliere senza impazzire? In questa ultima puntata avrai gli strumenti per farlo: capire le differenze tra modelli proprietari e open-weight, come leggere i benchmark senza farti fregare, e come abbinare il modello giusto al compito giusto.


Ogni puntata è un pezzo della mappa. Alla fine del corso, non saprai costruire un modello. Ma capirai come funziona, perché si comporta come si comporta, e come usarlo bene. E questa comprensione vale molto di più di saper copiare un tutorial.

Inizia dalla puntata 2.