Corso AI in 10 puntate

Puntata 1 di 10

5 min di lettura

Perché adesso?

Tre motivi concreti per cui l'AI ha fatto il salto proprio ora — e perché capire come funziona è più utile che mai.

Probabilmente usi già l'AI ogni giorno. Per scrivere un'email difficile, per riassumere un documento lungo, per fare brainstorming quando sei a corto di idee. Forse la usi senza nemmeno chiamarla AI: un suggerimento automatico, una funzione "scrivi per me", un chatbot che risponde al posto di un operatore.

L'AI è diventata ovunque in pochissimo tempo. Troppo in fretta per capirla davvero.

Il problema è questo: la maggior parte delle persone la usa come una scatola nera. Funziona, quando funziona. Delude, quando delude. Ma nessuno sa bene perché. Nessuno sa cosa sta succedendo dentro. E senza capire cosa c'è dentro, è quasi impossibile usarla bene — sapere cosa chiederle, come chiederlo, cosa aspettarsi, e soprattutto quando fidarsi della risposta.

Questo corso serve a questo. Non a farti diventare un ingegnere. Non a farti scrivere codice. A darti la mappa concettuale che manca a quasi tutti: capire come funziona davvero l'AI, in modo da usarla meglio oggi e orientarti da solo domani, quando cambierà di nuovo.


Perché proprio adesso?

L'AI non è nuova. I ricercatori lavorano su questi problemi da decenni. Ma fino a pochi anni fa era relegata nei laboratori: costosa, complicata, accessibile solo a pochi specialisti.

Poi è cambiato tutto, quasi contemporaneamente, per tre ragioni.

La prima è il calcolo: le GPU — le schede grafiche usate inizialmente per i videogiochi — si sono rivelate perfette per i calcoli paralleli richiesti dai modelli di AI. Addestrarli è diventato molto più veloce e, grazie al cloud, accessibile a chiunque senza comprare hardware da milioni di dollari.

La seconda è i dati: internet ha prodotto miliardi di pagine di testo, milioni di conversazioni, libri, articoli, codice. Una quantità di materiale che nessun essere umano potrebbe leggere in mille vite, ma che i modelli possono assorbire e imparare a imitare.

La terza è un'architettura chiamata Transformer, introdotta nel 2017, che ha reso possibile costruire modelli molto più grandi e capaci di quelli precedenti. GPT, Claude, Gemini — tutto nasce da lì.

La tempesta perfetta: come siamo arrivati all'AI di oggi

CalcoloArchitetturaScalaTraguardo
  1. 2012

    AlexNet vince ImageNet

    GPU per deep learning

  2. 2014

    GAN inventate da Goodfellow

    Prima architettura generativa

  3. 2016

    AlphaGo batte il campione mondiale

    Go: 10^170 possibilità

  4. 2017

    "Attention is All You Need"

    Nasce il Transformer

  5. 2018

    BERT e GPT-1

    Modelli pre-addestrati su testo

  6. 2019

    GPT-2 — "troppo pericoloso"

    1.5B parametri

  7. 2020

    GPT-3 — 175B parametri

    Emergono capacità inattese

  8. 2022

    ChatGPT — 100M utenti in 60 gg

    Più veloce di qualunque prodotto nella storia

  9. 2023

    GPT-4, Llama, Claude, Gemini

    Esplosione di modelli

Tre forze si sono allineate tra il 2017 e il 2023: potenza di calcolo (GPU), dati (internet), e una nuova architettura (Transformer). Nessuna da sola sarebbe bastata.

Quando queste tre cose si sono incontrate, il risultato è stato un salto qualitativo che nessuno si aspettava così presto. E siamo ancora all'inizio.


Cosa imparerai in questo corso

Il corso è fatto di dieci puntate, ognuna leggibile in cinque-dieci minuti. Non sono lezioni da studiare: sono concetti da capire, con esempi concreti e senza tecnicismi inutili. Ogni puntata costruisce su quella precedente, ma ognuna ha senso anche da sola.

Ecco di cosa tratta ciascuna.

Puntata 2 — Cos'è un modello
Prima di entrare nei dettagli tecnici, dobbiamo capire cosa sia davvero un modello: non un programma, non un database, ma qualcosa di completamente diverso. Capirai la differenza tra la programmazione tradizionale e il machine learning, e perché questa differenza cambia tutto.

Puntata 3 — Dai dati ai token
Un modello non legge testo come lo leggiamo noi. Legge numeri. La tokenizzazione è il processo che trasforma le parole in pezzi numerici chiamati token: capire cos'è un token spiega perché il modello a volte sbaglia parole strane, perché un testo lungo diventa costoso, e come funziona il "limite di contesto".

Puntata 4 — Embedding, significati e spazi vettoriali
I token sono numeri, ma i numeri da soli non hanno significato. Gli embedding sono il modo in cui il modello rappresenta il significato: parole simili finiscono vicine, parole opposte finiscono lontane, in uno spazio a centinaia di dimensioni. È qui che il modello comincia davvero a "capire".

Puntata 5 — Dentro il Transformer
Il Transformer è l'architettura su cui si basano tutti i modelli moderni, da GPT a Claude a Gemini. Capirai il meccanismo di attenzione — come il modello decide, leggendo una frase, quali parole contano di più per capire ogni singola parola — e perché questo approccio ha cambiato tutto rispetto ai modelli precedenti.

Puntata 6 — Come si allena un modello
Un modello non viene programmato: viene addestrato. In questa puntata scoprirai come miliardi di parametri — inizialmente casuali — convergono verso qualcosa che funziona, grazie a un processo iterativo di previsione ed errore. Capirai anche la differenza tra pretraining, fine-tuning e RLHF: i tre stadi che trasformano un modello grezzo in un assistente utile.

Puntata 7 — Come genera testo un LLM
Quando scrivi un prompt e il modello risponde, cosa succede esattamente? La risposta è più strana e affascinante di quello che pensi: il modello non "sa" la risposta, la genera token per token, scegliendo ogni volta il pezzo di testo più plausibile. Capirai cosa è la temperatura, cosa sono le allucinazioni, e perché il modello a volte inventa cose che sembrano vere.

Puntata 8 — Dare al modello ciò che non sa: RAG e tools
Il modello sa solo quello che ha imparato durante l'addestramento. Se gli chiedi del tuo bilancio 2024 o delle ultime notizie, non sa rispondere. Oppure inventa. Il RAG è la tecnica che risolve questo problema: collegare il modello a fonti esterne, documenti, database, in tempo reale. Capirai come funziona e quando usarlo.

Puntata 9 — Agenti AI: quando il modello agisce da solo
Fino a qui, sei sempre tu a guidare. Ma gli agenti AI cambiano le regole: invece di rispondere a una domanda, un agente riceve un obiettivo e decide da solo quali passi fare, quali strumenti usare, come correggere gli errori. È la frontiera più interessante dell'AI pratica.

Puntata 10 — Come scegliere il modello giusto
GPT, Claude, Gemini, LLaMA, Mistral: ogni settimana esce qualcosa di nuovo, ognuno si dichiara il migliore. Come scegliere senza impazzire? In questa ultima puntata avrai gli strumenti per farlo: capire le differenze tra modelli proprietari e open-weight, come leggere i benchmark senza farti fregare, e come abbinare il modello giusto al compito giusto.


Ogni puntata è un pezzo della mappa. Alla fine del corso, non saprai costruire un modello. Ma capirai come funziona, perché si comporta come si comporta, e come usarlo bene. E questa comprensione vale molto di più di saper copiare un tutorial.

Inizia dalla puntata 2.