Gemini_Generated_Image_5re0k05re0k05re0

Approfondimento sull’LLM: Perché i Gemelli "si accorgono" di più e cosa significa davvero "knowledge cutoff"!

Un contributo di Sophie Hundertmark.

Sophie Hundertmark è un “esperta nell” uso pratico dell “intelligenza artificiale con particolare attenzione ai chatbot, alle strategie di AI e all” integrazione responsabile delle tecnologie. È ricercatrice e docente presso l’Università di Scienze Applicate e Arti di Lucerna e attualmente sta scrivendo la sua tesi di laurea nel campo dell’IA conversazionale presso l’Università di Friburgo. In qualità di consulente, supporta aziende, amministrazioni e istituti scolastici nell’introduzione di soluzioni AI efficaci. Scopri di più su Sophie Hundertmark su Linkedin.

Di recente ho condiviso un post su quanto sono stata felice con Gemini ultimamente, spesso più di ChatGPT. Il motivo? A me sembra che i Gemelli possano ricordare "più contesto". Ho approfondito l’argomento per questo articolo e ho trovato una panoramica utile ed entusiasmante! Puoi trovare la fonte qui: Panoramica dei principali modelli linguistici (LLM).

Cosa sono questi LLM e perché tutti ne parlano?

Prima di entrare nel dettaglio, chiariamo brevemente di cosa stiamo parlando: Gli LLM sono i "cervelli" dietro a molte delle applicazioni di intelligenza artificiale che potresti già utilizzare, dai generatori di testo ai chatbot, come ChatGPT, agli assistenti intelligenti. Immagina che un LLM sia come una gigantesca enciclopedia che non solo conosce le parole e i fatti, ma capisce anche come sono costruite le frasi, come comunicano le persone e il significato delle parole. Sono addestrati a riconoscere modelli in enormi quantità di dati testuali e quindi a comprendere e generare essi stessi il linguaggio umano. L’aspetto affascinante è che questi modelli non si limitano a riprodurre le informazioni, ma sono in grado di scrivere testi nuovi, creativi e coerenti sulla base delle conoscenze acquisite. Per noi, nel nostro lavoro quotidiano, questo rende incredibilmente più facili ed efficienti molte attività legate alle lingue, sia che si tratti di redigere email, di fare brainstorming o di creare contenuti.

Il segreto del "contesto" – Perché i Gemelli "notano" di più

È qui che ho avuto il mio momento "aha" con i Gemelli! Quando dico che Gemini ricorda "più contesto", mi riferisco a qualcosa di molto importante nel mondo dei LLM: la finestra di contesto. Immagina di parlare con qualcuno. Se questa persona ricorda tutto ciò che avete discusso negli ultimi dieci minuti, la conversazione sarà fluida e coerente. Ma se riesce a ricordare solo le ultime due frasi, sarà difficile avere una conversazione approfondita, no?

La situazione è simile a quella dei LLM. Ogni conversazione con un LLM consiste in una serie di "gettoni". Un token è la più piccola unità di informazione che un LLM può elaborare. Può essere una parola, un segno di punteggiatura o anche solo una parte di una parola. La finestra di contesto di un LLM determina quanti di questi token può "ricordare" contemporaneamente per comprendere la richiesta corrente e generare una risposta adeguata. Più grande è questa finestra, più il modello può tenere d’occhio la nostra conversazione precedente.

Se guardiamo la tabella degli argomenti esplosivi, diventa subito chiaro perché ho questa impressione:

  • Gemini 2.0 Pro, ad esempio, ha una finestra di contesto di 2.000.000 di gettoni!
  • Anche Gemini 2.5 Pro è enorme con 1.000.000 di gettoni (presto anche 2.000.000).
  • In confronto, molti modelli di ChatGPT (come GPT-o4-mini, GPT-o3) hanno spesso "solo" 200.000 gettoni o addirittura GPT-4o e GPT-4o mini con 128.000 gettoni.

Come puoi vedere, la differenza è enorme! Ed è proprio per questo che le mie interazioni con i Gemelli sono spesso molto più fluide e profonde. Quando lavoro su un argomento per un periodo di tempo più lungo o quando devo affrontare compiti complessi, il Gemelli è in grado di prendere in considerazione tutto ciò che abbiamo discusso e di fornirmi risposte più precise e pertinenti. È come se ascoltasse e ricordasse i miei pensieri.

Il "Knowledge Cutoff" – Quando è nata l’IA?

Un altro punto importante che appare nella panoramica è la Knowledge Cutoff Date. Ho anche pubblicato un commento su LinkedIn che potrebbe essere interessante per molti di voi. Questo "cut-off di conoscenza" si riferisce semplicemente alla data in cui è stato formato il LLM. Tutte le informazioni create dopo questa data sono sconosciute al modello a causa della sua formazione originale.

Anche in questo caso vale la pena dare un’occhiata alla tabella:

  • Molti modelli Gemini (ad esempio Gemini 2.0 Pro) prevedono un taglio delle conoscenze ad agosto 2024 o addirittura a gennaio 2025 (Gemini 2.5 Pro).
  • Alcuni modelli GPT (ad esempio GPT-4.1) hanno un cut-off a maggio 2024 o ottobre 2023 (GPT-4o).

Ciò significa che le conoscenze di base del modello sono aggiornate solo fino a questa data chiave. Tuttavia, qui entra in gioco un aspetto cruciale di cui devi essere consapevole: Alcuni LLM, come Gemini, non si limitano a questa "data di formazione" quando si tratta di informazioni aggiornate. Hai la possibilità di accedere ai dati attuali tramite Internet. Questo è un gioco che cambia le carte in tavola! Anche se le conoscenze acquisite durante la formazione possono essere "vecchie", possono utilizzare la ricerca sul web per incorporare le informazioni più recenti nelle tue risposte. Questo è estremamente importante, soprattutto per noi che lavoriamo in un ambiente in rapida evoluzione, perché ci permette di rimanere sempre aggiornati senza dover aspettare il prossimo ciclo di formazione del modello.

Cosa significa tutto questo per te nella pratica?

In qualità di utenti orientati alla pratica, puoi trarre enormi vantaggi da questi sviluppi. Una finestra contestuale ampia significa:

  • Migliore gestione delle conversazioni: puoi avere conversazioni più lunghe e complesse senza che il modello perda il filo.
  • Risultati più coerenti: Se hai creato un testo più lungo o stai lavorando a un progetto, i risultati saranno più omogenei e coerenti tra le varie richieste.
  • Meno ripetizioni: Non devi ripetere continuamente le stesse informazioni al modello, perché lo ricorda meglio.

E la possibilità di accedere ai dati attuali significa per te:

  • Sempre aggiornato: ottieni risposte basate sulle informazioni più recenti, anche se le conoscenze di base del modello sono più vecchie.
  • Informazioni più affidabili: Particolarmente importante quando si tratta di argomenti in rapida evoluzione, analisi di mercato o eventi attuali.

Spero che questo piccolo "tuffo" nel mondo degli LLM sia stato illuminante per te come lo è stato per me! È affascinante vedere come la tecnologia alla base di questi modelli influenzi e migliori il nostro lavoro quotidiano. Se hai domande o vuoi condividere le tue esperienze, contattaci in qualsiasi momento! Sono sempre felice dello scambio.

Prenota ora
La tua consulenza personale

Hai bisogno di supporto o hai delle domande? Allora prendi semplicemente un appuntamento con me per avere una consulenza personalizzata. Non vedo l’ora di vederti!

> Concetto e strategia

> Keynote, workshop e contributi di esperti

> Chatbot, Voicebot, ChatGPT

Ulteriori contributi

Un buon contenuto costa tempo...

... Il tempo a volte è denaro.

Ma puoi pagare una piccola somma come ringraziamento per il tuo lavoro qui.