Ultimo capitolo dell’approfondimento che sarà alla base dei laboratori on line del 9 e del 16 marzo 2026.
Conoscere i confini
Nei tre articoli precedenti abbiamo esplorato NotebookLM seguendo un percorso progressivo, prima la logica di funzionamento, poi le funzionalità operative, infine gli scenari d’uso nel contesto bibliotecario. Chi ha seguito il percorso sa come lo strumento ragiona, cosa può fare, dove può inserirsi nel lavoro quotidiano.
Questo articolo affronta la domanda complementare, cosa NotebookLM non può fare, e cosa succede quando si incontrano quei confini.
È una domanda che vale la pena porre con attenzione, perché la risposta non è semplice come potrebbe sembrare. Alcuni limiti sono strutturali, derivano dalle scelte progettuali che rendono lo strumento utile in primo luogo. Il fatto che NotebookLM lavori solo con le fonti caricate è contemporaneamente il suo punto di forza e il suo vincolo più evidente. Altri limiti sono pratici, legati alla versione attuale dello strumento e destinati probabilmente a evolversi nel tempo. Distinguere tra i due tipi aiuta a formarsi aspettative realistiche.
Ma l’articolo non si ferma all’analisi dei limiti. Nella seconda parte vedremo che i confini di NotebookLM possono essere superati attraverso l’integrazione con altri strumenti di intelligenza artificiale. Google stessa ha aperto questa strada con una funzionalità recente che collega NotebookLM a Gemini, il proprio modello conversazionale. E oltre a questa via ufficiale ne esistono altre, che mostrano come strumenti diversi possano collaborare per ottenere risultati che nessuno di essi raggiungerebbe da solo.
Conoscere i confini di uno strumento non è un esercizio di scetticismo ma di competenza professionale. Sapere dove finiscono le possibilità di NotebookLM è ciò che permette di usarlo al meglio e, quando serve, di andare oltre.
Cosa NotebookLM non fa
L’articolo sul funzionamento dello strumento ha già trattato i limiti numerici della versione gratuita, il numero massimo di notebook, di fonti per notebook, di domande giornaliere. Sono parametri da tenere presenti ma che nella pratica raramente rappresentano un ostacolo. I limiti di cui parliamo qui sono di natura diversa, riguardano ciò che lo strumento non è progettato per fare.
Il primo è l’isolamento dei notebook. Ogni notebook è un ambiente chiuso, indipendente dagli altri. Lavorando all’interno di NotebookLM non esiste la possibilità di porre una domanda che attraversi più notebook contemporaneamente, né di creare collegamenti tra materiali presenti in spazi di lavoro diversi. Se un bibliotecario ha un notebook dedicato alla documentazione normativa e un altro ai materiali per una guida tematica, e vuole verificare se una certa norma ha implicazioni per i testi selezionati, deve farlo manualmente, consultando i due notebook separatamente. L’unico modo per aggirare questa limitazione restando all’interno di NotebookLM è creare un notebook che contenga tutte le fonti rilevanti, ma questo può diventare poco pratico quando i materiali appartengono a contesti diversi.
Il secondo limite riguarda l’assenza di accesso a conoscenze esterne durante la fase di interrogazione. Come abbiamo visto nel primo articolo, NotebookLM distingue nettamente tra una fase di acquisizione, in cui lo strumento è aperto verso l’esterno e può cercare fonti sul web o su Google Drive, e una fase di elaborazione, in cui lavora esclusivamente con i materiali presenti nel notebook. Nella fase di elaborazione NotebookLM non può andare autonomamente a cercare informazioni sul web per costruire o integrare una risposta. Se una domanda richiede dati che non sono presenti nelle fonti caricate, lo strumento lo dichiara invece di provare a completare la risposta con conoscenze esterne. Nella maggior parte degli scenari descritti nell’articolo precedente questo è un vantaggio, perché garantisce che ogni risposta sia riconducibile a documenti verificabili. Ma ci sono situazioni in cui serve contestualizzare un’informazione con dati di sfondo che nessun documento nel notebook contiene, e in quei casi lo strumento non può aiutare.
Il terzo limite è l’assenza di sincronizzazione delle fonti. Quando un documento viene modificato nella sua versione originale, la copia presente nel notebook resta quella del momento dell’importazione. L’aggiornamento richiede un intervento manuale per rimuovere la fonte obsoleta e caricare quella aggiornata. Per notebook con pochi documenti è un passaggio gestibile, ma per ambienti di lavoro con molte fonti soggette a revisioni frequenti può diventare oneroso e, soprattutto, è facile dimenticarsene. Il rischio concreto è lavorare con fonti non aggiornate senza rendersene conto.
Il quarto limite non è specifico di NotebookLM ma riguarda l’intelligenza artificiale in generale, e vale la pena menzionarlo perché incide sull’uso pratico. La trascrizione automatica dei contenuti audio funziona bene quando il parlato è chiaro e ben articolato, ma la qualità degrada con registrazioni in ambienti rumorosi, con più voci sovrapposte o con pronunce marcatamente diverse dallo standard. Allo stesso modo, l’analisi di documenti con elementi grafici complessi, tabelle elaborate o testi manoscritti produce risultati variabili con qualsiasi strumento di intelligenza artificiale, NotebookLM incluso. Per fondi speciali con documenti storici o manoscritti, come descritto nell’articolo precedente, il risultato dipende fortemente dalla leggibilità del materiale di partenza.
Un ultimo aspetto merita attenzione. La qualità informativa degli output di NotebookLM dipende direttamente dalla qualità delle fonti caricate, se i documenti contengono informazioni accurate lo strumento le restituirà fedelmente, se contengono errori o imprecisioni queste si rifletteranno nei risultati. La responsabilità nella selezione delle fonti, di cui abbiamo parlato fin dal primo articolo, resta il fattore determinante. Per quanto riguarda invece lo stile e il formato degli output, vale la pena ricordare che NotebookLM offre strumenti di controllo che non sempre vengono sfruttati appieno. Il prompt di configurazione della chat, che può arrivare fino a 10.000 caratteri, permette di definire in dettaglio il tono, il pubblico di riferimento, il livello di dettaglio e le convenzioni da seguire nelle risposte. Non elimina la necessità di una revisione finale, che resta buona pratica con qualsiasi strumento di intelligenza artificiale, ma riduce significativamente la distanza tra l’output generato e il prodotto desiderato.
Quando NotebookLM non è la soluzione
Conoscere i limiti dello strumento permette di fare un passo ulteriore, riconoscere le situazioni in cui NotebookLM non è lo strumento giusto per il compito da svolgere.
Quando il lavoro richiede informazioni aggiornate in tempo reale NotebookLM non è la scelta appropriata. Un bibliotecario che deve rispondere a una richiesta di reference su un tema di attualità, verificare lo stato corrente di un servizio o trovare dati statistici recenti ha bisogno di strumenti che accedano a fonti aggiornate al momento della richiesta. NotebookLM lavora con i documenti che contiene, e quei documenti riflettono il momento in cui sono stati caricati.
Allo stesso modo, quando l’obiettivo è produrre un’analisi che richiede il confronto sistematico tra ciò che dicono le proprie fonti e ciò che esiste al di fuori di esse, NotebookLM da solo non è sufficiente. Un esempio concreto, se si vuole verificare se la propria documentazione interna è allineata con le normative più recenti, servono sia le fonti interne, che NotebookLM gestisce bene, sia l’accesso alla normativa aggiornata, che va cercata altrove.
C’è poi una categoria di lavoro in cui lo strumento è utilizzabile ma non è il più efficiente. Quando si lavora con un singolo documento breve e lo si conosce bene, creare un notebook per interrogarlo aggiunge un passaggio che potrebbe non giustificare il tempo investito. NotebookLM esprime il suo valore quando i materiali sono numerosi, distribuiti su più documenti o abbastanza estesi da rendere la consultazione diretta onerosa. Per un documento di poche pagine che si padroneggia già, la lettura diretta resta spesso la via più rapida.
Riconoscere quando uno strumento non è adatto a un compito è parte della competenza necessaria per usarlo bene. Non tutto deve passare per NotebookLM, così come non tutto deve passare per qualsiasi altro strumento. La scelta dipende dal tipo di lavoro, dai materiali disponibili e dal risultato che si vuole ottenere.
L’integrazione in Gemini
Fino a questo punto l’articolo ha descritto i confini di NotebookLM come caratteristiche fisse dello strumento. Ma il panorama è cambiato. A partire da dicembre 2025 Google ha introdotto una funzionalità che modifica in modo significativo le possibilità di lavoro con la connessione diretta tra NotebookLM e Gemini, il modello conversazionale di Google.
Per capire cosa significa in pratica conviene tornare a un concetto descritto nel primo articolo della serie. NotebookLM funziona come un ambiente sigillato, durante la fase di elaborazione lo strumento lavora solo con le fonti presenti nel notebook, senza accedere a conoscenze esterne. Questo sigillo è il meccanismo che garantisce risposte verificabili e riconducibili a documenti precisi. L’integrazione con Gemini permette di aprire quel sigillo in modo controllato.
Il meccanismo è semplice. Nell’interfaccia di Gemini è possibile allegare uno o più notebook di NotebookLM come fonti di una conversazione. Da quel momento Gemini ha accesso ai materiali contenuti in quei notebook e può utilizzarli insieme alle proprie capacità, ragionamento su conoscenze più ampie, ricerca sul web, generazione di contenuti in formati diversi. I notebook restano intatti in NotebookLM, Gemini vi accede in lettura.
Cosa cambia concretamente? I limiti descritti nelle sezioni precedenti vengono in parte superati. L’isolamento tra notebook diversi si riduce, perché si possono allegare più notebook alla stessa conversazione e porre domande trasversali che NotebookLM da solo non consentirebbe. L’assenza di accesso a conoscenze esterne viene compensata dalle capacità di Gemini, che può integrare le informazioni presenti nelle fonti con ricerche sul web o con la propria base di conoscenza. La contestualizzazione che mancava diventa possibile.
Un esempio rende il concetto più concreto. Riprendiamo lo scenario della documentazione interna descritto nell’articolo precedente. Un bibliotecario ha un notebook con i regolamenti di servizio e un altro con le linee guida regionali. In NotebookLM dovrebbe consultarli separatamente. Attraverso Gemini può allegarli entrambi alla stessa conversazione e chiedere un confronto diretto, per esempio verificare se una procedura interna è coerente con le indicazioni regionali più recenti. Se le linee guida regionali sono cambiate dopo il caricamento delle fonti, Gemini può cercare la versione aggiornata sul web e includerla nel confronto.
È importante notare cosa si perde in questo passaggio. Quando si lavora in Gemini con i notebook allegati si esce dall’ambiente controllato di NotebookLM. Le risposte di Gemini possono integrare le fonti caricate con altre informazioni, il che è utile ma significa anche che non ogni affermazione è necessariamente riconducibile ai documenti del notebook. Il sistema di citazioni puntuali che caratterizza NotebookLM, con i riferimenti cliccabili ai passaggi specifici delle fonti, non si replica nella stessa forma nell’interfaccia di Gemini. Si guadagna in flessibilità, si perde in tracciabilità.
L’integrazione è accessibile a chiunque abbia un account Google, non richiede configurazioni tecniche e funziona sia nella versione web sia nell’app mobile di Gemini. È il primo passo verso un uso di NotebookLM che va oltre i confini del singolo strumento, restando all’interno dell’ecosistema Google.
L’integrazione in Claude attraverso MCP
L’integrazione con Gemini resta all’interno dell’ecosistema Google, uno strumento di Google che dialoga con un altro strumento di Google. Ma la possibilità di far dialogare NotebookLM con strumenti esterni esiste, e apre prospettive diverse.
Per spiegare come, serve introdurre brevemente un concetto tecnico. Il Model Context Protocol, abbreviato MCP, è uno standard aperto che permette a un modello di intelligenza artificiale di connettersi con il mondo digitale esterno, servizi web, database, applicazioni, altri strumenti software. Si può pensarlo come un ponte che consente a un’AI di andare oltre le proprie capacità native, interagendo con risorse che altrimenti non potrebbe raggiungere. Grazie a questo protocollo è possibile costruire connessioni tra strumenti che non sono stati progettati per lavorare insieme.
Attraverso un server MCP sviluppato per questo scopo dall’autore di questo articolo, Claude, il modello conversazionale di Anthropic, può interrogare direttamente i notebook di NotebookLM. È un caso particolare e interessante, un server MCP che collega due intelligenze artificiali, permettendo a un modello di utilizzare come fonte di conoscenza i materiali curati e organizzati nell’ambiente di lavoro dell’altro.
Perché usare un modello diverso se NotebookLM e Gemini funzionano già bene insieme? La risposta sta nelle differenze tra i modelli. Ogni modello di intelligenza artificiale ha punti di forza specifici, capacità di ragionamento, gestione di testi lunghi, analisi di documenti complessi, stile di scrittura. Per certi tipi di lavoro un modello può essere più adatto di un altro. Un corpus di documenti giuridici, per esempio, richiede capacità di analisi e di ragionamento che possono beneficiare delle caratteristiche specifiche di un modello piuttosto che di un altro. Lo stesso corpus in NotebookLM, interrogato attraverso modelli diversi, può produrre analisi con livelli di profondità e sfumature differenti.
C’è un aspetto ulteriore che distingue questa specifica integrazione da quella con Gemini, e riguarda il controllo sulla fedeltà alle fonti. Quando si collega NotebookLM a un modello esterno, il rischio è che il modello ricevente aggiunga alle risposte di NotebookLM informazioni tratte dalla propria base di conoscenza, mescolando ciò che proviene dai documenti con ciò che proviene dall’addestramento del modello. Il server MCP di cui stiamo parlando è stato progettato specificamente per affrontare questo problema, e lo fa su entrambi i lati della comunicazione, struttura le domande inviate a NotebookLM in modo da ottenere risposte ancorate alle fonti, allo stesso tempo istruisce Claude a mantenere la separazione tra ciò che proviene dai documenti e ciò che eventualmente aggiunge come contesto. Non è una caratteristica di tutti i server MCP ma una scelta progettuale di questo server specifico, pensata per gli usi professionali in cui la provenienza delle informazioni deve restare tracciabile.
L’altra differenza significativa riguarda l’ambiente di lavoro. L’integrazione con Gemini avviene nel browser, all’interno dell’ecosistema Google. L’integrazione con Claude attraverso MCP avviene invece attraverso Claude Desktop o Cowork, applicazioni che operano sul computer dell’utente. Il server MCP è locale, gira sulla stessa macchina su cui si lavora, e questo apre possibilità diverse. Claude Desktop può interagire direttamente con il file system del computer, con applicazioni locali, con altri server MCP che collegano strumenti diversi. È un tipo di orchestrazione che va oltre il browser e che prefigura un modo di lavorare in cui l’intelligenza artificiale non è un sito da visitare ma un sistema integrato nell’ambiente di lavoro quotidiano.
Questa integrazione non è alla portata di tutti. Richiede la configurazione di un ambiente tecnico, l’installazione di componenti software e una familiarità con strumenti che vanno oltre l’uso quotidiano di un browser. Non è l’argomento di questo articolo e non è un requisito per trarre valore da NotebookLM. Ma sapere che questa possibilità esiste è utile per due ragioni, mostra la direzione in cui si muove il settore e aiuta a valutare le proprie esigenze. Se in futuro un progetto richiederà capacità che superano ciò che NotebookLM offre da solo, la strada per estenderne le possibilità è già tracciata.
Strumenti che collaborano
Questa serie di articoli ha percorso NotebookLM dall’interno verso l’esterno. Siamo partiti dalla logica di funzionamento, abbiamo attraversato le funzionalità operative, esplorato scenari d’uso concreti per il contesto bibliotecario, e infine in questo articolo abbiamo guardato oltre i confini dello strumento, gli strumenti di intelligenza artificiale sono più utili quando collaborano tra loro che quando si usano singolarmente. NotebookLM da solo è uno strumento efficace per lavorare con i propri documenti. NotebookLM collegato a Gemini diventa uno strumento più flessibile, capace di contestualizzare le proprie fonti con conoscenze più ampie. NotebookLM integrato con Claude attraverso MCP diventa un componente in un sistema di lavoro che può coinvolgere strumenti diversi, ciascuno con le proprie capacità specifiche.
Questa progressione riflette una tendenza più ampia. Il valore non sta nel singolo strumento ma nella capacità di combinarli in base alle proprie esigenze. È un principio che i bibliotecari conoscono bene, nessuna risorsa informativa è autosufficiente, il valore emerge dalla capacità di selezionare, combinare e mettere in relazione fonti diverse. Lo stesso vale per gli strumenti di intelligenza artificiale.
Per chi sta iniziando a sperimentare il consiglio resta quello dell’articolo precedente, partire da un caso semplice, con materiali che si conoscono bene, e ampliare progressivamente il perimetro. NotebookLM nella sua versione base offre già tutto il necessario per verificare se lo strumento è utile nel proprio contesto di lavoro. Le possibilità di integrazione descritte in questo articolo sono orizzonti da tenere presenti, non prerequisiti per iniziare.
Il panorama degli strumenti di intelligenza artificiale evolve rapidamente. Funzionalità che oggi richiedono configurazioni tecniche potrebbero diventare accessibili a tutti domani, e nuove possibilità che oggi non esistono potrebbero emergere nel prossimo futuro. Ciò che resta costante è la competenza di chi li usa, la sua capacità di selezionare i materiali giusti, di porre le domande pertinenti, di valutare criticamente i risultati. È quella competenza, non lo strumento, a determinare la qualità del lavoro.
Paolo Dalprato
- Leggi il primo articolo del 2 febbraio 2026
- Leggi il secondo articolo del 9 febbraio 2026
- Leggi il terzo articolo del 16 febbraio 2026
