caricato da grispule

Intelligenza-Artificiale-Pratica -guida-operativa-alluso-di-ChatGPT-e-Perplexity-per-cogliere-le-opportunita-digitali-1

1
Intelligenza Artificiale Pratica: ​
Guida operativa all’uso di ChatGPT e
Perplexity per cogliere le opportunità digitali.
Progetto Grafico e Redazione
Biesse Solution s.r.l. con sede in
Viale A. La Falce, 85 – 87040 San Lorenzo del Vallo (CS)
© copyright 2025 By Biesse Solution s.r.l - Scuola Moscati
PROPRIETA’ LETTERARIA RISERVATA
ISBN 9791280846013
Data di Pubblicazione 07/05/2025
Tutti i diritti appartengono a Biesse Solution Srl. Non è consentita la copia, la modifica o la
riproduzione di alcuna parte di questo libro senza l'autorizzazione scritta da parte di Biesse Solution
Srl. L'utilizzo non autorizzato costituisce una violazione dei diritti d'autore e delle leggi sui diritti
d'autore. Qualsiasi violazione sarà perseguita.
2
📘 1. Introduzione all’intelligenza artificiale (IA)
1.​ Cos’è l’intelligenza artificiale​
2.​ Perché oggi tutti parlano di IA​
3.​ Tipi di intelligenza artificiale​
4.​ L’IA debole vs l’IA forte​
5.​ Applicazioni comuni dell’IA​
6.​ Il ruolo dell’IA generativa​
7.​ L’intelligenza artificiale come opportunità e sfida​
📘 2. Storia e sviluppo dell’IA
1.​ Le origini dell’IA: dagli anni ‘50 a oggi​
2.​ I pionieri dell’intelligenza artificiale​
3.​ Le fasi di crescita dell’IA​
4.​ L’inverno dell’IA e le sue cause​
5.​ La rinascita grazie al deep learning​
6.​ L’esplosione dell’IA generativa​
7.​ Il ruolo dei big data e della potenza di calcolo​
📘 3. Cos’è il Natural Language Processing (NLP)
1.​ Definizione di NLP​
2.​ NLP e comprensione del linguaggio umano​
3.​ Traduzione automatica e sentiment analysis​
4.​ Chatbot e assistenti vocali​
3
5.​ Come funziona un modello NLP​
6.​ NLP nei motori di ricerca​
7.​ I modelli linguistici: da BERT a GPT​
📘 4. ChatGPT e Perplexity: panoramica e differenze
1.​ Cos’è ChatGPT​
2.​ Cos’è Perplexity AI​
3.​ Finalità e casi d’uso principali​
4.​ Differenze nell’interazione utente​
5.​ Risposte generative vs risposte documentate​
6.​ Quando usare ChatGPT, quando Perplexity​
7.​ Costi e accessibilità dei due strumenti​
📘 5. Come funziona ChatGPT: principi di base
1.​ La base tecnologica: Transformer e GPT​
2.​ Come ChatGPT genera una risposta​
3.​ L’importanza del prompt​
4.​ Addestramento supervisionato e rinforzato​
5.​ Versioni e aggiornamenti (GPT-3.5, GPT-4, ecc.)​
6.​ Differenze tra modalità (assistente, codice, DALL·E, ecc.)​
7.​ Come "ragiona" un modello generativo​
📘 6. Come funziona Perplexity: principi di base
4
1.​ Che cos’è un motore di risposta con fonti​
2.​ Come Perplexity integra il web in tempo reale​
3.​ Il ruolo della ricerca neurale​
4.​ Algoritmi di ranking e precisione delle risposte​
5.​ Perplexity Copilot e navigazione guidata​
6.​ Capacità di sintesi e citazione delle fonti​
7.​ Vantaggi nell’apprendimento autonomo​
📘 7. Applicazioni pratiche dell’IA nella vita quotidiana
1.​ IA nei motori di ricerca e assistenti vocali​
2.​ Suggerimenti di testo e completamento automatico​
3.​ Raccomandazioni di prodotti e contenuti​
4.​ Gestione della posta elettronica intelligente​
5.​ Smart home e dispositivi connessi​
6.​ Salute digitale e monitoraggio personale​
7.​ Apprendimento e formazione personalizzata​
📘 8. Usare ChatGPT per la produttività personale
1.​ Pianificazione di attività e obiettivi​
2.​ Organizzazione del tempo e to-do list​
3.​ Scrittura automatica di note e memo​
4.​ Preparazione di meeting e presentazioni​
5.​ Traduzione e adattamento linguistico​
5
6.​ Elaborazione testi e ottimizzazione contenuti​
7.​ Codice base per automazioni personali​
📘 9. Scrivere testi, email, riassunti, brainstorming
1.​ Composizione email professionali​
2.​ Scrittura creativa e storytelling​
3.​ Generazione di titoli e slogan​
4.​ Riassunti di testi lunghi e articoli​
5.​ Idee per contenuti social e blog​
6.​ Creazione di scalette e strutture narrative​
7.​ Brainstorming collaborativo con ChatGPT​
📘 10. Usare Perplexity per la ricerca e l’apprendimento
1.​ Ricerca di fonti autorevoli​
2.​ Comprensione di argomenti complessi​
3.​ Analisi comparativa tra concetti​
4.​ Domande mirate e risposte documentate​
5.​ Approfondimenti accademici e tecnici​
6.​ Apprendimento per obiettivi e livelli​
7.​ Personalizzazione del processo di studio​
📘 11. Ricerca avanzata, sintesi di informazioni, fact-checking
6
1.​ Tecniche di ricerca efficace su Perplexity​
2.​ Riassunti di articoli e paper​
3.​ Valutazione di attendibilità delle fonti​
4.​ Sintesi comparativa tra più fonti​
5.​ Fact-checking automatizzato​
6.​ Lettura critica e domande strategiche​
7.​ Uso combinato di ChatGPT e Perplexity​
📘 12. IA per il lavoro: automazione di compiti e processi
1.​ Compiti ripetitivi e automazione​
2.​ Analisi di dati e report automatici​
3.​ Assistenti virtuali per il customer service​
4.​ IA per la gestione documentale​
5.​ Email e comunicazioni automatizzate​
6.​ Organizzazione di agenda e meeting​
7.​ Integrazione con strumenti di produttività (Notion, Excel, ecc.)​
📘 13. IA per il business: marketing, customer care, analisi dati
1.​ Creazione di contenuti per campagne​
2.​ Targeting e segmentazione del pubblico​
3.​ Analisi dei sentiment sui social​
4.​ FAQ automatiche e chatbot aziendali​
5.​ Previsione di trend e domanda​
7
6.​ Reporting dati clienti e vendite​
7.​ Generazione di insight strategici​
📘 14. Prompt engineering: come scrivere richieste efficaci
1.​ Cos’è il prompt engineering​
2.​ Prompt semplici vs complessi​
3.​ Tecniche di raffinamento del prompt​
4.​ Uso dei ruoli e contesto​
5.​ Strutture utili per ottenere risposte migliori​
6.​ Prompt per creatività e logica​
7.​ Errori comuni da evitare​
📘 15. Limiti e rischi dell’uso dell’IA generativa
1.​ Hallucination: quando l’IA inventa​
2.​ Bassa comprensione del contesto​
3.​ Rischi di bias nei modelli​
4.​ Dipendenza dagli strumenti digitali​
5.​ Impatti sull’occupazione​
6.​ Abusi e uso scorretto dell’IA​
7.​ Responsabilità e trasparenza​
📘 16. Privacy, sicurezza e gestione dei dati con l’IA
8
1.​ Cosa succede ai dati che forniamo​
2.​ Normative e regolamenti (GDPR, ecc.)​
3.​ Tracciabilità delle conversazioni IA​
4.​ Uso sicuro di ChatGPT e Perplexity​
5.​ Plugin e app di terze parti: attenzione ai dati​
6.​ Crittografia e gestione della privacy​
7.​ Buone pratiche per la sicurezza digitale​
📘 17. Strumenti e plugin per potenziare ChatGPT e Perplexity
1.​ Plugin ChatGPT: panoramica e installazione​
2.​ Plugin per ricerca, codice, grafici e traduzioni​
3.​ Tool esterni compatibili con Perplexity​
4.​ Estensioni browser per uso rapido​
5.​ App IA companion e mobile​
6.​ Workflow con Zapier, Notion, Google Docs​
7.​ Automazione con API e script​
📘 18. Esempi pratici e casi d’uso reali
1.​ Caso: gestione progetto con ChatGPT​
2.​ Caso: ricerca tesi universitaria con Perplexity​
3.​ Caso: content marketing automatizzato​
4.​ Caso: customer care AI-driven​
5.​ Caso: ottimizzazione lavoro freelance​
9
6.​ Caso: apprendimento di una nuova competenza​
7.​ Caso: costruzione di un business digitale​
📘 19. Come integrare l’IA nei propri progetti digitali
1.​ Mappatura delle attività ripetitive​
2.​ Scelta degli strumenti adatti​
3.​ Integrazione in siti e app​
4.​ Personalizzazione dei modelli​
5.​ Coordinamento con team e collaboratori​
6.​ Test e miglioramento continuo​
7.​ Scalabilità e aggiornamenti​
📘 20. Formazione e aggiornamento sull’IA
1.​ Corsi online e certificazioni​
2.​ Libri e manuali consigliati​
3.​ Canali YouTube e podcast​
4.​ Newsletter e blog settoriali​
5.​ Eventi e conferenze sull’IA​
6.​ Piattaforme di esercitazione e simulazione​
7.​ Apprendimento continuo con IA stessa​
📘 21. Futuro dell’IA: tendenze e opportunità
10
1.​ Evoluzione dei modelli linguistici​
2.​ Multimodalità: testo, immagini, audio​
3.​ IA decentralizzata e open-source​
4.​ Lavoro e competenze del futuro​
5.​ Etica e regolamentazione​
6.​ Integrazione con robotica e IoT​
7.​ Verso un’IA sempre più personalizzata​
📘 22. Risorse utili, community e approfondimenti
1.​ Directory strumenti IA aggiornati​
2.​ Forum e community (Reddit, Discord, ecc.)​
3.​ Newsletter specializzate​
4.​ Canali Telegram e gruppi di discussione​
5.​ Siti ufficiali (OpenAI, Perplexity, Hugging Face)​
6.​ Librerie e dataset pubblici​
7.​ Percorsi tematici per settori specifici
11
1. Introduzione all’intelligenza artificiale (IA)
1.1 Cos’è l’intelligenza artificiale
1.1.1 Definizione generale
Quando si parla di intelligenza artificiale – o in breve IA – l'immaginario collettivo tende a
evocare figure da film di fantascienza: robot dall’aspetto umano, macchine senzienti, entità
digitali che dialogano come persone. ​
​
In realtà, l’IA è molto più concreta, quotidiana e meno misteriosa di quanto si pensi. ​
​
In termini tecnici, l’intelligenza artificiale è la capacità di un sistema informatico di
eseguire compiti che, se svolti da un essere umano, richiederebbero intelligenza.
Questi compiti possono essere estremamente vari: comprendere il significato di una frase,
riconoscere il volto di una persona in una fotografia, tradurre un documento da una lingua
all’altra, o suggerire un film su una piattaforma streaming. ​
​
Tutti questi esempi, già ampiamente diffusi nella nostra vita quotidiana, sono manifestazioni
pratiche di sistemi basati su IA.
La differenza cruciale rispetto alle tecnologie precedenti sta nella capacità dell’IA di
adattarsi e rispondere al contesto. Una calcolatrice, per esempio, esegue solo operazioni
fisse. Una macchina dotata di IA, invece, può osservare l’ambiente circostante, analizzarne
le caratteristiche, interpretare le situazioni e prendere decisioni di conseguenza, proprio
come farebbe un essere umano. ​
​
Questa intelligenza contestuale, questa abilità di “leggere la realtà” e agire di conseguenza,
è ciò che rende l’IA fondamentalmente diversa da qualsiasi tecnologia che l’ha
preceduta.
12
1.1.2 Differenze con la programmazione classica
Per comprendere davvero la rivoluzione introdotta dall’intelligenza artificiale, è utile
confrontarla con la programmazione tradizionale, che ha dominato l’informatica per
decenni. ​
​
In un software classico, il programmatore scrive passo dopo passo tutte le istruzioni che la
macchina deve seguire. Ogni scenario, ogni eccezione, ogni possibilità dev’essere prevista
in anticipo. ​
​
Il computer non sa nulla: si limita a eseguire ordini.
Con l’IA, questo paradigma si capovolge. ​
​
Non si tratta più di fornire alla macchina una serie di comandi rigidi, ma di insegnarle a
imparare da sola, tramite un processo chiamato apprendimento automatico (machine
learning). ​
​
Il sistema viene esposto a una grande quantità di dati (per esempio: migliaia di immagini di
gatti e cani), e da questi esempi impara a riconoscere da solo i tratti distintivi di ciascun
soggetto. ​
​
Non viene spiegato “cos’è un gatto”, ma gli viene mostrata l’immagine tante volte finché lo
capisce da sé.
Questa modalità di apprendimento è ispirata al modo in cui imparano i bambini, ed è per
questo che è così potente. ​
​
Con il tempo, e con l’esposizione a più dati, l’IA migliora progressivamente le sue
prestazioni (non è programmata, ma addestrata). Questo cambiamento apparentemente
sottile è, in realtà, una rivoluzione concettuale e tecnologica.
​
1.1.3 Componenti principali
13
Per funzionare correttamente, un sistema di intelligenza artificiale ha bisogno di quattro
componenti essenziali, che lavorano insieme in modo armonico. ​
​
Il primo elemento sono gli algoritmi, cioè le formule matematiche e logiche che permettono
al sistema di elaborare i dati e prendere decisioni. Ogni tipo di IA si basa su algoritmi diversi,
selezionati in base allo scopo (ad esempio: riconoscere un volto o tradurre un testo).
Il secondo elemento sono i modelli, ovvero le strutture mentali della macchina, create
durante la fase di apprendimento. ​
​
Un modello ben addestrato è come un esperto: ha visto tanti esempi e ha costruito una
rappresentazione interna del mondo. I modelli permettono all’IA di fare previsioni, dare
suggerimenti o riconoscere situazioni.
Il terzo pilastro è rappresentato dai dati. Senza dati, l’IA è cieca. Più i dati sono numerosi,
precisi, aggiornati e rappresentativi della realtà, migliore sarà l’accuratezza delle
decisioni. ​
​
Ma attenzione: dati sbagliati o distorti possono produrre modelli altrettanto distorti, portando
a conclusioni errate o perfino pericolose.
Infine, serve potenza di calcolo. ​
​
I sistemi di IA devono elaborare enormi quantità di dati in tempo reale. Questo richiede
hardware avanzato: server potenti, schede grafiche ottimizzate per il calcolo parallelo, e in
certi casi persino chip progettati su misura. Senza infrastruttura adeguata, anche il
miglior algoritmo resta inutilizzabile.
Queste quattro componenti sono inseparabili. ​
​
Se anche solo una viene a mancare – ad esempio, se i dati sono insufficienti o se l’algoritmo
è mal progettato – il sistema non funziona o funziona male. È per questo che costruire un’IA
non è un’operazione automatica, ma un processo che richiede competenza, attenzione e
grande senso di responsabilità.
14
1.2 Perché oggi tutti parlano di IA
1.2.1 Avanzamenti nei modelli linguistici
Uno dei motivi principali per cui l’intelligenza artificiale è oggi al centro dell’attenzione
globale è l’incredibile evoluzione dei modelli linguistici di grandi dimensioni, noti in
inglese come Large Language Models (LLM). ​
​
Questi modelli, tra cui GPT (sviluppato da OpenAI), BERT (di Google), Claude (di
Anthropic) e LLaMA (di Meta), hanno rivoluzionato il modo in cui le macchine interagiscono
con il linguaggio umano.
A differenza dei vecchi sistemi, che rispondevano a comandi precisi e limitati, i modelli
linguistici moderni sono in grado di comprendere il contesto e generare risposte
articolate e pertinenti, anche in conversazioni complesse.​
​
Questo è stato possibile grazie a un approccio chiamato pre-addestramento su vasta
scala, in cui i modelli vengono esposti a enormi quantità di testo provenienti da libri, articoli,
siti web, forum e dialoghi reali. ​
​
Così facendo, imparano a riconoscere modelli statistici nel linguaggio e a predire quale
parola viene dopo l’altra con una precisione sempre maggiore.
I modelli riescono a scrivere in modo coerente e sono capaci di eseguire compiti
complessi, come riassumere testi, risolvere problemi logici, rispondere a domande
tecniche, spiegare concetti scientifici o perfino generare codice informatico.
1.2.2 Accesso semplificato per il pubblico
Fino a pochi anni fa, l’intelligenza artificiale era un argomento per esperti. Era confinata a
laboratori universitari, centri di ricerca e grandi aziende tecnologiche, perché l’infrastruttura
necessaria per addestrare e usare modelli di IA era costosa e complessa. ​
​
Questo scenario è cambiato radicalmente con l’avvento di interfacce come ChatGPT, che
15
hanno reso l’IA disponibile, semplice e gratuita per chiunque abbia una connessione
internet.
Oggi basta aprire una pagina web o un'app, scrivere una domanda in linguaggio naturale, e
ricevere in pochi secondi una risposta chiara e articolata da un sistema basato su IA.​
​
Non è più necessario conoscere la programmazione, l’algebra lineare o la statistica: l’IA si è
democratizzata, trasformandosi in uno strumento quotidiano accessibile a studenti,
insegnanti, professionisti, creativi, imprenditori e curiosi.
Questa semplicità di utilizzo ha avuto un effetto moltiplicatore. ​
​
Sempre più persone stanno sperimentando l’IA nelle proprie attività, scoprendone l’utilità in
ambiti come scrittura, studio, ricerca, progettazione, comunicazione, pianificazione, e molto
altro. ​
​
L’accesso diffuso ha trasformato l’IA da “oggetto tecnico” a compagno di lavoro,
apprendimento e creatività.
1.2.3 Efficienza nel lavoro
Uno degli aspetti più dirompenti dell’intelligenza artificiale è la sua capacità di aumentare
l’efficienza in moltissime attività lavorative, anche quelle non strettamente tecnologiche. ​
​
Questo accade perché l’IA è in grado di automatizzare compiti ripetitivi, analizzare
grandi volumi di informazioni e produrre risultati rapidi e coerenti, senza perdere
concentrazione o commettere errori dovuti alla stanchezza.
Pensiamo, ad esempio, a un ufficio dove ogni giorno bisogna gestire decine di e-mail, creare
report, scrivere contenuti, fare ricerche su normative o mercati. ​
​
Un sistema basato su IA può riassumere un testo di cento pagine in pochi secondi, tradurre
istantaneamente documenti, proporre una scaletta per una presentazione o rispondere a
richieste standard in modo automatico. ​
16
​
Tutto questo fa risparmiare tempo prezioso e permette alle persone di concentrarsi su
attività ad alto valore aggiunto.
In ambito aziendale, questo si traduce in maggiore produttività, riduzione dei costi,
miglioramento della qualità del servizio, e persino una maggiore soddisfazione dei
dipendenti, che vedono alleggerite le mansioni più ripetitive. ​
1.3 Tipi di intelligenza artificiale
1.3.1 IA reattiva e IA con memoria limitata
Per comprendere appieno le potenzialità dell’intelligenza artificiale, è utile partire dalla sua
classificazione funzionale, che si basa su ciò che un sistema è effettivamente in grado di
fare. Le forme più basilari di IA sono l’IA reattiva e l’IA con memoria limitata, che
rappresentano i primi due gradini di complessità dell’intelligenza artificiale.
L’IA reattiva è il tipo più semplice: agisce solo in base agli stimoli presenti, senza tenere
conto di alcuna informazione precedente. Non ha memoria, non apprende dal passato, non
anticipa il futuro. ​
​
È come un giocatore di scacchi che analizza la scacchiera solo nella sua configurazione
attuale e sceglie la mossa migliore in base a regole preimpostate. ​
​
Un esempio concreto è Deep Blue, il computer di IBM che sconfisse il campione del mondo
Garry Kasparov nel 1997. Era un sistema potentissimo nel calcolo, ma completamente privo
di apprendimento.
Salendo di livello, troviamo l’IA con memoria limitata, che può immagazzinare
temporaneamente dati recenti e usarli per migliorare le sue prestazioni. ​
​
Questo tipo di intelligenza artificiale è più evoluto e si avvicina maggiormente al
comportamento umano. ​
17
​
I chatbot moderni, ad esempio, sono capaci di ricordare ciò che l’utente ha scritto poco
prima, così da rispondere in modo più coerente. Oppure, nei sistemi di guida assistita, l’auto
può ricordare la posizione degli altri veicoli per prendere decisioni più sicure.​
​
Anche se ancora lontana da una vera comprensione del contesto, l’IA con memoria limitata
rappresenta un passo importante verso un’interazione più intelligente, flessibile e “umana”.
​
1.3.2 IA della teoria della mente e IA autonoma
Con l’IA della teoria della mente entriamo nel territorio della ricerca più avanzata, dove
l’obiettivo è replicare abilità cognitive, sociali ed emozionali. ​
​
In psicologia, la “teoria della mente” è la capacità di comprendere che le altre persone hanno
pensieri, emozioni, desideri e intenzioni diversi dai nostri. È una competenza tipicamente
umana che si sviluppa durante l’infanzia e che rende possibile la comunicazione empatica,
la collaborazione e il comportamento etico.
Nel campo dell’IA, sviluppare una macchina che sappia riconoscere e interpretare stati
mentali umani rappresenta una sfida colossale. ​
​
Significherebbe dotare un sistema di una sorta di “intelligenza sociale”, capace di capire se
un interlocutore è frustrato, confuso, ironico o sincero.​
​
Questa forma di IA non esiste ancora, ma viene studiata in ambiti come l’assistenza
sanitaria, l’educazione, la robotica sociale e la customer experience. Il suo sviluppo futuro
potrebbe rivoluzionare completamente il nostro rapporto con la tecnologia.
Ancora più ambiziosa è l’IA autonoma, intesa come un sistema capace di prendere
decisioni indipendenti, non solo reagendo a un input, ma anche formulando obiettivi
propri, scegliendo mezzi per raggiungerli e adattandosi a nuove situazioni senza intervento
umano. ​
​
In uno scenario simile, la macchina avrebbe una forma di “libero arbitrio operativo”, almeno
nel senso funzionale. Un veicolo completamente autonomo, che decide quando e come
18
ricaricarsi, pianifica da solo i percorsi e valuta i rischi, è un esempio ipotetico ma realistico
nel medio termine.
Tuttavia, con l’autonomia arrivano anche questioni etiche e legali di enorme complessità: chi
è responsabile se una IA autonoma commette un errore? Come garantire che prenda
decisioni moralmente accettabili? ​
​
Sono domande ancora aperte, ma che dobbiamo affrontare con urgenza man mano che ci
avviciniamo a questa nuova frontiera.
1.3.3 IA ristretta, generale e superintelligente
Un’altra distinzione fondamentale tra i tipi di intelligenza artificiale riguarda la portata e
l’ampiezza delle sue capacità. Questa classificazione si divide in tre livelli: IA ristretta, IA
generale e IA superintelligente.
La IA ristretta – nota anche con la sigla ANI (Artificial Narrow Intelligence) – è quella
attualmente in uso in quasi tutte le applicazioni disponibili sul mercato. ​
​
È specializzata in un compito preciso: può tradurre lingue, generare immagini, rispondere
a domande, riconoscere volti o guidare un’automobile. Questi sistemi sono molto potenti ma
completamente “ciechi” al di fuori del loro dominio. ​
​
Un IA addestrata per diagnosticare malattie non saprà risolvere un problema di logistica, e
viceversa.
L’IA generale, detta AGI (Artificial General Intelligence), è un obiettivo di lungo periodo: si
tratta di un sistema capace di apprendere qualsiasi compito cognitivo umano. In pratica,
un’AGI sarebbe in grado di leggere un libro di diritto, progettare un ponte, scrivere un
poema, consolare un amico, tutto con la stessa versatilità della mente umana. ​
​
Nessun sistema di AGI è ancora stato costruito, ma molti ricercatori la considerano il
prossimo grande traguardo. L’AGI implicherebbe una macchina con flessibilità mentale,
astrazione concettuale, senso pratico e persino intuizione.​
​
Infine, la IA superintelligente, o ASI (Artificial Superintelligence), è una possibilità ancora
più radicale. ​
19
​
Si ipotizza che, una volta raggiunta l’AGI, la macchina potrebbe migliorare se stessa
autonomamente, superando rapidamente le capacità cognitive dell’essere umano in ogni
campo: scientifico, creativo, strategico ed emotivo. ​
​
A quel punto l’ASI potrebbe concepire soluzioni e idee che nessun uomo è in grado di
immaginare. ​
​
Alcuni studiosi vedono in questa prospettiva un rischio esistenziale per l’umanità, altri una
straordinaria opportunità per risolvere problemi globali. Ma su un punto c’è accordo: se
arriveremo mai a questo punto, sarà una svolta epocale nella storia della civiltà.
1.4 L’IA debole vs l’IA forte
​
1.4.1 Cos’è l’IA debole
Per comprendere appieno il significato di "intelligenza artificiale", è fondamentale distinguere
tra due concetti che vengono spesso confusi: l’intelligenza artificiale debole e quella forte. ​
​
Quando parliamo di IA debole, ci riferiamo a quei sistemi che, pur sembrando intelligenti, in
realtà non hanno alcuna comprensione reale di ciò che fanno. Sono progettati per uno scopo
preciso, all’interno di un dominio limitato, e operano sulla base di regole apprese dai dati.
Questa è l’IA che troviamo nella nostra quotidianità: assistenti vocali che rispondono a
comandi, traduttori automatici, filtri anti-spam, suggerimenti sui social, chatbot, algoritmi
di raccomandazione su Netflix o Amazon. ​
​
Sembrano “capire”, ma in realtà non c’è alcuna forma di coscienza o comprensione dietro le
risposte. ​
​
L’efficacia di questi strumenti non deriva da una reale intelligenza generale, ma dalla loro
abilità statistica di prevedere la risposta più probabile in una determinata situazione.
20
L’IA debole è estremamente utile, ed è alla base di moltissime innovazioni nel mondo del
lavoro, dell’intrattenimento e della scienza.
1.4.2 Cos’è l’IA forte
L’intelligenza artificiale forte rappresenta invece una prospettiva molto più ambiziosa e
ancora puramente teorica. ​
​
In questo caso, non si parla più di sistemi capaci di simulare l’intelligenza in un compito
specifico, ma di costruire una macchina che possieda una forma di intelligenza
generalizzata, paragonabile – se non superiore – a quella dell’essere umano.
Un sistema di IA forte sarebbe in grado di eseguire compiti complessi in domini diversi e
avrebbe la capacità di adattarsi a contesti nuovi, apprendere concetti astratti, pianificare,
prendere decisioni autonome e riflettere criticamente sulle proprie azioni. In teoria, potrebbe
provare emozioni, esprimere giudizi morali, avere desideri o obiettivi personali.
È importante sottolineare che, ad oggi, nessun sistema costruito dall’uomo si avvicina
neanche lontanamente a una forma di IA forte.​
​
Non esistono macchine consapevoli di sé stesse o capaci di vera comprensione
concettuale. Quello che abbiamo ottenuto, finora, è solo una raffinata simulazione esterna
del comportamento intelligente, ma senza coscienza o intenzionalità.
Il concetto di IA forte è tecnico e filosofico: ci costringe a domandarci cosa sia davvero
l’intelligenza, se la coscienza sia riproducibile, e cosa significhi “pensare” in termini
computazionali. ​
​
Sono interrogativi aperti, che superano la tecnologia e toccano la psicologia, la
neurobiologia, l’etica e la filosofia della mente.
1.4.3 Limiti e riflessioni etiche
L’idea di costruire un’intelligenza artificiale forte solleva inevitabilmente questioni etiche di
straordinaria importanza. ​
​
21
Se un giorno riuscissimo davvero a creare una macchina dotata di coscienza, dovremmo
iniziare a pensare in termini di diritti, responsabilità, dignità. ​
​
Una macchina cosciente dovrebbe essere trattata come una persona? Avrebbe il diritto di
scegliere, di rifiutare un ordine, di esprimere un’opinione?
Ma c’è anche un altro livello di complessità: chi sarebbe responsabile delle azioni di una
macchina autonoma? ​
​
Se un sistema di IA decidesse di compiere un’azione dannosa, potremmo attribuirne la colpa
ai programmatori, al proprietario, al costruttore... o alla macchina stessa? E siamo davvero
pronti ad accettare un’entità che, pur non essendo biologica, possa prendere decisioni in
autonomia morale?
Oltre alla dimensione legale ed etica, esiste un rischio più profondo: la perdita di controllo. ​
​
Alcuni pensatori, come Nick Bostrom, hanno messo in guardia contro la possibilità che un’IA
sufficientemente potente possa perseguire obiettivi non allineati con quelli dell’umanità,
semplicemente perché non sappiamo trasmetterle i nostri valori nel modo corretto.
1.5 – Applicazioni comuni dell’intelligenza artificiale
1.5.1 Nella vita quotidiana
L’intelligenza artificiale è ormai una presenza silenziosa ma costante nella nostra
quotidianità. Molti la utilizzano senza nemmeno accorgersene. ​
​
Ad esempio, ogni volta che usiamo un assistente vocale come Alexa, Siri o Google Assistant
per chiedere che tempo farà o per avviare una playlist musicale, stiamo interagendo con
sistemi di intelligenza artificiale basati su riconoscimento vocale e comprensione del
linguaggio naturale.​
​
22
Questi sistemi trasformano la nostra voce in testo, interpretano il significato della frase e
decidono l’azione da eseguire, spesso consultando motori di ricerca o integrandosi con altri
servizi.
Ma le applicazioni dell’IA vanno ben oltre. ​
​
I nostri telefoni sono pieni di sistemi intelligenti: dai filtri antispam nelle email, che
analizzano il contenuto dei messaggi per bloccare le comunicazioni indesiderate, ai
correttori grammaticali avanzati (come Grammarly) che suggeriscono correzioni e
riformulazioni stilistiche. ​
​
Anche la fotocamera di uno smartphone moderno utilizza IA: riconosce i volti, distingue lo
sfondo dal soggetto e adatta l’esposizione o l’effetto in tempo reale, sulla base dell’analisi
automatica dell’immagine.
Nel quotidiano, l’IA interviene anche nel modo in cui navighiamo su internet. ​
​
Quando iniziamo a digitare una ricerca su Google, le proposte che compaiono in tempo
reale sono suggerite da algoritmi predittivi. ​
​
Quando riceviamo una notifica da una app, è spesso frutto di un modello di apprendimento
che ha “capito” i nostri orari preferiti o le attività che ci interessano di più. ​
​
Anche nel più banale degli oggetti domestici – come un termostato intelligente o un
aspirapolvere robot – c’è quasi sempre un sistema in grado di apprendere dal
comportamento dell’utente per ottimizzare energia, percorsi, efficienza.
In sintesi, oggi viviamo in ambienti algoritmici, dove la presenza dell’intelligenza artificiale
è diventata così naturale da sembrare invisibile. Ma c’è, osserva, apprende, e agisce.
​
1.5.2 Nel consumo digitale
Il nostro modo di accedere a contenuti online – musica, film, notizie, prodotti – è ormai
dominato da algoritmi di raccomandazione basati sull’IA. ​
​
Questo tipo di intelligenza artificiale ha trasformato le piattaforme digitali da semplici vetrine
23
a sistemi dinamici e personalizzati, che cambiano in base ai gusti, alle abitudini e persino
allo stato emotivo dell’utente.
Su servizi come Netflix o YouTube, ciò che vediamo è scelto casualmente o in ordine
cronologico, ma è il risultato di un’analisi continua del nostro comportamento: quanto tempo
guardiamo un video, dove lo mettiamo in pausa, se mettiamo “mi piace” o se lo
condividiamo. ​
​
L’IA analizza questi dati e li confronta con quelli di milioni di altri utenti, cercando schemi
ricorrenti che possano prevedere con buona approssimazione ciò che ci interesserà dopo. ​
​
Questo processo prende il nome di collaborative filtering, e si affianca ad altri metodi più
sofisticati come il deep learning e la clustering analysis.
Nel commercio elettronico, l’IA ha reso l’esperienza d’acquisto più fluida, intuitiva e mirata. ​
​
Amazon, ad esempio, suggerisce prodotti in base a ciò che abbiamo comprato e in base a
quello che clienti simili a noi hanno visualizzato o acquistato. Il sistema aumenta
notevolmente le probabilità di conversione, ma al tempo stesso solleva interrogativi sulla
trasparenza e sul controllo dell’esperienza dell’utente.
Anche i social network utilizzano intelligenza artificiale per costruire i nostri feed
personalizzati, scegliendo quali post mostrare, in che ordine e con quale priorità.
Questi algoritmi, sebbene siano progettati per migliorare l’engagement, possono anche
generare bolle informative o polarizzazione, perché tendono a mostrarci solo contenuti
coerenti con le nostre opinioni e interessi.
Si tratta di un’area in cui l’uso dell’IA ha un impatto non solo commerciale, ma anche
culturale e politico, e per questo richiede una maggiore consapevolezza da parte degli
utenti.
1.5.3 In ambiti strategici: sanità, mobilità, finanza
Oltre agli usi quotidiani e consumer, l’intelligenza artificiale sta rivoluzionando settori
strategici ad alto impatto sociale ed economico, come la sanità, la mobilità urbana e i
servizi finanziari.
24
Nel campo della sanità, l’IA viene utilizzata per analizzare immagini mediche (come TAC,
risonanze magnetiche, radiografie) e aiutare i medici nella diagnosi precoce di patologie
complesse. ​
​
Algoritmi addestrati su milioni di immagini possono individuare anomalie microscopiche
invisibili all’occhio umano, aumentando la precisione diagnostica e riducendo i tempi di
intervento. ​
​
Alcuni sistemi sono persino in grado di prevedere il rischio di recidiva nei pazienti oncologici,
grazie all’analisi incrociata di dati genetici, clinici e comportamentali. Inoltre, le IA vengono
impiegate per monitorare i pazienti a distanza, prevedere eventi critici (come infarti o crisi
respiratorie) e suggerire in tempo reale interventi correttivi.
Nel settore della mobilità, l’intelligenza artificiale è al cuore delle tecnologie per la guida
autonoma. ​
​
Veicoli dotati di sensori, radar e telecamere raccolgono continuamente dati sull’ambiente
circostante, che vengono elaborati in tempo reale per decidere velocità, direzione, frenate e
manovre di emergenza. ​
​
Il veicolo segue le istruzioni e prende decisioni autonome basate sull’interpretazione del
contesto stradale, proprio come farebbe un guidatore esperto. ​
​
Anche in contesti meno avanzati, come il trasporto urbano, l’IA viene usata per ottimizzare i
flussi di traffico, prevedere congestioni e adattare i tempi dei semafori in modo intelligente.
Nel campo della finanza, l’IA trova applicazione in ambiti estremamente sensibili: dalla
prevenzione delle frodi (analizzando in tempo reale transazioni sospette), alla gestione
automatizzata dei portafogli di investimento, fino alla valutazione del rischio creditizio. I
sistemi basati su IA possono scandagliare enormi quantità di dati finanziari, notizie di
mercato e tendenze economiche per fornire raccomandazioni strategiche in tempi
rapidissimi. ​
​
I cosiddetti “trading algorithmici” – che comprano e vendono titoli in millisecondi – sono
spesso alimentati da modelli predittivi sofisticati che si autoaggiornano continuamente.
25
Questi esempi mostrano come l’intelligenza artificiale imponga l’adozione di criteri rigorosi
di trasparenza, equità e sicurezza, perché i margini di errore – in questi contesti – possono
avere conseguenze reali sulla vita delle persone.
1.6 – Il ruolo dell’intelligenza artificiale generativa
1.6.1 Cos’è l’IA generativa
L’intelligenza artificiale generativa è una delle evoluzioni più radicali dell’intelligenza
artificiale moderna. ​
​
È un’IA progettata non solo per analizzare e classificare i dati, ma per crearli. Parliamo di
sistemi che non si limitano a identificare un volto o a tradurre un testo: generano nuovi
contenuti, a partire da un input umano, in modo autonomo e in tempo reale.​
​
Possono scrivere un saggio, disegnare un paesaggio, comporre un brano musicale o
progettare una pagina web. E non è solo questione di efficienza, ma di capacità espressiva
e adattabilità linguistica.​
​
Questa capacità nasce da un meccanismo tecnico fondamentale: l’addestramento su
enormi quantità di dati attraverso una tecnica detta pre-training. ​
​
I modelli generativi, come GPT, DALL·E o Stable Diffusion, vengono esposti a miliardi di
esempi (frasi, immagini, codici, dialoghi) e apprendono statisticamente come continuare o
costruire contenuti coerenti. Non comprendono nel senso umano del termine, ma
riconoscono relazioni complesse nei dati e le usano per generare nuove sequenze.
È come avere una mente virtuale che non si limita a rispondere “giusto” o “sbagliato”, ma è
in grado di immaginare una possibilità, proporre una variazione, riempire uno spazio vuoto. ​
​
Questo è il cuore dell’IA generativa: una macchina predittiva altamente addestrata che
agisce in chiave creativa. È utile, sorprendente, potente. Ma non è magica: è il risultato di
26
decenni di ricerche in statistica, linguistica computazionale, neuroscienze artificiali e teoria
dell’informazione.
Ed è importante capire che dietro ogni interazione apparentemente semplice (scrivere una
poesia, creare un logo, generare un codice) si nasconde un processo estremamente
sofisticato, che mobilita miliardi di parametri – vere e proprie “connessioni sinaptiche
artificiali” – e simulazioni stocastiche capaci di restituire contenuti che imitano la coerenza
semantica dell’intelligenza umana.
1.6.2 Esempi pratici e modelli principali
Per capire la portata dell’IA generativa, dobbiamo esaminare le famiglie di modelli più
rappresentative e i loro contesti d’uso. ​
​
Uno dei modelli più potenti attualmente disponibili è GPT (Generative Pre-trained
Transformer). ​
​
Basato sull’architettura dei transformer, GPT è addestrato su corpora testuali giganteschi e
riesce a generare testo coerente, preciso, stilisticamente raffinato, adattabile al tono, al
pubblico, all’intento comunicativo. Può completare frasi, scrivere articoli interi, generare
dialoghi realistici, imitare lo stile di un autore famoso, o persino creare testi in rima.
Nel mondo visivo, DALL·E e Midjourney sono esempi emblematici.​
​
Entrambi permettono all’utente di descrivere un’immagine con parole, e vedere quella
descrizione trasformarsi in una rappresentazione visiva. Funzionano grazie a una tecnica
chiamata text-to-image generation, in cui il sistema impara ad associare frammenti
linguistici a strutture visive, fino a produrre immagini mai viste prima.​
​
Le possibilità sono infinite: architettura concettuale, design grafico, illustrazione narrativa,
sperimentazione artistica.
Nel dominio sonoro, sistemi come Jukebox (OpenAI), Amper Music, o AIVA sono capaci di
generare musica originale a partire da un prompt testuale, o da una melodia iniziale. ​
​
Possono imitare generi, strumenti, strutture armoniche, e comporre brani su misura per
27
video, podcast, videogiochi o pubblicità. Sono strumenti sempre più usati da professionisti
del settore audio, ma anche da content creator con budget limitati.
Nel campo della programmazione, l’IA generativa si è dimostrata rivoluzionaria. GitHub
Copilot, basato su Codex (una versione specializzata di GPT), assiste i programmatori
scrivendo automaticamente intere funzioni, suggerendo correzioni, spiegando il
funzionamento del codice in linguaggio naturale. ​
​
Può convertire richieste testuali in codice in tempo reale, aprendo l’accesso alla
programmazione anche a chi ha competenze minime.
Questi strumenti sono solo la punta dell’iceberg. Ciò che li rende straordinari è che non
sono esperti verticali, ma modelli versatili che si adattano a richieste estremamente
diverse. ​
​
È come avere un assistente che può scrivere, disegnare, programmare, ideare, correggere e
persino ispirare, tutto nello stesso sistema.
1.6.3 Creatività aumentata: l’uomo e la macchina insieme
Il nodo centrale della riflessione sull’IA generativa riguarda il ruolo dell’essere umano nella
creazione. ​
​
Se una macchina può scrivere un romanzo, comporre una canzone o dipingere un quadro,
allora che senso ha l’autorialità? Dobbiamo davvero preoccuparci che l’intelligenza artificiale
stia sostituendo la creatività?
La risposta, a oggi, è più complessa e va ben oltre la paura della “sostituzione”. ​
​
L’IA generativa non crea nel senso umano del termine. Non ha emozioni, esperienze,
intenzioni, memoria autobiografica. Genera contenuti plausibili, ma lo fa in modo statistico,
previsionale, iterativo.​
​
Non sa perché ha scritto una poesia malinconica, né conosce il significato del dolore o della
speranza. Manca di contesto emotivo, di coscienza, di visione.
28
Eppure, questa limitazione può diventare una forza. Perché l’IA generativa, in quanto priva
di ego, non giudica, non si blocca, non si autocensura. È capace di produrre varianti infinite,
alternative originali, possibilità inedite. ​
​
Diventa così uno strumento di amplificazione creativa, soprattutto per l’essere umano che
la guida. È come un acceleratore di immaginazione: apre porte, suggerisce direzioni, crea
connessioni che da soli non avremmo visto.
Molti artisti, scrittori, designer e professionisti stanno già usando questi strumenti per
espandere la loro creatività. ​
​
Si parla sempre più spesso di “co-creazione uomo-macchina”: una nuova forma di
collaborazione in cui l’umano mantiene il controllo, la visione, l’intento, e la macchina agisce
come moltiplicatore delle sue capacità. ​
In questo contesto, la nuova competenza fondamentale non è solo sapere fare, ma sapere
chiedere in modo strategico, creativo, preciso. Per questo è nato il concetto di prompt
engineering, o progettazione dell’interazione con l’IA.
Il futuro sarà probabilmente dominato dall’alleanza tra persone che sanno creare, e sistemi
che sanno generare. ​
​
Chi saprà usare bene questi strumenti potrà esprimersi in modi più ricchi, più rapidi e più
sofisticati. E forse, in questo dialogo inedito tra l’intelligenza naturale e quella artificiale,
nasceranno forme di cultura completamente nuove.
1.7 – L’intelligenza artificiale come opportunità e sfida
1.7.1 Potenziale positivo
L’intelligenza artificiale è un fattore strutturale di trasformazione, capace di incidere
sull’economia, sulla società, sulla cultura e perfino sulla forma stessa delle istituzioni. Le
opportunità che offre sono molteplici e trasversali.
29
Dal punto di vista economico, l’IA consente una crescita della produttività senza
precedenti. ​
​
Automatizzando attività ripetitive, ottimizzando processi industriali, migliorando l’allocazione
delle risorse e accelerando l’innovazione, l’intelligenza artificiale può rendere le imprese più
efficienti e competitive. ​
​
Start-up, piccole imprese e liberi professionisti, grazie a strumenti basati sull’IA, possono
accedere a competenze digitali avanzate che prima erano appannaggio di grandi aziende
strutturate: dalla scrittura di testi pubblicitari alla generazione di codice, dalla creazione di
grafiche alla gestione dei flussi informativi.
In ambito pubblico, l’IA può contribuire a rendere più efficaci i servizi essenziali, come la
sanità, la giustizia, l’istruzione e la sicurezza. Un sistema sanitario intelligente può, ad
esempio, prevedere focolai di malattie, ottimizzare le risorse ospedaliere, individuare in
anticipo pazienti a rischio. ​
​
Nell’istruzione, algoritmi adattivi possono personalizzare il percorso di apprendimento di
ciascuno studente, colmando lacune specifiche e potenziando i talenti.
L’IA ha anche un valore culturale e democratico. ​
​
Può estendere l’accesso alla conoscenza, abbattere barriere linguistiche, facilitare la
comunicazione tra persone diverse. Un contadino in Africa può usare l’IA per ottenere
previsioni climatiche o suggerimenti agricoli. Uno studente autodidatta in Sud America può
farsi aiutare da un modello linguistico per capire la teoria dei giochi. ​
​
L’intelligenza artificiale può essere – se ben distribuita e governata – un potente strumento
di inclusione e emancipazione.
1.7.2 Rischi e distorsioni
Tuttavia, questa stessa tecnologia che promette così tanto porta con sé rischi concreti,
sistemici e in parte già visibili. Uno dei principali è il rischio di disoccupazione tecnologica,
cioè la sostituzione di lavoratori umani da parte di sistemi automatici. ​
​
30
A essere colpiti sono i ruoli manuali o ripetitivi, ma anche quelli cognitivi intermedi: contabili,
operatori del customer service, traduttori, addetti all’elaborazione dati. ​
​
Questo significa che il lavoro cambierà profondamente, e chi non sarà pronto resterà
indietro.
Un altro pericolo riguarda i bias algoritmici. L’IA non è neutrale: apprende dai dati che le
vengono forniti. Se questi dati contengono pregiudizi – ad esempio discriminazioni di
genere, razza o classe – l’algoritmo li assimila e li riproduce. ​
​
È già accaduto che modelli di IA abbiano penalizzato candidati a un lavoro per il genere, o
che abbiano generato contenuti razzisti o sessisti, perché addestrati su testi contaminati da
stereotipi. L’IA può quindi rafforzare le disuguaglianze esistenti, anziché eliminarle.
C’è poi il rischio legato alla disinformazione automatizzata. ​
​
Un’IA generativa può scrivere migliaia di articoli falsi, creare video falsi (deepfake), simulare
conversazioni, diffondere propaganda in modo sistematico. Questo può essere usato per
manipolare l’opinione pubblica, interferire con elezioni, creare panico, minare la fiducia nelle
istituzioni e nella verità. ​
​
Se non governata, l’intelligenza artificiale può diventare uno strumento di amplificazione
della menzogna.
Infine, esiste il problema dell’asimmetria di potere: oggi i modelli più avanzati sono sviluppati
da poche grandi aziende private, che ne detengono il controllo (con implicazioni economiche
e politiche ancora poco comprese). ​
​
Chi possiede i modelli, le infrastrutture e i dati controlla il futuro della conoscenza e
del lavoro.
1.7.3 Una responsabilità condivisa
31
Governare l’intelligenza artificiale non significa soffocarla con regolamenti, ma orientarla
verso finalità umane, etiche e sostenibili. ​
​
In Europa, ad esempio, si sta sviluppando un quadro normativo (AI Act) che cerca di
bilanciare innovazione e tutela dei diritti fondamentali. Si parla di responsabilità, trasparenza,
tracciabilità, equità. ​
​
Ma le leggi da sole non bastano. Serve educazione diffusa, formazione trasversale,
alfabetizzazione digitale per tutti. Un cittadino che usa un assistente virtuale o legge una
notizia generata da IA deve sapere come funziona, cosa aspettarsi, quali limiti considerare.
La governance dell’IA deve coinvolgere governi e aziende, ma anche ricercatori, filosofi,
ingegneri, giornalisti, artisti, docenti, cittadini.
È una sfida che riguarda ogni settore della società. In questo senso, l’intelligenza artificiale è
uno specchio della nostra civiltà. ​
​
Se sapremo costruirla bene, ci aiuterà a realizzare un mondo più giusto, creativo,
intelligente. Se la costruiremo male, ne pagheremo le conseguenze.
2. Storia e sviluppo dell’IA
2.1 – Le origini dell’IA: dagli anni ‘50 a oggi
32
2.1.1 Un’idea rivoluzionaria nata dalla logica matematica
L’intelligenza artificiale è il risultato di un processo intellettuale maturato all’interno della
logica matematica e della filosofia della mente. ​
​
Fin dalla prima metà del Novecento, alcuni studiosi iniziarono a chiedersi se una macchina,
opportunamente programmata, potesse svolgere attività tipiche dell’intelligenza umana. ​
​
Tra questi spicca Alan Turing, matematico britannico, che nel 1950 scrisse un articolo
destinato a diventare il riferimento teorico per tutto il settore: Computing Machinery and
Intelligence. ​
​
Nel testo, Turing esplora l’idea di una macchina intelligente e propone anche un test – oggi
noto come Test di Turing – per determinare se una macchina possa davvero “pensare”,
cioè interagire con un essere umano in modo indistinguibile da un’altra persona. ​
​
Questo articolo segnò il passaggio dall’ipotesi astratta alla progettualità concreta, aprendo la
strada a decenni di sperimentazione.​
​
2.1.2 La Conferenza di Dartmouth e la nascita ufficiale dell’IA
Nel 1956, presso il Dartmouth College negli Stati Uniti, un gruppo di ricercatori di varia
formazione – tra cui John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon
– si riunì per dare forma a una nuova disciplina. ​
​
L’incontro non fu solo un’occasione di scambio scientifico, ma rappresentò l’atto di
fondazione dell’intelligenza artificiale come campo autonomo di ricerca. ​
​
In quella sede fu coniato per la prima volta il termine “Artificial Intelligence” e si delineò
l’obiettivo principale: costruire macchine capaci di imitare e riprodurre comportamenti
intelligenti. ​
​
L’entusiasmo era altissimo. I partecipanti credevano che, in un arco di tempo relativamente
breve, si sarebbe riusciti a costruire macchine capaci di ragionare, apprendere e perfino
comunicare come esseri umani. ​
​
33
Si aprì così un’epoca pionieristica di esperimenti, con la nascita dei primi laboratori
universitari e il primo afflusso di fondi pubblici e privati. Ma questa fase iniziale, pur piena di
idee, avrebbe presto svelato anche i primi ostacoli pratici.
​
2.1.3 Le prime applicazioni e i limiti iniziali
I primi programmi sviluppati negli anni Cinquanta e Sessanta cercavano di emulare il
ragionamento umano attraverso sistemi di regole logiche: venivano chiamati “sistemi
simbolici”. ​
​
Uno degli esempi più noti è Logic Theorist, progettato da Allen Newell e Herbert Simon, che
riusciva a dimostrare teoremi di logica proposizionale. ​
​
Un altro esempio, diventato famoso anche al di fuori degli ambienti accademici, è ELIZA, un
programma che simulava una conversazione terapeutica basata su domande predefinite. ​
​
Questi esperimenti erano affascinanti per l’epoca, ma si basavano su presupposti molto
fragili. Le regole dovevano essere scritte a mano, una per una, e i sistemi non erano in
grado di affrontare ambiguità, contesti nuovi o linguaggi non formalizzati. ​
​
Inoltre, i limiti tecnici erano significativi: l’hardware era lento, la memoria ridotta, e mancava
una quantità sufficiente di dati su cui allenare i sistemi. ​
​
Per la prima volta, l’entusiasmo teorico si scontrava con le reali difficoltà tecnologiche e
cognitive. Si iniziava a comprendere che riprodurre il comportamento intelligente era molto
più complesso di quanto si fosse inizialmente immaginato.
​
​
​
2.2.1 Alan Turing: il pensatore che immaginò le macchine intelligenti
Alan Turing è il punto di partenza per qualsiasi discussione sull’intelligenza artificiale.​
Non ha costruito un sistema di IA, ma ha posto le basi concettuali e matematiche su cui
tutto il campo si è sviluppato.
34
Nel 1950 scrisse l’articolo Computing Machinery and Intelligence, in cui si pose una
domanda che oggi appare ancora straordinariamente attuale:​
​
“Le macchine possono pensare?”
Per rispondere, Turing propose un esperimento mentale chiamato “Imitation Game”, oggi
noto come Test di Turing.​
​
Secondo questo test, se un interlocutore umano non è in grado di distinguere se sta
parlando con una persona o con una macchina, allora quella macchina può essere
considerata intelligente dal punto di vista funzionale.
Questo approccio era rivoluzionario perché spostava il concetto di intelligenza dal
“come” al “cosa”: non importa come una mente sia costruita, ma se riesce a comportarsi
come tale.
Turing fu anche il primo a immaginare una macchina universale, capace di eseguire
qualsiasi algoritmo: un’idea che anticipava di decenni il concetto di computer
programmabile.
Senza il suo pensiero, non esisterebbe oggi né la teoria dell’informazione moderna, né una
base solida per l’intelligenza artificiale come la conosciamo.
2.2.2 John McCarthy: il creatore del termine “intelligenza artificiale”
John McCarthy è colui che ha dato un nome ufficiale al campo.​
Fu lui a proporre, nel 1956, il termine “Artificial Intelligence” durante la storica conferenza
di Dartmouth.
Ma il contributo di McCarthy non fu solo semantico.​
​
Fu un architetto tecnico e teorico della cosiddetta IA simbolica, un filone di ricerca che
dominò per decenni.
McCarthy credeva che l’intelligenza potesse essere rappresentata manipolando simboli in
modo logico. Per rendere possibile questa idea, sviluppò un linguaggio di programmazione
ad hoc: LISP.
35
LISP fu pensato per gestire liste, strutture e regole logiche, ed è stato per anni lo standard
nei laboratori di IA. Anche oggi, in alcuni ambiti accademici, viene usato per la sua eleganza
e flessibilità nella rappresentazione della conoscenza.
McCarthy era convinto che fosse possibile costruire una macchina in grado non solo di
apprendere, ma anche di ragionare su concetti astratti. Questa visione ispirò intere
generazioni di ricercatori.
Sebbene l’approccio simbolico abbia mostrato dei limiti (soprattutto nella gestione
dell’ambiguità del linguaggio e della realtà), resta ancora oggi uno dei pilastri fondamentali
dell’intelligenza artificiale classica.
2.2.3 Marvin Minsky, Herbert Simon e Allen Newell: dalla teoria alla simulazione del
pensiero
Marvin Minsky fu uno dei primi a intuire che l’intelligenza non fosse un’unica funzione, ma
un insieme di meccanismi coordinati. Secondo lui, la mente era una rete di processi
modulari, ognuno con un compito specifico: percepire, valutare, decidere, memorizzare.
Fondò il laboratorio di IA del MIT, che divenne in breve tempo uno dei centri più avanzati del
mondo.​
​
Sostenne l’idea che l’intelligenza potesse essere scomposta e simulata, anche in assenza di
una vera coscienza.
Allo stesso tempo, Herbert Simon e Allen Newell lavoravano a un obiettivo molto concreto:
riprodurre il ragionamento umano con un computer.
Progettarono due programmi fondamentali per la storia dell’IA:
●​ Logic Theorist, capace di dimostrare teoremi logici
●​ General Problem Solver, pensato per risolvere problemi generali sulla base di
regole astratte​
Questi sistemi rappresentavano le prime vere simulazioni computazionali del pensiero
umano. Erano lenti, limitati e rudimentali, ma dimostravano che era possibile insegnare a
una macchina a ragionare.
36
Simon, oltre a essere un informatico, era anche uno studioso di psicologia cognitiva.
Credeva che lo studio delle macchine potesse aiutare a comprendere meglio il
funzionamento della mente umana.
I loro lavori gettarono le basi per un dialogo fecondo tra intelligenza artificiale e scienze
cognitive, che avrebbe influenzato decenni di ricerca interdisciplinare.
​
2.3 – Le fasi di crescita dell’intelligenza artificiale
2.3.1 L’entusiasmo iniziale e le aspettative premature
Negli anni successivi alla conferenza di Dartmouth del 1956, l’intelligenza artificiale fu
accolta da un’ondata di entusiasmo quasi euforico.​
​
Scienziati e investitori immaginavano un futuro in cui le macchine avrebbero presto
eguagliato l’intelligenza umana, diventando capaci di ragionare, apprendere, tradurre,
pianificare e perfino dialogare.
Questa fiducia non era campata in aria.​
​
I primi programmi simbolici avevano dimostrato di poter svolgere compiti logici, risolvere
problemi matematici, simulare semplici conversazioni.​
Il Logic Theorist era riuscito a dimostrare teoremi in modo indipendente, e ELIZA, con poche
regole, imitava un terapeuta.
Per molti, bastava continuare su questa strada per raggiungere l’obiettivo finale: una
macchina pensante. Si parlava con disinvoltura di sistemi capaci di tradurre lingue in tempo
reale, pilotare razzi o comprendere testi giuridici.​
​
Il problema era che queste previsioni erano fatte sottovalutando la complessità del mondo
reale, e sovrastimando le capacità delle tecnologie disponibili.
37
I computer dell’epoca erano estremamente limitati in termini di memoria, velocità di calcolo e
capacità di gestione di ambiguità o contesti complessi. Tuttavia, l’entusiasmo era tale da
portare alla nascita di decine di laboratori, corsi universitari e progetti finanziati da enti
pubblici e agenzie militari.
2.3.2 Gli anni ’80 e il successo dei sistemi esperti
Dopo un primo momento di disillusione, l’IA tornò a crescere negli anni Ottanta grazie a un
approccio più realistico e applicabile: quello dei sistemi esperti.​
Invece di cercare di imitare tutta l’intelligenza umana, i ricercatori iniziarono a costruire
sistemi specializzati in domini molto ristretti, ma altamente utili.
Un sistema esperto funzionava sulla base di regole condizionali, come “se accade X, allora
fai Y”.​
​
Queste regole venivano raccolte da esperti umani e inserite nel programma, che poteva così
rispondere a domande complesse in ambiti specifici: medicina, geologia, elettronica,
diagnosi di guasti tecnici.
Uno degli esempi più citati è MYCIN, sviluppato negli anni ’70 ma diventato famoso negli
’80.​
​
Era in grado di analizzare sintomi clinici e consigliare trattamenti antibiotici. In test controllati,
i suoi suggerimenti erano comparabili o superiori a quelli di medici meno esperti.
Il vantaggio dei sistemi esperti era la loro affidabilità in contesti ben definiti, ma avevano
anche limiti importanti. Non erano in grado di imparare da nuovi casi, non gestivano
incertezze, e dipendevano completamente dalla qualità delle regole inserite a mano.
Man mano che le conoscenze aumentavano, i sistemi diventavano troppo grandi e difficili da
aggiornare. A quel punto, la necessità di sistemi più flessibili e adattivi diventò evidente. ​
​
Fu proprio questa insoddisfazione a riaccendere l’interesse per approcci basati
sull’apprendimento dai dati.
2.3.3 La transizione verso il machine learning
38
Negli anni Novanta emerse in modo sempre più chiaro che, per affrontare la complessità del
mondo reale, i sistemi di IA dovevano imparare dai dati, non solo eseguire regole.​
Questa consapevolezza segnò l’inizio di una nuova era: quella del machine learning.
Il machine learning rappresenta un cambio di paradigma radicale.​
​
Invece di programmare manualmente ogni comportamento, i ricercatori iniziarono a
sviluppare algoritmi capaci di riconoscere pattern nei dati e di generalizzare da esempi
passati.​
Un sistema di questo tipo non ha bisogno di sapere esplicitamente tutte le regole: impara
attraverso l’esperienza.
Per esempio, per insegnare a una macchina a riconoscere un volto, non serviva più scrivere
regole su occhi, naso o proporzioni.​
Bastava fornire migliaia di foto etichettate e lasciare che il sistema trovasse da solo le
caratteristiche rilevanti.
Questa fase non fu esente da difficoltà.​
​
I modelli erano inizialmente semplici, l’hardware ancora poco performante, e i dataset di
addestramento troppo piccoli. Ma l’idea di base era solida e, con il passare degli anni,
avrebbe portato a sviluppi enormi, in particolare con l’introduzione delle reti neurali
profonde.
Fu grazie a questo nuovo approccio – basato sull’apprendimento automatico e non più sulla
codifica esplicita – che l’intelligenza artificiale iniziò a trovare applicazioni concrete su
larga scala, in settori come la visione artificiale, il riconoscimento vocale e la
raccomandazione di contenuti.
Questa transizione segnò il passaggio dall’IA simbolica a quella statistica.​
​
Un passaggio che pose le basi per l’era moderna dell’intelligenza artificiale, e per il
boom che sarebbe arrivato con il deep learning.
​
​
39
​
​
2.4 – L’inverno dell’IA e le sue cause
2.4.1 Il primo inverno: il divario tra teoria e realtà
Nel corso degli anni ’60 e ’70, le prime ricerche sull’intelligenza artificiale promettevano
risultati straordinari.​
​
Molti scienziati credevano che, nel giro di pochi anni, sarebbe stato possibile costruire
macchine capaci di parlare fluentemente, tradurre in tempo reale, pianificare missioni
complesse e perfino ragionare in autonomia.​
​
Sulla carta, tutto sembrava a portata di mano. ​
​
Tuttavia, nella pratica le cose si rivelarono molto più difficili. I sistemi sviluppati erano ancora
troppo fragili, rigidi e poco scalabili. Funzionavano solo in condizioni molto controllate e si
rompevano facilmente di fronte a input imprevisti o ambigui.
Un esempio chiave fu il fallimento della traduzione automatica tra russo e inglese,
sponsorizzata dal governo americano durante la Guerra Fredda.​
​
I risultati erano così insoddisfacenti che i testi tradotti risultavano illeggibili, spesso ridicoli.​
Questa esperienza dimostrò quanto il linguaggio naturale umano fosse molto più
complesso di quanto gli algoritmi simbolici potessero gestire all’epoca.
Il Congresso degli Stati Uniti, deluso, incaricò una commissione indipendente – il “rapporto
ALPAC” del 1966 – di valutare i progressi della traduzione automatica.​
Il verdetto fu negativo.​
​
Concluse che i progressi erano minimi e che non valeva la pena proseguire con i
finanziamenti.​
​
Questo segnò l’inizio del primo inverno dell’intelligenza artificiale: un periodo di
disillusione in cui l’IA perse buona parte della sua credibilità pubblica.
40
2.4.2 Il secondo inverno: i limiti strutturali dei sistemi esperti
Dopo una ripresa effimera negli anni ’80, grazie alla diffusione dei sistemi esperti,
l’intelligenza artificiale andò incontro a una seconda battuta d’arresto.​
​
Questi sistemi erano stati presentati come la soluzione definitiva per automatizzare il sapere
umano. Potevano, in teoria, simulare il ragionamento di un medico, di un ingegnere o di un
consulente aziendale.
In pratica, però, ogni regola doveva essere inserita manualmente da esperti, un
processo lento, costoso e soggetto a errori.​
​
Per aggiungere una nuova competenza, serviva consultare specialisti, formalizzare la
conoscenza in linguaggio computabile e testare ogni aggiornamento con attenzione.​
Non esisteva alcuna forma di apprendimento automatico.
Questo significava che i sistemi non erano in grado di adattarsi a situazioni nuove, né di
aggiornarsi da soli.​
​
Funzionavano bene in contesti molto ristretti, ma diventavano rapidamente ingestibili quando
il numero di regole cresceva. Più il sistema diventava complesso, più era fragile.
A questi limiti tecnici si aggiunsero problemi di ordine economico.​
Molte aziende avevano investito in queste tecnologie con grandi aspettative, ma i risultati
reali erano molto inferiori.​
​
La manutenzione era difficile, l’efficienza non sempre superiore a quella umana, e i costi
continuavano a crescere.
Verso la fine degli anni ’80, i finanziamenti iniziarono a diminuire.​
Molte startup fallirono, i laboratori universitari chiusero o cambiarono direzione, e l’IA tornò
a essere considerata una disciplina marginale, più visionaria che utile.
2.4.3 Una crisi di fiducia culturale e scientifica
41
Oltre agli insuccessi tecnici e industriali, l’intelligenza artificiale dovette affrontare anche una
crisi più sottile, ma profonda: quella della fiducia nella sua legittimità scientifica.​
​
In molti ambienti accademici, si iniziò a considerare l’IA come una disciplina piena di
promesse non mantenute, lontana dalla concretezza richiesta dalla ricerca applicata.
Alcuni settori si distanziarono completamente.​
​
I linguisti computazionali si orientarono verso approcci statistici più rigorosi.​
Gli informatici si concentrarono su reti, basi di dati, sicurezza e sistemi distribuiti.​
Persino gli psicologi cognitivi si allontanarono dall’idea di mente “computabile” in senso
stretto.
L’IA venne accusata di essere troppo astratta, troppo filosofica, troppo lontana dalla
pratica. Molti dei suoi progetti sembravano interessanti solo sulla carta, ma irrealizzabili nei
contesti reali.​
​
Anche all’interno della comunità, si svilupparono tensioni tra chi credeva ancora nella via
simbolica e chi iniziava a esplorare alternative più matematiche.
Eppure, anche in questo periodo difficile, alcune ricerche continuarono a progredire
silenziosamente. Gruppi sparsi nel mondo accademico e industriale iniziarono a lavorare
su tecniche statistiche, modelli probabilistici e reti neurali semplici.​
​
Anche se in quel momento nessuno immaginava l’impatto che avrebbero avuto, queste
ricerche avrebbero posto le basi per il ritorno dell’IA nel decennio successivo.
Il secondo inverno fu quindi una fase di ridimensionamento, ma anche di riflessione.​
​
Fu un periodo in cui l’IA perse potere mediatico ma guadagnò profondità metodologica,
preparandosi inconsapevolmente alla rivoluzione del machine learning e del deep learning
che sarebbe arrivata poco dopo.
​
​
2.5 – La rinascita grazie al deep learning
42
2.5.1 Un nuovo inizio: dalle reti neurali alle reti profonde
Dopo anni di disillusione, l’intelligenza artificiale ha conosciuto una nuova fioritura a partire
dalla fine degli anni 2000.​
​
Questa rinascita è stata resa possibile da un cambiamento tecnico decisivo: lo sviluppo e
l’affermazione del deep learning, cioè l’apprendimento profondo tramite reti neurali
artificiali.
Le reti neurali non erano una novità assoluta.​
​
Esistevano già dagli anni ’50, ma i primi modelli erano troppo semplici e le tecnologie troppo
limitate per farle funzionare bene.​
​
Con il tempo, però, i ricercatori hanno imparato a costruire architetture più profonde e
articolate, formate da decine o centinaia di livelli, capaci di elaborare informazioni in modo
più raffinato e preciso.
La vera svolta è arrivata quando si è capito che, con reti abbastanza profonde e ben
addestrate, una macchina poteva apprendere direttamente dai dati grezzi, senza che un
programmatore dovesse specificare ogni regola o caratteristica da analizzare.​
​
Questo ha permesso, ad esempio, di riconoscere oggetti nelle immagini o parole nel parlato
senza dover definire in anticipo che forma abbia un naso o come suoni una consonante.
2.5.2 L’evento chiave: la vittoria di AlexNet su ImageNet
Un momento storico per il deep learning è stato il 2012.​
​
In quell’anno, durante una competizione internazionale chiamata ImageNet, un sistema
chiamato AlexNet ottenne risultati sorprendenti nel riconoscimento automatico di immagini.
ImageNet era una sfida enorme.​
​
I partecipanti dovevano progettare sistemi capaci di classificare immagini in migliaia di
categorie diverse, come “gatto siamese”, “elicottero”, “campanile” o “asciugacapelli”. ​
43
I modelli usati fino a quel momento sbagliavano troppo spesso e sembravano aver raggiunto
un limite.
AlexNet, sviluppato da un team guidato da Geoffrey Hinton, riuscì a ridurre gli errori in modo
netto, usando una rete neurale profonda e una tecnica chiamata backpropagation, che
consente di correggere gli errori della rete in modo efficiente.
Questa vittoria segnò un punto di svolta.​
​
Per la prima volta, fu chiaro che i sistemi basati su apprendimento profondo non solo
funzionavano, ma superavano le tecniche precedenti in modo netto.​
​
Da quel momento, l’interesse verso il deep learning crebbe rapidamente in tutto il mondo,
sia nell’ambito della ricerca che nel settore industriale.
2.5.3 Dall’apprendimento supervisionato alla scalabilità industriale
Il deep learning ha rivoluzionato il modo in cui l’IA viene applicata ai problemi reali.​
​
Grazie a queste nuove tecniche, è diventato possibile risolvere compiti che fino a poco
tempo prima erano considerati inaccessibili per le macchine: riconoscere volti in una folla,
generare voci artificiali credibili, tradurre lingue in modo fluente, o classificare milioni di
documenti in pochi secondi.
La chiave del successo non sta solo nell’architettura delle reti neurali, ma anche nel metodo
con cui vengono allenate. L’approccio più comune è quello supervisionato, in cui il sistema
impara da migliaia o milioni di esempi già etichettati.​
​
Per esempio, per insegnare a una rete a distinguere tra un cane e un gatto, le si mostrano
migliaia di immagini, ognuna già accompagnata dalla risposta corretta.​
La rete impara a riconoscere autonomamente le differenze, migliorando con ogni esempio.
Ma il vero passo avanti è stato capire come portare queste tecnologie fuori dai
laboratori, rendendole scalabili e affidabili per il mondo industriale.​
​
Con l’arrivo di potenti unità di calcolo (GPU), l’aumento dei dati disponibili e l’adozione di
44
piattaforme cloud, il deep learning è diventato parte integrante di molti prodotti e servizi
che usiamo ogni giorno.
Oggi, molte applicazioni che sembrano semplici – dal filtro antispam della posta alla
traduzione automatica – sono alimentate da modelli profondi che, dietro le quinte,
analizzano enormi quantità di dati e prendono decisioni in tempo reale.​
​
Questa capacità di adattarsi, apprendere e scalare ha cambiato per sempre la traiettoria
dell’intelligenza artificiale.​
​
2.6 – L’esplosione dell’intelligenza artificiale generativa
2.6.1 Una nuova fase: da riconoscere a creare
Fino a pochi anni fa, l’intelligenza artificiale era vista come uno strumento utile per
riconoscere, ordinare, classificare. ​
​
Poteva distinguere immagini, trascrivere la voce, suggerire un film, ma non era capace di
produrre qualcosa di nuovo. L’arrivo dell’IA generativa ha cambiato radicalmente questo
scenario.
Con l’IA generativa, la macchina comprende input già esistenti e crea attivamente
contenuti originali a partire da una richiesta umana. È come se il computer fosse
passato da “osservatore intelligente” a “autore autonomo”. ​
​
Può scrivere un testo su un tema specifico, generare l’immagine di un animale immaginario,
comporre musica mai sentita o progettare un’interfaccia utente da zero.
Questa capacità nasce dall’uso di modelli complessi, allenati su quantità immense di dati. ​
​
L’IA studia miliardi di esempi, imparando come gli esseri umani scrivono, disegnano,
cantano o programmano, e poi usa queste conoscenze per generare risultati nuovi ma
45
coerenti. È importante chiarire che non copia: crea contenuti nuovi, anche se costruiti su
pattern appresi.
Il cambiamento è profondo, perché mette nelle mani di tutti strumenti creativi potenti, fino a
pochi anni fa inaccessibili. E lo fa con un’interfaccia semplice, spesso ridotta a una sola riga
di testo: basta scrivere cosa si vuole ottenere, e la macchina lo genera.
2.6.2 I modelli che hanno cambiato il panorama digitale e professionale
L’accelerazione dell’IA generativa è dovuta a una nuova classe di modelli noti come
foundation models. ​
​
Questi modelli, come GPT, DALL·E, Stable Diffusion, Midjourney e Codex,
rappresentano una vera infrastruttura di creatività artificiale. Sono costruiti con miliardi di
parametri e allenati su testi, immagini e suoni provenienti da tutta la rete.
GPT, in particolare, ha trasformato la scrittura automatica. Può scrivere e-mail, saggi,
dialoghi, piani aziendali, descrizioni prodotto, analisi di mercato. Non segue uno schema
rigido, ma adatta lo stile, il tono e la struttura al contesto richiesto, come farebbe un
redattore esperto. Per questo è stato adottato da studenti, manager, insegnanti, content
creator e professionisti di ogni settore.
DALL·E e Midjourney, invece, hanno rivoluzionato la produzione visiva. Generano
immagini dettagliate, artistiche o realistiche, partendo da una breve descrizione scritta.
Senza saper disegnare o usare software di grafica, chiunque può creare una copertina per
un libro, un manifesto pubblicitario, una scena fantastica o una mascotte per un brand.
Nel mondo del codice, strumenti come GitHub Copilot hanno trasformato il modo in cui si
programma. L’IA suggerisce righe di codice, individua errori, spiega funzioni complesse.
Riduce il tempo necessario per sviluppare un’applicazione e rende il lavoro più fluido, anche
per chi è alle prime armi.
Tutti questi modelli non lavorano in isolamento. ​
​
Si integrano sempre di più in piattaforme e flussi di lavoro quotidiani, e questo sta
modificando non solo cosa facciamo, ma come lo facciamo: creatività, scrittura, design e
sviluppo software stanno diventando attività assistite, collaborative, sempre più fluide tra
uomo e macchina.
46
2.6.3 L’impatto sulla creatività, il lavoro e la cultura digitale
L’IA generativa sta ridefinendo in profondità il concetto stesso di creatività. Per secoli, creare
qualcosa è stato considerato un atto umano, legato all’esperienza, alla sensibilità,
all’immaginazione. ​
Ora, per la prima volta, una macchina può generare contenuti originali su richiesta, in
pochi secondi, senza emozioni ma con risultati sorprendentemente efficaci.
Questo porta con sé opportunità enormi.​
​
Una persona senza competenze artistiche può generare illustrazioni professionali.​
Uno studente può ricevere aiuto per scrivere un saggio o strutturare un’idea.​
Un imprenditore può creare presentazioni, loghi e siti web senza rivolgersi a un team.​
La creatività viene democratizzata: non è più solo questione di abilità manuale, ma di
visione e di capacità di dialogo con la macchina.
Ma questa rivoluzione solleva anche sfide serie.​
​
Chi è il vero autore di un’opera generata da IA?​
Come tutelare gli artisti i cui lavori sono stati usati per addestrare questi modelli?​
Come distinguere un testo generato da una macchina da uno scritto da una persona,
soprattutto in contesti sensibili come l’informazione o la politica?
C’è poi una questione più ampia: come cambia la nostra percezione della creatività, del
merito e dell’unicità, in un mondo dove i contenuti possono essere replicati all’infinito, senza
fatica?​
​
La velocità e la facilità offerte dall’IA rischiano di svalutare il processo creativo,
rendendolo meno riflessivo, più superficiale.
Questi interrogativi non possono essere ignorati. L’IA generativa non è solo una nuova
tecnologia: è un cambio di paradigma. Richiede nuove competenze, nuove regole, una
nuova consapevolezza.
47
E forse, soprattutto, una nuova idea di cosa significhi essere creativi in un’epoca in cui la
macchina non copia, ma crea.
2.7 – Il ruolo dei big data e della potenza di calcolo
2.7.1 L’importanza dei dati nell’intelligenza artificiale moderna
L’intelligenza artificiale non può funzionare nel vuoto. Per imparare a svolgere compiti
complessi, una macchina ha bisogno di osservare moltissimi esempi. E questi esempi
arrivano dai dati.
Un sistema che deve riconoscere immagini di animali, ad esempio, dovrà “vedere” migliaia
di foto etichettate. Un modello che scrive testi dovrà leggere milioni di frasi, dialoghi e
articoli.​
​
Questa esposizione massiccia ai dati è ciò che consente all’IA di apprendere regole, schemi
e associazioni.
Quando parliamo di big data, ci riferiamo proprio a questo: insiemi di dati talmente grandi,
vari e complessi che non possono essere gestiti con strumenti tradizionali.​
​
Sono dati che provengono da molte fonti diverse: siti web, social media, documenti pubblici,
sensori, videocamere, app, dispositivi mobili.​
​
Ogni secondo, nel mondo, vengono generati dati in quantità enormi, e l’IA moderna è
progettata per sfruttarli in modo intelligente.
Il valore dei dati, però, non sta solo nella quantità.​
Devono essere organizzati, di buona qualità, rappresentativi del mondo reale.​
Se i dati sono incompleti o distorti, anche l’IA che li utilizza darà risposte sbagliate o parziali.​
​
48
È per questo che la gestione dei dati è diventata una delle competenze centrali per chi
lavora nell’intelligenza artificiale.
2.7.2 Il ruolo della potenza di calcolo nei modelli attuali
Accanto ai dati, c’è un altro elemento essenziale per far funzionare i modelli di IA: la potenza
di calcolo.​
​
Un sistema di intelligenza artificiale non si limita a guardare esempi, ma deve elaborarli,
analizzarli e trasformarli in modelli capaci di fare previsioni o generare contenuti.
Questa elaborazione richiede macchine molto potenti.​
​
Parliamo di infrastrutture informatiche avanzate composte da processori specializzati
(come le GPU e le TPU), server distribuiti e piattaforme in cloud.​
​
Sono tecnologie nate per altri scopi – come i videogiochi o la grafica 3D – ma che si sono
rivelate perfette per allenare reti neurali profonde.
Più è grande un modello, più servono risorse. Alcuni modelli di linguaggio, ad esempio,
vengono addestrati per settimane o mesi interi su supercomputer che consumano
quantità enormi di energia elettrica e memoria.​
​
Senza questa potenza, sarebbe impossibile analizzare miliardi di parole, immagini o segnali
audio, come fanno i sistemi di IA generativa.
Ma la potenza di calcolo serve anche dopo l’addestramento. ​
​
Ogni volta che interagiamo con un chatbot, generiamo un’immagine o otteniamo un
suggerimento personalizzato, c’è un modello che lavora in tempo reale, elaborando richieste
complesse in pochi secondi.​
​
Tutto questo è reso possibile da un’infrastruttura tecnologica globale, che sta diventando
parte integrante della nostra vita quotidiana.
2.7.3 L’asimmetria tra chi ha risorse e chi non le ha
49
Oggi, solo pochi soggetti nel mondo hanno accesso diretto sia a grandi volumi di dati che a
una potenza di calcolo adeguata.​
​
Si tratta per lo più di grandi aziende tecnologiche e di governi che dispongono di capitali,
infrastrutture e competenze elevate.​
​
Questo crea una forte asimmetria tra chi può sviluppare modelli di IA avanzati e chi deve
accontentarsi di usarli senza controllarli. Chi possiede i dati e la potenza per elaborarli può
creare modelli sempre più precisi e potenti.​
​
Ma può anche influenzare il mercato, le informazioni, il comportamento degli utenti.​
La concentrazione di queste risorse in poche mani ha sollevato domande importanti sul
piano etico, politico ed economico.
Molti esperti temono che questa centralizzazione possa portare a diseguaglianze
crescenti, in cui solo una parte del mondo beneficia davvero dell’intelligenza artificiale,
mentre il resto resta escluso o dipendente da decisioni prese altrove.
Per affrontare questo rischio, si stanno sviluppando modelli più aperti, piattaforme accessibili
e regolamenti che impongano trasparenza e equità.​
​
Ma il problema resta attuale e urgente: chi controlla l’intelligenza artificiale, controlla
una parte sempre più rilevante del futuro.
​
3. Cos’è il Natural Language Processing (NLP)
​
​
3.1.1 – Cos’è il Natural Language Processing e perché è importante
50
Il Natural Language Processing, spesso abbreviato in NLP, è un’area dell’intelligenza
artificiale che si occupa di studiare e sviluppare tecnologie in grado di capire, analizzare e
generare il linguaggio umano.​
​
Questo significa insegnare ai computer a lavorare con parole, frasi e testi scritti o parlati, in
modo simile a come lo fanno le persone.
Quando navighiamo su un motore di ricerca, chiediamo qualcosa a un assistente vocale,
traduciamo un testo online o riceviamo un suggerimento di completamento automatico
mentre scriviamo, c’è sempre un sistema di NLP che lavora dietro le quinte.​
​
Il linguaggio è la forma più naturale con cui gli esseri umani comunicano, ma per una
macchina è anche una delle forme più difficili da interpretare, perché è ricco di sfumature,
ambiguità, emozioni e contesti impliciti.
Il NLP cerca quindi di colmare il divario tra linguaggio umano e linguaggio delle
macchine.​
​
Lo fa trasformando le parole in qualcosa che un computer possa elaborare, come numeri o
strutture logiche, e poi restituisce una risposta che sia coerente e utile per l’utente.​
​
Questo processo è fondamentale per rendere l’interazione con i dispositivi digitali più
semplice, diretta e naturale, anche per chi non ha competenze tecniche.
In un mondo sempre più connesso e digitale, il NLP sta diventando una tecnologia chiave.​
Permette di automatizzare attività che richiedono comprensione linguistica, come
l’analisi di documenti, la generazione di testi, il supporto clienti, la sintesi di contenuti, e
molto altro.​
​
Per questo motivo, è oggi uno degli ambiti più attivi e strategici nel campo dell’intelligenza
artificiale.
​
3.1.2 – Le origini e l’evoluzione del NLP
51
L’idea di insegnare alle macchine a comprendere il linguaggio umano nasce in un’epoca in
cui i computer erano strumenti enormi, lenti e poco intuitivi.​
​
Negli anni ’50, i primi esperimenti sul linguaggio si concentravano su obiettivi molto pratici:
tradurre automaticamente testi da una lingua all’altra, in particolare tra inglese e russo.​
​
Questo perché durante la Guerra Fredda c’era un grande interesse, soprattutto militare, nel
poter leggere documenti scientifici nemici in modo rapido ed efficiente.
Le prime soluzioni furono costruite con approcci chiamati basati su regole.​
​
Un gruppo di linguisti scriveva a mano tutte le regole grammaticali e i vocabolari.​
Il computer confrontava ogni parola del testo da tradurre con un elenco, cercava la
corrispondenza nell’altra lingua e applicava la struttura grammaticale definita.​
​
Questo sistema sembrava funzionare su frasi molto semplici, ma non appena si
incontravano ambiguità, espressioni idiomatiche o frasi complesse, il modello falliva
completamente.
Questa fase iniziale mostrò un problema centrale: il linguaggio umano non è un insieme
rigido di regole, ma un sistema flessibile, ambiguo e dipendente dal contesto.​
Nel tempo, i ricercatori capirono che serviva un nuovo approccio.​
​
Con l’avvento dei computer più potenti e la digitalizzazione di milioni di testi, si cominciò a
usare la statistica: i programmi non cercavano più di comprendere il significato, ma di
individuare le combinazioni più probabili tra parole e frasi, imparando dai dati.​
​
Questo fu l’inizio dell’approccio probabilistico, che avrebbe preparato il terreno
all’apprendimento automatico e poi all’IA moderna.
3.1.3 – NLP tra linguistica e informatica
Il Natural Language Processing è un’area unica perché si trova al confine tra due mondi
molto diversi: quello della linguistica e quello dell’informatica.​
​
Per creare un sistema capace di capire un testo o rispondere a una domanda, servono
52
competenze sia umane che tecniche.​
​
Serve sapere come funziona la lingua, ma anche come rappresentarla
matematicamente in un computer.
La linguistica fornisce gli strumenti per analizzare la lingua a più livelli.​
C’è il livello fonetico (i suoni), morfologico (le parole), sintattico (la struttura delle frasi),
semantico (il significato) e pragmatico (l’intenzione).​
​
Tutti questi livelli interagiscono tra loro.​
​
Un essere umano riesce a cogliere il senso di una frase anche quando è ambigua, ironica o
imprecisa, grazie all’intuito e all’esperienza. Una macchina, invece, deve avere un modello
strutturato che le dica come “muoversi” nel linguaggio.
L’informatica, d’altro canto, entra in gioco quando si tratta di rendere questi elementi
comprensibili per un sistema digitale.​
​
Le parole vengono trasformate in numeri, vettori o matrici.​
La grammatica si traduce in strutture logiche o regole formali.​
Il significato viene interpretato tramite correlazioni osservate nei dati.​
​
Questo processo richiede una modellazione matematica estremamente precisa, che
permette al computer di “simulare” una comprensione linguistica.
Il vero progresso nel NLP arriva quando questi due mondi lavorano insieme.​
Un modello ben progettato deve sapere come funziona la lingua nei suoi dettagli, ma
anche come ottimizzare l’elaborazione delle informazioni per essere veloce, scalabile e utile
nella pratica.​
​
È questo equilibrio tra teoria del linguaggio e architettura computazionale a rendere il NLP
una delle sfide più affascinanti e strategiche dell’IA contemporanea.
​
53
​
​
3.2 – NLP e comprensione del linguaggio umano
3.2.1 Il linguaggio naturale come sistema complesso
Il linguaggio umano è una delle creazioni più sofisticate dell’evoluzione.​
​
È lo strumento che ci permette non solo di comunicare, ma anche di esprimere emozioni,
formulare idee astratte, raccontare storie, fare domande, costruire significato.​
​
Ma proprio per questo, per una macchina, capire il linguaggio naturale è una sfida
straordinariamente complessa.
A differenza di un linguaggio artificiale, come quello della matematica o dei computer, il
linguaggio naturale è ambiguo, fluido e impreciso.​
​
Una parola può avere significati diversi a seconda del contesto.​
Una stessa frase può essere interpretata in modi diversi da persone diverse.​
E spesso, molto di ciò che diciamo è implicito, sottinteso o influenzato dalla cultura e dalla
situazione in cui ci troviamo.
Inoltre, il linguaggio cambia continuamente.​
Nuove espressioni nascono, altre cadono in disuso.​
I modi di dire variano da una regione all’altra, da una generazione all’altra.​
​
Questo rende molto difficile per un sistema automatico riuscire a costruire una
rappresentazione stabile e coerente della lingua.​
​
È per questo che il NLP richiede non solo potenza di calcolo, ma anche modelli flessibili,
adattabili e capaci di gestire la variabilità del linguaggio umano.
3.2.2 Ambiguità semantica e ruolo del contesto
Una delle sfide più difficili che il NLP deve affrontare è l’ambiguità.​
​
Nel linguaggio naturale, molte parole o frasi possono avere più di un significato.​
54
La parola “banca”, ad esempio, può indicare un istituto finanziario o la riva di un fiume.​
Solo il contesto ci permette di capire quale delle due è quella giusta.
​
Questa ambiguità non è un’eccezione, ma la norma.​
​
Ogni giorno, quando leggiamo o ascoltiamo qualcuno, interpretiamo automaticamente il
significato in base alla situazione, al tono di voce, alle informazioni che già possediamo.​
​
Per un essere umano, questo è un processo intuitivo.​
Per una macchina, invece, è estremamente complesso, perché non possiede un’esperienza
del mondo o una comprensione reale di ciò che accade.
Il contesto può essere linguistico (cioè le parole che circondano un termine ambiguo), ma
anche extralinguistico: chi parla, a chi si rivolge, dove si trova, con quale scopo.​
​
I modelli di NLP più avanzati cercano di incorporare il contesto nelle loro elaborazioni,
per evitare interpretazioni errate.​
​
3.2.3 La comprensione linguistica nelle macchine
Quando diciamo che un modello di NLP “comprende” un testo, dobbiamo fare attenzione.​
Il termine “comprendere”, per una macchina, non significa la stessa cosa che per un
essere umano.​
​
Un modello non ha coscienza, intenzioni, emozioni. Non sa cosa significa “triste”, non ha
mai provato dolore o gioia, non possiede esperienze personali.​
​
Tutto ciò che fa è analizzare sequenze di parole, cercando schemi e relazioni appresi
durante l’addestramento.
Quello che chiamiamo comprensione in un sistema NLP è in realtà una simulazione
statistica del linguaggio.​
​
Il modello cerca la parola o la frase che è più probabile venga dopo, in base a miliardi di
esempi visti in precedenza.​
55
Questo meccanismo può produrre testi coerenti e spesso utili, ma non equivale a una
comprensione vera e propria.
Per rendere questi sistemi più efficaci, i ricercatori stanno cercando di renderli più sensibili al
contesto, alla coerenza del discorso e agli obiettivi comunicativi.​
​
Ma, almeno per ora, il modello non capisce davvero: prevede con grande abilità, ma non
interpreta con consapevolezza.
Questo non significa che il NLP non sia utile, anzi.​
​
Significa però che, quando usiamo un sistema linguistico basato su IA, dobbiamo essere
consapevoli dei suoi limiti e dei suoi punti di forza.​
​
Ciò che produce può sembrare intelligente, ma è sempre frutto di calcolo, non di
pensiero.
​
​
​
3.3 – Traduzione automatica e sentiment analysis
3.3.1 Dalla traduzione parola per parola alla traduzione neurale
I primi sistemi di traduzione automatica funzionavano in modo molto semplice:
confrontavano una parola alla volta con un dizionario digitale e applicavano una serie di
regole grammaticali predefinite.​
​
Questo metodo, sebbene utile in contesti molto ristretti, produceva spesso frasi poco naturali
o completamente sbagliate, perché ignorava il significato complessivo della frase e il
contesto in cui le parole venivano usate.
Con l’evoluzione dell’IA e del NLP, si è passati a un nuovo approccio chiamato traduzione
neurale.​
​
In questo modello, le frasi vengono trasformate in rappresentazioni numeriche che
56
permettono alla macchina di analizzarle in modo più ampio. Il sistema non traduce più una
parola alla volta, ma cerca di capire l’intero significato della frase, per poi generare una
traduzione più coerente e naturale.
Questo ha migliorato in modo significativo la qualità delle traduzioni.​
​
Oggi strumenti come Google Translate o DeepL riescono a produrre testi molto più fluidi,
spesso difficili da distinguere da quelli scritti da un essere umano.​
​
Tuttavia, anche questi sistemi non “comprendono” davvero ciò che traducono, ma usano
modelli statistici per prevedere la sequenza di parole più probabile nella lingua di arrivo.
3.3.2 Sentiment analysis: come le macchine analizzano le emozioni
La sentiment analysis è una tecnica del NLP che permette a una macchina di analizzare un
testo e capire quale atteggiamento esprime: positivo, negativo o neutro.​
​
Questa analisi si basa sull’idea che le parole che usiamo riflettano il nostro stato d’animo, le
nostre opinioni o emozioni.
Un esempio concreto può essere l’analisi di recensioni online.​
Se molti utenti scrivono “prodotto eccellente”, “consigliato”, “soddisfatto”, il sistema riconosce
che il tono generale è positivo.​
​
Al contrario, frasi come “deluso”, “scarsa qualità” o “non funziona” indicano un sentimento
negativo.​
​
Ma la macchina non si limita a contare parole: deve anche considerare il contesto, la
struttura della frase e l’ironia, che è spesso difficile da rilevare.
Questa tecnologia viene utilizzata in moltissimi ambiti, dalle analisi di mercato alla gestione
della reputazione online, fino al monitoraggio delle opinioni politiche sui social media.​
​
Nonostante i progressi, riconoscere emozioni complesse o sfumate è ancora difficile
per un sistema automatico, soprattutto in testi ambigui o scritti in tono sarcastico.
57
3.3.3 Applicazioni reali e limiti attuali
Sia la traduzione automatica che la sentiment analysis sono oggi presenti in moltissimi
strumenti che usiamo ogni giorno, spesso senza rendercene conto.​
​
Molti siti internazionali traducono dinamicamente i contenuti, le piattaforme di e-commerce
usano l’analisi del sentiment per valutare la soddisfazione dei clienti, e persino le aziende
sanitarie monitorano lo stato emotivo dei pazienti nei questionari.
Queste applicazioni hanno avuto un impatto significativo sulla comunicazione digitale,
rendendola più accessibile e più personalizzata.​
​
Ma non sono esenti da errori.​
Un sistema di traduzione può ancora fraintendere un’espressione idiomatica o tradurre in
modo troppo letterale.​
​
Allo stesso modo, un algoritmo di sentiment analysis può confondere una critica ironica con
un elogio, o viceversa.
Il vero limite sta nel fatto che questi sistemi si basano su probabilità e non su
comprensione autentica.​
Possono gestire grandi volumi di dati, ma non possiedono empatia, buon senso o contesto
culturale profondo.​
​
Per questo, l’uso del NLP in questi ambiti deve sempre essere accompagnato da una
supervisione umana, soprattutto quando le decisioni che ne derivano hanno un impatto reale
sulle persone.
​
3.4 – Chatbot e assistenti vocali
3.4.1 Come funzionano i chatbot moderni
58
I chatbot sono sistemi digitali progettati per simulare una conversazione con un essere
umano, attraverso una chat testuale.​
Li troviamo ormai ovunque: nelle pagine di supporto clienti, nelle app bancarie, nei siti di
prenotazioni online.​
​
La loro funzione principale è fornire risposte rapide, pertinenti e coerenti, anche in
assenza di un operatore umano.
Un chatbot non è un semplice motore di ricerca che trova una parola chiave e restituisce
una risposta standard.​
​
I più moderni utilizzano tecnologie di Natural Language Processing, che permettono di
analizzare il testo dell’utente e comprendere l’intento nascosto dietro la domanda.
Per fare questo, un chatbot passa attraverso diverse fasi.​
​
Prima interpreta il testo inserito, lo divide in parole e frasi significative, poi cerca di
identificare l’intento comunicativo (per esempio: l’utente vuole sapere l’orario di apertura
di un negozio o segnalare un problema?).​
Infine, genera una risposta, che può essere predefinita o costruita sul momento.
A differenza dei chatbot più vecchi, basati su percorsi fissi, i chatbot moderni sono in grado
di adattarsi alle variazioni del linguaggio, ai sinonimi, alle domande formulate in modo non
convenzionale.​
​
Tutto ciò li rende molto più flessibili e utili nelle interazioni reali.
3.4.2 L’evoluzione degli assistenti vocali
Gli assistenti vocali hanno portato l’interazione uomo-macchina su un altro livello,
introducendo il canale della voce.​
​
Mentre i chatbot richiedono testo scritto, gli assistenti vocali permettono di comunicare
parlando in linguaggio naturale, proprio come si farebbe con un’altra persona.
L’intero processo si compone di diverse fasi.​
Prima di tutto, il dispositivo registra l’audio e lo trasforma in testo, grazie a un sistema di
59
riconoscimento vocale.​
​
Questo è un passaggio molto delicato, perché il sistema deve riuscire a distinguere le parole
in mezzo al rumore, alle inflessioni e agli accenti.
Dopo la trascrizione, entra in gioco il modulo NLP, che interpreta il significato della
frase. Non si tratta solo di capire le parole, ma di ricostruire il senso complessivo della
richiesta.​
Infine, il sistema decide quale azione eseguire e genera una risposta, che viene poi
trasformata in voce artificiale tramite sintesi vocale.
Negli ultimi anni, questi sistemi sono diventati molto più precisi.​
​
Alexa, Siri e Google Assistant, ad esempio, riescono a gestire interazioni complesse,
eseguire comandi sequenziali, rispondere a domande di cultura generale, impostare
appuntamenti, accendere luci o regolare la temperatura in casa.
Quello che rende gli assistenti vocali così potenti è la loro integrazione con l’ambiente
digitale e fisico. Non si limitano a dare risposte: possono controllare dispositivi, leggere
messaggi, navigare su internet.​
​
E, grazie all’apprendimento continuo, diventano anche più personalizzati nel tempo.
3.4.3 Le sfide della conversazione naturale
Nonostante i grandi progressi, simulare una conversazione naturale resta una delle sfide
più difficili per l’intelligenza artificiale.​
​
Questo perché la conversazione umana è molto più di uno scambio di parole: è fatta di
sfumature, riferimenti impliciti, emozioni, tono, ritmo, pause e gesti.
Uno dei problemi principali è la gestione del contesto.​
​
Quando due persone parlano, spesso si riferiscono a elementi già citati in precedenza.​
Usano pronomi (“quello”, “lei”, “lì”), cambiano argomento e poi ci tornano.​
Per un essere umano, tutto questo è naturale.​
60
Per una macchina, invece, mantenere il filo del discorso richiede memoria, struttura e
capacità di disambiguazione.
Un’altra difficoltà riguarda le intenzioni multiple.​
Una singola frase può contenere più richieste: “Accendi la luce e chiama mamma” richiede
due azioni diverse.​
​
Capire, separare e gestire queste istruzioni è ancora complicato per molti sistemi,
soprattutto se sono progettati per rispondere a un solo comando per volta.
Infine, c’è il problema dell’intonazione emotiva. Gli esseri umani riconoscono facilmente la
rabbia, la gioia, l’ironia, il sarcasmo, persino in una frase breve. Le macchine, invece, fanno
fatica a cogliere queste sfumature.​
​
Anche se alcuni modelli stanno imparando a riconoscere lo stato emotivo dell’utente
attraverso la voce o le parole usate, si tratta ancora di una tecnologia in fase
sperimentale.
Tutto questo ci ricorda che, per quanto i chatbot e gli assistenti vocali siano ormai strumenti
potenti, l’intelligenza che esprimono è limitata al funzionamento del loro modello.​
​
Possono imitare la conversazione, ma non ne possiedono davvero la profondità.
​
​
​
3.5 – Come funziona un modello NLP
​
3.5.1 Dalla tokenizzazione all’analisi sintattica
Quando una persona legge una frase, riesce a capire subito dove iniziano e finiscono le
parole, quale verbo è il principale e a cosa si riferiscono i pronomi.​
Un computer, invece, non parte da queste conoscenze.​
​
Ecco perché, il primo passo che un sistema di Natural Language Processing deve compiere,
61
è quello di spezzare il testo in unità più piccole, che la macchina possa riconoscere e
analizzare.
Questo processo si chiama tokenizzazione.​
​
In pratica, il testo viene suddiviso in blocchi elementari chiamati "token", che possono essere
parole, lettere o persino frammenti di parole, a seconda del tipo di modello usato.​
​
Ad esempio, la frase “Ciao, come stai?” verrà trasformata in una sequenza di token come:
“Ciao”, “come”, “stai”, “?”.
Una volta che il testo è stato tokenizzato, il sistema procede con l’analisi sintattica, cioè la
ricostruzione della struttura grammaticale della frase.​
Deve capire, per esempio, qual è il soggetto, il verbo e il complemento, oppure se ci sono
subordinate.​
​
Questa fase è fondamentale per stabilire le relazioni tra le parole e iniziare a costruire una
comprensione di base della frase.
3.5.2 Embedding: trasformare le parole in numeri
Un computer non lavora con parole, emozioni o immagini mentali: lavora con numeri.​
Per questo motivo, ogni parola deve essere convertita in una forma numerica
comprensibile per il modello.​
​
Questo passaggio prende il nome di embedding. Un embedding è una rappresentazione
matematica di una parola all’interno di uno spazio a molte dimensioni.​
​
Ogni parola viene trasformata in un vettore, cioè in una serie di numeri.​
​
La cosa importante è che parole con significati simili avranno vettori simili.​
Questo significa, ad esempio, che le parole “gatto” e “cane” saranno rappresentate da
numeri vicini nello spazio, mentre “gatto” e “banca” saranno molto distanti tra loro.
Questo metodo permette al modello di NLP di catturare le somiglianze tra parole, anche
se non sono esattamente identiche.​
62
È grazie agli embedding che il sistema può intuire che “auto” e “macchina” sono
intercambiabili in certi contesti, pur non essendo la stessa parola.
Negli ultimi anni, gli embedding sono diventati più sofisticati.​
​
I modelli moderni generano rappresentazioni che variano in base al contesto: la parola
“pianta” avrà un vettore diverso se si parla di botanica o di una fabbrica industriale.​
Questo ha migliorato molto la comprensione da parte dei modelli, rendendoli più precisi e
flessibili.
3.5.3 Addestramento e capacità di generalizzazione
Perché un modello di NLP funzioni, deve essere addestrato su grandi quantità di testi.​
​
Questo significa che, prima di poter rispondere o scrivere, deve “leggere” milioni di esempi,
che gli insegnano come è strutturata la lingua, quali parole seguono altre, quali frasi
suonano naturali e quali no.
Durante l’addestramento, il modello impara a fare previsioni.​
​
Ad esempio, dato un inizio di frase, cerca di indovinare quale parola viene dopo.​
Con l’esposizione continua a testi diversi – libri, articoli, conversazioni, siti web – inizia a
riconoscere pattern, strutture, stili.​
​
Ogni volta che commette un errore, il sistema si corregge, aggiornando i propri parametri
interni per migliorare la prossima previsione.
Una delle qualità più importanti di un buon modello NLP è la capacità di generalizzazione.​
Non deve solo ripetere ciò che ha visto, ma applicare ciò che ha imparato a testi nuovi,
mai incontrati prima.​
​
Questo è ciò che lo rende utile nella pratica.​
​
Se un utente scrive qualcosa in modo non perfetto, o propone una richiesta inedita, il
sistema deve comunque essere in grado di capire e rispondere.
63
Naturalmente, questa generalizzazione ha dei limiti.​
Un modello troppo poco addestrato non coglie le sfumature.​
Uno troppo grande, ma mal regolato, può diventare impreciso o restituire risposte incoerenti.​
​
L’equilibrio tra dimensioni del modello, qualità dei dati e obiettivi specifici è uno degli aspetti
più delicati nella progettazione dei sistemi NLP.
​
​
3.6 – NLP nei motori di ricerca
​
3.6.1 Comprendere l’intento dell’utente: più delle parole
Ogni volta che digitiamo qualcosa in un motore di ricerca, non stiamo semplicemente
scrivendo una sequenza di parole: stiamo esprimendo un bisogno, una curiosità,
un’intenzione.​
​
L’obiettivo del motore di ricerca è riuscire a capire cosa vogliamo davvero, anche se non
lo esprimiamo in modo perfetto.
Questo processo si chiama analisi dell’intento di ricerca.​
​
Esistono molti tipi di intenti: informativi, come “che cos’è il colesterolo”; navigazionali, come
“sito INPS”; transazionali, come “acquista scarpe da corsa”.​
​
A volte, però, l’intento non è chiaro dalla formulazione della frase.
Ad esempio, se scrivo “cane pastore”, potrei voler sapere la storia della razza, cercare cani
in adozione, o comprare cibo per cani di quel tipo.​
​
Un motore di ricerca dotato di NLP deve interpretare il contesto, analizzare il
comportamento degli utenti, confrontare milioni di ricerche simili e fare un’ipotesi ragionata
su ciò che sto cercando.
Grazie a modelli linguistici avanzati, il motore può adattare la risposta.​
​
64
Può, ad esempio, mostrarmi una scheda informativa in evidenza, suggerirmi domande
correlate o linkarmi video e immagini pertinenti.​
L’uso del NLP consente di abbinare parole e di leggere tra le righe.
3.6.2 L’analisi semantica: oltre le parole chiave
Per trovare una risposta utile, il motore di ricerca deve esplorare miliardi di pagine web.​
In passato, lo faceva confrontando le parole presenti nella query con le parole nei
documenti.​
​
Questo approccio, però, era meccanico: bastava ripetere tante volte una parola chiave per
“ingannare” il sistema e apparire nei risultati, anche se il contenuto era scadente.
Con il NLP, questo non è più sufficiente.​
​
Oggi, i motori di ricerca usano analisi semantiche per comprendere il significato profondo
di una frase, e per valutare quanto un contenuto è davvero pertinente rispetto alla
domanda posta.
Il sistema trasforma sia la richiesta dell’utente che i testi delle pagine in rappresentazioni
numeriche, che tengono conto del contesto, del tono e dell’argomento.​
​
Ad esempio, se cerco “come riparare una bicicletta”, l’algoritmo capisce che un video
tutorial, una guida passo passo o un articolo illustrato possono essere più utili di un forum
tecnico pieno di termini complicati.
Questa analisi semantica permette anche di riconoscere concetti simili espressi con
parole diverse.​
​
Il sistema sa, ad esempio, che “auto” e “macchina” sono spesso usate come sinonimi,
oppure che “migliore pizza” e “pizza consigliata” esprimono lo stesso bisogno.
Questa capacità di comprendere non solo la forma, ma il significato, è uno dei risultati più
importanti del NLP applicato alla ricerca.​
​
Rende l’esperienza dell’utente più efficace, evitando risultati irrilevanti o fuorvianti.
65
3.6.3 Una ricerca più umana: velocità, precisione e personalizzazione
Grazie al NLP, i motori di ricerca sono diventati più simili a un vero interlocutore.​
Non richiedono più frasi rigide o strutture artificiali, ma sono in grado di interpretare anche
richieste spontanee, incomplete o scritte male.
Questo ha cambiato radicalmente il modo in cui cerchiamo informazioni.​
​
Non dobbiamo più imparare a usare il motore: è lui che ha imparato a capire noi.​
Possiamo fare domande come “quale aspirapolvere scegliere per una casa con animali” o
“perché mi gira la testa la mattina” e ricevere risposte articolate e pertinenti.
In molti casi, il motore non si limita più a proporre link.​
​
Utilizza i risultati trovati per generare risposte sintetiche e dirette, che appaiono in
evidenza e permettono all’utente di ottenere l’informazione desiderata senza dover cliccare
su altri siti.
Inoltre, i motori di ricerca moderni usano il NLP anche per personalizzare i risultati in base
al profilo dell’utente: la sua posizione geografica, la lingua, lo storico delle ricerche.​
Un utente che cerca “bar aperti ora” a Milano riceverà risultati diversi da chi fa la stessa
domanda a Roma o New York.
Questo tipo di intelligenza linguistica applicata ha reso la ricerca più veloce, più precisa e
spesso più rilevante.​
​
Ma ha anche aumentato la responsabilità di chi progetta questi sistemi: quanto sono
neutrali le risposte? Quanto incidono sul nostro modo di informarci?
Il NLP non è solo uno strumento tecnico.​
​
È un mediatore tra l’intelligenza della macchina e l’intelligenza dell’utente.​
E come tale, va progettato, gestito e utilizzato con attenzione.
​
66
3.7 – I modelli linguistici: da BERT a GPT
3.7.1 BERT: comprendere il significato analizzando il contesto completo
BERT, acronimo di Bidirectional Encoder Representations from Transformers, è un modello
sviluppato da Google nel 2018. La sua caratteristica più innovativa è che non legge il testo
in un solo verso, ma in entrambe le direzioni. ​
​
Questo significa che riesce a comprendere il significato di una parola analizzando tutto il
contesto che la circonda, sia prima che dopo.
Nel linguaggio umano, molte parole cambiano significato a seconda della frase in cui si
trovano. Ad esempio, la parola “penna” può indicare uno strumento per scrivere o un recinto
per animali. BERT riesce a distinguere il significato corretto proprio perché considera l’intera
frase.
Dal punto di vista tecnico, BERT è stato progettato per capire. È estremamente utile in
attività come la classificazione di documenti, la risposta automatica alle domande, il
riconoscimento di entità (nomi di persone, luoghi, aziende) e la comprensione semantica di
frasi complesse. ​
​
In pratica, BERT aiuta le macchine a “leggere” in modo più simile a come farebbe una
persona, valutando non solo il significato letterale delle parole, ma anche la loro funzione e
rilevanza nel contesto specifico.
Questo modello è stato integrato nei motori di ricerca di Google per migliorare la
comprensione delle domande fatte dagli utenti, rendendo le risposte più precise e pertinenti. ​
​
Il suo approccio bidirezionale ha segnato un punto di svolta nell’elaborazione del linguaggio
naturale, aprendo la strada a modelli più capaci di affrontare problemi linguistici
complessi, che prima erano fuori portata per le macchine.
3.7.2 GPT: generare testo in modo autonomo e coerente
67
GPT, ovvero Generative Pre-trained Transformer, è stato introdotto da OpenAI a partire dal
2018, e ha rapidamente guadagnato attenzione per la sua capacità di generare testo
naturale in modo fluido e convincente. ​
​
Diversamente da BERT, il suo scopo non è capire un testo già esistente, ma crearne uno
nuovo.
GPT funziona secondo un principio molto semplice, ma estremamente potente: data una
sequenza di parole, cerca di prevedere la parola successiva più probabile. Questo
processo, ripetuto migliaia di volte per ogni frase, permette al modello di costruire testi
coerenti, ben formati e, a volte, sorprendentemente ricchi di senso.
Ciò che rende GPT davvero innovativo è la sua capacità di mantenere coerenza semantica
e stilistica anche in testi lunghi, riuscendo a sviluppare un discorso, rispondere a una
domanda, scrivere una storia o produrre un riassunto, tutto con un’unica struttura modulare. ​
​
GPT è stato allenato su una quantità enorme di dati presi da libri, articoli, siti web e forum
pubblici. Questo gli ha permesso di “assorbire” una vasta gamma di stili, argomenti e modi di
esprimersi.
Una limitazione di GPT è che legge il testo solo da sinistra verso destra, quindi, al contrario
di BERT, non ha una visione completa del contesto per ogni parola.
Tuttavia, proprio grazie alla struttura sequenziale, riesce a scrivere testi passo dopo
passo, come farebbe un autore umano, mantenendo una progressione logica e narrativa.
GPT è usato in moltissimi contesti: chatbot conversazionali, assistenti virtuali, generatori
automatici di testi, strumenti per la scrittura, la programmazione, l’analisi di documenti e la
produzione di contenuti personalizzati. ​
​
È il cuore di applicazioni come ChatGPT, che consente a chiunque di dialogare con un
sistema linguistico avanzato in linguaggio naturale.
3.7.3 Comprensione e generazione: due strategie, una stessa architettura
BERT e GPT sono entrambi basati sull’architettura dei Transformer, introdotta nel 2017. ​
​
Questa struttura ha rivoluzionato il modo in cui i modelli di NLP vengono progettati, perché
68
permette di gestire relazioni complesse tra le parole di un testo, anche quando sono
distanti tra loro.
Nonostante abbiano una base comune, BERT e GPT seguono due strategie opposte. BERT
è un modello bidirezionale e non generativo: viene usato per attività in cui bisogna capire
e analizzare il testo. ​
​
È ottimo per compiti di lettura, come trovare informazioni precise in un documento,
classificare il tono di una frase, o rispondere a domande con una parte di testo già fornita.
GPT, invece, è un modello unidirezionale e generativo: parte da un prompt (cioè da una
frase iniziale) e sviluppa autonomamente un testo. È pensato per scrivere, inventare,
costruire risposte a partire da zero. Funziona bene dove serve produrre contenuti nuovi, non
solo interpretarli.
In pratica, potremmo dire che BERT “legge”, mentre GPT “scrive”. E questa distinzione non
è solo tecnica, ma anche strategica.​
​
Nella costruzione di assistenti digitali, sistemi di ricerca, strumenti educativi o applicazioni
professionali, sapere quale modello utilizzare a seconda del compito è fondamentale.​
In alcuni casi, i due vengono anche usati insieme: BERT per capire cosa chiede l’utente,
GPT per generare la risposta.
Oggi entrambi rappresentano due pilastri fondamentali del NLP moderno.​
​
E anche se sono stati già superati in potenza da modelli più recenti, le loro architetture
restano alla base di quasi tutte le applicazioni linguistiche avanzate esistenti.​
​
Capirli significa comprendere come funziona davvero la tecnologia che ci permette di
interagire ogni giorno, con parole semplici, con un’intelligenza artificiale.
​
​
69
​
​
4.1 – Cos’è ChatGPT
4.1.1 – ChatGPT come modello linguistico generativo
ChatGPT è un sistema di intelligenza artificiale progettato per interagire con l’essere
umano attraverso il linguaggio naturale. Questo significa che è capace di comprendere e
generare testi scritti in modo fluido, coerente e sensato. ​
​
Non si limita a riconoscere parole, ma costruisce risposte complete e ben articolate che
simulano una vera conversazione.
Alla base del suo funzionamento c’è un modello di tipo generativo, cioè un sistema
capace di produrre testo da zero, in tempo reale, una parola dopo l’altra. ​
​
Ogni parola viene scelta in base a tutte quelle che l’hanno preceduta, calcolando quale sia la
più probabile in quel contesto. Questo processo avviene in pochi millisecondi, ed è il motivo
per cui ChatGPT riesce a scrivere con tanta naturalezza.
Il modello si basa su una tecnologia chiamata Transformer, che permette di analizzare le
relazioni tra le parole in modo molto più sofisticato rispetto ai metodi usati in passato. ​
​
Il Transformer valuta l’intera frase in parallelo, tenendo conto delle connessioni logiche tra le
varie parti. Questo consente a ChatGPT di capire meglio il contesto e di produrre risposte
che hanno senso anche quando la richiesta è lunga o complessa.
Ciò che distingue ChatGPT da altri sistemi di risposta automatica è che non utilizza frasi
precompilate. Ogni volta che scrive, lo fa partendo da zero, seguendo le istruzioni
dell’utente e il contesto della conversazione. ​
​
Per questo motivo, può rispondere a domande molto diverse tra loro, mantenere un dialogo
coerente, riadattarsi a correzioni e generare testi sempre nuovi.
70
4.1.2 – Un’intelligenza addestrata leggendo miliardi di testi
Per diventare così efficace nel linguaggio, ChatGPT è stato addestrato su una quantità
immensa di testi. ​
​
Durante questa fase, il modello non impara nozioni come farebbe uno studente, ma analizza
milioni di esempi scritti per imparare come funziona il linguaggio umano. L’obiettivo
dell’addestramento non è sapere “cosa dire”, ma imparare come si parla, si scrive, si
struttura un pensiero.
Questa esposizione comprende un’enorme varietà di fonti: libri, articoli, conversazioni
pubbliche, documenti tecnici, pagine informative. Ciò permette al modello di gestire
molteplici stili di scrittura, registri linguistici e ambiti tematici. È in grado di passare da un
tono formale a uno amichevole, di sintetizzare un testo accademico o spiegare un concetto
tecnico con parole semplici.
È importante chiarire che il ChatGPT attuale ha accesso a internet e può fare ricerche in
tempo reale. ​
​
Questo significa che può fornire notizie aggiornate o confermare eventi recenti e offrire
spiegazioni approfondite basate sulle informazioni contenute nel suo corpus di
addestramento.
Il modello non memorizza singoli testi o frasi, ma apprende delle regole statistiche: sa, ad
esempio, che una certa espressione è spesso seguita da un certo verbo, o che un certo tipo
di domanda richiede una risposta di una certa forma.​
​
Questa capacità non è intelligenza in senso umano, ma è sufficiente a produrre testi che
suonano naturali, coerenti e spesso molto informativi.
4.1.3 – Un assistente digitale capace di adattarsi, scrivere e dialogare
ChatGPT è molto più di un generatore di testo: è pensato per interagire con l’utente in
modo dinamico e collaborativo. ​
​
Può essere usato per scrivere un testo da zero, ma anche per modificarne uno esistente,
71
migliorarne la forma, correggere gli errori o adattarlo a un nuovo pubblico. Questa capacità
di adattamento è ciò che lo rende simile, in molti casi, a un vero collaboratore umano.
Quando l’utente scrive una richiesta, il modello non solo cerca di rispondere correttamente,
ma interpreta anche il tono, l’intenzione e il livello di complessità desiderato. ​
​
Se la richiesta è generica, risponderà in modo semplice. Se è specifica, fornirà dettagli. Se è
strutturata, manterrà la stessa forma. Questo lo rende utile in moltissimi contesti: dalla
scuola al lavoro, dalla scrittura creativa alla preparazione di un progetto.
Uno degli aspetti più innovativi è la gestione del contesto conversazionale. ​
​
ChatGPT può ricordare ciò che è stato detto prima, può chiarire i dubbi, modificare le
risposte su richiesta e costruire conversazioni articolate. ​
​
Questo lo rende particolarmente efficace non solo per fornire informazioni, ma anche per
guidare un dialogo, simulare una lezione, o offrire un confronto su un tema complesso.
Infine, ChatGPT si presta a un uso creativo e personalizzato. Può scrivere racconti, creare
giochi di parole, generare idee per un progetto o suggerire nomi per un’azienda. ​
​
Non ha coscienza, non ha esperienze personali e non ha un’intelligenza “vera”, ma riesce a
simulare il pensiero scritto con un livello di coerenza sorprendente.
​
4.2 – Cos’è Perplexity AI
4.2.1 – Perplexity come motore di risposta basato su fonti
Perplexity AI è uno strumento che unisce l’intelligenza artificiale alla ricerca informativa in
tempo reale.​
​
A differenza di un assistente virtuale classico, non si limita a generare risposte a partire dalla
propria memoria, ma consulta il web ogni volta che riceve una domanda.
72
La sua missione non è “inventare” il testo, ma recuperare informazioni aggiornate e affidabili
per rispondere nel modo più preciso possibile.​
La risposta che restituisce all’utente è il risultato di un processo che unisce ricerca,
selezione delle fonti e sintesi linguistica.
Un elemento fondamentale di Perplexity è che ogni sua risposta è accompagnata da
riferimenti puntuali.​
​
Accanto al testo, vengono indicati i link alle fonti usate.​
​
Questo consente all’utente di verificare autonomamente le informazioni, accedendo
direttamente ai contenuti originali.​
​
In un’epoca in cui le fake news si diffondono rapidamente, questo livello di trasparenza è
particolarmente importante.
4.2.2 – Ricerca online in tempo reale e costruzione della risposta
Quando un utente scrive una domanda, Perplexity attiva una serie di operazioni che iniziano
con l’analisi linguistica della frase.​
​
Il sistema utilizza modelli NLP per identificare il significato della richiesta, isolare le
parole chiave e capire l’intento di chi scrive.
Dopo questa analisi iniziale, Perplexity avvia una ricerca web in tempo reale.​
Scandaglia siti affidabili, articoli, pubblicazioni e banche dati per trovare le fonti più
pertinenti.​
​
Non si accontenta di selezionare le prime pagine trovate, ma valuta il contenuto in base a
criteri di rilevanza, autorevolezza e coerenza con la domanda iniziale.
Una volta raccolto il materiale utile, l’IA costruisce una risposta sintetica, riassumendo i
punti principali delle fonti trovate.​
​
Il testo che viene restituito è chiaro, diretto e supportato da link cliccabili che rimandano agli
articoli originali.
73
Questo processo permette a Perplexity di essere sempre aggiornato.​
Risponde a domande su eventi recenti, cambi normativi, novità scientifiche o fatti dell’ultima
ora.​
​
È uno strumento perfetto per chi ha bisogno di informazioni fresche e documentate.
4.2.3 – Navigazione guidata con Copilot e interazione informativa
Oltre alla risposta diretta, Perplexity offre un’esperienza unica di ricerca guidata grazie alla
funzione chiamata Copilot.​
Questa modalità accompagna l’utente attraverso un percorso di approfondimento, simile a
un'esplorazione ragionata del tema.
Dopo la prima risposta, Perplexity propone domande collegate, approfondimenti tematici,
oppure suggerisce come riformulare la ricerca per ottenere un’informazione più mirata.​
Non bisogna sempre ripartire da zero: è il sistema che “anticipa” i dubbi successivi e li
presenta sotto forma di opzioni intelligenti.
Questo approccio è particolarmente utile per chi vuole studiare un argomento in modo
progressivo.​
​
Ad esempio, partendo dalla domanda “Cos’è l’inflazione?”, l’utente potrà esplorare concetti
collegati come “Cause dell’inflazione”, “Inflazione in Europa”, “Effetti sul risparmio”,
seguendo un filo logico coerente.
La forza di Perplexity sta proprio nella sua capacità di trasformare una semplice domanda
in un dialogo informativo.​
​
Non si limita a fornire una risposta, ma guida l’apprendimento, rendendolo graduale,
mirato e consapevole.
È uno strumento prezioso per studenti, professionisti, giornalisti, ma anche per chiunque
voglia approfondire un tema senza perdersi tra migliaia di risultati disordinati.​
​
Copilot, in questo contesto, funziona quasi come un tutor digitale, capace di semplificare la
complessità e accompagnare l’utente verso una comprensione più completa.
74
4.3 – Finalità e casi d’uso principali
4.3.1 – ChatGPT per la generazione di contenuti
La funzione principale di ChatGPT è generare testi a partire da istruzioni scritte in
linguaggio naturale.​
​
Questo significa che può prendere una richiesta come “scrivi una presentazione sul
riscaldamento globale” e restituire un testo completo, coerente e ben strutturato.
La sua utilità deriva dal fatto che non si limita a copiare o a fornire definizioni, ma crea
contenuti nuovi, adatti al contesto.​
​
Può produrre testi brevi, lunghi, formali, creativi, tecnici o divulgativi, a seconda delle
istruzioni. Se l’utente chiede una poesia, una lettera formale, un riassunto o uno slogan
pubblicitario, ChatGPT adatta il tono, la struttura e lo stile.
In ambito professionale, è utilizzato da chi ha bisogno di produrre documenti, come email
commerciali, articoli di blog, piani aziendali, testi per siti web o social media.​
​
Nell’ambito scolastico e universitario, può supportare lo studio, aiutando a riformulare
concetti, riassumere capitoli, spiegare argomenti in modo semplice.
Non è solo uno strumento che scrive, ma un assistente alla scrittura che lavora su
richiesta, si adatta, migliora un testo già esistente e lo ristruttura se necessario.​
​
È particolarmente utile quando si ha poco tempo, si cerca ispirazione o si vuole partire da
una bozza su cui lavorare in un secondo momento.
4.3.2 – Perplexity AI per la sintesi e la verifica delle informazioni
75
Perplexity AI ha un ruolo diverso.​
​
Il suo scopo principale è reperire informazioni aggiornate e affidabili su qualsiasi
argomento, rispondendo a domande precise attraverso un meccanismo basato su ricerca
online in tempo reale.
Questo lo rende estremamente efficace in tutti quei casi in cui si ha bisogno di dati
concreti, di notizie recenti, di cifre, date, confronti tra fonti.​
​
Un giornalista, ad esempio, può usarlo per raccogliere rapidamente i punti salienti su un
tema di attualità.​
​
Uno studente può utilizzarlo per scrivere una tesina partendo da fonti documentate, e un
manager può usarlo per avere una panoramica aggiornata su una questione di mercato.
A differenza dei motori di ricerca classici, Perplexity non restituisce una lista di link da
esplorare, ma una risposta già elaborata, sintetica e supportata da fonti verificabili.​
​
I link citati nel testo permettono all’utente di approfondire e controllare le affermazioni,
offrendo un alto livello di trasparenza.
Questo tipo di supporto è particolarmente utile quando si vuole conoscere un argomento
senza dover fare una lunga lettura di decine di articoli, o quando si vuole essere sicuri che le
informazioni ricevute siano recenti e affidabili.
4.3.3 – Differenze pratiche e strategie d’uso complementari
ChatGPT e Perplexity rispondono a bisogni diversi, e vanno scelti in base a ciò che si
vuole ottenere.​
​
Il primo è orientato alla produzione linguistica, alla creazione di contenuti testuali; il
secondo è orientato alla consultazione informativa, alla ricerca di dati e fonti.
Immagina di dover scrivere un testo su un argomento che conosci poco.​
Con Perplexity puoi raccogliere in pochi secondi le informazioni principali, leggendo una
sintesi dei punti chiave e consultando le fonti originali.​
​
76
Una volta ottenute le nozioni che ti servono, puoi usare ChatGPT per organizzarle in un
discorso coerente, adattato al pubblico e allo scopo specifico.
Questa combinazione si rivela particolarmente utile in contesti educativi e professionali: uno
studente può usare Perplexity per documentarsi su un tema di scienze e poi ChatGPT per
scrivere la relazione.​
​
Un professionista del marketing può usare Perplexity per capire cosa dice il mercato su un
prodotto e poi ChatGPT per scrivere la campagna pubblicitaria.
In sostanza, ChatGPT è uno strumento creativo e linguistico, mentre Perplexity è uno
strumento informativo e analitico.​
​
Chi sa riconoscere questi ruoli e sfruttarli in modo complementare, ottiene il massimo da
entrambi.
​
​
4.4 – Differenze nell’interazione utente
4.4.1 – Dialogo continuo e gestione del contesto in ChatGPT
Una delle caratteristiche più evidenti di ChatGPT è la sua capacità di mantenere una
conversazione nel tempo, ricordando quello che l’utente ha scritto nei messaggi
precedenti.​
​
Questa abilità è molto utile, perché permette di costruire un dialogo, proprio come si
farebbe con una persona.
Ad esempio, se in un primo messaggio chiedo “Spiegami cos’è il DNA” e in un secondo dico
solo “E le proteine?”, ChatGPT capisce che sto parlando sempre di biologia e risponde
senza bisogno che io ripeta tutto da capo.​
​
Riesce a tenere il filo del discorso, collegando le domande tra loro.
77
Questa gestione del contesto rende ChatGPT molto adatto a conversazioni lunghe o a
progetti articolati.​
​
Posso scrivere un’introduzione, chiedere di migliorarla, poi chiedere una conclusione, e
infine un titolo: il modello ricorda cosa stiamo facendo e continua a contribuire in modo
coerente.
Ovviamente, la memoria è limitata e, se la conversazione diventa troppo lunga, può perdere
alcuni dettagli. Ma in sessioni di dialogo normale, l’interazione è fluida, continua e
personalizzata.
4.4.2 – Risposta singola e struttura da motore di ricerca in Perplexity
L’esperienza con Perplexity è diversa.​
​
Quando l’utente scrive una domanda, il sistema fornisce una risposta sintetica e ben
documentata, ma non costruisce una conversazione vera e propria.
Ogni richiesta viene trattata come un episodio a sé stante.​
​
Anche se nella pagina precedente ho chiesto qualcosa di simile, Perplexity non tiene traccia
della conversazione precedente, a meno che non si attivi una sessione “guidata” tramite la
modalità Copilot.
Questo approccio ha un vantaggio: la risposta è immediata, focalizzata, e non condizionata
da quello che è stato detto prima.​
È perfetto per chi vuole fare una domanda, leggere una risposta, consultare le fonti e
passare oltre.
Ma rende più difficile sviluppare un dialogo continuo, perché ogni nuova domanda deve
essere formulata in modo chiaro e completo.​
​
Perplexity non “intuisce” a cosa mi riferisco se non lo dico esplicitamente.
In altre parole, Perplexity è più simile a un motore di ricerca intelligente che a un vero
assistente conversazionale.​
78
4.4.3 – Scegliere lo strumento in base al tipo di interazione
Capire la differenza tra ChatGPT e Perplexity è importante per scegliere lo strumento giusto
in base a ciò che vogliamo fare.​
​
Se ho bisogno di scrivere un testo, sviluppare un’idea, farmi spiegare qualcosa passo dopo
passo, oppure costruire un progetto su più fasi, allora ChatGPT è la scelta più adatta.
Con ChatGPT posso iniziare da una bozza e modificarla, oppure partire da una semplice
domanda e arrivare a una riflessione complessa.​
​
Posso chiedere chiarimenti, tornare su un punto, cambiare direzione. È uno strumento
interattivo, flessibile, orientato alla collaborazione.​
​
Se invece ho bisogno di una risposta veloce, sintetica, documentata e affidabile,
Perplexity è più indicato.​
​
Funziona molto bene quando so cosa voglio sapere, ma non so dove trovarlo.​
In pochi secondi ottengo una risposta costruita su fonti reali, con la possibilità di verificarle.
Molte persone oggi usano entrambi: Perplexity per informarsi, ChatGPT per elaborare.​
È un uso intelligente, che permette di unire la precisione dei dati con la potenza della
scrittura personalizzata.​
​
Sapere come interagire con ognuno di questi strumenti, e quando farlo, è una competenza
sempre più preziosa.
​
4.6 – Costi e accessibilità dei due strumenti
4.6.1 – Modelli gratuiti e a pagamento disponibili in ChatGPT
79
ChatGPT è disponibile in due versioni principali: una gratuita e una a pagamento.​
​
La versione gratuita utilizza il modello GPT-3.5, che è comunque molto potente e in grado di
gestire la maggior parte delle richieste quotidiane, dalla scrittura alla spiegazione di concetti.
Tuttavia, la versione a pagamento – chiamata ChatGPT Plus – sblocca l’accesso al modello
GPT-4, che è più avanzato sotto diversi aspetti.​
​
GPT-4 è in grado di mantenere meglio il contesto delle conversazioni lunghe,
rispondere con maggiore precisione, eseguire ragionamenti più articolati, comprendere
richieste complesse e scrivere testi più coerenti.
Il costo di ChatGPT Plus, al momento in cui scrivo, è di circa 20 dollari al mese.​
​
Questo prezzo include priorità di accesso anche nei momenti di alto traffico, tempi di
risposta più rapidi e, per gli utenti abilitati, l’uso di funzionalità avanzate come la generazione
di immagini (tramite DALL·E), l’analisi di file caricati, la navigazione web (in GPT-4 con
browser) e i plugin.
Per molti utenti, la versione gratuita è sufficiente. ​
​
Ma chi fa un uso intensivo dello strumento o ha bisogno di prestazioni più sofisticate, trova
nella versione Plus un buon compromesso tra costo e funzionalità.
4.6.2 – Piani base e Pro di Perplexity: trasparenza e immediatezza
Anche Perplexity AI è accessibile in forma gratuita, senza obbligo di registrazione per l’uso
di base.​
​
In questa modalità, l’utente può fare domande, ottenere risposte sintetiche e consultare
le fonti collegate, con un’interfaccia molto semplice e veloce.
Per chi ha esigenze più avanzate, esiste un piano chiamato Perplexity Pro.​
​
Questo piano include diverse funzionalità aggiuntive, tra cui l’accesso a modelli linguistici più
avanzati (come GPT-4), ricerche più profonde e articolate, possibilità di generare risposte
80
più lunghe e strutturate, e l’uso completo della modalità Copilot per la guida interattiva nella
ricerca.
Il costo del piano Pro è generalmente inferiore a quello di ChatGPT Plus e viene aggiornato
regolarmente in base all’andamento del mercato.​
​
La filosofia di Perplexity è offrire trasparenza, chiarezza e rapidità d’uso: l’utente accede
immediatamente allo strumento, senza distrazioni o passaggi complessi.
Anche nella versione Pro, le risposte sono sempre documentate e accompagnate da fonti, il
che rende Perplexity particolarmente indicato per chi lavora con contenuti sensibili o
deve riferire dati in modo preciso e verificabile.
4.6.3 – Differenze pratiche nell’accesso, nella flessibilità e nell’esperienza utente
In termini di accessibilità, entrambi gli strumenti sono molto facili da usare: si accede
tramite browser, senza dover installare nulla.​
​
ChatGPT dispone anche di un’app ufficiale per dispositivi mobili, che rende l’esperienza
ancora più fluida, soprattutto per chi lo usa spesso in mobilità.
Perplexity è particolarmente apprezzato per la velocità e l’essenzialità dell’interfaccia.​
Non ha menu complessi o funzioni nascoste. Appena si scrive una domanda, si ottiene una
risposta e le fonti relative.​
​
Questo lo rende ideale per chi vuole informazioni subito, senza dover “parlare” troppo con la
macchina.
ChatGPT, invece, richiede più interazione, ma offre anche maggiore flessibilità.​
L’utente può chiedere revisioni, chiarimenti, cambiare tono, stile, riformulare richieste. ​
È pensato per chi desidera costruire qualcosa: una spiegazione, un testo, una strategia.
In sintesi:
●​ Se cerchi risposte rapide, affidabili e con fonti, Perplexity è più diretto e orientato alla
ricerca.​
●​ Se ti serve un supporto creativo, conversazionale o testuale, ChatGPT è più adatto.
81
​
5. Come funziona ChatGPT: principi di base
5.1 – La base tecnologica: Transformer e GPT
5.1.1 – Cos’è un modello Transformer e perché ha rivoluzionato l’elaborazione del
linguaggio
Il modello Transformer è l’architettura che ha reso possibile la nascita di sistemi come GPT.​
​
È stato introdotto nel 2017 da un gruppo di ricercatori di Google in un articolo scientifico dal
titolo diventato celebre: Attention is All You Need.​
​
Fino a quel momento, i modelli di linguaggio più diffusi si basavano su strutture sequenziali,
come le reti neurali ricorrenti (RNN), che analizzavano una parola alla volta, in ordine, con
una memoria limitata.​
​
Questo funzionava per frasi brevi, ma creava problemi con testi lunghi o complessi.
82
Il Transformer ha introdotto un meccanismo nuovo chiamato self-attention, che consente al
modello di analizzare tutte le parole di una frase contemporaneamente, valutando quali
sono più rilevanti in base al contesto.​
​
Ad esempio, in una frase come “Il gatto salta sulla sedia perché è morbida”, il Transformer
può capire che “morbida” si riferisce alla “sedia” e non al “gatto”, proprio perché confronta
tutte le parole tra loro e assegna un peso all’importanza di ciascuna nel significato
complessivo.
Questa architettura ha rivoluzionato il modo in cui le macchine trattano il linguaggio,
rendendo possibile una comprensione più precisa e una generazione del testo molto
più coerente rispetto al passato.​
​
È alla base non solo di ChatGPT, ma anche di altri modelli avanzati come BERT, T5 e PaLM.
5.1.2 – Le origini del modello GPT e il concetto di pre-addestramento
GPT, acronimo di Generative Pre-trained Transformer, nasce dall’idea di combinare
l’efficacia del Transformer con un approccio in due fasi: pre-addestramento generale,
seguito da una specializzazione mirata.​
​
Il primo modello GPT è stato rilasciato da OpenAI nel 2018. A partire da allora, il sistema è
stato perfezionato con nuove versioni (GPT-2, GPT-3, GPT-3.5 e GPT-4), ognuna delle quali
ha migliorato la qualità della generazione del linguaggio.
Nel pre-addestramento, il modello viene “allenato” su un’enorme quantità di testi presi da
internet: articoli, libri, conversazioni pubbliche, documentazione tecnica.​
​
L’obiettivo non è apprendere dati specifici, ma imparare come funziona il linguaggio,
osservando come si costruiscono frasi, come le parole si combinano e quali strutture sono
più frequenti.
Questo addestramento si basa sulla predizione della parola successiva.​
​
Il modello riceve una sequenza di parole e deve indovinare quella che viene dopo.​
​
Ripetendo questo esercizio milioni di volte, in milioni di contesti diversi, GPT sviluppa una
83
sorta di “intuizione statistica” che gli consente di generare frasi molto simili a quelle che
scriverebbe una persona.
Il grande vantaggio di questo metodo è che permette al modello di apprendere in modo
non supervisionato, cioè senza che ogni esempio debba essere etichettato da un essere
umano.​
​
Questo lo rende estremamente scalabile: più dati ha, più migliora la sua capacità linguistica.
5.1.3 – L’architettura di GPT: attenzione, codifica e generazione del linguaggio
GPT è costruito con una serie di livelli chiamati layer, ciascuno dei quali esegue operazioni
specifiche sul testo.​
​
Il cuore del funzionamento è il meccanismo di self-attention, che analizza ogni parola di un
input in relazione a tutte le altre, per capire quali sono le connessioni più significative.
Ogni parola viene prima trasformata in una rappresentazione numerica, detta vettore.​
Questi vettori vengono poi elaborati dal modello per calcolare l’“importanza” delle altre
parole nel contesto.​
​
Per esempio, in una frase come “Maria ha detto a Giulia che lei avrebbe vinto il premio”, la
parola “lei” può riferirsi a Maria o a Giulia.​
​
Il modello deve analizzare tutte le relazioni tra parole per fare una stima ragionevole.
Dopo aver elaborato queste informazioni, il modello costruisce una risposta scegliendo la
parola successiva più probabile, poi la successiva ancora, e così via.​
Ogni nuova parola viene aggiunta al contesto e rianalizzata insieme alle precedenti,
aggiornando continuamente la previsione.​
​
Questo processo si ripete centinaia di volte al secondo, fino a costruire un testo completo e
coerente.​
​
Tutta questa architettura è ottimizzata per essere estremamente veloce ed efficiente.​
I modelli GPT moderni, come GPT-4, sono composti da decine o centinaia di miliardi di
parametri, cioè i “pesi” numerici che regolano le decisioni del modello.​
84
​
Più parametri ci sono, maggiore è la capacità del modello di rappresentare e generare
linguaggio in modo sofisticato.
​
5.2 – Come ChatGPT genera una risposta
5.2.1 – La predizione token per token: il testo come sequenza di probabilità
ChatGPT non pensa, non sceglie liberamente le parole, e non recupera frasi da un archivio.​
​
Ciò che fa è prevedere la parola successiva in base a quella che l’utente ha scritto e alle
parole che ha già generato nella risposta.
Per essere più precisi, ChatGPT lavora con unità chiamate token.​
​
Un token può essere una parola intera, ma anche solo una parte di parola o un segno di
punteggiatura. Quando riceve una richiesta, il sistema analizza il testo e lo suddivide in
questi token.
Poi, per ogni nuovo token che deve generare, calcola la probabilità di tutti i token possibili
che potrebbero seguire.​
​
Ad esempio, dopo la frase “Il cielo oggi è…”, il modello assegnerà una probabilità più alta a
parole come “nuvoloso”, “sereno”, “grigio”, e una probabilità molto bassa a parole fuori
contesto come “banana” o “bicicletta”.
Alla fine, seleziona il token con la probabilità più alta (o uno vicino), lo aggiunge alla frase, e
ripete il processo, un passo alla volta, fino a completare la risposta.
Questo meccanismo, chiamato generazione autoregressiva, è molto veloce e accurato, e
permette al modello di scrivere frasi che sembrano fluide e logiche, anche se non ha una
vera comprensione del significato.
5.2.2 – Il ruolo del contesto nella generazione di frasi coerenti
85
Una delle grandi capacità di ChatGPT è quella di tenere conto del contesto per generare
risposte che non siano solo grammaticalmente corrette, ma anche coerenti con ciò che è
stato chiesto.
Quando si scrive una domanda, ChatGPT non guarda solo le ultime parole, ma considera
tutto il testo inserito, compreso quello che ha scritto lui stesso nei passaggi precedenti.​
​
Questo gli permette di capire l’argomento, il tono della conversazione e l’intento
dell’utente.
Ad esempio, se prima hai chiesto “Spiegami la fotosintesi clorofilliana”, e poi dici “E che
ruolo ha la luce?”, ChatGPT capisce che stai continuando a parlare dello stesso argomento
e mantiene la coerenza nel discorso.
Il contesto è fondamentale anche per evitare ripetizioni o contraddizioni.​
​
Durante la generazione, il modello confronta ogni nuovo token con quanto già scritto, per
decidere come continuare il discorso in modo naturale.
Tuttavia, c’è un limite. I modelli come GPT hanno una “memoria” limitata alla conversazione
in corso.​
​
Se il testo diventa troppo lungo, le prime parti della conversazione possono essere “tagliate
fuori” e il modello potrebbe perdere alcune informazioni.​
​
Per questo, nelle interazioni lunghe, può essere utile riassumere o riformulare le
richieste.
5.2.3 – Coerenza, fluidità e limiti delle risposte generate
ChatGPT è molto bravo a scrivere in modo fluido, naturale e convincente.​
​
Le frasi scorrono bene, il lessico è curato, la grammatica è quasi sempre corretta.​
Questo è il motivo per cui spesso sembra che “sappia” davvero quello che sta dicendo.
In realtà, ciò che il modello fa è costruire frasi statisticamente probabili.​
​
Ha visto milioni di esempi di come vengono scritte certe risposte, e li usa per imitare lo stile
86
e la struttura.​
​
Ma non ha una vera comprensione: non sa se un fatto è vero o falso, e può anche
“inventare” risposte che sembrano corrette ma non lo sono.
Questo fenomeno è noto come “allucinazione”: il modello genera una risposta errata, ma lo
fa con grande sicurezza. Ad esempio, potrebbe citare una fonte inesistente, inventare una
definizione sbagliata o confondere date ed eventi.
Per questo è importante usare senso critico.​
​
Quando si usa ChatGPT per attività importanti, è sempre consigliabile verificare le
informazioni ricevute o confrontarle con fonti affidabili.
In sintesi, ChatGPT è eccellente nella forma, ma bisogna fare attenzione ai contenuti.​
Se viene usato per scrivere, spiegare o riformulare, funziona molto bene.​
Ma se serve per ottenere dati precisi o aggiornati, è bene affiancarlo a strumenti come
Perplexity o a ricerche manuali.
5.3 – L’importanza del prompt
5.3.1 – Cos’è un prompt e perché influenza il comportamento del modello
Il prompt è il cuore della comunicazione tra l’utente e ChatGPT. Si tratta, in parole semplici,
del testo che scriviamo per dare un’istruzione al modello.​
​
Può essere una domanda (“Cos’è l’energia solare?”), una richiesta (“Scrivimi una mail
formale”), o un comando complesso (“Agisci come un esperto di marketing e analizza
questo annuncio pubblicitario”).
Il prompt non è un elemento secondario: è ciò che definisce il comportamento dell’IA, perché
ChatGPT non decide da solo cosa scrivere. Risponde esclusivamente in base a quello che
gli viene chiesto.
87
Anche una piccola variazione nel prompt può modificare radicalmente la risposta.​
Ad esempio, la richiesta “Spiegami l’intelligenza artificiale” può generare una risposta
tecnica.​
​
Ma se scriviamo “Spiegami l’intelligenza artificiale a un bambino di 10 anni”, ChatGPT
semplificherà i concetti, cambierà il tono e userà esempi comprensibili.
Questo accade perché il modello è addestrato a riconoscere sfumature nella
formulazione delle domande, e ad adattare il registro linguistico, la struttura e la profondità
della risposta.​
​
Per questo, un buon prompt non è solo una domanda: è una strategia comunicativa.
5.3.2 – Come strutturare un prompt efficace per ottenere risposte migliori
Un prompt efficace è quello che permette a ChatGPT di capire esattamente cosa
vogliamo.​
​
Questo non significa scrivere molto, ma essere precisi.
Ci sono tre elementi che rendono un prompt chiaro:
1. Il contesto: specificare di cosa si sta parlando.​
Ad esempio, se chiedi “Scrivi una descrizione”, ChatGPT ti darà un testo generico.​
Ma se dici “Scrivi una descrizione di un hotel 4 stelle per un sito di viaggi, in tono
professionale e accattivante”, il risultato sarà molto più adatto allo scopo.
2. Il formato desiderato. ​
Indicare se si vuole un elenco, un testo continuo, una tabella, una lista numerata,
un’introduzione con punti di sintesi, ecc. ChatGPT può scrivere in tantissime forme, ma ha
bisogno di sapere quale struttura ti aspetti.
3. Il tono e il livello di dettaglio. ​
Puoi chiedere “spiegalo in modo semplice”, oppure “scrivi in stile tecnico per un pubblico
specializzato”. Oppure puoi indicare: “usa un tono persuasivo”, “mantieni una comunicazione
empatica”, o ancora “non superare 150 parole”.
Ecco un confronto reale:
88
Prompt generico:​
🟠 “Spiegami il cambiamento climatico.”
Prompt efficace:​
🟢 “Agisci come un insegnante di scuola superiore. Spiega il cambiamento climatico in
modo chiaro e semplice, con un esempio concreto. Limita la spiegazione a 200 parole.”
Il secondo prompt offre al modello una guida chiara su contenuto, stile, livello e
lunghezza. E di conseguenza, la risposta sarà più centrata sull’obiettivo dell’utente.
5.3.3 – Prompt complessi, richieste multilivello e conversazioni evolute
ChatGPT è capace di gestire richieste articolate, anche su più livelli.​
​
Non è necessario fare domande semplici o isolare ogni passaggio.​
Anzi, il modello risponde bene quando si scrive una sequenza ordinata di istruzioni, come
faresti con un assistente umano.
Ad esempio, puoi scrivere:
“Riassumi questo testo in massimo 150 parole, usa uno stile giornalistico, poi estrai tre
titoli alternativi adatti a un blog professionale.”
ChatGPT leggerà tutte le parti della richiesta e cercherà di eseguire ogni compito nell’ordine
indicato, anche se sono diversi tra loro.​
​
È in grado di separare compiti, mantenere coerenza e adattarsi a obiettivi multipli.​
Questo è molto utile in ambito professionale, accademico o creativo, dove una singola
risposta può richiedere più passaggi logici.
Inoltre, ChatGPT gestisce bene le conversazioni che si sviluppano nel tempo.​
​
Puoi iniziare con una richiesta generica, ottenere una risposta, e poi lavorare sopra quel
testo: puoi chiedere di semplificarlo, espanderlo, riformularlo, oppure farlo riscrivere per un
pubblico diverso.​
​
L’utente scrive, il modello risponde, l’utente interviene di nuovo, il modello modifica: una
89
conversazione a più livelli, che non si limita a una domanda e risposta, ma costruisce un
contenuto insieme.
Saper guidare questo dialogo con prompt ben costruiti è oggi una competenza importante,
che può fare la differenza tra ottenere una risposta generica o un risultato realmente utile e
personalizzato.
​
​
​
5.4 – Addestramento supervisionato e rinforzato
5.4.1 – Fase di pre-training: apprendere la lingua dai dati
La prima fase dello sviluppo di ChatGPT si chiama pre-addestramento, o pre-training.​
​
È il momento in cui il modello viene “formato” a riconoscere come funziona il linguaggio
umano.​
​
Non apprende nozioni specifiche, ma modelli linguistici: impara come si costruiscono frasi,
quali parole stanno bene insieme, come si struttura un discorso.
Per fare questo, il modello legge una quantità enorme di testo, raccolto da fonti pubbliche
e accessibili online: libri, articoli, enciclopedie, siti web, dialoghi in forum, testi tecnici, e
molto altro.​
​
Il suo obiettivo è uno solo: imparare a prevedere quale parola viene dopo, dato un pezzo
di frase.
Immagina una frase come:
“Oggi il tempo è molto…”
90
Il modello analizza tutte le parole precedenti (“Oggi il tempo è molto”) e, in base a milioni di
frasi simili viste durante l’addestramento, calcola quale parola ha più probabilità di comparire
dopo: “freddo”? “caldo”? “variabile”?​
​
Questa attività di previsione, ripetuta miliardi di volte, permette al modello di interiorizzare
le regole statistiche del linguaggio, senza che gli siano state insegnate in modo esplicito.
Durante il pre-training, il modello non ha idea del significato profondo dei concetti.​
Non sa cosa sia il tempo atmosferico, non sa cos’è “caldo”.​
Ma ha visto che quelle parole stanno spesso insieme e imita quelle strutture, con una
coerenza che migliora all’aumentare dei dati e della complessità del modello.
5.4.2 – Fase di fine-tuning supervisionato: insegnare comportamenti specifici
Una volta completato il pre-addestramento, il modello ha una buona conoscenza del
linguaggio, ma non sa ancora come comportarsi in una conversazione utile.​
​
Potrebbe generare risposte troppo lunghe, fuori tema, o addirittura inappropriate.
Per questo entra in gioco una seconda fase: il fine-tuning supervisionato, ovvero
l’addestramento controllato da esseri umani.
In questa fase, il modello riceve esempi di conversazioni corrette, costruite da veri
operatori umani.​
​
Ad esempio, a una domanda come “Qual è la capitale dell’Italia?”, il modello vede che la
risposta corretta è “Roma”. Ma non solo: vede anche come viene formulata la risposta, con
chiarezza, tono educato, struttura semplice.
Gli esseri umani non si limitano a dire “questa risposta è giusta”. Scrivono direttamente le
risposte modello che il sistema deve imparare a imitare.​
​
In pratica, il modello studia come risponde una persona esperta, imparando a usare il
linguaggio in modo utile, rispettoso e coerente con il contesto.
Il fine-tuning serve anche a fissare limiti.​
​
91
Per esempio, insegna al modello a non dare consigli medici pericolosi, a non promuovere
contenuti offensivi, e a rispettare norme etiche durante la conversazione.
5.4.3 – Reinforcement Learning from Human Feedback (RLHF): il ruolo del giudizio
umano
L’ultima fase dell’addestramento è quella che ha reso ChatGPT davvero raffinato.​
​
Si chiama Reinforcement Learning from Human Feedback, abbreviato in RLHF.​
È un processo in cui gli esseri umani valutano le risposte del modello e insegnano
quale comportamento è migliore.
Funziona così: ​
​
1. Il modello viene messo alla prova con centinaia di domande.​
2. Per ognuna, genera più risposte alternative.​
3. A questo punto, un operatore umano sceglie quale tra le risposte è la più utile, corretta e
chiara.​
4. Questa scelta diventa un segnale che aiuta il modello a capire qual è il comportamento
preferito.
Il sistema usa queste preferenze umane per migliorare il modo in cui risponde. È come se
dicesse: “Ogni volta che do una risposta simile a quella premiata, ho più probabilità di
essere considerato utile”.​
​
E così, adatta il suo comportamento per avvicinarsi sempre più al tipo di interazione che
gli esseri umani desiderano.
Questa fase è un esempio di apprendimento per rinforzo.​
​
Non si tratta più di memorizzare dati, ma di ottimizzare il comportamento in base al giudizio
umano. È qui che il modello impara a essere più educato, prudente, rispettoso, chiaro, e ad
affrontare anche richieste ambigue con maggiore cautela.​
​
Il RLHF è stato fondamentale per portare ChatGPT dal laboratorio all’uso pubblico,
92
rendendolo un assistente virtuale in grado di interagire in modo realistico, utile e, in molti
casi, sorprendentemente empatico.
5.5 – Versioni e aggiornamenti (GPT-3.5, GPT-4, ecc.)
5.5.1 – GPT-3.5: potenzialità, limiti e utilizzi nella versione gratuita
GPT-3.5 è il modello di base che viene utilizzato nella versione gratuita di ChatGPT.​
​
È stato rilasciato da OpenAI nel 2022 ed è una versione migliorata di GPT-3, con prestazioni
migliori in molti compiti di linguaggio, soprattutto nella velocità di risposta e nella coerenza
sintattica.
GPT-3.5 è un modello molto potente, capace di generare testi coerenti, spiegare concetti,
scrivere email, produrre riassunti, tradurre frasi e sostenere una conversazione fluida.​
​
Per la maggior parte degli utenti, è più che sufficiente per attività quotidiane, come la
scrittura, lo studio, la comunicazione o la generazione di idee.
Tuttavia, presenta alcuni limiti.​
​
In particolare, GPT-3.5 tende a perdere il contesto nei dialoghi più lunghi, è meno
preciso in compiti che richiedono ragionamento logico o calcoli complessi, e può
confondere informazioni simili.​
​
È anche più incline a “allucinare”, cioè a inventare dati o nomi che suonano realistici ma
non sono veri. Per questo, pur essendo gratuito e molto utile, ha una portata più limitata
rispetto a versioni successive.
93
5.5.2 – GPT-4: miglioramenti nel ragionamento, comprensione e creatività
GPT-4 rappresenta un salto di qualità significativo rispetto a GPT-3.5.​
​
È disponibile per chi sottoscrive il piano a pagamento “ChatGPT Plus” e viene utilizzato
anche in contesti professionali e accademici di alto livello.
La principale differenza sta nella capacità di comprensione e di ragionamento.​
GPT-4 è più bravo a seguire istruzioni complesse, mantenere il contesto anche in
conversazioni lunghe e articolate, ed è molto più coerente quando deve rispondere a
domande che richiedono logica, confronto tra dati, o attenzione ai dettagli.
È anche più preciso nel riconoscere sfumature linguistiche, come sarcasmo, metafore,
espressioni idiomatiche.​
​
Inoltre, scrive testi con struttura più solida, maggiore varietà lessicale e stile più
naturale, soprattutto in italiano, dove i modelli precedenti a volte suonavano forzati.
Un altro miglioramento importante riguarda la riduzione degli errori e delle invenzioni.​
GPT-4 è meno propenso a generare informazioni false, anche se – come tutti i modelli
linguistici – non è infallibile e va sempre usato con senso critico.​
​
In alcuni contesti, come la scrittura tecnica, la programmazione, la stesura di documenti
professionali o l’elaborazione di argomentazioni complesse, GPT-4 offre una marcia in più,
e si comporta in modo molto vicino a un esperto umano.
5.5.3 – Differenze tecniche e comportamentali tra le versioni
A livello tecnico, la differenza tra GPT-3.5 e GPT-4 riguarda il numero di parametri, cioè le
“connessioni” matematiche che regolano le risposte del modello, e la quantità e la qualità
dei dati usati per l’addestramento.​
​
Anche se OpenAI non ha rivelato tutti i dettagli, è noto che GPT-4 è molto più grande, più
sofisticato e più allenato rispetto alle versioni precedenti.
Ma al di là della tecnologia, quello che conta per l’utente è il comportamento concreto del
modello.​
​
94
GPT-4 è più stabile, mantiene meglio il contesto, gestisce meglio richieste multilivello, e si
adatta in modo più intelligente a ciò che l’utente sta cercando.​
​
Risponde con frasi meglio costruite, evita ripetizioni inutili, e riesce a comprendere richieste
anche ambigue o incomplete.
Un’altra differenza pratica è che GPT-4, nella versione a pagamento, può utilizzare
strumenti aggiuntivi, come la generazione di immagini (con DALL·E), la lettura di file
caricati dall’utente, la navigazione su internet per cercare informazioni aggiornate (solo nella
modalità “con strumenti”) e l’uso di plugin specializzati per compiti specifici.​
​
5.6 – Differenze tra modalità (assistente, codice, DALL·E, ecc.)
5.6.1 – Modalità “Assistente”: dialogo generalista e supporto testuale
La modalità predefinita di ChatGPT è quella che possiamo chiamare “assistente generale”.​
​
In questa modalità, il modello è progettato per sostenere conversazioni fluide, rispondere
a domande, aiutare nella scrittura e spiegare concetti, su una vastissima gamma di
argomenti.
È la modalità attiva quando apri ChatGPT e inizi a scrivere qualsiasi tipo di messaggio.​
​
Qui, il modello si comporta come un assistente virtuale “tuttofare”, in grado di aiutarti a
redigere un’email, scrivere un curriculum, capire un testo, fare brainstorming, correggere
una frase, o proporre idee creative.
Questa modalità è la più versatile e quella che la maggior parte degli utenti utilizza
quotidianamente.​
95
​
Non è pensata per compiti altamente tecnici, ma può fornire risposte chiare, ben formate e
contestualmente adeguate nella stragrande maggioranza delle situazioni quotidiane.
Il suo punto di forza è proprio la flessibilità: puoi passare da una domanda di grammatica
italiana a un consiglio per cucinare o a una spiegazione di storia, e il modello si adatta senza
difficoltà.
5.6.2 – Modalità “Codice”: scrittura, spiegazione e debug di programmi
Oltre alla modalità generalista, ChatGPT offre anche una modalità specializzata per il
codice, progettata per assistere programmatori, studenti e chiunque stia imparando o
scrivendo software.​
​
Questa modalità è particolarmente utile per scrivere script, generare funzioni, spiegare
algoritmi, correggere errori di programmazione e ottimizzare il codice.​
​
Può lavorare con moltissimi linguaggi: Python, JavaScript, C++, HTML, CSS, SQL e molti
altri.​
​
L’utente può chiedere, ad esempio, “Scrivimi una funzione in Python che calcoli la media di
una lista”, e riceverà un codice ben formattato, funzionante, e spesso accompagnato da una
spiegazione.
Non solo: è possibile incollare un pezzo di codice che non funziona, chiedere al modello
di trovare il bug, e ottenere suggerimenti su cosa correggere e perché.​
​
Questo rende ChatGPT un tutor di programmazione molto efficace, utile sia ai principianti
che a chi scrive codice professionalmente.
Va però chiarito che il modello non esegue il codice né verifica i risultati in tempo reale.​
​
Le risposte si basano sulle conoscenze apprese durante l’addestramento e sulle logiche
comuni dei linguaggi, ma spetta sempre all’utente testare il codice in un ambiente reale.
5.6.3 – Modalità “DALL·E” e strumenti visuali: generare immagini da testo
96
Una delle funzionalità più avanzate disponibili per chi usa GPT-4 con strumenti è la
modalità DALL·E, che consente di generare immagini a partire da una descrizione
scritta.​
​
Questa funzione combina il modello linguistico di ChatGPT con un modello di intelligenza
artificiale addestrato per creare immagini, chiamato appunto DALL·E.
In pratica, l’utente scrive un prompt descrittivo – ad esempio, “un paesaggio innevato al
tramonto, con una volpe in primo piano in stile pittura a olio” – e il sistema genera
un’immagine coerente con la richiesta.
La qualità delle immagini è molto alta e le possibilità sono vastissime.​
​
Si possono creare loghi, scene artistiche, illustrazioni concettuali, e anche modificare
immagini esistenti, ad esempio rimuovendo o aggiungendo elementi.​
Tutto questo viene fatto senza necessità di competenze grafiche da parte dell’utente.
Questa modalità è particolarmente utile per creativi, designer, content creator, ma anche
per chi ha bisogno di immagini rapide per slide, presentazioni, articoli o social.​
​
Va però ricordato che le immagini non sono generate da fonti fotografiche reali, ma sono
composizioni artificiali.​
​
Non possono quindi essere usate per rappresentazioni documentaristiche o dati visivi reali.
Insieme, queste tre modalità – testo, codice e immagine – rendono ChatGPT un sistema
multimodale, capace di supportare molteplici forme di comunicazione e produzione, tutte
guidate da un’interazione in linguaggio naturale.
5.7 – Come “ragiona” un modello generativo
5.7.1 – L’apparente “logica” del modello: previsione statistica, non pensiero
97
Quando usiamo ChatGPT, può sembrare di parlare con qualcuno che ragiona, capisce e
decide cosa dire.​
In realtà, il modello non ha intenzioni, non ha opinioni e non sa nulla del mondo come lo
sappiamo noi. Ciò che fa è prevedere la parola successiva.
Ogni volta che riceve un prompt, ChatGPT analizza il testo e calcola – con estrema velocità
– quale parola è la più probabile da scrivere dopo, in quel contesto.​
​
Fa questo basandosi su tutto ciò che ha “visto” durante il suo addestramento: milioni di testi,
dialoghi, esempi, frasi, parole.
Per capirlo meglio, immagina che il modello abbia letto moltissimi libri e ora stia cercando di
scrivere frasi che suonino simili. Non sa cosa significano profondamente quelle frasi, ma
riconosce come vengono usate in certi contesti, e quindi riesce a “imitare” un discorso
logico, anche se dietro non c’è vera comprensione.
Questo approccio si chiama modellazione linguistica statistica. Significa che il modello è
costruito per simulare il linguaggio, non per pensare.​
​
Eppure, grazie alla quantità di dati analizzati e alla potenza del suo meccanismo interno
(chiamato Transformer), riesce a produrre risposte che sembrano frutto di un ragionamento
autentico.
5.7.2 – Perché le risposte sembrano intelligenti anche senza comprensione reale
Le risposte di ChatGPT spesso ci sorprendono per quanto siano ben scritte, coerenti e
pertinenti.​
​
Un effetto del genere è dovuto al fatto che il modello ha imparato a imitare il modo in cui le
persone scrivono e parlano. Quindi, anche se non “capisce”, riesce a riprodurre con
precisione il linguaggio umano.
Quando leggiamo una risposta generata da ChatGPT, il nostro cervello tende a interpretarla
come se fosse stata pensata da un’altra persona.​
Questo accade perché il testo segue regole di grammatica, stile, tono e coerenza a cui
siamo abituati.​
98
​
Il linguaggio ha un enorme potere persuasivo: se una frase “suona bene”, spesso la
riteniamo anche “vera”, anche quando non lo è.
Infatti, ChatGPT non sa cosa è corretto o falso, non ha coscienza, non ha una percezione
del tempo, né valori morali.​
​
Quindi può scrivere in modo molto convincente qualcosa che in realtà è impreciso,
sbagliato o inventato.
La sua intelligenza, se così si può chiamare, non è cognitiva, ma linguistica e probabilistica.
Sa cosa è più probabile che venga detto in una certa situazione, ma non sa se sia la cosa
giusta da dire.
5.7.3 – Limiti cognitivi: quando l’IA sbaglia, inventa o non capisce
Nonostante la sua abilità nell’uso del linguaggio, ChatGPT ha limiti ben precisi.​
​
Il primo è che non comprende realmente il contenuto di ciò che dice. Non sa cosa
significa “soffrire”, “credere”, “volere”, o “mentire”. Questi sono concetti legati all’esperienza
umana, che una macchina non possiede.
Un altro limite importante è che può generare informazioni errate, ma presentarle come se
fossero vere.​
​
Questo fenomeno è chiamato hallucination (allucinazione), e si verifica quando il modello
“inventa” una risposta plausibile, ma che non si basa su dati reali.​
Ad esempio, può citare un libro che non esiste, attribuire una frase a un autore sbagliato, o
confondere date ed eventi.
Inoltre, ChatGPT non ha memoria delle conversazioni passate, a meno che non venga
esplicitamente progettato per conservarla (come accade con la funzione “memoria” che
alcuni utenti possono attivare).​
​
Ogni sessione è indipendente, e il modello non impara dall’interazione con l’utente, a
meno che non sia parte di un sistema che registra e gestisce queste informazioni.
99
Infine, il modello non ha coscienza del tempo, quindi può parlare di “eventi attuali” anche
se non ha accesso alle notizie più recenti.​
​
E quando prova a spiegare emozioni, motivazioni o esperienze umane, lo fa imitando il
modo in cui ne parlano le persone, ma senza viverle o comprenderle.
Per questo motivo, anche se ChatGPT può sembrare intelligente, bisogna sempre ricordare
che sta solo generando testo, non sta pensando.​
​
100
6. Come funziona Perplexity: principi di base​
​
​
6.1 – Che cos’è un motore di risposta con fonti
6.1.1 – Dalla ricerca classica alla risposta sintetica
Tradizionalmente, quando cerchiamo qualcosa su internet, usiamo un motore di ricerca
classico, come Google o Bing.​
​
Questi strumenti restituiscono un elenco di link basati su parole chiave, ordinati secondo
criteri di pertinenza, popolarità, freschezza o autorità del sito.
Sta all’utente cliccare su più fonti, leggere, confrontare, estrarre le informazioni utili e infine
sintetizzarle.​
​
Questo processo richiede tempo, attenzione e una certa capacità di analisi, perché ogni
fonte ha il suo stile, il suo linguaggio e il suo livello di affidabilità.
Un motore di risposta con fonti, come Perplexity AI, non si limita a mostrare link, ma
esegue direttamente il lavoro di lettura, confronto e sintesi, restituendo all’utente una
risposta pronta all’uso, già filtrata e strutturata.​
​
La novità è proprio questa: l’intelligenza artificiale non ti dà solo accesso all’informazione,
ma la elabora per te, raccogliendo frammenti da fonti diverse in un testo unico e leggibile.
101
6.1.2 – Il concetto di “risposta verificabile”
In un motore di risposta con fonti, la generazione del testo non avviene a partire da una
conoscenza interna (come nei modelli preaddestrati), ma da contenuti trovati in tempo
reale online.​
​
Questo cambia completamente la logica della risposta: non è più un testo “costruito sulla
probabilità linguistica”, ma una sintesi documentata.
Ogni affermazione contenuta nella risposta può essere tracciata fino alla fonte originaria.​
Questo è possibile perché il sistema associa porzioni del testo generato con link numerati,
che rimandano direttamente agli articoli, pagine o documenti utilizzati.​
L’utente può cliccare sui riferimenti per vedere da dove proviene una certa informazione,
valutare se la fonte è attendibile, e se desidera approfondire.
Questa struttura è chiamata spesso risposta verificabile o source-backed answer.​
È particolarmente importante in contesti in cui la fiducia nelle informazioni è cruciale,
come in ambito medico, legale, giornalistico, scolastico o istituzionale.
Non si tratta solo di “citare” una fonte, ma di rendere trasparente il processo con cui l’IA
costruisce la risposta, permettendo all’utente di seguire il percorso che ha portato a quel
contenuto.
6.1.3 – Come Perplexity combina sintesi e documentazione
Il funzionamento di Perplexity si basa su un meccanismo a due fasi.​
​
La prima fase è la raccolta delle fonti. Il sistema esegue una ricerca web mirata, simile a
quella di un motore classico, ma utilizza algoritmi linguistici avanzati per identificare quali
documenti sono realmente rilevanti rispetto alla domanda.​
​
La seconda fase è quella della sintesi. Qui interviene l’IA, che legge i contenuti selezionati e
costruisce una risposta unificata.​
102
Questa risposta non è una copia di parti dei testi originali, ma una rielaborazione linguistica
che mette insieme i concetti chiave in modo fluido e logico.
Durante questa sintesi, Perplexity mantiene un collegamento diretto con le fonti.​
​
Ogni paragrafo della risposta può essere legato a uno o più documenti, e i riferimenti sono
riportati in modo numerato.​
​
Questo meccanismo consente all’utente di usare la risposta come punto di partenza, e allo
stesso tempo di verificare subito la qualità e l’origine delle informazioni.
Questo approccio ha un doppio vantaggio: ​
​
- da un lato risparmia tempo all’utente, che riceve una risposta chiara senza dover leggere
dieci articoli diversi;​
- dall’altro garantisce trasparenza, perché nulla è inventato e tutto è consultabile.
​
​
6.2 – Come Perplexity integra il web in tempo reale
6.2.1 – Accesso dinamico alle fonti online
​
​
In pratica, quando un utente fa una domanda, il sistema non risponde usando solo una
memoria interna costruita durante l’addestramento, ma avvia una vera e propria ricerca
online, simile a quella che faremmo noi manualmente con un motore di ricerca.
Ma c’è una differenza fondamentale: mentre un motore di ricerca mostra un elenco di link,
Perplexity legge il contenuto dei siti, ne seleziona le parti più rilevanti e sintetizza una
risposta.​
103
​
Questo processo avviene in tempo reale, ed è molto più veloce di quanto potrebbe fare una
persona.
È importante capire che questo non è un semplice "aggiornamento automatico".​
​
Significa che il modello non è mai “bloccato nel passato”, perché le informazioni che
utilizza sono quelle effettivamente disponibili online nel momento in cui riceve la domanda.
Questo rende Perplexity estremamente utile quando si cercano informazioni su eventi
recenti, dati che cambiano spesso, tendenze di mercato, ricerche scientifiche pubblicate di
recente o decisioni politiche e normative aggiornate.
6.2.2 – Aggiornamento continuo delle informazioni
Alcuni modelli di intelligenza artificiale sono addestrati una sola volta su un’enorme quantità
di dati, e poi usati così come sono. Questo significa che, se nel frattempo il mondo cambia, il
modello non se ne accorge.
Perplexity adotta invece un approccio completamente diverso. Funziona come un
interprete che apprende ogni volta, cercando le informazioni più recenti nel momento in
cui deve rispondere.
Questo meccanismo consente a Perplexity di essere sempre aggiornato, senza dover
essere riaddestrato ogni volta che cambia qualcosa nel mondo.​
​
Ad esempio, se oggi viene pubblicato un nuovo studio medico, o se una legge viene
modificata, Perplexity può trovarlo, leggerlo e includerlo nella sua risposta già domani.
L’aggiornamento non avviene una volta al mese o alla settimana, ma ogni volta che viene
fatta una richiesta. Per questo si parla di integrazione in tempo reale del web.
Questa caratteristica è particolarmente utile anche per chi lavora in ambiti dove la
tempestività è essenziale, come il giornalismo, la ricerca, la consulenza, la medicina,
l’educazione o l’intelligence aziendale.
6.2.3 – Differenze con i modelli statici come ChatGPT
104
Per comprendere davvero il valore dell’integrazione in tempo reale, è utile confrontare
Perplexity con modelli generativi come ChatGPT (almeno nella sua versione base).​
​
Tutto ciò che dice si basa su ciò che ha “visto” durante il suo addestramento, che viene fatto
in un momento preciso e poi “congelato”.
Se gli si chiede qualcosa accaduto dopo la data di addestramento, potrebbe rispondere che
non è aggiornato, oppure, peggio, potrebbe inventare una risposta plausibile ma
sbagliata, perché non ha modo di verificare.
Perplexity invece non inventa (almeno non intenzionalmente).​
​
Risponde solo con ciò che trova effettivamente scritto nelle fonti accessibili in quel
momento. Questo non elimina del tutto la possibilità di errore – perché dipende comunque
dalla qualità delle fonti – ma riduce enormemente il rischio di informazioni obsolete o false.
Inoltre, Perplexity non ha bisogno di essere continuamente riaddestrato per restare
aggiornato. ​
​
La sua architettura gli consente di collegarsi in tempo reale al mondo, in modo simile a
come faresti tu con un browser, ma molto più velocemente e con la capacità di sintetizzare
grandi quantità di informazioni in pochi secondi.
Questa differenza non è solo tecnica: è un cambio di paradigma.​
​
Non stiamo più parlando di una “macchina che sa”, ma di una “macchina che cerca, legge e
risponde” nel momento stesso in cui viene interrogata.
6.3 – Il ruolo della ricerca neurale
6.3.1 – Cos’è la ricerca neurale e come funziona
105
La ricerca neurale è una tecnologia che permette a un’intelligenza artificiale come Perplexity
di capire il significato di una domanda, anche quando non è formulata con parole precise.​
È diversa dalla ricerca tradizionale, che si basa sul semplice confronto tra le parole della
domanda e quelle presenti nei documenti.
Perplexity non si limita a cercare le stesse parole, ma è in grado di interpretare l’intento
dell’utente.​
​
Lo fa grazie a un modello chiamato retriever neurale, che trasforma sia la domanda che i
documenti in vettori numerici (cioè rappresentazioni matematiche del significato), e li
confronta nello spazio semantico.
In questo spazio, documenti che “significano la stessa cosa” si trovano vicini, anche se
non contengono le stesse parole.​
​
Ad esempio, se scrivi “come abbassare la pressione alta”, Perplexity potrebbe trovare un
documento che parla di “ipertensione” e suggerisce “attività fisica e dieta povera di sodio”,
anche se la tua domanda non conteneva esattamente quei termini.​
​
Questo è possibile perché la ricerca neurale non si basa su parole chiave, ma su
concetti. È un tipo di ricerca che “capisce” in modo approssimativo ciò che stai chiedendo e
trova testi che “dicono la stessa cosa” con parole diverse.
6.3.2 – Rilevanza semantica oltre le parole chiave
Uno dei grandi limiti della ricerca tradizionale è che funziona bene solo se usi le parole
“giuste”, cioè quelle che appaiono anche nei documenti.​
​
Se invece usi sinonimi, modi di dire, o espressioni vaghe, rischi di non trovare nulla o di
ottenere risultati poco utili.
La ricerca neurale supera questo problema perché lavora a livello semantico, cioè a livello
di significato. Non importa solo come è formulata la domanda, ma cosa intendi davvero.​
​
Questo permette a Perplexity di essere molto più flessibile, e di aiutare anche chi non è
esperto o non sa esattamente come porre la domanda.
106
Per esempio, se scrivi:
“Cosa fa male al cuore oltre al colesterolo?”
Un sistema tradizionale cercherebbe “cuore” e “colesterolo”.​
​
Perplexity, invece, grazie alla ricerca neurale, potrebbe trovarti articoli che parlano di
“ipertensione”, “fumo”, “sedentarietà”, perché ha capito che stai cercando fattori di rischio
cardiovascolare, anche se non li hai nominati direttamente.
Questa capacità di andare oltre le parole letterali rende la ricerca neurale più adatta a
domande complesse, vaghe o discorsive, come quelle che facciamo normalmente in
linguaggio naturale.
6.3.3 – Vantaggi rispetto alla ricerca tradizionale
Il principale vantaggio della ricerca neurale è la sua capacità di adattarsi al modo di
esprimersi dell’utente, anche se è impreciso, poco tecnico o informale.​
​
Questa flessibilità rende Perplexity molto più accessibile a un pubblico ampio, rispetto ai
motori di ricerca classici.
Inoltre, la ricerca neurale permette di trovare informazioni nascoste in testi lunghi,
complessi o scritti con terminologie specialistiche.​
​
Questo è particolarmente utile in campi come medicina, scienza o diritto, dove le parole
usate dai professionisti sono spesso diverse da quelle che userebbe una persona comune.
C’è anche un altro aspetto importante: la ricerca neurale riduce il rumore informativo.​
Un motore classico potrebbe restituire centinaia di link poco rilevanti solo perché
contengono le parole cercate.​
​
Perplexity, invece, seleziona i documenti realmente pertinenti, perché valuta la
somiglianza di significato, non solo la presenza delle parole.
Infine, la ricerca neurale accelera l’intero processo: l’utente non deve leggere dieci pagine
per capire qual è quella giusta.​
​
107
Riceve subito una sintesi affidabile, costruita a partire dalle fonti semanticamente più vicine
alla sua domanda.
6.4 – Algoritmi di ranking e precisione delle risposte
6.4.1 – Come vengono valutate e ordinate le fonti
Quando Perplexity riceve una domanda, il suo compito non è solo trovare documenti o
pagine web che parlano dell’argomento, ma anche decidere quali tra questi sono i più adatti
a rispondere in modo chiaro, corretto e utile.
Per fare questo, il sistema utilizza algoritmi di ranking, cioè strumenti matematici che
assegnano un punteggio a ogni possibile fonte, in base a diversi criteri.​
Tra questi criteri ci sono:
●​ la pertinenza semantica: quanto il contenuto corrisponde davvero alla domanda,
non solo nelle parole, ma nel significato;​
●​ l’affidabilità del sito: se la fonte è considerata autorevole, ad esempio perché è
accademica, istituzionale, verificata;​
●​ l’attualità: quanto è recente la pagina, dato che molte informazioni cambiano
rapidamente nel tempo;​
●​ la chiarezza del contenuto: se il testo è scritto in modo comprensibile, senza
ambiguità o tecnicismi inutili.​
108
Il sistema assegna un punteggio a ciascun documento trovato, e poi ordina i contenuti dal
più al meno rilevante.​
​
Solo quelli con il punteggio più alto vengono usati nella risposta finale. Gli altri vengono
scartati, per evitare rumore o informazioni non utili.
6.4.2 – Filtri, pertinenza e qualità dei contenuti
Oltre al ranking basato su punteggi, Perplexity applica anche filtri aggiuntivi per
assicurarsi che le fonti usate siano appropriate.​
​
Ad esempio, il sistema cerca di escludere contenuti duplicati, pagine troppo brevi, forum
poco moderati o siti noti per diffondere informazioni errate.
In questo senso, Perplexity non lavora solo sulla quantità di dati, ma anche sulla loro
qualità.​
​
È come un bibliotecario che non si limita a darti tutti i libri sull’argomento, ma sceglie solo
quelli scritti in modo chiaro, aggiornato e affidabile, e ti fa leggere direttamente le parti
più importanti.
La pertinenza semantica gioca un ruolo centrale: il sistema analizza quanto il contenuto
risponde davvero alla domanda, non se contiene semplicemente parole simili.​
​
Ad esempio, se chiedi “Come funziona il vaccino a mRNA?”, Perplexity seleziona articoli
scientifici e divulgativi che spiegano il meccanismo biologico, non pagine che parlano
genericamente di vaccini o di virus.
Questo tipo di filtro semantico permette di ridurre la dispersione e aumentare la precisione,
offrendo risposte più dirette e affidabili, anche per domande complesse.
6.4.3 – Ottimizzazione della sintesi finale
Una volta selezionate e ordinate le fonti migliori, Perplexity passa alla fase finale: la
generazione della risposta sintetica.​
​
109
Qui entra in gioco un modello linguistico che ha il compito di leggere i documenti scelti e
scrivere un testo che riassuma le informazioni più importanti.
Questa sintesi non è una semplice copia: riorganizza i concetti, elimina le ridondanze, e
cerca di rispondere in modo diretto e focalizzato alla domanda iniziale.​
​
Se ci sono più fonti che dicono cose simili, il modello può combinarle in una frase unica.​
Se ci sono punti diversi, può riportarli in modo bilanciato, facendo capire all’utente che
esistono più prospettive.
Ogni parte della risposta viene poi collegata a una fonte specifica, tramite numeri o link,
così l’utente può verificare subito da dove proviene l’informazione.​
Inoltre, il sistema cerca di evitare ambiguità, errori di sintesi o semplificazioni eccessive,
usando una struttura chiara, frasi brevi e un linguaggio accessibile.
Il risultato finale è una risposta corretta dal punto di vista linguistico, curata nei contenuti,
coerente nei riferimenti e calibrata sulle reali intenzioni dell’utente.
6.5 – Perplexity Copilot e navigazione guidata
6.5.1 – Cos’è Copilot e come arricchisce l’esperienza
Copilot è una funzione integrata in Perplexity AI pensata per trasformare la ricerca in un
percorso guidato, più simile a un dialogo strutturato con un esperto che a una semplice
domanda-risposta.​
​
Mentre la versione base di Perplexity risponde singolarmente a ogni richiesta, Copilot
consente di costruire una ricerca articolata, suddivisa in fasi, in cui il sistema guida
l’utente con domande e suggerimenti progressivi.
110
Questa funzione è utile soprattutto quando l’utente non ha ancora le idee chiare su cosa
cercare, oppure ha bisogno di esplorare un argomento complesso e non sa da dove
cominciare.​
​
Copilot non si limita a restituire informazioni: propone nuove domande, suggerisce
approfondimenti, consiglia direzioni di ricerca, basandosi su ciò che l’utente ha chiesto in
precedenza.
Dal punto di vista tecnico, Copilot funziona come una combinazione tra un modello
linguistico e un sistema di gestione del contesto.​
​
Registra ogni passaggio della conversazione, valuta quali informazioni sono già state fornite,
e costruisce un percorso di ricerca personalizzato, suggerendo in modo intelligente cosa
può servire per completare la comprensione del tema.
6.5.2 – Dalla risposta al percorso di approfondimento
La vera forza di Copilot è che trasforma una risposta isolata in un processo di
apprendimento progressivo.​
​
Non si limita a chiudere la conversazione con un “ecco la risposta”, ma apre nuovi spunti.​
È come avere accanto un tutor che ti guida con domande successive, che ti aiutano a
chiarire, estendere e perfezionare ciò che stai cercando di capire.
Ad esempio, se chiedi:
“Quali sono le cause del cambiamento climatico?”
Copilot non si ferma alla risposta diretta, ma può suggerirti:
“Vuoi sapere anche quali sono gli effetti previsti entro il 2050?”​
“Ti interessa sapere cosa stanno facendo i governi?”​
“Vuoi approfondire il ruolo delle industrie o dei trasporti?”
​
Questi suggerimenti non sono predefiniti, ma generati in base alla tua domanda iniziale e al
tipo di fonti che il sistema trova online.​
​
111
Ogni nuovo passaggio è pensato per guidarti, non per sostituirti, aiutandoti a costruire una
comprensione più ampia ma sempre centrata sul tuo intento originale.
Questa modalità rende Copilot molto utile per ricerche scolastiche, universitarie o
professionali, dove non si cerca una risposta secca, ma una panoramica ragionata da
esplorare un passaggio alla volta.
6.5.3 – Apprendere passo dopo passo, come con un tutor personale
Copilot non è solo un sistema intelligente di suggerimenti: è una nuova forma di
apprendimento personalizzato, costruita su misura per chi lo utilizza.​
​
A differenza di una pagina di risultati tradizionale, che lascia all’utente il compito di orientarsi
tra decine di link, Copilot offre una sequenza logica di esplorazione, dove ogni domanda
successiva nasce naturalmente da quella precedente.
​
Questo approccio è simile a quello che adotterebbe un insegnante paziente: prima ti spiega i
concetti base, poi ti propone esempi, infine ti chiede di riflettere su implicazioni più ampie.​
Copilot fa qualcosa di simile, ma in modo automatizzato, sfruttando la potenza
dell’intelligenza artificiale.
Il vantaggio è che l’utente non è mai passivo.​
​
Può accettare i suggerimenti, riformulare la propria domanda, tornare indietro o approfondire
un dettaglio. Il sistema si adatta continuamente al suo livello di conoscenza e al suo stile di
apprendimento.
Questo rende Copilot molto efficace per chi vuole imparare in autonomia, ma senza
perdersi.
6.6 – Capacità di sintesi e citazione delle fonti
112
6.6.1 – Sintetizzare molte fonti in una risposta coerente
Una delle funzionalità più avanzate di Perplexity è la sua capacità di prendere informazioni
da più fonti diverse e unirle in una risposta chiara, ordinata e coerente.​
Questo processo si chiama sintesi multi-documento ed è molto più complesso di quanto
possa sembrare.
Quando un utente fa una domanda, Perplexity consulta il web e raccoglie più testi rilevanti:
articoli, ricerche, pagine ufficiali, blog autorevoli.​
​
Queste fonti, però, spesso dicono cose simili in modi diversi, o trattano aspetti differenti dello
stesso argomento.​
​
Il compito del sistema è capire cosa unire, cosa escludere, cosa riassumere e come
riorganizzare il contenuto, per offrire all’utente una risposta leggibile e completa.
Questa operazione è resa possibile da un modello linguistico che legge tutti i contenuti
raccolti, individua le parti centrali (i concetti chiave), rimuove le ripetizioni, e scrive un testo
che rappresenta una sintesi fedele, ma fluida.​
​
Il risultato finale non è una somma dei testi trovati, ma una nuova versione informativa,
più compatta e più facile da comprendere.
Questo è molto utile in tutte le situazioni in cui l’utente non ha tempo (o competenze) per
leggere 10 fonti diverse.​
​
Perplexity fa il lavoro di lettura e riassunto al posto suo, con una velocità e una qualità difficili
da raggiungere manualmente.
6.6.2 – Citare in modo trasparente: numeri, link e credibilità
Un aspetto che distingue Perplexity da molti altri strumenti è la sua capacità di citare
sempre le fonti che ha usato per costruire la risposta.​
Ogni affermazione, ogni dato e ogni concetto riportato viene collegato a una fonte precisa,
che l’utente può consultare con un semplice clic.
Queste citazioni vengono visualizzate come numeri accanto alle frasi (simili a note a piè di
pagina) o come link diretti, e portano a documenti pubblici, siti autorevoli o articoli
113
verificabili.​
​
Questo sistema permette all’utente di verificare l’attendibilità del contenuto in modo
immediato.
Citare non è solo una buona pratica.​
​
È anche un segnale di trasparenza, che aiuta a costruire fiducia tra l’utente e lo strumento.​
​
Se una risposta ti sembra strana, puoi vedere da dove viene.​
Se ti serve approfondire, puoi andare direttamente alla fonte completa.​
Se devi usare la risposta per un lavoro scolastico o professionale, puoi riportare anche tu le
fonti citate, evitando errori o plagio.
In un’epoca in cui l’informazione può essere facilmente manipolata, sapere con precisione
da dove provengono i contenuti è una caratteristica fondamentale per distinguere tra
opinioni e fatti.
6.6.3 – Perché la citazione migliora la fiducia dell’utente
Oltre ad avere un valore pratico, la citazione delle fonti ha anche un impatto importante sulla
percezione dell’utente.​
​
Quando leggiamo un testo generato da un’intelligenza artificiale, il primo dubbio è sempre:
“Ma sarà vero? Da dove viene questa informazione?”
Perplexity risponde a questo dubbio in modo diretto: non ti chiede di fidarti alla cieca, ma
ti dà gli strumenti per controllare da solo.​
È un approccio molto diverso rispetto ai modelli generativi puri, che offrono risposte fluide
ma non dicono da dove arrivano le informazioni.​
​
Questo sistema di citazioni costruisce un rapporto di fiducia più solido tra la macchina e
l’utente.​
​
Sapere che puoi verificare i dati rende l’interazione più trasparente, più responsabile e più
sicura.​
​
114
È un modello educativo oltre che tecnico: abitua le persone a basare le proprie decisioni
su fonti verificate, non su frasi ben scritte ma potenzialmente infondate.
Inoltre, questa trasparenza è fondamentale quando si usa Perplexity in ambiti professionali,
scolastici o accademici.​
​
Sapere che puoi citare una fonte reale non solo rende più sicuro il tuo lavoro, ma aumenta il
valore del contenuto prodotto, perché dimostra che è costruito su dati concreti.
​
​
6.7 – Vantaggi nell’apprendimento autonomo
6.7.1 – Imparare in modo guidato ma libero
Una delle difficoltà più comuni nell’apprendere qualcosa da soli è sapere da dove partire e
dove andare.​
​
Internet è pieno di informazioni, ma spesso l’utente si trova sommerso da troppi risultati,
articoli contraddittori o contenuti poco chiari.​
​
Perplexity si propone come una bussola intelligente, che aiuta a orientarsi senza sostituirsi
al processo di apprendimento.
Quando l’utente pone una domanda, Perplexity risponde e organizza il materiale in modo
comprensibile, sintetico e verificabile.​
​
Un approccio del genere è l’equilibrio ideale tra libertà e guida: l’utente può muoversi in
autonomia, ma con un punto di partenza solido e sicuro, evitando sia la dispersione che la
dipendenza da contenuti poco attendibili.
6.7.2 – Costruire conoscenza a partire da domande
115
Perplexity trasforma il modo in cui cerchiamo e costruiamo conoscenza, perché mette al
centro le domande dell’utente, non i contenuti preconfezionati.
L’interazione non parte da un indice rigido o da un percorso didattico fissato in anticipo, ma
da ciò che la persona vuole sapere in quel momento, nel modo in cui lo formula.​
​
Questo è un grande vantaggio per l’apprendimento, perché stimola la curiosità naturale,
favorisce l’esplorazione spontanea e permette di costruire il sapere in base ai propri
interessi e bisogni reali.
Ogni risposta fornita da Perplexity può portare a nuove domande, suggerite
automaticamente o nate spontaneamente nella mente dell’utente.​
​
Questo genera un ciclo virtuoso: si parte da un dubbio, si riceve una risposta, si scoprono
nuovi concetti, e si continua ad approfondire.​
​
È un processo dinamico, molto più simile al modo in cui impariamo nella vita reale rispetto ai
modelli educativi tradizionali.
6.7.3 – Una nuova forma di studio personalizzato
Uno dei problemi dell’apprendimento autonomo tradizionale è che spesso manca una guida
flessibile e adattiva, in grado di capire il livello dell’utente, il suo stile di apprendimento e la
complessità delle sue domande.
Perplexity, grazie al suo sistema di ricerca neurale e alla struttura delle risposte
documentate, si avvicina molto a questa funzione.​
Non giudica, non impone un metodo, ma si adatta al tipo di domanda, al linguaggio usato e
propone un contenuto proporzionato alla richiesta.
Questo significa che uno studente delle scuole superiori può fare la stessa domanda di un
ricercatore, e ricevere risposte diverse in termini di linguaggio, profondità e riferimenti.​
​
Perplexity legge cosa viene chiesto e come viene chiesto, così da strutturare le risposte in
modo adeguato al profilo implicito dell’utente.
Inoltre, la presenza di Copilot, la possibilità di vedere le fonti e la struttura guidata delle
risposte, trasformano Perplexity in un ambiente favorevole all’apprendimento attivo.​
116
​
L’utente può approfondire, esplorare, confrontare, tornando più volte sullo stesso argomento
da angolazioni diverse.
Perplexity è uno dei primi esempi concreti di come l’intelligenza artificiale possa potenziare
l’intelligenza umana, non sostituirla.
7. Applicazioni pratiche dell’IA nella vita
quotidiana
7.1.1 – Comprendere l’intento e personalizzare i risultati
Oggi, quando scriviamo qualcosa su un motore di ricerca, non ci limitiamo a digitare
parole chiave, ma comunichiamo un bisogno specifico.​
​
Potremmo voler sapere una definizione, trovare un posto nelle vicinanze, risolvere un
problema tecnico o semplicemente soddisfare una curiosità.
L’intelligenza artificiale ha reso possibile per i motori di ricerca capire non solo cosa
scriviamo, ma cosa intendiamo.​
​
Questo viene chiamato intent detection o “analisi dell’intento”.​
117
Il sistema cerca di interpretare il significato profondo della frase, anche quando è scritta
in modo vago, incompleto o informale.
Per fare ciò, vengono utilizzati modelli di linguaggio neurali, capaci di analizzare l’intera
frase, il comportamento dell’utente nel tempo (ad esempio, cosa ha cercato prima), la sua
posizione geografica e il dispositivo da cui sta cercando.​
​
Tutti questi elementi servono a personalizzare i risultati.
In altre parole, l’IA non mostra a tutti lo stesso elenco di pagine, ma lo adatta al singolo
utente.​
​
Questo significa che due persone che cercano la stessa cosa potrebbero ricevere
risultati diversi, perché il sistema si adatta ai loro interessi e al loro contesto.
Questo tipo di intelligenza “invisibile” è ormai parte integrante dell’esperienza quotidiana
online. È ciò che rende le ricerche più veloci, pertinenti e utili, anche quando non sappiamo
esattamente cosa stiamo cercando.
7.1.2 – Conversazioni naturali con gli assistenti vocali
Un assistente vocale è un programma basato sull’IA che interpreta il linguaggio parlato e
risponde con la voce o esegue azioni.​
​
Siri, Alexa, Google Assistant e Cortana sono solo alcuni esempi, ma esistono anche versioni
integrate in automobili, televisori, elettrodomestici e dispositivi indossabili.
La loro intelligenza è costruita su due componenti principali:
●​ il riconoscimento vocale, che trasforma la voce in testo;
●​ la comprensione del linguaggio naturale, che interpreta il significato della richiesta.
Un assistente vocale moderno può rispondere a domande semplici (“Che tempo farà
oggi?”), ma anche a richieste complesse che coinvolgono più passaggi o riferimenti
temporali (“Ricordami domani mattina di chiamare Giulia”).​
​
Alcuni sistemi sono in grado di mantenere il contesto per più scambi consecutivi,
permettendo conversazioni fluide e più simili a quelle tra esseri umani.
118
La personalizzazione gioca un ruolo importante: col tempo, l’assistente impara le
preferenze, le abitudini e lo stile linguistico dell’utente, adattando le risposte in base alla
voce, al tono o alla cronologia delle richieste.
Oltre a fornire informazioni, questi assistenti possono controllare dispositivi smart,
riprodurre musica, inviare messaggi, tradurre lingue o persino leggere audiolibri.​
​
L’interazione vocale, grazie all’IA, sta diventando uno dei modi più naturali per accedere ai
servizi digitali.
7.1.3 – Dalla ricerca testuale all’interfaccia vocale intelligente
Negli ultimi anni stiamo assistendo a un’evoluzione profonda: la ricerca non passa più solo
dalla tastiera, ma anche dalla voce.​
​
Questa trasformazione non è solo tecnica, ma culturale. Segna il passaggio da
un’interazione basata su comandi a una interazione basata sulla conversazione.
L’intelligenza artificiale consente ai sistemi vocali di essere sempre più reattivi, precisi e
sensibili al contesto.​
​
Non ci si limita più a chiedere “che ore sono” o “qual è il meteo”, ma si può avviare una
conversazione su un argomento, chiedere chiarimenti, porre domande successive e ricevere
risposte personalizzate, aggiornate e utili.
L’interfaccia vocale è particolarmente preziosa in situazioni in cui l’uso delle mani è limitato,
come alla guida, in cucina, durante l’attività fisica, o per persone con disabilità.​
​
L’IA rende possibile comunicare con la tecnologia senza dover toccare uno schermo,
rendendo i dispositivi più accessibili a un numero maggiore di persone.
Inoltre, grazie all’integrazione con altri strumenti digitali, un assistente vocale può agire
come centro di controllo della vita quotidiana: invia promemoria, sincronizza calendari,
gestisce elettrodomestici, controlla la sicurezza domestica.​
​
119
Tutto questo non sarebbe possibile senza l’IA che interpreta le intenzioni dell’utente,
apprende nel tempo e coordina risposte complesse in pochi secondi.
7.2 – Suggerimenti di testo e completamento automatico
7.2.1 – Prevedere ciò che stai per scrivere
Il completamento automatico è una delle forme più diffuse di intelligenza artificiale nella
nostra vita quotidiana, anche se spesso lo usiamo senza rendercene conto.​
​
Quando iniziamo a scrivere un’email, un messaggio o una ricerca online e vediamo
comparire parole o frasi suggerite, è perché un sistema di IA sta prevedendo cosa
potremmo voler dire.
Questa previsione si basa su modelli linguistici addestrati su milioni di testi, capaci di
riconoscere schemi ricorrenti.​
​
Il sistema non “capisce” il significato nel senso umano del termine, ma calcola la probabilità
che, dopo una certa sequenza di parole, ne venga una specifica.​
​
Ad esempio, se scriviamo “Spero che tu abbia una…”, è molto probabile che il sistema
suggerisca “buona giornata”.
Questo meccanismo non si limita a frasi standard.​
​
Col tempo, i modelli diventano capaci di adattarsi anche al tipo di testo che stiamo
scrivendo, al nostro stile personale, e al contesto dell’interazione, imparando a proporre
suggerimenti sempre più pertinenti.
120
7.2.2 – Risparmiare tempo e ridurre gli errori
Uno dei vantaggi più evidenti del completamento automatico è il risparmio di tempo.​
​
Quando accettiamo un suggerimento con un semplice clic o con la pressione del tasto “Tab”,
evitiamo di digitare intere parole o frasi.​
​
Questo può sembrare un piccolo vantaggio, ma sommato su centinaia di messaggi al giorno,
diventa un guadagno reale in termini di produttività.
Inoltre, questi sistemi aiutano a ridurre errori grammaticali, di ortografia e di battitura.​
​
Nel momento stesso in cui stiamo digitando, l’IA analizza la struttura della frase e ci propone
formulazioni corrette, che rispecchiano le regole linguistiche e l’uso comune.
Nei contesti professionali, questo si traduce in comunicazioni più curate, che trasmettono
competenza e attenzione.​
​
Nel contesto scolastico o personale, rappresenta un aiuto concreto per chi ha difficoltà nella
scrittura, o per chi scrive in una lingua non nativa.
7.2.3 – Personalizzazione in base allo stile dell’utente
Con l’uso continuo, i sistemi di completamento automatico diventano sempre più
personalizzati.​
​
Questo perché l’intelligenza artificiale non lavora con regole rigide, ma impara
progressivamente dallo stile e dalle preferenze dell’utente.
Se, ad esempio, tendiamo a chiudere le email con “A presto!” piuttosto che con “Cordiali
saluti”, il sistema inizierà a suggerire la prima opzione.​
Se usiamo spesso determinate formule, abbreviazioni o espressioni, queste verranno
riconosciute come probabili e proposte in anticipo.
La personalizzazione si estende anche al tono comunicativo.​
​
121
Un assistente di scrittura può comprendere se preferiamo uno stile formale o informale, se
usiamo il “tu” o il “lei”, e adattare le proposte di conseguenza.​
​
Questo è reso possibile da modelli che, pur senza “memoria cosciente”, adattano la
generazione del testo in base al contesto locale della conversazione.
7.3 – Raccomandazioni di prodotti e contenuti
7.3.1 – Analizzare le abitudini per suggerire ciò che interessa
I sistemi di raccomandazione sono uno degli esempi più visibili di come l’intelligenza
artificiale influenzi le nostre scelte quotidiane, spesso in modo silenzioso ma costante.​
​
Ogni volta che navighiamo su una piattaforma di shopping, su un servizio di streaming o in
un’app musicale, ci vengono proposti prodotti, film o canzoni che sembrano pensati
apposta per noi.
Questo non avviene per caso.​
​
L’IA osserva il nostro comportamento: quali prodotti guardiamo, cosa aggiungiamo al
carrello, cosa acquistiamo, quanto tempo restiamo su una pagina, quali contenuti ascoltiamo
o saltiamo.​
​
Questi dati vengono analizzati per costruire un profilo dell’utente, che non riguarda la sua
identità, ma i suoi gusti, interessi e abitudini digitali.
Il sistema non conosce noi, ma conosce i nostri comportamenti.​
​
122
Attraverso algoritmi di machine learning, riesce a trovare pattern ricorrenti e a confrontarli
con quelli di altri utenti simili.​
​
In questo modo può prevedere con buona accuratezza cosa ci potrebbe piacere vedere o
comprare, anche se non lo abbiamo mai cercato esplicitamente.
7.3.2 – Migliorare l’esperienza dell’utente
Uno degli obiettivi principali dei sistemi di raccomandazione è quello di rendere più facile e
piacevole la navigazione, eliminando il rumore informativo e proponendo solo ciò che è
rilevante per l’utente.
Su piattaforme come Netflix o Spotify, questo significa suggerire film, serie o canzoni che
sono compatibili con i nostri gusti musicali o cinematografici.​
​
In un contesto come Amazon, significa vedere in evidenza prodotti correlati a ciò che
abbiamo acquistato o cercato in passato, o che altri utenti con interessi simili hanno
apprezzato.
Questo sistema è vantaggioso sia per l’utente che per il fornitore del servizio.​
L’utente risparmia tempo e fatica nella ricerca, trovando più velocemente ciò che gli
interessa.​
​
Il servizio aumenta la soddisfazione del cliente e le probabilità di vendita o utilizzo.​
​
Si tratta di un modello di interazione “win-win”, alimentato dall’analisi continua del
comportamento digitale.
L’esperienza diventa così più “su misura”: ogni homepage, ogni lista di suggerimenti, ogni
email ricevuta dal servizio è personalizzata in base al nostro profilo, rendendo la piattaforma
più coinvolgente e intuitiva.
7.3.3 – Algoritmi che evolvono nel tempo
Una delle caratteristiche più avanzate dell’intelligenza artificiale applicata alle
raccomandazioni è la sua capacità di imparare e migliorare nel tempo, proprio come
123
farebbe una persona.​
​
I sistemi non si basano su regole fisse, ma si adattano dinamicamente ai nuovi
comportamenti dell’utente.
Questo significa che le raccomandazioni non sono statiche: cambiano ogni volta che
cambia qualcosa nel nostro modo di interagire con la piattaforma.​
​
Se iniziamo a guardare documentari invece che commedie, se iniziamo a interessarci a un
nuovo genere musicale, o se iniziamo a fare acquisti in una nuova categoria, il sistema
registra questi segnali e aggiorna le sue previsioni.
Questi algoritmi utilizzano tecniche come il collaborative filtering (analisi di comportamenti
simili tra utenti) o i modelli neurali personalizzati, che riescono a cogliere anche variazioni
sottili nei gusti dell’utente, offrendo proposte sempre più accurate.
In sintesi, i sistemi di raccomandazione non solo aiutano l’utente a scoprire nuovi contenuti,
ma lo fanno in modo sempre più intelligente e mirato.​
​
Con il tempo, l’IA diventa più brava a conoscere le nostre preferenze, adattandosi a noi
senza bisogno che glielo diciamo direttamente.
​
​
7.4 – Gestione della posta elettronica intelligente
7.4.1 – Filtrare e ordinare i messaggi in modo automatico
In un mondo in cui ogni giorno riceviamo decine, se non centinaia, di email, l’intelligenza
artificiale è diventata uno strumento indispensabile per organizzare automaticamente la
posta in arrivo.​
​
Molti servizi di posta elettronica, come Gmail o Outlook, utilizzano sistemi di IA per
analizzare ogni messaggio ricevuto e decidere dove collocarlo: nella posta principale,
nelle promozioni, nei social, o nello spam.
124
Questo processo non si basa su regole fisse preimpostate, ma su algoritmi di
apprendimento automatico, che imparano nel tempo come riconoscere il contenuto e la
natura di ogni email.​
​
Se, ad esempio, ricevi spesso newsletter da un negozio, l’IA capirà che quei messaggi sono
promozionali, e li sposterà nella sezione dedicata.​
Se invece ricevi un messaggio che somiglia a quelli che in passato hai segnalato come
spam, verrà automaticamente bloccato o nascosto.
Questi filtri rendono la casella di posta più pulita, più ordinata e più focalizzata, aiutando
l’utente a dare priorità alle email davvero importanti.​
​
Con il tempo, il sistema impara anche le preferenze individuali, adattando le sue decisioni in
modo personalizzato.
7.4.2 – Risposte rapide generate dall’IA
Un’altra applicazione molto utile dell’intelligenza artificiale nella gestione della posta è la
funzione di risposte suggerite, che appaiono sotto i messaggi ricevuti.​
​
Queste risposte sono frasi brevi e contestuali, generate in base al contenuto dell’email,
come:
“Va bene, ci sentiamo dopo”​
“Grazie per l’informazione”​
“Mi faccia sapere appena possibile”
Questa funzione, presente in Gmail e in altre piattaforme, utilizza modelli linguistici per
leggere il testo del messaggio ricevuto, capirne il tono e l’intento, e proporre risposte
appropriate.​
​
L’utente può selezionare la risposta con un clic, risparmiando tempo e fatica,
specialmente per comunicazioni di routine.
In contesti professionali, dove si ricevono molte email simili tra loro, questa funzione
permette di automatizzare una parte della comunicazione, mantenendo comunque un
tono umano e professionale.​
125
​
Inoltre, le risposte proposte sono adattate alla conversazione specifica.​
Con l’uso continuo, l’IA migliora la pertinenza dei suggerimenti, rendendoli sempre più in
linea con lo stile e le abitudini dell’utente.
7.4.3 – Prevenire errori e aumentare la produttività
L’IA nella gestione delle email non si limita a ordinare e rispondere: può anche prevenire
errori frequenti e aiutare a lavorare meglio.​
​
Un esempio comune è il controllo automatico di coerenza tra testo e allegati.​
​
Se scriviamo “trovi il file in allegato” ma dimentichiamo di inserirlo, il sistema può segnalare
l’errore prima che l’email venga inviata.
Allo stesso modo, l’intelligenza artificiale può suggerire correzioni grammaticali o
stilistiche, controllare che l’oggetto dell’email sia coerente con il contenuto, e persino
proporre una riformulazione se il tono risulta troppo diretto o poco chiaro.
Queste funzioni aumentano la qualità della comunicazione scritta e riducono il rischio di
errori imbarazzanti o fraintendimenti, soprattutto in ambito lavorativo.
Inoltre, alcune piattaforme consentono di programmare l’invio dei messaggi, ricevere
promemoria per rispondere a email importanti non ancora gestite, e automatizzare le
risposte in periodi di assenza.​
​
Tutto questo contribuisce a rendere la gestione della posta elettronica più efficiente, ordinata
e meno stressante.
7.5 – Smart home e dispositivi connessi
126
7.5.1 – Case intelligenti che apprendono le abitudini
Una casa smart, o “intelligente”, è un’abitazione dotata di dispositivi connessi che usano
l’intelligenza artificiale per imparare dai comportamenti quotidiani degli abitanti e adattarsi in
modo automatico.​
​
L’obiettivo non è solo controllare luci e termostati da uno smartphone, ma automatizzare
piccoli compiti quotidiani rendendoli più comodi, efficienti e invisibili.
Ad esempio, un termostato intelligente come Nest può registrare a che ora rientriamo a
casa, a che temperatura preferiamo ogni stanza, e in quali momenti della giornata siamo
assenti.​
​
Dopo pochi giorni di utilizzo, il sistema è in grado di modificare automaticamente la
temperatura in base alle nostre abitudini, risparmiando energia senza che l’utente debba
intervenire.
Lo stesso vale per l’illuminazione intelligente.​
​
Alcuni sistemi imparano a riconoscere i momenti della giornata e la presenza nelle stanze
per accendere o spegnere le luci in modo automatico.​
​
Altri regolano l’intensità e il colore della luce in base alla luce naturale o all’orario,
migliorando il comfort visivo e la qualità del sonno.
L’IA non impone un comportamento, ma osserva, apprende e si adatta.​
E questo processo di apprendimento rende la casa più personale, più efficiente e meno
dipendente dall’intervento manuale.
7.5.2 – Comandi vocali e automazioni intelligenti
Uno degli elementi che rendono l’esperienza della smart home ancora più fluida è
l’integrazione con gli assistenti vocali.​
​
Grazie all’intelligenza artificiale, possiamo interagire con la casa semplicemente
parlando: chiedere di abbassare le tapparelle, accendere le luci del soggiorno, regolare il
volume della musica o avviare l’aspirapolvere robotico.
127
Questa interazione vocale avviene attraverso dispositivi come Amazon Echo, Google Nest o
Apple HomePod, che fungono da hub centrali per il controllo di tutti gli oggetti connessi
in casa.​
​
L’IA interpreta il comando, capisce a quale dispositivo si riferisce, e lo trasmette in tempo
reale.
Ma i vantaggi non si limitano al controllo vocale.​
​
L’intelligenza artificiale permette di creare automazioni complesse, cioè sequenze di azioni
che si attivano automaticamente quando si verifica una certa condizione.​
​
Ad esempio:
●​ quando usciamo di casa, il sistema può spegnere tutte le luci, abbassare il
riscaldamento e attivare l’allarme;​
●​ quando il sole tramonta, può accendere automaticamente le luci esterne.​
Queste automazioni non richiedono programmazione da parte dell’utente.​
​
Possono essere create attraverso interfacce intuitive, oppure suggerite direttamente dal
sistema in base ai comportamenti osservati.​
​
Il risultato è una casa che lavora in sinergia con chi la abita, semplificando la routine
quotidiana.
7.5.3 – Sicurezza domestica potenziata dall’IA
Uno degli ambiti in cui l’intelligenza artificiale ha avuto un impatto più rilevante nella smart
home è quello della sicurezza domestica.​
​
Grazie all’IA, oggi esistono sistemi di sorveglianza molto più intelligenti rispetto a quelli
tradizionali, in grado di analizzare in tempo reale ciò che accade, distinguere tra eventi
normali e sospetti, e inviare notifiche mirate solo quando serve davvero.
128
Le videocamere smart, per esempio, usano algoritmi di visione artificiale per riconoscere
forme, movimenti e persino volti.​
​
Questo consente di distinguere se qualcuno che entra nel cortile è un familiare, un corriere o
un estraneo.​
​
Alcuni sistemi sono in grado di evitare falsi allarmi, ignorando il passaggio di animali
domestici o il movimento di alberi al vento.
Inoltre, i sensori per porte, finestre e movimento possono essere collegati a un sistema
centrale che apprende nel tempo, migliorando la capacità di rilevare intrusioni reali.​
​
Il sistema può anche attivare automaticamente luci, telecamere o sirene, oppure inviare
una notifica allo smartphone del proprietario o a una centrale operativa.
Altri esempi includono videocitofoni intelligenti, che permettono di rispondere a distanza, e
sistemi di rilevamento fumo o monossido intelligenti, che segnalano l’emergenza e
possono comunicare con altri dispositivi per aiutare a mettere in sicurezza la casa (ad
esempio sbloccando porte o accendendo le luci di emergenza).
In sintesi, l’IA nella sicurezza domestica non solo protegge meglio, ma lo fa con più
precisione, meno disturbo e maggiore capacità di prevenzione.
​
7.6 – Salute digitale e monitoraggio personale
7.6.1 – Analisi dei dati raccolti da dispositivi indossabili
Dispositivi come smartwatch, smartband e sensori da polso o da indossare sulla pelle sono
sempre più utilizzati da chi vuole monitorare la propria salute in modo continuo e
discreto.​
​
Ma ciò che rende questi strumenti veramente utili non è solo la possibilità di raccogliere dati,
quanto il fatto che usano l’intelligenza artificiale per interpretarli in modo intelligente.
129
Ogni giorno questi dispositivi rilevano una grande quantità di informazioni, come battito
cardiaco, respirazione, movimento, temperatura corporea, ore di sonno, qualità del riposo, e
persino postura.​
​
L’IA elabora questi dati usando algoritmi di machine learning che sono stati addestrati su
milioni di registrazioni.​
​
Questo consente al dispositivo di riconoscere schemi anomali, di suggerire azioni
preventive, e di adattare i consigli al comportamento dell’utente.
Un esempio concreto: se per una settimana i tuoi livelli di sonno profondo calano
drasticamente, il sistema può indicare una possibile situazione di stress, cambiamenti
ormonali o altri fattori, e suggerire correzioni come orari di riposo più regolari, esercizio fisico
leggero o meno esposizione alla luce blu la sera.​
​
È una forma di prevenzione che si basa sull’osservazione e sull’adattamento continuo,
e che può aiutare a migliorare la salute generale senza ricorrere a cure invasive.
7.6.2 – Prevenzione e avvisi automatici
L’intelligenza artificiale sta trasformando i dispositivi indossabili da strumenti passivi (che
raccolgono dati) a sistemi attivi di prevenzione e intervento precoce.​
​
Oggi, gli algoritmi integrati in smartwatch e sensori avanzati sono in grado di identificare
segnali deboli e quasi invisibili che potrebbero indicare l’inizio di un problema.
Uno degli esempi più significativi è il rilevamento delle aritmie cardiache.​
​
Dispositivi come Apple Watch o Fitbit hanno algoritmi certificati che possono intercettare
variazioni nel battito cardiaco compatibili con fibrillazione atriale, un disturbo
potenzialmente pericoloso che spesso passa inosservato fino a quando non si manifesta in
modo acuto.
Anche in campo respiratorio, alcuni sensori possono misurare la frequenza del respiro e i
livelli di ossigeno nel sangue, allertando l’utente in caso di saturazione troppo bassa
(come accade, ad esempio, in caso di infezioni polmonari o apnea notturna).​
​
130
L’IA elabora questi dati in tempo reale, riconosce i segnali fuori norma e decide se vale la
pena notificare l’utente o richiedere un controllo medico.
Questo tipo di intervento non sostituisce il parere medico, ma può anticipare diagnosi,
accorciare i tempi di intervento e ridurre i rischi.​
​
È una forma di medicina preventiva che rende il paziente più attivo nella propria
gestione della salute.
7.6.3 – Supporto nella gestione di condizioni croniche
Le persone che vivono con condizioni croniche (come diabete, ipertensione, asma, BPCO, o
malattie cardiache) devono gestire ogni giorno una serie di parametri e decisioni.​
​
L’intelligenza artificiale, integrata in app mobili e dispositivi indossabili, può semplificare
questo lavoro, migliorare la precisione e ridurre il margine di errore umano.
Nel caso del diabete, per esempio, esistono app collegate a glucometri intelligenti che
monitorano in automatico i livelli di zucchero nel sangue, segnalano picchi anomali e
suggeriscono cosa fare: correggere l’alimentazione, prendere l’insulina, fare una
passeggiata.​
​
Ma l’IA fa un passo in più: analizza lo storico dei dati, individua correlazioni e offre
consigli personalizzati, basati sul comportamento specifico del paziente.
Chi soffre di ipertensione può utilizzare dispositivi smart per misurare la pressione
sanguigna più volte al giorno, a casa.​
​
L’intelligenza artificiale aggrega i risultati, individua tendenze anomale (come una pressione
alta solo la mattina) e allerta l’utente o il medico, in modo da regolare la terapia in modo
mirato.
Per molte persone, questi strumenti rappresentano un aiuto concreto per vivere meglio,
perché riducono lo stress di dover tenere tutto sotto controllo da soli.​
​
L’IA aiuta anche a gestire meglio farmaci, appuntamenti, diete, e può offrire promemoria
131
intelligenti, che si attivano non solo in base all’orario, ma anche alla situazione fisica
dell’utente (per esempio dopo l’attività fisica o un pasto).
In sintesi, l’IA nella salute digitale sta rendendo possibile una gestione autonoma, informata
e più precisa della propria condizione, offrendo una forma di assistenza continua, ma non
invasiva, direttamente dal polso o dallo smartphone.
​
7.7 – Apprendimento e formazione personalizzata
7.7.1 – Piattaforme educative adattive
Uno dei cambiamenti più significativi portati dall’intelligenza artificiale nel mondo
dell’istruzione è la nascita delle piattaforme educative adattive, cioè sistemi digitali che si
adattano al livello, al ritmo e alle difficoltà dello studente.
Queste piattaforme non propongono a tutti lo stesso contenuto.​
​
Usano l’IA per analizzare come lo studente risponde, dove sbaglia, quanto tempo impiega
su ogni domanda, e in base a questi dati costruiscono un percorso di studio
personalizzato.​
​
L’obiettivo è evitare che lo studente sia annoiato da esercizi troppo facili o frustrato da
contenuti troppo difficili.
Per esempio, se un ragazzo sta imparando la matematica e sbaglia spesso negli esercizi
sulle frazioni, la piattaforma lo capisce e propone più esercizi mirati su quell’argomento,
fino a quando non migliora.​
​
Quando lo studente mostra di aver compreso, il sistema lo guida gradualmente verso
argomenti più complessi, senza saltare passaggi.
132
Questa modalità rende l’apprendimento più efficace, più inclusivo e più motivante,
perché lo studente non si confronta con un programma rigido, ma con un ambiente che si
evolve insieme a lui.
7.7.2 – Feedback immediato e spiegazioni su misura
Un altro aspetto fondamentale dell’IA applicata all’educazione è la capacità di fornire
feedback immediati e spiegazioni personalizzate, esattamente nel momento in cui
servono.
Tradizionalmente, uno studente doveva aspettare la correzione dell’insegnante per capire
dove aveva sbagliato.​
​
Con l’IA, il feedback arriva subito dopo l’esercizio: non solo segnala l’errore, ma lo spiega, e
in alcuni casi propone esercizi simili per rinforzare l’apprendimento.
Questo è particolarmente utile per chi studia da solo, o per chi ha bisogno di tempo per
capire meglio. Alcuni strumenti, ad esempio, offrono più modalità di spiegazione: un testo
semplificato, un esempio concreto, un’analogia o una rappresentazione visiva.​
​
Così lo studente può scegliere la spiegazione più adatta al suo modo di apprendere.
L’IA non giudica, non si spazientisce, non mette pressione.​
​
Per questo motivo può essere uno strumento molto utile per chi ha difficoltà
scolastiche, per chi vuole recuperare argomenti mai compresi a fondo, o per chi desidera
ripassare in autonomia senza sentirsi sotto esame.
7.7.3 – Una nuova forma di apprendimento continuo e personalizzato
La formazione oggi non è più limitata alla scuola o all’università.​
​
Viviamo in un’epoca in cui le persone imparano continuamente, per aggiornarsi nel lavoro,
per cambiare carriera, per interesse personale o per necessità.​
​
133
L’intelligenza artificiale offre strumenti concreti per rendere questo apprendimento
continuo più accessibile, flessibile e su misura.
Le piattaforme di microlearning, ad esempio, propongono piccole “pillole” di contenuto, che
si possono seguire anche in pochi minuti al giorno.​
​
L’IA organizza i contenuti in base agli interessi, agli obiettivi e alla disponibilità di tempo
dell’utente, permettendo un’esperienza educativa personalizzata anche per chi ha poco
tempo.
Allo stesso tempo, gli assistenti virtuali educativi possono rispondere a domande,
semplificare concetti, proporre esercizi o suggerire materiali di approfondimento.​
​
Sono accessibili 24 ore su 24, non costano come un tutor umano e possono
accompagnare lo studente ovunque, tramite smartphone o computer.
Questa forma di apprendimento guidato, ma flessibile rappresenta una grande opportunità di
democratizzazione del sapere: chiunque, in qualsiasi momento, può decidere di imparare
qualcosa di nuovo, con un percorso costruito attorno ai propri ritmi, bisogni e stili cognitivi.
134
8. Usare ChatGPT per la produttività personale
8.1 – Pianificazione di attività e obiettivi
8.1.1 – Definire obiettivi chiari e raggiungibili con l’aiuto di ChatGPT
Uno degli ostacoli principali nella gestione del tempo e della produttività è la difficoltà di
trasformare un’idea vaga in un obiettivo chiaro e realizzabile. Spesso sappiamo cosa
vorremmo fare, ma non sappiamo come formularlo in modo efficace o da dove iniziare.
ChatGPT può aiutare in questo processo attraverso un’interazione guidata.​
​
Ad esempio, l’utente può scrivere:
“Vorrei migliorare la mia salute”​
e ChatGPT può rispondere chiedendo chiarimenti:​
“Quali aspetti della tua salute vuoi migliorare? Alimentazione? Esercizio fisico?
Quali obiettivi ti sembrano realistici per il prossimo mese?”
In questo modo, il modello aiuta a spacchettare l’obiettivo generico in componenti più
specifici, e suggerisce come formularli seguendo il metodo SMART:​
​
Specifici, Misurabili, Accessibili, Rilevanti e Temporalmente definiti.​
​
Questa struttura, che in contesti aziendali viene usata da decenni, diventa accessibile anche
a chi non ha familiarità con la pianificazione, grazie all’IA.
ChatGPT non decide per l’utente, ma fornisce un modello mentale e una forma, aiutando
a definire obiettivi più concreti come:
“Voglio camminare 30 minuti al giorno, 5 giorni a settimana, per i prossimi 2
mesi”.
8.1.2 – Suddividere grandi progetti in micro-attività gestibili
135
Un errore comune quando si pianifica un progetto personale è quello di pensare in termini
troppo generici o troppo ampi.​
​
“Scrivere un libro”, “organizzare un evento”, “cambiare lavoro” sono obiettivi validi, ma così
formulati risultano troppo grandi e poco gestibili.
ChatGPT è in grado di aiutare l’utente a scomporre un obiettivo complesso in una
sequenza logica di piccoli passi, ciascuno chiaro, eseguibile e con una durata stimabile.
Per esempio, se l’obiettivo è “preparare un esame universitario”, ChatGPT può suggerire di:
●​ creare un calendario di studio suddiviso per argomenti,
●​ inserire momenti per ripasso e test,
●​ prevedere giornate di recupero per imprevisti.​
Ogni micro-attività può essere formulata come una to-do task, cioè un compito preciso:
“Leggere il capitolo 1 del manuale X entro giovedì”,​
“Scrivere un riassunto di 1 pagina per il capitolo 2”.
La divisione in piccoli passi non solo facilita l’esecuzione, ma riduce il senso di
sovraccarico, aumentando la probabilità che l’obiettivo venga portato a termine.​
​
È un principio molto noto nella psicologia della produttività, e ChatGPT può metterlo in
pratica su richiesta.
8.1.3 – Creare piani d’azione personalizzati e sostenibili
Una volta chiariti gli obiettivi e suddivisi in attività concrete, il passo successivo è
organizzare queste attività nel tempo, costruendo un piano d’azione che sia realistico,
sostenibile e adatto alle circostanze della persona.
ChatGPT può assistere nella creazione di una pianificazione settimanale o mensile, tenendo
conto di:
●​ vincoli di tempo (es. lavoro, famiglia),
●​ priorità personali,
136
●​ livello di energia nelle diverse ore del giorno.​
Ad esempio, se una persona ha disponibilità solo dopo cena, il modello può aiutare a
costruire un piano su misura che preveda attività leggere in orario serale, come lettura o
revisione, e attività più impegnative nel weekend, quando c’è più tempo libero.
Il piano può anche includere spazi per il riposo, la revisione degli obiettivi, e la gestione degli
imprevisti.​
​
L’IA, pur non conoscendo il futuro, può suggerire di inserire “giorni cuscinetto” o momenti di
recupero ogni settimana, per evitare che anche un piccolo ostacolo comprometta il percorso.
Infine, ChatGPT può proporre promemoria motivazionali, frasi di incoraggiamento o
tecniche di revisione periodica (come la “review del venerdì” o il metodo Kaizen), per
mantenere alta la motivazione nel tempo.
Il risultato non è solo un piano scritto, ma una guida pratica e realistica che rende più
semplice restare focalizzati su ciò che conta davvero.
8.2 – Organizzazione del tempo e to-do list
8.2.1 – Generare liste di attività ordinate per priorità
La to-do list è uno degli strumenti più semplici ed efficaci per migliorare la produttività. Ma
non tutte le liste sono uguali: una lista disorganizzata può generare ansia, mentre una lista
ben costruita può migliorare concentrazione, efficienza e motivazione.
ChatGPT può aiutare a costruire elenchi di attività strutturati per priorità, cioè
organizzati non in base all’ordine in cui ci vengono in mente, ma in base alla loro
importanza e urgenza.
Ad esempio, l’utente può scrivere:
137
“Devo preparare una presentazione, fare la spesa, sistemare la dichiarazione
dei redditi e prenotare una visita medica.”
ChatGPT può ordinare queste attività applicando modelli come la matrice di Eisenhower,
che distingue tra ciò che è urgente, importante, delegabile o eliminabile.​
Il risultato sarà una lista più chiara, dove si capisce da cosa iniziare, cosa rimandare, e cosa
eventualmente evitare.
In alternativa, il modello può classificare le attività in blocchi tematici, aiutando l’utente a
raggruppare i compiti simili e a gestirli in modo più fluido, ad esempio creando una lista
“lavoro”, una “casa”, una “personale”.​
​
Questo rende la lista più leggibile e riduce il carico mentale.
8.2.2 – Pianificare la giornata o la settimana con prompt guidati
Una to-do list da sola non basta. ​
​
Serve organizzare nel tempo le attività, distribuendole in modo strategico durante la
giornata o la settimana, tenendo conto delle energie, degli impegni fissi e degli obiettivi a
medio termine.
ChatGPT può essere utilizzato per generare pianificazioni quotidiane o settimanali su
misura, semplicemente fornendo alcune informazioni iniziali.​
​
Basta indicare i tempi disponibili, le attività da svolgere, e qualche preferenza, e il modello
restituisce una proposta realistica.
Per esempio, scrivendo:
“Ho 3 ore al pomeriggio, devo studiare, fare esercizio fisico e sistemare l’email.
Suggerisci come distribuirle.”
ChatGPT può rispondere con una pianificazione dettagliata, indicando:
●​ quando iniziare ogni attività,
●​ quanto tempo dedicarle,
138
●​ in che ordine svolgerle per ridurre il calo di energia o la noia.​
Può anche suggerire tecniche di gestione del tempo, come il metodo Pomodoro (sessioni di
25 minuti seguite da brevi pause), oppure proporre fasce orarie personalizzate in base al
cronotipo (cioè se l’utente è più produttivo al mattino o alla sera).
Queste pianificazioni non sono rigide: l’utente può riformulare il prompt, chiedere alternative,
ridurre i tempi, aggiungere attività.​
​
In questo modo, il modello diventa un vero assistente personale, pronto a proporre
soluzioni pratiche e adattabili.
8.2.3 – Adattare le attività in base alla disponibilità e agli imprevisti
Anche il miglior piano può essere sconvolto da un imprevisto: un impegno che salta, un
imprevisto familiare, un momento di stanchezza o semplice disorganizzazione.​
​
In questi casi, la cosa più difficile è riformulare il piano senza perdere la motivazione.
ChatGPT può essere di grande aiuto anche in queste situazioni.​
​
L’utente può semplicemente scrivere:
“Non sono riuscito a fare tutto. Ho solo 1 ora libera oggi, cosa posso fare?”
Il modello analizza le attività rimaste, considera le priorità, e propone una nuova lista di
cose fattibili in base al tempo residuo. ​
​
Può anche consigliare cosa rimandare, cosa accorciare, e come riorganizzare la giornata
per mantenere almeno una parte degli obiettivi.
Inoltre, ChatGPT può aiutare a gestire la frustrazione derivante da giornate caotiche,
proponendo approcci come:
●​ “Concentrati su una sola cosa importante oggi”
●​ “Recupera domani solo ciò che è davvero urgente”
139
●​ “Semplifica le attività non essenziali”​
In questo modo, il modello non agisce solo come pianificatore, ma anche come strumento
di supporto decisionale e motivazionale, aiutando a rientrare in carreggiata senza sentirsi
sopraffatti.
​
8.3 – Scrittura automatica di note e memo
8.3.1 – Riassumere idee dopo una riunione o una lezione
Una delle attività più comuni e spesso più trascurate è quella di trascrivere o sintetizzare
ciò che è stato detto durante un incontro di lavoro, una riunione scolastica, una lezione
universitaria o una chiamata informale.​
​
Il problema è che molte volte si dimenticano i dettagli o si perde tempo a ricostruirli,
specialmente se non si prendono appunti strutturati sul momento.
ChatGPT può risolvere questo problema in due modi.​
​
Il primo è partendo da un elenco caotico di appunti: anche se l’utente scrive solo frasi
brevi o parole chiave (es. “budget 2024 – tagli marketing – nuovo cliente – pdf giovedì”), il
modello può trasformare il tutto in un testo fluido e comprensibile, come ad esempio:
“Durante la riunione si è discusso del budget 2024, con particolare attenzione ai
tagli nel reparto marketing. È stato menzionato un nuovo cliente acquisito. Il file
PDF con i dettagli verrà inviato giovedì.”
Il secondo è riassumere testi più lunghi, come un verbale, un articolo o una registrazione
trascritta, aiutando a ridurre il contenuto a ciò che è veramente essenziale, in base agli
140
obiettivi dell’utente (es. ricordare i punti chiave, preparare una slide, o scrivere un’email di
follow-up).
8.3.2 – Creare note rapide a partire da parole chiave o appunti sparsi
Spesso si prende nota in modo disordinato: frasi scritte a metà, elenchi senza struttura,
frammenti presi al volo durante una telefonata o una riunione.​
​
Questi appunti sono utili solo se poi vengono riorganizzati, ma non sempre c’è tempo o
voglia di farlo.
ChatGPT può prendere una serie di appunti confusi e convertirli in una nota chiara,
ordinata e leggibile, senza che l’utente debba riscrivere tutto.​
​
Ecco un esempio pratico.​
Input utente:
“Slide troppe. Inserire meno testo. Stefano: date scadenze. Slide 4 ripetitiva.
Idee: esempio Spotify?”
Risposta generata:
“Nella revisione della presentazione, è emerso che alcune slide contengono
troppo testo. È consigliabile semplificare i contenuti, in particolare la slide 4,
giudicata ripetitiva. Stefano si occuperà di definire le date di scadenza. Tra le
idee proposte, includere un esempio relativo a Spotify.”
Il risultato è una nota pronta per essere salvata, condivisa o utilizzata, scritta in modo
professionale e coerente.
Questo tipo di funzione è molto utile per chi gestisce più progetti
contemporaneamente (ad esempio studenti, liberi professionisti o team leader che vogliono
avere una documentazione ordinata anche in situazioni di alta pressione).
8.3.3 – Organizzare le note in modo strutturato e facilmente consultabile
141
Scrivere note è utile, ma solo se poi sono facili da rileggere e da ritrovare quando servono.​
​
Qui l’intelligenza artificiale può intervenire per aiutare a dare struttura alle informazioni,
suddividendo il testo in sezioni, usando titoli chiari, elenchi numerati o punti salienti.
ChatGPT può, ad esempio, trasformare una nota disorganizzata in un documento con:
●​ una sintesi iniziale,
●​ un elenco puntato dei temi trattati,
●​ eventuali azioni da compiere con scadenze.​
In più, l’IA può anche suggerire come etichettare o classificare le note, ad esempio
assegnando titoli coerenti, parole chiave, date o categorie (es. “revisione prodotto”, “clienti”,
“idee future”).​
​
Questa funzione diventa preziosa quando si gestiscono archivi personali di centinaia di
appunti, o si lavora su progetti complessi.
Un altro aspetto importante è la compatibilità con altri strumenti: ChatGPT può generare
il testo nel formato adatto a essere incollato in un'app per prendere appunti (come Notion,
Obsidian, OneNote o Google Keep), facilitando l’integrazione con l’ambiente digitale
preferito.
In sintesi, l’uso dell’IA per scrivere note non è solo una questione di velocità, ma di
chiarezza, struttura e recuperabilità delle informazioni nel tempo.​
​
È come avere un assistente personale che mette ordine e dà valore al pensiero scritto.
8.4 – Preparazione di meeting e presentazioni
142
8.4.1 – Costruire scalette chiare e complete per una riunione
Una delle fasi più importanti nella pianificazione di un meeting è la definizione della scaletta,
cioè dell’ordine con cui verranno affrontati i vari argomenti.​
​
Una scaletta ben fatta serve a evitare dispersioni, a rispettare i tempi e ad assicurarsi che
tutti i partecipanti siano preparati.
ChatGPT può aiutare a creare una scaletta personalizzata, partendo da un semplice input
dell’utente.​
​
Basta indicare il tema dell’incontro, i partecipanti, e gli obiettivi principali, e il modello può
generare una proposta di agenda con:
●​ introduzione e contesto,
●​ punti da trattare (suddivisi per blocchi logici),
●​ domande da discutere,
●​ spazio per le decisioni e gli step successivi.​
Per esempio, se si inserisce:
“Riunionе settimanale con il team marketing, aggiornamenti su campagna social
e nuova strategia per il lancio prodotto.”
ChatGPT può restituire:
Agenda
1.​ Benvenuto e obiettivi della riunione
2.​ Analisi dei risultati della campagna social
3.​ Discussione sulla strategia per il nuovo prodotto
4.​ Assegnazione compiti e prossimi passi
5.​ Domande e chiusura​
Questa struttura è pronta per essere inviata ai colleghi o inserita in un documento ufficiale.
8.4.2 – Generare testi per slide, introduzioni e conclusioni
143
Una volta definita la scaletta, bisogna preparare la parte “visibile” del meeting, cioè le
presentazioni, le slide, le introduzioni e le conclusioni.​
​
Anche qui ChatGPT può intervenire in modo molto utile, aiutando a scrivere testi chiari,
sintetici e professionali, adatti al pubblico specifico dell’incontro.
Per esempio, si può chiedere:
“Scrivi l’introduzione per una presentazione in cui illustrerò i risultati trimestrali
dell’area vendite.”
ChatGPT può proporre un testo strutturato, con un tono adeguato, evidenziando i punti
principali da comunicare, magari suggerendo anche formulazioni adatte a slide brevi o
con frasi di impatto.
Allo stesso modo, può aiutare a scrivere la conclusione della presentazione, suggerendo
frasi per:
●​ riassumere i punti emersi,
●​ ringraziare il pubblico,
●​ introdurre il momento delle domande,
●​ chiamare all’azione (call to action).​
Per chi ha poco tempo, difficoltà nel sintetizzare o semplicemente cerca un secondo parere,
questo supporto velocizza il lavoro e migliora la qualità della comunicazione.
8.4.3 – Simulare domande frequenti per prepararsi agli interventi
Una buona presentazione o un buon meeting non dipendono solo dalla parte espositiva, ma
anche dalla capacità di rispondere in modo efficace alle domande che possono arrivare dal
pubblico.
ChatGPT può essere usato per simulare una serie di domande probabili, in base al tema
della riunione, al tipo di pubblico e agli argomenti trattati.​
​
Per esempio, se si sta preparando un intervento su una nuova policy aziendale, il modello
può proporre:
144
“Come reagiranno i dipendenti a questo cambiamento?”​
“Quali sono i vantaggi concreti rispetto alla vecchia procedura?”​
“Ci sono rischi o criticità da considerare?”
Oltre a generare le domande, ChatGPT può aiutare a scrivere risposte brevi, dirette e
argomentate, che l’utente può poi personalizzare.​
​
Questo esercizio è particolarmente utile per:
●​ manager che devono presentare strategie,
●​ studenti che devono esporre una tesi,
●​ professionisti che parlano in pubblico.
In pratica, il modello diventa una sorta di palestra linguistica, dove allenarsi non solo a dire
qualcosa, ma a gestire l’interazione con gli altri, mantenendo sicurezza, controllo e
padronanza dei contenuti.​
8.5 – Traduzione e adattamento linguistico
8.5.1 – Tradurre testi tecnici o informali in più lingue
Una delle applicazioni più immediate e utili di ChatGPT è la traduzione automatica, resa
possibile grazie al suo addestramento su milioni di testi in decine di lingue.​
​
Ma a differenza di semplici strumenti di traduzione parola per parola, ChatGPT è in grado di
capire il contesto, il tono e lo scopo del testo originale, generando traduzioni che
suonano naturali nella lingua di arrivo.
Per esempio, se si fornisce un testo tecnico in italiano, come una guida all’uso di un
software, ChatGPT può tradurlo in inglese mantenendo la terminologia professionale,
evitando traduzioni letterali o fuori contesto.​
​
Lo stesso vale per testi informali, come email personali o messaggi di auguri: il modello è
capace di adattare il tono e la scelta delle parole in base alla lingua e alla cultura di
destinazione.
145
Un altro vantaggio è la velocità e l’interattività.​
​
L’utente può correggere in tempo reale, chiedere una traduzione più formale, più semplice,
più adatta a un certo pubblico, o riformulare una singola frase senza dover tradurre tutto da
capo.​
​
Questo rende ChatGPT molto più flessibile rispetto ai traduttori tradizionali.
8.5.2 – Adattare il tono del messaggio a diversi pubblici
Comunicare in più lingue non significa solo tradurre le parole: significa riuscire a parlare a
pubblici diversi nel modo giusto.​
​
Una mail formale scritta in italiano può richiedere un registro completamente diverso quando
viene tradotta in inglese, francese o spagnolo, a seconda del settore, della cultura o del
destinatario.
ChatGPT può aiutare a modificare tono, stile e livello di formalità, in base alle istruzioni
ricevute. Per esempio, se l’utente chiede:
“Riformula questo testo in inglese in modo più gentile e professionale”,​
il modello è in grado di riconoscere il contesto e adattare il messaggio in
modo efficace, mantenendo il contenuto ma migliorando la forma.
Questo è particolarmente utile per:
●​ comunicazioni aziendali,
●​ lettere di presentazione,
●​ richieste a enti o istituzioni,
●​ testi promozionali o customer care.
Inoltre, l’adattamento può essere richiesto anche da una lingua all’altra nella stessa
lingua.​
​
Ad esempio, da inglese britannico a inglese americano, o da un italiano formale a un tono
più colloquiale.​
​
146
Questo permette una personalizzazione molto fine della comunicazione, aumentando le
probabilità che il messaggio venga recepito correttamente.
​
8.5.3 – Correggere errori e migliorare la fluidità di testi scritti
Molti utenti non cercano una traduzione vera e propria, ma un modo per migliorare un
testo già scritto in una lingua straniera (o anche nella propria).​
​
In questo contesto, ChatGPT può funzionare come un correttore di bozze avanzato,
capace di individuare:
●​ errori grammaticali,
●​ costruzioni poco naturali,
●​ frasi troppo lunghe o ambigue,
●​ parole fuori contesto.
L’utente può incollare un testo e chiedere:
“Correggi l’inglese di questo paragrafo, mantenendo il mio stile”.​
Oppure:​
“Rendi questo testo più scorrevole per un lettore madrelingua francese”.
Il modello non si limita a correggere i singoli errori, ma migliora l’intera struttura del testo,
proponendo riformulazioni che risultano più fluide e comprensibili.
Questa funzione è utilissima per chi:
●​ scrive tesi o articoli in una seconda lingua,
●​ lavora in contesti internazionali,
●​ vuole pubblicare contenuti online (blog, social, email) con una buona qualità
linguistica.
L’utente resta sempre in controllo: può accettare o meno le modifiche, chiedere una
spiegazione, o richiedere alternative.​
​
In questo modo, ChatGPT diventa un assistente linguistico interattivo, capace di aiutare
non solo a scrivere meglio, ma anche a imparare dalle correzioni ricevute.
147
8.6 – Elaborazione testi e ottimizzazione contenuti
8.6.1 – Migliorare stile, chiarezza e impatto comunicativo
Molto spesso i testi scritti da chi non ha esperienza professionale nella scrittura risultano
troppo generici, poco chiari o ridondanti.​
​
ChatGPT può aiutare a riscrivere e potenziare un testo già esistente, migliorandone la
leggibilità, la fluidità e l’efficacia comunicativa, mantenendo sempre il contenuto originale.
Ad esempio, se un utente inserisce un paragrafo tecnico, ChatGPT può riformularlo con uno
stile più accessibile per un pubblico non specializzato.​
​
Allo stesso modo, può rendere più incisivo un messaggio pubblicitario, rendere più
professionale una presentazione, o più empatica una comunicazione rivolta al cliente.
La riscrittura non avviene a caso: il modello analizza la struttura del testo, individua punti
deboli (come frasi troppo lunghe o poco dirette) e propone versioni più efficaci.​
​
Inoltre, l’utente può indicare il tipo di pubblico, il livello di formalità, il tono desiderato (es.
gentile, autorevole, motivante), e il modello adatta la scrittura di conseguenza.
8.6.2 – Riscrivere testi per target o formati diversi
Uno stesso contenuto può essere valido, ma non sempre funziona allo stesso modo su tutti i
canali o per tutti i destinatari.​
​
Ad esempio, un testo scritto per una pagina di un sito web potrebbe non essere adatto per i
social media, o per una brochure stampata.
148
ChatGPT può essere usato per adattare un testo a diversi formati o pubblici,
riscrivendolo in modo mirato.​
​
Si può chiedere, ad esempio:
“Riscrivi questo paragrafo per un post LinkedIn più diretto e coinvolgente”​
oppure​
“Riformula questo testo per essere compreso da studenti delle scuole
superiori”.
Il modello può anche aiutare a semplificare un contenuto per renderlo più accessibile, o
arricchirlo con dettagli aggiuntivi per un pubblico più esperto.​
​
Questa flessibilità è molto utile per chi deve comunicare lo stesso messaggio in formati
diversi (presentazioni, articoli, descrizioni prodotto, email, ecc.) senza perdere coerenza.
In pratica, l’IA diventa un assistente editoriale, capace di rielaborare un contenuto secondo
le esigenze specifiche di ogni situazione.
8.6.3 – Ottimizzare contenuti per blog, email o social media
Ogni piattaforma ha le sue regole e le sue dinamiche.​
​
Un contenuto efficace su un blog potrebbe non funzionare in un’email, e ancora meno su
Instagram o Twitter/X.​
​
ChatGPT può essere utilizzato per ottimizzare i testi in base al canale di destinazione,
migliorandone la struttura, il tono e la strategia comunicativa.
Nel caso di un blog, ad esempio, il modello può:
●​ proporre titoli più accattivanti,
●​ riscrivere l’introduzione per catturare l’attenzione,
●​ suddividere il testo in sezioni con sottotitoli chiari,
●​ aggiungere una call to action (invito all’azione) alla fine.
Per un’email, può aiutare a:
149
●​ rendere più diretto e personale il messaggio,
●​ sintetizzare i punti chiave,
●​ migliorare l’oggetto per aumentare il tasso di apertura.​
Sui social, ChatGPT può suggerire:
●​ frasi più brevi e coinvolgenti,
●​ emoji e hashtag coerenti,
●​ variazioni di tono a seconda della piattaforma (Instagram, Facebook, LinkedIn).
In tutti questi casi, il modello non inventa contenuti nuovi, ma trasforma quelli esistenti
per renderli più efficaci nel contesto in cui verranno pubblicati.​
​
Questo aiuta chi scrive a risparmiare tempo, mantenere coerenza nei messaggi e
migliorare la qualità della comunicazione digitale.
​
8.7 – Codice base per automazioni personali
8.7.1 – Generare script semplici per automatizzare compiti ripetitivi
Molte attività quotidiane che svolgiamo al computer sono ripetitive e meccaniche.​
​
Copiare dati, rinominare file, inviare email, aggiornare tabelle: si tratta di operazioni che
richiedono tempo, ma non richiedono molto ragionamento.​
​
Proprio per questo, sono perfette da automatizzare.
ChatGPT può aiutare a scrivere piccoli script, cioè brevi porzioni di codice, che eseguono
questi compiti in modo automatico.​
​
L’utente non deve essere un programmatore: basta descrivere con parole semplici quello
che si vuole fare.​
150
​
Per esempio:
“Scrivimi un codice in Python che legga un file Excel e invii un’email con i dati in
allegato.”
ChatGPT può generare il codice completo, spiegando anche cosa fa ogni parte del
programma.​
​
Questo è particolarmente utile per chi si avvicina alla programmazione o per chi vuole
automatizzare senza scrivere codice da zero.
Molti utenti usano questo approccio per:
●​ gestire elenchi di attività,
●​ creare report,
●​ inviare notifiche,
●​ scaricare e organizzare file da internet.
Il vantaggio è che si risparmia tempo, si riduce il margine di errore umano e si ottiene un
controllo maggiore sulle proprie attività digitali.
8.7.2 – Personalizzare codici per esigenze quotidiane non tecniche
Una delle caratteristiche più interessanti di ChatGPT è che personalizza gli script in base
alle esigenze specifiche dell’utente, anche se non sono espresse in linguaggio tecnico.
Ad esempio, un utente può dire:
“Vorrei un piccolo programma che, ogni mattina alle 9, apra automaticamente
tre siti web: la mia email, il calendario e il meteo.”
ChatGPT può creare un codice che esegue questa sequenza, e spiegare passo dopo passo
come usarlo sul proprio computer (per esempio, salvandolo come file .bat su Windows o
utilizzando un cron job su Mac/Linux).
Allo stesso modo, si possono automatizzare operazioni come:
●​ rinominare in modo ordinato una serie di file,
151
●​ convertire immagini da un formato all’altro,
●​ copiare cartelle da una posizione all’altra in determinati orari.​
La forza di questo approccio è che l’utente non deve imparare da zero la sintassi di un
linguaggio di programmazione, perché può affidarsi a ChatGPT per generare e adattare il
codice.​
​
E può anche chiedere modifiche, migliorie o chiarimenti, come se stesse parlando con un
tutor personale.
8.7.3 – Integrare codice con strumenti come fogli di calcolo o app
Molte automazioni utili nella vita quotidiana coinvolgono strumenti che già usiamo, come
Google Sheets, Excel, Notion, Trello o app per la gestione del tempo.​
​
ChatGPT può essere utilizzato per generare script che interagiscono con queste
applicazioni, attraverso le loro API (interfacce di programmazione) o tramite funzioni già
presenti nei software.
Per esempio, un utente può chiedere:
“Scrivimi una funzione per Google Sheets che conti quante volte un certo nome
appare in un elenco e metta il risultato in una cella.”
Oppure:
“Crea un’integrazione tra un modulo Google Forms e Trello, così che ogni nuova
risposta diventi automaticamente una nuova card.”
ChatGPT può generare formule, codice Apps Script (per Google), macro in Excel, o snippet
Python con le istruzioni per collegarsi a queste piattaforme.​
​
Può anche spiegare come configurare i permessi, dove incollare il codice e come testarlo.
Queste automazioni moltiplicano il valore degli strumenti che già usiamo, trasformandoli
da semplici contenitori di dati in sistemi dinamici, che reagiscono, aggiornano, organizzano
e ci aiutano a essere più efficienti.
152
Anche per chi non ha mai scritto una riga di codice, ChatGPT può essere il punto di
partenza per realizzare soluzioni pratiche, risparmiando tempo, aumentando la precisione
e riducendo il carico di lavoro manuale.
153
9. L’AI per scrivere testi, email, riassunti e fare
brainstorming
9.1 – Composizione email professionali
9.1.1 – Strutturare email formali chiare ed efficaci
Scrivere un’email professionale può sembrare semplice, ma spesso è proprio la forma che
determina l’efficacia del messaggio. Una buona email deve essere chiara, diretta, ben
strutturata e rispettare il tono adatto al contesto. ​
​
Questo vale in particolare in ambito lavorativo, dove comunicare in modo efficace può
influenzare la qualità della collaborazione, la comprensione dei compiti e perfino la
reputazione professionale.
ChatGPT può aiutare a organizzare le email in modo logico e professionale. ​
​
Ad esempio, partendo da un messaggio scritto in modo disordinato o troppo generico, l’IA
può proporre una struttura standard: saluto iniziale, introduzione dell’argomento, corpo
centrale (con richieste o informazioni), chiusura gentile e firma.
Il modello può anche adattarsi a diverse situazioni: dalla richiesta di informazioni, alla
risposta a un reclamo, alla conferma di un appuntamento. ​
​
Basta fornire un minimo di contesto (chi è il destinatario, quale è l’obiettivo) e ChatGPT
costruisce una bozza ben formata, pronta per essere inviata o personalizzata.
9.1.2 – Adattare il tono e lo stile al destinatario
Un altro aspetto fondamentale nella scrittura di email professionali è la scelta del tono
giusto. ​
​
La stessa informazione, se scritta con un tono troppo diretto o troppo freddo, può risultare
sgradita, mentre un tono eccessivamente informale può apparire poco serio.
154
ChatGPT può aiutare a modulare il tono e lo stile linguistico, in base al destinatario e alla
relazione che si ha con lui. ​
​
Ad esempio, se si deve scrivere a un superiore, l’IA può riformulare il messaggio con un
registro più rispettoso e formale. Se invece ci si rivolge a un collega con cui si ha
confidenza, può alleggerire il testo mantenendo comunque la chiarezza e la professionalità.
È anche possibile chiedere al modello di “riscrivere la mail in modo più gentile” oppure
“rendere il tono più neutro e adatto a un cliente estero”. ​
​
ChatGPT è in grado di riconoscere i segnali di stile, come formule di cortesia, uso dei
pronomi, struttura delle frasi, e di riscrivere il testo in modo coerente con le richieste.
Questo è particolarmente utile per chi lavora in ambienti multiculturali o internazionali,
dove il modo di scrivere cambia sensibilmente da una lingua o da un contesto all’altro.
9.1.3 – Automatizzare risposte e follow-up
Nel lavoro quotidiano, molte email sono ripetitive o simili tra loro: conferme di appuntamenti,
risposte a richieste frequenti, promemoria o aggiornamenti su un’attività. Scrivere ogni volta
da zero richiede tempo e può generare errori o incoerenze.
ChatGPT può essere utilizzato per automatizzare le risposte più comuni, creando modelli
di email pronti all’uso.​
​
L’utente può, ad esempio, fornire un breve riassunto come:
“Rispondi a un cliente che ha chiesto se il prodotto è ancora disponibile. Digli
che lo è e che può ordinarlo oggi stesso con spedizione gratuita.”
Il modello restituirà un testo completo, ben scritto, con un tono adeguato. Questo tipo di
automazione può essere salvata e riutilizzata all’occorrenza, rendendo la gestione delle
email più veloce e meno stressante.
Inoltre, ChatGPT può aiutare a scrivere email di follow-up, cioè messaggi da inviare dopo
una prima comunicazione, per sollecitare una risposta o mantenere il contatto attivo.​
​
155
Anche in questo caso, l’utente può chiedere all’IA di scrivere una versione cortese,
professionale, magari con riferimenti alla conversazione precedente.
In sintesi, ChatGPT permette di risparmiare tempo, ridurre gli errori e standardizzare le
comunicazioni, senza perdere personalizzazione e qualità.
​
​
9.2 – Scrittura creativa e storytelling
9.2.1 – Generare trame originali a partire da spunti minimi
Quando si vuole scrivere un racconto o un testo creativo, spesso si parte da un’idea vaga,
un’immagine, una sensazione, o una domanda. Tuttavia, trasformare quello spunto in una
trama coerente può essere difficile, soprattutto nelle fasi iniziali.
ChatGPT può aiutare a sviluppare una trama partendo da pochissimo, anche solo da
una frase.​
​
Ad esempio, scrivendo:
“Vorrei una storia che inizia in una città deserta e ha un colpo di scena finale.”
Il modello può generare una prima bozza, suddivisa in inizio, sviluppo e finale, con
personaggi, ambientazione e un ritmo narrativo credibile.​
​
Da lì, l’utente può chiedere modifiche: “Fammi ambientare la storia in una città italiana”
oppure “Rendi il finale più tragico”.
In questo modo, ChatGPT diventa uno strumento di esplorazione narrativa, capace di
stimolare l’immaginazione e proporre strade alternative quando l’autore si sente bloccato.​
​
Non sostituisce la creatività dell’essere umano, ma offre struttura e ispirazione per iniziare
o superare l’indecisione.
156
9.2.2 – Sviluppare personaggi, ambientazioni e dialoghi
La credibilità di una storia dipende anche da quanto sono ben costruiti i suoi elementi
fondamentali: i personaggi, l’ambiente in cui si muovono, e i dialoghi che li fanno parlare in
modo realistico.
ChatGPT può aiutare a definire ogni aspetto di un personaggio, a partire da pochi
elementi.​
​
Basta scrivere:
“Descrivimi una protagonista donna, timida ma determinata, che lavora in una
libreria.”
E il modello può proporre un profilo con nome, età, tratti psicologici, passato e
motivazioni.
Lo stesso vale per le ambientazioni: si può chiedere una descrizione di un paesino immerso
nella nebbia, di una metropoli futuristica, o di una scuola di magia.​
​
Il testo generato sarà ricco di dettagli sensoriali, utili per dare profondità e atmosfera alla
narrazione.
Per i dialoghi, ChatGPT è capace di scrivere scambi realistici tra personaggi, con stili
diversi: amichevoli, drammatici, ironici o formali.​
​
Può aiutare anche a riscrivere dialoghi esistenti, rendendoli più coerenti con la personalità
dei personaggi o con il tono della scena.
In questo senso, l’IA è uno strumento utile per migliorare la scrittura creativa, curando
aspetti che spesso vengono trascurati nelle prime bozze.
9.2.3 – Migliorare il ritmo narrativo e la coerenza stilistica
Anche quando una storia ha un’idea interessante, può capitare che il ritmo sia lento,
confuso, o poco coinvolgente.​
​
157
Lo stesso vale per lo stile: un testo può alternare registri diversi senza coerenza, oppure
usare un linguaggio troppo ripetitivo.
ChatGPT può essere usato per analizzare e riscrivere parti del testo, con l’obiettivo di
rendere la narrazione più scorrevole e coinvolgente.​
​
Per esempio, se una parte della storia è troppo descrittiva e rallenta la lettura, si può
chiedere:
“Rendi questo paragrafo più dinamico”​
oppure​
“Riscrivi questo pezzo dando più spazio all’azione e meno alla descrizione.”
Il modello è in grado di riconoscere gli elementi che influenzano il ritmo narrativo, come la
lunghezza delle frasi, la scelta dei verbi, l’uso del dialogo.​
​
Può anche aiutare a uniformare lo stile in tutto il testo, suggerendo un tono coerente dalla
prima all’ultima pagina.
Inoltre, ChatGPT può segnalare eventuali incoerenze logiche nella trama (es. un
personaggio fa qualcosa che non ha senso rispetto alla scena precedente), oppure aiutare
a ristrutturare l’ordine degli eventi per creare maggiore suspense o chiarezza.
In questo modo, diventa un valido supporto nella fase di revisione, offrendo un punto di vista
alternativo e aiutando l’autore a vedere la propria storia con occhi nuovi.
9.3 – Generazione di titoli e slogan
9.3.1 – Creare titoli accattivanti per articoli e post
Un buon titolo può determinare il successo o il fallimento di un contenuto.​
​
158
Che si tratti di un articolo per un blog, di un post sui social o di un video su YouTube, il titolo
è il primo elemento che cattura l’attenzione del lettore.​
​
Deve essere chiaro, interessante e, se possibile, originale, ma senza promettere
qualcosa che il contenuto non offre.
ChatGPT può essere utilizzato per proporre una varietà di titoli alternativi, partendo da
una breve descrizione del contenuto.​
​
Ad esempio, se l’utente scrive:
“Ho scritto un articolo che spiega come risparmiare energia in casa”,
Il modello può proporre titoli come:
●​ “10 modi semplici per tagliare la bolletta elettrica”
●​ “Risparmiare energia in casa: guida pratica per iniziare oggi”
●​ “Come rendere la tua casa più efficiente (e spendere meno)”
Ogni titolo può essere riformulato in base al tono, alla lunghezza o al canale di
pubblicazione.​
​
L’IA può anche adattare il titolo per scopi specifici: migliorare il posizionamento SEO,
aumentare il tasso di clic, o risuonare meglio con un certo pubblico (es. famiglie,
studenti, professionisti, ecc.).
9.3.2 – Sviluppare slogan pubblicitari sintetici e memorabili
Scrivere uno slogan efficace è una sfida: serve sintesi, impatto e riconoscibilità. Deve
racchiudere un messaggio chiaro in pochissime parole, trasmettere un’emozione, e rimanere
impresso nella mente del lettore o ascoltatore.
ChatGPT è in grado di produrre decine di slogan in pochi secondi, partendo da una
semplice descrizione del prodotto o del servizio.​
​
Per esempio, se si chiede:
159
“Mi serve uno slogan per una startup che consegna pasti salutari a domicilio”​
Il modello potrebbe proporre:
●​ “Mangia sano, vivi meglio”
●​ “Benessere a casa tua”
●​ “Piatti equilibrati. Vita più semplice.”​
L’IA può anche generare slogan in stili diversi: istituzionali, emozionali, ironici, minimalisti.​
È possibile chiedere una seconda tornata di idee con richieste più specifiche, come:
“Più giovani, più creativi” o “Incentrati sul concetto di tempo risparmiato”.
Questo processo rende ChatGPT uno strumento creativo utile per chi lavora in
marketing, branding o comunicazione, ma anche per chi gestisce un piccolo business o
una pagina social e vuole trovare una frase d’impatto senza dover assumere un copywriter.
9.3.3 – Testare varianti per differenti target di pubblico
Non tutti i titoli e gli slogan funzionano con lo stesso pubblico.Un messaggio che risulta
efficace per un giovane potrebbe non colpire un pubblico maturo. ​
​
Allo stesso modo, una frase che suona bene in un contesto professionale potrebbe risultare
fuori luogo in uno informale.
ChatGPT può essere utilizzato per testare lo stesso messaggio in più varianti, ciascuna
pensata per un pubblico diverso.​
​
Ad esempio, si può dire:
“Scrivi tre versioni dello stesso slogan: una per studenti universitari, una per
genitori, una per lavoratori freelance.”
Il modello risponderà adattando linguaggio, tono, ritmo e lessico alle caratteristiche di
ciascun target, tenendo conto di ciò che li motiva, delle parole che usano più spesso e dei
problemi che vogliono risolvere.
160
Questa funzione è molto utile per raffinare campagne pubblicitarie, migliorare la
comunicazione su piattaforme diverse (come Instagram, LinkedIn o una newsletter), e
ottimizzare i messaggi in base al canale di distribuzione.
In sintesi, l’uso di ChatGPT per generare titoli e slogan è un supporto per scrivere testi più
strategici, più mirati e più efficaci, risparmiando tempo e aumentando l’impatto della
comunicazione.
9.4 – Riassunti di testi lunghi e articoli
9.4.1 – Estrarre i concetti chiave in modo sintetico e accurato
Molti testi lunghi – come articoli di giornale, ricerche accademiche, documenti aziendali o
capitoli di libri – contengono tante informazioni mescolate a dettagli secondari.​
​
Il lettore spesso ha bisogno di capire l’essenza del contenuto, senza dover leggere tutto per
intero.
ChatGPT può aiutare a riassumere questi testi, evidenziando i concetti più importanti, le
idee principali e i passaggi fondamentali.​
​
Basta incollare il contenuto e chiedere un riassunto, oppure indicare il tipo di sintesi
desiderata, come:
“Riassumimi questo articolo in 10 righe”​
oppure​
“Dammi i punti chiave in elenco, senza perdere il significato principale”.
L’IA è in grado di selezionare ciò che è essenziale, evitando ridondanze, semplificando il
linguaggio tecnico se necessario e conservando l’integrità del messaggio originale.​
​
Questo è utile per studenti che devono studiare testi lunghi, per professionisti che
161
analizzano report complessi, o per chiunque voglia risparmiare tempo senza perdere
contenuti importanti.
9.4.2 – Adattare il riassunto allo scopo e al pubblico
Un riassunto non è solo “un testo più corto”. Deve essere pensato in base a chi lo leggerà e
perché serve.​
​
Un docente vuole un riassunto che spieghi bene i concetti chiave, mentre un manager può
volere una sintesi dei punti operativi.​
​
Una persona che studia per un esame ha bisogno di un linguaggio semplice e diretto,
mentre un esperto può preferire una sintesi tecnica e precisa.
ChatGPT può adattare il riassunto al contesto d’uso e al pubblico, se viene istruito
correttamente.​
​
Ad esempio:
“Riassumilo per un adolescente”​
“Fai una sintesi per una presentazione aziendale”​
“Riscrivilo come se fosse un testo divulgativo”.
Il modello è in grado di modificare lo stile, il registro linguistico e il livello di complessità.​
​
Questo rende il riassunto più utile e più efficace, perché non si limita a tagliare parole, ma
ricostruisce il contenuto con un nuovo obiettivo comunicativo.
Inoltre, può restituire il riassunto in più formati: testo continuo, punti elenco, mappa
concettuale o paragrafi separati.​
​
Questo aiuta a usare la sintesi in ambienti diversi: slide, relazioni, appunti, email, ecc.
9.4.3 – Risparmiare tempo nella lettura di documenti complessi
162
Uno dei principali benefici dell’uso di ChatGPT per i riassunti è il notevole risparmio di
tempo, soprattutto quando si lavora con documenti molto lunghi, tecnici o scritti in modo
complesso.
Pensiamo a chi deve leggere e comprendere:
●​ una proposta di progetto di 100 pagine,
●​ un articolo scientifico in inglese,
●​ un rapporto di bilancio aziendale,
●​ un documento legale o normativo.​
ChatGPT può leggere il testo al posto dell’utente e fornire una sintesi con:
●​ le idee centrali,
●​ le conclusioni principali,
●​ gli elementi da approfondire.​
Questo non sostituisce la lettura integrale nei casi in cui serve conoscere ogni dettaglio, ma
è una strategia efficace per orientarsi rapidamente e capire se un documento vale la pena di
essere approfondito.
In ambito lavorativo, questo significa essere più rapidi nel prendere decisioni.​
In ambito scolastico o universitario, significa poter studiare in modo più efficiente,
focalizzandosi solo su ciò che conta davvero.
In sintesi, ChatGPT diventa un filtro intelligente tra noi e la mole crescente di informazioni
che ogni giorno dobbiamo leggere, aiutandoci a gestire meglio il tempo e a non perdere di
vista ciò che è essenziale.
163
9.5 – Idee per contenuti social e blog
9.5.1 – Trovare spunti creativi per post originali
Uno dei problemi più comuni nella gestione dei social o di un blog è la mancanza di idee.
Scrivere ogni giorno contenuti nuovi, interessanti e coinvolgenti non è facile, soprattutto
quando si lavora da soli o si gestiscono più canali contemporaneamente.​
​
ChatGPT può diventare un valido alleato in questa fase, aiutando a generare spunti
creativi su richiesta, in pochi secondi.
​
È sufficiente indicare l’argomento generale (es. viaggi, alimentazione, tecnologia, libri), il
tipo di pubblico (es. adolescenti, genitori, imprenditori), e il tono desiderato (es. divertente,
motivazionale, professionale), per ottenere una lista di idee pronte da sviluppare.
Ad esempio, un prompt semplice come:
“Suggeriscimi 10 idee per post su Instagram per un nutrizionista”
Può generare contenuti come:
●​ “3 errori comuni che fai a colazione”,
●​ “La differenza tra mangiare sano e stare a dieta”,
●​ “Cosa mangia un nutrizionista in un giorno normale”.​
L’IA può anche aiutare a rielaborare vecchi contenuti, trasformandoli in nuove versioni con
un taglio diverso, così da non dover sempre partire da zero.
9.5.2 – Organizzare un calendario editoriale con ChatGPT
Avere tante idee è utile, ma per gestire bene la comunicazione serve anche una
pianificazione coerente nel tempo.​
​
Un calendario editoriale aiuta a evitare improvvisazioni, distribuire i contenuti in modo
equilibrato, alternare formati diversi e mantenere una presenza costante online.
164
ChatGPT può aiutare l’utente a costruire un piano settimanale o mensile, organizzando
post per ogni giorno o per ogni categoria (es. “post educativo il lunedì”, “testimonianza
cliente il giovedì”, “video il sabato”).​
​
È sufficiente fornire:
●​ il numero di post desiderati a settimana,
●​ i temi principali,
●​ eventuali scadenze o eventi speciali (lancio prodotto, festività, campagne).​
A partire da queste informazioni, l’IA genera una bozza di calendario, che può essere poi
perfezionata o adattata. Ad esempio, per un piccolo brand, si può chiedere:
“Creami un piano editoriale per Instagram per un mese, con 3 post a settimana
su moda sostenibile.”
Il risultato sarà una lista ordinata di contenuti, ciascuno con titolo, descrizione e
suggerimento per immagine o formato.​
​
Questo permette di risparmiare tempo nella programmazione e di lavorare in modo più
strategico, anche senza un team di marketing.
9.5.3 – Generare bozze di testi ottimizzati per canale e pubblico
Ogni piattaforma ha le sue regole e i suoi utenti, e un testo che funziona su un blog può
risultare troppo lungo per Instagram o troppo generico per LinkedIn.​
​
ChatGPT può essere usato per scrivere testi pensati appositamente per ciascun canale,
tenendo conto della lunghezza, dello stile e del tipo di interazione previsto.
Ad esempio, per un contenuto sullo stesso tema, si può chiedere:
“Scrivimi un post breve per Facebook, un tweet sintetico e un paragrafo
introduttivo per un articolo di blog.”
Il modello adatta automaticamente il linguaggio, la struttura e il tono. Su Facebook il
messaggio sarà più discorsivo, su X (Twitter) più diretto, nel blog più argomentato.
165
Inoltre, ChatGPT può ottimizzare i testi anche per gli algoritmi, suggerendo:
●​ l’uso di parole chiave,
●​ l’inserimento di emoji,
●​ call to action efficaci (es. “scopri di più”, “lascia un commento”, “salva il post”).​
Questo rende lo strumento utile non solo per chi deve “scrivere qualcosa”, ma anche per chi
vuole migliorare la visibilità e l’engagement, anche senza conoscere a fondo le
dinamiche del content marketing.
In sintesi, ChatGPT permette anche a chi è alle prime armi di creare contenuti di qualità, su
misura per ogni canale e ogni tipo di pubblico, con il vantaggio di lavorare in modo più
veloce, sicuro e creativo.
9.6 – Creazione di scalette e strutture narrative
9.6.1 – Costruire la struttura di un articolo, saggio o presentazione
Scrivere un testo complesso – come un articolo, una relazione, un saggio o una
presentazione – richiede una struttura solida prima ancora di iniziare a scrivere.​
​
Senza una scaletta chiara, il rischio è quello di perdersi tra le idee, allungare troppo il testo o
dimenticare passaggi importanti.
ChatGPT può aiutare a costruire la struttura iniziale di qualsiasi tipo di contenuto.
Basta indicare l’argomento generale, il pubblico a cui è rivolto e lo scopo del testo.​
Ad esempio:
“Scrivimi una scaletta per un articolo di blog sul minimalismo nella vita
quotidiana.”
166
Il modello può proporre una divisione come:
1.​ Introduzione al concetto di minimalismo
2.​ Benefici pratici nella vita di tutti i giorni
3.​ Esempi concreti per iniziare
4.​ Conclusione con suggerimenti finali​
Ogni punto può essere poi approfondito singolarmente, anche con l’aiuto di ChatGPT
stesso.​
Questo aiuta a scrivere con più chiarezza, coerenza e logica, evitando blocchi o
deviazioni dal tema centrale.
9.6.2 – Suddividere un tema complesso in sezioni logiche
Molti argomenti sono troppo ampi per essere affrontati in un unico flusso di scrittura, ed è qui
che una buona suddivisione in sezioni fa la differenza.​
​
ChatGPT è in grado di analizzare un tema complesso e proporre una struttura
modulare, cioè divisa in sotto-argomenti che rendono la trattazione più ordinata e
accessibile.
Supponiamo di voler scrivere un saggio sul cambiamento climatico. Il tema è vastissimo. Ma
ChatGPT può suggerire di suddividerlo in:
●​ Cause naturali e antropiche
●​ Impatti a livello globale e locale
●​ Soluzioni tecnologiche e comportamenti individuali
●​ Ruolo delle istituzioni e delle politiche ambientali​
Questa suddivisione permette di affrontare ogni parte in modo più focalizzato, senza dover
pensare all’intero testo in blocco.​
167
Si può poi scrivere una sezione alla volta, rivedere l’ordine, aggiungere collegamenti.​
Questo metodo è molto utile per chi scrive testi lunghi o tecnici, ma anche per studenti,
blogger, docenti e professionisti.
Oltre alla divisione in sezioni, ChatGPT può proporre anche transizioni e collegamenti logici
tra i paragrafi, migliorando la fluidità della lettura e aiutando a guidare il lettore da un punto
all’altro.
9.6.3 – Guidare la scrittura con una traccia coerente
Una volta definita la scaletta o la suddivisione in sezioni, serve una guida per trasformare gli
appunti in un testo completo e coerente.​
​
ChatGPT può accompagnare questo processo passo dopo passo, aiutando a mantenere la
coerenza, evitare ripetizioni, rafforzare i passaggi logici e concludere in modo efficace.
L’utente può scrivere:
“Sviluppiamo il punto 2 della scaletta: benefici del minimalismo. Scrivilo in forma
discorsiva, ma semplice.”
Il modello produrrà un paragrafo coerente con la traccia fornita.​
Se non soddisfa, si può chiedere di renderlo:
●​ più sintetico,
●​ più esplicativo,
●​ più adatto a un certo pubblico (es. studenti, professionisti, lettori curiosi).​
In questo modo, ChatGPT agisce come un tutor editoriale, disponibile in ogni momento
per aiutare a sviluppare i contenuti seguendo un filo logico.​
​
È utile per chi deve scrivere sotto scadenza, per chi ha tante idee ma fatica a ordinarle, o
per chi vuole imparare a strutturare meglio i propri testi, anche senza esperienza nella
scrittura.
168
In sintesi, ChatGPT non solo suggerisce una scaletta iniziale, ma può accompagnare tutta
la fase di scrittura, assicurando che ogni parte del testo sia ben collegata, coerente e
orientata all’obiettivo finale.
9.7 – Brainstorming collaborativo con ChatGPT
9.7.1 – Stimolare idee originali attraverso il dialogo
Una delle fasi più difficili di qualsiasi progetto è l’inizio: quando si ha un’idea vaga, ma non si
sa bene da dove partire o come svilupparla.​
​
ChatGPT può essere usato come partner di brainstorming, cioè come un interlocutore in
grado di generare idee, far emergere alternative e ampliare i punti di vista, anche a
partire da stimoli minimi.
Basta scrivere:
“Vorrei lanciare un piccolo progetto legato alla fotografia, ma non ho idee
chiare.”
E ChatGPT può rispondere con una lista di possibili direzioni: creare un blog,
proporre mini-corsi online, realizzare ritratti a domicilio, aprire un account tematico sui
social, organizzare un progetto fotografico di quartiere.​
​
Il valore di questo processo non sta solo nelle singole idee, ma nel fatto che il dialogo
con ChatGPT permette di esplorare possibilità che da soli non si sarebbero
considerate.​
​
Ogni risposta può essere un trampolino verso nuovi spunti: l’utente può dire
“Approfondisci il punto 3” o “Fammi una variante più economica” e il modello continua
a generare.​
​
È una forma di pensiero guidato, dove l’IA aiuta a uscire dai soliti schemi mentali,
senza giudicare o bloccare il flusso creativo.
169
9.7.2 – Superare il blocco creativo con proposte alternative
Il blocco creativo non colpisce solo scrittori e artisti: può riguardare chiunque debba
prendere decisioni o sviluppare idee, in ambito professionale, scolastico o personale.​
​
Quando ci si sente “a corto di ispirazione”, il rischio è rimanere fermi, perdere motivazione o
continuare a rimuginare sulle stesse opzioni senza fare progressi.
ChatGPT può offrire un aiuto concreto in questi momenti, proponendo alternative pratiche,
anche partendo da frasi molto generiche, come:
“Non so come continuare il mio progetto”​
oppure​
“Non riesco a trovare un’idea per il prossimo post.”
L’IA risponde con opzioni che spaziano in più direzioni, spesso anche suggerendo
approcci che l’utente non aveva considerato:​
​
– un cambio di formato (da testo a video),​
– una diversa angolazione del contenuto,​
– una collaborazione esterna,​
– l’introduzione di un elemento narrativo.
Oltre a generare nuove strade, ChatGPT può anche aiutare a sbloccare la scrittura,
proponendo inizi di paragrafo, frasi ad effetto, domande da usare come stimolo.​
​
Questo supporto riduce la pressione e riattiva la creatività, anche solo dando un punto di
partenza da rielaborare.
9.7.3 – Valutare e affinare le idee insieme al modello
Il brainstorming non si esaurisce con la generazione di idee: una volta che ne abbiamo
alcune, dobbiamo capire quali hanno potenziale, come svilupparle e quali potrebbero essere
migliorate o scartate.​
170
Qui ChatGPT può funzionare come uno strumento di riflessione guidata, capace di
valutare pro e contro in modo rapido e ordinato.
Si può chiedere al modello:
“Confronta queste tre idee e dimmi quale potrebbe funzionare meglio per un
pubblico giovane.”​
Oppure:​
“Fammi un’analisi dei punti di forza e debolezza dell’idea numero due.”
ChatGPT può aiutare a vedere un’idea da angolazioni diverse: dal punto di vista del
pubblico, dei costi, della fattibilità, dell’impatto emotivo o della coerenza con gli obiettivi.​
Questa valutazione può essere approfondita in più fasi, seguendo i dubbi e le priorità
dell’utente.
Infine, il modello può anche aiutare a trasformare l’idea in un primo piano d’azione,
proponendo i primi passi da compiere, le risorse da raccogliere o le domande da porsi per
verificarne la fattibilità.
In sintesi, usare ChatGPT per il brainstorming significa non essere mai da soli nel momento
in cui si deve pensare, scegliere, creare, anche se si lavora da casa o senza un team.​
​
È uno strumento che stimola, struttura, chiarisce e rafforza il pensiero, trasformando la
creatività in un processo più accessibile, produttivo e meno frustrante.
10. Usare Perplexity per la ricerca e
l’apprendimento
​
​
10.1 – Ricerca di fonti autorevoli
171
10.1.1 – Come Perplexity seleziona e collega le fonti più affidabili
Uno degli aspetti più importanti della ricerca online è la qualità delle fonti. Non tutte le pagine
web sono affidabili, e spesso è difficile distinguere tra contenuti informativi seri e testi poco
accurati o addirittura falsi.
Perplexity AI affronta questo problema in modo diretto, perché non si limita a generare una
risposta come fanno i modelli linguistici generativi…
Il sistema usa tecniche di “ranking semantico”, cioè valuta se un testo contiene parole chiave
rilevanti, quanto il contenuto è coerente con la domanda e quanto è affidabile la fonte
che lo ospita.​
​
Siti istituzionali, riviste scientifiche, enciclopedie, quotidiani riconosciuti, blog specialistici con
reputazione solida: queste sono le tipologie di fonte che Perplexity privilegia.
Durante la generazione della risposta, Perplexity collega ogni parte del testo alle fonti
specifiche da cui ha preso l’informazione. Questo permette all’utente di capire subito da
dove arriva ogni dato, e di verificare se il sito citato è autorevole.
In sostanza, Perplexity funziona come un motore di ricerca intelligente, che filtra il rumore
e restituisce solo il meglio, riducendo il rischio di basarsi su fonti poco attendibili.
10.1.2 – Verificare l’attendibilità delle informazioni raccolte
Anche quando una risposta sembra corretta, è importante capire se l’informazione è davvero
affidabile.​
​
Perplexity aiuta in questo processo perché non “nasconde” le fonti: le mostra chiaramente,
con numeri e link cliccabili, permettendo all’utente di consultare direttamente i documenti
originali.
Ma come si verifica se una fonte è affidabile?​
Ci sono alcuni criteri che Perplexity tiene in considerazione e che anche l’utente può
imparare a riconoscere:
172
●​ Chi è l’autore o l’organizzazione che pubblica il contenuto? È una testata
giornalistica riconosciuta, un’università, un ente pubblico?​
●​ Il sito è aggiornato? Un’informazione vecchia può essere superata o non più valida.​
●​ C’è un riferimento a dati, numeri, studi scientifici? Più un testo è supportato da
fatti verificabili, più è attendibile.​
Perplexity non si sostituisce al giudizio umano, ma aiuta a esercitarlo meglio, perché
consente di accedere alle fonti subito, senza doverle cercare da soli, e di confrontare più
punti di vista sullo stesso argomento.
In questo modo, diventa anche uno strumento educativo, perché abitua l’utente a non fidarsi
ciecamente delle risposte, ma a sviluppare un pensiero critico.
10.1.3 – Utilizzare le citazioni per approfondire e confrontare
Un altro grande vantaggio di Perplexity è che non si limita a dare una risposta sintetica, ma
offre anche la possibilità di continuare a esplorare, cliccando sulle fonti citate o cercando
argomenti correlati.
Questo è molto utile in ambito scolastico, universitario o professionale.​
Ad esempio, se stai scrivendo una tesina, un articolo o un report, puoi usare le fonti trovate
da Perplexity per:
●​ leggere il testo originale,
●​ trovare passaggi da citare direttamente,
●​ confrontare opinioni diverse sullo stesso argomento.​
Puoi anche chiedere al sistema di riassumere una delle fonti citate, o di spiegare in parole
semplici un paragrafo difficile, aiutandoti a comprendere anche testi tecnici o complessi.
L’approccio di Perplexity è quindi doppio: da un lato, ti semplifica il lavoro con una risposta
già pronta e documentata; dall’altro, ti lascia aperta la possibilità di approfondire,
guidandoti verso una conoscenza più solida e autonoma.
173
​
10.2 – Comprensione di argomenti complessi
10.2.1 – Semplificare concetti tecnici senza perdere precisione
Molti argomenti – come economia, diritto, medicina, ingegneria, filosofia – sono ricchi di
termini specialistici e strutture concettuali difficili.​
​
Quando si affrontano questi temi, spesso si rischia di perdersi tra parole complicate, frasi
troppo lunghe e spiegazioni che danno per scontato un certo livello di preparazione.
Perplexity AI, grazie alla sua capacità di elaborazione linguistica, può semplificare questi
contenuti senza snaturarli, cioè senza perdere l’accuratezza.​
​
È sufficiente scrivere:
“Spiegami il concetto di inflazione come se avessi 15 anni”​
oppure​
“Fammi capire cosa significa intelligenza artificiale simbolica con parole
semplici”.
Il modello legge le fonti più autorevoli sull’argomento, seleziona le informazioni essenziali e
le riformula in modo accessibile, usando un lessico più semplice e frasi più corte, ma
senza modificare il significato originale.
Questo è molto utile per chi:
174
●​ affronta per la prima volta un tema complesso,
●​ non ha una formazione specifica su quell’argomento,
●​ vuole creare contenuti divulgativi accessibili a un pubblico più ampio.​
In sostanza, Perplexity permette di abbassare la soglia d’ingresso alla conoscenza,
rendendo i concetti difficili comprensibili anche a chi non è esperto.
10.2.2 – Adattare la spiegazione al proprio livello di conoscenza
Ogni persona ha un diverso livello di preparazione su un argomento, e uno dei limiti dei testi
generici è che non si adattano al lettore.​
​
Perplexity, invece, può calibrare la risposta in base a quanto l’utente sa già, o a quanto
vuole approfondire.
È possibile scrivere:
“Spiegami cos’è il machine learning in modo base”​
oppure​
“Fammi una spiegazione approfondita del machine learning, includendo esempi
pratici e applicazioni”.
Nel primo caso, Perplexity restituirà una definizione semplificata, magari con una metafora
(“È come insegnare a una macchina attraverso esempi, invece che con regole fisse”).​
​
Nel secondo, proporrà una spiegazione tecnica, con riferimenti a tipi di algoritmi, esempi
d’uso reali e termini specialistici, eventualmente anche con link a risorse accademiche.
Inoltre, l’utente può chiedere:
“Approfondisci solo la parte sulle reti neurali”​
oppure​
“Fammi un confronto tra supervised e unsupervised learning”.
Questo approccio permette un apprendimento graduale, in cui si parte da una base e si
costruisce la conoscenza passo dopo passo.
175
10.2.3 – Chiedere chiarimenti progressivi per costruire comprensione
Un altro vantaggio concreto di Perplexity è la possibilità di fare domande successive per
chiarire meglio un punto specifico, senza dover ripartire da zero.
Nella vita reale, quando leggiamo un testo difficile, ci capita spesso di pensare: “Sì, ma cosa
vuol dire esattamente questa parte?”.​
​
Con Perplexity, si può scrivere subito una domanda di approfondimento, come:
“Cosa significa ‘funzione obiettivo’ in questo contesto?”​
oppure​
“Perché questo autore dice che questo approccio è limitato?”
L’IA risponde contestualizzando il chiarimento all’interno del tema generale, in modo da non
perdere il filo del discorso, ma anzi consolidarlo.​
​
È una forma di apprendimento “a scalini”: ogni risposta diventa il punto di partenza per
una nuova domanda, così da costruire una conoscenza articolata, ragionata e sempre più
profonda.
Questa modalità è utile anche per prepararsi a esami, colloqui o presentazioni:​
l’utente può simulare un dialogo in cui verifica la propria comprensione, chiarisce i dubbi e
arriva a dominare l’argomento con sicurezza.
In definitiva, Perplexity è un partner di studio flessibile, che aiuta a comprendere in
profondità anche i temi più difficili, adattandosi al ritmo e allo stile di apprendimento
dell’utente.
​
10.3 – Analisi comparativa tra concetti
176
10.3.1 – Confrontare teorie, modelli o approcci diversi
Nello studio di qualsiasi disciplina – che sia economia, filosofia, scienza, psicologia o storia –
capita spesso di dover confrontare due o più modelli teorici, metodi o scuole di pensiero. È
un’attività essenziale per capire non solo “cos’è” un concetto, ma in che modo è diverso da
un altro e perché questo è importante.
Perplexity AI è molto utile in questa fase, perché consente di fare confronti mirati e ben
strutturati, partendo da una semplice richiesta.​
​
Per esempio:
“Confronta la teoria dell’evoluzione di Darwin con quella di Lamarck.”
In pochi secondi, Perplexity può fornire una sintesi che evidenzia le origini storiche, le basi
teoriche, le implicazioni pratiche e le critiche ricevute da ciascun approccio.​
​
Questa forma di confronto non è una semplice lista di differenze: è una lettura integrata, in
cui ogni elemento viene spiegato in funzione del suo rapporto con l’altro.
Questa funzione è particolarmente utile per:
●​ scrivere saggi comparativi,
●​ preparare dibattiti scolastici o universitari,
●​ capire meglio argomenti che sembrano simili ma hanno basi concettuali molto
diverse.​
10.3.2 – Evidenziare somiglianze e differenze in modo chiaro
Una delle difficoltà più comuni nel confronto tra concetti è organizzare le informazioni in
modo chiaro e ordinato. Spesso, quando leggiamo articoli lunghi o confronti su più fonti, le
idee si confondono o si sovrappongono.
Perplexity AI può aiutare a risolvere questo problema presentando le differenze e le
somiglianze in modo schematico (ad esempio in forma di elenco, tabella o paragrafi
tematici).​
177
​
Se chiediamo:
“Differenze tra economia keynesiana e monetarista”
Il sistema può suddividere la risposta in aree come:
●​ ruolo dello Stato,
●​ importanza della politica monetaria,
●​ visione del mercato,
●​ gestione della domanda aggregata.​
Questa organizzazione rende più facile confrontare le due visioni e soprattutto ricordare
i punti salienti, perché le informazioni sono suddivise logicamente.​
​
Inoltre, l’utente può anche chiedere all’IA di approfondire solo una parte:
“Spiegami meglio come il keynesismo vede la disoccupazione”.
Questa interazione rende il confronto dinamico e flessibile, adattabile a qualsiasi livello di
approfondimento o tipo di studio, dalle scuole superiori fino all’università.
10.3.3 – Sostenere tesi e opinioni con basi argomentate
Confrontare concetti serve a costruire una propria opinione informata, basata su fatti e
logica, non solo su impressioni.​
​
Questo è importante quando dobbiamo scrivere un testo argomentativo, partecipare a un
dibattito o prendere posizione su un problema.
Perplexity AI può supportare questo processo restituendo argomentazioni documentate,
prese da fonti affidabili, e aiutando l’utente a valutare pro e contro di ciascun punto di
vista.​
​
Ad esempio, si può chiedere:
“Quali sono i vantaggi e gli svantaggi dell’energia nucleare rispetto a quella
solare?”
178
Il sistema presenterà le due prospettive, con dati aggiornati, punti a favore e contro, e link
alle fonti utilizzate.​
​
Questo consente all’utente di:
●​ analizzare con equilibrio,
●​ riconoscere i limiti di ciascuna posizione,
●​ scegliere con maggiore consapevolezza quale tesi sostenere.​
In più, l’utente può chiedere supporti concreti, come:
●​ esempi storici,
●​ casi studio,
●​ citazioni autorevoli.​
Questo rende Perplexity non solo un motore di confronto, ma un assistente alla
costruzione del pensiero critico, che aiuta a passare da “cosa dice ciascun modello” a
“cosa penso io e perché”.
10.3 – Analisi comparativa tra concetti
10.3.1 – Confrontare teorie, modelli o approcci diversi
​
Spesso ci si trova davanti a teorie simili ma non identiche, o a modelli che propongono
soluzioni opposte allo stesso problema. Capire le differenze e le somiglianze tra queste idee
è ciò che permette di ragionare in modo critico, anziché limitarsi a memorizzare nozioni.
Perplexity può essere uno strumento molto utile in questo processo, perché non si limita a
spiegare ogni concetto separatamente, ma è in grado di metterli direttamente a
179
confronto.​
​
L’utente può scrivere:
“Qual è la differenza tra capitalismo e socialismo?”​
“Confronta approccio agile e approccio a cascata nella gestione dei progetti.”
Il sistema recupera contenuti da fonti affidabili e costruisce una risposta comparativa, che
include definizioni, principi, vantaggi e svantaggi di ciascun approccio.​
​
Ma non solo: Perplexity può anche contestualizzare i modelli, spiegando in quali casi si
applicano meglio, quali risultati producono e perché alcuni sono preferiti in certi ambiti
rispetto ad altri.
Questo tipo di confronto è particolarmente utile per chi:
●​ studia per esami teorici (es. filosofia, economia, diritto),
●​ lavora in ambito tecnico e deve scegliere tra soluzioni diverse,
●​ scrive articoli, relazioni o contenuti informativi.​
10.3.2 – Evidenziare somiglianze e differenze in modo chiaro
Confrontare non significa solo mettere due concetti fianco a fianco, ma far emergere ciò che
li accomuna e ciò che li distingue.​
​
Spesso, nei libri o nelle ricerche online, queste differenze non sono subito evidenti, perché
ogni fonte tratta un solo modello o un solo punto di vista.
Perplexity, invece, è in grado di sintetizzare le differenze e le somiglianze in modo molto
chiaro, spesso attraverso:
●​ testi ordinati in paragrafi paralleli,
●​ tabelle comparative,
●​ elenchi con punti a confronto (ad esempio: “punto in comune”, “differenza principale”,
“uso tipico”).
180
Questa modalità aiuta chi ha una mente visiva o analitica, ma anche chi ha poco tempo e
vuole farsi una panoramica rapida ma solida.
Un esempio concreto. ​
​
Supponiamo di voler confrontare il modello educativo tradizionale con quello della flipped
classroom. ​
​
Perplexity può fornire un confronto del tipo:​
​
Aspetto
Educazione
Flipped classroom
tradizionale
Luogo della
In aula
A casa (video/lettura)
Attività in classe
Ascolto passivo
Esercizi attivi/discussioni
Ruolo dell’insegnante
Fonte di conoscenza
Facilitatore dell’apprendimento
spiegazione
​
​
​
In questo modo, il confronto diventa visibile, comprensibile e spendibile, per un esame,
una presentazione o una scelta pratica.
10.3.3 – Sostenere tesi e opinioni con basi argomentate
Confrontare due concetti è anche il punto di partenza per prendere posizione, cioè per dire
quale sia più efficace, più adatto o più rilevante in un certo contesto.​
​
Ma per farlo bene, bisogna argomentare con fatti, dati e ragionamenti coerenti.
Perplexity può aiutare in questa fase, fornendo spunti di riflessione e basi logiche per
sostenere un’opinione.​
181
​
Ad esempio, se si scrive:
“Quale modello economico funziona meglio in tempi di crisi: keynesismo o
monetarismo?”
Perplexity non darà una risposta secca, ma proporrà punti a favore e contro di ciascuna
teoria, illustrando:
●​ su quali dati si basano,
●​ cosa è successo nella storia quando sono stati applicati,
●​ quali sono i limiti riconosciuti da esperti o critici.​
Questa modalità di risposta aiuta a:
●​ scrivere saggi ben strutturati,
●​ preparare presentazioni persuasive,
●​ partecipare a dibattiti con idee chiare e ben fondate.​
Inoltre, ogni parte della risposta è collegata a fonti verificabili, che l’utente può leggere per
approfondire o citare nei propri lavori.​
Questo rafforza l’argomentazione e rende il ragionamento più credibile e completo.
In sintesi, Perplexity non solo spiega e confronta, ma offre anche gli strumenti per valutare
criticamente e decidere in modo consapevole.
​
​
​
10.4 – Domande mirate e risposte documentate
10.4.1 – Formulare richieste specifiche per ottenere risposte precise
Quando si usa Perplexity per cercare informazioni, è importante capire che la qualità della
risposta dipende molto da come viene posta la domanda. ​
182
​
Una domanda troppo generica, come ad esempio “Parlami del cambiamento climatico”,
può portare a una risposta molto ampia, magari interessante, ma non sempre utile per
quello che vogliamo sapere davvero. ​
​
Invece, se chiediamo “Quali sono gli effetti del cambiamento climatico sulla produzione
agricola in Italia negli ultimi cinque anni?”, stiamo già dando al sistema un’indicazione più
chiara: vogliamo dati recenti, riferiti a un contesto geografico preciso, su un argomento
specifico.
Perplexity funziona meglio quando capisce esattamente cosa stiamo cercando. ​
​
Se nella domanda aggiungiamo un dettaglio in più – come un intervallo temporale, una zona
geografica, o uno scopo preciso – stiamo aiutando il sistema a restringere il campo, evitando
che ci restituisca informazioni troppo generiche. ​
​
Questo non significa usare termini complicati, ma semplicemente chiarire l’obiettivo della
nostra richiesta. In fondo, è lo stesso principio che useremmo se dovessimo fare una
domanda a una persona: più siamo chiari, più sarà facile ricevere una risposta utile.
Con un po’ di pratica, ci si accorge che anche piccole modifiche alla domanda possono fare
una grande differenza. ​
​
Chiedere “Quali sono le fonti di energia più usate?” è diverso da “Qual è la percentuale di
energia solare prodotta in Europa nel 2023?”. ​
​
La prima è molto ampia, la seconda è più mirata. Più riusciamo a porre domande mirate, più
Perplexity può restituirci contenuti precisi, utili e spesso accompagnati da numeri e dati
concreti.
10.4.2 – Ottenere risposte basate su fonti verificabili
Un aspetto che rende Perplexity particolarmente utile è la possibilità di ricevere risposte
basate su fonti reali. ​
​
Questo significa che il testo che ci viene presentato non è solo una frase generata a caso,
183
ma è una sintesi costruita a partire da articoli, documenti, siti ufficiali e pubblicazioni
che il sistema trova in tempo reale sul web. ​
​
Accanto a ogni risposta, infatti, Perplexity mostra i link alle fonti da cui ha preso le
informazioni. Questo è molto importante, perché ci permette di sapere da dove arriva ciò che
stiamo leggendo.
Molti strumenti di intelligenza artificiale generano testi fluidi e convincenti, ma non sempre
dicono cose vere. ​
​
Invece, Perplexity cerca attivamente le informazioni nel momento stesso in cui riceve la
domanda, e costruisce la risposta basandosi solo su ciò che trova scritto da fonti attendibili. ​
​
Non inventa i fatti: li riassume e li collega tra loro. E, soprattutto, ci permette di
controllare in ogni momento quali sono le pagine da cui ha preso i dati.
Questo tipo di funzionamento è molto utile per chi deve lavorare con informazioni corrette,
come studenti, insegnanti, giornalisti o professionisti. ​
​
Ma è utile anche nella vita quotidiana, quando vogliamo essere sicuri che ciò che
leggiamo sia davvero affidabile. Sapere che si può cliccare su una fonte, leggerla
direttamente e verificare che sia seria e aggiornata, aiuta a usare Internet in modo più sicuro
e consapevole.
10.4.3 – Consultare direttamente i documenti originali citati
Leggere direttamente le fonti citate da Perplexity è una delle migliori abitudini che si
possano sviluppare, soprattutto se si sta cercando di approfondire un argomento. ​
​
La risposta che Perplexity ci offre è già molto utile, ma resta una sintesi. ​
​
Se vogliamo davvero capire un tema nel dettaglio, è sempre una buona idea andare a
leggere i documenti originali. Spesso, dentro quegli articoli o quelle pagine, troviamo tabelle,
esempi, grafici o spiegazioni più complete che nel riassunto non ci stanno.
Consultare la fonte originale ci aiuta anche a giudicare la qualità delle informazioni.
Possiamo capire se l’articolo è recente, se l’autore è un esperto, se i dati sono aggiornati. ​
184
​
Tutti elementi che ci permettono di essere più critici e di non prendere tutto per buono solo
perché lo dice un’intelligenza artificiale. Anzi, proprio perché il sistema ce lo permette,
dovremmo sfruttare questa possibilità per diventare lettori più attenti e selettivi.
Chi scrive una tesina, un articolo, un contenuto professionale o un semplice post sui social,
può trarre grande vantaggio da questa modalità di lavoro. ​
​
In un’epoca in cui le notizie false e le semplificazioni sono all’ordine del giorno, avere la
possibilità di risalire al documento originale è un modo concreto per usare meglio il web
e rafforzare la propria autonomia nel cercare, capire e comunicare le informazioni.
​
10.5 – Approfondimenti accademici e tecnici
10.5.1 – Cercare articoli scientifici, saggi o pubblicazioni aggiornate
Per chi studia, fa ricerca o lavora in ambito tecnico-scientifico, avere accesso a contenuti
affidabili e aggiornati è essenziale. ​
​
Perplexity è uno strumento particolarmente utile anche in questo contesto, perché non si
limita a rispondere con testi generici: va a cercare contenuti specifici direttamente dalle
fonti accademiche o professionali disponibili sul web.
Molti studenti universitari, ad esempio, hanno bisogno di trovare articoli pubblicati su riviste
scientifiche, saggi accademici, conferenze internazionali o documenti ufficiali di enti di
ricerca. ​
​
Perplexity può aiutare in questo processo: quando gli si chiede un approfondimento su un
tema specialistico, tende a selezionare come fonti proprio questi tipi di contenuti. Non
sempre restituisce il documento completo, ma spesso ne fornisce una sintesi con il link
diretto alla pagina ufficiale, dove è possibile leggere l’intero articolo, scaricare il PDF o
consultare il sommario.
185
Un altro vantaggio è la possibilità di cercare contenuti aggiornati, senza doversi affidare a
ricerche manuali lunghe o dispersive. ​
​
Perplexity mostra già nella sua risposta la data di pubblicazione della fonte. Questo permette
di capire subito se un’informazione è ancora valida o se fa riferimento a una realtà superata.
In ambito scientifico e tecnico, dove le conoscenze evolvono rapidamente, l’aggiornamento
è cruciale. ​
​
Perplexity, grazie alla sua capacità di navigare nel web in tempo reale, può offrire una
panoramica aggiornata su temi che cambiano spesso, come ad esempio le normative
europee, le tecnologie emergenti o i risultati di nuove ricerche.
10.5.2 – Leggere e interpretare contenuti avanzati in modo guidato
Molte volte, chi si avvicina a un contenuto accademico o tecnico incontra difficoltà. I testi
scientifici sono spesso scritti in modo complesso, con termini specialistici e strutture
linguistiche poco accessibili. ​
​
Qui entra in gioco un altro punto di forza di Perplexity: la capacità di semplificare,
spiegare e guidare la lettura di contenuti avanzati.
Quando si inserisce una domanda su un tema tecnico – ad esempio nel campo della
biologia, dell’ingegneria o del diritto – Perplexity non si limita a riportare il testo specialistico. ​
​
Spesso lo riformula in modo comprensibile, mantenendo i concetti principali ma adattando il
linguaggio. In questo modo, anche chi non è esperto può iniziare a farsi un’idea chiara
dell’argomento.
Inoltre, è possibile chiedere al sistema di spiegare concetti difficili passo per passo. ​
​
Se in una risposta compare un termine complesso o un riferimento tecnico che non si
conosce, basta porre una nuova domanda del tipo: “Cosa significa esattamente questo
termine?” oppure “Me lo puoi spiegare con un esempio semplice?”. ​
​
Perplexity, pur basandosi su fonti autorevoli, riesce ad adattare il livello della spiegazione in
base alla richiesta dell’utente.
186
Questa possibilità di interazione progressiva è molto utile per imparare in autonomia, senza
rinunciare alla precisione. ​
​
In pratica, si può usare Perplexity come se fosse un tutor digitale: parte da contenuti
avanzati e li rende accessibili, mantenendo la correttezza scientifica.
10.5.3 – Collegare concetti accademici alla pratica professionale
Un’altra funzione molto utile di Perplexity è la sua capacità di mettere in relazione teoria e
pratica. Molti contenuti accademici, pur essendo interessanti, sembrano distanti dal mondo
reale. ​
​
Ma quando si chiede a Perplexity di spiegare come un concetto teorico si applica in un
contesto lavorativo, il sistema è in grado di costruire un ponte tra ciò che si studia e ciò
che si fa nella realtà.
Ad esempio, se uno studente di economia sta studiando il concetto di “inflazione strutturale”
e vuole capire come questo incide sulle scelte aziendali, può chiedere a Perplexity di
illustrargli degli esempi pratici. ​
​
Il sistema, recuperando contenuti da articoli economici e analisi di mercato, riesce a
collegare il termine alla gestione dei prezzi, agli stipendi o alla pianificazione strategica.
Lo stesso vale per concetti ingegneristici, giuridici, pedagogici, medici o legati alle scienze
sociali. Perplexity aiuta a vedere come la conoscenza teorica viene utilizzata nella
realtà: nei progetti, nelle decisioni, nei processi aziendali o nei casi concreti.
Questo tipo di approccio è utile non solo per chi studia, ma anche per chi lavora e ha
bisogno di aggiornarsi su un tema specifico. Ad esempio, un insegnante può chiedere come
viene applicata una certa teoria dell’apprendimento nelle scuole italiane, oppure un
consulente può informarsi su come le imprese stanno adottando una nuova norma europea.
In questo senso, Perplexity diventa uno strumento che traduce la conoscenza in azione,
aiutando a integrare ciò che si apprende con ciò che si fa.
187
​
10.6 – Apprendimento per obiettivi e livelli
10.6.1 – Impostare obiettivi di studio chiari e raggiungibili
Quando si utilizza Perplexity per apprendere qualcosa di nuovo, è importante non iniziare
in modo casuale. ​
​
Uno degli errori più comuni nello studio autonomo è cercare tutto e subito, senza una
direzione precisa. Invece, stabilire obiettivi chiari e realistici aiuta a usare meglio lo
strumento e a evitare dispersione.
Un obiettivo ben definito non è semplicemente “studiare l’intelligenza artificiale”, ma piuttosto
“capire le differenze tra IA simbolica e neurale entro oggi” oppure “imparare le basi del
linguaggio Python in una settimana”. ​
​
Questi obiettivi hanno un tema preciso, un limite di tempo e una misura concreta del
progresso.
Perplexity, in questo contesto, si comporta come un assistente di ricerca altamente
flessibile. Se gli dici cosa vuoi raggiungere, ti aiuta a trovare risorse e spiegazioni mirate.
Ma se sei vago, tenderà a darti panoramiche troppo generiche.
Formulare un obiettivo ben strutturato ti aiuta anche a fare domande più intelligenti e mirate. ​
​
Puoi chiedere, ad esempio: “Quali sono i concetti fondamentali da studiare per comprendere
la crittografia?” oppure “Mi puoi indicare un ordine di studio per iniziare con la statistica da
zero?”. ​
​
Così facendo ottieni contenuti utili e impari ad organizzare le informazioni in base allo
scopo che ti sei dato.
10.6.2 – Suddividere il percorso di apprendimento per tappe
​
Il cervello apprende meglio quando le informazioni vengono assimilate poco per volta, in
188
modo graduale. Per questo motivo è utile dividere il percorso di studio in passaggi
semplici e progressivi.
Perplexity può aiutarti in questa organizzazione. Se chiedi: “Quali sono i passaggi
fondamentali per imparare a programmare in Java da principiante?”, otterrai un elenco di
concetti ordinati, spesso con collegamenti a guide passo passo, corsi online o spiegazioni
introduttive.
A quel punto, puoi usare ogni passaggio come un mini-obiettivo. ​
​
Ad esempio, oggi studi le variabili e i tipi di dato, domani le strutture condizionali,
dopodomani le funzioni. Ogni tappa diventa più semplice da affrontare, perché sai qual è il
passo successivo.
Questa logica è simile a quella dei corsi ben progettati: non ti danno tutto insieme, ma
costruiscono la conoscenza strato dopo strato, come una scala. ​
​
Con Perplexity puoi replicare questo metodo anche se stai imparando da autodidatta,
semplicemente chiedendo: “Puoi propormi un percorso di apprendimento progressivo su
questo argomento?” e poi affrontandolo con calma.
10.6.3 – Monitorare i progressi con verifiche e revisioni
Molto spesso, si ha la sensazione di conoscere un argomento, ma poi, al momento di
spiegarlo o applicarlo, emergono le lacune. Per questo è importante fare revisioni e testare
ciò che si è appreso.
Con Perplexity è possibile costruire anche questa parte del percorso. Puoi chiedere al
sistema di farti delle domande sull’argomento appena studiato. ​
​
Ad esempio, dopo aver letto una spiegazione sulla fotosintesi, puoi scrivere: “Fammi cinque
domande a scelta multipla per verificare se ho capito il funzionamento della fotosintesi”.
In alternativa, puoi provare tu stesso a spiegare un concetto a parole tue e chiedere a
Perplexity un feedback. Scrivi ciò che hai capito, poi domandi: “Questa spiegazione è
corretta?” oppure “Come potrei migliorarla?”. ​
​
In questo modo, il sistema diventa un alleato nel processo di autovalutazione.
189
Rivedere gli argomenti studiati a distanza di qualche giorno è altrettanto utile. Puoi
domandare: “Fammi un riassunto dei concetti chiave che ho studiato sulla teoria
dell’evoluzione” oppure “Ricordameli in forma schematica”. ​
​
Questo ti aiuta a fissare meglio le nozioni e a notare se qualcosa ti è sfuggito.
Monitorare i propri progressi non serve solo a misurare quanto si sa, ma anche a rafforzare
l’apprendimento e ad acquisire fiducia nel proprio metodo di studio.
10.7 – Personalizzazione del processo di studio
10.7.1 – Adattare i contenuti alle preferenze di apprendimento individuali
Alcune persone capiscono meglio leggendo testi scritti, altre hanno bisogno di esempi pratici
o di visualizzare schemi. ​
​
C’è chi preferisce spiegazioni sintetiche e chi invece ha bisogno di approfondimenti
dettagliati. Perplexity, grazie alla sua flessibilità, si adatta facilmente a questi stili diversi.
L’utente può guidare la risposta specificando il tipo di linguaggio o di formato
desiderato. ​
​
Ad esempio, si può chiedere: “Spiegami la fotosintesi in modo semplice, come se fossi un
ragazzo delle medie” oppure “Raccontami il ciclo dell’acqua usando un esempio pratico”. ​
​
È possibile anche chiedere versioni più schematiche, come: “Mi puoi riassumere i concetti
chiave in tre paragrafi brevi?” o “Creami un confronto tra due teorie in forma tabellare”.
Questa capacità di adattamento rende Perplexity un valido alleato per costruire
un’esperienza di studio su misura, basata sulle reali preferenze dell’utente. Significa che
non bisogna per forza seguire un metodo rigido: si può modellare il percorso in base a ciò
che funziona meglio per sé.
190
10.7.2 – Scegliere stile, linguaggio e profondità delle spiegazioni
Uno degli aspetti più utili nell’uso di Perplexity per lo studio è la possibilità di controllare il
tono e il livello di difficoltà delle spiegazioni. ​
​
Quando si studia un argomento nuovo, si può iniziare chiedendo una versione semplificata e
poi, una volta acquisita familiarità, richiedere una spiegazione più tecnica o approfondita.
Questo approccio graduale favorisce l’apprendimento perché evita il senso di frustrazione
che si prova di fronte a testi troppo complicati. ​
​
Ad esempio, si può chiedere: “Mi spieghi la teoria della relatività in parole semplici?” e poi
continuare con: “Ora approfondisci la parte sul tempo relativo con un esempio numerico”.
Inoltre, Perplexity permette di specificare il registro linguistico. ​
​
Se stai studiando in un contesto accademico, puoi richiedere: “Dammi una spiegazione
formale in stile universitario”. Se, al contrario, stai preparando una presentazione per un
pubblico generico, puoi dire: “Scrivimi una spiegazione chiara, adatta a un pubblico non
tecnico”.
Questa libertà di scelta contribuisce a trasformare lo studio in un’esperienza dinamica e
modulabile, in cui si ha il controllo su come si apprendono i concetti.
10.7.3 – Costruire un piano di studio flessibile e su misura
Oltre a spiegare concetti e a fornire informazioni, Perplexity può anche aiutare a strutturare
un vero e proprio piano di studio personalizzato. ​
​
Basta spiegare qual è l’obiettivo e in quanto tempo si vuole raggiungerlo. ​
​
Ad esempio, si può scrivere: “Devo imparare le basi della chimica in un mese, mi aiuti a
creare un piano settimanale con argomenti progressivi?”. Il sistema genererà un calendario
con tappe logiche, indicando quali argomenti affrontare e in che ordine.
191
Questo tipo di supporto è utile soprattutto per chi studia da autodidatta o ha difficoltà a
organizzare il proprio tempo. Si può chiedere di includere momenti di revisione, sessioni di
ripasso o pause tra argomenti complessi. ​
​
E se il piano iniziale non funziona, si può modificarlo con facilità, adattandolo a un nuovo
ritmo o a esigenze diverse.
Un buon piano di studio non deve essere rigido. Deve lasciare spazio alla revisione, alla
sperimentazione e, se serve, anche al rallentamento. ​
​
Perplexity, in questo senso, non impone un metodo, ma aiuta a costruirne uno
personalizzato. ​
​
Chi riesce a farlo diventare un’abitudine scopre che la costanza nello studio non dipende
dalla motivazione, ma da un’organizzazione realistica, flessibile e adatta al proprio stile.
​
11. Ricerca avanzata, sintesi di informazioni,
fact-checking
11.1 – Tecniche di ricerca efficace su Perplexity
11.1.1 – Formulare domande precise e orientate al contesto
Per ottenere il massimo da Perplexity è fondamentale sapere come fare una domanda
ben costruita. ​
192
​
Questo significa evitare richieste troppo generiche e cercare invece di essere il più possibile
chiari su ciò che si vuole sapere. Una domanda come “Parlami dell’energia” può restituire
una risposta vaga e molto ampia. ​
​
Ma se chiediamo “Quali sono i principali vantaggi dell’energia solare rispetto ai combustibili
fossili in Italia?” stiamo già indicando un tema preciso, un confronto e un contesto
geografico.
Il sistema, infatti, non interpreta l’intento come farebbe un essere umano. Lavora su ciò che
gli viene scritto, quindi se la richiesta è confusa, il risultato rischia di esserlo altrettanto.​
​
Formulare una domanda corretta è il primo passo per una ricerca efficace. ​
​
Anche chi non ha competenze tecniche può migliorare notevolmente i risultati
semplicemente essendo più diretto, concreto e dettagliato nella formulazione della richiesta.
11.1.2 – Utilizzare parole chiave mirate e limiti temporali o geografici
Uno degli aspetti meno considerati, ma più importanti, nella ricerca è l’uso consapevole
delle parole chiave. ​
​
Perplexity è molto sensibile a termini specifici. Inserire una parola invece di un’altra può
cambiare completamente l’orientamento della risposta. Per questo è utile identificare i
concetti chiave della propria domanda e inserirli nel modo più naturale possibile.
Inoltre, aggiungere un riferimento temporale o geografico aiuta il sistema a restringere il
campo. ​
​
Se stai cercando informazioni attuali, puoi specificarlo nella domanda: ad esempio, “nel
2023” o “negli ultimi cinque anni”. Lo stesso vale per luoghi: scrivere “in Europa”, “in Italia” o
“negli Stati Uniti” indirizza Perplexity verso fonti localizzate.
Questi piccoli accorgimenti fanno una grande differenza. Aiutano il sistema a capire di cosa
parli, dove e quando, evitando che ti restituisca contenuti troppo generali o fuori contesto.
193
11.1.3 – Migliorare la qualità delle risposte tramite richieste iterative
Un aspetto spesso sottovalutato è che la ricerca non si esaurisce con una singola domanda. ​
​
Perplexity diventa davvero utile quando viene utilizzato in modo interattivo e
progressivo.​
​
Dopo aver ottenuto una prima risposta, è molto efficace porre una seconda domanda più
specifica, oppure chiedere chiarimenti su un punto che non è stato spiegato in modo
completo.
Questo approccio si chiama “ricerca iterativa”: significa che si procede a piccoli passi,
seguendo la direzione delle risposte ricevute. ​
​
Per esempio, dopo aver chiesto “Quali sono le principali fonti di energia rinnovabile?”, si può
proseguire con “Qual è l’impatto ambientale dell’energia eolica rispetto al solare?” oppure
“Quali incentivi sono attivi oggi in Italia per installare pannelli fotovoltaici?”.
Ogni nuova domanda può affinare la comprensione del tema e permettere di scendere in
profondità, mantenendo però un controllo totale sul percorso di ricerca. ​
​
È proprio questo dialogo progressivo a trasformare Perplexity da semplice motore di risposta
a strumento per l’apprendimento guidato e consapevole.
​
11.2 – Riassunti di articoli e paper
11.2.1 – Estrarre i punti chiave da testi complessi
Uno degli usi più utili di Perplexity è la capacità di sintetizzare testi lunghi, come articoli di
giornale, paper scientifici o documenti tecnici. ​
194
​
Spesso questi testi sono ricchi di dettagli, ma non sempre facili da comprendere al primo
colpo, soprattutto per chi non è esperto della materia. ​
​
Perplexity può aiutare ad estrarre i concetti principali, riducendo la quantità di informazioni
da leggere, senza perdere il senso generale del contenuto.
Quando si incolla un testo complesso o si chiede un riassunto di un link, Perplexity legge il
contenuto e ne costruisce una sintesi che evidenzia ciò che è davvero importante. ​
​
Questo include solitamente lo scopo del testo, i dati rilevanti, le conclusioni e – nel caso dei
paper – anche la metodologia e i risultati principali. Il vantaggio è duplice: si risparmia tempo
e si ha subito una panoramica utile per decidere se approfondire o meno il testo originale.
La qualità del riassunto dipende però anche da come viene posta la richiesta. È utile
specificare se si desidera un riassunto breve, dettagliato o focalizzato su un certo aspetto. ​
​
Ad esempio, si può chiedere: “Riassumi questo articolo e concentrati solo sulle conclusioni”
oppure “Fammi un riassunto in massimo 10 righe”. In questo modo, si ottiene una sintesi più
adatta al proprio scopo.
11.2.2 – Ottenere sintesi fedeli senza perdere contenuti importanti
Una delle difficoltà più comuni nel riassumere un testo è non trascurare elementi
importanti, soprattutto se ci sono numeri, riferimenti precisi o passaggi argomentativi
complessi. ​
​
Perplexity, se guidato correttamente, riesce a conservare l’equilibrio tra sintesi e
accuratezza, riportando le informazioni fondamentali in modo fedele.
Questa abilità è particolarmente utile quando si lavora con contenuti scientifici o specialistici. ​
​
I paper, ad esempio, hanno una struttura molto rigida e densa: introduzione, obiettivi,
metodo, risultati, discussione, conclusioni. Riassumerli in modo superficiale rischia di far
perdere il valore del testo. ​
​
Perplexity, invece, riesce a mantenere la sequenza logica e a mettere in evidenza i
195
passaggi centrali, restituendo un testo leggibile anche da chi non ha familiarità con il gergo
tecnico.
Va detto che il riassunto non è mai una sostituzione del testo originale. È una guida alla
comprensione. Per questo è importante, in caso di dubbi, tornare alla fonte completa per
verificare tabelle, grafici, dati numerici o note metodologiche. ​
​
Ma grazie a Perplexity, si può arrivare al documento con già una buona comprensione del
suo contenuto, e questo rende la lettura successiva molto più efficace.
11.2.3 – Adattare la lunghezza e il linguaggio del riassunto all’obiettivo
Non esiste un solo modo di riassumere. ​
​
A seconda del contesto, può servire un riassunto molto breve per una presentazione, uno
più esteso per uno studio personale, o uno semplificato per spiegare l’argomento a chi non
ha competenze specifiche. ​
​
Perplexity permette di personalizzare la forma e la complessità del riassunto,
rendendolo più utile per lo scopo che si ha in mente.
Ad esempio, se si sta preparando una slide per una riunione, può bastare un paragrafo
conciso con i tre punti principali. ​
​
Se invece si sta scrivendo una relazione, è meglio chiedere un riassunto più approfondito,
anche diviso in sezioni. Per chi lavora in ambito educativo o con studenti, è possibile anche
richiedere un riassunto in linguaggio semplice, chiedendo esplicitamente: “Fammi un
riassunto comprensibile da uno studente delle superiori”.
Questo livello di adattamento rende Perplexity uno strumento molto più flessibile rispetto
a una semplice funzione automatica. ​
​
È come avere un assistente che modella la sintesi in base a chi deve leggerla. E questo
è estremamente utile per non sprecare tempo e per comunicare in modo più chiaro, efficace
e adatto al pubblico.
196
​
​
11.3 – Valutazione di attendibilità delle fonti
11.3.1 – Riconoscere fonti autorevoli e verificabili
Quando si cerca un’informazione online, non basta leggerla per considerarla vera. ​
​
È fondamentale capire da dove arriva e quanto è affidabile. Questo vale a maggior ragione
quando si usa uno strumento come Perplexity, che costruisce le risposte sulla base di ciò
che trova sul web. La qualità della fonte influenza direttamente la qualità della risposta.
Una fonte è considerata autorevole quando è riconosciuta nel suo ambito, pubblica contenuti
accurati e firmati, e ha una reputazione consolidata. ​
​
Ad esempio, università, enti governativi, testate giornalistiche storiche e riviste
scientifiche sono generalmente considerate affidabili. Lo stesso vale per siti ufficiali di
organizzazioni internazionali o database accademici.
Perplexity tende a privilegiare questo tipo di fonti, ma spetta all’utente controllare
sempre chi ha scritto il contenuto e dove è stato pubblicato. Anche una risposta ben scritta
può basarsi su una pagina non attendibile. ​
​
Ecco perché è buona norma cliccare sui link proposti, osservare il sito da cui provengono e
capire se si tratta di un contenuto verificabile o di un’opinione personale.
11.3.2 – Analizzare chi è l’autore, dove pubblica e con quale intento
Non basta che una fonte appaia “seria” a prima vista. Serve anche capire chi c’è dietro il
contenuto. ​
​
L’autore ha competenze specifiche? È riconosciuto nel settore? Scrive per un pubblico
generalista o tecnico? Conoscere queste informazioni aiuta a valutare quanto ci si possa
fidare di ciò che dice.
197
È utile osservare se l’articolo è firmato, se riporta una biografia dell’autore o un riferimento a
un’istituzione. ​
​
Quando una persona scrive a nome di un’università, un ente di ricerca o una redazione nota,
è probabile che i contenuti siano passati da una revisione. ​
​
Se invece il contenuto è anonimo, ospitato su un blog sconosciuto o pieno di pubblicità
invadente, la sua attendibilità diminuisce.
Un altro aspetto importante è capire l’intento con cui il contenuto è stato scritto. ​
​
Alcuni articoli vogliono informare in modo oggettivo, altri vogliono convincere, vendere o
influenzare l’opinione del lettore. ​
​
Quando si riconosce lo scopo comunicativo di un testo, è più facile leggere con spirito critico
e non farsi ingannare da frasi ben costruite ma prive di basi solide.
11.3.3 – Individuare segnali di bassa affidabilità o manipolazione
Anche senza essere esperti, ci sono alcuni segnali che possono farci capire se una fonte
non è affidabile.​
​
Ad esempio, un linguaggio eccessivamente sensazionalistico, titoli urlati, affermazioni
assolute senza prove, oppure la totale assenza di fonti esterne o citazioni. Tutto questo
dovrebbe far scattare un campanello d’allarme.
Un altro segnale è l’uso distorto delle immagini, soprattutto nei siti che trattano argomenti
controversi. Se le foto non sono contestualizzate o sembrano drammatiche senza
spiegazioni, è bene verificare da dove sono state prese e se rappresentano davvero ciò che
il testo descrive. ​
​
Allo stesso modo, l’assenza di date, la mancanza di riferimenti precisi o l’impossibilità di
risalire alla fonte originaria sono elementi che riducono la credibilità di una pagina.
Nel contesto della ricerca online, fidarsi ciecamente di quello che si legge è sempre un
rischio. ​
​
198
Perplexity fornisce un grande vantaggio, perché mostra le fonti e consente all’utente di
verificarle facilmente. Ma questo vantaggio va usato con attenzione. ​
​
Consultare il sito, controllare chi lo gestisce, capire se i contenuti sono aggiornati e fondati
su dati reali è una pratica indispensabile per chiunque voglia informarsi in modo serio.
​
11.4 – Sintesi comparativa tra più fonti
11.4.1 – Confrontare opinioni, dati o posizioni diverse
Uno degli aspetti più utili di Perplexity è la possibilità di mettere a confronto punti di vista
diversi sullo stesso argomento. ​
​
Questo è fondamentale quando si cerca di approfondire temi complessi o controversi, dove
non esiste una sola verità, ma più interpretazioni possibili. ​
​
In questi casi, avere accesso a una sola fonte non basta: è importante capire come cambia
l’informazione da una fonte all’altra.
Perplexity aiuta in questo compito perché può sintetizzare contenuti provenienti da più siti,
autori o istituzioni, permettendo all’utente di vedere somiglianze e differenze in modo
chiaro. ​
​
Ad esempio, se chiedi informazioni sulle cause del cambiamento climatico, Perplexity può
citare documenti scientifici, posizioni politiche, report internazionali e articoli giornalistici,
offrendo una panoramica ampia e articolata.
Questa capacità di confronto consente di riconoscere sfumature tra fonti che dicono cose
simili, ma non identiche. ​
​
Aiuta anche a capire quando un contenuto è più oggettivo e quando, invece, è influenzato
199
da un punto di vista specifico. Saper distinguere tra fatti, opinioni ed evidenze è una delle
abilità più importanti oggi per chi si informa online.
11.4.2 – Identificare somiglianze, differenze e contraddizioni
Confrontare le fonti non significa solo leggerle una dopo l’altra. Significa anche saper
individuare in che cosa concordano, in che cosa si differenziano e se ci sono punti in
evidente contraddizione. ​
​
Questa è una fase importante perché aiuta a costruire una visione critica, evitando di
accettare un contenuto come “vero” solo perché ben scritto o ben presentato.
Ad esempio, se due fonti danno dati diversi sulla disoccupazione in un paese, la prima cosa
da chiedersi è: si riferiscono allo stesso periodo? Usano lo stesso metodo di calcolo? Sono
aggiornate allo stesso anno? ​
​
Spesso le differenze dipendono da dettagli tecnici che vanno riconosciuti. Perplexity può
essere usato per chiarire queste discrepanze, chiedendo: “Perché i dati sul tasso di
disoccupazione differiscono tra il sito X e il rapporto dell’ISTAT?”
Allo stesso modo, quando le fonti riportano opinioni divergenti, è utile indagare chi le
sostiene e quali interessi possono esserci dietro. ​
​
Non si tratta di scegliere chi ha ragione, ma di comprendere il quadro completo. La vera
ricchezza dell’informazione sta proprio nella possibilità di ascoltare più voci e poi farsi
un’idea fondata e personale.
11.4.3 – Costruire una visione equilibrata a partire da fonti diverse
Quando si raccolgono informazioni da fonti differenti, l’obiettivo finale dovrebbe essere
quello di ricostruire una sintesi equilibrata, che tenga conto della varietà dei punti di vista
senza cadere né nella semplificazione né nella confusione. ​
​
Questo tipo di sintesi è ciò che fa la differenza tra un’informazione passiva e una
comprensione attiva.
200
Perplexity può essere molto efficace in questo compito se guidato bene.​
​
È possibile chiedere: “Fammi un confronto tra le opinioni favorevoli e contrarie alla legge X”,
oppure: “Quali sono i pro e contro della tecnologia Y secondo fonti scientifiche e industriali?”. ​
​
Il sistema, attingendo a documenti diversi, costruisce una risposta articolata, che evidenzia
entrambe le posizioni e consente di valutarle senza distorsioni.
Questa pratica ha un valore enorme, soprattutto in contesti educativi, professionali o
giornalistici. ​
​
Aiuta a evitare i bias cognitivi, cioè la tendenza a cercare solo conferme alle proprie idee. E
abitua la mente a tenere insieme complessità e coerenza, due qualità indispensabili per
orientarsi in un mondo ricco di informazioni, ma povero di chiarezza.
​
​
11.5 – Fact-checking automatizzato
11.5.1 – Verificare affermazioni con fonti primarie e secondarie
Il fact-checking, cioè la verifica della veridicità di un’informazione, è diventato oggi una
competenza fondamentale. ​
​
Ogni giorno siamo esposti a notizie, affermazioni e dati che circolano online e spesso non
sappiamo se siano corretti oppure no. Perplexity, grazie alla sua capacità di accedere al web
in tempo reale, può essere un valido alleato in questa attività.
Quando riceviamo un’informazione e vogliamo verificarla, possiamo chiedere a Perplexity di
trovare fonti primarie, cioè documenti ufficiali, leggi, statistiche o report pubblici, oppure
fonti secondarie, come articoli giornalistici che ne parlano o la spiegano. ​
​
201
Questo permette di andare oltre la semplice opinione e appoggiarsi a contenuti pubblicati
da enti riconosciuti, come l’ISTAT, l’OMS, l’Unione Europea, riviste scientifiche o agenzie di
stampa attendibili.
Ma la domanda deve essere chiara e orientata al fatto da verificare. Ad esempio, invece di
scrivere “Questa cosa è vera?”, si può chiedere: “Esiste una legge in Italia che obbliga le
aziende a pubblicare il bilancio di sostenibilità?” oppure “Ci sono prove ufficiali che
colleghino i videogiochi alla violenza giovanile?”.​
​
In questo modo, Perplexity andrà a cercare nei documenti più rilevanti e aggiornati,
aiutandoci a distinguere ciò che è dimostrato da ciò che è solo ipotizzato.
11.5.2 – Trovare riscontri in tempo reale con Perplexity
Una delle funzioni più utili di Perplexity è che non si basa solo su una memoria passata,
ma fa una vera e propria ricerca online mentre risponde. ​
​
Questo significa che è in grado di cercare informazioni aggiornate al momento della
richiesta, aspetto cruciale per verificare affermazioni che riguardano eventi recenti, dati in
evoluzione o cambiamenti normativi.
Se leggiamo online che una nuova tassa è stata approvata o che una certa cura è stata
ufficialmente riconosciuta, possiamo usare Perplexity per cercare conferme nei
comunicati stampa ufficiali, nei siti istituzionali o nei principali giornali nazionali e
internazionali. ​
​
Il vantaggio è che, oltre alla risposta sintetica, il sistema fornisce anche i link alle fonti usate,
permettendoci di controllare direttamente da dove provengono le informazioni.
Per usare bene questa funzione è importante formulare la domanda in modo neutro,
evitando giudizi o presupposti. Chiedere “È vero che la Cina ha vietato i social network
occidentali nel 2024?” è più utile che scrivere “Perché la Cina censura tutto?”. ​
​
La prima domanda lascia spazio a una risposta documentata, la seconda parte già da
un’idea preconcetta.
202
11.5.3 – Riconoscere quando una risposta richiede conferme aggiuntive
​
​
A volte le fonti disponibili online sono incomplete, oppure si basano su interpretazioni
diverse dello stesso evento. In questi casi, è importante capire quando la risposta ottenuta
non basta e serve un controllo ulteriore.
Un buon segnale di allerta è quando la risposta è generica, oppure quando Perplexity riporta
fonti molto diverse tra loro senza riuscire a stabilire un consenso chiaro. ​
​
Anche la mancanza di fonti istituzionali o di dati precisi può indicare che l’informazione non è
solida. In queste situazioni, è utile cliccare sui link, leggere le fonti in prima persona e, se
necessario, fare una seconda o terza domanda per ottenere chiarimenti.
Inoltre, il fatto che una risposta sia scritta in modo sicuro e fluido non garantisce che sia
corretta. La forma può trarre in inganno. ​
​
Per questo è importante leggere con attenzione, valutare il tipo di fonti utilizzate e chiedersi
sempre: “Questo contenuto è stato verificato? È aggiornato? Chi lo ha scritto?”.
Il fact-checking automatizzato, con Perplexity, rappresenta un grande passo avanti rispetto
alla ricerca manuale, ma resta una responsabilità condivisa tra lo strumento e l’utente. ​
​
Solo un uso attento, critico e consapevole può trasformare la tecnologia in uno strumento di
verità.
11.6 – Lettura critica e domande strategiche
11.6.1 – Leggere le risposte con spirito analitico
203
Anche quando una risposta di Perplexity è ben scritta e supportata da fonti, è importante
non accettarla in modo passivo. ​
​
Leggere in modo critico significa esaminare il contenuto con attenzione, facendo
domande a sé stessi mentre si legge. Non ci si deve limitare a chiedere “Cosa dice?”, ma
anche “Perché lo dice?”, “Cosa manca?” o “Quali ipotesi dà per scontate?”.
Questo atteggiamento aiuta a notare elementi importanti che altrimenti passerebbero
inosservati. ​
​
Ad esempio, se una risposta sembra troppo sbilanciata da una parte, forse sta trascurando
un punto di vista opposto. Se viene citata una sola fonte, ci si può chiedere se esistano
anche opinioni alternative. ​
​
La lettura analitica è un passaggio fondamentale per evitare il rischio di costruire
un'opinione basata su una visione parziale dei fatti.
Perplexity offre strumenti utili per questo processo, come i riferimenti cliccabili alle fonti e la
possibilità di chiedere spiegazioni su singoli passaggi. Ma è la capacità dell’utente di
analizzare il testo con attenzione che rende davvero efficace l’interazione.
11.6.2 – Porre domande successive per chiarire o approfondire
Una delle funzioni più potenti di Perplexity è la possibilità di continuare la conversazione. ​
​
Dopo aver ricevuto una risposta, è utile fare domande di secondo livello, cioè richieste
che servono a chiarire, specificare o andare più in profondità. Questo tipo di domande aiuta
a capire meglio l’argomento e a riempire eventuali vuoti nella spiegazione iniziale.
Ad esempio, se il sistema ti spiega come funziona un vaccino a mRNA, potresti chiedere: ​
​
“Quali sono i principali vantaggi rispetto ai vaccini tradizionali?” oppure “Ci sono limiti o
controindicazioni specifiche?”. ​
​
Ogni domanda successiva serve a raffinare la comprensione, proprio come accadrebbe
in un dialogo con un insegnante o un esperto.
204
Questo approccio a più passaggi è particolarmente utile per temi complessi, tecnici o
controversi. Aiuta a evitare errori di interpretazione, a chiarire i termini ambigui e a costruire
un percorso di apprendimento solido e personale. ​
​
Chi impara a fare domande strategiche impara anche a pensare meglio.
11.6.3 – Identificare impliciti, limiti e potenziali bias
Ogni testo, anche il più oggettivo, porta con sé delle scelte: cosa includere, cosa lasciare
fuori, quali parole usare. ​
​
In una risposta automatica generata da Perplexity, questi aspetti non sono sempre evidenti,
ma ci sono. Riconoscerli è un’abilità essenziale per sviluppare una comprensione completa
e responsabile.
Gli impliciti sono informazioni date per scontate. ​
​
Ad esempio, un testo può parlare di “sviluppo economico” senza chiarire a quale modello
economico si riferisce, o può usare il termine “progresso” in modo neutro, come se fosse
sempre positivo. ​
​
I limiti, invece, riguardano ciò che non viene detto. Una risposta può essere corretta, ma
comunque incompleta. ​
​
Infine, ci sono i bias, cioè le inclinazioni involontarie del sistema, che possono derivare
dalle fonti usate o dalla formulazione della domanda.
Per accorgersi di questi aspetti serve attenzione. Quando qualcosa suona troppo assoluto,
troppo perfetto o troppo allineato con una sola opinione, può valere la pena di chiedere a
Perplexity un confronto con altri punti di vista o di cercare attivamente ciò che non è stato
incluso nella risposta. ​
​
Allenare questo tipo di lettura critica aiuta a sviluppare un pensiero più indipendente e
informato.​
​
205
​
12. IA per il lavoro: automazione di compiti e
processi
12.1 – Compiti ripetitivi e automazione
12.1.1 – Identificare le attività automatizzabili nel flusso di lavoro
In ogni ambito lavorativo, esistono attività che si ripetono ogni giorno in modo uguale o
molto simile. Sono spesso azioni semplici, che non richiedono decisioni complesse o
creatività, ma che occupano una parte significativa del tempo delle persone. ​
​
Compilare tabelle, inviare email standard, copiare dati da un sistema all’altro, organizzare
file o confermare appuntamenti sono solo alcuni esempi.
La prima fase per introdurre l’intelligenza artificiale in un contesto di lavoro consiste proprio
nell’ individuare queste attività ripetitive. ​
​
Non si tratta di sostituire tutto ciò che fa una persona, ma di capire dove le macchine
possono offrire un supporto concreto, senza interferire con il valore umano del lavoro.
Un’analisi attenta dei propri flussi operativi permette di isolare le azioni che seguono sempre
le stesse regole, che richiedono poco giudizio umano e che vengono eseguite in grandi
volumi. ​
​
Una volta identificate, queste attività diventano le migliori candidate per l’automazione
intelligente, cioè per essere affidate a sistemi in grado di eseguirle al posto nostro, in modo
preciso, rapido e senza fatica.
206
12.1.2 – Ridurre l’errore umano e liberare tempo operativo
Uno dei benefici più immediati dell'automazione tramite intelligenza artificiale è la drastica
riduzione degli errori nelle attività ripetitive. ​
​
Quando un compito viene eseguito manualmente per molte ore al giorno, il rischio di
sbagliare aumenta, anche per le persone più attente. Basta una svista nella digitazione, una
distrazione nel copiare dati o un clic sbagliato per creare problemi che, a volte, richiedono
tempo e risorse per essere corretti.
Un sistema automatizzato, invece, non si stanca e non perde la concentrazione. ​
​
Se correttamente configurato, esegue lo stesso compito con la stessa precisione ogni volta,
anche centinaia di volte al giorno. ​
​
Questo garantisce un risultato più affidabile ed evita le perdite economiche dovute a errori
evitabili.
Ma l’aspetto forse più importante riguarda il tempo. Affidando all’intelligenza artificiale i
compiti a basso valore aggiunto, le persone recuperano tempo ed energia mentale da
dedicare a ciò che richiede davvero competenza, relazione, creatività o decisione.
12.1.3 – Automazione come supporto, non sostituzione
Parlare di automazione spesso genera il timore che le macchine possano sostituire
completamente il lavoro umano. ​
​
In realtà, l’obiettivo dell’automazione intelligente non è rimpiazzare le persone, ma metterle
nelle condizioni di lavorare meglio, con meno stress e maggiore efficienza.
La chiave sta nel considerare l’intelligenza artificiale come un alleato operativo. ​
​
Un buon sistema si inserisce in modo discreto nei processi, svolge i compiti più meccanici in
207
autonomia e lascia alle persone il controllo sulle decisioni, le eccezioni e il contatto con
colleghi o clienti.
Questa visione è già realtà in moltissimi ambiti, dalla logistica alla segreteria,
dall’amministrazione alla vendita. ​
​
Chi comprende il valore dell’automazione come supporto e non come minaccia riesce a
migliorare la qualità del lavoro, aumenta la produttività e crea un ambiente più sostenibile,
dove la tecnologia è al servizio delle persone.
12.2 – Analisi di dati e report automatici
12.2.1 – Raccogliere, filtrare e aggregare dati con l’IA
In ogni attività professionale, i dati sono una risorsa preziosa. ​
​
Vengono raccolti da e-mail, moduli online, CRM, documenti, sondaggi, fogli di calcolo,
sistemi di pagamento, strumenti di monitoraggio… e spesso si accumulano in grandi
quantità senza essere sfruttati. ​
​
Il problema è che gestire tutti questi dati richiede tempo e attenzione, soprattutto quando
bisogna estrarre solo le informazioni utili.
L’intelligenza artificiale può intervenire proprio qui. È in grado di analizzare in tempo
reale grandi volumi di dati, selezionare quelli rilevanti, organizzarli in categorie e
presentare solo ciò che serve. ​
​
Questo processo include attività come il filtraggio dei risultati, la rimozione dei duplicati, la
pulizia dei dati sporchi e la creazione automatica di tabelle o riepiloghi.
Così, le aziende, non devono più perdere tempo a raccogliere dati manualmente o a cercare
informazioni nascoste tra righe di testo o numeri. ​
​
208
L’IA si occupa del lavoro preliminare e restituisce una base chiara da cui partire per analisi,
decisioni o presentazioni. È come avere un assistente invisibile che osserva, ascolta e
prepara ciò che ti serve, prima ancora che tu lo chieda.
12.2.2 – Generare report dinamici e personalizzati
Una volta che i dati sono stati raccolti e ordinati, il passo successivo è riassumerli in modo
leggibile. I report servono per informare, aggiornare o guidare le decisioni. ​
​
Ma scriverli manualmente richiede tempo, soprattutto se devono essere aggiornati
frequentemente o adattati a persone diverse (colleghi, dirigenti, clienti). Qui l’intelligenza
artificiale fa una grande differenza.
Un sistema IA può creare automaticamente report su base giornaliera, settimanale o
mensile, utilizzando modelli predefiniti o generandoli su misura per ogni destinatario. ​
​
Può includere grafici, riepiloghi testuali, confronti rispetto a periodi precedenti e persino
interpretazioni automatiche dei risultati, come “Le vendite sono aumentate del 12% rispetto
alla settimana scorsa”.
Inoltre, questi report possono essere dinamici, cioè aggiornarsi in tempo reale ogni volta
che cambiano i dati. Se un team vuole sapere a che punto è un progetto o se ci sono
anomalie nei costi, può ricevere un report sempre aggiornato, senza doverlo riscrivere ogni
volta. ​
​
Questo permette di prendere decisioni più rapide e informate, con una visione sempre
attuale della situazione.
12.2.3 – Comprendere i dati senza competenze tecniche
Uno degli ostacoli più grandi all’uso dei dati è la barriera tecnica. Spesso solo gli analisti o i
professionisti IT riescono a interpretare tabelle complesse, formule o linguaggi di
programmazione.
Ma l’IA sta cambiando questo scenario. ​
​
209
Oggi, grazie a interfacce intuitive e linguaggio naturale, chiunque può chiedere
all’intelligenza artificiale di spiegare i dati in modo semplice.
Per esempio, un utente può scrivere: “Qual è la tendenza delle vendite degli ultimi tre mesi?”
oppure “Quali sono i prodotti più venduti in Lombardia nel 2023?” e ricevere una risposta
chiara, anche visiva, accompagnata da grafici o da brevi commenti descrittivi. ​
​
Non serve scrivere formule, conoscere SQL o usare Excel in modo avanzato. L’IA traduce il
dato in un’informazione leggibile e utile.
Questo approccio rende i dati finalmente accessibili a chi ne ha più bisogno: manager,
educatori, piccoli imprenditori, collaboratori di ufficio, freelance. ​
​
Non si tratta solo di “guardare numeri”, ma di capire che cosa significano e come
possono aiutare a fare scelte migliori. L’intelligenza artificiale, in questo senso, agisce
come un interprete: prende qualcosa di tecnico e lo rende comprensibile, senza sacrificare
l’accuratezza.
​
​
​
12.3 – Assistenti virtuali per il customer service
12.3.1 – Rispondere alle domande frequenti in tempo reale
Uno dei compiti più comuni nel servizio clienti è rispondere a richieste ricorrenti: orari di
apertura, modalità di reso, stato di una spedizione, costi di spedizione, come cancellare un
ordine. ​
​
Queste domande, anche se semplici, arrivano in grande quantità ogni giorno e occupano
tempo prezioso agli operatori umani.
Gli assistenti virtuali basati su intelligenza artificiale sono stati progettati proprio per gestire
queste interazioni in modo automatico e immediato. ​
​
Funzionano attraverso chatbot o interfacce conversazionali che rispondono in linguaggio
210
naturale, cioè usando frasi simili a quelle che scriverebbe una persona. L’utente scrive
“Come posso cambiare la mia password?” e l’assistente virtuale risponde in pochi secondi
con la procedura corretta.
Il vantaggio principale è che le risposte arrivano subito, 24 ore su 24, anche nei festivi o
fuori orario. Questo migliora l’esperienza del cliente, riduce l’attesa e permette alle aziende
di offrire un servizio sempre attivo senza dover aumentare il personale.
12.3.2 – Gestire grandi volumi di richieste con efficienza
Quando un’azienda riceve molte richieste ogni giorno, diventa difficile rispondere a tutti con
la stessa rapidità. ​
​
Le persone si mettono in coda, gli operatori si sovraccaricano e si creano ritardi. In questi
casi, gli assistenti virtuali si rivelano strumenti fondamentali perché possono gestire decine
o centinaia di conversazioni contemporaneamente, senza mai rallentare o sbagliare per
stanchezza.
Questo tipo di automazione non si limita a fornire risposte standard, ma può anche
riconoscere il tipo di richiesta e indirizzarla verso la soluzione più adatta. ​
​
Ad esempio, se un cliente scrive “Il mio ordine non è ancora arrivato”, il sistema può
controllare lo stato della spedizione e rispondere in modo specifico, oppure chiedere il
numero d’ordine e fornire l’aggiornamento in tempo reale.
Inoltre, l’assistente virtuale può classificare le richieste in base alla priorità. ​
​
Se un caso è urgente, può segnalarlo a un operatore umano; se invece la domanda è
semplice, può gestirla in autonomia. In questo modo, il carico di lavoro viene distribuito
meglio e le persone si concentrano sui casi più delicati o complessi.
12.3.3 – Integrare l’IA con il supporto umano
Nonostante le potenzialità dell’intelligenza artificiale, ci sono situazioni in cui il contatto
umano resta insostituibile.
211
​
Ad esempio, se un cliente è arrabbiato, confuso o ha un problema particolare che richiede
empatia e comprensione, l’assistente virtuale non è in grado di sostituire l’ascolto umano.
Per questo motivo, i sistemi più efficaci oggi sono quelli che combinano l’intelligenza
artificiale con l’intervento delle persone. ​
​
L’IA gestisce le richieste semplici e frequenti, e quando incontra un caso fuori dall’ordinario,
passa la conversazione a un operatore. Questo passaggio può avvenire in modo fluido, così
che il cliente non debba ripetere tutto da capo.
In questo modello integrato, la tecnologia diventa uno strumento che potenzia il lavoro
umano, senza sostituirlo. ​
​
Gli operatori lavorano meglio perché si occupano solo delle richieste che contano davvero, e
i clienti ricevono assistenza più rapida e personalizzata. ​
​
L’obiettivo finale non è risparmiare a tutti i costi, ma costruire un servizio clienti più
efficiente, più accessibile e più umano, anche grazie all’uso intelligente dell’IA.
12.4 – IA per la gestione documentale
12.4.1 – Classificare, etichettare e archiviare file in automatico
Gestire grandi quantità di documenti è una sfida quotidiana per molte organizzazioni.
Contratti, fatture, curriculum, report, moduli… ​
​
Ogni giorno si generano e ricevono file da archiviare. Farlo a mano richiede tempo,
attenzione e una certa organizzazione. ​
​
È facile dimenticare di rinominare un file, metterlo nella cartella sbagliata o perderlo del tutto.
212
L’intelligenza artificiale può semplificare enormemente questo processo. È in grado di
riconoscere il tipo di documento, leggerne il contenuto e decidere automaticamente
dove salvarlo, con quale nome e sotto quale categoria. ​
​
Per esempio, può identificare una fattura anche se non ha un titolo evidente e archiviarla
nella cartella corretta, con il nome del fornitore e la data.
In questo modo si risparmia tempo, si riduce il rischio di errori umani e si costruisce un
archivio ordinato e sempre aggiornato. ​
​
Ogni documento finisce al posto giusto, con il giusto formato e le giuste etichette,
senza intervento manuale.
12.4.2 – Cercare contenuti in grandi archivi testuali
Con il tempo, gli archivi digitali si riempiono di migliaia di file, rendendo difficile trovare ciò
che serve. Anche quando i documenti sono stati salvati con ordine, può diventare complicato
ricordare dove cercare o come era intitolato un file. ​
​
È qui che entra in gioco l’intelligenza artificiale con un’altra funzione utile: la ricerca
semantica avanzata.
Diversamente da una ricerca classica che si basa solo sul nome del file o su parole chiave
esatte, un sistema IA può capire il significato di ciò che cerchi, anche se usi parole
diverse da quelle contenute nel documento. ​
​
Se scrivi “modello contratto fornitore agosto 2023”, il sistema potrà trovare il file anche se si
chiama semplicemente “contratto servizi ABC.pdf”.
Questo tipo di ricerca funziona anche all’interno dei documenti: l’IA può leggere il
contenuto e non solo il titolo, quindi permette di trovare frasi, numeri o argomenti presenti
nei testi, anche se non ricordi il nome del file. ​
​
È una funzione molto utile per chi lavora in settori dove si gestiscono molti documenti simili
tra loro, come legali, amministrativi o tecnici.
213
12.4.3 – Estrarre informazioni da documenti strutturati e non
Un’altra funzione avanzata offerta dai sistemi di intelligenza artificiale è la capacità di
leggere e “capire” i contenuti dei documenti per estrarre solo le informazioni utili. ​
​
Questo è particolarmente utile quando si lavora con moduli, tabelle, CV, contratti o
documenti tecnici dove ci sono tanti dati ma solo alcuni sono rilevanti per il compito che
dobbiamo svolgere.
Ad esempio, un sistema IA può leggere una cartella piena di preventivi e creare
automaticamente un riepilogo con i prezzi, le scadenze e i nomi dei fornitori. ​
​
Oppure può analizzare decine di curriculum e estrarre le competenze, le esperienze
lavorative e i titoli di studio più adatti a una posizione aperta.
Anche in documenti non strutturati, come testi scritti in linguaggio naturale o email, l’IA può
identificare date, nomi, numeri, azioni richieste e creare un riepilogo pronto all’uso. ​
​
Questo riduce drasticamente il tempo necessario per leggere e capire i documenti, e
consente di concentrarsi solo sulle decisioni da prendere.
​
​
​
12.5 – Email e comunicazioni automatizzate
12.5.1 – Scrivere e personalizzare email con l’IA
Scrivere email può sembrare un compito banale, ma farlo bene richiede tempo, attenzione e
capacità di adattare il tono al destinatario. ​
​
Ogni giorno, in molti settori, si inviano decine o centinaia di messaggi: preventivi, risposte a
clienti, conferme d’ordine, promemoria, inviti o aggiornamenti. Farlo manualmente significa
rallentare i flussi di lavoro.
214
Con l’intelligenza artificiale, è possibile scrivere email in automatico, partendo da modelli
personalizzabili. L’IA può generare testi chiari, corretti e coerenti in pochi secondi. Basta
indicare l’obiettivo del messaggio, il destinatario e il tono desiderato: formale, cordiale,
sintetico o persuasivo.
Ma il vero vantaggio è che queste email possono essere personalizzate dinamicamente.
L’IA può inserire automaticamente il nome del destinatario, i dati di un ordine, le date
rilevanti o altri dettagli specifici. ​
​
Così si ottiene un messaggio che sembra scritto su misura, anche se è stato generato in
pochi istanti.
12.5.2 – Segmentare il pubblico e programmare invii
Una comunicazione efficace non si limita a cosa si scrive, ma anche a chi si scrive e
quando. ​
​
Non tutti i destinatari hanno le stesse esigenze.​
​
Alcuni vogliono aggiornamenti regolari, altri solo messaggi promozionali. Alcuni preferiscono
comunicazioni sintetiche, altri dettagliate. Riconoscere queste differenze è essenziale per
non sprecare tempo o infastidire il lettore.
L’intelligenza artificiale consente di segmentare il pubblico in base al comportamento, alle
preferenze, alla cronologia degli acquisti o alla fase del rapporto con l’azienda. In questo
modo è possibile inviare messaggi mirati solo a chi è davvero interessato. ​
​
Ad esempio, i nuovi clienti possono ricevere una mail di benvenuto, mentre quelli inattivi
possono essere contattati con un’offerta speciale.
Inoltre, le email possono essere programmate in anticipo, in base a orari e giorni più
efficaci. L’IA può anche testare diverse versioni dello stesso messaggio (quello che si
chiama A/B testing) e capire quale ottiene più risposte o clic. ​
​
Tutto questo avviene in automatico, riducendo il lavoro manuale e migliorando i risultati della
comunicazione.
215
12.5.3 – Monitorare le risposte e automatizzare i follow-up
Dopo l’invio, una parte importante del lavoro riguarda il monitoraggio delle risposte.
Sapere chi ha aperto l’email, chi ha cliccato su un link o chi ha risposto è fondamentale per
capire l’efficacia della comunicazione. ​
​
Farlo a mano è difficile, ma l’IA può seguire tutto questo in modo automatico. Non solo
monitora le azioni dei destinatari, ma può anche attivare azioni successive in base al
comportamento. ​
​
Per esempio, se un cliente apre una mail ma non risponde, l’IA può inviare un messaggio di
promemoria dopo tre giorni. Se invece clicca su un link di acquisto, può ricevere una mail
con altri prodotti correlati. Questo processo si chiama follow-up automatizzato.
Grazie a questa capacità, la comunicazione diventa più reattiva e personalizzata, senza
richiedere controlli continui da parte del team. ​
​
Si risparmia tempo, si riduce il rischio di dimenticare qualcuno e si mantiene attivo il contatto
con clienti e collaboratori in modo costante ed efficace.
12.6 – Organizzazione di agenda e meeting
12.6.1 – Pianificare appuntamenti e ottimizzare il tempo
La gestione dell’agenda è una delle attività più trascurate ma anche più critiche nella routine
lavorativa. ​
​
Trovare l’orario giusto per una riunione, evitare sovrapposizioni, lasciare spazio tra un
216
appuntamento e l’altro: tutto questo richiede attenzione e coordinamento. Quando il carico di
impegni cresce, pianificare diventa un lavoro nel lavoro.
L’intelligenza artificiale può semplificare questa attività in modo sorprendente. ​
​
Esistono strumenti in grado di analizzare gli impegni già presenti in agenda, proporre
orari ottimali, tenere conto dei fusi orari o delle abitudini del team, e persino proporre
soluzioni alternative se c’è un conflitto. ​
​
Il risultato è una programmazione più fluida, più precisa e meno stressante.
Inoltre, l’IA può adattarsi alle priorità dell’utente. Se un appuntamento è urgente, può trovare
subito il primo spazio disponibile. Se invece è secondario, può proporre un orario più
comodo, magari alla fine della giornata.
Questo significa usare meglio il tempo e lavorare in modo più ordinato, senza doversi
affidare completamente alla memoria o agli appunti.
12.6.2 – Automatizzare promemoria e notifiche
Un altro aspetto essenziale nella gestione del tempo è non dimenticare gli appuntamenti
e arrivarci preparati. ​
​
Quante volte capita di perdersi un incontro per distrazione, o di arrivare senza aver letto i
documenti necessari? L’intelligenza artificiale può aiutare anche in questo.
I sistemi intelligenti possono inviare promemoria automatici, via email, notifiche sul
telefono o messaggi in chat, poco prima dell’incontro. ​
​
Possono anche riassumere gli argomenti previsti, allegare i documenti utili o indicare chi
parteciperà. Tutto questo avviene senza che l’utente debba fare nulla.
In ambito professionale, questo si traduce in maggiore puntualità, meno imprevisti e
incontri più efficaci. ​
​
Anche le notifiche post-incontro possono essere automatizzate: ad esempio, un messaggio
di ringraziamento o un link al sondaggio di feedback può partire da solo, senza bisogno di
ricordarlo.
217
12.6.3 – Generare verbali, riassunti e prossimi step
Una volta concluso un meeting, spesso resta da fare la parte più noiosa: scrivere il verbale,
riassumere le decisioni prese e inviare a tutti le azioni concordate. ​
​
Se questa fase viene trascurata, si rischia di dimenticare i punti importanti e di lasciare in
sospeso le responsabilità.
L’intelligenza artificiale può intervenire anche qui, ascoltando la riunione (in presenza o
online) e generando automaticamente un riassunto. ​
​
Può identificare chi ha detto cosa, quali argomenti sono stati trattati, quali sono i prossimi
passaggi e chi se ne occuperà. Questi contenuti possono poi essere riletti, corretti se serve,
e condivisi subito con i partecipanti.
In questo modo, ogni incontro diventa più produttivo e tracciabile. ​
​
Nessuna informazione va persa, e tutti sanno cosa devono fare dopo. Si risparmia tempo
nella stesura dei verbali e si mantiene un buon livello di coordinamento nel lavoro di
squadra, anche quando gli incontri sono frequenti.
12.7 – Integrazione con strumenti di produttività (Notion, Excel, ecc.)
12.7.1 – Collegare l’IA a fogli di calcolo per analisi intelligenti
Molte attività lavorative si svolgono ogni giorno su strumenti come Excel o Google Sheets. ​
​
Qui si raccolgono dati, si fanno calcoli, si gestiscono elenchi e si costruiscono report. ​
​
Ma, sebbene potenti, questi strumenti richiedono competenze specifiche per essere usati al
massimo. L’intelligenza artificiale può amplificare il loro potenziale, rendendoli molto più
accessibili.
218
Quando integrata in un foglio di calcolo, l’IA è in grado di analizzare i dati
automaticamente, individuare schemi ricorrenti, suggerire formule o generare riepiloghi in
linguaggio naturale. ​
​
Questo significa che anche chi non sa usare le funzioni complesse di Excel può chiedere, ad
esempio: “Riassumi i trend di vendita per prodotto”, e ricevere un’analisi già pronta.
Inoltre, l’IA può anche generare visualizzazioni, come grafici o tabelle pivot, partendo da una
semplice richiesta testuale. Questo permette di trasformare i numeri in informazioni
leggibili e utili, senza perdere tempo tra righe e colonne.
12.7.2 – Automatizzare aggiornamenti e compilazioni
Uno dei vantaggi più concreti dell’intelligenza artificiale è la possibilità di automatizzare
operazioni ripetitive, anche dentro strumenti già esistenti come Notion, Excel, Google Docs
o Trello. ​
​
Se ci sono campi da compilare regolarmente, dati da aggiornare o contenuti da generare
ogni giorno, l’IA può occuparsene al posto nostro.
Per esempio, può aggiornare ogni mattina un report in Excel prendendo i dati da un altro
foglio o da una fonte esterna. Può compilare una scheda in Notion con i dettagli di un
progetto, inserire automaticamente la descrizione di un’attività o suggerire la prossima
scadenza. ​
​
Queste azioni, anche se piccole, riducono il carico mentale e aumentano l’efficienza
operativa.
Con strumenti come Zapier o Make, è anche possibile collegare diversi strumenti tra loro. ​
​
Così, l’IA può prendere un’informazione da un’app, trasformarla, e poi inserirla in un’altra
piattaforma, senza che l’utente debba intervenire. ​
​
Il risultato è un flusso di lavoro continuo e fluido, dove le informazioni scorrono senza
attriti.
219
12.7.3 – Migliorare la collaborazione su piattaforme digitali
Nel lavoro di squadra, la chiarezza e la coordinazione fanno la differenza. ​
​
Gli strumenti digitali di produttività sono nati proprio per facilitare il lavoro condiviso, ma
spesso si limitano a contenere dati. Integrando l’intelligenza artificiale, questi strumenti
diventano spazi attivi, che aiutano il team a collaborare in modo più efficace.
L’IA può essere utilizzata per riassumere discussioni, sintetizzare aggiornamenti di
progetto, generare to-do list a partire da note condivise. ​
​
Se un team lavora su Notion o Google Docs, può avere l’aiuto dell’IA per scrivere bozze,
correggere testi, uniformare il tono o riformulare un contenuto in modo più chiaro. Questo
velocizza il lavoro e migliora la qualità del risultato.
Inoltre, l’IA può aiutare nella gestione dei flussi: può segnalare scadenze imminenti,
ricordare compiti in sospeso o suggerire modifiche a un piano di lavoro. ​
​
In questo modo, ogni membro del team è supportato senza dover controllare tutto
manualmente, e la collaborazione diventa più fluida, coordinata e produttiva.
​
220
13. IA per il business: marketing, customer
care, analisi dati
13.1 – Creazione di contenuti per campagne
13.1.1 – Generare testi pubblicitari coerenti con il brand
Quando un’azienda comunica con il suo pubblico, ogni parola conta. Non si tratta solo di
scrivere un messaggio efficace, ma di farlo in modo che rispecchi la personalità e i valori del
marchio. ​
​
Questo si chiama “tono di voce”: un insieme di scelte stilistiche e linguistiche che rendono
riconoscibile un brand, sia che si tratti di un’email formale, sia di un post social più leggero.
L’intelligenza artificiale può aiutare molto in questo processo. I modelli di IA sono in grado di
analizzare contenuti già esistenti dell’azienda (come newsletter, pagine web, post social
o campagne pubblicitarie precedenti) e di imparare lo stile con cui il brand comunica. ​
​
Una volta compreso il tono, il modello può generare nuovi testi che rispettano quel
registro. Questo è particolarmente utile per i team marketing che devono creare grandi
quantità di contenuti in poco tempo, mantenendo però uniformità e riconoscibilità.
Inoltre, la coerenza comunicativa rafforza l’identità aziendale. Un cliente che legge un
messaggio chiaro, ben scritto e “familiare” si fida di più, perché percepisce stabilità e
attenzione ai dettagli. ​
​
L’IA, in questo caso, non sostituisce il lavoro umano, ma lo accelera e lo supporta, offrendo
uno strumento per creare messaggi più efficaci, in linea con l’immagine dell’azienda.
13.1.2 – Adattare il linguaggio al canale e al pubblico
221
Uno degli errori più frequenti nelle campagne di comunicazione è usare lo stesso
messaggio su tutti i canali, pensando che funzioni ovunque allo stesso modo. ​
​
In realtà, ogni piattaforma – email, social network, sito web, messaggi promozionali – ha
regole implicite diverse. Anche il pubblico cambia: chi legge un post su LinkedIn ha
aspettative diverse rispetto a chi guarda una storia su Instagram.
L’intelligenza artificiale può essere istruita per riscrivere lo stesso contenuto, adattandolo
al contesto specifico. ​
​
Ad esempio, un testo generato per una brochure aziendale può essere riformulato in tono
più diretto per i social o più tecnico per una pagina destinata a professionisti. ​
​
Questo consente di mantenere coerenza nel messaggio, ma variando lo stile a seconda del
destinatario.
Anche il pubblico può essere suddiviso in categorie. ​
Una comunicazione rivolta a clienti giovani sarà diversa da quella pensata per dirigenti
d’azienda o per famiglie. ​
​
L’IA può riconoscere queste differenze e modellare il linguaggio di conseguenza,
rendendo la comunicazione più personale e rilevante. Questo approccio migliora la
probabilità che il messaggio venga letto, compreso e accolto positivamente.
13.1.3 – A/B testing automatizzato per ottimizzare l'efficacia
Anche il miglior contenuto può essere migliorato. ​
​
In marketing, si sa che piccole variazioni in un testo – come una parola nel titolo o il modo
in cui si chiede un’azione – possono influenzare moltissimo il comportamento del pubblico. ​
​
È per questo che le aziende usano l’A/B testing: creano due versioni simili di un messaggio
e vedono quale funziona meglio in termini di clic, aperture o vendite.
L’intelligenza artificiale può automatizzare completamente questo processo. Non solo può
generare più varianti dello stesso contenuto (modificando titoli, pulsanti, frasi finali…),
222
ma può anche analizzare in tempo reale i risultati. Così è possibile capire rapidamente quale
versione funziona meglio e perché.
Nel tempo, il sistema può “imparare” dalle campagne precedenti e produrre contenuti
sempre più efficaci, basandosi su dati reali. Questo approccio elimina le ipotesi, riduce gli
sprechi e porta a una comunicazione più mirata. ​
​
È come avere uno strumento che sperimenta, misura e migliora in modo continuo,
permettendo di ottimizzare ogni messaggio in base al pubblico e all’obiettivo della
campagna.
​
13.2 – Targeting e segmentazione del pubblico
13.2.1 – Analizzare i comportamenti per costruire profili
Conoscere il proprio pubblico è il punto di partenza per qualunque strategia di marketing
efficace. ​
​
Tuttavia, non è sufficiente sapere semplicemente “chi sono” i clienti: è fondamentale capire
come si comportano, cosa cercano, quali azioni compiono e quando. È qui che
l’intelligenza artificiale dimostra tutto il suo potenziale.
Grazie all’analisi dei dati – provenienti da siti web, e-mail, social media o app – l’IA è in
grado di identificare schemi di comportamento, come ad esempio quali pagine un utente
visita più spesso, quanto tempo resta su un prodotto, quali email apre, quali annunci clicca. ​
​
Queste informazioni permettono di costruire profili dettagliati, che vanno ben oltre le
classiche categorie demografiche (età, sesso, luogo di residenza).
L’IA riesce così a segmentare gli utenti in gruppi che hanno davvero senso dal punto di vista
del comportamento d’acquisto. ​
​
Per esempio, può distinguere chi naviga spesso ma non compra mai, da chi compra solo
223
quando ci sono offerte. Ogni gruppo può essere poi trattato in modo diverso, con messaggi
personalizzati e campagne su misura. ​
​
Questo approccio rende la comunicazione meno invasiva e più efficace.
13.2.2 – Personalizzare le offerte in tempo reale
Uno dei vantaggi più concreti dell’IA applicata al marketing è la capacità di offrire contenuti
personalizzati al momento giusto. ​
​
In passato, la personalizzazione si limitava al nome dell’utente in una newsletter. Oggi,
grazie all’intelligenza artificiale, è possibile adattare offerte, suggerimenti e promozioni in
tempo reale, basandosi sul comportamento attuale del cliente.​
​
Ad esempio, se un utente sta guardando una pagina prodotto per la seconda volta in pochi
giorni, il sistema può proporre uno sconto immediato o l’invio di una mail personalizzata,
incoraggiando l’acquisto. ​
​
Se invece abbandona il carrello, l’IA può attivare automaticamente un messaggio con una
promozione “di recupero” o ricordargli cosa ha lasciato indietro.
Questa capacità di “leggere” il comportamento e reagire al momento giusto permette di
trasformare semplici visite in conversioni reali. Ma soprattutto, evita di sprecare
messaggi generici, che spesso vengono ignorati. ​
​
L’utente si sente ascoltato e riceve comunicazioni più pertinenti, costruendo una relazione
più forte con il brand.
13.2.3 – Migliorare la conversione attraverso micro-targeting
Il micro-targeting è una strategia avanzata che consiste nel rivolgersi a gruppi di utenti
estremamente specifici, basandosi su comportamenti, interessi, abitudini e intenzioni. ​
​
In pratica, invece di creare una campagna unica per tutti, si creano tante “mini-campagne”,
ognuna pensata per un sottoinsieme preciso del pubblico.
224
L’intelligenza artificiale rende possibile questo approccio perché riesce a gestire e analizzare
enormi quantità di dati in tempo reale, cosa che manualmente sarebbe impossibile. ​
​
Può individuare, ad esempio, un gruppo di utenti che ha interagito con un certo tipo di
contenuto, che ha visitato una pagina più volte ma non ha acquistato, o che si comporta in
modo simile ad altri clienti già acquisiti.
Una volta creati questi micro-segmenti, è possibile personalizzare il messaggio, il
momento dell’invio, il canale e persino l’immagine o il tono. ​
​
Il risultato è un miglioramento significativo nel tasso di conversione, perché ogni
persona riceve un messaggio che sente più vicino ai propri interessi. ​
​
Con il micro-targeting, ogni cliente viene trattato come unico, e l’IA è lo strumento che rende
questo possibile su larga scala.
13.3 – Analisi dei sentiment sui social
13.3.1 – Rilevare opinioni e stati d’animo nei commenti online
Sui social network, ogni giorno le persone condividono opinioni, emozioni e giudizi su
prodotti, servizi e aziende. ​
​
Questi contenuti sono una fonte preziosa di informazioni per chi fa marketing, ma sono
difficili da gestire perché sono enormi in quantità e molto vari per forma e linguaggio. ​
​
L’intelligenza artificiale permette di analizzare questi commenti in modo automatico,
attraverso una pratica chiamata sentiment analysis.
La sentiment analysis è una tecnica che consente di identificare il tono emotivo di un
messaggio: positivo, negativo o neutro. Ma non si ferma qui. I sistemi più evoluti riescono a
cogliere anche sfumature come entusiasmo, frustrazione, ironia o delusione. ​
225
​
Questo è possibile perché l’IA è addestrata su milioni di esempi linguistici, imparando a
riconoscere non solo parole, ma anche contesto, punteggiatura, emoji e modi di dire.
Questa capacità è particolarmente utile per capire come il pubblico percepisce un brand, un
lancio di prodotto, una campagna pubblicitaria o una crisi reputazionale. ​
​
Invece di leggere manualmente migliaia di commenti, si può ottenere una visione d’insieme
immediata: la maggioranza degli utenti è soddisfatta? Ci sono critiche ricorrenti? Il tono delle
conversazioni sta cambiando nel tempo?
13.3.2 – Monitorare la reputazione del brand in tempo reale
La reputazione online di un’azienda può cambiare in modo rapido, soprattutto se un
contenuto diventa virale o se emerge un evento inatteso. ​
​
In questi casi, è fondamentale sapere subito cosa si sta dicendo sul proprio brand, per
reagire con tempestività e intelligenza. ​
​
L’IA può aiutare a monitorare costantemente i canali social, raccogliendo e analizzando tutte
le menzioni, tag, commenti e hashtag relativi all’azienda o ai suoi prodotti.
Questo monitoraggio non si limita a contare quante volte viene citato il nome del brand. L’IA
è in grado di riconoscere il contesto in cui il nome compare, valutando se si tratta di una
citazione positiva, di una lamentela, di una battuta sarcastica o di un consiglio tra utenti. ​
​
Queste informazioni vengono poi aggregate e presentate in forma visuale, sotto forma di
grafici o report, in modo da offrire una panoramica chiara anche a chi non ha competenze
tecniche.
Il vantaggio di questo tipo di analisi è che avviene in tempo reale. ​
​
L’azienda può accorgersi subito se sta emergendo un problema, se una campagna non
viene recepita come previsto o se sta crescendo il consenso attorno a una nuova iniziativa.
Questo permette di agire con rapidità, correggere errori, valorizzare ciò che funziona e
mantenere una comunicazione coerente con il pubblico.
226
13.3.3 – Rispondere ai feedback in modo strategico
L’analisi del sentiment non è solo uno strumento di osservazione: è anche un punto di
partenza per costruire risposte più intelligenti e mirate. ​
​
Una volta capito cosa pensa il pubblico, l’azienda può decidere come reagire, che tono
adottare e quali messaggi comunicare. ​
​
L’intelligenza artificiale può supportare anche questa fase, suggerendo risposte adatte a
seconda del tono e del contenuto del commento ricevuto.
Ad esempio, se un cliente scrive un commento negativo ma costruttivo, l’IA può
suggerire una risposta che ringrazia per il feedback, spiega l’impegno dell’azienda e offre
una soluzione. ​
​
Se invece il commento è molto arrabbiato o ironico, il sistema può indicare di usare un tono
più empatico o di passare la conversazione in privato. In alcuni casi, può anche riconoscere
che non è il caso di rispondere pubblicamente, per non alimentare polemiche.
Questa capacità di rispondere in modo strategico permette di trasformare un potenziale
problema in un’opportunità. ​
​
Il cliente che si sente ascoltato e riceve una risposta adeguata è più propenso a tornare e a
parlare positivamente del brand. Inoltre, le risposte pubbliche ben gestite diventano un
segnale visibile di professionalità, che rafforza la reputazione dell’azienda anche agli occhi
degli altri utenti.
13.4 – FAQ automatiche e chatbot aziendali
227
13.4.1 – Semplificare il supporto clienti con risposte immediate
Uno dei problemi più comuni nel rapporto tra aziende e clienti è il tempo di attesa per
ricevere assistenza. Le persone vogliono risposte rapide, soprattutto per le domande più
semplici e frequenti. ​
​
È qui che entrano in gioco le FAQ automatizzate, ovvero risposte preimpostate fornite da
sistemi intelligenti a domande comuni.
L’intelligenza artificiale permette di creare un sistema di FAQ molto più dinamico rispetto a
una semplice pagina statica. ​
​
Il cliente può scrivere una domanda con le proprie parole, e il sistema è in grado di capire il
significato anche se la formulazione non è identica a quella prevista. ​
​
Per esempio, invece di cercare "resi e rimborsi", un utente potrebbe scrivere "voglio
restituire un prodotto", e l'IA capisce che si tratta dello stesso tema.
Grazie a questa capacità, l’utente riceve una risposta immediata e pertinente, evitando
lunghe ricerche o attese. ​
​
Questo migliora l’esperienza del cliente, riduce il carico di lavoro del team di assistenza e
aumenta la fiducia verso l’azienda, che viene percepita come reattiva e ben organizzata.
13.4.2 – Gestire richieste frequenti senza intervento umano
Nella maggior parte delle aziende, un’ampia parte delle richieste ricevute ogni giorno
riguarda gli stessi temi ripetuti: orari di apertura, modalità di pagamento, stato dell’ordine,
tempi di consegna, documenti richiesti. ​
​
Rispondere ogni volta in modo manuale richiede tempo, e spesso causa ritardi che possono
frustrare i clienti.
I chatbot aziendali, alimentati dall’intelligenza artificiale, sono progettati proprio per gestire
automaticamente questo tipo di richieste, simulando una conversazione naturale.
L’utente scrive in una chat e il sistema risponde, guida, propone soluzioni o, quando serve,
228
inoltra il caso a un operatore umano. ​
​
Tutto ciò avviene 24 ore su 24, 7 giorni su 7.
Questo significa che anche un piccolo team può offrire un servizio continuativo, riducendo
drasticamente i tempi di attesa e garantendo una maggiore qualità del servizio clienti. ​
​
E non solo: l’IA apprende nel tempo, migliorando la precisione delle risposte man mano che
interagisce con più utenti, adattandosi anche al linguaggio e alle domande nuove che
emergono.
13.4.3 – Integrare il chatbot nei canali aziendali
Perché un chatbot funzioni davvero, non basta che risponda bene: deve anche essere
accessibile nel posto giusto, al momento giusto. ​
​
Questo significa integrarlo nei canali che i clienti usano abitualmente: il sito web, Facebook
Messenger, WhatsApp, l’app mobile o persino la pagina Google Business.
L’intelligenza artificiale consente di gestire più canali con un solo sistema centrale, in
grado di mantenere la conversazione coerente anche se l’utente cambia piattaforma. ​
Ad esempio, un cliente può iniziare una conversazione dal sito, proseguirla su WhatsApp e
ricevere un riepilogo via email. Tutto questo senza perdere il filo.
Inoltre, un buon chatbot non lavora da solo. Può essere connesso con i sistemi interni
dell’azienda: il gestionale, il magazzino, il CRM. ​
​
In questo modo, è in grado non solo di rispondere a domande generiche, ma anche di
fornire informazioni personalizzate, come lo stato di un ordine specifico o il saldo di una
fattura. ​
​
Questo tipo di integrazione trasforma il chatbot da semplice risponditore automatico a vero e
proprio assistente digitale al servizio del cliente.
229
​
13.5 – Previsione di trend e domanda
13.5.1 – Analizzare dati storici per anticipare il mercato
Capire in anticipo cosa succederà nel mercato è un vantaggio strategico enorme per
qualsiasi azienda. Ma prevedere il futuro non è una questione di intuizione: si basa
sull’analisi dei dati passati. ​
​
Qui entra in gioco l’intelligenza artificiale, che è in grado di analizzare grandi quantità di
informazioni, trovando schemi e relazioni che a un occhio umano potrebbero sfuggire.
Ad esempio, analizzando lo storico delle vendite, l’IA può identificare cicli stagionali,
comportamenti ricorrenti o picchi anomali. ​
​
Se ogni anno a novembre c’è un aumento delle vendite di un certo prodotto, oppure se dopo
una campagna social si verifica un aumento di traffico sul sito, questi schemi possono
essere rilevati e quantificati con precisione.
Queste analisi non si limitano al singolo prodotto o cliente. ​
​
L’IA può incrociare dati di categorie diverse, confrontare più mercati o analizzare la
correlazione tra eventi esterni (come festività, meteo, cambi di prezzo) e l’andamento della
domanda.​
​
Il risultato è una visione più chiara e affidabile delle dinamiche di consumo, utile per
prendere decisioni più informate.
13.5.2 – Adattare le strategie di prodotto ai cambiamenti
La capacità di prevedere l’andamento del mercato consente alle aziende di adattare in
anticipo le proprie strategie, prima ancora che si manifestino i cambiamenti. ​
​
Questo è fondamentale in un contesto in cui le abitudini dei consumatori, le tecnologie e la
concorrenza evolvono rapidamente. Chi arriva per primo, spesso ottiene il vantaggio
competitivo.
230
Con i modelli predittivi basati sull’IA, è possibile capire se un prodotto sta perdendo
interesse, se ne sta emergendo uno nuovo, o se c’è una nicchia di mercato in crescita che
può essere intercettata con un’offerta mirata. ​
​
Queste informazioni possono guidare decisioni come il lancio di una nuova linea, la
modifica di una campagna pubblicitaria o la riorganizzazione del magazzino.
L’intelligenza artificiale aiuta anche a ridurre il rischio di sbagliare. Un cambiamento di
prezzo, ad esempio, può avere effetti diversi a seconda del momento e del target. ​
​
Grazie alle simulazioni basate sui dati, l’IA permette di testare virtualmente scenari
alternativi, stimando gli effetti prima di metterli in atto, così da evitare decisioni affrettate o
costose.
13.5.3 – Ridurre il rischio decisionale con previsioni guidate
Ogni decisione aziendale comporta un grado di rischio. Investire in una nuova campagna,
ordinare grandi quantità di merce o modificare un prodotto sono azioni che richiedono
informazioni affidabili per essere giustificate. ​
​
L’IA offre strumenti predittivi che riducono l’incertezza, trasformando dati grezzi in
suggerimenti concreti e comprensibili.
Ma i sistemi non si limitano a “prevedere” cosa accadrà… ​
​
Possono anche indicare quanto è probabile che accada e con quale margine di errore.
Per esempio, non diranno solo “le vendite cresceranno”, ma “è molto probabile che le
vendite aumentino del 15% il prossimo trimestre, con una tolleranza del 5%”.
Una previsione del genere è guidata e aiuta manager, responsabili marketing e dirigenti, a
valutare i rischi con maggiore lucidità.
Inoltre, l’IA può fornire anche alert automatici, avvisando in anticipo se un indicatore si
discosta da ciò che era previsto. ​
​
Questo consente di intervenire rapidamente, correggere la rotta e prevenire danni più
grandi. ​
231
​
In un mondo dove l’incertezza è una costante, avere un sistema che aiuta a decidere in
modo più solido è un vantaggio che può fare la differenza tra una strategia vincente e una
crisi evitabile.
​
​
​
13.6 – Reporting dati clienti e vendite
13.6.1 – Creare dashboard interattive con dati aggiornati
Uno dei compiti più importanti nel monitoraggio delle attività aziendali è avere una visione
chiara e aggiornata delle performance. ​
​
Tuttavia, leggere e interpretare fogli di calcolo pieni di numeri può essere complicato,
specialmente quando si ha poco tempo o si devono prendere decisioni rapide. ​
​
Qui l’intelligenza artificiale può aiutare trasformando i dati in dashboard interattive, facili da
consultare e sempre aggiornate.
Una dashboard è un pannello visivo che raccoglie i principali indicatori di performance, come
vendite, fatturato, tassi di conversione o soddisfazione del cliente. ​
​
Grazie all’integrazione con l’IA, questi pannelli non devono più essere aggiornati
manualmente: si collegano automaticamente alle fonti di dati (come CRM, piattaforme
e-commerce, gestionali) e mostrano valori in tempo reale, con grafici, mappe, filtri e
riepiloghi chiari.
Inoltre, l’IA è in grado di segnalare eventuali anomalie o variazioni improvvise,
suggerendo dove guardare e perché. Ad esempio, può notare un calo delle vendite in una
zona geografica specifica o una diminuzione degli ordini da un cliente importante. ​
​
Questo tipo di analisi proattiva permette di risparmiare tempo e intervenire con
tempestività.
232
13.6.2 – Misurare l’efficacia delle azioni di marketing
Spesso le aziende investono in campagne pubblicitarie, email promozionali, contenuti social
o strategie SEO senza avere un sistema chiaro per capire quanto realmente stiano
funzionando.
L’intelligenza artificiale consente di misurare in modo preciso l’impatto di ogni azione,
tracciando i dati dal primo contatto fino alla vendita.
Attraverso il tracciamento dei comportamenti degli utenti, l’IA può rispondere a domande
fondamentali:
Quale canale porta più conversioni? ​
Quale messaggio ha ottenuto più clic? ​
Quanto è costato ogni cliente acquisito? ​
​
Questo tipo di report non si limita a elencare numeri, ma offre interpretazioni, suggerendo
cosa migliorare e dove investire di più.
Ad esempio, se una campagna social ha portato molti clic ma poche vendite, il sistema può
segnalare che il problema sta nella pagina di destinazione o nel prezzo. ​
​
Analisi del genere, se fatte manualmente, richiederebbero giorni. Con l’IA, invece, si
possono avere in pochi secondi, aiutando l’azienda a ottimizzare le strategie e migliorare i
risultati in modo continuo.
13.6.3 – Fornire report personalizzati per i diversi team
In azienda, non tutti leggono i dati allo stesso modo. Il reparto marketing, la direzione
commerciale, il customer service o l’ufficio acquisti hanno bisogni informativi diversi. ​
​
Un report troppo tecnico può risultare inutile per chi cerca una sintesi operativa, mentre un
riepilogo superficiale non aiuta chi deve pianificare strategie complesse. L’IA risolve questo
problema creando report personalizzati in base al destinatario.
233
I report possono variare nel formato, nel livello di dettaglio, nel linguaggio e perfino nei dati
evidenziati. ​
​
Per il reparto marketing, ad esempio, l’IA può generare una sintesi delle performance delle
campagne; per il commerciale, una lista aggiornata dei clienti in calo; per la direzione, un
grafico con i margini di profitto e i trend mensili. ​
​
Tutto questo senza dover riscrivere o rielaborare i dati manualmente ogni volta.
Inoltre, l’IA può programmare l’invio automatico dei report via email, Slack o intranet, con
cadenza giornaliera, settimanale o mensile. ​
​
Così ogni reparto avrà sempre a disposizione le informazioni più utili, nel formato più
adatto, al momento giusto. Il risultato è un’azienda più informata, più coordinata e più
capace di prendere decisioni rapide e basate su dati concreti.
13.7 – Generazione di insight strategici
13.7.1 – Scoprire connessioni tra dati che sfuggono all’occhio umano
I dati aziendali possono contenere informazioni molto preziose, ma spesso queste non sono
visibili a colpo d’occhio. ​
​
Anche se raccolti con cura, numeri, grafici e tabelle restano solo elementi isolati se non
vengono analizzati nel modo giusto. ​
​
L’intelligenza artificiale può aiutare a trovare legami nascosti tra i dati, rivelando schemi
che l’occhio umano, da solo, potrebbe non notare.
Per esempio, l’IA può mettere in relazione il comportamento degli utenti sul sito con i risultati
delle vendite, oppure confrontare i reclami dei clienti con le prestazioni di alcuni
234
prodotti. ​
​
Può rilevare che un calo in una zona geografica è correlato a un ritardo nei tempi di
spedizione, oppure che i clienti che usano un certo metodo di pagamento tendono ad
acquistare più spesso.
Questi collegamenti non sono semplici coincidenze: sono insight, cioè informazioni rilevanti
che possono guidare una decisione o suggerire un cambiamento di strategia. ​
​
L’IA è particolarmente utile perché può esaminare migliaia di combinazioni di dati in
pochi secondi, restituendo solo quelle che hanno senso e che meritano attenzione.
13.7.2 – Tradurre i dati in decisioni operative
Avere dati a disposizione non basta. Il vero valore nasce quando queste informazioni
diventano azioni concrete. ​
​
L’intelligenza artificiale può supportare questo passaggio in modo diretto: analizza i dati,
li interpreta, e poi suggerisce strategie che si possono applicare immediatamente.
Un insight strategico non è solo un numero o una variazione di percentuale. ​
​
È, ad esempio, la scoperta che l’aumento delle visite al sito non si sta traducendo in vendite,
oppure che il margine di guadagno su un certo prodotto è in calo da tre mesi. ​
​
Una volta emersi questi segnali, l’IA può proporre delle opzioni: modificare i prezzi,
rafforzare una campagna, contattare i clienti inattivi.
L’utente può poi scegliere se applicare i suggerimenti oppure approfondirli. ​
​
L’obiettivo non è sostituire il ragionamento umano, ma fornire una base più solida su cui
basare le decisioni. In questo modo, l’azienda evita di agire per istinto o solo su
impressioni, e costruisce un metodo più razionale, strutturato e misurabile.
13.7.3 – Potenziare la visione aziendale con IA predittiva
235
Oltre a interpretare il presente, l’IA è anche in grado di guardare avanti. I modelli predittivi
non si limitano a osservare ciò che è già accaduto, ma analizzano i dati per stimare con
buona precisione cosa potrebbe accadere in futuro. ​
​
Questo tipo di funzionalità è fondamentale per la pianificazione strategica.
Immagina di poter sapere con un buon margine di affidabilità quali prodotti avranno
maggiore richiesta il prossimo trimestre, quali clienti rischiano di abbandonare, o quali aree
geografiche stanno mostrando segnali di espansione.​
​
L’IA predittiva fornisce questi scenari in forma di previsioni intelligenti, costruite su dati
reali e continuamente aggiornati.
Gli insight aiutano le aziende a prendere decisioni con maggiore sicurezza, anticipare la
concorrenza e investire risorse nel modo più efficiente. ​
​
Significa passare da una gestione reattiva, che risponde ai problemi quando si presentano, a
una gestione proattiva, che prepara soluzioni prima che i problemi emergano. È un
cambiamento profondo, che rende l’azienda più agile, consapevole e capace di affrontare
l’incertezza del mercato con strumenti più forti.
​
14. Prompt engineering: come scrivere
richieste efficaci
236
14.1 – Cos’è il prompt engineering
​
14.1.1 – Definizione e importanza nel dialogo con l’IA
Il prompt engineering è la pratica di scrivere richieste in modo strategico per ottenere
risposte più precise, pertinenti e utili da un’intelligenza artificiale.​
​
Quando interagiamo con un modello linguistico come ChatGPT, la qualità della risposta che
riceviamo dipende in modo diretto da come abbiamo formulato la nostra domanda. ​
​
L’IA non capisce le intenzioni tra le righe, né può intuire esattamente cosa vogliamo se non
lo specifichiamo chiaramente. Per questo il prompt è il punto di partenza essenziale.
Il termine “engineering” in questo contesto non è casuale: suggerisce un lavoro di
progettazione. Scrivere un buon prompt significa costruire una richiesta con logica,
chiarezza e uno scopo ben preciso. ​
​
Non basta essere grammaticalmente corretti: è importante stabilire un obiettivo
comunicativo, considerare il contesto e scegliere accuratamente le parole. Questo perché
anche minime variazioni possono portare a risultati molto diversi. ​
​
Ad esempio, una domanda generica può generare una risposta vaga, mentre un prompt ben
costruito orienta il modello verso contenuti più utili.
Negli ambienti lavorativi e didattici, il prompt engineering si sta affermando come una nuova
competenza digitale trasversale, proprio perché aiuta chiunque a ottenere di più da uno
strumento sempre più presente nelle nostre attività quotidiane. Sapere come “parlare” con
un’IA è oggi un vantaggio pratico, non teorico.
​
14.1.2 – Come il prompt influenza la qualità della risposta
237
Ogni dettaglio di un prompt può modificare radicalmente il comportamento del
modello. ​
​
L’intelligenza artificiale non ha un’intelligenza nel senso umano del termine: non comprende
emozioni, intenzioni o contesto implicito. Lavora esclusivamente sul testo ricevuto,
calcolando la risposta più probabile sulla base della domanda posta. ​
​
Ecco perché anche piccole modifiche possono produrre grandi differenze nel risultato
finale.
Ad esempio, la domanda “Parlami dell’energia” è troppo generica. Il sistema non sa se ci
interessa l’energia elettrica, quella rinnovabile, l’energia nel corpo umano o il concetto in
fisica. ​
​
Invece, scrivere “Spiegami in modo semplice come funziona l’energia solare e perché è
considerata una fonte sostenibile” fornisce una cornice precisa: il tema (energia solare), il
livello di complessità (linguaggio semplice) e l’orientamento (sostenibilità).
Oltre al contenuto, anche il formato della risposta può essere guidato. Se vogliamo un
elenco, un testo discorsivo, una tabella o una sintesi con punti chiave, dobbiamo
specificarlo. ​
​
Possiamo anche indicare il pubblico a cui è destinata la risposta, come nel caso di “Spiega il
concetto per un ragazzo di 14 anni” o “Scrivi una risposta in stile formale per un documento
aziendale”. ​
​
Così facendo, il prompt agisce non solo come domanda, ma come istruzione su misura,
che guida il modello verso un risultato più adatto allo scopo.
​
​
14.1.3 – Prompt engineering come nuova competenza digitale
Il prompt engineering sta diventando una abilità fondamentale per chiunque voglia
interagire con strumenti di intelligenza artificiale in modo efficace. ​
​
238
Non si tratta di una moda passeggera, ma di una vera e propria trasformazione nel modo in
cui le persone scrivono, leggono e ottengono informazioni da sistemi automatici. ​
​
Questa competenza non è riservata agli esperti di tecnologia, ma riguarda studenti, docenti,
professionisti, creativi, manager, e perfino chi usa l’IA per scopi personali.
Saper scrivere buoni prompt significa essere in grado di ottenere risposte più utili in
meno tempo, riducendo i tentativi a vuoto e migliorando la qualità del risultato. È una forma
di comunicazione nuova, in cui l’efficacia non dipende dalla bellezza della frase ma dalla sua
chiarezza, struttura e orientamento. ​
​
Più si diventa bravi a formulare richieste specifiche, più si riesce a sfruttare la versatilità
dell’intelligenza artificiale, che può supportare attività molto diverse tra loro: dalla scrittura
alla progettazione, dall’organizzazione allo studio.
Infine, chi pratica regolarmente il prompt engineering sviluppa anche una mentalità più
analitica e orientata al risultato. Si impara a pensare per obiettivi, a scomporre un
problema, a costruire domande migliori. ​
​
È un modo per affinare le proprie capacità comunicative, logiche e digitali. Per questo si
parla sempre più spesso del prompt engineering come una nuova alfabetizzazione del
futuro, destinata a diventare una competenza trasversale richiesta in molti settori
professionali.
​
14.2 – Prompt semplici vs complessi
14.2.1 – Quando usare richieste brevi ed essenziali
I prompt semplici sono domande brevi e dirette, solitamente formate da una frase
generica o da una richiesta a carattere introduttivo. Servono a ottenere informazioni rapide,
definizioni, spiegazioni generali o una prima panoramica su un argomento. ​
​
239
Sono ideali quando si vuole iniziare una conversazione con l’IA senza avere ancora un
obiettivo preciso, oppure quando si cerca una risposta immediata senza entrare nei dettagli.
Questo tipo di prompt funziona molto bene in situazioni in cui l’utente ha bisogno di
orientarsi su un tema che non conosce, o vuole semplicemente sapere se l’IA ha le
competenze per trattarlo. ​
​
Ad esempio, scrivere “Cos’è la blockchain?” è sufficiente per ricevere una spiegazione
generica ma corretta. Il vantaggio è la velocità: si digita una frase e si ottiene una risposta in
pochi secondi, senza dover formulare richieste complesse.
Tuttavia, il limite principale è la mancanza di controllo sul contenuto. ​
​
Un prompt troppo generico lascia all’IA la libertà di scegliere tono, struttura e profondità della
risposta. ​
​
Questo può essere utile per un primo contatto, ma diventa un problema se si ha bisogno di
una risposta focalizzata o adatta a un pubblico specifico. In questi casi, un prompt semplice
non basta più. ​
​
È necessario passare a una formulazione più mirata, capace di restringere il campo e di
fornire indicazioni più chiare.
14.2.2 – Come strutturare un prompt articolato in più passaggi
I prompt complessi rappresentano una forma avanzata di interazione con l’IA, in cui
l’utente specifica più aspetti della richiesta per ottenere una risposta personalizzata,
dettagliata e adatta a un contesto preciso. ​
​
Un prompt strutturato bene include informazioni su cosa si vuole sapere, per chi è destinata
la risposta, con quale livello di complessità, in che formato e con quale tono.
Questo tipo di struttura è utile quando l’obiettivo è chiaro e si vogliono ridurre le
ambiguità. ​
​
Ad esempio, una richiesta come: “Scrivi un articolo di circa 300 parole, in tono amichevole,
che spieghi cos’è il riscaldamento globale a studenti delle scuole medie, usando esempi
240
quotidiani e un linguaggio semplice” fornisce istruzioni precise su contenuto, stile, pubblico e
lunghezza. Tutti elementi che aiutano l’IA a produrre un testo più pertinente e mirato.
Scrivere un prompt così dettagliato richiede più tempo e attenzione, ma permette di
orientare meglio l’intelligenza artificiale, proprio come si farebbe con un collaboratore
umano. Inoltre, è possibile scomporre la richiesta in più passaggi: prima si chiede una
spiegazione, poi si aggiungono approfondimenti, esempi o domande di verifica. ​
​
Questo approccio sequenziale è particolarmente efficace per attività complesse come la
scrittura professionale, l’analisi dati, l’ideazione di contenuti o la simulazione di ruoli specifici.
14.2.3 – Vantaggi e limiti di entrambi i tipi di prompt
I prompt semplici e quelli complessi non si escludono a vicenda, ma rispondono a esigenze
diverse. ​
​
I prompt brevi sono ottimi per iniziare una conversazione, sbloccare la creatività o
raccogliere informazioni veloci. Sono particolarmente utili quando l’utente non ha ancora
chiaro cosa vuole ottenere o quando serve solo una definizione o un chiarimento di base.
I prompt complessi, invece, sono indispensabili in tutti quei casi in cui l’utente ha un
obiettivo preciso, vuole controllare la forma e il contenuto della risposta o si aspetta un
risultato professionale. ​
​
Sono più efficaci per generare testi lunghi, analisi strutturate, simulazioni, formati specifici o
risposte per un pubblico definito. In questi casi, il livello di dettaglio nella richiesta può fare la
differenza tra una risposta utile e una poco rilevante.
La vera competenza sta nel sapere quando usare l’uno e quando usare l’altro. All’inizio
di una conversazione, può essere utile partire con un prompt semplice per “testare il
terreno”, e poi raffinarsi progressivamente con richieste più complesse. ​
​
Con la pratica, si impara a riconoscere subito quale approccio è più adatto e a calibrare il
prompt in base al risultato desiderato. Questa capacità di adattamento è uno degli elementi
chiave del prompt engineering efficace.
241
14.3 – Tecniche di raffinamento del prompt
14.3.1 – Migliorare le risposte attraverso riformulazioni
Una delle tecniche più semplici ma anche più efficaci per ottenere risposte migliori
dall’intelligenza artificiale è la riformulazione del prompt. ​
​
Spesso capita che la prima risposta ricevuta non sia esattamente come ce l’aspettavamo:
troppo generica, troppo lunga, o magari non focalizzata sull’aspetto che ci interessa. In
questi casi, invece di accettare il risultato così com’è, si può semplicemente riscrivere la
richiesta in modo più chiaro o più specifico.
Anche cambiando poche parole, la risposta può migliorare molto. ​
​
Per esempio, chiedere “Scrivi una guida sulla fotografia” può portare a un testo molto
generico. Ma se si riformula in “Scrivi una guida base alla fotografia per chi usa uno
smartphone Android e vuole iniziare a fotografare paesaggi”, il risultato sarà più utile, perché
la richiesta è più precisa.
La riformulazione permette anche di correggere eventuali fraintendimenti. ​
​
Se l’IA interpreta male la prima domanda, possiamo spiegare meglio cosa volevamo dire,
aggiungere dettagli o cambiare l’ordine delle parole. È un processo simile a quello che
accade in una conversazione tra persone: più ci si chiarisce, migliore sarà lo scambio.
14.3.2 – Aggiungere dettagli senza complicare il messaggio
Spesso, quando le risposte non sono soddisfacenti, non è perché la domanda è sbagliata,
ma perché è troppo vaga o troppo generica. ​
​
Aggiungere dettagli al prompt è un modo semplice per rendere più chiara l’intenzione
242
dell’utente e aiutare il sistema a costruire una risposta migliore. Ma attenzione: aggiungere
dettagli non significa scrivere un prompt complicato.
L’obiettivo è fornire informazioni utili, ma con frasi chiare e dirette. ​
​
Ad esempio, anziché scrivere “Scrivi un testo sulla sicurezza online”, si può scrivere: “Scrivi
un testo di 300 parole sulla sicurezza online, rivolto a studenti delle scuole superiori, usando
un linguaggio semplice e includendo almeno due consigli pratici”.
In questo modo, si guida l’IA senza appesantire la richiesta. Il messaggio rimane leggibile,
ma contiene tutto ciò che serve per generare una risposta utile. ​
​
Questo tipo di raffinamento è molto efficace quando si lavora su contenuti destinati a un
pubblico specifico, quando si ha poco tempo o quando serve un risultato di qualità senza
doverlo riscrivere da zero.
14.3.3 – Iterare i prompt per ottenere precisione e coerenza
Il raffinamento del prompt è spesso un processo che si sviluppa in più passaggi.
Raramente il primo prompt porta alla risposta perfetta.​
​
È molto più realistico pensare a una sequenza di interazioni, dove si parte da una richiesta
iniziale e si aggiustano via via le domande, in base al contenuto che si riceve.
Questa tecnica è chiamata “iterazione”, e consiste nel dialogare con l’IA in modo
progressivo, facendo piccoli aggiustamenti o aggiunte ad ogni scambio. Si può iniziare con
una domanda generica, poi chiedere di sintetizzare, poi chiedere di riformulare in un altro
stile, e così via. ​
​
Un approccio del genere è utile soprattutto quando si sta costruendo un testo
complesso, una spiegazione tecnica, un discorso strutturato o un contenuto da pubblicare.
Iterare non significa sprecare tempo. Al contrario, aiuta a convergere verso un risultato più
preciso, sfruttando la capacità dell’IA di adattarsi rapidamente ai nuovi input. Con ogni
passo, la risposta diventa più centrata e coerente. ​
​
243
Questo metodo permette anche di risparmiare fatica nel lungo periodo, perché riduce
la necessità di riscrivere interi testi o di correggere manualmente contenuti poco adatti.
​
​
14.4 – Uso dei ruoli e contesto
14.4.1 – Far assumere un ruolo specifico al modello
Una tecnica molto efficace per ottenere risposte più utili dall’intelligenza artificiale è chiedere
al sistema di assumere un ruolo specifico. ​
​
Questo significa iniziare il prompt dicendo qualcosa come “Agisci come un insegnante di
storia”, oppure “Fingi di essere un consulente legale esperto in privacy digitale”. In questo
modo, si fornisce subito al modello una cornice precisa da cui partire.
Quando l’IA riceve questo tipo di istruzione, tende a modellare la sua risposta sulla base
del ruolo richiesto, scegliendo un linguaggio e una struttura più adatti al contesto. ​
​
Se le chiediamo di comportarsi come un avvocato, userà termini giuridici e un tono formale;
se le chiediamo di essere un coach motivazionale, userà un linguaggio più diretto ed
empatico.
Far assumere un ruolo è particolarmente utile in attività come la scrittura di testi
professionali, le simulazioni di colloquio, la preparazione a esami o presentazioni. ​
​
Inoltre, aiuta l’utente a ricevere risposte coerenti con un certo stile, evitando risultati troppo
generici o fuori contesto. È come “dare un copione” all’intelligenza artificiale: più è chiaro, più
l’interpretazione sarà convincente.
14.4.2 – Inserire contesto per aumentare la pertinenza
244
L’IA non conosce la situazione in cui ci troviamo, a meno che non gliela spieghiamo. Per
questo è importante aggiungere contesto al prompt, cioè fornire informazioni che aiutino il
sistema a capire meglio il nostro obiettivo. ​
​
Il contesto può includere il pubblico a cui è destinata la risposta, il motivo per cui la stiamo
chiedendo, oppure elementi legati all’ambiente, come il tipo di attività che svolgiamo.
Ad esempio, invece di scrivere solo “Spiegami il marketing digitale”, si può dire: “Sono uno
studente universitario al primo anno e ho bisogno di una spiegazione base del marketing
digitale, da usare in una presentazione PowerPoint di cinque minuti”. ​
​
In questo caso, l’IA sa chi sei, a cosa ti serve la risposta, e quanto tempo hai a disposizione.
Questo orienta molto meglio la risposta, rendendola più precisa e adatta al tuo scopo.
Aggiungere contesto non significa scrivere frasi lunghe o complicate. ​
​
Bastano poche righe, ben pensate, per guidare il sistema e migliorare la qualità
dell’interazione. È un po’ come fornire le istruzioni di un compito: più sono complete, più il
risultato sarà vicino a quello che desideri.
14.4.3 – Simulare scenari realistici attraverso i prompt
Oltre a rispondere a domande, l’intelligenza artificiale può essere usata per simulare
situazioni reali, come dialoghi, role-play o esercitazioni pratiche. ​
​
Questo è possibile proprio grazie alla capacità del modello di interpretare un ruolo e reagire
in base al contesto fornito. ​
​
Si può chiedere, ad esempio, “Simula un cliente insoddisfatto e fammi esercitare una
risposta professionale”, oppure “Fingi di essere un collega con cui devo negoziare una
nuova scadenza”.
Queste simulazioni sono molto utili per allenare competenze comunicative, migliorare la
scrittura professionale, prepararsi a riunioni, colloqui o presentazioni. ​
​
L’IA può anche adattare la difficoltà dello scenario: può essere collaborativa o difficile,
formale o informale, a seconda delle indicazioni che riceve.
245
Il vantaggio di questa tecnica è che si impara facendo, in un ambiente sicuro e senza
pressione. Si può ripetere l’esercizio, provare alternative, analizzare le risposte ricevute e
perfezionare il proprio approccio.​
​
In questo modo, l’IA diventa uno strumento non solo informativo, ma anche formativo: un
supporto per imparare in modo attivo, sperimentando situazioni concrete
14.5 – Strutture utili per ottenere risposte migliori
14.5.1 – Impostare obiettivi chiari all’interno del prompt
Ogni volta che si interagisce con un’intelligenza artificiale, il prompt – cioè la richiesta che si
formula – rappresenta l’unico mezzo per farsi capire. Questo significa che il successo della
risposta dipende da quanto è chiaro l’obiettivo che stiamo comunicando. ​
​
Se non diciamo chiaramente cosa ci aspettiamo, il sistema non potrà restituirci qualcosa di
utile. ​
​
È come chiedere a qualcuno: “Parlami un po’ di questo argomento”, senza spiegare perché
ne stiamo parlando, a chi è destinato il contenuto, e in quale contesto andrà usato.
Un obiettivo chiaro nel prompt non è solo “scrivi un testo”, ma qualcosa come: “Genera una
descrizione prodotto di 100 parole per un pubblico di genitori, mettendo in evidenza i
benefici per la salute dei bambini”. ​
​
Qui il sistema ha tutto quello che gli serve: sa che deve scrivere una descrizione, sa per chi
è diretta e sa su cosa deve concentrarsi. Questo tipo di richiesta aumenta notevolmente le
probabilità di ottenere un risultato davvero utile al primo tentativo.
246
Stabilire un obiettivo nel prompt significa anche scegliere il tipo di contenuto che vogliamo:
una spiegazione? ​
Un riassunto? ​
Un testo argomentativo? ​
Un consiglio pratico? ​
​
Spiegare “cosa” vogliamo è importante, ma dire anche “perché” lo vogliamo e “per chi” lo
vogliamo è ciò che trasforma un prompt generico in uno davvero efficace.
14.5.2 – Utilizzare esempi, condizioni o formati guida
Un prompt può essere ulteriormente potenziato se, oltre a spiegare cosa vogliamo,
mostriamo anche un esempio del risultato atteso, o definiamo dei parametri precisi entro
cui l’IA deve muoversi. ​
​
Questo è particolarmente utile in contesti professionali, quando il contenuto deve rispettare
un certo stile, una lunghezza specifica o un tono coerente con il pubblico.
Facciamo un esempio concreto. ​
​
Supponiamo che tu debba scrivere un’email di presentazione per un prodotto destinato a un
cliente aziendale. Un prompt come “Scrivi un’email commerciale” è troppo vago. ​
​
Ma se aggiungi: “Scrivi una mail formale, di massimo 150 parole, che presenti il nostro
nuovo software gestionale a un potenziale partner nel settore sanitario. Includi un invito a
fissare una call conoscitiva”, allora l’IA avrà una cornice chiara da seguire.
Dare un esempio, anche piccolo, aiuta l’IA a capire meglio l’intenzione. ​
​
Se hai già scritto qualcosa e vuoi che venga migliorato, puoi includere la bozza nel prompt.
In alternativa, puoi indicare uno stile da imitare, come: “Scrivi come se fossi un giornalista
del New York Times” o “Imita il tono amichevole delle pubblicità Apple”. ​
​
Questi accorgimenti guidano l’output, evitando fraintendimenti e facendo risparmiare
tempo nell’editing successivo.
247
14.5.3 – Chiedere spiegazioni passo dopo passo
Una delle funzioni più utili dell’IA, soprattutto in ambito educativo o formativo, è la capacità di
scomporre concetti complessi in fasi semplici e comprensibili. ​
​
Questo è possibile solo se lo chiediamo esplicitamente nel prompt. Infatti, quando la
richiesta è troppo generica, l’IA tende a fornire risposte compatte, spesso dense di contenuti
ma difficili da assimilare.
Per rendere l’informazione più accessibile, possiamo chiedere di suddividere la risposta in
punti, passaggi o livelli di difficoltà. ​
​
Per esempio: “Spiegami come funziona il sistema nervoso, ma passo dopo passo, come se
parlassi a un ragazzo di 13 anni”. Oppure: “Dividi la spiegazione in tre parti: introduzione,
funzionamento e applicazioni pratiche”. ​
​
In questo modo, l’IA organizza il contenuto in modo progressivo, seguendo una logica più
adatta all’apprendimento.
Questa tecnica è utile non solo per imparare, ma anche per creare contenuti più chiari per
altri. ​
​
Se devi scrivere un testo divulgativo, un tutorial o una guida, puoi usare il prompt per
chiedere all’IA di costruire il ragionamento in modo graduale. ​
​
Un approccio simile aiuta anche a evitare errori o ambiguità, perché spinge il modello a
controllare ogni fase del processo, dando risposte più solide e coerenti.
14.6 – Prompt per creatività e logica
14.6.1 – Stimolare idee originali con richieste aperte
248
Una delle applicazioni più affascinanti dell’intelligenza artificiale è la possibilità di usarla
come strumento creativo. ​
​
Questo vale per la scrittura, il disegno di idee di business, la creazione di contenuti visivi,
oppure per trovare spunti in situazioni in cui si ha un blocco creativo. ​
​
Tuttavia, per ottenere un buon risultato, è importante imparare a scrivere prompt che
lascino spazio all’originalità.
Un prompt aperto, cioè non troppo vincolato, permette all’IA di proporre soluzioni nuove o
inattese. ​
​
Per esempio, scrivere “Inventa tre idee di video per promuovere una libreria indipendente sui
social” è molto più stimolante rispetto a “Scrivi un post sulla lettura”. La prima richiesta indica
uno scopo (promozione), un formato (video), e un contesto (libreria indipendente), ma lascia
libertà creativa sull’approccio.
Usare questo tipo di prompt aiuta a vedere le cose da prospettive diverse, ricevere
proposte inaspettate e generare versioni alternative di un’idea iniziale. ​
​
È utile anche quando si lavora in gruppo: l’IA può fare da supporto nel brainstorming,
suggerendo punti di vista che magari non sarebbero emersi spontaneamente. Non
sostituisce l’intuizione umana, ma la stimola e la completa.
14.6.2 – Usare l’IA per risolvere problemi con ragionamento
L’intelligenza artificiale non è solo uno strumento creativo. Può essere anche un valido
alleato nel ragionamento logico e nella risoluzione di problemi. ​
​
Quando si tratta di affrontare un compito complesso, come prendere una decisione
strutturata, analizzare un problema o costruire un piano di lavoro, si può guidare l’IA con
prompt che la invitano a ragionare passo dopo passo.
Ad esempio, un prompt come “Aiutami a valutare i pro e contro di aprire un negozio online di
abbigliamento per bambini, considerando costi, logistica e pubblicità” porta il modello a
scomporre la questione in parti analizzabili, invece di rispondere in modo generico.​
​
249
Si può poi chiedere di costruire una tabella, un elenco o uno schema decisionale per chiarire
meglio le informazioni.
Un altro uso frequente è quello dei problemi tecnici o matematici. Si può scrivere: “Spiegami
passo dopo passo come si risolve questa equazione” oppure “Costruisci un piano di lavoro
in 5 fasi per organizzare una campagna di raccolta fondi”. ​
​
Il prompt qui non chiede solo un risultato, ma anche un percorso di ragionamento, che
permette all’utente di seguire e verificare ogni passaggio.
14.6.3 – Bilanciare libertà creativa e vincoli logici
Un buon prompt per creatività o problem solving deve trovare il giusto equilibrio tra
lasciare spazio all’IA per esplorare idee nuove e fornire limiti che guidino la risposta verso
uno scopo utile. ​
​
Se si dà troppa libertà, il risultato può essere confuso o troppo fantasioso. Se si è troppo
rigidi, l’IA si limita a ripetere contenuti standardizzati.
Per bilanciare questi due aspetti, è utile specificare quali elementi devono essere
presenti (ad esempio: “Scrivi una fiaba per bambini con tre personaggi, un insegnamento
morale e ambientata in una foresta”) ma lasciare libertà sullo stile e sullo sviluppo della
storia. ​
​
Così si ottiene un contenuto coerente, ma originale. ​
​
Lo stesso vale nel ragionamento: si può chiedere all’IA di esplorare più soluzioni, ma
seguendo un metodo logico chiaro, come il confronto costi-benefici o la valutazione dei
rischi.
Questo equilibrio tra creatività e struttura è fondamentale per ottenere risposte davvero
utili e applicabili. ​
​
Si stimola l’IA a generare idee, ma si evita di ricevere testi vaghi o fuori tema. L’utente ha
così il controllo del contenuto, senza rinunciare alla ricchezza e alla varietà che un sistema
generativo può offrire.
250
​
​
14.7 – Errori comuni da evitare
14.7.1 – Essere vaghi, ambigui o troppo generici
Uno degli errori più comuni è scrivere richieste troppo vaghe o poco chiare. Quando il
prompt è generico, l’IA non ha abbastanza elementi per capire cosa vuoi davvero. ​
​
Frasi come “Scrivimi qualcosa sull’ambiente” o “Parlami del marketing” sono troppo aperte.
L’intelligenza artificiale farà del suo meglio per rispondere, ma senza sapere il contesto, il
pubblico o l’obiettivo, la risposta rischia di essere superficiale, confusa o non
pertinente.
Anche l’ambiguità può creare problemi. Se il prompt contiene parole con più significati, o
domande formulate male, l’IA potrebbe interpretarle in modo sbagliato. ​
​
Ad esempio, se scrivi “Parlami di Python”, il sistema potrebbe pensare al linguaggio di
programmazione o al serpente. Per evitarlo, basta aggiungere un piccolo chiarimento:
“Parlami del linguaggio di programmazione Python, usato per l’analisi dati”.
Essere più chiari non significa scrivere un testo complicato. Basta specificare ciò che vuoi
sapere, perché lo chiedi e come vuoi la risposta. Anche due o tre dettagli in più possono
migliorare molto la qualità del contenuto generato.
14.7.2 – Chiedere troppo in un’unica richiesta
Un altro errore frequente è quello di inserire troppe istruzioni in un solo prompt. ​
​
251
Quando si chiede all’IA di fare troppe cose contemporaneamente – come scrivere un testo
lungo, spiegare un concetto, tradurlo in un’altra lingua e poi adattarlo per diversi pubblici – il
risultato rischia di essere poco chiaro o impreciso.
L’intelligenza artificiale funziona meglio quando riceve una richiesta ben focalizzata. Se il
compito è articolato, conviene suddividerlo in passaggi. Prima si può chiedere di
scrivere il testo, poi di riformularlo in un altro stile, e infine di tradurlo o adattarlo. ​
​
Questo approccio a “fasi” aiuta l’IA a concentrarsi su una cosa alla volta e produce risposte
più ordinate e più coerenti.
Un prompt troppo carico può anche confondere il sistema: non saprà quale parte della
richiesta dare per prioritaria, o quale tono usare se ne vengono indicati diversi. ​
​
È sempre meglio procedere con calma, costruendo il contenuto passo dopo passo, piuttosto
che forzare tutto in una sola domanda.
14.7.3 – Ignorare il feedback del modello e non adattarsi
Spesso chi usa l’intelligenza artificiale si aspetta che la prima risposta sia perfetta. Ma in
realtà, come in ogni forma di comunicazione, la qualità finale si costruisce anche nel
dialogo. ​
​
Se la risposta non è esattamente come volevi, puoi correggere il tiro, dare un nuovo input o
aggiustare il prompt iniziale.
Ignorare questo processo di aggiustamento è un errore. Se la risposta è troppo lunga, si può
chiedere: “Riformula in meno parole”. Se è troppo tecnica, si può specificare: “Spiega come
se fossi alle prime armi”. ​
​
L’IA è progettata per adattarsi al tuo stile e alle tue richieste, ma ha bisogno di indicazioni
continue e sempre più precise.
Un altro errore è rifare sempre lo stesso prompt, aspettandosi risultati diversi. Se la risposta
non è soddisfacente, è più utile cambiare il modo in cui si fa la domanda, piuttosto che
ripeterla uguale. ​
​
252
Con un po’ di pratica, si impara a leggere tra le righe del feedback dell’IA e a costruire
richieste migliori ad ogni passaggio.
Essere flessibili, osservare le risposte e imparare a perfezionare i prompt è ciò che distingue
l’uso passivo dell’intelligenza artificiale da un uso consapevole ed efficace.
15. Limiti e rischi dell’uso dell’IA generativa
​
15.1 – Hallucination: quando l’IA inventa
15.1.1 – Cos’è l’hallucination e perché si verifica
Nel campo dell’intelligenza artificiale, il termine “hallucination” non ha nulla a che vedere con
le allucinazioni umane. ​
​
Si usa invece per descrivere un fenomeno molto specifico: quando l’IA genera
un’informazione che sembra corretta, ma in realtà è falsa o inventata. ​
​
Questo può accadere in una definizione, in un dato storico, in una citazione o persino in un
nome. Il problema è che spesso la risposta appare credibile, ben scritta e con un tono
sicuro, quindi è facile crederci senza controllare.​
​
L’hallucination nasce dal modo in cui funziona un modello linguistico come ChatGPT. ​
​
L’IA non ragiona come una persona, ma prevede parola dopo parola quale sia la
continuazione più probabile di un testo, sulla base di ciò che ha visto nei dati di
addestramento. ​
​
Questo significa che non sta “cercando la verità”, ma semplicemente componendo frasi
253
coerenti. Quando i dati non bastano o il prompt è troppo ambiguo, il modello può
riempire i vuoti “a modo suo”, creando contenuti che suonano giusti, ma non lo sono.
È importante sapere che questo comportamento non è causato da un errore tecnico, ma è
una caratteristica naturale di questi sistemi. ​
​
L’IA non “mente” con intenzione: semplicemente non ha la capacità di distinguere ciò che
è vero da ciò che non lo è. Ecco perché l’hallucination è oggi uno dei limiti più discussi
dell’intelligenza artificiale generativa.
15.1.2 – Conseguenze pratiche di una risposta errata
Quando un’IA genera una risposta falsa ma plausibile, i rischi non sono solo teorici. ​
​
Possono esserci conseguenze concrete, anche gravi, soprattutto se l’utente prende per
buona l’informazione senza verificarla. ​
​
In ambito scolastico, ad esempio, uno studente potrebbe citare un dato storico sbagliato in
una ricerca. In ambito professionale, un’impresa potrebbe usare un riferimento normativo
inventato, esponendosi a errori legali o danni di reputazione.
Il problema è aggravato dal fatto che spesso le risposte “hallucinate” sembrano
professionali e convincenti. L’IA può citare fonti che non esistono, mescolare fatti veri con
dati sbagliati, o formulare ipotesi come se fossero certezze. ​
​
Questo rende difficile, soprattutto per chi è poco esperto, distinguere il vero dal falso. E se si
usa l’output così com’è, senza controllo umano, l’errore può propagarsi rapidamente.
In alcuni casi, l’hallucination è solo un fastidio. In altri può avere conseguenze etiche, legali o
reputazionali rilevanti. ​
​
15.1.3 – Strategie per riconoscere e gestire i contenuti inventati
254
Sapere che l’IA può generare contenuti falsi è il primo passo. Il secondo è imparare a
riconoscerli e ridurre il rischio che accadano. ​
​
Un modo efficace per evitare l’hallucination è scrivere prompt più chiari, specifici e
orientati alla richiesta di dati verificabili. ​
​
Invece di chiedere “Scrivimi un articolo sulle leggi europee sulla privacy”, si può dire:
“Riassumi i punti principali del Regolamento Generale sulla Protezione dei Dati (GDPR)
usando solo fonti ufficiali”.
Un’altra strategia importante è quella di non fidarsi ciecamente della risposta, anche se
scritta bene. Quando l’IA cita fonti, è utile verificarle. ​
​
Se un modello fa riferimento a un autore, un documento o una data, si può fare una ricerca
per controllare che queste informazioni esistano davvero. Laddove non ci siano riferimenti
chiari, è meglio non usare il testo come fonte affidabile, ma solo come punto di partenza.
Infine, è utile sviluppare un atteggiamento critico e attivo, soprattutto quando si usa l’IA
per scrivere contenuti destinati ad altri. ​
​
Chi legge o pubblica testi generati da un’intelligenza artificiale ha il dovere di rivederli,
correggerli e verificarli. Non si tratta di sfiducia, ma di consapevolezza. L’IA può essere un
ottimo strumento, ma ha bisogno di supervisione per non trasformarsi in un rischio.
15.2 – Bassa comprensione del contesto
15.2.1 – I limiti della memoria temporanea nei modelli linguistici
Uno dei motivi per cui l’intelligenza artificiale può fraintendere una richiesta è la scarsa
capacità di mantenere il contesto nel tempo, specialmente nelle conversazioni più
lunghe.
255
A differenza di un essere umano, che ricorda tutto quello che è stato detto in un dialogo, l’IA
lavora con una “memoria temporanea” limitata: tiene conto solo di una certa quantità di
messaggi recenti e tende a dimenticare quelli più vecchi.
Questo significa che, se una conversazione è articolata su più passaggi, il modello può
perdere di vista dettagli importanti, come chi ha detto cosa, quale tono si stava usando o
qual era la direzione iniziale del discorso. ​
​
In alcuni casi, può anche contraddirsi, cambiare argomento senza motivo o ripetere
informazioni già date. Non lo fa perché è confusa, ma perché non ha una comprensione
continua e profonda del dialogo, come accade con le persone.
Questo limite si manifesta soprattutto quando si lavora su testi complessi, progetti lunghi o
domande costruite in più fasi. ​
​
L’IA può apparire “distratta” o incoerente perché non ha una memoria stabile e
permanente come un essere umano. Per questo motivo, è importante saper guidare la
conversazione con richieste precise e, se necessario, ripetere o riassumere le informazioni
fondamentali.
15.2.2 – Perché l’IA fatica a seguire conversazioni complesse
L’intelligenza artificiale lavora per probabilità, non per comprensione reale. ​
​
Quando risponde, non sa davvero di cosa sta parlando: semplicemente genera parole e
frasi che, statisticamente, hanno più probabilità di seguire la tua richiesta in modo coerente. ​
​
Un approccio simile funziona bene con domande semplici o dirette, ma mostra i suoi limiti
quando la conversazione si fa lunga, ambigua o troppo astratta.
Una difficoltà tipica è quella di seguire il filo logico in conversazioni articolate. ​
​
Se si fanno domande concatenate, se si cambia argomento e poi si torna indietro, l’IA può
non capire che stai parlando dello stesso tema. Ad esempio, dopo aver chiesto “Quali sono i
benefici dello yoga?”, potresti scrivere “E i rischi?”. Un essere umano capirebbe che parli
256
sempre di yoga. L’IA, invece, potrebbe non collegare le due domande, soprattutto se sono
passati altri messaggi in mezzo.
Anche nei testi argomentativi, o quando si cerca di costruire un ragionamento con più
passaggi, l’IA può saltare passaggi, fare affermazioni troppo generiche o perdere
coerenza tra l’inizio e la fine.
Questo accade perché non ha una visione globale del discorso: ragiona una frase alla volta,
senza una vera capacità di collegare in modo profondo tutti i punti tra loro.
15.2.3 – Come migliorare la coerenza tramite prompt più chiari
Anche se l’IA ha limiti nel comprendere il contesto, l’utente può fare molto per guidarla e
aiutarla a restare focalizzata. ​
​
Il modo più efficace è scrivere prompt che contengano tutte le informazioni necessarie,
anche se possono sembrare ripetitive. Non bisogna dare per scontato che il sistema ricordi
cosa si è detto nei messaggi precedenti, soprattutto se si tratta di dettagli tecnici o nomi
specifici.
Per esempio, invece di scrivere solo “Continua il testo”, è meglio scrivere “Continua la
spiegazione dei vantaggi della meditazione sulla concentrazione, usando un linguaggio
semplice come nella parte precedente”. ​
​
Questo tipo di prompt fornisce istruzioni chiare, con contesto, stile e argomento
espliciti, così l’IA non deve indovinare, ma può proseguire il lavoro nel modo corretto.
Un’altra strategia utile è quella di riassumere brevemente i punti principali a ogni nuovo
passaggio. Questo aiuta l’IA a ricostruire il discorso e a rispondere in modo più coerente. ​
​
Se si scrive “Finora abbiamo parlato dei benefici della dieta mediterranea. Ora potresti
spiegare come si adatta allo stile di vita di uno studente universitario?”, si offre un contesto
solido per continuare il dialogo.
Quindi, anche se l’IA ha limiti nella comprensione del contesto, è possibile ottenere
risposte più coerenti e complete attraverso una buona progettazione del prompt. Sta
all’utente imparare a fornire le informazioni giuste, nel momento giusto, per guidare il
modello con chiarezza e precisione.
257
​
15.3 – Rischi di bias nei modelli
15.3.1 – Come i pregiudizi si inseriscono nei dati di addestramento
L’intelligenza artificiale, per quanto sofisticata, non nasce dal nulla. ​
​
I modelli vengono “allenati” su enormi quantità di dati, spesso raccolti da internet, da
documenti pubblici, libri, articoli, conversazioni e contenuti generati dagli esseri umani. ​
​
Questo significa che tutti i limiti, i pregiudizi, le distorsioni e le disuguaglianze presenti
nei testi originali possono essere assorbiti anche dai modelli stessi. ​
​
Se nei dati compaiono stereotipi sessisti, razzisti, o discriminazioni implicite, la macchina
non ha strumenti per riconoscerli come tali: li assimila come normali, perché sono parte del
materiale su cui si basa l’apprendimento.
Questa dinamica è insidiosa perché il modello non ha consapevolezza morale. ​
Non distingue tra contenuto corretto o offensivo, tra una generalizzazione ingiusta e un fatto. ​
​
Impara dalle frequenze: più spesso una certa associazione appare nei testi, più la considera
plausibile. ​
​
Ad esempio, se nei dati si associano più frequentemente lavori tecnici agli uomini e quelli di
cura alle donne, è probabile che il modello riproduca questi schemi nei suoi output, anche se
nessuno li ha programmati direttamente.​
15.3.2 – Impatti sociali, culturali ed etici dei bias
Quando un’intelligenza artificiale diffonde o amplifica stereotipi, gli effetti non restano
confinati al piano tecnico. Possono influenzare la società, le relazioni tra persone e
perfino le decisioni politiche o economiche. ​
258
​
Un modello che suggerisce automaticamente testi, valutazioni, raccomandazioni o immagini
può contribuire a rafforzare visioni del mondo parziali o discriminatorie. ​
​
Questo rischio è particolarmente preoccupante nei contesti educativi, giuridici, lavorativi o
sanitari, dove la neutralità dovrebbe essere un valore fondamentale.
Anche se spesso involontari, i bias nei modelli possono escludere intere categorie di
persone, rappresentare in modo distorto determinati gruppi sociali, o perpetuare forme sottili
di ingiustizia. ​
​
Il problema non è solo tecnico, ma culturale: i modelli rispecchiano la realtà che li ha
generati, e se quella realtà è squilibrata, l’IA può diventare uno specchio deformante invece
che uno strumento di equità.
15.3.3 – Soluzioni tecniche e buone pratiche per ridurre i rischi
Affrontare il problema dei bias non significa eliminare ogni imperfezione – cosa impossibile –
ma ridurre al minimo gli effetti dannosi e rendere i modelli più equi, trasparenti e affidabili. ​
​
Una delle soluzioni più efficaci è la diversificazione dei dati di addestramento: includere
fonti eterogenee, rappresentative di culture, lingue, prospettive e generi diversi. Questo
permette al modello di apprendere da una realtà più ampia e meno polarizzata.
Un’altra strategia è il controllo attivo dei risultati, tramite valutazioni umane e test specifici,
che aiutano a individuare e correggere comportamenti problematici. ​
​
In alcuni casi, si utilizzano tecniche automatiche per riequilibrare le risposte o mascherare
associazioni scorrette. Ma nessuna soluzione tecnica può sostituire del tutto la
responsabilità progettuale. ​
​
Chi sviluppa, usa o promuove sistemi di intelligenza artificiale deve essere consapevole di
questi rischi e adottare pratiche etiche, spiegabili e verificabili.
259
La sfida dei bias non si vince con un algoritmo, ma con una combinazione di conoscenze
tecniche, sensibilità sociale e visione etica.
​
​
​
15.4 – Dipendenza dagli strumenti digitali
15.4.1 – Quando l’IA diventa un sostituto anziché un supporto
L’intelligenza artificiale può essere un aiuto straordinario, ma solo se resta un mezzo, non un
fine. ​
​
Quando cominciamo ad affidarci a essa in modo eccessivo, rischiamo di farle fare scelte al
nostro posto, senza nemmeno accorgercene. Invece di usare l’IA per semplificare alcune
attività, capita che diventi il pilota automatico della nostra vita quotidiana.
Un esempio concreto riguarda gli strumenti per scrivere testi o prendere decisioni: se ogni
volta che dobbiamo scrivere una mail, organizzare una riunione o cercare un’informazione ci
limitiamo a copiare ciò che dice l’IA, perdiamo lentamente la capacità di pensare in
autonomia. ​
​
Non è l’uso dell’IA il problema, ma la passività con cui la accettiamo. Il confine tra
“supporto” e “sostituzione” è sottile, e spesso lo superiamo senza rendercene conto.
Il rischio è che, affidandoci troppo a questi strumenti, finiamo per delegare non solo le azioni,
ma anche il giudizio, la riflessione, la responsabilità. ​
​
La tecnologia allora non ci accompagna, ma ci guida. E noi smettiamo di essere protagonisti
delle nostre scelte.​
​
260
15.4.2 – Effetti sulla capacità di pensare in modo autonomo
Il nostro cervello è come un muscolo: se lo alleniamo, si rafforza. ​
​
Ma se lo usiamo sempre meno, si indebolisce. Quando ci abituiamo a chiedere tutto a un
assistente digitale, a usare strumenti che completano le frasi, riassumono testi o prendono
decisioni per noi, iniziamo – senza volerlo – a esercitare meno la nostra mente.
Questo può portare a una perdita graduale della capacità di analizzare, ragionare,
dubitare. ​
​
In particolare tra i più giovani, l’uso eccessivo dell’IA può rendere più difficile lo sviluppo del
pensiero critico: quella capacità fondamentale di mettere in discussione le risposte, farsi
domande, confrontare punti di vista.
Anche chi è già adulto può essere influenzato: se ci abituiamo ad accettare tutto ciò che ci
viene proposto da un algoritmo, smettiamo di chiederci “perché”, “come”, “cos’altro potrei
considerare?”. ​
​
E senza queste domande, il pensiero si appiattisce. Diventiamo esecutori di risposte
preconfezionate, invece che costruttori di idee.
​
​
15.4.3 – Coltivare un uso critico e consapevole dell’IA
La soluzione non è rinunciare all’intelligenza artificiale, ma imparare a usarla con
intelligenza. Serve un approccio critico, che non significa essere diffidenti, ma attenti. ​
​
Ogni volta che riceviamo una risposta da un modello linguistico, dovremmo chiederci: “È
affidabile? È completa? A chi conviene questa informazione? Potrei verificarla da un’altra
parte?”
Essere utenti consapevoli vuol dire mantenere attiva la nostra capacità di giudizio. ​
​
Possiamo lasciarci ispirare dalle proposte dell’IA, ma senza spegnere il nostro pensiero.
Possiamo farci aiutare a scrivere un testo, ma poi dobbiamo rileggerlo, modificarlo,
adattarlo. ​
261
L’IA può darci una scorciatoia, ma non deve sostituirsi alla strada che siamo capaci di
percorrere da soli.
Per fare questo, è fondamentale educare le persone – a scuola, al lavoro, in famiglia – a
un uso critico della tecnologia. Non basta sapere come si usa un assistente virtuale: bisogna
capire quando, perché e con quali limiti.
Solo così l’IA resterà uno strumento utile, al nostro servizio. E non diventerà,
silenziosamente, la mente che decide per noi.
​
15.5 – Impatti sull’occupazione
15.5.1 – Settori più esposti all’automazione tramite IA
L’automazione guidata dall’intelligenza artificiale non riguarda solo le fabbriche o i lavori
manuali. ​
​
Oggi anche professioni impiegatizie, creative o intellettuali stanno entrando in una fase
di trasformazione. L’IA è capace di scrivere testi, analizzare dati, rispondere a clienti,
generare immagini, revisionare codici. Tutto questo apre nuove possibilità, ma mette anche
a rischio alcune mansioni tradizionali.
I settori più esposti non sono quelli “meno qualificati”, ma quelli dove il lavoro è ripetitivo,
standardizzabile, basato su regole fisse o grandi volumi di informazioni. ​
​
Pensiamo, ad esempio, agli uffici amministrativi, dove modelli di IA possono compilare
documenti, controllare fatture, organizzare archivi. Oppure ai call center, dove chatbot
intelligenti gestiscono le richieste più comuni, 24 ore su 24. ​
​
262
Anche il mondo dell’informazione, della traduzione e del marketing sta cambiando
rapidamente: la scrittura automatica di articoli, e-mail o post sui social non è più
fantascienza, ma una realtà quotidiana.
Non significa che tutti questi lavori spariranno, ma che cambieranno profondamente. E chi
non si adatta rischia di rimanere indietro.​
​
15.5.2 – Nuove opportunità lavorative e competenze emergenti
Accanto ai lavori che scompaiono o si trasformano, ne nascono molti altri. L’intelligenza
artificiale non è solo distruzione di posti, ma anche generazione di nuove professionalità. ​
​
Alcuni mestieri recenti – come il data analyst, il prompt designer, il content reviewer per l’IA,
lo specialista in etica algoritmica – dieci anni fa non esistevano nemmeno.​
​
L’elemento comune tra questi nuovi ruoli è la capacità di dialogare con la tecnologia,
guidarla, interpretarla, affiancarla. Non servono per forza lauree in informatica: spesso
bastano competenze trasversali, una buona alfabetizzazione digitale, e la disponibilità ad
apprendere strumenti nuovi. ​
​
In molti casi, le persone più creative, curiose, adattabili, trovano nell’IA una leva per
potenziare il proprio lavoro.
Inoltre, l’IA non sostituisce l’empatia, la leadership, la negoziazione, la capacità di lavorare in
gruppo. Anzi: man mano che le macchine gestiscono le attività più tecniche o meccaniche,
diventeranno ancora più preziose le competenze umane. ​
​
Le aziende cercheranno persone capaci di comprendere bisogni, immaginare soluzioni,
coordinare processi. La sfida non è evitare l’IA, ma imparare ad ampliare il proprio valore
attraverso di essa.​
​
​
​
​
263
15.5.3 – Il ruolo della formazione nel ridisegnare il lavoro
In un mondo in cui le tecnologie cambiano più in fretta delle professioni, la formazione non
può più essere un’attività concentrata solo nei primi anni di vita. Serve una formazione
continua, capace di accompagnare ogni persona – a qualsiasi età – nel rinnovamento delle
competenze.
Non si tratta solo di imparare a usare nuovi strumenti, ma di cambiare mentalità. ​
​
Bisogna passare da un’idea di lavoro come “insieme di mansioni” a una visione più
dinamica: un lavoro è un insieme di capacità che si evolvono, si aggiornano, si ibridano con
altri saperi. ​
​
Le scuole, le università, le aziende, ma anche le istituzioni pubbliche, devono costruire
percorsi di apprendimento più flessibili, personalizzati, accessibili anche a chi parte da zero.​
​
Chi oggi si sente minacciato dall’IA, domani potrebbe diventarne utilizzatore
consapevole, se messo nelle condizioni di imparare. Per questo è fondamentale investire
non solo nella tecnologia, ma nelle persone che dovranno conviverci.
Non è il lavoro a scomparire: è il modo in cui lo concepiamo che deve cambiare. E il primo
passo è offrire a tutti la possibilità di comprendere, scegliere e reinventarsi.
​
​
​
15.6 – Abusi e uso scorretto dell’IA
15.6.1 – Generazione di contenuti falsi, spam e disinformazione
Uno dei rischi più seri legati all’intelligenza artificiale è la sua capacità di generare contenuti
in modo automatico, rapido e convincente. ​
​
Questa caratteristica, che rappresenta un grande vantaggio in ambito creativo o produttivo,
può però diventare pericolosa se usata con intenzioni malevole.
264
Oggi è possibile creare con pochi clic notizie inventate, video manipolati (i cosiddetti
deepfake), recensioni false, messaggi spam, documenti falsificati. ​
​
I sistemi generativi – come quelli basati su testi, immagini o voci sintetiche – possono
produrre contenuti realistici che imitano lo stile umano in modo così preciso da ingannare
anche persone esperte. Questo apre la strada a campagne di disinformazione, truffe,
diffusione di odio o manipolazione dell’opinione pubblica.
In passato, produrre falsi credibili richiedeva tempo, risorse e competenze. Oggi bastano
pochi minuti e uno smartphone. ​
​
Il problema non è più solo la quantità di contenuti disponibili online, ma l’incapacità di
distinguere il vero dal verosimile. ​
​
Quando tutto può essere costruito artificialmente, la fiducia nelle informazioni vacilla. E in
una società democratica, la fiducia è una risorsa fondamentale.​
​
15.6.2 – Strumenti IA usati in modo illecito o ingannevole
La tecnologia, di per sé, è neutra: non è “buona” o “cattiva”. Dipende da come viene usata.​
Ma proprio per la sua potenza, l’intelligenza artificiale può finire facilmente nelle mani
sbagliate o essere utilizzata in modo irresponsabile. ​
​
Un modello che nasce per aiutare a scrivere meglio può essere usato per inviare email
truffaldine più credibili. Un sistema per generare immagini può essere piegato alla creazione
di contenuti offensivi, diffamatori o pornografici senza consenso.
Non si tratta solo di casi isolati. ​
​
Esistono già servizi illegali o borderline che sfruttano l’IA per violare la privacy, aggirare
controlli automatici, clonare voci o identità digitali. E spesso questi strumenti sono accessibili
anche a persone senza competenze tecniche, rendendo più facile per chiunque compiere
azioni dannose.
Ma il pericolo maggiore non viene sempre dall’illegalità, bensì dalla mancanza di
consapevolezza. ​
265
​
Molti utenti usano strumenti di IA senza sapere cosa stanno facendo: accettano
suggerimenti senza verificarli, condividono contenuti generati artificialmente senza
controllarne la fonte, o usano immagini create con IA pensando che siano libere da diritti.
Senza educazione digitale e responsabilità individuale, l’IA può diventare un’arma senza
padrone.​
​
​
​
15.6.3 – Regole, limiti e responsabilità dell’utente
Affidarsi all’intelligenza artificiale significa anche assumersi delle responsabilità. ​
Chi usa un modello generativo – per scrivere, creare, pubblicare – non può lavarsene le
mani come se fosse tutto “colpa della macchina”. ​
​
Ogni output generato da un sistema di IA passa prima da un input umano. E quindi, in
qualche modo, da una scelta.
È fondamentale che gli utenti sviluppino una coscienza etica dell’uso dell’IA. Questo
vale sia per i professionisti, che la integrano nei loro flussi di lavoro, sia per le persone
comuni che la usano per svago, studio o comunicazione. ​
​
Serve rispetto per la verità, per la proprietà intellettuale, per l’identità altrui. Serve la capacità
di chiedersi: “Quello che sto generando è corretto? Potrebbe danneggiare qualcuno? Sta
violando la fiducia di chi legge o guarda?”
Dall’altro lato, servono anche regole chiare. ​
​
La responsabilità non può ricadere solo sugli utenti. Le piattaforme che distribuiscono
strumenti di IA devono fornire linee guida trasparenti, strumenti per segnalare abusi, opzioni
per controllare ciò che viene prodotto. ​
​
I governi e le istituzioni devono intervenire con normative che proteggano le persone e la
società, senza soffocare l’innovazione.
266
La vera sfida, quindi, non è evitare l’IA, ma imparare a convivere con essa in modo maturo​
​
Come per ogni grande potere, ciò che conta non è solo ciò che possiamo fare, ma ciò che
dovremmo fare. E in questo, la responsabilità è una partita che si gioca su tutti i fronti:
tecnologico, culturale, educativo e legale.
15.7 – Responsabilità e trasparenza
15.7.1 – Chi è responsabile di ciò che genera l’IA?
Quando un’intelligenza artificiale produce un contenuto scorretto, offensivo o dannoso,
sorge una domanda difficile: di chi è la colpa? Della macchina? Di chi l’ha usata? Di chi l’ha
costruita?
La verità è che l’IA non ha volontà propria. Non ha intenzioni, non sa distinguere il bene
dal male. E proprio per questo non può essere considerata responsabile. ​
​
La responsabilità, quindi, deve sempre ricadere sugli esseri umani coinvolti: chi ha
progettato il sistema, chi lo ha addestrato, chi lo ha messo in commercio, chi lo ha utilizzato.
Il problema è che spesso questi ruoli si sovrappongono, e le responsabilità si perdono. È qui
che servono regole precise. ​
​
Se un modello genera contenuti pericolosi perché è stato addestrato su dati inadeguati,
allora il problema è a monte, nella fase di progettazione. Se l’utente lo ha usato per scopi
scorretti, la colpa è nel modo in cui è stato applicato. Se la piattaforma non ha fornito avvisi
o controlli adeguati, c’è una responsabilità nella gestione del servizio.
L’IA può essere vista come un’automobile: se va fuori strada e causa un incidente, bisogna
capire se il freno era difettoso, se il conducente era distratto o se la strada era mal
267
segnalata. ​
​
Ma in ogni caso, non si dà la colpa alla macchina.
​
​
​
15.7.2 – L’importanza della tracciabilità delle fonti
Quando leggiamo un testo generato da un’IA, spesso non sappiamo da dove provengano le
informazioni usate per costruirlo. ​
​
Questo può sembrare un dettaglio, ma in realtà è una questione fondamentale. Se non
conosciamo le fonti, non possiamo sapere se un contenuto è affidabile, aggiornato o
imparziale.
La tracciabilità delle fonti – cioè la possibilità di risalire all’origine delle informazioni – è
una delle chiavi per costruire fiducia nell’uso dell’IA. ​
​
In alcuni strumenti (come Perplexity AI) le fonti sono indicate in modo chiaro, con link diretti
ai documenti originali. In altri casi, invece, il sistema si basa su un “sapere diffuso” appreso
in fase di addestramento, ma non è in grado di dire da dove ha tratto un’affermazione
specifica.
Questo rappresenta un problema, soprattutto quando l’IA viene usata in contesti sensibili:
scuola, medicina, diritto, informazione. ​
​
Senza fonti verificabili, rischiamo di accettare tutto ciò che leggiamo solo perché “lo ha
detto la macchina”. Ma un testo ben scritto non è necessariamente vero. E una risposta
convincente può essere sbagliata.
Per questo è necessario promuovere modelli di IA trasparenti, che permettano di verificare
le basi su cui si fondano le risposte. E al tempo stesso, educare gli utenti a non fidarsi
ciecamente, ma a usare l’IA come punto di partenza, non come verità assoluta.​
​
​
​
268
15.7.3 – Verso un’intelligenza artificiale più trasparente e verificabile
La trasparenza nell’IA non riguarda solo le fonti, ma tutto il funzionamento del sistema: quali
dati sono stati usati per addestrarlo, quali regole seguono i modelli, chi prende le decisioni
quando un output è rifiutato o corretto. ​
​
In molti casi, gli algoritmi che guidano l’IA sono veri e propri “scatoloni neri”: lavorano in
modo opaco, e nessuno – nemmeno i programmatori – sa esattamente come siano arrivati a
un certo risultato.
Ma se vogliamo usare questi strumenti nella vita quotidiana, nelle aziende, nelle scuole o
nelle istituzioni, non possiamo accettare questa opacità. Serve un cambiamento culturale
e tecnico verso sistemi comprensibili, documentati e spiegabili. ​
​
Questo significa che ogni utente dovrebbe poter sapere, in modo semplice, come funziona il
modello che sta usando, quali limiti ha, come correggere eventuali errori.
Trasparenza significa anche inclusione nei processi decisionali. Le persone devono poter
partecipare alla definizione delle regole con cui l’IA viene progettata e utilizzata. ​
​
Non possiamo lasciare tutto in mano a poche aziende o a ingegneri specializzati.
L’intelligenza artificiale tocca la vita di tutti, e tutti devono avere voce in capitolo.
In definitiva, non basta costruire IA più potenti: dobbiamo costruire IA più giuste. ​
E la giustizia, in una società digitale, passa dalla responsabilità e dalla trasparenza.
​
​
​
​
269
16. Privacy, sicurezza e gestione dei dati con
l’IA
16.1 – Cosa succede ai dati che forniamo
16.1.1 – Dati visibili, dati nascosti: cosa vede l’IA
Quando scriviamo qualcosa a un assistente virtuale o usiamo un'applicazione basata su
intelligenza artificiale, stiamo fornendo dei dati. Alcuni sono evidenti, come le parole che
digitiamo, i documenti che carichiamo o le domande che poniamo. ​
​
Ma ci sono anche dati nascosti che spesso non vediamo, ma che vengono comunque
registrati: la data e l’ora dell’interazione, il tipo di dispositivo utilizzato, la lingua, il luogo
approssimativo da cui ci connettiamo.
L’intelligenza artificiale non “vede” i dati come una persona. ​
​
Non ha coscienza né intenzioni, ma tutto ciò che le forniamo viene analizzato come
“materiale di input” per generare una risposta. E in molti casi, questi input vengono
memorizzati temporaneamente o utilizzati per migliorare il servizio. ​
​
Questo significa che la nostra interazione potrebbe essere osservata, valutata e usata
come esempio per addestrare il modello, se non vengono applicate restrizioni specifiche.
È importante capire che anche un semplice messaggio può contenere informazioni
personali. ​
​
Ad esempio, una frase come “Sto cercando un avvocato per il divorzio” rivela molto più di
quanto sembri: dice qualcosa sulla nostra situazione personale, sullo stato civile, sulle
nostre intenzioni. ​
​
270
E questi dettagli possono essere immagazzinati, associati a un profilo o usati per inferenze
successive.
​
​
16.1.2 – Dove finiscono le informazioni che inseriamo
Molte persone credono che i dati inseriti in una chat con un’IA “scompaiano” una volta
chiusa la finestra. In realtà non è sempre così. ​
​
Alcune piattaforme conservano i dati per un periodo di tempo, che può variare da pochi
minuti a diversi mesi, a seconda delle politiche aziendali. Lo scopo può essere legato al
miglioramento del modello, all’analisi delle performance, oppure alla sicurezza.
Nel caso di sistemi come ChatGPT, ad esempio, le conversazioni possono essere
memorizzate temporaneamente nei server dell’azienda per analisi statistiche,
formazione futura o controlli di qualità. ​
​
Alcune versioni permettono all’utente di disattivare la cronologia delle chat, ma questa
opzione deve essere attivata manualmente. ​
​
Altre piattaforme, come Perplexity, utilizzano i dati in modo diverso, privilegiando la ricerca
istantanea piuttosto che l’apprendimento continuo da parte del sistema.
Inoltre, bisogna considerare che i dati spesso non restano confinati al luogo dove li
abbiamo inseriti. ​
​
Potrebbero essere trasferiti su server in altri paesi, condivisi con terze parti tecniche (per
esempio fornitori di infrastruttura cloud), o essere oggetto di audit interni. ​
​
In mancanza di regole chiare o trasparenza totale, è difficile per l’utente comune sapere con
certezza dove finiscono davvero le proprie informazioni.
​
​
​
​
271
​
16.1.3 – Chi controlla davvero i dati che condividiamo
La domanda centrale è: chi ha il potere di decidere cosa fare dei dati che forniamo? ​
​
Spesso pensiamo che, siccome siamo noi a scrivere, siamo anche noi a controllare. In
realtà, una volta inviati, i dati entrano nel dominio della piattaforma che li riceve, e che li
gestisce secondo regole proprie – definite nei termini di servizio, che quasi nessuno legge.
Questo crea uno squilibrio: da un lato, l’utente fornisce liberamente informazioni spesso
personali, convinto di essere protetto. ​
​
Dall’altro, chi gestisce il sistema ha un grande potere decisionale su come usarle,
conservarle, condividerle o perfino monetizzarle. ​
​
Se i dati vengono usati per addestrare nuovi modelli, per esempio, c'è il rischio che vengano
rielaborati, mescolati e riutilizzati in contesti completamente diversi da quelli originali.
In un contesto ideale, ogni utente dovrebbe poter sapere con chiarezza chi può accedere ai
propri dati, per quanto tempo, e con quale scopo. Dovrebbe poter modificare o cancellare
ciò che ha condiviso, oppure opporsi a certi trattamenti. ​
​
Ma questo accade solo in parte, solo quando esistono leggi forti (come il GDPR in Europa) e
piattaforme disposte a rispettarle.
La consapevolezza è quindi il primo passo: prima di inserire un’informazione in un
sistema basato su IA, chiediamoci se siamo disposti a perderne il controllo. Perché
nella maggior parte dei casi, una volta inviata, non ci appartiene più.
​
​
16.2 – Normative e regolamenti (GDPR, ecc.)
16.2.1 – Cos’è il GDPR e perché riguarda l’IA
272
Il GDPR (Regolamento Generale sulla Protezione dei Dati) è una legge europea che
stabilisce come devono essere raccolti, usati, conservati e protetti i dati personali. ​
​
È entrato in vigore nel 2018, ben prima dell’arrivo dell’IA generativa, ma è oggi più attuale
che mai. Perché?​
​
Perché i sistemi di intelligenza artificiale funzionano proprio grazie ai dati, e spesso trattano
informazioni che riguardano direttamente le persone: messaggi, nomi, preferenze, luoghi,
emozioni, identità.
Il GDPR nasce da un principio semplice ma potente: i dati personali appartengono alla
persona. ​
​
Nessuna azienda o piattaforma può farne ciò che vuole. Deve spiegare in modo chiaro
perché li raccoglie, come li usa, con chi li condivide, per quanto tempo li conserva. E
soprattutto, deve ottenere un consenso libero, esplicito e informato. ​
​
Questo significa che l’utente deve avere il diritto di sapere cosa sta accadendo e la
possibilità di dire “no”.
Nel contesto dell’IA, però, applicare il GDPR è molto complesso. I modelli linguistici, ad
esempio, non sempre distinguono tra dati personali e informazioni generiche. ​
​
Se l’utente scrive “Sono depresso da mesi”, quella è un’informazione sensibile. Ma il sistema
potrebbe registrarla e utilizzarla, senza sapere che si tratta di un dato protetto. ​
​
Per questo motivo, il tema della compliance legale dei modelli IA è ancora molto discusso,
e molte piattaforme stanno cercando di adattarsi con aggiornamenti, avvisi e nuove policy.​
​
16.2.2 – Diritti dell’utente: accesso, rettifica, cancellazione
Il GDPR garantisce ai cittadini diritti precisi. ​
​
Il primo è il diritto di accesso, che permette a una persona di sapere quali informazioni
sono state raccolte su di lei. In teoria, potremmo chiedere a una piattaforma di IA: “Quali dati
avete su di me?” e dovremmo ricevere una risposta. ​
273
​
In pratica, però, questo è difficile, soprattutto con sistemi che non associano i dati a un
profilo individuale ma li trattano in modo anonimo o aggregato.
Esiste anche il diritto alla rettifica: se un dato è sbagliato o fuorviante, abbiamo il diritto di
chiederne la correzione. ​
​
Ancora più importante è il diritto alla cancellazione, noto anche come “diritto all’oblio”:
possiamo chiedere che le nostre informazioni vengano eliminate, e la piattaforma ha
l’obbligo di farlo, salvo casi particolari (per esempio, per motivi legali o di sicurezza).​
​
Nel mondo dell’IA, però, questi diritti si scontrano con un problema tecnico: una volta che i
dati sono stati usati per addestrare un modello, non è facile “rimuoverli” in modo
selettivo. ​
​
Non si tratta di cancellare un file, ma di agire su un sistema che ha già “imparato” da
quell’informazione. ​
​
Alcuni esperti stanno studiando come rendere l’IA “dimenticabile”, ma è una sfida ancora
aperta. Intanto, la trasparenza e la possibilità di scelta restano strumenti fondamentali per
l’utente.
​
​
​
16.2.3 – Sfide globali: regole diverse in paesi diversi
Uno degli aspetti più complessi della protezione dei dati nell’era dell’IA è che non esiste
una legge unica valida ovunque. ​
​
Mentre l’Europa ha il GDPR, gli Stati Uniti seguono regole molto diverse (e meno restrittive),
e in Asia esistono normative ancora differenti, spesso più tolleranti rispetto alla raccolta dei
dati.
Questo crea una situazione difficile da gestire: le piattaforme digitali sono internazionali, ma
le leggi sono locali. ​
​
Un sistema come ChatGPT può essere usato in ogni paese del mondo, ma deve
274
rispettare regole diverse a seconda di dove si trova l’utente. Questo porta a
contraddizioni, incertezze e spesso a comportamenti “minimi”: le aziende preferiscono
applicare la regola meno rigida, per non rischiare di bloccare il servizio.
Inoltre, ci sono paesi dove non esistono ancora leggi adeguate per affrontare l’IA.
Così nascono abusi, raccolte massive di dati senza consenso, sorveglianza non dichiarata,
profilazione aggressiva. E per l’utente è molto complesso capire se è protetto o meno.
Per questo motivo, l’Unione Europea sta lavorando a una nuova legge specifica: l’AI Act,
che mira a regolamentare l’intelligenza artificiale in base ai livelli di rischio.​
​
Ma serve anche un dialogo internazionale, una cooperazione tra paesi per costruire regole
comuni. Perché i dati non conoscono confini, e la fiducia digitale non può fermarsi a un
confine geografico.
​
​
​
​
16.3 – Tracciabilità delle conversazioni IA
16.3.1 – Le conversazioni vengono archiviate?
Nel caso di ChatGPT, ad esempio, le chat vengono memorizzate per un certo periodo e
possono essere associate a un account, se l’utente è registrato. ​
​
Alcune versioni permettono di disattivare la cronologia, ma di default il salvataggio è attivo.
Questo significa che tutto ciò che scriviamo può essere rivisto da operatori umani, usato per
test interni o per l’addestramento del modello.
Per chi lavora con informazioni riservate – come avvocati, medici, professionisti – questo
è un punto critico. ​
​
È facile dimenticare che stiamo parlando con un sistema che non dimentica. Anche solo
chiedere consiglio su una questione personale può diventare un problema se non siamo
275
consapevoli che le nostre parole potrebbero essere archiviate.​
​
16.3.2 – Log e metadati: ciò che resta invisibile
Oltre ai testi che scriviamo, l’IA può raccogliere metadati, cioè informazioni che non
vediamo direttamente ma che descrivono il contesto della conversazione.​
​
Tra questi ci sono: l’orario dell’interazione, il tipo di dispositivo usato, l’indirizzo IP, la
durata della sessione, la lingua, il paese, il numero di richieste fatte in un certo periodo.
I metadati non dicono cosa abbiamo scritto, ma possono rivelare molto su di noi. ​
​
Ad esempio, permettono di identificare abitudini di utilizzo, frequenza, fusi orari,
preferenze linguistiche. In alcuni casi, possono anche suggerire profilazioni implicite,
come l’età approssimativa o il livello di istruzione, sulla base dello stile di scrittura.
Queste informazioni, combinate con i contenuti veri e propri, costruiscono una sorta di
identità digitale implicita. E anche se non viene associata direttamente al nostro nome,
può essere utilizzata per fini analitici, pubblicitari, o addestrativi. ​
​
L’utente medio non ha visibilità su questi processi. Eppure, è proprio qui che si gioca una
parte importante della trasparenza dei sistemi di IA.​
​
​
16.3.3 – Trasparenza e diritto di sapere
La vera questione non è solo se le conversazioni vengano tracciate, ma quanto l’utente ne
sia consapevole. ​
​
Oggi molte piattaforme presentano lunghi documenti di “termini di servizio” o “informative
sulla privacy” che pochi leggono davvero. E anche quando lo fanno, il linguaggio è spesso
tecnico, poco comprensibile, o volutamente vago.
Ma ogni persona ha il diritto di sapere se, come e per quanto tempo le proprie interazioni
vengono salvate. Ha diritto di sapere chi può accedere a quei dati, e se verranno usati per
276
altri scopi (come l’addestramento del modello o la creazione di statistiche). Ha diritto di
chiedere che vengano cancellati, o di poter usare lo strumento senza essere tracciato.
Questi diritti sono riconosciuti, in linea teorica, da leggi come il GDPR. Ma nella pratica, la
loro applicazione è ancora parziale. Spesso è difficile capire quale parte della
conversazione è davvero cancellabile, o come esercitare i propri diritti in modo efficace.
Ecco perché le interfacce di ogni programma dovrebbero rendere visibile, semplice e
comprensibile la gestione dei propri dati. Solo così si può costruire una relazione di fiducia
tra utente e tecnologia. ​
​
Perché senza trasparenza, ogni assistente digitale rischia di diventare una scatola nera. E in
un mondo digitale, la fiducia nasce dalla luce.
​
16.4 – Uso sicuro di ChatGPT e Perplexity
16.4.1 – Differenze nella gestione dei dati tra i due strumenti
Anche se ChatGPT e Perplexity sono entrambi strumenti basati su intelligenza artificiale,
hanno approcci molto diversi alla gestione dei dati degli utenti. Comprendere queste
differenze è essenziale per usarli in modo consapevole e sicuro.
ChatGPT, nella sua versione di base, genera risposte a partire da un modello già
addestrato. Le conversazioni possono essere salvate dai server di OpenAI per migliorare il
servizio, a meno che l’utente non disattivi esplicitamente la cronologia nelle impostazioni. ​
​
Questo significa che, se non interveniamo manualmente, ogni cosa che scriviamo può
essere analizzata, usata per addestrare futuri modelli o visualizzata da revisori umani a fini
di controllo.
277
Perplexity, invece, è pensato come motore di ricerca basato su IA. Ogni domanda attiva
una ricerca in tempo reale sul web, e le risposte sono costruite citando fonti esterne
verificabili. In molti casi, i dati inseriti non vengono conservati a lungo, e il sistema non
memorizza automaticamente la cronologia dell’utente. ​
​
Tuttavia, l’utilizzo di Perplexity può comunque raccogliere metadati e interazioni,
specialmente se si utilizza la funzione “Copilot”, che tiene traccia delle domande in
sequenza.
In sintesi: ChatGPT punta sulla generazione autonoma, Perplexity sulla documentazione in
tempo reale. Entrambi però richiedono attenzione su cosa condividiamo.​
​
16.4.2 – Quando è meglio non inserire informazioni sensibili
Il primo consiglio per usare l’IA in modo sicuro è semplice: non scrivere nulla che non
diresti in pubblico. Quando interagiamo con un chatbot, è facile dimenticare che stiamo
parlando con un sistema che può salvare, analizzare e rielaborare tutto ciò che inseriamo.
Per questo è bene evitare di scrivere nomi reali, numeri di telefono, indirizzi, dati bancari,
codici personali, cartelle cliniche o informazioni riservate legate al lavoro. ​
​
Anche se non sempre vengono memorizzate intenzionalmente, una volta inviate non
abbiamo più pieno controllo su dove finiscono.
Ma non si tratta solo di dati “ufficiali”. ​
​
Anche informazioni emotive o personali possono diventare sensibili. Raccontare un
problema di salute mentale, una situazione familiare, o una decisione difficile può sembrare
innocuo se fatto con un’intelligenza artificiale che non giudica. ​
​
Ma resta il fatto che quelle parole viaggiano attraverso server, sistemi, log, e talvolta anche
esseri umani, se vengono revisionate a fini di qualità o sicurezza.
La regola generale è: usa l’IA per idee, bozzetti, spunti, chiarimenti. Non per confessioni.
278
16.4.3 – Consigli pratici per un utilizzo responsabile
Per usare strumenti come ChatGPT o Perplexity in modo responsabile, serve un minimo di
attenzione e alcune buone abitudini digitali. Ecco alcuni consigli pratici che ogni utente
può adottare:
●​ Controlla le impostazioni sulla privacy. Ad esempio, su ChatGPT puoi disattivare
la cronologia delle chat e impedire che le tue conversazioni vengano usate per
migliorare il modello. Questa opzione è spesso “nascosta” nei menu, ma è
fondamentale attivarla se tieni alla riservatezza.​
●​ Leggi almeno una volta l’informativa sulla privacy. Non tutta, ma i punti principali:
cosa viene salvato, per quanto tempo, e se i dati vengono condivisi con terzi. Sapere
a cosa stai acconsentendo è un atto di autodifesa digitale.​
●​ Non condividere informazioni identificabili. Anche se stai facendo una domanda
generica, prova a scriverla in modo anonimo. Invece di “Il mio capo Mario Rossi mi
ha detto...” scrivi “Un superiore mi ha detto...”. Il senso non cambia, ma i dati sì.​
●​ Controlla sempre le risposte. ChatGPT può inventare fatti. Perplexity può citare
fonti poco affidabili. Non prendere tutto per vero. Usa il pensiero critico, come faresti
con una ricerca su Google o con una voce di Wikipedia.​
●​ Aggiorna la tua consapevolezza. La tecnologia cambia in fretta. Ogni mese
possono esserci nuove funzioni, nuovi rischi, nuove regole. Informarsi, anche solo
leggendo brevi articoli o guide ufficiali, è il modo migliore per restare in controllo.​
L’intelligenza artificiale può essere un alleato straordinario, ma solo se siamo parte attiva del
suo utilizzo. In un mondo digitale, la vera sicurezza nasce dalla combinazione tra strumenti
affidabili e persone consapevoli.
279
16.5 – Plugin e app di terze parti: attenzione ai dati
16.5.1 – Cosa succede quando attiviamo un plugin
Molti strumenti di intelligenza artificiale, come ChatGPT, permettono di aggiungere plugin o
integrazioni esterne, che espandono le funzionalità del sistema. ​
​
Possono sembrare semplici “aggiunte” innocue – come la possibilità di prenotare un volo,
consultare un ristorante, cercare un documento su Google Drive – ma in realtà aprono un
nuovo canale di accesso ai nostri dati.
Attivare un plugin significa, in pratica, autorizzare una terza parte a leggere o ricevere
parte delle nostre conversazioni. ​
​
Questo può includere il testo delle richieste, dati inseriti manualmente, link cliccati, o
contenuti che vengono automaticamente generati nel dialogo. A volte, l’accesso riguarda
anche dati archiviati nel nostro profilo, come la posizione, il calendario, o la cronologia degli
acquisti.
Il punto chiave è che non è più solo il sistema principale (come ChatGPT) a gestire le
informazioni, ma anche soggetti esterni, con politiche di privacy e sicurezza proprie. E non
sempre questi soggetti sono noti, affidabili o regolamentati. ​
​
Usare un plugin è un po’ come aprire una porta di casa: può portare vantaggi, ma bisogna
sapere a chi stai dando la chiave.
16.5.2 – Rischi nascosti nelle app che sembrano innocue
Non tutti i rischi digitali arrivano da strumenti “strani” o sconosciuti. ​
​
Al contrario, molte app che usiamo ogni giorno – per prendere appunti, organizzare il lavoro,
creare presentazioni – integrano oggi funzioni di IA, e chiedono l’accesso a file, microfono,
fotocamera o altre sezioni del dispositivo. ​
​
280
Spesso lo fanno in modo silenzioso, chiedendo permessi al primo avvio e poi restando attivi
in background.
Il problema è che molti utenti cliccano “accetta” senza leggere, convinti che non ci sia
nulla di grave. ​
​
Ma un'app apparentemente banale, come un generatore di testo per email, potrebbe in
teoria leggere l’intera rubrica, tracciare le email scritte, analizzare le abitudini di navigazione
o raccogliere dati per fini pubblicitari.
Inoltre, le app scaricate da store ufficiali (come Google Play o App Store) non sono
automaticamente sicure. ​
​
Alcune usano tecniche ambigue per accedere a più dati di quelli dichiarati, o vendono
informazioni raccolte ad aziende terze. Anche i browser, tramite estensioni IA, possono
registrare le attività svolte online, comprese le ricerche e le pagine visitate.
L’illusione di “comodità” può farci abbassare la guardia. Ma in un’epoca in cui i dati sono
potere, è fondamentale sapere che ogni app installata è anche un potenziale osservatore.
​
​
16.5.3 – Come scegliere estensioni affidabili
Fortunatamente, è possibile usare plugin e app con maggiore tranquillità, se si seguono
alcune buone pratiche di selezione e verifica.​
​
La prima regola è non farsi attirare solo dalla funzionalità: prima di installare uno strumento,
è bene chiedersi chi lo ha sviluppato, con quali finalità, e come tratta i dati.
Controllare le recensioni degli utenti può essere utile, ma spesso non basta. Molto più
importante è verificare se l’applicazione ha una privacy policy chiara, scritta in modo
comprensibile, e se esplicita quali dati raccoglie e per quali scopi. ​
​
Se non trovi queste informazioni, o se sono troppo vaghe, è un campanello d’allarme.
Anche l’origine geografica dello sviluppatore può contare: aziende con sede in paesi che
non rispettano normative come il GDPR europeo potrebbero avere un approccio più lasco
281
alla protezione dei dati. Preferisci soluzioni sviluppate da enti affidabili, con storie trasparenti
e aggiornamenti regolari.
Infine, è utile utilizzare strumenti come le impostazioni del browser, del telefono o dell’app
stessa per limitare i permessi concessi. Molte app funzionano perfettamente anche senza
accesso completo a tutte le funzionalità del dispositivo.
Ricorda: la tecnologia non è il nemico, ma dobbiamo imparare a sceglierla con attenzione.
Ogni volta che autorizziamo un plugin o scarichiamo un’app, stiamo costruendo il nostro
ecosistema digitale. Meglio farlo con consapevolezza che con leggerezza.
​
​
​
16.6 – Crittografia e gestione della privacy
16.6.1 – Cosa protegge davvero la crittografia
La crittografia è uno dei meccanismi più importanti per proteggere i dati personali nel
mondo digitale. ​
​
In parole semplici, serve a trasformare le informazioni in un codice illeggibile, che può
essere decifrato solo da chi possiede una “chiave” segreta.​
​
Se qualcuno dovesse intercettare i dati mentre vengono inviati (ad esempio durante una
conversazione con un assistente IA), li vedrebbe come un insieme di simboli senza senso.
Oggi, molte piattaforme che utilizzano l’intelligenza artificiale – inclusi ChatGPT e Perplexity
– applicano la crittografia in transito, cioè durante il trasferimento dei dati dal dispositivo
dell’utente ai server. ​
​
Questo significa che, in teoria, nessun intermediario (come hacker o reti Wi-Fi
compromesse) può leggere ciò che inviamo o riceviamo. È lo stesso principio che protegge
le connessioni bancarie o le chat private.
282
Tuttavia, la crittografia non protegge tutto. ​
​
Una volta che i dati arrivano al server, vengono decifrati per essere elaborati. È a quel punto
che possono essere memorizzati, analizzati o usati per addestrare il modello. ​
​
Quindi, anche se la trasmissione è sicura, ciò che succede “dopo” dipende dalle
politiche della piattaforma. La crittografia è uno scudo potente, ma non sostituisce la
trasparenza e la responsabilità.
16.6.2 – Chi può accedere ai dati cifrati e quando
Una delle domande più frequenti è: se i dati sono cifrati, chi può davvero leggerli? La
risposta dipende dal tipo di crittografia utilizzata. ​
​
Nella maggior parte dei casi, le piattaforme di IA usano crittografia a chiave simmetrica o
asimmetrica, dove solo il server – cioè il sistema centrale – ha la chiave per “sbloccare” i
dati ricevuti.
Questo significa che l’azienda proprietaria dell’IA può tecnicamente accedere a ciò che
abbiamo scritto, anche se la connessione è protetta. ​
​
In alcune situazioni, questi dati possono essere analizzati da operatori umani, per esempio
per verificare che non ci siano abusi, per testare nuove funzionalità o per migliorare la
qualità delle risposte.
In casi estremi, i dati possono essere condivisi anche con autorità giudiziarie, se previsto
dalla legge e in presenza di un mandato. Questo vale soprattutto nei paesi dove la
sorveglianza è più invasiva o dove le regole sulla privacy sono meno restrittive.​
​
È quindi importante ricordare che nessun sistema è “inviolabile”, e che la sicurezza
perfetta non esiste.
La vera protezione nasce dalla combinazione tra crittografia tecnica e regole etiche e legali,
che stabiliscono chiaramente chi può fare cosa, quando e perché.​
283
​
16.6.3 – Sicurezza tecnica vs. fiducia nella piattaforma
Quando si parla di privacy, si tende a pensare che basti la tecnologia per sentirsi al sicuro.
Ma in realtà, anche il miglior sistema crittografico è inutile se non possiamo fidarci della
piattaforma che lo gestisce. ​
​
La sicurezza tecnica, da sola, non basta: serve anche una relazione di fiducia tra utente e
servizio.
Questa fiducia si costruisce in vari modi: trasparenza, chiarezza nelle condizioni d’uso,
rispetto delle normative, aggiornamenti regolari, e – soprattutto – una gestione responsabile
dei dati. ​
​
Se una piattaforma non spiega cosa fa con le informazioni raccolte, o se ha già avuto
violazioni in passato, è legittimo avere dei dubbi.
Un altro aspetto riguarda la durata del trattamento. ​
​
Alcuni strumenti dicono di proteggere i dati, ma poi li conservano per anni. Altri li cancellano
dopo pochi giorni. Anche questo fa la differenza. ​
​
Un sistema veramente rispettoso della privacy dovrebbe offrire scelte chiare all’utente, non
solo dal punto di vista tecnico, ma anche da quello relazionale: posso fidarmi? Posso
controllare?
In sintesi, la crittografia è uno strumento fondamentale, ma la vera privacy è un patto: tra chi
fornisce il servizio e chi lo usa. Un patto che si basa non solo su algoritmi e codici, ma su
trasparenza, rispetto e responsabilità condivisa.
284
16.7 – Buone pratiche per la sicurezza digitale
16.7.1 – Come proteggere i propri dati quando si usa l’IA
L’uso di strumenti basati su intelligenza artificiale è ormai parte della vita quotidiana:
scriviamo email con l’aiuto di ChatGPT, cerchiamo risposte su Perplexity, usiamo assistenti
virtuali per organizzare il lavoro o creare contenuti. ​
​
Ma ogni volta che usiamo uno di questi strumenti, lasciamo una traccia, più o meno visibile.
Proteggere i propri dati non significa solo evitare di scrivere informazioni sensibili: significa
adottare una mentalità di autodifesa digitale attiva.​
​
Il primo passo è distinguere tra ciò che possiamo condividere e ciò che è meglio tenere
per noi. ​
​
Ogni volta che scriviamo qualcosa, chiediamoci: questa informazione, se fosse letta da
qualcuno che non conosco, mi metterebbe a disagio? È un dettaglio personale? Potrebbe
essere usato per identificarmi, profilarmi, tracciarmi? Se la risposta è sì, meglio non
scriverlo.
Poi ci sono gli aspetti più tecnici ma fondamentali: usare password forti e diverse per ogni
servizio, attivare sempre che possibile l’autenticazione a due fattori, e tenere aggiornati
browser, app e sistemi operativi. ​
​
Molte violazioni avvengono perché gli utenti non proteggono adeguatamente l’accesso.
Infine, è utile leggere (o almeno scorrere) le impostazioni di privacy degli strumenti che
usiamo: spesso permettono di limitare la raccolta dei dati, disattivare la cronologia, o
cancellare le interazioni passate. ​
​
Non usarle significa rinunciare a una parte del proprio controllo.
​
​
​
​
​
285
16.7.2 – Errori comuni che mettono a rischio la privacy
Anche chi è attento può cadere in abitudini rischiose, spesso per comodità o distrazione.
Uno degli errori più diffusi è quello di usare strumenti IA come se fossero taccuini
personali. ​
​
Scriviamo note, pensieri, progetti, nomi, numeri, codici. Lo facciamo perché l’IA risponde in
modo fluido e utile, e ci fa dimenticare che dietro c’è comunque una struttura che registra,
analizza e può conservare tutto.
Un altro errore comune è riutilizzare la stessa password per più servizi, oppure non
usare la verifica in due passaggi quando disponibile. ​
​
In questo modo, se un account viene compromesso, anche gli altri diventano vulnerabili. E
nel caso di servizi IA connessi ad account cloud (come Gmail o Google Drive), il danno può
essere molto esteso.
C’è poi la fiducia cieca nelle risposte dell’IA. ​
​
Non è un rischio solo per la privacy, ma anche per la sicurezza mentale e informativa: se un
modello suggerisce un consiglio medico sbagliato, o genera un testo con dati errati, può
influenzare decisioni personali o professionali in modo negativo. Fidarsi va bene, ma
verificare è sempre necessario.
Infine, molte persone cliccano “accetta” senza leggere quando attivano un’estensione o
un plugin. Anche se sembra solo un bottone, quel clic può autorizzare l’accesso a dati
sensibili. ​
​
In un mondo iperconnesso, ogni gesto digitale ha conseguenze. E gli errori si pagano
spesso dopo, quando è troppo tardi per tornare indietro.​
​
​
16.7.3 – Educazione digitale: la prima vera difesa
In un’epoca in cui l’intelligenza artificiale è ovunque, la vera sicurezza non è solo tecnica,
ma culturale. Serve educazione digitale, a tutti i livelli: nelle scuole, nei luoghi di lavoro,
nelle famiglie, tra amici. ​
286
​
Perché la maggior parte dei rischi informatici non nasce da un attacco sofisticato, ma da un
comportamento inconsapevole.
Educazione digitale significa sapere come funzionano gli strumenti che usiamo, cosa
succede ai nostri dati, quali sono i segnali di un comportamento sospetto. Ma significa anche
coltivare un atteggiamento critico: chiedersi chi ha costruito il servizio che stiamo usando,
quali interessi ci sono dietro, quali alternative esistono. ​
​
Non basta sapere dove cliccare: serve sapere perché stiamo cliccando.
Per questo, è fondamentale diffondere una nuova alfabetizzazione che riguardi l’uso
tecnico degli strumenti, ma anche la loro comprensione etica e sociale. ​
​
Chi sa leggere un contratto di licenza, chi sa valutare la sicurezza di un’app, chi riconosce
un rischio prima che si manifesti, è una persona più libera. E in un mondo in cui
l’informazione è potere, la consapevolezza è la nostra vera arma di difesa.
Essere cittadini digitali, oggi, vuol dire saper usare la tencnologia con responsabilità,
equilibrio e spirito critico. È una competenza che protegge i nostri dati e anche la nostra
dignità, la nostra libertà e il nostro futuro.
17. Strumenti e plugin per potenziare ChatGPT
e Perplexity
17.1 – Plugin ChatGPT: panoramica e installazione
17.1.1 – Cosa sono i plugin e a cosa servono
287
I plugin di ChatGPT sono estensioni che permettono al modello di interagire con servizi
esterni o svolgere compiti specifici che normalmente non rientrano nelle sue funzioni di
base. ​
​
In altre parole, servono ad “ampliare” le capacità del modello, aggiungendo funzionalità
che non fanno parte del suo addestramento originale. ​
​
Quando ChatGPT è collegato a un plugin, può ad esempio prenotare un volo, interrogare un
database, cercare un ristorante in tempo reale o eseguire calcoli complessi.
Questi strumenti sono utili perché trasformano ChatGPT da semplice generatore di testo a
vero assistente operativo, capace di svolgere azioni concrete nel mondo digitale. È
importante sapere che i plugin non sono “programmi che girano da soli”: lavorano solo se
attivati dall’utente, e solo all’interno della sessione di conversazione. ​
​
Ogni volta che ChatGPT usa un plugin, lo fa sotto la supervisione dell’utente, che può
vedere quale strumento è stato attivato e per quale scopo.
La presenza dei plugin rende ChatGPT molto più versatile. Ma per chi non li ha mai
usati, possono sembrare complicati o rischiosi. ​
​
In realtà, tutto dipende da come li si configura e da quanto si è consapevoli delle
autorizzazioni concesse. Per questo, prima di attivarli, è importante capire come si installano
e come funzionano.​
​
​
17.1.2 – Come attivare e installare i plugin su ChatGPT
L’attivazione dei plugin in ChatGPT richiede solo pochi passaggi, ma non è immediatamente
visibile a tutti. Prima di tutto, va detto che i plugin sono disponibili solo per gli utenti con
abbonamento a ChatGPT Plus, che dà accesso alla versione GPT-4. ​
​
Una volta effettuato l’accesso con un account attivo, l’utente deve aprire il menu delle
impostazioni e attivare manualmente la voce che consente l’uso dei plugin.
288
Dopo aver abilitato questa funzione, l’interfaccia di ChatGPT mostrerà una nuova opzione
nella barra dei modelli disponibili, indicata come “GPT-4 con plugin”. ​
​
Quando questa modalità è selezionata, l’utente può accedere al Plugin Store, dove si
trovano decine di estensioni già pronte, sviluppate da aziende esterne o da OpenAI stessa. ​
​
Le installazioni sono rapide: basta un clic per aggiungere un plugin alla propria
sessione. Tuttavia, ogni volta che si attiva uno di questi strumenti, ChatGPT richiede
l’autorizzazione dell’utente e spiega brevemente cosa fa il plugin selezionato.
È importante ricordare che non tutti i plugin sono uguali. ​
​
Alcuni si limitano a fornire informazioni aggiornate, altri accedono a dati personali o
contengono funzioni avanzate come l’interazione con servizi cloud. ​
​
Per questo motivo, prima di installarne uno, è sempre consigliabile leggere con attenzione
la descrizione e verificare chi è lo sviluppatore.​
​
​
17.1.3 – Gestione, sicurezza e aggiornamento dei plugin
Una volta installati, i plugin vengono gestiti all’interno della sessione di ChatGPT e non
rimangono attivi in modo permanente.​
​
Questo vuol dire che l’utente può selezionare, disattivare o cambiare plugin in qualsiasi
momento, a seconda del tipo di conversazione o attività che vuole svolgere. ​
​
In ogni interazione, ChatGPT indicherà in modo trasparente se sta utilizzando un plugin,
così che l’utente possa seguire tutto ciò che accade.
Dal punto di vista della sicurezza, la gestione dei plugin richiede attenzione. Anche se sono
approvati da OpenAI, questi strumenti sono creati in molti casi da aziende esterne. ​
​
Ogni volta che viene attivato un plugin, c’è la possibilità che alcuni dati della
conversazione vengano inviati a un servizio terzo. Non si tratta necessariamente di una
289
violazione della privacy, ma è importante sapere che non tutte le interazioni restano “chiuse”
dentro ChatGPT.
Per limitare i rischi, è utile rimuovere i plugin che non si usano più, evitare di inserirne
troppi contemporaneamente e controllare periodicamente eventuali aggiornamenti. ​
​
I plugin ben sviluppati vengono mantenuti e aggiornati nel tempo, mentre quelli obsoleti
possono diventare meno affidabili o essere ritirati. Mantenere l’elenco pulito e aggiornato
non solo migliora la sicurezza, ma anche le prestazioni del modello.
​
​
​
​
17.2 – Plugin per ricerca, codice, grafici e traduzioni
17.2.1 – Plugin per la ricerca avanzata e la consultazione fonti
Uno degli usi più potenti dei plugin in ChatGPT riguarda la ricerca di informazioni in
tempo reale. Mentre il modello base si basa sulla sua memoria addestrata (e quindi non
aggiornata), grazie ai plugin è possibile estendere le sue capacità di consultazione esterna. ​
​
Esistono strumenti che permettono a ChatGPT di interrogare motori di ricerca, database
scientifici, siti di notizie o enciclopedie online.
Questi plugin sono particolarmente utili per chi lavora con contenuti attuali, deve verificare
una fonte o ha bisogno di dati recenti. ​
​
Così l’IA può restituire non solo una risposta, ma anche una citazione con link diretto alla
fonte originale, rendendo la conversazione più documentata e verificabile. Alcuni plugin
permettono persino di fare ricerche accademiche o di navigare tra articoli di riviste
scientifiche.
290
È importante però sapere che questi strumenti non trasformano ChatGPT in un esperto
infallibile. Le informazioni che recupera dipendono dalla qualità delle fonti a cui accede. Per
questo è sempre consigliabile leggere attentamente i risultati forniti e valutarli con spirito
critico.​
17.2.2 – Plugin per programmatori: scrittura, debug, documentazione
Chi scrive codice può trarre grande vantaggio dai plugin sviluppati per attività di
programmazione assistita. Alcuni strumenti permettono a ChatGPT di analizzare file,
suggerire modifiche, cercare librerie aggiornate o generare documentazione tecnica. ​
​
Altri sono integrati con repository come GitHub (archivio digitale), e permettono di leggere,
commentare o scrivere codice direttamente da lì.
Uno degli aspetti più utili di questi plugin è la capacità di aiutare anche in fase di debug (per
individuare e risolvere errori). ​
​
Invece di analizzare manualmente righe e righe di codice, è possibile chiedere al plugin di
identificare dove potrebbe esserci un errore, spiegare perché il programma non funziona
come dovrebbe, o proporre soluzioni alternative. Questo risparmia tempo e riduce gli errori,
specialmente nei progetti complessi.
Non è necessario essere sviluppatori professionisti per usarli. ​
​
Anche chi sta imparando a programmare può sfruttare questi strumenti per comprendere
meglio il linguaggio che sta studiando o per produrre piccole automazioni.​
​
La cosa importante è ricordarsi che l’IA può generare codice utile, ma non sostituisce il
processo di verifica umana, soprattutto quando si tratta di sicurezza o logica avanzata.
​
​
​
17.2.3 – Traduzioni automatiche e visualizzazione dati con plugin
Un’altra categoria molto utile di plugin è quella dedicata alla traduzione e gestione dei dati
visuali. Esistono strumenti che permettono di tradurre interi testi da una lingua all’altra con
grande precisione, tenendo conto del contesto e dello stile. ​
291
​
Questi plugin sono particolarmente apprezzati da chi lavora in ambienti multilingua, crea
contenuti internazionali o ha bisogno di versioni parallele di uno stesso testo.
Accanto alla traduzione, ci sono plugin che aiutano a trasformare dati grezzi in grafici,
tabelle o mappe interattive. ​
​
È sufficiente fornire un elenco di numeri, una serie temporale o una struttura tabellare, e il
plugin genera una rappresentazione visiva chiara e leggibile. Questa funzione è molto utile
in ambito aziendale, scolastico o durante una presentazione, quando serve comunicare
numeri in modo visivo.
Strumenti del genere non richiedono competenze avanzate. L’utente descrive cosa vuole
ottenere, e il sistema lo costruisce. ​
​
Ma è bene sapere che l’interpretazione dei dati resta una responsabilità umana. Il
grafico può essere corretto tecnicamente, ma solo chi lo ha richiesto può giudicare se è utile,
pertinente o efficace.
​
​
​
​
17.3 – Tool esterni compatibili con Perplexity
​
17.3.1 – Integrazione con motori di ricerca e fonti accademiche
Perplexity si distingue da ChatGPT per la sua capacità di eseguire ricerche in tempo reale
sul web. ​
​
Questa caratteristica lo rende già molto potente, ma può essere ulteriormente potenziata
integrandolo con tool esterni progettati per lavorare con fonti accademiche e documenti
specialistici.
292
Alcuni strumenti, come Semantic Scholar, PubMed o Google Scholar, possono essere
utilizzati insieme a Perplexity per guidare ricerche scientifiche o tecniche. ​
​
Anche se non si tratta di una “integrazione diretta” nel senso tecnico, è possibile copiare un
risultato trovato su Perplexity e verificare o approfondire la fonte in queste banche dati
autorevoli. Così lo strumento diventa un punto di partenza utile anche per lavori di ricerca
avanzati.
Un altro vantaggio è che Perplexity riconosce il valore delle fonti e tende a privilegiare siti
attendibili. ​
​
Questo approccio favorisce un uso professionale, ma l’utente resta sempre responsabile
della verifica finale. ​
​
Integrare la ricerca con portali accademici esterni consente di validare meglio le informazioni
e di costruire una base di contenuti realmente fondata.​
​
​
​
17.3.2 – Esportazione dei risultati in PDF, Markdown e formati testuali
Per chi lavora con molti contenuti testuali, la possibilità di esportare in modo rapido ed
efficace le risposte di Perplexity è fondamentale. ​
​
Anche se la piattaforma non offre ancora funzioni native molto avanzate in tal senso,
esistono tool esterni che permettono di convertire facilmente le risposte in formati come
PDF, Markdown o TXT.
Ad esempio, strumenti di cattura come Notion Web Clipper, Evernote Web Clipper o
estensioni di salvataggio come Save to Readwise possono essere utilizzati per trasferire il
testo da Perplexity a un sistema di gestione delle informazioni personali. ​
​
Alcuni utenti, più esperti, utilizzano script in Python o automazioni tramite browser per
copiare e archiviare automaticamente risposte in documenti strutturati, pronti per la stampa
o la condivisione.
293
Questa capacità di “portare fuori” le informazioni consente di creare archivi personali
tematici, materiali per la didattica, documentazione tecnica o ricerche da aggiornare nel
tempo. ​
​
Anche chi lavora in team può trarre vantaggio da questi strumenti, integrando Perplexity nei
flussi di lavoro collaborativi su piattaforme come Google Docs o Obsidian.​
​
​
​
17.3.3 – Strumenti di sintesi, confronto fonti e citazione bibliografica
Uno degli usi più interessanti di Perplexity è la sua capacità di fornire sintesi di articoli
complessi o contenuti lunghi. Tuttavia, per chi lavora in ambiti dove è fondamentale citare
le fonti in modo formale, esistono tool esterni che possono completare il lavoro. ​
​
Alcuni strumenti come Zotero, Mendeley o EndNote, usati abitualmente da studenti
universitari e ricercatori, permettono di archiviare, ordinare e formattare le citazioni in stile
APA, MLA o Chicago.
Il testo fornito da Perplexity, che già include riferimenti numerati alle fonti, può essere
copiato in questi strumenti e arricchito con dettagli bibliografici corretti.​
​
In questo modo, è possibile produrre documenti di qualità accademica partendo da una
ricerca generativa, ma con il rigore delle fonti richieste in ambito scientifico.
Esistono anche strumenti più semplici, pensati per il confronto tra fonti, come Diffen,
Side-by-Side o persino Google Compare, che aiutano a valutare divergenze tra punti di
vista o tra articoli diversi. ​
​
Se usati insieme a Perplexity, questi strumenti permettono di fare un lavoro critico e
comparativo, utile per tesi, articoli di approfondimento o valutazioni professionali.
​
294
​
​
17.4 – Estensioni browser per uso rapido
17.4.1 – Estensioni per consultare l’IA direttamente dal web
Molti utenti non sanno che è possibile usare ChatGPT o Perplexity senza dover aprire il
loro sito ogni volta. Esistono infatti estensioni per browser – soprattutto per Google
Chrome e Microsoft Edge – che portano l’IA direttamente nella finestra di navigazione.
​
Questo significa poter accedere alle funzionalità dell’intelligenza artificiale mentre si legge
una pagina web, si scrive una mail o si compila un modulo online.
Un esempio molto diffuso è l’estensione ufficiale di ChatGPT, che consente di aprire una
finestra laterale nel browser per inviare richieste al modello senza cambiare pagina. ​
​
Ci sono anche versioni non ufficiali più avanzate che permettono di selezionare un testo
online e chiedere all’IA di riassumerlo, tradurlo o riscriverlo. In questo modo, l’utente può
ricevere un’assistenza contestuale, legata a quello che sta leggendo in quel momento.
Anche Perplexity offre estensioni che trasformano la barra di ricerca del browser in una
finestra di domande dirette all’IA, con risposte documentate che appaiono subito sotto i
risultati di Google o Bing. ​
​
Questo approccio ibrido aiuta chi vuole risparmiare tempo, ma non vuole rinunciare alla
qualità dell’informazione. ​
​
Le estensioni, se ben configurate, diventano un’estensione del nostro pensiero, sempre
disponibile a portata di clic.
​
​
17.4.2 – Salvataggio, evidenziazione e annotazione intelligente
Un altro utilizzo molto pratico delle estensioni è la gestione intelligente delle informazioni
trovate online. Quando navighiamo sul web, leggiamo decine di contenuti interessanti che
spesso dimentichiamo o perdiamo. ​
​
295
Le estensioni IA ci aiutano a non sprecare nulla: permettono di evidenziare un testo su una
pagina web e trasformarlo in una nota, un riassunto, una domanda o un approfondimento da
inviare subito a ChatGPT o a un altro strumento connesso.
Alcuni plugin integrano anche funzionalità di annotazione personale, come quelli collegati a
Notion, Readwise o Obsidian. ​
​
In pratica, l’utente può selezionare un passaggio importante di un articolo, farlo spiegare o
riformulare dall’IA, e poi salvarlo direttamente nel proprio sistema di appunti digitali. Questo
rende molto più fluido lo studio, la scrittura o la creazione di contenuti, perché non si perde il
contesto in cui è nata l’idea.
Le estensioni possono essere configurate per riconoscere il tipo di contenuto selezionato –
ad esempio una definizione, una citazione, un dato – e per proporre azioni intelligenti
diverse, come approfondire con fonti accademiche o chiedere esempi pratici. ​
​
In questo modo, la semplice lettura passiva di una pagina web si trasforma in un’esperienza
attiva, interattiva e orientata alla comprensione profonda.​
​
​
17.4.3 – Comandi rapidi e IA integrata nella navigazione quotidiana
Una delle evoluzioni più interessanti delle estensioni IA è l’introduzione di comandi rapidi
integrati nella tastiera o nella barra di ricerca del browser. Le scorciatoie permettono di
usare l’intelligenza artificiale senza nemmeno cliccare un pulsante. ​
​
Per esempio, premendo una combinazione di tasti, si può aprire una finestra pop-up dove
scrivere una domanda da inviare direttamente a ChatGPT, anche mentre si lavora su un
documento o si legge una newsletter.
Alcune estensioni sono state progettate per riconoscere il contesto della pagina aperta: se
stai leggendo un articolo di economia, ti propongono approfondimenti sullo stesso tema; se
stai guardando un video di formazione, offrono un riepilogo dei punti chiave. ​
​
Questo tipo di intelligenza contestuale permette di risparmiare tempo e di mantenere alta la
concentrazione, evitando di passare continuamente da una scheda all’altra.
296
Un altro utilizzo molto utile riguarda l’auto-completamento di testi durante la scrittura. ​
​
Alcune estensioni integrano l’IA direttamente nei moduli web, nei blog o nei documenti
collaborativi, suggerendo frasi, titoli, conclusioni o correzioni grammaticali. ​
​
Anche in questo caso, l’obiettivo non è sostituire il pensiero umano, ma supportarlo nei
momenti in cui la creatività o la precisione si affaticano.
​
​
​
17.5 – App IA companion e mobile
17.5.1 – App ufficiali e alternative per ChatGPT e Perplexity
Le applicazioni mobile basate su intelligenza artificiale stanno diventando strumenti sempre
più presenti nella vita quotidiana. Sia ChatGPT che Perplexity dispongono di app ufficiali
per dispositivi mobili, disponibili su iOS e Android. ​
​
Queste applicazioni mantengono la maggior parte delle funzioni presenti nella versione
desktop, ma sono ottimizzate per un uso rapido, tascabile e in mobilità.
L’app ufficiale di ChatGPT, sviluppata da OpenAI, consente di interagire con il modello
anche tramite comandi vocali, semplificando l’uso quando si è in movimento. ​
​
Include l’accesso a GPT-4 per gli utenti Plus, e permette di consultare cronologie, salvare
conversazioni e attivare plugin, con un’interfaccia pulita e intuitiva. ​
​
Anche Perplexity offre una versione mobile molto ben fatta, pensata per chi ha bisogno di
informazioni verificate e rapide, con risposte documentate che includono fonti cliccabili.
Esistono anche app alternative, sviluppate da terze parti, che integrano ChatGPT o modelli
simili (come Claude o Mistral), e aggiungono funzionalità extra: organizzazione delle
297
conversazioni per progetto, interazione tramite notifiche push, o integrazione con calendari,
promemoria e archivi personali. ​
​
Queste app possono essere utili, ma richiedono attenzione: è bene verificare l’affidabilità
dello sviluppatore, soprattutto quando si tratta di strumenti che trattano dati sensibili.​
​
​
17.5.2 – IA “tascabile”: cosa si può fare da smartphone
Avere un assistente intelligente sempre in tasca cambia il modo in cui interagiamo con
l’informazione, il lavoro e la creatività. ​
​
Attraverso le app IA, possiamo scrivere e-mail professionali in pochi secondi, tradurre
messaggi in tempo reale, generare risposte per la messaggistica istantanea o riassumere
testi lunghi direttamente da una foto o uno screenshot.
Anche attività che prima richiedevano il computer, come creare contenuti per social media,
scrivere articoli o pianificare progetti, possono oggi essere svolte interamente da
smartphone, grazie all’IA. ​
​
Questo è particolarmente utile per freelance, studenti o professionisti che si trovano spesso
fuori ufficio o in viaggio. ​
​
L’interazione vocale rappresenta un’altra svolta importante: dettando un messaggio, è
possibile ottenere un testo riformulato, corretto o tradotto al volo, senza dover digitare nulla.
Inoltre, alcune app offrono funzionalità specifiche per il mobile, come il riconoscimento del
testo nelle immagini (OCR con IA), la sintesi vocale per ascoltare testi mentre si cammina, o
il suggerimento automatico di risposte durante le conversazioni in app di messaggistica. ​
​
Tutto questo rende lo smartphone una vera postazione di lavoro personale.​
​
17.5.3 – Sincronizzazione tra dispositivi, cloud e backup dei dati
298
Una delle funzionalità più importanti delle app IA companion è la sincronizzazione
intelligente tra dispositivi. ​
​
Quando un utente inizia una conversazione sul telefono e la riprende dal computer, si
aspetta che tutto sia esattamente dove lo ha lasciato. ​
​
Questo è possibile grazie all’integrazione con il cloud, che permette di salvare
automaticamente la cronologia, i progetti in corso e le impostazioni personalizzate.
Nel caso di ChatGPT, ad esempio, l’utente può consultare l’intera cronologia delle
conversazioni, modificarla, riutilizzarla o condividerla anche da browser desktop. ​
​
Lo stesso vale per Perplexity, che consente di salvare domande frequenti, risposte
particolarmente utili e thread tematici, da tenere sempre a disposizione. ​
​
Alcune app offrono anche la possibilità di esportare le conversazioni, salvarle in formato
PDF, oppure inviarle direttamente a strumenti come Google Docs, Evernote o Dropbox.
La gestione dei backup è altrettanto importante. ​
​
App più evolute offrono opzioni di backup automatico cifrato, così che l’utente possa
recuperare i propri dati in caso di disinstallazione, cambio dispositivo o problemi tecnici. ​
​
Ma è sempre fondamentale sapere dove vengono archiviati i dati e con quali garanzie di
sicurezza. L’integrazione tra IA e mobile è potente, ma richiede consapevolezza e controllo.
​
17.6 – Workflow con Zapier, Notion, Google Docs
17.6.1 – Automatizzare processi con Zapier e OpenAI
Zapier è una piattaforma che permette di collegare tra loro applicazioni diverse per farle
lavorare in modo coordinato. ​
​
L’integrazione con OpenAI consente di usare ChatGPT (o modelli simili) come parte attiva
299
nei processi aziendali, educativi o organizzativi. ​
​
In pratica, ogni volta che succede qualcosa in un'app – per esempio l’arrivo di una nuova
email o la compilazione di un modulo – Zapier può attivare automaticamente una risposta
scritta dall’IA.
Un caso d’uso semplice è quello delle email automatiche personalizzate. Se un cliente
compila un form sul sito, ChatGPT può scrivere un’email di risposta generata
dinamicamente, usando i dati inseriti nel modulo. ​
​
Oppure, se un documento viene caricato in una cartella condivisa, si può attivare un flusso
che lo riassume e invia il contenuto sintetizzato a un canale Slack o a un foglio Google.
Questi flussi non richiedono scrittura di codice, ma solo una configurazione iniziale in Zapier.
Grazie a questi automatismi, l’intelligenza artificiale non è più solo un assistente da
consultare, ma diventa parte attiva nei processi ripetitivi, aiutando a risparmiare tempo e
ridurre gli errori. ​
​
Le possibilità sono moltissime: creazione automatica di report, sintesi di chat, generazione di
descrizioni prodotto o risposte FAQ. ​
​
Tutto si basa sull’idea di trasformare attività manuali in azioni intelligenti che avvengono in
modo automatico.​
​
​
17.6.2 – Collaborare e creare contenuti dinamici su Notion
Notion è uno degli strumenti digitali più versatili per organizzare contenuti, progetti e
conoscenza. ​
​
Con l’integrazione dell’intelligenza artificiale, diventa un ambiente di lavoro potenziato, in
cui è possibile non solo scrivere e archiviare testi, ma anche generarli, riassumerli, migliorarli
o collegarli tra loro.
L’IA all’interno di Notion può essere usata per scrivere bozze di articoli, riscrivere descrizioni,
proporre titoli alternativi o sintetizzare riunioni, tutto all’interno dello spazio di lavoro del
300
team. ​
​
La forza di questa integrazione sta nella continuità: non serve passare da una finestra
all’altra o fare copia e incolla tra applicazioni diverse. Il contenuto viene generato
direttamente dove serve, e può essere subito modificato, commentato o condiviso.
Inoltre, Notion consente di creare dashboard dinamici, che raccolgono idee generate
dall’IA, task automatizzati o documenti riassunti in tempo reale. ​
​
Questo rende possibile un nuovo tipo di collaborazione: non solo tra colleghi, ma anche tra
persone e intelligenze artificiali.​
​
L’IA diventa ma un membro del team, sempre pronto a contribuire alla creazione e alla
revisione di contenuti in modo fluido e contestuale.​
​
17.6.3 – Integrazione con Google Workspace: Docs, Sheets, Calendar
L’ecosistema Google – in particolare Google Docs, Sheets e Calendar – è uno dei più usati
in ambito scolastico e lavorativo. ​
​
Integrando ChatGPT o altri modelli IA attraverso strumenti esterni (come Zapier, add-on o
script personalizzati), è possibile potenziare queste app e trasformarle in ambienti
intelligenti.
Su Google Docs, l’IA può essere usata per generare bozze, correggere testi, adattare
contenuti a diversi toni di voce o target di pubblico. ​
​
Tutto ciò si può fare direttamente nel documento, senza uscire dall’ambiente di scrittura. In
Google Sheets, l’IA può analizzare dati, scrivere formule complesse, spiegare valori
numerici o generare report periodici. ​
​
È possibile, ad esempio, caricare una tabella di dati e chiedere al modello di descrivere le
tendenze, suggerire ottimizzazioni o formulare previsioni.
Anche Google Calendar può beneficiare dell’intelligenza artificiale. ​
​
301
Collegandolo a un sistema IA tramite Zapier o script personalizzati, è possibile generare
automaticamente promemoria, creare riassunti di meeting passati o suggerire orari per
incontri futuri, basandosi sulle disponibilità del team e sugli obiettivi inseriti.
Queste integrazioni rendono Google Workspace un ambiente proattivo, dove la scrittura,
l’analisi e l’organizzazione vengono amplificate da un’intelligenza che lavora dietro le quinte,
in modo fluido e adattivo.
​
​
​
17.7 – Automazione con API e script
17.7.1 – Cos’è un’API e come funziona con ChatGPT
Un’API (Application Programming Interface) è, in parole semplici, un ponte che permette a
due software di comunicare tra loro. ​
​
Quando si usa l’API di ChatGPT, si sta dando al proprio programma la possibilità di “parlare”
direttamente con il modello di intelligenza artificiale, inviando una richiesta e ricevendo in
risposta un testo generato.
Questo meccanismo consente di integrare ChatGPT in applicazioni personalizzate, siti web,
sistemi aziendali o chatbot interni. ​
​
L’API funziona attraverso chiamate HTTP: si invia un messaggio (detto prompt), si
specificano alcune impostazioni (come la lunghezza massima della risposta o il livello di
creatività desiderato), e si riceve un testo elaborato dal modello. ​
​
Il tutto avviene in pochi secondi, e può essere ripetuto migliaia di volte, anche in automatico.
L’uso dell’API di OpenAI richiede una chiave di accesso personale, rilasciata all’utente
registrato, e viene addebitato un costo in base alla quantità di testo generato o ricevuto.
Questo modello “a consumo” rende l’API adatta a chi ha progetti ben strutturati, ma anche a
chi vuole sperimentare con piccoli script. ​
302
​
È uno strumento tecnico, ma accessibile anche a chi ha competenze base di
programmazione.​
​
​
17.7.2 – Automazioni personalizzate con Python, JavaScript e fogli di calcolo
Uno degli usi più potenti dell’API è la creazione di automazioni su misura. Molti
sviluppatori usano linguaggi come Python o JavaScript per scrivere script che collegano
ChatGPT a documenti, database, form o sistemi interni. ​
​
Ad esempio, si può scrivere uno script che legge un file CSV, invia ogni riga all’IA per
essere riformulata o tradotta, e salva il risultato in un nuovo file.
Con Python è possibile collegare l’IA a flussi complessi, come l’analisi di email in arrivo, la
generazione automatica di report settimanali, o la creazione di contenuti a partire da tabelle
e fogli di calcolo. ​
​
Con JavaScript, invece, è comune integrare ChatGPT in interfacce web, per dare vita a
chatbot personalizzati o assistenti editoriali per siti e blog.
Anche strumenti più semplici, come Google Sheets, possono diventare ambienti
automatizzati. ​
​
Tramite gli script di Google Apps Script (simili a JavaScript), è possibile creare funzioni
personalizzate che inviano dati a ChatGPT e restituiscono risposte direttamente nel foglio
di lavoro. ​
​
Questo consente di generare riassunti, titoli, descrizioni o suggerimenti senza mai uscire da
Google Sheets.​
​
​
17.7.3 – Etica e limiti dell’automazione: quando è troppo è troppo
303
Automatizzare con l’IA è utile, ma non tutto dovrebbe essere automatizzato. Quando ci si
affida troppo a sistemi generativi, il rischio è quello di perdere controllo sul contenuto, sulla
qualità e, in alcuni casi, anche sulla responsabilità. ​
​
L’IA non ha coscienza, non valuta il contesto come un essere umano, e non sa quando una
risposta può essere inadeguata o addirittura dannosa.
Automazioni che generano contenuti pubblici, inviano messaggi o prendono decisioni su
persone richiedono una supervisione costante. ​
​
È importante testare, validare e controllare tutto ciò che l’IA produce, soprattutto se i risultati
vengono mostrati ad altri, pubblicati online o usati in ambito aziendale. L’intelligenza
artificiale può facilitare il lavoro, ma non può sostituire la responsabilità umana.
C’è anche un tema di trasparenza: chi legge un contenuto generato da IA ha diritto di sapere
che non è stato scritto da una persona. ​
​
L’etica dell’automazione implica chiarezza, limite e controllo. ​
​
L’obiettivo non è fare tutto al posto dell’essere umano, ma liberare tempo per ciò che solo
l’intelligenza umana sa fare: scegliere, giudicare, creare con intenzione.
​
304
18. Esempi pratici e casi d’uso reali
18.1 – Caso: gestione progetto con ChatGPT
18.1.1 – Pianificazione e suddivisione delle attività con l’IA
Gestire un progetto, anche semplice, richiede organizzazione, visione d’insieme e attenzione
ai dettagli. ​
​
ChatGPT può essere usato fin dalla fase iniziale per aiutare a strutturare il progetto in
modo ordinato, anche se l’utente non ha esperienza di project management.​
​
Basta descrivere l’idea in modo sintetico, e l’IA è in grado di proporre una prima bozza di
piano: obiettivi, fasi principali, tempi stimati e figure coinvolte.
Una delle funzioni più utili in questa fase è la suddivisione delle attività in sotto-compiti. ​
​
Ad esempio, se l’obiettivo è lanciare un sito web, ChatGPT può aiutare a distinguere la fase
di progettazione, quella di sviluppo, la produzione dei contenuti, la parte grafica e infine il
lancio. Ogni blocco può essere descritto con passaggi logici, tempi stimati e dipendenze tra
un’attività e l’altra.
L’aspetto interessante è che tutto questo può essere richiesto con linguaggio naturale. Non
serve conoscere software complessi o metodologie specifiche. ​
​
L’IA può fungere da “cervello ausiliario”, capace di fornire uno scheletro operativo che
l’utente può poi personalizzare in base alle proprie esigenze e risorse.
​
​
18.1.2 – Coordinamento dei membri del team e comunicazione assistita
305
Quando più persone lavorano a un progetto, la comunicazione è spesso uno dei punti critici. ​
​
ChatGPT può essere usato per redigere messaggi chiari, coordinare riunioni o scrivere
aggiornamenti periodici destinati al gruppo. Basta indicare a chi è rivolto il messaggio e
quale obiettivo ha, e il modello genera una proposta pronta da usare o da modificare.
Un altro utilizzo efficace riguarda la creazione di verbali, resoconti o sintesi dopo una
riunione o un confronto interno. ​
​
Fornendo all’IA un elenco dei punti emersi o trascrivendo una breve nota vocale, è possibile
ottenere un documento ordinato, formale o informale a seconda del contesto. Questo aiuta
molto a mantenere una memoria condivisa del progetto.
Inoltre, ChatGPT può supportare la gestione di strumenti collaborativi. ​
​
Se si lavora con piattaforme come Google Docs, Trello o Notion, l’IA può suggerire modelli di
schede, etichette o template di report adatti al tipo di progetto in corso. ​
​
Questo permette di risparmiare tempo e mantenere un livello alto di coerenza e chiarezza
tra i membri del team, anche quando lavorano da remoto o in orari diversi.​
​
​
​
18.1.3 – Monitoraggio, revisione e aggiornamento automatico del piano
Man mano che il progetto avanza, è utile rivedere il piano iniziale, adattare le tempistiche o
redistribuire i compiti. Anche in questa fase ChatGPT può essere un valido alleato. ​
​
L’utente può fornire un aggiornamento sulla situazione attuale e chiedere all’IA di proporre
modifiche coerenti, riequilibrare il carico di lavoro o evidenziare eventuali colli di bottiglia.
Uno degli aspetti più pratici è la possibilità di riformulare obiettivi, task o scadenze in
modo sintetico, così da preparare aggiornamenti da inviare al cliente o al responsabile del
progetto. ​
​
306
In situazioni dove il tempo è poco e le informazioni sono tante, avere un assistente capace
di riordinare le idee e trasformarle in un testo leggibile è un vantaggio concreto.
Inoltre, per chi lavora su progetti ricorrenti o simili tra loro, ChatGPT può aiutare a
conservare una struttura riutilizzabile, adattabile volta per volta con poche modifiche. ​
​
Questo crea un sistema che migliora nel tempo, dove ogni nuova esperienza arricchisce la
precedente. In questo modo, l’IA diventa uno strumento operativo e un vero supporto alla
memoria organizzativa.
18.2 – Caso: ricerca tesi universitaria con Perplexity
18.2.1 – Raccolta fonti accademiche e creazione della bibliografia
Quando uno studente inizia a lavorare alla tesi, la prima sfida è raccogliere fonti affidabili,
pertinenti e aggiornate. Perplexity AI è particolarmente utile in questa fase perché è
progettato per restituire risposte supportate da fonti verificabili. ​
​
Basta scrivere una domanda ben formulata, come si farebbe con un motore di ricerca, e
Perplexity restituisce una risposta sintetica accompagnata da link diretti a siti, articoli
scientifici, pubblicazioni accademiche e database specializzati.
Questo approccio aiuta lo studente a orientarsi fin da subito tra fonti autorevoli, evitando
siti poco attendibili o informazioni vaghe. ​
​
Perplexity non si limita a fornire un testo riassuntivo: evidenzia da dove provengono le
informazioni, facilitando il controllo e la selezione delle fonti migliori da inserire nella
bibliografia.
Una volta raccolto il materiale, l’IA può anche suggerire come strutturare le citazioni,
convertendole in stili come APA, MLA o Chicago, a seconda delle linee guida del proprio
corso. ​
​
307
In questo modo, l’attività più lunga e tecnica – ovvero la compilazione della bibliografia –
diventa più rapida, precisa e meno stressante.
​
​
18.2.2 – Sintesi dei concetti e costruzione dell’indice
Dopo aver raccolto le fonti, il passo successivo è organizzare le idee in un indice logico e
coerente. Questo passaggio può richiedere tempo, perché spesso gli studenti faticano a
trovare un filo conduttore tra le varie informazioni. ​
​
Perplexity può essere usato per sintetizzare concetti complessi, confrontare teorie e
suggerire modelli di struttura per l’elaborato.
Ad esempio, fornendo all’IA un tema come “intelligenza artificiale nella medicina”, si può
ottenere una bozza di suddivisione in capitoli: introduzione teorica, casi pratici, impatti etici,
prospettive future. ​
​
L’utente può poi rielaborare questi suggerimenti e adattarli ai requisiti accademici o alle
indicazioni del proprio relatore.
Un altro uso molto pratico è quello di riassumere articoli lunghi o complessi. ​
​
Lo studente può incollare il contenuto di una fonte rilevante e chiedere a Perplexity di
estrarre i punti principali, così da inserirli in modo corretto e sintetico nei capitoli della tesi. ​
​
Questo consente di risparmiare tempo e di costruire un testo più scorrevole, evitando lunghe
riletture o confusioni tra fonti simili.​
​
​
18.2.3 – Verifica delle fonti, citazioni e stesura assistita
Man mano che la tesi prende forma, diventa fondamentale verificare che tutte le
informazioni siano corrette, le fonti affidabili e le citazioni ben formattate. ​
​
Perplexity può essere interrogato nuovamente, in modo mirato, per controllare dati,
confrontare interpretazioni diverse o confermare la validità di un passaggio specifico. Questo
308
è utile soprattutto quando si lavora con dati numerici, affermazioni tecniche o riferimenti a
eventi storici.
Nella fase finale, lo studente può usare Perplexity anche per migliorare la scrittura,
chiedendo di riformulare frasi troppo complesse, correggere errori grammaticali o trovare
transizioni tra paragrafi. ​
​
L’IA non scrive al posto dello studente, ma offre suggerimenti che possono essere adattati in
base al tono e allo stile richiesti dal contesto universitario.
Infine, Perplexity può essere uno strumento utile anche per la stesura dell’introduzione o
della conclusione, due sezioni spesso sottovalutate ma importanti per il giudizio finale. ​
​
Fornendo all’IA un riassunto dei capitoli, è possibile ottenere una proposta di introduzione
coerente, oppure un esempio di conclusione che riprenda in modo efficace le tesi principali
dell’elaborato.
​
18.3 – Caso: content marketing automatizzato
18.3.1 – Generazione di idee e strategia editoriale
Uno dei compiti più complessi nel content marketing è la generazione continua di nuove
idee. ​
​
Chi gestisce un blog, una newsletter o una pagina social deve creare contenuti che siano
interessanti, coerenti con il brand e rilevanti per il pubblico. ​
​
ChatGPT può essere un alleato efficace in questa fase creativa, aiutando a proporre
argomenti in linea con il settore, con le tendenze del momento e con le esigenze
comunicative dell’azienda o del professionista.
309
L’IA può ricevere input semplici, come “sono un consulente finanziario, devo pubblicare due
post a settimana”, e da lì proporre calendari editoriali dettagliati, con titoli, temi e obiettivi
comunicativi per ogni pubblicazione. ​
​
In alternativa, si può partire da un tema generale – ad esempio “sostenibilità nelle imprese” –
e chiedere all’IA di declinarlo in una serie di contenuti orientati a informare, coinvolgere o
promuovere servizi.
Non si tratta solo di idee casuali.​
​
ChatGPT può anche tenere conto del tono di voce, del target, e delle parole chiave SEO, se
richieste esplicitamente. ​
​
In questo modo, l’output finale è una bozza di strategia che può essere adattata e rifinita
dal team umano, risparmiando tempo prezioso nella fase iniziale del processo creativo.​
​
​
18.3.2 – Scrittura, adattamento e ottimizzazione dei contenuti
Una volta definita la strategia, la fase successiva è la produzione effettiva dei contenuti. ​
​
ChatGPT può generare testi di vario tipo: articoli per blog, descrizioni prodotto, post per
LinkedIn o Instagram, email promozionali. Questi contenuti possono essere richiesti in base
a specifici obiettivi: informare, vendere, educare, divertire.
Ciò che rende utile l’IA in questa fase non è solo la velocità di scrittura, ma la sua capacità
di adattare lo stesso contenuto a più formati e pubblici. ​
​
Ad esempio, un post per un blog può essere ridotto a un tweet, trasformato in una scheda
informativa o riformulato in forma di script per un video. ChatGPT può anche suggerire titoli
alternativi, sottotitoli più accattivanti o call-to-action più efficaci.
Inoltre, l’IA può essere istruita per migliorare l’ottimizzazione SEO: includere parole chiave,
migliorare la leggibilità, o proporre una struttura che favorisca l’indicizzazione. ​
​
È importante, però, che il contenuto finale venga sempre revisionato da una persona, per
310
assicurarsi che sia corretto, autentico e coerente con la voce del brand.​
​
​
18.3.3 – Programmazione dei post e analisi dei risultati con l’IA
Dopo la creazione dei contenuti, arriva il momento della distribuzione e del monitoraggio.
Anche in questa fase l’intelligenza artificiale può offrire un supporto concreto. ​
​
Esistono strumenti che, collegati a ChatGPT o integrati in piattaforme di pubblicazione come
Buffer o Hootsuite, permettono di programmare i post nei giorni e orari migliori, sulla
base dei dati raccolti in precedenza.​
​
L’IA può anche analizzare i risultati ottenuti da ogni pubblicazione. ​
​
In pratica, riceve in input i dati di engagement – come clic, visualizzazioni, tempo di lettura –
e li sintetizza per evidenziare quali contenuti hanno funzionato meglio, quali meno, e perché. ​
​
Da qui è possibile generare report settimanali o mensili, utili per fare aggiustamenti alla
strategia editoriale.
Infine, alcuni modelli possono addirittura proporre test A/B automatizzati: cioè suggerire
varianti di uno stesso contenuto da testare in parallelo per vedere quale ottiene più
interazioni. ​
​
Questo permette di prendere decisioni basate su dati reali, non solo su intuizioni. ​
​
L’IA diventa una sorta di “assistente analitico” che aiuta il team marketing a ottimizzare
costantemente contenuti, linguaggio e pubblicazione, rendendo il lavoro più strategico ed
efficace.
​
​
​
311
​
18.4 – Caso: customer care AI-driven
18.4.1 – Risposte automatiche alle domande frequenti
Uno dei casi più diffusi in cui l’intelligenza artificiale è già ampiamente utilizzata riguarda il
servizio clienti automatizzato. ​
​
Molte aziende, piccole e grandi, ricevono ogni giorno decine o centinaia di domande simili:
orari di apertura, politiche di reso, costi di spedizione, disponibilità di un prodotto. ​
​
In queste situazioni, un modello IA come ChatGPT può essere configurato per gestire
automaticamente le richieste più comuni, fornendo risposte rapide e coerenti, 24 ore su
24.
Per fare tutto ciò non serve un’infrastruttura complessa. Basta raccogliere le domande più
frequenti in un documento, definire le risposte corrette, e usarle per addestrare l’IA in modo
guidato. ​
​
L’assistente può essere inserito all’interno del sito web aziendale, di un’app di messaggistica
come WhatsApp o Messenger, oppure integrato in una live chat. Gli utenti digitano la loro
richiesta, e ricevono una risposta istantanea, senza dover aspettare un operatore umano.
Questo tipo di automazione migliora la qualità percepita del servizio, riduce il carico di
lavoro sul team e permette all’azienda di offrire assistenza anche nei momenti in cui gli
operatori non sono disponibili. ​
​
L’IA, in questo caso, non sostituisce completamente le persone, ma agisce come primo filtro,
gestendo le richieste semplici e liberando risorse per quelle più complesse.​
​
​
​
​
​
​
​
312
18.4.2 – Personalizzazione dell’assistenza e gestione escalation
L’intelligenza artificiale, con una configurazione adeguata, può anche personalizzare le
interazioni in base al profilo del cliente, al suo storico, o alle sue preferenze. ​
​
Se un utente ha già acquistato un prodotto, l’IA può riconoscerlo, accedere a dati pertinenti
(come lo stato della spedizione o le precedenti conversazioni) e offrire una risposta su
misura.
Questa capacità di adattarsi rende il servizio più umano e meno robotico. La conversazione
non appare “fredda”, ma calibrata sul bisogno reale del cliente. ​
​
Inoltre, l’IA può rilevare parole chiave o segnali di insoddisfazione, e in quei casi
interrompere la conversazione per trasferirla a un operatore umano. Questo passaggio,
chiamato escalation, è fondamentale per evitare che situazioni delicate vengano gestite in
modo automatico.
ChatGPT e altri modelli possono anche essere istruiti per formulare risposte empatiche, non
solo corrette. ​
​
In caso di reclami o disservizi, l’IA può riconoscere il tono del messaggio e rispondere con
cortesia, rassicurazione e disponibilità, elementi che fanno la differenza nella relazione tra
azienda e cliente.​
​
Il tutto mantenendo tempi di risposta estremamente rapidi e consistenti.​
​
​
18.4.3 – Analisi dei feedback e miglioramento continuo del servizio
Oltre a gestire le richieste in tempo reale, l’intelligenza artificiale può essere usata per
analizzare a posteriori le conversazioni con i clienti. ​
​
I messaggi ricevuti, le risposte fornite, i casi risolti o irrisolti possono essere elaborati dal
sistema per individuare tendenze, problemi ricorrenti o opportunità di miglioramento.
Per esempio, l’IA può rilevare che molti utenti si lamentano della procedura di reso, o che
una certa pagina del sito non fornisce informazioni sufficienti. ​
313
​
Questi insight possono essere raccolti automaticamente in report periodici, utili per i
responsabili del customer care o del marketing. ​
​
Così il sistema di assistenza non è solo reattivo, ma diventa una fonte attiva di
apprendimento per l’intera organizzazione.
Inoltre, l’analisi dei dati può servire a migliorare lo stesso assistente IA. Ogni conversazione
è un’occasione per capire se la risposta era adeguata, se ha risolto il problema, o se può
essere migliorata. ​
​
Alcune piattaforme integrano sistemi di feedback diretto, dove l’utente può valutare la qualità
della risposta. Tutte queste informazioni vengono usate per raffinare i modelli, aggiornare le
risposte e migliorare l’efficacia del servizio nel tempo.
​
​
18.5 – Caso: ottimizzazione lavoro freelance
18.5.1 – Organizzazione del tempo e delle attività con ChatGPT
Chi lavora da freelance deve saper gestire il proprio tempo con precisione. ​
​
A differenza di un dipendente, non ha orari fissi né colleghi che lo guidano. ChatGPT può
diventare uno strumento utile per pianificare giornate, priorità e scadenze, anche in
assenza di un metodo già strutturato. ​
​
È sufficiente spiegare al modello quali sono le attività da svolgere e in quali tempi, per
ottenere una proposta di calendario personalizzato.
L’IA può suggerire come suddividere una settimana lavorativa, quando concentrarsi sui
lavori creativi, e quando dedicarsi alle attività amministrative. Può anche aiutare a definire
blocchi di tempo per progetti diversi, evitando sovrapposizioni o sprechi di energia. ​
314
​
Alcuni freelance usano ChatGPT all’inizio della giornata per “farsi aiutare a mettere ordine”,
come se fosse una sorta di segretario digitale.
Questa organizzazione può essere resa ancora più efficace se il professionista condivide
con l’IA obiettivi specifici, scadenze reali o vincoli esterni. ​
​
Più il contesto è preciso, più le risposte diventano utili e concrete. In questo modo, anche chi
tende a procrastinare o a sovraccaricarsi può ritrovare equilibrio e produttività.​
​
18.5.2 – Supporto alla scrittura, alla fatturazione e ai preventivi
Oltre alla gestione del tempo, un freelance deve spesso occuparsi di attività che esulano dal
proprio mestiere principale, come scrivere email, preparare preventivi, inviare fatture o
rispondere a clienti. ​
​
ChatGPT può fornire un supporto rapido ed efficace in tutte queste situazioni, senza
sostituirsi alla professionalità del lavoratore.
Per esempio, l’IA può aiutare a redigere un preventivo ben formulato, proponendo modelli
chiari e personalizzabili. Oppure può suggerire come rispondere in modo cortese ma deciso
a un cliente che chiede uno sconto fuori misura. ​
​
Anche la scrittura di email formali, presentazioni commerciali o descrizioni di servizi può
essere facilitata, partendo da indicazioni minime e ottenendo testi pronti da inviare o
rielaborare.
In ambito amministrativo, ChatGPT può anche spiegare termini fiscali, modelli di fattura o
normative di base, pur senza sostituirsi a un commercialista. ​
​
Questo è utile soprattutto per chi lavora da poco in proprio e non ha ancora familiarità con gli
aspetti burocratici del lavoro autonomo. ​
​
L’IA, in questi casi, diventa una guida per capire meglio le regole e trovare soluzioni pratiche.
​
​
315
​
18.5.3 – Automazione delle risposte e relazione con i clienti
Un altro vantaggio concreto per i freelance è la possibilità di creare risposte automatiche
ben scritte e coerenti, da usare nei messaggi frequenti. ​
​
Ad esempio, se spesso si ricevono richieste generiche come “qual è il tuo listino?” o “sei
disponibile per questo progetto?”, è possibile creare con ChatGPT delle risposte modello da
riutilizzare facilmente.
Queste risposte non devono essere fredde o impersonali. ​
​
Al contrario, ChatGPT può aiutare a trovare il tono giusto, a seconda del tipo di cliente e
del contesto. Alcuni freelance preferiscono una comunicazione molto amichevole, altri più
professionale. ​
​
L’IA si adatta facilmente, basta indicare chiaramente il tono desiderato e il tipo di messaggio
da inviare.
Infine, la relazione con il cliente non si esaurisce nella comunicazione iniziale. ​
​
L’IA può supportare anche nella scrittura di follow-up, nella preparazione di feedback, o
nella chiusura formale del progetto. ​
​
Avere un assistente virtuale che aiuta a curare la comunicazione migliora l’immagine del
professionista e contribuisce a creare un’esperienza positiva, che spesso si traduce in
collaborazioni continuative.
8.6 – Caso: apprendimento di una nuova competenza
18.6.1 – Creazione di un percorso di studio personalizzato
316
Quando impari una nuova competenza, il primo ostacolo è capire da dove partire e in che
ordine affrontare gli argomenti. ​
​
ChatGPT può essere usato come una guida per costruire un percorso di studio su
misura, tenendo conto del livello di partenza, del tempo disponibile e degli obiettivi specifici. ​
​
Basta indicare all’IA cosa si vuole imparare – ad esempio “voglio studiare marketing digitale
da zero” – per ricevere una proposta di programma diviso per fasi.
L’IA può strutturare il percorso partendo dalle basi teoriche, suggerire risorse (libri, video,
concetti chiave) e proporre esercizi pratici da svolgere. Inoltre, può adattare il piano a uno
stile di apprendimento preferito: più visuale, più pratico o più orientato alla lettura. ​
​
Questo approccio aiuta a non perdersi tra le troppe informazioni disponibili online,
offrendo una linea guida chiara e ordinata.
Il vantaggio è che il piano può essere modificato in ogni momento. ​
​
Se una parte risulta troppo difficile o troppo semplice, si può chiedere a ChatGPT di
semplificare, approfondire o saltare alcuni argomenti.​
​
​
18.6.2 – Spiegazioni semplificate e simulazioni interattive
Durante lo studio, capita spesso di incontrare concetti complessi o spiegazioni poco chiare. ​
​
Qui l’IA diventa uno strumento molto utile, perché permette di chiedere chiarimenti
immediati, riscritti in modo più semplice. ​
​
L’utente può copiare un passaggio difficile da un libro o un articolo, incollarlo nella chat e
chiedere a ChatGPT di riformularlo “come se lo spiegassi a un principiante”.
Oltre alle spiegazioni, si possono anche svolgere simulazioni attive. ​
​
Per esempio, se si sta imparando una lingua, è possibile fare conversazione direttamente
con l’IA, ricevendo correzioni e suggerimenti. Se si studia programmazione, si può scrivere
317
del codice e chiedere a ChatGPT di spiegare cosa fa, dove sbaglia, o come migliorarlo. ​
​
Questo tipo di interazione aiuta a passare dalla teoria alla pratica, in un ambiente protetto
e senza giudizio.
Il fatto che l’IA sia sempre disponibile rende lo studio più flessibile. Non c’è bisogno di
aspettare una lezione o un tutor: si può imparare anche solo per 10 minuti al giorno,
facendo domande mirate su ciò che non è chiaro. ​
​
Questo favorisce un apprendimento continuo e personalizzato.
​
​
​
18.6.3 – Verifica delle conoscenze e correzione guidata degli errori
Imparare una competenza non significa solo accumulare informazioni, ma anche capire se
si è davvero appreso qualcosa. Anche in questo, ChatGPT può essere utile. ​
​
È possibile chiedere all’IA di fare delle domande, simulare un quiz o creare un esercizio per
verificare quanto si è compreso. Dopo aver risposto, l’utente può confrontare le proprie
risposte con quelle suggerite dall’IA e ricevere un feedback immediato.
La verifica non è solo “giusta o sbagliata”. L’IA può spiegare perché una risposta è
corretta, quali concetti sono collegati e in quale punto si è fatto un errore. ​
​
Questo tipo di correzione ragionata aiuta a colmare lacune specifiche, senza scoraggiare
l’apprendimento.
Inoltre, si possono caricare testi, esercizi o progetti completati, e chiedere un’analisi critica.
Ad esempio, chi sta imparando a scrivere può inviare un breve saggio e ottenere
suggerimenti su tono, coerenza, grammatica e stile. ​
​
L’obiettivo non è solo correggere, ma imparare a riconoscere gli errori e migliorare in
modo consapevole, passo dopo passo.
318
18.7 – Caso: costruzione di un business digitale
18.7.1 – Validazione dell’idea e analisi di mercato con l’IA
Avviare un business digitale inizia sempre da un’idea. Ma un’idea, da sola, non basta. Serve
capire se ha valore per un pubblico reale, se risponde a un bisogno concreto e se può
funzionare nel mercato attuale. ​
​
ChatGPT può accompagnare questa fase iniziale aiutando a valutare la solidità dell’idea,
esplorare nicchie di mercato e analizzare la concorrenza, anche per chi non ha
esperienze pregresse.
L’utente può descrivere la propria idea all’IA, anche in forma grezza, e ricevere suggerimenti
su come renderla più chiara, differenziarla da offerte esistenti o posizionarla meglio. ​
​
ChatGPT può generare una prima analisi SWOT (punti di forza, debolezza, opportunità,
minacce), simulare il profilo di un potenziale cliente tipo o suggerire settori emergenti e trend
correlati.
Per chi vuole andare più a fondo, l’IA può essere utilizzata anche per proporre metodi di
validazione rapida: questionari da condividere, prototipi di landing page, o post social per
testare l’interesse del pubblico. ​
​
Non si tratta solo di ispirazione: si ottiene una mappa concreta per passare dalla teoria alla
pratica.​
​
​
18.7.2 – Sviluppo di contenuti per sito, social e email marketing
Una volta definita l’idea e validato il suo potenziale, arriva il momento di comunicare il
valore del progetto. ​
​
319
ChatGPT può essere impiegato per scrivere i testi del sito, costruire la sezione “chi siamo”,
presentare prodotti o servizi e proporre contenuti per le pagine social. ​
​
L’utente può fornire poche parole chiave e ottenere bozze pronte da rifinire, coerenti con il
tono di voce desiderato.
L’IA aiuta anche a costruire una narrazione attorno al brand. Può suggerire un nome, uno
slogan, una breve descrizione da usare nei profili digitali. In ambito social, può generare idee
per post settimanali, didascalie, o interazioni con i follower, sempre orientate al target
definito. ​
​
Se il progetto include una newsletter, ChatGPT può proporre argomenti, titoli accattivanti e
strutture di email promozionali.
Tutto questo non sostituisce il lavoro del team o del professionista, ma ne accelera la parte
più tecnica e ripetitiva. ​
​
In questo modo, il focus può restare sull’identità, sulla relazione con il cliente e
sull’adattamento dei contenuti in base ai risultati ottenuti.​
​
​
18.7.3 – Ottimizzazione dei processi e automazione delle vendite
Nel momento in cui il business inizia a generare traffico o vendite, è fondamentale
ottimizzare i processi, per evitare dispersioni di tempo e fatica. ​
​
L’intelligenza artificiale può supportare la costruzione di workflow automatizzati, sia per
l’assistenza clienti che per l’invio di conferme d’ordine, follow-up e aggiornamenti.
Con strumenti come Zapier o Make, integrabili con ChatGPT, è possibile configurare
sequenze automatiche che gestiscono richieste, raccolgono feedback o alimentano una
mailing list. ​
​
Anche la scrittura di risposte automatiche personalizzate – ad esempio per domande
frequenti o richieste di informazioni – può essere curata dall’IA, migliorando l’efficienza del
sistema senza perdere in qualità.
320
Inoltre, ChatGPT può aiutare a leggere e interpretare i dati raccolti, generando report di
vendita, suggerendo modifiche al funnel di conversione o individuando colli di bottiglia. ​
​
Il risultato è un processo decisionale più rapido, informato e orientato alla crescita. In un
contesto digitale, dove tutto è tracciabile, avere un supporto intelligente che sappia leggere i
segnali e trasformarli in azioni concrete è un vantaggio reale.
​
​
​
19. Come integrare l’IA nei propri progetti
digitali
​
19.1 – Mappatura delle attività ripetitive
19.1.1 – Identificare compiti ripetitivi e a basso valore aggiunto
Prima di integrare l’intelligenza artificiale in un progetto digitale, il primo passo concreto è
capire quali attività possono essere delegate alla tecnologia. ​
​
Questo significa osservare con attenzione i flussi di lavoro attuali e identificare i compiti
ripetitivi: quelli che si fanno ogni giorno o ogni settimana nello stesso modo, con regole
sempre uguali o simili. ​
​
Possono essere attività di scrittura, ricerca, aggiornamento, organizzazione o gestione di
informazioni.
Molto spesso, queste operazioni non richiedono creatività o decisioni complesse. Sono utili,
ma occupano tempo che potrebbe essere dedicato a compiti più importanti. ​
321
​
Prendiamo come esempio l’invio di email standard, la compilazione di report, la stesura di
risposte a domande frequenti o la gestione di to-do list sempre uguali. Sono tutti processi
dove l’IA può intervenire per automatizzare senza compromettere la qualità.
Questo tipo di analisi non si improvvisa. ​
​
Serve prendersi un momento per osservare la propria routine digitale, o quella del proprio
team, e annotare tutto ciò che è meccanico. ​
​
Solo così sarà possibile progettare un’integrazione dell’IA che sia realmente utile, e non solo
“di moda”.​
​
​
19.1.2 – Valutare il tempo speso e l’impatto sull’efficienza
Una volta individuate le attività ripetitive, il passo successivo è capire quanto tempo
richiedono e che impatto hanno sulla produttività complessiva. ​
​
Spesso si sottovaluta quanto una semplice operazione – ripetuta molte volte – possa
incidere sul carico mentale e sulle energie disponibili. ​
​
Anche se ogni attività dura pochi minuti, sommata nel tempo può costare ore di lavoro ogni
settimana.
Questa valutazione può essere fatta in modo molto pratico: osservando una settimana tipo,
stimando i minuti impiegati per ogni attività e chiedendosi se quell’operazione potrebbe
essere svolta, almeno in parte, da un assistente basato su IA. ​
​
Se una persona impiega ogni giorno mezz’ora per scrivere messaggi simili o cercare le
stesse informazioni online, è chiaro che una soluzione automatizzata può portare un
risparmio immediato e concreto.
Ma non si tratta solo di tempo risparmiato. È anche una questione di concentrazione. ​
​
Liberarsi da attività ripetitive significa migliorare la qualità del lavoro più importante,
322
perché si riduce la fatica decisionale e si guadagna chiarezza. L’IA, in questo senso, non
toglie lavoro, ma libera spazio per il pensiero strategico e creativo.​
​
​
​
19.1.3 – Preparare una lista delle attività automatizzabili
Dopo aver osservato il flusso di lavoro e compreso il peso delle attività ripetitive, il passaggio
conclusivo è creare una lista precisa e concreta delle operazioni che si prestano
all’automazione. ​
​
Questa lista deve essere basata su compiti reali, con esempi chiari. Non basta scrivere
“scrivere email”, ma “rispondere a richieste di preventivo con testi simili” oppure “scrivere
report mensili da dati ricorrenti”.
La mappa operativa serve come base per scegliere, nei capitoli successivi, lo strumento più
adatto. ​
​
Ogni attività deve essere descritta in modo da capire se richiede scrittura, calcolo,
organizzazione, recupero di informazioni o sintesi. In molti casi, sarà evidente che basta un
modello come ChatGPT per gestirla con efficienza, senza dover modificare l’intero
sistema.
La lista può essere condivisa con altri membri del team o con eventuali consulenti tecnici. ​
​
Più è dettagliata, più sarà facile capire dove intervenire e con quale livello di
automazione. ​
​
Una buona mappatura, infatti, è ciò che distingue un uso efficace dell’intelligenza artificiale
da un tentativo improvvisato che rischia di complicare il lavoro invece di semplificarlo.
323
​
​
19.2 – Scelta degli strumenti adatti
19.2.1 – Capire le differenze tra modelli generativi e motori di ricerca IA
Quando si decide di integrare l’intelligenza artificiale in un progetto, è fondamentale
conoscere la natura degli strumenti disponibili.
​
Esistono due grandi categorie: i modelli generativi, come ChatGPT, e i motori di risposta
basati su fonti, come Perplexity. Hanno obiettivi e comportamenti molto diversi, e vanno
scelti in base a ciò che serve davvero.
I modelli generativi sono progettati per scrivere contenuti originali, rispondere a domande
complesse, simulare conversazioni, creare testi, spiegazioni, riassunti o istruzioni. ​
​
Producono risposte basate su ciò che hanno imparato durante l’addestramento. Sono ottimi
per chi ha bisogno di generare materiale nuovo, come email, descrizioni prodotto o articoli.
I motori di risposta con fonti, invece, fanno ricerche aggiornate sul web, selezionano
informazioni e restituiscono risposte documentate con link alle fonti. ​
​
Sono ideali per chi cerca dati verificabili, numeri, citazioni o approfondimenti da usare in
modo preciso. Capire questa distinzione permette di non confondere gli strumenti tra
loro, evitando frustrazione e inefficienze.​
​
19.2.2 – Scegliere tool in base al tipo di progetto e competenze
Ogni progetto ha esigenze specifiche. Chi lavora nella scrittura ha bisogno di strumenti
diversi rispetto a chi sviluppa software, organizza eventi o gestisce relazioni con i clienti.​
​
È quindi importante che la scelta dell’IA sia guidata non solo dalla moda o dalla curiosità, ma
dalle attività concrete da svolgere e dalle competenze disponibili nel team.
Ad esempio, un copywriter freelance può trovare enorme valore in ChatGPT per generare
bozze, titoli o contenuti social, mentre un docente può usarlo per semplificare testi tecnici o
324
creare quiz. Allo stesso tempo, una piccola azienda può usare Perplexity per raccogliere
informazioni di mercato in modo più rapido e strutturato rispetto a una ricerca manuale.
Inoltre, serve valutare il grado di autonomia. ​
​
Alcuni strumenti sono immediati, pensati per chi non ha competenze tecniche. Altri, come
quelli che usano API o integrazioni con altre app, richiedono una minima familiarità con
logica, flussi e configurazioni. ​
​
La scelta corretta tiene conto di ciò che si vuole ottenere, ma anche di ciò che si è in grado
di gestire.​
​
​
19.2.3 – Verificare affidabilità, privacy e supporto tecnico
La scelta di uno strumento IA non si basa solo sulle funzionalità. Ci sono altri criteri
fondamentali da considerare, soprattutto quando si lavora con dati sensibili, informazioni
riservate o contenuti destinati al pubblico. ​
​
Uno di questi è l’affidabilità: il modello produce risultati coerenti? È preciso nei
riferimenti? È stato testato in contesti simili al nostro?
Un altro criterio importante è la gestione della privacy. Non tutti gli strumenti hanno lo
stesso livello di protezione dei dati. ​
​
È bene verificare se le informazioni inviate vengono salvate, se l’utente può gestire la
cronologia, e se lo strumento è conforme a normative come il GDPR. Questo aspetto è
particolarmente rilevante in ambiti professionali, educativi o aziendali.
Infine, serve controllare la presenza di documentazione e assistenza. ​
​
Uno strumento potente ma difficile da usare, o senza supporto in caso di problemi, rischia di
diventare un ostacolo. ​
​
È utile preferire soluzioni che offrano esempi, tutorial, un centro di supporto e una
325
community attiva. L’integrazione dell’IA non è un passo da fare alla cieca: richiede una
scelta consapevole, basata su criteri concreti e verificabili.
​
19.3 – Integrazione in siti e app
19.3.1 – Incorporare chatbot o assistenti IA in piattaforme esistenti
Integrare un assistente basato su intelligenza artificiale all’interno di un sito web o di
un’applicazione è oggi molto più semplice rispetto al passato. ​
​
L’obiettivo è rendere disponibile un supporto automatizzato in grado di rispondere alle
domande degli utenti, guidarli nella navigazione o offrire servizi personalizzati. ​
​
Per farlo, non serve sempre creare un sistema da zero: esistono soluzioni pronte all’uso
che permettono di aggiungere un chatbot IA in pochi passaggi.
La maggior parte di queste soluzioni funziona tramite widget. Si tratta di piccoli blocchi di
codice che vengono copiati e incollati all’interno del sito, solitamente nel codice HTML della
pagina. ​
​
Una volta installato, il chatbot compare come una finestra interattiva, di solito nell’angolo
inferiore destro dello schermo. Gli utenti possono scrivere domande e ricevere risposte in
tempo reale, senza lasciare la pagina.
Molti di questi chatbot si basano su ChatGPT, e permettono una personalizzazione del
comportamento, del tono e dei messaggi iniziali, così da riflettere lo stile del brand. ​
​
Alcune piattaforme offrono interfacce grafiche intuitive per configurare il flusso di
conversazione, mentre altre si rivolgono a sviluppatori, offrendo pieno controllo tramite API. ​
​
In entrambi i casi, l’obiettivo è chiaro: rendere l’IA un canale di dialogo diretto, sempre
disponibile, senza bisogno di intervento umano continuo.
326
19.3.2 – Collegare l’IA con sistemi di gestione contenuti e database
Molti siti e applicazioni si basano su sistemi dinamici, che raccolgono, modificano e
mostrano dati in tempo reale. ​
​
In questo contesto, l’intelligenza artificiale può essere collegata a database, CMS (content
management system) e piattaforme cloud per migliorare l’esperienza utente o
semplificare i processi interni. ​
​
L’integrazione consente, ad esempio, di offrire risposte personalizzate in base al profilo
dell’utente, o di generare automaticamente contenuti aggiornati.
​
Per realizzare queste connessioni, si utilizzano strumenti come le API, che permettono al
modello IA di interrogare un database, leggere un contenuto o aggiornare una scheda
cliente. ​
​
In un’app di prenotazioni, ad esempio, l’IA può accedere al calendario e rispondere alla
domanda “Quando è disponibile la prossima visita?” senza intervento umano. Questo è
possibile solo se il sistema è stato progettato per far dialogare l’IA con i dati reali.
Un’altra possibilità è usare l’IA per generare o aggiornare contenuti direttamente nel
CMS, ad esempio articoli, descrizioni prodotto, o sezioni FAQ. In questo modo, si velocizza il
lavoro redazionale, mantenendo il sito sempre aggiornato. ​
​
Naturalmente, serve sempre una fase di controllo umano, ma l’IA può occuparsi delle bozze
iniziali o della riformulazione, risparmiando tempo e riducendo il carico manuale.​
​
​
19.3.3 – Usare API per estendere le funzioni senza ricominciare da zero
Le API sono l’interfaccia tecnica che collega il modello di intelligenza artificiale con
altri software o sistemi già esistenti. Questo significa che è possibile aggiungere
funzionalità intelligenti a una piattaforma digitale già attiva, senza doverla ricostruire
completamente.
327
Le API funzionano come “ponti”, che permettono di inviare una richiesta all’IA (ad esempio
una domanda, un testo da analizzare o un comando), e ricevere una risposta che il sistema
può usare per proseguire il flusso.
Per chi sviluppa siti o app, le API di ChatGPT o di altri modelli OpenAI permettono di
integrare la scrittura di testi, la traduzione, la generazione di codice o la comprensione del
linguaggio naturale. ​
​
Il vantaggio è che il contenuto generato può essere visualizzato direttamente nell’interfaccia
dell’utente finale, senza passaggi intermedi. Questo rende il servizio più fluido, reattivo e
moderno.
Anche chi non è uno sviluppatore esperto può iniziare a usare le API, grazie a strumenti
come Zapier, Make o Replit, che offrono interfacce semplificate per creare automazioni
e collegamenti tra app diverse. ​
​
In questo modo, si può trasformare un sito statico in una piattaforma interattiva, capace di
adattarsi alle richieste dell’utente. ​
​
L’integrazione dell’IA, quindi, non richiede una rivoluzione, ma può avvenire per gradi,
​
​
19.4 – Personalizzazione dei modelli
19.4.1 – Adattare il linguaggio e il tono ai propri utenti
Quando si integra l’intelligenza artificiale in un progetto digitale, è fondamentale che la
comunicazione generata dal sistema rispecchi il tono e lo stile del brand o del servizio. ​
​
Le persone si aspettano coerenza: se il sito è informale e amichevole, anche l’IA deve
rispondere con un linguaggio semplice, diretto e cordiale. Se invece l’ambiente è tecnico o
istituzionale, la comunicazione deve essere più formale e precisa.
328
Per raggiungere questo obiettivo, è possibile istruire l’IA su quale tono di voce utilizzare,
fornendole esempi concreti. Si possono inviare testi già scritti dall’azienda, dialoghi reali con
clienti, o spiegare all’IA come dovrebbe esprimersi in una determinata situazione. ​
​
ChatGPT, ad esempio, permette di ricevere risposte nello stile richiesto, se il prompt è ben
strutturato. Il risultato è una conversazione più naturale e credibile, che non stona con
l’identità del progetto.
Questa personalizzazione non è solo estetica. ​
​
Influenza anche la fiducia dell’utente. Sentirsi ascoltati e capiti da un sistema che usa
parole familiari, toni coerenti e riferimenti contestuali aumenta la qualità dell’esperienza. ​
​
L’IA non deve sembrare “fuori luogo”: deve sembrare parte integrante dell’ambiente in cui
opera.​
​
​
19.4.2 – Istruire il modello con dati, esempi e prompt specifici
Un modello generativo come ChatGPT non può “imparare” nuovi dati in senso classico, ma
può essere guidato e raffinato attraverso l’uso di prompt personalizzati e dati di
contesto. ​
​
Questo significa che, pur non modificando direttamente il modello, si può orientare il suo
comportamento in modo molto preciso, fornendo istruzioni dettagliate e materiale di
riferimento.
Per esempio, se un’azienda vuole usare l’IA per generare risposte a clienti nel settore
assicurativo, può fornire una serie di esempi: domande frequenti, risposte approvate, linee
guida di comunicazione. ​
​
Questi elementi vengono inseriti direttamente nel prompt, oppure gestiti tramite prompt
“strutturati” che definiscono il comportamento desiderato in ogni situazione.​
​
Come avrai capito, una tecnica del genere si chiama prompt engineering e rappresenta
uno strumento molto potente per controllare l’output del modello. Più il prompt è preciso e
329
ricco di contesto, più la risposta dell’IA sarà aderente alle aspettative. ​
​
In alcuni casi, è possibile anche definire ruoli (“agisci come un consulente”, “scrivi come un
copywriter”), istruzioni di formato (“usa frasi brevi”, “non superare le 300 parole”) e contenuti
da evitare. ​
​
In questo modo, si ottiene un comportamento molto vicino alla personalizzazione, senza
dover sviluppare un modello su misura.
​
​
19.4.3 – Limitare errori e incoerenze attraverso regole e contesto
Nonostante le potenzialità, un modello di intelligenza artificiale non è infallibile. Può generare
risposte errate, incoerenti o non appropriate al contesto. ​
​
Per ridurre questi rischi, è importante definire regole chiare di comportamento e, dove
possibile, includere il maggior numero di elementi contestuali nel prompt. Più il modello
“capisce” in che situazione si trova, più eviterà di sbagliare tono, contenuto o finalità.
Una buona prassi è testare il comportamento dell’IA in scenari diversi, così da capire
dove tende a sbagliare e correggerlo attraverso modifiche al prompt o all’ambiente di
utilizzo. ​
​
Si possono anche inserire limiti specifici: ad esempio, chiedere all’IA di “non fornire consigli
legali” o “non rispondere se non ha dati certi”. In questo modo, il sistema si auto-contiene e
riduce il rischio di fornire informazioni ambigue o pericolose.
In progetti più avanzati, è possibile anche gestire la personalizzazione attraverso interfacce
che preparano dinamicamente i prompt, adattandoli in base a quello che l’utente ha
scritto. ​
​
Questo crea una conversazione più fluida, più precisa e con un rischio molto più basso di
errori o uscite fuori tema. ​
​
Il controllo del contesto è la chiave per trasformare un’IA generica in uno strumento
realmente utile, affidabile e adatto a uno scopo preciso.
330
19.5 – Coordinamento con team e collaboratori
19.5.1 – Definire i ruoli tra intelligenza artificiale e persone
Quando si introduce l’intelligenza artificiale in un progetto condiviso, è fondamentale chiarire
fin da subito cosa fa la macchina e cosa fanno le persone. Questo serve a evitare
confusione, doppioni o aspettative sbagliate. ​
​
L’IA è uno strumento molto utile, ma ha limiti precisi: non prende decisioni autonome, non
assume responsabilità e non conosce il contesto se non glielo forniamo noi.
Il team deve decidere in quali momenti della produzione l’IA entra in gioco: può essere
durante la scrittura, nella ricerca, nella creazione di bozze o nella sintesi di riunioni. ​
​
Ma deve essere altrettanto chiaro chi ha l’ultima parola, chi controlla gli output e chi è
responsabile della qualità finale. L’IA non sostituisce il lavoro umano, lo affianca. E perché
questo affiancamento funzioni, serve una distribuzione dei ruoli precisa e condivisa.
Un errore comune è lasciare che tutti nel team usino l’IA in modi diversi, senza
coordinamento. ​
​
Questo genera incoerenze e perdita di controllo. Meglio stabilire linee guida semplici:
quando si usa l’IA, per cosa, con quale obiettivo. Una buona organizzazione parte sempre
dalla chiarezza.​
​
​
19.5.2 – Condividere output e flussi in ambienti collaborativi
L’integrazione dell’IA in un progetto non è solo questione di scrivere testi o generare idee. È
anche una questione di flusso di lavoro. ​
​
331
Se ogni membro del team lavora separatamente con l’IA, si rischia di perdere informazioni,
versioni o decisioni importanti. ​
​
Per questo è utile adottare strumenti collaborativi – come Google Docs, Notion, Slack o
Trello – in cui anche gli output dell’IA vengono centralizzati.
Ad esempio, un contenuto generato con ChatGPT può essere copiato all’interno di un
documento condiviso, commentato da altri, migliorato o adattato. ​
​
Un riassunto creato per una riunione può essere salvato nella piattaforma di gestione del
progetto, così che tutti abbiano accesso allo stesso materiale. Questo permette trasparenza
e continuità, due elementi chiave quando si lavora in gruppo.
Inoltre, utilizzare ambienti collaborativi permette di tracciare le modifiche, tenere memoria
delle scelte fatte e aggiornare i contenuti con più facilità. ​
​
Quando l’IA diventa parte del processo creativo o operativo, deve essere trattata come un
vero “membro del team digitale”. ​
​
Non si limita a fornire un aiuto temporaneo: entra a far parte della conversazione
progettuale.​
​
19.5.3 – Favorire un uso coerente dell’IA tra i membri del team
Anche se ogni persona ha il proprio stile e le proprie abitudini, è importante che all’interno
del team l’uso dell’intelligenza artificiale sia coerente, regolato e allineato agli obiettivi
comuni. ​
​
Questo non significa impedire la creatività o l’autonomia, ma fornire strumenti condivisi:
prompt predefiniti, modelli da seguire, esempi già validati.
Quando ogni collaboratore usa l’IA in modo diverso, i risultati possono essere molto
disomogenei. Alcuni testi saranno lunghi, altri sintetici. Alcune risposte formali, altre troppo
colloquiali. ​
​
Per questo è utile creare una guida interna all’uso dell’IA, anche semplice, che indichi
332
con chiarezza il tipo di linguaggio da usare, le attività dove l’IA è più efficace, e quelle dove è
meglio non usarla.
In questo modo, ogni membro del team sa cosa aspettarsi dal lavoro degli altri e può
intervenire più facilmente quando serve correggere, migliorare o finalizzare. ​
​
Un uso coerente dell’intelligenza artificiale rende il progetto più solido e rafforza la
collaborazione e la fiducia reciproca (elementi indispensabili in ogni lavoro condiviso).
​
19.6.1 – Verificare che l’output risponda agli obiettivi
Integrare un sistema di intelligenza artificiale significa verificare in modo sistematico se
ciò che produce è davvero utile, corretto e coerente con gli obiettivi del progetto.​
​
Questo controllo non può essere lasciato al caso. Anche se il modello genera risposte
convincenti, serve sempre una fase di verifica da parte dell’utente o del team.
Ogni output generato va confrontato con ciò che ci si aspettava: è completo? è chiaro?
rispetta il tono desiderato? risponde alla domanda posta o svolge il compito previsto? Se la
risposta è negativa, bisogna intervenire, non accettare passivamente il risultato. ​
​
Questo approccio critico è fondamentale per non trasformare l’IA in un automatismo
cieco.
L’obiettivo è il miglioramento continuo. ​
L’IA va trattata come un collaboratore inesperto: fa molto, ma va guidato. ​
​
Ogni uso è un’occasione per osservare dove funziona bene e dove serve una correzione. E
più si osserva, più si impara a ottenere il meglio dal sistema.​
​
333
19.6.2 – Raccogliere feedback reali per migliorare i prompt
Una delle chiavi per far funzionare bene un sistema basato su IA è imparare a scrivere
prompt più precisi, chiari ed efficaci. ​
​
Questo non è un processo teorico: si affina sul campo, raccogliendo feedback da chi usa
l’output generato. Se un testo non è utile, è importante capire perché. Manca qualcosa? È
troppo lungo? È scritto in modo troppo tecnico?​
​
Il feedback può arrivare da membri del team, clienti, utenti finali o da chi supervisiona il
progetto. Più è specifico, più aiuta a migliorare.​
​
Ad esempio, sapere che “questa risposta è troppo generica” è utile solo se accompagnato
da “perché manca un riferimento pratico” o “perché non tiene conto del nostro pubblico
target”. ​
​
A partire da queste osservazioni, è possibile riformulare i prompt in modo più efficace.
Un prompt ben costruito è quello che dà all’IA il contesto giusto, le istruzioni corrette e lo
stile desiderato. ​
​
Quando i prompt vengono testati, modificati e ottimizzati in base ai risultati, anche il sistema
più semplice può diventare uno strumento potente. L’apprendimento non è solo dell’IA, ma
anche di chi la utilizza.​
​
​
​
19.6.3 – Monitorare prestazioni e adattare l’uso nel tempo
I progetti cambiano, il pubblico si evolve, gli obiettivi si spostano. Per questo è importante
monitorare nel tempo le prestazioni dell’IA, cioè osservare come si comporta rispetto agli
standard attesi. ​
​
Questo può includere la qualità delle risposte, la velocità di generazione, la coerenza del
tono o la capacità di adattarsi a nuovi casi.
334
Monitorare significa anche essere pronti ad adattare l’uso dell’IA quando serve. ​
​
Se inizialmente viene usata solo per generare testi brevi, ma si scopre che può supportare
anche la sintesi di report o la gestione di task ripetitivi, vale la pena ampliare il suo impiego. ​
​
Al contrario, se si notano errori ripetuti in certi contesti, è meglio restringere il campo d’uso o
affiancare controlli più attenti.
Il miglioramento è una pratica costante, fatta di piccoli aggiustamenti, osservazione e
adattamento. Solo in questo modo l’integrazione dell’IA diventa parte viva e utile del progetto
nel lungo periodo.
19.7 – Scalabilità e aggiornamenti
19.7.1 – Preparare l’infrastruttura per una crescita progressiva
Integrare un’intelligenza artificiale in un progetto digitale non significa solo farla funzionare
oggi, ma preparare il sistema a funzionare bene anche domani, quando il numero di
utenti, dati o richieste potrebbe aumentare. ​
​
Un concetto del genere si chiama scalabilità: la capacità di un sistema di crescere senza
perdere efficienza.
Per essere scalabile, un’integrazione IA deve poggiarsi su un’infrastruttura solida. ​
​
Questo può voler dire scegliere un piano API che supporti un certo volume di richieste,
assicurarsi che la connessione tra l’IA e gli altri strumenti (come database o CMS) sia
stabile, o ancora verificare che le risposte generate possano essere archiviate e gestite
anche quando aumentano. ​
​
Se queste condizioni non sono considerate in anticipo, si rischia che l’IA diventi un collo
di bottiglia anziché un acceleratore.
335
Anche in progetti piccoli o individuali, è utile pensare in prospettiva. Un assistente IA che
oggi risponde a dieci utenti, domani potrebbe gestirne cento. ​
​
Preparare questa possibilità fin da subito, anche con strumenti semplici come fogli di calcolo
condivisi, automazioni base o flussi di salvataggio dei dati, permette di crescere in modo
ordinato, senza dover ricominciare da zero ogni volta.​
​
​
19.7.2 – Adattare l’IA a più utenti, lingue o settori
Un altro aspetto della scalabilità è la capacità del sistema di adattarsi a diversi contesti
d’uso. ​
​
Un modello di intelligenza artificiale può funzionare bene in una lingua o con un tipo di
pubblico, ma avere bisogno di modifiche se si cambia target, settore o paese. ​
​
Per esempio, un chatbot che risponde in italiano con tono informale dovrà essere
completamente ripensato se lo si vuole usare in inglese, in un sito aziendale rivolto a
manager internazionali.
Per affrontare questa sfida, è utile creare prompt dinamici, che variano in base alla lingua o
al tipo di utente. Si possono usare variabili (come nome, professione, paese) per
personalizzare le risposte senza dover scrivere ogni prompt da zero. ​
​
Inoltre, è possibile testare la qualità dell’IA su contenuti in più lingue, per capire dove
funziona meglio e dove ha bisogno di supporto umano o regole più precise.
Adattarsi a più settori significa anche preparare l’IA a gestire linguaggi specialistici:
medico, giuridico, tecnico. ​
​
In questi casi, è importante istruire il modello con esempi mirati, oppure limitare il suo raggio
d’azione, chiedendogli esplicitamente di non rispondere a domande delicate o fuori contesto. ​
​
Più il sistema è flessibile, più sarà in grado di accompagnare il progetto nella sua
evoluzione.​
​
336
​
19.7.3 – Integrare aggiornamenti dei modelli senza perdere coerenza
I modelli di intelligenza artificiale vengono migliorati continuamente. Le versioni nuove –
come i passaggi da GPT-3.5 a GPT-4, e oltre – sono più precise, più veloci, più capaci di
gestire richieste complesse. ​
​
Ma ogni aggiornamento introduce piccoli cambiamenti nel modo in cui il modello si
comporta. Questo può creare problemi se non viene gestito con attenzione.​
​
Un testo che oggi viene generato in un certo modo potrebbe apparire diverso dopo un
aggiornamento, anche usando lo stesso prompt. ​
​
Questo significa che, in ambienti dove la coerenza è fondamentale – come siti istituzionali,
manuali, documentazione tecnica – è necessario testare l’output dopo ogni
aggiornamento del modello, prima di usarlo in modo automatico.​
​
Per gestire questa transizione senza intoppi, è consigliabile tenere traccia di prompt,
risposte e flussi già collaudati. ​
​
Avere uno storico consultabile aiuta a confrontare i risultati, individuare differenze e
correggere eventuali incoerenze. Alcuni strumenti permettono anche di “bloccare”
temporaneamente una versione del modello, proprio per evitare sorprese.
Integrare l’IA in un progetto a lungo termine significa gestire i cambiamenti in modo
responsabile e consapevole. Un sistema è davvero maturo quando può evolvere senza
perdere ciò che ha imparato.
337
20. Formazione e aggiornamento sull’IA
​
​
20.1 – Corsi online e certificazioni
20.1.1 – Piattaforme accessibili per apprendere le basi dell’intelligenza artificiale
Imparare i concetti fondamentali dell’intelligenza artificiale oggi è possibile anche per chi
parte da zero, grazie alla grande disponibilità di corsi online gratuiti o a basso costo. ​
​
Esistono piattaforme educative che offrono percorsi introduttivi ben strutturati, pensati per
chi non ha un background tecnico. Alcuni di questi corsi spiegano cos’è l’IA, come funziona
e quali sono i suoi principali campi di applicazione, senza entrare in formule complesse o
linguaggi di programmazione.
Coursera, edX, FutureLearn, Udacity e Khan Academy sono tra le piattaforme più diffuse e
affidabili. ​
​
Offrono corsi realizzati da università e aziende di riferimento, con materiali aggiornati e
video lezioni guidate passo per passo. ​
​
Anche piattaforme più generaliste come Udemy propongono contenuti validi, soprattutto se
si cercano approcci pratici, orientati all’uso concreto di strumenti come ChatGPT o strumenti
IA nel lavoro quotidiano.
L’importante è partire da un corso che non dia per scontata alcuna competenza iniziale, e
che introduca concetti come machine learning, modelli linguistici, automazione o reti neurali
in modo progressivo. ​
​
La chiarezza didattica è ciò che distingue un buon corso introduttivo da una lezione tecnica
poco accessibile.​
​
​
338
20.1.2 – Certificazioni riconosciute a livello professionale
Oltre ai corsi introduttivi, esistono anche percorsi formativi che rilasciano certificazioni
riconosciute nel mondo del lavoro. ​
​
Queste sono particolarmente utili per chi desidera inserire le competenze sull’intelligenza
artificiale nel proprio curriculum, accedere a nuovi ruoli o aggiornare il proprio profilo
professionale. ​
​
Una certificazione non è un semplice attestato: in molti casi dimostra che lo studente ha
acquisito competenze concrete, con test finali e prove pratiche.
Tra le certificazioni più rispettate ci sono quelle rilasciate da Google (AI Fundamentals), IBM
(AI Analyst, AI Engineer), Microsoft (Azure AI Fundamentals), oltre a programmi avanzati di
Stanford, MIT e DeepLearning.AI. ​
​
Questi percorsi, sebbene più tecnici, possono essere seguiti anche da chi non è
sviluppatore, a patto di avere una buona base di logica e una forte motivazione.​
​
È importante valutare il valore reale della certificazione, leggendo le opinioni di altri
studenti e verificando il livello di riconoscimento da parte delle aziende.​
​
Non tutte le certificazioni hanno lo stesso peso. ​
​
Meglio puntare su programmi ben strutturati, con contenuti aggiornati e con la possibilità di
dimostrare in modo concreto le competenze acquisite.​
​
​
20.1.3 – Come scegliere un corso utile in base ai propri obiettivi
La scelta del corso giusto dipende da cosa si vuole ottenere e in quale ambito si vuole
usare l’intelligenza artificiale. ​
​
Chi lavora nella comunicazione può cercare un corso che spieghi come usare i modelli
linguistici per scrivere testi, analizzare messaggi o creare contenuti. Chi lavora nel marketing
339
può orientarsi su corsi di analisi dei dati, predizione e automazione dei flussi. Chi è docente,
invece, può trovare percorsi che mostrano come integrare l’IA nella didattica.
Non serve partire subito da corsi lunghi o complessi. ​
​
Meglio iniziare con un’introduzione breve, gratuita o dal costo contenuto, che aiuti a capire
se il tema interessa davvero. ​
​
Da lì si può decidere se proseguire con un percorso più avanzato. È importante leggere
attentamente il programma, la durata, e soprattutto verificare se i contenuti sono pratici o
solo teorici.
Ogni persona ha un proprio stile di apprendimento. Alcuni imparano meglio con video, altri
con testi scritti, altri ancora con esercizi guidati. ​
​
Scegliere un corso che rispetta il proprio ritmo e il proprio modo di apprendere rende la
formazione più efficace e piacevole. L’obiettivo è imparare davvero, non accumulare
certificati.
​
20.2 – Libri e manuali consigliati
20.2.1 – Testi introduttivi per principianti
Per chi vuole capire cosa sia davvero l’intelligenza artificiale, al di là delle mode o dei titoli
sensazionalistici, esistono libri pensati per spiegare in modo semplice e accurato i
concetti fondamentali. ​
​
Questi testi sono rivolti a lettori senza una formazione tecnica, ma curiosi di comprendere
come funziona l’IA e dove viene applicata. ​
​
Il loro obiettivo è costruire una base culturale solida, utile per muoversi con maggiore
consapevolezza tra strumenti e notizie.
Tra i più noti, spiccano opere divulgative come "L'intelligenza artificiale spiegata a mio
nipote" di Luc Julia (co-creatore di Siri), che affronta l’argomento con esempi concreti e tono
340
accessibile. ​
​
Anche "AI – La nuova rivoluzione" di Kai-Fu Lee è molto apprezzato: racconta le implicazioni
sociali ed economiche dell’IA, spiegando le differenze tra Oriente e Occidente nel suo
sviluppo. ​
​
Sono libri che non richiedono conoscenze pregresse, ma aiutano a vedere l’IA come un
fenomeno reale, e non solo tecnologico.
Scegliere un buon testo introduttivo permette di comprendere meglio i termini di base –
come algoritmo, rete neurale, deep learning – e di affrontare con più sicurezza i contenuti
online o i corsi successivi. ​
​
È un investimento di tempo che rende più solido qualsiasi percorso di apprendimento futuro.​
​
20.2.2 – Manuali tecnici e opere di riferimento per approfondire
Chi vuole andare oltre la semplice curiosità può affidarsi a manuali tecnici, progettati per
offrire una comprensione più profonda dei meccanismi matematici e logici che stanno alla
base dell’intelligenza artificiale. ​
​
Questi testi richiedono più attenzione, e in alcuni casi conoscenze di base su algebra,
statistica o programmazione, ma offrono una visione molto più precisa del funzionamento
dei modelli.
Uno dei testi più completi e usati a livello internazionale è "Artificial Intelligence: A Modern
Approach" di Stuart Russell e Peter Norvig. ​
​
È spesso adottato in ambito universitario, ma può essere studiato anche da autodidatti
motivati. ​
​
Altri titoli rilevanti sono "Deep Learning" di Ian Goodfellow, una guida approfondita alle reti
neurali, e "Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow" di Aurélien
Géron, molto apprezzato per il suo approccio pratico.
341
Questi manuali non servono solo ai programmatori. ​
​
Anche chi si occupa di gestione, strategia o educazione può trarre beneficio da una lettura
tecnica, così da comprendere cosa può fare l’IA e quali sono i suoi limiti.​
​
20.2.3 – Letture sull’etica e l’impatto sociale dell’intelligenza artificiale
Comprendere l’intelligenza artificiale vuol dire riflettere su come viene usata e su quali
conseguenze può avere nella società. ​
​
Per questo esiste una vasta letteratura dedicata ai temi etici, politici e culturali legati
all’IA. ​
​
Sono letture fondamentali per chi lavora in ambito educativo, comunicativo, giuridico o
semplicemente per chi vuole formarsi un’opinione informata.
Testi come "Armi di distruzione matematica" di Cathy O’Neil analizzano come gli algoritmi
possano amplificare disuguaglianze sociali e discriminazioni, spesso in modo invisibile.
"Homo Deus" di Yuval Noah Harari esplora i possibili scenari futuri in cui l’uomo delega
sempre più potere decisionale alle macchine. ​
​
Altri libri, come quelli di Luciano Floridi, offrono una visione filosofica più ampia e critica, utile
per inquadrare l’IA all’interno di un discorso pubblico e culturale più complesso.
Leggere questi testi aiuta a sviluppare uno sguardo più consapevole e meno ingenuo,
fondamentale per affrontare l’IA come fenomeno che cambia il modo in cui viviamo,
lavoriamo e interagiamo con gli altri.
​
20.3 – Canali YouTube e podcast
20.3.1 – Video tutorial per imparare con esempi pratici
342
YouTube è oggi una delle risorse più immediate e accessibili per apprendere in modo
visivo e pratico. ​
​
Molti creatori di contenuti propongono tutorial passo passo su come usare strumenti di
intelligenza artificiale, da ChatGPT a Stable Diffusion, fino a piattaforme più avanzate per
l’analisi dei dati o la creazione di modelli. ​
​
Anche chi parte da zero può trovare spiegazioni semplici, senza bisogno di leggere codice o
manuali.
I video tutorial sono particolarmente utili per vedere direttamente l’uso degli strumenti,
perché mostrano cosa fare con esempi reali e suggerimenti pratici. ​
​
Spesso i video includono errori comuni, alternative e trucchi utili, difficili da cogliere in un
corso teorico o in un libro. Questo tipo di apprendimento visivo aiuta molto chi preferisce
vedere prima di provare.
Esistono canali specializzati in spiegazioni per principianti, ma anche per chi vuole
approfondire aspetti specifici, come la generazione di immagini, l’automazione con IA, o
l’uso di plugin e API. ​
​
La qualità varia, quindi è importante scegliere canali affidabili, aggiornati e chiari, che
dimostrino competenza e attenzione alla chiarezza didattica.
​
​
​
20.3.2 – Interviste e conversazioni con esperti del settore
Oltre ai tutorial, molti canali YouTube e podcast propongono interviste, talk o tavole
rotonde con professionisti ed esperti dell’intelligenza artificiale. ​
​
Questi contenuti permettono di entrare in contatto con punti di vista diversi: sviluppatori,
ricercatori, imprenditori, filosofi, educatori. Ascoltare queste voci aiuta a comprendere non
solo il “come”, ma anche il “perché” e il “dove sta andando” l’IA.
343
Le interviste sono spesso ricche di spunti. Offrono riflessioni sulle applicazioni pratiche,
sulle implicazioni etiche o su casi di successo reali, raccontati direttamente da chi lavora
sul campo. ​
​
Anche se non sempre sono tecnicamente dettagliate, forniscono un contesto prezioso,
soprattutto per chi vuole orientarsi nel settore o capire come l’IA viene integrata nei diversi
ambiti professionali.
Molti podcast sono organizzati in episodi brevi, ascoltabili durante gli spostamenti o in
momenti liberi. Questo li rende perfetti per una formazione informale ma continua, capace
di alimentare curiosità, motivazione e senso critico.
​
​
20.3.3 – Aggiornamenti rapidi sulle ultime novità tecnologiche
L’intelligenza artificiale evolve molto rapidamente. ​
​
Ogni settimana emergono nuovi strumenti, aggiornamenti di modelli, notizie su applicazioni
sorprendenti o controversie legate all’uso dell’IA.​
​
Canali YouTube e podcast specializzati aiutano a restare aggiornati senza dover cercare
manualmente tutte le informazioni.
Molti creatori si dedicano a fare un lavoro di sintesi: leggono blog tecnici, comunicati ufficiali,
articoli di ricerca e trasformano tutto in contenuti accessibili, in pochi minuti. ​
​
Questa attività di “traduzione” è preziosa per chi non ha tempo o competenze per seguire
direttamente le fonti più tecniche, ma vuole comunque sapere cosa sta accadendo nel
mondo dell’IA.
Seguire questi aggiornamenti settimanali aiuta a non restare indietro, a cogliere subito le
opportunità che nascono e a interpretare con maggiore lucidità le notizie che circolano,
distinguendo hype da fatti concreti. ​
​
344
È un’abitudine semplice, ma estremamente utile per chiunque voglia usare l’intelligenza
artificiale in modo consapevole.
​
​
​
20.4 – Newsletter e blog settoriali
20.4.1 – Come restare aggiornati senza perdere tempo
Nel mondo dell’intelligenza artificiale, le novità sono continue. ​
​
Ogni giorno escono nuovi strumenti, aggiornamenti tecnici, riflessioni etiche e casi d’uso. Ma
cercare tutte queste informazioni manualmente richiede tempo e attenzione. ​
​
Per questo le newsletter settoriali sono diventate uno strumento indispensabile: offrono
un riepilogo curato e selezionato delle notizie più rilevanti, direttamente nella casella email.
Le migliori newsletter non si limitano a riportare link, ma offrono un commento ragionato,
spiegano perché una certa notizia è importante e a chi può interessare. ​
​
Alcune sono pensate per principianti, altre per chi lavora già nel settore e ha bisogno di
aggiornamenti rapidi ma affidabili. Questo le rende flessibili: ognuno può scegliere il livello
più adatto al proprio percorso.
Iscriversi a una buona newsletter significa risparmiare tempo e filtrare il rumore. Si
ricevono solo notizie di valore, una o due volte alla settimana, evitando di perdersi tra articoli
ripetitivi o contenuti poco verificati. ​
​
È una forma di aggiornamento silenziosa, ma costante, che aiuta a restare connessi al
cambiamento senza esserne sopraffatti.
345
​
​
20.4.2 – Fonti autorevoli da seguire nel lungo periodo
Non tutte le fonti online sono uguali. Quando si tratta di intelligenza artificiale, è importante
affidarsi a blog e newsletter gestiti da esperti riconosciuti o da organizzazioni con
credibilità nel settore. ​
​
Questo non solo garantisce l’accuratezza delle informazioni, ma anche la qualità delle
analisi e la correttezza delle previsioni.
Blog come The Algorithm (MIT Technology Review), Import AI (di Jack Clark, cofondatore di
Anthropic), o le analisi settimanali di Ben’s Bites sono esempi di fonti che uniscono sintesi
e competenza tecnica. ​
​
Offrono panoramiche su ciò che accade nel settore industriale, accademico e normativo,
spesso prima che le notizie arrivino ai media generalisti.
Anche piattaforme aziendali come quelle di OpenAI, DeepMind, Hugging Face o NVIDIA
pubblicano aggiornamenti costanti sui propri progetti, con articoli tecnici, annunci ufficiali e
riflessioni sul futuro dell’IA. ​
​
Chi lavora nel settore può imparare molto leggendo direttamente dai protagonisti, invece
di affidarsi solo a fonti secondarie.​
​
20.4.3 – L’importanza della curatela nel sovraccarico informativo
Viviamo in un’epoca in cui le informazioni sono abbondanti ma disordinate. ​
​
Questo vale anche per l’intelligenza artificiale: migliaia di contenuti vengono pubblicati ogni
giorno, ma molti sono ridondanti, superficiali o sbagliati. In un contesto del genere, la
selezione intelligente delle fonti, diventa essenziale.
346
Una buona newsletter o un blog ben curato non servono solo a informare, ma anche a
guidare la comprensione, mettere in relazione i contenuti, proporre connessioni che
non emergerebbero leggendo notizie isolate. ​
​
Questo permette a chi studia o lavora con l’IA di costruire una visione più ampia, più stabile,
e meno influenzata da mode o allarmismi momentanei.
Scegliere due o tre fonti affidabili e seguirle con costanza può essere più efficace che
tentare di leggere tutto. La qualità conta più della quantità. ​
​
E quando le fonti sono ben selezionate, l’apprendimento diventa più fluido, meno
faticoso, e più utile nel lungo periodo.
​
​
​
20.5 – Eventi e conferenze sull’IA
20.5.1 – Incontri dal vivo e online per fare networking
Partecipare a un evento dedicato all’intelligenza artificiale non significa assistere a una serie
di presentazioni tecniche. ​
​
È anche un’occasione concreta per entrare in contatto diretto con altri professionisti,
scambiare esperienze e creare relazioni che possono tradursi in nuove opportunità di
formazione, lavoro o collaborazione. ​
​
Il networking – cioè la costruzione di una rete di contatti – è uno degli aspetti più importanti
di queste iniziative.
Gli eventi dal vivo offrono ambienti dinamici dove si incontrano sviluppatori, imprenditori,
docenti, ricercatori, ma anche designer, educatori e persone curiose di capire cosa sta
succedendo nel mondo dell’IA. ​
​
Anche chi non ha un ruolo tecnico può trarre vantaggio da queste occasioni, perché si trova
347
in un contesto dove le idee si contaminano e nascono spesso connessioni informali ma
significative.
Con la diffusione degli strumenti digitali, oggi è possibile partecipare anche a versioni
online di conferenze internazionali, spesso gratuite o a costi molto accessibili. Alcune
offrono chat, breakout room e sessioni parallele che simulano l’esperienza del contatto
umano. ​
​
Questo rende gli eventi inclusivi: si può partecipare anche da casa, con flessibilità, e restare
comunque collegati a ciò che conta davvero nel settore.
20.5.2 – Le conferenze più importanti a livello internazionale
Ogni anno si svolgono centinaia di conferenze sull’intelligenza artificiale, ma solo alcune
sono riconosciute a livello globale per la qualità dei contenuti, il rigore scientifico e l’impatto
che hanno sulle tecnologie emergenti. ​
​
Questi eventi attirano le menti più brillanti del settore, presentano ricerche all’avanguardia e
offrono uno sguardo diretto su cosa accadrà nei prossimi mesi e anni.
Tra le più autorevoli c’è NeurIPS (Conference on Neural Information Processing
Systems), che riunisce esperti di deep learning, machine learning e neuroscienze
computazionali. ​
​
È un punto di riferimento sia per la comunità accademica che per le aziende. ​
​
Molto importanti anche ICML (International Conference on Machine Learning) e AAAI
Conference on Artificial Intelligence, entrambe focalizzate sulla ricerca scientifica, ma
sempre più aperte anche a discussioni sull’etica, l’applicazione pratica e la
regolamentazione.
348
Per chi è interessato all’uso dell’IA in contesti concreti – come business, marketing,
educazione o sanità – esistono eventi più orientati all’applicazione che alla teoria. ​
​
Alcuni esempi sono The AI Summit, che si tiene in diverse città (tra cui Londra e New York),
e CogX, un festival della tecnologia e dell’innovazione che mescola conferenze, esposizioni
e dibattiti aperti. ​
​
Seguirli anche solo online può offrire spunti preziosi e accesso a materiali esclusivi.​
​
20.5.3 – Perché partecipare anche come principiante
Chi si avvicina per la prima volta all’intelligenza artificiale può pensare che questi eventi
siano troppo complessi, riservati a ingegneri o ricercatori. ​
​
In realtà, partecipare anche da principiante è spesso un modo efficace per accelerare la
propria formazione, perché si ha accesso diretto a idee, tendenze e strumenti che non si
trovano altrove. ​
​
L’importante è scegliere con cura le sessioni e affrontarle con un approccio da osservatore
attento.
Molti eventi offrono tracce differenziate, con talk pensati anche per chi non ha una
preparazione tecnica. Alcuni prevedono sessioni introduttive, workshop pratici, spazi
dedicati all’educazione e momenti di confronto informale. ​
​
Inoltre, i materiali spesso vengono messi a disposizione in forma di slide, video o documenti
PDF anche dopo la conferenza, così da poterli rivedere con calma.
Partecipare a un evento, anche solo una volta, permette di uscire dalla logica del “corso”
per entrare nella cultura viva dell’innovazione. Significa ascoltare direttamente chi
costruisce, regola, critica e sperimenta l’IA ogni giorno. ​
​
349
Per chi vuole imparare ad usare l’intelligenza artificiale e ad orientarsi nel suo ecosistema,
queste esperienze sono una risorsa concreta, motivante e, spesso, trasformativa.
​
20.6 – Piattaforme di esercitazione e simulazione
20.6.1 – Dove mettere in pratica ciò che si è imparato
Oggi esistono piattaforme pensate per aiutare chi studia – anche da autodidatta – a
sperimentare direttamente le tecniche e gli strumenti dell’IA in ambienti controllati. ​
​
Queste piattaforme offrono esercizi guidati, simulazioni e laboratori digitali in cui si può
lavorare anche senza installare nulla sul proprio computer.
Una delle più utilizzate è Kaggle, una comunità globale per l’apprendimento automatico
dove si possono caricare dataset, scrivere codice, testare modelli e partecipare a
competizioni. ​
​
Anche se nasce per utenti tecnici, offre percorsi graduali e notebook interattivi con
spiegazioni passo-passo, utili anche a chi sta imparando da poco. ​
​
Per chi si concentra sulla generazione di testi, OpenAI Playground consente di testare
prompt e osservare in tempo reale come l’IA risponde, variando parametri come creatività o
lunghezza.
Ci sono poi ambienti didattici come Google Colab, che permette di scrivere ed eseguire
codice Python direttamente da browser, e strumenti visivi come Teachable Machine di
Google, che consente di creare modelli di classificazione con immagini o suoni senza
scrivere codice. ​
​
Sono risorse che rendono l’IA accessibile e concreta, già dal primo approccio.​
​
​
350
20.6.2 – Ambienti interattivi per testare modelli e prompt
Uno degli aspetti più interessanti del lavoro con l’IA è la possibilità di interagire con i
modelli in modo diretto, osservando come cambiano le risposte a seconda di ciò che
chiediamo o dei dati che usiamo. ​
​
Le piattaforme interattive servono proprio a questo: offrono un ambiente dove si possono
costruire prompt, caricare dati, allenare modelli di base o osservare i comportamenti della
rete neurale, senza dover diventare ingegneri.
OpenAI offre strumenti specifici, come il già citato Playground, che permette di testare
prompt con diverse impostazioni. ​
​
In alternativa, Hugging Face Spaces offre una vasta libreria di modelli open source che si
possono provare gratuitamente, con interfacce intuitive e risultati visibili in tempo reale. ​
​
Sono ambienti che favoriscono la sperimentazione sicura, perché i dati sono isolati e le
funzioni guidate.
Per chi lavora nel campo educativo o vuole proporre esercizi in classe, esistono anche
ambienti pensati per la didattica, come AI4K12 o Machine Learning for Kids, che
permettono di simulare scenari reali usando l’IA per riconoscere oggetti, prevedere
comportamenti o classificare contenuti.​
​
Anche senza scrivere una riga di codice, si possono imparare i meccanismi logici alla
base di un modello predittivo.​
​
20.6.3 – Esercitazioni guidate per sviluppare abilità reali
L’apprendimento più efficace si verifica quando si lavora su problemi concreti, con sfide
reali e feedback immediato. ​
​
351
Le piattaforme di esercitazione guidata offrono proprio questo: percorsi pensati per allenare
una competenza specifica, come scrivere prompt efficaci, analizzare dati o costruire un
assistente conversazionale, in modo graduale e con supporto attivo.
Ad esempio, Learn Prompting è una piattaforma gratuita che guida passo per passo nella
scrittura di prompt per modelli linguistici come ChatGPT, con esempi, esercizi e sfide da
completare. ​
​
Per chi vuole imparare a lavorare con i dati, DataCamp o Coursera propongono laboratori
interattivi dove si analizzano dataset reali, con esercizi che richiedono non solo di osservare,
ma di prendere decisioni.
Queste esercitazioni aiutano a trasformare la conoscenza passiva in competenza attiva. ​
​
Non si tratta solo di ripetere ciò che si è letto, ma di applicarlo, sbagliare, correggere e
capire. Anche dieci minuti al giorno su queste piattaforme possono fare la differenza, perché
insegnano a pensare come chi lavora davvero con l’intelligenza artificiale.
20.7 – Apprendimento continuo con IA stessa
20.7.1 – Usare ChatGPT per simulare lezioni, quiz e spiegazioni
Uno degli usi più efficaci di ChatGPT è trasformarlo in un vero e proprio tutor personale,
capace di spiegare concetti, fare domande, correggere errori e adattarsi al livello dello
studente. ​
​
Questo rende l’intelligenza artificiale uno strumento per imparare qualsiasi cosa, con
un’interazione continua e personalizzata.
È possibile chiedere all’IA di spiegare un argomento in parole semplici, come se si parlasse
con un insegnante privato. Si può chiedere di ricevere un esempio concreto, di avere un
352
confronto tra due concetti simili, oppure di riscrivere una definizione in modo più accessibile. ​
​
In ambito linguistico o tecnico, è anche possibile generare quiz personalizzati, con
domande a risposta multipla o aperta, e poi ottenere una valutazione con correzione
motivata.
Per chi studia in autonomia, questo tipo di interazione è molto utile perché consente di
simulare dinamiche reali di apprendimento, come una lezione, un’esercitazione o una
discussione. ​
​
E tutto questo avviene in modo immediato, su misura e disponibile in qualsiasi momento
della giornata.​
​
​
20.7.2 – Come l’IA può adattarsi al proprio ritmo di studio
Una delle difficoltà più comuni nell’apprendere una nuova materia è trovare un metodo
adatto al proprio ritmo, tempo disponibile e livello di partenza. ​
​
L’intelligenza artificiale, grazie alla sua flessibilità, può aiutare a costruire un percorso
graduale, senza pressione e senza rigidità. È l’utente a decidere quando studiare, quanto
approfondire e come ricevere spiegazioni.
Chi ha solo pochi minuti al giorno può chiedere un riassunto dei concetti chiave, o una breve
esercitazione. Chi ha più tempo può affrontare percorsi guidati divisi in livelli, chiedendo
all’IA di proporre un piano settimanale o mensile.​
​
L’IA non giudica, non mette fretta e non dà nulla per scontato: ripete, semplifica, accelera o
rallenta, in base alle richieste ricevute.
Questa capacità di adattamento è particolarmente utile per chi ha interrotto gli studi da
tempo, per chi ha uno stile di apprendimento non tradizionale, o per chi vuole imparare
qualcosa in parallelo al lavoro o ad altri impegni. ​
​
L’IA offre un supporto costante e accessibile, che si adatta alle necessità reali della persona.
353
​
​
20.7.3 – Imparare imparando: la formazione come processo attivo
Uno degli aspetti più importanti dell’apprendimento con l’IA è che non si basa sulla passività,
ma richiede un’interazione costante. Non si legge soltanto: si domanda, si testa, si
corregge, si approfondisce. ​
​
Questo coinvolgimento diretto rende il processo di apprendimento più efficace e duraturo,
perché chi impara diventa protagonista del proprio percorso.
Ogni conversazione con l’IA è un’occasione per verificare ciò che si sa, per colmare
dubbi, per esplorare curiosità. È possibile fare domande molto specifiche, ma anche
chiedere suggerimenti su come affrontare un tema che si conosce poco. ​
​
L’IA può proporre esercizi pratici, consigli di lettura, connessioni tra argomenti o nuovi spunti
per approfondire.
Questo rende l’apprendimento un’attività continua, fluida e autonoma, che non ha bisogno di
un’aula o di un orario fisso. ​
​
L’intelligenza artificiale trasforma il modo di studiare perché lo rende più attivo, più
personalizzato e più vicino al modo in cui oggi viviamo e apprendiamo
​
​
​
21. Futuro dell’IA: tendenze e opportunità
​
​
21.1 – Evoluzione dei modelli linguistici
354
21.1.1 – Dal pre-addestramento alla comprensione del contesto
I modelli linguistici sono alla base di molte applicazioni dell’intelligenza artificiale. ​
​
In pochi anni, sono passati da strumenti in grado di completare una frase a sistemi capaci
di sostenere conversazioni articolate, sintetizzare testi lunghi e generare contenuti
coerenti. ​
​
Questo salto è avvenuto grazie a una tecnica chiamata pre-addestramento: il modello viene
esposto a una quantità enorme di testi, che servono a fargli “assorbire” le strutture
linguistiche e i modi di dire comuni.
Con l’evoluzione dei modelli, non si è più trattato solo di prevedere la parola successiva, ma
di imparare a interpretare meglio il contesto in cui si inserisce una frase.​
​
I modelli più recenti sono progettati per tenere conto di ciò che è stato detto prima, dei
dettagli della richiesta e persino dell’intento dell’utente. Questo consente risposte più
pertinenti, meno meccaniche, e più simili a quelle che darebbe un essere umano.
La comprensione del contesto è oggi una delle sfide principali. ​
​
I modelli stanno diventando più “attenti”: non leggono solo parola per parola, ma imparano a
distinguere sfumature, ambiguità e riferimenti impliciti. ​
​
21.1.2 – Modelli sempre più grandi, ma anche più efficienti
All’inizio, si pensava che per migliorare un modello linguistico bastasse renderlo più grande. ​
​
Aumentare il numero di parametri – cioè le connessioni matematiche che regolano il
funzionamento interno – permetteva di gestire testi più complessi e rispondere a richieste
più articolate. ​
​
È così che si è passati da modelli con milioni di parametri a modelli con centinaia di
miliardi, come GPT-4.
Tuttavia, rendere un modello più grande non significa automaticamente renderlo migliore. I
nuovi sviluppi stanno cercando un equilibrio tra potenza e efficienza, cioè la capacità di
355
ottenere buoni risultati consumando meno risorse. ​
​
Questo è importante non solo per motivi economici, ma anche ambientali: addestrare
modelli enormi richiede energia, tempo e infrastrutture avanzate.
I modelli del futuro punteranno a essere più leggeri e specializzati, capaci di lavorare
bene anche in ambienti con risorse limitate, come dispositivi mobili o software personalizzati.​
​
La tendenza è costruire intelligenze artificiali che siano meno generaliste e più adatte a
compiti specifici, mantenendo una buona comprensione del linguaggio e una risposta
coerente con il contesto d’uso.​
​
21.1.3 – Verso sistemi in grado di dialogare in modo più umano
Uno degli obiettivi principali nell’evoluzione dei modelli linguistici è renderli capaci di
sostenere conversazioni sempre più simili a quelle reali.
​
Questo non riguarda solo la grammatica o la coerenza, ma anche la capacità di ascoltare,
ricordare, adattarsi al tono dell’interlocutore e proseguire una conversazione in modo
naturale.​
​
I modelli più recenti iniziano a gestire interazioni prolungate, a ricordare ciò che è stato detto
in precedenza e a rispondere in modo più empatico o strategico.
Per arrivare a questo livello, è necessario che il modello sappia distinguere il contesto
emotivo, le intenzioni implicite e il ruolo che sta assumendo. ​
​
Una risposta generica non basta più: serve un’interazione personalizzata, coerente con
lo stile e gli obiettivi dell’utente. ​
​
I modelli iniziano a imparare anche questo, grazie a dati di addestramento più raffinati e
tecniche di ottimizzazione basate sul feedback umano.
La direzione futura è chiara: creare sistemi che comprendono le persone, si adattano a
loro e offrono risposte realmente utili. ​
​
356
Questo richiederà attenzione, responsabilità e trasparenza, ma rappresenta una delle
trasformazioni più profonde del rapporto tra uomo e macchina.
21.2 – Multimodalità: testo, immagini, audio
21.2.1 – IA capaci di interpretare e generare contenuti diversi
Uno dei progressi più significativi nell’intelligenza artificiale riguarda la sua capacità di
lavorare non solo con il testo, ma anche con immagini, suoni, video e altri tipi di
contenuti. ​
​
Questa capacità si chiama multimodalità. Significa che un modello IA può comprendere e
combinare diversi tipi di dati, per rispondere a domande, generare contenuti o prendere
decisioni.
Per esempio, oggi esistono sistemi che possono analizzare una fotografia, descriverla a
parole, oppure riconoscere cosa rappresenta. ​
​
Altri modelli possono ricevere un testo e generare da esso un’immagine realistica o
stilizzata (come Midjourney o DALL·E). Alcuni strumenti riescono persino a creare un breve
video partendo da una semplice descrizione scritta.
Sul fronte dell’audio, si stanno sviluppando IA capaci di trascrivere, tradurre o perfino
imitare voci, partendo da registrazioni vocali.
Questi modelli multimodali sono progettati per avvicinarsi alla complessità della
comunicazione umana, dove parole, immagini e suoni sono spesso mescolati. Pensiamo a
una presentazione, a un video su YouTube, a un podcast illustrato: ogni contenuto moderno
è costruito su più livelli. ​
357
​
L’IA del futuro dovrà essere capace di capirli e generarli tutti, in modo integrato.​
​
​
​
21.2.2 – Applicazioni pratiche in settori creativi e professionali
La multimodalità non è solo una novità tecnica: sta cambiando in modo profondo diversi
settori professionali. ​
​
Nella creatività, per esempio, è già possibile generare storyboard per un video, combinare
testo e immagine in tempo reale, o produrre illustrazioni a partire da un brief scritto. ​
​
Questo sta trasformando il lavoro di designer, pubblicitari, fotografi, videomaker e creatori di
contenuti digitali.
Nel giornalismo e nell’editoria, strumenti multimodali permettono di analizzare foto,
trascrivere interviste, sottotitolare automaticamente un video, oppure generare versioni
audio di articoli scritti. ​
​
Nell’e-commerce, l’IA può descrivere automaticamente prodotti a partire dalle immagini,
oppure consigliare articoli simili combinando testo, visuali e recensioni.
Anche nella formazione e nella medicina si stanno sperimentando soluzioni ibride: modelli
che comprendono referti medici e scansioni, oppure piattaforme educative che
combinano testo, audio e immagini per adattarsi a diversi stili di apprendimento. ​
​
In tutti questi contesti, la forza dell’IA sta nel saper passare da un tipo di contenuto all’altro,
senza perdere coerenza.​
​
​
21.2.3 – Sfide nel coordinare diversi formati in un unico modello
Se da un lato la multimodalità apre opportunità entusiasmanti, dall’altro presenta sfide
tecniche e concettuali complesse. ​
358
​
Ogni tipo di dato ha una struttura diversa: un testo ha una sequenza di parole, un’immagine
è fatta di pixel, un suono di frequenze. ​
​
Far dialogare questi formati in modo fluido richiede modelli molto sofisticati, che sappiano
“tradurre” le informazioni tra linguaggi diversi.
Uno dei problemi più delicati riguarda la qualità e l’affidabilità delle risposte multimodali.
Un modello potrebbe, ad esempio, generare un’immagine che sembra coerente con la
descrizione testuale, ma che in realtà contiene errori nascosti o ambiguità visive. ​
​
Oppure potrebbe fraintendere un suono, interpretando male un tono di voce o una parola
pronunciata con accento particolare.
Inoltre, esiste una questione legata al controllo: quando un modello lavora con più fonti
contemporaneamente, è più difficile capire come ha costruito la sua risposta, o da
quale tipo di input ha preso l’informazione principale. Questo rende più complicata la verifica
dei risultati, soprattutto in contesti critici come la sanità, la giustizia o l’istruzione. ​
​
La sfida dei prossimi anni sarà quindi combinare potenza e trasparenza, rendendo questi
modelli non solo più abili, ma anche più comprensibili e sicuri per chi li usa.
​
​
​
​
21.3 – IA decentralizzata e open-source
21.3.1 – Modelli IA sviluppati da comunità indipendenti
Fino a pochi anni fa, l’intelligenza artificiale era dominata da grandi aziende con risorse
enormi (come OpenAI, Google o Meta) che sviluppavano modelli potenti, ma spesso chiusi,
cioè non accessibili al pubblico. ​
​
359
Oggi, però, sta crescendo un movimento parallelo che punta su modelli decentralizzati e
open-source, cioè sviluppati da comunità indipendenti e resi disponibili pubblicamente.
Questo significa che chiunque – sviluppatori, ricercatori, studenti o piccole aziende – può
accedere al codice sorgente del modello, studiarlo, modificarlo e usarlo per i propri scopi,
senza bisogno di autorizzazioni o licenze costose. ​
​
Esempi concreti di questa tendenza sono progetti come GPT-J, GPT-NeoX, Mistral, LLaMA
2 e Falcon, che sono stati pubblicati con licenze aperte.
L’obiettivo è democratizzare l’intelligenza artificiale, permettendo anche a chi non ha
grandi mezzi economici di lavorare con modelli avanzati. ​
​
Un approccio simile stimola l’innovazione dal basso, accelera la ricerca e riduce la
dipendenza da pochi fornitori. Ma, come vedremo, porta anche nuove sfide.
​
​
21.3.2 – Opportunità di accesso, trasparenza e controllo
​
​
Quando un modello è pubblico, è possibile vedere esattamente come è stato costruito, su
quali dati è stato addestrato e come funziona internamente. ​
​
Questo è molto importante, soprattutto in ambiti dove è richiesta affidabilità ed equità
come la sanità, la giustizia o l’istruzione.
Inoltre, i modelli open-source offrono maggiore controllo. È possibile installarli localmente,
cioè su un proprio server o computer, senza inviare i dati a un’azienda esterna. ​
​
Questo riduce i rischi legati alla privacy e alla sicurezza delle informazioni sensibili. ​
​
È una soluzione particolarmente utile per enti pubblici, organizzazioni non profit o progetti
educativi.
360
Dal punto di vista dell’accessibilità, questi modelli permettono a molti più attori di
sperimentare, personalizzare e creare nuove applicazioni. ​
​
Non servono licenze costose né autorizzazioni speciali. ​
​
Basta una minima competenza tecnica e l’accesso a risorse di calcolo adeguate. In questo
modo, l’IA diventa davvero un’infrastruttura aperta, su cui costruire progetti condivisi e più
inclusivi.
​
21.3.3 – Rischi di frammentazione e mancanza di standard comuni
Se da un lato la decentralizzazione favorisce libertà e innovazione, dall’altro introduce il
rischio di frammentazione. ​
​
Con tanti modelli diversi, sviluppati da gruppi indipendenti, diventa difficile stabilire regole
comuni, standard tecnici o criteri condivisi di valutazione. Questo può portare a confusione,
incompatibilità tra sistemi e difficoltà di collaborazione tra progetti.
Un altro problema è che, essendo accessibili a tutti, anche attori con intenzioni dannose
possono usare i modelli open-source per generare contenuti pericolosi, falsificare
documenti, costruire deepfake o automatizzare attività illegali.​
​
In assenza di controlli centrali, la responsabilità ricade completamente su chi usa questi
strumenti, e non sempre le conseguenze sono facili da gestire.
Infine, molti modelli open-source non hanno alle spalle un’organizzazione stabile o un piano
di sviluppo a lungo termine. Questo significa che potrebbero non ricevere aggiornamenti,
miglioramenti o supporto tecnico, rendendoli poco affidabili per progetti critici. ​
​
Il futuro dell’IA decentralizzata dipenderà quindi dalla capacità di creare ecosistemi aperti
ma ben coordinati, dove l’innovazione non vada a scapito della qualità, della sicurezza e
della responsabilità
361
21.4 – Lavoro e competenze del futuro
21.4.1 – Nuove professioni nate dall’uso dell’IA
L’intelligenza artificiale non sta solo cambiando il modo in cui lavoriamo: sta creando nuove
professioni che fino a poco tempo fa non esistevano. ​
​
Alcuni esempi sono il prompt engineer (chi scrive comandi ottimizzati per modelli IA), il
trainer di chatbot, il revisore di contenuti generati automaticamente, o lo specialista in etica
algoritmica. ​
​
Si tratta di ruoli che nascono dal bisogno di “dialogare” con i modelli, guidarli, correggerli o
integrarli nei processi produttivi.​
​
Anche in ambiti più tradizionali – come marketing, design, logistica, istruzione o sanità –
stanno emergendo figure ibride, capaci di combinare competenze umane con strumenti
digitali intelligenti. ​
​
Un copywriter, ad esempio, non deve solo saper scrivere, ma anche saper usare l’IA per
generare bozze, testare varianti, analizzare metriche. ​
​
Allo stesso modo, un medico può lavorare con sistemi IA che analizzano immagini o
propongono diagnosi, ma deve restare il centro decisionale.
Queste nuove professioni richiedono un insieme di abilità tecniche, digitali e comunicative. ​
​
Ma soprattutto richiedono una mentalità flessibile, pronta ad adattarsi a strumenti in
continua evoluzione e a sfruttarne le potenzialità in modo critico e responsabile.
21.4.2 – L’importanza della flessibilità e dell’apprendimento continuo
362
In un mercato del lavoro sempre più influenzato dall’intelligenza artificiale, la competenza
più importante è la capacità di imparare continuamente. ​
​
I cambiamenti sono rapidi, e le tecnologie di oggi potrebbero essere superate domani. Per
questo motivo, chi vuole restare attivo e competitivo deve coltivare una forma mentis aperta,
curiosa e capace di adattarsi.​
​
La flessibilità non significa improvvisare. ​
​
Significa essere disposti a rivedere le proprie abitudini, a esplorare nuovi strumenti, a
riformulare i propri metodi di lavoro. In molte professioni, l’IA non sostituirà le persone, ma
cambierà i compiti quotidiani, spostando l’attenzione dalle attività ripetitive a quelle più
creative, strategiche o relazionali.
In uno scenario simile, la formazione diventa un processo continuo, fatto di piccoli
aggiornamenti costanti, autoformazione e confronto con le novità. ​
​
L’apprendimento diventa parte integrante del lavoro stesso.​
​
21.4.3 – Come prepararsi a un mercato in rapida trasformazione
Prepararsi al futuro del lavoro richiede una combinazione di strategia personale,
strumenti adeguati e scelte concrete. ​
​
Il primo passo è mappare le competenze attuali: cosa si sa fare, cosa si fa già bene, cosa si
può migliorare. Poi è utile osservare il proprio settore: quali strumenti stanno emergendo,
quali attività vengono automatizzate, quali competenze iniziano a essere richieste più
spesso.
Da qui si può costruire un piano realistico, fatto di micro-obiettivi di aggiornamento. ​
​
Non servono rivoluzioni: basta iniziare con un corso breve, provare un nuovo strumento,
chiedere all’IA di spiegare un concetto, o simulare una nuova modalità di lavoro. ​
​
L’importante è restare attivi, non aspettare che il cambiamento arrivi per poi rincorrerlo.
363
Anche chi lavora in team può proporre momenti di aggiornamento collettivo, scambi di
esperienze o spazi dedicati alla sperimentazione con strumenti IA. ​
​
In questo modo, si crea una cultura del miglioramento continuo che rafforza le persone e
rende il lavoro più dinamico, più stimolante e più adatto alle sfide del futuro.
​
21.5 – Etica e regolamentazione
21.5.1 – Bilanciare innovazione e tutela dei diritti
L’intelligenza artificiale porta con sé enormi opportunità, ma anche rischi concreti per le
persone e per la società. Per questo, parlare di etica non è un esercizio teorico, ma una
necessità urgente. ​
​
Ogni volta che un modello IA prende una decisione o genera un contenuto, c’è una
responsabilità implicita. ​
Chi lo ha progettato? ​
Con quali dati è stato addestrato? ​
Chi ne controlla l’uso?
Bilanciare innovazione e tutela dei diritti significa fare in modo che lo sviluppo tecnologico
non comprometta la privacy, la sicurezza, l’equità e la dignità umana. ​
​
Serve una riflessione profonda su come l’IA viene usata, da chi e per quali fini. Ad esempio,
non è la stessa cosa usare un modello per scrivere un post su un blog, o per valutare un
candidato a un lavoro o un richiedente un mutuo.
Un modello etico di sviluppo dell’IA richiede trasparenza, controllo umano e inclusività. ​
​
Chi progetta e implementa questi sistemi deve porsi domande difficili, e non lasciare che
siano solo il mercato o l’efficienza a decidere. ​
​
364
Senza una cornice etica chiara, il rischio è che l’IA venga usata per manipolare, escludere o
sorvegliare, spesso senza che le persone se ne rendano conto.​
​
​
21.5.2 – Norme internazionali e governance condivisa
Oggi esistono iniziative in diversi Paesi per regolamentare l’uso dell’intelligenza artificiale,
ma non c’è ancora una normativa globale condivisa.​
​
L’Unione Europea ha avviato l’AI Act, un regolamento che classifica i sistemi IA in base al
rischio e stabilisce obblighi proporzionati. Gli Stati Uniti stanno adottando un approccio più
flessibile, mentre altre nazioni puntano sulla promozione industriale, a scapito delle
garanzie.
Questa frammentazione normativa può creare disuguaglianze nei diritti digitali dei
cittadini, e anche problemi pratici per chi sviluppa o usa l’IA su scala internazionale. ​
​
Per questo motivo, sempre più esperti chiedono una governance condivisa: un insieme di
regole, principi e organismi che coordinino lo sviluppo globale dell’IA, evitando abusi e
garantendo standard minimi comuni.
La sfida è costruire un equilibrio tra libertà di innovazione e tutela dell’interesse pubblico. Le
norme non devono bloccare la tecnologia, ma guidarla. ​
​
Un approccio condiviso, trasparente e multilaterale è essenziale per garantire che l’IA sia
uno strumento di progresso.​
​
21.5.3 – Ruolo di cittadini, aziende e istituzioni nel creare regole giuste
La costruzione di un’intelligenza artificiale giusta non può essere affidata solo a governi o
tecnologi. È necessario un coinvolgimento di tutta la società, perché le decisioni che
riguardano l’IA hanno effetti diretti sulla vita di milioni di persone. ​
​
I cittadini devono poter essere informati, formati e ascoltati, perché anche l’ignoranza è un
rischio: se non si sa come funziona un sistema, non si è in grado di difendere i propri diritti.
365
Le aziende, dal canto loro, hanno una responsabilità strategica. ​
​
Non possono limitarsi a rispettare le leggi minime. Devono anticipare i problemi, investire in
soluzioni etiche, rendere i propri sistemi più trasparenti e controllabili.
Le istituzioni, infine, devono creare spazi di confronto, monitoraggio e valutazione. ​
Devono agire come garanti e assicurarsi che l’IA riduca le disuguaglianze esistenti.
​
​
​
​
21.6 – Integrazione con robotica e IoT
21.6.1 – Quando l’IA incontra il mondo fisico
L’intelligenza artificiale, finora vista principalmente come una tecnologia digitale, sta
entrando sempre più in contatto con il mondo fisico. Questo avviene attraverso
l’integrazione con la robotica e con i sistemi dell’Internet delle Cose (IoT). ​
​
In pratica, significa che i modelli di IA possono anche controllare oggetti reali, come un
robot, un sensore o un dispositivo domestico.
Quando un modello linguistico viene connesso a una macchina dotata di sensori,
telecamere o motori, l’IA può iniziare ad agire nel mondo reale. ​
​
Un braccio robotico può afferrare un oggetto riconoscendolo da una descrizione. Un
assistente vocale può accendere una luce, regolare la temperatura o aprire una porta. ​
​
Questa unione tra comprensione e azione sta portando l’IA a diventare parte attiva
dell’ambiente che ci circonda.
Il passaggio dal “digitale” al “fisico” richiede però molta precisione. ​
​
Mentre un errore in un testo generato può essere corretto, un errore in una macchina
366
reale può avere conseguenze più serie. ​
​
Per questo motivo, l’integrazione con la robotica richiede sistemi affidabili, addestrati con
dati di qualità, e capaci di adattarsi a contesti dinamici e imprevedibili.​
​
​
​
21.6.2 – Automazione avanzata in casa, fabbrica e città
In ambito domestico, l’unione tra IA e dispositivi connessi ha già trasformato molte abitudini
quotidiane. Gli assistenti vocali – come Alexa, Google Assistant o Siri – sono solo la punta
dell’iceberg.​
​
Oggi, è possibile controllare quasi ogni aspetto della casa con la voce o in modo
automatico, dai sistemi di sicurezza agli elettrodomestici intelligenti, dalle tapparelle alla
climatizzazione.
Nel settore industriale, l’integrazione è ancora più profonda. Nelle fabbriche moderne, i robot
collaborativi – o “cobot” – lavorano accanto agli esseri umani, seguendo istruzioni in
linguaggio naturale o reagendo a stimoli ambientali. ​
​
I sistemi di IA possono monitorare in tempo reale i macchinari, prevedere guasti, ottimizzare
i consumi e prendere decisioni operative in autonomia, migliorando efficienza e
sicurezza.
Anche nelle città si iniziano a vedere gli effetti di questa evoluzione. ​
​
I semafori intelligenti, i sistemi di sorveglianza predittiva, la gestione del traffico o della
raccolta rifiuti si basano già su sensori collegati a reti neurali che analizzano dati continui e
agiscono di conseguenza.​
​
La città diventa così un ambiente che “sente”, elabora e reagisce, grazie alla sinergia tra IA
e oggetti connessi.
21.6.3 – Prospettive e limiti della collaborazione uomo-macchina
367
Il sogno – e la sfida – è costruire un rapporto armonico tra persone e macchine intelligenti.​
​
In molti ambiti, l’obiettivo non è sostituire l’essere umano, ma affiancarlo con strumenti che
lo potenziano, aumentando la sua precisione, rapidità e capacità di analisi. ​
​
Un robot chirurgico, ad esempio, non opera da solo, ma esegue movimenti sotto la guida di
un medico. Un drone per ispezioni industriali supporta il tecnico umano, raggiungendo zone
pericolose o difficili.
Per far funzionare questa collaborazione, serve però una progettazione attenta delle
interfacce. ​
​
Le persone devono poter comunicare facilmente con i sistemi intelligenti, capire cosa stanno
facendo e intervenire se qualcosa va storto. ​
​
Questo richiede trasparenza, controllabilità e anche fiducia: non si può lavorare con un
sistema che agisce in modo imprevedibile o incomprensibile.
Ci sono poi limiti tecnici ed etici. Alcuni compiti, soprattutto quelli che implicano sensibilità
umana, empatia o responsabilità legale, non possono e non devono essere delegati
completamente all’IA. ​
​
Il futuro della robotica e dell’IoT intelligenti è quello di creare sistemi cooperativi, capaci di
lavorare insieme all’uomo in modo sicuro, efficiente e rispettoso.
​
​
21.7 – Verso un’IA sempre più personalizzata
21.7.1 – Sistemi che si adattano a ogni singolo utente
Una delle direzioni più promettenti dell’intelligenza artificiale è la personalizzazione
profonda dell’esperienza utente. Significa che i sistemi IA saranno in grado di adattarsi a
ciò che l’utente chiede, ma anche a come lo chiede, quando, e in quale contesto. ​
​
368
Non si tratterà più di ricevere risposte “standard”, ma contenuti e suggerimenti costruiti su
misura, sulla base dello stile comunicativo, degli interessi e persino delle emozioni
dell’utente.
Questa evoluzione è già visibile in alcuni strumenti: ChatGPT può ricordare preferenze
stilistiche, un assistente vocale può regolare le risposte in base all’orario, una piattaforma di
apprendimento può variare il ritmo e la difficoltà delle lezioni. ​
​
Ma il futuro andrà oltre. ​
​
I modelli diventeranno capaci di costruire un vero profilo dinamico dell’utente,
aggiornato nel tempo, e di rispondere in modo sempre più pertinente e naturale.
La personalizzazione non sarà solo estetica o linguistica, ma anche funzionale: un’IA potrà
sapere quali compiti l’utente svolge spesso, quali contenuti preferisce, e in quali momenti
della giornata è più attivo, per offrire un supporto proattivo, quasi invisibile, ma molto
efficace.​
​
​
21.7.2 – Benefici per apprendimento, salute, lavoro e tempo libero
Una IA personalizzata può diventare un alleato potente in diversi ambiti della vita quotidiana. ​
​
Nel campo dell’istruzione, per esempio, è già possibile creare percorsi di studio
completamente adattivi, che seguono il ritmo e lo stile di apprendimento dello studente,
suggerendo materiali diversi in base ai progressi e alle difficoltà. ​
​
Questo vale sia per bambini che per adulti, e rende lo studio meno frustrante e più efficace.
Nel settore della salute, l’IA può aiutare a monitorare abitudini, raccogliere dati
biometrici, interpretare sintomi o ricordare appuntamenti, adattandosi allo stile di vita e
alle esigenze specifiche di ogni persona. ​
​
Anche in campo psicologico, si stanno sperimentando modelli in grado di offrire ascolto,
guida e supporto emotivo personalizzato.
369
Nel lavoro, un assistente IA che conosce il proprio utente può anticipare bisogni,
automatizzare compiti ricorrenti e migliorare la produttività, mentre nel tempo libero può
suggerire contenuti più vicini ai gusti reali, evitando la sensazione di ricevere consigli
generici o fuori contesto. ​
​
In sintesi, una IA personalizzata può potenziare l’efficacia e la qualità delle attività
quotidiane, rendendole più fluide e su misura.​
​
21.7.3 – Rischi di dipendenza, chiusura e sorveglianza invisibile
Quando un sistema si adatta troppo bene a ciò che vogliamo, può rinforzare le nostre
abitudini senza mai metterle in discussione. ​
​
Questo può portare a una chiusura in “bolle cognitive”, dove vediamo solo ciò che conferma
le nostre idee, senza confronto né varietà. È un fenomeno già noto nei social network, ma
potrebbe amplificarsi con IA sempre più raffinate.
C’è poi il rischio di dipendenza funzionale. ​
​
Se l’assistente IA diventa indispensabile per ogni scelta, decisione o attività, l’utente
potrebbe perdere autonomia, spirito critico e fiducia nelle proprie capacità. Una IA utile deve
affiancare, non sostituire, la nostra libertà di pensiero.
Infine, più un sistema è personalizzato, più raccoglie dati. ​
​
Questo apre un tema delicato di privacy e sorveglianza invisibile. Quando ogni nostro
comportamento diventa un dato da analizzare, il confine tra servizio utile e invasione della
sfera personale può diventare sottile. ​
​
Il futuro dell’IA personalizzata dovrà quindi essere costruito con trasparenza, regole chiare
e rispetto della persona, per non trasformare il vantaggio in minaccia.
370
22. Risorse utili, community e approfondimenti
22.1 – Directory strumenti IA aggiornati
22.1.1 – Dove trovare elenchi affidabili e organizzati di tool
Negli ultimi anni, il numero di strumenti basati su intelligenza artificiale è cresciuto in modo
esponenziale. Ogni settimana vengono lanciati nuovi software, app e plugin. ​
​
Per questo motivo è diventato fondamentale sapere dove trovare elenchi aggiornati e ben
curati, che aiutino a orientarsi senza perdersi in ricerche casuali. ​
​
Le directory IA non sono semplici liste: sono raccolte organizzate, spesso divise per
categoria, funzione, livello di difficoltà e utilizzo.
Esistono siti che si occupano esclusivamente di monitorare e raccogliere questi
strumenti. Il loro valore sta nella regolarità degli aggiornamenti, nella chiarezza delle
descrizioni e nella possibilità di filtrare le opzioni in base alle proprie esigenze. ​
​
Alcune directory permettono anche di visualizzare valutazioni degli utenti, esempi di utilizzo
o collegamenti diretti a video dimostrativi.
Per chi inizia, queste raccolte sono utili per esplorare il panorama dell’IA senza sentirsi
sopraffatto, perché offrono una visione d’insieme ragionata. ​
​
Puoi scoprire strumenti per la scrittura, la generazione di immagini, l’analisi di dati o la
produttività personale, tutti accessibili da un’unica pagina.
22.1.2 – Come orientarsi tra funzionalità, costi e casi d’uso
371
Trovare uno strumento è solo il primo passo. Il vero lavoro consiste nel capire quale tra
quelli disponibili sia davvero utile per il proprio obiettivo. ​
​
Ogni tool IA ha caratteristiche specifiche: alcuni sono gratuiti, altri a pagamento; alcuni sono
pensati per uso personale, altri per aziende o team professionali. ​
​
Le directory più efficaci forniscono informazioni dettagliate su ciò che ogni strumento fa, su
quanto costa e su quali limiti ha nella versione base.
Per orientarsi, è importante leggere attentamente le descrizioni. Non basta sapere che uno
strumento genera testi: bisogna capire che tipo di testi, con quale livello di
personalizzazione, e per quali lingue o settori è stato ottimizzato. ​
​
Anche il costo può variare molto. Alcuni strumenti offrono piani gratuiti limitati, altri
richiedono abbonamenti mensili o crediti a consumo.
L’aspetto più importante, però, è capire se uno strumento è adatto al proprio caso d’uso
concreto. ​
​
Ad esempio, un freelance che cerca di migliorare la produttività ha esigenze diverse da un
docente che vuole creare contenuti educativi o da un’azienda che sviluppa software. ​
​
directory migliori aiutano a fare questa scelta con chiarezza, evitando perdite di tempo e
investimenti inutili.​
​
22.1.3 – Siti da consultare regolarmente per restare aggiornati
Il mondo dell’IA si muove velocemente, e uno strumento che oggi è tra i migliori potrebbe
essere superato domani. Per questo motivo, è utile conoscere alcuni siti affidabili da
visitare con regolarità, che fungano da radar sulle nuove uscite e sugli aggiornamenti più
rilevanti. ​
​
Questi portali non sono solo liste, ma vere e proprie piattaforme editoriali, che segnalano i
trend emergenti e analizzano cosa funziona davvero.
372
Tra i più noti e utilizzati ci sono Futurepedia, Toolify, There’s An AI For That e AI Scout. ​
​
Ognuno ha un approccio diverso: alcuni si concentrano su strumenti gratuiti, altri offrono
anche video dimostrativi, altri ancora permettono agli utenti di votare e recensire. ​
​
Alcuni includono anche filtri per livello di difficoltà, lingua, settore o compatibilità con altri
software.
Visitare regolarmente questi siti non serve solo a scoprire nuovi tool, ma anche a
mantenere un atteggiamento aggiornato e proattivo, fondamentale in un’epoca in cui la
tecnologia evolve in continuazione. ​
​
Un uso consapevole dell’intelligenza artificiale comincia anche da qui: sapere dove
guardare, come confrontare e quando aggiornare le proprie scelte.
​
​
​
22.2 – Forum e community (Reddit, Discord, ecc.)
22.2.1 – Piattaforme dove porre domande e ricevere risposte pratiche
Uno dei modi più efficaci per imparare a usare l’intelligenza artificiale – o semplicemente per
risolvere dubbi specifici – è entrare in comunità online attive, dove utenti di ogni livello si
scambiano consigli, esempi e soluzioni. ​
​
I forum e i server Discord dedicati all’IA sono spazi dove è possibile porre domande dirette e
ottenere risposte da persone che hanno già sperimentato lo stesso problema o lo
stesso strumento.
Reddit è una delle piattaforme più utili in questo senso. ​
​
Alcuni subreddit, come r/ArtificialIntelligence, r/ChatGPT, r/PromptEngineering o
373
r/MachineLearning, raccolgono discussioni quotidiane su strumenti, prompt, aggiornamenti e
applicazioni. ​
​
Le risposte vengono spesso arricchite da esempi reali e link a risorse esterne, il che aiuta
molto soprattutto chi sta imparando da solo.
Anche Discord ospita community suddivise in canali tematici. ​
​
Ogni canale è dedicato a un argomento specifico, come “come iniziare”, “prompt avanzati”,
“generazione immagini” o “plugin”. ​
​
Questo permette di navigare in modo ordinato anche all’interno di gruppi con migliaia
di utenti, senza perdersi. Sono spazi dove l’apprendimento avviene in modo informale ma
continuo, basato sull’esperienza condivisa.
​
​
22.2.2 – Condivisione di esperimenti, prompt e modelli personalizzati
Le community online non sono solo luoghi dove fare domande, ma anche spazi di
sperimentazione collettiva. ​
​
Molti utenti pubblicano regolarmente i propri risultati, testano nuovi strumenti e condividono i
prompt che funzionano meglio in situazioni particolari. Questo tipo di condivisione è prezioso
perché permette di imparare da casi reali, che spesso non si trovano nei tutorial ufficiali.
Su Reddit, ad esempio, è comune trovare post dove viene mostrato un risultato ottenuto con
un determinato prompt, accompagnato da spiegazioni su come è stato costruito. ​
​
Anche su Discord, nei canali dedicati, gli utenti pubblicano screenshot, esempi e proposte di
miglioramento. Alcuni server hanno sezioni dove si condividono prompt ottimizzati per
compiti specifici, come creare titoli, scrivere codice, riassumere articoli o generare
immagini.
Questa circolazione di conoscenze pratiche aiuta anche a sviluppare un senso critico: non
si tratta solo di copiare, ma di capire perché un prompt funziona, come adattarlo al proprio
contesto, e come migliorarne la resa.​
374
​
Le community sono un laboratorio aperto, dove ogni contributo alimenta il sapere collettivo.
​
​
22.2.3 – Come partecipare attivamente senza sentirsi fuori luogo
Molte persone esitano a partecipare a forum e community perché temono di non essere
“abbastanza esperte”. In realtà, questi spazi funzionano meglio quando c’è varietà di
livelli e punti di vista. ​
​
Anche chi è all’inizio può portare valore: ponendo domande chiare, condividendo esperienze
d’uso, o semplicemente ringraziando chi ha fornito un aiuto utile.
Per partecipare attivamente basta iniziare con piccoli passi. ​
​
Si può leggere per qualche giorno, per capire lo stile e le regole della community. Poi si può
iniziare con una domanda concreta su un tema già discusso, oppure condividere un
risultato ottenuto usando un prompt o uno strumento particolare.​
​
Il tono delle discussioni è spesso informale e collaborativo, soprattutto nei canali tematici
ben moderati.
Partecipare significa anche imparare a distinguere le risposte fondate da quelle
superficiali, a verificare le informazioni condivise e, con il tempo, a contribuire in prima
persona. ​
​
L’intelligenza artificiale è un campo in rapido movimento, e imparare insieme ad altri è
spesso il modo più efficace – e gratificante – per crescere.
​
​
​
​
​
375
​
22.3 – Newsletter specializzate
22.3.1 – Riepiloghi settimanali delle novità più importanti
In un panorama dove le notizie sull’intelligenza artificiale cambiano ogni giorno, le newsletter
settimanali sono uno strumento prezioso per restare aggiornati senza essere sommersi. ​
​
Sono pensate per offrire una selezione ragionata degli sviluppi più rilevanti: nuovi strumenti,
aggiornamenti di modelli, tendenze di mercato, cambiamenti normativi o riflessioni etiche.
La forza di una buona newsletter sta nella sua sintesi. In pochi minuti di lettura si ottiene una
panoramica affidabile su ciò che davvero conta, evitando il rumore informativo dei social
o dei motori di ricerca. ​
​
Spesso il contenuto è suddiviso in brevi sezioni: novità tecniche, articoli consigliati, eventi in
arrivo, strumenti da provare. Questo formato favorisce la lettura anche per chi ha poco
tempo ma vuole mantenere una visione aggiornata e concreta.
Iscriversi a due o tre newsletter di qualità permette di costruire una routine informativa
sostenibile, senza dover cercare ogni volta tutto da soli. ​
​
È un modo semplice ma efficace per non restare indietro, soprattutto se si lavora in un
ambito dove l’IA ha un impatto diretto.
​
​
22.3.2 – Autori e curatori che fanno la differenza nella selezione
Non tutte le newsletter si equivalgono. Alcune sono scritte da team editoriali, altre da singoli
esperti che curano i contenuti con attenzione, selezionando solo le informazioni più rilevanti
e commentandole con competenza. ​
​
La presenza di un autore riconoscibile è spesso un valore aggiunto, perché offre un punto di
vista preciso, con uno stile coerente e affidabile.
Newsletter come Ben’s Bites, The Algorithm (MIT Technology Review), o quelle curate da
analisti indipendenti nel campo del machine learning o del prompt design, offrono commenti
sintetici ma informati, che aiutano non solo a sapere cosa è successo, ma anche a capire
376
perché è importante. ​
​
Alcuni curatori includono esempi pratici, prompt da provare o strumenti testati
personalmente, rendendo la lettura ancora più utile.
Scegliere newsletter firmate da professionisti competenti aiuta anche a sviluppare un
senso critico rispetto alle fonti, perché si impara a distinguere tra annunci pubblicitari e
veri contenuti informativi. ​
​
In un’epoca in cui l’attenzione è una risorsa scarsa, affidarsi a chi fa filtro è una scelta
strategica.
​
​
22.3.3 – Come costruire una routine informativa su misura
Ricevere una newsletter è solo l’inizio. Per farne un vero strumento di crescita, è importante
organizzare la propria routine informativa in modo coerente con i propri obiettivi e
tempi. ​
​
Alcuni preferiscono leggere ogni mattina, altri accumulare contenuti durante la settimana e
rivederli nel weekend. L’importante è scegliere un ritmo sostenibile e integrarlo nelle proprie
abitudini.
Si può creare una cartella email dedicata, dove raccogliere le newsletter più importanti e
ritornarci quando serve. ​
​
Alcune persone salvano i link suggeriti in strumenti come Notion, Pocket o Google Keep, per
costruire una piccola biblioteca digitale personale, da consultare nei momenti di
approfondimento. ​
​
Altri usano queste letture come punto di partenza per esercitarsi a scrivere prompt, testare
strumenti o iniziare nuove ricerche.
Costruire una routine su misura significa selezionare ciò che è utile per il proprio lavoro,
studio o interesse personale. ​
​
377
​
​
22.4 – Canali Telegram e gruppi di discussione
22.4.1 – Aggiornamenti rapidi e notifiche in tempo reale
Telegram è diventato uno dei canali più utilizzati per ricevere aggiornamenti
sull’intelligenza artificiale in modo veloce ed efficiente. ​
​
A differenza di email o siti web da consultare attivamente, i canali Telegram inviano notifiche
direttamente sullo smartphone o sul computer, con notizie brevi, link, video o materiali pronti
da aprire con un tocco.
Molti esperti del settore, creatori di contenuti, sviluppatori o startup tecnologiche gestiscono
canali tematici dedicati all’IA, dove pubblicano aggiornamenti quotidiani su nuove app,
prompt da provare, modelli da testare o tendenze da seguire. ​
​
Alcuni canali segnalano anche risorse gratuite, strumenti open-source o novità legislative
rilevanti. Questo formato favorisce una fruizione rapida e costante delle informazioni,
adatta a chi vuole restare aggiornato in tempo reale.
Chi ha poco tempo o non ama leggere lunghi articoli trova in questi canali un modo semplice
per mantenere una connessione continua con ciò che accade nel settore, ricevendo
notizie già selezionate e pronte da approfondire solo se lo si desidera.
​
​
22.4.2 – Gruppi tematici per scambiare domande e spunti
Oltre ai canali, Telegram ospita gruppi di discussione tematici, dove gli utenti possono
confrontarsi direttamente tra loro. ​
​
A differenza dei canali, che sono in sola lettura, nei gruppi è possibile scrivere, porre
domande, rispondere, condividere link, file o risultati di esperimenti. ​
​
Questo li rende ambienti molto dinamici, ideali per imparare insieme ad altri.
378
I gruppi possono essere pubblici o privati, generali o specifici per uno strumento, una lingua,
un ambito professionale. ​
​
Ce ne sono dedicati a ChatGPT, all’ingegneria dei prompt, alla generazione di immagini, al
machine learning, o a casi d’uso verticali come IA per la didattica o per il marketing. ​
​
Partecipare a questi spazi permette di ricevere risposte rapide da chi ha già provato un
certo strumento o risolto un problema simile al proprio.
Spesso si creano anche discussioni su come usare l’IA in modo etico, su bug tecnici o su
idee per progetti futuri. In questo senso, i gruppi Telegram funzionano come una piazza
virtuale dove ci si incontra, si sperimenta e si cresce insieme, anche a distanza.
​
​
22.4.3 – Cosa valutare prima di unirsi a una chat attiva
Non tutti i canali o gruppi sono uguali. Prima di unirsi a una community Telegram è bene fare
attenzione ad alcuni segnali. ​
​
La qualità dei contenuti, la frequenza degli aggiornamenti e il tono delle discussioni
sono indicatori fondamentali per capire se vale la pena seguirla. ​
​
Alcuni gruppi hanno un volume molto alto di messaggi, ma pochi realmente utili. Altri, più
piccoli, offrono confronti più attenti e meno dispersivi.
È importante anche verificare se il gruppo è moderato, cioè se c’è qualcuno che controlla
che le conversazioni restino civili, pertinenti e prive di spam. In assenza di moderazione, può
essere difficile seguire il flusso o trovare risposte di qualità. ​
​
Inoltre, nei canali pubblici è sempre bene prestare attenzione alla condivisione di link esterni
o di contenuti non verificati.
Un buon gruppo o canale Telegram è quello che aggiunge valore senza rubare tempo,
che stimola il confronto, propone risorse concrete e rispetta la diversità di esperienza dei
suoi membri. ​
​
379
Entrare in questi spazi con curiosità e spirito di osservazione è un ottimo modo per scoprire
strumenti nuovi, fare rete e migliorare la propria formazione sull’IA giorno dopo giorno.
22.5 – Siti ufficiali (OpenAI, Perplexity, Hugging Face)
22.5.1 – Documentazione tecnica, changelog e roadmap
I siti ufficiali delle principali piattaforme di intelligenza artificiale sono fonti dirette e affidabili
per capire come funziona l’IA, come evolve e quali novità sono in arrivo. ​
​
Ogni aggiornamento importante – di un modello, di un’interfaccia, di una funzionalità – viene
comunicato prima di tutto lì, spesso con documenti tecnici ma ben spiegati, che aiutano a
orientarsi anche a chi non è sviluppatore.
OpenAI, ad esempio, pubblica regolarmente note di rilascio (changelog) dove segnala
cosa è cambiato in ogni versione di ChatGPT, GPT-4 o dei suoi strumenti accessori. ​
​
Lo stesso vale per Perplexity, che aggiorna spesso la sua roadmap per spiegare agli
utenti quali nuove funzionalità sono in fase di sviluppo. ​
​
Hugging Face, essendo una piattaforma orientata alla community open-source, offre una
documentazione molto ricca, dettagliata e strutturata, pensata sia per programmatori che per
utenti meno esperti.
Consultare queste sezioni non serve solo a conoscere le funzioni disponibili, ma aiuta a
capire la direzione che la tecnologia sta prendendo. ​
​
Questo è utile per chi lavora nel settore, ma anche per chi semplicemente vuole usare
meglio gli strumenti già disponibili.​
​
​
380
22.5.2 – Accesso diretto a modelli, API e ambienti di test
Oltre alle pagine informative, molti siti ufficiali offrono ambienti interattivi dove testare i
modelli in tempo reale, senza dover installare nulla. ​
​
OpenAI, ad esempio, mette a disposizione il Playground, uno spazio dove si può scrivere un
prompt e osservare la risposta del modello, modificando parametri come tono, temperatura o
lunghezza. ​
​
Hugging Face ospita centinaia di modelli pronti da provare direttamente nel browser, con
interfacce semplici e intuitive.
Anche Perplexity permette di esplorare le sue funzionalità senza bisogno di registrazione,
offrendo risposte basate su fonti e la possibilità di visualizzare il processo di ricerca. ​
​
Questi strumenti sono preziosi per fare esperimenti rapidi, comprendere i limiti del
modello o scoprire nuovi casi d’uso. ​
​
Chi è alle prime armi può usarli per testare prompt e vedere come varia l’output al variare
delle istruzioni. Chi è più esperto può esplorare versioni beta, modelli alternativi o librerie
specializzate.
Avere accesso diretto a questi spazi significa toccare con mano la tecnologia, capire come
funziona dietro le quinte e imparare non solo dai risultati, ma anche dagli errori. ​
​
È un tipo di formazione continua, gratuita e completamente personalizzabile.
​
​
​
22.5.3 – Seguire le novità direttamente dalla fonte
Nel mondo dell’IA, le informazioni circolano molto velocemente e vengono spesso rilanciate
su blog, social o canali informali. ​
​
Ma per essere sicuri di ricevere dati accurati e completi, è importante seguire le fonti
originali, cioè i siti ufficiali delle aziende e delle piattaforme che sviluppano i modelli. ​
​
381
Questi canali non solo anticipano le novità, ma le spiegano con più precisione e
responsabilità.
Iscriversi alle newsletter ufficiali, consultare regolarmente le pagine degli annunci o dei blog
aziendali, oppure seguire i profili ufficiali su GitHub e Twitter (oggi X), permette di restare
aggiornati con informazioni verificate, senza doversi affidare a interpretazioni esterne o
rumor. ​
​
È un’abitudine utile soprattutto per chi lavora con strumenti IA o vuole valutare se passare a
una nuova versione, aggiornare un’applicazione o adottare una funzione appena lanciata.
Affidarsi alle fonti primarie è un segno di maturità digitale. Significa prendere decisioni
informate, basate su ciò che le piattaforme dichiarano realmente. ​
​
In un settore che cambia rapidamente, è un vantaggio concreto.
​
​
22.6 – Librerie e dataset pubblici
22.6.1 – Dove trovare librerie open-source per progetti IA
Nel mondo dell’intelligenza artificiale, le librerie open-source sono uno degli strumenti più
preziosi per sviluppatori, ricercatori e appassionati. ​
​
Si tratta di raccolte di codice pronte all’uso, che permettono di costruire, addestrare o
utilizzare modelli IA senza dover scrivere tutto da zero. ​
​
Il vantaggio è che queste librerie sono gratuite, aggiornate di frequente e spesso supportate
da comunità molto attive.
Una delle fonti principali per accedere a queste risorse è Hugging Face, che ospita
un’enorme collezione di modelli e librerie per il linguaggio naturale, l’elaborazione di
immagini, l’analisi audio e altro ancora. ​
​
Anche GitHub è un punto di riferimento fondamentale: molti progetti IA vengono pubblicati
qui con istruzioni dettagliate per l’uso, esempi e licenze d’uso chiare. Altre piattaforme
382
affidabili includono TensorFlow (di Google), PyTorch (di Meta) e scikit-learn (per
l’apprendimento automatico più tradizionale).
Per chi non è uno sviluppatore esperto, esistono anche interfacce grafiche o notebook
interattivi che permettono di utilizzare queste librerie con un livello minimo di codice,
offrendo un’esperienza guidata e molto formativa. ​
​
Le librerie open-source sono un’opportunità concreta per imparare sperimentando, anche in
contesti non accademici o professionali.​
​
22.6.2 – Dataset disponibili per sperimentazione e formazione
Ogni modello di intelligenza artificiale ha bisogno di dati per imparare. I dataset – cioè
raccolte ordinate di testi, immagini, suoni o numeri – sono fondamentali per addestrare,
testare o confrontare modelli IA. ​
​
Esistono numerosi dataset pubblici, accessibili gratuitamente, pensati proprio per lo studio,
l’insegnamento o la sperimentazione.
Molti di questi si trovano su piattaforme come Kaggle, Hugging Face Datasets, Google
Dataset Search o Data.gov. Ce ne sono per ogni ambito: dalle recensioni di film alle
fotografie di animali, dai dialoghi in chat ai dati finanziari, fino a dataset dedicati alla
medicina, alla linguistica o all’educazione. ​
​
Ogni raccolta è accompagnata da una descrizione, dalla fonte e, spesso, da indicazioni
sull’uso corretto.
Questi dataset sono utili per fare esercitazioni, per verificare come si comporta un
modello in casi reali, o anche per creare piccoli prototipi personalizzati. ​
​
Chi vuole approfondire può anche modificare i dati, combinarli tra loro o filtrarli in base a
specifici criteri, sviluppando così una comprensione più pratica e concreta del
funzionamento dell’IA.​
​
​
383
​
22.6.3 – Uso responsabile dei dati: licenze, limiti e buone pratiche
Avere accesso a dati pubblici non significa poterli usare senza regole. ​
​
Ogni dataset ha una licenza specifica che stabilisce cosa è permesso fare: se si può
modificare, condividere, usare in progetti commerciali, oppure solo in ambito educativo.
Ignorare questi aspetti può portare a errori gravi, soprattutto se si lavora con dati sensibili o
destinati a essere pubblicati.
È importante leggere sempre la sezione dedicata alla licenza, verificare da dove
provengono i dati, se sono stati anonimizzati correttamente, e se il loro uso può
comportare rischi di bias, discriminazione o violazione della privacy. ​
​
Questo è particolarmente rilevante quando si lavora con dati di persone, come nomi, voci,
immagini o testi generati da utenti.
Le buone pratiche includono anche il rispetto della qualità dei dati: evitare raccolte troppo
sbilanciate, incomplete o mal etichettate. L’affidabilità di un modello IA dipende
direttamente dai dati su cui è stato addestrato. ​
​
Usare dataset ben documentati, equilibrati e con un uso consapevole è parte essenziale di
un approccio etico e professionale all’intelligenza artificiale.
​
22.7 – Percorsi tematici per settori specifici
22.7.1 – Risorse dedicate a sanità, educazione, marketing e altro
L’intelligenza artificiale non è una tecnologia “generica”: la sua utilità cambia molto in base
al settore in cui viene applicata. ​
​
Per questo stanno nascendo sempre più percorsi tematici, pensati per chi lavora in ambiti
specifici come la sanità, l’educazione, il marketing, il diritto o l’industria manifatturiera. ​
​
384
Questi percorsi includono corsi, strumenti, casi studio e comunità focalizzate su problemi
reali di uno specifico contesto professionale.
Chi lavora nella sanità può trovare risorse sull’uso dell’IA per la diagnosi automatica da
immagini, il supporto alle decisioni cliniche, o la gestione intelligente delle cartelle mediche. ​
​
Nell’ambito educativo, si trovano strumenti per personalizzare l’insegnamento, creare quiz
dinamici, adattare materiali al livello dello studente. ​
​
In marketing e comunicazione, l’IA viene usata per generare contenuti, analizzare i dati dei
clienti, prevedere tendenze o automatizzare campagne.
Esplorare risorse mirate al proprio settore aiuta a comprendere meglio i vantaggi concreti
dell’IA e a evitare soluzioni generiche poco efficaci. ​
​
​
22.7.2 – Come approfondire in modo verticale le applicazioni IA
Per chi ha già una base sull’IA generale, il passo successivo è approfondire in modo
“verticale”, cioè focalizzandosi su un campo ben preciso. ​
​
Questo approccio permette di andare oltre la teoria e confrontarsi con le sfide reali che
l’intelligenza artificiale può aiutare a risolvere. ​
​
Ogni settore ha le sue particolarità: regole, limiti, dati specifici, aspettative diverse.
Approfondire questi aspetti richiede contenuti mirati.
Molti enti e piattaforme offrono guide, percorsi di formazione, workshop e corsi pensati per
categorie professionali specifiche. ​
​
Alcuni esempi includono corsi di IA per insegnanti, per medici, per avvocati, per consulenti
finanziari. In questi percorsi si affrontano casi d’uso concreti, strumenti già testati, e
discussioni sui limiti etici e legali dell’adozione dell’IA in quel contesto.
Un approfondimento verticale è utile anche per chi vuole integrare l’IA nel proprio lavoro
in modo strategico, senza sprechi o improvvisazioni. ​
​
385
Significa capire non solo “cosa fa l’IA”, ma come usarla bene nel proprio ambiente.​
​
​
22.7.3 – Progetti e casi studio da cui trarre ispirazione concreta
Oltre ai corsi e alle guide, uno dei modi più efficaci per imparare è studiare casi reali,
progetti portati avanti da altre persone, aziende o istituzioni. ​
​
I casi studio mostrano l’intero percorso: dal problema iniziale, alle soluzioni tentate, fino ai
risultati ottenuti. ​
​
Spesso evidenziano anche gli errori commessi, le difficoltà incontrate e i miglioramenti futuri
previsti. Sono esempi utilissimi per capire cosa funziona e cosa evitare.
Molte aziende pubblicano articoli, video o report sui loro progetti di intelligenza artificiale.
Anche organizzazioni pubbliche e università condividono esperienze d’uso in settori come
trasporti, cultura, servizi sociali o agricoltura.​
​
Questi materiali aiutano a contestualizzare le potenzialità dell’IA, rendendole più
concrete e meno astratte.
Leggere e analizzare casi studio permette di imparare a usare gli strumenti in modo efficace,
adattandoli al proprio settore e ai propri obiettivi. L’ispirazione nasce spesso dall’esperienza
di altri: osservare, adattare e migliorare è il cuore dell’innovazione pratica.
​
​
​
​
CONCLUSIONE
386
L’intelligenza artificiale (IA) generativa, attraverso strumenti come ChatGPT e Perplexity AI,
ha già iniziato a cambiare profondamente il nostro modo di lavorare, studiare e interagire
con il mondo digitale. ​
​
Grazie alla capacità di questi modelli linguistici avanzati di generare contenuti, rispondere a
domande e raccogliere informazioni in tempo reale, siamo oggi in grado di ottenere risultati
che solo pochi anni fa sembravano impensabili.
In questo ebook, abbiamo esplorato come questi strumenti possano aiutarci in vari ambiti
della vita quotidiana, come la scrittura di testi, la ricerca online, la gestione delle attività
personali e professionali, la creazione di contenuti per il web e la comunicazione con i clienti. ​
​
Inoltre, abbiamo visto come l’IA possa supportare la formazione e l’apprendimento,
adattandosi alle nostre necessità e aiutandoci a scoprire nuovi modi di affrontare le sfide.
Ma l’IA, sebbene potente, non è infallibile. Non è solo una questione di “magia digitale” ma di
come noi decidiamo di usarla. ​
​
Un uso consapevole e strategico di ChatGPT e Perplexity ci permette di ottimizzare il nostro
tempo e le nostre risorse, ma è essenziale ricordare che l’intelligenza umana resta il motore
principale dietro ogni successo. ​
​
La macchina non può sostituire la nostra creatività, il nostro giudizio e la nostra capacità di
valutare le informazioni. Piuttosto, può aiutarci a fare di più, più velocemente e con maggiore
precisione.
L’aspetto cruciale, quindi, è come impariamo a interagire con questi strumenti. ​
​
Una domanda ben formulata può portare a una risposta ben strutturata, e un uso corretto
degli strumenti ci permette di ottenere risultati migliori e più efficienti. ​
​
La chiave per ottenere il massimo da queste tecnologie è l’approccio strategico: saperle
usare per compiti ripetitivi, ma anche per stimolare la nostra creatività e per migliorare i
processi decisionali.
Questa guida non si ferma qui. ​
​
L’intelligenza artificiale è in costante evoluzione e ciò che oggi sembra innovativo diventerà
387
presto una parte integrata delle nostre attività quotidiane. ​
​
Imparare a sfruttare queste opportunità ora, rimanere aggiornati sulle novità tecnologiche e
applicarle nei propri progetti, è il modo migliore per prepararsi al futuro. ​
​
Ogni passo che faremo in questa direzione non solo ci aiuterà a diventare più produttivi, ma
anche più competenti nel gestire le sfide e le opportunità di un mondo sempre più
digitalizzato.
Quindi, anche se l’IA può sembrare complessa, con pazienza e pratica, chiunque può
imparare a usarla al meglio. E, se ben utilizzata, l’IA diventerà un alleato fondamentale per
raggiungere nuovi traguardi, in qualsiasi campo della vita.
388