XXIX CONFERENZA ITALiANA DI SCIENZE REGIONALI LIMITI E PROBLEMATICHE NELL’USO DI DATI INCERTI PER LA COSTRUZIONE DEL SISTEMA DI CONOSCENZE Ritrovato Giuliano1, Ceppi Claudia1 (1) Dipartimento di Architettura e Urbanistica - Politecnico di Bari, via Orabona 4, 70125, Bari SOMMARIO Il lavoro illustra brevemente l’evoluzione nell’ultimo ventennio delle tecniche, strumenti e metodologie dei sistemi informativi territoriali (SIT). Tale filone che va delineandosi come settore disciplinare a se stante, trova la sua collocazione nel complesso settore della teoria della conoscenza. Non si vuole proporre una trattazione filologica sui SIT, ma piuttosto si tenta un riordino nella “babele” che si è andata configurando negli ultimi anni in questo settore, caratterizzato da una notevole espansione in ambiti disciplinari sempre più differenziati. Si pone l’attenzione, sulla differenza tra di SIT e GIS, sulla definizione e differenza tra informazione e dato. Si è soffermati, in particolare, sulla qualità dei dati ed i parametri e caratteristiche che la caratterizzano. Infine si propone una riflessione e possibili percorsi operativi, al fine di ridurre il grado di incertezza dell’informazione prodotta mediante analisi e trattamento di basi di dati che soddisfino, o almeno dichiarino, un livello di qualità accettabile. 1 Introduzione Mettere a confronto, su tematiche comuni, studiosi di discipline diverse, ma tutte riconducibili alla matrice territoriale, costituisce, metodologicamente, la maniera più proficua per esaltare l’unitarietà dei problemi e la miriade di sfaccettature sotto le quali possono essere colti, perciò, i loro grado di complessità. La sfida posta dalla complessità della realtà territoriale postula la conoscenza dei contenuti sui nuovi problemi che emergono, l’adeguamento conseguente delle tecniche e delle metodologie di analisi, ma soprattutto nuove strategie di approccio fondate sulla cooperazione disciplinare. L’approccio multidisciplinare che prevede il coinvolgimento di pareri afferenti a diversi domini, ha come scopo principale la generazione del Sistema delle Conoscenze (SC), caratterizzato dalle informazioni necessarie ed adeguate per lo studio di un certo fenomeno (Mura 1986). Nell’ultimo ventennio la costruzione del SC si è orientato su due filoni ben distinti: il primo è riferito a modelli e metodi operativi per la costruzione dei Sistemi Esperti (SE), il secondo riferito a tecniche e soluzioni operative di supporto ai Sistemi Informativi Territoriali (SIT). Dalle classiche e generiche definizioni, che si possono desumere dalla vasta bibliografia, si evince che i SIT, nel senso più generale del termine, siano un sottogruppo o un’appendice del più vasto filone dei SE. Ma l’evoluzione e le tendenze registrate dell’ultimo decennio, caratterizzato da una spiccata territorializzazione delle informazioni , secondo metodologie e approcci tipici delle discipline della Cartografia, il filone dei SIT può essere considerato parallelo e complementare ai Sistemi Esperti nel vasto quadro della costruzione del Sistema delle Conoscenze, tale da delinearsi come un settore disciplinare a se, in rapida e vasta diffusione. Tale evoluzione, nella sua rapidità e per la varietà degli ambiti disciplinari coinvolti, ha evidenziato, tuttavia, una serie di problematiche legate da un lato a questioni tecniche, relative alle tecnologie informatiche in relazione alle esigenze di analisi in cui vengono evidenziate le architetture dei sistemi nelle loro diverse componenti, come Hardware, Software, struttura dei dati, algoritmi di processamento dati, dall’altro alla disponibilità delle metodologie di analisi dei dati per la generazione di informazioni in grado di fornire vari livelli di interpretazione ed elaborare indicatori sintetici per la descrizione di un certo fenomeno. Ovviamente si sta facendo riferimento all’approccio dei SIT secondo la definizione di Burrough (Burrough, McDonnell et al. 1998) ove il SIT è definito come un “sistema informatico che permette l'acquisizione, la registrazione, l'analisi, la visualizzazione e la restituzione di informazioni derivanti da dati geografici”, pertanto un approccio tecnico operativo che necessità, in questa fase della sua evoluzione, di alcune riflessioni. 2 I GIS nei SIT In fase preliminare, non è affatto superfluo fornire una serie di precisazioni di ordine terminologico e metodologico in merito alla costruzione di tali sistemi. Nell’ampio panorama della “teoria della conoscenza”, la costruzione di un Sistema Esperto (SE), secondo la definizione di Feigenbaum (Feigenbaum, McCorduck et al. 1988), prevede la realizzazione di un sistema su supporto informatico finalizzato alla soluzione di problemi complessi in forma non algoritmica e sufficientemente complessi entro un dominio cognitivo limitato. Ciò richiede una forte interazione tra il progettista del sistema e l’esperto. Lo scopo del primo è codificare nel sistema sia la conoscenza dell’esperto sia il meccanismo cognitivo dell’esperto. L’esperto, a sua volta, deve individuare e definire, in termini precisi, la propria esperienza, fatta di conoscenza del dominio, di regole euristiche, meccanismi di ragionamento abitualmente utilizzati ed espedienti per semplificare l’operato . Le applicazioni, per rendere operative tali interazioni tramite tecnologie informatiche, rientrano a tutti gli effetti nel campo operativo dell’ Intelligenza Artificiale e i risultati significativi registrati nell’ultimo quindicennio, per il forte potenziamento degli strumenti informatici, sono ancora racchiusi in ambiti teorici e sperimentali e non riferibili, almeno nella pianificazione del territorio, ad applicazione di largo uso: ovvero i SE costruiti da esperti per esperti, risultano pertanto essere, ancora oggi, la base teorica di partenza per la costruzione di un SC. Di contro lo sviluppo e la crescente diffusione, riferendosi alla varietà dei settori disciplinari coinvolti nello studio del territorio, ovvero in quegli ambiti disciplinari che hanno trovato nella regionalizzazione dei fenomeni (Fischer 1983), un valido approccio metodologico per il loro studio, dei SIT ha ingenerato una notevole confusione in tutte le componenti teoriche ed applicative. Infatti dall’avvento, nel 1962, del “Canada Geographic Information System” (Roger F. Tomlinson), che viene definito da molti il primo SIT, la varietà delle definizioni, nate da contesti culturali differenti hanno generato una problematica non ancora risolta che ha portato ad una proliferazione di gerghi specifici e difficoltà di comprensione tra "addetti ai lavori". A tutti gli acronimi associati alle applicazioni dell’informazione legata al territorio, come Geographic Information System (USA), Geographical Information System (Europa), Géomatique (Francia, Canada), Sistemi Informativi Territoriali, Sistemi Informativi Geografici (Italia), Geological Information System, Land Information System, Spatial Information System, Georelational Information System, Geoscience Numerical Cartography (legate a specifiche discipline), non sempre corrisponde un diverso significato sostanziale, che invece si evince da subito, soprattutto in termini di approccio metodologico, dalle definizioni date da Mogorovich (1988)[ “Il complesso di uomini, strumenti e procedure (spesso informali) che permettono l'acquisizione e la distribuzione dei dati nell'ambito dell'organizzazione e che li rendono disponibili nel momento in cui sono richiesti a chi ne ha la necessità per svolgere una qualsivoglia attività”], Cowen (1988)[ “a decision support system involving the integration of spatially referenced data in a problem solving environment”], e Carter (1989)[“ an institutional entity, reflecting an organisational structure that integrates technology with a database, expertise and continuing financial support over time”], rispetto a quelle fornite da Burrough (1986)[ “a powerful set of tools for collecting, storing, retrieving at will, transforming and displaying spatial data from the real world”] e Aronoff (1989)[ “any manual or computer based set of procedures used to store and manipulate geographically referenced data”], in quanto si passa da una trattazione informale dell’informazione a quella rigida, tipica degli strumenti e applicazioni informatiche, in altri termini si enfatizza la differenza tra informazione e dato. A tali definizioni, pertanto, sono associate applicazioni diversificate riassunte schematicamente (Fig.1) da da DeMers M. N. (2000), Joanilli M. (2001) (Joanilli M. 2001) Schiavoni U. (2001), da cui risulta enfatizzata una ulteriore caratteristica dei sistemi informativi legata alla spazialità e al supporto geografico. Figura.1 Tassonomia nella “Information System” La regionalizzazione (Manfred M. Fischer 1983) dell’informazione unitamente al contesto territoriale non può prescindere pertanto da tale classificazione negli approcci operativi tipici dei sistemi informativi su base geografica. Quindi si è assistito negli anni ad uno sviluppo degli strumenti informatici orientati secondo metodologie, tecniche e approcci classici della gestione cartografica. E’ proprio dalla cartografia si desumono le caratteristiche per la valutazione della qualità dei dati nella loro componente spaziale. Quindi in riferimento allo schema proposto, le differenze tra SIT e GIS possono essere riassunte, come già accennato al formalismo nel trattamento dei dati e la loro interconnessione con la matrice territoriale. Nei SIT i dati possono essere espressi anche in modo informale, e la relazione al territorio può essere addirittura di tipo meramente descrittivo. Nei GIS i dati devono avere una struttura, forma e contenuto rispondenti a requisiti rigorosi, in particolare la componente spaziale deve rispondere ai requisiti di validità propri della cartografia. 3 Qualità dei dati 3.1 Dati e Informazioni In tutte le operazioni di trattamento dei dati si prevedono diverse tipologie di analisi, statistiche o spaziali, e le preliminari considerazioni, in merito alla qualità dei dati, acquistano sempre maggiore importanza, in particolare qualora si vogliano utilizzare strumenti informatici, come già detto, basati su tecnologie G.I.S. e M.I.S. (Managment Information System), che prevedono un controllo rigoroso della qualità delle informazioni utilizzate ed una standardizzazione nel formato e nel contenuto dei dati di input. Due punti fondamentali possono essere evidenziati, per quanto riguarda la valutazione, da parte di chi gestisca un Sistema Informativo Territoriale, dell’idoneità della base di dati relativamente alle applicazioni di interesse. In primo luogo, la qualità di una base di dati georeferenziati può e deve essere valutata in base a una serie di parametri, contenuti in standard internazionali quali quelli definiti dai comitati tecnici ISO/TC 211: Geographic information - Geomatics e CEN/TC 287 (Carrion D. 2004). Un altro punto da tenere in considerazione è la necessità che i dati cartografici siano corredati da informazioni sufficienti perché l’utente possa giudicare se i dati gli siano davvero utili per i suoi scopi e se abbiano la qualità che li rende tali. In un GIS l’importanza dei dati è centrale. Tipicamente, i dati in un GIS sono molto numerosi e tutti collegati gli uni agli altri. Lo scopo di un GIS, come già detto, è ottenere risposte a specifiche domande, sulla scorta di procedure di analisi e gestione dei dati, fornendo informazioni. Vi è una sostanziale differenza tra informazione e dato. I dati sono rappresentazioni numeriche o altri surrogati simbolici miranti a caratterizzare gli attributi di persone, organizzazioni, oggetti, eventi o concetti (Nijkamp and Fischer 1993). Informazione significa dati strutturati attraverso modellizzazione, organizzazione o trasformazione, così da aumentare la penetrazione o il livello di conoscenza riguardo un certo fenomeno (Nijcamp 1990). Si può affermare che un GIS è basato su una sistematica trasformazione dei dati che mira a fornire un supporto analitico agli studiosi. Ristrutturazione e trasformazione dei dati sono pertanto essenziali nei sistemi informativi. Le operazioni che possono essere eseguite sui dati sono: raccolta, verifica, classificazione, ordinamento, compendio, calcolo, previsione, simulazione, conservazione, rintracciamento e comunicazione. I costi di tali operazioni dipendono tra gli altri dalle necessità di personale, modularità, flessibilità e versatilità del sistema di gestione, e dal controllo e velocità di tale processo. I benefici sono determinati dall’accessibilità, onnicomprensività, accuratezza, appropriatezza, tempestività, chiarezza, flessibilità, verificabilità e quantificabilità dell’informazione richiesta. La fornitura di informazioni attendibili, maneggevoli e aggiornate, strutturate in modo logico sulla base di una valida metodologia è essenziale per comprendere i processi e le relazioni che regolano e descrivono un dato fenomeno. 3.2 La qualità dei dati Tralasciando le considerazioni, innumerevoli, relative alle metodologie di analisi e trasformazione dei dati, passiamo in rapida rassegna i punti fondamentali relativi alla qualità dei dati, all’uso degli standard e agli organi internazionali che si occupano della loro definizione. Il termine qualità è arrivato ad assumere un significato molto ampio nell'ambito di organizzazioni, enti, aziende. La qualità può essere definita come il grado di eccellenza di un prodotto, di un servizio o di una prestazione. La qualità è un risultato altamente desiderabile, e può essere raggiunta attraverso una attenta gestione e controllo dei processi di produzione TQM (Total Quality Management). La definizione e la gestione della qualità di produzione dei dati sono discusse in diversi documenti presentati all' International Conference on Survey Measurement and Process Quality 1995 (Liberg (1997), deLeeuw and Collins (1997), Dippo (1997), Morganstein and Marker (1997), Colledge and March (1997) e anche in Collins and Sykes (1999). Questi criteri possono essere applicati al concetto di qualità di una base di dati, dal momento che una base di dati è il risultato di un processo di produzione, e l’affidabilità con cui tale processo è stato condotto ha un impatto sul valore e sull’utilità dei dati stessi. 3.3 Approcci ed indicatori per la valutazione della qualità dei dati Per la valutazione della qualità dei dati sono maturati tre approcci corrispondenti ad altrettanti modelli di valutazione (Carrion D. 2004). Modello “minimo”. Il controllo e la valutazione di qualità vengono svolti a cura del produttore dei dati, basandosi su strategie di test di conformità per identificare dati che soddisfano soglie di qualità definite a priori. Si tratta di un approccio poco flessibile, il medesimo test in alcuni casi può rivelarsi troppo restrittivo, e in altri troppo lasco. Uso di metadati. In questo modello l’errore è visto come un accadimento inevitabile, e non vengono imposti standard minimi a priori; è l’utente finale ad essere il responsabile della valutazione della “idoneità dei dati all’uso”, mentre il produttore dei dati è responsabile della loro documentazione tramite i metadati. Questo approccio è flessibile, ma non è solitamente previsto che l’utente finale fornisca un riscontro (“feedback”) al produttore di dati, quindi l’informazione viaggia “a senso unico” e il produttore non è in grado di correggere gli errori Uso di standard e riscontro da parte dell’utente. Il flusso delle informazioni è “bidirezionale”, con un riscontro da parte dell’utente relativamente alle questioni della qualità dei dati; questo feedback è processato e analizzato per identificare i problemi significativi e gli interventi prioritari da avviare sui dati. Questo modello è utile non solo in un contesto di mercato, per assicurare che la base di dati corrisponda alle necessità e alle aspettative degli utenti e che il produttore possa intervenire per migliorarne la qualità. La qualità dei dati solitamente viene misurata in base a un insieme di indicatori (o parametri), di cui si riportano quelli principalmente usati, accuratezza, risoluzione, scala, consistenza logica e completezza, con le loro definizioni e caratteristiche (Migliaccio, 2002). Accuratezza. E’ l’inverso dell’errore, cioè della discrepanza fra il valore registrato nella base di dati e il valore ”vero” (per quanto lo si può conoscere) o accettato come tale. La valutazione dell’accuratezza di una osservazione (misura) può essere fatta solo per confronto con la misura più accurata che sarebbe possibile ottenere. Il risultato è appunto la misura dell’errore e per i dati di tipo numerico (essenzialmente, dati di posizione) vengono usati indici di tipo statistico, quali media e s.q.m., mentre per i dati di tipo non numerico (di solito, classificazioni) si possono valutare gli errori tramite la matrice dell’errore di classificazione. Si possono inoltre definire: Accuratezza spaziale: accuratezza della componente spaziale di una base di dati; la metrica usata dipende dalle dimensioni delle entità in esame. Accuratezza temporale: concordanza fra il valore codificato e il valore reale delle coordinate temporali di un’entità. Spesso per i dati di tipo geografico le coordinate temporali sono rappresentate dall’epoca alla quale l’entità era “valida”, e in molti casi ciò vale contemporaneamente per tutta la base di dati. Accuratezza tematica: accuratezza dei valori degli attributi codificati in una base di dati; la metrica usata dipende dalla scala di misura dei dati. Risoluzione. Si riferisce alla quantità di dettaglio che è possibile distinguere nella componente spaziale, temporale o tematica. La risoluzione è sempre finita, perché non esiste un sistema di misura infinitamente preciso e perché comunque le basi di dati sono intenzionalmente generalizzate per ridurre il grado di dettaglio. In funzione dell’applicazione, non sempre un’elevata risoluzione è la scelta migliore; a volte una bassa risoluzione è più opportuna, se si vogliono ottenere modelli generali. Anche in per la risoluzione si possono definire: Risoluzione spaziale: indica la più piccola differenza distinguibile fra due valori misurabili. Poiché la risoluzione spaziale è una informazione collegata al grado di dettaglio con cui i dati rappresentano la realtà, ci dice qual è il più piccolo oggetto distinguibile grazie ai dati a disposizione. Per i dati raster, la risoluzione è semplicemente definita dalla dimensione del pixel. Per i dati vettoriali, può essere definita come la minima dimensione dell’entità cartografica rappresentabile. Risoluzione temporale: è la lunghezza (durata temporale) dell’intervallo di campionamento. Risoluzione tematica: indica la precisione delle misure per un particolare tematismo. Per i dati quantitativi è analoga alla risoluzione spaziale; per dati qualitativi (categorie) rappresenta il dettaglio di definizione di una classe tematica. Scala. In assenza di altri dati sulla risoluzione spaziale e sull’accuratezza, la scala della cartografia di origine dei dati digitali può essere un parametro interessante. Infatti la scala di una carta contiene implicitamente informazioni sulla risoluzione spaziale (grado di dettaglio) dei dati. La linea più sottile che è possibile disegnare su una carta rappresenta un limite alla risoluzione raggiungibile a una determinata scala: nessun oggetto di dimensioni inferiori può essere registrato. Consistenza logica. Si riferisce al fatto che non ci siano dati in contraddizione fra di loro. Per valutare tale fatto si possono istituire test di consistenza logica, per il controllo degli eventuali vincoli matematici o logici (relazioni matematiche o logiche fra i dati), o test di controllo dei vincoli topologici, per individuare ad esempio bordi mancanti o poligoni non etichettati. Anche la consistenza può essere definita in riferimento alle tre dimensioni (spaziale, temporale, tematica) dei dati geografici. Completezza. E’ un parametro relativo alla mancanza di errori di omissione all’interno della base di dati, e si riferisce ai criteri usati per selezionare le informazioni da inserire fra i dati. La sua valutazione è basata su verifiche relative all’inclusione fra i dati di oggetti appartenenti a liste note oppure su verifiche relative all’inclusione fra i dati di oggetti di dimensioni (area o spessore) minime. Ci sono due tipi di completezza. La completezza dei dati è riferita agli errori di omissione; una base di dati è completa se contiene le informazioni relative a tutti gli oggetti definiti nelle specifiche. La completezza del modello è riferita alla concordanza fra le specifiche della base di dati e il modello che è necessario definire per una particolare applicazione; una base di dati contiene un modello completo se le sue specifiche sono appropriate per una particolare applicazione. Ovviamente, anche la completezza può fare riferimento alle tre dimensioni (spaziale, temporale, tematica) dei dati geografici. Quindi, riepilogando, la qualità dei dati definisce il grado di eccellenza di una base di dati e viene valutata relativamente alle specifiche della base di dati, che definiscono il livello voluto di generalizzazione e astrazione. Volendo, si possono valutare anche la qualità di queste specifiche e la loro adeguatezza per determinate applicazioni. La valutazione della qualità dei dati è svolta in funzione di diversi parametri, inclusi l’accuratezza, la risoluzione, la consistenza e la completezza. Ogni componente di una base di dati geografica può essere valutata secondo le dimensioni di spazio, tempo e tematismo (essendo queste le tre dimensioni fondamentali dei dati geografici) (Pegoraro C. 2004). 4 Orientamenti: 4.1 Definizione e funzione del GIS La rassegna appena proposta, sulla definizione della qualità dei dati e dei parametri necessari per la sua determinazione, rappresenta il punto di partenza per fornire nuovi percorsi operativi per la costruzione di un sistema informativo su base territoriale. Non si vuole, comunque, fornire nuovi schemi di architetture di Sistemi Informativi Territoriali, che possono assumere configurazioni differenti a seconda del caso. Piuttosto, appare necessario discriminare, quanto più possibile, i diversi sottosistemi che comunemente lo compongo, e specificare ulteriormente le effettive potenzialità dei GIS in tali sistemi. Tale discriminazione non può essere pienamente esplicitata se non si elimina, in un primo stadio di discussione, l’ambiguità in termini di definizione dei SIT, già precedentemente evidenziata. Infatti l’anomalia, europea ma soprattutto italiana, di associare allo stesso acronimo significati differenti, come Sistemi Informativi Territoriali, Sistemi Informatici Territoriali, Sistemi Informativi su base Territoriale, ect., non potrà essere superata con una definizione condivisa dei SIT, in quanto tale acronimo risulta essere inflazionato in applicazioni e approcci ben lontani da quelli per cui tali sistemi sono stati concepiti e sviluppati. Tanto meno l’introduzione di nuovi acronimi, non farebbe che aumentare il livello di confusione, dovuto in primo luogo alla inadeguatezza delle competenze coinvolte che non riescono distinguere gli stessi acronimi quando sono riferiti a sistemi, prodotti, tecniche o software. Per risolvere tale ambiguità si potrebbe ereditare in toto la definizione e concezione di GIS secondo le tendenze maturate negli USA. Tale concezione è basata sulle definizioni di Burrough (1986) e Aronoff (1989). Sulla scorta di tale concezione si assume, nel tentativo di dare un riordino di carattere terminologico, che: i GIS sono una parte dei SIT i GIS gestiscono dati caratterizzati da struttura, formalismo e contenuti per un loro utilizzo mediante strumenti informatici improntati su una logica booleana e sulla teoria degli insiemi classica i GIS mediante opportune procedura di analisi, svolgono la funzione di trasformazione dei dati, in modo da fornire un nuovo dato che viene assunto come informazione da gestire nei SIT. ai GIS deve essere attribuita la funzione di gestione di una categoria di dati, che possono essere sottoposti a criteri di valutazione di qualità. La valutazione della qualità dei dati è svolta in funzione di diversi parametri, come l’accuratezza, la risoluzione, la consistenza e la completezza. Dalla valutazione della qualità dei dati si può desumere la qualità dell’informazione che si può generare. La costruzione del GIS non è il fine, ma un tramite per costruire l’informazione. 4.2 Incertezza: dati e informazione Il processo articolato e complesso che porta alla realizzazione di un’applicazione GIS ha il solo scopo di generare informazione attraverso un opportuno ed adeguato trattamento dei dati. L’informazione che ne deriva sarà tanto più pertinente ed idonea quanto più i dati iniziali siano accurati e specifici per le analisi di interesse che si vogliono effettuare. Il GIS rappresenta pertanto uno strumento per realizzare la base informativa, inoltre considerare una sua applicabilità per la descrizione e le analisi di fenomeni complessi propone non pochi problemi di linguaggio e di innovazione delle metodologie. Secondo (Molenaar M. 1998), l’utilizzazione dei dati nei sw GIS si basa su un’interazione tra modelli e processi. La prima fase è quella analitica che, oltre a fondarsi su molteplici modelli cognitivi, utilizza tecniche molto differenti (rilievo, remote sensing, interpolazioni geostatistiche). Per esaminare queste analisi è necessario memorizzarle secondo varie tipologie di modelli (vettoriali, raster, TIN). Dal semplice dato si passa poi alle analisi settoriali ed intersettoriali, (geologia, idrologia, morfologia, infrastrutture, ecologia, etc.) che, oltre a seguire altri canoni scientifici, sono vincolate da rigidi dettami informatici di selezione dal database geografico. Queste fasi moltiplicano una serie di forme di incertezza che dipendono sia dai caratteri intrinseci dei dati, sia dai caratteri contestuali del problema per il quale il dato è raccolto, analizzato ed elaborato (Longley P.A. 2002). Infatti i problemi di rappresentazione riguardano l’incertezza nel rilievo, l’accuratezza e l’eventuale misura degli errori. Ma l’incertezza può anche non dipendere dalle proprietà relative ai dati, ma può essere vista come una misura della differenza tra il dato ed il significato ad esso assegnato dall’utente (Zhang J. 2002). In altre parole l’incertezza può essere vista come un indicatore della diversità tra l’attuale contenuto del database e l’informazione che l’utente vorrebbe costruire in futuro mediante una perfetta e diretta osservazione della realtà (Murgrante B 2006). Pertanto possono distinguersi due forme di incertezza: una relativa alla qualità dei dati e l’altra alla informazione e/o interpretazione prodotta. Alla luce di quanto precedentemente esposto appare evidente, che solo il livello di incertezza relativo alla qualità dei dati iniziali può essere controllato. Ciò è possibile se la basi di dati utilizzata risponde ai requisiti di idoneità richiesti per una data applicazione e se questa è corredata di tutte le informazioni di corredo che ne identifichino la loro affidabilità per lo scopo voluto. 5 Conclusioni La rapida rilettura sulla evoluzione della teoria della conoscenze relativa al complesso sistema dei fenomeni territoriali, nelle sue componenti antropiche e naturali, pone in evidenza alcune problematiche non del tutto risolte. L’inquadramento dei SIT nel più ampio panorama teorico ed applicativo inerenti la costruzione del Sistema delle Conoscenze. La classificazione e l’ordinamento gerarchico delle diverse componenti di un SIT. I confini specifici e limitati delle applicazioni basate su tecnologia GIS. La differenza tra informazione e dato. La definizione della qualità dei dati e del loro utilizzo al fine di costruire l’informazione desiderata. Tutte le tematiche su citate rappresentano da se vasti ambiti di ricerca, ma che purtroppo non trovano, tra la maggior parte dei fruitori e gestori dei SIT, la dovuta considerazione. Va precisato che non si vuole enfatizzare l’apporto attuale ed in prospettiva dell’informatica alla conoscenza completa dell’informazione dei fenomeni territoriali, derivanti fondamentalmente dagli indiscutibili progressi registrati negli ultimi anni dal settore dell’informatica, ma piuttosto si vuole porre l’accento su come un corretto e pertinente utilizzo dei dati, disponibili o da realizzare, in determinati ambienti informatici di gestione, possono contribuire in modo sostanziale alla qualità dell’informazione, derivanti da analisi e trattamento dei dati stessi. In altri termini si vuole porre l’accento sui limiti dell’utilizzo di dati, che il più delle volte risultano essere incerti, nella loro consistenza, accuratezza e completezza nell’ambito dei diversi processi di valutazione, cercando di definire i caratteri di affidabilità che la base di dati utilizzata dovrebbe garantire. Bibliografia Burrough, P. A., R. McDonnell, et al. (1998). Principles of geographical information systems. Oxford ; New York, Oxford University Press. Carrion D., M. F. (2004). Importanza degli Standard nella valutazione della qualità dei dati in un Sistema Informativo Territoriale. ASITA. CATANIA. Feigenbaum, E. A., P. McCorduck, et al. (1988). The rise of the expert company : how visionary companies are using artificial intelligence to achieve higher productivity and profits. New York, Times Books. Fischer, M. M. (1983). "Progress and problems in the methodology of regional science." Regional Science Association: 214-218. Joanilli M. (2001). Fondamenti di Sistemi Informativi Geografici. Roma. Longley P.A., G. M. F., Maguire D.J. Rhind D.W. , (2002). Geographic information system and science. Molenaar M. (1998). An Introduction to the Theory of Spatial Object Modelling for GIS. London. Mura, P. M. (1986). Una geografia di valori ambientali. Roma. Murgrante B (2006). Questioni inerenti l'incertezza della rappresentazione nell’analisi finalizzata al GIS Supported Planning ASITA. Nijcamp, P. (1990). Multidimensional Spatial Data and Decision Analysis. North-Holland Nijkamp, P. and M. M. Fischer (1993). Geographic information systems, spatial modelling and policy evaluation. Berlin ; London, Springer-Verlag. Pegoraro C., G. L. (2004). Regole di implementazione in tema di specifiche per i dati spaziali e loro armonizzazione secondo le aspettative della Commissione Europea. Conferenza Nazionale ASITA 2004. ASITA. Catania. 1. Zhang J., G. M. F. (2002). Uncertanty in geographic information. London.