ISTITUTO SUPERIORE “Giulio Natta” – Bergamo Esami Di Stato 2014 Alunno: Brambillasca Filippo Classe 5°D L.S.T. Anno Scolastico 2013/2014 Il Cervello Materie Trattate: Biologia – Il Cervello Fisica – Campo Magnetico e MEG Informatica – Intelligenza Artificiale e Watson (IBM) Filosofia – Intelligenza Artificiale 1 Il cervello è l'organo principale del sistema nervoso centrale, presente nei vertebrati e in tutti gli animali a simmetria bilaterale, compreso l'uomo. Nei vertebrati il cervello è situato all'apice del nevrasse, all'interno del cranio. Il termine corretto per indicare l'insieme delle strutture contenute all'interno della scatola cranica è encefalo, di cui il cervello è una parte. Il cervello si occupa, insieme al sistema endocrino, di parte della regolazione delle funzioni vitali ed è sede delle regolazioni omeostatiche e delle funzioni cerebrali superiori. Nell'uomo l'attività del cervello, studiato a livello empirico dalle neuroscienze, dà vita alla mente con le sue funzioni cognitive superiori e più in generale alla psiche con le sue funzioni psichiche, studiate nell'ambito della psicologia. Il Cervello Umano L'encefalo è quella parte del sistema nervoso centrale completamente contenuta nella scatola cranica e divisa dal midollo spinale. Dal punto di vista embriologico, l'encefalo si sviluppa da tre vescicole del primitivo tubo neurale: il prosencefalo, che evolve in telencefalo e diencefalo, il mesencefalo e il romboencefalo, da cui originano bulbo, ponte e cervelletto. Anatomicamente, quindi, l'encefalo è costituito dal cervello (diviso in telencefalo e diencefalo), dal tronco encefalico (le cui parti sono mesencefalo, ponte e bulbo) e dal cervelletto. Struttura L'encefalo è costituito dalle seguenti porzioni: Telencefalo: Il Telencefalo è la parte più sviluppata del cervello umano ed è quella che assolve alle funzioni più complesse come il linguaggio, i movimenti volontari, l'apprendimento e la soluzione di problemi. È diviso da una profonda fessura in due emisferi cerebrali. I due emisferi comunicano attraverso un grosso fascio di fibre nervose: il corpo calloso, e, attraverso fasci più piccoli di fibre: la commissura anteriore e l'ippocampo. Gli emisferi sono costituiti all'interno da una sostanza bianca, da una massa grigia alla base (corpo striato) e da una sostanza grigia che li riveste: la corteccia cerebrale. L'emisfero destro controlla la parte sinistra del corpo, mentre l'emisfero sinistro controlla la parte destra. 2 Diencefalo Il Diencefalo è posto internamente alla sostanza bianca telencefalica, è costituito da cinque porzioni (talamo, epitalamo, metatalamo, ipotalamo, subtalamo) ed è in continuazione inferiormente con il mesencefalo tramite i due peduncoli cerebrali. Come già detto, i diencefalo contiene al suo interno la cavità del terzo ventricolo, che permette di suddividere con un piano sagittale l'intera struttura in due metà pari e simmetriche. Ciascuna di queste due metà può essere ulteriormente suddivisa in una porzione ventrale ed in una dorsale, grazie all'esistenza di un solco che attraversa in senso trasversale tutta la cavità del terzo ventricolo, e che viene denominato solco ipotalamico. La porzione ventrale, ossia quella parte di diencefalo che rimane al di sotto di tale solco, comprende: l'ipotalamo, comprende numerosi nuclei che attivano, controllano e integrano i meccanismi autonomici periferici, l'attività endocrina e molte funzioni somatiche quali la termoregolazione, il sonno, il bilancio idro-salino e l'assunzione del cibo; il subtalamo pari e simmetrico, localizzato lateralmente all'ipotalamo da ciascun lato, che contiene una serie di formazioni grigie e bianche in diretta continuazione con il mesencefalo sottostante. La porzione dorsale, ossia quella che rimane al di sopra del solco ipotalamico, comprende invece: il talamo, la porzione più voluminosa del diencefalo, a cui sono assegnate importantissime funzioni di ricezione e ritrasmissione delle informazioni a provenienza sia periferica che centrale; l'epitalamo, in posizione arretrata rispetto al talamo. Ha una funzione strettamente olfattiva. Ha un ruolo anche nella produzione di liquido cerebrospinale, assunzione di acqua e cibo e nel controllo dei comportamenti ritmici e stagionali.; il metatalamo, situato posterolateralmente rispetto al talamo e comprendente solo i corpi genicolati mediali e laterali. Cervelletto La porzione situata nella fossa cranica posteriore; è coinvolta nell'apprendimento e nel controllo motorio, nel linguaggio, nell'attenzione e forse in alcune funzioni emotive come risposte alla paura o al piacere. Le connessioni con il sistema limbico gli permettono di intervenire anche nei processi di memorizzazione e apprendimento, potendo così parlare di cervelletto cognitivo 3 Tronco Encefalico Il Tronco Encefalico è funzionalmente connesso con il cervelletto ed è costituito a sua volta da tre porzioni (mesencefalo, ponte e bulbo). È sede: dei riflessi e del controllo di molti visceri; dei centri che regolano il respiro partono i segnali che garantiscono gli automatismi respiratori;dei centri che regolano la temperatura corporea partono i segnali che mantengono costante la temperatura in modo da permettere tutti i processi biologici e chimici indispensabili per la vita; Circolazione sanguigna. Il cervello è costituito da due emisferi caratterizzati da solchi e circonvoluzioni, a determinate aree si possono assegnare il controllo di funzioni quali la vista, nel lobo occipitale, l'udito, nel lobo temporale, le attività del pensiero, associazione, memoria, anteriormente, nel lobo frontale, e la motricità e la sensibilità, superiormente al centro, nel lobo parietale. Esistono dunque un'area motoria e un'area sensitiva per ciascun emisfero che controllano il lato opposto del corpo; il comando, infatti, parte dalle cellule motorie piramidali, percorre, sotto forma di impulso elettrico, le fibre corrispondenti che a un certo punto del tronco encefalico (nel bulbo, detto anche midollo allungato perché costituisce il primo prolungamento del midollo all'interno del cranio) si incrociano per passare nel midollo spinale dal lato opposto, In rosso il tronco encefalico, in giallo il diencefalo, in beige il telencefalo; annesso si vede il cervelletto raggiunto quindi il neurone che si trova all'incirca all'altezza del muscolo che si deve contrarre, fuoriesce dal midollo attraverso i nervi spinali, i quali si assottigliano e ramificano sempre più fino a diventare fibra che si collega ad una fibra muscolare, mediante una giunzione detta appunto sinapsi neuro-muscolare, qui l'arrivo dell'impulso determina la contrazione. Sicché l'emisfero destro controlla la parte sinistra del corpo e viceversa. L'impulso nervoso è una variazione di potenziale elettrico a cui si associano anche fenomeni chimici: infatti l'arrivo dell'impulso alla giunzione neuro-muscolare (detta anche placca motrice) determina la liberazione dell'acetilcolina, nello spazio intermedio tra le fibre e quindi degli ioni calcio, responsabili dell'aggancio tra i filamenti delle fibre muscolari, e così il muscolo si contrae. All'interno del muscolo, dei tendini e delle articolazioni vi sono dei recettori collegati con delle fibre, mediante cui vengono registrati il grado di tensione delle fibre, il grado di apertura delle articolazioni e quindi la posizione dei nostri segmenti corporei nello spazio, sempre sotto forma di 4 impulsi che vengono trasmessi al cervello seguendo esattamente il percorso inverso a quello della via motoria. Allora abbiamo una via motoria, discendente, dal cervello ai muscoli, e una via sensitiva, ascendente, dai muscoli al cervello. Sitografia http://it.wikipedia.org/wiki/Encefalo http://digilander.libero.it/paxiol/SNCeAPPRENDIMENTO.htm 5 CAMPO MAGNETICO In fisica, in particolare nel magnetismo, il campo magnetico è un campo vettoriale solenoidale generato nello spazio dal moto di una carica elettrica o da un campo elettrico variabile nel tempo. Per riuscire a visualizzare il campo magnetico, rappresentato con il simbolo , si sparge della limatura B ferro molto fine su una superficie liscia. Mettendo una sottile lastra di vetro o di plastica sopra una barra magnetica e cospargendola di limatura di ferro, possiamo osservare che la limatura si allinea al campo magnetico, visualizzando chiaramente il campo prodotto dal magnete. La limatura di ferro si va ad accumulare ai poli del magnete, dove il campo magnetico è più intenso così da poter visualizzare le linee del campo magnetico. Allontanandosi dal magnete in una direzione qualsiasi il campo si indebolisce, come è indicato dalla minore densità delle linee. Perciò associamo l’intensita del vettore alla separazione delle linee del campo. Al campo magnetico si può associare anche un verso. Il verso del campo magnetico in un dato punto è dato dal verso nel quale punta il polo nord dell’ago di una bussola posta in quel punto. Le linee del campo magnetico escono dal polo nord di un magnete ed entrano nel polo sud. Figura 1: Il campo magnetico di una barretta di metallo può essere visualizzato. La limatura si orienta seguendo le linee del campo magnetico Intensita Della Forza Magnetica 1. 2. 3. 4. Una particella di carica q si muove in questa regione con una velocita v, formando un’angolo θ tra v e . Sperimentalmente possiamo osservare che la forza F cui è soggetta la particella ha un’intensità pari a: | | Nel SI la forza viene calcolata in N (Newton 1 Kg = 9,81 N). Figura 2: Linee del campo magnetico Come osservato dalla formula usata per ricavare l’intensità di una forza magnetica possiamo dedurre che essa dipenda da diversi fattori: La carica q della particella; L’intensità del campo data dal campo magnetico ; La velocità della particella; L’ampiezza dell’angolo θ tra il vettore velocità ed il vettore campo magnetico. Se si vuole che il campo magnetico eserciti una forza su una particella questa deve avere una carica e deve essere in movimento. Nonostante vengano rispettate questa due condizioni non è detta che il campo 6 magnetico eserciti una forza. Se l’angolo θ tra i vettori velocità e campo magnetico corrisponde a 0° (la particella si muove nella stessa direzione del campo) o a 180° (la particella si muove nella direzione opposta del campo) la forza si annulla. La massima forza si otterrà quando l’angolo θ sarà di 90°. Intensita Del Campo Magnetico | | L’unità di misura di B sono quelle di una forza divisa per il prodotto di una carica per una velocità, cioè ⁄ . Possiamo scrivere quest’unità di misura anche come ⁄ , troviamo che ⁄ e infine sapendo che . L’ultima combinazione di unità di misura è chiamata Tesla, in onore dell’ingegnere serbo Nikola Tesla (1856-1943). 1 Tesla = 1 T = ⁄ Siccome il Tesla è un’unità di misura molto grande per esprimere l’intensità di un campo magnetico si utilizza come unità di misura il Gauss nonostante questo non faccia parte delle unità di misura del Sistema Internazionale. 1 Gauss = 1 G = 10-4 T Forza Magnetica E Regola Della Mano Destra Consideriamo la direzione della forza magnetica, le cui proprietà sono alquanto interessanti e inaspettate. Invece di puntare nella direzione del campo magnetico o della velocità v, come ci si potrebbe aspettare, si osserva che la forza magnetica F punta in una direzione perpendicolare sia a che a v. Per determinare il verso della forza magnetica su una carica positiva si inizia puntando le dita della mano destra nella direzione della velocità v. Successivamente si ruotano le sita nella direzione di . Il pollice punterà nella direzione della forza magnetica F. Se la carica è negativa la forza punta nel verso opposto a quello del pollice. Figura 3a: Regola Della Mano Destra (carica positiva) Figura 3b: Regola Della Mano Destra (carica negativa) 7 Moto Di Particelle Cariche In Un Campo Magnetico Analizziamo il moto di una particella carica che entra in una regione in cui è presente un campo magnetico. Prendendo come esempio un campo magnetico uniforme e diretto verso il basso. La regola della mano destra indica che F punta verso l’interno: la nostra particella inizia a seguire una traiettoria orizzontale diretta verso l’interno. Se la particella si muove in un campo magnetico, su di essa non viene compiuto alcun lavoro, dal momento che la forza magnetica è sempre perpendicolare alla direzione del moro; perciò il modulo della velocità della particella nel campo magnetico rimane costante. La Forza Magnetica Esercitata Su Un Filo Percorso Da Corrente Una particella carica che si muove in un campo magnetico è soggetta a una forza. Un filo percorso da una corrente sarà soggetto alla risultante delle forze agenti sulle singole cariche in movimento che costituiscono la corrente. Consideriamo un segmento di filo rettilineo di lunghezza L, con una corrente I che scorre da sinistra a destra. Nella stessa regione di spazio è presente anche un campo magnetico B che forma un angolo θ con il filo. Se le cariche si muovono nel filo con una velocità media v, il tempo necessario perché esse si spostino da un estremo all’altro del filo è . La quantità di carica che passa nel filo in questo tempo è esercitata sul filo è quindi: . La forza ( ) Figura 4: Forza Magnetica In Un Filo . Semplificando v, otteniamo che l’intensità della forza ce si esercita su un segmento di filo di lunghezza L percorso da una corrente I che orma un angolo θ con un campo magnetico B è: Spire Di Corrente E Momento Torcente Magnetico Il fatto che un filo percorso da una corrente sia soggetto a una forza quando è immerso in un campo magnetico è una delle coperte fondamentali che ha reso possibile lo sfruttamento dell’energia elettrica. Nella maggior parte delle applicazioni moderne il filo va a formare una spira. 8 Spira Rettangolare Consideriamo una spira rettangolare di altezza a e larghezza b, percorsa da una corrente I. La spira è immersa in un campo magnetico uniforme B parallelo al piano della spira. I segmenti verticali sono perpendicolari a B e sono soggetti a una forza di intensità . La forza sul lato sinistro punta verso l’interno e quella sul lato destro verso l’esterno. Se immaginiamo un asse di rotazione passente per il centro della spira, nel punto O, le forze esercitano un momento torcente che tende a far ruotare la spira in senso orario. L’intensità del momento torcente per ciascun segmento verticale è data dal Figura 5: Spira Rettangolare prodotto della forza per il braccio d/2. Il momento torcente totale è semplicemente la somma dei momenti prodotti da ciascun segmento: ( )( ) ( )( ) ( ). Se osserviamo che l’area della spira è data da , possiamo esprimere il momento torcente con: . Quando la spira inizia a ruotare le forze hanno la stessa intensità ma il braccio è ( ⁄ ) Figura 6: Momento Torcente Della Spira Rettangolare quindi il momento torcente è: Viene rappresentato nel SI con l’unità Newton per Metri (N m) Spira Generica La stessa relazione rappresentate precedentemente con la spira rettangolare può essere estesa a tutte le spire piane. In molte applicazioni si desidera produrre il massimo momento possibile. Un modo semplice per aumentare il momento è quello di arrotolare lungo un filo intorno a una spira N volte, creando una spira di N avvolgimenti. Ogni avvolgimento produce il momento di una spira singola. Correnti Elettriche, Campi Magnetici E Legge Di Ampere Nel 1820 Hans Christian Oersted scoprì accidentalmente una relazione tra l’elettricità ed il magnetismo. Oersted stava tenendo una conferenza sui vari aspetti della scienza quando, ad un certo punto, chiuse un interruttore e fece scorrere la corrente in un filo. Noto così che in 9 corrispondenza della chiusura dell’interruttore, l’ago di una bussola che si trovava nelle vicinanze del filo deviava dalla sua orientazione abituale. Oersted aveva appena scoperto che le correnti elettriche possono creare campi magnetici. Corrente In Un Lungo Filo Rettilineo Consideriamo un filo infinitamente lungo nel quale scorre una corrente I. Per visualizzare il campo magnetico prodotto da un filo del genere spargiamo della limatura di ferro su un foglio di carta attraversata dal filo. La limatura di ferro forma dei cerchi concentrici centrati nel filo. Dall’esperienza si può dedurre che il campo magnetico “circola” intorno al filo. Per determinare la direzione del campo dobbiamo ricorrere alla regola della mano destra in riferimento al campo magnetico. Figura 7: La limatura di ferro si orienta andando a formare dei cerchi concentrici Per determinare la direzione e il verso del campo magnetico generato da un filo percorso da corrente puntiamo il pollice della mano destra lungo il filo nel verso della corrente I. Le dita ruotano intorno al filo nel verso del campo magnetico. Figura 8: Regola della mano destra in riferimento al campo magnetico Legge Di Ampere La legge di Ampere lega il campo magnetico lungo un percorso chiuso alla corrente elettrica concatenata con tale percorso. Questi fili sono concatenati dal percorso chiuso P, che può essere suddiviso in tanti piccoli segmenti rettilinei di lunghezza ΔL. Per ciascuno di questi segmenti, si può scomporre il campo magnetico in una componente parallela al segmento, B//, e in una perpendicolare, B . Secondo la legge di Ampere, la somma dei B//ΔL estesa a tutti i segmenti che formano il percorso chiuso è uguale al prodotto di una costante per la corrente concatenata con il percorso stesso ∑ In questa espressione, 0 0 è una costante chiamata permeabilità magnetica del vuoto. Il suo valore è: (T x m)/A 10 Applichiamo la legge di Ampere caso di un lungo filo rettilineo percorso dalla corrente I. Dato che il campo magnetico è parallelo all cammino circolare in ogni punto e tutti i punti sono alla stessa distanza dal filo, sia ha che B costante. Perciò sommando lungo tutto il percorso chiuso si ottiene ∑ ∑ ( ) Per la legge di Ampere tale somma deve essere uguale a ( . Perciò abbiamo: ) Esplicitando B: MAGNETOENCEFALOGRAFIA (MEG) La magnetoencefalografia è una tecnica di imaging biomedico funzionale utilizzata nella neurologia, che si basa sulla misurazione dei campi magnetici prodotti dall'attività elettromagnetica dell'encefalo. Viene usata per valutare le fluttuazioni del campo magnetico che l'organismo produce, studia dunque la funzionalità cerebrale tramite la misura di tale campo magnetico generato dall'attività elettrica cerebrale, fornendo ottimi risultati. Viene utilizzata da tempo come strumento diagnostico per l'epilessia. Riesce ad essere utilizzato anche nei disturbi uditivi, stimolando la corteccia uditiva ed a far percepire dei toni. La magnetoencefalografia (MEG) è una tecnica a immagini elaborate dalla misura dei campi magnetici prodotti dall'attività elettrica del cervello per mezzo di dispositivi altamente sensibili come i superconducting quantum interference devices (SQUIDs). . Uno SQUID (Superconduttore ad interferenza quantica) consiste in una spirale superconduttiva immersa nell’elio liquido. L’elio liquido è a circa -269°C così da creare una ridottissima resistenza elettrica nella spirale. Lo SQUID rileva il campo magnetico indotto dalle correnti elettriche celebrali e lo trasforma in un segnale elettrico. Queste immagini vengono usate 11 comunemente sia in ambito clinico che di ricerca per molteplici scopi. In chirurgia, ad esempio, per la localizzazione di una patologia, nella ricerca, per determinare la funzione della varie parti del cervello, neurofeedback, ed altro. Il MEG (acronimo di Magneto-Encefalo-Grafia) è stato utilizzato per la prima volta da David Cohen nel 1968, prima che venisse utilizzato lo SQUID, utilizzando unicamente una bobina ad induzione di rame come rivelatore. Per ridurre il disturbo magnetico di fondo, le misure vennero effettuate in una camera magneticamente schermata. Tuttavia, la scarsa sensibilità di questo rivelatore ebbe come risultato segnali MEG scadenti e disturbati, che erano di difficile utilizzo. In seguito, all'MIT (Massachussetts Institute of Technology), costruì una camera schermata migliore, e utilizzò uno dei primi rivelatori SQUID (appena sviluppato da James E. Zimmerman, un ricercatore per la Ford Motor Company) per misurare di nuovo la MEG. Questa volta i segnali erano chiari quanto quelli di un'EEG (Elettroencefalografia), e stimolò l'interesse dei fisici che avevano iniziato a cercare i possibili utilizzi degli SQUID. Perciò, la MEG iniziò ad essere utilizzata, così che diverse tipologie di MEG spontanee ed evocate incominciarono ad essere misurate. All'inizio solamente un unico rivelatore SQUID era utilizzato, per misurare successivamente il campo magnetico in un numero di punti attorno alla testa del soggetto. Ciò era lento e scomodo e negli anni ottanta, i costruttori di MEG incominciarono ad aumentare il numero di sensori nel vaso di Dewar[1], per coprire un'area più vasta della testa, utilizzando parallelamente un vaso di Dewar più grande. Le MEG attuali hanno forma di casco e contengono fino a 300 sensori, coprendo la maggior parte della testa. In questo modo, le MEG di un soggetto o di un paziente ora possono essere accumulate in maniera rapida ed efficiente. La letteratura del campo, anche italiana, ha esposto i limiti di tale esame, osservando come vi siano dei disturbi che possono influenzare il risultato alterandolo, come i movimenti dell'occhio, i segnali cardiaci e le contrazioni muscolari. Poiché i segnali magnetici emessi dal cervello sono dell'ordine di pochi femtotesla (1 fT = T), risulta necessaria la schermatura dai segnali magnetici esterni, incluso il campo magnetico terrestre. Una schermatura magnetica appropriata può essere ottenuta costruendo camere in alluminio e mu-metal per ridurre rispettivamente i disturbi ad alta frequenza e a bassa frequenza. 12 Da Maggio 2009 un sistema MEG a 306 canali è installato presso il Centro Interdipartimentale Mente e Cervello dell’Università di Trento. Il sistema permette la registrazione simultanea MEG e EEG. L’EEG può essere misurato anche con 128 elettrodi. Il laboratorio dispone di strumentazione per la stimolazione visiva, uditiva, tattile e elettrica che permette un ampia gamma di esperimenti neuroscientifici. E’ disponibile anche un sistema di Eye-tracking per misurare le posizioni delle fissazioni oculari, contemporaneamente alla registrazione dell’attività cerebrale. Il sistema MEG può essere usato sia in posizione seduta che supina. E’ inoltre possibile la coregistrazione con i risultati di “imaging” anatomici e funzionali di MRI e TMS. Dall’inaugurazione del laboratorio sono stati condotti vari esperimenti. Le aree di ricerca includono la formazione di concetti mentali, processamento linguistico, integrazione sensomotoria, interazione interemisferica e meccanismi neuronali di percezione. [1] Un vaso di Dewar o semplicemente dewar è un contenitore che mantiene il suo contenuto isolato dell'ambiente esterno frapponendo con l'esterno delle aree di vuoto che consentono un isolamento termico tra il contenuto e l'ambiente. Il vuoto è usato solo per l'isolamento termico, il contenuto non è sotto vuoto. Bibliografia: Walker J., Corso di FISICA, Milano-Torino, Pearson Italia, 2010 Sitografia: http://servizi.psice.unibo.it/uploads/luci_zwrbwszevvpivgnultmobvurazkvhk.pdf http://web.unitn.it/cimec/10907/laboratorio-magnetoencefalografia http://it.wikipedia.org/wiki/Magnetoencefalografia http://it.wikipedia.org/wiki/Vaso_di_Dewar 13 Intelligenza Artificiale Con il termine intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) si intende generalmente l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana. L'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi, la quale manifesta aspetti sia teorici che pratici. Nel suo aspetto puramente informatico, essa comprende la teoria e le tecniche per lo sviluppo di algoritmi che consentano alle macchine (tipicamente ai calcolatori) di mostrare un'abilità e/o attività intelligente, almeno in domini specifici. Uno dei problemi principali dell'intelligenza artificiale è quello di dare una definizione formale delle funzioni sintetiche/astratte di ragionamento, metaragionamento e apprendimento dell'uomo. I Primi Passi In tal senso la storia ha inizio nel XVII secolo quando Blaise Pascal (scienziato, scrittore e filosofo francese) inventa la cosiddetta "Pascalina" per aiutare il padre, incaricato dall'amministrazione fiscale della Normandia di eseguire un difficile lavoro di calcolo. La macchina era capace di eseguire automaticamente addizione e sottrazione; questa "macchina aritmetica" fu la capostipite dei calcolatori ad ingranaggi. La Rivoluzione Informatica Se la teoria dell'IA evolve indipendentemente dai progressi scientifici, le sue applicazioni sono fortemente legate agli avanzamenti della tecnologia informatica. Infatti, solo nella seconda metà del XX secolo è possibile disporre di dispositivi di calcolo e linguaggi di programmazione abbastanza potenti da permettere sperimentazioni sull'intelligenza. La struttura dei calcolatori viene stravolta con la sostituzione dei "relè", usati per i primi calcolatori elettromeccanici, con le "valvole" o tubi elettronici. Nel 1946 nasce ENIAC (Electronic Numerical Integrator And Calculator), concepito come calcolatore moderno nel '45 da John von Neumann; faceva l'elaborazione a lotti (batch) nell'ordine di migliaia di informazioni al minuto. La programmazione avveniva comunque tramite schede. 14 La seconda generazione di computer si ha nei '60, "The time sharing", sistemi basati sulla divisione di tempo e quindi più veloci; più terminali, soprattutto telescriventi, sono collegati ad un calcolatore centrale". L'innovazione in questo periodo sta nel passaggio dalle valvole ai transistor. A quell'epoca i programmi erano fortemente condizionati dai limiti dei linguaggi di programmazione, oltre che dai limiti di velocità e memoria degli elaboratori. La svolta si ha proprio tra gli anni '50 e '60, con linguaggi di manipolazione simbolica come l'ILP, il Lisp e il POP. Il Punto Di Svolta Un punto di svolta della materia si ha con un famoso articolo di Alan Turing sulla rivista Mind nel 1950. Nell'articolo viene indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente. Quindi la progettazione di macchine intelligenti dipende fortemente dalle possibilità di rappresentazione simbolica del problema. Il test di Turing - così viene chiamata la condizione che la macchina dovrebbe superare per essere considerata intelligente - è stato più volte superato da programmi e più volte riformulato, tanto che queste teorie hanno ricevuto diverse confutazioni. Il filosofo Searle ne espose una famosa, chiamata "la stanza cinese". Nello stesso anno dell'articolo di Turing sull'omonimo test per le macchine pensanti, Arthur Samuel presenta il primo programma capace di giocare a Dama, un risultato molto importante perché dimostra la possibilità di superare i limiti tecnici (il programma era scritto in Assembly e girava su un IBM 704) per realizzare sistemi capaci di risolvere problemi tradizionalmente legati all'intelligenza umana. Per di più, l'abilità di gioco viene appresa dal programma scontrandosi con avversari umani. Nel 1956, alla conferenza di Dartmouth (la stessa conferenza a cui l'IA deve il suo nome), viene mostrato un programma che segna un'altra importante tappa dello sviluppo dell'IA. Il programma LT di Allen Newell, J. Clifford Shaw e Herb Simon rappresenta il primo dimostratore automatico di teoremi Verso L'IA Moderna I primi anni settanta vedono lo sviluppo dei sistemi di produzione, ossia dei programmi che sfruttano un insieme di conoscenze organizzate in base di dati, attraverso l'applicazione di regole di produzione, per ottenere risposte a domande precise. I sistemi esperti hanno sostituito i sistemi di produzione per via delle difficoltà incontrate da questi ultimi, con particolare riferimento alla necessità di fornire inizialmente la conoscenza in forma esplicita e la poca flessibilità delle regole di produzione. Questi sistemi, di cui Dendral è il più rappresentativo, mostrano le enormi possibilità offerte da un efficace sfruttamento di (relativamente) poche basi di conoscenza per 15 programmi capaci di prendere decisioni o fornire avvisi in molte aree diverse. In pratica l'analisi dei dati è stata razionalizzata e generalizzata. IBM : Watson Watson può pensare: parola di IBM. Il cognitive computing è il prossimo obiettivo che il settore si è posto e Watson è un passo importante nella direzione di una migliore “intelligenza artificiale”. Il progetto prende il nome da Thomas Watson, fondatore del gruppo, la cui impronta sull’azienda era quella di anticipare i tempi, invece di subirli: È politica di questa compagnia non essere mai soddisfatta di quel che abbiamo, ma sempre anticipare le esigenze del futuro. Cosa è Watson? Watson è un progetto nato in seno al gruppo IBM e focalizzato sulla creazione di una intelligenza artificiale in grado di gestire grandi quantità di dati non strutturati per sublimare tale ricchezza in valore vero: informazioni strutturate prima e decisioni poi. Watson nasce come ecosistema, ossia sotto le sembianze di una piattaforma alla quale in molti potranno accedere per dar vita alle proprie idee. Quel che IBM vuol mettere a punto è una capacità che si fa sistema, e tale capacità si avvicina molto all’idea che si ha di “pensiero”. La concentrazione di tante funzioni e tante capacità all’interno di una stessa entità, però, costringe giocoforza anche a una rimodulazione degli equilibri fin qui esistiti tra uomo e macchina: la relazione viene ad assumere forme nuove, poiché un maggior potere vien messo nelle mani del computing, ma al tempo stesso l’uomo viene ad avere un ruolo fondamentale nella definizione dei problemi prima e nella fase decisionale poi. Vada sé, infatti, che soltanto a fronte di un input ben formato si possa pensare di restituire un output soddisfacente: la «santa alleanza» tra uomo e macchina prende forma sotto il vessillo di Watson nella convinzione per cui il cognitive computing possa fare molto per estrapolare informazioni “pure” all’interno di un bacino non-strutturato di informazioni. Come funziona Watson? Il funzionamento di Watson è stato annunciato ai media e ai Chief Information Officer italiani nel contesto di un workshop organizzato da Eni in collaborazione con IBM. L’interesse di Eni su Watson è legato alla possibilità di gestire in modo più efficiente tanto la moltitudine dei dati raccolti durante le analisi antecedenti gli scavi per le estrazioni, quanto per gestire in modo 16 migliore l’enorme mole di comunicazioni e dati interne all’azienda. I processi attraverso i quali prende forma il “pensiero” di Watson sono 4: Analisi della domanda, affinché sia ben formata e interpretabile; Il testo viene ricollegato alla conoscenza esistente, disambinguandone il significato a partire dal contesto individuato; Vengono estratte relazioni dal testo (ad oggi Watson ne contempla circa 7000) per approfondire la comprensione dello stesso; Acquisizione di informazioni dal testo, aumentando così la base di conoscenza sulla quale verrà formato il processo di comprensione successivo: di fatto la macchina è in grado di imparare. IBM precisa come, sebbene in apparenza tutto ciò sia quanto posto normalmente in essere dai motori di ricerca, in realtà Watson sia in grado di andare oltre. Primo, perché sa cercare in database come all’interno di panieri non strutturati di informazioni; secondo, perché sa interpretare (oltre che individuare) entità, ontologie e conoscenza. Il processo passa prima per l’analisi del testo, quindi per l’interpretazione dello stesso, fino ad arrivare ad un alto numero di ipotesi. Il peso statistico delle risposte stesse determina la formazione delle evidenze tra le quali si sceglierà la risposta. Tanto in entrata quanto in uscita, la comunicazione tra uomo e macchina avviene con le regole del linguaggio naturale: Watson nasce in lingua inglese, ma gli adattamenti ad altre lingue andranno di pari passo con le applicazioni che sorgeranno nei vari territori attorno al sistema IBM. IBM e Watson IBM non ha fretta. Così come il codice a barre ci ha impiegato 15 anni ad essere capito e adottato, arrivando poi a penetrare il mercato con capillarità, anche Watson necessita del tempo necessario affinché il suo ruolo possa essere interiorizzato dai CIO e dagli sviluppatori, ma poi diventerà un valore irrinunciabile. IBM ci crede a fondo, ipotizzando per Watson un ruolo da “browser” della rete del futuro, un passaggio fondamentale per l’organizzazione e il reperimento delle informazioni. Watson nasce all’interno di IBM, ma il gruppo ha l’intenzione di creare attorno al progetto le migliori condizioni per poter crescere senza dannose pressioni di mercato. Il team è stato organizzato quindi come in una vera e propria startup, con l’obiettivo di creare dapprima un ecosistema funzionante per poi valutare come il tutto possa essere proposto sotto forma di modello di business. Non una startup qualunque, però: 2000 specialisti assoldati, 1 miliardo di 17 dollari di investimento, 100 milioni versati al fine di sostenere lo sviluppo dell’ecosistema di imprenditori e partner sui quali maturare il futuro del progetto. L’idea è quella di arrivare a rendere Watson una sorta di piattaforma cloud per lo sviluppo di applicazioni. 700 entità (tra grandi aziende e startup) sono già in collaborazione con Watson per capire come dar vita a nuovi progetti: da questo numero usciranno i primi esperimenti pilota, con una roadmap che fissa al 2017 l’anno in cui Watson dovrà iniziare a dimostrare davvero di potersi proporre sul mercato come realtà valida, efficiente ed economicamente sostenibile. Se solo 10 anni fa il 70% degli introiti IBM provenivano dalla vendita hardware, oggi tale quota è scesa ad appena il 20%: l’azienda ha ripensato completamente il proprio core business e in futuro lo sviluppo di software e servizi passerà anche per il cognitive computing. Watson è dunque il futuro di IBM, o almeno uno dei futuri possibili e sui quali l’azienda sta scommettendo con forza. Dove Può Essere Applicato Watson Watson ha già trovato applicazione pratica al servizio della ricerca clinica in ambito oncologico ma, in breve tempo, è destinata a rivoluzionare un più ampio numero di settori – energia, salute, retail, editorial, finanza, biotech, farmaceutico – e molteplici aspetti della nostra stessa quotidianità. Sembra difficile capire oggi dove possa arrivare Watson perché, in qualità di sistema basato sul deep learning, l’idea di fondo è quella di non porre limiti né alla provvidenza, né alla capacità tecnologica. Si sa però da dove è partito: nel 2006 l’idea è stata messa a punto e il team (comprensivo peraltro di varie personalità italiane) è riuscito a raccogliere i primi importanti risultati nel 2011. È infatti questo l’anno di Jeopardy, il gioco televisivo USA al quale Watson ha partecipato in qualità di concorrente. Il gioco prevede domande aperte in forma testuale, nelle quali il tempo utile per la risposta è minimo: in quei pochi secondi bisogna recepire la domanda, comprenderla, interpretarla e rispondere. Watson ha dimostrato in poche prove di poter vincere contro l’essere umano, dimostrandosi così capace di “ragionare” al pari di una persona. Anni dopo le performance sono ulteriormente migliorate, la base di conoscenza è aumentata e Watson è ora pronto a spingersi oltre. Il primo campo di applicazione pensato è l’ambito sanitario. In questo campo, infatti, i dati disponibili sono moltissimi, molti di più di quanti un comune medico non possa gestire. Watson può pertanto configurarsi come un assistente di grande prestigio in fase di diagnosi, potendo analizzare molti dati per portare poche ipotesi importanti all’attenzione del professionista. Migliora la diagnosi, migliorano le possibilità di cura, diminuiscono i falsi positivi e il tutto va a vantaggio dell’intero sistema sanitario. Altro ambito di interesse potenziale è quello dell’assistenza clienti. I problemi gestiti in questo settore dalle grandi aziende consentono infatti di arrivare a modelli predefiniti per risposte di più 18 comune ricaduta: Watson potrebbe facilitare l’identificazione di tali modelli, l’emergenza di problematiche specifiche e facilitare (e velocizzare) i tempi di intervento. Sulla base di quanto emerso, è da ipotizzare un ruolo di Watson in occasione dell’Expo 2015: IBM avrà tra le mani una occasione unica per dimostrare la bontà del proprio sistema, applicando il tutto a un grande evento nel quale il flusso di utenti di lingua anglofona potrà mettere alla prova le applicazioni pensate per l’appuntamento. Watson vs Turing IBM lo dice a chiare lettere: il problema del Test di Turing non si pone, almeno non in questa fase. Inutile infatti pensare a una macchina che si relazioni alla persona senza frizioni e senza tutta la ricchezza semantica che una relazione diretta richiede. L’Intelligenza artificiale non è dunque ancora arrivata al punto da rendere la macchina intelligente quanto l’uomo. Tuttavia se ci si chiede se Watson sarebbe in grado di superare il Test di Turing, ci si sta ponendo di fatto la domanda sbagliata. L’obiettivo di IBM, infatti, non è quello di sostituire l’uomo. Watson, anzi, intende presentarsi come il miglior complemento all’uomo stesso, potenziandone le capacità grazie a un ruolo simbiotico in perfetta complementarità con quella che è la natura umana. Alan Turing L’input e l’output rimangono nelle mani dell’utente, il quale ha inoltre il dovere di validare la bontà del processo effettuato dalla macchina. L’Intelligenza Artificiale di Watson non intende prevaricare l’uomo, insomma, ma esaltarne invece l’intelligenza. Sitografia: http://www.webnews.it/speciale/watson http://it.wikipedia.org/wiki/Intelligenza_artificiale 19 Intelligenza Artificiale Il termine Intelligenza Artificiale è stato coniato da John McCarthy della Stanford University durante uno storico simposio. L'Intelligenza Artificiale è una disciplina scientifica il cui scopo è studiare i meccanismi che sono alla base delle attività cognitive degli esseri umani come il ragionamento, la capacità di risolvere problemi, il linguaggio, etc. e l'eventuale loro riproduzione tramite programmi per computer. Tutto questo è nato dal fatto che molti scienziati considerano il pensiero umano come una forma di "calcolo" e che, quindi, è possibile riprodurlo con dei programmi per calcolatore. Anzi, alcuni di essi, credono che, in futuro, sarà possibile dotare un computer di un'intelligenza equivalente a quella umana. L'Intelligenza Artificiale classica è costituita da due discipline: la prima è l'intelligenza artificiale forte che ritiene che un calcolatore, dotato di programmi opportuni, possa essere dotato di un'intelligenza vera indistinguibile da quella umana. Alla base di questa convinzione vi è la teoria che il pensiero umano sia una forma di calcolo non troppo diversa da quella usata per risolvere un problema e quindi perfettamente riproducibile attraverso uno o più algoritmi; la seconda è l'intelligenza artificiale debole che sostiene che un elaboratore opportunamente programmato sia solo in grado di simulare alcuni dei processi mentali e non di riprodurli effettivamente. In tal caso un computer sembrerà possedere capacità intellettive ma in realtà eseguirà solamente una serie di operazioni pre-impostate che hanno lo scopo di fornire un risultato identico a quello che produrrebbe il cervello umano. Entrambe le discipline condividono alcuni concetti come il fatto che per riprodurre o simulare il comportamento intelligente sia necessario realizzare dei programmi in grado di elaborare delle informazioni. Recentemente è nata una nuova disciplina, chiamata connessionismo la quale sostiene che per 20 riprodurre o simulare il comportamento intelligente sia necessario replicare, tramite un elaboratore, il funzionamento del cervello umano a livello cellulare. In tal modo si replica il funzionamento dei singoli neuroni e si simulano le connessioni che trasmettono le informazioni fra un neurone e l'altro. Le applicazioni reali di questa tecnologia hanno dato origine alle reti neurali: sistemi in grado di evolversi e di apprendere in base agli stimoli a cui vengono sottoposti. Un'applicazione di Intelligenza Artificiale deve essere in grado di acquisire e rappresentare le informazioni (la conoscenza) relative al compito da eseguire e di elaborarle utilizzando meccanismi che possono sembrare intelligenti. L'immagazzinamento delle informazioni e la loro elaborazione avviene utilizzando i meccanismi tipici dell'intelligenza umana come la deduzione, l'inferenza, il ragionamento logico, la generazione e la valutazione di ipotesi e l'apprendimento. Nell'ambito dell'intelligenza artificiale si possono distinguere le seguenti sottoaree principali che prendono il nome di applicazioni di primo livello dell'IA: x comprensione del linguaggio naturale parlato e scritto; x manipolazione di oggetti; x visione e riconoscimento delle forme; x giochi (scacchi, dama,...); x dimostrazione di teoremi matematici non banali; x scrittura automatica di programmi per l'elaborazione delle informazioni. Esistono poi i temi centrali dell'Intelligenza Artificiale. Essi sono: x ragionamento comune; risoluzione di problemi; deduzione; x modelli e rappresentazione della conoscenza; x sistemi di programmazione e linguaggi per la realizzazione di sistemi intelligenti; x ricerca euristica. Quanto è naturale l’Intelligenza Artificiale? Lo scontro dialettico tra “naturale” e “artificiale” deve certamente le sue origini, anche se in modo indiretto, alla distinzione cartesiana tra res cogitans e res extensa: il filosofo francese partiva infatti dal presupposto che esistesse una differenza netta tra chi è in grado di pensare e tutto il resto dell’universo. Un simile approccio al problema porta certamente verso una concezione dell’attività mentale che è del tutto svincolata dai limiti della materia inerte: l’uomo, pur essendo fatto di atomi esattamente come una roccia, è “costretto” a possedere una sorta di vis viva che trasmuta la sua natura oggettivamente materiale in una omologa definibile solo in termini metafisici. Tutto ciò ha portato negli ultimi vent’anni ad un acceso dibattito tra coloro che sono del parere che è ontologicamente necessaria una distinzione tra mente e cervello e chi sostiene che ciò che noi ci ostiniamo a chiamare mente non è altro che il risultato dell’attività, reale e fisicamente analizzabile, del sistema nervoso centrale. Grazie alle moderne tecniche di brain imaging come la PET o la risonanza magnetica funzionale è stato possibile provare 21 sperimentalmente che determinate aree del cervello si attivano solo quando il soggetto in esame è sottoposto a particolari test; ad esempio, se si chiede di eseguire un calcolo numerico non troppo banale si evidenzia una spiccata attività bioelettrica nell’emisfero sinistro del cervello, mentre se la prova comporta la lettura mentale di un testo si vede come l’area di Wernicke, responsabile della decodificazione semantica, entri in azione, permettendo all’individuo di comprendere ciò che sta leggendo. Naturalmente è assurdo pensare che si possa effettuare una localizzazione esatta di ogni funzione cerebrale poiché, come avremo modo di vedere, la struttura stessa del cervello è tale da consentire una fusione di flussi informativi provenienti da sorgenti diverse. E’ proprio grazie a tale peculiarità che noi, ogni giorno, possiamo affrontare attività che scomposte in sotto-problemi risulterebbero proibitive anche per il più potente supercomputer. Un cervello “statico”, cioè fortemente localizzante, si troverebbe in estrema difficoltà ogniqualvolta si dovessero presentare alternative – funzionalmente e strutturalmente compatibili – alle strutture preimmagazzinate; per tentare di comprendere come ciò possa avvenire dobbiamo necessariamente andare indietro nel tempo e interpellare Immanuel Kant: fu proprio lui, infatti, il primo ricercatore a domandarsi come mai la rielaborazione mentale di un concetto fosse quasi del tutto indipendente dalla particolare esperienza che ci ha precedentemente condotti ad esso. Nella Critica della Ragion Pura Kant spiegava, senza fare riferimento alla posteriore psicologia cognitiva, il perché, ad esempio, l’idea di “casa” fosse svincolata dall’edificio in cui abito o da quello che osservo guardando fuori dalla finestra. La sua indagine partì dal presupposto che il pensiero di un oggetto non si forma a partire da una “catalogazione” di percezioni, ma piuttosto da una sintesi di un molteplice che scaturisce da una serie di informazioni in ingresso: la “casa” – intesa come concetto/oggetto – viene scomposta nelle sue parti peculiari e, una volta che l’idea ad essa collegata è divenuta sufficientemente stabile , il cervello ri-utilizza questi dati per poter “costruire” una casa basandosi sulle esperienze correnti o, anche solo sulla fantasia. Naturalmente Kant non 22 possedeva i mezzi di indagine necessari per potere, seguendo gli insegnamenti di Galileo, confermare sperimentalmente le sue ipotesi e di conseguenza si lasciò guidare solo dall’intelletto; oggi invece la situazione è stata chiarita e ad essa è stato dato il nome di “capacità di generalizzazione”. Se si chiedesse ad una persona se la sua intelligenza è naturale è ovvio che la risposta sarebbe certamente affermativa, ma se si chiedesse che cosa essa intenda per “naturale” si potrebbero collezionare così tante spiegazioni da poter compilare una nuova enciclopedia britannica... Ognuno di noi è convinto di essere un membro della natura, intendendo con ciò che il corpo e la mente si sono formati a partire da processi che non possono in alcun modo essere definiti artificiali. Questo è vero, tuttavia a noi interessa capire se può esistere una qualche distinzione tra un uomo e un’ipotetica macchina pensante: quali parametri bisogna prendere in considerazione ? E, soprattutto, a quali test è necessario sottoporre entrambe le parti ? Un primo approccio potrebbe essere quello di chiedere alla macchina se essa è naturale (ciò si rifà al famoso test di Turing), ma che valore potrebbe avere questa risposta ? Un eventuale “sì” o il suo contrario non ci illuminerebbero più di tanto; è ovvio che un computer è costruito dall’uomo, ma è altrettanto scontato che gli elettroni, i protoni e i neutroni che lo compongono sono uguali sia all’interno del suo microprocessore, sia nel cervello, nel cuore e nel fegato del soggetto umano: entrambi sono “costruiti” a partire dai medesimi elementi, ma, mentre la macchina è fredda e inespressiva, la persona manifesta caratteristiche che noi definiremmo “emozionali”. Ci si potrebbe allora chiedere se siano proprio le emozioni a fare la differenza, ma, pur rispettando coloro che pensano che esse siano una sorta di “ispirazione divina”, è giusto precisare che ciò che noi chiamiamo paura, ansia o felicità è traducibile in tutta una serie di percezioni-elaborazioni cerebrali-auto condizionamenti dovuti ai neurotrasmettitori prodotti dai neuroni e da alcuni ormoni secreti dalle ghiandole surrenali. In altre parole, l’emozione è uno stato interno che scaturisce a partire da una causa qualunque, ma che si sviluppa seguendo una sorta di copione che il nostro organismo conosce estremamente bene. Scartando, quindi, anche l’ipotesi dell’emozione non resta che rifarsi alle capacità intellettive pure, vale a dire alla logica, al pensiero astratto e, in ultima analisi, anche alle capacità artistiche. Agli albori dell’intelligenza artificiale, grandi pionieri come Marvin Minsky proposero quella che per molti anni a seguire fu la “metodologia” da adottare per affrontare problemi di particolare complessità; in particolare la loro idea si basava sul presupposto che l’aggettivo “artificiale” fosse riferito non tanto all’intelligenza della macchina, ma piuttosto al fatto che un bravo programmatore riuscisse a scrivere algoritmi innovativi e capaci di far fronte a situazioni computazionalmente molto pesanti. In pratica, seguendo questo filone, la risposta alla nostra domanda iniziale non può che essere: “L’intelligenza artificiale è naturale tanto quanto lo è un computer”, con la differenza che, mentre l’uomo è capace di astrarre ma non di calcolare 23 velocemente, il calcolatore, opportunamente predisposto dall’operatore, è virtualmente in grado di assolvere ad entrambi i compiti. Il problema principale, tuttavia, nasce proprio dal fatto che senza l’ausilio dell’esperto umano non è praticamente possibile effettuare quella transizione di intelligenza che può migliorare il comportamento delle macchine automatiche. Fortunatamente la ricerca si è spinta oltre il vicinissimo confine tracciato dai padri dell’intelligenza artificiale detta ormai “classica” e la cosa più stupefacente è stata non tanto la variazione di strategia, ma piuttosto l’idea che un calcolatore può divenire più intelligente solo se imita operazionalmente e strutturalmente gli organi animali preposti a svolgere tutte le svariate funzioni di controllo ed elaborazione. In parole povere, a partire dai risultati della neurofisiologia, si è pensato di implementare particolari strutture (le reti neurali) che avessero un funzionamento analogo a quello delle omologhe naturali; in questo modo – che noi non descriveremo per mancanza di spazio – fu immediato constatare che il ruolo del programmatore non era più centrale, ma andava assumendo una posizione sempre più marginale per lasciare spazio ad un’evoluzione interna semi-autonoma guidata solo dagli obiettivi che si desiderava raggiungere. Ad esempio, con una rete di 20 neuroni, è possibile far sì che essa apprenda (apprendimento inteso come modificazione di alcuni parametri caratteristici) a riconoscere le lettere dell’alfabeto e sia in grado di riconoscere con estrema facilità un carattere distorto. Ormai molti software per personal computer si basano su questo approccio, basti pensare ai cosiddetti OCR, ovvero a quei programmi che sono in grado di convertire un’immagine contenente del testo in un documento elettronico, oppure ai sofisticati strumenti utilizzati dalla polizia per confrontare un volto sospetto con quelli contenuti nella loro banca dati; questi naturalmente sono solo banali esempi, ma in realtà l’intelligenza artificiale basata sul connessionismo è ormai così diffusa da essere un requisito essenziale per ogni programmatore di sistemi intelligenti che si rispetti. E’ chiaro che adesso la risposta alla domanda inizia lentamente a volgere verso un’affermazione positiva, ma ancora non è chiaro perché un semplice cambiamento di rotta abbia determinato una rivoluzione la cui portata è comprensibile solo agli scrittori di fantascienza Sitografia http://www.portalefilosofia.com/intelligenzaartificiale.php 24