INTELLIGENZA ARTIFICIALE TEST DI TURING Come potremo certificare che una macchina “pensi”? La macchina pensa quando agisce in modo indistinguibile da come agirebbe una mente umana (approccio operazionale). Limitiamoci al pensiero non ai movimenti e alle azioni vere e proprie. Non preoccupiamoci neanche dell'aspetto. In altri termini dichiareremo un macchina capace di pensare se ponendogli una serie di domande otterremo le stesse risposte che ci aspetteremmo da un essere umano (questo test è il test di Turing). [ Questo punto di vista è stato sostenuto dal matematico Alan Turing nel 1950 in un articolo intitolato “Computing Machinery and Intelligence” nella rivista filosofica Mind ] Alan Turing (1912 -1954) Come si esegue un Test di Turing? La macchina sotto esame si nasconde in una stanza con un essere umano. Dall'esterno un essere umano pone domande e ottiene risposte che appaiono scritte su un monitor. Se non riesce a distinguere quale delle due serie di risposte provengono dalla macchina, la macchina ha superato il Test. Problema Supponiamo che macchine in grado di superare il test di Turing siano state costruite. Saremo allora certi di poter dire che tali macchine “pensano”, “comprendono”, “sono coscienti”? Eppure noi attribuiamo queste qualità ai nostri simili a partire proprio da una conversazione. In tal senso il test di Turing acquisisce una notevole forza. Il cardine della questione mi sembra “la coscienza” Problema 2 Il punto di vista operazionale fornirà davvero un insieme di criteri ragionevole per giudicare la presenza o l'assenza di qualità mentali in una macchina? Posizione di Roger Penrose: Se la macchina fosse in grado di rispondere a tutte le domande rivoltegli, ingannando in modo completo e costante un sensibile interrogante, allora sarei propendso a congetturare che la macchina sia davvero capace di pensare, sentire, ecc... Roger Penrose (1931) Fisico matematico che ha offerto notevoli contributi nell'ambito della Relatività Generale e della Tassellazione del piano. Il criterio per distinguere una macchina da un essere umano (dalla Quinta Parte) Discorso sul Metodo; Descartes Qui in particolare mi ero fermato per far vedere che se ci fossero macchine con organi e forma di scimmia o di qualche altro animale privo di ragione, non avremmo nessun mezzo per accorgerci che non sono in tutto uguali a questi animali; mentre se ce ne fossero di somiglianti ai nostri corpi e capaci di imitare le nostre azioni per quanto è di fatto possibile, ci resterebbero sempre due mezzi sicurissimi per riconoscere che, non per questo, sono uomini veri. In primo luogo, non potrebbero mai usare parole o altri segni combinandoli come facciamo noi per comunicare agli altri i nostri pensieri. Perché si può ben concepire che una macchina sia fatta in modo tale da proferire parole, e ne proferisca anzi in relazione a movimenti corporei che provochino qualche cambiamento nei suoi organi; che chieda, ad esempio, che cosa si vuole da lei se la si tocca in qualche punto, o se si tocca in un altro gridi che le si fa male e così via; ma non si può immaginare che possa combinarle in modi diversi per rispondere al senso di tutto quel che si dice in sua presenza, come possono fare gli uomini, anche i più ottusi. Link http://www.turing.org.uk/turing/scrapbook/test.htm l http://www.macrovu.com/CCTGeneralInfo.html INTELLIGENZA ARTIFICIALE FORTE Nella filosofia della intelligenza artificiale l'intelligenza artificiale forte è l'idea che opportune forme di intelligenza artificiale possano veramente ragionare e risolvere problemi; l'intelligenza artificiale forte sostiene che è possibile per le macchine diventare sapienti o coscienti di sé, senza necessariamente mostrare processi di pensiero simili a quelli umani. I l termine intelligenza artificiale forte (AI forte, in inglese strong AI) fu originalmente coniato da John Searle, che scrisse: « According to strong AI, the computer is not merely a tool in the study of the mind; rather, the appropriately programmed computer really is a mind » John Searle « Secondo l'intelligenza artificiale forte, il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente » Da Wikipedia -italiano See also: philosophy of artificial intelligence and Chinese room The term "strong AI" was adopted from the name of a position in the philosophy of artificial intelligence first identified by John Searle as part of his Chinese room argument in 1980. He wanted to distinguish between two different hypotheses about artificial intelligence: An artificial intelligence system can think and have a mind. An artificial intelligence system can (only) act like it thinks and has a mind. The first one is called "the strong AI hypothesis" and the second is "the weak AI hypothesis" because the first one makes the stronger statement: it assumes something special has happened to the machine that goes beyond all its abilities that we can test. Searle referred to the "strong AI hypothesis" as "strong AI". This usage, which is fundamentally different than the subject of this article, is common in academic AI research and textbooks. Wikipedia Inglese Continua… The term "strong AI" is now used to describe any artificial intelligence system that acts like it has a mind, regardless of whether a philosopher would be able to determine if it actually has a mind or not. Dijkstra has been quoted as saying, "The question of whether a computer can think is no more interesting than the question of whether a submarine can swim." As Russell and Norvig write: "Most AI researchers take the weak AI hypothesis for granted, and don't care about the strong AI hypothesis."[59] AI researchers are interested in a related statement (that some sources confusingly call "the strong AI hypothesis"): An artificial intelligence system can think (or act like it thinks) as well as or better than people do. This assertion, which hinges on the breadth and power of machine intelligence, is the subject of this article. Wikipedia Inglese Intelligenza Artificiale Forte L’attività mentale è semplicemente l’esecuzione di qualche sequenza ben definita di operazioni, cioè l’esecuzione di un algoritmo. Esempio “algoritmo del termostato”: se la temperatura è maggiore o uguale di quella voluta interrompe il circuito che attiva il riscaldamento se è inferiore non interrompe il circuito che attiva il riscaldamento. L’Attività mentale di un cervello umano dovrebbe essere qualcosa di molto più complicato dell'algoritmo appena presentato, ma secondo la concezione dell’IA Forte sarebbe comunque un algoritmo. La differenza tra un termostato e una mente umana consisterebbe allora solo nella complicazione molto maggiore dell’algoritmo eseguito dal cervello. Se esiste un algoritmo di questo genere per il cervello allora in linea di principio lo si potrebbe far girare in un computer. I sostenitori dell’intelligenza artificiale Forte direbbero allora che, dovunque l’algoritmo venisse fatto girare, esso sperimenterebbe sentimenti, avrebbe una coscienza, sarebbe una mente. La Stanza Cinese di Searle La questione è: un computer può comprendere una storia? Noi possiamo raccontargliela, fargli domande a proposito della storia. Domande a cui il computer, magari, risponderà correttamente. Ma questo significherà che il computer ha veramente compreso ciò che gli abbiamo detto? (algoritmo di Schank) Per dimostrare che non è così, Searle ha ideato il concetto di “stanza cinese”: 1.le storie devono essere raccontate in cinese; 2. tutte le operazioni dell'algoritmo del computer (che dovrebbe portare a capire una storia in cinese) vengano fornite come un insieme di istruzioni in inglese; 3. Searle stesso esegue le istruzioni scritte in inglese per manipolare i simboli cinesi; 4.Le sequenze di simboli che rappresentano la storia e, poi, le domande, sono introdotte nella stanza attraverso una piccola fessura e anche le risposte passano attraverso la fessura (e sono del tipo sì o no); Searle precisa di non sapere una sola parola di cinese, quindi non comprende una parola del significato delle storie. Eppure eseguendo correttamente le operazioni indicate sul manuale di istruzione risponderebbe correttamente alle domande sulla storia! CONCLUSIONE di Serale: La semplice esecuzione di un algoritmo NON implica che ci sia stata comprensione. E se, nell’esperimento della stanza cinese, sostituissimo Searle con l’intera popolazione dell’India? Certamente i singoli indiani non capirebbero la storia. Ma non vi viene da pensare che i singoli indiani assomiglierebbero ai singoli neuroni del cervello? E i singoli neuroni del cervello non capiscono la storia cinese esattamente come non la capiscono gli indiani. Perché allora dovremmo attenderci che gli indiani la capiscano Hardware, Software e macchine universali. Hardware: dispositivi fisici e materiali che costituiscono un computer Software: programmi che possono essere fatti girare sul computer Fu una grande scoperta di Alan Turing l’aver notato che una macchina il cui software abbia superato un certo livello di complicazione sia equivalente a una qualsiasi altra macchina analoga. L’equivalenza tra macchine va intesa nel senso che se abbiamo due macchine A e B, è possibile dotare la macchina A di un software che la faccia agire esattamente come agirebbe la macchina B (e viceversa). [macchine di questo genere, in grado di emulare qualsiasi altra macchina, sono dette macchine universali] Per l’I.A. Forte allora: L’algoritmo che simula la mente sarebbe una mente cosciente. L’hardware su cui si fa girare l’algoritmo che simula la mente non è rilevante (in base all’equivalenza di Turing tra macchine universali). In un certo senso le idee di Turing sulle macchine universali danno forza e sostengono l’approccio forte all’intelligenza artificiale, spostando il peso e l’importanza sull’algoritmo piuttosto che sulla macchina fisica (hardware). Teletrasporto. 1) Cervello dato da configurazione delle particelle che lo compongono. La configurazione determina lo stato mentale (nella configurazione sta l’informazione della individualità di un cervello) 2) Se riesco a creare una copia perfetta della configurazione (stesse particelle negli stessi stati) ho ricreato lo stesso cervello magari in una posizione diversa. 3) Distruggo l’originale e la ‘copia’ dovrebbe essere indistinguibile dall’orignale (cioè abbiamo teletrasportato anche la coscienza).