Università degli Studi di Genova Facoltà di Scienze della Formazione Corso di Laurea in Scienze della Comunicazione Tesi triennale METODI E STRUMENTI DI SUPPORTO AI PROCESSI DI APPRENDIMENTO IN RETE Candidato: Mario Vallarino Relatore: Prof. Luigi Sarti Anno Accademico 2006-2007 INDICE INTRODUZIONE 2 1. L’APPRENDIMENTO 1.1 Il comportamentismo 1.1.1 Il condizionamento classico 1.1.2 Connessionismo ed istruzione programmata 1.1.3 Apprendimento latente e ruolo delle variabili intermedie 1.2 Il cognitivismo 1.2.1 Le principali teorie ed autori cognitivisti 1.3 Il costruttivismo 1.3.1 Due significativi “precursori”: Piaget e Vygotskij 1.3.2 I concetti di base del costruttivismo 1.3.3 Gli sviluppi del costruttivismo 2. FORMAZIONE A DISTANZA ED E-LEARNING 2.1 Lo sviluppo della formazione a distanza 2.2 Dalla formazione a distanza all’apprendimento in rete 2.2.1 L’apprendimento individuale 2.2.2 L’apprendimento assistito 2.2.3 L’apprendimento reciproco 2.2.4 L’apprendimento collaborativo 2.3 Alcune parziali conclusioni sulla formazione a distanza 3 3. LA COMUNICAZIONE MEDIATA DA COMPUTER (CMC) 3.1 Le teorie della comunicazione 3.1.1 Il modello linguistico di Jakobson 3.1.2 Il modello psico-sociale di Anzieu e Martin ed i modelli interlocutori 3.2 Caratteristiche principali della CMC 3.3 Alcune teorie sulla CMC 4. L’APPRENDIMENTO COLLABORATIVO IN RETE 4.1 La prospettiva CSCL 4.2 Le comunità virtuali 4.3 Le comunità di pratica 4.4 Le comunità virtuali di apprendimento 5. GESTIRE LA DIDATTICA IN RETE 5.1 I Learning Management System (LMS) 5.1.1 Modello di formazione in autoapprendimento 5.1.2 Modello di formazione assistito 5.1.3 Modello di formazione collaborativo 5.1.4 Alcune considerazioni sulla scelta della piattaforma e-learning 5.2 Il riuso dei materiali didattici: i Learning Object (LO) 5.2.1 Alcuni esempi di LO 5.2.2 Indicizzazione e standardizzazione 5.2.3 I limiti dell’approccio oggettivista 5.2.4 I LO in chiave costruttivista: quali prospettive di standardizzazione? 4 INTRODUZIONE Una delle applicazioni Internet che caratterizza l’attuale società postfordista è quella dell’e-learning, che usando un linguaggio di senso comune può essere definito come “la formazione che avviene tramite il web”. Questo tipo di formazione risponde alle esigenze della società contemporanea di tenere continuamente aggiornati i saperi e le competenze dei propri membri, per non trovarsi in condizioni di inferiorità sullo scenario dell’economia globalizzata. Come esempio dell’importanza di questo tipo di formazione, si può dire che nel bilancio USA il totale della spesa destinata alla formazione universitaria è uguale al totale della spesa investita nella formazione continua dei cittadini [Banzato, 2003]. In Europa, ed in Italia, si riscontra un certo ritardo nell’adeguamento dell’offerta formativa alle esigenze della formazione continua e dell’Information Communication Technology (ICT). Tra le cause, si può annoverare una percezione diffusa dell’e-learning come un semplice trasferimento in rete del modello di lezione in presenza [Calvani, 2005]. In realtà la formazione on-line assume varie sfaccettature, e accanto a modalità erogative dei corsi, che si basano sul modello tradizionale di didattica incentrato sullo studio individuale e sui test di valutazione, si assiste all’affermazione di modelli innovativi, nei quali la conoscenza individuale viene considerata come il risultato di una costruzione collaborativa, frutto delle interazioni sociali instaurate fra i partecipanti al processo formativo. L’obiettivo di questo lavoro è quello di fornire una panoramica dell’attuale formazione in rete, prendendone in esame i presupposti teorici, distinguendo fra i vari approcci metodologici, 5 esaminandone le criticità e le modalità di espressione, soffermandosi infine sugli aspetti pratici sui quali verte l’odierna discussione. Nel primo capitolo vengono dunque prese in esame le teorie dell’apprendimento, facenti capo alle grandi scuole psicologiche del Novecento: si passa quindi dagli studi comportamentisti, che associano l’apprendimento umano al processo stimolo-risposta che avviene negli animali, al cognitivismo, che concepisce il funzionamento della mente umana come simile a quello dei calcolatori, e vede l’apprendimento come un processo di elaborazione delle informazioni; infine si parla del costruttivismo, che partendo dagli studi di Piaget e Vygotskij elabora una visione dell’apprendimento considerato come costruzione di conoscenza, che si realizza attraverso dinamiche collaborative ed è condizionata da fattori culturali. Il secondo capitolo descrive lo sviluppo della formazione a distanza (FaD), che viene generalmente suddiviso in tre generazioni [Trentin, 2000]. Viene quindi esaminata la tassonomia delle applicazioni FaD che fanno uso di tecnologie di rete, dalle modalità in autoistruzione fino a quelle che mettono in pratica i principi dell’apprendimento collaborativo, passando per le modalità intermedie. Nel terzo capitolo viene preso in esame l’aspetto probabilmente più critico dell’uso delle ICT nella formazione in rete: la comunicazione. Viene descritto in primo luogo il Modello generale della comunicazione elaborato da Roman Jakobson, per poi passare ad altri modelli e teorie che affrontano il tema della Comunicazione Mediata da Computer (CMC). Il quarto capitolo tratta le modalità più innovative della formazione in rete: la prospettiva di ricerca del Computer Supported Collaborative Learning (CSCL), le comunità di pratica, le comunità di apprendimento in rete. Nel quinto e ultimo capitolo si considerano due questioni pratiche, cruciali nell’odierna formazione in rete: i criteri di scelta della piattaforma e-learning da utilizzare per gestire il corso, con annesse alcune riflessioni inerenti l’interrogativo, sempre presente quando si parla di software, se affidarsi a soluzioni commerciali oppure open source; il riuso dei materiali didattici, un argomento che comprende molteplici aspetti, come l’indicizzazione, la standardizzazione e l’ancora poco praticata connotazione pedagogica dei materiali. 6 1. L’APPRENDIMENTO L’apprendimento è stato definito dallo psicologo Hernest Hilgard come un processo intellettivo attraverso cui l’individuo acquisisce conoscenze sul mondo che, successivamente, utilizza per strutturare ed orientare il proprio comportamento in modo duraturo [citato in Coinu, 2006]. Nel corso del tempo la disciplina della psicologia si è interessata all’apprendimento, postulando teorie che hanno contribuito agli avvicendamenti avvenuti fra i tre grandi paradigmi della psicologia: comportamentismo, cognitivismo e costruttivismo. 1.1 Il comportamentismo Fino all’Ottocento la psicologia veniva intesa come la “disciplina che ha per oggetto l’anima”, ma con l’analisi basata sull’esperienza introspettiva praticata da Wilhelm Wundt la disciplina iniziò ad assumere una connotazione scientifica, attraverso la sistematizzazione delle ricerche svolte fino ad allora. Gli sviluppi successivi superarono il metodo introspettivo, portando dallo studio della coscienza allo studio del comportamento osservabile. La psiche viene qui scomposta nei suoi contenuti elementari come: emozione, abitudine, apprendimento, personalità; le teorie su questi aspetti della psiche vengono postulate attraverso lo studio dei comportamenti osservabili. La prima formulazione teorica del comportamentismo viene attribuita a John B. Watson, che nel 1913 pubblica l’articolo La psicologia così come la vede il comportamentista, ma diversi autori hanno dato importanti contributi allo sviluppo di questo paradigma. 7 1.1.1 Il condizionamento classico Ivan Pavlov (1849-1936) può essere considerato il primo comportamentista che formula una teoria dell’apprendimento. Studiando la digestione nei cani, Pavlov nota come l’animale attivi il processo di salivazione prima di avere il cibo in bocca. I successivi esperimenti sono celeberrimi, e si possono suddividere in queste fasi: 1. alla presentazione di uno stimolo incondizionato (SI, ossia uno stimolo come il cibo, che attiva nell’animale il riflesso innato della salivazione), il cane presenta una risposta incondizionata (RI, si attiva nell’animale una salivazione abbondante); 2. contemporaneamente alla presentazione del cibo (SI) viene presentato uno stimolo neutro (SN, l’accensione di una luce): come nel caso precedente, il cane saliva; 3. se si ripete per un numero sufficiente di volte la sequenza 2 e, successivamente, si elimina la presentazione dello stimolo incondizionato (il cibo), il cane saliverà alla sola presentazione dello stimolo neutro (cioè alla sola accensione della luce); la risposta del cane diviene qui una risposta condizionata (RC), che si verifica grazie al condizionamento effettuato attraverso la combinazione di stimoli incondizionati e neutri. Avviene quindi un apprendimento, che viene perduto se non si presenta più all’animale la combinazione di stimolo incondizionato e stimolo neutro. Nella fase comportamentista delle teorie dell’apprendimento gli studi di Pavlov vengono generalizzati anche al comportamento umano, basandosi sull’assunto che i processi di acquisizione dei riflessi condizionati siano comuni alle specie animali e all’uomo. 1.1.2 Connessionismo ed istruzione programmata Gli studi di Pavlov sul condizionamento classico sono utili alla comprensione dei meccanismi dell’apprendimento, ma diventano di scarsa rilevanza applicativa quando l’obiettivo dell’insegnamento è che l’essere vivente acquisisca la capacità di fare qualcosa che non aveva mai fatto prima. Per esempio, nessun condizionamento di tipo pavloviano potrebbe indurre una foca a tenere un pallone in equilibrio sul naso, che equivarrebbe a tenere un comportamento innaturale. Contemporaneo di Pavlov, ma operante nel nordamerica, Edward Thorndike studia i processi di apprendimento degli uomini e degli animali. La situazione sperimentale ideata da Thorndike prevede un gatto affamato chiuso in una gabbia con, al di fuori della gabbia, un pezzo di pesce: il gatto si muove casualmente nella gabbia, finché preme il pedale che ne aziona l’apertura e può uscire a mangiare il pesce. 8 Rimesso nella gabbia più volte sempre affamato, il gatto tende ad impiegare sempre meno tempo per trovare il pedale che apre la porta. Thorndike ricava da questo esperimento la legge dell’effetto: fra tutte le risposte a caso fornite da un organismo, vengono selezionate solo quelle che hanno conseguenze positive. L’apprendimento si rivela in questa fase come un processo che avviene in seguito a prove ed errori. Secondo Thorndike la base dell’apprendimento è costituita dal collegamento più o meno forte che si stabilisce fra l’impressione sensoriale e l’azione: da qui il termine di connessionismo attribuito alla sua concezione della psicologia. Nel secolo scorso Burrhus Skinner (1904-1990), considerato l’esponente più noto del comportamentismo, mette in atto una semplificazione degli esperimenti di Thorndike: in una gabbia priva di arredamento viene rinchiuso un topo affamato che, nella sua attività esplorativa, preme casualmente una leva che serve a far entrare nella gabbia una pallina di cibo. Il topo, dopo una serie di pressioni casuali sulla leva, impara a premerla volontariamente per ottenere il cibo. Questo tipo di comportamento viene chiamato da Skinner condizionamento operante, che consiste in questo: la probabilità che una certa azione (o risposta) venga ripetuta dipende dalle sue conseguenze. Skinner distingue fra: • risposte suscitate da stimoli conosciuti (come negli studi di Pavlov): vengono chiamate rispondenti; • risposte che non hanno relazione con stimoli conosciuti: vengono chiamate operanti. Di conseguenza, il condizionamento relativo al comportamento rispondente è di tipo S, in quanto correlato agli stimoli; quello relativo al comportamento operante è di tipo R, e dipende dalla risposta. Skinner applica i principi del condizionamento operante all’apprendimento umano, e li presenta nel suo famoso articolo del 1954 The science of learning and the art of teaching. In questo lavoro e in quelli successivi Skinner presenta l’Istruzione programmata, una tecnologia dell’insegnamento che punta a realizzare l’apprendimento degli studenti sottoponendo loro concetti via via sempre più complessi, rinforzando esclusivamente i risultati positivi ottenuti fino ad arrivare all’apprendimento compiuto. Con questo metodo, i contenuti vengono somministrati agli studenti in brevi sequenze logiche (frames), e vengono seguiti da un quesito: se lo studente fornisce la risposta esatta il rinforzo consiste nel passaggio al frame successivo; se la risposta è sbagliata si ritorna alla fruizione del frame o viene dato allo studente un feedback correttivo, in modo da permettergli, attraverso ulteriori tentativi, di arrivare alla risposta esatta e passare alla fase successiva. Con l’istruzione programmata nasce una nuova disciplina, chiamata Instructional System Design [Santilli, 2006]. 9 1.1.3 Apprendimento latente e ruolo delle variabili intermedie Parecchio tempo prima che Skinner pubblichi il suo famoso articolo, di stampo comportamentista puro, sull’istruzione programmata, Edward Tolman (1886-1959) elabora teorie che possono essere considerate di passaggio dal modello comportamentista a quello cognitivista. Tolman studia il comportamento di tre gruppi di topi all’interno di un labirinto: il primo gruppo riceve rinforzo immediato al completamento del labirinto; il secondo non ne riceve mai; il terzo lo riceve solo a partire dal dodicesimo giorno di prove. Tolman rileva che il gruppo senza rinforzo, alla fine della sperimentazione, non impara a percorrere il labirinto senza sprecare tempo ed energie in percorsi inutili; ma si accorge anche che, alla conclusione dell’esperimento, non vi è differenza di prestazioni nel completamento del labirinto da parte degli altri due gruppi, quello a rinforzo immediato e quello a rinforzo posticipato. L’unica differenza fra i due gruppi a cui viene somministrato il rinforzo è che il gruppo a rinforzo posticipato inizia a percorrere efficientemente il labirinto solamente quando inizia a ricevere del cibo. Come spiegazione di questo fenomeno Tolman introduce il concetto di apprendimento latente, in base al quale l’apprendimento avviene anche in mancanza di rinforzo, ma esso si manifesta in una prestazione corretta esclusivamente in presenza del rinforzo stesso. L’apprendimento qui si configura nei termini di raggiungimento di un obiettivo, e richiede l’introduzione di concetti quali scopo, aspettativa, mappa cognitiva (la consapevolezza della relazione esistente fra un certo tipo di ambiente e ciò che vi accade all’interno). Queste variabili entrano in gioco nel determinare il comportamento e vengono definite da Tolman variabili intermedie. Gli studi di Tolman, pur rimanendo di impostazione comportamentista, si distaccano da tale visione perché non riducono il comportamento solo ai modelli del condizionamento, ma ne basano l’organizzazione sul ruolo delle variabili intermedie e dell’apprendimento latente, anticipando la visione cognitivista. 1.2 Il cognitivismo Gli studi sulle variabili intermedie di Tolman non furono gli unici a portare ad un cambio di paradigma nelle teorie dell’apprendimento: diversi studiosi provenienti da discipline differenti diedero fondamentali contributi in tale direzione. Negli anni trenta del Novecento il matematico inglese Alan Turing inventa la macchina che porta il suo nome, in grado di svolgere qualsiasi calcolo esprimibile in codice binario. Turing stesso si pone 10 il problema di fare confronti fra le prestazioni di tale macchina e quelle dell’essere umano, e lo fa in questi termini: “ se un gruppo di giudici, cui vengono presentate delle prestazioni, come ad esempio la soluzione di un problema, parte delle quali sono state prodotte da soggetti umani e parte dalla macchina, non è in grado di discriminare quali prestazioni sono state prodotte dagli esseri umani e quali dalla macchina, allora si può dire che la prestazione della macchina equivale alla prestazione umana” [citato in Mecacci, 2001]. Nel 1943 il neurofisiologoWarren McCulloch e il matematico Walter Pitts osservano che l’attività neurale può essere descritta con la stessa logica con cui funzionano i calcolatori: risulta quindi appropriato vedere il cervello come un computer molto potente. Questi sviluppi del sapere umano, assieme alle insufficienze teoriche del comportamentismo nello spiegare il comportamento e l’apprendimento, inducono i ricercatori ad interessarsi di tematiche in precedenza non considerate perché ritenute irrilevanti o metodologicamente fuorvianti. Queste tematiche sono: il linguaggio, la motivazione, il pensiero, le emozioni e la percezione. Molto importanti sono anche le ricerche del psico-fisiologo canadese Donald Hebb, il quale si interessa delle variabili intervenienti, cioè tutti quei procedimenti mentali che, nell’individuo, si interpongono fra lo stimolo e la risposta. Egli tenta inoltre di spiegare questi processi in termini neurofisiologici, inaugurando la tradizione cognitivista di schematizzare l’attività del sistema nervoso ricorrendo a modelli caratteristici di altre discipline, come l’informatica o le telecomunicazioni. 1.2.1 Le principali teorie ed autori cognitivisti La consacrazione della visione cognitivista avviene nel 1956, al Symposium on Information Theory tenuto al Massachussets Institute of Technology, dove vengono presentate tre importanti relazioni, che segnano il passaggio dal paradigma comportamentista a quello cognitivista: dallo studio del comportamento che considera la mente come una black box -il cui funzionamento è irrilevante- si passa allo studio del cervello umano come elaboratore di informazioni. L’analogia fra l’elaborazione dell’informazione nei calcolatori e nell’uomo viene sviluppata da George Miller, il quale nel 1960 pubblica Piani e struttura del comportamento. In questa ricerca Miller, assieme ad altri due studiosi, sostiene che il comportamento umano ha origine nella rappresentazione che la mente esegue del mondo esterno, organizzando dei piani che funzionano in base ad un meccanismo di feedback chiamato TOTE (Test-Operate-Test-Exit), descrivibile in quattro fasi: 1. Test: prima di compiere un’attività, si verifica che gli obiettivi posti siano congrui con la situazione dell’ambiente in cui si va ad agire. 11 2. Operate: si agisce, o si modificano i propri obiettivi allineandoli alle caratteristiche dell’ambiente. 3. Test: si verifica se le azioni intraprese hanno avuto i risultati desiderati. 4. Exit: se i risultati sono soddisfacenti il processo si conclude, diversamente si ritorna alla fase Operate. Un altro importante studioso, Jerome Bruner, nel suo libro Il pensiero del 1956, vuole dimostrare attraverso dati sperimentali che i soggetti non accoppiano meccanicamente determinate risposte ad altrettanto determinati stimoli, ma invece tendono ad inferire quali siano i meccanismi di risoluzione dei problemi e ad applicarli in contesti differenti. Una sintesi dei risultati conseguiti dalla ricerca ispirata alla nuova prospettiva cognitivista si deve a Ulric Neisser, che nel suo lavoro Psicologia cognitiva del 1967 sottolinea l’importanza della metafora della mente come calcolatore e descrive come la mente elabora le informazioni provenienti dall’ambiente esterno. Nel 1977 Peter Lindsay e Donald Norman pubblicano il primo manuale di psicologia cognitivista intitolato Human information processing (H.I.P.). Gli studi intrapresi dagli psicologi facenti capo alla teoria H.I.P. hanno portato alla realizzazione di modelli, consistenti in reti semantiche, frames e regole di produzione, che hanno portato ad un notevole sviluppo nella disciplina dell’ Intelligenza Artificiale [Varisco, 1995]. Dal punto di vista delle tecnologie didattiche il cognitivismo H.I.P. ha contribuito alla realizzazione di sistemi intelligenti tesi a riprodurre, nel discente, conoscenze ed abilità esperte in domini specifici, per mezzo dell’attivazione di strategie di dialogo fra lo studente ed il sistema artificiale, che ha il compito di gestire l’interazione [ibidem]. 1.3 Il costruttivismo 1.3.1 Due significativi “precursori”: Piaget e Vygotskij Nel processo che ha portato alla visione costruttivista dell’apprendimento va inserita l’opera di due psicologi che hanno dato contributi fondamentali: Jean Piaget (1896-1980) e Lev Vygotskij (1896-1934). Piaget si è occupato di cercare la natura della conoscenza, così come si forma nello sviluppo dell’individuo, riconoscendo in essa la matrice biologica. Secondo Piaget l’individuo è dotato di una organizzazione cognitiva che evolve la sua struttura grazie all’adattamento che l’individuo opera verso l’ambiente in cui si trova inserito. L’adattamento all’ambiente prevede non solo l’assimilazione dei nuovi stimoli allo schema cognitivo preesistente, ma anche la riconfigurazione di quest’ultimo in adattamento ai nuovi stimoli. Piaget definisce tale riconfigurazione con il termine accomodamento. L’intelligenza diventa con Piaget un processo 12 organizzativo autoregolantesi, nel quale l’impulso all’autoregolazione arriva dal conflitto che si crea fra i nuovi stimoli e le strutture preesistenti. Lo sviluppo cognitivo così concepito si configura come universale, logico, a-contestuale [Varisco, 2002]; va riconosciuto a Piaget il merito di aver messo in evidenza il ruolo attivo del soggetto nella costruzione della sua organizzazione cognitiva, ed il limite di non tenere conto dei fattori culturali nello sviluppo dell’individuo. Vigotskij è stato il maggiore esponente della scuola psicologica socio-culturale sovietica, sviluppatasi nel primo Novecento. Egli sistematizza gli studi di questa scuola nella sua opera Studi sulla teoria del comportamento del 1930, nella quale vengono poste a confronto le funzioni psichiche ed il comportamento di primati, bambini ed esseri umani adulti. Vygotskij conclude che i processi fisiologici come i riflessi condizionati sono comuni sia alle specie animali che all’uomo, con la differenza fondamentale che negli animali questi processi sono le unità di base per il comportamento, mentre nell’uomo rappresentano soltanto i punti di partenza dei processi di comportamento ed apprendimento. Inoltre, a differenza degli animali, nelle interazioni con l’ambiente gli esseri umani si avvalgono di strumenti, che possono essere sia utensili che segni linguistici. In Pensiero e linguaggio del 1934 Vygotskij ha modo di chiarire la sua posizione nei confronti di questi due oggetti di studio: essi hanno due origini genetiche differenti ed entrano in interazione solamente dopo i due anni, quando il linguaggio inizia a diventare sia strumento di comunicazione delle proprie idee che strumento di regolazione del proprio comportamento, a seguito dell’elaborazione di regole e strategie. In questo processo, l’interazione con altri individui, e con gli adulti in particolare, assume importanza decisiva, permettendo l’acquisizione di funzioni intellettive che altrimenti non potrebbero svilupparsi. Qui Vygotskij introduce il concetto di zona di sviluppo prossimale, ossia quell’area cognitiva di supporto esperto fornito dall’adulto nella quale il bambino può spingersi oltre il suo livello di conoscenza attuale [Coinu, 2006] . Come sottolinea Bianca Maria Varisco [2002] , il merito maggiore di Vygotskij è forse quello di aver riconosciuto allo sviluppo filo-ontogenetico cognitivo umano non solo una matrice biologica, ma soprattutto una specifica matrice storico-culturale. Egli considera quindi la relazione fra soggetto ed ambiente come mediata dalla cultura e dai suoi sistemi simbolici, in polemica quindi con Piaget, per il quale questa relazione è diretta e spontanea. Vygotskij sostiene inoltre che l’istruzione efficace è quella che anticipa lo sviluppo, colmando la cosiddetta zona di sviluppo prossimale: nel momento in cui l’individuo, attraverso l’aiuto degli altri, cerca di risolvere un problema che non sarebbe in grado di affrontare da solo, egli si appropria di nuovi strumenti 13 cognitivi, che gli permetteranno in futuro di affrontare autonomamente i problemi che, fino a quel momento, richiedevano l’assistenza altrui. 1.3.2 I concetti di base del costruttivismo Piaget è stato forse il primo a parlare di una mente costruttrice di significati, ma molti sono gli autori che hanno contribuito, e tuttora contribuiscono, allo sviluppo di questa prospettiva. In generale si può affermare che la visione costruttivista non considera la realtà come qualcosa di oggettivo, indipendente da chi ne fa esperienza, bensì è il soggetto stesso che la crea, partecipando in maniera attiva alla sua costruzione. Viene messa in discussione l’esistenza di una conoscenza oggettiva che rappresenti fedelmente il mondo esterno all’osservatore, anzi è proprio quest’ultimo, alla luce delle sue esperienze, interazioni e conoscenze pregresse, che costruisce ciò che considera reale. Questa visione è in linea con il pensiero del filosofo Giambattista Vico, che agli inizi del XVI secolo mise in discussione il metodo scientifico di Descartes, facendo corrispondere la conoscenza alla costruzione della mente che organizza l’esperienza. Vico espresse questi concetti nella famosa affermazione verum ipsum factum (il vero è il fatto stesso). Tornando ai giorni nostri, come ha sintetizzato ottimamente Bianca Maria Varisco, la concezione costruttivista considera la conoscenza un prodotto socialmente, storicamente, temporalmente, culturalmente, contestualmente costruito. Essa è una conoscenza complessa, multipla, particolare, soggettiva, rappresentata “da” e “attraverso” persone situate in una particolare cultura, in un determinato momento temporale, nell’interazione di un certo numero di giochi linguistici [Varisco, 1995]. Questa concezione relativista della realtà corre il rischio concreto dell’alienazione esistenziale, per cui la psico-pedagogia costruttivista si è ridefinita nel costruttivismo socio interazionista. Questa visione prevede che i significati vadano creati all’interno di comunità di interpreti, nelle quali i discenti accedono al sapere attraverso la negoziazione e condivisione dei significati, costruendo nuova conoscenza. Facendo riferimento alle tecnologie dell’educazione, e alla disciplina dell’ Instructional System Design in particolare, M.D. Merrill [citato in Varisco, 1995] elenca i seguenti presupposti del costruttivismo: • la conoscenza è costruita dall’esperienza; • l’apprendimento è concepito come una personale interpretazione del mondo; • l’apprendimento è attivo, in esso il significato si sviluppa sulla base dell’esperienza; • l’apprendimento è collaborativo, in quanto il significato è negoziato da molteplici prospettive; • l’apprendimento è situato (o ancorato) perché accade in settings realistici; 14 • la valutazione è integrata nel compito e non un’attività da esso separata. 1.3.3 Gli sviluppi del costruttivismo Nel corso del tempo la visione costruttivista si è ramificata in alcuni filoni teorici, che hanno integrato questo paradigma. Seguendo la distinzione operata da Varisco [1995], si definisce costruttivismo interazionista l’approccio teorico di Jean Piaget e quello di D. Ausubel. In Piaget, di cui si è parlato in precedenza, il processo di adattamento ai nuovi stimoli prevede una partecipazione attiva del soggetto interessato, e l’interazione sociale contribuisce a innescare il conflitto che porta alla ristrutturazione dello schema cognitivo preesistente. Ausubel sottolinea invece come l’apprendimento dipenda anche dalla significatività dei contenuti per il discente: essi diventano significativi se possono essere ancorati alle conoscenze già acquisite, e se il soggetto ha la motivazione sufficiente per cercare tali ancoraggi. La dimensione culturale dell’apprendimento, trascurata da Piaget, è stata messa in evidenza da Bruner, il quale sostiene che [...] la conoscenza di una «persona» non ha sede esclusivamente nella sua mente, in forma «solistica», bensì anche negli appunti che prendiamo e consultiamo sui nostri notes, nei libri con brani sottolineati che sono nei nostri scaffali, nei manuali che abbiamo imparato a consultare, nelle fonti di informazione che abbiamo caricato sul computer, negli amici che si possono rintracciare per chiedere un riferimento o un’informazione, e così via quasi all’infinito. [...] Giungere a conoscere qualcosa in questo senso è un’azione sia situata sia distribuita. Trascurare questa natura situazionale e distribuita della conoscenza e del conoscere significa perdere di vista non soltanto la natura culturale della conoscenza, ma anche la natura culturale del processo di acquisizione della conoscenza. [citato in Varisco, 1995]. Si parla in questo caso di costruttivismo culturale. La scuola psicologica sovietica, ed in particolare la teoria delle zone di sviluppo prossimale del già citato Vygotskij, fornisce invece dei validi presupposti per l’elaborazione delle teorie sull’apprendimento collaborativo: l’interazione sociale e la negoziazione nella costruzione delle conoscenze caratterizza l’apprendimento come un’attività cognitiva modellata e distribuita sugli scambi interpersonali, oltreché sugli strumenti ed artefatti -sia culturali che tecnologici- chiamati ad intervenire nel processo. Questo modello di costruzione di conoscenza, nel quale quest’ultima si configura come una attività condivisa, prende il nome di costruttivismo sociale. Due psico-pedagogisti aderenti al paradigma del costruttivismo sociale, Anne Brown e Joseph Campione, nello studio dell’apprendimento extrascolastico elaborano alcuni principi-guida per chi voglia realizzare delle «comunità di studenti che apprendono» ( Communities of Learners o 15 Comunità di apprendimento ).Tali principi sono influenzati da approcci linguistici, sociologici ed antropologici, ed incorporano alcuni elementi del costruttivismo culturale. La filosofia educativa di questi due autori si può pertanto definire come costruttivismo socio-culturale, che si esprime in base ai seguenti capisaldi: • l’apprendimento viene considerato come un processo di natura attiva e strategica; • riveste importanza fondamentale il concetto di metacognizione, ovvero la consapevolezza nel soggetto dei propri processi cognitivi: questo favorisce l’apprendimento intenzionale, la continua pratica riflessiva e il miglioramento delle proprie strategie cognitive; • le zone di sviluppo prossimale diventano molteplici, arricchendo di conseguenza la comunità di multipli expertises, ruoli, risorse che diventano oggetto di mutua appropriazione; • si assiste ad un apprendimento con una forte base dialogica, in cui i discorsi che si creano danno luogo a significati negoziati; • attraverso le pratiche discorsive emergono le diverse identità individuali, in un contesto di legittimazione delle differenze e di appartenenza alla stessa identità di comunità; • si considera la comunità di apprendimento come una comunità di pratica (della quale si parlerà più avanti), con le opportune distinzioni riguardanti le finalità; • l’apprendimento è situato e contestualizzato, in un’ottica di consapevolezza di scopi, ruoli e azioni [Varisco, 2002]. La Community of Learners così definita è caratterizzata quindi da soggetti eterogenei, i cui ruoli si alternano a seconda delle problematiche affrontate, nell’ottica di coprire mutuamente le zone di sviluppo prossimali appartenenti a ciascun soggetto in specifici domini. Questo processo viene attuato mediante pratiche di apprendistato cognitivo, che consistono nel tentativo, da parte di chi si trova ad apprendere, di imitare l’esperto nello svolgimento di un compito, mentre questi collabora allenando ed assistendo l’apprendista, in un’ottica di partecipazione guidata. Gli attori coinvolti si trovano a ricoprire ruoli molteplici e sovrapponibili, che possono essere raggruppati in tre categorie: istruzione (spiegazione, consulenza), scaffolding cognitivo (guida, rinforzo, critica all’operato), scaffolding affettivo (motivazione, empatia). In sintesi, la CoL viene considerata dai suoi ideatori come una comunità di scienziati, i cui membri sono studenti, insegnanti, tutor, esperti che mettono in campo la conoscenza già acquisita per arrivare, attraverso le pratiche sopra descritte, a costruirne di nuova [Varisco, 2002]. Anche altri autori aderiscono alla prospettiva del costruttivismo socio-culturale. Tra questi c’è David Jonassen, che concorda nell’individuare i concetti di costruzione, collaborazione e contesto come direttive fondamentali dell’apprendimento all’interno del paradigma costruttivista socio- 16 culturale. Jonassen individua inoltre le sei qualità fondamentali che contraddistinguono questo tipo di apprendimento. Esso deve essere: • attivo, nel rendere l’allievo responsabile dei propri risultati; • costruttivo, mediante il raggiungimento dell’equilibrio tra i processi di assimilazione ed accomodamento (Piaget); • collaborativo, per mezzo delle comunità di apprendimento (communities of learners), l’insegnamento reciproco (reciprocal teaching) ed il sostegno (scaffolding) offerto dall’insegnante; • intenzionale, nel coinvolgimento attivo e consapevole dell’allievo nel perseguimento degli obiettivi cognitivi; • conversazionale, nel coinvolgimento dei processi sociali, in particolare quelli dialogicoargomentativi; • contestualizzato, in quanto questo tipo di apprendimento comporta la pronta messa in pratica degli insegnamenti in compiti riguardanti il mondo reale; • riflessivo, perché l’allievo è indotto a riflettere sui processi attivati nella fase di apprendimento [Varisco, 1995]. 2. FORMAZIONE A DISTANZA ED E-LEARNING 2.1 Lo sviluppo della formazione a distanza La sigla FaD (formazione a distanza) è un acronimo coniato recentemente nella storia umana, ma di fatto questo particolare tipo di insegnamento affianca quello tradizionale almeno da quando furono possibili i primi scambi epistolari. La formazione a distanza si può definire come l’insieme dei sistemi di insegnamento che, avvalendosi di particolari strumenti e tecnologie della comunicazione, integrano o sostituiscono la formazione tradizionale erogata in compresenza di alunni e docenti. Storicamente la FaD veniva tendenzialmente utilizzata in tutti quei casi in cui l’insegnamento in compresenza si presentasse troppo difficoltoso o troppo costoso a causa della distanza fisica da coprire. Oggi, grazie alle tecnologie telematiche ed informatiche, la FaD costituisce una risorsa che, oltre a limitare i disagi della distanza fisica, arricchisce la didattica tradizionale di nuovi modelli di interazione, insegnamento e apprendimento. 17 Lo sviluppo della FaD viene articolato in tre successive generazioni [ Trentin, 2000 ]. La prima generazione si sviluppa nell’ Ottocento, grazie al miglioramento tecnologico delle tecniche di stampa e alla diffusione del trasporto ferroviario: questi fattori resero possibili la produzione e la distribuzione a costi sostenibili di materiali didattici, destinati a studenti distribuiti in vaste aree geografiche. Si tratta dei famosi “corsi per corrispondenza”, dove il medium utilizzato è costituito da materiale stampato, e l’interazione fra studente e docente è ridotta, distribuita attraverso lunghi archi di tempo e costituita fondamentalmente dallo scambio di elaborati. Con lo sviluppo dei media avvenuto nel Novecento, si afferma la seconda generazione, che può utilizzare progressivamente, oltre alla carta stampata, anche la radio, la televisione, le audio e video cassette. A partire dagli anni 90, con la diffusione su larga scala di personal computer in grado di gestire materiali multimediali e grazie alla diffusione del supporto del CD-ROM, fanno la loro comparsa i corsi che integrano testi scritti, audio e video, oltre alla possibilità di controllare in autonomia i propri progressi grazie ad esercizi e quiz interattivi. Dal punto di vista dei processi di apprendimento non si assiste fin qui a niente di nuovo: con lo scorrere del tempo cambiano i media utilizzati, ma l’apprendimento viene sempre interpretato come un processo di trasmissione della conoscenza dal docente verso il discente, in una logica comunicativa unidirezionale di tipo uno-a-molti. La conoscenza viene qui considerata come una verità oggettiva, rispecchiata da una mente razionale [Varisco, 1995]. Come si è visto nella prima parte, questa visione oggettivista è stata rafforzata dall’affermazione delle teorie dell’apprendimento comportamentiste, e supportata dallo sviluppo delle tecnologie informatiche, che permettono una sempre maggiore ingegnerizzazione dei processi di apprendimento. Con la terza generazione, che coincide con la diffusione di internet al grande pubblico e con lo sviluppo delle teorie costruttiviste dell’apprendimento, la formazione a distanza diventa anche formazione in rete, dove la parola rete assume una doppia accezione: essa diventa sia l’infrastruttura materiale (Internet) su cui si basano gli scambi comunicativi dei partecipanti al processo di formazione, sia lo schema delle relazioni che si instaurano fra i partecipanti, che interagiscono fra loro applicando i principi costruttivisti dell’apprendimento collaborativo. Con la terza generazione FaD si assiste quindi ad un cambio di paradigma pedagogico: all’insegnamento concepito come trasmissione di saperi oggettivi si affianca la costruzione di conoscenza negoziata mediante processi collaborativi, risultato di interazioni sociali che avvengono all’interno di una determinata cultura, dando origine a saperi contestualizzati che non hanno pretesa di oggettività. 18 2.2 Dalla formazione a distanza all’apprendimento in rete La schematizzazione appena fornita non deve ovviamente essere concepita come una visione totalizzante: i passaggi fra una generazione e l’altra sono graduali e non definitivi: l’avvento della formazione a distanza praticata attraverso reti di computer non comporta necessariamente la fine dei vecchi corsi per corrispondenza, né la scomparsa degli approcci didattici tradizionali. Piuttosto, si assiste oggi ad una serie di ibridazioni fra paradigmi pedagogici e tecnologici vecchi e nuovi, che compongono uno scenario della formazione a distanza complesso e variegato. Lasciando da parte gli approcci alla FaD che non fanno uso della telematica, la cui trattazione esula dagli obiettivi di questo lavoro, appare opportuno soffermarsi sulle varie tipologie di approccio metodologico alla FaD che utilizzano tecnologie di rete (si parla, in questo caso, di e-learning). In questo contesto, Guglielmo Trentin [2000] propone una tassonomia delle applicazioni FaD in relazione agli approcci metodologici utilizzati per l’apprendimento. Si distingue così fra: • apprendimento individuale; • apprendimento assistito; • apprendimento reciproco; • apprendimento collaborativo. 2.2.1 L’apprendimento individuale Questo tipo di apprendimento avviene in autoistruzione, e può concretizzarsi attraverso due differenti modalità. La prima consiste nella ricerca, da parte del discente, di materiali didattici sulla rete internet: questa pratica assomiglia molto a quella di cercare in una biblioteca i testi adatti alle proprie necessità di apprendimento, con la differenza che in rete, a causa della mole di informazioni disponibili, risulta più complesso individuare i materiali didattici appropriati e verificarne l’attendibilità delle fonti. La modalità appena descritta comporta la presenza nel discente di abilità specifiche nella selezione e verifica dei materiali, il cui possesso non è cosa scontata. Inoltre il successo della ricerca e dell’utilità didattica dei materiali reperiti non è garantito, per cui è sempre presente il rischio di impiegare tempo ed energie per ottenere benefici molto modesti o addirittura nulli. L’altra modalità di apprendimento individuale consiste nella fruizione di materiali didattici preparati per essere scaricati dalla rete e quindi utilizzati. La rete diventa in questo caso una specie di deposito di materiali, con l’importante differenza rispetto al caso precedente che ora si è in presenza di un progetto didattico con degli obiettivi ben definiti, che comporta la disponibilità di materiali strutturati appositamente per lo scopo desiderato. 19 2.2.2 L’apprendimento assistito Anche in questo caso la formazione erogata è basata sullo studio individuale: tramite la rete vengono erogati i materiali didattici, che vengono presentati strutturati in forma di corso. Differentemente dal caso precedente è prevista l’assistenza a distanza di docenti o tutor, che hanno il compito di facilitare il discente nella fruizione dei materiali, e di assisterlo a sviluppare correttamente il percorso formativo previsto. In questo caso l’assistenza a distanza diventa un elemento strutturale del processo di apprendimento, ed è per questo motivo che si parla di apprendimento assistito. 2.2.3 L’apprendimento reciproco Questo tipo di apprendimento è caratteristico delle cosiddette comunità di pratica, di cui si parlerà diffusamente nel capitolo 4. Per ora, ai fini di questa tassonomia delle applicazioni FaD, è sufficiente dire che le comunità di pratica che fanno uso di tecnologie di rete rientrano pienamente nella modalità FaD della formazione in rete definita nel paragrafo 2.1. Nelle comunità di pratica, infatti, in compresenza fisica o attraverso l’infrastruttura materiale della rete internet, i partecipanti condividono conoscenza, esperienze e buone pratiche, arrivando attraverso la collaborazione alla realizzazione di uno scopo comune e/o al miglioramento delle proprie competenze. Si tratta perlopiù di comunità formate da professionisti dotati di competenze eterogenee, il cui funzionamento può essere così schematizzato: l’utente che, nella quotidianità del proprio lavoro, si imbatte in un problema che non riesce a risolvere da solo, chiede aiuto agli altri partecipanti; se il problema è già stato risolto da qualcuno in precedenza questi fornirà la soluzione ed avverrà l’acquisizione di nuova conoscenza; se il problema è del tutto nuovo i partecipanti cercheranno assieme una soluzione mettendo in campo le proprie specifiche competenze. In entrambi i casi l’intero gruppo crescerà professionalmente, costruendo competenza attraverso dinamiche collaborative. 2.2.4 L’apprendimento collaborativo Anche questo approccio metodologico fa parte della formazione in rete, ed il suo funzionamento assomiglia a quello delle comunità di pratica, con la differenza che in quest’ultimo caso si è in presenza di un vero e proprio corso di formazione, dove studenti, docenti e tutor mettono in pratica i principi costruttivisti dell’apprendimento collaborativo per favorire la crescita del gruppo. 20 Questa tipologia di approccio all’apprendimento prende il nome di comunità virtuale di apprendimento, e porta in genere a risultati qualitativamente elevati [Trentin, 2000]. 2.3 Alcune parziali conclusioni sulla formazione a distanza Come mostra la trattazione svolta finora, il mondo della formazione a distanza si è evoluto assieme ai mutamenti tecnologici succedutisi nelle vicende umane. Questo si è verificato soprattutto negli ultimi cinquant’anni, con il rapidissimo progresso dei mezzi di comunicazione. La diffusione dell’utilizzo del computer e della telematica al grande pubblico ha comportato però un mutamento di paradigma, sia tecnologico che pedagogico: come si è visto nei paragrafi precedenti, l’utilizzo delle tecnologie informatiche e telematiche nella FaD varia a seconda che si consideri la rete come un deposito di materiali didattici, oppure come un ambiente virtuale che, attraverso approcci collaborativi all’apprendimento, arricchisce la didattica tradizionale di nuovi modelli pedagogici. Da notare inoltre che il livello di interattività fra i partecipanti al processo di apprendimento cresce di pari passo con la complessità dell’approccio metodologico: si passa progressivamente dallo studio individuale di materiali didattici, che comporta l’infrastruttura materiale minima di un sito web da cui scaricare i contenuti da studiare, all’apprendimento collaborativo in comunità, che coinvolge studenti, docenti e tutor in dinamiche di interazione realizzabili solo attraverso adeguate piattaforme software. Date queste conclusioni, è necessario a questo punto rivolgere l’attenzione alle dinamiche di interazione che avvengono per mezzo del computer. 3. La comunicazione mediata da computer (CMC) Quando l’interazione fra due o più soggetti non avviene in presenza, ma attraverso il mezzo informatico, si parla di comunicazione mediata da computer (CMC), la quale costituisce una vasta area di ricerca che interessa varie discipline, tra cui psicologia, sociologia, linguistica, ed ovviamente informatica, i cui studi sono tuttora aperti a molteplici prospettive e soprattutto agli scenari evolutivi della stessa CMC. In questo paragrafo, dopo aver descritto le teorie più affermate sul funzionamento del processo comunicativo, si vogliono introdurre le principali caratteristiche della CMC e presentare le teorie che ne descrivono il funzionamento. 21 3.1 Le teorie della comunicazione Per comprendere meglio il funzionamento della CMC può essere utile fare riferimento alle principali teorie della comunicazione succedutesi nel tempo. I primi approcci teorici alla comunicazione sono di tipo ingegneristico e risalgono al periodo immediatamente successivo alla Seconda Guerra Mondiale, ed avvengono in concomitanza con il massiccio sviluppo delle telecomunicazioni, particolarmente quelle telefoniche. Il lavoro più conosciuto in questo senso è La teoria matematica delle comunicazioni, di Shannon e Weaver, pubblicata nel 1949, dove questi due autori elaborano uno schema generale dei processi comunicativi. 3.1.1 Il modello linguistico di Jakobson Maggiormente trattato, probabilmente anche grazie al tipo di approccio meno tecnicistico, è il Modello generale della comunicazione del linguista russo Roman Jakobson, comparso nel 1960 nell’articolo Linguistica e poetica [1972]. In esso, rifacendosi agli schemi ingegneristici della compagnia telefonica Bell, Jakobson elabora la sua versione del modello, il cui schema è riportato di seguito: Emittente C O D I C E Canale Messaggio C O D I C E Ricevente Realtà o Contesto Il modello può essere descritto come segue: 1. EMITTENTE: la persona o l’apparecchio che invia il messaggio; 2. RICEVENTE: la persona o il dispositivo che riceve il messaggio; 3. MESSAGGIO: l’oggetto fisico (onde sonore, segni grafici, segnale elettromagnetico, eccetera) che viene trasmesso dal punto di partenza a quello di arrivo; 4. CANALE: la via attraverso cui scorre il messaggio; 22 5. CODICE: la convenzione in base alla quale ad un certo messaggio viene attribuito un certo significato. 6. REALTA’ o CONTESTO: tutto ciò che esiste al mondo, ovvero tutto ciò di cui si può parlare in una comunicazione. Jakobson si rende conto che il suo modello, per quanto valido come schema generale, non contempla molti aspetti peculiari della comunicazione verbale umana. Egli perciò, in contrasto con chi proponeva di espellere dalla linguistica tali aspetti, collega ad ogni elemento del suo modello una specifica funzione, elaborando lo schema delle funzioni del linguaggio: a. FUNZIONE EMOTIVO-ESPRESSIVA, collegata all’emittente: consiste nel segnalare, da parte di chi parla, stati emotivi (vengono utilizzati a questo scopo intonazione, esclamazioni, volume della voce, modi di intercalare); b. FUNZIONE CONATIVA, collegata al ricevente: corrisponde alla pratica di indicare la persona a cui è destinato il messaggio, facendogli capire che ci si rivolge proprio a lui ( sono utilizzati allo scopo pronomi come tu, verbi come hai, ecc.); c. FUNZIONE POETICA, collegata al messaggio: è la capacità di un messaggio di risultare gradevole all’orecchio (questa funzione può essere realizzata con un ritmo regolare della frase e con la ripetizione di alcune sillabe); d. FUNZIONE FÀTICA, collegata al canale: consiste nel controllare che la trasmissione fisica del messaggio stia avvenendo (il controllo viene esercitato attraverso l’emissione di particelle come ehi, ah, si, ok, che hanno lo scopo di richiamare l’attenzione dell’interlocutore); e. FUNZIONE METALINGUISTICA, collegata al codice: è l’atto di controllare che il codice funzioni, ossia che la persona che ci ascolta, oltre a ricevere il messaggio, lo capisca ( la lingua utilizzata è un esempio di codice; il ripetere ciò che si è detto con altre parole costituisce un controllo metalinguistico); f. FUNZIONE REFERENZIALE, collegata alla realtà o contesto: è la proprietà delle parole di rinviare ad oggetti del mondo, ossia la capacità di avere significato. Dall’esame del modello di Jakobson, che soprattutto nella parte riguardante le sei funzioni del linguaggio si riferisce alla comunicazione verbale, risultano evidenti due elementi: la complessità di un processo apparentemente semplice come quello della comunicazione; la difficoltà di applicare tale modello alla comunicazione mediata da computer che, nel voler assomigliare il più possibile in efficacia a quella verbale, è costretta, a causa delle caratteristiche del medium utilizzato, a fare a meno (o ad utilizzare dei surrogati), di alcune delle funzioni del linguaggio descritte da Jakobson. 23 3.1.2 Il modello psico-sociale di Anzieu e Martin ed i modelli interlocutori Con il modello di Anzieu e Martin la comunicazione, da fatto linguistico, inizia ad essere considerata come rapporto psico-sociale. Gli attori coinvolti nel processo comunicativo vengono definiti locutore ed interlocutore, ed il processo stesso viene visto come un rapporto tra due o più personalità impegnate in una situazione comune e che discutono fra loro a proposito di significati [Anzieu e Martin 1971, citati in Banzato 2003]. Il linguaggio non viene qui considerato come un mezzo utilizzato per il trasferimento di informazione fra i partecipanti al processo, bensì come la dimensione essenziale della cultura su cui si fondano gli scambi e le pratiche collettive. Ma la comunicazione si fonda anche su elementi come postura, intonazione della voce, gestualità: gli elementi non verbali, paraverbali e prossemici vengono integrati nel modello, e ad ogni elemento del comportamento viene riconosciuto un valore comunicativo. Nei modelli interlocutori si parte dalla considerazione che la comunicazione umana è, per sua natura, dialogica ed interattiva. Nella relazione fra locutore ed interlocutore viene quindi incluso il feedback che l’interlocutore indirizza al locutore: in base alle reazioni del suo interlocutore, il locutore rimodula la sua comunicazione affinché giungano all’altro attore i significati che egli intende veicolare. Inoltre il locutore esercita anche un auto-feedback quando, ascoltandosi, controlla in ogni momento se ciò che sta dicendo corrisponde effettivamente con quello che è sua intenzione esprimere. La comunicazione diventa quindi concepibile solamente in base al rapporto con gli altri, e il lavoro di cooperazione verbale individuato dai modelli interlocutori va a costituirne gran parte della sua fenomenologia. La produzione di significati avviene attraverso una dinamica di reciprocità regolata dall’interlocuzione, e l’atto di comunicare diventa un processo contrattuale, durante il quale i partecipanti co-costruiscono una realtà con l’aiuto di sistemi di segni, accettando un certo numero di principi che permettono lo scambio ed un certo numero di regole che lo garantiscono [Ghiglione 1986, citato in Banzato 2003]. 3.2 Caratteristiche principali della CMC Sintetizzando quanto detto finora, si può dire che per l’uomo la comunicazione non si limita al transito del messaggio, ma costituisce un processo in cui i significati veicolati hanno forte connotazione sociale, e vanno ben oltre il contenuto semantico dell’informazione trattata. I contenuti veicolati costituiscono la comunicazione, ma altrettanta importanza hanno i messaggi metacomunicativi di contorno alla comunicazione stessa, che assumono modalità diverse di espressività (metalinguistica, posturale, prossemica ecc.), e che sono stati integrati con modalità diverse nei modelli presentati nei paragrafi precedenti. 24 Tali metamessaggi descrivono il contesto all’interno del quale i contenuti vanno interpretati, e ci permettono ad esempio di distinguere una battuta umoristica da una affermazione seria, oppure un’espressione metaforica da una constatazione vera e propria [De Biasi, 2002]. Per dirla con il sociologo Erving Goffman, la metacomunicazione consente agli attori del processo comunicativo di inquadrarsi in un frame, cioè di condividere la medesima definizione della situazione, in modo tale che la comunicazione/rappresentazione sociale a cui stanno partecipando abbia buona riuscita. La comunicazione mediata da computer risulta in gran parte costituita da scambi di messaggi testuali attraverso lo schermo di un computer, e deve rinunciare a buona parte dei messaggi metacomunicativi caratteristici della comunicazione in compresenza fisica. Oltre a ciò richiede più tempo rispetto ad una normale conversazione in presenza a causa dell’asincronicità dei tempi di invio e risposta dei messaggi, ed è contraddistinta da una maggiore laboriosità dettata dall’uso del mezzo informatico. Come sottolinea Calvani [2005], questa riduzione di segnali extralinguistici caratteristica della CMC porta in genere nella rete a comportamenti più disinibiti: si ha in tendenzialmente una maggiore disinvoltura nell’esprimere il proprio pensiero, ma è presente anche il rischio di comportamenti sgradevoli ed ostili, incentivati da un certo grado di impunità e di mascheramento dell’identità che la rete consente. Inoltre, l’impossibilità di poter vedere il volto dell’interlocutore può portare più facilmente a fraintendimenti e frustrazione causata da un feedback troppo ridotto. Per ovviare a questi inconvenienti nel corso del tempo sono stati escogitati vari accorgimenti, fra i quali l’uso di emoticons, icone disegnate o animate raffiguranti faccine che indicano vari stati emotivi, e la netiquette, un insieme di regole di condotta che hanno lo scopo di migliorare l’efficacia della comunicazione ed evitare comportamenti aggressivi. 3.3 Alcune teorie sulla CMC Una delle prime teorie elaborate sulla CMC è quella della Reduced Social Cues (RSC), che si sviluppa a partire dalla considerazione che la CMC avviene prevalentemente per via testuale, conseguentemente risulta penalizzata dalla mancanza di molti elementi utili a riconoscere l’interlocutore (social cues), come sesso, età, aspetto e molti altri disponibili nelle interazioni in compresenza fisica. Sproull e Kiesler, gli autori di questa teoria, sostengono che questo tipo di mancanza porti ad un “vuoto sociale” che induce a comportamenti disinibiti e a seguire meno le tradizionali regole del comportamento. In netta contrapposizione con Sproull e Kiesler, i ricercatori Spears e Lea elaborano la teoria SIDE ( Social Identity De-Individuation), la quale sostiene che, in taluni contesti, la scarsità di indicatori sociali caratteristica della CMC non provoca un indebolimento delle norme, anzi le rafforza. Questo 25 accade perché l’anonimato visivo riduce la percezione delle differenze fra i membri di un gruppo che comunica in rete, di conseguenza l’identità del gruppo nel suo insieme risulta rafforzata. Se l’appartenenza ad un gruppo è importante per il singolo membro, allora l’identità del gruppo risulta più forte di quella del singolo, di conseguenza il gruppo riuscirà facilmente ad imporre il suo potere normativo sul singolo individuo. Un altro approccio teorico è quello di Walther e Burgoon, denominato SIP (Social Information Processing) e sviluppato ulteriormente da Walther nella teoria Hyperpersonal. Secondo la teoria SIP la CMC non si differenzia dalle interazioni faccia a faccia per le indicazioni di tipo sociale, bensì per l’uso del tempo: Walther e Burgoon sostengono che nella CMC lo scambio di informazioni sociali avviene parimenti a quanto accade in presenza, ma con modalità diverse, e con tempi più lunghi richiesti dall’utilizzo del mezzo informatico. La contraddizione con il modello RSC è evidente, e viene spiegata dagli autori con l’utilizzo di un diverso approccio sperimentale: nel primo caso la sperimentazione veniva condotta in laboratorio, mentre in quest’ultimo direttamente sul campo, evitando così errori metodologici come la limitazione del tempo a disposizione dei partecipanti e la loro collocazione all’interno della stessa stanza. In sintesi, la teoria SIP afferma che, qualunque sia il medium utilizzato, gli esseri umani sono soggetti allo stesso bisogno di riduzione dell’incertezza rispetto all’identità e comportamento altrui: essi tendono a soddisfare questo bisogno adattando le proprie strategie comunicative alle caratteristiche del mezzo utilizzato. Nello sviluppo della teoria SIP denominato Hyperpersonal, Walther sostiene che le caratteristiche della CMC fanno si che essa sia addirittura sovraccaricata di contenuti sociali, diventando appunto iperpersonale. Come si può dedurre dalla trattazione di questo paragrafo, la ricerca sulla CMC è ancora apertissima, e sembra ben distante dal produrre teorie universalmente riconosciute come valide. 4. L’ APPRENDIMENTO COLLABORATIVO IN RETE 4.1 La prospettiva del computer supported collaborative learning (CSCL) L’utilizzo di macchine nelle attività di insegnamento inizia negli anni 20 del Novecento, e prosegue ispirandosi ai principi comportamentisti di istruzione programmata elaborati da Skinner. Con lo sviluppo dell’informatica e l’avvento del cognitivismo il paradigma pedagogico è sempre di stampo oggettivista, e la conoscenza continua ad essere concepita come qualcosa che si può travasare dalla mente dell’insegnante a quella dell’allievo. Nello specifico, l’approccio H.I.P. del cognitismo diede 26 origine alla disciplina dell’Intelligenza Artificiale (IA), la quale poneva fra i suoi obiettivi primari lo sviluppo di sistemi informatici in grado di simulare il comportamento di un buon docente. Verso la fine degli ottanta però questo tipo di aspettative sull’IA viene ridimensionato di molto, poiché ci si accorge che, fino a quel momento, risulta impresa troppo grande per le macchine conferire un significato alle informazioni che si trovano a manipolare [G. Bonaiuti, in Calvani 2005]. Molti autori mettono in evidenza i limiti del computer inteso come “insegnante intelligente”, e si inizia invece a scorgere in esso nuove potenzialità, sia come mezzo di comunicazione che come strumento di sviluppo della collaborazione fra individui. Inizialmente questa nuova filosofia nell’utilizzo dei computer viene utilizzata nel mondo delle aziende, per la condivisione e lo sviluppo di risorse informative: l’area di ricerca che nasce in questo campo viene chiamata CSCW, ossia Computer Supported Cooperative Work. In seguito questo approccio viene applicato nel campo delle tecnologie per l’educazione, dove l’incontro con le nascenti teorie costruttiviste dà luogo all’affermazione della prospettiva CSCL. Siamo all’inizio degli anni novanta, e il CSCL si configura come una nuova area di ricerca focalizzata sull’apprendimento collaborativo supportato da computer, che si propone di indagare come l'apprendimento collaborativo assistito dalla tecnologia possa migliorare l'interazione tra pari e il lavoro di gruppo, e facilitare la condivisione e la distribuzione di conoscenza ed esperienza [Sarti, 2004]. Il CSCL, almeno inizialmente, non si inserisce nel contesto della formazione a distanza: esso si sviluppa nei laboratori delle scuole primarie nordamericane, e si pone l’obiettivo di sviluppare le competenze cognitive degli allievi attraverso processi collaborativi di apprendimento, in accordo con i principi costruttivisti di Brown e Campione. Come riscontrato nel capitolo sulla CMC, la disponibilità di una rete telematica non implica necessariamente l’instaurarsi di dinamiche collaborative, e la sola collaborazione, ammesso di riuscire a crearla, non è sufficiente alla costruzione di conoscenza e di buone competenze cognitive. Per fare in modo che l’approccio CSCL funzioni è indispensabile che gli aspetti didattici e metodologici siano fortemente coordinati con le tecnologie utilizzate, attraverso lo sviluppo di software adatti a favorire l’apprendimento collaborativo. Kolodner e Guzdial [1996, citati da Bonaiuti in Calvani 2005] indicano quali funzioni specifiche devono essere assolte dagli strumenti CSCL: • promuovere l’investigazione e la costruzione del significato; • facilitare la costruzione di conoscenza fornendo spazi per le discussioni collaborative, sollevare problemi di apprendimento e raggiungere il consenso o nuova conoscenza; • tenere traccia del lavoro svolto; 27 • permettere comunicazione con le persone remote; • promuovere la riflessione relativamente alle prospettive, alle ipotesi, alle alternative e alle critiche; • favorire la pianificazione e l’esecuzione, da parte dell’insegnante, delle attività di sostegno alla collaborazione. In particolare, il punto riguardante il tracciamento dei dati richiede un approfondimento. Una delle caratteristiche salienti degli ambienti virtuali è quella della possibilità di conservare i dati derivanti dall’utilizzo delle risorse. Questo tipo di informazioni risulta particolarmente prezioso nell’ambito CSCL: il monitoraggio della quantità dei dati, e della quantità e qualità dei messaggi scambiati è fondamentale per capire se l’ambiente virtuale di apprendimento predisposto funziona oppure no. Su questo argomento si è sviluppata una specifica area di ricerca, che si pone l’obiettivo di stabilire quali siano le più efficaci metodologie adatte a valutare gli scambi comunicativi e i processi collaborativi che avvengono all’interno degli ambienti di apprendimento CSCL. Il dibattito si concentra principalmente sulle modalità di utilizzo in itinere dei dati raccolti dalle piattaforme software, dando luogo a due possibili risposte metodologiche: la prima è quella di rendere disponibili i dati ad utenti ed insegnanti, in modo tale che possano interpretarli e decidere di conseguenza quali azioni intraprendere per facilitare il processo collaborativo; la seconda è quella di predisporre appositi software in grado di elaborare opportune diagnosi ed azioni sulle interazioni esaminate. Le ricerche CSCL degli ultimi anni si orientano più sulla seconda opzione, ritenendo opportuno lo sviluppo di ambienti tecnologici capaci di adattarsi “ecologicamente” alle esigenze dell’interazione umana [G. Bonaiuti, in Calvani 2005]. La differenza tecnologica fondamentale fra le piattaforme CSCL e quelle e-learning generiche è nel tipo di approccio: le prime sono orientate a facilitare le interazioni fra i partecipanti, e tendono a non offrire compatibilità con taluni standard adatti alla gestione di contenuti didattici, né hanno a disposizione strumenti quali test o questionari predisposti per la valutazione dell’apprendimento; questo è comprensibile dal momento che il modello pedagogico CSCL punta ad ottenere la massima efficacia dei processi collaborativi messi in atto, più che alla ritenzione delle conoscenze acquisite. Le piattaforme e-learning generiche, invece, si basano per lo più sul modello oggettivista di apprendimento basato sul trasferimento di conoscenze e, pur supportando vari standard e test di valutazione, sono in genere poco adatte all’instaurarsi di dinamiche collaborative. Grazie alla vivacità del mondo del software open source, e a vari progetti universitari di ricerca, negli ultimi tempi il contesto delle piattaforme e-learning si sta evolvendo verso la possibilità di gestire interazioni collaborative fra gli utenti. 28 4.2 Le comunità virtuali Con la diffusione di Internet avvenuta negli anni novanta nascono anche le comunità virtuali, che si possono definire come gruppi di persone disponibili a condividere qualcosa in rete, aggregate da uno o più interessi comuni. Secondo Preece [2001, citato in Calvani 2005] una comunità virtuale è formata dai seguenti elementi: • individui che interagiscono socialmente mentre cercano di soddisfare le proprie esigenze o svolgere particolari ruoli, come quello di leader o moderatore; • uno scopo comune come un interesse, un’esigenza, uno scambio di informazioni o un servizio che giustifichi l’esistenza della comunità; • politiche, sotto forma di taciti presupposti, rituali, protocolli, regole e leggi che guidino le interazioni fra gli individui; • sistemi informatici che supportino e medino le interazioni sociali, e trasmettano un senso di appartenenza. Nell’ambito delle ricerche sul Computer Supported Cooperative Work, gli studi di Whittaker, Issacs e O’Day [1997, citati in Banzato 2002] indicano i seguenti attributi fondamentali per le comunità virtuali: • i membri hanno un obiettivo, un interesse, un’esigenza o un’attività comune che fornisce una prima giustificazione per l’appartenenza alla comunità; • i membri partecipano in modo attivo e frequente, e spesso fra i partecipanti nascono interazioni intense, forti legami e attività condivise; • i membri hanno accesso a risorse condivise e tale aspetto è regolato dalle politiche adottate; • è importante la reciprocità delle informazioni, di supporto e di sevizio fra i membri; • esiste un contesto comune di lingua, protocolli e convenzioni sociali. Come sottolinea Calvani [2005], il concetto di comunità virtuale implica una definizione di comunità resa libera dalla geografia e dai vicinati fisici, fondata invece su “che cosa facciamo con gli altri”, “quanto e con chi interagiamo”, “che cosa scambiamo”. Con il tempo il fenomeno delle comunità virtuali non è sfuggito all’attenzione dei grandi gruppi commerciali, i quali tentano di attirare utenti nelle comunità da loro create per espandere il gruppo di potenziali clienti. Il risultato, nella maggior parte dei casi, è quello di ambienti di interazione malfunzionanti e di aspetto artificioso, tappezzati da invadenti e spesso demenziali banners, che promettono, nello spazio di pochi pixel, paradisi terrestri a chi comprerà quel particolare prodotto o servizio. La risposta dell’utente delle comunità virtuali è stata quella di prediligere, in rete, una vita 29 sociale nomade [Banzato, 2002], adottando più identità da gestire in altrettanti ambienti virtuali di interazione, frequentati in base alle necessità del momento. L’attuale frequentatore di comunità virtuali esplora e valuta criticamente gli ambienti che incontra, ed impara a interagire con gli altri anche adattando il proprio modo di comunicare agli ambienti virtuali commerciali, selezionandoli in base all’aspettativa di trovare quello che sta cercando. 4.3 Le comunità di pratica Il paragrafo precedente, anche se non strettamente attinente all’apprendimento in rete appositamente strutturato, rende l’idea della spontaneità che talora caratterizza i fatti che accadono in Internet. Tale spontaneità caratterizza in parte anche le comunità di pratica: esse nascono spontaneamente in un contesto di compresenza fisica, fra partecipanti dotati di competenze eterogenee, i quali danno vita ad un fenomeno collaborativo orientato alla risoluzione di quei problemi pratici che possono presentarsi nella vita lavorativa di ogni giorno. L’utilizzo di tecnologie di rete nelle comunità di pratica, quando avviene, ha lo scopo di facilitare le interazioni fra partecipanti che sono fisicamente distanti fra loro, o che interagiscono in maniera asincrona. Per descrivere una comunità di pratica si possono utilizzare le parole di Etienne Wenger [1996, citato in Trentin 2000], considerato il massimo teorico in questo campo: Le comunità di pratica sottendono una teoria dell’apprendimento che parte dalla seguente assunzione: l’impegno in una pratica sociale è il processo fondamentale attraverso il quale noi apprendiamo e in tal modo diveniamo chi siamo. Il primo elemento di analisi non è né l’individuo né le istituzioni sociali quanto piuttosto l’informale “comunità di pratica” che le persone creano per condividere nel tempo le loro esperienze. Per denotare la caratteristica sociale dell’apprendimento, la teoria esplora in modo sistematico l’intersezione fra aspetti concettuali che riguardano la comunità, la pratica sociale, il significato e l’identità personale. Ciò che ne deriva è un ampio quadro di riferimento concettuale che individua nell’apprendimento un processo di partecipazione sociale. Riprendendo l’analisi di Wenger, Vittorio Midoro [2002] identifica i tre elementi che caratterizzano una comunità di pratica: • un insieme di individui mutuamente impegnati; • un repertorio condiviso; • un’impresa comune. Il mutuo impegno che si crea fra i partecipanti è determinato dalla consapevolezza di essere associati in una impresa comune. Midoro riprende Wenger nell’identificazione degli elementi importanti che determinano il mutuo impegno: • lavoro cooperativo, cioè lo svolgimento di una attività finalizzata all’assolvimento di una 30 funzione, come lo svolgimento di un lavoro o la risoluzione di un problema; • diversità e parzialità, cioè una ripartizione della pratica da svolgere in base alle competenze di ognuno (diversità), che assolve una parte specifica (parzialità) del lavoro. • mutue relazioni, cioè le relazioni funzionali che si instaurano fra i membri della comunità. Il repertorio condiviso dai partecipanti è costituito dall’insieme di oggetti e procedure di dominio comune ai membri della comunità: per esempio, in uno studio legale, faranno parte del repertorio condiviso tanto il libro del Codice Civile, quanto gli orari di apertura del tribunale. L’impresa comune è costituita dalla realizzazione dell’obiettivo che si pongono i partecipanti, i quali devono essere consapevoli dell’importanza del proprio ruolo, essere coinvolti nell’impresa ed essere consapevoli della rilevanza dei ruoli altrui. Ancora Wenger precisa che la comunità, nello svolgimento della pratica, coinvolge tre attività principali: • negoziazione del significato; • partecipazione; • reificazione. La negoziazione del significato è il senso, socialmente costruito, che viene attribuito al lavoro realizzato per mezzo della comunità di pratica. Tale negoziazione implica le altre due attività della comunità: la partecipazione dei membri ai processi che portano alla realizzazione del lavoro, e quindi alla condivisione dei significati; la reificazione, ossia la trasformazione dei processi collaborativi che avvengono nella comunità in artefatti, materiali e non. Queste attività consentono la realizzazione dell’impresa comune, ma non solo. Con la partecipazione ai processi della comunità: • il repertorio condiviso si arricchisce; • il singolo partecipante arricchisce la propria conoscenza, ma anche modifica la propria identità, attraverso l’acquisizione di abilità e competenze attivate dalle interazioni dialogiche e collaborative derivanti dalla partecipazione. 4.4 Le comunità virtuali di apprendimento (VLC) Il fenomeno delle comunità di pratica, sia in compresenza fisica che on-line, ha attirato l’attenzione della ricerca applicata ai processi di apprendimento e alle tecnologie didattiche [Manca e Sarti, 2002]. In questa prospettiva, la comunità di pratica si configura come un ambiente di apprendimento in cui i processi avvengono in modo spontaneo, in base a regole che non vengono imposte dall’alto, ma piuttosto generate dai modelli di interazione dei partecipanti; si può quindi dire che la comunità di pratica costituisce una entità naturale [Midoro, 2002]. 31 Tenendo presente il modello pedagogico costruttivista delle comunità di apprendimento, la ricerca si pone l’interrogativo di come fare a creare, in rete, processi di formazione caratterizzati da dinamiche di funzionamento analoghe a quelle “naturali” delle comunità di pratica. Nel cercare risposte occorre anzitutto tenere presente la distinzione principale fra i due tipi di comunità: le comunità di pratica sono caratterizzate, nel loro funzionamento, da forme di autoorganizzazione spontanea; le comunità virtuali di apprendimento (o VLC: virtual learning communities) invece vengono attivate da una progettazione esplicita [Manca e Sarti, 2002]. In una VLC assumono importanza fondamentale le caratteristiche della piattaforma telematica utilizzata. Non si tratta solamente di realizzare software che permettano l’interazione fra i partecipanti attraverso le modalità della CMC, ma piuttosto di mettere a punto una tecnologia che offra un vero supporto alla collaborazione via rete. La tecnologia collaborativa messa a punto deve permettere la mutua produzione di nuove pratiche, e per far questo deve essere concepita in modo tale da non orientare le attività degli utenti secondo modelli predefiniti. Andando oltre l’aspetto tecnologico, che rimane comunque fondamentale, Calvani [2005]elabora una definizione di VLC: essa può essere definita come un gruppo di persone che sono indotte a generare insieme conoscenza supportandosi reciprocamente; le dimensioni essenziali per una comunità di apprendimento diventano: identità di gruppo, interazione sociale, identità individuale, partecipazione, integrazione, orientamento al futuro, generazione di conoscenza, tecnologia. Alla luce degli argomenti trattati finora, la definizione appare abbastanza chiara; da precisare che, nel concetto di “identità di gruppo”, Calvani integra la mutualità, ossia quel rapporto di interdipendenza e reciprocità fra i membri senza il quale non potrebbe esistere comunità. Sono molti gli autori che si sono occupati di elaborare suggerimenti operativi orientati alla costruzione di VLC efficaci; qui si riportano quelli di Palloff e Pratt [1999, citati in Calvani 2005]: • definire chiaramente lo scopo del gruppo; • creare un distintivo spazio di raccolta per il gruppo; • promuovere efficace leadership dall’interno; • definire norme e un chiaro codice di condotta; • consentire un rango di ruoli per i membri; • consentire e facilitare sottogruppi; • consentire ai membri di risolvere i propri conflitti. 32 5. GESTIRE LA DIDATTICA IN RETE 5.1 I Learning Management system (LMS) Più volte, nel corso della trattazione dei capitoli precedenti, si è accennato alle piattaforme software dedicate alla progettazione e gestione di attività formative in rete. Esse vengono spesso chiamate Learning Management System (LMS), e possono essere distinte in alcune tipologie in base alle funzioni che sono chiamate a svolgere, che dipendono a loro volta dal tipo di approccio all’elearning che l’erogatore del corso decide di utilizzare. Una tassonomia degli approcci metodologici all’apprendimento in modalità e-learning è stata presentata nel capitolo 2: essa, per completezza di trattazione, includeva anche quegli approcci all’apprendimento in rete che non si presentano strutturati in forma di corso, cioè: • l’apprendimento individuale effettuato attraverso la ricerca in autonomia di materiale didattico presente in rete; • l’apprendimento reciproco caratteristico delle comunità di pratica. Concentrando l’attenzione sulle attività di apprendimento in rete concepite e organizzate come progetti di formazione, la tassonomia riduce la sua ampiezza a tre elementi, che Monica Banzato [2005] classifica come modelli di e-learning: • modello di formazione in autoapprendimento (individuale); • modello di formazione assistita; • modello di formazione collaborativa. Le caratteristiche generali di tali modelli sono state descritte nel capitolo 2, ed è opportuno precisare che questi tre modelli presentano complessità crescente, in termini tecnologici, organizzativi e comunicativi; ogni modello può essere visto come un sistema di e-learning, il cui grado di complessità ingloba le caratteristiche del modello inferiore. Per descrivere le funzioni che la piattaforma e-learning deve offrire per assolvere ai compiti formativi del sistema, si farà riferimento alla tassonomia dei modelli di e-learning elaborata da Banzato [2005]. 5.1.1 Modello di formazione in autoapprendimento Questo modello si basa sullo studio individuale di materiali didattici, prelevati in rete da una piattaforma e-learning, e può prevedere o meno la strutturazione dei materiali in forma di corso e test per l’auto-valutazione dell’apprendimento. In questo caso il LMS utilizzato deve garantire le seguenti funzioni di sistema: • supporto alla produzione, immagazzinamento, classificazione e aggiornamento continuo dei materiali; 33 • supporto all’accesso dell’utente ai materiali del corso e alle eventuali prove di valutazione; • supporto all’iscrizione telematica e agli accessi al sito dei partecipanti, al tracciamento delle attività svolte dagli stessi, al controllo delle attività formative svolte. Tra i punti di forza di questo modello di formazione in rete ci sono la flessibilità spazio/temporale di fruizione dei materiali didattici e i bassi costi di gestione del corso; tra i limiti si riscontrano la mancanza di assistenza e l’utilizzo di strategie didattiche che sotto-utilizzano le potenzialità offerte dalla rete. 5.1.2 Modello di formazione assistito La formazione assistita prevede lo studio di materiali didattici scaricati dalla rete, eventuali prove di auto-valutazione, ma anche l’assistenza per via telematica di esperti o tutor, che rispondono alle richieste dell’utente con chiarimenti e suggerimenti sul materiale didattico e sul percorso formativo previsto. Questo modello è più complesso, dal punto di vista organizzativo, del precedente, perché l’assistenza per via telematica richiede il supporto e la mutua interazione fra diverse figure: • staff tecnico, che gestisce le funzioni e i servizi offerti dalla piattaforma e-learning, ed interviene in caso di problemi tecnici; • assistenti di rete, che gestiscono la corretta fruizione delle informazioni da parte degli utenti; • tutor on line, che guidano e assistono i corsisti nel corso di tutto il processo formativo, interpretandone i bisogni ed interagendo con esperti, assistenti di rete e staff tecnico in modo tale da assicurare risposte appropriate; • esperti, i quali sono competenti nei contenuti del corso, e hanno il compito di fornire delucidazioni e/o approfondimenti ai corsisti; • studenti, che devono poter disporre di spazi virtuali anche per la mutua interazione, in modo tale da favorire lo scambio di pareri ed esperienze, nonché l’emersione di problematiche. Naturalmente, rispetto al modello precedente, la piattaforma LMS risulta tecnologicamente più complessa, proprio per la necessità di offrire adeguato supporto alle interazioni fra le figure sopra riportate; la complessità coinvolge sia l’aspetto telematico delle comunicazioni, che quello relativo alla facilità d’uso e produttività degli ambienti virtuali predisposti alla comunicazione. La piattaforma e-learning deve quindi offrire le seguenti funzioni: • tutte le funzioni del modello precedente, relative alla trasmissione dei materiali, gestione degli accessi degli utenti e tracciabilità del loro operato; • supporto a comunicazioni uno a molti, uno ad uno, molti a molti, sia asincrone che sincrone, 34 includendo quindi forum, mailing list, newsgroup, chat e web conference. • supporto a modalità di comunicazione mediata da computer che abbiano caratteristiche di: a) adeguatezza alle competenze informatiche dei corsisti; b) funzioni di editing adeguate alle esigenze del corso; c) facilità nella comunicazione di stati d’animo ed intenzioni (uso di emoticons, avatar, ecc.); d) adeguato supporto a privacy, sicurezza e copyright degli utenti. Anche questo modello ha tra i suoi punti di forza quello della flessibilità spazio/temporale di fruizione dei materiali didattici, ma soprattutto dispone di un complesso sistema di assistenza del corsista durante tutto il suo percorso formativo. Fra i limiti c’è sicuramente quello degli alti costi di gestione, sia per della messa a punto della piattaforma software, che per il coinvolgimento di un buon numero di professionisti dotati di competenze diversificate. 5.1.3 Modello di formazione collaborativo Si tratta del modello di funzionamento delle comunità virtuali di apprendimento (VLC), descritto nel capitolo 4, che consiste nell’applicazione delle dinamiche collaborative caratteristiche delle comunità di pratica ad un intervento formativo in rete appositamente progettato. Il repertorio condiviso di questa particolare comunità di pratica sarà costituito dai materiali didattici del corso, che attraverso i processi collaborativi messi in atto dai partecipanti verranno reificati in nuovi artefatti. Questo modello è il più complesso fra i tre, e differisce dal secondo, oltre che per le modalità di apprendimento (collaborativo/assistito), anche per la figura del tutor, che qui viene sostituita dal formatore [Banzato, 2005], il quale collabora assiduamente con le figure descritte per il modello di formazione assistita, venendo coinvolto nella gran parte delle attività dell’intervento formativo: • progettazione del corso; • sviluppo dei materiali; • sviluppo dell’interdipendenza fra i membri e del senso di appartenenza alla comunità; • assistenza ai membri ed incentivazione della loro motivazione; • pianificazione delle attività del corso ed elaborazione di valutazioni, sia in itinere che finali. Il ruolo del formatore è quindi cruciale per la riuscita del processo formativo, così come lo sono le funzioni principali che la piattaforma LMS deve svolgere: • tutte le funzioni del modello precedente, relative alla trasmissione dei materiali, gestione degli accessi degli utenti e tracciabilità del loro operato, supporto alle varie forme e modalità di CMC; • supporto alla condivisione dei materiali e delle informazioni; • supporto alla cooperazione fra tutti i partecipanti alla comunità (quindi, oltre agli studenti, anche 35 formatori, esperti, ecc.), nei termini di un ambiente virtuale adeguato a questo tipo di interazione. Uno dei punti di forza di questo modello è il superamento della concezione di apprendimento come trasferimento di conoscenza, per indirizzarsi verso il modello collaborativo: questo comporta la crescita dell’identità dell’individuo e la produzione di nuova conoscenza; un altro punto di forza è che i materiali prodotti possono essere utilizzati per edizioni successive o in altri corsi: questa considerazione apre l’argomento del riuso dei materiali didattici, che verrà affrontato nei paragrafi successivi. Un limite di questo modello è costituito, per ora, dalla scarsità di professionisti con la preparazione adeguata a progettare e gestire corsi organizzati sul modello di formazione collaborativo. 5.1.4 Alcune considerazioni sulla scelta della piattaforma e-learning Volendo cercare in rete una piattaforma e-learning si rimane disorientati dalla vastità della scelta. Solamente Wikipedia (http://www.wikipedia.org), alla voce “e-learning”, elenca , come piattaforme più conosciute, sei diversi modelli di piattaforme commerciali e ben tredici modelli di piattaforme open source. Fra le commerciali, si può fare l’esempio di BlackBoard (http://www.blackboard.com) e WebCT (http://www.webct.com). Fra quelle open source, si possono citare Moodle (http://moodle.org) e Atutor (http://www.atutor.ca). Sui criteri di scelta fra commerciale e open source Banzato [2004] propone alcune riflessioni. Anzitutto scegliere una piattaforma commerciale significa accettarla in toto, sapendo che la mancanza del codice sorgente fa si che il prodotto acquistato non si possa modificare; nel caso occorra, durante lo svolgimento del corso, qualche funzione particolare, non si potrà fare altro che rinunciarvi. Le piattaforme open source invece forniscono il codice sorgente, e spesso per ottenere la funzione desiderata è sufficiente qualche minima modifica in linguaggio PHP, associata eventualmente ad una o più query MySQL. Più schematicamente, Sergio Margarita [citato in Banzato 2004] propone un elenco per punti delle principali caratteristiche dei due approcci allo sviluppo del software. Le piattaforme proprietarie: • sono sviluppate in modo centralizzato; • sono gestite sulla base delle esigenze del produttore; • sono rilasciate secondo le politiche commerciali del produttore; • sono fornite in forma chiusa, senza possibilità per l’utente di accedere al codice sorgente né di modificarlo o correggerne gli errori; • costano e non poco. Le piattaforme open source: • sono sviluppate in modo distribuito, grazie allo sforzo congiunto di programmatori sparsi per il 36 mondo che collaborano via Internet; • sono messe gratuitamente a disposizione degli utenti, con libertà di duplicarlo e installarlo su un numero illimitato di macchine; • sono adattate e migliorate sulla base del riscontro fornito dagli utilizzatori; • possono essere modificate liberamente dall’utilizzatore (purché sufficientemente esperto) visto che sono disponibili i sorgenti (da cui il nome Open Source). Anche le considerazioni su longevità e facilità d’uso non risparmiano le piattaforme commerciali da severe critiche: ancora Banzato [2004] sostiene che “una piattaforma può durare due anni prima che esca la versione successiva. Ogni nuova versione aggiunge non meno errori di quelli che corregge, e ha come risultato un programma più grande e più complesso, che è sempre meno compatibile con i vecchi file, e che richiede di imparare nuovi comandi, nuove funzioni e nuove localizzazioni dei menu”. E’ questo un ottimo esempio delle due tentazioni mortali del progettista analizzate da Donald Norman [1997]. La prima è la proliferazione strisciante delle funzioni, cioè la tendenza dei progettisti di software e oggetti tecnologici di implementare, con l’arrivo di nuove versioni del prodotto, funzioni aggiuntive spesso inutili, che vanno ad incrementare di volta in volta la complessità del sistema, aumentando le probabilità che esso vada in crisi a causa di un errore di progettazione. La seconda è l’adorazione di falsi idoli, cioè la tendenza a creare prodotti dall’aspetto sofisticato ed appariscente, allo scopo di attirare possibili clienti; spesso però questa attenzione all’apparenza si traduce in un peggioramento della facilità d’uso del prodotto, con conseguente frustrazione dell’utente. E’ verosimile che chi progetta piattaforme open source cada di meno in questo tipo di tentazioni, perché manca alle sue spalle una società produttrice di software che spinge all’implementazione di funzioni ridondanti o ad effetto sulle piattaforme e-learning: i prodotti open source, essendo gratuiti, non hanno bisogno di diventare più appariscenti per attirare possibili compratori, e possono rimanere incentrati sulle funzioni davvero utili per il sistema. In conclusione, due strade appaiono possibili nella scelta di una piattaforma e-learning: la via commerciale, che offre un prodotto che ha un costo e che si presenta preconfezionato e difficilmente modificabile; la via open source, che offre un prodotto gratuito e che, ai volenterosi che vogliano applicarsi un minimo in alcuni linguaggi di programmazione (anch’essi open source), fornisce buone possibilità di personalizzazione. 5.2 Il riuso dei materiali didattici: i Learning Object (LO) Con lo sviluppo delle applicazioni FaD che fanno uso della telematica, i materiali didattici sono stati sempre più riversati in rete, andando a costituire una preziosa risorsa a disposizione di chi realizza interventi formativi che fanno uso di tecnologie informatiche. Infatti, la preparazione di 37 materiale didattico in formato digitale ha un costo, sia economico che in termini di tempo: la possibilità di reperire materiali didattici in rete, già pronti (o quasi) all’uso, costituisce una notevole opportunità di risparmio di risorse. Il problema che si configura appare subito evidente: come catalogare i materiali didattici reperibili in rete, in modo da favorirne il reperimento ed il conseguente riuso? Come si può facilmente immaginare, i tentativi di indicizzazione sono stati molteplici, attraverso una varietà di criteri metodologici e di procedimenti tecnologici. Allo stato attuale, il paradigma che si è affermato maggiormente è quello dei learning object (LO), la cui idea ispiratrice risale ai primi ’90, periodo nel quale Merrill ed altri ricercatori sviluppano la Instructional Transaction Theory [Petrucco, 2004]: essa prevede che, in un percorso formativo, contenuti e strategie didattiche possano essere separati, in maniera tale da favorire l’aggiornamento dei materiali. L’idea di modularità appartiene anche al concetto di learning object: questo termine è stato coniato da Wayne Hodgins nel 1994, e si riferisce a blocchi di materiale didattico, che possono essere visti come i mattoncini delle costruzioni LEGO: se assemblati opportunamente, essi possono dar vita a interi percorsi didattici, per essere poi conservati e riutilizzati all’occorrenza, magari in contesti formativi differenti. Per esempio, un LO che trattasse dei fondamenti della chimica potrebbe essere utilizzato tanto in un corso di medicina, quanto in uno di ingegneria o farmacia. Dei LO sono state date varie definizioni, più o meno formali: l’IEEE (Institute of Electrical and Electronics Engineers), una delle principali organizzazioni mondiali che si occupano di standard, li definisce come qualsiasi entità digitale o non digitale, che può essere usata, riusata e alla quale fare riferimento durante l’apprendimento supportato dalla tecnologia [IEEE 2002, citato in Alvino et al 2006b]; David Wiley ne propone una più sintetica e meno generica: qualsiasi risorsa digitale che può essere riutilizzata per supportare l’apprendimento [Wiley 2000, citato in Alvino et al 2006b]. La definizione a cui si fa riferimento qui è quella data da Alvino e Sarti [2006a]: un LO è visto come un’unità di conoscenza autoconsistente, con un obiettivo didattico ben definito, di dimensioni ridotte, usabile e riusabile in diversi contesti di apprendimento, sia didattici che tecnologici (in questo caso di parla di interoperabilità), facilmente reperibile tramite apposite descrizioni o metadati. In merito alla definizione appena fornita, si può dire che un LO può essere considerato autoconsistente quando il suo contenuto non ha bisogno di riferirsi a quello di altri LO per poter essere fruito. La dimensione ottimale, o granularità, di un LO non ha limiti definiti con precisione, in quanto si trova legata al grado di decontestualizzazione del contenuto didattico. 38 Tenendo presente le caratteristiche appena descritte, si può affermare che un LO, in genere, risulta costituito dai seguenti elementi: • un obiettivo di apprendimento chiaramente esplicitato; • il contenuto didattico che ne rappresenta le parti di descrizione dei concetti, generalmente in forma multimediale; • una sezione interattiva costituita da esercitazioni e soprattutto da assessment o prove di valutazione che consenta di stabilire se l’obiettivo è stato raggiunto [Alvino et al, 2006b]. 5.2.1 Alcuni esempi di LO Vengono forniti di seguito alcuni esempi di learning object, con lo scopo di migliorare la chiarezza espositiva sull’argomento e di agevolare la comprensione delle tematiche presentate nei paragrafi successivi. Pharmacokinetic Learning Object (http://icarus.med.utoronto.ca/lo/pharmacology9/index.swf) è un LO riguardante i principi terapeutici della farmacologia. Lo studente ha a disposizione pagine testuali che illustrano alcuni dei principi base di medicina legati alla farmacologia, che può verificare attraverso le simulazioni che il LO mette a disposizione. In base ai valori assunti dalle voci degli esami clinici di ipotetici pazienti, lo studente può esercitarsi ad individuare la terapia più idonea, constatandone gli effetti sulla simulazione effettuata. Il LO è corredato di una guida per lo studente ed una per il docente; queste guide indicano rispettivamente: le modalità previste di fruizione del LO da parte dello studente; le possibili strategie didattiche applicabili al LO in relazione agli obiettivi di insegnamento che il docente si pone. Anche Cannon simulation (http://jersey.uoregon.edu/vlab/Cannon/index.html) è concepito per simulare una situazione del mondo reale, ma differentemente dal caso precedente non fornisce nozioni teoriche, bensì materiale di complemento utilizzabile in un corso di fisica. In esso troviamo una applet java che simula lo sparo di una palla di cannone verso un bersaglio: lo studente, attraverso la regolazione di parametri quali la velocità del proiettile, l’angolo di tiro, la resistenza del vento ecc. può tentare di centrare il bersaglio, sperimentando le modalità con cui le leggi fisiche regolano il mondo reale. Una tipologia di LO completamente diversa dalle precedenti è quella della WebQuest, un’attività orientata all’indagine in cui alcune o tutte le informazioni con cui gli studenti interagiscono provengono da risorse disponibili in Internet [Dodge 1995, citato in Alvino et al 2006b]. In questo tipo di attività gli studenti vengono organizzati in gruppi e stimolati ad attuare processi collaborativi per ricercare informazioni su un determinato argomento, per poi strutturarle in nuovi artefatti ( testi scritti, ipertesti, prodotti multimediali ecc.). Risulta evidente come questa tipologia sia basata su 39 modelli pedagogici facenti capo al costruttivismo socio-culturale. Un esempio di WebQuest in italiano è Etiopia (http://www.itsos.gpa.it/storia/webquest/etiopia/frame2.htm), nella quale ogni gruppo di studenti è chiamato a svolgere una specifica funzione: geografo, storico, viaggiatore, giornalista, cooperatore; tutti i gruppi ricercano in rete informazioni legate alle rispettive funzioni e realizzano prodotti derivanti dai materiali reperiti. La valutazione finale verte sia sul processo (attivazione nella ricerca di informazioni, organizzazione del lavoro, efficacia della collaborazione) che sul prodotto (corrispondenza con le consegne, efficacia e correttezza comunicativa ottenute). Ultimo esempio preso in esame è quello di Hot Potatoes 6 (http://hotpot.uvic.ca/), un LO che permette di creare sei diversi tipi di test ed esercizi interattivi visualizzabili da qualsiasi browser. I test sono compilati da Hot Potatoes in HTML e JavaScript, linguaggi che l’utente non ha necessità di conoscere ai fini di questo programma. La particolarità di questo LO consiste nel fatto di non essere rivolto direttamente agli studenti, ma piuttosto a docenti e progettisti impegnati nel compito di preparare materiale didattico. Come si può dedurre da questa breve panoramica, il mondo dei LO è variegato e complesso, e pone interrogativi inerenti l’indicizzazione, la standardizzazione e la connotazione pedagogica dei materiali didattici: questi argomenti verranno trattati nei prossimi paragrafi. 5.2.2 Indicizzazione e standardizzazione dei LO L’obiettivo del riuso pone le questioni della catalogazione dei materiali didattici e della standardizzazione tecnica, in modo da favorire il reperimento e l’interoperabilità del LO. I LO vengono catalogati attraverso i metadati (dati che descrivono altri dati) , cioè una serie di descrittori che includono varie informazioni, fra cui formato,dimensione, caratteristiche didattiche, autore e versione, che compongono lo standard internazionale LOM (Learning Object Metadata), il quale consiste di nove categorie di descrittori, molti dei quali non sono diversi da quelli utilizzati nella catalogazione bibliotecaria. In rete esistono diversi repositories, che possono essere considerati come biblioteche digitali specializzate, dove i LO possono essere reperiti. L’esempio più conosciuto è probabilmente quello di MERLOT (Multimedia Educational Resource for Learning and Online Teaching, http://www.merlot.org ), che consente il reperimento dei materiali didattici in base ai metadati che li descrivono. Lo standard LOM è stato elaborato dalla IMS ( Instructional Management System Global Learning Consortium), un ente formato da organizzazioni governative, commerciali e formative, che ha lo scopo di promuovere a livello internazionale la standardizzazione fra applicazioni e servizi nell’elearning, in modo da favorire l’interoperabilità. L’IEEE ha poi recepito lo standard di fatto IMSLOM, tramutandolo in uno standard di diritto, divenuto IEEE-LOM 1484.12.1. 40 La standardizzazione tecnica si rende necessaria soprattutto per fare in modo che un qualsiasi LO possa essere fruito attraverso piattaforme LMS diverse (interoperabilità), e che le operazioni eseguite sul LO da parte di chi ne usufruisce possano essere tracciate dalla gestione didattica del corso, allo scopo di eseguire valutazioni e decidere così le azioni da intraprendere. Il problema che qui si pone è duplice: in primo luogo occorre un criterio uniforme di packaging, cioè di confezionamento standard del LO e dei suoi metadati in un file interscambiabile fra sistemi informatici; in secondo luogo occorre un’interfaccia di comunicazione standard fra il LO e la piattaforma LMS che lo gestisce. Lo standard affermatosi per il packaging è IMS-CP (Content Packaging): il package è costituito da un file compresso, nel quale si trovano i file che costituiscono il contenuto del LO, ed un manifest, un file in formato XML che contiene i metadati e descrive la struttura del LO. Per quanto riguarda la comunicazione fra il LO e la piattaforma, la specifica tecnica che si è affermata è quella dell’AICC (Aviation Industry CBT Committee), un consorzio nato nel 1988 per supportare la formazione a distanza nel settore aeronautico. Lo standard IMS-CP è stato successivamente incorporato nella specifica tecnica SCORM, messa a punto dalla ADL (Advanced Distributed Learning), un’agenzia che fa capo a enti governativi statunitensi operanti principalmente nel settore militare. Da qualche anno questa agenzia elabora proposte di standardizzazione nel campo dell’e-learning: SCORM (Shareable Content Object Reference Model) è una specifica tecnica che riunisce in una unica cornice operativa (framework) gli standard e le specifiche tecniche utilizzate per i LO: IEEE-LOM, IMS-CP, AICC. In sintesi, nel campo dei learning objects ADL-SCORM si configura come la specifica tecnica di riferimento per: • l’indicizzazione del LO tramite metadati; • il suo confezionamento assieme a metadati ed informazioni correlate; • la comunicazione fra LO e LMS. 5.2.3 Learning object: i limiti dell’approccio oggettivista I learning object, come strumento didattico, nascono nell’ambito del paradigma pedagogico oggettivista che, in linea con i fondamenti epistemologici del cognitivismo, considera la conoscenza come ontologicamente data, formalmente rappresentabile e, in qualche modo, trasferibile dall’agente istruzionale al discente [Sarti, 2006]. In questo contesto, la conoscenza diventa “informazione” e l’apprendimento viene visto come “elaborazione dell’informazione” all’interno di un processo comunicativo; l’agente istruzionale che ha il compito di trasmettere l’informazione/conoscenza al discente può essere indifferentemente un libro, un docente o un 41 learning object. La standardizzazione dei LO è avvenuta all’interno di questo quadro concettuale, e ne ha assunto i caratteri fondamentali. Oggi invece si è affermata la tendenza a vedere l’apprendimento come un processo di costruzione individuale delle competenze, che si trasformano ed arricchiscono attraverso l’interazione con la conoscenza di altri individui. L’apprendimento individuale diventa il risultato di un processo negoziale e il sapere si relativizza, poiché tutto ciò che viene appreso viene interpretato in funzione del contesto, del bagaglio culturale e del vissuto personale [Alvino e Sarti, 2006b]. La conoscenza acquisita dallo studente non coincide perciò con la somma delle informazioni acquisite, ma si configura come il prodotto di una costruzione individuale, frutto dei processi di interazione instaurati dal discente con il contesto, il docente e gli altri studenti. Come fa notare David Wiley [2000, citato in Alvino e Sarti 2006a] la standardizzazione dei LO effettuata ai fini del loro riuso conduce ad un paradosso: come accade per qualunque altra risorsa utilizzata per l’apprendimento, il valore didattico del LO aumenta di pari passo con la presenza in esso di elementi di contesto; ma quanto più il LO è caratterizzato da elementi di contesto, tanto meno diventa riusabile. Alvino e Sarti [2006a] imputano questo paradosso alla scarsa rilevanza attribuita al contesto dal paradigma trasmissivo della conoscenza, all’interno del quale sono effettivamente “nati” i LO. In definitiva, la visione costruttivista dell’apprendimento presuppone modelli ed ambienti didattici fondati su processi dialogici e collaborativi, mentre l’iniziale approccio dei LO e l’attuale standardizzazione limitano la visione dell’apprendimento alla fruizione individuale dei materiali. 5.2.4 I LO in chiave costruttivista: quali prospettive di standardizzazione? Sono in corso differenti iniziative volte ad integrare la standardizzazione in uso con informazioni (metadati) di carattere pedagogico, in modo da favorire il reperimento e riuso di LO corredati degli elementi di contesto (risorse, processi, strategie) adatti all’utilizzo in un ambiente di apprendimento costruttivista. Una di queste è GEM (Gateway to Educational Materials Standard), che a metadati di carattere generale aggiunge altri metadati adatti a classificare comunità di apprendimento. Lo standard GEM 2.0 introduce elementi che descrivono la tipologia di utenza verso cui si rivolge il LO, indicazioni sul tempo necessario a fruire della risorsa descritta, la metodologia didattica utilizzata, i criteri di valutazione, i prerequisiti di apprendimento , ecc. Un’altra iniziativa in questo senso è EdNA (Education Network Australia Metadata Standard), che ha sviluppato un framework nazionale per supportare la collaborazione fra tutti i settori educativi australiani. EdNA Metadata Standard riprende lo standard GEM , integrandolo con ulteriori otto 42 elementi che, fra le altre cose, prevedono la possibilità per i fruitori di inserire commenti o recensioni del LO. L’ultima iniziativa da citare è quella sviluppata dall’Istituto di Matematica Applicata e Tecnologie Informatiche (IMATI) e dall’ Istituto per le Tecnologie Didattiche (ITD) del CNR di Genova, che propone un modello per la connotazione pedagogica dei LO. Tale modello integra i descrittori previsti dagli standard internazionali con altri metadati relativi a: • contesto di utilizzo (utente finale, settore didattico/formativo, prerequisiti); • caratteristiche pedagogiche del materiale (obiettivi e tempo di apprendimento, tipo di interattività, funzioni svolte dagli eventuali mediatori); • struttura e tipologia di approccio adottato dal materiale [Alvino et al, 2006b]. La particolarità di questo approccio consiste nella classificazione del LO come materiale didattico rivolto non solo agli studenti. Infatti molto spesso le risorse riusabili a supporto dell’apprendimento sono costituite anche da meta-modelli di supporto alle attività di pianificazione, progettazione e organizzazione di interventi didattici, rivolti ai docenti [Alvino et al, 2006a]. Il modello di connotazione pedagogica distingue quindi fra LO rivolti a docenti o progettisti istruzionali (Learning Design LO) e LO rivolti a studenti. Questi ultimi si suddividono a loro volta in Functional LO (materiale di complemento ai corsi, che non ha preciso orientamento pedagogico) e Structured LO ( materiale dotato di espliciti obiettivi di apprendimento che prevede una specifica strategia didattica). La scelta fra queste tre tipologie di LO viene effettuata tramite il descrittore fondamentale “Pedagogical Model Type”, che permette l’accesso a cinque categorie di descrittori, differenziate in base alla scelta effettuata. Per esempio, la categoria di descrittori “Pedagogical model”, che descrive la principale tipologia di approccio pedagogico adottato dal LO, si compone di uno o più elementi, a seconda della tipologia di LO individuata: • Functional LO: elemento Resource Type; • Structured LO: elementi Subtype, Didactic Strategy, Activity/Assignment, Assessment; • Learning Design LO: elementi Suggested didactic strategies, Hints for activity/assignment, Hints for assessment. Le altre categorie del modello sono: • General: fornisce informazioni sulla lingua in cui è scritto il LO e sulla lingua che si suppone sia utilizzata dal fruitore; • Audience: descrive le caratteristiche dell’utente finale che utilizzerà il LO; • Educational Features: fornisce indicazioni sul tipo di interattività che caratterizza il LO, sul percorso didattico proposto, sulle abilità cognitive che il LO si propone di attivare e sul tempo 43 necessario alla fruizione completa della risorsa; • Annotation: riservata ai commenti sull’utilizzo didattico del LO. Il dibattito sui LO, nell’intento di integrare al loro interno informazioni pedagogiche e metaconoscenze progettuali, ha portato anche al superamento del concetto di “materiale didattico”, per concentrarsi sulle “unità di studio”. In base a questa visione, i processi didattici possono essere descritti nella loro interezza attraverso la loro formalizzazione in appositi linguaggi, denominati EML (Educational Markup Languages). La proposta più interessante in questo ambito è stata quella di Rob Koper della Open University of Nederland, che ha elaborato un linguaggio descrittivo in grado di descrivere qualsiasi tipo di attività didattica, attraverso un vocabolario di elementi base da cui derivare tutti i componenti delle unità di studio (UOL- Unit Of Learning): questo linguaggio è stato denominato EML (Educational Modelling Language). Il consorzio IMS ha ripreso il linguaggio di Koper, codificandolo in linguaggio XML e rendendolo compatibile con la specifica IMS-CP: da questo lavoro è derivata la specifica IMS Learning Design (IMS-LD), che però si rivela scarsamente applicata. L’ambizione di IMS-LD, e della disciplina del Learning Design in genere, è quella di ingegnerizzare i processi didattici, rendendo qualunque esperienza educativa simile ad una sceneggiatura teatrale o cinematografica, basata sull’attribuzione di ruoli e sull’esecuzione di attività. Questo tipo di approccio ha dato luogo a critiche, provenienti soprattutto dalla comunità di utenti e sviluppatori della piattaforma Moodle, convinti che la codifica anticipata dei processi di insegnamento sia contraria alla naturale componente di improvvisazione che fa parte del mestiere di insegnare. Infatti, una delle caratteristiche peculiari di Moodle è proprio la possibilità di intervento in corso d’opera, allo scopo di modificare o integrare le attività in corso in base alle necessità che possono presentarsi di volta in volta. Riferimenti bibliografici Alvino S., Busetti E., Ierardi M.G., Forcheri P. (2006a), Apprendimento in rete e risorse didattiche riusabili, TD-Tecnologie Didattiche n. 39, Edizioni Menabò, Ortona. Alvino S., Fini A., Sarti L. (2006b, in stampa), Oltre i Learning Object: dal modellare i contenuti al modellare i processi didattici, Serie FIRB, Edizioni Angelo Guerini, Milano. Alvino S., Sarti L. (2006a), Strumenti per la progettazione nell’e-learning, TD-Tecnologie Didattiche n. 39, Edizioni Menabò, Ortona. 44 Alvino S., Sarti L. (2006b), Valutazione dell’apprendimento e learning objects in ambito CSCL:alcune riflessioni, http://isdm.univ-tln.fr/PDF/isdm25/AlvinoSarti_TICE2006.pdf. Bartoloni M. (2003), Didattica e tecnologie digitali: nuove opportunità per l’apprendimento, http://www.infoaccessibile.com/profad_b/bartoloni.htm. Banzato M. (2002), Apprendere in rete: modelli e strumenti per l’e-learning, UTET, Torino. Banzato M., Corcione D. (2004), Piattaforme per la didattica in rete, TD-Tecnologie Didattiche n. 33, pp. 22-31, http://www.itd.cnr.it/TDMagazine/PDF33/banzato_corcione.pdf. Banzato M., Midoro V. (2005), Modelli di e-learning, TD-Tecnologie Didattiche n. 36, pp. 62-73, http://www.itd.cnr.it/TDMagazine/PDF36/banzato-midoro.pdf. Calvani, A. (2005) Rete, comunità e conoscenza. Costruire e gestire dinamiche collaborative, Erickson, Trento. Coinu M. (2006), Le teorie dell’apprendimento, http://www.comunicazione.uniroma1.it/materiali/2.11.20_Coinu_dispensa_20070510.pdf. De Biasi R. (2002), Che cos’è la sociologia della cultura, Carocci, Roma. Jakobson R. (1972), Saggi di linguistica generale, Feltrinelli, Milano. Manca S., Sarti L. (2002), Comunità virtuali per l’apprendimento e nuove tecnologie, TDTecnologie Didattiche n. 25, pp. 11-19, http://www.itd.cnr.it/TDMagazine/PDF25/Com_Virtuali.pdf. Mecacci L. (a cura di, 2001), Manuale di psicologia generale, Giunti Editore, Firenze. Midoro V. (2002), Dalle comunità di pratica alle comunità virtuali di apprendimento, TDTecnologie Didattiche n. 25, pp. 3-10, http://www.itd.cnr.it/TDMagazine/PDF25/Com_Pratica.pdf. Norman, D. (1997), La caffettiera del masochista, Giunti Editore, Firenze. Petrucco C. (2004), I learning object: la condivisione dei materiali didattici come naturale evoluzione del web, TD-Tecnologie Didattiche n. 31, pp. 49-58, http://www.itd.cnr.it/TDMagazine/ PDF31/petrucco.pdf. Santilli R. (2006), Il mestiere dell’instructional designer, FrancoAngeli, Milano. Sarti L. (2006), Editoriale, TD-Tecnologie Didattiche n. 39, pp. 2-3, http://www.itd.cnr.it/TDMagazine/PDF39/editoriale.pdf. Sarti L. (2004), Intelligenza Artificiale ed E-Learning: un rapporto problematico, http://archivio.wbt.it/index.php?risorsa=intelligenza_artificiale_stampa2. Sugliano A.M. (2004), Dispense del corso di Psicologia dei gruppi virtuali, Università di Genova, Anno Accademico 2004-2005. 45 Trentin G., (2000), Dalla formazione a distanza alle comunità di pratica attraverso l’apprendimento in rete, TD-Tecnologie Didattiche n. 20, pp. 21-29, http://www.itd.cnr.it/TDMagazine/PDF20/Trentin.pdf. Varisco B.M. (1995), Paradigmi psicologici e pratiche didattiche con il computer, TD-Tecnologie Didattiche n.7, pp. 57-68, http://www.itd.cnr.it/TDMagazine/PDF7/varisco.pdf. Varisco B.M. (2002), Costruttivismo socio-culturale, Carocci, Roma. 46