Nel corso degli ultimi anni, Internet e il settore collegato all’information technology sono stati protagonisti di un cambiamento rapido e profondo dell’economia, il quale promette di riverberarsi sul nostro modo di vivere, lavorare ed essere cittadini. Già oggi, la produzione, la distribuzione e l’uso della conoscenza rivestono un ruolo primario nella creazione della ricchezza, ma nel corso dei prossimi anni diventeranno la principale forza propulsiva dello sviluppo economico. Nel corso di questo lavoro vengono prese in considerazione le caratteristiche economiche che contraddistinguono questo fenomeno quali i problemi legati all’incertezza sulla qualità dei beni, le rinnovate possibilità di discriminazione di prezzo e le esternalità di rete e il positive feedback. Si discutono poi brevemente i possibili effetti che ciò avrà sulla struttura di mercato e sui rapporti tra consumatori e imprese e il fatto che il fattore competitivo più importante per un’impresa sarà quello di attirare uno dei pochi fattori che diventeranno scarsi: l’attenzione umana. Infine, vengono analizzati gli effetti sui consumatori e sulle imprese dell’innovazione più importante che Internet ha portato con sé: il commercio elettronico. Il fenomeno viene analizzato sia dal punto di vista teorico, sia dal punto di vista empirico, tramite un’analisi statistica delle caratteristiche dei consumatori della rete e dell’importanza relativa che essi attribuiscono a fattori quali il prezzo, la comodità, la varietà, la qualità dell’informazione del prodotto che possono ricevere su Internet e infine il piacere in sé derivante dal fare acquisti in un modo nuovo e tecnologicamente avanzato. Man mano che ci addentriamo nell’Era dell’Informazione, una quota crescente dei beni e servizi scambiati sui mercati mondiali sarà costituita da information goods. Sotto questa definizione ricadono tutti i beni che possono essere espressi in forma digitale come, ad esempio, i film, la musica, le quotazioni azionarie, le notizie e naturalmente il software e le pagine web. Tuttavia, anche i beni fisici quali il cibo, i vestiti e gli elettrodomestici, avranno un crescente contenuto informativo. Lo dimostrano la realizzazione di piattaforme operative in grado di far comunicare tra loro le diverse apparecchiature di un’abitazione, ma anche il fatto che il testimonial spesso incide sui costi di un prodotto più che l’intera manodopera dei paesi in via di sviluppo che lo assembla. Le caratteristiche dei mercati su cui vengono scambiati questo tipo di beni e le strategie di prezzo che li contraddistinguono sono in buona misura determinate da quattro loro proprietà: Il fatto che siano experience goods, cioè beni di cui si può determinare il valore solo dopo averli consumati. Il fatto che presentino alti costi fissi di produzione e bassissimi costi marginali di riproduzione e che pertanto fissare il prezzo pari al costo marginale comporta delle perdite. Il fatto che abbiano alcune caratteristiche proprie dei beni pubblici come la non rivalità e talvolta la non escludibilità. Il fatto infine che presentino esternalità di rete in base alle quali il valore del bene dipende da quanti altri consumatori lo utilizzano. Experience Goods Nessuno di noi conosce il valore di un quotidiano prima di averlo letto, ma una volta che ciò è avvenuto non è più disposto ad acquistarlo, quale che fosse l’utilità per lui dell’informazione in esso contenuta. Lo stesso accade per tutti i tipi di informazione, ma anche per i beni di consumo durevoli e i cibi al ristorante, e può generare seri problemi o addirittura minacciare l’esistenza dei mercati su cui questi beni vengono scambiati. A questo problema può essere applicato l’approccio formulato per la prima volta da Akerlof nel 1970 nell’analisi del mercato delle auto usate. In questo contesto i venditori sono perfettamente a conoscenza della qualità dell’auto mentre gli acquirenti non la sanno valutare a priori. Ciò fa sì che questi ultimi siano disposti a pagare al più un prezzo pari al valore atteso dell’auto, E(nHpH + nLpL)1, prezzo ritenuto più che soddisfacente dai venditori di auto di bassa qualità, ma troppo basso dai venditori di auto di auto di alta qualità che sceglieranno pertanto di uscire dal mercato. I consumatori, consci di questo fatto, pagano un prezzo al più pari a pL e il mercato delle auto di qualità scompare. Allo stesso rischio sono esposti i mercati di experience goods poiché i consumatori, incerti sul valore da attribuire al bene prima di averlo consumato, non sono disposti a pagare un prezzo superiore al valore atteso e in alcuni casi questo non è sufficiente ad indurre i produttori di beni di qualità ad entrare sul mercato. La soluzione risiede nella possibilità per questi ultimi di mandare un segnale credibile circa la qualità del proprio prodotto. Di per sé, un prezzo elevato non basta a questo scopo a meno che non vi sia un numero sufficiente di consumatori informati disposti a pagare tale prezzo e la struttura del mercato comporti ingenti costi irrecuperabili tali da scoraggiare strategie “mordi e fuggi” di imprenditori disonesti. Il problema è tanto più accentuato quanto più è limitata la vita del prodotto, occasionale il suo acquisto, e di breve periodo la permanenza sul mercato programmata dal produttore. A questo proposito Gale e Rosenthal (1994) costruiscono un modello dinamico di interazione strategica tra consumatori e imprese che producono experience goods. In questo modello esistono due tipi di imprese: il primo tipo produce beni di bassa qualità ed è caratterizzato da costi fissi nulli, il secondo tipo produce beni di elevata qualità e sopporta un costo fisso iniziale positivo, ma non è in grado di segnalare in modo credibile la qualità dei propri prodotti. In questo contesto, un’impresa del secondo tipo è costretta a fissare inizialmente un prezzo basso e incorre in perdite. In un secondo momento, dopo essersi guadagnata un reputazione di qualità ed 1 nH e nL indicano la numerosità delle auto di alta e bassa qualità rispettivamente, pH e pL i loro prezzi. aver allargato la base dei suoi consumatori, alza il prezzo e recupera le perdite. Infine, quando si accorge che la cessazione dell’attività è prossima, mantiene alto il prezzo e degrada la qualità dando fondo al patrimonio di credibilità acquistato nei periodi precedenti. Anche i consumatori sono di due tipi: un tipo non riceve alcuna utilità aggiuntiva da un bene di alta qualità rispetto ad uno di bassa qualità, l’altro tipo apprezza invece la qualità e cerca attivamente imprese in grado di offrirla. Quest’ultimo non sostiene costi di ricerca se non quello relativo al costo opportunità dovuto all’interruzione del consumo. Inoltre, egli è all’oscuro della qualità offerta in passato dall’impresa e dell’insorgere di minacce che possono preludere alla cessazione dell’attività e si accorge solo dopo un certo lasso di tempo che l’impresa da cui acquista ha degradato la qualità. Tuttavia, è razionale e conosce il funzionamento del modello e quindi sa che ad un certo stadio della loro esistenza tutte le imprese cominceranno a produrre beni di bassa qualità e li venderanno ad un prezzo elevato. Date queste condizioni, l’equilibrio del modello comporta che una volta che il consumatore ha trovato un’impresa che produce beni di qualità è per lui ottimale restarle fedele fino a quando non sarà lui stesso ad accorgersi della bassa qualità del prodotto e iniziare nuovamente la ricerca. I due autori pongono delle ipotesi restrittive, quali il fatto che i consumatori abbiano vita infinita e soprattutto che non possano conoscere la storia passata dell’impresa e che pertanto la reputazione di qualità si possa costruire solo in base ad una prova diretta e non grazie al passaparola. Tuttavia, questo modello indubbiamente coglie alcuni importanti aspetti della realtà quali le strategie di fissazione del prezzo perseguite dalle imprese per allargare la propria clientela e le forze sottostanti al gioco che vede contrapposti imprese e consumatori. In generale, le soluzioni proposte al problema dell’incertezza sui valori dei beni sono molteplici e trovano amplia applicazione nella realtà. Una di esse è la reputazione: non sappiamo con certezza il valore del quotidiano di oggi, ma il fatto che in passato ci sia stato utile fa sì che siamo disposti a comprarlo anche oggi. Di qui il vantaggio competitivo di possedere un marchio largamente conosciuto e sinonimo di qualità. Un’altra possibile soluzione è la creazione di intermediari che abbiano le conoscenze tecniche necessarie per valutare il bene e che dietro pagamento di un prezzo offrano i loro servizi ai consumatori sotto forma di report sulla qualità o alle imprese sotto forma di certificazione della qualità. Questo accade già oggi per esempio nel caso delle recensioni dei film, ma avrà una diffusione crescente man mano che aumenta la quota delle information goods sul totale dei beni e che cresce il carico di informazioni che viene sottoposto all’attenzione umana rispetto a quello che essa può assorbire. Un approccio alternativo a quest’ultima soluzione è la stipula di contratti incompleti direttamente tra produttori e consumatori. Un contratto di questo tipo è ottimale quando non è possibile verificare che la controparte adempia. Esso non specifica esattamente tutti i termini del contratto allo scopo di creare un incentivo per entrambe le parti a produrre il miglior risultato possibile. Un esempio noto è costituito dai contratti di fornitura in cui l’acquirente ispeziona la qualità dei beni solo saltuariamente, ma si riserva di interrompere il rapporto contrattuale in ogni momento. L’aspetto mancante è in questo caso una scadenza prestabilita. In questo modo si scoraggia un comportamento scorretto da parte del fornitore prefigurando come “punizione” lo scioglimento irrevocabile del contratto. I vantaggi rispetto al caso di intermediari risiedono principalmente nel risparmio di costi e nella possibilità per le imprese di ideare prodotti più rispondenti alle esigenze dei consumatori grazie al contatto diretto con essi. Gli svantaggi risiedono nel fatto che questo schema non è utile in caso di acquisti occasionali e di piccolo importo perché la minaccia di interruzione può non essere sufficiente ad indurre il fornitore ad astenersi da pratiche scorrette. Infine, si può ovviare al problema dell’incertezza sulla qualità permettendo ai consumatori di saggiare gratuitamente il prodotto. Questa strategia consente di segmentare il mercato ed è utile soprattutto nel caso in cui il costo di produzione sia maggiore del valore atteso del bene e quindi senza segmentazione il mercato scomparirebbe. In particolare, la sua convenienza può essere determinata confrontando le valutazioni dei consumatori e il costo unitario di produzione. Supponiamo per semplicità che vi siano due soli tipi di consumatori: il primo dopo averlo provato valuta il bene pH, mentre il secondo lo valuta pL, con pH>pL. Siano inoltre c il costo unitario di produzione del bene e qH e qL le rispettive numerosità dei due gruppi. Se l’impresa non consente prove gratuite dovrà fissare un prezzo pari al valore atteso del bene perché nessun consumatore sa di che tipo egli sia e non sarebbe dunque disposto ad acquistare per un prezzo superiore. In questo caso tutti acquistano il bene e i profitti saranno: Π= qH pH + qL pL qH + qL -c (qH + qL ) Se invece l’impresa permette prove gratuite sarà in grado di segmentare il mercato e vendere solamente a coloro che hanno una valutazione elevata del bene. I profitti in questo caso saranno: Π’ = (PH – C ) QH Quest’ultima strategia è conveniente per l’impresa se: QH P H + Q L P L (pH – c ) qH ≥ qH + qL -c (qH + qL ) che equivale a pL ≥ c Dunque se il prezzo che i consumatori con bassa valutazione del bene sono disposti a pagare è inferiore al costo unitario di produzione è conveniente per l’impresa escluderli dal mercato e servire soltanto la fascia alta del mercato. Se la segmentazione non fosse possibile il mercato scomparirebbe in corrispondenza di un costo unitario maggiore del valore atteso del prezzo. Infatti: Π= per c ≥ qH pH + qL pL qH + qL -c (qH + qL ) ≤ 0 qH pH + qL pL qH + qL La fattibilità di questa strategia dipende in parte dalle caratteristiche del prodotto: per esempio è ottima per i film, ma comporta problemi per le fotografie e i database. Tuttavia la tecnologia permette di rimediare in parte a queste situazioni: nel caso delle fotografie ad esempio si possono offrire come campione le immagini in formato molto ridotto in modo che chi è interessato all’acquisto compri i formati più grandi. Per quanto riguarda invece i libri e gli articoli scientifici è noto che leggerli online è molto scomodo e che quindi la loro presenza in rete non danneggia le vendite, ma le aumenta grazie al maggior numero di persone che ne viene a conoscenza. In generale, esiste un trade-off tra l’aumento del numero dei potenziali clienti che derivano dal dare via gratuitamente parte del bene e il rischio che a causa di ciò i consumatori si accontentino del campione e non sentano più la necessità di acquistare il prodotto. Struttura dei Costi e Strategie di Prezzo Una delle caratteristiche più importanti delle information goods consiste nel presentare elevati costi fissi di produzione della prima copia, ma bassissimi costi marginali di riproduzione e distribuzione delle copie successive. Inoltre, i costi fissi sostenuti non sono recuperabili in caso di insuccesso e per il lancio del prodotto sono necessarie forti spese promozionali. La conseguenza di questa particolare struttura dei costi è che fissare il prezzo al livello del costo marginale non consente di ottenere ricavi sufficienti a coprire i costi fissi e a queste condizioni non è conveniente per le imprese entrare nel mercato. La soluzione prospettata dalle letteratura economica, e ampiamente applicata nella realtà, consiste nel fissare il prezzo non in base ai costi marginali sostenuti, ma in base al valore attribuito dal consumatore al bene e quindi alla sua disponibilità marginale a pagare. Perché ciò sia possibile è però necessario da un lato differenziare il prodotto rispetto a quello dei concorrenti, così da ottenere maggiore libertà di manovra del prezzo, dall’altro, essere in grado di distinguere i consumatori in base alla loro disponibilità a pagare. Per quanto riguarda il primo aspetto, i modi di aggiungere valore al prodotto, al fine di renderlo unico agli occhi dei consumatori, sono molteplici e Internet e la tecnologia informatica aumentano sicuramente le possibilità in questo campo. Oggi più che mai è infatti possibile raccogliere molteplici informazioni sui gusti e i bisogni dei consumatori e, grazie all’interattività del mezzo, far sì che siano loro stessi a configurare parzialmente il prodotto secondo le proprie esigenze. Fare ciò oggi è ancora più facile perché queste operazioni sono agevolate dal fatto che i beni digitali sono molto facili da modificare e che il costo di creare innumerevoli prodotti tutti diversi tra loro invece che uno solo con caratteristiche standardizzate è in questo caso trascurabile. Un esempio di successo nel perseguire questo tipo di strategia è rappresentato dall’agenzia Reuters che, pur vendendo un prodotto quale l’informazione finanziaria che è una commodity, si differenzia dai propri concorrenti perché fornisce un servizio di filtro e selezione delle notizie, raggruppandole in base al settore all’area geografica di interesse per il cliente. Un altro esempio significativo è costituito da Pointcast, una combinazione di browser e screensaver che mostra i titoli delle principali notizie del giorno divisi per categorie scelte dall’utente stesso. Esistono tuttavia anche casi di insuccesso nel mantenere il proprio vantaggio competitivo. Un esempio per tutti è quello della compagnia telefonica Nynex che nel 1986 mise sul mercato un CD contenente la guida telefonica di New York vendendolo a 10.000$ per copia. La concorrenza non ha però tardato a farsi sentire: Pro CD, ad esempio, utilizzando manodopera cinese a basso costo, ha creato un Cd simile contenente una guida nazionale ed è stato in grado di venderlo per poche centinaia di $. Oggi ci sono molti players in questo campo e il costo di un CD di questo tipo è sceso a 20$ e probabilmente scenderà ancora se nessuno sarà in grado di personalizzare e rendere unico il proprio prodotto. Il secondo aspetto consiste nell’elaborazione di strategie di prezzo che consentano al produttore di appropriarsi della maggior parte del valore creato tramite la personalizzazione del prodotto. Sotto questo punto di vista, la soluzione migliore per il produttore è attuare la discriminazione di prezzo del I° tipo e vendere a ciascun utente ad un prezzo pari al valore che quest’ultimo attribuisce al bene. La fattibilità di questa strategia richiede però la disponibilità di informazioni dettagliate sui singoli consumatori e la capacità di impedire l’arbitraggio da parte di utenti con alta disponibilità a pagare che si fingano utenti con basso prezzo di riserva o acquistino il prodotto da questi ultimi. Con l’avvento di Internet, tutto ciò è diventato più facile perché si possono cambiare i prezzi all’istante e si può aver traccia non solo del comportamento passato, ma anche del presente (clickstream, queries) senza costo. Molti siti infatti richiedono la registrazione con dati demografici e la risposta ad alcune domande in cambio di un servizio molto spesso gratuito (Hotmail, ma anche ISP come AOL) e, non a caso, l’interesse intorno ad essi è molto elevato2. Tuttavia è bene ricordare che la flessibilità di prezzo di un produttore è limitata dai prodotti sostituti disponibili sul mercato. Anche nel caso di discriminazione perfetta infatti è possibile estrarre soltanto il surplus ulteriore rispetto a quello fornito dai prodotti sostituti. Supponiamo infatti che Alice valuti 20$ un servizio che fornisce le quotazioni delle azioni con alcuni minuti di ritardo e 60$ un servizio che le fornisce in tempo reale e che il prezzo del primo sia 10$ e consenta dunque ad Alice di ottenere un surplus di 10$. Date queste condizioni, il secondo servizio non potrà essere venduto per un prezzo superiore a 50$ poiché altrimenti Alice acquisterebbe il primo, ottenendo un surplus maggiore. Inoltre, nonostante gli avanzamenti della tecnologia la discriminazione dei prezzi del primo tipo non è quasi mai possibile. Un’alternativa è costituita da una tariffa in due parti consistente nel fissare un canone che permetta all’impresa di coprire i costi fissi e in più un prezzo legato all’utilizzo posto uguale al costo marginale. Un’alternativa ancora migliore è la creazione di differenti versioni dello stesso bene (versioning) le quali aumentino il valore per i consumatori rispondendo meglio alle loro esigenze e nello stesso tempo li incentivino ad autoselezionarsi rivelando così la propria disponibilità a pagare. 2 Recentemente Hotmail è stata acquistata da Microsoft, mentre Aol ha concluso con Amazon un affare di 7 mill$ per l’accesso alle informazioni relative ai propri utenti. Questa strategia non richiede molte informazioni sui singoli consumatori, ma soltanto sulla distribuzione della disponibilità a pagare nell’ambito della popolazione. Per porla in atto è sufficiente creare una versione di elevata qualità per la fascia alta del mercato e poi eliminare via via caratteristiche e potenzialità del prodotto e vendere le versioni così ottenute ad un prezzo inferiore alle altre fasce. Varian e Shapiro, nel loro libro Information Rules, suggeriscono diverse dimensioni lungo le quali è possibile creare versioni di un bene. Una di queste è il tempo di attesa prima di avere il prodotto, dimensione che mira a selezionare i clienti in base all'impazienza. L'esempio più comune di applicazione di questa teoria si ha nell'editoria, dove un libro viene pubblicato dapprima con la copertina rigida e solo alcuni mesi dopo in versione paperback ad un prezzo molto inferiore. Contrariamente a quanto molti pensano, la differenza di prezzo tra le due versioni non è dovuta ai costi, che sono solo lievemente maggiori nel primo caso, ma ad un'accorta strategia di discriminazione di prezzo che mira far pagare un prezzo maggiore a coloro che essendo impazienti sono disposti a pagare di più. Un'altra dimensione di differenziazione è la velocità delle operazioni, maggiore per gli utilizzatori professionali che sono disposti a pagare di più, minore per gli studenti che hanno generalmente minori disponibilità finanziarie e minori esigenze di svolgere operazioni lunghe e complesse. Altre dimensioni comunemente considerate sono l’interfaccia, semplice per in nuovi utenti e con molte opzioni per gli utenti con più esperienza, la risoluzione delle immagini, il formato, le opzioni disponibili e l’assistenza tecnica. Una volta che si sono create le versioni occorrerà poi determinare dei prezzi che inducano i consumatori ad acquistare la tipologia intesa per loro in modo che l’impresa possa massimizzare i profitti (incentive compatible solution). Seguendo l’approccio di Varian (1992), possiamo illustrare graficamente il problema nel caso di costi nulli e di due gruppi di consumatore con uguale numerosità3. Come si vede in Fig. I a, la soluzione è porre il prezzo della versione di bassa qualità pari ad A e quello dell’altra pari a A+C. A prima vista porre quest’ultimo prezzo pari a A+B+C sembrerebbe una soluzione migliore, ma in questo caso il consumatore con alta disponibilità a pagare preferirebbe acquistare il prodotto di bassa qualità, poiché otterrebbe un surplus pari a B4. 3 Considerare più tipologie di consumatori con diverse numerosità complicherebbe i calcoli, ma porterebbe a soluzioni analoghe. 4 Ciò conferma quanto affermato in precedenza: un produttore può estrarre solo il surplus ulteriore rispetto alle alternative disponibili. FIG. I – VERSIONING DISP. A PAGARE DISP. A PAGARE B B A C A QUALITÀ DOMANDATA -A- C QUALITÀ DOMANDATA -B- Ma allora, come si vede dalla Fig. I b, conviene degradare la qualità del prodotto di fascia più bassa per essere poi in grado di richiedere un prezzo maggiore per il bene di alta qualità. Il profitto massimo si ha in corrispondenza del punto in cui la riduzione dei ricavi ottenuti dal prodotto di bassa qualità è uguale all’aumento degli introiti generato da quelli di qualità elevata. Gli esempi reali di degradazione della qualità, d’altronde, sono molteplici5. Uno di essi riguarda il noto programma Windows NT; la versione 4.0 di questo prodotto permette al massimo 10 connessioni simultanee e costa circa 500.000£, mentre la versione Server permette centinaia di connessioni simultanee e può costare anche due milioni. L’unica differenza tra esse consiste però in alcune righe di programma che diminuiscono drasticamente le funzionalità della prima. Un altro esempio è quello della stampante IBM Serie E che stampa 5 pagine al minuto rispetto alle 10 pagine della Serie F, ma differisce da quest’ultima solo per la presenza di un chip messo apposta per ridurne la velocità. Di fronte a questi episodi sorge spontaneo il sospetto che questo tipo di pratiche sia dannoso per i consumatori e la società nel suo complesso. Studi su questo argomento6 dimostrano però che il benessere sociale aumenta in tutti i casi in cui l’alternativa al versioning è quella di servire soltanto la fascia alta del mercato e, sebbene sotto condizioni più restrittive, anche in alcuni casi in cui verrebbero serviti entrambi i tipi di consumatore. Resta tuttavia da analizzare il modo in cui il surplus totale viene diviso tra produttori e consumatori ed è assai plausibile che, grazie alle pratiche di 5 Si veda a questo proposito l’interessante rassegna presentata in Deneckere e Metcalfe (1996), da cui sono tratti gli esempi riportati di seguito. 6 Si vedano ad esempio Varian (1994) e (1997). discriminazione dei prezzi, la bilancia penda nettamente a favore dei primi. D’altra parte, i vantaggi per il consumatore, se non risiedono nel prezzo, sono costituiti dalla maggiore varietà, da prodotti più rispondenti alle loro esigenze e dalla riduzione degli sprechi, resa possibile dalla mancanza di tutte quelle caratteristiche che vengono incluse nei prodotti standardizzati per cercare di andare incontro ai gusti del maggior numero possibile di clienti. Un’opportunità che i consumatori possono cogliere è poi legata alla consapevolezza del crescente valore economico delle informazioni relative alle loro preferenze e abitudini di spesa e alla possibilità di venderle ad un produttore o a un intermediario apposito7. Inoltre alcuni studi di marketing indicano che il numero ideale di versioni è solitamente tre: una piccola, una media e una grande. Il motivo è psicologico ed è noto come extremeness aversion. Se infatti fossero disponibili soltanto due versioni, parte degli indecisi finirebbe per optare per la piccola diminuendo i profitti dell’impresa; se invece vengono create tre versioni tali che quella media abbia le stesse dimensioni di quella grande della configurazione precedente, gli indecisi scelgono la media e i profitti ne traggono giovamento. Un’altra forma molto comune di differential pricing, sicuramente destinata ad aumentare la propria diffusione con il commercio elettronico, è l’aggregazione di beni lungo diverse dimensioni: per prodotti (bundling), utenti (site licensing), e periodi di tempo (abbonamenti). Il bundling consiste nella creazione e nella vendita di pacchetti che comprendono al loro interno diversi beni8. I suoi vantaggi risiedono, da un lato, nelle sinergie di produzione e distribuzione e nelle complementarietà nel consumo, dall’altro, nella possibilità di distinguere gruppi di consumatori con diversi gruppi di riserva e appropriarsi così del loro surplus. Quest’ultimo aspetto è destinato a ottenere un’importanza crescente in presenza di beni i cui costi di produzione e distribuzione sono molto bassi ed è imputabile al fatto che l’aggregazione dei beni consente di aumentare la frazione di consumatori la cui valutazione del pacchetto è vicina alla media. Infatti le valutazioni molto alte o molte basse di beni individuali tendono ad annullarsi a vicenda dando vita ad una distribuzione sempre più concentrata intorno alla media, man mano che il numero di beni inclusi nel pacchetto aumenta9. In termini grafici, ciò equivale ad una curva di domanda molto elastica intorno al valore medio, la quale consente al produttore di catturare una frazione crescente del surplus totale, determinando una riduzione non solo anche del surplus dei consumatori, ma anche della perdita netta (Fig. II). 7 Si veda Hagel e Singer (1999), McKinsey & Co. Un esempio molto noto è MS Office che comprende al proprio interno un word processor, uno spreadsheet e un programma di presentazione. 9 Questo risultato è la conseguenza della legge dei grandi numeri. 8 FIG. II – BUNDLING ESEMPIO DI DISTRIBUZIONE DELLE VALUTAZIONI DI CIASCUNO DEI BENI DEL BUNDLE DA PARTE DEL CONSUMATORE. 0 1 CORRISPONDENTI CURVE DI DOMANDA: P BUNDLE DI 1 BENE P Q BUNDLE DI 20 BENI Q La convenienza del bundling e delle altre forme di aggregazione è tanto maggiore quanto minori sono i costi marginali di produzione dei singoli beni e quanto meno positivamente correlate sono le valutazioni che di essi ha il consumatore. In particolare, il bundling è vantaggioso se le valutazioni dei singoli beni sono molto eterogenee, ma la somma delle valutazioni è pressoché la medesima per tutti gli individui. Consideriamo infatti due consumatori, che indichiamo con A e B, tali che uno di essi (non sappiamo se A o B) adoperi molto il wordprocessor e sia disposto a pagarlo 100$, mentre utilizzi poco lo spreadsheet e lo valuti pertanto solo 30$; l’altro invece ha valutazioni esattamente antitetiche. In questo caso, se il prezzo di entrambi è posto pari a 100$, un solo wordprocessor e un solo spreadsheet vengono venduti e i profitti, ipotizzando per semplicità che i costi siano nulli, sono pari a 200$. Se invece creiamo un paniere contenente un’unità di ciascuno dei programmi e lo vendiamo al prezzo di 130$, i profitti diventano 260$, grazie al fatto che riusciamo a far pagare ai consumatori il prezzo di riserva per ciascun prodotto, pur conoscendo solo la loro distribuzione e non quanto valga esattamente per il singolo individuo. Nel caso invece in cui le valutazioni totali dei consumatori siano eterogenee o i costi marginali di produzione siano relativamente elevati, la strategia di vendere sia il paniere che i beni singolarmente (mixed bundling) è migliore. Il bundling, in entrambe le versioni, presenta però dei difetti. Primo fra tutti il fatto che su un numero elevato di beni il consumatore è generalmente indifferente alla maggior parte di essi o alcuni gli recano addirittura disutilità a causa della congestione e dello spreco di attenzione umana e di risorse materiali utilizzate per produrli. Secondo, ma altrettanto importante, il fatto che nella realtà le preferenze non sempre sono transitive e il valore che un individuo attribuisce al prodotto dipende anche dal suo posizionamento rispetto alle altre offerte e dal comportamento degli altri individui. Un’altra forma di differential pricing, il site licensing, consiste invece nel vendere il prodotto ad un’organizzazione (impresa, università,…), la quale ne consente l’utilizzo a tutti coloro che ne fanno parte. In questo modo i consumatori vengono raggruppati così da diminuire le differenze nelle valutazioni che individui diversi hanno dello stesso bene poiché l’organizzazione conosce la valutazione del bene da parte dei singoli individui ed è pertanto disposta a pagare un prezzo pari al totale di queste. Ciò è vantaggioso per l’impresa dal momento che se vendesse il bene ai singoli utenti dovrebbe fissare un prezzo pari alla media delle valutazioni e avrebbe una platea di clienti costituita soltanto da coloro che hanno prezzi di riserva superiori ad essa. I possibili punti deboli di questa strategia risiedono nel fatto che richiede la presenza di un agente che abbia l’autorità di fare l’acquisto, conosca le valutazioni dei singoli individui e abbia incentivi allineati con quelli di questi ultimi. Inoltre essa presuppone che questo agente sia price taker, cosa che si verifica raramente. L’abbonamento permette invece di aggregare l’utilità derivante ad un individuo dall’utilizzo di un bene in diversi periodi di tempo. Il suo vantaggio è legato al fatto che in alcuni momenti la valutazione del bene è bassa e probabilmente l’individuo in quei frangenti non lo acquisterebbe anche se la sua valutazione è comunque superiore al costo marginale sostenuto per produrlo. L’abbonamento mira ad evitare che ciò si verifichi e che i profitti dell’impresa si riducano. Inoltre esso permette al consumatore di ridurre il rischio che il bene eventualmente gli serva e lui non lo abbia a disposizione (option value). Infine, Internet non soltanto ha ridotto sensibilmente i costi marginali, ma ha anche reso estremamente conveniente l’immagazzinamento e il trattamento delle informazioni e di conseguenza un sistema di micropayments che consenta transazioni di bassissimo valore e pertanto la vendita di beni in piccole unità, a poche persone, per un breve intervallo di tempo (disaggregazione). Ciò è positivo per i consumatori perché consente di risolvere il problema dell’incertezza sulla qualità attraverso una prova a basso costo. E’ tuttavia negativo nella misura in cui permette al venditore una discriminazione di prezzo pressoché perfetta e dunque l’appropriazione della maggior parte del surplus. In generale, per determinare se sia preferibile l’aggregazione o la disaggregazione, è utile far riferimento al cosiddetto diagramma di fase sviluppato per la prima volta in Salinger (1995). Esso, come si vede nella Fig. III, mostra l’impatto dei costi marginali e di distribuzione sulla convenienza delle rispettive strategie. FIG. III – CONFRONTO TRA AGGREGAZIONE E DISAGGREGAZIONE COSTI MARGINALI VENDITE NULLE DISAGGREGAZIONE AGGREGAZIONE COSTI DI DISTRIBUZIONE Dalla figura emerge che se entrambi sono elevati il bene è troppo costoso e non viene venduto, che al diminuire dei primi diventa conveniente l’aggregazione, mentre al diminuire dei secondi risulta preferibile la vendita di beni disaggregati. Tuttavia se i costi marginali scendono al di sotto di un certo livello, l’aggregazione risulta la strategia migliore indipendentemente dal livello dei costi di distribuzione. In particolare, nel caso del bundling, un paniere contenente infiniti beni è conveniente per il produttore se πB ≈ µ - c > πi dove πB indica il profitto derivante dal bundling, µ la valutazione media, c il costo marginale e πi il profitto derivante dalla vendita dei beni separatamente. Inoltre, indicando con vmax la valutazione massima che il consumatore attribuisce ad un bene, si può dimostrare che la disaggregazione è profittevole solo se c + d ≤ vmax dove d indica i costi distribuzione10. Infine, un altro fenomeno sempre più frequente è il cosiddetto sharing che consiste nella condivisione di un bene da parte di più consumatori. Esso è vantaggioso nel caso in cui il valore del prodotto per il singolo individuo sia inferiore al costo o al prezzo di vendita e nessuno trovi pertanto conveniente l’acquisto. In questo caso, lo sharing permette di formare un club che acquista il bene e lo utilizza in comune. Il numero ottimo di componenti è raggiunto quando il beneficio di aggiungere un ulteriore membro al club (riduzione della quota) uguaglia il costo che ciò comporta in termini di congestione e aumento del tempo di attesa11. In conclusione, è probabile che nell’Era dell’Informazione e della Conoscenza i beni che in passato venivano aggregati per motivi tecnologici e per risparmiare costi saranno venduti separatamente mentre la convenienza dell’aggregazione deriverà dalla possibilità di ridurre l’eterogeneità dei consumatori. Inoltre sempre più spesso la composizione dei panieri verrà determinata dai consumatori piuttosto che dai produttori e si assisterà a diverse forme di discriminazione di prezzo rese possibili dall’acquisizione di informazioni dettagliate sulle loro preferenze e comportamenti. 10 11 Per una trattazione più approfondita di questo aspetto si veda Bakos e Bryniolfsson (1997). Per un trattazione più ampia si vedano Varian (1998). Information Goods come Beni Pubblici Il basso costo e la facilità di riproduzione delle information goods rendono questi beni inerentemente soggetti ai problemi della non rivalità e non escludibilità propri dei beni pubblici. Il primo aspetto è una caratteristica del bene in sé e consiste nel fatto che il suo utilizzo da parte di un individuo non impedisce il suo contemporaneo utilizzo da parte di un altro individuo, come invece accade per la maggior parte dei beni. Il secondo aspetto dipende dal sistema legale e, in particolare, dalle leggi sul copyright, ma anche dalla tecnologia e dalla possibilità di applicare effettivamente tali leggi. Generalmente, i produttori di beni digitali vedono soprattutto le minacce che ciò comporta per i loro profitti, mentre non considerano adeguatamente le opportunità. Infatti, se è vero che grazie alla tecnologia i pirati avranno vita sempre più facile nell’eludere le norme sul diritto di autore, è altrettanto vero che i produttori possono sfruttare alcuni aspetti di essa a proprio vantaggio al fine di aumentare il valore del bene e di conseguenza i propri profitti. Per esempio, i bassi costi di distribuzione permettono di dar via gratuitamente parte del prodotto per risolvere il problema dell’incertezza sulla qualità e contemporaneamente allargare la base dei consumatori. Ciò comporta un trade off tra l’aumentato valore per il consumatore e la riduzione delle unità acquistate dovuta ai termini di vendita più liberali. Queste ultime possono infatti far sì che alcuni soddisfino le proprie esigenze con il campione gratuito e non procedano più all’acquisto. Esistono inoltre alcuni aspetti che permettono di limitare l’estensione della pirateria. Primo fra tutti, il fatto che i pirati non possono valersi troppo della pubblicità per acquistare clienti perché manifesterebbero la propria presenza anche alle autorità e il loro giro d’affari è pertanto destinato a rimanere limitato. In secondo luogo, alcuni tipi di beni digitali, quali ad esempio le notizie e le quotazioni azionarie, valgono se acquistati “freschi” e raramente i pirati riescono a riprodurre il bene entro un intervallo di tempo in cui questo abbia ancora valore. Un’altra possibile soluzione del problema è data dalla customization del prodotto, la quale fa sì che esso si attagli sempre più alle esigenze di un singolo individuo e che sia possibile avere informazioni dettagliate sui consumatori e sull’uso che essi fanno del bene. Infine, un’opzione che si sta sviluppando grazie alle recenti tecnologie quali la criptografia, consente di legare il bene digitale, di per sé non escludibile, ad un altro bene, il meccanismo di autenticazione, che invece è escludibile e trasmette questa sua caratteristica al bene digitale. Esternalità di rete, standards e compatibilità, lock in. Uno degli aspetti più interessanti dei beni digitali consiste nel fatto che per molti di essi l’acquisto si traduce nell’entrata a far parte di una rete (network) costituita da tutti gli utenti di quel tipo di bene. Essa può essere reale cioè formata da nodi uniti da connessioni materiali, come nel caso della rete telefonica, delle ferrovie o dello stesso Internet; oppure virtuale come la rete formata da tutti gli utenti di Macintosh o di Lotus, o da tutti coloro che possiedono un videoregistratore VHS. Il valore della connessione alla rete, e dunque del bene, dipende in maniera cruciale dal numero di utenti che ne fanno parte e soprattutto dal numero che ci si aspetta ne farà parte in futuro. L’utilità del fax e del telefono è infatti legata al numero potenziale di persone che possiamo contattare con questi strumenti. In particolare, in una rete con n componenti vi sono n(n-1) potenziali beni (telefonate) e l’aggiunta di un solo consumatore crea ben 2n nuovi beni, aumentando il valore della rete per tutti gli utenti. Se ammettiamo, in maniera approssimativa, che il valore di un network sia proporzionale al numero degli utenti si ha che una rete con 10 utenti vale n(n-1)=90, mentre una rete con 100 utenti vale 9900. Pertanto moltiplicando per 10 il numero degli utenti abbiamo moltiplicato per 100 il valore della rete. Lo stesso, anche se in maniera solo indiretta, vale per i network virtuali, come ad esempio la platea degli utenti di un certo tipo di hardware. In questo caso, i vantaggi derivanti dalla scelta del sistema più diffuso sono numerosi e consistono in primo luogo in una maggiore varietà di software e di altre applicazioni destinate a quel tipo di sistema e a prezzi più attraenti resi possibili dalle economie di scala nella produzione. Inoltre la maggior diffusione del bene comporta una maggiore conoscenza del suo funzionamento e quindi migliore assistenza post vendita nonchè maggiori possibilità di miglioramento. Ogni nuovo utente potenzia questi vantaggi e arreca beneficio a tutti gli altri. La curva di domanda per un bene di questo tipo è inclinata negativamente, ma si sposta in alto a destra man mano che le dimensioni del network si ampliano e di conseguenza aumenta il valore del bene per i consumatori. In particolare, all’espandersi della rete si accompagnano cambiamenti non solo nella posizione, ma anche nell’inclinazione della curva di domanda. iprendendo l’esempio dell’hardware e del software, si può notare che la quantità di hardware venduta oggi contiene un segnale sul futuro prezzo del software poiché un maggior numero di utilizzatori di hardware fa aumentare la produzione di software e grazie alle economie di scala diminuire il suo prezzo. Anticipando ciò, l’impresa ha incentivo a diminuire il prezzo odierno dell’hardware per potenziare questo effetto futuro e ciò rende la domanda di hardware più elastica rispetto al caso in cui non esistesse questa complementarietà con il software. Seguendo Economides e Himmelberg (1995), possiamo poi costruire la curva di domanda corrispondente alla situazione di equilibrio in cui le aspettative del mercato circa la numerosità della rete si realizzano. La disponibilità a pagare per l’n-sima unità del bene diminuisce al crescere di n, poiché la curva di domanda è inclinata negativamente, ma aumenta all’aumentare della dimensione attesa della rete. Ciò è illustrato graficamente nella Fig. IV, in cui Di indica la curva di domanda in corrispondenza della dimasione attesa ne = ni. La curva a campana è la curva di domanda caratterizzata dalla realizzazione delle aspettative in equilibrio. Come si può osservare, dapprima la quantità domandata cresce al crescere del prezzo poiché prevale l’effetto positivo dell’ampliamento della rete, poi, raggiunta una certa dimensione, esso viene meno e la curva di domanda torna ad essere inclinata negativamente. I due autori hanno dimostrato che ciò si verifica tipicamente per tre tipi di bene. In primo luogo per quelli, come il telefono, che non arrecano alcuna utilità se non vi è nessun partecipante. In secondo luogo quelli, come le newsgroup specialistiche su Internet, che hanno un valore intrinseco, ma il cui valore aumenta moltissimo al crescere della loro diffusione. Infine quelli, come i word processor, il cui valore non aumenta molto al crescere delle vendite, ma che sono altresì molto diffusi. FIG. IV – CURVA DI DOMANDA DI UN BENE CHE FA PARTE DI UN NETWORK C, P D4 P ( N, NE ) D3 D2 D1 N1 N2 N3 N4 N Il fatto che un utente con le proprie scelte di adesione o meno ad una rete influenzi l’utilità degli altri è stato descritto dalla letteratura economica con il termine esternalità di rete ed è illustrato in Fig. V. FIG. V – ESTERNALITÀ DI RETE MC P MSB P* MB N N’ N* MC = COSTO MARGINALE MSB = BENEFICIO MARGINALE DELLA SOCIETÀ NEL SUO COMPLESSO MB = BENEFICIO MARGINALE DEL SINGOLO UTENTE Come si può osservare, il beneficio individuale derivante dall’entrare a far parte della rete è inferiore a quello sociale poiché non tiene conto della maggiore utilità che da questa adesione deriva a coloro che sono già membri. Di conseguenza le dimensioni della rete (N’) sono inferiori rispetto a quelle socialmente ottimali (N*). Le soluzioni tradizionalmente proposte per internalizzare questo effetto sono molteplici. Una di esse è l’introduzione di diritti di proprietà, che tuttavia in questo caso non sempre dà gli esiti sperati. Infatti se la rete è posseduta da un monopolista impossibilitato a mettere in atto discriminazioni di prezzo, egli fisserebbe un prezzo superiore al costo marginale, riducendo ulteriormente le dimensioni della rete rispetto al caso di concorrenza. Tuttavia i vantaggi derivanti dalla presenza di un proprietario della rete emergono nel caso in cui egli sia in grado di assicurare i potenziali clienti contro la possibilità che il network sia piccolo e di scarso valore. Questa soluzione, prospettata per la prima volta da Dybvig e Spatt (1983), può essere implementata facendo pagare a ciascuno un prezzo che dipende dalle dimensioni della rete, grazie alla previsione di un risarcimento nel caso essa sia di dimensioni inferiori a quelle pattuite. In equilibrio il network raggiunge le dimensioni attese e non ci sono pertanto richieste di risarcimento e l’assicurazione non comporta alcun costo per chi la fornisce. Un altro modo in cui il monopolista può influenzare le aspettative dei consumatori consiste nel dimostrare che un network di elevate dimensioni è per lui un vantaggio ad esempio perché è comproprietario dell’impresa che produce prodotti complementari (software nel caso dell’esempio dell’hardware), oppure che ha sostenuto investimenti irrecuperabili che rendono per lui conveniente fornire software a prezzi bassi e non sfruttare i consumatori. Un modo ulteriore per rassicurare i consumatori da repentini aumenti del prezzo del software una volta che essi hanno acquistato l’hardware consiste nell’affittare quest’ultimo invece di venderlo così da sobbarcarsi il danno derivante da aumento del prezzo. Infatti il monopolista non può impegnarsi in maniera credibile a creare una rete ampia e a goderne i benefici perché, per ogni dato livello delle aspettative di vendita dei consumatori, ha incentivo a produrre una quantità bassa e venderla ad un prezzo elevato. A questo proposito, è stato dimostrato12 che quando le esternalità di rete sono molto forti, è conveniente per il monopolista invitare altre imprese ad entrare nel mercato in modo da rendere credibile un elevato livello di produzione futura. Infatti l’aumento del numero delle imprese genera due effetti contrapposti sui profitti del monopolista: il primo è dovuto alla concorrenza delle altre imprese e alla conseguente diminuzione del prezzo ed è negativo. Il secondo è invece positivo ed è dovuto al fatto che un aumento del numero delle imprese genera aspettative di vendite più elevate e, grazie alle esternalità di rete, fa aumentare la quantità domandata per ogni livello di prezzo. Se le esternalità di rete sono sufficientemente forti da far sì che questo secondo effetto sia prevalente, allora un monopolista ha incentivo a consentire l’entrata di altre imprese e in alcuni casi anche a sussidiarla. Molto più interessante dell’esame delle caratteristiche e del funzionamento di una singola rete appare tuttavia l’analisi della competizione tra tecnologie e sistemi diversi, entrambi caratterizzati da esternalità di rete. A causa di queste ultime infatti quanto più una tecnologia viene adottata, e la corrispondente rete si amplia, tanto più essa viene conosciuta migliorata e dotata di prodotti complementari e diventa quindi attraente dando vita così ad un ciclo che si autoalimenta e fa sì che il successo chiami altro successo e l’eventuale fallimento diventi presto irreversibile. Questo fenomeno, conosciuto con il nome di positive feedback o ritorni crescenti di adozione, fa sì che nella competizione tra due tecnologie la conoscenza delle loro caratteristiche e delle preferenze dei consumatori non siano sempre sufficienti per prevedere l’esito, che dipende invece in maniera cruciale dal susseguirsi casuale di eventi insignificanti. Il seguente esempio, dovuto ad Arthur (1989) e basato sullo schema dell’urna di Polya, illustra molto bene questo aspetto. Esso considera due tecnologie (A e B) che competono per una platea di utenti divisi in due gruppi di uguale numerosità l’uno dei quali (R) preferisce A, mentre l’altro (S) preferisce B. Questi individui entrano nel mercato l’uno dopo l’altro susseguendosi in maniera casuale e scelgono 12 Si veda Economides (1994). una delle tecnologie in base alle loro preferenze e alla numerosità di coloro che in passato hanno scelto ciascuna di esse. In particolare, i loro payoff sono i seguenti: Tecnologia A Tecnologia B aR + rnA aS + snA bR + rnB Agente R Agente S bS + snB Dove nA e nB indicano le dimensioni delle due reti e aR > bR e aS < bS. In questo caso l’ordine di arrivo dei consumatori è cruciale per l’esito finale. Per piccole dimensioni delle reti infatti l’agente di tipo R preferisce A e quello di tipo S predilige B. Tuttavia se per caso si presenta di seguito un gran numero di clienti di tipo R, la tecnologia A raggiunge una tale diffusione che risulta conveniente adottarla anche per un cliente di tipo S e quindi essa prende il sopravvento. Ciò si verifica se: aS + snA > bS + snB cioè nA - nB > b S - aS s ed è illustrato graficamente in Fig. VI. Da essa si vede come la differenza nell’adozione delle due tecnologie ha un andamento casuale, fino a quando una delle due non raggiunge una massa critica, corrispondente alle barriere di assorbimento, che le consente di prendere definitivamente il sopravvento sull’altra. Il processo risulta pertanto path dependent poiché il suo esito è determinato dal cumularsi casuale FIG. VI – COMPETIZIONE TRA DUE TECNOLOGIE IN PRESENZA DI ESTERNALITÀ DI RETE NA - NB LOCK-IN DI A 0 (R SCEGLIE A, S SCEGLIE B) LOCK-IN DI B BARRIERA DI ASSORBIMENTO di eventi insignificanti. Inoltre esso è caratterizzato da lock-in poiché una volta che una delle due tecnologie prevale continuerà ad essere scelta senza possibilità di cambiamento, almeno fino alla prossima ondata di innovazioni tecnologiche. Ciò lascia inoltre aperta la possibilità che la tecnologia predominante non sia quella che nel lungo periodo avrebbe garantito i payoff più elevati. I risultati ottenuti vengono potenziati qualora si tenga conto anche delle aspettative sulle dimensioni future della rete e si ipotizzi, come è realistico fare, che esse si modifichino nel tempo in risposta alle variazioni osservate nei tassi di adozione. In questo caso infatti se una tecnologia “parte con il piede giusto” ha probabilità di successo ancora maggiori grazie alle aspettative positive che influenzano in suo favore il comportamento degli agenti e tendono pertanto a realizzarsi. La gestione delle aspettative e del timing dell’introduzione di nuovi prodotti diventano cruciali per il successo di un prodotto. L’equilibrio che prevale in mercati di questo tipo può essere rappresentato con un diagramma che vede sull’asse orizzontale la percentuale di agenti che ha adottato la tecnologia A e sull’asse verticale la probabilità che un nuovo agente adotti A. Due esempi di esso sono rappresentati in Fig. VII. La retta inclinata a 45° è il luogo dei punti in cui la probabilità e la percentuale effettiva di utilizzatori coincidono. Le frecce indicano che nei punti dove la probabilità di adozione è maggiore della percentuale effettiva quest’ultima tende a crescere, mentre dove accade l’opposto la percentuale di coloro che adottano A diminuisce. Un discorso analogo può essere fatto per la tecnologia B considerando come origine il vertice in alto a destra. In entrambi i casi gli equilibri sono rappresentati dai punti in cui le aspettative (probabilità) si realizzano e quindi le funzioni di adozione intersecano le rette. Nella Fig. VII a esistono tre punti di equilibrio di cui soltanto A e C sono stabili. Quale fra essi si realizzi dipende dal cumularsi casuale degli eventi. L’esito sembra comunque essere il monopolio di una delle due tecnologie. Questa situazione si verifica con certezza nel caso in cui i payoff FIG. VII – ADOZIONE DI UNA TECNOLOGIA IN PRESENZA DI ESTERNALITÀ DI RETE 1 C 1 B A 0 1 0 1 -A-BASSE ORIZZONTALE: PERCENTUALE DI AGENTI CHE HANNO SCELTO A. ASSE VERTICALE: PROBABILITÀ CHE IL PROSSIMO AGENTE SCELGA A crescano senza limiti al crescere della dimensione della rete, ma non è affatto scontata negli altri casi. Infatti è plausibile che i payoff siano limitati ad esempio perché raggiunta una certa dimensione non si derivano vantaggi apprezzabili dall’aumentarla ulteriormente o addirittura si sopportano dei costi dovuti alla congestione generata. In questo caso è possibile che sequenze bilanciate di agenti dei due diversi tipi facciano raggiungere alle due tecnologie il loro livello massimo dei payoff pressoché contemporaneamente determinando un equilibrio di mercato in cui convivono entrambe (Fig. VII b). Molto spesso inoltre anche nel caso di monopolio si tratta comunque di situazioni transitorie che possono essere ribaltate dall’avvento di una nuova tecnologia. Nel caso poi che le imprese abbiano attuato drastiche riduzioni di prezzo per guadagnare quote di mercato, quelli che in apparenza sono extra profitti possono semplicemente riflettere il recupero dei costi sostenuti in precedenza per ottenere la leadership di mercato. Il tipo di situazione descritto infatti è un incentivo per le imprese a dar via i prodotti ad un prezzo molto basso o addirittura nullo per poter ampliare in fretta la propria quota di mercato e poter così fruire delle esternalità di rete. L’altro elemento di primaria importanza è il time to market poiché un ritardi potrebbe significare che la tecnologia rivale ha già raggiunto sufficiente massa critica e recuperare non è più possibile. Ciò trova conferma indiretta nel crescente numero di beta versions che le software house diffondono prima di raggiungere, con il contributo degli stessi utenti, la versione definitiva. I sistemi caratterizzati da esternalità di rete e positive feedback seguono un tipico percorso di sviluppo descritto da una curva logistica (Fig. VIII). FIG. VIII – CURVA LOGISITCA UTENTI 2500 2000 SATURAZIONE 1500 DECOLLO 1000 500 LANCIO 0 TEMPO 1976 CURVA LOGISTICA IN GENERALE 1980 1984 1988 1992 ANDAMENTO DELLE VENDITE DI FAX Nella fase di lancio crescono lentamente, nella fase del decollo le esternalità di rete prendono il sopravvento e la quota di mercato esplode e infine nella fase di saturazione il ritmo di crescita rallenta sempre più fino a stabilizzarsi. La diffusione del fax e del telefono hanno seguito questo percorso, mentre nel caso di Internet ci troviamo ancora nella fase del decollo. In un contesto di questo tipo, la decisione strategica più importante per un’impresa riguarda la compatibilità o meno del proprio prodotto con quello delle imprese concorrenti. In caso di compatibilità i beni prodotti da un’impresa sono combinabili senza costo con quelli delle imprese rivali: per esempio, un file scritto con MSWord può essere letto anche con WordPerfect e un utente che conosca bene il primo programma è in grado di utilizzare senza problemi anche il secondo. Il vantaggio di questa strategia consiste nel fatto che il network cui il proprio bene appartiene è molto più ampio perché comprende anche gli utenti dei beni compatibili e ciò comporta un aumento della domanda dovuta alle esternalità di rete. D’altro canto, essa ha anche l’effetto di accrescere la concorrenza sul proprio prodotto poiché diminuisce la sua differenziazione rispetto ai prodotti rivali. La preferenza per la compatibilità si verifica nel caso in cui l’effetto positivo sui profitti, dovuto ad un aumento della domanda, prevale sull’effetto negativo originato dalla maggior concorrenza. Il risultato in termini di equilibrio di mercato dipende dall’interazione strategica delle imprese presenti sul mercato. In particolare, se consideriamo due sole imprese che si trovino a dover decidere quale adottare tra due tecnologie tra loro incompatibili, possiamo descrivere la situazione attraverso un gioco, la cui forma normale è riportata in Fig. IX. FIG. IX – L’ADOZIONE DI UNA TECNOLOGIA COME GIOCO IMPRESA B IMPRESA A TECNOLOGIA 1 TECNOLOGIA 2 TECNOLOGIA 1 A11 , B11 A12 , B12 TECNOLOGIA 2 A21 , B21 A22 , B22 In corrispondenza alle strategie (t1, t2) e (t2, t1) entrambe le imprese preferiscono scegliere una tecnologia diversa da quella scelta dalla rivale. E rendere così i prodotti incompatibili tra loro. Il risultato, già descritto nelle pagine precedenti, è una battaglia tra tecnologie che ha come posta il predominio del mercato. In questo caso, grazie alle esternalità di rete e al positive feedback, una delle due emerge come netta vincitrice, mentre l’altra è costretta ad uscire dal mercato o ad accontentarsi di una parte molto piccola di esso. In questa situazione è molto importante raggiungere una significativa quota di mercato molto in fretta. Spesso ciò induce le imprese ad offrire condizioni di acquisto molto vantaggiose ai consumatori della prima ora in modo da costituire una base di clienti che influenzi le scelte dei consumatori successivi (penetration pricing). Per lo stesso motivo è cruciale vendere il prodotto a quei clienti che influenzano le decisioni di acquisto degli altri consumatori grazie alla loro reputazione o alla capacità di imporre ai partner commerciali le tecnologie da loro scelte. Un’altra tattica importante consiste nell’incoraggiare, attraverso alleanze e accordi, la produzione di prodotti complementari al proprio, così da aumentarne il valore. Inoltre per molte imprese può rivelarsi vantaggioso permettere l’accesso alla propria tecnologia dietro pagamento di royalties, al fine di aumentarne la diffusione e ridurre gli incentivi delle altre imprese alla ricerca di tecnologie alternative. Infine anche il momento in cui un prodotto è introdotto sul mercato è importante, poiché chi arriva tardi può non essere in grado di recuperare il vantaggio dell’avversario. Per questo motivo spesso le imprese preannunciano con molto anticipo il lancio di un prodotto così da indurre i consumatori ad aspettare invece di acquistare il prodotto dei concorrenti. Siccome la posta in gioco è alta la battaglia è molto feroce ed è possibile che le due imprese dissipino gran parte dei potenziali profitti nel tentativo di strapparsi quote di mercato. Inoltre la competizione può rallentare la crescita del mercato nella misura in cui induce i consumatori a posticipare l’acquisto per vedere quale sarà la tecnologia vincitrice e non correre il rischio di rimanere legati a quella la cui rete sarà molto ridotta. Pertanto viene perseguita una strategia di incompatibilità nel caso in cui le imprese sono pressoché sullo stesso piano in termini di quota di mercato, tecnologia e reputazione e i profitti non vengano eccessivamente ridotti dalla competizione. Un esempio reale di guerra tra due standard diversi è la battaglia ingaggiata da Netscape e Microsoft per il predominio del mercato dei browser. La prima ha dalla sua parte il fatto di avere una platea di utenti più ampia e un prodotto per certi versi superiore. La seconda gode di un marchio molto noto, di ampie disponibilità finanziarie, ma soprattutto del controllo del sistema operativo sottostante. Entrambe attuano forme di penetration pricing, distribuendo gratuitamente il proprio prodotto o, nel caso di Microsoft, addirittura pagando i costruttori che scelgono il proprio prodotto come default. Entrambe incoraggiano la produzione di applicazioni complementari ed entrambe hanno stretto importanti alleanze: con Sun Microsystems, il produttore della piattaforma applicativa Java, Netscape e con i costruttori e gli ISP Microsoft. Agli inizi Netscape deteneva una larghissima frazione del mercato. Ora pare che Microsoft lo abbia superato, perlomeno per quanto riguarda l’utenza aziendale. Tuttavia è ancora presto per dire chi vincerà. In corrispondenza delle strategie (t1, t1) e (t2, t2) prevale invece la compatibilità. Essa può ad esempio essere l’epilogo di una situazione in cui ciascuna impresa preferisce che venga adottato come standard la propria tecnologia, ma è disposta ad accettare di adottare l’altra piuttosto che scegliere l’incompatibilità13. Il risultato è quello di passare da una competizione tra tecnologie ad una competizione tra prodotti e componenti nell’ambito della medesima tecnologia. Di conseguenza, vengono in primo piano dimensioni quali il prezzo, il servizio e le caratteristiche del prodotto e la competizione si fa più intensa soprattutto per ciò che riguarda il prezzo. La causa principale di ciò è che la standardizzazione determina il venir meno di differenze marcate tra i prodotti e quindi i consumatori all’atto dell’acquisto di un certo tipo di bene possono scegliere tra un gran numero di imprese che vendono prodotti simili. In questo contesto le tattiche competitive più utilizzate per indurre il proprio avversario ad adottare la propria tecnologia annoverano la concessione di licenze a basso costo, la determinazione di standard ibridi che comprendono caratteristiche e funzionalità tratte da entrambe le tecnologie e l’impegno a comunicare tempestivamente ogni modifica o a sviluppare il prodotto congiuntamente. Esse hanno il fine ultimo di aumentare i profitti che i concorrenti ottengono dall’adesione ad uno standard diverso da quello in cui goderebbero di un 13 Ciò accade se a11 > a21 e a22 > a12, mentre b11> b12 e b21> b22. vantaggio competitivo. Una strategia di compatibilità prevale nel caso in cui una guerra tra standard diversi dissiperebbe gran parte dei profitti o causerebbe una notevole riduzione delle domanda di mercato a causa della presenza di forti esternalità di rete. Un esempio molto noto di accordo per la determinazione di uno standard è quello intercorso tra Sony e Philips nel caso dei CD e, più recentemente dei DVD, che sono secondo alcuni la nuova generazione di prodotti per la visione dei film destinata a soppiantare le videocassette. Un terzo caso abbastanza comune è quello in cui esistono da un lato un’impresa con una buona reputazione, una vasta platea di clienti o una tecnologia superiore alle altre e che per questi motivi preferisce l’incompatibilità, dall’altro un’impresa in posizione di follower che trae invece maggiori vantaggi dalla compatibilità14. La prima ha incentivo ad opporsi alla compatibilità del prodotto della follower con il proprio e lo fa generalmente attraverso brevetti o cambiando la tecnologia molto frequentemente. La seconda ha invece incentivo a costruire uno strumento, indicato con il termine adapter, che renda possibile l’interconnessione del proprio prodotto con quello del leader. Il principale svantaggio che i consumatori ricevono da tutto ciò è legato alla possibilità che l’adapter non funzioni bene e alcune potenzialità del prodotto vengano perdute. Esempi comuni riguardano i programmi di software meno noti i quali grazie ad un adapter sono generalmente in grado di leggere i file creati con i programmi più diffusi. Naturalmente le imprese produttrici di questi ultimi hanno incentivo a rendere questa operazione difficoltosa e a proteggere dall’imitazione dei concorrenti le caratteristiche più innovative e creatrici di valore dei loro prodotti. A questo proposito è famosa la causa intentata da Lotus a Borland perché quest’ultimo aveva copiato la struttura dei comandi di Lotus per il proprio spreadsheet. In generale, il passaggio dall’incompatibilità ad uno standard unico è positivo per il benessere sociale se il surplus totale aumenta. Tuttavia le imprese nel fare le proprie scelte non tengono conto dell’effetto che queste hanno sui consumatori e sulle altre imprese. In particolare, se sono possibili trasferimenti tra le imprese, si sceglie la compatibilità nel caso in cui i profitti totali del settore siano maggiori. Se tuttavia non sono possibili trasferimenti il fatto che per alcune imprese il passaggio ad uno standard unico determini una riduzione dei profitti fa sì che essa non venga attuata15. Katz e Shapiro (1985) mostrano che la scelta dipende da due fattori. Il primo è la variazione delle quote di mercato e dei ricavi generata dalla compatibilità Il secondo è la quota relativa dei costi di compatibilità in cui incorre ciascuna impresa. Per quanto riguarda invece il surplus del 14 Ciò accade se a11 > a21 e a22 > a12, mentre b11< b12 e b21< b22. Questa affermazione è rilassata nel caso in cui le imprese che traggono profitto dalla compatibilità possano costruire un adapter. 15 consumatore, il passaggio alla compatibilità ha due effetti di segno opposto. Il primo è positivo ed è dovuto, da un lato, all’aumento dei prodotti complementari e alle esternalità di rete e, dall’altro, alla minore incertezza su quale sarà la tecnologia predominante e quindi alla riduzione del rischio di trovarsi legati a quella perdente e ai minori prezzi dovuti alla accresciuta concorrenza. Il secondo è negativo ed è generato dalla minore varietà. A seconda della diversa importanza data a quest’ultimo aspetto o all’esternalità di rete gli agenti economici compiono le loro scelte. Infine può essere interessante analizzare l’effetto delle esternalità di rete sulla desiderabilità e probabilità di innovazioni tecnologiche. Farrell e Saloner (1986) hanno effettuato uno studio su questo argomento individuando due casi tipici: excess inertia ed excess momentum. La prima si verifica nel caso in cui l’adozione della nuova tecnologia è ottimale per la società nel suo complesso, ma a causa della mancanza di coordinamento tra i consumatori non viene attuata poiché i primi che compiono il passaggio sosterrebbero costi troppo elevati rispetto ai benefici ricevuti. Il secondo si verifica nel caso in cui alcuni consumatori ricevono dal passaggio alla nuova tecnologia un’utilità maggiore rispetto al caso in cui rimanessero fedeli a quella vecchia ed attuano pertanto il passaggio anche se ciò non è ottimo dal punto di vista collettivo. Questo accade poiché essi non tengono conto della disutilità che la loro azione genera a coloro che hanno mantenuto la tecnologia passata e hanno visto ridursi le dimensioni della rete di cui fanno parte. Quale di questi due scenari si verifichi effettivamente dipende dalla dimensione della rete nel momento in cui la nuova tecnologia fa la sua comparsa, dalla rapidità con cui si manifestano i suoi benefici e dalla sua superiorità rispetto a quella già presente. Un ruolo importante è tuttavia svolto anche dalla struttura di mercato. Infatti nel caso esista un’impresa dominante, essa prediligerà le innovazioni di sistema poiché ne ha il diretto controllo, ma avrà anche incentivo a rallentare il processo per non cannibalizzare le vendite di prodotti esistenti. Nel caso invece in cui vi siano molte imprese in concorrenza tra loro l’innovazione procede ad un ritmo maggiore per ciò che riguarda le componenti, ma minore per ciò che riguarda il sistema nella sua totalità a causa della complessità del cambiamento e delle difficoltà di coordinamento. Un altro aspetto degno di nota è che la presenza di esternalità di rete può rendere molto costoso per il cliente il passaggio da un tipo di prodotto ad un altro (lock-in). Quando si acquista un Macintosh infatti si impara ad utilizzarlo, si acquistano applicazioni ad esso dedicate e si scambiano files con altri utenti Mac. Al momento di un upgrade il costo di abbandonare il Mac e passare ad un PC (switching cost) è molto alto e conferisce al produttore una notevole libertà nella fissazione del prezzo. D’altra parte, i consumatori, consci di ciò, chiedono una compensazione prima di legarsi ad un prodotto ed è plausibile che il bene che nel lungo periodo offre più vantaggi sia quello in grado di fornire agli utenti sconti maggiori e quindi avere la meglio nella competizione per accaparrarsi i clienti. Non è poi raro che in questa lotta si dissipino tutti o quasi gli elevati profitti ottenibili una volta che si è conquistato il cliente. Ciononostante i consumatori debbono essere accorti nel compiere le proprie scelte e fare in modo da avere sempre delle alternative a disposizione che rafforzino il loro potere contrattuale.