Nel corso degli ultimi anni, Internet e il settore collegato all

Nel corso degli ultimi anni, Internet e il settore collegato all’information
technology sono stati protagonisti di un cambiamento rapido e profondo
dell’economia, il quale promette di riverberarsi sul nostro modo di vivere,
lavorare ed essere cittadini.
Già oggi, la produzione, la distribuzione e l’uso della conoscenza rivestono
un ruolo primario nella creazione della ricchezza, ma nel corso dei
prossimi anni diventeranno la principale forza propulsiva dello sviluppo
economico.
Nel corso di questo lavoro vengono prese in considerazione le
caratteristiche economiche che contraddistinguono questo fenomeno quali i
problemi legati all’incertezza sulla qualità dei beni, le rinnovate possibilità
di discriminazione di prezzo e le esternalità di rete e il positive feedback. Si
discutono poi brevemente i possibili effetti che ciò avrà sulla struttura di
mercato e sui rapporti tra consumatori e imprese e il fatto che il fattore
competitivo più importante per un’impresa sarà quello di attirare uno dei
pochi fattori che diventeranno scarsi: l’attenzione umana.
Infine, vengono analizzati gli effetti sui consumatori e sulle imprese
dell’innovazione più importante che Internet
ha portato con sé: il
commercio elettronico. Il fenomeno viene analizzato sia dal punto di vista
teorico, sia dal punto di vista empirico, tramite un’analisi statistica delle
caratteristiche dei consumatori della rete e dell’importanza relativa che
essi attribuiscono a fattori quali il prezzo, la comodità, la varietà, la
qualità dell’informazione del prodotto che possono ricevere su Internet e
infine il piacere in sé derivante dal fare acquisti in un modo nuovo e
tecnologicamente avanzato.
Man mano che ci addentriamo nell’Era dell’Informazione, una quota
crescente dei beni e servizi scambiati sui mercati mondiali sarà costituita
da information goods. Sotto questa definizione ricadono tutti i beni che
possono essere espressi in forma digitale come, ad esempio, i film, la
musica, le quotazioni azionarie, le notizie e naturalmente il software e le
pagine web. Tuttavia, anche i beni fisici quali il cibo, i vestiti e gli
elettrodomestici, avranno un crescente contenuto informativo. Lo
dimostrano la realizzazione di piattaforme operative in grado di far
comunicare tra loro le diverse apparecchiature di un’abitazione, ma anche
il fatto che il testimonial spesso incide sui costi di un prodotto più che
l’intera manodopera dei paesi in via di sviluppo che lo assembla.
Le caratteristiche dei mercati su cui vengono scambiati questo tipo di beni
e le strategie di prezzo che li contraddistinguono sono in buona misura
determinate da quattro loro proprietà:
ƒ Il fatto che siano experience goods, cioè beni di cui si può determinare
il valore solo dopo averli consumati.
ƒ Il fatto che presentino alti costi fissi di produzione e bassissimi costi
marginali di riproduzione e che pertanto fissare il prezzo pari al costo
marginale comporta delle perdite.
ƒ Il fatto che abbiano alcune caratteristiche proprie dei beni pubblici
come la non rivalità e talvolta la non escludibilità.
ƒ Il fatto infine che presentino esternalità di rete in base alle quali il
valore del bene dipende da quanti altri consumatori lo utilizzano.
Experience Goods
Nessuno di noi conosce il valore di un quotidiano prima di averlo letto, ma
una volta che ciò è avvenuto non è più disposto ad acquistarlo, quale che
fosse l’utilità per lui dell’informazione in esso contenuta. Lo stesso accade
per tutti i tipi di informazione, ma anche per i beni di consumo durevoli e i
cibi al ristorante, e può generare seri problemi o addirittura minacciare
l’esistenza dei mercati su cui questi beni vengono scambiati.
A questo problema può essere applicato l’approccio formulato per la prima
volta da Akerlof nel 1970 nell’analisi del mercato delle auto usate. In
questo contesto i venditori sono perfettamente a conoscenza della qualità
dell’auto mentre gli acquirenti non la sanno valutare a priori. Ciò fa sì che
questi ultimi siano disposti a pagare al più un prezzo pari al valore atteso
dell’auto, E(nHpH + nLpL)1, prezzo ritenuto più che soddisfacente dai
venditori di auto di bassa qualità, ma troppo basso dai venditori di auto di
auto di alta qualità che sceglieranno pertanto di uscire dal mercato. I
consumatori, consci di questo fatto, pagano un prezzo al più pari a pL e il
mercato delle auto di qualità scompare.
Allo stesso rischio sono esposti i mercati di experience goods poiché i
consumatori, incerti sul valore da attribuire al bene prima di averlo
consumato, non sono disposti a pagare un prezzo superiore al valore atteso
e in alcuni casi questo non è sufficiente ad indurre i produttori di beni di
qualità ad entrare sul mercato.
La soluzione risiede nella possibilità per questi ultimi di mandare un
segnale credibile circa la qualità del proprio prodotto. Di per sé, un prezzo
elevato non basta a questo scopo a meno che non vi sia un numero
sufficiente di consumatori informati disposti a pagare tale prezzo e la
struttura del mercato comporti ingenti costi irrecuperabili tali da scoraggiare
strategie “mordi e fuggi” di imprenditori disonesti. Il problema è tanto più
accentuato quanto più è limitata la vita del prodotto, occasionale il suo
acquisto, e di breve periodo la permanenza sul mercato programmata dal
produttore.
A questo proposito Gale e Rosenthal (1994) costruiscono un modello
dinamico di interazione strategica tra consumatori e imprese che producono
experience goods. In questo modello esistono due tipi di imprese: il primo
tipo produce beni di bassa qualità ed è caratterizzato da costi fissi nulli, il
secondo tipo produce beni di elevata qualità e sopporta un costo fisso
iniziale positivo, ma non è in grado di segnalare in modo credibile la qualità
dei propri prodotti. In questo contesto, un’impresa del secondo tipo è
costretta a fissare inizialmente un prezzo basso e incorre in perdite. In un
secondo momento, dopo essersi guadagnata un reputazione di qualità ed
1
nH e nL indicano la numerosità delle auto di alta e bassa qualità rispettivamente, pH e pL
i loro prezzi.
aver allargato la base dei suoi consumatori, alza il prezzo e recupera le
perdite. Infine, quando si accorge che la cessazione dell’attività è prossima,
mantiene alto il prezzo e degrada la qualità dando fondo al patrimonio di
credibilità acquistato nei periodi precedenti. Anche i consumatori sono di
due tipi: un tipo non riceve alcuna utilità aggiuntiva da un bene di alta
qualità rispetto ad uno di bassa qualità, l’altro tipo apprezza invece la
qualità e cerca attivamente imprese in grado di offrirla. Quest’ultimo non
sostiene costi di ricerca se non quello relativo al costo opportunità dovuto
all’interruzione del consumo. Inoltre, egli è all’oscuro della qualità offerta
in passato dall’impresa e dell’insorgere di minacce che possono preludere
alla cessazione dell’attività e si accorge solo dopo un certo lasso di tempo
che l’impresa da cui acquista ha degradato la qualità. Tuttavia, è razionale e
conosce il funzionamento del modello e quindi sa che ad un certo stadio
della loro esistenza tutte le imprese cominceranno a produrre beni di bassa
qualità e li venderanno ad un prezzo elevato. Date queste condizioni,
l’equilibrio del modello comporta che una volta che il consumatore ha
trovato un’impresa che produce beni di qualità è per lui ottimale restarle
fedele fino a quando non sarà lui stesso ad accorgersi della bassa qualità del
prodotto e iniziare nuovamente la ricerca.
I due autori pongono delle ipotesi restrittive, quali il fatto che i consumatori
abbiano vita infinita e soprattutto che non possano conoscere la storia
passata dell’impresa e che pertanto la reputazione di qualità si possa
costruire solo in base ad una prova diretta e non grazie al passaparola.
Tuttavia, questo modello indubbiamente coglie alcuni importanti aspetti
della realtà quali le strategie di fissazione del prezzo perseguite dalle
imprese per allargare la propria clientela e le forze sottostanti al gioco che
vede contrapposti imprese e consumatori.
In generale, le soluzioni proposte al problema dell’incertezza sui valori dei
beni sono molteplici e trovano amplia applicazione nella realtà.
Una di esse è la reputazione: non sappiamo con certezza il valore del
quotidiano di oggi, ma il fatto che in passato ci sia stato utile fa sì che siamo
disposti a comprarlo anche oggi. Di qui il vantaggio competitivo di
possedere un marchio largamente conosciuto e sinonimo di qualità.
Un’altra possibile soluzione è la creazione di intermediari che abbiano le
conoscenze tecniche necessarie per valutare il bene e che dietro pagamento
di un prezzo offrano i loro servizi ai consumatori sotto forma di report sulla
qualità o alle imprese sotto forma di certificazione della qualità. Questo
accade già oggi per esempio nel caso delle recensioni dei film, ma avrà una
diffusione crescente man mano che aumenta la quota delle information
goods sul totale dei beni e che cresce il carico di informazioni che viene
sottoposto all’attenzione umana rispetto a quello che essa può assorbire.
Un approccio alternativo a quest’ultima soluzione è la stipula di contratti
incompleti direttamente tra produttori e consumatori. Un contratto di questo
tipo è ottimale quando non è possibile verificare che la controparte
adempia. Esso non specifica esattamente tutti i termini del contratto allo
scopo di creare un incentivo per entrambe le parti a produrre il miglior
risultato possibile. Un esempio noto è costituito dai contratti di fornitura in
cui l’acquirente ispeziona la qualità dei beni solo saltuariamente, ma si
riserva di interrompere il rapporto contrattuale in ogni momento. L’aspetto
mancante è in questo caso una scadenza prestabilita. In questo modo si
scoraggia un comportamento scorretto da parte del fornitore prefigurando
come “punizione” lo scioglimento irrevocabile del contratto. I vantaggi
rispetto al caso di intermediari risiedono principalmente nel risparmio di
costi e nella possibilità per le imprese di ideare prodotti più rispondenti alle
esigenze dei consumatori grazie al contatto diretto con essi. Gli svantaggi
risiedono nel fatto che questo schema non è utile in caso di acquisti
occasionali e di piccolo importo perché la minaccia di interruzione può non
essere sufficiente ad indurre il fornitore ad astenersi da pratiche scorrette.
Infine, si può ovviare al problema dell’incertezza sulla qualità permettendo
ai consumatori di saggiare gratuitamente il prodotto. Questa strategia
consente di segmentare il mercato ed è utile soprattutto nel caso in cui il
costo di produzione sia maggiore del valore atteso del bene e quindi senza
segmentazione il mercato scomparirebbe. In particolare, la sua convenienza
può essere determinata confrontando le valutazioni dei consumatori e il
costo unitario di produzione. Supponiamo per semplicità che vi siano due
soli tipi di consumatori: il primo dopo averlo provato valuta il bene pH,
mentre il secondo lo valuta pL, con pH>pL. Siano inoltre c il costo unitario di
produzione del bene e qH e qL le rispettive numerosità dei due gruppi.
Se l’impresa non consente prove gratuite dovrà fissare un prezzo pari al
valore atteso del bene perché nessun consumatore sa di che tipo egli sia e
non sarebbe dunque disposto ad acquistare per un prezzo superiore. In
questo caso tutti acquistano il bene e i profitti saranno:
Π=
qH pH + qL pL
qH + qL
-c
(qH + qL )
Se invece l’impresa permette prove gratuite sarà in grado di segmentare il
mercato e vendere solamente a coloro che hanno una valutazione elevata
del bene. I profitti in questo caso saranno:
Π’ = (PH – C ) QH
Quest’ultima strategia è conveniente per l’impresa se:
QH P H + Q L P L
(pH – c ) qH ≥
qH + qL
-c
(qH + qL )
che equivale a
pL ≥ c
Dunque se il prezzo che i consumatori con bassa valutazione del bene sono
disposti a pagare è inferiore al costo unitario di produzione è conveniente
per l’impresa escluderli dal mercato e servire soltanto la fascia alta del
mercato. Se la segmentazione non fosse possibile il mercato scomparirebbe
in corrispondenza di un costo unitario maggiore del valore atteso del
prezzo. Infatti:
Π=
per c ≥
qH pH + qL pL
qH + qL
-c
(qH + qL ) ≤ 0
qH pH + qL pL
qH + qL
La fattibilità di questa strategia dipende in parte dalle caratteristiche del
prodotto: per esempio è ottima per i film, ma comporta problemi per le
fotografie e i database. Tuttavia la tecnologia permette di rimediare in parte
a queste situazioni: nel caso delle fotografie ad esempio si possono offrire
come campione le immagini in formato molto ridotto in modo che chi è
interessato all’acquisto compri i formati più grandi. Per quanto riguarda
invece i libri e gli articoli scientifici è noto che leggerli online è molto
scomodo e che quindi la loro presenza in rete non danneggia le vendite, ma
le aumenta grazie al maggior numero di persone che ne viene a conoscenza.
In generale, esiste un trade-off tra l’aumento del numero dei potenziali
clienti che derivano dal dare via gratuitamente parte del bene e il rischio che
a causa di ciò i consumatori si accontentino del campione e non sentano più
la necessità di acquistare il prodotto.
Struttura dei Costi e Strategie di Prezzo
Una delle caratteristiche più importanti delle information goods consiste nel
presentare elevati costi fissi di produzione della prima copia, ma bassissimi
costi marginali di riproduzione e distribuzione delle copie successive.
Inoltre, i costi fissi sostenuti non sono recuperabili in caso di insuccesso e
per il lancio del prodotto sono necessarie forti spese promozionali.
La conseguenza di questa particolare struttura dei costi è che fissare il
prezzo al livello del costo marginale non consente di ottenere ricavi
sufficienti a coprire i costi fissi e a queste condizioni non è conveniente per
le imprese entrare nel mercato.
La soluzione prospettata dalle letteratura economica, e ampiamente
applicata nella realtà, consiste nel fissare il prezzo non in base ai costi
marginali sostenuti, ma in base al valore attribuito dal consumatore al bene
e quindi alla sua disponibilità marginale a pagare. Perché ciò sia possibile è
però necessario da un lato differenziare il prodotto rispetto a quello dei
concorrenti, così da ottenere maggiore libertà di manovra del prezzo,
dall’altro, essere in grado di distinguere i consumatori in base alla loro
disponibilità a pagare.
Per quanto riguarda il primo aspetto, i modi di aggiungere valore al
prodotto, al fine di renderlo unico agli occhi dei consumatori, sono
molteplici e Internet e la tecnologia informatica aumentano sicuramente le
possibilità in questo campo. Oggi più che mai è infatti possibile raccogliere
molteplici informazioni sui gusti e i bisogni dei consumatori e, grazie
all’interattività del mezzo, far sì che siano loro stessi a configurare
parzialmente il prodotto secondo le proprie esigenze. Fare ciò oggi è ancora
più facile perché queste operazioni sono agevolate dal fatto che i beni
digitali sono molto facili da modificare e che il costo di creare innumerevoli
prodotti tutti diversi tra loro invece che uno solo con caratteristiche
standardizzate è in questo caso trascurabile. Un esempio di successo nel
perseguire questo tipo di strategia è rappresentato dall’agenzia Reuters che,
pur vendendo un prodotto quale l’informazione finanziaria che è una
commodity, si differenzia dai propri concorrenti perché fornisce un servizio
di filtro e selezione delle notizie, raggruppandole in base al settore all’area
geografica di interesse per il cliente. Un altro esempio significativo è
costituito da Pointcast, una combinazione di browser e screensaver che
mostra i titoli delle principali notizie del giorno divisi per categorie scelte
dall’utente stesso.
Esistono tuttavia anche casi di insuccesso nel mantenere il proprio
vantaggio competitivo. Un esempio per tutti è quello della compagnia
telefonica Nynex che nel 1986 mise sul mercato un CD contenente la guida
telefonica di New York vendendolo a 10.000$ per copia. La concorrenza
non ha però tardato a farsi sentire: Pro CD, ad esempio, utilizzando
manodopera cinese a basso costo, ha creato un Cd simile contenente una
guida nazionale ed è stato in grado di venderlo per poche centinaia di $.
Oggi ci sono molti players in questo campo e il costo di un CD di questo
tipo è sceso a 20$ e probabilmente scenderà ancora se nessuno sarà in grado
di personalizzare e rendere unico il proprio prodotto.
Il secondo aspetto consiste nell’elaborazione di strategie di prezzo che
consentano al produttore di appropriarsi della maggior parte del valore
creato tramite la personalizzazione del prodotto.
Sotto questo punto di vista, la soluzione migliore per il produttore è attuare
la discriminazione di prezzo del I° tipo e vendere a ciascun utente ad un
prezzo pari al valore che quest’ultimo attribuisce al bene. La fattibilità di
questa strategia richiede però la disponibilità di informazioni dettagliate sui
singoli consumatori e la capacità di impedire l’arbitraggio da parte di utenti
con alta disponibilità a pagare che si fingano utenti con basso prezzo di
riserva o acquistino il prodotto da questi ultimi. Con l’avvento di Internet,
tutto ciò è diventato più facile perché si possono cambiare i prezzi
all’istante e si può aver traccia non solo del comportamento passato, ma
anche del presente (clickstream, queries) senza costo. Molti siti infatti
richiedono la registrazione con dati demografici e la risposta ad alcune
domande in cambio di un servizio molto spesso gratuito (Hotmail, ma
anche ISP come AOL) e, non a caso, l’interesse intorno ad essi è molto
elevato2. Tuttavia è bene ricordare che la flessibilità di prezzo di un
produttore è limitata dai prodotti sostituti disponibili sul mercato. Anche nel
caso di discriminazione perfetta infatti è possibile estrarre soltanto il surplus
ulteriore rispetto a quello fornito dai prodotti sostituti. Supponiamo infatti
che Alice valuti 20$ un servizio che fornisce le quotazioni delle azioni con
alcuni minuti di ritardo e 60$ un servizio che le fornisce in tempo reale e
che il prezzo del primo sia 10$ e consenta dunque ad Alice di ottenere un
surplus di 10$. Date queste condizioni, il secondo servizio non potrà essere
venduto per un prezzo superiore a 50$ poiché altrimenti Alice
acquisterebbe il primo, ottenendo un surplus maggiore. Inoltre, nonostante
gli avanzamenti della tecnologia la discriminazione dei prezzi del primo
tipo non è quasi mai possibile.
Un’alternativa è costituita da una tariffa in due parti consistente nel fissare
un canone che permetta all’impresa di coprire i costi fissi e in più un prezzo
legato all’utilizzo posto uguale al costo marginale.
Un’alternativa ancora migliore è la creazione di differenti versioni dello
stesso bene (versioning) le quali aumentino il valore per i consumatori
rispondendo meglio alle loro esigenze e nello stesso tempo li incentivino ad
autoselezionarsi rivelando così la propria disponibilità a pagare.
2
Recentemente Hotmail è stata acquistata da Microsoft, mentre Aol ha concluso con Amazon un
affare di 7 mill$ per l’accesso alle informazioni relative ai propri utenti.
Questa strategia non richiede molte informazioni sui singoli consumatori,
ma soltanto sulla distribuzione della disponibilità a pagare nell’ambito della
popolazione. Per porla in atto è sufficiente creare una versione di elevata
qualità per la fascia alta del mercato e poi eliminare via via caratteristiche e
potenzialità del prodotto e vendere le versioni così ottenute ad un prezzo
inferiore alle altre fasce. Varian e Shapiro, nel loro libro Information Rules,
suggeriscono diverse dimensioni lungo le quali è possibile creare versioni
di un bene. Una di queste è il tempo di attesa prima di avere il prodotto,
dimensione che mira a selezionare i clienti in base all'impazienza.
L'esempio più comune di applicazione di questa teoria si ha nell'editoria,
dove un libro viene pubblicato dapprima con la copertina rigida e solo
alcuni mesi dopo in versione paperback ad un prezzo molto inferiore.
Contrariamente a quanto molti pensano, la differenza di prezzo tra le due
versioni non è dovuta ai costi, che sono solo lievemente maggiori nel primo
caso, ma ad un'accorta strategia di discriminazione di prezzo che mira far
pagare un prezzo maggiore a coloro che essendo impazienti sono disposti a
pagare di più. Un'altra dimensione di differenziazione è la velocità delle
operazioni, maggiore per gli utilizzatori professionali che sono disposti a
pagare di più, minore per gli studenti che hanno generalmente minori
disponibilità finanziarie e minori esigenze di svolgere operazioni lunghe e
complesse. Altre dimensioni comunemente considerate sono l’interfaccia,
semplice per in nuovi utenti e con molte opzioni per gli utenti con più
esperienza, la risoluzione delle immagini, il formato, le opzioni disponibili
e l’assistenza tecnica. Una volta che si sono create le versioni occorrerà poi
determinare dei prezzi che inducano i consumatori ad acquistare la tipologia
intesa per loro in modo che l’impresa possa massimizzare i profitti
(incentive compatible solution).
Seguendo l’approccio di Varian (1992), possiamo illustrare graficamente il
problema nel caso di costi nulli e di due gruppi di consumatore con uguale
numerosità3. Come si vede in Fig. I a, la soluzione è porre il prezzo della
versione di bassa qualità pari ad A e quello dell’altra pari a A+C. A prima
vista porre quest’ultimo prezzo pari a A+B+C sembrerebbe una soluzione
migliore, ma in questo caso il consumatore con alta disponibilità a pagare
preferirebbe acquistare il prodotto di bassa qualità, poiché otterrebbe un
surplus pari a B4.
3
Considerare più tipologie di consumatori con diverse numerosità complicherebbe i calcoli, ma
porterebbe a soluzioni analoghe.
4
Ciò conferma quanto affermato in precedenza: un produttore può estrarre solo il surplus ulteriore
rispetto alle alternative disponibili.
FIG. I – VERSIONING
DISP. A
PAGARE
DISP. A
PAGARE
B
B
A
C
A
QUALITÀ DOMANDATA
-A-
C
QUALITÀ DOMANDATA
-B-
Ma allora, come si vede dalla Fig. I b, conviene degradare la qualità del
prodotto di fascia più bassa per essere poi in grado di richiedere un prezzo
maggiore per il bene di alta qualità. Il profitto massimo si ha in
corrispondenza del punto in cui la riduzione dei ricavi ottenuti dal prodotto
di bassa qualità è uguale all’aumento degli introiti generato da quelli di
qualità elevata. Gli esempi reali di degradazione della qualità, d’altronde,
sono molteplici5. Uno di essi riguarda il noto programma Windows NT; la
versione 4.0 di questo prodotto permette al massimo 10 connessioni
simultanee e costa circa 500.000£, mentre la versione Server permette
centinaia di connessioni simultanee e può costare anche due milioni.
L’unica differenza tra esse consiste però in alcune righe di programma che
diminuiscono drasticamente le funzionalità della prima. Un altro esempio è
quello della stampante IBM Serie E che stampa 5 pagine al minuto rispetto
alle 10 pagine della Serie F, ma differisce da quest’ultima solo per la
presenza di un chip messo apposta per ridurne la velocità.
Di fronte a questi episodi sorge spontaneo il sospetto che questo tipo di
pratiche sia dannoso per i consumatori e la società nel suo complesso. Studi
su questo argomento6 dimostrano però che il benessere sociale aumenta in
tutti i casi in cui l’alternativa al versioning è quella di servire soltanto la
fascia alta del mercato e, sebbene sotto condizioni più restrittive, anche in
alcuni casi in cui verrebbero serviti entrambi i tipi di consumatore. Resta
tuttavia da analizzare il modo in cui il surplus totale viene diviso tra
produttori e consumatori ed è assai plausibile che, grazie alle pratiche di
5
Si veda a questo proposito l’interessante rassegna presentata in Deneckere e Metcalfe (1996), da
cui sono tratti gli esempi riportati di seguito.
6
Si vedano ad esempio Varian (1994) e (1997).
discriminazione dei prezzi, la bilancia penda nettamente a favore dei primi.
D’altra parte, i vantaggi per il consumatore, se non risiedono nel prezzo,
sono costituiti dalla maggiore varietà, da prodotti più rispondenti alle loro
esigenze e dalla riduzione degli sprechi, resa possibile dalla mancanza di
tutte quelle caratteristiche che vengono incluse nei prodotti standardizzati
per cercare di andare incontro ai gusti del maggior numero possibile di
clienti. Un’opportunità che i consumatori possono cogliere è poi legata alla
consapevolezza del crescente valore economico delle informazioni relative
alle loro preferenze e abitudini di spesa e alla possibilità di venderle ad un
produttore o a un intermediario apposito7.
Inoltre alcuni studi di marketing indicano che il numero ideale di versioni è
solitamente tre: una piccola, una media e una grande. Il motivo è
psicologico ed è noto come extremeness aversion. Se infatti fossero
disponibili soltanto due versioni, parte degli indecisi finirebbe per optare
per la piccola diminuendo i profitti dell’impresa; se invece vengono create
tre versioni tali che quella media abbia le stesse dimensioni di quella grande
della configurazione precedente, gli indecisi scelgono la media e i profitti
ne traggono giovamento.
Un’altra forma molto comune di differential pricing, sicuramente destinata
ad aumentare la propria diffusione con il commercio elettronico, è
l’aggregazione di beni lungo diverse dimensioni: per prodotti (bundling),
utenti (site licensing), e periodi di tempo (abbonamenti).
Il bundling consiste nella creazione e nella vendita di pacchetti che
comprendono al loro interno diversi beni8. I suoi vantaggi risiedono, da un
lato, nelle sinergie di produzione e distribuzione e nelle complementarietà
nel consumo, dall’altro, nella possibilità di distinguere gruppi di
consumatori con diversi gruppi di riserva e appropriarsi così del loro
surplus. Quest’ultimo aspetto è destinato a ottenere un’importanza crescente
in presenza di beni i cui costi di produzione e distribuzione sono molto
bassi ed è imputabile al fatto che l’aggregazione dei beni consente di
aumentare la frazione di consumatori la cui valutazione del pacchetto è
vicina alla media. Infatti le valutazioni molto alte o molte basse di beni
individuali tendono ad annullarsi a vicenda dando vita ad una distribuzione
sempre più concentrata intorno alla media, man mano che il numero di beni
inclusi nel pacchetto aumenta9. In termini grafici, ciò equivale ad una curva
di domanda molto elastica intorno al valore medio, la quale consente al
produttore di catturare una frazione crescente del surplus totale,
determinando una riduzione non solo anche del surplus dei consumatori, ma
anche della perdita netta (Fig. II).
7
Si veda Hagel e Singer (1999), McKinsey & Co.
Un esempio molto noto è MS Office che comprende al proprio interno un word processor, uno
spreadsheet e un programma di presentazione.
9
Questo risultato è la conseguenza della legge dei grandi numeri.
8
FIG. II – BUNDLING
ESEMPIO DI DISTRIBUZIONE DELLE VALUTAZIONI DI CIASCUNO DEI BENI DEL BUNDLE
DA PARTE DEL CONSUMATORE.
0
1
CORRISPONDENTI CURVE DI DOMANDA:
P
BUNDLE DI 1 BENE
P
Q
BUNDLE DI 20 BENI
Q
La convenienza del bundling e delle altre forme di aggregazione è tanto
maggiore quanto minori sono i costi marginali di produzione dei singoli
beni e quanto meno positivamente correlate sono le valutazioni che di essi
ha il consumatore. In particolare, il bundling è vantaggioso se le valutazioni
dei singoli beni sono molto eterogenee, ma la somma delle valutazioni è
pressoché la medesima per tutti gli individui. Consideriamo infatti due
consumatori, che indichiamo con A e B, tali che uno di essi (non sappiamo
se A o B) adoperi molto il wordprocessor e sia disposto a pagarlo 100$,
mentre utilizzi poco lo spreadsheet e lo valuti pertanto solo 30$; l’altro
invece ha valutazioni esattamente antitetiche. In questo caso, se il prezzo di
entrambi è posto pari a 100$, un solo wordprocessor e un solo spreadsheet
vengono venduti e i profitti, ipotizzando per semplicità che i costi siano
nulli, sono pari a 200$. Se invece creiamo un paniere contenente un’unità di
ciascuno dei programmi e lo vendiamo al prezzo di 130$, i profitti
diventano 260$, grazie al fatto che riusciamo a far pagare ai consumatori il
prezzo di riserva per ciascun prodotto, pur conoscendo solo la loro
distribuzione e non quanto valga esattamente per il singolo individuo.
Nel caso invece in cui le valutazioni totali dei consumatori siano eterogenee
o i costi marginali di produzione siano relativamente elevati, la strategia di
vendere sia il paniere che i beni singolarmente (mixed bundling) è migliore.
Il bundling, in entrambe le versioni, presenta però dei difetti. Primo fra tutti
il fatto che su un numero elevato di beni il consumatore è generalmente
indifferente alla maggior parte di essi o alcuni gli recano addirittura
disutilità a causa della congestione e dello spreco di attenzione umana e di
risorse materiali utilizzate per produrli. Secondo, ma altrettanto importante,
il fatto che nella realtà le preferenze non sempre sono transitive e il valore
che un individuo attribuisce al prodotto dipende anche dal suo
posizionamento rispetto alle altre offerte e dal comportamento degli altri
individui.
Un’altra forma di differential pricing, il site licensing, consiste invece nel
vendere il prodotto ad un’organizzazione (impresa, università,…), la quale
ne consente l’utilizzo a tutti coloro che ne fanno parte. In questo modo i
consumatori vengono raggruppati così da diminuire le differenze nelle
valutazioni che individui diversi hanno dello stesso bene poiché
l’organizzazione conosce la valutazione del bene da parte dei singoli
individui ed è pertanto disposta a pagare un prezzo pari al totale di queste.
Ciò è vantaggioso per l’impresa dal momento che se vendesse il bene ai
singoli utenti dovrebbe fissare un prezzo pari alla media delle valutazioni e
avrebbe una platea di clienti costituita soltanto da coloro che hanno prezzi
di riserva superiori ad essa. I possibili punti deboli di questa strategia
risiedono nel fatto che richiede la presenza di un agente che abbia l’autorità
di fare l’acquisto, conosca le valutazioni dei singoli individui e abbia
incentivi allineati con quelli di questi ultimi. Inoltre essa presuppone che
questo agente sia price taker, cosa che si verifica raramente.
L’abbonamento permette invece di aggregare l’utilità derivante ad un
individuo dall’utilizzo di un bene in diversi periodi di tempo. Il suo
vantaggio è legato al fatto che in alcuni momenti la valutazione del bene è
bassa e probabilmente l’individuo in quei frangenti non lo acquisterebbe
anche se la sua valutazione è comunque superiore al costo marginale
sostenuto per produrlo. L’abbonamento mira ad evitare che ciò si verifichi e
che i profitti dell’impresa si riducano. Inoltre esso permette al consumatore
di ridurre il rischio che il bene eventualmente gli serva e lui non lo abbia a
disposizione (option value).
Infine, Internet non soltanto ha ridotto sensibilmente i costi marginali, ma
ha anche reso estremamente conveniente l’immagazzinamento e il
trattamento delle informazioni e di conseguenza un sistema di
micropayments che consenta transazioni di bassissimo valore e pertanto la
vendita di beni in piccole unità, a poche persone, per un breve intervallo di
tempo (disaggregazione). Ciò è positivo per i consumatori perché consente
di risolvere il problema dell’incertezza sulla qualità attraverso una prova a
basso costo. E’ tuttavia negativo nella misura in cui permette al venditore
una discriminazione di prezzo pressoché perfetta e dunque l’appropriazione
della maggior parte del surplus.
In generale, per determinare se sia preferibile l’aggregazione o la
disaggregazione, è utile far riferimento al cosiddetto diagramma di fase
sviluppato per la prima volta in Salinger (1995). Esso, come si vede nella
Fig. III, mostra l’impatto dei costi marginali e di distribuzione sulla
convenienza delle rispettive strategie.
FIG. III – CONFRONTO TRA AGGREGAZIONE E DISAGGREGAZIONE
COSTI
MARGINALI
VENDITE NULLE
DISAGGREGAZIONE
AGGREGAZIONE
COSTI DI DISTRIBUZIONE
Dalla figura emerge che se entrambi sono elevati il bene è troppo costoso e
non viene venduto, che al diminuire dei primi diventa conveniente
l’aggregazione, mentre al diminuire dei secondi risulta preferibile la vendita
di beni disaggregati. Tuttavia se i costi marginali scendono al di sotto di un
certo livello, l’aggregazione risulta la strategia migliore indipendentemente
dal livello dei costi di distribuzione. In particolare, nel caso del bundling, un
paniere contenente infiniti beni è conveniente per il produttore se
πB ≈ µ - c > πi
dove πB indica il profitto derivante dal bundling, µ la valutazione media, c
il costo marginale e πi il profitto derivante dalla vendita dei beni
separatamente. Inoltre, indicando con vmax la valutazione massima che il
consumatore attribuisce ad un bene, si può dimostrare che la
disaggregazione è profittevole solo se
c + d ≤ vmax
dove d indica i costi distribuzione10.
Infine, un altro fenomeno sempre più frequente è il cosiddetto sharing che
consiste nella condivisione di un bene da parte di più consumatori. Esso è
vantaggioso nel caso in cui il valore del prodotto per il singolo individuo sia
inferiore al costo o al prezzo di vendita e nessuno trovi pertanto
conveniente l’acquisto. In questo caso, lo sharing permette di formare un
club che acquista il bene e lo utilizza in comune. Il numero ottimo di
componenti è raggiunto quando il beneficio di aggiungere un ulteriore
membro al club (riduzione della quota) uguaglia il costo che ciò comporta
in termini di congestione e aumento del tempo di attesa11.
In conclusione, è probabile che nell’Era dell’Informazione e della
Conoscenza i beni che in passato venivano aggregati per motivi tecnologici
e per risparmiare costi saranno venduti separatamente mentre la
convenienza dell’aggregazione deriverà dalla possibilità di ridurre
l’eterogeneità dei consumatori. Inoltre sempre più spesso la composizione
dei panieri verrà determinata dai consumatori piuttosto che dai produttori e
si assisterà a diverse forme di discriminazione di prezzo rese possibili
dall’acquisizione di informazioni dettagliate sulle loro preferenze e
comportamenti.
10
11
Per una trattazione più approfondita di questo aspetto si veda Bakos e Bryniolfsson (1997).
Per un trattazione più ampia si vedano Varian (1998).
Information Goods come Beni Pubblici
Il basso costo e la facilità di riproduzione delle information goods rendono
questi beni inerentemente soggetti ai problemi della non rivalità e non
escludibilità propri dei beni pubblici.
Il primo aspetto è una caratteristica del bene in sé e consiste nel fatto che il
suo utilizzo da parte di un individuo non impedisce il suo contemporaneo
utilizzo da parte di un altro individuo, come invece accade per la maggior
parte dei beni. Il secondo aspetto dipende dal sistema legale e, in
particolare, dalle leggi sul copyright, ma anche dalla tecnologia e dalla
possibilità di applicare effettivamente tali leggi.
Generalmente, i produttori di beni digitali vedono soprattutto le minacce
che ciò comporta per i loro profitti, mentre non considerano adeguatamente
le opportunità. Infatti, se è vero che grazie alla tecnologia i pirati avranno
vita sempre più facile nell’eludere le norme sul diritto di autore, è
altrettanto vero che i produttori possono sfruttare alcuni aspetti di essa a
proprio vantaggio al fine di aumentare il valore del bene e di conseguenza i
propri profitti. Per esempio, i bassi costi di distribuzione permettono di dar
via gratuitamente parte del prodotto per risolvere il problema
dell’incertezza sulla qualità e contemporaneamente allargare la base dei
consumatori. Ciò comporta un trade off tra l’aumentato valore per il
consumatore e la riduzione delle unità acquistate dovuta ai termini di
vendita più liberali. Queste ultime possono infatti far sì che alcuni
soddisfino le proprie esigenze con il campione gratuito e non procedano più
all’acquisto.
Esistono inoltre alcuni aspetti che permettono di limitare l’estensione della
pirateria. Primo fra tutti, il fatto che i pirati non possono valersi troppo della
pubblicità per acquistare clienti perché manifesterebbero la propria
presenza anche alle autorità e il loro giro d’affari è pertanto destinato a
rimanere limitato. In secondo luogo, alcuni tipi di beni digitali, quali ad
esempio le notizie e le quotazioni azionarie, valgono se acquistati “freschi”
e raramente i pirati riescono a riprodurre il bene entro un intervallo di
tempo in cui questo abbia ancora valore. Un’altra possibile soluzione del
problema è data dalla customization del prodotto, la quale fa sì che esso si
attagli sempre più alle esigenze di un singolo individuo e che sia possibile
avere informazioni dettagliate sui consumatori e sull’uso che essi fanno del
bene.
Infine, un’opzione che si sta sviluppando grazie alle recenti tecnologie quali
la criptografia, consente di legare il bene digitale, di per sé non escludibile,
ad un altro bene, il meccanismo di autenticazione, che invece è escludibile e
trasmette questa sua caratteristica al bene digitale.
Esternalità di rete, standards e compatibilità, lock in.
Uno degli aspetti più interessanti dei beni digitali consiste nel fatto che per
molti di essi l’acquisto si traduce nell’entrata a far parte di una rete
(network) costituita da tutti gli utenti di quel tipo di bene. Essa può essere
reale cioè formata da nodi uniti da connessioni materiali, come nel caso
della rete telefonica, delle ferrovie o dello stesso Internet; oppure virtuale
come la rete formata da tutti gli utenti di Macintosh o di Lotus, o da tutti
coloro che possiedono un videoregistratore VHS.
Il valore della connessione alla rete, e dunque del bene, dipende in maniera
cruciale dal numero di utenti che ne fanno parte e soprattutto dal numero
che ci si aspetta ne farà parte in futuro. L’utilità del fax e del telefono è
infatti legata al numero potenziale di persone che possiamo contattare con
questi strumenti. In particolare, in una rete con n componenti vi sono n(n-1)
potenziali beni (telefonate) e l’aggiunta di un solo consumatore crea ben 2n
nuovi beni, aumentando il valore della rete per tutti gli utenti. Se
ammettiamo, in maniera approssimativa, che il valore di un network sia
proporzionale al numero degli utenti si ha che una rete con 10 utenti vale
n(n-1)=90, mentre una rete con 100 utenti vale 9900. Pertanto
moltiplicando per 10 il numero degli utenti abbiamo moltiplicato per 100 il
valore della rete. Lo stesso, anche se in maniera solo indiretta, vale per i
network virtuali, come ad esempio la platea degli utenti di un certo tipo di
hardware. In questo caso, i vantaggi derivanti dalla scelta del sistema più
diffuso sono numerosi e consistono in primo luogo in una maggiore varietà
di software e di altre applicazioni destinate a quel tipo di sistema e a prezzi
più attraenti resi possibili dalle economie di scala nella produzione. Inoltre
la maggior diffusione del bene comporta una maggiore conoscenza del suo
funzionamento e quindi migliore assistenza post vendita nonchè maggiori
possibilità di miglioramento. Ogni nuovo utente potenzia questi vantaggi e
arreca beneficio a tutti gli altri.
La curva di domanda per un bene di questo tipo è inclinata negativamente,
ma si sposta in alto a destra man mano che le dimensioni del network si
ampliano e di conseguenza aumenta il valore del bene per i consumatori. In
particolare, all’espandersi della rete si accompagnano cambiamenti non solo
nella posizione, ma anche nell’inclinazione della curva di domanda.
iprendendo l’esempio dell’hardware e del software, si può notare che la
quantità di hardware venduta oggi contiene un segnale sul futuro prezzo del
software poiché un maggior numero di utilizzatori di hardware fa
aumentare la produzione di software e grazie alle economie di scala
diminuire il suo prezzo. Anticipando ciò, l’impresa ha incentivo a diminuire
il prezzo odierno dell’hardware per potenziare questo effetto futuro e ciò
rende la domanda di hardware più elastica rispetto al caso in cui non
esistesse questa complementarietà con il software.
Seguendo Economides e Himmelberg (1995), possiamo poi costruire la
curva di domanda corrispondente alla situazione di equilibrio in cui le
aspettative del mercato circa la numerosità della rete si realizzano. La
disponibilità a pagare per l’n-sima unità del bene diminuisce al crescere di
n, poiché la curva di domanda è inclinata negativamente, ma aumenta
all’aumentare della dimensione attesa della rete. Ciò è illustrato
graficamente nella Fig. IV, in cui Di indica la curva di domanda in
corrispondenza della dimasione attesa ne = ni.
La curva a campana è la curva di domanda caratterizzata dalla realizzazione
delle aspettative in equilibrio. Come si può osservare, dapprima la quantità
domandata cresce al crescere del prezzo poiché prevale l’effetto positivo
dell’ampliamento della rete, poi, raggiunta una certa dimensione, esso viene
meno e la curva di domanda torna ad essere inclinata negativamente. I due
autori hanno dimostrato che ciò si verifica tipicamente per tre tipi di bene.
In primo luogo per quelli, come il telefono, che non arrecano alcuna utilità
se non vi è nessun partecipante. In secondo luogo quelli, come le
newsgroup specialistiche su Internet, che hanno un valore intrinseco, ma il
cui valore aumenta moltissimo al crescere della loro diffusione. Infine
quelli, come i word processor, il cui valore non aumenta molto al crescere
delle vendite, ma che sono altresì molto diffusi.
FIG. IV – CURVA DI DOMANDA DI UN BENE CHE FA PARTE DI UN
NETWORK
C, P
D4
P ( N, NE )
D3
D2
D1
N1 N2 N3
N4
N
Il fatto che un utente con le proprie scelte di adesione o meno ad una rete
influenzi l’utilità degli altri è stato descritto dalla letteratura economica con
il termine esternalità di rete ed è illustrato in Fig. V.
FIG. V – ESTERNALITÀ DI RETE
MC
P
MSB
P*
MB
N
N’
N*
MC = COSTO MARGINALE
MSB = BENEFICIO MARGINALE DELLA SOCIETÀ NEL SUO COMPLESSO
MB = BENEFICIO MARGINALE DEL SINGOLO UTENTE
Come si può osservare, il beneficio individuale derivante dall’entrare a far
parte della rete è inferiore a quello sociale poiché non tiene conto della
maggiore utilità che da questa adesione deriva a coloro che sono già
membri. Di conseguenza le dimensioni della rete (N’) sono inferiori rispetto
a quelle socialmente ottimali (N*).
Le soluzioni tradizionalmente proposte per internalizzare questo effetto
sono molteplici. Una di esse è l’introduzione di diritti di proprietà, che
tuttavia in questo caso non sempre dà gli esiti sperati. Infatti se la rete è
posseduta da un monopolista impossibilitato a mettere in atto
discriminazioni di prezzo, egli fisserebbe un prezzo superiore al costo
marginale, riducendo ulteriormente le dimensioni della rete rispetto al caso
di concorrenza. Tuttavia i vantaggi derivanti dalla presenza di un
proprietario della rete emergono nel caso in cui egli sia in grado di
assicurare i potenziali clienti contro la possibilità che il network sia piccolo
e di scarso valore. Questa soluzione, prospettata per la prima volta da
Dybvig e Spatt (1983), può essere implementata facendo pagare a ciascuno
un prezzo che dipende dalle dimensioni della rete, grazie alla previsione di
un risarcimento nel caso essa sia di dimensioni inferiori a quelle pattuite. In
equilibrio il network raggiunge le dimensioni attese e non ci sono pertanto
richieste di risarcimento e l’assicurazione non comporta alcun costo per chi
la fornisce. Un altro modo in cui il monopolista può influenzare le
aspettative dei consumatori consiste nel dimostrare che un network di
elevate dimensioni è per lui un vantaggio ad esempio perché è
comproprietario dell’impresa che produce prodotti complementari (software
nel caso dell’esempio dell’hardware), oppure che ha sostenuto investimenti
irrecuperabili che rendono per lui conveniente fornire software a prezzi
bassi e non sfruttare i consumatori. Un modo ulteriore per rassicurare i
consumatori da repentini aumenti del prezzo del software una volta che essi
hanno acquistato l’hardware consiste nell’affittare quest’ultimo invece di
venderlo così da sobbarcarsi il danno derivante da aumento del prezzo.
Infatti il monopolista non può impegnarsi in maniera credibile a creare una
rete ampia e a goderne i benefici perché, per ogni dato livello delle
aspettative di vendita dei consumatori, ha incentivo a produrre una quantità
bassa e venderla ad un prezzo elevato. A questo proposito, è stato
dimostrato12 che quando le esternalità di rete sono molto forti, è
conveniente per il monopolista invitare altre imprese ad entrare nel mercato
in modo da rendere credibile un elevato livello di produzione futura. Infatti
l’aumento del numero delle imprese genera due effetti contrapposti sui
profitti del monopolista: il primo è dovuto alla concorrenza delle altre
imprese e alla conseguente diminuzione del prezzo ed è negativo. Il
secondo è invece positivo ed è dovuto al fatto che un aumento del numero
delle imprese genera aspettative di vendite più elevate e, grazie alle
esternalità di rete, fa aumentare la quantità domandata per ogni livello di
prezzo. Se le esternalità di rete sono sufficientemente forti da far sì che
questo secondo effetto sia prevalente, allora un monopolista ha incentivo a
consentire l’entrata di altre imprese e in alcuni casi anche a sussidiarla.
Molto più interessante dell’esame delle caratteristiche e del funzionamento
di una singola rete appare tuttavia l’analisi della competizione tra
tecnologie e sistemi diversi, entrambi caratterizzati da esternalità di rete. A
causa di queste ultime infatti quanto più una tecnologia viene adottata, e la
corrispondente rete si amplia, tanto più essa viene conosciuta migliorata e
dotata di prodotti complementari e diventa quindi attraente dando vita così
ad un ciclo che si autoalimenta e fa sì che il successo chiami altro successo
e l’eventuale fallimento diventi presto irreversibile. Questo fenomeno,
conosciuto con il nome di positive feedback o ritorni crescenti di adozione,
fa sì che nella competizione tra due tecnologie la conoscenza delle loro
caratteristiche e delle preferenze dei consumatori non siano sempre
sufficienti per prevedere l’esito, che dipende invece in maniera cruciale dal
susseguirsi casuale di eventi insignificanti. Il seguente esempio, dovuto ad
Arthur (1989) e basato sullo schema dell’urna di Polya, illustra molto bene
questo aspetto. Esso considera due tecnologie (A e B) che competono per
una platea di utenti divisi in due gruppi di uguale numerosità l’uno dei quali
(R) preferisce A, mentre l’altro (S) preferisce B. Questi individui entrano
nel mercato l’uno dopo l’altro susseguendosi in maniera casuale e scelgono
12
Si veda Economides (1994).
una delle tecnologie in base alle loro preferenze e alla numerosità di coloro
che in passato hanno scelto ciascuna di esse. In particolare, i loro payoff
sono i seguenti:
Tecnologia A
Tecnologia B
aR + rnA
aS + snA
bR + rnB
Agente R
Agente S
bS + snB
Dove nA e nB indicano le dimensioni delle due reti e aR > bR e aS < bS.
In questo caso l’ordine di arrivo dei consumatori è cruciale per l’esito
finale. Per piccole dimensioni delle reti infatti l’agente di tipo R preferisce
A e quello di tipo S predilige B. Tuttavia se per caso si presenta di seguito
un gran numero di clienti di tipo R, la tecnologia A raggiunge una tale
diffusione che risulta conveniente adottarla anche per un cliente di tipo S e
quindi essa prende il sopravvento. Ciò si verifica se:
aS + snA > bS + snB
cioè
nA - nB >
b S - aS
s
ed è illustrato graficamente in Fig. VI.
Da essa si vede come la differenza nell’adozione delle due tecnologie ha un
andamento casuale, fino a quando una delle due non raggiunge una massa
critica, corrispondente alle barriere di assorbimento, che le consente di
prendere definitivamente il sopravvento sull’altra. Il processo risulta
pertanto path dependent poiché il suo esito è determinato dal cumularsi
casuale
FIG. VI – COMPETIZIONE TRA DUE TECNOLOGIE
IN PRESENZA DI ESTERNALITÀ DI RETE
NA - NB
LOCK-IN DI A
0
(R SCEGLIE A, S SCEGLIE B)
LOCK-IN DI B
BARRIERA DI ASSORBIMENTO
di eventi insignificanti. Inoltre esso è caratterizzato da lock-in poiché una
volta che una delle due tecnologie prevale continuerà ad essere scelta senza
possibilità di cambiamento, almeno fino alla prossima ondata di
innovazioni tecnologiche. Ciò lascia inoltre aperta la possibilità che la
tecnologia predominante non sia quella che nel lungo periodo avrebbe
garantito i payoff più elevati.
I risultati ottenuti vengono potenziati qualora si tenga conto anche delle
aspettative sulle dimensioni future della rete e si ipotizzi, come è realistico
fare, che esse si modifichino nel tempo in risposta alle variazioni osservate
nei tassi di adozione. In questo caso infatti se una tecnologia “parte con il
piede giusto” ha probabilità di successo ancora maggiori grazie alle
aspettative positive che influenzano in suo favore il comportamento degli
agenti e tendono pertanto a realizzarsi. La gestione delle aspettative e del
timing dell’introduzione di nuovi prodotti diventano cruciali per il successo
di un prodotto.
L’equilibrio che prevale in mercati di questo tipo può essere rappresentato
con un diagramma che vede sull’asse orizzontale la percentuale di agenti
che ha adottato la tecnologia A e sull’asse verticale la probabilità che un
nuovo agente adotti A. Due esempi di esso sono rappresentati in Fig. VII.
La retta inclinata a 45° è il luogo dei punti in cui la probabilità e la
percentuale effettiva di utilizzatori coincidono. Le frecce indicano che nei
punti dove la probabilità di adozione è maggiore della percentuale effettiva
quest’ultima tende a crescere, mentre dove accade l’opposto la percentuale
di coloro che adottano A diminuisce. Un discorso analogo può essere fatto
per la tecnologia B considerando come origine il vertice in alto a destra. In
entrambi i casi gli equilibri sono rappresentati dai punti in cui le aspettative
(probabilità) si realizzano e quindi le funzioni di adozione intersecano le
rette. Nella Fig. VII a esistono tre punti di equilibrio di cui soltanto A e C
sono stabili. Quale fra essi si realizzi dipende dal cumularsi casuale degli
eventi. L’esito sembra comunque essere il monopolio di una delle due
tecnologie. Questa situazione si verifica con certezza nel caso in cui i
payoff
FIG. VII – ADOZIONE DI UNA TECNOLOGIA IN PRESENZA DI
ESTERNALITÀ DI RETE
1
C 1
B
A
0
1
0
1
-A-BASSE ORIZZONTALE: PERCENTUALE DI AGENTI CHE HANNO SCELTO A.
ASSE VERTICALE: PROBABILITÀ CHE IL PROSSIMO AGENTE SCELGA A
crescano senza limiti al crescere della dimensione della rete, ma non è
affatto scontata negli altri casi. Infatti è plausibile che i payoff siano limitati
ad esempio perché raggiunta una certa dimensione non si derivano vantaggi
apprezzabili dall’aumentarla ulteriormente o addirittura si sopportano dei
costi dovuti alla congestione generata. In questo caso è possibile che
sequenze bilanciate di agenti dei due diversi tipi facciano raggiungere alle
due tecnologie il loro livello massimo dei payoff pressoché
contemporaneamente determinando un equilibrio di mercato in cui
convivono entrambe (Fig. VII b).
Molto spesso inoltre anche nel caso di monopolio si tratta comunque di
situazioni transitorie che possono essere ribaltate dall’avvento di una nuova
tecnologia. Nel caso poi che le imprese abbiano attuato drastiche riduzioni
di prezzo per guadagnare quote di mercato, quelli che in apparenza sono
extra profitti possono semplicemente riflettere il recupero dei costi sostenuti
in precedenza per ottenere la leadership di mercato. Il tipo di situazione
descritto infatti è un incentivo per le imprese a dar via i prodotti ad un
prezzo molto basso o addirittura nullo per poter ampliare in fretta la propria
quota di mercato e poter così fruire delle esternalità di rete. L’altro
elemento di primaria importanza è il time to market poiché un ritardi
potrebbe significare che la tecnologia rivale ha già raggiunto sufficiente
massa critica e recuperare non è più possibile. Ciò trova conferma indiretta
nel crescente numero di beta versions che le software house diffondono
prima di raggiungere, con il contributo degli stessi utenti, la versione
definitiva.
I sistemi caratterizzati da esternalità di rete e positive feedback seguono un
tipico percorso di sviluppo descritto da una curva logistica (Fig. VIII).
FIG. VIII – CURVA LOGISITCA
UTENTI
2500
2000
SATURAZIONE
1500
DECOLLO
1000
500
LANCIO
0
TEMPO
1976
CURVA LOGISTICA IN GENERALE
1980
1984
1988
1992
ANDAMENTO DELLE VENDITE DI FAX
Nella fase di lancio crescono lentamente, nella fase del decollo le esternalità
di rete prendono il sopravvento e la quota di mercato esplode e infine nella
fase di saturazione il ritmo di crescita rallenta sempre più fino a
stabilizzarsi. La diffusione del fax e del telefono hanno seguito questo
percorso, mentre nel caso di Internet ci troviamo ancora nella fase del
decollo.
In un contesto di questo tipo, la decisione strategica più importante per
un’impresa riguarda la compatibilità o meno del proprio prodotto con
quello delle imprese concorrenti. In caso di compatibilità i beni prodotti da
un’impresa sono combinabili senza costo con quelli delle imprese rivali:
per esempio, un file scritto con MSWord può essere letto anche con
WordPerfect e un utente che conosca bene il primo programma è in grado
di utilizzare senza problemi anche il secondo. Il vantaggio di questa
strategia consiste nel fatto che il network cui il proprio bene appartiene è
molto più ampio perché comprende anche gli utenti dei beni compatibili e
ciò comporta un aumento della domanda dovuta alle esternalità di rete.
D’altro canto, essa ha anche l’effetto di accrescere la concorrenza sul
proprio prodotto poiché diminuisce la sua differenziazione rispetto ai
prodotti rivali. La preferenza per la compatibilità si verifica nel caso in cui
l’effetto positivo sui profitti, dovuto ad un aumento della domanda, prevale
sull’effetto negativo originato dalla maggior concorrenza. Il risultato in
termini di equilibrio di mercato dipende dall’interazione strategica delle
imprese presenti sul mercato. In particolare, se consideriamo due sole
imprese che si trovino a dover decidere quale adottare tra due tecnologie tra
loro incompatibili, possiamo descrivere la situazione attraverso un gioco, la
cui forma normale è riportata in Fig. IX.
FIG. IX – L’ADOZIONE DI UNA TECNOLOGIA COME GIOCO
IMPRESA B
IMPRESA A
TECNOLOGIA 1
TECNOLOGIA 2
TECNOLOGIA 1
A11 , B11
A12 , B12
TECNOLOGIA 2
A21 , B21
A22 , B22
In corrispondenza alle strategie (t1, t2) e (t2, t1) entrambe le imprese
preferiscono scegliere una tecnologia diversa da quella scelta dalla rivale. E
rendere così i prodotti incompatibili tra loro. Il risultato, già descritto nelle
pagine precedenti, è una battaglia tra tecnologie che ha come posta il
predominio del mercato. In questo caso, grazie alle esternalità di rete e al
positive feedback, una delle due emerge come netta vincitrice, mentre
l’altra è costretta ad uscire dal mercato o ad accontentarsi di una parte molto
piccola di esso. In questa situazione è molto importante raggiungere una
significativa quota di mercato molto in fretta. Spesso ciò induce le imprese
ad offrire condizioni di acquisto molto vantaggiose ai consumatori della
prima ora in modo da costituire una base di clienti che influenzi le scelte dei
consumatori successivi (penetration pricing). Per lo stesso motivo è
cruciale vendere il prodotto a quei clienti che influenzano le decisioni di
acquisto degli altri consumatori grazie alla loro reputazione o alla capacità
di imporre ai partner commerciali le tecnologie da loro scelte. Un’altra
tattica importante consiste nell’incoraggiare, attraverso alleanze e accordi,
la produzione di prodotti complementari al proprio, così da aumentarne il
valore. Inoltre per molte imprese può rivelarsi vantaggioso permettere
l’accesso alla propria tecnologia dietro pagamento di royalties, al fine di
aumentarne la diffusione e ridurre gli incentivi delle altre imprese alla
ricerca di tecnologie alternative. Infine anche il momento in cui un prodotto
è introdotto sul mercato è importante, poiché chi arriva tardi può non essere
in grado di recuperare il vantaggio dell’avversario. Per questo motivo
spesso le imprese preannunciano con molto anticipo il lancio di un prodotto
così da indurre i consumatori ad aspettare invece di acquistare il prodotto
dei concorrenti.
Siccome la posta in gioco è alta la battaglia è molto feroce ed è possibile
che le due imprese dissipino gran parte dei potenziali profitti nel tentativo
di strapparsi quote di mercato. Inoltre la competizione può rallentare la
crescita del mercato nella misura in cui induce i consumatori a posticipare
l’acquisto per vedere quale sarà la tecnologia vincitrice e non correre il
rischio di rimanere legati a quella la cui rete sarà molto ridotta. Pertanto
viene perseguita una strategia di incompatibilità nel caso in cui le imprese
sono pressoché sullo stesso piano in termini di quota di mercato, tecnologia
e reputazione e i profitti non vengano eccessivamente ridotti dalla
competizione. Un esempio reale di guerra tra due standard diversi è la
battaglia ingaggiata da Netscape e Microsoft per il predominio del mercato
dei browser. La prima ha dalla sua parte il fatto di avere una platea di utenti
più ampia e un prodotto per certi versi superiore. La seconda gode di un
marchio molto noto, di ampie disponibilità finanziarie, ma soprattutto del
controllo del sistema operativo sottostante. Entrambe attuano forme di
penetration pricing, distribuendo gratuitamente il proprio prodotto o, nel
caso di Microsoft, addirittura pagando i costruttori che scelgono il proprio
prodotto come default. Entrambe incoraggiano la produzione di
applicazioni complementari ed entrambe hanno stretto importanti alleanze:
con Sun Microsystems, il produttore della piattaforma applicativa Java,
Netscape e con i costruttori e gli ISP Microsoft. Agli inizi Netscape
deteneva una larghissima frazione del mercato. Ora pare che Microsoft lo
abbia superato, perlomeno per quanto riguarda l’utenza aziendale. Tuttavia
è ancora presto per dire chi vincerà.
In corrispondenza delle strategie (t1, t1) e (t2, t2) prevale invece la
compatibilità. Essa può ad esempio essere l’epilogo di una situazione in cui
ciascuna impresa preferisce che venga adottato come standard la propria
tecnologia, ma è disposta ad accettare di adottare l’altra piuttosto che
scegliere l’incompatibilità13. Il risultato è quello di passare da una
competizione tra tecnologie ad una competizione tra prodotti e componenti
nell’ambito della medesima tecnologia. Di conseguenza, vengono in primo
piano dimensioni quali il prezzo, il servizio e le caratteristiche del prodotto
e la competizione si fa più intensa soprattutto per ciò che riguarda il prezzo.
La causa principale di ciò è che la standardizzazione determina il venir
meno di differenze marcate tra i prodotti e quindi i consumatori all’atto
dell’acquisto di un certo tipo di bene possono scegliere tra un gran numero
di imprese che vendono prodotti simili. In questo contesto le tattiche
competitive più utilizzate per indurre il proprio avversario ad adottare la
propria tecnologia annoverano la concessione di licenze a basso costo, la
determinazione di standard ibridi che comprendono caratteristiche e
funzionalità tratte da entrambe le tecnologie e l’impegno a comunicare
tempestivamente ogni modifica o a sviluppare il prodotto congiuntamente.
Esse hanno il fine ultimo di aumentare i profitti che i concorrenti ottengono
dall’adesione ad uno standard diverso da quello in cui goderebbero di un
13
Ciò accade se a11 > a21 e a22 > a12, mentre b11> b12 e b21> b22.
vantaggio competitivo. Una strategia di compatibilità prevale nel caso in cui
una guerra tra standard diversi dissiperebbe gran parte dei profitti o
causerebbe una notevole riduzione delle domanda di mercato a causa della
presenza di forti esternalità di rete. Un esempio molto noto di accordo per la
determinazione di uno standard è quello intercorso tra Sony e Philips nel
caso dei CD e, più recentemente dei DVD, che sono secondo alcuni la
nuova generazione di prodotti per la visione dei film destinata a soppiantare
le videocassette.
Un terzo caso abbastanza comune è quello in cui esistono da un lato
un’impresa con una buona reputazione, una vasta platea di clienti o una
tecnologia superiore alle altre e che per questi motivi preferisce
l’incompatibilità, dall’altro un’impresa in posizione di follower che trae
invece maggiori vantaggi dalla compatibilità14. La prima ha incentivo ad
opporsi alla compatibilità del prodotto della follower con il proprio e lo fa
generalmente attraverso brevetti o cambiando la tecnologia molto
frequentemente. La seconda ha invece incentivo a costruire uno strumento,
indicato con il termine adapter, che renda possibile l’interconnessione del
proprio prodotto con quello del leader. Il principale svantaggio che i
consumatori ricevono da tutto ciò è legato alla possibilità che l’adapter non
funzioni bene e alcune potenzialità del prodotto vengano perdute. Esempi
comuni riguardano i programmi di software meno noti i quali grazie ad un
adapter sono generalmente in grado di leggere i file creati con i programmi
più diffusi. Naturalmente le imprese produttrici di questi ultimi hanno
incentivo a rendere questa operazione difficoltosa e a proteggere
dall’imitazione dei concorrenti le caratteristiche più innovative e creatrici di
valore dei loro prodotti. A questo proposito è famosa la causa intentata da
Lotus a Borland perché quest’ultimo aveva copiato la struttura dei comandi
di Lotus per il proprio spreadsheet.
In generale, il passaggio dall’incompatibilità ad uno standard unico è
positivo per il benessere sociale se il surplus totale aumenta. Tuttavia le
imprese nel fare le proprie scelte non tengono conto dell’effetto che queste
hanno sui consumatori e sulle altre imprese. In particolare, se sono possibili
trasferimenti tra le imprese, si sceglie la compatibilità nel caso in cui i
profitti totali del settore siano maggiori. Se tuttavia non sono possibili
trasferimenti il fatto che per alcune imprese il passaggio ad uno standard
unico determini una riduzione dei profitti fa sì che essa non venga attuata15.
Katz e Shapiro (1985) mostrano che la scelta dipende da due fattori. Il
primo è la variazione delle quote di mercato e dei ricavi generata dalla
compatibilità Il secondo è la quota relativa dei costi di compatibilità in cui
incorre ciascuna impresa. Per quanto riguarda invece il surplus del
14
Ciò accade se a11 > a21 e a22 > a12, mentre b11< b12 e b21< b22.
Questa affermazione è rilassata nel caso in cui le imprese che traggono profitto dalla
compatibilità possano costruire un adapter.
15
consumatore, il passaggio alla compatibilità ha due effetti di segno opposto.
Il primo è positivo ed è dovuto, da un lato, all’aumento dei prodotti
complementari e alle esternalità di rete e, dall’altro, alla minore incertezza
su quale sarà la tecnologia predominante e quindi alla riduzione del rischio
di trovarsi legati a quella perdente e ai minori prezzi dovuti alla accresciuta
concorrenza. Il secondo è negativo ed è generato dalla minore varietà. A
seconda della diversa importanza data a quest’ultimo aspetto o
all’esternalità di rete gli agenti economici compiono le loro scelte.
Infine può essere interessante analizzare l’effetto delle esternalità di rete
sulla desiderabilità e probabilità di innovazioni tecnologiche. Farrell e
Saloner (1986) hanno effettuato uno studio su questo argomento
individuando due casi tipici: excess inertia ed excess momentum. La prima
si verifica nel caso in cui l’adozione della nuova tecnologia è ottimale per la
società nel suo complesso, ma a causa della mancanza di coordinamento tra
i consumatori non viene attuata poiché i primi che compiono il passaggio
sosterrebbero costi troppo elevati rispetto ai benefici ricevuti. Il secondo si
verifica nel caso in cui alcuni consumatori ricevono dal passaggio alla
nuova tecnologia un’utilità maggiore rispetto al caso in cui rimanessero
fedeli a quella vecchia ed attuano pertanto il passaggio anche se ciò non è
ottimo dal punto di vista collettivo. Questo accade poiché essi non tengono
conto della disutilità che la loro azione genera a coloro che hanno
mantenuto la tecnologia passata e hanno visto ridursi le dimensioni della
rete di cui fanno parte. Quale di questi due scenari si verifichi
effettivamente dipende dalla dimensione della rete nel momento in cui la
nuova tecnologia fa la sua comparsa, dalla rapidità con cui si manifestano i
suoi benefici e dalla sua superiorità rispetto a quella già presente. Un ruolo
importante è tuttavia svolto anche dalla struttura di mercato. Infatti nel caso
esista un’impresa dominante, essa prediligerà le innovazioni di sistema
poiché ne ha il diretto controllo, ma avrà anche incentivo a rallentare il
processo per non cannibalizzare le vendite di prodotti esistenti. Nel caso
invece in cui vi siano molte imprese in concorrenza tra loro l’innovazione
procede ad un ritmo maggiore per ciò che riguarda le componenti, ma
minore per ciò che riguarda il sistema nella sua totalità a causa della
complessità del cambiamento e delle difficoltà di coordinamento.
Un altro aspetto degno di nota è che la presenza di esternalità di rete può
rendere molto costoso per il cliente il passaggio da un tipo di prodotto ad un
altro (lock-in). Quando si acquista un Macintosh infatti si impara ad
utilizzarlo, si acquistano applicazioni ad esso dedicate e si scambiano files
con altri utenti Mac. Al momento di un upgrade il costo di abbandonare il
Mac e passare ad un PC (switching cost) è molto alto e conferisce al
produttore una notevole libertà nella fissazione del prezzo. D’altra parte, i
consumatori, consci di ciò, chiedono una compensazione prima di legarsi ad
un prodotto ed è plausibile che il bene che nel lungo periodo offre più
vantaggi sia quello in grado di fornire agli utenti sconti maggiori e quindi
avere la meglio nella competizione per accaparrarsi i clienti. Non è poi raro
che in questa lotta si dissipino tutti o quasi gli elevati profitti ottenibili una
volta che si è conquistato il cliente. Ciononostante i consumatori debbono
essere accorti nel compiere le proprie scelte e fare in modo da avere sempre
delle alternative a disposizione che rafforzino il loro potere contrattuale.