ambiente virtuale

annuncio pubblicitario
Presenza
Rendering
Programma del corso
Immersione
Realtà
Virtuale
Interazione
Presenza
Rendering
Presenza in Ambienti Virtuali
Abbiamo definito la presenza come la “sensazione
mentale di essere in un certo posto” (being
(being there)
there)
 La presenza in un Ambiente Virtuale richiede:

– che l’ambiente virtuale sia concepito e realizzato al fine
di massimizzare questa sensazione
– che l’utente sia “predisposto” ad accettare la sensazione
di presenza in un ambiente che non è quello reale
(suspension of disbelief, o sospensione dell’incredulità,
definita come la “volontà, da parte del lettore o dello
spettatore, di sospendere le proprie facoltà critiche allo
scopo di ignorare le inconsistenze secondarie e godere di
un'opera di fantasia” – Samuel Taylor Coleridge 1817)
Rendering
Presenza in Ambienti Virtuali

I fattori soggettivi possono essere (difficilmente) esaminati in
termini quantitativi (attraverso sensori che registrano
parametri fisiologici) e qualitativi (questionari)
Rendering
Presenza in Ambienti Virtuali
High Immersion
Low immersion
Non-immersive
Non-interactive
Device based
Natural
Rendering
Presenza in Ambienti Virtuali
Interazione
Immersione
Immaginazione
(G.Burdea
G.Burdea))
Illusione di
Luogo
Illusione di
Plausibilità
Corpo Virtuale
Rendering
Presenza in Ambienti Virtuali
Illusione di Luogo:
Luogo: la forte illusione di "essere in un
luogo" malgrado la consapevolezza di non esserci
realmente
L'Immersione rappresenta i limiti entro cui l'Illusione di
Luogo può avvenire.
Perchè questo sia possibile, è necessario che esista un
insieme di avvenimenti sensorimotori coerenti in modo
che l'azione del fruitore cambi in modo coerente e
significativo l'ambiente.
Rendering
Presenza in Ambienti Virtuali
Illusione di Luogo: "The pit room"
Stanza virtuale
con un "buco" che
mostra una stanza
più in basso di un
piano
I partecipanti
EVITANO di
passare sopra al
buco!
Rendering
Presenza in Ambienti Virtuali
Illusione di Plausibilità: mentre l'Illusione di Luogo
riguarda COME l'ambiente viene percepito, l'Illusione di
Plausibilità COSA viene percepito.
Si tratta dell'illusione che ciò che avviene nell'ambiente
virtuale stia effettivamente avvenendo - coniugata alla
consapevolezza che non è così.
L'uomo reagisce emotivamente
come se stesse realmente parlando
con una donna: Illusione di
Plausibilità
(Pan et al, 2008)
Rendering
Presenza in Ambienti Virtuali
Illusione di Plausibilità: “Public speaking”
Persone ansiose rispetto al public speaking (parlare di fronte a
un pubblico) restano ansiose (misura dei valori fisiologico e
questionari di valutazione) anche di fronte ad un pubblico di
avatar; se il pubblico manifesta segni di noia o insofferenza
(seconda immagine) , l'ansia aumenta notevolmente.
(Slater et al. 1999)
Rendering
Presenza in Ambienti Virtuali

Secondo Sheridan (1992) la sensazione di presenza è
determinata da tre fattori:
– Qualità delle informazioni sensoriali


Modellazione
Rendering
– Mobilità e controllo
dei sensori
– Controllo sull’ambiente
Rendering
Presenza: info sensoriali di bassa qualità
Rendering
Presenza: info sensoriali di alta qualità
Rendering
Presenza: scarsa mobilità dei sensori
Rendering
Presenza: buona mobilità dei sensori
Rendering
Presenza: basso controllo dell’ambiente
Rendering
Presenza: alto controllo dell’ambiente
Rendering
Presenza in Ambienti Virtuali
Secondo Zeltzer (1992), per quanto importanti,
questi fattori non sono sufficienti a determinare il
senso di presenza che, peraltro, risulta fortemente
dipendente dal contesto e dal compito che si deve
svolgere.
 Asserisce inoltre che, non essendo possibile ricreare
la realtà in tutti i suoi aspetti, è necessario
identificare quali sono le porzioni di essa sufficienti
per creare la sensazione di presenza relativamente
al task da svolgere.
ATTENZIONE: PROPOSIZIONE NON BANALE !!!

Rendering
Presenza in Ambienti Virtuali

L’asserzione di Zeltzer “autorizza” la ricerca di un
modo per ridurre la complessità della simulazione
tenendo conto del task da simulare, definendo i
valori ottimali dei fattori in gioco:
– Quali canali sensoriali è necessario stimolare?
– Quali informazioni fornire su questi canali?
– Qual’è il livello di dettaglio delle informazioni?
– A quale frequenza fornire queste informazioni?
– Con quali modalità vanno fornite queste informazioni?
– Quali informazioni deve fornire l’utente al VE?
Rendering
Immersione
Rendering
Moduli logici di un Ambiente Virtuale
Campionamento
Sintesi
Modellazione
Comportamenti
Proprietà
AMBIENTE VIRTUALE
Management
Rendering
Interazione
UTENTE
Rendering
Flusso di dati in Ambienti Virtuali
AMBIENTE VIRTUALE
Informazioni
efferenti
INTERFACCIA
Informazioni
afferenti
UTENTE
Rendering
Flusso di dati in Ambienti Virtuali
AMBIENTE VIRTUALE
CANALE
VISIVO
CANALE
ACUSTICO
CANALE
APTICO
CANALE
INERZIALE
UTENTE
Rendering
Flusso di dati in Ambienti Virtuali
AMBIENTE VIRTUALE
CANALE
VISIVO
CANALE
ACUSTICO
CANALE
APTICO
CANALE
INERZIALE
UTENTE
Rendering
Canale visivo: componenti
AMBIENTE VIRTUALE
SW modules of visual
modelling & rendering
CANALE
VISIVO
CANALE
Graphical
ACUSTICO
Feedback
CANALE
APTICO
CANALE
INERZIALE
HW devices
of visualization
UTENTE
Rendering
Depth cues

La percezione della tridimensionalità, a partire da
un’immagine stereoscopica, avviene grazie ad una serie di
“indizi” (depth
(depth cues
cues)) che aiutano nel percepire la terza
dimensione (profondità)

Per simulare efficamente un ambiente tridimensionale è
necessario fornire il maggior numero di depth
depth--cues
cues,, o
almeno quelli più significativi.
Rendering
Depth cues monoculari

Alcuni depth
depth--cues molto importanti
sono:
– Occlusione
Occlusione:: se un oggetto ne occlude
un altro, è percepito come più vicino
– Ombreggiatura
Ombreggiatura:: fornisce info su
orientazione e posizione delle
superfici rispetto ad una sorgente di
luce: uno cambio graduale di
ombreggiatura fa intuire un
variazione graduale di or. e pos
pos..
delle superfici
– Prospettiva
Prospettiva:: note le dimensioni di
un oggetto, se ne può intuire la
distanza dalle sue dimensioni
apparenti.
– Parallasse
Parallasse:: oggetti a distanze
differenti, si muovono con diverse
velocità apparenti
Rendering
Depth cues monoculari
– Depth of field
field:: oggetti a distanza
differente hanno una messa a fuoco
differente
– Campo visuale:
visuale: il campo di vista umano è
di circa 180°
180°x120
120°
°. Agli estremi del campo
di vista le linee parallele sembrano
lievemente incurvate, indizio di distanza.
– Indizi “non visuali”:
visuali”: altre informazioni
giungono da apparati non legati
direttamente alla visione (apparato
vestibolare, dati cinestetici dai muscoli
dell’occhio etc.).
Rendering
Depth cues binoculari

I depth
depth--cues binoculari richiedono
entrambi gli occhi per poter essere
sperimentati:
– Separazione oculare:
oculare: i nostri occhi sono separati da un
certo offset. Ciò implica che le prospettive siano
differenti: gli oggetti sono separati da un offset
crescente al diminuire della distanza. E’ necessario
costruire due immagine diverse per i due occhi.
– Convergenza: per mettere a fuoco lo stesso oggetto i
nostri due occhi convergono, in questo modo allungando
i muscoli extraextra-oculari. Le sensazioni cinestetiche di
questi muscoli contribuiscono a percepire la profondità.
– I depth cues binoculari vengono apprezzati a distanze
relativamente brevi (< 10 m)
Rendering
Visualizzazione stereoscopica
I due occhi vedono il mondo in maniera leggermente
diversa l’uno dall’altro
 Ognuno dei due occhi fornisce una visione prospettica
bidimensionale del mondo
 La combinazione delle due prospettive forma un’immagine
“stereoscopica”, che contiene
informazioni sulla tridimensionalità
del mondo
 Attenzione! Il termine “3D” è spesso
abusato. Ciò che comunemente si
chiama grafica 3D è, di solito, una
rappresentazione prospettica 2D

Rendering
Depth cues
Se si vuole riprodurre un ambiente che possa essere
percepito come reale/realistico, è importante che i depthcues siano presenti o simulati.
 I depth-cues monoculari sono ben simulabili anche da
un’appropriata immagine bidimensionale. Tuttavia, per
quanto necessari, non sono sufficienti: per restituire una
sensazione realistica di ambiente tridimensionale è
necessario implementare anche i depth-cues binoculari.
 Non tutti i depth
depth--cues possono essere implementati
efficacemente. A volte si può provare ad esaltare gli effetti
dei depth
depth--cues implementabili.
 Importante: se mal implementati, depth
depth--cues in conflitto
possono non solo diminuire l’effetto 3D complessivo ma
anche creare disagio nella percezione o addiriturra
malesseri fisici.

Rendering
Immagine stereoscopica

Un sistema per la visualizzazione 3D deve disporre di:
– SW adeguato per la generazione di DUE immagini
bidimensionali (R e L) opportunamente create e
sincronizzate in modo da restituire gli opportuni
depth--cues
depth
– HW in grado di far arrivare separatamente ai due
occhi le corrispondenti immagini

Problema dello “Stereo“Stereo-crosstalk”
(o ghosting
ghosting):
):
– Il ghosting è la permanenza, su un
occhio, dell’immagine relativa all’
altro occhio. Ciò produce la visione
di una silhouette “fantasma” insieme
all’immagine corretta
Rendering
Immagine stereoscopica
Rendering
Immagine stereoscopica
Rendering
Stereo Passivo - Anaglifi




Storicamente, le prime immagini
stereoscopiche (impiegate anche
in fotografia, cinema etc.)
Le due immagini vengono
codificate usando filtri blu (o
verdi) e rossi.
Filtri analoghi decodificano le
immagini
S: Filtraggio distruttivo (bene
bianco e nero, molto meno bene
a colori)
Rendering
Stereo Passivo - polarizzazione
Un sistema di stereoscopia passiva a polarizzazione
usa:
– due proiettori,
proiettori, ognuno dotato di una lente di
polarizzazione che polarizza la luce in una
direzione per l’immagine L e in quella opposta
per l’immagine R
– uno schermo che mantenga la polarizzazione
– speciali occhiali dotati di analoghe lenti di
polarizzazione, in modo che all’occhio R arrivi
solo l’immagine R (lo stesso per L)
 Entrambe le immagini vengono dunque
proiettate, ma una sola arriva ad ogni
occhio

Rendering
La polarizzazione della luce
Un onda luminosa ruota in ogni direzione
 La specifica orientazione, in un dato tempo
t, ne determina la “polarizzazione”
 Polarizzare una luce, di per sè non
polarizzata, significa farne emergere una
particolare orientazione.
 L’occhio umano è poco sensibile ai cambi di
polarizzazione e non percepisce sostanziali
differenze in ciò che vede.

Rendering
Tipi di polarizzazione

Lineare:

Circolare:
La luce viene polarizzata in un’unica direzione.
La P.L. produce un’ottima separazione delle immagini ed è
poco costosa ma, se l’osservatore ruota la testa, la direzione
di polarizzazione degli occhiali non coincide più con quella
della luce, con conseguente perdita delle informazioni stereo
percepite dall’osservatore
La luce viene polarizzata in più direzioni.
La P.C. richiede un’alta precisione e una corrispondenza
molto più stretta fra i filtri
di proiezione e quelli degli
occhiali.L’osservatore è
però libero di ruotare
la testa in ogni direzione.
Rendering
Stereo Attivo

Un sistema di stereoscopia attiva usa:
– un solo proiettore (anche monitor)
– speciali occhiali (shutter
(shutter--glasses
glasses)) muniti di
particolari pannelli LCD che, alternativamente,
aprono e chiudono le lenti quando un’opportuna
carica elettrica li attraversa


Le immagini vengono proiettate
sequenzialmente ad alta frequenza (120Hz).
Gli occhiali sono sincronizzati con la
proiezione (via radio, IR o DLP) , in modo che
ogni lente sia aperta quando viene proiettata
l’immagine dell’occhio corrispondente.
Una sola immagine per volta viene dunque
inviata agli occhi, ma lo scambio avviene così
velocemente che il cervello crede di vederle
contemporaneamente e le “fonde”
Rendering
Stereo passivo – polarizzazione: analisi

Svantaggi della polarizzazione
– La P.L. può essere usata solo in ambienti in cui sono previste
piccolissime rotazioni della testa.
– La P.C. presenta problemi più importanti di ghosting e, in alcuni
casi, esso risulta dipendente dal colore.
– In entrambi i casi è necessario uno schermo di materiale speciale
in grado di mantenere la polarizzazione.
– Necessità di due proiettori e, dunque, di calibrazione delle
immagini

Vantaggi della polarizzazione
– Si possono usare normali schede grafiche, ad alta
risoluzione, senza costi eccessivi.
– Costi limitati per l’HW di proiezione (proiettori DLP ad
alta luminosità, filtri, lenti, schermo)
Rendering
Stereo attivo: analisi

Svantaggi delle tecniche attive:
– Necessarie schede grafiche che supportino lo stereo attivo,
leggermente più costose. Risoluzione solitamente non altissima.
– Gli shutter glasses sono fragili e abbastanza costosi. Se non sono
wireless, i cavi possono essere di intralcio al movimento.
– Possibile flickering
– Ghosting sulla parte bassa dell’immagine, dovuto al tempo di
percorrenza del raggio elettronico durante la scansione dalla parte
alta alla parte bassa

Vantaggi delle tecniche attive:
– Necessario un solo proiettore
– Nessuna necessità di calibrazione delle immagini
– Luminosità delle immagini
– Meno ghosting rispetto a polarizzazione
Rendering
Stereo Passivo: Monitor a polarizzazione
•
•
Fino a pochi mesi fa, la polarizzazione era riservata ai
sistemi di proiezione
Monitor di nuova generazione usano micro
micro--polarizzatori
circolari sulle righe pari e dispari
dispari..
Es. Hyundai Arisawa / Xpol 46": 2D resolution 1920 x 1080
Es.
/ stereoscopic 3D resolution 1920 x 540 per eye.
Rendering
Stereo passivo – filtri infitec
Left Eye

Vantaggi rispetto alla polarizzazione:
Scarsissimi problemi di ghosting,
indipendenza dalla rotazione della testa
– Migliore separazione delle immagini
– Una qualsiasi superficie può fungere da
schermo
–

Right Eye
Svantaggi del filtraggio infitec
–
–
Alti costi
I colori vengono “virati” ed è consigliabile una correzione SW della gamma
Rendering
Stereo passivo “ibrido” - RealD
Polarizzazione passiva a singolo proiettore:
Le immagini vengono inviate alternate come per lo stereo
attivo, un sistema di controllo effettua lo switch tra i filtri di
polarizzazione left/right (di solito si usa polarizzazione
lineare)
Rendering
HW per la proiezione

Proiettori CRT (Catode
(Catode Ray Tube)
Tube)

V – Qualità, Risoluzione, Tempo di vita, Calore, Nero
S – Ingombro, Calibrazione, Luminosità
L’immagine viene formata da tre raggi di elettroni che
vengono combinati con una lente.
Rendering
HW per la proiezione

Proiettori LCD (Liquid
(Liquid Crystal Display)
Display)

V – Nitidezza(
Nitidezza(--), Peso, LuminositàLuminosità-Efficienza (su DLP), Colore (su DLP)
S – Tempo di vita, Pixel morti, Costo dei pannelli, POLARIZZAZIONE
3 pannelli LC (R,G,B) che si oscurano o sono trasparenti a seconda
della carica che li percorre. Una singola fonte di luce illumina i 3
pannelli, le 3 immagini monocromatiche vengono composte con un
prisma, l’immagine risultante viene proiettata tramite una lente.
Rendering
HW per la proiezione

Proiettori DLP (Digital
(Digital Light Processing)
Processing)

V – Peso, Luminosità, Calibrazione, Contrasto, Tempo di vita (su LCD)
S – Tempo di vita (su CRT), Colore (Nero), Effetto arcobaleno
Simili a LCD ma digitali. I pannelli sono sostituiti da tre chip di silicio
contenente ~ 1M di specchi microscopici (uno per pixel) che si orientano
in modo da riflettere la luce verso la lente o in verso contrario. Le 3
immagini monocromatiche vengono composte da un prisma e proiettate.
Rendering
Powerwall




Il Powerwall è uno schermo a retroretro-proiezione che
visualizza immagini stereoscopiche.
Permette la collaborazione di piccoli gruppi di ricercatori
che condividono gli stessi dati
La retroretro-proiezione garantisce la piena libertà di
movimento, dal momento che non c’è mai occlusione degli
utenti nei confronti del
fascio di luce.
Per limitare lo spazio
occupato, senza dimidiminuire il cammino ottico,
è possibile usare uno o
più specchi.
Rendering
Workbench


Simile al Powerwall, ma di dimensioni più ridotte (con
conseguente immersione ridotta) e orientazione piana o
inclinata.
Utile in alcuni contesti (es. simulazione chirurgica) in cui non è
necessaria l’immersione in un ambiente virtuale, ma è
preferibile calare alcuni contenuti virtuali in un contesto reale.
CLIP
Rendering
Il CAVE

CAVE è un acronimo ricorsivo (CAVE Automatic Virtual
Environment.

Il CAVE è un ambiente
multi--utente, una stanza
multi
i cui muri sono powerwall
sincronizzati fra loro
e (opzionalmente) con
i movimenti dell’utente.
Ovviamente la visione
stereo è coerente con i
movimenti di un solo utente.
Gli altri sono “passeggeri”

Hardware
Visualization
CLIP
CLIP
Rendering
Il CAVE – varianti



Esistono CAVE a 3, 4, 5 e 6 schermi. In Europa si trovano a
Londra (4), Stoccarda (4,6), Torino (3)...
Solitamente il pavimento non è retroproietretroproiettato, a meno che non vi sia anche il soffitto.
Nel CAVE a 6 schermi (Fraunhofer
Institute), tutti sono retroproiettati.
Uno schermo è scorrevole per poter
accedere alla struttura.
E’ disponibile sia la versione con
stereo attivo (Onyx 6pipe, 1024x1024)
sia quella con passivo (cluster di 12 PC,
polarizzazione circolare, 1400x1400)
Rendering
Octave at Salford
Rendering
Display autostereoscopici

Tali display non fanno uso di lenti, occhiali o altri dispositivi

Parallax displays
displays::
La separazione delle immagini avviene mediante delle barriere
di parallasse, realizzate mediante due schermi sovrapposti che
vengono mostrati a colonne alternate, o mediante l’emissione
della luce ad angoli differenti a seconda del colore.
Svantaggio: esiste un range limitato di posizioni ammissibili
Rendering
Display autostereoscopici

Display Lenticolari:
Fanno uso di fogli “lenticolari”, ovvero di una serie di lenti
cilindriche che permettono di mettere a fuoco solo una
porzione dell’immagine retrostante.
Rendering
Display autostereoscopici

I display autostereoscopici non sono ancora disponibili per
schermi di grandi dimensioni, ma iniziano a essere diffusi
in dispositivi consumer come il Nintendo 3DS, che usa un
sistema Sharp a doppia barriera di parallasse.
Rendering
Altri display 3D

Volumetric displays
displays::
Sistemi che mostrano le informazioni in un
volume predefinito. Invece che di pixel
si parla di voxel
voxel..
Emissivi:: il volume è riempito con un mezzo
Emissivi
capace di emettere luce da ogni parte delle sue
componenti a seconda di come viene eccitato.
Rotanti:: uno schermo piatto ruota a 600 rpm
Rotanti
rpm..
A seconda della posizione angolare dello
schermo, un sistema ottico proietta su di esso
l’immagine dell’oggetto corrispondente alla
prospettiva associata a quell’angolo.
CLIP
Rendering
Altri Display 3D

Olografia::
Olografia
I display olografici ricostruiscono l’intensità e la direzione della
luce che colpisce un oggetto, precedentemente “registrata”. La
sensazione di tridimensionalità è fortissima (quasi tutti i depth
depth-cues sono presenti) ma al momento non è ancora praticabile il
loro uso per la visualizzazione di contenuti sintetici dinamici.
Rendering
Altri Display 3D

Holografika::
Holografika

Non
è
una
soluzione
olografica “pura”, è basata
sui
principi
geometrici
dell’olografia. I “voxel” dello
schermo emettono luce di
differente intensità e colore
lungo le varie direzioni.
Rendering
Altri Display 3D

MACO 3D Box
Box::

Non è un display 3D ma,
grazie all’uso di un
display semitrasparente
inclinato a 45° e in
grado
di
mostrare
un’immagine proiettata
da
uno
schermo
nascosto
sottostante,
crea l’illusione di un
modello 3D flottante
nello spazio grazie ad un
livello
di
parallasse
“fisica”
Rendering
Altri Display 3D

Dreamoc 3D Display, Innovision Holo AD
AD::
Replicando lo stesso
effetto su tre pareti di
un prisma, si ottiene un
angolo di visione molto
più ampio.
 In entrambi i casi non
c’è alcuna parallasse
nel
movimento
né
stereoscopia (a meno di
non rilevare la posizione
dell’osservatore e di
non proiettare immagini
stereoscopiche)

Rendering
Immersione “domestica”: MS Illumiroom
Rendering
Immersione “domestica”: MS Illumiroom
Rendering
Head Mounted Display
Rendering
Head Mounted Display
E’ un caschetto, provvisto di 2 piccoli display,
indossabile dall’utente
 Opzionalmente provvisto di cuffie e di tracker
 Garantisce la migliore separazione possibile delle
immagini, dato che ogni occhio ha il suo display dedicato



Vantaggi:
- Immersione totale (non c’è alcun
contatto ottico con la realtà fisica)
Svantaggi:
- Costo elevato
- Risoluzione limitata
- FOV limitato (effetto sub)
- Sickness
Rendering
Il mercato

Alcuni ordini di grandezza di costi dei dispositivi:
 Head Mounted Display



Cybermind Visette
Visette,, FOVdiag=45, 750 gr.
 1280x1024 : ~ 10 K€
 800x600: ~ 5 K€
Nvisor SX111, FOVdiag=90, 1,3 Kg
 1280x1024 : ~ 35 K€
C.A.V.E.
Non esistono “listini prezzi”
 Spesso “self
“self--made
made”
”
 Dipende da numero e dimensione pareti
risoluzione, tipo di stereo, sensori, etc.
 Ordini di grandezza: 100 K€ ma anche >>


http://www.est--kl.com
http://www.est
Powerwall

Considerazioni simili al C.A.V.E.
Rendering
La rivoluzione: Oculus Rift
Prezzo atteso: < $ 500 (circa)
Rendering
Oculus Rift
Rendering
Oculus Rift
Versione kickstarter
 5,6 pollici
 FOV 110°
110°diagonale
 640 x 800 per occhio
 Circa 300 grammi di peso
 Giroscopi
Versione dk2
 7 pollici
 FOV 110°
110°diagonale
 960 x 1020 per occhio
 Circa 390 grammi di peso
 Giroscopi bassa latenza,
sensore posizione
Rendering
Oculus Rift
Caratteristiche generali:
 Pannello OLED a bassa persistenza (migliora il motion blur
blur))
 Per ridurre peso e dimensioni, lo schermo è vicinissimo agli
occhi. Sono necessarie lenti che però causano una forte
distorsione a barile: è necessario dunque precompensare
questa distorsione con un “warping
“warping”
” delle immagini
 Dk2 migliora la latenza con il “time
“time warping
warping”,
”, i.e. intervenire
sull’immagine già renderizzata introducendo modifiche “last
instant”
instant
” sulla base degli ultimi dati letti dai sensori (senza
renderizzarla nuovamente -> risparmio di tempo)
Versione commerciale (2016):
 1080x1200 per occhio
Rendering
HTC Vive
Competitor di Oculus
 Area di tracking più ampia
 Include controllers

Rendering
HTC Vive vs. Oculus
Rendering
Home--made HMD: FOV2GO
Home
Rendering
Home--made HMD: Google Cardboard
Home
Rendering
Samsung GearVR
Primo esempio di Mobile VR
 E’ sostanzialmente un Samsung Note 4 accoppiato a
un sistema di lenti
 Non solo casco ma sistema all
all--in
in--one
 Usando camera, possibile realtà aumentata

Rendering
Canale acustico: componenti
AMBIENTE VIRTUALE
CANALE
VISIVO
CANALE
ACUSTICO
CANALE
APTICO
Audio
Feedback
CANALE
SW modules of audio
modelling & rendering
INERZIALE
HW audio
devices
UTENTE
Rendering
Dispositivi acustici di output
Rendering
Dispositivi acustici di output

STEREOFONIA:
I suoni sono ripartiti in due canali, uno per
l’orecchio destro, uno per il sinistro. Si può creare
l’illusione di una sorgente virtuale, ma solo lungo
la congiungente degli altoparlanti.

SISTEMI MULTICANALE:
Aumentando il numero di canali, è possibile
aumentare lo spazio nel quale è localizzata la
sorgente sonora virtuale.
Attenzione: il tipico effetto “Surround” non aiuta
la percezione della localizzazione, ma causa un
effetto di spazializzazione: il suono sembra
provenire da una superficie più grande di quella
degli altoparlanti
Rendering
Crosstalk
Nei dispositivi basati sugli altoparlanti si crea un fenomeno
analogo al ghosting nella stereoscopia: il crosstalk
crosstalk..
Una certa porzione del suono destinato all’orecchio destro
arriva al sinistro e viceversa.
 E’ possibile però usare dei filtri che cancellino il crosscross-talk,
aggiungendo del segnale tale che, se l’ascoltatore è collocato in
un determinato punto (Sweet(Sweet-Spot) il crosstalk non viene
percepito.
 Quando si lascia lo Sweet Spot, il crosstalk viene percepito tanto
più quanto più ci si allontana. Ma questa
percezione è molto più forte sulla
direzione LR che su quella FB.
 La presenza degli altoparlanti posteriori
permette di estendere lo SweetSweet-Spot ad
una sfera, aumentando l’area attiva.

Rendering
Cuffie






Analogamente all’HMD, la cuffia fornisce la migliore separazione
tra i canali: ogni orecchio riceve solo il canale ad esso relativo.
Evidentemente il segnale deve essere trattato a monte, in modo
che arrivi già trasformato con la opportuna HRTF
In questo modo è possibile percepire la direzionalità del suono
(in maniera minore nella direzione FR, dato che gli effetti di
mascheramento sono simulati e non reali)
Si creano dunque sorgenti virtuali
Esistono cuffie provviste di un decoder
surround che “virtualizza” il sonoro, nel
senso che crea “canali virtuali” ma non
sorgenti virtuali.
Se l’ascoltatore si muove, è necessario
conoscere la sua nuova pos./or.
Rendering
Cuffie 3D
Annunciate nel 2015 su kickstarter
kickstarter,, le NEOH, prodotte da 3D
sound labs
labs,, promettono di essere per l’audio ciò che l’Oculus
l’Oculus
Rift è per il video
 Dotate di head tracking
 Per VR offriranno di più di comuni cuffie abbinate al tracking
tracking??

Rendering
Canale aptico: componenti
AMBIENTE VIRTUALE
CANALE
CANALE
ACUSTICO
VISIVO
SW
modules of haptic
CANALE
APTICO
CANALE
INERZIALE
modelling & rendering
Haptic
Feedback
Haptic Interfaces
UTENTE
Rendering
Interfacce aptiche
Desktop:
Whole Body movement Haptic Interfaces:
Possible use of a
Planar HI for the desktop locomotion interface
in a VE
A whole body
motion Haptic
Interface.
Anthropomorphic:
Anthropomorphic
Haptic Inerface:
Hand Exoskeleton
Remotely located
Actuators Tendon
Transmission
Anthropomorphic
Haptic Interface: 7
DOFs Arm
Exoskeleton
Rendering
Haptic interfaces: desktop
Rendering
Haptic interfaces: antropomorphic
Rendering
Il problema della coco-location




I canali di interfaccia spesso agiscono in sistemi di
riferimento separati
Perché l’interazione sia corretta, è necessario che tali
sistemi collimino alla perfezione
Se questo si verifica, la naturalezza e il realismo
dell’interazione sono perfetti
Alcuni aspetti limitano una perfetta coco-location:
– Gli errori insiti nelle trasformazioni fra sistemi di riferimento
– Le ostruzioni visive che diminuiscono la sensazione di presenza
Rendering
Il problema della coco-location
Rendering
Co--location: soluzione Reachin
Co
CLIP
Rendering
Canale inerziale: componenti
AMBIENTE VIRTUALE
CANALE
VISIVO
CANALE
ACUSTICO
CANALE
APTICO
CANALE
INERZIALE
Inertial
Feedback
UTENTE
Rendering
Feedback inerziale
Rendering
Feedback inerziale
Rendering
Rendering olfattivo
AMBIENTE VIRTUALE
…
CANALE
OLFATTIVO
CANALE
DEL
GUSTO
…
UTENTE
Rendering
Rendering olfattivo

GENERAZIONE DI ODORI
 L’olfatto è sollecitato da stimoli chimici, a differenza degli altri
sensi su cui agiscono stimoli fisici
 E’ stata proposta una teoria (Amoore 1963) secondo la quale un
odore nasce dalla combinazione di sette odori primari. La teoria,
seppur molto semplificativa, è ritenuta accettabile.

Odore primario
Esempio
Canforaceo
Naftalina
Muschioso
Muschio
Floreale
Rosa/Lavanda
Mentolato
Mentolo
Etereo
Alcool
Pungente
Aceto
Putrido
Uova marce
Scent Display
PARALLELO CON I DISPLAY GRAFICI:



Distribuzione “aperta” di odori ↔ Illuminazione controllata
Distribuzione diretta nel naso con cannule ↔ HMD
Distribuzione in uno spazio “a portata di naso” ↔ HW Proiezione
Rendering
Rendering olfattivo
ATR Media Information Science Laboratories
Dept. of Information Media Technology, Tokai University
Japan
Rendering
Rendering gustativo

GENERAZIONE DI SAPORI
 Anche in questo caso esiste secondo la quale un sapore nasce dalla
combinazione di cinque sapori primari.

Sapore primario
Esempio
Salato
Sale
Acido
Aceto
Dolce
Zucchero
Amaro
Caffè
Umami
Glutammato
(es. Parmigiano, Salsa
di soia etc.)
DISPLAY GUSTATIVO

Ad oggi l’unica proposta viene dalla Tsukuba University dove è
stato sviluppato il “food simulator”, che consiste in un interfaccia
aptica (HI) che restituisce le sensazioni di forza associate alla
masticazione, e usa una combinazione di sapori primari per
generare il sapore voluto che viene poi iniettato in forma di
liquido (0.5 ml) tramite una cannula posta all’estremita della HI.
Rendering
Rendering gustativo
Hiroo Iwata, University of Tsukuba, Japan
Rendering
Scarica