Nella prima parte abbiamo potuto vedere che il tanto bistrattato cinescopio tranne in una misura era nettamente superiore alle altre tipologie oggi disponibili per creare un'immagine.
Fino a questo momento le misure erano molto semplici da ottenersi poiché erano le stesse che si utilizzavano praticamente da cinquant'anni nel campo della fotografia. Misure così semplici da bastare, per quanto precisi, accurati e tarati in maniera precisa, un tester per ed una fotoresistenza per molte di esse.
Per le restanti tipologie che andremo a misurare non è possibile al giorno d'oggi dare una risposta numerica o grafica che non sia da interpretare tanto che molte di queste misure vengono fatte ad occhio, cosa non perfettamente ripetibile e quindi scientifica, ma non si può fare diversamente.
È da sottolineare anche che tutte queste problematiche che stiamo per disquisire non toccano, se non marginalmente, il mondo dei cinescopi. Se possedete un cinescopio con la velocita' di scansione reale, non duplicata, queste cose non vi interessano. Un cinescopio è tranquillamente in grado di andare da 25 hertz a 120 e passare da una soluzione di poche linee fino al massimo di progetto. Al massimo, se la differenza di risoluzione verticale e' molto grande, intravedrete il raster sulle risoluzioni inferiori.
Stiamo parlando degli artefatti, bestia nera delle manipolazioni digitali, ovvero dell'introduzione di qualcosa all'interno dell'immagine che non appartiene all'immagine stessa, potremmo anche chiamarla "invenzione di sana pianta".
Questo tipo di disturbo non è prelevabile in nessun punto del circuito in chiaro quindi non si può paragonare elettronicamente per quantificarlo dal punto di vista di una mera misura in decibel.
Ogni costruttore definisce un peso per alcune di queste novità che, ricordiamolo, sono distorsioni e peggioramenti d'immagine che provengono solo ed esclusivamente dalle nuove tipologie di costruzione dell'immagine.
Il primo passo nella novità lo vediamo quando il segnale entra in un apparecchio digitale: essendo la maggior parte di sorgenti analogiche abbiamo un problema di quantizzazione: la granularità del campionamento potrebbe non essere qualitativamente sufficiente per ciò che vogliamo fare. Analogico si riferisce generalmente a tutto ciò che può assumere un qualsiasi valore , mentre digitale si riferisce a tutto ciò che può solo assumere un discreto insieme di valori elencati. La conversione tra i due tipi di segnali comporta sempre qualche margine di degrado.
Inoltre a molti sfugge il fatto che un'operazione matematica porta con se un'imprecisione se il numero di cifre non è sufficiente. Per elaborare digitalmente un segnale da otto bit è assolutamente necessario avere una matematica che abbia la possibilità di portare con sé gli arrotondamenti che questa comporta. Se devo, per esempio, mediare quattro punti a 8bit, tenuto conto che dovrò fare anche quattro divisioni, dovrò avere un sistema ad almeno 9bit altrimenti avrò un' imprecisione che può arrivare a ridurre di ben due bit la mia precisione iniziale. Figuriamoci quando andrò a fare delle operazioni su interi gruppi di celle come andremo a vedere.
È questo il motivo reale per cui oggi alcuni costruttori pubblicizzano i loro pannelli per un numero molto elevato di bit serve unicamente per evitare arrotondamenti drammatici quando si esce dai processori e non sicuramente, come vorrebbe la pubblicità, un aumento di qualità per maggiore aderenza all'ingresso poiche' piu' performante...
I più grosso problema nasce dall'adattamento della matrice alla sorgente:
il cinescopio può variare la velocità del pennello elettronico e disegnare risoluzioni intermedie senza grossi problemi, passare da una visione interlacciata ad una progressiva senza problemi.
La generazione dell'immagine tramite pannello ha due limiti il primo consiste nella scansione che è progressiva (L'interlacciamento e' il presentare l'immagine nelle righe dispari e pari sucessivamente: es. 1,3,5,7...625-2,4,6,8...624. non viene normalmente gestita da un pannello.) e la seconda è che la risoluzione è invariante ed è solitamente diversa dalla sorgente. I DLP, il plasma e gli LCD hanno formato fisso e definito al momento della produzione è solitamente scelto in base a moda del momento.
L'adattamento di soluzioni diverse, per esempio la visione di un DVD su di un pannello "HD e ridi" causerebbe una serie di artefatti ripetuti periodicamente nell'immagine e quindi visibili in maniera alquanto fastidiosa. Per evitare ciò avviene un filtraggio che, sostanzialmente, diminuisce la risoluzione miscelando i punti adiacenti alle zone pixelate. In pratica equivale, per chi ha pratica di fotografia digitale, al filtro smooth (sostanzialmente introdurre il valore dei pixel adiacenti nel pixel in oggetto). Un altro gioco che i processori di bordo fanno per evitare un crollo verticale della qualità immagine consiste nel variare la perdita qualitativa a seconda di quante cose si muovono sullo schermo così da rendere ancora più difficile l'esame qualitativo in quanto è abbastanza comprensibile che su un'immagine statica si può andare a notare immediatamente quali siano le differenze, su di una in movimento molto meno.
Con alcune immagini si può assistere tranquillamente ad un dimezzamento della qualità della sorgente: un po'come dire che con quell'immagine vista su di un cinescopio corrisponde a quella della sorgente mentre vista su di un pannello la maggior parte dei pixel che compongono l'immagine saranno stati alterati significativamente.
Vi basti sapere che quelle rare volte che ho potuto (su dei VPR) spegnere il "pastrugnatore" e lasciare delle evidenti scalette sullo schermo preferisco di gran lunga queste fastidiose interruzioni che sembrano fatte con una forbice che il degrado mostruoso di tutta l'immagine.
La seconda problematica del pannello consiste in quella che viene chiamato deinterlaccio.
Se la sorgente è di tipo televisivo, quindi naturalmente interlacciata, come potrebbe essere una partita di pallone, non è possibile trasformarlo in progressiva in quanto si commetterebbe un errore nel dominio del tempo: il pallone si troverebbe in due posti contemporaneamente divenendo una salsiccia. Alcuni televisori per evitare questo dimezzano la risoluzione verticale altri mixano arditamente i due semi fotogrammi, applicando ancora una volta una diminuzione di qualità notevole.
come fare 1+1=17
a questo punto è abbastanza chiaro che un segnale che dovesse subire entrambi i processi: adattamento della risoluzione e deinterlaccio di segnale naturalmente interlacciato, di ciò che era non rimane poi molto. Insomma, il TG sul plasma non viene molto bene.
Se invece il programma che stiamo vedendo proviene da una sorgente che originariamente non era interlacciata, tipicamente i film, il processori di bordo cercherà di applicare una magia chiamata reverse telecine. Sostanzialmente è necessario scovare a che cadenza è stato fatto scorrere il film rispetto o alla cadenza di fotogrammi del video. Trovando questo sarebbe possibile prendere i semi quadri che corrispondono allo stesso fotogramma della pellicola e fonderli per ricostruire il messaggio iniziale. Come al solito fra il dire ed il fare c'è di mezzo il fatto che potremmo avere due semi quadri dispari da fondere.
film sono girati a 24 fotogrammi al secondo (fps), ma in NTSC il funzionamento e' a 60i fps La soluzione attuale è di mostrare la metà del film frame tre volte ciascuno e l'altra metà due volte ciascuna, che si chiama 3:2 puldown (notate che la visione non sara' perfettamente fluida)
il PAL visualizza 50i fps e 2:2 pulldown, ma con velocità accellerata del 4 per cento, 25fps, si avete capito bene, in italia un film in TV dura il 4% meno... ma non va a scatti!!
Quindi andremo a fare l'adattamento di un adattamento!
La tecnica meno peggio sarebbe l'inividuazione della cadenza adottata e tramite un campionamento accellerato presentarlo piu volte sullo schermo... MA, essiste un MA, molti di questi display non vanno cosi' veloci....
Giusto per capire che non è una passeggiata dal punto elaborativo possiamo andare sui siti delle maggiori aziende di schede grafiche, il PC per sua natura è oggi progressivo, e leggersi le decine di pagine che parlano della miglior qualità di un approccio di un tipo piuttosto che di un altro, magari utilizzato solo sei mesi prima, e usando sostanzialmente tutta la potenza macchina di un PC da 1000 e una notte.
In soldoni non è possibile farlo senza avere degli artefatti sulle immagini in movimento poiché negli anni le tipologie di applicazione del telecine sono state molte e la quantità di potenza macchina necessaria a risolvere la questione non è certo acquistabile per pochi euro, nonostante tante belle affermazione dei vari produttori di hardware.
Un display 1080*1920 porta con se 3317760Byte che divengono 165.888.000B/s ovvero 158MB/s. Dovendo (semplicemente) interpolare i punti adiacenti arriviamo a circa 1600MB/s, 3200MB/s per una precisione sufficente, in piu' abbiamo altri flussi, che provocano notevoli diminuzioni prestazionali, dati in arrivo dalla sorgente e in partenza verso il display. Se aggiugiamo che e' un valore continuo minimo e non di picco cominciamo a chiederci che razza di ram e processori ci sono, o ci dovrebbero essere, per fare quei calcoli complessi che, stando alle affermazioni del marketing, dovrebbero esserci da anni. Una DDR2 arriva a fatica a valori medi di questo tipo ed ha una latenza lunga un kilometro ed il processore per questa semplice operazione arriva ad 3Gflops continui, fuori dalla portata di un pentium 4 (si lo so i dsp vanno molto di piu' ma non tutti sanno "pesarli"). E' ovvio che si ricorra a delle mostruose approssimazioni.
Lucciole per lanterne.
Ma non e' finita qua in fatto di elaborazioni : esiste un'interazione molto forte fra le sorgenti molto comprese (digitale terrestre,DiVX e un po' di roba di satellite) e tutti i processi visti prima. Alcuni degli artefatti costruiti da queste compressioni vengono scambiati per punti focali o importanti dell'immagine da parte dei processori di bordo che quindi ne esaltano la percezione in maniera netta attraverso taglienza e luminosita'. Sarebbe come dire che non solo la distruzione della qualità di partenza è notevole ma avviene in maniera più drammatica se l'eventuale sorgente digitale non è di alto livello.
Se avete letto fino a qua e pensate che ormai non rimanga molto del segnale originale, avete ragione. Il rumore digitale aleggia sull'immagine in una quantità tale che in altri tempi sarebbe stato archiviato come prodotto da un'apparecchiatura guasta. Se fosse possibile analizzare ciò che viene presentato sullo schermo probabilmente il 100% dei punti sono stati cambiati e molti non hanno più nulla a che fare con l'immagine originale.
Adesso sapete perché mi arrabbio quando a fronte di un sacco di proclami su tecnologie pseudofantascientifiche vendute a caro prezzo e non è stata fatta una cosa semplice che avrebbe evitato, almeno per ciò che riguarda la produzione di nuovi contenuti, il martirio dell'immagine: la scelta di un formato ben definito e, vista la moda dei pannelli, progressivo, come era stato fatto tanti anni fa (1963) con il PAL che ha ottemperato per decenni alle nostre esigenze in maniera egregia ed e' ancora oggi in grado di trasportare tanta qualita'.
Ma non è finita ogni tipologia di visualizzazione porterà con sé delle "belle" novità...... nella 3 parte.
PS
spero di essere stato sufficentemente chiaro e senza tecnicismi oscuri e di aver accontentato un pochetto tutti i commentatori.