lunedì, novembre 28, 2016

tv story 1996






Hitachi,un altro nome che ha fatto moltissima ricerca, produce il primo schermo LCD che avrebbe una qualche motivazione di stare su di un televisore: i pannelli IPS.

La differenza con i pannelli vecchi consiste nel fatto che un LCD attivo (TFT) ha un problema di angolo di visione ridotto che causa uno scostamento dei colori a seconda dell'angolo di visione. Siccome l'occhio e' puntiforme anche la visione da uno specifico luogo e' cangiante.

Ed è il motivo che nonostante alcuni televisori LCD siano abbastanza spessi da avere un buon diffusore e di luce posteriore alla vista spesso i colori non sono uniformi tra centro e bordi. Una cosa che peggiorera' con i TV supersottili per gli stolti di moda dopo il 2010.
Non parliamo poi se il televisore non viene visto perpendicolarmente. Questa tecnologia non verrà montata nel mercato mainstream che dopo 15 anni perché nel frattempo era più importante raccontare di avere più pixel, avere  il finto LED oppure lo smart (smerd?) che avere una qualità più alta. Si arriva all'assurdo che alcune marcacce hanno proposto nel 2012 televisori che costavano cifre da capogiro con pannelli TFT

giovedì, novembre 24, 2016

tv story 1995

il digitale avanza: mettetelo in frigo.





Nel 1995 il  movig pictures Experts Group rilascia il formato MPEG2 causando un certo trambusto. In pratica e' un sistema per il quale e' possibile avere una perdita dati localizzata anziche pseudocasuale come avviene limitando la larghezza di banda di un Flusso analogico



ancora nel 1995 Viene introdotta la videocassetta DV, il sistema digitale a più alta qualità disponibile per l'utente non professionale.


Viene utilizzato come standard di compressione Mjpeg un po' per il fatto che con i computer dell'epoca non sarebbe stato sostanzialmente gestibile l'MPEG e un po' perché comunque i tagli vengono meglio con una compressione localizzata sul fotogramma.

L'elevatissima quantità di dati che è in grado di trasferire, 25 Mb per secondo solo per il video e altri 1,5 Mbps per l'audio a due o quattro canali raccontano bene che si tratta di un formato veramente notevole.

In realtà dopo la prima fiammata viene poco capita dal pubblico che preferisce macchine che sono in grado di registrare direttamente DVD con 2Mbps o addirittura della flash memory con risultati pessimi ma decisamente più facili da maneggiare dal punto di vista psicologico. Il peone estrae il DVD e lo infila nel lettore che possiede gia' in salotto.

Nessuno vuole spendere per un VTR da tavolo digitale: hanno gia' il DVD, il VHS, il sinto tele+ eccetera.
In piu' e' ESTETICAMENTE un nastro, il peone lo accomuna piu' al VHS che al DVD di cui e' enormemente superiore.

Il grande successo avviene invece nel settore professionale dove è una manna caduta dal cielo per sostituire i costosi videoregistratori U-matic e Betacam.
Per questo motivo quasi tutte le aziende che lavorano nel broadcast ne faranno anche  versioni pompate, ovviamente incompatibili, che sono in grado di erogare esattamente il doppio semplicemente facendo scorrere il nastro a doppia velocità.
Ancora dopo verranno rilasciate versioni HD da 100Mbps per i servizi da battaglia.
In pratica ancora oggi un nastro registrato in maniera standard  è in grado di rivaleggiare con la qualità di molti Blu-ray e una versione PRO e' superiore nettamente per molti versi al disco blu. Il PAL con 50Mbps si sente a casa.


Gli americani prendono la palla al balzo e nel 1996 pubbicano l'ATSC il formato digitale USA.
Ovviamente con formati USA, il 1080, 720p (ricorda nulla? Il MAC?) e ovviamente il 480.



ancora nel 1995 arrivò l'introduzione da parte di fujitsu del primo schermo al plasma. In realtà non è il primissimo nel senso che alcuni computer portatili di alta qualità (il grid compass, quello con le SSD, da moolto tempo, dal 1982) e per alcune applicazioni esistevano già  display al plasma ma avevano la caratteristica indesiderata di essere monocromatici. Invece questo display non solo era colori ma era anche di 42 pollici una dimensione tutt'altro che diffusa in ambito dei cinescopi..

Anche altre aziende molto avanti con la ricerca tipo Pioneer e Philips aggredirono il mercato e nel 1997 arrivarono anche per il mercato consumer questi tre apparecchi.

Di questi primi televisore plasma c'erano alcune cose pochino strane.

Innanzitutto in Italia era disponibile solo il televisore  Pioneer che conosco bene.
Poi bisogna considerare che l'elevatissimo prezzo, il primo che misi in vendita costava la bellezza di 22.000.000 di  lirette che sarebbe l'equivalente di una autovettura di fascia media. Questo anziché definire il prezzo fuori di melone visto che a quel prezzo era possibile avere almeno tre videoproiettori tri tubo (un tritubo seleco costava 7ML) e un portatile per la cucina scatenò una isteria collettiva del tipo “voglio averlo”.

Alcuni dopo aver controllato che anche a rate non era possibile portarselo a casa rinunciarono l'acquisto.
Nessuno controllava come si vedesse.
 Si vendeva da spento.

La terza cosa particolare di questo televisore e' che tutti i giornali ne parlavano con toni roboanti narrando non solo il fatto spettacolare che fosse piatto, in realtà la profondità era comunque una spanna perché l'elettronica dell'epoca era quello che era, ma soprattutto la grandissima qualità di immagine era in realta' pessima. Alcuni retroproiettori erano solamente il doppio di profondita', costavano un decimo, ed erano piu' grandi. In america avevano fatto dei cinescopi del medesimo spessore negli anni 50.

In negozio problema era tenerlo lontano dei televisori veri, quelli a cinescopio, perché l'immagine non era brutta ma orrenda con svariati problemi di impastamento.

Il problema dei plasma e' che sono tubi al neon sostanzialmente e possono essere o accesi o spenti. La via di mezzo viene ottenuta facendoli ballare e questo con i computer dell'epoca non era una via percorribile senza pagare un grosso pegno.

Si aggiungeva la risoluzione idonea al NTSC che doveva essere quindi riscalata.
All'epoca non capivo perché la qualità fosse così bassa ma ormai, per chi legge mio blog, sa che per vedere un pannello un PAL ci vuole un pannello PAL.
 E il pannello era NTSC quindi la risoluzione crollava da 480 a 240.
Capite che se mettete di fianco un 240 incerto e un 576 all'apice della sua evoluzione,, potete menarla quanto volete, ma un mivar da due soldi si vedeva meglio.

Eppure nonostante il fatto che la qualità fosse parecchio più bassa di un cinescopio tutti i giornali dicevano che si vedeva benissimo cosa che non era tecnicamente possibile visto che grazie al fatto del rescaling la risoluzione non poteva essere che pessima rispetto cinescopio.

L'era del consumatore era decisamente in auge.

lunedì, novembre 21, 2016

tv story 1994



Dopo che il D1 sembrava poco con i suoi 175mbps, la qualita' e' sempre in aumento nel broadast, esce il formato D-5:
favolosi 319 Mbit/s (576/50i/8CH). La qualita' e' estrema e insuperabile.

Finalmente il PAL puo' dirsi all'apice pero' il 1080, un formato per l'alta definizione, comincia a farsi pressante cosi' i VTR verranno anni dopo prodotti anche in versione HD ma con compressione e nel 2007 e' possibire anche montare un retrofit che permette il 2K e molti film saranno prodotti con questo videoregistratore.

I videoregistratori continuano ad essere capienti e velocissimi.

giovedì, novembre 17, 2016

tv story 1993



Nel 1993 il Joint Photographic Experts Group rilascia lo standard JPEG.

Attenzione perche questo e' un piccolo sasso che creera' una valanga.

Il Jpeg, per la prima volta, e' un formato che definisce in maniera strutturata e programmatica una perdita di dati desiderata.
Mentre in precedenza una perdita dati veniva data semplicemente dalla larghezza di banda disponibile che influiva direttamente sui risultati con questo nuovo standard è possibile decidere quale parte dell'immagine dovrà perdere di più.


Non è una cosa da poco perché agli effetti pratici alcune cose al nostro occhio sembrano più importanti di altre.

lunedì, novembre 14, 2016

trump presidente di tutti.



Trovo molto interessante il voto americano.








occhio che e' LUNGO e SPROLOQUIANTE (clicca su prosegue se vuoi annoiarti)


tv story 1990




Nel 1990 viene di fatto presentato e ufficializzato il primo sistema HDTV europeo HDMAC. I mondiali di calcio del 1990 vennero ripresi e trasmessi regolarmente sia in MUSE, che sperava ancora di conquistare il mercato europeo, che in HD-MAC.

HD-mac e' un sistema elegante e  presupponeva il 16:9 (prendendolo in prestito dal MUSE) per avere si sempre le bande nere ma averle ridotte.
Aveva 1250 linee con diversi interlacci e anche il progressivo per diminuire la banda.

Adesso avete scoperto da dove deriva il 720p vs 1080i americano che usiamo oggi. Sono i figli del sistema MAC che aveva inventato un escamotage molto aggressivo ed elegante, se si usano dei CRT.

Il consorzio si chiamava EUREKA95 e aveva come ambizioso scopo di portare in europa la HDTV entro il 1995.

In realta' si areno' clamorosamente.

Un flusso di dati enorme ancora oggi ingestibili (1Gbps equivalenti circa),
il fatto che i francesi non erano in grado, ancora una volta, di comandare visto che la sede del consorzio non era in francia e i bilanci erano redatti in DM.

Sappiamo che i “grandi” francesi non hanno mai visto i crucchi con la loro “nuova” nazione come amici. Poi dopo la tosata della WWII ancora legata al dito. In realta' aveva senso: il fraunhofer institute la TFK, e la disposizione geografica ha una sua logica.

Gli american che non stavano certo a pensare di acquistare “roba EU” per convertire i loro film quando pensavano di fare un loro sistema. Ancora una volta i contenuti.

I nippo che col piffero progettavano nuovi chip idonei al MAC quando pensavano al loro MUSE e il vantaggio economico derivante dalla diffusione dello stesso.

Avevamo bisogno di un'industria che supportasse e non si poteva certo sperare che     Bosch (D),     Philips (N), Thomson (F),  Thorn-EMI (GB) potessero mettersi a ripetere l'exploit di telefunken quando intere nazioni erano niente.

Oggi esistevano molte piu' aziende concorrenti e molte nazioni avevano tecnologia.

Queste aziende avevano piu' di un problema, gli stati volevano normare a manetta e, cigliegina sulla torta, nessuno voleva l'alta definizione: su un TV serio come un blaupunkt da soli 32” per un profano era indistinguibile il PAL dall'HDTV. Serviva qualcosa di piu' grosso.

Tanto che al mondo esiste un solo TV in vendita in grado di macinare correttamente sia il formato HD che quello PAL ed era un thomson.

Invece nel 95 mentre il consorzio era ancora in affanno cominciava la bufera degli schermi planari.
Al pubblico piace uno schermo peggiore e costoso ma sottile anziche' uno in HDTV ma spesso.

Come proporre l'alta definizione per schermi grandi e  videoproietttori enormi quando il pubblico si sta lanciando su schermi piccoli penosi e piatti?
non si puo'.



In italia il 1990 e' importante per un'altro evento: tele+
In pratica, solo decenni di ritardo, anche in Italia arriva la televisione pagamento. Nasce subito un problema perché l'idea era quella vendere come in altri paesi più avanzati un certo tipo fruizione fra i quali i film e un certo tipo di telefilm.

D'altronde ovvio visto che Leo Kirch (45%) e Vittorio Cecchi Gori (35%) erano azionisti ovvero qualcuno che era abituato mercati più avanzati e un distributore che ha in mano gran parte del mercato italiano per quanto riguarda i film.
In pratica si voleva portare l'offerta culturale pregna di film recenti che non erano ancora arrivati in televisione: un flop pazzesco.

Dopo molti anni di perdite che hanno solo delle piccole oasi date dal calcio nel 2003 verrà chiusa. Finisce così la televisione a pagamento  italiana sostituita solo da premium e se non fosse per tette & calcio sarebbe praticamente inesistente. Non esistono altre alternative italiane.

lunedì, novembre 07, 2016

Megapixel utili?



È una vita che l'utonto medio continua a volere megapixel come se fossero l'unica cosa di un sensore fotografico.





Più o meno dagli stessi tempi, o poco più in là, i cultori della qualità continuano a rompere le scatole che abbassare il numero di pixel e l'unica strada che può portare da qualche parte.



In realtà se andiamo a vedere qualunque forum o qualunque sito la gente si scanna semplicemente perché non partono dalle stesse basi. Anzi spesso non le hanno proprio.


Chi sostiene che piu' pixel sia meglio e chi sostiene che meno is better portano strambe formule matematiche, test su sensori non simili, esempi di foto fatte con obbiettivi diversi...
Sembra la storia dell'HD...

Vediamo di spiegarlo con semplicita' prendendo un po' di scorciatoie.


In realta' la storia dei sensori e' la storia dell'abbattimento del rumore e incremento del segnale.

Il segnale / disturbo vede due fronti: abbattimento del disturbo e incremento del segnale (in soldoni numero di fotoni che impattano)

Innanzitutto bisogna ben ricordare che all'inizio della diffusione del “digitale” un numero di pixel elevato sembrava una garanzia di una qualità superiore.

I primi sensori, bisogna ricordarlo, erano 320 × 200. 60.000.
0.06 Megapixel molto rumorosi.
All'epoca, come ricordato nella serie di post riguardanti la storia della fotografia, ad ogni aumento di pixel c'è stata in maniera più o meno netta un aumento proporzionale della qualità e quando si è arrivati intorno al megapixel, decine di volte superiore ai primi tentativi, si è parlato di grande qualità fotografica e il reparto di marketing non potendo parlare di cose serie come il numero di linee o la qualità generale data dal rumore ha dovuto trovare un numero singolo che identificasse qualcosa ed è stato scelto di usare i megapixel.

La cosa ha continuato quando i megapixel hanno superato i due, i tre e persino i cinque megapixel.
Ormai erano sufficienti per un uso dell'uomo comune.


Anzi una buona 13*15 e' assolutamente ottima con 2 megapixel (vedi sotto) di un sensore BUONO. Non parliamo dei display sfondaocchi del celli o dei tv (1500*1080 circa, 4:3), per quelli basterebbe molto meno.

Aumentare la pixelitudine oltre i 2 megapixel porta solo sventura, peste e anche un po di sfiga, se si vuole pagare il sensore meno di un gelato e/o essere delle dimensioni di una briciola di pane.

Ma ormai il danno era fatto, nell'immaginario collettivo l'unico parametro per definire una qualche qualità era diventato il megapixel.

A questo bisogna aggiungere che ogni generazione di sensore porta con sé delle migliorie e quindi, dal momento che i nuovi impianti producono anche sensori con più pixel, come da richiesta dell'imbec, ops, del consumatore, c'è stato un ulteriore associazione tra numero di pixel e qualità da parte di quest'ultimo.

Per capire quanto un parametro può influire in maniera vantaggioso o meno è necessario che tutti gli altri parametri siano identici.

Ovvero, per far sì di capire se un numero di pixel maggiore porta a un miglioramento complessivo delle riprese è necessario avere due sensori assolutamente identici e della stessa generazione in cui l'unica cosa che differisce è appunto il numero di pixel.


Se non facciamo questo finiamo nel calderone degli idioti che pensano che un 32 pollici sia meglio vederlo in alta definizione semplicemente perché il loro specifico televisore ha delle problematiche per le quali funziona meglio in una determinata situazione. A costoro viene in mente la strana idea che una maggiore definizione sia migliore quando invece è da buttare il televisore cinese.

Infatti il confronto di quelli più arrabbiati che continuano a portare come megapixel sia l'unica bandiera di verità solitamente fanno il confronto tra due apparecchi, magari distanti anni, in cui, oggettivamente, la qualità e' nettamente superiore nell'apparecchio dotato di maggior numero di pixel.


Esempio: il mio vecchio cellulare due megapixel fa veramente schifo rispetto al nuovo cellulare da otto.
Ad una persona senza cervello potrebbe venire in mente che la miglioria tra i due apparecchi è data dal fatto che otto megapixel si vedono meglio di due quando i due apparecchi sono distanti quattro anni, hanno due tecnologie completamente diverse di sensore e sono persino di fasce di prezzo completamente distinte.
Basta pero' confrontare i risultati con la mia vecchia reflex da 6megapixel (CCD, APSC) per capire che un cellulare da 8 (microbo, CMOS) e' cacca pur essendo NUOVO.


A questo punto cominciamo a capire come dobbiamo fare a fare un confronto ma soprattutto andremo a capire come è strutturato sensore.


La prima cosa che dobbiamo capire e che quasi tutti i sensori sono in bianco e nero e solamente perché esiste davanti un mosaico di piastrelle di plastica colorate riesce a percepire colori.







La seconda cosa che dobbiamo capire e che, in un'ottica di risparmio nata quando la risoluzione era 320 × 200, il messaggio viene interpolato partendo da una matrice un po' strana, magia permessa dal fatto che l'occhio vede molto di più sul verde.


Un obiettivo che dava ottimi risultati su di una pellicola potrebbe trovarsi in difficoltà con un sensore perché non solo i pixel sono, a parità di definizione, il quadruplo ma dove deve entrare il fotone è realtà un pozzo.


Gli obiettivi per il digitale devono avere
un elevato contrasto,
una risoluzione superiore,
e avere i raggi uscenti praticamente perpendicolari al sensore.


Un obbiettivo con una risoluzione inferiore su una pellicola rende l'immagine più morbida mentre invece su di un sensore fa crollare la risoluzione perché gli artefatti ottici, come le centriche di diffrazione, perturbano grandi zone di pixel.

In pratica con un obiettivo economico potrebbe essere nettamente vantaggioso dal punto di vista della qualità registrata abbassare in maniera drastica il numero di pixel. Pur essendo contro intuitivo il risultato è migliore.

Come vedremo, l'aumento dei pixel porta ad un danno notevole della qualita' del sensore e un cellulare non dovrebbe azzardare ad andare oltre i 3 megapixel

Partiamo dalla struttura.

Molti fantaesperti dicono che aumentando il numero di pixel il rumore complessivo non cambia. Parlano di formule e crop vari.

Cazzate.
enormi cazzate

Il loro credo e' che una zona ha un rumore indipendentemente dal numero di pixel.

Il perche' appaiono diversi e' per via che croppandoli (ritagliare e' difficile come vocabolo) si ingrandisce il rumore


Sarebbe vero se i sensori fossero fatti come nei disegnini




Ma non sono disegnini.







Se guadiamo un sensore al microscopio vediamo che nel caso specifico il sensore e' solo ¼ (25%) del pixel.

Infatti il sensore non e' il pixel.

Una parte dell'elettronica rimane grossomodo grande uguale sia che usiamo pixel enormi che pixel piccolissimi.

Ne consegue che se dimezzassi il numero dei pixel l'area del singolo sensore non raddoppierebbe ma triplicherebbe almeno.


Forse abbiamo capito perche' le marche migliori non sono quelle che mettono troppi megapixel e perche' l'area del sensore e' piu' importante: piu' e' grande il sensore piu' e' alto il fattore di riempimento.
Le marche peggiori mettono tanti pixel perche' “vende bene”non perche si "vede bene" che non frega a nessuno.
I risultati si vedono.
La classifica di vendita aderisce al numero di pixel. Urlare “piu' pixel per tutti” vince.


Per incrementare l'area “sensibile” negli anni sono state percorse molte strade.
La prima e' stata diminuire il consumo, a parita del resto, meno rumore, meno consumo vuol dire transistor piu' piccoli e quindi piu' sensore.

Nel 2005 i sensori fotografici avevano mediamente ancora il 70% dell'area occupata dall'elettronica, in alcuni casi il sensore vero e proprio era intorno al 10%.

A questo si aggiunge che il sensore e' distribuito su 4 zone per via del filtro a matrice.

In pratica era orbo come una talpa.

Questo vuol dire che quando impostiamo 100ISO, in realta', il sensore della macrofoto di cui sopra, lavora con 1600ISO.

Oppure possiamo dire che un cellulare dell'epoca lavorava sempre con un 8.000ISO anche all'aperto. Immaginate cosa fa al chiuso.

Avete capito perche' e' importate l'elaborazione del segnale per abbattere la risoluzione reale impastando l'immagine e saturando i contrasto e maciullando i colori.


Cosi' facendo sparisce il rumore a scapito della dinamica e della risoluzione, vanificando il fatto di avere un gran numero di pixel. Ma non si vede una grattuggiata di punti impazziti.

E' il motivo perche' i cellulari hanno pochi colori e i colori solarizzati e la pelle grumosa. Non perche' il sensore ha pochi pixel ma perche' e' cieco e deve inventare particolari che non vede.

Negli anni sono state fatte molte evoluzioni

La prima e' stata di mettere delle lenti davanti ai sensori. La lente serve a concentrare la luce che arriva sopra il pixel e infilarla nel sensore.
E' chiaro che se anche recuperasse solo la meta' del perso darebbe un RADDOPPIO di segnale.









Ovviamente ha i suoi problemi una soluzione del genere.


Innanzi tutto il sensore, che e' un pozzo, ha ancora piu' problemi con i raggi inclinati e i grandangolari sui bordi perdono parecchio.

Poi avvengono interazioni “strane” con le ottiche intercambiabili piu' aumento il “gioco”.

Se ne sono accorti bene i possessori di canon (molti troppi mega, piu' pelo per tutti, pixel) che le ottiche a fuoco non mettevano a fuoco anche se lo erano.
Ecco, adesso sanno perche'.

Ovviamente e' un danno che, poco dopo, ha poi colpito tutti.








Dopo hanno verniciato di nero l'elettronica.

Eggia', la lente si comporta come una lente e l'elettronica che e' di colore metallico spara riflessi nelle ottiche che poi lo distribuiscono dove non dovrebbero.

Per ovviare al problema del raggio parallelo che finisce nel pozzo panasonic ha introdotto una guida d'onda sotto al pixel.

Pero' e' una soluzione complessa e costosa.








Sucessivamente sony ha prodotto dei sensori CMOS commerciali la cui elettronica era parzialmente disegnata sotto il sensore. Per farlo a meta' processo si ribalta il silicio e si lucida. Per questo motivo i sensori vengono chiamati BSI.

Alcuni siti e riviste, anche importanti, dicono (o hanno detto persino sulla carta) che ci sono specchi e illuminatori.

Si chiama illuminazione posteriore perche' la luce arriva da dietro e il sensore e' montato alla rovescia. Google translate, vero?

Questo ha anche un vantaggio se usato con le lenti perche la luce riflessa dall'elettronica (ora altrove) si rifletteva sui vari pixel. Adesso meno, non fidatevi dei disegnini dove non avviene.

Il rovescio della medaglia che le cariche elettriche sui vari sensori soffrono di potente diafonia. (vedi rumore e si fa un passo avanti e mezzo indietro)


E' per questo che nonostante fossero in uso sul cellulari dal 2008, affamati di luce per via della densita' di pixel alquanto idiota, solo nel 2015 e' arrivata questa modalita' anche sulle 24x36 (Sony α7R II). In pratica sui cellulari e' stato meglio massacrare i colori ma avere un po' di luce in fondo al tunnel della tristezza.




Grazie al fatto che l'elettronica e' parzialmente sotto, le lenti per la concentrazione possono essere piu' grandi e qualcuno ha pensato di farle “tagliate” in maniera che fossero quadrate e non tonde. Questo e' avvenuto anche nei CCD che hanno meno problemi (ma sono piu' costosi) e hanno performances fotografiche migliori. Ovviamente lenti cosi' tagliate hanno fotoni che vanno a spasso ma comunque raccolgono di piu' (es EOS 40vs50). Ovviamente le lenti poi sblaterano, ma alla fine conta di piu' ricevere 10 fotoni in piu' anche se 3 se ne sono andati sul pixel sbagliato.

Un sensore moderno e' passato da pochi anni da beccare il 10% dei fotoni a punte del 90%.

In realta' e' stata questa “banalita'” e' la differenza fra il sensore della prima mavica tristezza o la prima canon IOS di m. e quello dell'ultima reflex di fascia alta.

Rimane il fatto che queste percentuali sono variabili a seconda del numero di pixel: aumentando il numero di pixel le zone prato e/o l'elettronica rimangono.

Se si mantengono le caratteristiche devono aumentare di numero e, geometricamente, sul sensore occupare piu' spazio per le aree cieche.

Ad un aumento lineare dei pixel aumenta il numero delle zone cieche.
E' banale geometria delle medie.



In pratica per via della complessita' del sensore, le lenti sopra, il sensore rovesciato, il filtro, l'elettronica che e' rumorosa, ad un aumento del numero dei pixel corrisponde un aumento delle interferenze sui 4 lati delle lenti, della diafonia e della ristrettezza del pozzo.









Perche', ricordiamo, un buco se e' grande e' un banale buco ma se e' piccolissimo e sopra ha impilate un po' di cosette diventa, proporzionalmente, un pozzo difficile da raggiungere.


A questo si aggiunge l'obbiettivo.

Nella pellicola era tutto semplice:
si raddoppia la risoluzione dell'ottica = doppio risultato.

Con i sensori e' difficile. Se fossero al 100% l'ottica dovrebbe avere una risoluzione quadrupla del risultato (il mosaico...)

Ma se solo il sensore fosse il 25% l'insieme dell'ottica e del duplicatore di focale integrato (ok, e' alla rovescia, ma avete capito) presente sul sensore dovrebbe avere una risoluzione piu' che quadrupla.
In pratica aumentando la densita' di pixel stiamo aumentando le pretese dell'ottica esponenzialmente.

Ora avete capito, spero, perche' non e' saggio salire all'infinito nella densita' dei pixel.

Un pixel piu' piccolo non e' solo piu' piccolo ma diviene MOLTO piu' piccolo e MOLTO piu' problematico.

E' il motivo per il quale la Pentax (e molti altri...) da sempre fa la 645 anziche' una misera 24x36.
E' il motivo per il quale una 24x36 si vede meglio di un aps-c
E' il motivo per il quale un picolo sensore non e' solo un sensore piccolo ma e' un sensore piu' morto che vivo.

Adesso capiamo perche i cellulari non hanno lo zoom, a quelle dimensoni di sensori costerebbe gia un'ottica fissa migliaia di euro ma uno zoom (vero, non come la boiata del citofon7) andrebbe a costare milioni.

Lo stesso motivo per il quale il nuovo c-tofon 7s ha un'apertura di f1.8: non e' perche e' piu' luminoso, e' perche altrimenti l'ottica creerebbe mostruose figure di diffrazione.

Sta ad indicare un sensore troppo piccolo. Probabilmente con un f4 mezzo sensore non riceverebbe luce, in maniera pseudocasuale.

Alla faccia della pubblicita' della mela. Poi che  i concorrenti siano spesso messi peggio e' altro.

Concludendo:
L'aumento sconclusionato del numero di pixel soprattutto sui sensori piccoli come quelli delle compatte o microbi come i cellulari non porta ad un aumento della risoluzione ma ad aumento dei problemi che causano una diminuzione della qualita' netta.

Un sensore dovrebbe essere il piu' grande, dimensionalmente, possibile.
La quantita' di pixel dovrebbe essere solo quella che ci serve.

Un telefono se fosse dotato di 3megapixel avrebbe solo da guadagnare (a parita' del resto) e con un sensore meno smilzo potrebbe introdurre migliorie come il diaframma o altro.

Anche nelle reflex un numero galattico di pixel non fornisce un plus come dimostravano le foto con le stesse ottiche delle top di gamma (vi do un indizio, 2007).
D'altro canto non e' certamente ipotizzabile avere un sensore da 320x200.

Ma come al solito la virtu' e' nel mezzo e piu' patata per tutti non e' un buon sistema per scegliere.




PS

Demolire il megapixel e' facile:

Prendete una serie di foto fatte a qualita' altissima e con una MFT ottima e un buon contrasto generale del soggetto.
Scalate in 5 step partendo da 1026*768 (0.7Megapixel), 2, 4, 8, 16Mpix..
Io ne ho prese 2, una analogica e una digitale (totale 10 stampe).

Prendete anche 2 immaginette fatte da un c-itofon (io ho usato un c-tofon 4Stolt 8fintopixel, mi pare) e da un shampugo (Smerd5 da 16milioni di asini) scattate in studio con lo stesso soggetto in luce continua.

Poi stampate in 13x18 usando atrezzature al di sopra di ogni sospetto. Meglio un service professionale che una povera inkjet.

Chiedete ad un pubblico qualsivoglia di metterle per ordine di qualita'.

Ho messo un bollino non parlante (DD, HR, ZP) dietro ad ognuna e ho chiesto ai soggetti dei corsi di fotografia, uno alla volta per evitare influenze, di scrivere su un foglio la classifica.

A questo punto scoprirete una cosa molto divertente.

Le foto non saranno mai messe in ordine giusto. Solo un 10% riesce a mettere la 768 come prima ma molti la considerano fra le migliori quando non la migliore in assoluto. Quindi e' un dato di fatto che la risoluzione non conta (a quella dimensione).
Il numero di soggetti ormai supera i 150.


Diverso e' il caso per i cellulari che mostro con 2 foto, da 16.
La identificano subito come DIVERSA.

Attenzione che con cellulari piu' recenti la solarizzazione e' ancora piu' pesante e l'immagine, per quanto un bidone, per una fascia poco preparata sara' accattivante. Per un sano confronto dovete dare un paragone "consono" mettendo i gamma e la pendenza uguale e dando il soggetto. Allora converranno tutti che e' sballata.


sabato, novembre 05, 2016

tv story 1988



Nel 1988 i giapponesi ripresero e distribuirono le immagini in MUSE in maniera ufficiale questo sistema si diffuse relativamente. Per poterne usufruire era necessaria molta banda e sia il TV che l'infrastruttura adeguata.
Cose non facili da ottenersi.


E' interessante notare che nel 1987 una enorme azienda finanziaria che aveva iniziato nel 38 importando pesce secco decise di innondare i mercati mondiali.
Erano pochi anni che era in grado di fare tv a colori e per far percepire che “ci siamo anche noi” se ne esce con un inutile nastro 4mm per il video.

All'epoca non capii perche' un formato assolutamente inutile fosse cosi' pompato sulla stampa oltretutto di un marchio mai sentito prima da un paese famoso per i colpi di stato ed essere semi-militarizzato.

Ricordo che solo nel 1993 ebbero un presidente che non aveva trascorsi militari.
In pratica il formato video4 era della dimensione di una videocassetta DV ma non era digitale, non era performate come una video8Hi poco piu' grande e il camcorder assomigliava grandemente a quelli di JVC.

A cosa servisse era un mistero. 

L'azienda, una certa samsung, nessuno che io conoscessi aveva mai visto qualcosa realizzato da loro a parte qualche chip “staccilontanocheemeglio”.

Come se io mi mettessi a costruire oggi una vettura peggiore di una panda30: perche tutti i giornali ne dovrebbero in maniera fantastica?

La risposta la ebbi un decennio dopo: non e' importante la cosa in se ma che sia una novita'.
E apparire sui giornali a suon di bustarelle e comunicati.
Samsung si apprestava a diventare qualcosa di mai visto prima: il sogno del consumatore idiota.

Nel 1987 nessuno aveva solo dei consumatori, per la maggior parte erano ancora clienti e la parola consumatori era una cosa nuova che appariva.

Non era d'uso comune in italia e la prima volta che la incontrai la cercai su di un vocabolario che non la riportava.

Il CLIENTE era ancora importante.

giovedì, novembre 03, 2016

tv story 1987






Nel 1987 cominciarono ad esserci i videoregistratori cosiddetti super (in realta' "a componenti Separate" o per via della larghezza di banda "Hi Band")

In pratica erano videoregistratori che erano in grado di avere una qualità praticamente doppia dei rispettivi sistemi di origine: SVHS, 8Hi eccetera.

Questi videoregistratori vengono utilizzati principalmente dagli amatori della qualità che riprendevano con videocamere e professionisti che cercavano qualcosa di meno costoso dei videoregistratori professionali.

La scarsità di film pubblicati in questo formato incompatibile con il formato di provenienza e l'inutile possibilità di registrare una fonte televisiva che aveva mediamente una qualità inferiore resero questo formato poco diffuso nonostante che in alcuni ambiti venisse visto come vera e propria manna.

Le piccole TV di citta' e i reporter pensarono  di aver vinto alla lotteria.

mercoledì, novembre 02, 2016

tv story 1986





Nasce il primo formato digitale professionale specifico per il broadcast per il PAL/NTSC: D-1

La scelta di un nuovo formato nasce dalla necessita' di contrastare i formati Hi in arrivo che ormai viaggiano a 480 linee (in pixel 960*576) minacciando il formato regnante U-matic

Il video component non compresso, helical scan, 173 Mbit / sec (bit rate), per il suo tempo era un flusso ENORME. 
Ancora non raggiunto oggi in ambito consumer.

Il tempo massimo di registrazione su un nastro D-1 è di 94 minuti.

All'epoca solo un enorme sistema RAID di HDD con controller cattivissimi poteva reggere un tale impatto costando migliaia di $ dell'epoca.

Ricordiamoci che la connessione SCSI non esisteva ancora.
Vedere in azione questa bestia su di un CRT 21” PRO della JVC a pochi cm e vi assicuro che era fantascienza, ridefiniva la parola definizione.

Quando sento dire che e' possibile vedere il 4K con poche decine di Mbps vi assicuro che e' solo una sana risata da seppellimento.

Ancora oggi nel 2015 (30 anni dopo) le schede per “l'alta” definizione SD-eXtened Capacity ULTRA HIGH SPEED 2 (mega turbo intetercooler megapixel watti se li sono dimenticati)  sono poco piu' veloci in the wild.