martedì, aprile 29, 2008

Tipi di immagine (2nda parte)




Nella prima parte abbiamo potuto vedere che il tanto bistrattato cinescopio tranne in una misura era nettamente superiore alle altre tipologie oggi disponibili per creare un'immagine.

Fino a questo momento le misure erano molto semplici da ottenersi poiché erano le stesse che si utilizzavano praticamente da cinquant'anni nel campo della fotografia. Misure così semplici da bastare, per quanto precisi, accurati e tarati in maniera precisa, un tester per ed una fotoresistenza per molte di esse.

Per le restanti tipologie che andremo a misurare non è possibile al giorno d'oggi dare una risposta numerica o grafica che non sia da interpretare tanto che molte di queste misure vengono fatte ad occhio, cosa non perfettamente ripetibile e quindi scientifica, ma non si può fare diversamente.

È da sottolineare anche che tutte queste problematiche che stiamo per disquisire non toccano, se non marginalmente, il mondo dei cinescopi. Se possedete un cinescopio con la velocita' di scansione reale, non duplicata, queste cose non vi interessano. Un cinescopio è tranquillamente in grado di andare da 25 hertz a 120 e passare da una soluzione di poche linee fino al massimo di progetto. Al massimo, se la differenza di risoluzione verticale e' molto grande, intravedrete il raster sulle risoluzioni inferiori.


Stiamo parlando degli artefatti, bestia nera delle manipolazioni digitali, ovvero dell'introduzione di qualcosa all'interno dell'immagine che non appartiene all'immagine stessa, potremmo anche chiamarla "invenzione di sana pianta".

Questo tipo di disturbo non è prelevabile in nessun punto del circuito in chiaro quindi non si può paragonare elettronicamente per quantificarlo dal punto di vista di una mera misura in decibel.
Ogni costruttore definisce un peso per alcune di queste novità che, ricordiamolo, sono distorsioni e peggioramenti d'immagine che provengono solo ed esclusivamente dalle nuove tipologie di costruzione dell'immagine.


Il primo passo nella novità lo vediamo quando il segnale entra in un apparecchio digitale: essendo la maggior parte di sorgenti analogiche abbiamo un problema di quantizzazione: la granularità del campionamento potrebbe non essere qualitativamente sufficiente per ciò che vogliamo fare. Analogico si riferisce generalmente a tutto ciò che può assumere un qualsiasi valore , mentre digitale si riferisce a tutto ciò che può solo assumere un discreto insieme di valori elencati. La conversione tra i due tipi di segnali comporta sempre qualche margine di degrado.
Inoltre a molti sfugge il fatto che un'operazione matematica porta con se un'imprecisione se il numero di cifre non è sufficiente. Per elaborare digitalmente un segnale da otto bit è assolutamente necessario avere una matematica che abbia la possibilità di portare con sé gli arrotondamenti che questa comporta. Se devo, per esempio, mediare quattro punti a 8bit, tenuto conto che dovrò fare anche quattro divisioni, dovrò avere un sistema ad almeno 9bit altrimenti avrò un' imprecisione che può arrivare a ridurre di ben due bit la mia precisione iniziale. Figuriamoci quando andrò a fare delle operazioni su interi gruppi di celle come andremo a vedere.
È questo il motivo reale per cui oggi alcuni costruttori pubblicizzano i loro pannelli per un numero molto elevato di bit serve unicamente per evitare arrotondamenti drammatici quando si esce dai processori e non sicuramente, come vorrebbe la pubblicità, un aumento di qualità per maggiore aderenza all'ingresso poiche' piu' performante...




I più grosso problema nasce dall'adattamento della matrice alla sorgente:

il cinescopio può variare la velocità del pennello elettronico e disegnare risoluzioni intermedie senza grossi problemi, passare da una visione interlacciata ad una progressiva senza problemi.

La generazione dell'immagine tramite pannello ha due limiti il primo consiste nella scansione che è progressiva (L'interlacciamento e' il presentare l'immagine nelle righe dispari e pari sucessivamente: es. 1,3,5,7...625-2,4,6,8...624. non viene normalmente gestita da un pannello.) e la seconda è che la risoluzione è invariante ed è solitamente diversa dalla sorgente. I DLP, il plasma e gli LCD hanno formato fisso e definito al momento della produzione è solitamente scelto in base a moda del momento.


L'adattamento di soluzioni diverse, per esempio la visione di un DVD su di un pannello "HD e ridi" causerebbe una serie di artefatti ripetuti periodicamente nell'immagine e quindi visibili in maniera alquanto fastidiosa. Per evitare ciò avviene un filtraggio che, sostanzialmente, diminuisce la risoluzione miscelando i punti adiacenti alle zone pixelate. In pratica equivale, per chi ha pratica di fotografia digitale, al filtro smooth (sostanzialmente introdurre il valore dei pixel adiacenti nel pixel in oggetto). Un altro gioco che i processori di bordo fanno per evitare un crollo verticale della qualità immagine consiste nel variare la perdita qualitativa a seconda di quante cose si muovono sullo schermo così da rendere ancora più difficile l'esame qualitativo in quanto è abbastanza comprensibile che su un'immagine statica si può andare a notare immediatamente quali siano le differenze, su di una in movimento molto meno.

Con alcune immagini si può assistere tranquillamente ad un dimezzamento della qualità della sorgente: un po'come dire che con quell'immagine vista su di un cinescopio corrisponde a quella della sorgente mentre vista su di un pannello la maggior parte dei pixel che compongono l'immagine saranno stati alterati significativamente.
Vi basti sapere che quelle rare volte che ho potuto (su dei VPR) spegnere il "pastrugnatore" e lasciare delle evidenti scalette sullo schermo preferisco di gran lunga queste fastidiose interruzioni che sembrano fatte con una forbice che il degrado mostruoso di tutta l'immagine.


La seconda problematica del pannello consiste in quella che viene chiamato deinterlaccio.

Se la sorgente è di tipo televisivo, quindi naturalmente interlacciata, come potrebbe essere una partita di pallone, non è possibile trasformarlo in progressiva in quanto si commetterebbe un errore nel dominio del tempo: il pallone si troverebbe in due posti contemporaneamente divenendo una salsiccia. Alcuni televisori per evitare questo dimezzano la risoluzione verticale altri mixano arditamente i due semi fotogrammi, applicando ancora una volta una diminuzione di qualità notevole.
come fare 1+1=17

a questo punto è abbastanza chiaro che un segnale che dovesse subire entrambi i processi: adattamento della risoluzione e deinterlaccio di segnale naturalmente interlacciato, di ciò che era non rimane poi molto. Insomma, il TG sul plasma non viene molto bene.


Se invece il programma che stiamo vedendo proviene da una sorgente che originariamente non era interlacciata, tipicamente i film, il processori di bordo cercherà di applicare una magia chiamata reverse telecine. Sostanzialmente è necessario scovare a che cadenza è stato fatto scorrere il film rispetto o alla cadenza di fotogrammi del video. Trovando questo sarebbe possibile prendere i semi quadri che corrispondono allo stesso fotogramma della pellicola e fonderli per ricostruire il messaggio iniziale. Come al solito fra il dire ed il fare c'è di mezzo il fatto che potremmo avere due semi quadri dispari da fondere.
film sono girati a 24 fotogrammi al secondo (fps), ma in NTSC il funzionamento e' a 60i fps La soluzione attuale è di mostrare la metà del film frame tre volte ciascuno e l'altra metà due volte ciascuna, che si chiama 3:2 puldown (notate che la visione non sara' perfettamente fluida)
il PAL visualizza 50i fps e 2:2 pulldown, ma con velocità accellerata del 4 per cento, 25fps, si avete capito bene, in italia un film in TV dura il 4% meno... ma non va a scatti!!
Quindi andremo a fare l'adattamento di un adattamento!
La tecnica meno peggio sarebbe l'inividuazione della cadenza adottata e tramite un campionamento accellerato presentarlo piu volte sullo schermo... MA, essiste un MA, molti di questi display non vanno cosi' veloci....

Giusto per capire che non è una passeggiata dal punto elaborativo possiamo andare sui siti delle maggiori aziende di schede grafiche, il PC per sua natura è oggi progressivo, e leggersi le decine di pagine che parlano della miglior qualità di un approccio di un tipo piuttosto che di un altro, magari utilizzato solo sei mesi prima, e usando sostanzialmente tutta la potenza macchina di un PC da 1000 e una notte.
In soldoni non è possibile farlo senza avere degli artefatti sulle immagini in movimento poiché negli anni le tipologie di applicazione del telecine sono state molte e la quantità di potenza macchina necessaria a risolvere la questione non è certo acquistabile per pochi euro, nonostante tante belle affermazione dei vari produttori di hardware.
Un display 1080*1920 porta con se 3317760Byte che divengono 165.888.000B/s ovvero 158MB/s. Dovendo (semplicemente) interpolare i punti adiacenti arriviamo a circa 1600MB/s, 3200MB/s per una precisione sufficente, in piu' abbiamo altri flussi, che provocano notevoli diminuzioni prestazionali, dati in arrivo dalla sorgente e in partenza verso il display. Se aggiugiamo che e' un valore continuo minimo e non di picco cominciamo a chiederci che razza di ram e processori ci sono, o ci dovrebbero essere, per fare quei calcoli complessi che, stando alle affermazioni del marketing, dovrebbero esserci da anni. Una DDR2 arriva a fatica a valori medi di questo tipo ed ha una latenza lunga un kilometro ed il processore per questa semplice operazione arriva ad 3Gflops continui, fuori dalla portata di un pentium 4 (si lo so i dsp vanno molto di piu' ma non tutti sanno "pesarli"). E' ovvio che si ricorra a delle mostruose approssimazioni.

Lucciole per lanterne.
Ma non e' finita qua in fatto di elaborazioni : esiste un'interazione molto forte fra le sorgenti molto comprese (digitale terrestre,DiVX e un po' di roba di satellite) e tutti i processi visti prima. Alcuni degli artefatti costruiti da queste compressioni vengono scambiati per punti focali o importanti dell'immagine da parte dei processori di bordo che quindi ne esaltano la percezione in maniera netta attraverso taglienza e luminosita'. Sarebbe come dire che non solo la distruzione della qualità di partenza è notevole ma avviene in maniera più drammatica se l'eventuale sorgente digitale non è di alto livello.


Se avete letto fino a qua e pensate che ormai non rimanga molto del segnale originale, avete ragione. Il rumore digitale aleggia sull'immagine in una quantità tale che in altri tempi sarebbe stato archiviato come prodotto da un'apparecchiatura guasta. Se fosse possibile analizzare ciò che viene presentato sullo schermo probabilmente il 100% dei punti sono stati cambiati e molti non hanno più nulla a che fare con l'immagine originale.

Adesso sapete perché mi arrabbio quando a fronte di un sacco di proclami su tecnologie pseudofantascientifiche vendute a caro prezzo e non è stata fatta una cosa semplice che avrebbe evitato, almeno per ciò che riguarda la produzione di nuovi contenuti, il martirio dell'immagine: la scelta di un formato ben definito e, vista la moda dei pannelli, progressivo, come era stato fatto tanti anni fa (1963) con il PAL che ha ottemperato per decenni alle nostre esigenze in maniera egregia ed e' ancora oggi in grado di trasportare tanta qualita'.


Ma non è finita ogni tipologia di visualizzazione porterà con sé delle "belle" novità...... nella 3 parte.


PS
spero di essere stato sufficentemente chiaro e senza tecnicismi oscuri e di aver accontentato un pochetto tutti i commentatori.

13 commenti:

lawful ha detto...

sei stato chiarissimo e come al solito molto interessante..

grazie, come sempre :D

Anonimo ha detto...

E' vero, il flusso HD e' talmente esigente in fatto di banda da essere trasmesso solo compresso.

La trasmissione non compressa sarebbe fattbile, ma richiederebbe il meglio della tecnologia consumer (oppure quella che e' nata in qualche laboratorio di ricerca alcuni anni fa' e aspetta solo di essere commercializzata ;-) ).

Come paragone, le schede di rete Gigabit (le trovi sulla maggioranza delle schede madri recenti) hanno una banda massima (teorica, quella effettivamente sfruttabile e' inferiore) di 1.000.000.000 bit, cioe' 125.000.000 byte (119 MiB/s); un lettore Blueray 1x (cioe' la cosiddetta alta definizione) legge fino a 4,5 MB/s, cioe' 25 volte meno della rete

Tuttavia i miei calcoli sulla banda passante sono diversi:
1) 1920 x 1080 = 2073600 pixel, la risoluzione dello schermo;
2) ogni pixel ha una profondita' di colore di 24 bit (i famosi 16 milioni di colori che sono si' superiori al milione di sfumature apprezzabili dall'occhio umano e ai 18 bit di molti pannelli, ma sono anche uno standard di fatto per la compressione); 8 bit equivalgono a 1 byte, quindi 24 bit sono 3 byte;
3) frequenza delle immagini: 24 Hz (la stessa del dvd)

quindi banda necessaria = 2073600 pixel * 3 byte/pixel * 24 Hz = 149.299.200 byte/s, cioe' circa 142 MiB/s.
Come hai calcolato i circa 160 MiB/s?

elf

blu-flame ha detto...

I dvd della nostra zona sono 576i (50Hz) quindi devi mantenere la stessa velocita'

quindi 155520000B/s 1080*1920*3*25
150MB/s

ma un dvd ed un tv a a pannello funzionano anche con NTSC:
186624000B/s
177MB/s

Nota questa e' la velocita' di processo, l'output e' di 355MB/s e per i pannelli finto 100Hz 711MB/s, flussi che vanno ad interferire drasticamente sulle prestazioni in quanto prelevati dalla memoria durante il processo.


Nota: i full HD sono 1080i (50)
e questo causera' qualche problema con i BD come vedremo sulla parte 5.

Per la velocita' dei supporti vi e' un post nell'etichetta televisione.


1073741824b/s delle reti gigabit sono 134217728B/s cioe'128MB/s del tutto insufficienti per trasportare l'HDTV visto che con l'overhead dato dall'incapsulamento ip, l'intestazioni dei mac e famiglia bella avrem dei valori intorno alla meta' 70MB/s... Ecco il motivo del DVI e derivati che viaggiano a 8Gb/s senza troppe intestazioni (tanto e' un point2point)

Steo ha detto...

Esticazzy....
ma sei davvero preparato in materia...
ma stai attento e gardati alle spalle la sera quando rientri a casa perchè ho sentito dire che samsung sony e lg stanno assumendo un killer per farti fuori, sai com'è ...di questi tempi l'informazione è un arma che fa paura a molti

blu-flame ha detto...

samsung sony e lg....

Beh, loro solo in certi mercati come hai visto dai post: in USA si guardano bene di contare i subpixel.

i piu' incazzati saran quelli di tom's hardware che spacciano il LORO VPR a 3500 lumen quando ho dimostrato in un post essere 150 e pessimo. Corollario che sono dei faciloni o dei pataccari che vendono a 2300% in piu' del possibile..

Anonimo ha detto...

Ho capito: essendo l'output destinato ai televisori esistenti, va considerato un segnale interlacciato, quindi 50 o 59,96 Hz a seconda dello standard televisivo (si, l'NTSC non e' esattamente a 60 Hz e questo ha creato qualche problema nelle conversioni dei film da uno standard all'altro). Peccato: un'occasione mancata per una unificazione degli standard nazionali sotto un'unica frequenza e, possibilimente, un segnale progressivo ...

Occhio alle unita' di misura: le reti ethernet gigabit trasmettono fino a un miliardo di bit al secondo, cioe' 10^9 e non 2^30 b/s; convertiti in megabyte binari (1 MiB = 2^20 byte = 1048476 byte, secondo l'infelice definizione proposta dallo IEC 10 anni fa [1]) al secondo, sono poco piu' di 119 MiB/s e in megabyte decimali (1 MB = 10^6 byte = 1000000 byte) al secondo sono esattamente 125 MB/s.
Un lettore Blueray 1x legge a 36 milioni di b/s, quindi 4,5 milioni di byte/s: 4,29 MiB/s o 4,5 MB/s.

elf

[1] http://physics.nist.gov/cuu/Units/binary.html

blu-flame ha detto...

Beh, anche il pal non e' esattamente 50 fotogrammi secondo.
Questa apparente anomalia serve per gestire il ritorno del pennello ovvero far sincronizzare l'elettronica:
dopo il quadro e' necessario un segnale (il cui tempo ci portera' al 60ntesimo di secondo) per sincronizzare la baracca.
Ricordo che i TVC PAL erano fatti con 7 valvole e gli NTSC qualcosa meno.

50 fotogrammi
Beh, quando visualizzi un segnale se non vuoi ucciderlo devi adeguarti a lui.

1080i
Quando venne discussa la HDTV digitale, che ad oggi NON E' STANDARDIZZATA come formato(oppure sono cosi' pollo da non trovare doc in merito) nessuno pesava ad un esercito di beduini che si lanciavano ad acquistare un pannello.
Si scelsero 2 forme 768p per lo sport e 1080i per lo statico. Nota che occupano pressoche' la stessa banda. Il cinescopio sarebbe passato in maniera trasparente dall'una all'altra.

per la gigabit
http://standards.ieee.org/announcements/802.3ab.html
vedi un po'.

Stando a Sony BD ha un output max nelle specifiche di 72Mb/s e HD-DVD stando al consorzio 36.
Vado a memoria, forse sbagliando.

La prossima release dello standard portera' i layer da 2 a 4 e un nuovo meccanismo anticopia, oggi non ancora ratificato, e, forse, piu' velocita'.

gli uomini in black, i mib, sono un escamotage per coprire un po di casini di marketing, se dobbiamo usare una stortura rivoglio i fathoms, i furlington, i pollici, le libbre ma sopratutto le pinte di birra!
La mia auto fa i 200 Kmi/s e peso 70 KgifaII avendo una massa di 70 Kgigvk o di 459urcalalla' (siamo fuori o misure Klingon?)

Adoro la semplicita' del SI mKs.

Anonimo ha detto...

Per la parte video mi fido: semplicemente la cadenza dei semiquadri dell'ntsc e' a 59,96 Hz a partire dall'aggiornamento dello standard ntsc, l'rs-170a, nel 1953; fino ad allora il vecchio standard ntsc prevedeva una frequenza di 60 Hz.

Per la gigabit, la pagina che hai linkato parla di "[...]1000BASE-T allows auto-negotiation between 100 and 1000 Mb/s which eases the migration path for customers." Quindi potenze di 10 e non di 2.

Il casino con i multipli del byte non e' uno scherzo: negli anni '60 i computer erano pochi, con capacita' di memorizzazione dell'ordine delle decine di migliaia di byte, e gli ingengeri che vi lavoravano pensarono bene di chiamare "kilobyte" il gruppo di 1024 (2 alla decima potenza) byte, fregandosene altamente del Sistema Internazionale e del significato del prefisso kilo (multiplo di 1000 unita'). Tanto i tecnici capivano subito di cosa si stesse parlando e non si confondevano, e l'errore fra 1000 e 1024 era piccolo, un 2% circa.
Oggi invece e'il caos: quando acquisti un hard disk o un disco ottico, la capacita' e' espressa con i multipli decimali del byte (quindi i 4,7 GB del dvd sono 4700000000 byte); per la ram si usano multipli binari (un modulo da 1 GB contiene 1073741824 byte); per il mondo delle reti, invece, conta ogni singolo bit e i multipli sono decimali (1 gigabit = 1000000000 bit); i sistemi operativi, invece, ragionano ancora con i prefissi binari.

Nota che le differenze in gioco non sono bruscolini: fra un miliardo (1.000.000.000) e 2^30 (1.073.741.824) c'e' una differenza del 7%; nella scala del tera (10^12 vs 2^40) si sfiora il 10%. Sai che bello spiegare alla gente che il loro nuovissimo disco da 1 TB viene visto come 900 GB dal sistema operativo, che non c'e' nessuna anomalia in questo, che nessun gnomo dentro il case si e' fregato la differenza ;-), che la CIA non ha creato nessuna partizione nascosta, che non possono fare causa al produttore perche' una scritta sulla confezione dell'hard disk dice che la capacita' e' espressa in multipli decimali.

Se non mi credi, cerca "binary prefix" con un motore di ricerca: il primo link punta alla wiki [1].

elf

P.S.: viva il kilogrammo forza (kgf) e chi lo approssima col decaNewton (daN) :-D

[1] http://en.wikipedia.org/wiki/Binary_prefix

blu-flame ha detto...

X elf

La conosco la storia dei fintibitti

Qualcuno a un certo punto ha deciso di spostare la misura dei bit e dei byte, ma comunque come non è mai esistito, e non esisterà mai, nella logica di chiamare una nuova misura con lo stesso simbolismo e quella vecchia e contemporaneamente dare un nuovo nome a quella vecchia.
Per me un Kb rimarrà tale.
La cosa divertente è che non sono l'unico pensare in questa maniera, se vai a leggere i documenti di standardizzazione del CD o di altre cose importanti noterà che usano bellamente la notazione "vera".

Per questo motivo non si capisce piu' un ostrega!

Considererò PERSONALMENTE una furberia qualsiasi azienda/ente che utilizzi in maniera non esatta la solita misura senza apporre fra parentesi "decimale" come fanno le più oneste.

Non amo le vecchie misure, così come non sono stato contento quest'estate all'acquisto di una nuova carta nautica di trovare le misure in Fathoms (hah!, gli inglesi!), ma avrei trovato fuori luogo se anziché convertire o lasciare la vecchie misure qualcuno avesse scritto che le profondità sono state rilevate in metri.
Qui è comprensibile capire perché è stata lasciata la vecchie misura: una conversione avrebbe potuto introdurre nuovi errori umani rendendo pericolosa la navigazione. L'eventuale conversione fatta con il regolo a lato della mappa per responsabilizzare il capitano dell'imbarcazione nel controllo di quest'operazione e non l'editore. Va ricordato infatti che in caso di disastro può essere parte in causa l'ente che ha pubblicato la carta.
In altri casi le vecchie misure sono un'abitudine, i cavalli per un'auto o i BTU per i condizionatori. Comunque sia nessuno si sognerebbe di chiamare con il simbolo CV qualsiasi tipo di potenza che non siano i vecchi cavalli.

Mai è successo che nella scienza delle misurazioni si sia chiamato nella stessa maniera, o con lo stesso simbolo di due unità differenti. Addirittura si fa una differenza che, qui sulla terra e nella vita di tutti i giorni è risibile, l'unità massa e forza fanno un distinguo interessante:Kgf.

Oltretutto è assurdo utilizzare un modo diverso per chiamare le unità di memoria e di hard disk in maniera difforme visto che un trasferimento DMA trasferisce da uno all'altro mondo in maniera trasparente come dovrebbe essere il nostro caro amico KByte. Altrimenti il chip avra' un piedino che va a 1,023 e uno a 1000 a seconda dell'unita (con lo stesso simbolo) ma trasportando la stessa roba?
Schersa no!

Un altro motivo per il quale è 1024 e non è 1000 è il fatto che non rientrando nel SI non è obbligatorio che ne mantenga gli standard SI, dopotutto non li rispetta neppure con l'unità di misura: il simbolo del bit e' in base 2 e non dieci: calcoleremo i byte in 10 bit?. Non e' stato fatto con i processori a 16 e poi 32 di toccare il Byte per facilita' (i primi compilatori lo facevano...) adesso lo disallineiamo dalla macchina?

Sarebbe come dire che la bilancia per le mele rosse e in Newton e quella per le mele verdi in grammi.
Se vogliono utilizzare una nuova misura che utilizzino una NUOVA simbologia, per esempio bi e by.

sono eccessivo?

Anonimo ha detto...

Condivido le preoccupazioni sul casino generato, ma devi stare attento: l'unita' di misura fondamentale resta sempre il bit, questa non cambia. Quello che si sta cercando di ridefinire sono i multipli, che condividono gli stessi prefissi!

La situazione e' simile all'Inghilterra dei tardi anni '60 e primi '70, dove regno' un caso monetario causato dalla sostituzione dei multipli e sottomultipli della sterlina a base dodici con quelli a base dieci.

Fino al febbraio 1971 una sterlina era divisibile 20 scellini ed ogni scellino in 12 pence; inoltre esistevano delle monete a valore multiplo: una corona valeva 30 pence, 2 scelini e 6 pence o un ottavo di sterlina; un fiorino valeva 2 scellini, 24 pence o un decimo di sterlina.
Il sistema monetario era ben conosciuto agli Inglesi, che non avevano problemi; i turisti, invece, non si raccapezzavano affatto.
L'idea della decimalizzazione era tuttavia comparsa nel XIX secolo e, per le scomodita' nel calcolo con il resto del mondo, per il successo della decimalizzazione nel Sudafrica e anche per le pressioni dell'Europa, la distribuzione delle monete "decimali" inizio' nel 68 e, dopo 3 anni di transizione, il 15 febbraio 1971 avvenne il Decimal Day [1].

Sostituisci bit a sterlina, multipli ai sottomultipli, "tecnici" ad inglesi, gente comune a turisti e hai il quadro della situazione: tutti intuiscono il bit (cifra binaria e unita' di misura dell'informazione), ma si confondono i suoi multipli perche' hanno lo stesso prefisso. Idem per il byte.

L'IEC ha tentato di diversificare i prefissi preferendo il SI sulle potenze di due ormai assodate: il dscorso e' pressappoco "se kilo vale mille per il SI (kilometro, kilogrammo, ecc), facciamolo valere mille anche per gli informatici; ai nostalgici che non riescono a distaccarsi dalle potenze binarie diamo una nuova e buffa denominazione, il kibi (kilo- binario)". Idem per gl altri prefissi: mega- cambiato in mebi-, giga- in gibi- e cosi' via.

Ha fatto bene, ha fatto male? Non lo so: fatico ad utilizzarli e, se posso, scrivo la misura direttamente in bit (o in byte), giusto per essere sicuro di non sbagliare.
Credo che alla lunga i multipli decimali si affermeranno, cosi' come si e' passati al kw per il calcolo del bollo dell'auto.

elf

[1] http://it.wikipedia.org/wiki/Decimal_Day

Anonimo ha detto...

di base ti darei ragione.
Esiste un problema:
usando i kilobiitti tutte le misure diverrebbero frazionate.

Compreremmo delle memorie da 1,023GBitti
HDD da 1,044565Tbitti
eccetera

Gia', non bisogna dimenticare che
il compilatore,
il SO
i programmi (salvo di far conversioni ridicole)
i chip
eccetera
usano 1024.
Perche'?
perche se fai una chiamata alle celle con un bus di 8 bit non potrai che aver una potenza di due in giro.

Poi esistono i furbi
Prima parlavavo di capienza non formattata (a basso livello) poi han cominciato a giocare con i decimali.
Piacerebbe capire se trasformeranno anche i byte i 10 bit.

Spero per gli inglesi che
al cambio decimale/dozzina siano cambiate le monetine, ma penso di si.

Anonimo ha detto...

Non preoccuparti per i compilatori e i software, quelli lavorano e lavoreranno secondo le convenzioni della macchina: nei computer, le potenze di due (vi sono stati tentativi per creare macchine con circuiti a base tre e dieci negli anni '60, ma non sono mai andati oltre il prototipo); quella che cambia e' solo la rappresentazione per l'utente.
Quando chiedi ad un qualsiasi os di indicare la dimensione di un file, lui la legge in binario e la converte in cifre decimali prima, in multipli del byte poi: si tratta di cambiare solo l'utlimo strato.

I numeri non interi (i famosi 1,074 GB di ram) sono un non-problema per la macchina (che vedra' sempre 1073741824 byte), sono un problema solo per le convenzioni adottate dall'informatica 40 anni fa'.

Infine l'Inghilterra ha cambiato le monete: le banconote erano gia' in tagli decimali (5, 10, 20, 50 sterline) mentre le monete passarono dai vecchi penny / pence ai "new penny" / "new pence". A partire dal 1982 le monete persero la deonimazione "new" e sono chiamate semplicemente penny e pence.
Un collezionista ha le collezioni delle monete prima [1] e dopo [2] la decimalizzazione.

elf

[1] http://worldcoingallery.com/countries/GreatBrit_all1.html
[2] http://worldcoingallery.com/countries/GreatBrit_all2.html

elvio ha detto...

Ti ho scoperto oggi, perchè sei inscritto tra i primi inclusi al miglior blog tecnico 2009. Ottimo il post finalmente qualcuno la dice chiara e lo dimostra. Ho un piccolo blog di divulgazione tecnica ed ho provato varie volte ad imporre questi discorsi, oltre al fatto che sono molto più superficiale e semplicistico di te, i lettori comunque non capiscono, preferiscono credere alle favole. Se non ti disturba ti segnalo una raccolta di miei post sullo stesso tema e dintorni, gradirei un tuo parere. il link è qui http://www.stampolampo.it/dblog/cerca.asp?cosa=analogico&Cerca.x=0&Cerca.y=0&Cerca=Cerca
Grazie Elvio