Continuo a vedere ignoranti, altro non sono, che inneggiano al fatto che l'occhio vedrebbe 500FPS.
Assomigliano molto a quelli che vedrebbero 500 megapixel, non trovate?
Se vedessimo tutta quella roba molti trucchi magici e le lenti dei cecchini sarebbero inutili.
Ma forse e' solo un po di gente che si crede Dio e la prossima che ci dice e' che sanno camminare sulle acque.
Ovviamente quando poi porti motivazioni logiche a dimostrazione della questione essi partono con:
“ma io lo vedo”
“il test che ho fatto io”
“se tu provi cosi' cola'...”
Ovviamente tutti test che hanno problemi di uniformita' e mostrano difetti nel test piu' che rivelazioni che scardinerebbero 100 anni di scienza.
Esattamente come gli idioti del 4k.
Perché una cosa e' essere ignoranti, altro e' essere convinti
del proprio credo facendo "test" che dimostrano che il gelato e' dolce
e il testante capisce che la fronte e' fresca per la dolcezza.
Da
cui: se il gelato e' dolce la fronte e' fresca: dolce=fresco.
Il
fatto che il gelato sia freddo non entra nell'equazione di queste
menti idiote. Se fai notare che il gelato e' a -18C ti dicono che a
loro non interessa: a casa loro il gelato funziona: dolce=fresco
Certo che
funziona, ma non perche e' dolce (o 4k).
Come le bestie da zoo che dicono che con un monitor da mille mega Hz vedono fluido il mouse o come spostano le finestre, pertanto loro vedono gli "erzi". Vien da pensare che i campi di rieducazione non erano tanto sbagliati.
Non parlo neppure del fatto che ci sono imbecilli che pubblicano su YT filmati a 60FPS che fanno notare la differenza fra 60 e 144FPS. Ops, la matematica questa sconosciuta, per fare questo confronto il filmato dovrebbe essere da 300FPS e visto su un monitor da 300FPS. Oltretutto molti di questi sono fatti con webcam.
Questo racconta bene che quello che vedono e' tutto tranne l'aumento del framerate.
Potrei finirla qua.
Ma sono stolto.
Smontiamo uno per volta questi
poveretti e partiamo dalle basi, per poi andare nel perché i loro
test falliscono.
Partiamo dalle premesse:
-1 come avviene per la risoluzione l'occhio NON e' il sensore di una telecamera, non e' uniforme, quadrato e piano. Vedi il mio libro gratuito che entra nello specifico della disposizione.
-2 per alcuni parlare di FPS di un
occhio e' “digitale”. Secondo loro e' un continuo.
Ni. E'
continuo e questo peggiora le cose, non le migliora, e il tempo
d'integrazione comunque non cambia anche se la scansione non e'
uniforme e sincronizzata. Non e' che perche' non esistendo un clock
che automaticamente questo ne aumenta la velocita' di
scansione/velocita' all'infinito. Altrimenti potremmo udire gli ultrasuoni e forse i radar con il nostro
orecchio continuo. Esistono sempre dei limiti nella cosetta che si
chiama realta'.
-3 l’occhio non va oltre i 10fps nella piccola e misera zona buona e si spinge fino ai 20 nella periferia per poi giungere intorno ai 25 nella zona dove e’ praticamente un bagliore in bianconero, non certo immagini. In realta' la coda dell'occhio vede oltre, ma si tratta di bagliori che possono in situazioni particolari essere notati, non certo di visione stiamo parlando.
Si noti anche che se noi facciamo una
foto con 1/10mo di secondo e muoviamo la fotocamera potremmo trovare
segni di velocità molto piu' alte, come ad esempio i lampi del DLP,
non perche', come mi ha puntato una ricerca un'imbecille su di un
forum, la fotocamera, magari digitale, e' infinita, ma perche' un
movimento della testa o del bulbo possono far stampare lampeggi
singoli anche se parliamo di DUE FPS.
E' il famoso problema del
rainbow dei mono DLP con la ruota colore da soli 3 segmenti. Non a
caso quelli che usano una ruota colore da 6 segmenti sono quasi
immuni.
Non confondiamo il fatto che un sensore in movimento puo'
notare discontinuità: io vedo la meddata delle vetture crucche che
pilotano gli stop a 30-40Hz, ma non perche' vedo 100Hz, ma perche il
progettista stolto non ha pensato che i fari si muovessero sulla
strada.
questa foto a "0,05FPS" riprende un LED rosso da 5Hz spiegando perche' e percome
gli occhi potrebbero vedere un battimento sui 24Hz del cinema un qualcosa se muovete la testa
o su un mono DLP che viaggia a 3x60Hz
Ovviamente vedete benone la mia faccia a fianco della modella
(ok, non e' una grande foto ma era idonea)
Per via di questa roba molte cose funzionano benone nonostante siano ben lente:
Guarda caso il cinema spazia fra 18 e 24fps.
Guarda caso la tv viaggia a 25fps (pal)
Guarda caso le lampadine FL lampeggiano a 50Hz
Se fossimo in grado di vedere a 144Hz (numero GROOOOOSSSOOOO) FPS semplicemente rimanere in casa con le luci a 50Hz sarebbe un delirio e gli epilettici sarebbero preda di crisi.
Nessuno, onestamente, e’ in grado di vedere la differenza fa un’immagine a 60fps (tipica dei PC) e 144Hz. In realta’ sui CRT a 60Hz che generano l’immagine MOLTO velocemente si vedeva un piccolo battimento con la coda dell’occhio, muovendosi, eliminabile portandolo a 75Hz. Ma era un effetto del fatto che erano monitor che passavano l’ 80% del tempo spenti mentre mostravano un’immagine.
Come nasce la leggenda dei 144Hz come minimo dei peones?
Avrete notato che tutti i peones convinti parlano di giochi o sono videogamers.
Ci sono diverse ragioni.
in una ripresa a basso fps come il nostro occhio e’ normale
che l’immagine sia mossa, un’esposizione di 1/30 su di una
carrellata DEVE produrre una tale immagine e nel cinema prodotto via
computer si introduce un calcolo di motion blur.
Se manca l’immagine
e’ “strana”.
E' strana perche' se vado a 24FPS, ovvero copro bene i 10FPS dell'occhio, ho un piccolo problema:
La palla che era a sinistra scompare e
appare a destra.
Non e' quello che accade nella realta'. Le palle non svaniscono nel nulla e non hanno il teletrasporto.
Il mio occhio, nella realta', vede una palla a sx e poi un strisciata che la PORTA a destra, proprio perche' l'occhio e' lento. Basta quindi avere un'immagine “mossa” per replicare la realta' che ci aspettiamo, a cui siamo abituati.
E' ad esempio per questo che chi usa
una fotocamera o un cello per fare video sbaglia clamorosamente.
Sulla fotocamera si puo' anche fare ma e' complicato, sulle
videocamere e' invece insito nella progettazione e fa parte del
flusso di lavoro. Il camcorder e' ancora un altro pianeta per i video.
Questo e' il primo problema: i giochi non calcolano il motion blur e sembrano andare a scatti anche quando non lo fanno.
Perché i videogamer continuano a rompere il caxxo per cose che non possono vedere come il 144Hz?
I monitor LCD di rado (anche quando vi
e’ scritto 144 milioni di miliardi di bau bau) vanno oltre i 40FPS.
Perche' i nostri eroi comprano monitor con l'elettronica che ha
un
FRAME RATE da 240Hz pagandolo una barcata, ma ha un pannello
che ha un
REFRESH RATE elettronico da 60Hz e una
VELOCITA'
FISICA da 40FPS o peggio.
Gia', molti monitor gamer vanno a 40FPS
o meno... se si leggono i data sheet dei pannelli montati
Eppure tutti questi tonti si sveneranno tagliandosi le vene in strazianti ulluli per giurarvi con il sangue appena estratto dalle vene con cotanto dolore che LORO VEDONO UNA DIFFERENZA fra un monitor scrauso e uno a 240Hz.
La risposta e' Si, idixta, vedi una differenza, ma non e' perche vedi piu' di 10FPS e continui a vedere 10FPS circa. E' perche' stai barando, tonto.
Ci sono 2 motivi per i quali vedi delle differenze e gran parte e' di cheat (o speranza di).
La prima cosa e' storica.
I videogiochi per anni raramente andavano a piu' di 10FPS e quando le scene complesse arrivavano non era strano scendere sotto, molto sotto.
Inoltre i sistemi erano a 50Hz e il sinc deve essere perfetto.
Se tu generi un'immagine in un decimo
di secondo (0.1) e poi devi aspettare un altro cinquantesimo perche'
e' appena passato il sincro (0.1+0.02=0.12) non solo e' passato un
bel po di tempo ma hai appena causato un ritardo al prossimo frame.
Oltre tutto stai arrivando con un
fotogramma che arriva dal passato. Alla fine e' un bel po', piu' di
0.22s ed e' incostante.
Parte di questo problema venne risolto iniziando a produrre il fotogramma successivo mentre si attendeva l'arrivo della scansione, in pratica guadagnando preziose decine millisecondi.
Inoltre aumentare la potenza dei
computer portava a grandi miglioramenti della giocabilita' dei
giochini alla doom in ambito multiplayer.
Si era notato che aumentando i FPS diminuivano le latenze. Ricordiamo che non era raro vedere cali sotto
i 6FPS.
Perche', ricordiamoci, doom era fatto
cosi' perche' all'epoca non si poteva diversamente. Oggi e' da roba
di serie B.
Si era notato inoltre che la modalita'
di test in cui ci si sganciava dal sinc era piu' performante al
salire di FPS, in genere perche il gioco e' di medda.
Le latenze spesso, oltre a sommarsi,
si influenzano fra loro. Avere un mouse con il cavo magari guadagni
un centesimo, che si somma a quello della connessone con un router
piu' sveglio, che si somma a quella dei FPS o causa un ritardo ad
altro.
Alla fine per molti era ovvio che portasi dai 20FPS di
picco a “riempire” i 60 era un vantaggione monstre e andare oltre sulla
carta era qualcosina di piu'.
Ricordiamo che l'immagine che si
vede e' comunque quella del passato.
Gli ultimi monitor LCD, riprendendo
quello che facevano suii CRT dell'epoca d'oro per i test, possono iniziare a
ricevere lo schermo quando il frame e' pronto e non quando arrivera'
modificando il proprio clock.
Ma e' una stronzata, in pratica si
inizia a rifare un'immagine prima che quella precedente e' stata
presentata, se e' molto diversa anche su un lento LCD si vedra' la
linea d'interruzione del flusso dati, se e' poco diversa ci saranno
immagini fantasma date dalla persistenza (ovvero lentezza) dello
schermo LCD.
La cosa e' pure standardizzata con il
nome di freesync (idiotsync sarebbe meglio)
Serve a zero e combina solo danni.
a questo punto riprendiamo il discorso del ritardo della presentazione fuori sincro.
Quando hai un monitor da 60Hz e vuoi
essere sul pezzo devi avere un sistema o che e' completamente
sincronizzato, come puo' essere un VHS una DV o i primissimi giochi pong
style, oppure devi essere IN GRADO DI poter operare ad oltre 144Hz di minimo anche se poi vai a 60 di prodotto perche il monitor e' da 60.
Facciamo l'esempio di una scheda che arrivi si a 140FPSdi picco,
ma debba scendere a circa 60FPS per gravosita' (nella realta' ci sono piu'
escursioni). La cosa drammatica e' che ci saranno
fotogrammi che arriveranno in tempo per i 60Hz e al massimo saranno
presentati con un ritardo di 1/60, ma ci saranno anche fotogrammi che
avranno un ritardo complessivo di 2 fotogrammi mancandone uno. Per arrivare bello fresco a 60FPS centrando sempre l'obbiettivo devi essere in grado di elaborare in 1/120 di secondo.
Mancare un fotogramma, o due come nella realta', si vede perche' DISCONTINUO.
Anche in questo il peone con il monitor da 60Hz (targato 200Hz) presentando 144Hz non vede tutti scatti, scatti che ci sono comunque perche' la VGA non e' in grado di mantenere i 144Hz, non perché l'occhio vede piu', ma perche' i rallentamenti non sono cumulati e la lentezza del povero LCD mischia con un bel effetto cometa il tutto rendendo la cosa progressiva.
Ecco perche gli LCD da 144Hz montano pannelli da 40FPS, i 144Hz servono per diminuire la latenza e diminuire i ritardi di quadro, non per andare a 144Hz "per sul serio".
Anche la visione cambia PER UN GIOCO MALFATTO che non ha il discorso del motion blur.
Se presentiamo 144 fotogrammi su di un mezzo che ne puo’ produrre 40 e non e’ definitivo (un LCD non genera da zero un’immagine in un 1/50000 di secondo come un CRT), ma ci mette tutto il luuungo tempo di 1/40 per assestarsi avremo degli innegabili vantaggi:
un motion aliasing “meccanico” dato
dalla lentezza degli LCD. In pratica vedremo piu’ fluido un gioco.
Vediamo “peggio”, ma il peggio che siamo abituati grazie alla
sommatoria di due errori.
Su un LCD scrauso (non IPS) potremmo
addirittura vedere immagini con piu’ colori.
Non dovremo spendere soldi nella
produzione del motion aliasing a livello ingegneristico e
risparmieremo almeno il 60% sulla VGA.
Perche allora nessuno fa un gioco che calcola il motion blur?
Ci sono 2 problemi
Il primo, piu' grave, e' che un gioco che dichiarasse un limite di 60FPS o, peggio, 30FPS, completamente sufficienti per una visione perfetta farebbe dar fuori di cranio gli hardcore gamers che ormai esigono il piccolo boost che hanno rispetto ai casual gamers: Io so figo e tu che arrivi per caso devi morire.
Oggi e' normale vedere schermi assurdi da 17” in 4k ed oltre e persino a 240Hz. Poi gli mettono una tonnellata di anti aliasing, ma vabbe'.
Una VGA che costa 250E e' per costoro robetta.
Il secondo e' che dovrebbe presentare il presente (che e' gia' il passato) e calcolare il suo passato. In pratica diverrebbe molto passato. Per calcolare un 30FPS non solo dovrebbero esserci algoritmi che capiscono il moto, ma il calcolo computazionale e' grosso modo quello di un paio centinaio di FPS.
Quindi sarebbe costoso di calcolo senza pero' l'etichetta “140Hz turbo led megacosi”
Ricordiamo anche una cosa:
Tutto questo, il monitor pompato, il
mouse speciale, la GPU grossa eccetera, e' CHEAT.
Lo so che al
gamer non piacera', ma e' cheat, esattamente come lo era il joystick
che spara velocissimo da solo per il C64, o i programmini per mirare
in automatico che sono tanto diffusi fra i cheater, e siccome e'
esterno non e' controllabile. Quasi.
Facciamo un esempio banale: io prendo un giochino per android che e' giocato con un affare che
consuma un tubo con una GPU da 3W, uno schermino da 5” e una WiFi
che non puo' essere certo monstre, e lo sbatto su di un PC Ryzen 7
con una skedona da urlo da 200W, connessione in fibra, lan 1Gb e un
monitor da 28” dove mirare benone.
Gia', perche android ci gira
tranquillo sul mio x86, non ho ancora provato se funziona il touch,
ma non ci hanno ancora pensato i cheater?
Secondo voi, che chance ho di sverniciare il tipo che ha in mano il telefonino con un R7 un 28" e una RX?
Ecco perche' un gioco appena appena che dovesse essere serio dovrebbe limitare i frame a 60FPS e dare un tetto alla velocita' di lettura periferiche, non piu' legate allo schermo, diciamo, 10Hz?
Il problema e' che un bimbo di 12 anni penserebbe subito che e' un brutto gioco perche' e' ha soli 60FPS.
Per i cheater dei 144Hz vorrei fare
anche un'altra riflessione.
Gli esseri umani riescono a premere un
pulsante vedendo la luce in 350ms se persone comuni e 200ms se piloti
di auto o top gun.
Si noti che si tratta di attivare le parti che
non “vedono” ma “percepiscono” la luce dell'occhio.
Sono 2 cose diverse intravedere una
varianza di luminosita' e vedere un soggetto.
Giusto per capire quanto l'occhio e' maledettamente lento, uno stimolo audio permette
al soggetto medio di reagire in 200ms anziche' 300ms. L'orecchio, e' molto piu' veloce e facile da elaborare.
Immaginiamo quindi il nostro top gamer
che ha le reazioni da pilota che vede un nemico arrivare sulla scena,
il suo cervello vede una varianza luminosa dopo 200ms, su un 60Hz
sono passati 12, DODICI fotogrammi perche' abbia compreso che una
esplosione lo ha colpito, un QUALCOSA sia arrivato o altro.
Perche
ancora non ha visto nulla. dopo DODICI fotogrammi.
Ci vogliono altri 10 fotogrammi perche si
renda conto se e' un nemico, un passante o un bonus. Figuriamoci
mirare e sparare.
Capiamo che con un ritardo cognitivo di 0,3/0,4s il fatto che noi generiamo un immagine con un ritardo di 0,016s o in 0,008 non cambia sostanzialmente un caxxo.
Oltretutto se contasse veramente il
tempo di visualizzazione i gamer farebbero carte false per i CRT strappandoseli
di mano come nel black friday dei film di jerry lewis: per un CRT
che fra il tempo di input e quello di visualizzazione a 60H
dell'immagine definitiva guadagna quasi 0.02s sulla parte bassa
dell'immagine e quasi 0.03s sulla parte alta. Decisamente di piu' che
la presunta differenza fra un monitor da 60Hz e uno da 144Hz.
Sulle f
piu' alte, ricordiamo che i CRT degli anni 90/00 arrivavano a 200Hz,
la differenza e' ancora piu' alta.
Dovrebbero strapparseli dalle mani come reliquie.
Ricapitolando:
in un immagine video 24FPS e' decente e andare oltre i 48Hz e' poco utile e 60Hz sono moltissimi, già troppi da gestire.
In un monitor da ufficio LCD i 60Hz sono fin troppi, su un CRT 75Hz per i battimenti.
I giochi sono un mondo a parte e se
aumentare oltre i 60Hz rende leggermente meglio l'immagine per
problemi dovuti al design degli LCD e dei giochi, cosa in realta' non
frega a nessuno visto il fatto che snobbano gli IPS e la grande
libidine nel disattivare il sync. Ma quello che interessa e una VGA
che POSSA, non DEVE, essere in grado di fare 144Hz
per fare 60Hz su un monitor 60Hz.
In realta' la vendita di queste assurdita' e' che si tratta di una corsa agli armamenti per un gamer che pensa di essere “pro” chiuso nella stanzetta
in fondo alla classifica e' solo una vana speranza di avere un cheat
“legale” che gli consenta piu' birra.
Poi aggiungiamo che i monitor LCD piu' veloci quasi sempre si vedano da schifo completa l'opera.
Quindi quando leggete "gaming" 144Hz o peggio e' un monitor da evitare.
Soprattutto se non lo usate ESCLUSIVAMENTE per giocare.
6 commenti:
Ciao,
ma dai per scontato che i videogiochi siano solo sparatutto: Civilization, Command & conquer, age of empire e starcraft dove li metti?
Io ci gioco (tanto), con uno schermo lcd del 2004... e a parte il formato e i colori un poco rossicci va benissimo.
N.B: non ho mai sopportato il motion blur nei giochi, perchè rovinare un'immagine perfetta e vederla male? Tanto vale giocare senza occhiali.
Complimenti per il blog,
Ciao,
per quanto mi riguarda fregac@zz el gaming competittivo, ho più di 40 anni ormai mi mancano proprio i riflessi e comunque non lo sopporto. Ho però la passione per i PC e quindi anche un monitor a 120hz, con gsync. Ora io devo ammettere che da quando lo uso e vedo che i frames (stimati dal contatore probabilmente, non reali, insomma come dici tu) viaggiano intorno ai 100-120, noto una sensibil,emte maggiore fluidità delle immagini. Le rotazioni dell'inquadratura e i movimenti a schermo sono decisamente più fluidi, puliti se vogliamo. Occhio che parlo di percepito, quindi di risultato finale che migliora ne mio caso la fruizione del gioco. Non mi è chiaro il discorso che fai sui 40 fps anche se lo schermo è da 144-millemila hz.
Ti leggo sempre e apprezzo tutti i tuoi articoli tecnici, sempre interessante, un saluto
Franco
Potresti fare un esempio di monitor spacciato per 144Hz con invece un pannello da 40?
Ho cercato qualche monitor a caso e il datasheet del pannello risultava sempre in linea, boh...
al momento non ho monitor smontati del genere.
Cmq una cosa e' il PILOTAGGIO, che anche lato pannello puo' essere elevato, altro e' l'indirizzamento fisico che in TUTTI i casi visti e' 60HZ.
Ovvero il pannello RICEVE i dati a 144Hz ma i pixel vengono pilotati in 1/60 e, la cosa piu' divertente e' la generazione del LCD: Passano per i monitor decenti (dimentichiamo quelli che si fanno sverniciare da un mivar degli anni 70 in TN) ci mettono una vita, una volta indirizzati i pixel, a generare l'immagine.
Se si esclude quel tempo... arrivano nei casi piu' fortunati a un ratio di 40Hz post generazione.
Magari trovo documenti specifici e ci faccio un post come sugli ampli da 5W spacciati per 1000W.
Tralasciando il fatto che i monitor gaming vengono fatti tutti in TN perchè con minore latenza delle altre tecnologie ma con uno spazio colore non all'altezza e un angolo di visione pessimo, come molte volte hai spiegato quella dei millemila herz è una cagata, ma restando sul fatto del freesync/gsync pensavo che quella fosse una bella mossa per evitare le linee di mancata sincronia verticale senza mettere il vsync normale che va a sottomultipli di 60 quando la scheda non regge (penso perchè non ho mai osservato direttamente). Quello che noto io, più che la differenza tra 40 e 60 frame costanti sul mio pc sono i cali, soprattutto da 60 a 30 se la scena diventa impegnativa, ecco che forse la fissa di avere millemila fps è data dal fatto che se scendi da 150 a 100 fps non ti cambia niente a livello visivo. Per il discorso motion blur, e stesso discorso il DOF, per me non ha senso, i giochi per come vedo vanno bene e aggiungere effetti che non sono paragonabili a quelli reali (se giro velocemente gli occhi vedo qualche scia non vedo il mondo sfocato, stessa cosa il DOF, è inutile che mi metti gli oggetti lontani sfocati perchè guardo vicino, non è un filmato che il fuoco lo decide il regista, sono io che decido cosa guardare a schermo quindi va pure bene che sia tutto a fuoco) quindi si possono levare che si alleggerisce pure. Quello che sarebbe interessante è uno schermo dove si vede bene e si ha un livello del nero assoluto come i CRT, peccato che gli oled non sono ancora maturi in ambito PC a causa del burn in e costano, perchè l'unica altra alternativa che ho visto è un eizo con doppio pannello ips, largo come si deve per canalizzare la luce senza bleeding, con lampade potenti come non mai per superare gli lcd con gran luce e con il risultato di una fedelissima gamma cromatica e un livello di nero assurdo. peccato che costa come la mia macchina.
In effetti mi sono chiesto lo scopo di tutti quei pixel e di quelle frequenze così sbandierati nelle caratteristiche dei monitor; la risposta arriva quando leggo il numero di "fotocamere" di cui sono dotati i telefonini: puro marketing
Ps
Da uno preciso come te non mi sarei mai aspettato un errore così grossolano: le lampade FL (alimentate con reattore elettromeccanico) "lampeggiano" a 100Hz, cioè in un secondo si accendono e si spengono 100 volte
:-)
Posta un commento