La cosa strana e' che oggi, con in uscita i nuovi portatili di apple si fa la hola alle grandi prestazioni... nessuno pone domande.
Non voglio dire che non siano, ne che
siano, bei PC.
MA non sono confrontabili.
Chi dice che sono meglio, secondo me, sbaglia nel dirlo, anche se lo fossero.
Prima cosa: il primo M1 era una
schifezza che era maledettamente limitata.
Certo ci sono miliardi
di utenti che non necessitano di avere 2 monitor, di avere piu' di
16GB di ram CONDIVISA, eccetera.
E' una cosa “furba” e stupida
alla stessa maniera.
Se dovete fare fotoritocco di una reflex
molto piena di pixel con una fraccata di layer e finestre o siete de
producer sono pochi.
Una VGA ha ormai 4GB di RAM di media e un PC
con 32+8GB non e' solo una fantasiosa follia come poteva essere 15
anni fa, oggi su una WS portatile non e' cosi' strambo come si nota
dai cataloghi dei PC portatili.
M1 nasce con un limite di 16GB
totali... che e' pochino per un grafico al contrario di quello che dicono i giornalisti.
Avere un processore con un I/O debole permette di usare risorse per altro e consumera' di meno e andrà piu' veloce.
Ma non e' un processore generico.
Tanto per dare l'idea di quanto NON e'
un processore generico la RAM, per avere piu' velocità e meno
consumi e' montata come nei cellulari: cablata SUL processore.
Questi sono gli yabba dabba super tech che racconta apple
tradotti in italiano: ram saldata sul processore.
In pratica non deve avere un controller di
memoria e un canale dedicato.
Questo vuol dir che un upgrade e'
impossibile.
Comprate il PC con 8GB di ram e fra 2 mesi scoprite
che volete fare qualcosa di piu' che guardare FB?... comprate un pc
nuovo.
Io non penso di aver mai avuto un computer, che non sia un telefonino, che sia rimasto con la stessa ram e li uso dal 1981. Su almeno 30 PC ram e HDD si cambiano, sui fissi anche altro. Ma forse sono solo un vecchio babbione che non vuole buttare un PC dopo un anno o due.
Stesso approccio per gli HDD.
Il
processore non ha una linea uscente che poi verrà connessa ad un
HDD. Il NVME dell'SSD ci connette direttamente alla CPU. Certamente
questo approccio aumenta la velocita' e diminuisce i consumi... ma al
momento, a quanto pare, non puoi connetterne 2.
Qualcuno inoltre puo' dire che il nuovo
processore M1max ha finalmente la ram di un processore di 10 anni fa
al top. Ma, mi raccomando, dovete comprarlo solo in versione 64GB,
almeno se lo usate /userete per quello che servono quelle RAM anche
fra anni.
Perché se dovete fare lavori per cui vi serve una VGA da
8GB (qualcuno ne abbisogna) se avete preso la versione da 32 non vi
trovate con una gran RAM.
Pero' la domanda e': e' ancora
prestante?
Pare di si, ma non ha ancora tutti gli I/O. Per carita', e' diventato quasi standard come un AMD, ma manca ancora qualcosa e nel frattempo ha iniziato a consumare molto di piu'. Come volevasi dimostrare.
Quanto di piu', o di meno e' difficile da dire.
Poi esiste la questione dello stampaggio.
Oggi M1 e' un processore stampato o 5nm. E la dimensione CONTA.
Il processore x86 piu' vicino e' l'AMD con GPU. Amd e' per la maggior parte dei decenni stato il processore x86 piu' veloce.
Il fatto e' che pero' l'Amd e' stampato
a 7nm dalla stessa azienda che produce gli M1, questo e' gia'
interessante: cosa succede se stampiamo a 5nm gli AMD?
Quanto
migliora?
Perche' oggi apple puo' stampare a 5nm perche' sono in
grado di saturare la poca produzione. Ma se TSMC amplia la produzione
fra 2 mesi?
Vale la pena ricompilare il mondo, o per un utente ritrovarsi un mondo nuovo, per un aumento di performance di breve periodo?
Poi oggi non possiamo far girare lo stesso programma con lo stesso OS su AMD e su M1, quindi non sappiamo se effettivamente e' cosi', nonostante le semplificazioni e i limiti di M1
Perché ricordiamo una cosina ina.
I
confronti odierni vengono fatti solo fra MACx86 e MAC-acorn.
Stiamo parlando di un SO che, probabilmente, non veniva piu' aggiornato contro uno che non e' ancora “normale”.
MAC-acorn non deve prevedere una
pletora di processori, non deve essere compatibile con niente che non sia M1.
Ricordiamo che sebbene MAC non prevede tutti i processori e tutte
le VGA, come sanno i pazzi che usano gli hackintosh, essendo uno unix
sarebbe semplice aggiungerle, basterebbe usare i driver di un BSD, ma il problema e' che mancano le
fondamenta per farlo, ovvero se non metti mano alla parte
proprietaria del codice non aggiungi un tubo.
Per aumentare
l'efficienza e la pulizia del codice si e' deciso di non usare tutte
le tecnologie esistenti, ma solo quelle scelte di anno in anno.
Questo ovviamente e' molto limitante, pensiamo solo a macchine
costose che non possono usare processori AMD ed e' il motivo per cui
non brillano nei videogame (Nvidia ottima solo per i gamer).
Il tunning e' molto costoso, del resto lo dimostra MS che ha toppato per anni con Amd e lo fa ancora con win11.
Normalmente un OS viene fornito con una serie di pre compilati che DOVREBBERO essere migliori per una serie di macchine, ma ci sono scelte che possono impattare a monte della compilazione.
Non a caso lo stesso programma che gira
sotto linux rispetto a windows non e' raro che voli dal 5 al 20% in
più.
Se poi si ricompila...
Gia', ai tempi le distro si usava
compilarle come kernel e ci si metteva parecchio.
Se si
escludevano cose che non si possedeva o non si intendeva usare come
le USB o i floppy, alcune cose vecchie, si arrivava ad avere
miglioramenti anche di due cifre. Mi ricordo anni fa che il mio PC,
che tutti pensavano nuovo perché un missile, ci ho perso 2 giorni
perche' avevo spento qualcosa che non ricordo e non riuscivo a far
funzionare uno scanner che sapevo non avere problemi.
Ora immaginate il MAC-acorn che non
deve prevedere 15 generazioni di processore, non deve prevedere di
usare piu' di una certa RAM, non deve neppure prevedere di gestire un
canale della RAM, che puo' cambiare al boot, non deve gestire una
VGA, non deve gestire coprocessori esterni sul BUS di sistema.
In
pratica e' un OS che andando ad occhio pesera' la meta' almeno di uno
“normale”.
Del resto oggi potrebbe persino non gestire il bus PCI
(l'anima di un pc odierno) completamente, non a caso nelle centinaia
slide non e' neppure citato, non sappiamo che versione e'
implementata nonostante e' una informazione essenziale nel mondo dei
computers.
Sono solo citate le velocita' verso la RAM NEL
processore (e ci credo) e altri vantaggi dati dal fatto che e' un
processore da telefono.
Capiamo che non e' un confronto serio.
Per due motivi.
Il primo che se dovesse essere di successo (e
spero che non lo sia per paura che si diffonda altrove l'approccio
minimalista blindato) comunque il SO diventera' piu' complicato con
il passare degli anni.
Il secondo e' che se vuole sbarcare sul
mercato generalista comunque dovra' cominciare a prevedere schede
esterne. E sul desktop fare un PC da 3500E a cui non posso
neppure aumentare la RAM o la VGA la vedo strana.
Anche in questo caso e' un
vantaggio solo momentaneo e solo fra i due mac.
Capiamo: se costruissi un AMD R7-xxxxG senza un sacco di feature, con la ram nel processore e ci ricamassi una versione di linux compilata che non prevedesse gli intel, i vecchi R7/FX degli scorsi anni, le VGA eccetera, anche se fosse piu' veloce dell'attuale, e lo sarebbe di molto, non sarebbe un pc generico.
Magari e' la via del futuro.
Processori e PC usa e getta, SO
compilati in maniera esclusiva sono gia' fra noi, ma si chiamano
cellulari.
Non a caso si vorrebbe unificare e spostarsi verso il
mondo desktop per semplicare il mondo ed eliminare alcuni fork.
Del resto molti utenti non hanno mai
uppato il PC nella loro vita e non vedranno differenza essendo nati
con i cellulari. Del resto un cellulare non dura 3 anni e un PC e'
ormai normale che possa durare 10 anni (complice intel che per 5 non
ha fatto innovazione).
Del resto, al contrario, negli anni 90
cambiare processore e mainboard era una cosa che avveniva molto
spesso, oggi potrebbe diventare normale cambiare l'intero PC
monolitico ogni 2 o 3 anni.
ARM e' certamente un processore che nasce piu' moderno, quando e' nato, 1985, non era malaccio, ma era sempre una versione ispirata ad un vecchio processore, il 6502, elegante fino a che vuoi, ma vecchio.
Quindi, in teoria, ARM e' meglio di
x86, qualcosa che deve mantenere compatibilita' con il primo
processore mai prodotto nato quando non si sapeva come fare un
processore ne cosa avrebbe dovuto fare e con le velocita' difficilmente
ipotizzabili ieri di oggi.
Pero' occorre ricordare che oggi un
processore x86 e' tutto tranne che un CISC vero, e' un complesso
oggetto che INTERPRETA istruzioni CISC con parolacce come
microcodice, micro-ops eccetera da schiantarsi nelle pipeline. E
questo affare e' nato con enormi finanziamenti perdurati per
decenni.
Ma a quel punto vi e' da chiedersi perché non usare
piattaforme che nascono proprio per staccarsi dal vecchiume come
MIPS, SPARC, o… POWER10.
Perché non e' stato usato POWER?
Power oggi e' probabilmente il processore piu' notevole. In piu' oggi e' anche OPEN. Meno costi rispetto ad ARM
Un pochino di storia...
Ad un certo punto sia IBM che motorola
si sono resi conto che i processori che vi erano in commercio erano
un frutto di compromessi che stavano complicando le cose e sarebbe
stato costoso, e francamente assurdo, proseguire su quella
strada.
Cosi' IBM ha sviluppato il progetto POWER.
Motorola
era in affanno.
Da un lato aveva dei processori che faticava a
sviluppare sempre piu' complessi, il 68040 era in maledetto ritardo,
dall'altro aveva un RISC (88000) che par non fosse malaccio, ma
faticava sia a trovare clienti che ad essere sufficientemente
finanziato.
Dopotutto una grossa parte del denaro dei processori
proveniva da Apple, che ovviamente aveva anche prototipi basati sul
88000
Del resto intel, con un income mostruosamente piu' alto
aveva gli stessi problemi a sviluppare quella ciofega del 80486.
Diciamocelo, il primo pentium faceva pena.
Così motorola prese POWER e lo rese compatibile, semplificandolo, con le mainboard 88000 e quindi anche di apple.
Cosi' nascono i PowerPC che sono delle riduzioni di POWER.
Il fatto che power e' molto efficiente,
ma ad ogni release di POWER si devono fare le modifiche per trasformarlo in PowerPC e
puo' farle anche IBM.
Cosi' negli anni PowerPC incontra un
discreto successo incapsulato in stampanti e altri chip non espliciti
(embedded), successo ancora oggi importante dove l'efficienza conta.
Viaggia sui videogame dove diviene un monopolista
(dalla nintendo Wii alla xbox passando per la sony PS) con il nome di
CELL.
Pero' per piccoli volumi come quelli di Apple motorola non lo trova conveniente, le entrate non possono reggere lo sviluppo e motorola e' in leggero ritardo di sviluppo perche ovviamente sta gestendo 3 generazioni di PowerPC (odierna, prossima, futura).
Si arriva per apple all'assurdo di chiamare APPLE
G5 il PowerPC G4 meglio stampato comprandolo da ibm snobbando
motorola.
Il fatto che a quel punto non conveniva a motorola
realizzare il PowerPC 7500, ovvero il PowerPC G5, ne il G6 gia' in
pre-progettazione: il giorno dopo avrebbero potuto essere stampati da
IBM. Apple non e' stato un partner affidabile.
Con la furbata di Apple motorola si
ritira dal POWER e Apple non ha nessuna intenzione di accollarsi i
costi per portare PowerPC G5, quello vero, sui propri PC, ne i costi
per mettere un vero POWER sui sistemi desktop con il problema poi del
mobile (i POWER pompano, ma bevono). IBM non ha intenzione di anticipare i soldi per la nuova generazione di PowerPC, cosi' che la gen G5 avverra solo dopo molti anni.
Si noti che ad oggi ci sono molti PowerPC in situazioni interessanti, come sul'F35 e sebbene d nicchia non e' certo un processore obsoleto sebbene non allineato al genitore.
Cosi', per risparmiare, apple decide che alla fine era meglio avere processori molto piu' lenti, ma che trova sullo scaffale anche dello spizzicagnolo gia' pronti e a prezzo concorrenziale visto che comunque intel, aveva una grossa pressione da parte di AMD e costavano una cifra molto contenuta con quei bidoni della serie E-XXXX.
Nel frattempo POWER e' giunto alla G10 e sulla carta e' tanta roba. Per la cronaca il POWER 9 motorizza dal 2018 summit che rimane ancora il secondo computer piu' veloce della terra dopo 4 anni dalla realizzazione, qualcosa vuol dire.
Pero' POWER ha nomea nel mondo consumer di essere lento perché una certa apple era d'uso usare le versioni vecchie e a bassa prestazione per i suoi prodotti di punta spacciandoli per novita'.
Quindi suonerebbe molto strano se apple oggi passasse nuovamente a POWER, dove avrebbero competenze superiori, e farebbe accendere un pochino di lampadine sulla gestione di apple.
Quindi certamente M1 non e' difficile che si possa paragonare ad un AMD di pari performance (ram, I/O…) e stampaggio, per molte ragioni e' difficile che sia meglio in maniera rilevabile in un uso normale.
Un processore piu' moderno come POWER e soci invece si. Pero' poi apple dovrebbe spiegare un dietrofront e ammettere sia impegni, errori valutativi e “bugie”.
ARM invece permette di usare un brand conosciuto per essere solido e sembra piu' nuovo di POWER al fanboy, che ironia!
Ancora una volta e' difficile a dirsi
cosa e' migliore.
Certo per un 18enne abituato a buttare un HW per
aumentare la RAM o chi compra un prodotto che mai upgradera' e che
desidera entrare nel fatato mondo apple (quelli che chiamano “late
18” il proprio portatile) pare conveniente e certamente
prestazionale rispetto agli stessi prodotti APPLE con un intel I5-U.
Sul fatto che un PC di apple, con meno
RAM, da 3500$ sia in grado di piallare una WS di HP o simili, di
prezzi similari, qui non si parla di affari da 299 con grafica
discreta, HiEnd con a bordo linux non ci credo molto.
E' possibile, perdinci, ma e' poco
probabile.
Quello probabile e' che sul PC “tradizionale” fra 2 anni posso raddoppiare la RAM, avere un HDD RAID e con un po di fortuna, persino cambiare la VGA o il processore che non sono saldati.
Ho una WS di HP elitebook (i5-3xxx) che ha 3HDD, una docking, 2 batterie con swap a caldo, cose che apple mai ha fornito. Vi assicuro che avere SSD+HDD e' un gran comodo se producete tanto.
Ma nulla mi vieta di incrementare la SSD a dimensioni che all'epoca non esistevano neppure e piantare un HDD di dimensione multi-tera.
La domanda che mi sorge in continuo a
vedere questo procio e' sempre la stessa:
Vale la pena sacrificare
la modularita' che e' stata inventata negli anni 70 da commodore PET, apple II e replicata con i PC-XT per tornare agli home computer in
stile sinclair ZX spectrum?
Se risparmio spazio sul DIE posso
usarlo per aumentare la velocita', ma la velocita' non e' tutto.
Altrimenti avremmo avuto i 64 bit e gli SPARC e i POWER da anni nei
nostri PC e invece abbiamo dei vecchi PC-AT pompati praticamente
identici da 37 anni. Certo abbiamo aggiunto bus migliori, nascosto
quelli vecchi, inglobato il nord bridge, pompato ovunque e di recente
cambiato il BIOS.
Ma alla fine e' una serie di legacy che appesantiscono l'esecuzione, e le istruzioni sono sempre quelle che danno per scontato quell'architettura.
Per anni ho sperato in l'acorn archimedes si diffondesse. Ironicamente quando non mi pareva piu' il caso di volerlo e' apparso un clone nel mio telefono.
Poi mi sono innamorato delle SGI cosi'
veloci con i loro BUS, i loro MIPS e le loro bellissime livree.
Ovviamente piallate dalla corazzata x86.
Questo mi sembra un miglioramento molto piu' corto si quelli che si possono fare o potevano farsi.
Inoltre ARM sui PC ha senso se le
prestazioni sono almeno il 50% in piu' senza trucchi, che non e'
proprio niente, perché bisogna ricordare che sotto il 10-15% un
utente non vede differenza alcuna.
Se do ad un PC, di nascosto, un
overclock del 10% ad un utente generico quasi sempre non vede nessuna
differenza, perché le performance non sono solo date dalla CPU e non
sono ovvie.
Solo nei siti di sexaioli stanno a fustigarsi per una
cifra percentuale, tagliando i grafi perché sembri molto di più
(persino peggio dei giornali dieselisti che millantano coppia!), ma
la realta' e' che oggi, per un uso normale la grande differenza fra
alcun processori e' sostanzialmente una balla pur essendo vera.
Forse e' per questo che apple ha tenuto
segrete le caratteristiche dei PC cosi da non poter far salire linux,
e quindi fare i conti per bene su cosa manca, e fare un bench
serio.
Perché probabilmente una Atom Ariel e' piu' veloce di una
BMW M5, ma non ci posso andare a fare la spesa.
Per chi e' evoluto e laico e' 2 anni che si sta al balcone ad aspettare un benchmark che abbia un senso, magari corredato di quello che effettivamente puo' fare lo scaraffaggetto visto che anche con la seconda generazione non e' ancora chiaro.
La mia opinione e' che un chip M2 o M3 potrebbe essere anche leggermente piu' veloce di un x86 in generale. Per come viene gestito il silicio e per come, alla fine, gira il fumo e' possibile che lo faccia senza gli imbrogli della RAM incollata sul chip, una cosa che da sola lo boosta almeno di un 10%.
Il problema e' che oggi apple puo' riversare fiumi di soldi presi dalla vendita dei cellulari (ha il 50% dei guadagni nonostante il 15% del mercato, come dire, vender a tanto il poco), dei dischi pop e programmini su itunes (la vera gallina dalle uova d'oro) e cacciare dentro fiumi di denaro per realizzare compilatori, CPU e OS specializzati non e' un patema perdere soldi a fiumi.
Perdere soldi e' anche mantenere la leadership in un mercato che ha contribuito ad inventare il Woz, ovvero rendere prestante il marchio e rendere interessante apple anche ai pro, che se erano architetti lo mostravano sulla scrivania, ma poi usavano autocad su windows con un Dell e renderizzano sotto linux.
L'ecosistema ha spinto apple fino al 5%, in pratica i cellulari hanno spinto i PC, ma ricordiamoci che nel mondo non solo esistono mostri come lenovo (20%) e una grossa fetta sono piccoli assemblatori che non rientrano nelle classifiche perche' non sono un marchio. Quando comprate un PC “nome del negozio” non e' conteggiato.
Spendere una fraccata di soldi e fare
cose costose come CPU con memoria e' OK fino a che hai 3 modelli, con
solo 4 step (8,16,32,64) te la cavi con 12 menate.
Se tu dovessi
avere una lineup di solo 7 versioni, 3 per i portatili, 3 per il
desktop e una monstre, avresti un carnaio di 28-30 versioni da
gestire come ordini e gestione del magazzino. Siamo ai livelli di una
Amd con una line up che va dai cosini per i NAS ai server.
Prima o poi arrivera' un azionista che vorra' la tua testa perché gestire gli ordini di tutto quel caos sono costi.
Tenete conto che questo e' gia' successo ad AMD con le GPU RADEON che hanno una memoria simile (HBM, perché non e' che si inventa nulla) e sono tornati ad usare memorie DDR nonostante andasse MOLTO piu' veloce (da 3 a 5 volte). E non a caso fujitsu sui suoi processori usa la HBM saldata sopra con un interposer. Probabilmente "apple yabba dabba memoria figa" sono le HBM del 2015 di Amd.
Ancora una volta faccio fatica a comprendere questo dal punto di vista di apple se non agitare le acque e buttare soldi per fare computer che nessuno puo' dire lenti.
Ovvero rafforzamento del brand, che portera' ad un brand piu' forte come percezione.
Del resto se guadagni troppo e non
investi sul marchio, non potendo certo investire in prodotti nuovi
che causa problemi se non ben gestiti (kodak?) come le auto che tanto
si vocifera, devi spenderli. Anche per abbassare le tasse. Insomma non puoi sperare di vivere sugli allori e continuare a guadagnare come nessun altro senza che qualcuno ti venga a ghermire. Del resto Amazon insegna, non e' certo vendendo carabattole che oggi fa il fatturato, anzi.
Come utente, beh, se sono un fanboy e' una cosa, ma se non lo sono... mi metterei al balcone a bere un the.
un discorso complesso e intricato, molto nebuloso.
11 commenti:
Io li sto aspettando al varco con le workstation (Mac Pro).
Lì se non implementano RAM su zoccolo, bus PCIe, slot per SSD e schede grafiche, si fanno veramente ridere dietro.
Inoltre lì si potrà iniziare a fare qualche comparativa seria con i Threadripper zen 3.
Non sono un fanboy ma uso prodotti Apple da parecchio tempo...Con una certa soddisfazione..
Anche se capisco il punto di vista del PRO riguardo gli upgrade, le espansioni e le altre menate, siamo sicuri che il gioco valga la candela?
Lavoro ancora oggi con un vetusto powermac G5 che fa le stesse identiche cose di quando è stato acquistato. Mai fatto un upgrade, anche potendo. Conosco persone che nel mio settore lavorano con g4 o precedenti senza problemi e senza vergogna grazie ad hardware dedicato.
Quello che ho notato è che mac garantisce (garantiva?) prestazioni costanti nel tempo, per cui la necessità di intervenire con upgrade vari era ridotta al minimo. Questo è specialmente valido se non si seguono le mode del momento, perché solitamente al maniscalco del pc servono sempre quelle 10 cose e gli “upgrade”, leggasi software, che non posso avere sono veramente pochi e non sono ancora tali da giustificare il cambio attrezzature.
In conclusione...Tutta questa flessibilità ha senso se poi la macchina viene cambiata comunque ogni 3/5 anni? Non è forse meglio una macchina limitata sull’hardware che però lavori bene e in maniera stabile per qualche anno in più?
Riguardo ai doppi hdd e compagnia cantante.. nell’azienda dove lavoro tutto il materiale (dati) è in rete nei server locali e il computer personale (HP z book, una macchinetta niente male che credo stia sopra i 2k€) viene usato per mail e poco più: anche i designer (ASIC) hanno le workstation in remoto e si collegano con gli stessi pc. Sinceramente il doppio monitor è l’unico must have, per il resto un pc di 10 anni fa farebbe le stesse identiche cose..Non sto dicendo che M1 vada per forza bene (mai provato e con i miei tempi forse mai lo proverò) ma è un approccio che in una fascia media potrebbe offrire più soluzioni che problemi, anche in termini di prezzo..
My 2 cents, da nabbo dei computer ma che li usa per lavoro da 15 anni:
Per fare il terminale e lasciare il lavoro sporco al server, basta un pc di 10 anni fa come dice LucaL.
Per fare il PC da casa può andare bene ad un non-gamer, ma il prezzo sarà slegato dal lavoro svolto (come qualsiasi prodotto nato solo per esporre il marchio).
Purtroppo non può fare nessuna delle due cose, siccome ha uno schermo solo:
A lavoro avere due schermi è diventato indispensabile anche solo per registrare la contabilità, in certi posti ormai 3 sono lo standard.
A casa io DEVO poter collegare il tv o il proiettore (non mi vengano a dire che il mitico 4K passa attraverso la wifi).
Inoltre chi pasticcia davvero ha bisogno di presa seriale e tutte quelle altre cose belle.
Quindi l'ennesimo prodotto con la mela che non fa quello che è chiamato a fare.
Paolo
mi pare che apple e tesla abbiano la stessa politica. Sanno che in questa epoca si vende quello che fa bella figura su youtube.
per cui il loro unico target sono i videomaker e influencer vari, spesso gente riciclata da altri settori a cui è facile dire che il loro prodotto fa le cose 1000 volte meglio degli altri senza che questo sia per forza vero.
per cui ad apple basta produrre un qualcosa che regga facebook e la navigazione su un paio di altri siti, e che faccia montaggi video decenti, e loro sono contenti, e saranno pronti a dire che non esiste altro computer al mondo.
2 settimane fa ho sentito un fanboy parlare delle novità degli iphone e del nuovo aggiornamento software.... ha descritto abbastanza fedelmente il mio 2017, ma contento lui...
@LucaL certo: se tu usi il G5 come se non fosse un computer ma un "appliance" per uno specifico compito all'interno di un ambiente segregato, potresti non notare che nel frattempo il mondo è andato molto più avanti e che quel Mac oggi non va più bene neanche per navigare.
Riguardo alla flessibilità... meh, chi ha i vecchi Mac pro grigi del 2010-2012, nel frattempo ci ha aggiornato di tutto: RAM, SSD, schede video, processori e pure versioni di OS non ufficialmente supportate per obsolescenza programmata da parte di Apple... e chi li ha, se li tiene ancora ben stretti!
Le nuove versioni di OS-X si sono appesantite sempre di più. Catalina va col freno a mano rispetto a Mavericks, anche con hw supportato, e senza un SSD l'uso diventa improponibile, soprattutto se hai un imac col disco sfigato da 2,5" a 5400 giri. Parola di chi di aggiornamenti per amici ne ha fatti vari.
Dulcis in fundo, non tutti hanno una infrastruttura con server ma ci sono anche tanti liberi professionisti che lavorano pesantemente in locale. La tua realtà, non è la realtà di tutti.
In sostanza, l'hardware di una decina di anni fa e che Apple ha progettato bene, era longevo e lo si usa ancora oggi.
Poi è arrivato il chip T2.
Dell'hardware fatto oggi, temo non si potrà dire la stessa cosa fra un decennio.
Suggerisco una lettura di questo articolo: https://lowendmac.com/2021/best-modern-alternative-to-the-mac-pro-51/ e della storia personale del personaggio che ha messo su questo blog.
Non sapevo che saldano la RAM sulla CPU.
E' una cosa indecente.
si danilo e' un bel trucco che fanno praticamente tutti i telefoni, alcune GPU e qualche raro processore
qui vedi una radeon R9 con i 4 chippazzi
https://en.wikipedia.org/wiki/High_Bandwidth_Memory#/media/File:AMD@28nm@GCN_3th_gen@Fiji@Radeon_R9_Nano@SPMRC_REA0356A-1539_215-0862120_DSC04466_(29461603171).jpg
Ovviamente pone problemi non solo all'upgrade ma alla catena di fornitura, per es il produttore-assemblatore deve decidere al momento dell’ordine (mesi prima) quanta RAM con i prezzi che definisce il produttore della CPU.
E' il motivo per il quale si fa poco, ma rende tanto in Gbps.
Le workstation? Bel capitolo da aprire: quanto conta l'upgradabilità di una workstation? Per lavoro ne ho comprate parecchie, roba da 10'000 a 20'000 euro grossomodo. Dopo n anni, quando sarebbe stata l'ora di fare degli aggiornamenti, la maggior parte delle espansioni non erano più disponibili (dischi SCSI introvabili, supporto tecnico del produttore sospeso, invasioni di cavallette negli uffici ecc). La policy aziendale è che la workstation dopo n anni si butta, non si aggiorna. Si toglie di mezzo (magari downgradandola a fare lavori meno pesanti) e si prende una cosa nuova, con tutti i vantaggi. Quindi anche il mito dell'upgradabilità delle workstation è poca cosa almeno in ambito aziendale "serio". Certo per i "piccoli" e i freelance il discorso è diverso.
A dire il vero sono molti gli utenti, e specie gli utenti Apple, che neanche sanno cosa sia un upgrade della macchina e che se la tengono così com'è per tutta la sua vita operativa, e per questi utenti ciò che conta è 1) la compatibilità con le applicazioni 2) che il tutto giri "fluido" e senza preoccupanti intoppi. Per la mia esperienza del mondo Apple, finché il sistema operativo è supportato questi requisiti sono egregiamente raggiunti, poi ...si entra nella savana! Però a casa, per esigenze "standard" (WP, navigazione, fotoritocco non troppo spinto, musica anche in produzione con GarageBand) il mio iMac del 2012, 16gb di RAM, è ancora eccellente: non posso più aggiornare il sysop, sto fermo a High Sierra (10.13) ma la cosa non mi manca, se non per la curiosità di provare alcune interessanti features moderne (in particolare, certo, la condivisione dello schermo con l'iPad, quella la vorrei proprio). E poi c'è un'altra cosa che vedo, in base alla mia sia pur limitatissima visione del mio circondario: mentre fino a qualche anno orsono era doveroso avere un cammino di upgrade di RAM, adesso sinceramente con 16gb penso di averla messa alle corde e avuto un significativo utilizzo di swap su disco solo una volta, quando più per gioco che per altro volevo usare tanti (ma tanti!) strumenti virtuali su GarageBand: ma lì certo si entra nel terreno di workstation professionali di tutt'altra levatura. In sintesi: mia moglie (calligrafa, per inciso, quindi utente di un po' di grafica, ma non"estrema") ha appena comprato un iPad M1 e siamo stupiti della velocità, fluidità, efficienza e durata della batteria della macchina, ne siamo soddisfattissimi. Mi sembra che Apple abbia fatto un bel passo avanti. Sull'architettura del processore sono in buon accordo con te, ma alla fine l'utente medio non è interessato più di tanto a quello che c'è dentro, basta che funzioni, e Apple funziona, e decisamente bene. Grazie comunque della lucida disamina, che mi ha insegnato moltissime cose e mi aiuta ad avere maggiore consapevolezza di ciò che viene prodotto, e non solo, è sempre un gran piacere leggerti.
Mi mancava parte di quel retroscena sul PowerPC, certo ai tempi del passaggio a Intel si usava dire che i PowerPC consumavano troppo e scaldavano troppo per le performance che fornivano. Forse proprio perché non erano "lo stato dell'arte" della piattaforma.
Del resto il PowerPC ha visto il suo momento di "gloria" (molto breve) quando si parlava della piattaforma CHRP, hardware prodotto "stile cloni IBM" ma seguendo una piattaforma sensata e con un plug and play fuori dal comune (e sicuramente meglio di quello dei PC Windows). BeOS era pronto per essere portato sulla piattaforma, persino Apple pareva vagamente interessata alla cosa, ma poi Motorola ha cominciato a non fornire agli sviluppatori di BeOS e della CHRP il supporto sui nuovi PPC. In breve la CHRP è morta, l'Amiga è morto e soprattutto Apple col ritorno di Jobs ha tagliato tutta 'sta sarabanda visto che rischiava di non aver più niente da offrire (processori li faceva Motorola, l'hardware lo faceva chiunque in un'epoca in cui i cloni Mac erano più veloci dei Mac di Apple, l'OS lo faceva Be in un'epoca in cui MacOS arrancava verso un quasi multitasking preemptive)
Uno dei motivi per cui Apple potrebbe aver preferito la piattaforma ARM (e adoro che la chiami Acorn ahahah) rispetto a Power è che ARM è già usato su tutti gli altri suoi prodotti, e non credo esista un processore POWER per cellulari :D
E' un bell'azzardo sicuramente, è un passo avanti e un passo indietro sotto molti punti di vista ma per lo meno ora cominciano a uscire versioni native ARM di molti software, Microsoft dovrebbe ringraziare la Apple per questo, e in fondo gli utenti di Windows for ARM dovrebbero ringraziare l'M1 se finalmente MS ha deciso di realizzare una virtualizzazione di X86_64 per ARM :O
Ciò detto, il mio macbook "late 2013" (buahaha) funziona ancora alla grande coi suoi bei 16GB di RAM, anche se non potrà installare Monterey; è l'unico portatile che ho avuto che ancora funziona dopo tutto questo tempo. Gli altri nel giro di 2 o 3 anni avevano batterie morte, inverter dello schermo saltato, altoparlanti scoppiati e simili
Posta un commento