Processador Curiosidades de hardware

Isto é mesmo para a malta hardcore do retro não? Ou o objectivo será mesmo legacy para alguma utilizações especificas?
Aquilo é 100% para malta hardcore retro e mesmo aí, para um grupo bastante específico. Alguém que prefira algo novo, fanless, muito baixo consumo, bastante pequeno em vez dos "monstros" de caixas comuns da altura, que queira principalmente jogar jogos 2D (Nenhum deles tem uma gráfica 3D), não precise de slots ISA/PCI (por exemplo para uma placa de som), não precise de usar storage IDE/SATA/SCSI, o preço não seja um problema, etc etc.
Não quer dizer que, com estas limitações, não possa ser usado para correr outro tipo de software legacy.
Para jogos e pelos benchmarks, um Pentium III ou um Athlon, com algo como uma Millenium II + Voodoo 2 ou um Riva TNT2, esmaga aquilo em performance, não tem as mesmas limitações e provavelmente sai mais barato. Claro que não vai ser pequeno nem fanless.

Aqueles 2 computadores são criados com componentes para o mercado embedded/industrial/legacy, mas com este hardware e para esse tipo de uso há soluções melhores. Exemplo:
fpDBQfp.png


lMnrxcb.png


https://icop-shop.com/product/eb-3362-l2c2852e/

2 portas RJ-45, 2 RS-232, 2 RS-485. Não é o caso deste, mas o CPU está preparado para funcionar entre -40°C a +85°C temperatura ambiente, suporta nativamente IDE, ISA, porta paralela, Watchdog, CAN, etc.

https://www.vortex86.com/compare
 
Teoricamente sim... mas isso parece ir por água abaixo quando permite um maior número de transístores e as necessidades de computação parecem fazer com que os chips não parem de crescer.

O que ali se falou é de "stacking", ou seja, de soluções "multi chip/die" numa "base", que obriga a conexões entre eles com uma enorme largura de banda, e tudo isto "ocupa espaço e consome energia".
 
Estou um pouco confuso... não é suposto haver ganhos de eficiência e maior densidade a cada novo node?
Sim e será mais eficiente e denso.

Vou pegar na iniciativa da AMD "30x25". Em 2021 a AMD colocou como meta que, em 2025, um sistema deles seria 30 vezes mais eficiente que o sistema que eles tinham em 2020. O resultado foi de 38 vezes no Llama3.1-70B.

i57Yg9G.png


O sistema de 2020 tem 2 Epyc Zen1 + 8 MI50 e o sistema de 2025 tem 2 Epyc Zen5 + 4 MI355X.
O sistema Epyc Zen5 + MI355X consome mais que o sistema com o Epyc Zen1 + MI50, mas o aumento de performance é várias vezes maior que o aumento do consumo.

A AMD anunciou uma nova meta para 2030 e é mais fácil de perceber com o post do @Dark Kaeser , porque também envolve Racks.
O objectivo é que menos de 1 Rack de 2030 faça o mesmo que mais de 275 Racks de 2025, em que aquele Rack de 2030 gasta menos 95% da energia usada pelos mais de 275 Racks de 2025.
1 Rack de 2030 vai gastar mais energia que 1 Rack de 2025, mas a comparação é feita com mais de 275 e não só com 1.

MDRuduU.png


Aquele Rack da nVidia pode vir a consumir 1 MW, mas o aumento de performance será bem maior que o aumento do consumo, comparado com um Rack actual.

Claro que isto não tem em conta a "procura" por compute no mercado AI. Se nada se alterar*, a "procura" por compute para AI, daqui a uns anos, também será significativamente maior que actualmente.

*Se não estivermos numa bolha. Se não foram encontradas formas que precisem de menor computação. Etc etc.
 
Era exatamente por causa desse exemplo que deste da AMD e o road map para 2030, que fiquei confuso. Eu já tinha visto essa apresentação na semana passada. Mas obrigado por postares e pela explicação mais detalhada :)
 
O problema que não que um server substitui 275 antigos, mas os 275 vão dar lugar à 275 dos novos, logo o consumo só aumenta. mesmo que a eficiencia seja muito maior.

Acho que a corrida da IA é uma loucura ambiental, muitos recursos para construir todo este equipamento e consumos insanos.
E sinceramente é bem que as empresas invistam em SMR - Small Modular Reactor para dar de comer à isso sem poluir muito.
 
Claro que isto não tem em conta a "procura" por compute no mercado AI. Se nada se alterar*, a "procura" por compute para AI, daqui a uns anos, também será significativamente maior que actualmente.

*Se não estivermos numa bolha. Se não foram encontradas formas que precisem de menor computação. Etc etc.

Para já a monetização do AI ainda está por justificar, certo? É perfeitamente possível que em 2030 o cenário seja diferente.
 
Exacto, o que acontece é que são as próprias empresas da Cloud a contribuirem para isso.

Elas estão agrupadas numa entidade que é OCP que define as especificações dos servidores que usam, e entre essas especificações estão a OAM, que é o "formato das GPU", que na sua primeira especificação ia até aos 700w (2019)

FM-pnbxVIAEbagW.jpg


neste momento já vai nos 1400w, como se viu com o lançamento das AMD MI355X.

Ou seja, as empresas não estão a "reduzir", mantendo as mesmas infraestrutura e número de servidores, acabam por ter mais computação, mas o consumo em si acaba por aumentar, de tal forma que ficam limitados pela capacidades de fornecimento de energia.

E esse é um dos aspectos que têm em co ta na localização dos seus centros.

Aliás algumas até estão a assinar acordos com empreas de energia nuclear.

https://www.datacenterfrontier.com/...nuclear-solar-ppas-with-constellation-and-aes
 
Visitas à ASML, com um pouco de história e como funciona uma High NA EUV machine. Até a logística é interessante. :)





EDIT:
Outros slides dessa apresentação que mostram como o mercado de AI tem números que há poucos anos atrás seriam considerados "absurdos".

eE5LxdH.jpeg


BJxvYJf.jpeg


kT0hQlY.jpeg


15I9trv.jpeg


Possíveis blackouts por causa de GPUs não estava no meu cartão do bingo. :D
 
Última edição:
Back
Topo