Processador Curiosidades de hardware

Acho que nunca vi uma Docking Station com este formato. É um candeeiro de escritório, com a luz, Hub USB, HDMI, Wireless Charger e Webcam 4K.

ZcnRf46.jpg


Cn567mk.jpg


oP0xKmS.jpg


2c2hJWD.jpg



https://liliputing.com/lenovo-go-desk-station-is-a-lamp-wireless-charger-usb-dock-and-4k-camera/

329$.
Mais interessante seria se, em vez de Docking Station, fosse mesmo um computador, onde a Board ficaria na base. Parece-me perfeitamente fazível. :)

A Lenovo tem umas coisas engraçadas. Essa docking station parece-me dentro do género do rádio despertador inteligente com wireless charging que eles também têm.
 
Nada contra o formato em si do CAMM, mas nos tempos que correm, eles deviam primeiro ter procurado criar o Standard e só depois comercializar produtos baseados nesse Standard.

A ultima vez que a Dell tentou algo parecido, com o formato DGFF, para gráficas, acabou assim.
 
total access latency of 9 ns for write and 12 ns for read
Ena. Não há muito melhor que isto a nível de latência para RAM externa. :)
O site dessa empresa é qualquer coisa. :) O mundo HFT é mesmo um mundo meio louco. Não poupam para atingir valores de performance máximos, mesmo se a vantagem for apenas de 1 ou 2 %.

Parece um "simples" switch:
Awa9n3S.jpg


Mas tem um Epyc numa Board Mini-ITX + FPGAs lá dentro. :D
Há Switchs que têm Atoms ou Xeons-D lá dentro, mas para funções de Management, virtualização de rede, etc. Este imagino que seja mesmo para compute, com o objectivo de estar o mais próximo possível da rede. :)
tOdrhWr.png


Um Servidor 1U com um Epyc numa Board Mini-ITX + 6 FPGAs com 3.4 GB de SRAM no total:
xUPPyLo.jpg


X0x1s32.png
 
Impressionante, que impacto teria se fosse escalar para por exemplo 8 GB numa gráfica?
Mal não faria, mas os GPUs, com milhares de threads a correr em paralelo, não são muito sensíveis à latência da memória. Num GPU é mais importante Bandwidth. É uma das razões para se usar GDDR em Gráficas, onde se faz essa "troca" de bandwidth por latência.
Nesse mercado, o ideal, actualmente, é HBM, porque é bastante simples escalar os valores da Bandwidth.

Já num CPU, seria excelente. É olhar para os resultados do 5800X3D, apesar de só adicionar 64 MB, o processador ter algumas restrições em relação aos outros Ryzens e o Software não estar adaptado a caches tão grandes. :)
 
Mal não faria, mas os GPUs, com milhares de threads a correr em paralelo, não são muito sensíveis à latência da memória. Num GPU é mais importante Bandwidth. É uma das razões para se usar GDDR em Gráficas, onde se faz essa "troca" de bandwidth por latência.
Nesse mercado, o ideal, actualmente, é HBM, porque é bastante simples escalar os valores da Bandwidth.

Já num CPU, seria excelente. É olhar para os resultados do 5800X3D, apesar de só adicionar 64 MB, o processador ter algumas restrições em relação aos outros Ryzens e o Software não estar adaptado a caches tão grandes. :)
Certo tinha esquecido que GPU quer BW over latency.
Poderia ser implementado como cache L4 numa board "server class" ? Ou dado o tamanho gigante do EPYC, colocar esta L4 no package, comunicando pelo IO e acessivel por todos os cores.
 
Aquilo é uma solução feita à medida para um mercado específico, os FPGA são bastante usados para o HFT, o que explica que a própria Xilinx (agora AMD) tenha uma linha própria (inlcui HW + SW) para esse mercado

https://www.xilinx.com/applications...chnology/accelerated-algorithmic-trading.html

Screenshot-2023-01-03-at-12-47-20-Accelerating-Electronic-Trading-with-the-New-Alveo-X3-Series.png

https://community.amd.com/t5/adapti...ding-with-the-new-alveo-x3-series/ba-p/563500

mas estas Alveo X3 da AMD têm DDR4 ou HBM+DDR4 para as U280, aquela solução em particular com aquela quantidade de SRAM é que é a primeira vez que vejo.
 
O DGFF ainda é suportado nos Latitude, pelo menos no ultimo modelo que vi.
A questão não é tanto essa. Devia-me ter explicado melhor, porque os maiores problemas não estão explicados naquele artigo. :)
Initial reports claimed it to be a proprietary solution that Dell wanted to push to consumers and OEMs for those lucrative royalty fees, but there’s more to the story than that.
It’s worth noting that CAMM utilizes the same DRAM ICs as found on SODIMM modules but with a different interface to the PCB. Thus, it is this interface that makes CAMM special and the heart of the patents under Dell.
ECC support is planned.
This is where it gets tricky. Unlike SODIMM modules, CAMM modules will be different in size depending on the RAM capacity. For example, two 16 GB SODIMM modules are the same size as two 8 GB SODIMM modules, but one 32 GB CAMM module may be longer or wider than one 16 GB CAMM module.
Dell says their specific dimensions have yet to be determined as the CAMM design standards are still a work in progress.
Though CAMM is shorter in Z, it can be larger in X and Y when compared to SODIMM depending on the capacity. It may therefore not be possible to upgrade a CAMM laptop from 16 GB to 32 GB or 64 GB if there is not enough space on the motherboard to support the physically larger CAMM modules. How much physical room is available to upgrade will likely depend on the laptop maker. In fact, OEMs will likely have to redesign entire motherboards around the new CAMM standard since current designs are so optimized around SODIMM; you can’t just swap out SODIMM for CAMM like you would for a yearly CPU update, for example.
Dell says there will only be one CAMM module connection per motherboard whereas laptops utilizing SODIMM can have up to four. This will pose a challenge to end-user upgrades as the original CAMM module would have to be removed completely when upgrading. For example, a laptop with two SODIMM slots and one 8 GB RAM module can be upgraded to 16 GB by simply adding a second 8 GB module. On a CAMM laptop, however, the original 8 GB CAMM module must be replaced completely with a 16 GB CAMM module.
Dell says CAMM modules at this point in time cost $1 more per GB to produce than standard SODIMM modules.
https://www.notebookcheck.net/CAMM-memory-preview-The-Dell-SODIMM-revolution.658666.0.html
Uninstalling the CAMM module is straightforward; it lifts out after removing six screws. Below you can see the compression connector.
https://www.storagereview.com/review/dell-camm-dram-the-new-laptop-standard

Primeiro que tudo, eu nem sei se este formato é uma boa ideia. A Dell tem as patentes e vai pedir royalties. As dimensões fisicas são diferentes consoante a quantidade de RAM que cada placa tem. Só há 1 ligação/placa. Tens 16 GB de RAM e queres colocar 32 GB? Deitas fora os 16 GB de RAM e coloca-se os 32 GB no total.

Segundo, eles lançaram um produto para o mercado com um formato que ainda nem tem as dimensões físicas definidas. Isto é, alguém com um portátil lançado agora pode-se ver na situação do seu CAMM modulo ter dimensões físicas diferentes dos CAMM módulos que se tornam standard.
O ultimo artigo diz que o upgrade é "straightforward", logo seguido de que é preciso tirar e voltar a colocar 6 parafusos. :D É comparar como se trocam SODIMMs hoje em dia. :)

Por ultimo, suporte ECC não está implementado. Neste ponto reparar que eles lançaram este formato na gama "Precision" que é a gama de Workstations.

Eu sei que há standards que não começaram por ser standards e devido à sua popularidade, tornaram-se standard, mas parece-me que deveria haver um "trabalho mínimo" já feito, quando se lança um produto para o mercado consumidor. Por exemplo, ter as dimensões físicas estabelecidas. :D

E isto vai ter aos problemas que já se levantaram com o DGFF. Promessas iniciais de "upgrades", mas a coisa foi tão mal feita, que tiveram que voltar com a palavra atrás em certos casos. :)

Certo tinha esquecido que GPU quer BW over latency.
Poderia ser implementado como cache L4 numa board "server class" ? Ou dado o tamanho gigante do EPYC, colocar esta L4 no package, comunicando pelo IO e acessivel por todos os cores.
Já está implementado com o 3DVCache, como L3 e a solução da AMD deve ser mais fácil de atingir bons números de performance e provavelmente mais barata, porque os Chips de SRAM estão mais "próximos" dos chips de Compute. Isto é, ficam fisicamente por cima dos chips de compute e por isso, estão no mesmo package.

A única vantagem que vejo, naquela solução daquela placa, é que é capaz de ser mais barato, rápido de implementar e mais flexível em produtos que tenham números de produção baixos. :)
 
Última edição:

Russian 48-Core Baikal-S CPU Powers First Storage Device​


Eliptech, a company that used to be a part of Sber, one of Russia's largest state-controlled bank and cloud service providers, has developed a motherboard based on the BE-S1000 server-grade system-on-chip featuring 48 Arm Cortex-A75 cores at 2.50 GHz at 120W. The SoC has six 72-bit memory interfaces supporting up to 768 GB of DDR4-3200 ECC memory in total (i.e., 128GB per channel), five PCIe 4.0 x16 (4x4) interfaces, one USB 2.0 controller, two 1GbE interfaces, and various general purpose I/O.
5qF3GYykiQPeosmtsejT2T-970-80.jpg.webp

Which brings us back to the fact that this could be the only motherboard featuring the Baikal BE-S1000 processor. This SoC was supposed to be made by TSMC on its 16FFC fabrication technology. Yet, due to sanctions against Russia for its invasion in Ukraine, this CPU will never be shipped to Baikal Electronics. Russia's own semiconductor production capabilities are limited to thick process technologies.
https://www.tomshardware.com/news/48-core-baikal-for-storage
 
Back
Topo