Processador AMD Ryzen / Threadripper

http://www.twitch.tv/thetechreport/b/657091841

Este é o link para para um podcast especial do techreport com o David Kanter do realworld tech, por isso aviso já que a linguagem é bastante técnica.
O podcast é sobre a conferencia de ontem da AMD e mais propriamente o Zen.

São 2 horas e é um bocado hardcore, mas fica aqui o link para quem quiser ver e ouvir.
 
AMD Reveals the Monsterous ‘Exascale Heterogeneous Processor’ (EHP) with 32 x86 Zen Cores and Greenland HBM2 Graphics on a 2.5D Interposer

AMD-EHP-APU-32-Zen-Cores-Greenland-HPC.png


http://wccftech.com/amd-exascale-heterogeneous-processor-ehp-apu-32-zen-cores-hbm2/
 
AMD Reveals the Monsterous ‘Exascale Heterogeneous Processor’ (EHP) with 32 x86 Zen Cores and Greenland HBM2 Graphics on a 2.5D Interposer

AMD-EHP-APU-32-Zen-Cores-Greenland-HPC.png


http://wccftech.com/amd-exascale-heterogeneous-processor-ehp-apu-32-zen-cores-hbm2/

Parece-me que a AMD lança, como ideia, este APU para ver se há interessados. A mim parece-me que a AMD dos dias de hoje não se pode dar ao luxo de lançar para o mercado um APU como este sem ter interessados. Como tal manda cá para fora esta "paper APU" e vai verificar as reacções.
A nível de hardware este APU seria um pequeno monstro e não me parece execuível a 16/14 nm. O Knights Landing da Intel a 14 nm é uma bolacha e anda à volta dos 3 Tflops em Double precision. Este a AMD projecta como tendo por volta de 10 TF DP. Não me parece fazível nesta geração. 32 cores x86 + Gpu enorme na mesma die é algo de loucos. É bonito de se ver, mas não é para um futuro próximo.
 
Vocês estão a olhar para o lado errado.

Executive Order -- Creating a National Strategic Computing Initiative


(a) Lead Agencies. There are three lead agencies for the NSCI: the Department of Energy (DOE), the Department of Defense (DOD), and the National Science Foundation (NSF). The DOE Office of Science and DOE National Nuclear Security Administration will execute a joint program focused on advanced simulation through a capable exascale computing program emphasizing sustained performance on relevant applications and analytic computing to support their missions.

(b) Foundational Research and Development Agencies. There are two foundational research and development agencies for the NSCI: the Intelligence Advanced Research Projects Activity (IARPA) and the National Institute of Standards and Technology (NIST). IARPA will focus on future computing paradigms offering an alternative to standard semiconductor computing technologies. NIST will focus on measurement science to support future computing technologies.

(c) Deployment Agencies. There are five deployment agencies for the NSCI: the National Aeronautics and Space Administration, the Federal Bureau of Investigation, the National Institutes of Health, the Department of Homeland Security, and the National Oceanic and Atmospheric Administration. These agencies may participate in the co-design process to integrate the special requirements of their respective missions and influence the early stages of design of new HPC systems, software, and applications.

July 29, 2015
BARACK OBAMA
https://www.whitehouse.gov/the-pres...ating-national-strategic-computing-initiative

Não é coincidência isto ter sido divulgado agora.

A maioria dos "National Labs" americanos estão envolvidos na pesquisa e desenvolvimento de software para vários projectos, e tratando-se de um APU, HSA é parte integrante da solução a apresentar
http://www.hsafoundation.com/

Só para terem uma ideia dos requerimentos para 2017 de uma das entidades mencionadas

Compute and Data Needs for 2017
Scientists and their teams of researchers need the following to meet DOE Office of Science mission goals in 2017.

  • 86 billion hours of compute time, 26 times total usage at NERSC in 2014.
  • 635 petabytes for archival storage, 12 times 2014 usage.
  • 97 PB of shared disk space for project collaborations.
Common Priority Needs Across All Offices
  • Continued exponetial increase in computing hours and data storage.
  • Help porting and developing code for next-generation many-core systems.
  • Supported standard software applications, libraries, and tools that work effectively and efficiently.
  • Support for running jobs at all scales, including full-system runs and high-throughput computing.
  • Highly performance, available, stable systems.
  • Support for extreme data anaylsis.
https://www.nersc.gov/science/hpc-requirements-reviews/nersc-hpc-requirements-reviews-target-2017/

Exascale Computing -Update Nov 2014
http://science.energy.gov/~/media/a...1121/2014_ASCAC_Harrod_Exascale_Update_v2.pdf



Claro que o facto de os chineses, da China's National University of Defense Tecnology, contiuarem a ocupar o 1º lugar de Supercomputadores também ajudou a este iniciativa presidencial, que pelo meio ainda incluiu uma proibição de venda de produtos da Intel a determinadas entidades na China.
http://www.pcworld.com/article/2908...-chips-to-chinese-supercomputer-projects.html
 
Não estamos a olhar para o lado errado.
Existem 3 supercomputadores no roadmap (fora mais uns pequenos para teste) e nenhum deles tem a participação da AMD.
 
Apesar de nunca ter comprado um CPU AMD para mim. Gostava de ver a concorrência da AMD para o mercado particular. Se começar por aqui oxalá que sim. Assim os preços dos processadores e afins têm de ficar mais competitivos para não falar da performance bruta. E sim era capaz de comprar um CPU AMD :)
 
Esse Exascale é tudo menos para o utilizador comum, suponho.

O que está naquele papel é pensado somente para o mercado HPC. Mesmo no mercado servidor "comum" não faz muito sentido, porque pouco ou nada usa um Gpu neste mercado. Dito isto, lembro-me de ler que queriam implementar o HSA no próximo Java e Java é muito usado no mercado servidor "comum". Mas mesmo aí, penso que só em algum workload o gpu pode dar alguma ajuda.
Para workstations uma versão do que está naquele papel pode ser interessante, mas estariamos a falar no high end em workstations, porque um APU daqueles não sai barato. Nem sei se não seria preciso esperar pelos 7 nm para se tornar realidade.
Para o utilizador comum, uma versão cortada do que está ali pode fazer sentido. Menos cores x86, menos memória HBM, etc. O problema dos APUs até hoje foi a bandwidth e um APU destes com HBM poderia começar a comer mercado mais acima e não só na entrada de gama. Falando do HSA, hoje em dia já acelera o LibreOffice em pequenos pontos. Mas onde acelera a velocidade é surpreendente. De minutos para poucos segundos.
Falta um maior suporte dos developers, ao mesmo tempo a AMD não tem quota de mercado para os developers se interessarem. Complicado.
 
Um APU com 4 cores + HT, 8GB HBM unificados (sistema + gráfica) e uma quantidade de GPU cores para equiparar à R9 370 e ficar por ~350€, vendiam feito pães quentes! Isto, a acumular uma board, fonte, caixa e disco (~200€).
Mas mais certamente punham apenas 2GB HBM para a GPU e venderiam por 300.
 
Um APU com 4 cores + HT, 8GB HBM unificados (sistema + gráfica) e uma quantidade de GPU cores para equiparar à R9 370 e ficar por ~350€, vendiam feito pães quentes! Isto, a acumular uma board, fonte, caixa e disco (~200€).
Mas mais certamente punham apenas 2GB HBM para a GPU e venderiam por 300.

Não sei se teria assim tanto sucesso, nem sei se seria possivel ter um preço a esse nivel. Ver os Intel com 128 MB de EDRAM e o custo e o não sucesso deles
 
O Sandia é uma das entidades que tem sempre vários sistemas em avaliação, para várias finalidades, eles receberam em 2011 um sistema baseado nos Llano, que entretanto foi substituído pelos Trinity, e provavelmente já não irão receber mais nenhum, pois já identificaram as suas limitações.

Agora por curiosidade vejam para que áreas a AMD garantiu os tais fundos

2j4vcsj.jpg

http://science.energy.gov/~/media/a...1121/2014_ASCAC_Harrod_Exascale_Update_v2.pdf
 
Não sei se teria assim tanto sucesso, nem sei se seria possivel ter um preço a esse nivel. Ver os Intel com 128 MB de EDRAM e o custo e o não sucesso deles

Não compares os 128MB EDRAM com 2GB HBM. Estou mesmo a referir um APU com 200w TDP, que é realmente capaz de substituir uma GPU dedicada e poder-se jogar 4K low ou 1080p high.
 
Na casa dos 200/250€ já seria algo imbatível. Matava dois (intel e nvidia) com um tiro só!

Não há novidades sem ser os APUs? Estou muito curioso para saber como vão ser estes novos 8 cores.
 
Isto dos apus com gpus capazes e memória embutida soa muito bem, reconheço que já fantasiei com uma máquina assim depois da saida da HSA.
Na realidade ter uma config com cpu, gpu e memória tudo fixo é meio mau, creio que sabemos porquê.
É certo que poderia sempre escalar-se a memória com ram na motherboard, ou paralelizar o trabalho do gpu com uma expansão de gráfica...
Mas meio que derrota o ideal inicial e acaba por criar interação com buses mais lentos, adicionar latência e complexificar o sistema.

Pode ser uma excelente opção no seu momento, então para soluções compactas... :D
 
Isto dos apus com gpus capazes e memória embutida soa muito bem, reconheço que já fantasiei com uma máquina assim depois da saida da HSA.
Na realidade ter uma config com cpu, gpu e memória tudo fixo é meio mau, creio que sabemos porquê.
É certo que poderia sempre escalar-se a memória com ram na motherboard, ou paralelizar o trabalho do gpu com uma expansão de gráfica...
Mas meio que derrota o ideal inicial e acaba por criar interação com buses mais lentos, adicionar latência e complexificar o sistema.

Pode ser uma excelente opção no seu momento, então para soluções compactas... :D

Ter um SOC com controladores, GPU e CPU todos juntos faz o oposto do que dizes. Não obriga a interagir com busses mais lentos, bem pelo contrário, reduz latências e aumenta a largura de banda pois está tudo tão perto um dos outros.
Esta é a principal vantagem de ter um chip com muita coisa integrada.
Com a HBM teremos mais um ponto que vai melhorar bastante os APUs, ao remover uma das suas maiores limitações actuais, que é a memória. Com a HBM teremos muito maior largura de banda do que a DDR3/4 pode disponibilizar e latências muito mais baixas.
A Intel tem atirado quantidades imensas de cache para compensar a falta de largura de banda da DDR3/4. mas é a solução da AMD, com a HBM, que a coisa vai realmente ter uma solução.

A limitação de um SOC é o limite do tamanho do chip, consumos, concentração de calor e a impossibilidade de usar processos de fabrico especificos para cada componente. Mas um SOC pode ter muito valor para a gama baixa e média, oferecendo bom desempenho por um um bom preço.
 
Tenho que tomar mais cuidado como escrevo para não criar situações como esta em que sou mal interpretado.

Em relação ao que dizes, concordo. A HBM parece mesmo a companheira ideal para um ambiente HSA de alta performance.
 
A limitação do APU, agora passa a ser mais a upgradeability. Assim que o comprares, estás preso ao CPU e GPU de escolha, e em vez de poderes trocar um, passas a ter de trocar 2. Não que seja mau, mas ainda representa uma perca de flexibilidade. Ainda assim, há gostos para tudo, e um bom APU deve ter algum mercado certamente.
 
Sim no presente há essa limitação. Brevemente vais ter um APU com um CPU (ZEN) mais capaz e no futuro com uma GPU (HBM) capaz de competir com as dedicadas.

Se AMD consegue a "curto prazo" lançar um APU com um bom CPU e uma GPU (HBM) vai ser um caso complicado para a concorrência... Mas com AMD andar devagar quase parada não há nada a temer.
 
Quando se pensa numa apu de alta performance não se pode ignorar o grande factor que pode empurrar a coisa ao next level.
A possibilidade de ter uma arquitectura cpu + gpu que interage de outra forma e partilha a mesma piscina de memória (como acontece nas consolas).

Se o software der um edge por optimização, poderá ser uma excelente opção.
Se as principais capacidades arquitecturais não forem aproveitadas e a abordagem for exactamente a mesma que para um setup convencional, fica meio que reduzido a uma solução compacta.
 
Back
Topo