AMD dodeca-core

O que me preocupa é que são 12 processadores a aceder concorrentemente, através de um único bus às memórias, o que pode ter um impacto gigantesco na performance.

Tem 4 controladores de memoria. 2 para cada 6 cores, cada um de 64bits a usar HT3.0 + DDR3.
Parece-me suficiente.
 
É assim o Quad Core vai-se tornar mainstream no final deste ano... Depois passamos para 8 cores e por ai a cima. Por isso não acho um exagero. Para hoje sim. Mas daqui a 2/3 anos já 12 cores é mainstream.
 
O futuro é, e como o Romani48 já disse, a virtualização. Não é que seja algo de novo, e até arrisco a dizer que os Desktops vão se tornar verdadeiros mainframes em um futuro proximo. Vários OS's a correr ao mesmo tempo, em apenas um pc.

Eu mesmo em 32 bits já faço um pouco disso, Correr um Windows 2003 Server Virtual + Windows XP Professional Virtual, tendo o Vista como Host. Até há uns anos atrás era penoso ( leia-se impossível ) fazer isto com processadores de um core apenas.

Pena que o Virtual PC 2007 e o Server não permitam mais que um core por maquina virtual = |
 
Última edição:
Sinceramente... até compreendo a dificuldade em separar as diferentes rotinas em threads/processos. Já dei cadeiras disso e diga-se que dá imensa dor de cabeça sincronizar tudo. E não há forma de pegar em código single threaded passar-lhe um optimizador e automaticamente ficar multi-threaded.

Mas é possível, cria aplicações que se tiverem 2 cores trabalha com 2, se tiver 4 trabalham com os 4, se tiverem 12 trabalham com os 12?
 
Há aplicações que são muito mais dependentes do CPU e menos da memória.

Estou a lembrar-me de uma desenvolvida internamente no local onde trabalho e que ajudei a implementar, onde a grande vantagem até pode não ser a capacidade de usar os vários cores ao mesmo tempo por vários processos, mas antes permitir que cada utilizador use um core exclusivamene para ele em vez de ter que andar a partilhar o mesmo com outros.

Trata-se de uma aplicação em ambiente net, que pode ser acedida em simultaneo ao mesmo tempo por vários utilizadores e que em certos processos leva o CPU ao extremo. Claro que há sempre a alterantiva de de ter vários servidores, o que obriga a balanceamentos, etc, além de que acaba por sair mais caro.
 
não precisas de 12 Gráficas.. esta utilização já é possivel e usada nos dias de hoje. Lembro me que até havia um projecto criado por uma empresa nacional.

O projecto consistia em ter um PC base ligado depois através de portas de rede ou fibra optica (já não me lembro) a cada utilizador que tinha no seu espaço de trabalho uma caixa que tinha as interfaces mais comuns.. e neste caso não sei se a interface gráfica era feita atravez de algum chip onboard nessas caixas..

Todos os utilizadores partilhavam então uma máquina! Este projecto pelo o que tinha lido teve mais facilidades depois do surgimento de dual/quad cores a preços mais amigos pois ajudava a implementar este sistema em PMEs.

No futuro será talvez dos serviços mais utilizados, além de ficar mais barato a informação mais facilmente é catalogada pois encontra se numa única máquina. Depois é só criar outras maquinas para backups

Será o Citirx? (ou parecido)
 
O grande problema esta na perguiça da programação, nao interessa optimizar ou inovar o q querem é copy paste e mudarem a pintura.

Deves perceber muito de computação paralela tu...
Multi-threading, troca de contexto (devido a time-slice), troca de mensagens entre server-thread e client-thread em multi-programação são um dos muitos desafios correntes da (investigação) informática ...
Acredita sim que este problema da multi-programação é um tópico quente e antigo da informática... E nada fácil de resolver, tens que desenvolver aplicações especificas para suportar isso, algoritmos, etc...
Semelhanças como o grid-computing (com seti@home) surgiram há já quase 20 anos...
Podes muito facilmente perder eficiência em querer efectuar uma dada tarefa com vários CPU, qdo apenas um fazia isso mais rapidamente com um menor custo: leia-se custo de processamento, pode custar mais "empacotar" uma tarefa e envia-la para uma unidade de processamento do que processa-la localmente... Sem falar de sincronização, etc...
Very complex indeed...
 
Mas é possível, cria aplicações que se tiverem 2 cores trabalha com 2, se tiver 4 trabalham com os 4, se tiverem 12 trabalham com os 12?

Depende do âmbito da aplicação! Por exemplo encoding de video e audio penso que seja possível adaptar-se sempre ao numero de cores. Mas jogos, por exemplo, penso que seja mais complicado.
 
Quantos mais cores me derem, mais algumas aplicações que uso vão adorar. Música e vídeo só têm a ganhar com isto. E eventualmente os jogos, visto que até já o fazem nas consolas. Quando é que a intel lança o cpu de 80 cores mesmo?
 
E com isto uma revolução, a exagerar, mas umas modificações nas boards havia de ter que haver não? Para ter um bom desempenho mesmo, digo eu, agora digam-me la sff lol.

Cumps.
 
Deves perceber muito de computação paralela tu...
Multi-threading, troca de contexto (devido a time-slice), troca de mensagens entre server-thread e client-thread em multi-programação são um dos muitos desafios correntes da (investigação) informática ...
Acredita sim que este problema da multi-programação é um tópico quente e antigo da informática... E nada fácil de resolver, tens que desenvolver aplicações especificas para suportar isso, algoritmos, etc...
Semelhanças como o grid-computing (com seti@home) surgiram há já quase 20 anos...
Podes muito facilmente perder eficiência em querer efectuar uma dada tarefa com vários CPU, qdo apenas um fazia isso mais rapidamente com um menor custo: leia-se custo de processamento, pode custar mais "empacotar" uma tarefa e envia-la para uma unidade de processamento do que processa-la localmente... Sem falar de sincronização, etc...
Very complex indeed...


A uns bons anos atraz, criar bom motor 3D era complicado, exigia mt CPU e tal, havia mts entraves.

Sairam as graticas com motor 3D e hoje em dia é facil de criar coisas em 3D, grande parte pelos motores existentes e de trabalharem sobre directX ou OpenGL.

Vai acontecer o mesmo para os multicore, so agora é q o mercado esta a começar amadurecer com os multicore, ainda te lembras quando sairam os primeiros dual e ppl td em pulga pa ter um? Eu lembrome perfeitamente.

Daqui a uns tempos começa a ser lançado um produto tipo OpenGL ou Directx, juntamente com algo similar a motores 3D, depois ai vem a massificação de produtos multicore, nesta altura vais dizer, 12 nucleos fixe, quando saem com mais?

O mercado ainda esta mt verde no multicore pela simples razao, quem faz a evolução/massificação é o mercado domestico e nao o mercado industrial. Há mts anos q existe multicore no mercado industrial e as dificuldades do processamento paralelo, mas o mesmo aconteceu com o 3D.
 
Última edição:
O mercado ainda esta mt verde no multicore pela simples razao, quem faz a evolução/massificação é o mercado domestico e nao o mercado industrial. Há mts anos q existe multicore no mercado industrial e as dificuldades do processamento paralelo, mas o mesmo aconteceu com o 3D.

Não confundas evolução/massificação de hardware (que evolui ciclicamente) com evolução conceptual do software e problemas derivados.
Como explicar melhor:
Em computação o paralelismo é mesmo muito complexo, e dependendo do problema pode ser mais do que algoritmia.
Podes ter todos os CPU e ram do mundo, nunca serás capaz de resolver o halting problem. Provavelmente (é mesmo ;)) mais eficiente correr localmente todo o algoritmo de Dijkstra para grafos do que por uma máquina para cada nó a calcular o seu caminho mais curto.
Não estou a dizer que a computação paralela é impossível de resolver, antes pelo contrário, muito avanços têm sidos feito, mas está muito verde, pela sua complexidade. Tem aparecido grids etc, mas não preciso de ir por aí.
Quero concluir dizendo que para poderes usufruir do paralelismo, sou da opinião que a arquitectura de Von Neumann tinha que ser alterada, por restringir a computação paralela.
E aí, náo depende do nº de CPU que tens, nem da má vontade de investigadores ou devs ;)
 
AMD's 12-core and 8-core processors get a new home in 2010

AMD's newest roadmap reveals a major shift in early 2010: the company will once again overhaul its socket architecture to make way for DDR3 support.

The new socket, dubbed G34, will also ship with two new second-generation 45nm processors. The first of these processors, 8-core Sao Paolo, is described as a "twin native-quadcore Shanghai processor" by one AMD engineer. Shanghai, expected to ship late this year, is AMD's first 45nm shrink of the ill-fated Barcelona processor.

This past April, AMD guidance hinted at a 12-core behemoth of a processor. This CPU is now named Magny-Cours after the French town made famous by its Formula One French Grand Prix circuit.

Both of these new processors will feature four HyperTransport 3 interconnects, 12MB of L3 cache and 512KB L2 cache per core.

Intel's next-generation Nehalem chip, scheduled for launch late this year but already well leaked, is the first to feature tri-channel DDR3 memory support. AMD will up the ante in 2010, with registered and unregistered quad-channel DDR3 support. Current roadmaps claim standard support will include speeds from 800 to 1600 MHz.

AMD insiders would reveal very little about the G34 socket, other than its a derivative of the highly secretive G3 socket that was to replace Socket F (1207). As far as company documentation goes, G3 ceased to exist in March 2008, and has been replaced with the G34 program instead. The first of these sockets will be available for develops in early 2009.

We counted 1974 pin connects on the leaked G34 diagram -- 767 more pins than AMD's current LGA1207 socket. Given the additional interconnect pathways for DDR3 and the HyperTransport buses, a significant increase in the number of pins was to be expected.

The addition of a fourth HyperTransport link may prove to be one of the most interesting features of the Sao Paulo and Magny-Cours processors. In a full four-socket configuration, each physical processor will dedicate a HyperTransport link to each of the other sockets. This leaves one additional HyperTransport lane per processor, which AMD documentation claims will finally be used for its long-discussed Torrenza program.

The hype behind Torrenza largely disappeared after AMD's Barcelona launch sour, though the company has hinted before that Torrenza will make a perfect interconnect to GPUs or IBM Cell processors. This is exactly the type of setup roadmapped for the fastest public supercomputer in the world, IBM's Roadrunner.




http://www.dailytech.com/Hello+AMD+Socket+G34/article12400.htm
 
Forma bastante estranha...

g34.png
 
estranho pq? faz-me lembrar o pentium pro.

já agora isso deve ter um tamanho enorme (tb tem de caber lá os 12 cores "né" ou seja 3x4 "phenoms")
 
Back
Topo