Intel prevê Cpu com 80 FPU em 5 anos

Nemesis11

Power Member
...E tem um prototipo.

teraflopchip2pi7.jpg


teraflopwafer2zm9.jpg


Intel has built a prototype of a processor with 80 cores that can perform a trillion floating-point operations per second.

....

But the ultimate goal, as envisioned by Intel's terascale research prototype, is to enable a trillion floating-point operations per second--a teraflop--on a single chip. Ten years ago, the ASCI Red supercomputer at Sandia National Laboratories became the first supercomputer to deliver 1 teraflop using 4,510 computing nodes.

Intel's prototype uses 80 floating-point cores, each running at 3.16GHz, said Justin Rattner, Intel's chief technology officer, in a speech following Otellini's address. In order to move data in between individual cores and into memory, the company plans to use an on-chip interconnect fabric and stacked SRAM (static RAM) chips attached directly to the bottom of the chip, he said.

http://news.com.com/Intel+pledges+80+cores+in+five+years/2100-1006_3-6119618.html?tag=nefd.lede

Intel's Answer to Cell: The Teraflop chip

When Sony's Cell architecture was first introduced, everyone looked to Intel for an answer - and the best we got was that the foreseeable future of multi-core computing would be x86 based. When Cell was first announced, a processor with 9 cores was unheard of as we were just being introduced to Intel's dual core offerings and quad core was just a pipedream. By the time the PlayStation 3 launches, dual socket Xeon systems will be able to have the power of 8 very powerful x86 cores and all of the sudden the number of cores in Cell stops being so impressive. But there is quite a bit of merit to Cell's architecture and design, as Intel has alluded to many times in the past, and today Intel showcased a processor that is very similar in design.

Intel outfitted a single chip with a total of 80 very simply cores, that combined can execute a peak rate of 1 trillion floating point operations per second. Each core uses a very simple instruction set, only capable of executing floating point code, and are individually quite weak. But the combined power of the 80 cores is quite impressive, and it's directly taking a page from the book of Cell. While Cell's SPEs are likely more powerful than each of the cores in the teraflop chip, the design mentality is similar.

Intel showed off a wafer of these teraflop chips, with a target clock speed of 3.1GHz and power consumption of about 1W per 10 gigaflops - or 100W for 1 TFLOP. The chip is simply a technology demo and won't be productized in any way, but in the next 5 years don't be too surprised if you end up seeing some hybrid CPUs with a combination of powerful general purpose cores with smaller more specialized cores.

http://www.anandtech.com/printarticle.aspx?i=2840
 
Última edição:
Estao num bom caminho mas 5 anos é mt tmp, axo q eles conseguiam introduzir + cedo mas como smp devem ter um truque na manga
 
O Cell já tem 9 cores desde 2004. Daqui a 5 anos deve etr mtos mais, isto seguindo as previsões deles. Mas no final esse da Intel e o Cell devem andar ela por ela em numero de cores. Mas só o facto do cell n ser x86, vai-lhe dar vantagem :p
 
Isto devia ter uma master FPU para gerir os outros todos, deste modo mesmo aplicações single thread podiam beneficiar de tantos FPU's.

De ***** maneira eles estão a espera k as software houses façam todas as aplicações super optimizadas para multicores em 5 anos, o k me parece k aconteça.

Axo k eles estão a fazer as coisas mal mais valia um "grande" cpu k processa mais instruções do k isto.
Assim têm mais lucros pk podem desabilitar os k FPU's k estiverem estragados, e vende-los noutras gamas, mas sem suporte por parte do software o mais provável é ficarem quase todos a idle em aplicações desktop. :zzz:
 
Isto devia ter uma master FPU para gerir os outros todos, deste modo mesmo aplicações single thread podiam beneficiar de tantos FPU's.

De ***** maneira eles estão a espera k as software houses façam todas as aplicações super optimizadas para multicores em 5 anos, o k me parece k aconteça.

Axo k eles estão a fazer as coisas mal mais valia um "grande" cpu k processa mais instruções do k isto.
Assim têm mais lucros pk podem desabilitar os k FPU's k estiverem estragados, e vende-los noutras gamas, mas sem suporte por parte do software o mais provável é ficarem quase todos a idle em aplicações desktop. :zzz:

O problema é custo.

Criar todo um novo design requer imenso dinheiro e mão-de-obra.
Com a quantidade enorme de transístores previstos, seria um pesadelo fazer evoluir uma CPU da maneira tradicional "by hand" (com engenheiros humanos a desenhar e testar os circuitos e componentes, evitando conflitos, etc).

Assim, pode-se continuar a evoluir moderadamente a estrutura de uma CPU com os mesmos recursos, recorrendo à automação possibilitada pela multiplicação de componentes (leia-se, cores) como garantia de evolução que não fique constrangida por aspectos de redesign básico.

Neste momento estamos num ponto onde a pesquisa e desenvolvimento de CPU's de topo está a esgotar os recursos financeiros e humanos de qualquer empresa, mesmo as maiores do ramo como a Intel, AMD, IBM, TI, etc.

A Segunda Lei de Moore diz que o custo de uma fábrica de semiconductores duplica a cada 18 meses.
Estamos a falar de valores colossais de vários biliões (em breve, dezenas de biliões) de dólares numa única fábrica.
Isto numa altura em que o mercado PC, por exemplo, está relativamente estagnado e já não cresce ao ritmo year-over-year dos anos 80 e 90, nem de longe.
 
a realidade é que a short scale (a que os americas usam) faz muito mais sentido

se um milhao nao é mais do que mil milhares o biliao nao é mais que mil milhoes assim como o triliao sao mil billioes

a long scale nao faz qq sentido (na minha opiniao claro que é tao valida como qq outra)
 
Back
Topo