Self-Powered Silicon Laser Chips

A new method of turning waste heat into electrical power could speed up communications inside computers -- and mark another advance in the field of silicon photonics.
Not only are we not dumping energy in, we're actually recovering it," says Bahram Jalali, a professor of electrical engineering at UCLA's Henry Samueli School of Engineering and Applied Science "It sounds too good to be true, but it is true."

http://www.techreview.com/read_article.aspx?id=17123&ch=infotech


Isso, façam os computadores auto-suficientes para quando eles tiverem uma AI decente exterminarem a raça-humana :lol:
 
startrek017.jpg


"All your base are belong to us !" :D
 
Venha isso, porque a conta de energia anda cada vez mais pesada!

Sobre o risco de uma "Matrix" real, pah, isso é apenas consumo e não AI, basta manterem as AI "passivas" e sem capacidade de aprender e tal...
 
destr0yer disse:
basta manterem as AI "passivas" e sem capacidade de aprender e tal...
...e para não haver guerra basta só não atacar...mas olha ainda no outro dia andaram a testar 7 misseis de longo alcançe :P

O basta nunca vai servir para ng, assim que isso for realmente possivel vai-se proporcionar, de uma maneira ou de outra.

Quanto aos consumos venham eles, nós portugueses que contamos os euros, agradecemos.
 
uma noticia destas requer bem mais que isto para ser credivel.
onde é que estão os dados tecnicos?

não tenham grandes ilusões porque isto so mesmo em SciFi

quando um chip me passar a fornecer energia (calor não contabilizado), quando esta a trabalhar, algo de muito errado se esta a passar.

It sounds too good to be true
a parte do "but it's true" fica para o filme.

basicamente, ou isto esta mal explicado (alta probabilidade) ou eu compreendi mal (probabilidade igualmente elevada) ou isto é fake (probabilidade media-alta), ou isto é verdade (probabilidade nula)

a tecnologia basicamente consiste no reaproveitamento do calor (boa ideia) para converter em energia electrica (vai haver sempre calor dissipado)

no entanto, para haver calor dissipado, vai ter sempre que haver energia fornecida. contudo, a energia reaproveitada do calor, vai ser sempre inferior à energia fornecida. logo não pode haver qualquer tipo de autosuficiencia.´
parece-me uma boa ideia. é uma especie de paltier do avesso.

Parem la com o sensasionalismo :P
 
Última edição:
Tripnotik disse:
O basta nunca vai servir para ng, assim que isso for realmente possivel vai-se proporcionar, de uma maneira ou de outra.
N sei porquê mas essa frase..está excelente.

Bem, esta tecnologia vai ser bastante util, talvez os processadores nao aqueçam tanto e ainda usam esse calor para trabalharem ajuda a poupar muita energia o pior é o tempo que vai levar até essat ecnologia estar difundida por praticamente todos os computadores.


EDIT: Não porque hão-de achar impossivel.. para mim a explicaçao tecnica parece-me logica e bem podemos agradecer ao einstein :P

esse site disse:
In much the same way that a solar cell generates electricity when struck by photons in sunlight, the extra electrons in silicon lasers are released when two photons from the laser combine within the silicon. Jalali's device scoops up the free electrons and uses them to run transistors on the chip. Around two-thirds of the optical power that was lost to generating electrons can be recovered and put to use, Jalali says. Instead of using up one watt of power in the electron cleanup and generating extra heat, his method produces several milliwatts of power.

2/3 da energia desperdiçada é recuperada, não existe autosuficiencia no verdadeiro sentido da palavra, é verdade, mas há sempre alguma energia que retorna dele proprio.


E quando eles dizem que pode aumentar a velocidade com que a informaçao é trocada num computador suponho que é por usarem..luz?..

As they increase the power and amount of data, electrical resistance builds up -- until the wires hit their speed limit.
Telecommunications companies overcame this problem years ago when they replaced copper wires with beams of light carried through glass fibers in long-distance communications. Now chip makers such as Intel are building tiny versions of these faster systems, by taking advantage, over much shorter distances, of the greater carrying capacity of light waves, which are unaffected by electrical resistance.
 
Última edição:
paperless disse:
EDIT: Não porque hão-de achar impossivel.. para mim a explicaçao tecnica parece-me logica e bem podemos agradecer ao einstein :P
é impossivel o sentido que isto estava a levar: o da auto-suficiencia.

o saldo energetico vai ser sempre negativo. com isto pode é ser menos negativo ;) (mas para ser menos negativo, esta não é a unica solução)
 
Basicamente é substituir a passagem de electrões por fotões nos chips.

Um chip ou processador em vez de ter materiais condutores onde passam os electrões têm fibra óptica onde passa fotões.

Têm sempre que gastar alguma coisa, mas deve ser muito menos.
E não deve produzir calor nenhum.

É assim tão complicado de perceber?
 
Última edição:
Pois, já a algum tempo imaginei no seguinte, em vez de existir um cooler em cima do cpu, existiria um "bloco" que absorvia a energia termica e convertia em energia eléctrica...

O problema é tecnologia. Já é possivel fazer isso recorrendo a peltier's (inverter, ou seja em vez de mandar energia para produzir frio (e calor), o peltier absorve o calor e gera corrente eléctrica), mas é preciso um diferencial de temperatura entre o lado quente e o lado frio do peltier bastante grande! Do tipo o lado quente a 100ºc e o lado frio a -100ºC... Tornando a coisa inviavel...

Mas há que começar a combater o enorme desperdicio de calor por parte dos componentes informáticos, estamos a chegar a um ponto que um PC liberta tanto calor como um aquecedor e consumos de energias depois gigantescos! Alem que o meio ambiente agradecia e o protocolo de Kioto também (bem como as carteiras :D)
 
paperless disse:
Calor deve produzir so que em vez de ser transferido por conduçao ou convecção é por radiação.
Tás a fazer confusão. Não é por passar radiação no chip que vai emitir calor por radiação.
Se produzir calor é como os actuais, a parte exterior do chip fica a uma temperatra mais alta que o ar em redor, logo este aquece por condução. (O ar é que se pode movimentar por convecção).

Se emitisse calor por radiação, era como uma lampada, se pusesses a mão dentro dentro da caixa, sentias quente na direcção do processador.
Mas o que sentes é a temperatura ambiente quente dentro do PC.

Estou correcto ou não?
 
Aparicio disse:
Basicamente é substituir a passagem de electrões por fotões nos chips.

Um chip ou processador em vez de ter materiais condutores onde passam os electrões têm fibra óptica onde passa fotões.

Têm sempre que gastar alguma coisa, mas deve ser muito menos.
E não deve produzir calor nenhum.

É assim tão complicado de perceber?
A recuperação da energia desperdiçada não advém do facto de somente ser utilizada luz neste chip. O que estavam a tentar fazer era construir um chip óptico baseado em "silicon". Isto foi feito bombardeando o mesmo com um laser exterior. Este bombardeamento produzia electrões livres que acabavam por absorver a luz, efeito indesejado, naturalmente. A solução inicial passou por escoar esses electrões usando energia electrica, fazendo-a atravessar o chip. Isto consumia energia electrica e produzia calor no chip.

O que este senhor Jalali fez foi reutilizar os electrões livres da silicio bombardeado em vez de os escoar simplesmente, para energizar outras partes do chip.

Custou-te a perceber isto?
 
SilveRRIng disse:
A recuperação da energia desperdiçada não advém do facto de somente ser utilizada luz neste chip. O que estavam a tentar fazer era construir um chip óptico baseado em "silicon". Isto foi feito bombardeando o mesmo com um laser exterior. Este bombardeamento produzia electrões livres que acabavam por absorver a luz, efeito indesejado, naturalmente. A solução inicial passou por escoar esses electrões usando energia electrica, fazendo-a atravessar o chip. Isto consumia energia electrica e produzia calor no chip.

O que este senhor Jalali fez foi reutilizar os electrões livres da silicio bombardeado em vez de os escoar simplesmente, para energizar outras partes do chip.

Custou-te a perceber isto?
Não estava a ligar muito à produção dos fotões, mas á passagem destes pelo chip o que não deve produzir calor.

Mas se em vez de se escoarem os electões pelo chip, os reutilizarem, já não deve produzir calor no chip, a não ser que seja na produção dos fotões. Certo?
 
Eles conseguiram evitar uma grande parte da dissipação de calor evitando ter que fazer passar corrente electrica no chip, somente para escoar os electrões. Essa corrente não tinha nenhuma utilização prática que não fosse o de permitir que o laser funcionasse correctamente ao incidir no silicio.

O Jalali não só prescindiu dessa corrente electrica "superflua" como aproveitou de forma prática os electrões livres que resultavam do laser sobre o silicio. Conseguiu não só o efeito de escoagem dos electrões como os aproveitou para outras partes do chip.

Genial, sem duvida.
 
Pois aparicio relamente fiz algma confusao na parte de como o calor é gerado por aí.. erro meu. .espero n ter confundido ninguem.
 
Aparicio disse:
Mas se em vez de se escoarem os electões pelo chip, os reutilizarem, já não deve produzir calor no chip, a não ser que seja na produção dos fotões. Certo?

Os próprios materiais condutores têm uma certa resistência...Existem sempre as repulsões dos núcleos (num metal, por exemplo), logo os electrões não se vão deslocar em linha recta quando sujeitos a diferenças de potencial, mas sim de forma a evitar os núcleos.

Apesar dessa resistência ser mínima nos metais mais condutores (não considerando temperaturas muito elevadas, que aumentam a resistência eléctrica), chega para justificar o facto de haver SEMPRE energia dissipada (nem que seja 0.0000001% da fornecida)
 
WindWalker disse:
Os próprios materiais condutores têm uma certa resistência...Existem sempre as repulsões dos núcleos (num metal, por exemplo), logo os electrões não se vão deslocar em linha recta quando sujeitos a diferenças de potencial, mas sim de forma a evitar os núcleos.

Apesar dessa resistência ser mínima nos metais mais condutores (não considerando temperaturas muito elevadas, que aumentam a resistência eléctrica), chega para justificar o facto de haver SEMPRE energia dissipada (nem que seja 0.0000001% da fornecida)

Mas neste caso são fotões a passar num "material condutor de luz". Deve ser semelhante a luz a passar em fibras ópticas, ou seja um tubo oco revestido de material reflector. Não tendo as mesmas propriedades dos electrões nos condutores.

Por isso não será semelhante aos chips normais.
 
Aparicio disse:
Mas neste caso são fotões a passar num "material condutor de luz". Deve ser semelhante a luz a passar em fibras ópticas, ou seja um tubo oco revestido de material reflector. Não tendo as mesmas propriedades dos electrões nos condutores.

Por isso não será semelhante aos chips normais.

1º A luz só se transmite a 100% no vácuo

2º Se tivesses vácuo numa fibra óptica, ela era esmagada pela pressão atmosférica. Logo, o que deve haver é um gás rarefeito. Interacção da matéria com radiação => parece-me que não é 100% eficiente a conduzir os fotões, até porque acho que nas fibras ópticas também existe degradação do sinal...Esta tem que ser devido a algo...
 
WindWalker disse:
1º A luz só se transmite a 100% no vácuo

2º Se tivesses vácuo numa fibra óptica, ela era esmagada pela pressão atmosférica. Logo, o que deve haver é um gás rarefeito. Interacção da matéria com radiação => parece-me que não é 100% eficiente a conduzir os fotões, até porque acho que nas fibras ópticas também existe degradação do sinal...Esta tem que ser devido a algo...
Eu não disse que tinha de ter vacuo, quando digo oco refiro-me ao comum, a existência de ar.
Mas já que falas nisso, essas fibras ópticas serão à escala nanométrica.

Pensa assim, um fotão é milhões de vezes mais pequeno que uma molécula de uma substância do ar (dioxigénio, etc.), então se essa fibra óptica tiver o diametro nem que seja um pouco menor que o das moléculas, apenas passa fotões e existe vácuo nem que esteja aberta nas duas pontas. Penso eu que seja assim.

As fibras ópticas podem ter degradação do sinal, mas deve ser em distâncias muito maiores que as dos fios de cobre, se não porque são as ligaçõs dos ISP e dessas coisas em fibra óptica.
Agora se as distâncias dentro do PC são mais pequenas, ainda mais dificil deve ser a degradação do sinal.
 
Back
Topo