MilkyWay@home - Thread oficial

Strakata

Portugal@Home Member
http://milkyway.cs.rpi.edu/milkyway/



About MilkyWay@home

The goal of Milkyway@Home is to use the BOINC platform to harness volunteered computing resources in creating a highly accurate three dimensional model of the Milky Way galaxy using data gathered by the Sloan Digital Sky Survey. This project enables research in both astroinformatics and computer science. In computer science, the project is investigating different optimization methods which are resilient to the fault-prone, heterogeneous and asynchronous nature of Internet computing; such as evolutionary and genetic algorithms, as well as asynchronous newton methods. While in astroinformatics, Milkyway@Home is generating highly accurate three dimensional models of the Sagittarius stream, which provides knowledge about how the Milky Way galaxy was formed and how tidal tails are created when galaxies merge.
MilkyWay@Home is a joint effort between Rensselaer Polytechnic Institute's departments of Computer Science and Physics, Applied Physics and Astronomy. Feel free to contact us via our forums, or email astro [at] cs [dot] rpi [dot] edu.
 
Bem, a Thread Oficial BOINC em GPU's começa a ficar sobrepovoada e já era hora do MilkyWay ter direito a thread própria.

Hoje reparei que finalmente a minha 4770 recebeu e processou automaticamente WUs para o MW! Parece que finalmente lançaram o cliente oficial ATI GPU para Windows 32bit :D


Fazendo a média dos créditos por hora das 8 horas de computação que tenho na My Account, aqui a máquina está a fazer ~96K/dia no MW. O mesmo exercício na My Account do Collatz@Home dá-me uma média de ~69K/dia. Parece que a Via Láctea rende mais créditos :)


Crunch on :D
 
Última edição:
Bem, como disse na outra thread, cada nova WU aqui no milkyway na 5870 demora 1m15s.

No collatz demorava 5m40s.



Não sei muito bem como é processado os creditos aqui no milkyway, mas que as WU são MUITO mais rapidas a processar são, até no CPU.

Acabei de reparar que com o Milkyway a usar o GPU, o mesmo "precisa" de 0,78 CPU. No meu caso, com duas gráficas a processar é 0,78 CPU x 2 ou seja, só tenho 7 threads para CPU, quando dantes tinha 8 (i7 - 4 cores + 4 hyperthread).

Ou seja, o Milkyway por GPU precisa de uma thread CPU dedicada para o processamento. O collatz precisava de 0,12 se não me engano.


Outra coisa que reparei é que as graficas aquecem mais 4-5 graus com o Milkyway que com o Collatz, e isto parece-me importante para quem tem graficas com overclock mais puxado.
 
Última edição:
Para chegar ao número de WUs/dia:

  1. Vou à lista das últimas WUs Validadas: http://boinc.thesonntags.com/collatz/results.php?userid=2525&offset=0&show_names=0&state=3
  2. Copio para o Excel, página a página, a informação das WUs (tudo menos o cabeçalho). É um bocado chato copiar uma a uma mas (a) nunca são muitas páginas e (b) quanto mais dados, mais fidedignos serão os resultados;
  3. Na última linha do Excel (a seguir aos pastes) introduzo duas somas: uma para a coluna do Run Time e outra soma para a coluna do Granted Credit;
  4. Introduzindo numa célula qualquer a fórmula: [(Soma Granted Credit / Soma Run Time)x60x60x24] obtêm-se os créditos médios diários (com base na amostra seleccionada)



Por acaso ainda não reparei nos ºC com um projecto e com outro, tenho de ver isso.
 
Ora bem, comparação entre computação GPU Milkyway e Collatz durante 1 dia:



Milkyway WU Large - 81s (média) - Granted Credit 214 - Credit / second => 2,64
Milkyway WU small - 18s (média) - Granted Credit 45 - Credit / second => 2,50


Collatz WU - 325s (média) - Granted Credit 750 - Credit / second => 2,30


Valores aproximados claro, cada WU dá valores ligeiramente diferentes.
 
Grunf...

O que é estranho é a 4770 suportar, mas não as 5700 que são superiores (tem a potência teórica das 4800).
 
14-01-2010 22:39:55 Milkyway@home Message from server: Host lacks double precision ATI GPU


Algo que a 4770 tem mas a 5770 não :/
Tenho lido malta a rogar pragas à AMD por ter lançado uma gráfica realmente mais rápida (5770) mas com menos features (double precision) do que a sua antecessora (4770).
 
Realmente a ATI começa a complicar o que devia de manter simples se quer que o CUDA tenha competição...

O mercado do GPGPU assim fica mais complicado:

- CUDA?
- OPENCL ?
- ATI STREAM?
- Double precision?
- # Stream processors?


Começam a ser demasiadas variantes para o comum utilizador, o GPGPU deveria de ser o mais simples possivel para que vingasse bem no mercado.
 
Reparei que a maioria usa ati, qual é melhor para o MilkyWay nvidia ou ati? em termos de Wu/tempo
 
Última edição:
Reparei que a maioria usa ati, qual é melhor para o MilkyWay nvidia ou ati? em termos de Wu/tempo

para o milkyway só mesmo ati.


new searches testing different validation types
I've implemented optimistic and pessimistic validation for the particle swarm searches now as well (as opposed to just the differential evolution searches that were running before). I've tested them quite a bit so I think it's working correctly, but just warning you the server might crash a few times in the next few days while I get all the bugs sorted out. Let me know if you're having any problems with the ps_s222_opt_1, ps_s222_pes_1 workunits. 22 Jan 2010 4:08:11 UTC · Comment

de novo com as graficas paradas :'(
la vou demorar mais tempo para chegar ao maranhão:004::004:
 
tens tido sorte que o pc tem andado em teste de estabilidade e não tem "crunchado" muito, mas parece que voltou tudo a andar na linha. por estupidez ainda mandei 140 wus do collatz para o lixo :facepalm: que são muitos créditos perdidos.
 
acho que ele estava a falar em termos de tempo. o que a tua leva na melhor da hipoteses pelo que dá para ver 11m30s uma 4870 leva cerca de 3 minutos
 
pois não tinha percebido! em termos de tempo ati rula e bem
digam ai um bom projecto para nvidia e que de preferencia renda créditos.
 
Back
Topo