Computação Paralela

17
Computação Paralela Walfredo Cirne Univ. Federal de Campina Grande http://walfredo.dsc.ufcg.edu.br

description

Computação Paralela. Walfredo Cirne Univ. Federal de Campina Grande http://walfredo.dsc.ufcg.edu.br. Lei de Moore. Computadores dobram de performance a cada 18 meses Nas últimas 2 decadas, computadores melhoraram de performance em 10.000 vezes - PowerPoint PPT Presentation

Transcript of Computação Paralela

Page 1: Computação Paralela

Computação Paralela

Walfredo CirneUniv. Federal de Campina Grande

http://walfredo.dsc.ufcg.edu.br

Page 2: Computação Paralela

Lei de Moore

• Computadores dobram de performance a cada 18 meses

• Nas últimas 2 decadas, computadores melhoraram de performance em 10.000 vezes

• Como resultado, os computadores hoje têm mais ou menos o mesmo desempenho (na mesma ordem de magnitude)

Page 3: Computação Paralela

Paralelismo

• Em suma, computadores hoje são muuuito rápidos

• Mas fazemos coisas cada vez mais complexas

• Mas temos cada vez mais dados para processar

• O que fazer se você precisa processar por anos?

• Usar vários processadores simultaneamente

Page 4: Computação Paralela

Lei de Amdalh

• speed-up = tempo seqüencial / tempo paralelo

• tempo seqüencial = intrinsecamente-seqüencial + paralelizável

• melhor tempo paralelo = intrinsecamente-seqüencial

• melhor speed-up = 1 + paralelizável/intrinsecamente-seqüencial

Page 5: Computação Paralela

• Aplicando a Lei de Amdalh

• O que salva é que normalmente a parte intrinsecamente seqüencial dimiui (como proporção do tempo total) a medida que a entrada aumenta

Lei de Amdalh

max speed-up paralelizável (%)10 90%

100 99%1000 99,9%

10000 99,99%100000 99,999%

1000000 99,9999%

Page 6: Computação Paralela

Principais Aspectos de Computação Paralela

• Plataforma de Execução• Modelos de Programação• Aplicações

Page 7: Computação Paralela

Plataformas de Execução de Aplicações Paralelas

• SMPs acoplamento• MPPs• NOWs• Grids distribuição

Page 8: Computação Paralela

SMP

Memória

CPU

CPU

...

CPU

Page 9: Computação Paralela

MPP

CPU

Mem.

CPU

Mem.

CPU

Mem.

...

Escalonador

requisições

Page 10: Computação Paralela

NOW

CPU

Mem.

CPU

Mem.

CPU

Mem.

...

requisições requisições requisições

Page 11: Computação Paralela

Grid

CPU

Mem.

CPU

Mem.

CPU

Mem.

...

Internet

Page 12: Computação Paralela

Características das Plataformas de Execução

  SMPs MPPs NOWs Grids

Conectividade excelente muito boa boa média/ruim

Heterogeneidade nula baixa média alta

Compartilhado não não sim sim

Imagem única comum comum múltipla

Escala 10 1.000 1.000 100.000

Page 13: Computação Paralela

Grids podem diferir bastante

• TeraGrid – 4 centros de supercomputação norte-americanos– Cada centro com milhares de processadores dedicados

ao TeraGrid– Canais de altíssima velocidade (40 GBits/s)– Poder agregado de 13,6 TeraFlops

• SETI@home– Ciclos ociosos de 1.6 milhões de processadores

espalhados em 224 países– Computa em média a uma velocidade de 10 Teraflops

Page 14: Computação Paralela

Grid como Fonte de Computação

[a metáfora da rede elétrica]

Grid Computacional(fonte de recursos

computacional)

Grid Computacional(fonte de recursos

computacional)

Page 15: Computação Paralela

Um Grid do Futuro

VR Simul

Grid Auditing

MegaCiclos

Databank Inc.

Mastercard

Embratel

Page 16: Computação Paralela

Modelos de Programação

• Troca de mensagens– MPI, PVM– sockets

• Memória compartilhada – OpenMP– pthreads, threads Java

Page 17: Computação Paralela

Aplicações

• SPMD x MPMD– SPSD = sequêncial

• Classes de aplicação– Bag-of-Tasks– Master-slave (ou manager-work :-)– Data parallel

• Granularidade– Grão = computação feita entre comunicações– Grão fino requer SMP (ou, pelo menos, MPP)– Grão grosso tolera Grid