|
| 1 | +Message Passing Interface (MPI) é um padrão para comunicação de dados em computação paralela. Existem várias modalidades de computação paralela, e dependendo do problema que se está tentando resolver, pode ser necessário passar informações entre os vários processadores ou nós de um cluster, e o MPI oferece uma infraestrutura para essa tarefa. |
| 2 | + |
| 3 | +Para iniciarmos o nosso estudo de MPI, implemente os desafios abaixo, entendendo como encadear sends e receives, e o impacto nos resultados. |
| 4 | + |
| 5 | + |
| 6 | +## **Ping-pong** |
| 7 | + |
| 8 | +A ideia é medir a **latência de comunicação ponto a ponto**. |
| 9 | + |
| 10 | +Implemente o ping-pong: rank 0 envia uma mensagem ao rank 1, que responde. |
| 11 | +Faça duas versões: |
| 12 | + |
| 13 | + * **Bloqueante** (`MPI_Send/MPI_Recv`) |
| 14 | + * **Não-bloqueante** (`MPI_Isend/Irecv + MPI_Wait`) |
| 15 | + |
| 16 | +Rode os testes: |
| 17 | + |
| 18 | + * Mensagens de **16 B, 1 KB, 64 KB, 1 MB** |
| 19 | + * Em 2, 3 e 4 nós |
| 20 | + |
| 21 | +Analise: |
| 22 | + |
| 23 | + * Para mensagens pequenas, o que domina: **latência fixa** ou **tamanho da mensagem**? |
| 24 | + * A partir de que tamanho de mensagem o gargalo passa a ser a **largura de banda** da rede? |
| 25 | + |
| 26 | +Código base: |
| 27 | +```cpp |
| 28 | +#include <mpi.h> // Biblioteca principal do MPI para comunicação entre processos |
| 29 | +#include <iostream> |
| 30 | +#include <cstring> |
| 31 | + |
| 32 | +int main(int argc, char** argv) { |
| 33 | + int rank; // Variável que armazenará o "rank" (identificador) do processo |
| 34 | + MPI_Status status; // Estrutura que armazenará o status da comunicação MPI |
| 35 | + char mensagem[100]; // Vetor de caracteres para armazenar a mensagem a ser enviada/recebida |
| 36 | + |
| 37 | + // Inicializa o ambiente MPI (todos os processos são iniciados) |
| 38 | + MPI_Init(&argc, &argv); |
| 39 | + |
| 40 | + // Descobre o "rank" do processo atual dentro do comunicador global (MPI_COMM_WORLD) |
| 41 | + MPI_Comm_rank(MPI_COMM_WORLD, &rank); |
| 42 | + |
| 43 | + // Se este for o processo de rank 0 (emissor inicial) |
| 44 | + if (rank == 0) { |
| 45 | + // Copia a string "Olá" para a variável mensagem |
| 46 | + std::strcpy(mensagem, "Olá"); |
| 47 | + |
| 48 | + // Envia a mensagem para o processo de rank 1 |
| 49 | + // Parâmetros: buffer, tamanho, tipo, destino, tag, comunicador |
| 50 | + MPI_Send(mensagem, std::strlen(mensagem) + 1, MPI_CHAR, 1, 0, MPI_COMM_WORLD); |
| 51 | + |
| 52 | + // Imprime no terminal que a mensagem foi enviada |
| 53 | + std::cout << "Processo 0 enviou: " << mensagem << std::endl; |
| 54 | + |
| 55 | + // Aguarda a resposta do processo 1 |
| 56 | + // Parâmetros: buffer, tamanho máximo, tipo, origem, tag, comunicador, status |
| 57 | + MPI_Recv(mensagem, 100, MPI_CHAR, 1, 0, MPI_COMM_WORLD, &status); |
| 58 | + |
| 59 | + // Imprime a mensagem recebida |
| 60 | + std::cout << "Processo 0 recebeu: " << mensagem << std::endl; |
| 61 | + } |
| 62 | + |
| 63 | + // Se este for o processo de rank 1 (receptor inicial) |
| 64 | + else if (rank == 1) { |
| 65 | + // Recebe a mensagem enviada pelo processo 0 |
| 66 | + MPI_Recv(mensagem, 100, MPI_CHAR, 0, 0, MPI_COMM_WORLD, &status); |
| 67 | + |
| 68 | + // Imprime a mensagem recebida |
| 69 | + std::cout << "Processo 1 recebeu: " << mensagem << std::endl; |
| 70 | + |
| 71 | + // Prepara a resposta "Oi" |
| 72 | + std::strcpy(mensagem, "Oi"); |
| 73 | + |
| 74 | + // Envia a resposta de volta ao processo 0 |
| 75 | + MPI_Send(mensagem, std::strlen(mensagem) + 1, MPI_CHAR, 0, 0, MPI_COMM_WORLD); |
| 76 | + |
| 77 | + // Imprime que a mensagem foi enviada |
| 78 | + std::cout << "Processo 1 enviou: " << mensagem << std::endl; |
| 79 | + } |
| 80 | + |
| 81 | + else { |
| 82 | + // Todos os outros processos apenas informam que estão ociosos |
| 83 | + std::cout << "Processo " << rank << " está ocioso neste exercício." << std::endl; |
| 84 | + } |
| 85 | + |
| 86 | + // Finaliza o ambiente MPI (todos os processos encerram) |
| 87 | + MPI_Finalize(); |
| 88 | + |
| 89 | + return 0; |
| 90 | +} |
| 91 | +``` |
| 92 | +
|
| 93 | +
|
| 94 | +## **Token em anel** |
| 95 | +
|
| 96 | +A ideia é perceber o custo de **coletar informações sequencialmente**. |
| 97 | +
|
| 98 | +Implemente o token em anel: cada rank adiciona uma informação nova ao vetor e passa adiante. |
| 99 | +Execute em 2, 3 e 4 nós . |
| 100 | +Compare com o mesmo problema usando `MPI_Gather`. |
| 101 | +
|
| 102 | +Analise: |
| 103 | +
|
| 104 | + * Como cresce o tempo do anel com o número de processos? |
| 105 | + * Qual o gargalo de percorrer todos em sequência? |
| 106 | + * Qual a vantagem de usar `MPI_Gather`? |
| 107 | +
|
| 108 | +--- |
| 109 | +
|
| 110 | +
|
| 111 | +## **Alternância** |
| 112 | +
|
| 113 | +A ideia é entender como funciona uma **distribuição de tarefas**. |
| 114 | +
|
| 115 | +Rank 0 possui 13 tarefas cada uma com diferentes niveis de complexidade. Implemente uma distribuição dinâmica de tarefas, o worker que terminar primeiro recebe a próxima tarefa. |
| 116 | +
|
| 117 | +O que acontece quando as tarefas variam muito de custo? |
| 118 | +
|
| 119 | +
|
| 120 | +
|
| 121 | +
|
| 122 | +# O que você deve entregar: |
| 123 | +
|
| 124 | +Para cada exercício: |
| 125 | +
|
| 126 | +1. **Código** (disponível no repositório do github). |
| 127 | +2. **Tabela de resultados** (parâmetros usados, tempos medidos). |
| 128 | +3. **Gráficos**: tempo × P, tempo × tamanho, throughput × blocos, etc. |
| 129 | +4. **Discussão**: Análise dos resultados |
| 130 | +
|
| 131 | +**Envie o seu relatório com as suas análises até as 23h59 de 04/09 pelo [GitHub Classroom](https://classroom.github.com/a/ilH4AsH_)** |
0 commit comments