Релаксация на Якоби в MPI

Създадох въпрос преди 1 час, но не беше добре зададен, затова пресъздадох един.

Получих код, който е релаксация на Якоби в C:

while ( error > tol && iter < iter_max ) {
    error = 0.0;

    for( int j = 1; j < n-1; j++)
    {   
        for( int i = 1; i < m-1; i++ )
        {   
            Anew[j][i] = 0.25 * ( A[j][i+1] + A[j][i-1]
                                + A[j-1][i] + A[j+1][i]);
            error = fmax( error, fabs(Anew[j][i] - A[j][i]));
        }
    }

    for( int j = 1; j < n-1; j++)
    {   
        for( int i = 1; i < m-1; i++ )
        {   
            A[j][i] = Anew[j][i];
        }
    }

    if(iter % 100 == 0) printf("%5d, %0.6f\n", iter, error);

    iter++;
}

Изпълнявам това с:

  • масиви от 4096x4096
  • iter_max = 1000
  • грешка = 1.0e-6
  • 16 ядра

Паралелизирах този код с OpenACC. Сега искам да използвам MPI, за да се опитам да разбера как работи. Въпреки това, за първите реализации, които направих, нямам добри резултати (новият масив не е добре конструиран). Как мога да паралелизирам този кодов раздел с MPI?


person Vincent ROSSIGNOL    schedule 22.06.2016    source източник
comment
Ако въведа термина Релаксация на Якоби в MPI в полето за търсене на широко използвана търсачка, първото попадение, което получавам, е урок (с решение) от изключително уважаван сайт, обхващащ проста итерация на Якоби . Това вероятно е много по-добра отправна точка за вашата работа, отколкото да задавате този доста широк въпрос тук.   -  person High Performance Mark    schedule 22.06.2016
comment
Видях този сайт. Не мисля обаче, че това е нещо, което работи добре, ако искате да създадете масив. Той не обединява всички части от създадения масив. Освен това е проектиран само за 12x12. Но съм съгласен, че е добра отправна точка.   -  person Vincent ROSSIGNOL    schedule 22.06.2016
comment
Добре дошли в Stackoverflow! Може да се интересувате от библиотеката PETSc. По-специално, функцията DMDACreate2d() създава разпределен масив. Например вижте това пример за нехомогенен лапласиан. Разпределените масиви са много често срещани в MPI програмите. Всъщност ограничава обема на комуникациите между възлите и осигурява добър баланс между заетостта на паметта и времето на процесора между процесите.   -  person francis    schedule 22.06.2016


Отговори (1)


Ето код, който бях написал за подобен случай и можете да го използвате като ръководство.

do {
  iter++;

  MPI_Irecv(&old[1][0], 1, myHelloVector, nbrs[LEFT], 2, MPI_COMM_WORLD, \
            &requestFourR[LEFT]); 
  MPI_Irecv(&old[1][chunkSize[1]+1], 1, myHelloVector, nbrs[RIGHT], 1, \
            MPI_COMM_WORLD, &requestFourR[RIGHT]); 

  MPI_Irecv(&old[0][1], chunkSize[1], MPI_FLOAT, nbrs[UP], 4, \
            MPI_COMM_WORLD, &requestFourR[UP]);
  MPI_Irecv(&old[chunkSize[0]+1][1], chunkSize[1], MPI_FLOAT, \
            nbrs[DOWN], 3, MPI_COMM_WORLD, &requestFourR[DOWN]);

  MPI_Issend(&old[1][1], 1, myHelloVector, nbrs[LEFT], 1, \
            MPI_COMM_WORLD, &requestFourS[LEFT]);     
  MPI_Issend(&old[1][chunkSize[1]], 1, myHelloVector, nbrs[RIGHT], 2, \
            MPI_COMM_WORLD, &requestFourS[RIGHT]);

  MPI_Issend(&old[1][1], chunkSize[1], MPI_FLOAT, nbrs[UP], 3, \
            MPI_COMM_WORLD, &requestFourS[UP]);
  MPI_Issend(&old[chunkSize[0]][1], chunkSize[1], MPI_FLOAT, nbrs[DOWN], 4, \
            MPI_COMM_WORLD, &requestFourS[DOWN]);

  calImage(old, new, edge, chunkSize[ROWS], chunkSize[COLS]);

  for (itr = 0; itr < 4; itr++) {
    MPI_Waitany(4, &requestFourR[0], &index, &status);
    switch ( index ) {  /* status.MPI_TAG) */
      case 0: /* RIGHT */
              j = 1;
              for (i = 2; i < chunkSize[0]; i++) {
                new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+ \
                          old[i][j+1] - edge[i][j]);
              }
              break;
      case 1: /* LEFT */
              j = chunkSize[1];
              for (i = 2; i < chunkSize[0]; i++) {
                new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+ \
                          old[i][j+1] - edge[i][j]);
              }
              break;
      case 2: /* DOWN */
              i = 1;
              for (j = 2; j < chunkSize[1]; j++) {
                new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+ \
                          old[i][j+1] - edge[i][j]);
              }
              break;
      case 3: /* UP */
              i = chunkSize[0];
              for (j = 2; j < chunkSize[1]; j++) {
                new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+ \
                          old[i][j+1] - edge[i][j]);
              }
              break;
    }
  }

  i = 1; j = 1;
  new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+old[i][j+1] - \
              edge[i][j]);

  i = 1; j = chunkSize[1];
  new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+old[i][j+1] - \
              edge[i][j]);

  i = chunkSize[0]; j = 1;
  new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+old[i][j+1] - \
              edge[i][j]);

  i = chunkSize[0]; j = chunkSize[1];
  new[i][j] = 0.25f*(old[i-1][j]+old[i+1][j]+old[i][j-1]+old[i][j+1] - \
              edge[i][j]);

  MPI_Waitall(4, requestFourS, statusS);

  temp = old;
  old = new;
  new = temp;
} while(your_stopping_condition);

Функцията calImage() прави изчисленията, които не зависят от операцията за размяна на хало.

void calImage(float **image, float **newImage, float **edge, \
          int rows, int cols) {
  int i, j;

  for (i = 2; i < rows; i++) {
    for (j = 2; j < cols; j++) {
      newImage[i][j] = 0.25f * (image[i-1][j] \
                        + image[i+1][j] \
                        + image[i][j-1] \
                        + image[i][j+1] \
                        - edge[i][j]);
    }
  }
}
person Angelos    schedule 01.07.2016