Welcome to the forums. Please post in English or French.

You are not logged in.

#1 2023-03-08 16:39:01

Sadri Mével
Member
From: PARIS
Registered: 2013-02-11
Posts: 49

Parallélisme pour CREA_CHAMP, et taille des répertoires de travail

Bonjour,

J'ai deux "problèmes", qui sont peut-être liés.

  1. je ne constate aucune accélération de CREA_CHAM/AFFE, EVAL, etc. lorsque j'active le MPI, ou le OpenMP, ou les deux. Or, j'ai cru comprendre de la figure 2.3.1 de la notice sur le parallélisme (U2.08.06) que cela devrait avoir un impact ?

  2. lorsque je travaille avec N proc en MPI, j'ai dans mon répertoire de travail (N+1) fois la base. Ceci mène à des répertoires de travail de taille très conséquente.

Dans un premier temps, sans chercher à résoudre ces problèmes, quelqu'un pourrait-il me confirmer si les deux points ci-dessus sont normaux ou anormaux lorsque l'installation est correctement paramétrée ?

Dans mes calculs, le temps de résolution de problèmes mécaniques est négligeable à côté du temps de manipulation des résultats. Je cherche donc à accélérer tout ça...

Je colle ci-dessous les informations de versions de mon installation.
Le serveur de calcul que j'utilise est une machine seule avec beaucoup de processeurs, mais pas un cluster.

Merci pour vos lumières,
Sadri

              -- CODE_ASTER -- VERSION : EXPLOITATION (stable) --               
                                                                                
                     Version 14.6.0 modifiée le 11/06/2020                      
                     révision b3490fa3b76c - branche 'v14'                      
                         Copyright EDF R&D 1991 - 2023                          
                                                                                
                    Exécution du : Wed Mar  8 11:00:01 2023                     
                         Nom de la machine : islcalcx01                         
                              Architecture : 64bit                              
                          Type de processeur : x86_64                           
     Système d'exploitation : Linux-5.15.0-60-generic-x86_64-with-glibc2.29     
                        Langue des messages : fr (UTF-8)                        
                                                                                
                           Version de Python : 3.8.10                           
                           Version de NumPy : 1.17.4                            
   
   !------------------------------------------------------------------------------------!
   ! <A> <SUPERVIS2_2>                                                                  !
   !                                                                                    !
   !     Vous utilisez une vieille version de Code_Aster.                               !
   !                                                                                    !
   !     En mettant à jour votre version, vous bénéficierez des dernières améliorations !
   !     apportées au code depuis 15 mois.                                              !
   !     Si vous avez des développements privés, vous risquez d'avoir un travail        !
   !     important de portage si vous ne suivez pas les mises à jour.                   !
   !                                                                                    !
   !                                                                                    !
   ! Ceci est une alarme. Si vous ne comprenez pas le sens de cette                     !
   ! alarme, vous pouvez obtenir des résultats inattendus !                             !
   !------------------------------------------------------------------------------------!
   
                            Parallélisme MPI : actif                            
                         Rang du processeur courant : 0                         
                       Nombre de processeurs utilisés : 3                       
                          Parallélisme OpenMP : actif                           
                        Nombre de processus utilisés : 3                        
                     Version de la librairie HDF5 : 1.10.3                      
                      Version de la librairie MED : 4.0.0                       
                       Librairie MFront : non disponible                        
                     Version de la librairie MUMPS : 5.1.2                      
                        Librairie PETSc : non disponible                        
                     Version de la librairie SCOTCH : 6.0.4                     

                 Mémoire limite pour l'exécution : 128000.00 Mo                 
                   consommée par l'initialisation : 374.41 Mo                   
                  par les objets du jeu de commandes : 2.02 Mo                  
                reste pour l'allocation dynamique : 127623.32 Mo                
                Taille limite des fichiers d'échange : 48.00 Go

Offline