Atom topic feed | site map | contact | login | Protection des données personnelles | Powered by FluxBB | réalisation artaban
You are not logged in.
Bonjour,
J'ai deux "problèmes", qui sont peut-être liés.
je ne constate aucune accélération de CREA_CHAM/AFFE, EVAL, etc. lorsque j'active le MPI, ou le OpenMP, ou les deux. Or, j'ai cru comprendre de la figure 2.3.1 de la notice sur le parallélisme (U2.08.06) que cela devrait avoir un impact ?
lorsque je travaille avec N proc en MPI, j'ai dans mon répertoire de travail (N+1) fois la base. Ceci mène à des répertoires de travail de taille très conséquente.
Dans un premier temps, sans chercher à résoudre ces problèmes, quelqu'un pourrait-il me confirmer si les deux points ci-dessus sont normaux ou anormaux lorsque l'installation est correctement paramétrée ?
Dans mes calculs, le temps de résolution de problèmes mécaniques est négligeable à côté du temps de manipulation des résultats. Je cherche donc à accélérer tout ça...
Je colle ci-dessous les informations de versions de mon installation.
Le serveur de calcul que j'utilise est une machine seule avec beaucoup de processeurs, mais pas un cluster.
Merci pour vos lumières,
Sadri
-- CODE_ASTER -- VERSION : EXPLOITATION (stable) --
Version 14.6.0 modifiée le 11/06/2020
révision b3490fa3b76c - branche 'v14'
Copyright EDF R&D 1991 - 2023
Exécution du : Wed Mar 8 11:00:01 2023
Nom de la machine : islcalcx01
Architecture : 64bit
Type de processeur : x86_64
Système d'exploitation : Linux-5.15.0-60-generic-x86_64-with-glibc2.29
Langue des messages : fr (UTF-8)
Version de Python : 3.8.10
Version de NumPy : 1.17.4
!------------------------------------------------------------------------------------!
! <A> <SUPERVIS2_2> !
! !
! Vous utilisez une vieille version de Code_Aster. !
! !
! En mettant à jour votre version, vous bénéficierez des dernières améliorations !
! apportées au code depuis 15 mois. !
! Si vous avez des développements privés, vous risquez d'avoir un travail !
! important de portage si vous ne suivez pas les mises à jour. !
! !
! !
! Ceci est une alarme. Si vous ne comprenez pas le sens de cette !
! alarme, vous pouvez obtenir des résultats inattendus ! !
!------------------------------------------------------------------------------------!
Parallélisme MPI : actif
Rang du processeur courant : 0
Nombre de processeurs utilisés : 3
Parallélisme OpenMP : actif
Nombre de processus utilisés : 3
Version de la librairie HDF5 : 1.10.3
Version de la librairie MED : 4.0.0
Librairie MFront : non disponible
Version de la librairie MUMPS : 5.1.2
Librairie PETSc : non disponible
Version de la librairie SCOTCH : 6.0.4
Mémoire limite pour l'exécution : 128000.00 Mo
consommée par l'initialisation : 374.41 Mo
par les objets du jeu de commandes : 2.02 Mo
reste pour l'allocation dynamique : 127623.32 Mo
Taille limite des fichiers d'échange : 48.00 Go
Offline