Amber SLURM Dosyası
SLURM betik dosyanızı aşağıdaki gibi yapilandirabilirsiniz. Node sayısını ve de --ntasks-per-node
parametresini probleminizin gereksinimlerine göre değiştirebilirsiniz (https://slurm.schedmd.com/sbatch.html)
Amber_mpi.slurm
#!/bin/bash
#SBATCH -p barbun
#SBATCH -A accountname
#SBATCH -J amber-test
#SBATCH -N 1
#SBATCH --ntasks-per-node=20
#SBATCH --time=3-00:00:00
#SBATCH --output=slurm-%j.out
#SBATCH --error=slurm-%j.err
export OMP_NUM_THREADS=1
export OMPI_MCA_btl_openib_allow_ib=1
echo "SLURM_NODELIST $SLURM_NODELIST"
echo "NUMBER OF CORES $SLURM_NTASKS"
module purge
module load centos7.3/comp/gcc/10.4
module load centos7.3/lib/openmpi/4.1.4-gcc-10.4
source /truba/home/fcaglar/amber-ulak/amber20/amber.sh
mpirun calistirma komutu
exit
Amber_CudaMPI.slurm
#!/bin/bash
#SBATCH -p barbun-cuda
#SBATCH -A accountname
#SBATCH -J amber-test
#SBATCH -N 1
#SBATCH --ntasks-per-node=20
#SBATCH --gres=gpu:1
#SBATCH --time=3-00:00:00
#SBATCH --output=slurm-%j.out
#SBATCH --error=slurm-%j.err
export OMP_NUM_THREADS=1
export OMPI_MCA_btl_openib_allow_ib=1
echo "SLURM_NODELIST $SLURM_NODELIST"
echo "NUMBER OF CORES $SLURM_NTASKS"
export CUDA_VISIBLE_DEVICES=0
module purge
module load centos7.3/comp/gcc/10.4
module load centos7.3/lib/openmpi/4.1.4-gcc-10.4
module load centos7.9/lib/cuda/11.1
source /truba/home/fcaglar/amber-ulak/amber20/amber.sh
mpirun calistirma komutu
exit
Not
GPU kullanımı için aşağıdaki dökümantasyon sayfamızı inceleyebilirsiniz: