Zentrum für Datenverarbeitung (ZDV)

Software auf hpc-bw

Eine Liste der installierten Software kann auf hpc-bw auch durch Aufrufen von "module avail" angezeigt werden.

Hier erfahren Sie mehr zur Benutzung des Befehls "module".

Um eine Vorauswahl der Softwaremodule vorzunehmen, können Sie auch eine der folgenden Kategorien verwenden. Zum Beispiel bekommen sie mit dem Befehl "module avail bio" nur Softwaremodule aus den Bereichen Biologie oder Bioinformatik angezeigt.

Liste der Kategorien:

MATLAB®

MATLAB® Distributed Compute Servers™

Sie können auf dem Tübinger bwGRiD Cluster und auf dem bwUniCluster mit dem MATLAB Distributed Computing Server™ (MDCS) berechnungsintensive MATLAB®-Programme und Simulink®-Modelle über mehrere Knoten parallelisiert berechnen.

 

Ihr Programm oder Modell können Sie mit der Parallel Computing Toolbox™ auf einem Multicore-Desktopcomputer entwickeln und skalieren und es anschließend mit dem MDCS auf Cluster-Ebene als Job in Auftrag geben. Der Server unterstützt Batchjobs, parallele Berechnungen und verteilte große Datenmengen.

 

MATLAB® Jobs verschicken aus der lokalen MATLAB® GUI

Um Ihnen das Verschicken von Jobs so einfach wie möglich zu machen, können Sie Jobs direkt aus Ihrer MATLAB® GUI auf den bwGRiD Cluster oder den bwUniCluster verschicken. Laden Sie hierzu bitte folgende Scripte herunter und führen Sie die in der Beschreibung beschriebenen Installationsschritte durch.

 

Diese Beschreibung geht davon aus, dass Sie MATLAB® bereits installiert haben, ansonsten laden und installieren Sie es von der Campus-Software-Portal. Dazu ist eine Anmeldung mit Ihrem ZDV-Login notwendig.

Bei Fragen wenden Sie sich bitte an hpcmaster.

GROMACS

Molekulardynamische Simulationen mit GROMACS laufen auf den GPU Knoten von BinAC besonders performant. Intensive Skalierungsbenchmarks mit verschiedenen Simulationssystemen zeigen jedoch, dass die Verwendung von mehr als einem GPU Node (mit vier GPU Kernen) keinen Performanzgewinn bringt. Verwenden Sie bitte folgendes Skript und optimieren das PME Grid Ihres Simulationssystems, um eine möglichst gute Geschwindigkeit zu erzielen.

 

#PBS -l nodes=1:ppn=28:gpus=4:exclusive_process
#PBS -l walltime=00:10:00
#PBS -S /bin/bash
#PBS -N TEST
#PBS -j oe
#PBS -o LOG
#PBS -q gpu
#PBS -n
module purge
module load chem/gromacs/2016-gnu-4.9
cd $PBS_O_WORKDIR
gmx mdrun -v -deffnm CoolStuff -pin on -ntmpi 4 -ntomp 7 -gpu_id 0123 -s topol.tpr -maxh 0.05