Fix ThreadMPI GPU assumptions
commit5b81d1f09ea46f7bd9a021a3363a8396d876cd68
authorMark Abraham <mark.j.abraham@gmail.com>
Thu, 2 Jul 2015 14:57:10 +0000 (2 16:57 +0200)
committerGerrit Code Review <gerrit@gerrit.gromacs.org>
Fri, 3 Jul 2015 09:48:30 +0000 (3 11:48 +0200)
tree5c3f4c9dd0d3fe9b1fbe2cbf0175e23c31cc3dc2
parentb5c9f851184f69fdc4533f272f6b0a598e8552ca
Fix ThreadMPI GPU assumptions

The OpenCL implementation introduces the constraint of one GPU per
node, but thread-MPI still assumed any compatible GPU was available
for use and thus should have a rank.

Consolidated the configure-time constants behind some API functions so
that we can use the same behaviour in the various setup code.

Added a warning message that the OpenCL implementation has to waste a
GPU, stopped showing another warning message related to wasting
GPUs when the OpenCL implemenation forces this, and improved
another message to clarify why gmx mdrun -ntmpi 2 won't work
with OpenCL.

Also fixed a few references to thread-MPI threads that are better
called thread-MPI ranks.

Change-Id: I4664c49786ebd26a53cbf5e1c26df79649ba4f5f
src/gromacs/gmxlib/gmx_detect_hardware.cpp
src/gromacs/legacyheaders/gmx_detect_hardware.h
src/programs/mdrun/resource-division.cpp