IB/qib: Reduce sdma_lock contention
commit551ace124d0ef471e8a5fee3ef9e5bb7460251be
authorMike Marciniszyn <mike.marciniszyn@intel.com>
Thu, 19 Jul 2012 13:03:56 +0000 (19 13:03 +0000)
committerRoland Dreier <roland@purestorage.com>
Thu, 19 Jul 2012 18:19:58 +0000 (19 11:19 -0700)
treed04b3700a959bc1d87f27ba4cc0752b6dd1725b9
parentf3331f88a4b97530b7acd3112902524d9dc0688c
IB/qib: Reduce sdma_lock contention

Profiling has shown that sdma_lock is proving a bottleneck for
performance. The situations include:
 - RDMA reads when krcvqs > 1
 - post sends from multiple threads

For RDMA read the current global qib_wq mechanism runs on all CPUs
and contends for the sdma_lock when multiple RMDA read requests are
fielded on differenct CPUs. For post sends, the direct call to
qib_do_send() from multiple threads causes the contention.

Since the sdma mechanism is per port, this fix converts the existing
workqueue to a per port single thread workqueue to reduce the lock
contention in the RDMA read case, and for any other case where the QP
is scheduled via the workqueue mechanism from more than 1 CPU.

For the post send case, This patch modifies the post send code to test
for a non empty sdma engine.  If the sdma is not idle the (now single
thread) workqueue will be used to trigger the send engine instead of
the direct call to qib_do_send().

Signed-off-by: Mike Marciniszyn <mike.marciniszyn@intel.com>
Signed-off-by: Roland Dreier <roland@purestorage.com>
drivers/infiniband/hw/qib/qib.h
drivers/infiniband/hw/qib/qib_init.c
drivers/infiniband/hw/qib/qib_verbs.c
drivers/infiniband/hw/qib/qib_verbs.h