我的问题是:
是否有将 openCL 与多个 GPU 结合使用的任何新进展(或者可能是开发的工具/库)?我知道如果有人想在 openCL 中编写代码以使用多个 GPU,那么他可以,但有人告诉我,您可以安排它们之间的通信的方式有点“原始”。我想知道的是,是否有什么东西可以在程序员和 GPU 之间的所有通信安排之间设置一个抽象级别。
我正在使用非常大的格子进行随机模拟,我希望能够将它们分解为不同的 GPU,每个 GPU 都可以进行计算并在必要时进行通信。以一种高效的方式编写它已经足够困难了,所以如果我可以避免使用标准方式通过 openCL 完成它的所有低级工作,那将是一个很大的帮助。
谢谢!
最佳答案
在学术方面,有韩国首尔国立大学的这篇论文:
在 OpenCL 中为多个 GPU 实现单个计算设备镜像 , http://dl.acm.org/citation.cfm?id=1941591
作者提出了一种在多个 GPU 上划分内核的自动机制。不幸的是,他们的框架还没有发布。
关于opencl - 关于在多个 GPU 上使用 openCL 的任何新想法?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/9440215/