也许是一个疯狂的问题,但是有可能在GPU上运行线程吗?

我问的原因是我要执行一些相当复杂的计算(主要是数学和数组),并希望了解使用GPU是否可以提高速度。

哦,我想用C#或F#来做这件事:)

谢谢

最佳答案

这里有一个关于该主题的摘要:

http://microsoft.cs.msu.su/Projects/Documents/ILShaders/ilshaders.pdf-[[死链接]]

但是我还没有找到到源的链接。这是Google翻译的项目页面:

http://translate.google.co.uk/translate?hl=en&sl=ru&u=http://microsoft.cs.msu.su/Projects/Pages/ILShaders.aspx&ei=QuieTu_tGsTD8QPk-tmmCQ&sa=X&oi=translate&ct=result&resnum=2&ved=0CCYQ7gEwAQ&prev=/search%3Fq%3DILShaders%26hl%3Den%26prmd%3Dimvns-[[deak link]]

我之前已经看过这个主题,以前没有发现任何实际采用兼容语言并将其编译到GPU上的东西。

有很多库可以公开GPU部件,但是您需要了解如何以并行数据结构的方式表达问题。然后可以在C#中引用这些库。

一些库:

CUDA.NET -- dead link

Microsoft Accelerator -- dead link

其他各种Q/A来源:

Utilizing the GPU with c#

http://social.msdn.microsoft.com/Forums/en/csharpgeneral/thread/239fd75b-05c3-4e4b-9835-6807940dc492

更新: SK-logic对tidepowerd进行了评论,我已链接“工作原理”部分:

http://www.tidepowerd.com/product/howitworks-[[死链接]]

对我来说,这似乎是一个很好的起点。不知道它是否直接处理MSIL,最初看起来像是在后台生成自定义代码的构建后步骤。

关于c# - 在GPU上运行MSIL,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/7823446/

10-16 20:38