也许是一个疯狂的问题,但是有可能在GPU上运行线程吗?
我问的原因是我要执行一些相当复杂的计算(主要是数学和数组),并希望了解使用GPU是否可以提高速度。
哦,我想用C#或F#来做这件事:)
谢谢
最佳答案
这里有一个关于该主题的摘要:
http://microsoft.cs.msu.su/Projects/Documents/ILShaders/ilshaders.pdf-[[死链接]]
但是我还没有找到到源的链接。这是Google翻译的项目页面:
http://translate.google.co.uk/translate?hl=en&sl=ru&u=http://microsoft.cs.msu.su/Projects/Pages/ILShaders.aspx&ei=QuieTu_tGsTD8QPk-tmmCQ&sa=X&oi=translate&ct=result&resnum=2&ved=0CCYQ7gEwAQ&prev=/search%3Fq%3DILShaders%26hl%3Den%26prmd%3Dimvns-[[deak link]]
我之前已经看过这个主题,以前没有发现任何实际采用兼容语言并将其编译到GPU上的东西。
有很多库可以公开GPU部件,但是您需要了解如何以并行数据结构的方式表达问题。然后可以在C#中引用这些库。
一些库:
CUDA.NET -- dead link
Microsoft Accelerator -- dead link
其他各种Q/A来源:
Utilizing the GPU with c#
http://social.msdn.microsoft.com/Forums/en/csharpgeneral/thread/239fd75b-05c3-4e4b-9835-6807940dc492
更新: SK-logic对tidepowerd进行了评论,我已链接“工作原理”部分:
http://www.tidepowerd.com/product/howitworks-[[死链接]]
对我来说,这似乎是一个很好的起点。不知道它是否直接处理MSIL,最初看起来像是在后台生成自定义代码的构建后步骤。
关于c# - 在GPU上运行MSIL,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/7823446/