以文本方式查看主题 - 金字塔客服中心 - 专业程序化交易软件提供商 (http://222.73.7.161/bbs/index.asp) -- 功能教学汇总区 (http://222.73.7.161/bbs/list.asp?boardid=17) ---- 在金字塔Python中利用GPU显卡加速并行计算 (http://222.73.7.161/bbs/dispbbs.asp?boardid=17&id=165734) |
-- 作者:道飞 -- 发布时间:2018/9/29 22:38:18 -- 在金字塔Python中利用GPU显卡加速并行计算 虽然机器学习已经有数十年的历史,但是两个较为新近的趋势促进了机器学习的广泛应用: 海量训练数据的出现以及 GPU 计算所提供的强大而高效的并行计算。 人们利用 GPU 来训练这些深度神经网络,所使用的训练集大得多,所耗费的时间大幅缩短,占用的数据中心基础设施也少得多。 GPU 还被用于运行这些机器学习训练模型,从而在耗费功率更低、占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。
用户需要在计算机中部署pyCUDA库,相关下载及参考资料 https://developer.nvidia.com/cuda-downloads
相关范例: import pycuda.autoinit from pycuda.compiler import SourceModule multiply_them = mod.get_function("multiply_them") a = numpy.random.randn(400).astype(numpy.float32) dest = numpy.zeros_like(a) print dest-a*b |