2
A
回答
2
非正式地说,如果大部分内核时间花在执行内存指令上,内核就会受内存限制。相反,如果大多数操作是ALU-FPU指令,则内核是计算绑定的。 GPU具有较高的内存和计算带宽,可以适用于这两种类别。这些术语用于分类,并指出哪些优化技术可显着提高应用程序的性能。
对于每个类别的工作负载有不同的优化提示。例如,对于内存绑定的工作负载:利用共享内存,内存访问合并和内存驻留。对于受计算限制的工作负载,减少分支分歧,在ALU-FPU和SFU之间交错计算,并提供足够的独立指令来利用ILP。
相关问题
- 1. 如何找出内核是内存绑定还是计算绑定?
- 2. Ninject内核绑定覆盖
- 3. 计算独立内核的使用情况并将进程绑定到内核
- 4. 从指定的内核访问内核内存
- 5. Seaborn的ClusterMap,内核计算
- 6. 如何将进程绑定到freebsd/linux中的特定内核
- 7. 如何绑定在内核空间内部工作?
- 8. 定制内核,访问eMMC内存
- 9. 内核零内存?
- 10. CUDA内核中全局内存加载事务的计算
- 11. 内核估算
- 12. disable_local_irq和内核定时器
- 13. 哪个更好?循环内核或循环内核的CUDA GPU
- 14. Linux内核和我的内核模块
- 15. OpenCL和CUDA内核在同一GPU上
- 16. 计算CUDA内核中的周期数
- 17. Mathematica中NVIDIA K20 GPU的内核数量
- 18. 循环崩溃中的PyOpenCl内核GPU
- 19. 绑定内容的
- 20. 在GPU上运行OS内核级计算有意义吗?
- 21. 如何在Linux内核中计算BogoMips?
- 22. Linux内核内存障碍
- 23. 绑定内的角度绑定
- 24. .NET数据绑定和内存泄漏
- 25. 从内核调用内核
- 26. 定制的内核函数
- 27. 从操作系统内核访问GPU内存
- 28. OpenCL,直接从GPU内核访问主机内存
- 29. CUDA内核内部的内存分配
- 30. Haskell中的内部绑定