OpenCL 2.0 异构计算 [第三版] (中文)
  • Introduction
  • 序言
  • 第1章 简介异构计算
    • 1.1 关于异构计算
    • 1.2 本书目的
    • 1.3 并行思想
    • 1.4 并发和并行编程模型
    • 1.5 线程和共享内存
    • 1.6 消息通讯机制
    • 1.7 并行性的粒度
    • 1.8 使用OpenCL进行异构计算
    • 1.9 本书结构
  • 第2章 设备架构
    • 2.1 介绍
    • 2.2 硬件的权衡
    • 2.3 架构设计空间
    • 2.4 本章总结
  • 第3章 介绍OpenCL
    • 3.1 简介OpenCL
    • 3.2 OpenCL平台模型
    • 3.3 OpenCL执行模型
    • 3.4 内核和OpenCL编程模型
    • 3.5 OpenCL内存模型
    • 3.6 OpenCL运行时(例子)
    • 3.7 OpenCL C++ Wapper向量加法
    • 3.8 CUDA编程者使用OpenCL的注意事项
  • 第4章 OpenCL案例
    • 4.1 OpenCL实例
    • 4.2 直方图
    • 4.3 图像旋转
    • 4.4 图像卷积
    • 4.5 生产者-消费者
    • 4.6 基本功能函数
    • 4.7 本章总结
  • 第5章 OpenCL运行时和并发模型
    • 5.1 命令和排队模型
    • 5.2 多命令队列
    • 5.3 内核执行域:工作项、工作组和NDRange
    • 5.4 原生和内置内核
    • 5.5 设备端排队
    • 5.6 本章总结
  • 第6章 OpenCL主机端内存模型
    • 6.1 内存对象
    • 6.2 内存管理
    • 6.3 共享虚拟内存
    • 6.4 本章总结
  • 第7章 OpenCL设备端内存模型
    • 7.1 同步和交互
    • 7.2 全局内存
    • 7.3 常量内存
    • 7.4 局部内存
    • 7.5 私有内存
    • 7.6 统一地址空间
    • 7.7 内存序
    • 7.8 本章总结
  • 第8章 异构系统下解析OpenCL
    • 8.1 AMD FX-8350 CPU
    • 8.2 AMD RADEON R9 290X CPU
    • 8.3 OpenCL内存性能的考量
    • 8.4 本章总结
  • 第9章 案例分析:图像聚类
    • 9.1 图像聚类简介
    • 9.2 直方图的特性——CPU实现
    • 9.3 OpenCL实现
    • 9.4 性能分析
    • 9.5 本章总结
  • 第10章 OpenCL的分析和调试
    • 10.1 设置本章的原因
    • 10.2 使用事件分析OpenCL代码
    • 10.3 AMD CodeXL
    • 10.4 如何使用AMD CodeXL
    • 10.5 使用CodeXL分析内核
    • 10.6 使用CodeXL调试OpenCL内核
    • 10.7 使用printf调试
    • 10.8 本章总结
  • 第11章 高级语言映射到OpenCL2.0 —— 从编译器作者的角度
    • 11.1 简要介绍现状
    • 11.2 简单介绍C++ AMP
    • 11.3 编译器的目标 —— OpenCL 2.0
    • 11.4 C++ AMP与OpenCL对比
    • 11.5 C++ AMP的编译流
    • 11.6 编译之后的C++ AMP代码
    • 11.7 OpenCL 2.0提出共享虚拟内存的原因
    • 11.8 编译器怎样支持C++ AMP的线程块划分
    • 11.9 地址空间的推断
    • 11.10 优化数据搬运
    • 11.11 完整例子:二项式
    • 11.12 初步结果
    • 11.13 本章总结
  • 第12章 WebCL:使用OpenCL加速Web应用
    • 12.1 介绍WebCL
    • 12.2 如何使用WebCL编程
    • 12.3 同步机制
    • 12.4 WebCL的交互性
    • 12.5 应用实例
    • 12.6 增强安全性
    • 12.7 服务器端使用WebCL
    • 12.8 WebCL的状态和特性
  • 第13章 其他高级语言中OpenCL的使用
    • 13.1 本章简介
    • 13.2 越过C和C++
    • 13.3 Haskell中使用OpenCL
    • 13.4 本章总结
Powered by GitBook
On this page
  • 1.7.1 数据共享与同步
  • 1.7.2 共享虚拟内存

Was this helpful?

  1. 第1章 简介异构计算

1.7 并行性的粒度

不论是在线程中使用共享内存,还在使用消息传递机制,我们都能调整线程的粒度。研究并行计算时,粒度是线程中计算量与通讯量(比如,需要在线程间进行同步的变量)。

并行的粒度由算法的特点所决定,选择合适的并行粒度对于编程者来说很重要,合适的粒度能够在当前设备上获得最优的性能。有时对于粒度选择就像是在分块,然后决定哪些数据给予哪个任务,选择了合适的块大小可以就能在并行硬件上获得性能收益。如何选择并行程序的粒度,可以参考下面列出一些经验。

使用细粒度并行时,需要考虑如下几点:

  • 计算量不要过大,这样每个线程都有足够的工作可做。

  • 尽可能减少在数据同步上的开销,这样每个线程能够独立的完成自己的任务。

  • 负载的划分也很重要,因为有大量的独立任务需要并行执行,设计良好的任务调度器都能灵活控制负载,并保证在多任务运行的同时,让线程上的达到均衡。

使用粗粒度并行时,需要考虑如下几点:

  • 计算量肯定要高于细粒度并行时的计算量,因为不会像细粒度并行那样,有很多线程同时执行。

  • 编程者使用粗粒度编程时,需要了解应用的整体结构,让粗粒度中的每个线程作为任务,服务于应用。

结合给出的建议,考虑一下自己的应用要选择哪种粒度的实现。其实,最合理的粒度取决于所要使用的算法和运行的硬件平台。大多数情况下,当同步和通讯的开销大于计算,那么将并行粒度加大,更有利于控制同步和通讯所需的过高开销。细粒度并行能减少负载不均和访存延迟在性能上的开销(对于GPU来说更是如此,其为粒度之细可以切换线程时达到零开销,同时也能隐藏访存延迟)。

当一个算法需要对大量数据进行同一组操作时,就可将数据视为向量,执行同一操作时,多个数据作为输入,经过向量操作后输出多个数据。这种执行方式就是利用单指令多数据(SIMD)的方式对数据进行处理,可并行硬件可以利用这种执行方式,并行的对不同的数据进行处理。这种粒度的并行与向量的大小有关,通过SIMD执行单元的多数据处理来获得应用性能的提升。

寻找和尝试最好的计算粒度时,是否考虑过为什么不将统一程序中的所有副本拷贝到其他处理单元和节点上,如果能够这样,是不是就不用理会执行单元的执行顺序,并且能让程序高效的运行在一个有着多处理器的共享系统上呢?SIMD模型与单程序多数据(SPMD)模型很相似,SPMD模型和SIMD模型都不会对指令边界进行同步的限制,并且允许这些副本任务或内核能够并发的执行。

1.7.1 数据共享与同步

开发异构软件还有一个很关键的因素——数据量。像想一下,两个任务没有任何数据需要共享,当运行环境或操作系统中的运算资源充足,那么这两个任务可以并行执行。如果在系统运行第一个任务时,第二个任务需要使用到第一个任务产出的结果。要是存在这样的数据依赖关系,那么就必选要介绍一下如何在并行或并发任务时,进行数据的同步。并行程序至少需要执行到一个同步点,才能够进行数据的同步。当然,这会让编程的难度加大,让异构编程更具有挑战性。

编写并发软件的时候,数据共享和同步扮演着很重要的角色。数据共享就有如下的用途:

  • 一个任务中的输入,依赖于另外一个任务的输出——例如:生产者-消费者模型、流水线执行模型。

  • 需要将中间结果进行综合(比如:归约,还有图1.5里的例子)。

理想状态下,可以尝试将应用能并行的部分剥离出来,确保并行的部分没有数据依赖,不过这只是理想状态而已。栅栏和锁有时会用来做数据的同步。虽然,现在只是举了这个例子,不过在后面的章节中我们将在OpenCL中重温这个问题。OpenCL提供相应的机制,来完成主机端和设备端的数据同步,或者是完成任务间的数据同步。

1.7.2 共享虚拟内存

很多异构系统,会将任务分散在不同的设备上执行,并且使用显式同步和通讯机制,来完成不同任务在不同设备上的数据同步。共享虚拟内存设置在硬件和软件层面,能够让不同的设备看到的是同一块内存。这个机制让编程更加简单,并且能节省显式的通讯开销。OpenCL 2.0标准开始支持共享虚拟内存,减少了在程序执行中高昂的通讯开销。同样,这样的机制就不需要在每个设备上都存储一组数据副本,也就可以节省内存的开销。当然,我们会在后面章节中,在与OpenCL上下文的相关章节中,讨论更多共享虚拟内存的细节。

OpenCL2.0提供了三种共享虚拟内存:

  • 粗粒度共享缓存

  • 细粒度共享缓存

  • 系统级细粒度共享缓存

使用共享虚拟内存需要OpenCL实现将系统中主机和设备端的地址链接起来。这就允许在OpenCL内核中使用数据结构的指针(比如:链表),之前版本的OpenCL标准是不支持内核中使用自定义数据结构指针。粗粒度缓存支持通过API的调用,来更新整个缓存的内容。细粒度缓存和系统级细粒度的粒度为字节级,这就意味着无论是主机端,还是设备端,对数据的更新将会立即同步。细粒度共享内存是按内存一致模型中定义好的内存序,在同步点对数据进行同步。第6和第7章中,我们会对这部分内容进行更深层次的探讨。

Previous1.6 消息通讯机制Next1.8 使用OpenCL进行异构计算

Last updated 6 years ago

Was this helpful?