OpenCL 2.0 异构计算 [第三版] (中文)
  • Introduction
  • 序言
  • 第1章 简介异构计算
    • 1.1 关于异构计算
    • 1.2 本书目的
    • 1.3 并行思想
    • 1.4 并发和并行编程模型
    • 1.5 线程和共享内存
    • 1.6 消息通讯机制
    • 1.7 并行性的粒度
    • 1.8 使用OpenCL进行异构计算
    • 1.9 本书结构
  • 第2章 设备架构
    • 2.1 介绍
    • 2.2 硬件的权衡
    • 2.3 架构设计空间
    • 2.4 本章总结
  • 第3章 介绍OpenCL
    • 3.1 简介OpenCL
    • 3.2 OpenCL平台模型
    • 3.3 OpenCL执行模型
    • 3.4 内核和OpenCL编程模型
    • 3.5 OpenCL内存模型
    • 3.6 OpenCL运行时(例子)
    • 3.7 OpenCL C++ Wapper向量加法
    • 3.8 CUDA编程者使用OpenCL的注意事项
  • 第4章 OpenCL案例
    • 4.1 OpenCL实例
    • 4.2 直方图
    • 4.3 图像旋转
    • 4.4 图像卷积
    • 4.5 生产者-消费者
    • 4.6 基本功能函数
    • 4.7 本章总结
  • 第5章 OpenCL运行时和并发模型
    • 5.1 命令和排队模型
    • 5.2 多命令队列
    • 5.3 内核执行域:工作项、工作组和NDRange
    • 5.4 原生和内置内核
    • 5.5 设备端排队
    • 5.6 本章总结
  • 第6章 OpenCL主机端内存模型
    • 6.1 内存对象
    • 6.2 内存管理
    • 6.3 共享虚拟内存
    • 6.4 本章总结
  • 第7章 OpenCL设备端内存模型
    • 7.1 同步和交互
    • 7.2 全局内存
    • 7.3 常量内存
    • 7.4 局部内存
    • 7.5 私有内存
    • 7.6 统一地址空间
    • 7.7 内存序
    • 7.8 本章总结
  • 第8章 异构系统下解析OpenCL
    • 8.1 AMD FX-8350 CPU
    • 8.2 AMD RADEON R9 290X CPU
    • 8.3 OpenCL内存性能的考量
    • 8.4 本章总结
  • 第9章 案例分析:图像聚类
    • 9.1 图像聚类简介
    • 9.2 直方图的特性——CPU实现
    • 9.3 OpenCL实现
    • 9.4 性能分析
    • 9.5 本章总结
  • 第10章 OpenCL的分析和调试
    • 10.1 设置本章的原因
    • 10.2 使用事件分析OpenCL代码
    • 10.3 AMD CodeXL
    • 10.4 如何使用AMD CodeXL
    • 10.5 使用CodeXL分析内核
    • 10.6 使用CodeXL调试OpenCL内核
    • 10.7 使用printf调试
    • 10.8 本章总结
  • 第11章 高级语言映射到OpenCL2.0 —— 从编译器作者的角度
    • 11.1 简要介绍现状
    • 11.2 简单介绍C++ AMP
    • 11.3 编译器的目标 —— OpenCL 2.0
    • 11.4 C++ AMP与OpenCL对比
    • 11.5 C++ AMP的编译流
    • 11.6 编译之后的C++ AMP代码
    • 11.7 OpenCL 2.0提出共享虚拟内存的原因
    • 11.8 编译器怎样支持C++ AMP的线程块划分
    • 11.9 地址空间的推断
    • 11.10 优化数据搬运
    • 11.11 完整例子:二项式
    • 11.12 初步结果
    • 11.13 本章总结
  • 第12章 WebCL:使用OpenCL加速Web应用
    • 12.1 介绍WebCL
    • 12.2 如何使用WebCL编程
    • 12.3 同步机制
    • 12.4 WebCL的交互性
    • 12.5 应用实例
    • 12.6 增强安全性
    • 12.7 服务器端使用WebCL
    • 12.8 WebCL的状态和特性
  • 第13章 其他高级语言中OpenCL的使用
    • 13.1 本章简介
    • 13.2 越过C和C++
    • 13.3 Haskell中使用OpenCL
    • 13.4 本章总结
Powered by GitBook
On this page

Was this helpful?

  1. 第7章 OpenCL设备端内存模型

7.4 局部内存

OpenCL也支持一些架构的子集,包括多GPU和Cell带宽引擎,用于处理小暂存式缓存数组在主DRAM和基础缓存上的分布。局部内存与全局内存没有交集,访问两种内存所使用的是不同的操作。基于这种架构,不同内存之间就需要进行数据传输(使用async_work_group_copy()进行拷贝会更高效),或者直接内存间的拷贝。局部内存也同样支持CPU实现,不过在CPU端局部内存就存放在标准可缓存内存中。所以在CPU端局部内存依旧具有较低的访存延迟。

局部内存非常有用,因为其能提供工作组中的工作项有更高的交互方式。任何分配出来的局部内存都能让整个工作组的工作项访问,因此如果对局部内存进行修改,对组内其他工作也是可见的。局部内存使用__local标识符修饰,其可以在内核内部进行分配,也可以通过内核参数传入。两种方式的代码如下所示:

__kernel
void localAccess(
  __global float *A,
  __global float *B,
  __local float *C){

  __local float aLocalArray[1];
  if (get_local_id(0) == 0){
    aLocalArray[0] = A[0];
  }

  C[get_local_id(0)] = A[get_global_id(0)];

  work_group_barrier(CLK_LOCAL_MEM_FENCE);

  float neighborSum = C[get_local_id(0)] + aLocalArray[0];

  if (get_local_id(0) > 0){
    neighborSum = neighborSum + C[get_local_id[0] - 1];
  }

  B[get_global_id(0)] = neighborSum
}

图7.4展示了上述代码的数据流。

图7.4 localAccess内核在执行时的数据流

注意,这里将数据从全局内存中读出,然后(以不可预知的时序)写入两个局部内存数组C和aLocalArray中。不过,在实际硬件上是可以进行预测的,因为可以将对应的模型映射到实际的硬件上。例如,AMD GPU上经常会处理SIMD向量数据,对整个向量的读写操作实际上都会由一个工作项进行。不过,这种特性并非适用各种情况。通常,我们都会插入一个栅栏操作:只有所有工作项到达栅栏时,才能保证所有的数据都从全局内存搬运过来,或是搬运到全局内存上,之后组内所有工作项看到的局部数据就是一致的。越过栅栏之后,如图下半部分所示,数据就能被组内所有工作项使用。

内核代码从词法角度看,aLocalArray只能被当前函数使用,而非整个工作组。这是因为aLocalArray内存空间是在局部内存上开辟,局部内存上的内存就属于整个工作组可见,所以整个工作组所访问到的aLocalArray实际上是同一地址中的数据。因为在到达栅栏之前,只要工作项0对aLocalArray进行了写入,在越过栅栏之后,所有工作项就能直接使用aLocalArray了。

代码中C数组就是通过主机端创建的局部内存。这种方式需要调用运行时API。为了分配内存使用clSetKernelArg()传递局部内存的大小到内核中。通常clSetKernelArg都是传递一个全局内存到内核端,现在这个内存参数需要置为NULL。这种方式意味着不需要全局变量的返回,所以其就为局部内存了。式例如下:

ciErrNum = clSetKernelArg(
  kernel object,
  parameter index,
  size in bytes,
  NULL)
Previous7.3 常量内存Next7.5 私有内存

Last updated 6 years ago

Was this helpful?