OpenCL 2.0 异构计算 [第三版] (中文)
  • Introduction
  • 序言
  • 第1章 简介异构计算
    • 1.1 关于异构计算
    • 1.2 本书目的
    • 1.3 并行思想
    • 1.4 并发和并行编程模型
    • 1.5 线程和共享内存
    • 1.6 消息通讯机制
    • 1.7 并行性的粒度
    • 1.8 使用OpenCL进行异构计算
    • 1.9 本书结构
  • 第2章 设备架构
    • 2.1 介绍
    • 2.2 硬件的权衡
    • 2.3 架构设计空间
    • 2.4 本章总结
  • 第3章 介绍OpenCL
    • 3.1 简介OpenCL
    • 3.2 OpenCL平台模型
    • 3.3 OpenCL执行模型
    • 3.4 内核和OpenCL编程模型
    • 3.5 OpenCL内存模型
    • 3.6 OpenCL运行时(例子)
    • 3.7 OpenCL C++ Wapper向量加法
    • 3.8 CUDA编程者使用OpenCL的注意事项
  • 第4章 OpenCL案例
    • 4.1 OpenCL实例
    • 4.2 直方图
    • 4.3 图像旋转
    • 4.4 图像卷积
    • 4.5 生产者-消费者
    • 4.6 基本功能函数
    • 4.7 本章总结
  • 第5章 OpenCL运行时和并发模型
    • 5.1 命令和排队模型
    • 5.2 多命令队列
    • 5.3 内核执行域:工作项、工作组和NDRange
    • 5.4 原生和内置内核
    • 5.5 设备端排队
    • 5.6 本章总结
  • 第6章 OpenCL主机端内存模型
    • 6.1 内存对象
    • 6.2 内存管理
    • 6.3 共享虚拟内存
    • 6.4 本章总结
  • 第7章 OpenCL设备端内存模型
    • 7.1 同步和交互
    • 7.2 全局内存
    • 7.3 常量内存
    • 7.4 局部内存
    • 7.5 私有内存
    • 7.6 统一地址空间
    • 7.7 内存序
    • 7.8 本章总结
  • 第8章 异构系统下解析OpenCL
    • 8.1 AMD FX-8350 CPU
    • 8.2 AMD RADEON R9 290X CPU
    • 8.3 OpenCL内存性能的考量
    • 8.4 本章总结
  • 第9章 案例分析:图像聚类
    • 9.1 图像聚类简介
    • 9.2 直方图的特性——CPU实现
    • 9.3 OpenCL实现
    • 9.4 性能分析
    • 9.5 本章总结
  • 第10章 OpenCL的分析和调试
    • 10.1 设置本章的原因
    • 10.2 使用事件分析OpenCL代码
    • 10.3 AMD CodeXL
    • 10.4 如何使用AMD CodeXL
    • 10.5 使用CodeXL分析内核
    • 10.6 使用CodeXL调试OpenCL内核
    • 10.7 使用printf调试
    • 10.8 本章总结
  • 第11章 高级语言映射到OpenCL2.0 —— 从编译器作者的角度
    • 11.1 简要介绍现状
    • 11.2 简单介绍C++ AMP
    • 11.3 编译器的目标 —— OpenCL 2.0
    • 11.4 C++ AMP与OpenCL对比
    • 11.5 C++ AMP的编译流
    • 11.6 编译之后的C++ AMP代码
    • 11.7 OpenCL 2.0提出共享虚拟内存的原因
    • 11.8 编译器怎样支持C++ AMP的线程块划分
    • 11.9 地址空间的推断
    • 11.10 优化数据搬运
    • 11.11 完整例子:二项式
    • 11.12 初步结果
    • 11.13 本章总结
  • 第12章 WebCL:使用OpenCL加速Web应用
    • 12.1 介绍WebCL
    • 12.2 如何使用WebCL编程
    • 12.3 同步机制
    • 12.4 WebCL的交互性
    • 12.5 应用实例
    • 12.6 增强安全性
    • 12.7 服务器端使用WebCL
    • 12.8 WebCL的状态和特性
  • 第13章 其他高级语言中OpenCL的使用
    • 13.1 本章简介
    • 13.2 越过C和C++
    • 13.3 Haskell中使用OpenCL
    • 13.4 本章总结
Powered by GitBook
On this page

Was this helpful?

序言

计算时代在这已经进入异构计算时代,其意味着CPU和GPU可以同时处理同一计算任务。异构计算设计师们正在扩展异构计算的范围,为的就是让异构机器和硬件供应商能在更广阔的空间发挥自己的能量。硬件层面的变化为未来出现的新应用提供了更广阔的平台。不过,因为设计结构不同,传统编程模型在异构平台上的表现很难令人满意,这样就意味着要对新的编程模型进行学习,例如OpenCL中的编程模型。

OpenCL设计之初,设计们注意到,传统算法实现可以分为两类:第一类是延迟密集型(比如:电子表格遍历),算法工程师们使用C或C++在CPU上进行实现;第二类是吞吐密集型(比如:矩阵相乘),算法工程师会使用CUDA在GPU上进行实现。两种方式虽有关联,但是每种方式只工作在一种处理器上——C++不能在GPU上运行,CUDA无法在CPU上运行。开发者在实现算法时,只能使用其中一种。不过,算法应该能在不同的设备上混合实现,这才是异构设备的正式能力。现在的问题是如何在这样的设备上进行混合编程?

一种解决方案就是为现有的平台添加新的特性,C++和CUDA也都在积极的向好的方向发展,以迎接新硬件平台的挑战。另一种解决方式就是为异构计算创造一种新的编程模式,Apple公司为这种新的方式提供了提案和范例。这个提案被很多公司的技术部门重新定义,最终形成OpenCL。在设计之初,我很幸运是这些技术部门的一员。我们对kernel语言有着很多的预期:(1)让开发者只写一次kernel代码;(2)让已经写好的kernel代码可以在CPU,GPU,FPGA等设备上有效移植和运行;(3)kernel代码和硬件底层紧密相关,开发者就可充分利用每个设备来提升应用的性能;(4)最大抽象化编程模型,这样在每个公司的机器上只要编译一遍,就可以在其他同型号机器上使用。当然,和任何项目一样,我们想快速完成这些目标。为了加速实现,我们基于C99进行kernel语言的实现。在6个月内,OpenCL 1.0标准就诞生了,并且在1年内第一版的代码实现就出现了。之后,OpenCL就与“真正的”开发者见面了……

之后发生了什么?首先,C开发者说,一些C++特性(内存模型,原子操作等等)的添加让他们的工作更加高效。CUDA开发者说,NVIDIA将所有新特性都添加入CUDA(比如:嵌套并行),这让写程序更加简单,应用运行起来更加快。第二,硬件架构也是作为异构计算的一种探索,硬件供应商会提,如何移除CPU和GPU都需要独立内存的问题。近期,集成设备技术发展对于硬件来说是一重大的改变,这使得GPU和CPU可以放在同一芯片上(NVIDIA的tegra和AMD的APU都是这方面的例子)。第三,即使标准写的很谨慎,并且有一致性检查套件,不过在编译器实现方面,并不是总按标准来——有时同一套代码会在不同的设备上得到不同的结果。

所以就会之后的再修订,并产生出更加成熟的标准——OpenCL 2.0。

新标准的最大改进,就是能让开发者充分利用集成CPU和GPU的处理器。

较大的改变有如下内容:

  • 共享虚拟内存——主机和设备端可以共享复杂数据结构指针,比如:树和链表;以减少花在数据结构转换上的精力。

  • 动态并行——可以在不用主机代码参与的情况下,进行内核的加载,为的就是减小加载内核所产生的瓶颈。

  • 统一地址空间——这样同样的函数就可以处理GPU和CPU上的数据,以减少编程的难度。

  • C++原子操作——工作项可以跨越工作组共享数据和设备,可以让更多的算法使用OpenCL实现。

这本书充分的介绍了OpenCL,可以作为OpenCL编程课的教材,也可以作为并行编程课的一部分。不管怎么说,这本书对于想要学习OpenCL的开发者来说是很值得拥有的。

本书的作者也在高性能GPU和CPU混合编程方面,做了很多时间,花费了很多精力。我个人对他们的工作表示尊敬。之前版本对之前版本的OpenCL的覆盖的很全面,本版本将会覆盖到所有OpenCL 2.0添加的新特性。

我在这里希望读者们通过这本书,能对OpenCL进行了解,并在未来写出牛逼的异构应用。

Norm Rubin

NVIDIA研究科学家

东北大学访问学者

2015年1月

PreviousIntroductionNext第1章 简介异构计算

Last updated 6 years ago

Was this helpful?