OpenCL 2.0 异构计算 [第三版] (中文)
  • Introduction
  • 序言
  • 第1章 简介异构计算
    • 1.1 关于异构计算
    • 1.2 本书目的
    • 1.3 并行思想
    • 1.4 并发和并行编程模型
    • 1.5 线程和共享内存
    • 1.6 消息通讯机制
    • 1.7 并行性的粒度
    • 1.8 使用OpenCL进行异构计算
    • 1.9 本书结构
  • 第2章 设备架构
    • 2.1 介绍
    • 2.2 硬件的权衡
    • 2.3 架构设计空间
    • 2.4 本章总结
  • 第3章 介绍OpenCL
    • 3.1 简介OpenCL
    • 3.2 OpenCL平台模型
    • 3.3 OpenCL执行模型
    • 3.4 内核和OpenCL编程模型
    • 3.5 OpenCL内存模型
    • 3.6 OpenCL运行时(例子)
    • 3.7 OpenCL C++ Wapper向量加法
    • 3.8 CUDA编程者使用OpenCL的注意事项
  • 第4章 OpenCL案例
    • 4.1 OpenCL实例
    • 4.2 直方图
    • 4.3 图像旋转
    • 4.4 图像卷积
    • 4.5 生产者-消费者
    • 4.6 基本功能函数
    • 4.7 本章总结
  • 第5章 OpenCL运行时和并发模型
    • 5.1 命令和排队模型
    • 5.2 多命令队列
    • 5.3 内核执行域:工作项、工作组和NDRange
    • 5.4 原生和内置内核
    • 5.5 设备端排队
    • 5.6 本章总结
  • 第6章 OpenCL主机端内存模型
    • 6.1 内存对象
    • 6.2 内存管理
    • 6.3 共享虚拟内存
    • 6.4 本章总结
  • 第7章 OpenCL设备端内存模型
    • 7.1 同步和交互
    • 7.2 全局内存
    • 7.3 常量内存
    • 7.4 局部内存
    • 7.5 私有内存
    • 7.6 统一地址空间
    • 7.7 内存序
    • 7.8 本章总结
  • 第8章 异构系统下解析OpenCL
    • 8.1 AMD FX-8350 CPU
    • 8.2 AMD RADEON R9 290X CPU
    • 8.3 OpenCL内存性能的考量
    • 8.4 本章总结
  • 第9章 案例分析:图像聚类
    • 9.1 图像聚类简介
    • 9.2 直方图的特性——CPU实现
    • 9.3 OpenCL实现
    • 9.4 性能分析
    • 9.5 本章总结
  • 第10章 OpenCL的分析和调试
    • 10.1 设置本章的原因
    • 10.2 使用事件分析OpenCL代码
    • 10.3 AMD CodeXL
    • 10.4 如何使用AMD CodeXL
    • 10.5 使用CodeXL分析内核
    • 10.6 使用CodeXL调试OpenCL内核
    • 10.7 使用printf调试
    • 10.8 本章总结
  • 第11章 高级语言映射到OpenCL2.0 —— 从编译器作者的角度
    • 11.1 简要介绍现状
    • 11.2 简单介绍C++ AMP
    • 11.3 编译器的目标 —— OpenCL 2.0
    • 11.4 C++ AMP与OpenCL对比
    • 11.5 C++ AMP的编译流
    • 11.6 编译之后的C++ AMP代码
    • 11.7 OpenCL 2.0提出共享虚拟内存的原因
    • 11.8 编译器怎样支持C++ AMP的线程块划分
    • 11.9 地址空间的推断
    • 11.10 优化数据搬运
    • 11.11 完整例子:二项式
    • 11.12 初步结果
    • 11.13 本章总结
  • 第12章 WebCL:使用OpenCL加速Web应用
    • 12.1 介绍WebCL
    • 12.2 如何使用WebCL编程
    • 12.3 同步机制
    • 12.4 WebCL的交互性
    • 12.5 应用实例
    • 12.6 增强安全性
    • 12.7 服务器端使用WebCL
    • 12.8 WebCL的状态和特性
  • 第13章 其他高级语言中OpenCL的使用
    • 13.1 本章简介
    • 13.2 越过C和C++
    • 13.3 Haskell中使用OpenCL
    • 13.4 本章总结
Powered by GitBook
On this page

Was this helpful?

  1. 第11章 高级语言映射到OpenCL2.0 —— 从编译器作者的角度

11.11 完整例子:二项式

本节中,我们以一个应用开发者的角度来看一个较为复杂的例子。这里的代码需要使用之前章节所提到的编译技术进行转换,转换成一个正确,且有较高性能OpenCL实现。应用我们选择了二项式期权。注意,我们不会从数学和经济学的角度深度探讨该问题,只是对于编译器作者来说,将其做为一个完整的例子。

void binomial_options_gpu(
  std::vector<float> &v_s,
  std::vector<float> &v_x,
  std::vector<float> &v_vdt,
  std::vector<float> &v_pu_by_df,
  std::vector<float> &v_pd_by_df,
  std::vector<float> &call_value)

上面的代码就是二项式期权函数的声明,其中call_value作为存储最终结果的对象,其他的参数都仅作为输入参数。

extent<1> e(data_size);
arrar_view<float, 1> av_call_value(e, call_value);
av_call_value.discard_data();

为了将输入数据输入内核函数,数据需要通过C++ AMP的容器进行包装。本例中,使用concurrency::array_view。av_call_value对象调用discar_data,就是用来告诉运行时,这段数据无需从主机端拷贝到设备端。

array_view<const float, 1> av_s(e, v_s);
array_view<const float, 1> av_x(e, v_x);
array_view<const float, 1> av_vdt(e, v_vdt);
array_view<const float, 1> av_pu_by_df(e, v_pu_by_df);
array_view<const float, 1> av_pd_by_df(e, v_pd_by_df);

exten<1> ebuf(MAX_OPTIONS * (NUM_STEPS + 16));
array<float, 1> a_call_buffer(ebuf);

注意这里av_s,av_x,av_vdt,av_pu_by_df,av_pd_by_df均由array_view包装,也就是在计算完成后不需要拷贝回主机。

extent<1> compute_extent(CACHE_SIZE * MAX_OPTIONS);
parallel_for_each(compute_extent.tile<CACHE_SIZE>(),
  [=, &a_call_buffer]tile_index<CACHE_SIZE> ti)restrict(amp){
    binomial_options_gpu(ti, av_s, av_x, av_vdt, av_pu_by_df, av_pd_by_df, av_call_value, a_call_buffer);
  });
av_call_value.synchronize();

C++ AMP使用parallel_for_each完成计算。在计算完成之后,使用同步成员函数对计算结果进行同步,以确保所有计算结果都已经保存在容器中。所有使用到的数据都会在运行时进行隐式处理。编程者不需要显式的在设备和主机之间进行数据的传递或拷贝。注意parallel_for_each使用显式线程划分进行线程局部控制。

void binomial_options_kernel(
  tiled_index<CACHE_SIZE> &tidx,
  array_view<const float, 1> s,
  array_view<const float, 1> x,
  array_view<const float, 1> vdt,
  array_view<const float, 1> pu_by_df,
  array_view<const float, 1> pd_by_df,
  array_view<float, 1> call_value,
  array<float, 1> &call_buffer) restrict(amp){

  index<1> tile_idx = tidx.tile;
  index<1> local_idx = tidx.local;

  tile_static float call_a[CACHE_SIZE + 1];
  tile_static float call_b[CACHE_SIZE + 1];

  int tid = local_idx[0];
  int i;

  for (i = tid; i <= NUM_STEPS; i+= CACHE_SIZE){
    index<1> idx(tile_idx[0] * (NUM_STEPS + 16) + (i));
    call_buffer[idx] = expiry_call_value(s[tile_idx], x[tile_idx], vdt[tile_idx], i);
  }

  for (i = NUM_STEPS; i > 0; i -= CACHE_DELTA){
    for (int c_base = 0; c_base < i; c_base += CACHE_STEP){
      int c_start = min(CACHE_SIZE - 1, i - c_base);
      int c_end = c_start - CACHE_DELTA;

      tidx.barrier.wait();
      if (tid <= c_start){
        index<1> idx(tile_idx[0] * (NUM_STEPS + 16) + (c_base + tid));
        call_a[tid] = call_buffer[idx];
      }

      for (int k = c_start - 1; k >= c_end;){
        tidx.barrier.wait();
        call_b[tid] = pu_by_df[tile_idx] * call_a[tid + 1] + pd_by_df[tile_idx] * call_a[tid];
        k--;

        tidx.barrier.wait();
        call_a[tid] = pu_by_df[tile_idx] * call_b[tid + 1] + pd_by_df[tile_idx] * call_b[tid];
        k--;
    }

    tidx.barrier.wait();
    if (tid <= c_end){
      index<1> idx(tile_idx[0] * (NUM_STEPS + 16) + (c_base + tid));
      call_buffer[idx] = call_a[tid];
    }
  }

  if (tid == 0){
    call_value[tile_idx] = call_a[0];
  }
}

声明为tile_static类型的数据将在同一工作组内进行共享。为了确保共享数据的一致性,我们这里使用了tidx.barrier.wait函数。在同一工作组内的工作项将会在这个调用点进行等待,直到工作组内所有线程都到达该调用点为止。

Previous11.10 优化数据搬运Next11.12 初步结果

Last updated 6 years ago

Was this helpful?