Code refactor: add WorkTile struct for passing work to kernel.
[blender-staging.git] / intern / cycles / kernel / kernel_work_stealing.h
1 /*
2  * Copyright 2011-2015 Blender Foundation
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  * http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __KERNEL_WORK_STEALING_H__
18 #define __KERNEL_WORK_STEALING_H__
19
20 CCL_NAMESPACE_BEGIN
21
22 /*
23  * Utility functions for work stealing
24  */
25
26 #ifdef __KERNEL_OPENCL__
27 #  pragma OPENCL EXTENSION cl_khr_global_int32_base_atomics : enable
28 #endif
29
30 #ifdef __SPLIT_KERNEL__
31 /* Returns true if there is work */
32 ccl_device bool get_next_work(KernelGlobals *kg,
33                               ccl_global uint *work_pools,
34                               uint total_work_size,
35                               uint ray_index,
36                               ccl_private uint *global_work_index)
37 {
38         /* With a small amount of work there may be more threads than work due to
39          * rounding up of global size, stop such threads immediately. */
40         if(ray_index >= total_work_size) {
41                 return false;
42         }
43
44         /* Increase atomic work index counter in pool. */
45         uint pool = ray_index / WORK_POOL_SIZE;
46         uint work_index = atomic_fetch_and_inc_uint32(&work_pools[pool]);
47
48         /* Map per-pool work index to a global work index. */
49         uint global_size = ccl_global_size(0) * ccl_global_size(1);
50         kernel_assert(global_size % WORK_POOL_SIZE == 0);
51         kernel_assert(ray_index < global_size);
52
53         *global_work_index = (work_index / WORK_POOL_SIZE) * global_size
54                            + (pool * WORK_POOL_SIZE)
55                            + (work_index % WORK_POOL_SIZE);
56
57         /* Test if all work for this pool is done. */
58         return (*global_work_index < total_work_size);
59 }
60 #endif
61
62 /* Map global work index to tile, pixel X/Y and sample. */
63 ccl_device_inline void get_work_pixel(ccl_global const WorkTile *tile,
64                                       uint global_work_index,
65                                       ccl_private uint *x,
66                                       ccl_private uint *y,
67                                       ccl_private uint *sample)
68 {
69         uint tile_pixels = tile->w * tile->h;
70         uint sample_offset = global_work_index / tile_pixels;
71         uint pixel_offset = global_work_index - sample_offset * tile_pixels;
72         uint y_offset = pixel_offset / tile->w;
73         uint x_offset = pixel_offset - y_offset * tile->w;
74
75         *x = tile->x + x_offset;
76         *y = tile->y + y_offset;
77         *sample = tile->start_sample + sample_offset;
78 }
79
80 CCL_NAMESPACE_END
81
82 #endif  /* __KERNEL_WORK_STEALING_H__ */