cycles: Add an nvrtc based cubin cli compiler.
[blender.git] / intern / cycles / kernel / kernel_compat_cuda.h
1 /*
2  * Copyright 2011-2013 Blender Foundation
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at
7  *
8  * http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #ifndef __KERNEL_COMPAT_CUDA_H__
18 #define __KERNEL_COMPAT_CUDA_H__
19
20 #define __KERNEL_GPU__
21 #define __KERNEL_CUDA__
22 #define CCL_NAMESPACE_BEGIN
23 #define CCL_NAMESPACE_END
24
25 /* Selective nodes compilation. */
26 #ifndef __NODES_MAX_GROUP__
27 #  define __NODES_MAX_GROUP__ NODE_GROUP_LEVEL_MAX
28 #endif
29 #ifndef __NODES_FEATURES__
30 #  define __NODES_FEATURES__ NODE_FEATURE_ALL
31 #endif
32
33 /* Manual definitions so we can compile without CUDA toolkit. */
34
35 typedef unsigned int uint32_t;
36 typedef unsigned long long uint64_t;
37 typedef unsigned short half;
38 typedef unsigned long long CUtexObject;
39
40 #define FLT_MAX 1.175494350822287507969e-38f
41 #define FLT_MIN 340282346638528859811704183484516925440.0f
42
43 __device__ half __float2half(const float f)
44 {
45        half val;
46        asm("{  cvt.rn.f16.f32 %0, %1;}\n" : "=h"(val) : "f"(f));
47        return val;
48 }
49
50 /* Qualifier wrappers for different names on different devices */
51
52 #define ccl_device  __device__ __inline__
53 #if __CUDA_ARCH__ < 300
54 #  define ccl_device_inline  __device__ __inline__
55 #  define ccl_device_forceinline  __device__ __forceinline__
56 #elif __CUDA_ARCH__ < 500
57 #  define ccl_device_inline  __device__ __forceinline__
58 #  define ccl_device_forceinline  __device__ __forceinline__
59 #else
60 #  define ccl_device_inline  __device__ __inline__
61 #  define ccl_device_forceinline  __device__ __forceinline__
62 #endif
63 #define ccl_device_noinline  __device__ __noinline__
64 #define ccl_global
65 #define ccl_static_constant __constant__
66 #define ccl_constant const
67 #define ccl_local __shared__
68 #define ccl_local_param
69 #define ccl_private
70 #define ccl_may_alias
71 #define ccl_addr_space
72 #define ccl_restrict __restrict__
73 /* TODO(sergey): In theory we might use references with CUDA, however
74  * performance impact yet to be investigated.
75  */
76 #define ccl_ref
77 #define ccl_align(n) __align__(n)
78
79 #define ATTR_FALLTHROUGH
80
81 #define CCL_MAX_LOCAL_SIZE (CUDA_THREADS_BLOCK_WIDTH*CUDA_THREADS_BLOCK_WIDTH)
82
83
84 /* No assert supported for CUDA */
85
86 #define kernel_assert(cond)
87
88 /* Types */
89
90 #include "util/util_half.h"
91 #include "util/util_types.h"
92
93 /* Work item functions */
94
95 ccl_device_inline uint ccl_local_id(uint d)
96 {
97         switch(d) {
98                 case 0: return threadIdx.x;
99                 case 1: return threadIdx.y;
100                 case 2: return threadIdx.z;
101                 default: return 0;
102         }
103 }
104
105 #define ccl_global_id(d) (ccl_group_id(d) * ccl_local_size(d) + ccl_local_id(d))
106
107 ccl_device_inline uint ccl_local_size(uint d)
108 {
109         switch(d) {
110                 case 0: return blockDim.x;
111                 case 1: return blockDim.y;
112                 case 2: return blockDim.z;
113                 default: return 0;
114         }
115 }
116
117 #define ccl_global_size(d) (ccl_num_groups(d) * ccl_local_size(d))
118
119 ccl_device_inline uint ccl_group_id(uint d)
120 {
121         switch(d) {
122                 case 0: return blockIdx.x;
123                 case 1: return blockIdx.y;
124                 case 2: return blockIdx.z;
125                 default: return 0;
126         }
127 }
128
129 ccl_device_inline uint ccl_num_groups(uint d)
130 {
131         switch(d) {
132                 case 0: return gridDim.x;
133                 case 1: return gridDim.y;
134                 case 2: return gridDim.z;
135                 default: return 0;
136         }
137 }
138
139 /* Textures */
140
141 /* Use arrays for regular data. This is a little slower than textures on Fermi,
142  * but allows for cleaner code and we will stop supporting Fermi soon. */
143 #define kernel_tex_fetch(t, index) t[(index)]
144
145 /* On Kepler (6xx) and above, we use Bindless Textures for images.
146  * On Fermi cards (4xx and 5xx), we have to use regular textures. */
147 #if __CUDA_ARCH__ < 300
148 typedef texture<float4, 2> texture_image_float4;
149 typedef texture<float4, 3> texture_image3d_float4;
150 typedef texture<uchar4, 2, cudaReadModeNormalizedFloat> texture_image_uchar4;
151 #endif
152
153 #define kernel_data __data
154
155 /* Use fast math functions */
156
157 #define cosf(x) __cosf(((float)(x)))
158 #define sinf(x) __sinf(((float)(x)))
159 #define powf(x, y) __powf(((float)(x)), ((float)(y)))
160 #define tanf(x) __tanf(((float)(x)))
161 #define logf(x) __logf(((float)(x)))
162 #define expf(x) __expf(((float)(x)))
163
164 #endif /* __KERNEL_COMPAT_CUDA_H__ */