Merging r58475 through r58700 from trunk into soc-2013-depsgraph_mt
[blender.git] / intern / cycles / kernel / kernel_random.h
1 /*
2  * Copyright 2011, Blender Foundation.
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  */
18
19 #include "kernel_jitter.h"
20
21 CCL_NAMESPACE_BEGIN
22
23 typedef uint RNG;
24
25 #ifdef __SOBOL__
26
27 /* skip initial numbers that are not as well distributed, especially the
28  * first sequence is just 0 everywhere, which can be problematic for e.g.
29  * path termination */
30 #define SOBOL_SKIP 64
31
32 /* High Dimensional Sobol */
33
34 /* van der corput radical inverse */
35 __device uint van_der_corput(uint bits)
36 {
37         bits = (bits << 16) | (bits >> 16);
38         bits = ((bits & 0x00ff00ff) << 8) | ((bits & 0xff00ff00) >> 8);
39         bits = ((bits & 0x0f0f0f0f) << 4) | ((bits & 0xf0f0f0f0) >> 4);
40         bits = ((bits & 0x33333333) << 2) | ((bits & 0xcccccccc) >> 2);
41         bits = ((bits & 0x55555555) << 1) | ((bits & 0xaaaaaaaa) >> 1);
42         return bits;
43 }
44
45 /* sobol radical inverse */
46 __device uint sobol(uint i)
47 {
48         uint r = 0;
49
50         for(uint v = 1U << 31; i; i >>= 1, v ^= v >> 1)
51                 if(i & 1)
52                         r ^= v;
53
54         return r;
55 }
56
57 /* inverse of sobol radical inverse */
58 __device uint sobol_inverse(uint i)
59 {
60         const uint msb = 1U << 31;
61         uint r = 0;
62
63         for(uint v = 1; i; i <<= 1, v ^= v << 1)
64                 if(i & msb)
65                         r ^= v;
66
67         return r;
68 }
69
70 /* multidimensional sobol with generator matrices
71  * dimension 0 and 1 are equal to van_der_corput() and sobol() respectively */
72 __device uint sobol_dimension(KernelGlobals *kg, int index, int dimension)
73 {
74         uint result = 0;
75         uint i = index;
76
77         for(uint j = 0; i; i >>= 1, j++)
78                 if(i & 1)
79                         result ^= kernel_tex_fetch(__sobol_directions, 32*dimension + j);
80         
81         return result;
82 }
83
84 /* lookup index and x/y coordinate, assumes m is a power of two */
85 __device uint sobol_lookup(const uint m, const uint frame, const uint ex, const uint ey, uint *x, uint *y)
86 {
87         /* shift is constant per frame */
88         const uint shift = frame << (m << 1);
89         const uint sobol_shift = sobol(shift);
90         /* van der Corput is its own inverse */
91         const uint lower = van_der_corput(ex << (32 - m));
92         /* need to compensate for ey difference and shift */
93         const uint sobol_lower = sobol(lower);
94         const uint mask = ~-(1 << m) << (32 - m); /* only m upper bits */
95         const uint delta = ((ey << (32 - m)) ^ sobol_lower ^ sobol_shift) & mask;
96         /* only use m upper bits for the index (m is a power of two) */
97         const uint sobol_result = delta | (delta >> m);
98         const uint upper = sobol_inverse(sobol_result);
99         const uint index = shift | upper | lower;
100         *x = van_der_corput(index);
101         *y = sobol_shift ^ sobol_result ^ sobol_lower;
102         return index;
103 }
104
105 __device_inline float path_rng_1D(KernelGlobals *kg, RNG *rng, int sample, int num_samples, int dimension)
106 {
107 #ifdef __CMJ__
108         if(kernel_data.integrator.sampling_pattern == SAMPLING_PATTERN_CMJ) {
109                 /* correlated multi-jittered */
110                 int p = *rng + dimension;
111                 return cmj_sample_1D(sample, num_samples, p);
112         }
113 #endif
114
115 #ifdef __SOBOL_FULL_SCREEN__
116         uint result = sobol_dimension(kg, *rng, dimension);
117         float r = (float)result * (1.0f/(float)0xFFFFFFFF);
118         return r;
119 #else
120         /* compute sobol sequence value using direction vectors */
121         uint result = sobol_dimension(kg, sample + SOBOL_SKIP, dimension);
122         float r = (float)result * (1.0f/(float)0xFFFFFFFF);
123
124         /* Cranly-Patterson rotation using rng seed */
125         float shift;
126
127         if(dimension & 1)
128                 shift = (*rng >> 16) * (1.0f/(float)0xFFFF);
129         else
130                 shift = (*rng & 0xFFFF) * (1.0f/(float)0xFFFF);
131
132         return r + shift - floorf(r + shift);
133 #endif
134 }
135
136 __device_inline void path_rng_2D(KernelGlobals *kg, RNG *rng, int sample, int num_samples, int dimension, float *fx, float *fy)
137 {
138 #ifdef __CMJ__
139         if(kernel_data.integrator.sampling_pattern == SAMPLING_PATTERN_CMJ) {
140                 /* correlated multi-jittered */
141                 int p = *rng + dimension;
142                 cmj_sample_2D(sample, num_samples, p, fx, fy);
143         }
144         else
145 #endif
146         {
147                 /* sobol */
148                 *fx = path_rng_1D(kg, rng, sample, num_samples, dimension);
149                 *fy = path_rng_1D(kg, rng, sample, num_samples, dimension + 1);
150         }
151 }
152
153 __device_inline void path_rng_init(KernelGlobals *kg, __global uint *rng_state, int sample, int num_samples, RNG *rng, int x, int y, float *fx, float *fy)
154 {
155 #ifdef __SOBOL_FULL_SCREEN__
156         uint px, py;
157         uint bits = 16; /* limits us to 65536x65536 and 65536 samples */
158         uint size = 1 << bits;
159         uint frame = sample;
160
161         *rng = sobol_lookup(bits, frame, x, y, &px, &py);
162
163         *rng ^= kernel_data.integrator.seed;
164
165         if(sample == 0) {
166                 *fx = 0.5f;
167                 *fy = 0.5f;
168         }
169         else {
170                 *fx = size * (float)px * (1.0f/(float)0xFFFFFFFF) - x;
171                 *fy = size * (float)py * (1.0f/(float)0xFFFFFFFF) - y;
172         }
173 #else
174         *rng = *rng_state;
175
176         *rng ^= kernel_data.integrator.seed;
177
178         if(sample == 0) {
179                 *fx = 0.5f;
180                 *fy = 0.5f;
181         }
182         else {
183                 path_rng_2D(kg, rng, sample, num_samples, PRNG_FILTER_U, fx, fy);
184         }
185 #endif
186 }
187
188 __device void path_rng_end(KernelGlobals *kg, __global uint *rng_state, RNG rng)
189 {
190         /* nothing to do */
191 }
192
193 #else
194
195 /* Linear Congruential Generator */
196
197 __device float path_rng(KernelGlobals *kg, RNG& rng, int sample, int dimension)
198 {
199 }
200
201 __device_inline float path_rng_1D(KernelGlobals *kg, RNG& rng, int sample, int num_samples, int dimension)
202 {
203         /* implicit mod 2^32 */
204         rng = (1103515245*(rng) + 12345);
205         return (float)rng * (1.0f/(float)0xFFFFFFFF);
206 }
207
208 __device_inline void path_rng_2D(KernelGlobals *kg, RNG& rng, int sample, int num_samples, int dimension, float *fx, float *fy)
209 {
210         *fx = path_rng_1D(kg, rng, sample, num_samples, dimension);
211         *fy = path_rng_1D(kg, rng, sample, num_samples, dimension + 1);
212 }
213
214 __device void path_rng_init(KernelGlobals *kg, __global uint *rng_state, int sample, int num_samples, RNG *rng, int x, int y, float *fx, float *fy)
215 {
216         /* load state */
217         *rng = *rng_state;
218
219         *rng ^= kernel_data.integrator.seed;
220
221         if(sample == 0) {
222                 *fx = 0.5f;
223                 *fy = 0.5f;
224         }
225         else {
226                 path_rng_2D(kg, rng, sample, num_samples, PRNG_FILTER_U, fx, fy);
227         }
228 }
229
230 __device void path_rng_end(KernelGlobals *kg, __global uint *rng_state, RNG rng)
231 {
232         /* store state for next sample */
233         *rng_state = rng;
234 }
235
236 #endif
237
238 __device float lcg_step(uint *rng)
239 {
240         /* implicit mod 2^32 */
241         *rng = (1103515245*(*rng) + 12345);
242         return (float)*rng * (1.0f/(float)0xFFFFFFFF);
243 }
244
245 __device uint lcg_init(uint seed)
246 {
247         uint rng = seed;
248         lcg_step(&rng);
249         return rng;
250 }
251
252 CCL_NAMESPACE_END
253