Merge branch 'blender2.7'
[blender.git] / source / blender / compositor / COM_compositor.h
1 /*
2  * Copyright 2011, Blender Foundation.
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  */
18
19 #ifndef __COM_COMPOSITOR_H__
20 #define __COM_COMPOSITOR_H__
21
22 #ifdef __cplusplus
23 extern "C" {
24 #endif
25
26 #include "DNA_color_types.h"
27 #include "DNA_node_types.h"
28
29 /**
30  * \defgroup Model The data model of the compositor
31  * \defgroup Memory The memory management stuff
32  * \defgroup Execution The execution logic
33  * \defgroup Conversion Conversion logic
34  * \defgroup Node All nodes of the compositor
35  * \defgroup Operation All operations of the compositor
36  *
37  * \page Introduction of the Blender Compositor
38  *
39  * \section bcomp Blender compositor
40  * This project redesigns the internals of Blender's compositor. The project has been executed in 2011 by At Mind.
41  * At Mind is a technology company located in Amsterdam, The Netherlands.
42  * The project has been crowd-funded. This code has been released under GPL2 to be used in Blender.
43  *
44  * \section goals The goals of the project
45  * the new compositor has 2 goals.
46  *   - Make a faster compositor (speed of calculation)
47  *   - Make the compositor work faster for you (workflow)
48  *
49  * \section speed Faster compositor
50  * The speedup has been done by making better use of the hardware Blenders is working on. The previous compositor only
51  * used a single threaded model to calculate a node. The only exception to this is the Defocus node.
52  * Only when it is possible to calculate two full nodes in parallel a second thread was used.
53  * Current workstations have 8-16 threads available, and most of the time these are idle.
54  *
55  * In the new compositor we want to use as much of threads as possible. Even new OpenCL capable GPU-hardware can be
56  * used for calculation.
57  *
58  * \section workflow Work faster
59  * The previous compositor only showed the final image. The compositor could wait a long time before seeing the result
60  * of his work. The new compositor will work in a way that it will focus on getting information back to the user.
61  * It will prioritize its work to get earlier user feedback.
62  *
63  * \page memory Memory model
64  * The main issue is the type of memory model to use. Blender is used by consumers and professionals.
65  * Ranging from low-end machines to very high-end machines.
66  * The system should work on high-end machines and on low-end machines.
67  * \page executing Executing
68  * \section prepare Prepare execution
69  *
70  * during the preparation of the execution All ReadBufferOperation will receive an offset.
71  * This offset is used during execution as an optimization trick
72  * Next all operations will be initialized for execution \see NodeOperation.initExecution
73  * Next all ExecutionGroup's will be initialized for execution \see ExecutionGroup.initExecution
74  * this all is controlled from \see ExecutionSystem.execute
75  *
76  * \section priority Render priority
77  * Render priority is an priority of an output node. A user has a different need of Render priorities of output nodes
78  * than during editing.
79  * for example. the Active ViewerNode has top priority during editing, but during rendering a CompositeNode has.
80  * All NodeOperation has a setting for their render-priority, but only for output NodeOperation these have effect.
81  * In ExecutionSystem.execute all priorities are checked. For every priority the ExecutionGroup's are check if the
82  * priority do match.
83  * When match the ExecutionGroup will be executed (this happens in serial)
84  *
85  * \see ExecutionSystem.execute control of the Render priority
86  * \see NodeOperation.getRenderPriority receive the render priority
87  * \see ExecutionGroup.execute the main loop to execute a whole ExecutionGroup
88  *
89  * \section order Chunk order
90  *
91  * When a ExecutionGroup is executed, first the order of chunks are determined.
92  * The settings are stored in the ViewerNode inside the ExecutionGroup. ExecutionGroups that have no viewer-node,
93  * will use a default one.
94  * There are several possible chunk orders
95  *  - [@ref OrderOfChunks.COM_TO_CENTER_OUT]: Start calculating from a configurable point and order by nearest chunk
96  *  - [@ref OrderOfChunks.COM_TO_RANDOM]: Randomize all chunks.
97  *  - [@ref OrderOfChunks.COM_TO_TOP_DOWN]: Start calculation from the bottom to the top of the image
98  *  - [@ref OrderOfChunks.COM_TO_RULE_OF_THIRDS]: Experimental order based on 9 hot-spots in the image
99  *
100  * When the chunk-order is determined, the first few chunks will be checked if they can be scheduled.
101  * Chunks can have three states:
102  *  - [@ref ChunkExecutionState.COM_ES_NOT_SCHEDULED]: Chunk is not yet scheduled, or dependencies are not met
103  *  - [@ref ChunkExecutionState.COM_ES_SCHEDULED]: All dependencies are met, chunk is scheduled, but not finished
104  *  - [@ref ChunkExecutionState.COM_ES_EXECUTED]: Chunk is finished
105  *
106  * \see ExecutionGroup.execute
107  * \see ViewerOperation.getChunkOrder
108  * \see OrderOfChunks
109  *
110  * \section interest Area of interest
111  * An ExecutionGroup can have dependencies to other ExecutionGroup's. Data passing from one ExecutionGroup to another
112  * one are stored in 'chunks'.
113  * If not all input chunks are available the chunk execution will not be scheduled.
114  * <pre>
115  * +-------------------------------------+              +--------------------------------------+
116  * | ExecutionGroup A                    |              | ExecutionGroup B                     |
117  * | +----------------+  +-------------+ |              | +------------+   +-----------------+ |
118  * | | NodeOperation a|  | WriteBuffer | |              | | ReadBuffer |   | ViewerOperation | |
119  * | |                *==* Operation   | |              | | Operation  *===*                 | |
120  * | |                |  |             | |              | |            |   |                 | |
121  * | +----------------+  +-------------+ |              | +------------+   +-----------------+ |
122  * |                                |    |              |   |                                  |
123  * +--------------------------------|----+              +---|----------------------------------+
124  *                                  |                       |
125  *                                  |                       |
126  *                                +---------------------------+
127  *                                | MemoryProxy               |
128  *                                | +----------+  +---------+ |
129  *                                | | Chunk a  |  | Chunk b | |
130  *                                | |          |  |         | |
131  *                                | +----------+  +---------+ |
132  *                                |                           |
133  *                                +---------------------------+
134  * </pre>
135  *
136  * In the above example ExecutionGroup B has an outputoperation (ViewerOperation) and is being executed.
137  * The first chunk is evaluated [@ref ExecutionGroup.scheduleChunkWhenPossible],
138  * but not all input chunks are available. The relevant ExecutionGroup (that can calculate the missing chunks;
139  * ExecutionGroup A) is asked to calculate the area ExecutionGroup B is missing.
140  * [@ref ExecutionGroup.scheduleAreaWhenPossible]
141  * ExecutionGroup B checks what chunks the area spans, and tries to schedule these chunks.
142  * If all input data is available these chunks are scheduled [@ref ExecutionGroup.scheduleChunk]
143  *
144  * <pre>
145  *
146  * +-------------------------+        +----------------+                           +----------------+
147  * | ExecutionSystem.execute |        | ExecutionGroup |                           | ExecutionGroup |
148  * +-------------------------+        | (B)            |                           | (A)            |
149  *            O                       +----------------+                           +----------------+
150  *            O                                |                                            |
151  *            O       ExecutionGroup.execute   |                                            |
152  *            O------------------------------->O                                            |
153  *            .                                O                                            |
154  *            .                                O-------\                                    |
155  *            .                                .       | ExecutionGroup.scheduleChunkWhenPossible
156  *            .                                .  O----/ (*)                                |
157  *            .                                .  O                                         |
158  *            .                                .  O                                         |
159  *            .                                .  O  ExecutionGroup.scheduleAreaWhenPossible|
160  *            .                                .  O---------------------------------------->O
161  *            .                                .  .                                         O----------\ ExecutionGroup.scheduleChunkWhenPossible
162  *            .                                .  .                                         .          | (*)
163  *            .                                .  .                                         .  O-------/
164  *            .                                .  .                                         .  O
165  *            .                                .  .                                         .  O
166  *            .                                .  .                                         .  O-------\ ExecutionGroup.scheduleChunk
167  *            .                                .  .                                         .  .       |
168  *            .                                .  .                                         .  .  O----/
169  *            .                                .  .                                         .  O<=O
170  *            .                                .  .                                         O<=O
171  *            .                                .  .                                         O
172  *            .                                .  O<========================================O
173  *            .                                .  O                                         |
174  *            .                                O<=O                                         |
175  *            .                                O                                            |
176  *            .                                O                                            |
177  * </pre>
178  *
179  * This happens until all chunks of (ExecutionGroup B) are finished executing or the user break's the process.
180  *
181  * NodeOperation like the ScaleOperation can influence the area of interest by reimplementing the
182  * [@ref NodeOperation.determineAreaOfInterest] method
183  *
184  * <pre>
185  *
186  * +--------------------------+                             +---------------------------------+
187  * | ExecutionGroup A         |                             | ExecutionGroup B                |
188  * |                          |                             |                                 |
189  * +--------------------------+                             +---------------------------------+
190  *           Needed chunks from ExecutionGroup A               |   Chunk of ExecutionGroup B (to be evaluated)
191  *            +-------+ +-------+                              |                  +--------+
192  *            |Chunk 1| |Chunk 2|               +----------------+                |Chunk 1 |
193  *            |       | |       |               | ScaleOperation |                |        |
194  *            +-------+ +-------+               +----------------+                +--------+
195  *
196  *            +-------+ +-------+
197  *            |Chunk 3| |Chunk 4|
198  *            |       | |       |
199  *            +-------+ +-------+
200  *
201  * </pre>
202  *
203  * \see ExecutionGroup.execute Execute a complete ExecutionGroup. Halts until finished or breaked by user
204  * \see ExecutionGroup.scheduleChunkWhenPossible Tries to schedule a single chunk,
205  * checks if all input data is available. Can trigger dependent chunks to be calculated
206  * \see ExecutionGroup.scheduleAreaWhenPossible Tries to schedule an area. This can be multiple chunks
207  * (is called from [@ref ExecutionGroup.scheduleChunkWhenPossible])
208  * \see ExecutionGroup.scheduleChunk Schedule a chunk on the WorkScheduler
209  * \see NodeOperation.determineDependingAreaOfInterest Influence the area of interest of a chunk.
210  * \see WriteBufferOperation Operation to write to a MemoryProxy/MemoryBuffer
211  * \see ReadBufferOperation Operation to read from a MemoryProxy/MemoryBuffer
212  * \see MemoryProxy proxy for information about memory image (a image consist out of multiple chunks)
213  * \see MemoryBuffer Allocated memory for a single chunk
214  *
215  * \section workscheduler WorkScheduler
216  * the WorkScheduler is implemented as a static class. the responsibility of the WorkScheduler is to balance
217  * WorkPackages to the available and free devices.
218  * the work-scheduler can work in 2 states. For witching these between the state you need to recompile blender
219  *
220  * \subsection multithread Multi threaded
221  * Default the work-scheduler will place all work as WorkPackage in a queue.
222  * For every CPUcore a working thread is created. These working threads will ask the WorkScheduler if there is work
223  * for a specific Device.
224  * the work-scheduler will find work for the device and the device will be asked to execute the WorkPackage
225  *
226  * \subsection singlethread Single threaded
227  * For debugging reasons the multi-threading can be disabled. This is done by changing the COM_CURRENT_THREADING_MODEL
228  * to COM_TM_NOTHREAD. When compiling the work-scheduler
229  * will be changes to support no threading and run everything on the CPU.
230  *
231  * \section devices Devices
232  * A Device within the compositor context is a Hardware component that can used to calculate chunks.
233  * This chunk is encapsulated in a WorkPackage.
234  * the WorkScheduler controls the devices and selects the device where a WorkPackage will be calculated.
235  *
236  * \subsection WS_Devices Workscheduler
237  * The WorkScheduler controls all Devices. When initializing the compositor the WorkScheduler selects
238  * all devices that will be used during compositor.
239  * There are two types of Devices, CPUDevice and OpenCLDevice.
240  * When an ExecutionGroup schedules a Chunk the schedule method of the WorkScheduler
241  * The Workscheduler determines if the chunk can be run on an OpenCLDevice
242  * (and that there are available OpenCLDevice). If this is the case the chunk will be added to the worklist for
243  * OpenCLDevice's
244  * otherwise the chunk will be added to the worklist of CPUDevices.
245  *
246  * A thread will read the work-list and sends a workpackage to its device.
247  *
248  * \see WorkScheduler.schedule method that is called to schedule a chunk
249  * \see Device.execute method called to execute a chunk
250  *
251  * \subsection CPUDevice CPUDevice
252  * When a CPUDevice gets a WorkPackage the Device will get the inputbuffer that is needed to calculate the chunk.
253  * Allocation is already done by the ExecutionGroup.
254  * The outputbuffer of the chunk is being created.
255  * The OutputOperation of the ExecutionGroup is called to execute the area of the outputbuffer.
256  *
257  * \see ExecutionGroup
258  * \see NodeOperation.executeRegion executes a single chunk of a NodeOperation
259  * \see CPUDevice.execute
260  *
261  * \subsection GPUDevice OpenCLDevice
262  *
263  * To be completed!
264  * \see NodeOperation.executeOpenCLRegion
265  * \see OpenCLDevice.execute
266  *
267  * \section executePixel executing a pixel
268  * Finally the last step, the node functionality :)
269  *
270  * \page newnode Creating new nodes
271  */
272
273 /**
274  * \brief The main method that is used to execute the compositor tree.
275  * It can be executed during editing (blenkernel/node.c) or rendering
276  * (renderer/pipeline.c)
277  *
278  * \param rd: [struct RenderData]
279  *   Render data for this composite, this won't always belong to a scene.
280  *
281  * \param editingtree: [struct bNodeTree]
282  *   reference to the compositor editing tree
283  *
284  * \param rendering: [true false]
285  *    This parameter determines whether the function is called from rendering (true) or editing (false).
286  *    based on this setting the system will work differently:
287  *     - during rendering only Composite & the File output node will be calculated
288  * \see NodeOperation.isOutputProgram(int rendering) of the specific operations
289  *
290  *     - during editing all output nodes will be calculated
291  * \see NodeOperation.isOutputProgram(int rendering) of the specific operations
292  *
293  *     - another quality setting can be used bNodeTree. The quality is determined by the bNodeTree fields.
294  *       quality can be modified by the user from within the node panels.
295  * \see bNodeTree.edit_quality
296  * \see bNodeTree.render_quality
297  *
298  *     - output nodes can have different priorities in the WorkScheduler.
299  * This is implemented in the COM_execute function.
300  *
301  * \param viewSettings:
302  *   reference to view settings used for color management
303  *
304  * \param displaySettings:
305  *   reference to display settings used for color management
306  *
307  * OCIO_TODO: this options only used in rare cases, namely in output file node,
308  *            so probably this settings could be passed in a nicer way.
309  *            should be checked further, probably it'll be also needed for preview
310  *            generation in display space
311  */
312 void COM_execute(RenderData *rd, Scene *scene, bNodeTree *editingtree, int rendering,
313                  const ColorManagedViewSettings *viewSettings, const ColorManagedDisplaySettings *displaySettings,
314                  const char *viewName);
315
316 /**
317  * \brief Deinitialize the compositor caches and allocated memory.
318  * Use COM_clearCaches to only free the caches.
319  */
320 void COM_deinitialize(void);
321
322 /**
323  * \brief Clear all compositor caches. (Compositor system will still remain available).
324  * To deinitialize the compositor use the COM_deinitialize method.
325  */
326 // void COM_clearCaches(void); // NOT YET WRITTEN
327
328 #ifdef __cplusplus
329 }
330 #endif
331
332 #endif  /* __COM_COMPOSITOR_H__ */