- added GCC warning -Wstrict-prototypes
[blender.git] / source / gameengine / VideoTexture / ImageRender.cpp
1 /* $Id$
2 -----------------------------------------------------------------------------
3 This source file is part of VideoTexture library
4
5 Copyright (c) 2007 The Zdeno Ash Miklas
6
7 This program is free software; you can redistribute it and/or modify it under
8 the terms of the GNU Lesser General Public License as published by the Free Software
9 Foundation; either version 2 of the License, or (at your option) any later
10 version.
11
12 This program is distributed in the hope that it will be useful, but WITHOUT
13 ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS
14 FOR A PARTICULAR PURPOSE. See the GNU Lesser General Public License for more details.
15
16 You should have received a copy of the GNU Lesser General Public License along with
17 this program; if not, write to the Free Software Foundation, Inc., 59 Temple
18 Place - Suite 330, Boston, MA 02111-1307, USA, or go to
19 http://www.gnu.org/copyleft/lesser.txt.
20 -----------------------------------------------------------------------------
21 */
22
23 // implementation
24
25 #include <PyObjectPlus.h>
26 #include <structmember.h>
27 #include <float.h>
28 #include <math.h>
29
30
31 #include "GL/glew.h"
32
33 #include "KX_PythonInit.h"
34 #include "DNA_scene_types.h"
35 #include "RAS_CameraData.h"
36 #include "RAS_MeshObject.h"
37 #include "BLI_math.h"
38
39 #include "ImageRender.h"
40 #include "ImageBase.h"
41 #include "BlendType.h"
42 #include "Exception.h"
43 #include "Texture.h"
44
45 ExceptionID SceneInvalid, CameraInvalid, ObserverInvalid;
46 ExceptionID MirrorInvalid, MirrorSizeInvalid, MirrorNormalInvalid, MirrorHorizontal, MirrorTooSmall;
47 ExpDesc SceneInvalidDesc (SceneInvalid, "Scene object is invalid");
48 ExpDesc CameraInvalidDesc (CameraInvalid, "Camera object is invalid");
49 ExpDesc ObserverInvalidDesc (ObserverInvalid, "Observer object is invalid");
50 ExpDesc MirrorInvalidDesc (MirrorInvalid, "Mirror object is invalid");
51 ExpDesc MirrorSizeInvalidDesc (MirrorSizeInvalid, "Mirror has no vertex or no size");
52 ExpDesc MirrorNormalInvalidDesc (MirrorNormalInvalid, "Cannot determine mirror plane");
53 ExpDesc MirrorHorizontalDesc (MirrorHorizontal, "Mirror is horizontal in local space");
54 ExpDesc MirrorTooSmallDesc (MirrorTooSmall, "Mirror is too small");
55
56 // constructor
57 ImageRender::ImageRender (KX_Scene * scene, KX_Camera * camera) : 
58     ImageViewport(),
59     m_render(true),
60     m_scene(scene),
61     m_camera(camera),
62     m_owncamera(false),
63     m_observer(NULL),
64     m_mirror(NULL),
65         m_clip(100.f)
66 {
67         // initialize background color
68         setBackground(0, 0, 255, 255);
69     // retrieve rendering objects
70     m_engine = KX_GetActiveEngine();
71     m_rasterizer = m_engine->GetRasterizer();
72     m_canvas = m_engine->GetCanvas();
73     m_rendertools = m_engine->GetRenderTools();
74 }
75
76 // destructor
77 ImageRender::~ImageRender (void)
78 {
79     if (m_owncamera)
80         m_camera->Release();
81 }
82
83
84 // set background color
85 void ImageRender::setBackground (int red, int green, int blue, int alpha)
86 {
87     m_background[0] = (red < 0) ? 0.f : (red > 255) ? 1.f : float(red)/255.f;
88         m_background[1] = (green < 0) ? 0.f : (green > 255) ? 1.f : float(green)/255.f;
89         m_background[2] = (blue < 0) ? 0.f : (blue > 255) ? 1.f : float(blue)/255.f;
90         m_background[3] = (alpha < 0) ? 0.f : (alpha > 255) ? 1.f : float(alpha)/255.f;
91 }
92
93
94 // capture image from viewport
95 void ImageRender::calcImage (unsigned int texId, double ts)
96 {
97     if (m_rasterizer->GetDrawingMode() != RAS_IRasterizer::KX_TEXTURED ||   // no need for texture
98         m_camera->GetViewport() ||        // camera must be inactive
99         m_camera == m_scene->GetActiveCamera())
100     {
101         // no need to compute texture in non texture rendering
102         m_avail = false;
103         return;
104     }
105     // render the scene from the camera
106     Render();
107         // get image from viewport
108         ImageViewport::calcImage(texId, ts);
109     // restore OpenGL state
110     m_canvas->EndFrame();
111 }
112
113 void ImageRender::Render()
114 {
115         RAS_FrameFrustum frustrum;
116
117     if (!m_render)
118         return;
119
120     if (m_mirror)
121     {
122         // mirror mode, compute camera frustrum, position and orientation
123         // convert mirror position and normal in world space
124         const MT_Matrix3x3 & mirrorObjWorldOri = m_mirror->GetSGNode()->GetWorldOrientation();
125         const MT_Point3 & mirrorObjWorldPos = m_mirror->GetSGNode()->GetWorldPosition();
126         const MT_Vector3 & mirrorObjWorldScale = m_mirror->GetSGNode()->GetWorldScaling();
127         MT_Point3 mirrorWorldPos = 
128             mirrorObjWorldPos + mirrorObjWorldScale * (mirrorObjWorldOri * m_mirrorPos);
129         MT_Vector3 mirrorWorldZ = mirrorObjWorldOri * m_mirrorZ;
130         // get observer world position
131         const MT_Point3 & observerWorldPos = m_observer->GetSGNode()->GetWorldPosition();
132         // get plane D term = mirrorPos . normal
133         MT_Scalar mirrorPlaneDTerm = mirrorWorldPos.dot(mirrorWorldZ);
134         // compute distance of observer to mirror = D - observerPos . normal
135         MT_Scalar observerDistance = mirrorPlaneDTerm - observerWorldPos.dot(mirrorWorldZ);
136         // if distance < 0.01 => observer is on wrong side of mirror, don't render
137         if (observerDistance < 0.01f)
138             return;
139         // set camera world position = observerPos + normal * 2 * distance
140         MT_Point3 cameraWorldPos = observerWorldPos + (MT_Scalar(2.0)*observerDistance)*mirrorWorldZ;
141         m_camera->GetSGNode()->SetLocalPosition(cameraWorldPos);
142         // set camera orientation: z=normal, y=mirror_up in world space, x= y x z
143         MT_Vector3 mirrorWorldY = mirrorObjWorldOri * m_mirrorY;
144         MT_Vector3 mirrorWorldX = mirrorObjWorldOri * m_mirrorX;
145         MT_Matrix3x3 cameraWorldOri(
146             mirrorWorldX[0], mirrorWorldY[0], mirrorWorldZ[0],
147             mirrorWorldX[1], mirrorWorldY[1], mirrorWorldZ[1], 
148             mirrorWorldX[2], mirrorWorldY[2], mirrorWorldZ[2]);
149         m_camera->GetSGNode()->SetLocalOrientation(cameraWorldOri);
150         m_camera->GetSGNode()->UpdateWorldData(0.0);
151         // compute camera frustrum:
152         //   get position of mirror relative to camera: offset = mirrorPos-cameraPos
153         MT_Vector3 mirrorOffset = mirrorWorldPos - cameraWorldPos;
154         //   convert to camera orientation
155         mirrorOffset = mirrorOffset * cameraWorldOri;
156         //   scale mirror size to world scale: 
157         //     get closest local axis for mirror Y and X axis and scale height and width by local axis scale
158         MT_Scalar x, y;
159         x = fabs(m_mirrorY[0]);
160         y = fabs(m_mirrorY[1]);
161         float height = (x > y) ? 
162             ((x > fabs(m_mirrorY[2])) ? mirrorObjWorldScale[0] : mirrorObjWorldScale[2]):
163             ((y > fabs(m_mirrorY[2])) ? mirrorObjWorldScale[1] : mirrorObjWorldScale[2]);
164         x = fabs(m_mirrorX[0]);
165         y = fabs(m_mirrorX[1]);
166         float width = (x > y) ? 
167             ((x > fabs(m_mirrorX[2])) ? mirrorObjWorldScale[0] : mirrorObjWorldScale[2]):
168             ((y > fabs(m_mirrorX[2])) ? mirrorObjWorldScale[1] : mirrorObjWorldScale[2]);
169         width *= m_mirrorHalfWidth;
170         height *= m_mirrorHalfHeight;
171         //   left = offsetx-width
172         //   right = offsetx+width
173         //   top = offsety+height
174         //   bottom = offsety-height
175         //   near = -offsetz
176         //   far = near+100
177         frustrum.x1 = mirrorOffset[0]-width;
178         frustrum.x2 = mirrorOffset[0]+width;
179         frustrum.y1 = mirrorOffset[1]-height;
180         frustrum.y2 = mirrorOffset[1]+height;
181         frustrum.camnear = -mirrorOffset[2];
182         frustrum.camfar = -mirrorOffset[2]+m_clip;
183     }
184     const RAS_IRasterizer::StereoMode stereomode = m_rasterizer->GetStereoMode();
185
186     // The screen area that ImageViewport will copy is also the rendering zone
187     m_canvas->SetViewPort(m_position[0], m_position[1], m_position[0]+m_capSize[0]-1, m_position[1]+m_capSize[1]-1);
188     m_canvas->ClearColor(m_background[0], m_background[1], m_background[2], m_background[3]);
189     m_canvas->ClearBuffer(RAS_ICanvas::COLOR_BUFFER|RAS_ICanvas::DEPTH_BUFFER);
190     m_rasterizer->BeginFrame(RAS_IRasterizer::KX_TEXTURED,m_engine->GetClockTime());
191     m_rendertools->BeginFrame(m_rasterizer);
192     m_engine->SetWorldSettings(m_scene->GetWorldInfo());
193     m_rendertools->SetAuxilaryClientInfo(m_scene);
194     m_rasterizer->DisplayFog();
195     // matrix calculation, don't apply any of the stereo mode
196     m_rasterizer->SetStereoMode(RAS_IRasterizer::RAS_STEREO_NOSTEREO);
197     if (m_mirror)
198     {
199         // frustrum was computed above
200         // get frustrum matrix and set projection matrix
201                 MT_Matrix4x4 projmat = m_rasterizer->GetFrustumMatrix(
202                         frustrum.x1, frustrum.x2, frustrum.y1, frustrum.y2, frustrum.camnear, frustrum.camfar);
203
204                 m_camera->SetProjectionMatrix(projmat);
205     } else if (m_camera->hasValidProjectionMatrix())
206         {
207                 m_rasterizer->SetProjectionMatrix(m_camera->GetProjectionMatrix());
208     } else 
209     {
210                 float lens = m_camera->GetLens();
211                 bool orthographic = !m_camera->GetCameraData()->m_perspective;
212                 float nearfrust = m_camera->GetCameraNear();
213                 float farfrust = m_camera->GetCameraFar();
214         float aspect_ratio = 1.0f;
215         Scene *blenderScene = m_scene->GetBlenderScene();
216                 MT_Matrix4x4 projmat;
217
218                 // compute the aspect ratio from frame blender scene settings so that render to texture
219         // works the same in Blender and in Blender player
220         if (blenderScene->r.ysch != 0)
221             aspect_ratio = float(blenderScene->r.xsch*blenderScene->r.xasp) / float(blenderScene->r.ysch*blenderScene->r.yasp);
222
223                 if (orthographic) {
224
225                         RAS_FramingManager::ComputeDefaultOrtho(
226                                 nearfrust,
227                                 farfrust,
228                                 m_camera->GetScale(),
229                                 aspect_ratio,
230                                 frustrum
231                         );
232
233                         projmat = m_rasterizer->GetOrthoMatrix(
234                                 frustrum.x1, frustrum.x2, frustrum.y1, frustrum.y2, frustrum.camnear, frustrum.camfar);
235                 } else 
236                 {
237                         RAS_FramingManager::ComputeDefaultFrustum(
238                                 nearfrust,
239                                 farfrust,
240                                 lens,
241                                 aspect_ratio,
242                                 frustrum);
243                         
244                         projmat = m_rasterizer->GetFrustumMatrix(
245                                 frustrum.x1, frustrum.x2, frustrum.y1, frustrum.y2, frustrum.camnear, frustrum.camfar);
246                 }
247                 m_camera->SetProjectionMatrix(projmat);
248         }
249
250         MT_Transform camtrans(m_camera->GetWorldToCamera());
251         MT_Matrix4x4 viewmat(camtrans);
252         
253         m_rasterizer->SetViewMatrix(viewmat, m_camera->NodeGetWorldOrientation(), m_camera->NodeGetWorldPosition(), m_camera->GetCameraData()->m_perspective);
254         m_camera->SetModelviewMatrix(viewmat);
255     // restore the stereo mode now that the matrix is computed
256     m_rasterizer->SetStereoMode(stereomode);
257
258         m_scene->CalculateVisibleMeshes(m_rasterizer,m_camera);
259
260         m_scene->RenderBuckets(camtrans, m_rasterizer, m_rendertools);
261 }
262
263
264 // cast Image pointer to ImageRender
265 inline ImageRender * getImageRender (PyImage * self)
266 { return static_cast<ImageRender*>(self->m_image); }
267
268
269 // python methods
270
271 // Blender Scene type
272 BlendType<KX_Scene> sceneType ("KX_Scene");
273 // Blender Camera type
274 BlendType<KX_Camera> cameraType ("KX_Camera");
275
276
277 // object initialization
278 static int ImageRender_init (PyObject * pySelf, PyObject * args, PyObject * kwds)
279 {
280         // parameters - scene object
281         PyObject * scene;
282         // camera object
283         PyObject * camera;
284         // parameter keywords
285         static const char *kwlist[] = {"sceneObj", "cameraObj", NULL};
286         // get parameters
287         if (!PyArg_ParseTupleAndKeywords(args, kwds, "OO",
288                 const_cast<char**>(kwlist), &scene, &camera))
289                 return -1;
290         try
291         {
292                 // get scene pointer
293                 KX_Scene * scenePtr (NULL);
294                 if (scene != NULL) scenePtr = sceneType.checkType(scene);
295                 // throw exception if scene is not available
296                 if (scenePtr == NULL) THRWEXCP(SceneInvalid, S_OK);
297
298                 // get camera pointer
299                 KX_Camera * cameraPtr (NULL);
300                 if (camera != NULL) cameraPtr = cameraType.checkType(camera);
301                 // throw exception if camera is not available
302                 if (cameraPtr == NULL) THRWEXCP(CameraInvalid, S_OK);
303
304                 // get pointer to image structure
305                 PyImage * self = reinterpret_cast<PyImage*>(pySelf);
306                 // create source object
307                 if (self->m_image != NULL) delete self->m_image;
308                 self->m_image = new ImageRender(scenePtr, cameraPtr);
309         }
310         catch (Exception & exp)
311         {
312                 exp.report();
313                 return -1;
314         }
315         // initialization succeded
316         return 0;
317 }
318
319
320 // get background color
321 PyObject * getBackground (PyImage * self, void * closure)
322 {
323         return Py_BuildValue("[BBBB]", 
324         getImageRender(self)->getBackground(0),
325                 getImageRender(self)->getBackground(1), 
326         getImageRender(self)->getBackground(2),
327         getImageRender(self)->getBackground(3));
328 }
329
330 // set color
331 static int setBackground (PyImage * self, PyObject * value, void * closure)
332 {
333         // check validity of parameter
334         if (value == NULL || !PySequence_Check(value) || PySequence_Length(value) != 4
335                 || !PyLong_Check(PySequence_Fast_GET_ITEM(value, 0))
336                 || !PyLong_Check(PySequence_Fast_GET_ITEM(value, 1))
337                 || !PyLong_Check(PySequence_Fast_GET_ITEM(value, 2))
338                 || !PyLong_Check(PySequence_Fast_GET_ITEM(value, 3)))
339         {
340                 PyErr_SetString(PyExc_TypeError, "The value must be a sequence of 4 integer between 0 and 255");
341                 return -1;
342         }
343         // set background color
344         getImageRender(self)->setBackground((unsigned char)(PyLong_AsSsize_t(PySequence_Fast_GET_ITEM(value, 0))),
345                 (unsigned char)(PyLong_AsSsize_t(PySequence_Fast_GET_ITEM(value, 1))),
346                 (unsigned char)(PyLong_AsSsize_t(PySequence_Fast_GET_ITEM(value, 2))),
347         (unsigned char)(PyLong_AsSsize_t(PySequence_Fast_GET_ITEM(value, 3))));
348         // success
349         return 0;
350 }
351
352
353 // methods structure
354 static PyMethodDef imageRenderMethods[] =
355 { // methods from ImageBase class
356         {"refresh", (PyCFunction)Image_refresh, METH_NOARGS, "Refresh image - invalidate its current content"},
357         {NULL}
358 };
359 // attributes structure
360 static PyGetSetDef imageRenderGetSets[] =
361
362         {(char*)"background", (getter)getBackground, (setter)setBackground, (char*)"background color", NULL},
363     // attribute from ImageViewport
364         {(char*)"capsize", (getter)ImageViewport_getCaptureSize, (setter)ImageViewport_setCaptureSize, (char*)"size of render area", NULL},
365         {(char*)"alpha", (getter)ImageViewport_getAlpha, (setter)ImageViewport_setAlpha, (char*)"use alpha in texture", NULL},
366         {(char*)"whole", (getter)ImageViewport_getWhole, (setter)ImageViewport_setWhole, (char*)"use whole viewport to render", NULL},
367         // attributes from ImageBase class
368         {(char*)"valid", (getter)Image_valid, NULL, (char*)"bool to tell if an image is available", NULL},
369         {(char*)"image", (getter)Image_getImage, NULL, (char*)"image data", NULL},
370         {(char*)"size", (getter)Image_getSize, NULL, (char*)"image size", NULL},
371         {(char*)"scale", (getter)Image_getScale, (setter)Image_setScale, (char*)"fast scale of image (near neighbour)", NULL},
372         {(char*)"flip", (getter)Image_getFlip, (setter)Image_setFlip, (char*)"flip image vertically", NULL},
373         {(char*)"filter", (getter)Image_getFilter, (setter)Image_setFilter, (char*)"pixel filter", NULL},
374         {NULL}
375 };
376
377
378 // define python type
379 PyTypeObject ImageRenderType =
380
381         PyVarObject_HEAD_INIT(NULL, 0)
382         "VideoTexture.ImageRender",   /*tp_name*/
383         sizeof(PyImage),          /*tp_basicsize*/
384         0,                         /*tp_itemsize*/
385         (destructor)Image_dealloc, /*tp_dealloc*/
386         0,                         /*tp_print*/
387         0,                         /*tp_getattr*/
388         0,                         /*tp_setattr*/
389         0,                         /*tp_compare*/
390         0,                         /*tp_repr*/
391         0,                         /*tp_as_number*/
392         0,                         /*tp_as_sequence*/
393         0,                         /*tp_as_mapping*/
394         0,                         /*tp_hash */
395         0,                         /*tp_call*/
396         0,                         /*tp_str*/
397         0,                         /*tp_getattro*/
398         0,                         /*tp_setattro*/
399         &imageBufferProcs,         /*tp_as_buffer*/
400         Py_TPFLAGS_DEFAULT,        /*tp_flags*/
401         "Image source from render",       /* tp_doc */
402         0,                             /* tp_traverse */
403         0,                             /* tp_clear */
404         0,                             /* tp_richcompare */
405         0,                             /* tp_weaklistoffset */
406         0,                             /* tp_iter */
407         0,                             /* tp_iternext */
408         imageRenderMethods,    /* tp_methods */
409         0,                   /* tp_members */
410         imageRenderGetSets,          /* tp_getset */
411         0,                         /* tp_base */
412         0,                         /* tp_dict */
413         0,                         /* tp_descr_get */
414         0,                         /* tp_descr_set */
415         0,                         /* tp_dictoffset */
416         (initproc)ImageRender_init,     /* tp_init */
417         0,                         /* tp_alloc */
418         Image_allocNew,           /* tp_new */
419 };
420
421 // object initialization
422 static int ImageMirror_init (PyObject * pySelf, PyObject * args, PyObject * kwds)
423 {
424         // parameters - scene object
425         PyObject * scene;
426         // reference object for mirror
427         PyObject * observer;
428     // object holding the mirror
429     PyObject * mirror;
430     // material of the mirror
431     short materialID = 0;
432         // parameter keywords
433         static const char *kwlist[] = {"scene", "observer", "mirror", "material", NULL};
434         // get parameters
435         if (!PyArg_ParseTupleAndKeywords(args, kwds, "OOO|h",
436                 const_cast<char**>(kwlist), &scene, &observer, &mirror, &materialID))
437                 return -1;
438         try
439         {
440                 // get scene pointer
441                 KX_Scene * scenePtr (NULL);
442         if (scene != NULL && PyObject_TypeCheck(scene, &KX_Scene::Type))
443             scenePtr = static_cast<KX_Scene*>BGE_PROXY_REF(scene);
444                 else
445             THRWEXCP(SceneInvalid, S_OK);
446                 
447                 if(scenePtr==NULL) /* incase the python proxy reference is invalid */
448                         THRWEXCP(SceneInvalid, S_OK);
449                 
450                 // get observer pointer
451                 KX_GameObject * observerPtr (NULL);
452                 if (observer != NULL && PyObject_TypeCheck(observer, &KX_GameObject::Type))
453             observerPtr = static_cast<KX_GameObject*>BGE_PROXY_REF(observer);
454         else if (observer != NULL && PyObject_TypeCheck(observer, &KX_Camera::Type))
455             observerPtr = static_cast<KX_Camera*>BGE_PROXY_REF(observer);
456                 else
457             THRWEXCP(ObserverInvalid, S_OK);
458                 
459                 if(observerPtr==NULL) /* incase the python proxy reference is invalid */
460                         THRWEXCP(ObserverInvalid, S_OK);
461
462                 // get mirror pointer
463                 KX_GameObject * mirrorPtr (NULL);
464                 if (mirror != NULL && PyObject_TypeCheck(mirror, &KX_GameObject::Type))
465             mirrorPtr = static_cast<KX_GameObject*>BGE_PROXY_REF(mirror);
466                 else
467             THRWEXCP(MirrorInvalid, S_OK);
468                 
469                 if(mirrorPtr==NULL) /* incase the python proxy reference is invalid */
470                         THRWEXCP(MirrorInvalid, S_OK);
471
472         // locate the material in the mirror
473                 RAS_IPolyMaterial * material = getMaterial(mirror, materialID);
474                 if (material == NULL)
475             THRWEXCP(MaterialNotAvail, S_OK);
476
477                 // get pointer to image structure
478                 PyImage * self = reinterpret_cast<PyImage*>(pySelf);
479
480                 // create source object
481                 if (self->m_image != NULL) 
482         {
483             delete self->m_image;
484             self->m_image = NULL;
485         }
486                 self->m_image = new ImageRender(scenePtr, observerPtr, mirrorPtr, material);
487         }
488         catch (Exception & exp)
489         {
490                 exp.report();
491                 return -1;
492         }
493         // initialization succeded
494         return 0;
495 }
496
497 // get background color
498 PyObject * getClip (PyImage * self, void * closure)
499 {
500         return PyFloat_FromDouble(getImageRender(self)->getClip());
501 }
502
503 // set clip
504 static int setClip (PyImage * self, PyObject * value, void * closure)
505 {
506         // check validity of parameter
507         double clip;
508         if (value == NULL || !PyFloat_Check(value) || (clip = PyFloat_AsDouble(value)) < 0.01 || clip > 5000.0)
509         {
510                 PyErr_SetString(PyExc_TypeError, "The value must be an float between 0.01 and 5000");
511                 return -1;
512         }
513         // set background color
514         getImageRender(self)->setClip(float(clip));
515         // success
516         return 0;
517 }
518
519 // attributes structure
520 static PyGetSetDef imageMirrorGetSets[] =
521
522         {(char*)"clip", (getter)getClip, (setter)setClip, (char*)"clipping distance", NULL},
523         // attribute from ImageRender
524         {(char*)"background", (getter)getBackground, (setter)setBackground, (char*)"background color", NULL},
525     // attribute from ImageViewport
526         {(char*)"capsize", (getter)ImageViewport_getCaptureSize, (setter)ImageViewport_setCaptureSize, (char*)"size of render area", NULL},
527         {(char*)"alpha", (getter)ImageViewport_getAlpha, (setter)ImageViewport_setAlpha, (char*)"use alpha in texture", NULL},
528         {(char*)"whole", (getter)ImageViewport_getWhole, (setter)ImageViewport_setWhole, (char*)"use whole viewport to render", NULL},
529         // attributes from ImageBase class
530         {(char*)"valid", (getter)Image_valid, NULL, (char*)"bool to tell if an image is available", NULL},
531         {(char*)"image", (getter)Image_getImage, NULL, (char*)"image data", NULL},
532         {(char*)"size", (getter)Image_getSize, NULL, (char*)"image size", NULL},
533         {(char*)"scale", (getter)Image_getScale, (setter)Image_setScale, (char*)"fast scale of image (near neighbour)", NULL},
534         {(char*)"flip", (getter)Image_getFlip, (setter)Image_setFlip, (char*)"flip image vertically", NULL},
535         {(char*)"filter", (getter)Image_getFilter, (setter)Image_setFilter, (char*)"pixel filter", NULL},
536         {NULL}
537 };
538
539
540 // constructor
541 ImageRender::ImageRender (KX_Scene * scene, KX_GameObject * observer, KX_GameObject * mirror, RAS_IPolyMaterial * mat) :
542     ImageViewport(),
543     m_render(false),
544     m_scene(scene),
545     m_observer(observer),
546     m_mirror(mirror),
547         m_clip(100.f)
548 {
549     // this constructor is used for automatic planar mirror
550     // create a camera, take all data by default, in any case we will recompute the frustrum on each frame
551         RAS_CameraData camdata;
552     vector<RAS_TexVert*> mirrorVerts;
553     vector<RAS_TexVert*>::iterator it;
554     float mirrorArea = 0.f;
555     float mirrorNormal[3] = {0.f, 0.f, 0.f};
556     float mirrorUp[3];
557     float dist, vec[3], axis[3];
558     float zaxis[3] = {0.f, 0.f, 1.f};
559     float yaxis[3] = {0.f, 1.f, 0.f};
560     float mirrorMat[3][3];
561     float left, right, top, bottom, back;
562         // make sure this camera will delete its node
563         m_camera= new KX_Camera(scene, KX_Scene::m_callbacks, camdata, true, true);
564         m_camera->SetName("__mirror__cam__");
565     // don't add the camera to the scene object list, it doesn't need to be accessible
566     m_owncamera = true;
567     // retrieve rendering objects
568     m_engine = KX_GetActiveEngine();
569     m_rasterizer = m_engine->GetRasterizer();
570     m_canvas = m_engine->GetCanvas();
571     m_rendertools = m_engine->GetRenderTools();
572     // locate the vertex assigned to mat and do following calculation in mesh coordinates
573     for (int meshIndex = 0; meshIndex < mirror->GetMeshCount(); meshIndex++)
574     {
575         RAS_MeshObject* mesh = mirror->GetMesh(meshIndex);
576         int numPolygons = mesh->NumPolygons();
577         for (int polygonIndex=0; polygonIndex < numPolygons; polygonIndex++)
578         {
579             RAS_Polygon* polygon = mesh->GetPolygon(polygonIndex);
580             if (polygon->GetMaterial()->GetPolyMaterial() == mat)
581             {
582                 RAS_TexVert *v1, *v2, *v3, *v4;
583                 float normal[3];
584                 float area;
585                 // this polygon is part of the mirror,
586                 v1 = polygon->GetVertex(0);
587                 v2 = polygon->GetVertex(1);
588                 v3 = polygon->GetVertex(2);
589                 mirrorVerts.push_back(v1);
590                 mirrorVerts.push_back(v2);
591                 mirrorVerts.push_back(v3);
592                 if (polygon->VertexCount() == 4) 
593                 {
594                     v4 = polygon->GetVertex(3);
595                     mirrorVerts.push_back(v4);
596                     area = normal_quad_v3( normal,(float*)v1->getXYZ(), (float*)v2->getXYZ(), (float*)v3->getXYZ(), (float*)v4->getXYZ());
597                 } else
598                 {
599                     area = normal_tri_v3( normal,(float*)v1->getXYZ(), (float*)v2->getXYZ(), (float*)v3->getXYZ());
600                 }
601                 area = fabs(area);
602                 mirrorArea += area;
603                 mul_v3_fl(normal, area);
604                 add_v3_v3v3(mirrorNormal, mirrorNormal, normal);
605             }
606         }
607     }
608     if (mirrorVerts.size() == 0 || mirrorArea < FLT_EPSILON)
609     {
610         // no vertex or zero size mirror
611        THRWEXCP(MirrorSizeInvalid, S_OK);
612     }
613     // compute average normal of mirror faces
614     mul_v3_fl(mirrorNormal, 1.0f/mirrorArea);
615     if (normalize_v3(mirrorNormal) == 0.f)
616     {
617         // no normal
618         THRWEXCP(MirrorNormalInvalid, S_OK);
619     }
620     // the mirror plane has an equation of the type ax+by+cz = d where (a,b,c) is the normal vector
621         // if the mirror is more vertical then horizontal, the Z axis is the up direction.
622         // otherwise the Y axis is the up direction.
623         // If the mirror is not perfectly vertical(horizontal), the Z(Y) axis projection on the mirror
624         // plan by the normal will be the up direction.
625         if (fabs(mirrorNormal[2]) > fabs(mirrorNormal[1]) &&
626                 fabs(mirrorNormal[2]) > fabs(mirrorNormal[0]))
627         {
628                 // the mirror is more horizontal than vertical
629         copy_v3_v3(axis, yaxis);
630         }
631         else
632         {
633                 // the mirror is more vertical than horizontal
634         copy_v3_v3(axis, zaxis);
635         }
636     dist = dot_v3v3(mirrorNormal, axis);
637     if (fabs(dist) < FLT_EPSILON)
638     {
639         // the mirror is already fully aligned with up axis
640         copy_v3_v3(mirrorUp, axis);
641     }
642     else
643     {
644         // projection of axis to mirror plane through normal
645         copy_v3_v3(vec, mirrorNormal);
646         mul_v3_fl(vec, dist);
647         sub_v3_v3v3(mirrorUp, axis, vec);
648         if (normalize_v3(mirrorUp) == 0.f)
649         {
650             // should not happen
651             THRWEXCP(MirrorHorizontal, S_OK);
652             return;
653         }
654     }
655     // compute rotation matrix between local coord and mirror coord
656     // to match camera orientation, we select mirror z = -normal, y = up, x = y x z
657     negate_v3_v3(mirrorMat[2], mirrorNormal);
658     copy_v3_v3(mirrorMat[1], mirrorUp);
659     cross_v3_v3v3(mirrorMat[0], mirrorMat[1], mirrorMat[2]);
660     // transpose to make it a orientation matrix from local space to mirror space
661     transpose_m3(mirrorMat);
662     // transform all vertex to plane coordinates and determine mirror position
663     left = FLT_MAX; 
664     right = -FLT_MAX;
665     bottom = FLT_MAX;
666     top = -FLT_MAX;
667     back = -FLT_MAX; // most backward vertex (=highest Z coord in mirror space)
668     for (it = mirrorVerts.begin(); it != mirrorVerts.end(); it++)
669     {   
670         copy_v3_v3(vec, (float*)(*it)->getXYZ());
671         mul_m3_v3(mirrorMat, vec);
672         if (vec[0] < left)
673             left = vec[0];
674         if (vec[0] > right)
675             right = vec[0];
676         if (vec[1] < bottom)
677             bottom = vec[1];
678         if (vec[1] > top)
679             top = vec[1];
680         if (vec[2] > back)
681             back = vec[2];
682     }
683     // now store this information in the object for later rendering
684     m_mirrorHalfWidth = (right-left)*0.5f;
685     m_mirrorHalfHeight = (top-bottom)*0.5f;
686     if (m_mirrorHalfWidth < 0.01f || m_mirrorHalfHeight < 0.01f)
687     {
688         // mirror too small
689         THRWEXCP(MirrorTooSmall, S_OK);
690     }
691     // mirror position in mirror coord
692     vec[0] = (left+right)*0.5f;
693     vec[1] = (top+bottom)*0.5f;
694     vec[2] = back;
695     // convert it in local space: transpose again the matrix to get back to mirror to local transform
696     transpose_m3(mirrorMat);
697     mul_m3_v3(mirrorMat, vec);
698     // mirror position in local space
699     m_mirrorPos.setValue(vec[0], vec[1], vec[2]);
700     // mirror normal vector (pointed towards the back of the mirror) in local space
701     m_mirrorZ.setValue(-mirrorNormal[0], -mirrorNormal[1], -mirrorNormal[2]);
702     m_mirrorY.setValue(mirrorUp[0], mirrorUp[1], mirrorUp[2]);
703     m_mirrorX = m_mirrorY.cross(m_mirrorZ);
704     m_render = true;
705
706         setBackground(0, 0, 255, 255);
707 }
708
709
710
711
712 // define python type
713 PyTypeObject ImageMirrorType =
714
715         PyVarObject_HEAD_INIT(NULL, 0)
716         "VideoTexture.ImageMirror",   /*tp_name*/
717         sizeof(PyImage),          /*tp_basicsize*/
718         0,                         /*tp_itemsize*/
719         (destructor)Image_dealloc, /*tp_dealloc*/
720         0,                         /*tp_print*/
721         0,                         /*tp_getattr*/
722         0,                         /*tp_setattr*/
723         0,                         /*tp_compare*/
724         0,                         /*tp_repr*/
725         0,                         /*tp_as_number*/
726         0,                         /*tp_as_sequence*/
727         0,                         /*tp_as_mapping*/
728         0,                         /*tp_hash */
729         0,                         /*tp_call*/
730         0,                         /*tp_str*/
731         0,                         /*tp_getattro*/
732         0,                         /*tp_setattro*/
733         &imageBufferProcs,         /*tp_as_buffer*/
734         Py_TPFLAGS_DEFAULT,        /*tp_flags*/
735         "Image source from mirror",       /* tp_doc */
736         0,                             /* tp_traverse */
737         0,                             /* tp_clear */
738         0,                             /* tp_richcompare */
739         0,                             /* tp_weaklistoffset */
740         0,                             /* tp_iter */
741         0,                             /* tp_iternext */
742         imageRenderMethods,    /* tp_methods */
743         0,                   /* tp_members */
744         imageMirrorGetSets,          /* tp_getset */
745         0,                         /* tp_base */
746         0,                         /* tp_dict */
747         0,                         /* tp_descr_get */
748         0,                         /* tp_descr_set */
749         0,                         /* tp_dictoffset */
750         (initproc)ImageMirror_init,     /* tp_init */
751         0,                         /* tp_alloc */
752         Image_allocNew,           /* tp_new */
753 };
754
755