a334951c772a5468ad297c10ab7e74e91b236df6
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * ***** BEGIN GPL LICENSE BLOCK *****
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  *
18  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
19  * All rights reserved.
20  *
21  * Contributor(s): Blender Foundation
22  *
23  * ***** END GPL LICENSE BLOCK *****
24  */
25
26 /** \file blender/blenkernel/intern/mesh_evaluate.c
27  *  \ingroup bke
28  *
29  * Functions to evaluate mesh data.
30  */
31
32 #include <limits.h>
33
34 #include "MEM_guardedalloc.h"
35
36 #include "DNA_object_types.h"
37 #include "DNA_mesh_types.h"
38 #include "DNA_meshdata_types.h"
39
40 #include "BLI_utildefines.h"
41 #include "BLI_memarena.h"
42 #include "BLI_mempool.h"
43 #include "BLI_math.h"
44 #include "BLI_edgehash.h"
45 #include "BLI_bitmap.h"
46 #include "BLI_polyfill2d.h"
47 #include "BLI_linklist.h"
48 #include "BLI_linklist_stack.h"
49 #include "BLI_alloca.h"
50 #include "BLI_stack.h"
51 #include "BLI_task.h"
52
53 #include "BKE_customdata.h"
54 #include "BKE_mesh.h"
55 #include "BKE_multires.h"
56 #include "BKE_report.h"
57
58 #include "BLI_strict_flags.h"
59
60 #include "mikktspace.h"
61
62 // #define DEBUG_TIME
63
64 #include "PIL_time.h"
65 #ifdef DEBUG_TIME
66 #  include "PIL_time_utildefines.h"
67 #endif
68
69 /* -------------------------------------------------------------------- */
70
71 /** \name Mesh Normal Calculation
72  * \{ */
73
74 /**
75  * Call when there are no polygons.
76  */
77 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
78 {
79         int i;
80         for (i = 0; i < numVerts; i++) {
81                 MVert *mv = &mverts[i];
82                 float no[3];
83
84                 normalize_v3_v3(no, mv->co);
85                 normal_float_to_short_v3(mv->no, no);
86         }
87 }
88
89 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
90  * and vertex normals are stored in actual mverts.
91  */
92 void BKE_mesh_calc_normals_mapping(
93         MVert *mverts, int numVerts,
94         const MLoop *mloop, const MPoly *mpolys, int numLoops, int numPolys, float (*r_polyNors)[3],
95         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3])
96 {
97         BKE_mesh_calc_normals_mapping_ex(
98                 mverts, numVerts, mloop, mpolys,
99                 numLoops, numPolys, r_polyNors, mfaces, numFaces,
100                 origIndexFace, r_faceNors, false);
101 }
102 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
103 void BKE_mesh_calc_normals_mapping_ex(
104         MVert *mverts, int numVerts,
105         const MLoop *mloop, const MPoly *mpolys,
106         int numLoops, int numPolys, float (*r_polyNors)[3],
107         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3],
108         const bool only_face_normals)
109 {
110         float (*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
111         int i;
112         const MFace *mf;
113         const MPoly *mp;
114
115         if (numPolys == 0) {
116                 if (only_face_normals == false) {
117                         mesh_calc_normals_vert_fallback(mverts, numVerts);
118                 }
119                 return;
120         }
121
122         /* if we are not calculating verts and no verts were passes then we have nothing to do */
123         if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
124                 printf("%s: called with nothing to do\n", __func__);
125                 return;
126         }
127
128         if (!pnors) pnors = MEM_callocN(sizeof(float[3]) * (size_t)numPolys, __func__);
129         /* if (!fnors) fnors = MEM_callocN(sizeof(float[3]) * numFaces, "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
130
131
132         if (only_face_normals == false) {
133                 /* vertex normals are optional, they require some extra calculations,
134                  * so make them optional */
135                 BKE_mesh_calc_normals_poly(mverts, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
136         }
137         else {
138                 /* only calc poly normals */
139                 mp = mpolys;
140                 for (i = 0; i < numPolys; i++, mp++) {
141                         BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
142                 }
143         }
144
145         if (origIndexFace &&
146             /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
147             fnors != NULL &&
148             numFaces)
149         {
150                 mf = mfaces;
151                 for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
152                         if (*origIndexFace < numPolys) {
153                                 copy_v3_v3(fnors[i], pnors[*origIndexFace]);
154                         }
155                         else {
156                                 /* eek, we're not corresponding to polys */
157                                 printf("error in %s: tessellation face indices are incorrect.  normals may look bad.\n", __func__);
158                         }
159                 }
160         }
161
162         if (pnors != r_polyNors) MEM_freeN(pnors);
163         /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
164
165         fnors = pnors = NULL;
166         
167 }
168
169 static void mesh_calc_normals_poly_accum(
170         const MPoly *mp, const MLoop *ml,
171         const MVert *mvert,
172         float r_polyno[3], float (*r_tnorms)[3])
173 {
174         const int nverts = mp->totloop;
175         float (*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
176         int i;
177
178         /* Polygon Normal and edge-vector */
179         /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
180         {
181                 int i_prev = nverts - 1;
182                 const float *v_prev = mvert[ml[i_prev].v].co;
183                 const float *v_curr;
184
185                 zero_v3(r_polyno);
186                 /* Newell's Method */
187                 for (i = 0; i < nverts; i++) {
188                         v_curr = mvert[ml[i].v].co;
189                         add_newell_cross_v3_v3v3(r_polyno, v_prev, v_curr);
190
191                         /* Unrelated to normalize, calculate edge-vector */
192                         sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
193                         normalize_v3(edgevecbuf[i_prev]);
194                         i_prev = i;
195
196                         v_prev = v_curr;
197                 }
198                 if (UNLIKELY(normalize_v3(r_polyno) == 0.0f)) {
199                         r_polyno[2] = 1.0f; /* other axis set to 0.0 */
200                 }
201         }
202
203         /* accumulate angle weighted face normal */
204         /* inline version of #accumulate_vertex_normals_poly */
205         {
206                 const float *prev_edge = edgevecbuf[nverts - 1];
207
208                 for (i = 0; i < nverts; i++) {
209                         const float *cur_edge = edgevecbuf[i];
210
211                         /* calculate angle between the two poly edges incident on
212                          * this vertex */
213                         const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
214
215                         /* accumulate */
216                         madd_v3_v3fl(r_tnorms[ml[i].v], r_polyno, fac);
217                         prev_edge = cur_edge;
218                 }
219         }
220
221 }
222
223 void BKE_mesh_calc_normals_poly(
224         MVert *mverts, int numVerts,
225         const MLoop *mloop, const MPoly *mpolys,
226         int UNUSED(numLoops), int numPolys, float (*r_polynors)[3],
227         const bool only_face_normals)
228 {
229         float (*pnors)[3] = r_polynors;
230         float (*tnorms)[3];
231         int i;
232         const MPoly *mp;
233
234         if (only_face_normals) {
235                 BLI_assert((pnors != NULL) || (numPolys == 0));
236
237 #pragma omp parallel for if (numPolys > BKE_MESH_OMP_LIMIT)
238                 for (i = 0; i < numPolys; i++) {
239                         BKE_mesh_calc_poly_normal(&mpolys[i], mloop + mpolys[i].loopstart, mverts, pnors[i]);
240                 }
241                 return;
242         }
243
244         /* first go through and calculate normals for all the polys */
245         tnorms = MEM_callocN(sizeof(*tnorms) * (size_t)numVerts, __func__);
246
247         if (pnors) {
248                 mp = mpolys;
249                 for (i = 0; i < numPolys; i++, mp++) {
250                         mesh_calc_normals_poly_accum(mp, mloop + mp->loopstart, mverts, pnors[i], tnorms);
251                 }
252         }
253         else {
254                 float tpnor[3];  /* temp poly normal */
255                 mp = mpolys;
256                 for (i = 0; i < numPolys; i++, mp++) {
257                         mesh_calc_normals_poly_accum(mp, mloop + mp->loopstart, mverts, tpnor, tnorms);
258                 }
259         }
260
261         for (i = 0; i < numVerts; i++) {
262                 MVert *mv = &mverts[i];
263                 float *no = tnorms[i];
264
265                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
266                         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
267                         normalize_v3_v3(no, mv->co);
268                 }
269
270                 normal_float_to_short_v3(mv->no, no);
271         }
272
273         MEM_freeN(tnorms);
274 }
275
276 void BKE_mesh_calc_normals(Mesh *mesh)
277 {
278 #ifdef DEBUG_TIME
279         TIMEIT_START(BKE_mesh_calc_normals);
280 #endif
281         BKE_mesh_calc_normals_poly(mesh->mvert, mesh->totvert,
282                                    mesh->mloop, mesh->mpoly, mesh->totloop, mesh->totpoly,
283                                    NULL, false);
284 #ifdef DEBUG_TIME
285         TIMEIT_END(BKE_mesh_calc_normals);
286 #endif
287 }
288
289 void BKE_mesh_calc_normals_tessface(
290         MVert *mverts, int numVerts,
291         const MFace *mfaces, int numFaces,
292         float (*r_faceNors)[3])
293 {
294         float (*tnorms)[3] = MEM_callocN(sizeof(*tnorms) * (size_t)numVerts, "tnorms");
295         float (*fnors)[3] = (r_faceNors) ? r_faceNors : MEM_callocN(sizeof(*fnors) * (size_t)numFaces, "meshnormals");
296         int i;
297
298         for (i = 0; i < numFaces; i++) {
299                 const MFace *mf = &mfaces[i];
300                 float *f_no = fnors[i];
301                 float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
302                 const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
303
304                 if (mf->v4)
305                         normal_quad_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
306                 else
307                         normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
308
309                 accumulate_vertex_normals(tnorms[mf->v1], tnorms[mf->v2], tnorms[mf->v3], n4,
310                                           f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, c4);
311         }
312
313         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
314         for (i = 0; i < numVerts; i++) {
315                 MVert *mv = &mverts[i];
316                 float *no = tnorms[i];
317                 
318                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
319                         normalize_v3_v3(no, mv->co);
320                 }
321
322                 normal_float_to_short_v3(mv->no, no);
323         }
324         
325         MEM_freeN(tnorms);
326
327         if (fnors != r_faceNors)
328                 MEM_freeN(fnors);
329 }
330
331 void BKE_mesh_calc_normals_looptri(
332         MVert *mverts, int numVerts,
333         const MLoop *mloop,
334         const MLoopTri *looptri, int looptri_num,
335         float (*r_tri_nors)[3])
336 {
337         float (*tnorms)[3] = MEM_callocN(sizeof(*tnorms) * (size_t)numVerts, "tnorms");
338         float (*fnors)[3] = (r_tri_nors) ? r_tri_nors : MEM_callocN(sizeof(*fnors) * (size_t)looptri_num, "meshnormals");
339         int i;
340
341         for (i = 0; i < looptri_num; i++) {
342                 const MLoopTri *lt = &looptri[i];
343                 float *f_no = fnors[i];
344                 const unsigned int vtri[3] = {
345                     mloop[lt->tri[0]].v,
346                     mloop[lt->tri[1]].v,
347                     mloop[lt->tri[2]].v,
348                 };
349
350                 normal_tri_v3(
351                         f_no,
352                         mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
353
354                 accumulate_vertex_normals_tri(
355                         tnorms[vtri[0]], tnorms[vtri[1]], tnorms[vtri[2]],
356                         f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
357         }
358
359         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
360         for (i = 0; i < numVerts; i++) {
361                 MVert *mv = &mverts[i];
362                 float *no = tnorms[i];
363
364                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
365                         normalize_v3_v3(no, mv->co);
366                 }
367
368                 normal_float_to_short_v3(mv->no, no);
369         }
370
371         MEM_freeN(tnorms);
372
373         if (fnors != r_tri_nors)
374                 MEM_freeN(fnors);
375 }
376
377 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr, const int numLoops)
378 {
379         if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
380                 MemArena *mem;
381
382                 if (!lnors_spacearr->mem) {
383                         lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
384                 }
385                 mem = lnors_spacearr->mem;
386                 lnors_spacearr->lspacearr = BLI_memarena_calloc(mem, sizeof(MLoopNorSpace *) * (size_t)numLoops);
387                 lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
388         }
389 }
390
391 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
392 {
393         BLI_memarena_clear(lnors_spacearr->mem);
394         lnors_spacearr->lspacearr = NULL;
395         lnors_spacearr->loops_pool = NULL;
396 }
397
398 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
399 {
400         BLI_memarena_free(lnors_spacearr->mem);
401         lnors_spacearr->lspacearr = NULL;
402         lnors_spacearr->loops_pool = NULL;
403         lnors_spacearr->mem = NULL;
404 }
405
406 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
407 {
408         return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
409 }
410
411 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
412 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-6f)
413
414 /* Should only be called once.
415  * Beware, this modifies ref_vec and other_vec in place!
416  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
417  */
418 void BKE_lnor_space_define(MLoopNorSpace *lnor_space, const float lnor[3],
419                            float vec_ref[3], float vec_other[3], BLI_Stack *edge_vectors)
420 {
421         const float pi2 = (float)M_PI * 2.0f;
422         float tvec[3], dtp;
423         const float dtp_ref = dot_v3v3(vec_ref, lnor);
424         const float dtp_other = dot_v3v3(vec_other, lnor);
425
426         if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD || fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
427                 /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
428                  * tag it as invalid and abort. */
429                 lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
430
431                 if (edge_vectors) {
432                         BLI_stack_clear(edge_vectors);
433                 }
434                 return;
435         }
436
437         copy_v3_v3(lnor_space->vec_lnor, lnor);
438
439         /* Compute ref alpha, average angle of all available edge vectors to lnor. */
440         if (edge_vectors) {
441                 float alpha = 0.0f;
442                 int nbr = 0;
443                 while (!BLI_stack_is_empty(edge_vectors)) {
444                         const float *vec = BLI_stack_peek(edge_vectors);
445                         alpha += saacosf(dot_v3v3(vec, lnor));
446                         BLI_stack_discard(edge_vectors);
447                         nbr++;
448                 }
449                 /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
450                  *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
451                 BLI_assert(nbr >= 2);  /* This piece of code shall only be called for more than one loop... */
452                 lnor_space->ref_alpha = alpha / (float)nbr;
453         }
454         else {
455                 lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) + saacosf(dot_v3v3(vec_other, lnor))) / 2.0f;
456         }
457
458         /* Project vec_ref on lnor's ortho plane. */
459         mul_v3_v3fl(tvec, lnor, dtp_ref);
460         sub_v3_v3(vec_ref, tvec);
461         normalize_v3_v3(lnor_space->vec_ref, vec_ref);
462
463         cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
464         normalize_v3_v3(lnor_space->vec_ortho, tvec);
465
466         /* Project vec_other on lnor's ortho plane. */
467         mul_v3_v3fl(tvec, lnor, dtp_other);
468         sub_v3_v3(vec_other, tvec);
469         normalize_v3(vec_other);
470
471         /* Beta is angle between ref_vec and other_vec, around lnor. */
472         dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
473         if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
474                 const float beta = saacos(dtp);
475                 lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
476         }
477         else {
478                 lnor_space->ref_beta = pi2;
479         }
480 }
481
482 void BKE_lnor_space_add_loop(MLoopNorSpaceArray *lnors_spacearr, MLoopNorSpace *lnor_space, const int ml_index,
483                              const bool do_add_loop)
484 {
485         lnors_spacearr->lspacearr[ml_index] = lnor_space;
486         if (do_add_loop) {
487                 BLI_linklist_prepend_nlink(&lnor_space->loops, SET_INT_IN_POINTER(ml_index), &lnors_spacearr->loops_pool[ml_index]);
488         }
489 }
490
491 MINLINE float unit_short_to_float(const short val)
492 {
493         return (float)val / (float)SHRT_MAX;
494 }
495
496 MINLINE short unit_float_to_short(const float val)
497 {
498         /* Rounding... */
499         return (short)floorf(val * (float)SHRT_MAX + 0.5f);
500 }
501
502 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space, const short clnor_data[2], float r_custom_lnor[3])
503 {
504         /* NOP custom normal data or invalid lnor space, return. */
505         if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
506                 copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
507                 return;
508         }
509
510         {
511                 /* TODO Check whether using sincosf() gives any noticeable benefit
512                  *      (could not even get it working under linux though)! */
513                 const float pi2 = (float)(M_PI * 2.0);
514                 const float alphafac = unit_short_to_float(clnor_data[0]);
515                 const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) * alphafac;
516                 const float betafac = unit_short_to_float(clnor_data[1]);
517
518                 mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
519
520                 if (betafac == 0.0f) {
521                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
522                 }
523                 else {
524                         const float sinalpha = sinf(alpha);
525                         const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) * betafac;
526                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
527                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
528                 }
529         }
530 }
531
532 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space, const float custom_lnor[3], short r_clnor_data[2])
533 {
534         /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
535         if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
536                 r_clnor_data[0] = r_clnor_data[1] = 0;
537                 return;
538         }
539
540         {
541                 const float pi2 = (float)(M_PI * 2.0);
542                 const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
543                 float vec[3], cos_beta;
544                 float alpha;
545
546                 alpha = saacosf(cos_alpha);
547                 if (alpha > lnor_space->ref_alpha) {
548                         /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
549                         r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
550                 }
551                 else {
552                         r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
553                 }
554
555                 /* Project custom lnor on (vec_ref, vec_ortho) plane. */
556                 mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
557                 add_v3_v3(vec, custom_lnor);
558                 normalize_v3(vec);
559
560                 cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
561
562                 if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
563                         float beta = saacosf(cos_beta);
564                         if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
565                                 beta = pi2 - beta;
566                         }
567
568                         if (beta > lnor_space->ref_beta) {
569                                 r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
570                         }
571                         else {
572                                 r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
573                         }
574                 }
575                 else {
576                         r_clnor_data[1] = 0;
577                 }
578         }
579 }
580
581 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
582
583 typedef struct LoopSplitTaskData {
584         /* Specific to each instance (each task). */
585         MLoopNorSpace *lnor_space;  /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
586         float (*lnor)[3];
587         const MLoop *ml_curr;
588         const MLoop *ml_prev;
589         int ml_curr_index;
590         int ml_prev_index;
591         const int *e2l_prev;  /* Also used a flag to switch between single or fan process! */
592         int mp_index;
593
594         /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
595         BLI_Stack *edge_vectors;
596
597         char pad_c;
598 } LoopSplitTaskData;
599
600 typedef struct LoopSplitTaskDataCommon {
601         /* Read/write.
602          * Note we do not need to protect it, though, since two different tasks will *always* affect different
603          * elements in the arrays. */
604         MLoopNorSpaceArray *lnors_spacearr;
605         BLI_bitmap *sharp_verts;
606         float (*loopnors)[3];
607         short (*clnors_data)[2];
608
609         /* Read-only. */
610         const MVert *mverts;
611         const MEdge *medges;
612         const MLoop *mloops;
613         const MPoly *mpolys;
614         const int (*edge_to_loops)[2];
615         const int *loop_to_poly;
616         const float (*polynors)[3];
617
618         int numPolys;
619
620         /* ***** Workers communication. ***** */
621         ThreadQueue *task_queue;
622
623 } LoopSplitTaskDataCommon;
624
625 #define INDEX_UNSET INT_MIN
626 #define INDEX_INVALID -1
627 /* See comment about edge_to_loops below. */
628 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
629
630 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
631 {
632         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
633         short (*clnors_data)[2] = common_data->clnors_data;
634
635         const MVert *mverts = common_data->mverts;
636         const MEdge *medges = common_data->medges;
637         const float (*polynors)[3] = common_data->polynors;
638
639         MLoopNorSpace *lnor_space = data->lnor_space;
640         float (*lnor)[3] = data->lnor;
641         const MLoop *ml_curr = data->ml_curr;
642         const MLoop *ml_prev = data->ml_prev;
643         const int ml_curr_index = data->ml_curr_index;
644 #if 0  /* Not needed for 'single' loop. */
645         const int ml_prev_index = data->ml_prev_index;
646         const int *e2l_prev = data->e2l_prev;
647 #endif
648         const int mp_index = data->mp_index;
649
650         /* Simple case (both edges around that vertex are sharp in current polygon),
651          * this loop just takes its poly normal.
652          */
653         copy_v3_v3(*lnor, polynors[mp_index]);
654
655         /* printf("BASIC: handling loop %d / edge %d / vert %d\n", ml_curr_index, ml_curr->e, ml_curr->v); */
656
657         /* If needed, generate this (simple!) lnor space. */
658         if (lnors_spacearr) {
659                 float vec_curr[3], vec_prev[3];
660
661                 const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
662                 const MVert *mv_pivot = &mverts[mv_pivot_index];
663                 const MEdge *me_curr = &medges[ml_curr->e];
664                 const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
665                 const MEdge *me_prev = &medges[ml_prev->e];
666                 const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] : &mverts[me_prev->v1];
667
668                 sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
669                 normalize_v3(vec_curr);
670                 sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
671                 normalize_v3(vec_prev);
672
673                 BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
674                 /* We know there is only one loop in this space, no need to create a linklist in this case... */
675                 BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, false);
676
677                 if (clnors_data) {
678                         BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
679                 }
680         }
681 }
682
683 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
684 {
685         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
686         float (*loopnors)[3] = common_data->loopnors;
687         short (*clnors_data)[2] = common_data->clnors_data;
688
689         const MVert *mverts = common_data->mverts;
690         const MEdge *medges = common_data->medges;
691         const MLoop *mloops = common_data->mloops;
692         const MPoly *mpolys = common_data->mpolys;
693         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
694         const int *loop_to_poly = common_data->loop_to_poly;
695         const float (*polynors)[3] = common_data->polynors;
696
697         MLoopNorSpace *lnor_space = data->lnor_space;
698 #if 0  /* Not needed for 'fan' loops. */
699         float (*lnor)[3] = data->lnor;
700 #endif
701         const MLoop *ml_curr = data->ml_curr;
702         const MLoop *ml_prev = data->ml_prev;
703         const int ml_curr_index = data->ml_curr_index;
704         const int ml_prev_index = data->ml_prev_index;
705         const int mp_index = data->mp_index;
706         const int *e2l_prev = data->e2l_prev;
707
708         BLI_Stack *edge_vectors = data->edge_vectors;
709
710         /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
711          * and accumulate face normals into the vertex!
712          * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
713          * the vertex normal, but I do not see any easy way to detect that (would need to count number
714          * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
715          * it should not be a common case in real-life meshes anyway).
716          */
717         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
718         const MVert *mv_pivot = &mverts[mv_pivot_index];
719         const MEdge *me_org = &medges[ml_curr->e];  /* ml_curr would be mlfan_prev if we needed that one */
720         const int *e2lfan_curr;
721         float vec_curr[3], vec_prev[3], vec_org[3];
722         const MLoop *mlfan_curr, *mlfan_next;
723         const MPoly *mpfan_next;
724         float lnor[3] = {0.0f, 0.0f, 0.0f};
725         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
726         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
727
728         /* We validate clnors data on the fly - cheapest way to do! */
729         int clnors_avg[2] = {0, 0};
730         short (*clnor_ref)[2] = NULL;
731         int clnors_nbr = 0;
732         bool clnors_invalid = false;
733
734         /* Temp loop normal stack. */
735         BLI_SMALLSTACK_DECLARE(normal, float *);
736         /* Temp clnors stack. */
737         BLI_SMALLSTACK_DECLARE(clnors, short *);
738
739         e2lfan_curr = e2l_prev;
740         mlfan_curr = ml_prev;
741         mlfan_curr_index = ml_prev_index;
742         mlfan_vert_index = ml_curr_index;
743         mpfan_curr_index = mp_index;
744
745         BLI_assert(mlfan_curr_index >= 0);
746         BLI_assert(mlfan_vert_index >= 0);
747         BLI_assert(mpfan_curr_index >= 0);
748
749         /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
750         {
751                 const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
752
753                 sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
754                 normalize_v3(vec_org);
755                 copy_v3_v3(vec_prev, vec_org);
756
757                 if (lnors_spacearr) {
758                         BLI_stack_push(edge_vectors, vec_org);
759                 }
760         }
761
762         /* printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e); */
763
764         while (true) {
765                 const MEdge *me_curr = &medges[mlfan_curr->e];
766                 /* Compute edge vectors.
767                  * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
768                  *       twice (or more) here. However, time gained is not worth memory and time lost,
769                  *       given the fact that this code should not be called that much in real-life meshes...
770                  */
771                 {
772                         const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
773
774                         sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
775                         normalize_v3(vec_curr);
776                 }
777
778                 /* printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index); */
779
780                 {
781                         /* Code similar to accumulate_vertex_normals_poly. */
782                         /* Calculate angle between the two poly edges incident on this vertex. */
783                         const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
784                         /* Accumulate */
785                         madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
786
787                         if (clnors_data) {
788                                 /* Accumulate all clnors, if they are not all equal we have to fix that! */
789                                 short (*clnor)[2] = &clnors_data[mlfan_vert_index];
790                                 if (clnors_nbr) {
791                                         clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
792                                 }
793                                 else {
794                                         clnor_ref = clnor;
795                                 }
796                                 clnors_avg[0] += (*clnor)[0];
797                                 clnors_avg[1] += (*clnor)[1];
798                                 clnors_nbr++;
799                                 /* We store here a pointer to all custom lnors processed. */
800                                 BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
801                         }
802                 }
803
804                 /* We store here a pointer to all loop-normals processed. */
805                 BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
806
807                 if (lnors_spacearr) {
808                         /* Assign current lnor space to current 'vertex' loop. */
809                         BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, true);
810                         if (me_curr != me_org) {
811                                 /* We store here all edges-normalized vectors processed. */
812                                 BLI_stack_push(edge_vectors, vec_curr);
813                         }
814                 }
815
816                 if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
817                         /* Current edge is sharp and we have finished with this fan of faces around this vert,
818                          * or this vert is smooth, and we have completed a full turn around it.
819                          */
820                         /* printf("FAN: Finished!\n"); */
821                         break;
822                 }
823
824                 copy_v3_v3(vec_prev, vec_curr);
825
826                 /* Warning! This is rather complex!
827                  * We have to find our next edge around the vertex (fan mode).
828                  * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
829                  * whether both loops using current edge are in the same direction or not, and whether
830                  * mlfan_curr_index actually uses the vertex we are fanning around!
831                  * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
832                  * (i.e. not the future mlfan_curr)...
833                  */
834                 mlfan_curr_index = (e2lfan_curr[0] == mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
835                 mpfan_curr_index = loop_to_poly[mlfan_curr_index];
836
837                 BLI_assert(mlfan_curr_index >= 0);
838                 BLI_assert(mpfan_curr_index >= 0);
839
840                 mlfan_next = &mloops[mlfan_curr_index];
841                 mpfan_next = &mpolys[mpfan_curr_index];
842                 if ((mlfan_curr->v == mlfan_next->v && mlfan_curr->v == mv_pivot_index) ||
843                     (mlfan_curr->v != mlfan_next->v && mlfan_curr->v != mv_pivot_index))
844                 {
845                         /* We need the previous loop, but current one is our vertex's loop. */
846                         mlfan_vert_index = mlfan_curr_index;
847                         if (--mlfan_curr_index < mpfan_next->loopstart) {
848                                 mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
849                         }
850                 }
851                 else {
852                         /* We need the next loop, which is also our vertex's loop. */
853                         if (++mlfan_curr_index >= mpfan_next->loopstart + mpfan_next->totloop) {
854                                 mlfan_curr_index = mpfan_next->loopstart;
855                         }
856                         mlfan_vert_index = mlfan_curr_index;
857                 }
858                 mlfan_curr = &mloops[mlfan_curr_index];
859                 /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
860
861                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
862         }
863
864         {
865                 float lnor_len = normalize_v3(lnor);
866
867                 /* If we are generating lnor spacearr, we can now define the one for this fan,
868                  * and optionally compute final lnor from custom data too!
869                  */
870                 if (lnors_spacearr) {
871                         if (UNLIKELY(lnor_len == 0.0f)) {
872                                 /* Use vertex normal as fallback! */
873                                 copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
874                                 lnor_len = 1.0f;
875                         }
876
877                         BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
878
879                         if (clnors_data) {
880                                 if (clnors_invalid) {
881                                         short *clnor;
882
883                                         clnors_avg[0] /= clnors_nbr;
884                                         clnors_avg[1] /= clnors_nbr;
885                                         /* Fix/update all clnors of this fan with computed average value. */
886                                         printf("Invalid clnors in this fan!\n");
887                                         while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
888                                                 //print_v2("org clnor", clnor);
889                                                 clnor[0] = (short)clnors_avg[0];
890                                                 clnor[1] = (short)clnors_avg[1];
891                                         }
892                                         //print_v2("new clnors", clnors_avg);
893                                 }
894                                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
895
896                                 BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
897                         }
898                 }
899
900                 /* In case we get a zero normal here, just use vertex normal already set! */
901                 if (LIKELY(lnor_len != 0.0f)) {
902                         /* Copy back the final computed normal into all related loop-normals. */
903                         float *nor;
904
905                         while ((nor = BLI_SMALLSTACK_POP(normal))) {
906                                 copy_v3_v3(nor, lnor);
907                         }
908                 }
909                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
910         }
911 }
912
913 static void loop_split_worker_do(
914         LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data, BLI_Stack *edge_vectors)
915 {
916         BLI_assert(data->ml_curr);
917         if (data->e2l_prev) {
918                 BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
919                 data->edge_vectors = edge_vectors;
920                 split_loop_nor_fan_do(common_data, data);
921         }
922         else {
923                 /* No need for edge_vectors for 'single' case! */
924                 split_loop_nor_single_do(common_data, data);
925         }
926 }
927
928 static void loop_split_worker(TaskPool *UNUSED(pool), void *taskdata, int UNUSED(threadid))
929 {
930         LoopSplitTaskDataCommon *common_data = taskdata;
931         LoopSplitTaskData *data_buff;
932
933         /* Temp edge vectors stack, only used when computing lnor spacearr. */
934         BLI_Stack *edge_vectors = common_data->lnors_spacearr ? BLI_stack_new(sizeof(float[3]), __func__) : NULL;
935
936 #ifdef DEBUG_TIME
937         TIMEIT_START(loop_split_worker);
938 #endif
939
940         while ((data_buff = BLI_thread_queue_pop(common_data->task_queue))) {
941                 LoopSplitTaskData *data = data_buff;
942                 int i;
943
944                 for (i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
945                         /* A NULL ml_curr is used to tag ended data! */
946                         if (data->ml_curr == NULL) {
947                                 break;
948                         }
949                         loop_split_worker_do(common_data, data, edge_vectors);
950                 }
951
952                 MEM_freeN(data_buff);
953         }
954
955         if (edge_vectors) {
956                 BLI_stack_free(edge_vectors);
957         }
958
959 #ifdef DEBUG_TIME
960         TIMEIT_END(loop_split_worker);
961 #endif
962 }
963
964 /* Note we use data_buff to detect whether we are in threaded context or not, in later case it is NULL. */
965 static void loop_split_generator_do(LoopSplitTaskDataCommon *common_data, const bool threaded)
966 {
967         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
968         BLI_bitmap *sharp_verts = common_data->sharp_verts;
969         float (*loopnors)[3] = common_data->loopnors;
970
971         const MLoop *mloops = common_data->mloops;
972         const MPoly *mpolys = common_data->mpolys;
973         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
974         const int numPolys = common_data->numPolys;
975
976         const MPoly *mp;
977         int mp_index;
978
979         LoopSplitTaskData *data, *data_buff = NULL, data_mem;
980         int data_idx = 0;
981
982         /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
983         BLI_Stack *edge_vectors = (lnors_spacearr && !data_buff) ? BLI_stack_new(sizeof(float[3]), __func__) : NULL;
984
985 #ifdef DEBUG_TIME
986         TIMEIT_START(loop_split_generator);
987 #endif
988
989         if (!threaded) {
990                 memset(&data_mem, 0, sizeof(data_mem));
991                 data = &data_mem;
992         }
993
994         /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
995          * Now, time to generate the normals.
996          */
997         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
998                 const MLoop *ml_curr, *ml_prev;
999                 float (*lnors)[3];
1000                 const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1001                 int ml_curr_index = mp->loopstart;
1002                 int ml_prev_index = ml_last_index;
1003
1004                 ml_curr = &mloops[ml_curr_index];
1005                 ml_prev = &mloops[ml_prev_index];
1006                 lnors = &loopnors[ml_curr_index];
1007
1008                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1009                         const int *e2l_curr = edge_to_loops[ml_curr->e];
1010                         const int *e2l_prev = edge_to_loops[ml_prev->e];
1011
1012                         if (!IS_EDGE_SHARP(e2l_curr) && (!lnors_spacearr || BLI_BITMAP_TEST_BOOL(sharp_verts, ml_curr->v))) {
1013                                 /* A smooth edge, and we are not generating lnor_spacearr, or the related vertex is sharp.
1014                                  * We skip it because it is either:
1015                                  * - in the middle of a 'smooth fan' already computed (or that will be as soon as we hit
1016                                  *   one of its ends, i.e. one of its two sharp edges), or...
1017                                  * - the related vertex is a "full smooth" one, in which case pre-populated normals from vertex
1018                                  *   are just fine (or it has already be handled in a previous loop in case of needed lnors spacearr)!
1019                                  */
1020                                 /* printf("Skipping loop %d / edge %d / vert %d(%d)\n", ml_curr_index, ml_curr->e, ml_curr->v, sharp_verts[ml_curr->v]); */
1021                         }
1022                         else {
1023                                 if (threaded) {
1024                                         if (data_idx == 0) {
1025                                                 data_buff = MEM_callocN(sizeof(*data_buff) * LOOP_SPLIT_TASK_BLOCK_SIZE, __func__);
1026                                         }
1027                                         data = &data_buff[data_idx];
1028                                 }
1029
1030                                 if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1031                                         data->lnor = lnors;
1032                                         data->ml_curr = ml_curr;
1033                                         data->ml_prev = ml_prev;
1034                                         data->ml_curr_index = ml_curr_index;
1035 #if 0  /* Not needed for 'single' loop. */
1036                                         data->ml_prev_index = ml_prev_index;
1037                                         data->e2l_prev = NULL;  /* Tag as 'single' task. */
1038 #endif
1039                                         data->mp_index = mp_index;
1040                                         if (lnors_spacearr) {
1041                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1042                                         }
1043                                 }
1044                                 /* We *do not need* to check/tag loops as already computed!
1045                                  * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1046                                  * more than once!*
1047                                  * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1048                                  * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1049                                  * and not the alternative (smooth curr_edge, sharp prev_edge).
1050                                  * All this due/thanks to link between normals and loop ordering (i.e. winding).
1051                                  */
1052                                 else {
1053 #if 0  /* Not needed for 'fan' loops. */
1054                                         data->lnor = lnors;
1055 #endif
1056                                         data->ml_curr = ml_curr;
1057                                         data->ml_prev = ml_prev;
1058                                         data->ml_curr_index = ml_curr_index;
1059                                         data->ml_prev_index = ml_prev_index;
1060                                         data->e2l_prev = e2l_prev;  /* Also tag as 'fan' task. */
1061                                         data->mp_index = mp_index;
1062                                         if (lnors_spacearr) {
1063                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1064                                                 /* Tag related vertex as sharp, to avoid fanning around it again (in case it was a smooth one).
1065                                                  * This *has* to be done outside of workers tasks! */
1066                                                 BLI_BITMAP_ENABLE(sharp_verts, ml_curr->v);
1067                                         }
1068                                 }
1069
1070                                 if (threaded) {
1071                                         data_idx++;
1072                                         if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1073                                                 BLI_thread_queue_push(common_data->task_queue, data_buff);
1074                                                 data_idx = 0;
1075                                         }
1076                                 }
1077                                 else {
1078                                         loop_split_worker_do(common_data, data, edge_vectors);
1079                                         memset(data, 0, sizeof(data_mem));
1080                                 }
1081                         }
1082
1083                         ml_prev = ml_curr;
1084                         ml_prev_index = ml_curr_index;
1085                 }
1086         }
1087
1088         if (threaded) {
1089                 /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1090                 if (LIKELY(data_idx)) {
1091                         BLI_thread_queue_push(common_data->task_queue, data_buff);
1092                 }
1093
1094                 /* This will signal all other worker threads to wake up and finish! */
1095                 BLI_thread_queue_nowait(common_data->task_queue);
1096         }
1097
1098         if (edge_vectors) {
1099                 BLI_stack_free(edge_vectors);
1100         }
1101
1102 #ifdef DEBUG_TIME
1103         TIMEIT_END(loop_split_generator);
1104 #endif
1105 }
1106
1107 static void loop_split_generator(TaskPool *UNUSED(pool), void *taskdata, int UNUSED(threadid))
1108 {
1109         LoopSplitTaskDataCommon *common_data = taskdata;
1110
1111         loop_split_generator_do(common_data, true);
1112 }
1113
1114 /**
1115  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1116  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1117  */
1118 void BKE_mesh_normals_loop_split(
1119         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1120         MLoop *mloops, float (*r_loopnors)[3], const int numLoops,
1121         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1122         const bool use_split_normals, float split_angle,
1123         MLoopNorSpaceArray *r_lnors_spacearr, short (*clnors_data)[2], int *r_loop_to_poly)
1124 {
1125
1126         /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1127         BLI_assert(use_split_normals || !(r_lnors_spacearr));
1128
1129         if (!use_split_normals) {
1130                 /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1131                  * Note this is done here to keep some logic and consistency in this quite complex code,
1132                  * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1133                  * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1134                  */
1135                 int mp_index;
1136
1137                 for (mp_index = 0; mp_index < numPolys; mp_index++) {
1138                         MPoly *mp = &mpolys[mp_index];
1139                         int ml_index = mp->loopstart;
1140                         const int ml_index_end = ml_index + mp->totloop;
1141                         const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1142
1143                         for (; ml_index < ml_index_end; ml_index++) {
1144                                 if (r_loop_to_poly) {
1145                                         r_loop_to_poly[ml_index] = mp_index;
1146                                 }
1147                                 if (is_poly_flat) {
1148                                         copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1149                                 }
1150                                 else {
1151                                         normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1152                                 }
1153                         }
1154                 }
1155                 return;
1156         }
1157
1158         {
1159
1160         /* Mapping edge -> loops.
1161          * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1162          * We also use the second loop index as a kind of flag: smooth edge: > 0,
1163          *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1164          *                                                      unset: INDEX_UNSET
1165          * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1166          * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1167          * Note also that lose edges always have both values set to 0!
1168          */
1169         int (*edge_to_loops)[2] = MEM_callocN(sizeof(int[2]) * (size_t)numEdges, __func__);
1170
1171         /* Simple mapping from a loop to its polygon index. */
1172         int *loop_to_poly = r_loop_to_poly ? r_loop_to_poly : MEM_mallocN(sizeof(int) * (size_t)numLoops, __func__);
1173
1174         MPoly *mp;
1175         int mp_index, me_index;
1176         bool check_angle = (split_angle < (float)M_PI);
1177         int i;
1178
1179         BLI_bitmap *sharp_verts = NULL;
1180         MLoopNorSpaceArray _lnors_spacearr = {NULL};
1181
1182         LoopSplitTaskDataCommon common_data = {NULL};
1183
1184 #ifdef DEBUG_TIME
1185         TIMEIT_START(BKE_mesh_normals_loop_split);
1186 #endif
1187
1188         if (check_angle) {
1189                 /* When using custom loop normals, disable the angle feature! */
1190                 if (clnors_data) {
1191                         check_angle = false;
1192                 }
1193                 else {
1194                         split_angle = cosf(split_angle);
1195                 }
1196         }
1197
1198         if (!r_lnors_spacearr && clnors_data) {
1199                 /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1200                 r_lnors_spacearr = &_lnors_spacearr;
1201         }
1202         if (r_lnors_spacearr) {
1203                 BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops);
1204                 sharp_verts = BLI_BITMAP_NEW((size_t)numVerts, __func__);
1205         }
1206
1207         /* This first loop check which edges are actually smooth, and compute edge vectors. */
1208         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1209                 MLoop *ml_curr;
1210                 int *e2l;
1211                 int ml_curr_index = mp->loopstart;
1212                 const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
1213
1214                 ml_curr = &mloops[ml_curr_index];
1215
1216                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
1217                         e2l = edge_to_loops[ml_curr->e];
1218
1219                         loop_to_poly[ml_curr_index] = mp_index;
1220
1221                         /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
1222                          * those later!
1223                          */
1224                         normal_short_to_float_v3(r_loopnors[ml_curr_index], mverts[ml_curr->v].no);
1225
1226                         /* Check whether current edge might be smooth or sharp */
1227                         if ((e2l[0] | e2l[1]) == 0) {
1228                                 /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
1229                                 e2l[0] = ml_curr_index;
1230                                 /* We have to check this here too, else we might miss some flat faces!!! */
1231                                 e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
1232                         }
1233                         else if (e2l[1] == INDEX_UNSET) {
1234                                 /* Second loop using this edge, time to test its sharpness.
1235                                  * An edge is sharp if it is tagged as such, or its face is not smooth,
1236                                  * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
1237                                  * or angle between both its polys' normals is above split_angle value.
1238                                  */
1239                                 if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
1240                                     ml_curr->v == mloops[e2l[0]].v ||
1241                                     (check_angle && dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) < split_angle))
1242                                 {
1243                                         /* Note: we are sure that loop != 0 here ;) */
1244                                         e2l[1] = INDEX_INVALID;
1245                                 }
1246                                 else {
1247                                         e2l[1] = ml_curr_index;
1248                                 }
1249                         }
1250                         else if (!IS_EDGE_SHARP(e2l)) {
1251                                 /* More than two loops using this edge, tag as sharp if not yet done. */
1252                                 e2l[1] = INDEX_INVALID;
1253                         }
1254                         /* Else, edge is already 'disqualified' (i.e. sharp)! */
1255                 }
1256         }
1257
1258         if (r_lnors_spacearr) {
1259                 /* Tag vertices that have at least one sharp edge as 'sharp' (used for the lnor spacearr computation).
1260                  * XXX This third loop over edges is a bit disappointing, could not find any other way yet.
1261                  *     Not really performance-critical anyway.
1262                  */
1263                 for (me_index = 0; me_index < numEdges; me_index++) {
1264                         const int *e2l = edge_to_loops[me_index];
1265                         const MEdge *me = &medges[me_index];
1266                         if (IS_EDGE_SHARP(e2l)) {
1267                                 BLI_BITMAP_ENABLE(sharp_verts, me->v1);
1268                                 BLI_BITMAP_ENABLE(sharp_verts, me->v2);
1269                         }
1270                 }
1271         }
1272
1273         /* Init data common to all tasks. */
1274         common_data.lnors_spacearr = r_lnors_spacearr;
1275         common_data.loopnors = r_loopnors;
1276         common_data.clnors_data = clnors_data;
1277
1278         common_data.mverts = mverts;
1279         common_data.medges = medges;
1280         common_data.mloops = mloops;
1281         common_data.mpolys = mpolys;
1282         common_data.sharp_verts = sharp_verts;
1283         common_data.edge_to_loops = (const int(*)[2])edge_to_loops;
1284         common_data.loop_to_poly = loop_to_poly;
1285         common_data.polynors = polynors;
1286         common_data.numPolys = numPolys;
1287
1288         if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1289                 /* Not enough loops to be worth the whole threading overhead... */
1290                 loop_split_generator_do(&common_data, false);
1291         }
1292         else {
1293                 TaskScheduler *task_scheduler;
1294                 TaskPool *task_pool;
1295                 int nbr_workers;
1296
1297                 common_data.task_queue = BLI_thread_queue_init();
1298
1299                 task_scheduler = BLI_task_scheduler_get();
1300                 task_pool = BLI_task_pool_create(task_scheduler, NULL);
1301
1302                 nbr_workers = max_ii(2, BLI_task_scheduler_num_threads(task_scheduler));
1303                 for (i = 1; i < nbr_workers; i++) {
1304                         BLI_task_pool_push(task_pool, loop_split_worker, &common_data, false, TASK_PRIORITY_HIGH);
1305                 }
1306                 BLI_task_pool_push(task_pool, loop_split_generator, &common_data, false, TASK_PRIORITY_HIGH);
1307                 BLI_task_pool_work_and_wait(task_pool);
1308
1309                 BLI_task_pool_free(task_pool);
1310
1311                 BLI_thread_queue_free(common_data.task_queue);
1312         }
1313
1314         MEM_freeN(edge_to_loops);
1315         if (!r_loop_to_poly) {
1316                 MEM_freeN(loop_to_poly);
1317         }
1318
1319         if (r_lnors_spacearr) {
1320                 MEM_freeN(sharp_verts);
1321                 if (r_lnors_spacearr == &_lnors_spacearr) {
1322                         BKE_lnor_spacearr_free(r_lnors_spacearr);
1323                 }
1324         }
1325
1326 #ifdef DEBUG_TIME
1327         TIMEIT_END(BKE_mesh_normals_loop_split);
1328 #endif
1329
1330         }
1331 }
1332
1333 #undef INDEX_UNSET
1334 #undef INDEX_INVALID
1335 #undef IS_EDGE_SHARP
1336
1337 /**
1338  * Compute internal representation of given custom normals (as an array of float[2]).
1339  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1340  * same custom lnor for all loops sharing a same smooth fan.
1341  * If use_vertices if true, custom_loopnors is assumed to be per-vertex, not per-loop
1342  * (this allows to set whole vert's normals at once, useful in some cases).
1343  */
1344 static void mesh_normals_loop_custom_set(
1345         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1346         MLoop *mloops, float (*custom_loopnors)[3], const int numLoops,
1347         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1348         short (*r_clnors_data)[2], const bool use_vertices)
1349 {
1350         /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1351          * feature too, would probably be more efficient in absolute.
1352          * However, this function *is not* performance-critical, since it is mostly expected to be called
1353          * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1354          * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1355          */
1356         MLoopNorSpaceArray lnors_spacearr = {NULL};
1357         BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1358         float (*lnors)[3] = MEM_callocN(sizeof(*lnors) * (size_t)numLoops, __func__);
1359         int *loop_to_poly = MEM_mallocN(sizeof(int) * (size_t)numLoops, __func__);
1360         /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1361         const bool use_split_normals = true;
1362         const float split_angle = (float)M_PI;
1363         int i;
1364
1365         BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1366
1367         /* Compute current lnor spacearr. */
1368         BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1369                                     mpolys, polynors, numPolys, use_split_normals, split_angle,
1370                                     &lnors_spacearr, NULL, loop_to_poly);
1371
1372         /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1373          * are not (enough) equal, add sharp edges as needed.
1374          * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1375          * given custom lnors.
1376          * Note this code *will never* unsharp edges!
1377          * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1378          */
1379         if (!use_vertices) {
1380                 for (i = 0; i < numLoops; i++) {
1381                         if (!lnors_spacearr.lspacearr[i]) {
1382                                 /* This should not happen in theory, but in some rare case (probably ugly geometry)
1383                                  * we can get some NULL loopspacearr at this point. :/
1384                                  * Maybe we should set those loops' edges as sharp?
1385                                  */
1386                                 BLI_BITMAP_ENABLE(done_loops, i);
1387                                 printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1388                                 continue;
1389                         }
1390
1391                         if (!BLI_BITMAP_TEST(done_loops, i)) {
1392                                 /* Notes:
1393                                  *     * In case of mono-loop smooth fan, loops is NULL, so everything is fine (we have nothing to do).
1394                                  *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1395                                  *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1396                                  *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1397                                  *       lnor space.
1398                                  *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1399                                  *       up into a real big one in the end!
1400                                  */
1401                                 LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1402                                 MLoop *prev_ml = NULL;
1403                                 const float *org_nor = NULL;
1404
1405                                 while (loops) {
1406                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1407                                         MLoop *ml = &mloops[lidx];
1408                                         const int nidx = lidx;
1409                                         float *nor = custom_loopnors[nidx];
1410
1411                                         if (is_zero_v3(nor)) {
1412                                                 nor = lnors[nidx];
1413                                         }
1414
1415                                         if (!org_nor) {
1416                                                 org_nor = nor;
1417                                         }
1418                                         else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1419                                                 /* Current normal differs too much from org one, we have to tag the edge between
1420                                                  * previous loop's face and current's one as sharp.
1421                                                  * We know those two loops do not point to the same edge, since we do not allow reversed winding
1422                                                  * in a same smooth fan.
1423                                                  */
1424                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1425                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1426                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1427
1428                                                 org_nor = nor;
1429                                         }
1430
1431                                         prev_ml = ml;
1432                                         loops = loops->next;
1433                                         BLI_BITMAP_ENABLE(done_loops, lidx);
1434                                 }
1435                                 BLI_BITMAP_ENABLE(done_loops, i);  /* For single loops, where lnors_spacearr.lspacearr[i]->loops is NULL. */
1436                         }
1437                 }
1438
1439                 /* And now, recompute our new auto lnors and lnor spacearr! */
1440                 BKE_lnor_spacearr_clear(&lnors_spacearr);
1441                 BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1442                                             mpolys, polynors, numPolys, use_split_normals, split_angle,
1443                                             &lnors_spacearr, NULL, loop_to_poly);
1444         }
1445         else {
1446                 BLI_BITMAP_SET_ALL(done_loops, true, (size_t)numLoops);
1447         }
1448
1449         /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1450         for (i = 0; i < numLoops; i++) {
1451                 if (!lnors_spacearr.lspacearr[i]) {
1452                         BLI_BITMAP_DISABLE(done_loops, i);
1453                         printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1454                         continue;
1455                 }
1456
1457                 if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1458                         /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1459                          * clnors data (tiny differences in plain custom normals can give rather huge differences in
1460                          * computed 2D factors).
1461                          */
1462                         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1463                         if (loops) {
1464                                 int nbr_nors = 0;
1465                                 float avg_nor[3];
1466                                 short clnor_data_tmp[2], *clnor_data;
1467
1468                                 zero_v3(avg_nor);
1469                                 while (loops) {
1470                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1471                                         const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1472                                         float *nor = custom_loopnors[nidx];
1473
1474                                         if (is_zero_v3(nor)) {
1475                                                 nor = lnors[nidx];
1476                                         }
1477
1478                                         nbr_nors++;
1479                                         add_v3_v3(avg_nor, nor);
1480                                         BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1481
1482                                         loops = loops->next;
1483                                         BLI_BITMAP_DISABLE(done_loops, lidx);
1484                                 }
1485
1486                                 mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1487                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1488
1489                                 while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1490                                         clnor_data[0] = clnor_data_tmp[0];
1491                                         clnor_data[1] = clnor_data_tmp[1];
1492                                 }
1493                         }
1494                         else {
1495                                 const int nidx = use_vertices ? (int)mloops[i].v : i;
1496                                 float *nor = custom_loopnors[nidx];
1497
1498                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1499                                 BLI_BITMAP_DISABLE(done_loops, i);
1500                         }
1501                 }
1502         }
1503
1504         MEM_freeN(lnors);
1505         MEM_freeN(loop_to_poly);
1506         MEM_freeN(done_loops);
1507         BKE_lnor_spacearr_free(&lnors_spacearr);
1508 }
1509
1510 void BKE_mesh_normals_loop_custom_set(
1511         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1512         MLoop *mloops, float (*custom_loopnors)[3], const int numLoops,
1513         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1514         short (*r_clnors_data)[2])
1515 {
1516         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, custom_loopnors, numLoops,
1517                                      mpolys, polynors, numPolys, r_clnors_data, false);
1518 }
1519
1520 void BKE_mesh_normals_loop_custom_from_vertices_set(
1521         const MVert *mverts, float (*custom_vertnors)[3], const int numVerts,
1522         MEdge *medges, const int numEdges, MLoop *mloops, const int numLoops,
1523         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1524         short (*r_clnors_data)[2])
1525 {
1526         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, custom_vertnors, numLoops,
1527                                      mpolys, polynors, numPolys, r_clnors_data, true);
1528 }
1529
1530 #undef LNOR_SPACE_TRIGO_THRESHOLD
1531
1532 /** \} */
1533
1534
1535 /* -------------------------------------------------------------------- */
1536
1537 /** \name Mesh Tangent Calculations
1538  * \{ */
1539
1540 /* Tangent space utils. */
1541
1542 /* User data. */
1543 typedef struct {
1544         const MPoly *mpolys;   /* faces */
1545         const MLoop *mloops;   /* faces's vertices */
1546         const MVert *mverts;   /* vertices */
1547         const MLoopUV *luvs;   /* texture coordinates */
1548         float (*lnors)[3];     /* loops' normals */
1549         float (*tangents)[4];  /* output tangents */
1550         int num_polys;         /* number of polygons */
1551 } BKEMeshToTangent;
1552
1553 /* Mikktspace's API */
1554 static int get_num_faces(const SMikkTSpaceContext *pContext)
1555 {
1556         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1557         return p_mesh->num_polys;
1558 }
1559
1560 static int get_num_verts_of_face(const SMikkTSpaceContext *pContext, const int face_idx)
1561 {
1562         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1563         return p_mesh->mpolys[face_idx].totloop;
1564 }
1565
1566 static void get_position(const SMikkTSpaceContext *pContext, float r_co[3], const int face_idx, const int vert_idx)
1567 {
1568         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1569         const int loop_idx = p_mesh->mpolys[face_idx].loopstart + vert_idx;
1570         copy_v3_v3(r_co, p_mesh->mverts[p_mesh->mloops[loop_idx].v].co);
1571 }
1572
1573 static void get_texture_coordinate(const SMikkTSpaceContext *pContext, float r_uv[2], const int face_idx,
1574                                    const int vert_idx)
1575 {
1576         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1577         copy_v2_v2(r_uv, p_mesh->luvs[p_mesh->mpolys[face_idx].loopstart + vert_idx].uv);
1578 }
1579
1580 static void get_normal(const SMikkTSpaceContext *pContext, float r_no[3], const int face_idx, const int vert_idx)
1581 {
1582         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1583         copy_v3_v3(r_no, p_mesh->lnors[p_mesh->mpolys[face_idx].loopstart + vert_idx]);
1584 }
1585
1586 static void set_tspace(const SMikkTSpaceContext *pContext, const float fv_tangent[3], const float face_sign,
1587                        const int face_idx, const int vert_idx)
1588 {
1589         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1590         float *p_res = p_mesh->tangents[p_mesh->mpolys[face_idx].loopstart + vert_idx];
1591         copy_v3_v3(p_res, fv_tangent);
1592         p_res[3] = face_sign;
1593 }
1594
1595 /**
1596  * Compute simplified tangent space normals, i.e. tangent vector + sign of bi-tangent one, which combined with
1597  * split normals can be used to recreate the full tangent space.
1598  * Note: * The mesh should be made of only tris and quads!
1599  */
1600 void BKE_mesh_loop_tangents_ex(
1601         const MVert *mverts, const int UNUSED(numVerts), const MLoop *mloops,
1602         float (*r_looptangent)[4], float (*loopnors)[3], const MLoopUV *loopuvs,
1603         const int UNUSED(numLoops), const MPoly *mpolys, const int numPolys,
1604         ReportList *reports)
1605 {
1606         BKEMeshToTangent mesh_to_tangent = {NULL};
1607         SMikkTSpaceContext s_context = {NULL};
1608         SMikkTSpaceInterface s_interface = {NULL};
1609
1610         const MPoly *mp;
1611         int mp_index;
1612
1613         /* First check we do have a tris/quads only mesh. */
1614         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1615                 if (mp->totloop > 4) {
1616                         BKE_report(reports, RPT_ERROR, "Tangent space can only be computed for tris/quads, aborting");
1617                         return;
1618                 }
1619         }
1620
1621         /* Compute Mikktspace's tangent normals. */
1622         mesh_to_tangent.mpolys = mpolys;
1623         mesh_to_tangent.mloops = mloops;
1624         mesh_to_tangent.mverts = mverts;
1625         mesh_to_tangent.luvs = loopuvs;
1626         mesh_to_tangent.lnors = loopnors;
1627         mesh_to_tangent.tangents = r_looptangent;
1628         mesh_to_tangent.num_polys = numPolys;
1629
1630         s_context.m_pUserData = &mesh_to_tangent;
1631         s_context.m_pInterface = &s_interface;
1632         s_interface.m_getNumFaces = get_num_faces;
1633         s_interface.m_getNumVerticesOfFace = get_num_verts_of_face;
1634         s_interface.m_getPosition = get_position;
1635         s_interface.m_getTexCoord = get_texture_coordinate;
1636         s_interface.m_getNormal = get_normal;
1637         s_interface.m_setTSpaceBasic = set_tspace;
1638
1639         /* 0 if failed */
1640         if (genTangSpaceDefault(&s_context) == false) {
1641                 BKE_report(reports, RPT_ERROR, "Mikktspace failed to generate tangents for this mesh!");
1642         }
1643 }
1644
1645 /**
1646  * Wrapper around BKE_mesh_loop_tangents_ex, which takes care of most boiling code.
1647  * \note
1648  * - There must be a valid loop's CD_NORMALS available.
1649  * - The mesh should be made of only tris and quads!
1650  */
1651 void BKE_mesh_loop_tangents(Mesh *mesh, const char *uvmap, float (*r_looptangents)[4], ReportList *reports)
1652 {
1653         MLoopUV *loopuvs;
1654         float (*loopnors)[3];
1655
1656         /* Check we have valid texture coordinates first! */
1657         if (uvmap) {
1658                 loopuvs = CustomData_get_layer_named(&mesh->ldata, CD_MLOOPUV, uvmap);
1659         }
1660         else {
1661                 loopuvs = CustomData_get_layer(&mesh->ldata, CD_MLOOPUV);
1662         }
1663         if (!loopuvs) {
1664                 BKE_reportf(reports, RPT_ERROR, "Tangent space computation needs an UVMap, \"%s\" not found, aborting", uvmap);
1665                 return;
1666         }
1667
1668         loopnors = CustomData_get_layer(&mesh->ldata, CD_NORMAL);
1669         if (!loopnors) {
1670                 BKE_report(reports, RPT_ERROR, "Tangent space computation needs loop normals, none found, aborting");
1671                 return;
1672         }
1673
1674         BKE_mesh_loop_tangents_ex(mesh->mvert, mesh->totvert, mesh->mloop, r_looptangents,
1675                                   loopnors, loopuvs, mesh->totloop, mesh->mpoly, mesh->totpoly, reports);
1676 }
1677
1678 /** \} */
1679
1680
1681 /* -------------------------------------------------------------------- */
1682
1683 /** \name Polygon Calculations
1684  * \{ */
1685
1686 /*
1687  * COMPUTE POLY NORMAL
1688  *
1689  * Computes the normal of a planar
1690  * polygon See Graphics Gems for
1691  * computing newell normal.
1692  *
1693  */
1694 static void mesh_calc_ngon_normal(
1695         const MPoly *mpoly, const MLoop *loopstart,
1696         const MVert *mvert, float normal[3])
1697 {
1698         const int nverts = mpoly->totloop;
1699         const float *v_prev = mvert[loopstart[nverts - 1].v].co;
1700         const float *v_curr;
1701         int i;
1702
1703         zero_v3(normal);
1704
1705         /* Newell's Method */
1706         for (i = 0; i < nverts; i++) {
1707                 v_curr = mvert[loopstart[i].v].co;
1708                 add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
1709                 v_prev = v_curr;
1710         }
1711
1712         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
1713                 normal[2] = 1.0f; /* other axis set to 0.0 */
1714         }
1715 }
1716
1717 void BKE_mesh_calc_poly_normal(
1718         const MPoly *mpoly, const MLoop *loopstart,
1719         const MVert *mvarray, float r_no[3])
1720 {
1721         if (mpoly->totloop > 4) {
1722                 mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
1723         }
1724         else if (mpoly->totloop == 3) {
1725                 normal_tri_v3(r_no,
1726                               mvarray[loopstart[0].v].co,
1727                               mvarray[loopstart[1].v].co,
1728                               mvarray[loopstart[2].v].co
1729                               );
1730         }
1731         else if (mpoly->totloop == 4) {
1732                 normal_quad_v3(r_no,
1733                                mvarray[loopstart[0].v].co,
1734                                mvarray[loopstart[1].v].co,
1735                                mvarray[loopstart[2].v].co,
1736                                mvarray[loopstart[3].v].co
1737                                );
1738         }
1739         else { /* horrible, two sided face! */
1740                 r_no[0] = 0.0;
1741                 r_no[1] = 0.0;
1742                 r_no[2] = 1.0;
1743         }
1744 }
1745 /* duplicate of function above _but_ takes coords rather then mverts */
1746 static void mesh_calc_ngon_normal_coords(
1747         const MPoly *mpoly, const MLoop *loopstart,
1748         const float (*vertex_coords)[3], float r_normal[3])
1749 {
1750         const int nverts = mpoly->totloop;
1751         const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
1752         const float *v_curr;
1753         int i;
1754
1755         zero_v3(r_normal);
1756
1757         /* Newell's Method */
1758         for (i = 0; i < nverts; i++) {
1759                 v_curr = vertex_coords[loopstart[i].v];
1760                 add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
1761                 v_prev = v_curr;
1762         }
1763
1764         if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
1765                 r_normal[2] = 1.0f; /* other axis set to 0.0 */
1766         }
1767 }
1768
1769 void BKE_mesh_calc_poly_normal_coords(
1770         const MPoly *mpoly, const MLoop *loopstart,
1771         const float (*vertex_coords)[3], float r_no[3])
1772 {
1773         if (mpoly->totloop > 4) {
1774                 mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
1775         }
1776         else if (mpoly->totloop == 3) {
1777                 normal_tri_v3(r_no,
1778                               vertex_coords[loopstart[0].v],
1779                               vertex_coords[loopstart[1].v],
1780                               vertex_coords[loopstart[2].v]
1781                               );
1782         }
1783         else if (mpoly->totloop == 4) {
1784                 normal_quad_v3(r_no,
1785                                vertex_coords[loopstart[0].v],
1786                                vertex_coords[loopstart[1].v],
1787                                vertex_coords[loopstart[2].v],
1788                                vertex_coords[loopstart[3].v]
1789                                );
1790         }
1791         else { /* horrible, two sided face! */
1792                 r_no[0] = 0.0;
1793                 r_no[1] = 0.0;
1794                 r_no[2] = 1.0;
1795         }
1796 }
1797
1798 static void mesh_calc_ngon_center(
1799         const MPoly *mpoly, const MLoop *loopstart,
1800         const MVert *mvert, float cent[3])
1801 {
1802         const float w = 1.0f / (float)mpoly->totloop;
1803         int i;
1804
1805         zero_v3(cent);
1806
1807         for (i = 0; i < mpoly->totloop; i++) {
1808                 madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
1809         }
1810 }
1811
1812 void BKE_mesh_calc_poly_center(
1813         const MPoly *mpoly, const MLoop *loopstart,
1814         const MVert *mvarray, float r_cent[3])
1815 {
1816         if (mpoly->totloop == 3) {
1817                 cent_tri_v3(r_cent,
1818                             mvarray[loopstart[0].v].co,
1819                             mvarray[loopstart[1].v].co,
1820                             mvarray[loopstart[2].v].co
1821                             );
1822         }
1823         else if (mpoly->totloop == 4) {
1824                 cent_quad_v3(r_cent,
1825                              mvarray[loopstart[0].v].co,
1826                              mvarray[loopstart[1].v].co,
1827                              mvarray[loopstart[2].v].co,
1828                              mvarray[loopstart[3].v].co
1829                              );
1830         }
1831         else {
1832                 mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
1833         }
1834 }
1835
1836 /* note, passing polynormal is only a speedup so we can skip calculating it */
1837 float BKE_mesh_calc_poly_area(
1838         const MPoly *mpoly, const MLoop *loopstart,
1839         const MVert *mvarray)
1840 {
1841         if (mpoly->totloop == 3) {
1842                 return area_tri_v3(mvarray[loopstart[0].v].co,
1843                                    mvarray[loopstart[1].v].co,
1844                                    mvarray[loopstart[2].v].co
1845                                    );
1846         }
1847         else {
1848                 int i;
1849                 const MLoop *l_iter = loopstart;
1850                 float area;
1851                 float (*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
1852
1853                 /* pack vertex cos into an array for area_poly_v3 */
1854                 for (i = 0; i < mpoly->totloop; i++, l_iter++) {
1855                         copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
1856                 }
1857
1858                 /* finally calculate the area */
1859                 area = area_poly_v3((const float (*)[3])vertexcos, (unsigned int)mpoly->totloop);
1860
1861                 return area;
1862         }
1863 }
1864
1865 /* note, results won't be correct if polygon is non-planar */
1866 static float mesh_calc_poly_planar_area_centroid(
1867         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
1868         float r_cent[3])
1869 {
1870         int i;
1871         float tri_area;
1872         float total_area = 0.0f;
1873         float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
1874
1875         BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
1876         copy_v3_v3(v1, mvarray[loopstart[0].v].co);
1877         copy_v3_v3(v2, mvarray[loopstart[1].v].co);
1878         zero_v3(r_cent);
1879
1880         for (i = 2; i < mpoly->totloop; i++) {
1881                 copy_v3_v3(v3, mvarray[loopstart[i].v].co);
1882
1883                 tri_area = area_tri_signed_v3(v1, v2, v3, normal);
1884                 total_area += tri_area;
1885
1886                 cent_tri_v3(tri_cent, v1, v2, v3);
1887                 madd_v3_v3fl(r_cent, tri_cent, tri_area);
1888
1889                 copy_v3_v3(v2, v3);
1890         }
1891
1892         mul_v3_fl(r_cent, 1.0f / total_area);
1893
1894         return total_area;
1895 }
1896
1897 #if 0 /* slow version of the function below */
1898 void BKE_mesh_calc_poly_angles(MPoly *mpoly, MLoop *loopstart,
1899                                MVert *mvarray, float angles[])
1900 {
1901         MLoop *ml;
1902         MLoop *mloop = &loopstart[-mpoly->loopstart];
1903
1904         int j;
1905         for (j = 0, ml = loopstart; j < mpoly->totloop; j++, ml++) {
1906                 MLoop *ml_prev = ME_POLY_LOOP_PREV(mloop, mpoly, j);
1907                 MLoop *ml_next = ME_POLY_LOOP_NEXT(mloop, mpoly, j);
1908
1909                 float e1[3], e2[3];
1910
1911                 sub_v3_v3v3(e1, mvarray[ml_next->v].co, mvarray[ml->v].co);
1912                 sub_v3_v3v3(e2, mvarray[ml_prev->v].co, mvarray[ml->v].co);
1913
1914                 angles[j] = (float)M_PI - angle_v3v3(e1, e2);
1915         }
1916 }
1917
1918 #else /* equivalent the function above but avoid multiple subtractions + normalize */
1919
1920 void BKE_mesh_calc_poly_angles(
1921         const MPoly *mpoly, const MLoop *loopstart,
1922         const MVert *mvarray, float angles[])
1923 {
1924         float nor_prev[3];
1925         float nor_next[3];
1926
1927         int i_this = mpoly->totloop - 1;
1928         int i_next = 0;
1929
1930         sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
1931         normalize_v3(nor_prev);
1932
1933         while (i_next < mpoly->totloop) {
1934                 sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
1935                 normalize_v3(nor_next);
1936                 angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
1937
1938                 /* step */
1939                 copy_v3_v3(nor_prev, nor_next);
1940                 i_this = i_next;
1941                 i_next++;
1942         }
1943 }
1944 #endif
1945
1946 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
1947 {
1948         const MLoop *ml, *ml_next;
1949         int i = mp->totloop;
1950
1951         ml_next = mloop;       /* first loop */
1952         ml = &ml_next[i - 1];  /* last loop */
1953
1954         while (i-- != 0) {
1955                 BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
1956
1957                 ml = ml_next;
1958                 ml_next++;
1959         }
1960 }
1961
1962 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap, const MPoly *mp, const MLoop *mloop)
1963 {
1964         const MLoop *ml;
1965         int i = mp->totloop;
1966
1967         ml = mloop;
1968
1969         while (i-- != 0) {
1970                 BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
1971                 ml++;
1972         }
1973 }
1974
1975 /** \} */
1976
1977
1978 /* -------------------------------------------------------------------- */
1979
1980 /** \name Mesh Center Calculation
1981  * \{ */
1982
1983 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
1984 {
1985         int i = me->totvert;
1986         const MVert *mvert;
1987         zero_v3(r_cent);
1988         for (mvert = me->mvert; i--; mvert++) {
1989                 add_v3_v3(r_cent, mvert->co);
1990         }
1991         /* otherwise we get NAN for 0 verts */
1992         if (me->totvert) {
1993                 mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
1994         }
1995
1996         return (me->totvert != 0);
1997 }
1998
1999 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2000 {
2001         float min[3], max[3];
2002         INIT_MINMAX(min, max);
2003         if (BKE_mesh_minmax(me, min, max)) {
2004                 mid_v3_v3v3(r_cent, min, max);
2005                 return true;
2006         }
2007
2008         return false;
2009 }
2010
2011 bool BKE_mesh_center_centroid(const Mesh *me, float r_cent[3])
2012 {
2013         int i = me->totpoly;
2014         MPoly *mpoly;
2015         float poly_area;
2016         float total_area = 0.0f;
2017         float poly_cent[3];
2018
2019         zero_v3(r_cent);
2020
2021         /* calculate a weighted average of polygon centroids */
2022         for (mpoly = me->mpoly; i--; mpoly++) {
2023                 poly_area = mesh_calc_poly_planar_area_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2024
2025                 madd_v3_v3fl(r_cent, poly_cent, poly_area);
2026                 total_area += poly_area;
2027         }
2028         /* otherwise we get NAN for 0 polys */
2029         if (me->totpoly) {
2030                 mul_v3_fl(r_cent, 1.0f / total_area);
2031         }
2032
2033         /* zero area faces cause this, fallback to median */
2034         if (UNLIKELY(!is_finite_v3(r_cent))) {
2035                 return BKE_mesh_center_median(me, r_cent);
2036         }
2037
2038         return (me->totpoly != 0);
2039 }
2040 /** \} */
2041
2042
2043 /* -------------------------------------------------------------------- */
2044
2045 /** \name Mesh Volume Calculation
2046  * \{ */
2047
2048 static bool mesh_calc_center_centroid_ex(
2049         const MVert *mverts, int UNUSED(mverts_num),
2050         const MLoopTri *looptri, int looptri_num,
2051         const MLoop *mloop, float r_center[3])
2052 {
2053         const MLoopTri *lt;
2054         float totweight;
2055         int i;
2056         
2057         zero_v3(r_center);
2058         
2059         if (looptri_num == 0)
2060                 return false;
2061         
2062         totweight = 0.0f;
2063         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2064                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2065                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2066                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2067                 float area;
2068                 
2069                 area = area_tri_v3(v1->co, v2->co, v3->co);
2070                 madd_v3_v3fl(r_center, v1->co, area);
2071                 madd_v3_v3fl(r_center, v2->co, area);
2072                 madd_v3_v3fl(r_center, v3->co, area);
2073                 totweight += area;
2074         }
2075         if (totweight == 0.0f)
2076                 return false;
2077         
2078         mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2079         
2080         return true;
2081 }
2082
2083 /**
2084  * Calculate the volume and center.
2085  *
2086  * \param r_volume: Volume (unsigned).
2087  * \param r_center: Center of mass.
2088  */
2089 void BKE_mesh_calc_volume(
2090         const MVert *mverts, const int mverts_num,
2091         const MLoopTri *looptri, const int looptri_num,
2092         const MLoop *mloop,
2093         float *r_volume, float r_center[3])
2094 {
2095         const MLoopTri *lt;
2096         float center[3];
2097         float totvol;
2098         int i;
2099         
2100         if (r_volume)
2101                 *r_volume = 0.0f;
2102         if (r_center)
2103                 zero_v3(r_center);
2104         
2105         if (looptri_num == 0)
2106                 return;
2107         
2108         if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center))
2109                 return;
2110         
2111         totvol = 0.0f;
2112
2113         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2114                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2115                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2116                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2117                 float vol;
2118                 
2119                 vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2120                 if (r_volume) {
2121                         totvol += vol;
2122                 }
2123                 if (r_center) {
2124                         /* averaging factor 1/4 is applied in the end */
2125                         madd_v3_v3fl(r_center, center, vol);  /* XXX could extract this */
2126                         madd_v3_v3fl(r_center, v1->co, vol);
2127                         madd_v3_v3fl(r_center, v2->co, vol);
2128                         madd_v3_v3fl(r_center, v3->co, vol);
2129                 }
2130         }
2131         
2132         /* Note: Depending on arbitrary centroid position,
2133          * totvol can become negative even for a valid mesh.
2134          * The true value is always the positive value.
2135          */
2136         if (r_volume) {
2137                 *r_volume = fabsf(totvol);
2138         }
2139         if (r_center) {
2140                 /* Note: Factor 1/4 is applied once for all vertices here.
2141                  * This also automatically negates the vector if totvol is negative.
2142                  */
2143                 if (totvol != 0.0f)
2144                         mul_v3_fl(r_center, 0.25f / totvol);
2145         }
2146 }
2147
2148
2149 /* -------------------------------------------------------------------- */
2150
2151 /** \name NGon Tessellation (NGon/Tessface Conversion)
2152  * \{ */
2153
2154 /**
2155  * Convert a triangle or quadrangle of loop/poly data to tessface data
2156  */
2157 void BKE_mesh_loops_to_mface_corners(
2158         CustomData *fdata, CustomData *ldata,
2159         CustomData *pdata, unsigned int lindex[4], int findex,
2160         const int polyindex,
2161         const int mf_len, /* 3 or 4 */
2162
2163         /* cache values to avoid lookups every time */
2164         const int numTex, /* CustomData_number_of_layers(pdata, CD_MTEXPOLY) */
2165         const int numCol, /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2166         const bool hasPCol, /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2167         const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2168         const bool hasLNor /* CustomData_has_layer(ldata, CD_NORMAL) */
2169 )
2170 {
2171         MTFace *texface;
2172         MTexPoly *texpoly;
2173         MCol *mcol;
2174         MLoopCol *mloopcol;
2175         MLoopUV *mloopuv;
2176         int i, j;
2177
2178         for (i = 0; i < numTex; i++) {
2179                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2180                 texpoly = CustomData_get_n(pdata, CD_MTEXPOLY, polyindex, i);
2181
2182                 ME_MTEXFACE_CPY(texface, texpoly);
2183
2184                 for (j = 0; j < mf_len; j++) {
2185                         mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2186                         copy_v2_v2(texface->uv[j], mloopuv->uv);
2187                 }
2188         }
2189
2190         for (i = 0; i < numCol; i++) {
2191                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2192
2193                 for (j = 0; j < mf_len; j++) {
2194                         mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2195                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2196                 }
2197         }
2198
2199         if (hasPCol) {
2200                 mcol = CustomData_get(fdata,  findex, CD_PREVIEW_MCOL);
2201
2202                 for (j = 0; j < mf_len; j++) {
2203                         mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2204                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2205                 }
2206         }
2207
2208         if (hasOrigSpace) {
2209                 OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2210                 OrigSpaceLoop *lof;
2211
2212                 for (j = 0; j < mf_len; j++) {
2213                         lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2214                         copy_v2_v2(of->uv[j], lof->uv);
2215                 }
2216         }
2217
2218         if (hasLNor) {
2219                 short (*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2220
2221                 for (j = 0; j < mf_len; j++) {
2222                         normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2223                 }
2224         }
2225 }
2226
2227 /**
2228  * Convert all CD layers from loop/poly to tessface data.
2229  *
2230  * \param loopindices is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2231  *
2232  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2233  */
2234 void BKE_mesh_loops_to_tessdata(CustomData *fdata, CustomData *ldata, CustomData *pdata, MFace *mface,
2235                                 int *polyindices, unsigned int (*loopindices)[4], const int num_faces)
2236 {
2237         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2238          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2239          *       this. Better imho to live with it for now. :/ --mont29
2240          */
2241         const int numTex = CustomData_number_of_layers(pdata, CD_MTEXPOLY);
2242         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2243         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2244         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2245         const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2246         const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2247         int findex, i, j;
2248         const int *pidx;
2249         unsigned int (*lidx)[4];
2250
2251         for (i = 0; i < numTex; i++) {
2252                 MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2253                 MTexPoly *texpoly = CustomData_get_layer_n(pdata, CD_MTEXPOLY, i);
2254                 MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2255
2256                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2257                      findex < num_faces;
2258                      pidx++, lidx++, findex++, texface++)
2259                 {
2260                         ME_MTEXFACE_CPY(texface, &texpoly[*pidx]);
2261
2262                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2263                                 copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2264                         }
2265                 }
2266         }
2267
2268         for (i = 0; i < numCol; i++) {
2269                 MCol (*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2270                 MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2271
2272                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2273                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2274                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2275                         }
2276                 }
2277         }
2278
2279         if (hasPCol) {
2280                 MCol (*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2281                 MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2282
2283                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2284                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2285                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2286                         }
2287                 }
2288         }
2289
2290         if (hasOrigSpace) {
2291                 OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2292                 OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2293
2294                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2295                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2296                                 copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2297                         }
2298                 }
2299         }
2300
2301         if (hasLoopNormal) {
2302                 short (*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2303                 float (*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2304
2305                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2306                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2307                                 normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2308                         }
2309                 }
2310         }
2311
2312         if (hasLoopTangent) {
2313                 /* need to do for all uv maps at some point */
2314                 float (*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2315                 float (*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2316
2317                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2318                      findex < num_faces;
2319                      pidx++, lidx++, findex++)
2320                 {
2321                         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2322                         for (j = nverts; j--;) {
2323                                 copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2324                         }
2325                 }
2326         }
2327 }
2328
2329 void BKE_mesh_tangent_loops_to_tessdata(CustomData *fdata, CustomData *ldata, MFace *mface,
2330                                         int *polyindices, unsigned int (*loopindices)[4], const int num_faces)
2331 {
2332         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2333          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2334          *       this. Better imho to live with it for now. :/ --mont29
2335          */
2336         const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2337         int findex, j;
2338         const int *pidx;
2339         unsigned int (*lidx)[4];
2340
2341         if (hasLoopTangent) {
2342                 /* need to do for all uv maps at some point */
2343                 float (*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2344                 float (*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2345
2346                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2347                      findex < num_faces;
2348                      pidx++, lidx++, findex++)
2349                 {
2350                         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2351                         for (j = nverts; j--;) {
2352                                 copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2353                         }
2354                 }
2355         }
2356 }
2357
2358 /**
2359  * Recreate tessellation.
2360  *
2361  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2362  *
2363  * \return number of tessellation faces.
2364  */
2365 int BKE_mesh_recalc_tessellation(
2366         CustomData *fdata, CustomData *ldata, CustomData *pdata,
2367         MVert *mvert,
2368         int totface, int totloop, int totpoly,
2369         const bool do_face_nor_copy)
2370 {
2371         /* use this to avoid locking pthread for _every_ polygon
2372          * and calling the fill function */
2373
2374 #define USE_TESSFACE_SPEEDUP
2375 #define USE_TESSFACE_QUADS  /* NEEDS FURTHER TESTING */
2376
2377 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2378 #define TESSFACE_IS_QUAD 1
2379
2380         const int looptri_num = poly_to_tri_count(totpoly, totloop);
2381
2382         MPoly *mp, *mpoly;
2383         MLoop *ml, *mloop;
2384         MFace *mface, *mf;
2385         MemArena *arena = NULL;
2386         int *mface_to_poly_map;
2387         unsigned int (*lindices)[4];
2388         int poly_index, mface_index;
2389         unsigned int j;
2390
2391         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2392         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2393
2394         /* allocate the length of totfaces, avoid many small reallocs,
2395          * if all faces are tri's it will be correct, quads == 2x allocs */
2396         /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2397         mface_to_poly_map = MEM_mallocN(sizeof(*mface_to_poly_map) * (size_t)looptri_num, __func__);
2398         mface             = MEM_mallocN(sizeof(*mface) *             (size_t)looptri_num, __func__);
2399         lindices          = MEM_mallocN(sizeof(*lindices) *          (size_t)looptri_num, __func__);
2400
2401         mface_index = 0;
2402         mp = mpoly;
2403         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2404                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2405                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2406                 unsigned int l1, l2, l3, l4;
2407                 unsigned int *lidx;
2408                 if (mp_totloop < 3) {
2409                         /* do nothing */
2410                 }
2411
2412 #ifdef USE_TESSFACE_SPEEDUP
2413
2414 #define ML_TO_MF(i1, i2, i3)                                                  \
2415                 mface_to_poly_map[mface_index] = poly_index;                          \
2416                 mf = &mface[mface_index];                                             \
2417                 lidx = lindices[mface_index];                                         \
2418                 /* set loop indices, transformed to vert indices later */             \
2419                 l1 = mp_loopstart + i1;                                               \
2420                 l2 = mp_loopstart + i2;                                               \
2421                 l3 = mp_loopstart + i3;                                               \
2422                 mf->v1 = mloop[l1].v;                                                 \
2423                 mf->v2 = mloop[l2].v;                                                 \
2424                 mf->v3 = mloop[l3].v;                                                 \
2425                 mf->v4 = 0;                                                           \
2426                 lidx[0] = l1;                                                         \
2427                 lidx[1] = l2;                                                         \
2428                 lidx[2] = l3;                                                         \
2429                 lidx[3] = 0;                                                          \
2430                 mf->mat_nr = mp->mat_nr;                                              \
2431                 mf->flag = mp->flag;                                                  \
2432                 mf->edcode = 0;                                                       \
2433                 (void)0
2434
2435 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
2436 #define ML_TO_MF_QUAD()                                                       \
2437                 mface_to_poly_map[mface_index] = poly_index;                          \
2438                 mf = &mface[mface_index];                                             \
2439                 lidx = lindices[mface_index];                                         \
2440                 /* set loop indices, transformed to vert indices later */             \
2441                 l1 = mp_loopstart + 0; /* EXCEPTION */                                \
2442                 l2 = mp_loopstart + 1; /* EXCEPTION */                                \
2443                 l3 = mp_loopstart + 2; /* EXCEPTION */                                \
2444                 l4 = mp_loopstart + 3; /* EXCEPTION */                                \
2445                 mf->v1 = mloop[l1].v;                                                 \
2446                 mf->v2 = mloop[l2].v;                                                 \
2447                 mf->v3 = mloop[l3].v;                                                 \
2448                 mf->v4 = mloop[l4].v;                                                 \
2449                 lidx[0] = l1;                                                         \
2450                 lidx[1] = l2;                                                         \
2451                 lidx[2] = l3;                                                         \
2452                 lidx[3] = l4;                                                         \
2453                 mf->mat_nr = mp->mat_nr;                                              \
2454                 mf->flag = mp->flag;                                                  \
2455                 mf->edcode = TESSFACE_IS_QUAD;                                        \
2456                 (void)0
2457
2458
2459                 else if (mp_totloop == 3) {
2460                         ML_TO_MF(0, 1, 2);
2461                         mface_index++;
2462                 }
2463                 else if (mp_totloop == 4) {
2464 #ifdef USE_TESSFACE_QUADS
2465                         ML_TO_MF_QUAD();
2466                         mface_index++;
2467 #else
2468                         ML_TO_MF(0, 1, 2);
2469                         mface_index++;
2470                         ML_TO_MF(0, 2, 3);
2471                         mface_index++;
2472 #endif
2473                 }
2474 #endif /* USE_TESSFACE_SPEEDUP */
2475                 else {
2476                         const float *co_curr, *co_prev;
2477
2478                         float normal[3];
2479
2480                         float axis_mat[3][3];
2481                         float (*projverts)[2];
2482                         unsigned int (*tris)[3];
2483
2484                         const unsigned int totfilltri = mp_totloop - 2;
2485
2486                         if (UNLIKELY(arena == NULL)) {
2487                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2488                         }
2489
2490                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2491                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2492
2493                         zero_v3(normal);
2494
2495                         /* calc normal, flipped: to get a positive 2d cross product */
2496                         ml = mloop + mp_loopstart;
2497                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2498                         for (j = 0; j < mp_totloop; j++, ml++) {
2499                                 co_curr = mvert[ml->v].co;
2500                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2501                                 co_prev = co_curr;
2502                         }
2503                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2504                                 normal[2] = 1.0f;
2505                         }
2506
2507                         /* project verts to 2d */
2508                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2509
2510                         ml = mloop + mp_loopstart;
2511                         for (j = 0; j < mp_totloop; j++, ml++) {
2512                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2513                         }
2514
2515                         BLI_polyfill_calc_arena((const float (*)[2])projverts, mp_totloop, 1, tris, arena);
2516
2517                         /* apply fill */
2518                         for (j = 0; j < totfilltri; j++) {
2519                                 unsigned int *tri = tris[j];
2520                                 lidx = lindices[mface_index];
2521
2522                                 mface_to_poly_map[mface_index] = poly_index;
2523                                 mf = &mface[mface_index];
2524
2525                                 /* set loop indices, transformed to vert indices later */
2526                                 l1 = mp_loopstart + tri[0];
2527                                 l2 = mp_loopstart + tri[1];
2528                                 l3 = mp_loopstart + tri[2];
2529
2530                                 mf->v1 = mloop[l1].v;
2531                                 mf->v2 = mloop[l2].v;
2532                                 mf->v3 = mloop[l3].v;
2533                                 mf->v4 = 0;
2534
2535                                 lidx[0] = l1;
2536                                 lidx[1] = l2;
2537                                 lidx[2] = l3;
2538                                 lidx[3] = 0;
2539
2540                                 mf->mat_nr = mp->mat_nr;
2541                                 mf->flag = mp->flag;
2542                                 mf->edcode = 0;
2543
2544                                 mface_index++;
2545                         }
2546
2547                         BLI_memarena_clear(arena);
2548                 }
2549         }
2550
2551         if (arena) {
2552                 BLI_memarena_free(arena);
2553                 arena = NULL;
2554         }
2555
2556         CustomData_free(fdata, totface);
2557         totface = mface_index;
2558
2559         BLI_assert(totface <= looptri_num);
2560
2561         /* not essential but without this we store over-alloc'd memory in the CustomData layers */
2562         if (LIKELY(looptri_num != totface)) {
2563                 mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
2564                 mface_to_poly_map = MEM_reallocN(mface_to_poly_map, sizeof(*mface_to_poly_map) * (size_t)totface);
2565         }
2566
2567         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2568
2569         /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
2570          * they are directly tessellated from */
2571         CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
2572         CustomData_from_bmeshpoly(fdata, pdata, ldata, totface);
2573
2574         if (do_face_nor_copy) {
2575                 /* If polys have a normals layer, copying that to faces can help
2576                  * avoid the need to recalculate normals later */
2577                 if (CustomData_has_layer(pdata, CD_NORMAL)) {
2578                         float (*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
2579                         float (*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
2580                         for (mface_index = 0; mface_index < totface; mface_index++) {
2581                                 copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
2582                         }
2583                 }
2584         }
2585
2586         /* NOTE: quad detection issue - forth vertidx vs forth loopidx:
2587          * Polygons take care of their loops ordering, hence not of their vertices ordering.
2588          * Currently, our tfaces' forth vertex index might be 0 even for a quad. However, we know our forth loop index is
2589          * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
2590          * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the forth loop index as quad test.
2591          * ...
2592          */
2593         BKE_mesh_loops_to_tessdata(fdata, ldata, pdata, NULL, mface_to_poly_map, lindices, totface);
2594
2595         /* NOTE: quad detection issue - forth vertidx vs forth loopidx:
2596          * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
2597          * test_index_face() will check this and rotate the tessellated face if needed.
2598          */
2599 #ifdef USE_TESSFACE_QUADS
2600         mf = mface;
2601         for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
2602                 if (mf->edcode == TESSFACE_IS_QUAD) {
2603                         test_index_face(mf, fdata, mface_index, 4);
2604                         mf->edcode = 0;
2605                 }
2606         }
2607 #endif
2608
2609         MEM_freeN(lindices);
2610
2611         return totface;
2612
2613 #undef USE_TESSFACE_SPEEDUP
2614 #undef USE_TESSFACE_QUADS
2615
2616 #undef ML_TO_MF
2617 #undef ML_TO_MF_QUAD
2618
2619 }
2620
2621 /**
2622  * Calculate tessellation into #MLoopTri which exist only for this purpose.
2623  */
2624 void BKE_mesh_recalc_looptri(
2625         const MLoop *mloop, const MPoly *mpoly,
2626         const MVert *mvert,
2627         int totloop, int totpoly,
2628         MLoopTri *mlooptri)
2629 {
2630         /* use this to avoid locking pthread for _every_ polygon
2631          * and calling the fill function */
2632
2633 #define USE_TESSFACE_SPEEDUP
2634
2635         const MPoly *mp;
2636         const MLoop *ml;
2637         MLoopTri *mlt;
2638         MemArena *arena = NULL;
2639         int poly_index, mlooptri_index;
2640         unsigned int j;
2641
2642         mlooptri_index = 0;
2643         mp = mpoly;
2644         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2645                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2646                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2647                 unsigned int l1, l2, l3;
2648                 if (mp_totloop < 3) {
2649                         /* do nothing */
2650                 }
2651
2652 #ifdef USE_TESSFACE_SPEEDUP
2653
2654 #define ML_TO_MLT(i1, i2, i3)  { \
2655                         mlt = &mlooptri[mlooptri_index]; \
2656                         l1 = mp_loopstart + i1; \
2657                         l2 = mp_loopstart + i2; \
2658                         l3 = mp_loopstart + i3; \
2659                         ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3); \
2660                         mlt->poly = (unsigned int)poly_index; \
2661                 } ((void)0)
2662
2663                 else if (mp_totloop == 3) {
2664                         ML_TO_MLT(0, 1, 2);
2665                         mlooptri_index++;
2666                 }
2667                 else if (mp_totloop == 4) {
2668                         ML_TO_MLT(0, 1, 2);
2669                         mlooptri_index++;
2670                         ML_TO_MLT(0, 2, 3);
2671                         mlooptri_index++;
2672                 }
2673 #endif /* USE_TESSFACE_SPEEDUP */
2674                 else {
2675                         const float *co_curr, *co_prev;
2676
2677                         float normal[3];
2678
2679                         float axis_mat[3][3];
2680                         float (*projverts)[2];
2681                         unsigned int (*tris)[3];
2682
2683                         const unsigned int totfilltri = mp_totloop - 2;
2684
2685                         if (UNLIKELY(arena == NULL)) {
2686                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2687                         }
2688
2689                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2690                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2691
2692                         zero_v3(normal);
2693
2694                         /* calc normal, flipped: to get a positive 2d cross product */
2695                         ml = mloop + mp_loopstart;
2696                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2697                         for (j = 0; j < mp_totloop; j++, ml++) {
2698                                 co_curr = mvert[ml->v].co;
2699                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2700                                 co_prev = co_curr;
2701                         }
2702                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2703                                 normal[2] = 1.0f;
2704                         }
2705
2706                         /* project verts to 2d */
2707                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2708
2709                         ml = mloop + mp_loopstart;
2710                         for (j = 0; j < mp_totloop; j++, ml++) {
2711                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2712                         }
2713
2714                         BLI_polyfill_calc_arena((const float (*)[2])projverts, mp_totloop, 1, tris, arena);
2715
2716                         /* apply fill */
2717                         for (j = 0; j < totfilltri; j++) {
2718                                 unsigned int *tri = tris[j];
2719
2720                                 mlt = &mlooptri[mlooptri_index];
2721
2722                                 /* set loop indices, transformed to vert indices later */
2723                                 l1 = mp_loopstart + tri[0];
2724                                 l2 = mp_loopstart + tri[1];
2725                                 l3 = mp_loopstart + tri[2];
2726
2727                                 ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3);
2728                                 mlt->poly = (unsigned int)poly_index;
2729
2730                                 mlooptri_index++;
2731                         }
2732
2733                         BLI_memarena_clear(arena);
2734                 }
2735         }
2736
2737         if (arena) {
2738                 BLI_memarena_free(arena);
2739                 arena = NULL;
2740         }
2741
2742         BLI_assert(mlooptri_index == poly_to_tri_count(totpoly, totloop));
2743         UNUSED_VARS_NDEBUG(totloop);
2744
2745 #undef USE_TESSFACE_SPEEDUP
2746 #undef ML_TO_MLT
2747 }
2748
2749 /* -------------------------------------------------------------------- */
2750
2751
2752 #ifdef USE_BMESH_SAVE_AS_COMPAT
2753
2754 /**
2755  * This function recreates a tessellation.
2756  * returns number of tessellation faces.
2757  *
2758  * for forwards compat only quad->tri polys to mface, skip ngons.
2759  */
2760 int BKE_mesh_mpoly_to_mface(struct CustomData *fdata, struct CustomData *ldata,
2761                             struct CustomData *pdata, int totface, int UNUSED(totloop), int totpoly)
2762 {
2763         MLoop *mloop;
2764
2765         unsigned int lindex[4];
2766         int i;
2767         int k;
2768
2769         MPoly *mp, *mpoly;
2770         MFace *mface, *mf;
2771
2772         const int numTex = CustomData_number_of_layers(pdata, CD_MTEXPOLY);
2773         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2774         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2775         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2776         const bool hasLNor = CustomData_has_layer(ldata, CD_NORMAL);
2777
2778         /* over-alloc, ngons will be skipped */
2779         mface = MEM_mallocN(sizeof(*mface) * (size_t)totpoly, __func__);
2780
2781         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2782         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2783
2784         mp = mpoly;
2785         k = 0;
2786         for (i = 0; i < totpoly; i++, mp++) {
2787                 if (ELEM(mp->totloop, 3, 4)) {
2788                         const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2789                         mf = &mface[k];
2790
2791                         mf->mat_nr = mp->mat_nr;
2792                         mf->flag = mp->flag;
2793
2794                         mf->v1 = mp_loopstart + 0;
2795                         mf->v2 = mp_loopstart + 1;
2796                         mf->v3 = mp_loopstart + 2;
2797                         mf->v4 = (mp->totloop == 4) ? (mp_loopstart + 3) : 0;
2798
2799                         /* abuse edcode for temp storage and clear next loop */
2800                         mf->edcode = (char)mp->totloop; /* only ever 3 or 4 */
2801
2802                         k++;
2803                 }
2804         }
2805
2806         CustomData_free(fdata, totface);
2807
2808         totface = k;
2809
2810         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2811
2812         CustomData_from_bmeshpoly(fdata, pdata, ldata, totface);
2813
2814         mp = mpoly;
2815         k = 0;
2816         for (i = 0; i < totpoly; i++, mp++) {
2817                 if (ELEM(mp->totloop, 3, 4)) {
2818                         mf = &mface[k];
2819
2820                         if (mf->edcode == 3) {
2821                                 /* sort loop indices to ensure winding is correct */
2822                                 /* NO SORT - looks like we can skip this */
2823
2824                                 lindex[0] = mf->v1;
2825                                 lindex[1] = mf->v2;
2826                                 lindex[2] = mf->v3;
2827                                 lindex[3] = 0; /* unused */
2828
2829                                 /* transform loop indices to vert indices */
2830                                 mf->v1 = mloop[mf->v1].v;
2831                                 mf->v2 = mloop[mf->v2].v;
2832                                 mf->v3 = mloop[mf->v3].v;
2833
2834                                 BKE_mesh_loops_to_mface_corners(fdata, ldata, pdata,
2835                                                                 lindex, k, i, 3,
2836                                                                 numTex, numCol, hasPCol, hasOrigSpace, hasLNor);
2837                                 test_index_face(mf, fdata, k, 3);
2838                         }
2839                         else {
2840                                 /* sort loop indices to ensure winding is correct */
2841                                 /* NO SORT - looks like we can skip this */
2842
2843                                 lindex[0] = mf->v1;
2844                                 lindex[1] = mf->v2;
2845                                 lindex[2] = mf->v3;
2846                                 lindex[3] = mf->v4;
2847
2848                                 /* transform loop indices to vert indices */
2849                                 mf->v1 = mloop[mf->v1].v;
2850                                 mf->v2 = mloop[mf->v2].v;
2851                                 mf->v3 = mloop[mf->v3].v;
2852                                 mf->v4 = mloop[mf->v4].v;
2853
2854                                 BKE_mesh_loops_to_mface_corners(fdata, ldata, pdata,
2855                                                                 lindex, k, i, 4,
2856                                                                 numTex, numCol, hasPCol, hasOrigSpace, hasLNor);
2857                                 test_index_face(mf, fdata, k, 4);
2858                         }
2859
2860                         mf->edcode = 0;
2861
2862                         k++;
2863                 }
2864         }
2865
2866         return k;
2867 }
2868 #endif /* USE_BMESH_SAVE_AS_COMPAT */
2869
2870
2871 static void bm_corners_to_loops_ex(ID *id, CustomData *fdata, CustomData *ldata, CustomData *pdata,
2872                                    MFace *mface, int totloop, int findex, int loopstart, int numTex, int numCol)
2873 {
2874         MTFace *texface;
2875         MTexPoly *texpoly;
2876         MCol *mcol;
2877         MLoopCol *mloopcol;
2878         MLoopUV *mloopuv;
2879         MFace *mf;
2880         int i;
2881
2882         mf = mface + findex;
2883
2884         for (i = 0; i < numTex; i++) {
2885                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2886                 texpoly = CustomData_get_n(pdata, CD_MTEXPOLY, findex, i);
2887
2888                 ME_MTEXFACE_CPY(texpoly, texface);
2889
2890                 mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, loopstart, i);
2891                 copy_v2_v2(mloopuv->uv, texface->uv[0]); mloopuv++;
2892                 copy_v2_v2(mloopuv->uv, texface->uv[1]); mloopuv++;
2893                 copy_v2_v2(mloopuv->uv, texface->uv[2]); mloopuv++;
2894
2895                 if (mf->v4) {
2896                         copy_v2_v2(mloopuv->uv, texface->uv[3]); mloopuv++;
2897                 }
2898         }
2899
2900         for (i = 0; i < numCol; i++) {
2901                 mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, loopstart, i);
2902                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2903
2904                 MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[0]); mloopcol++;
2905                 MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[1]); mloopcol++;
2906                 MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[2]); mloopcol++;
2907                 if (mf->v4) {
2908                         MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[3]); mloopcol++;
2909                 }
2910         }
2911
2912         if (CustomData_has_layer(fdata, CD_TESSLOOPNORMAL)) {
2913                 float (*lnors)[3] = CustomData_get(ldata, loopstart, CD_NORMAL);
2914                 short (*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2915                 const int max = mf->v4 ? 4 : 3;
2916
2917                 for (i = 0; i < max; i++, lnors++, tlnors++) {
2918                         normal_short_to_float_v3(*lnors, *tlnors);
2919                 }
2920         }
2921
2922         if (CustomData_has_layer(fdata, CD_MDISPS)) {
2923                 MDisps *ld = CustomData_get(ldata, loopstart, CD_MDISPS);
2924                 MDisps *fd = CustomData_get(fdata, findex, CD_MDISPS);
2925                 float (*disps)[3] = fd->disps;
2926                 int tot = mf->v4 ? 4 : 3;
2927                 int corners;
2928
2929                 if (CustomData_external_test(fdata, CD_MDISPS)) {
2930                         if (id && fdata->external) {
2931                                 CustomData_external_add(ldata, id, CD_MDISPS,
2932                                                         totloop, fdata->external->filename);
2933                         }
2934                 }
2935
2936                 corners = multires_mdisp_corners(fd);
2937
2938                 if (corners == 0) {
2939                         /* Empty MDisp layers appear in at least one of the sintel.blend files.
2940                          * Not sure why this happens, but it seems fine to just ignore them here.
2941                          * If (corners == 0) for a non-empty layer though, something went wrong. */
2942                         BLI_assert(fd->totdisp == 0);
2943                 }
2944                 else {
2945                         const int side = (int)sqrtf((float)(fd->totdisp / corners));
2946                         const int side_sq = side * side;
2947                         const size_t disps_size = sizeof(float[3]) * (size_t)side_sq;
2948
2949                         for (i = 0; i < tot; i++, disps += side_sq, ld++) {
2950                                 ld->totdisp = side_sq;
2951                                 ld->level = (int)(logf((float)side - 1.0f) / (float)M_LN2) + 1;
2952
2953                                 if (ld->disps)
2954                                         MEM_freeN(ld->disps);
2955
2956                                 ld->disps = MEM_mallocN(disps_size, "converted loop mdisps");
2957                                 if (fd->disps) {
2958                                         memcpy(ld->disps, disps, disps_size);
2959                                 }
2960                                 else {
2961                                         memset(ld->disps, 0, disps_size);
2962                                 }
2963                         }
2964                 }
2965         }
2966 }
2967
2968
2969 void BKE_mesh_convert_mfaces_to_mpolys(Mesh *mesh)
2970 {
2971         BKE_mesh_convert_mfaces_to_mpolys_ex(&mesh->id, &mesh->fdata, &mesh->ldata, &mesh->pdata,
2972                                              mesh->totedge, mesh->totface, mesh->totloop, mesh->totpoly,
2973                                              mesh->medge, mesh->mface,
2974                                              &mesh->totloop, &mesh->totpoly, &mesh->mloop, &mesh->mpoly);
2975
2976         BKE_mesh_update_customdata_pointers(mesh, true);
2977 }
2978
2979 /* the same as BKE_mesh_convert_mfaces_to_mpolys but oriented to be used in do_versions from readfile.c
2980  * the difference is how active/render/clone/stencil indices are handled here
2981  *
2982  * normally thay're being set from pdata which totally makes sense for meshes which are already
2983  * converted to bmesh structures, but when loading older files indices shall be updated in other
2984  * way around, so newly added pdata and ldata would have this indices set based on fdata layer
2985  *
2986  * this is normally only needed when reading older files, in all other cases BKE_mesh_convert_mfaces_to_mpolys
2987  * shall be always used
2988  */
2989 void BKE_mesh_do_versions_convert_mfaces_to_mpolys(Mesh *mesh)
2990 {
2991         BKE_mesh_convert_mfaces_to_mpolys_ex(&mesh->id, &mesh->fdata, &mesh->ldata, &mesh->pdata,
2992                                              mesh->totedge, mesh->totface, mesh->totloop, mesh->totpoly,
2993                                              mesh->medge, mesh->mface,
2994                                              &mesh->totloop, &mesh->totpoly, &mesh->mloop, &mesh->mpoly);
2995
2996         CustomData_bmesh_do_versions_update_active_layers(&mesh->fdata, &mesh->pdata, &mesh->ldata);
2997
2998         BKE_mesh_update_customdata_pointers(mesh, true);
2999 }
3000
3001 void BKE_mesh_convert_mfaces_to_mpolys_ex(ID *id, CustomData *fdata, CustomData *ldata, CustomData *pdata,
3002                                           int totedge_i, int totface_i, int totloop_i, int totpoly_i,
3003                                           MEdge *medge, MFace *mface,
3004                                           int *r_totloop, int *r_totpoly,
3005                                           MLoop **r_mloop, MPoly **r_mpoly)
3006 {
3007         MFace *mf;
3008         MLoop *ml, *mloop;
3009         MPoly *mp, *mpoly;
3010         MEdge *me;
3011         EdgeHash *eh;
3012         int numTex, numCol;
3013         int i, j, totloop, totpoly, *polyindex;
3014
3015         /* old flag, clear to allow for reuse */
3016 #define ME_FGON (1 << 3)
3017
3018         /* just in case some of these layers are filled in (can happen with python created meshes) */
3019         CustomData_free(ldata, totloop_i);
3020         CustomData_free(pdata, totpoly_i);