Fix error in object-mode removal
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * ***** BEGIN GPL LICENSE BLOCK *****
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  *
18  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
19  * All rights reserved.
20  *
21  * Contributor(s): Blender Foundation
22  *
23  * ***** END GPL LICENSE BLOCK *****
24  */
25
26 /** \file blender/blenkernel/intern/mesh_evaluate.c
27  *  \ingroup bke
28  *
29  * Functions to evaluate mesh data.
30  */
31
32 #include <limits.h>
33
34 #include "MEM_guardedalloc.h"
35
36 #include "DNA_object_types.h"
37 #include "DNA_mesh_types.h"
38 #include "DNA_meshdata_types.h"
39
40 #include "BLI_utildefines.h"
41 #include "BLI_memarena.h"
42 #include "BLI_mempool.h"
43 #include "BLI_math.h"
44 #include "BLI_edgehash.h"
45 #include "BLI_bitmap.h"
46 #include "BLI_polyfill2d.h"
47 #include "BLI_linklist.h"
48 #include "BLI_linklist_stack.h"
49 #include "BLI_alloca.h"
50 #include "BLI_stack.h"
51 #include "BLI_task.h"
52
53 #include "BKE_customdata.h"
54 #include "BKE_global.h"
55 #include "BKE_mesh.h"
56 #include "BKE_multires.h"
57 #include "BKE_report.h"
58
59 #include "BLI_strict_flags.h"
60
61 #include "atomic_ops.h"
62 #include "mikktspace.h"
63
64 // #define DEBUG_TIME
65
66 #include "PIL_time.h"
67 #ifdef DEBUG_TIME
68 #  include "PIL_time_utildefines.h"
69 #endif
70
71 /* -------------------------------------------------------------------- */
72
73 /** \name Mesh Normal Calculation
74  * \{ */
75
76 /**
77  * Call when there are no polygons.
78  */
79 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
80 {
81         int i;
82         for (i = 0; i < numVerts; i++) {
83                 MVert *mv = &mverts[i];
84                 float no[3];
85
86                 normalize_v3_v3(no, mv->co);
87                 normal_float_to_short_v3(mv->no, no);
88         }
89 }
90
91 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
92  * and vertex normals are stored in actual mverts.
93  */
94 void BKE_mesh_calc_normals_mapping(
95         MVert *mverts, int numVerts,
96         const MLoop *mloop, const MPoly *mpolys, int numLoops, int numPolys, float (*r_polyNors)[3],
97         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3])
98 {
99         BKE_mesh_calc_normals_mapping_ex(
100                 mverts, numVerts, mloop, mpolys,
101                 numLoops, numPolys, r_polyNors, mfaces, numFaces,
102                 origIndexFace, r_faceNors, false);
103 }
104 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
105 void BKE_mesh_calc_normals_mapping_ex(
106         MVert *mverts, int numVerts,
107         const MLoop *mloop, const MPoly *mpolys,
108         int numLoops, int numPolys, float (*r_polyNors)[3],
109         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3],
110         const bool only_face_normals)
111 {
112         float (*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
113         int i;
114         const MFace *mf;
115         const MPoly *mp;
116
117         if (numPolys == 0) {
118                 if (only_face_normals == false) {
119                         mesh_calc_normals_vert_fallback(mverts, numVerts);
120                 }
121                 return;
122         }
123
124         /* if we are not calculating verts and no verts were passes then we have nothing to do */
125         if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
126                 printf("%s: called with nothing to do\n", __func__);
127                 return;
128         }
129
130         if (!pnors) pnors = MEM_calloc_arrayN((size_t)numPolys, sizeof(float[3]), __func__);
131         /* if (!fnors) fnors = MEM_calloc_arrayN(numFaces, sizeof(float[3]), "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
132
133
134         if (only_face_normals == false) {
135                 /* vertex normals are optional, they require some extra calculations,
136                  * so make them optional */
137                 BKE_mesh_calc_normals_poly(mverts, NULL, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
138         }
139         else {
140                 /* only calc poly normals */
141                 mp = mpolys;
142                 for (i = 0; i < numPolys; i++, mp++) {
143                         BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
144                 }
145         }
146
147         if (origIndexFace &&
148             /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
149             fnors != NULL &&
150             numFaces)
151         {
152                 mf = mfaces;
153                 for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
154                         if (*origIndexFace < numPolys) {
155                                 copy_v3_v3(fnors[i], pnors[*origIndexFace]);
156                         }
157                         else {
158                                 /* eek, we're not corresponding to polys */
159                                 printf("error in %s: tessellation face indices are incorrect.  normals may look bad.\n", __func__);
160                         }
161                 }
162         }
163
164         if (pnors != r_polyNors) MEM_freeN(pnors);
165         /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
166
167         fnors = pnors = NULL;
168         
169 }
170
171 typedef struct MeshCalcNormalsData {
172         const MPoly *mpolys;
173         const MLoop *mloop;
174         MVert *mverts;
175         float (*pnors)[3];
176         float (*lnors_weighted)[3];
177         float (*vnors)[3];
178 } MeshCalcNormalsData;
179
180 static void mesh_calc_normals_poly_cb(
181         void *__restrict userdata, 
182         const int pidx,
183         const ParallelRangeTLS *__restrict UNUSED(tls))
184 {
185         MeshCalcNormalsData *data = userdata;
186         const MPoly *mp = &data->mpolys[pidx];
187
188         BKE_mesh_calc_poly_normal(mp, data->mloop + mp->loopstart, data->mverts, data->pnors[pidx]);
189 }
190
191 static void mesh_calc_normals_poly_prepare_cb(
192         void *__restrict userdata, 
193         const int pidx,
194         const ParallelRangeTLS *__restrict UNUSED(tls))
195 {
196         MeshCalcNormalsData *data = userdata;
197         const MPoly *mp = &data->mpolys[pidx];
198         const MLoop *ml = &data->mloop[mp->loopstart];
199         const MVert *mverts = data->mverts;
200
201         float pnor_temp[3];
202         float *pnor = data->pnors ? data->pnors[pidx] : pnor_temp;
203         float (*lnors_weighted)[3] = data->lnors_weighted;
204
205         const int nverts = mp->totloop;
206         float (*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
207         int i;
208
209         /* Polygon Normal and edge-vector */
210         /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
211         {
212                 int i_prev = nverts - 1;
213                 const float *v_prev = mverts[ml[i_prev].v].co;
214                 const float *v_curr;
215
216                 zero_v3(pnor);
217                 /* Newell's Method */
218                 for (i = 0; i < nverts; i++) {
219                         v_curr = mverts[ml[i].v].co;
220                         add_newell_cross_v3_v3v3(pnor, v_prev, v_curr);
221
222                         /* Unrelated to normalize, calculate edge-vector */
223                         sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
224                         normalize_v3(edgevecbuf[i_prev]);
225                         i_prev = i;
226
227                         v_prev = v_curr;
228                 }
229                 if (UNLIKELY(normalize_v3(pnor) == 0.0f)) {
230                         pnor[2] = 1.0f; /* other axes set to 0.0 */
231                 }
232         }
233
234         /* accumulate angle weighted face normal */
235         /* inline version of #accumulate_vertex_normals_poly_v3,
236          * split between this threaded callback and #mesh_calc_normals_poly_accum_cb. */
237         {
238                 const float *prev_edge = edgevecbuf[nverts - 1];
239
240                 for (i = 0; i < nverts; i++) {
241                         const int lidx = mp->loopstart + i;
242                         const float *cur_edge = edgevecbuf[i];
243
244                         /* calculate angle between the two poly edges incident on
245                          * this vertex */
246                         const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
247
248                         /* Store for later accumulation */
249                         mul_v3_v3fl(lnors_weighted[lidx], pnor, fac);
250
251                         prev_edge = cur_edge;
252                 }
253         }
254 }
255
256 static void mesh_calc_normals_poly_finalize_cb(
257         void *__restrict userdata,
258         const int vidx,
259         const ParallelRangeTLS *__restrict UNUSED(tls))
260 {
261         MeshCalcNormalsData *data = userdata;
262
263         MVert *mv = &data->mverts[vidx];
264         float *no = data->vnors[vidx];
265
266         if (UNLIKELY(normalize_v3(no) == 0.0f)) {
267                 /* following Mesh convention; we use vertex coordinate itself for normal in this case */
268                 normalize_v3_v3(no, mv->co);
269         }
270
271         normal_float_to_short_v3(mv->no, no);
272 }
273
274 void BKE_mesh_calc_normals_poly(
275         MVert *mverts, float (*r_vertnors)[3], int numVerts,
276         const MLoop *mloop, const MPoly *mpolys,
277         int numLoops, int numPolys, float (*r_polynors)[3],
278         const bool only_face_normals)
279 {
280         float (*pnors)[3] = r_polynors;
281
282         ParallelRangeSettings settings;
283         BLI_parallel_range_settings_defaults(&settings);
284         settings.min_iter_per_thread = 1024;
285
286         if (only_face_normals) {
287                 BLI_assert((pnors != NULL) || (numPolys == 0));
288                 BLI_assert(r_vertnors == NULL);
289
290                 MeshCalcNormalsData data = {
291                     .mpolys = mpolys, .mloop = mloop, .mverts = mverts, .pnors = pnors,
292                 };
293
294                 BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_cb, &settings);
295                 return;
296         }
297
298         float (*vnors)[3] = r_vertnors;
299         float (*lnors_weighted)[3] = MEM_malloc_arrayN((size_t)numLoops, sizeof(*lnors_weighted), __func__);
300         bool free_vnors = false;
301
302         /* first go through and calculate normals for all the polys */
303         if (vnors == NULL) {
304                 vnors = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vnors), __func__);
305                 free_vnors = true;
306         }
307         else {
308                 memset(vnors, 0, sizeof(*vnors) * (size_t)numVerts);
309         }
310
311         MeshCalcNormalsData data = {
312             .mpolys = mpolys, .mloop = mloop, .mverts = mverts,
313             .pnors = pnors, .lnors_weighted = lnors_weighted, .vnors = vnors
314         };
315
316         /* Compute poly normals, and prepare weighted loop normals. */
317         BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_prepare_cb, &settings);
318
319         /* Actually accumulate weighted loop normals into vertex ones. */
320         /* Unfortunately, not possible to thread that (not in a reasonable, totally lock- and barrier-free fashion),
321          * since several loops will point to the same vertex... */
322         for (int lidx = 0; lidx < numLoops; lidx++) {
323                 add_v3_v3(vnors[mloop[lidx].v], data.lnors_weighted[lidx]);
324         }
325
326         /* Normalize and validate computed vertex normals. */
327         BLI_task_parallel_range(0, numVerts, &data, mesh_calc_normals_poly_finalize_cb, &settings);
328
329         if (free_vnors) {
330                 MEM_freeN(vnors);
331         }
332         MEM_freeN(lnors_weighted);
333 }
334
335 void BKE_mesh_calc_normals(Mesh *mesh)
336 {
337 #ifdef DEBUG_TIME
338         TIMEIT_START_AVERAGED(BKE_mesh_calc_normals);
339 #endif
340         BKE_mesh_calc_normals_poly(mesh->mvert, NULL, mesh->totvert,
341                                    mesh->mloop, mesh->mpoly, mesh->totloop, mesh->totpoly,
342                                    NULL, false);
343 #ifdef DEBUG_TIME
344         TIMEIT_END_AVERAGED(BKE_mesh_calc_normals);
345 #endif
346 }
347
348 void BKE_mesh_calc_normals_tessface(
349         MVert *mverts, int numVerts,
350         const MFace *mfaces, int numFaces,
351         float (*r_faceNors)[3])
352 {
353         float (*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
354         float (*fnors)[3] = (r_faceNors) ? r_faceNors : MEM_calloc_arrayN((size_t)numFaces, sizeof(*fnors), "meshnormals");
355         int i;
356
357         if (!tnorms || !fnors) {
358                 goto cleanup;
359         }
360
361         for (i = 0; i < numFaces; i++) {
362                 const MFace *mf = &mfaces[i];
363                 float *f_no = fnors[i];
364                 float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
365                 const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
366
367                 if (mf->v4)
368                         normal_quad_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
369                 else
370                         normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
371
372                 accumulate_vertex_normals_v3(
373                         tnorms[mf->v1], tnorms[mf->v2], tnorms[mf->v3], n4,
374                         f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, c4);
375         }
376
377         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
378         for (i = 0; i < numVerts; i++) {
379                 MVert *mv = &mverts[i];
380                 float *no = tnorms[i];
381                 
382                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
383                         normalize_v3_v3(no, mv->co);
384                 }
385
386                 normal_float_to_short_v3(mv->no, no);
387         }
388         
389 cleanup:
390         MEM_freeN(tnorms);
391
392         if (fnors != r_faceNors)
393                 MEM_freeN(fnors);
394 }
395
396 void BKE_mesh_calc_normals_looptri(
397         MVert *mverts, int numVerts,
398         const MLoop *mloop,
399         const MLoopTri *looptri, int looptri_num,
400         float (*r_tri_nors)[3])
401 {
402         float (*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
403         float (*fnors)[3] = (r_tri_nors) ? r_tri_nors : MEM_calloc_arrayN((size_t)looptri_num, sizeof(*fnors), "meshnormals");
404         int i;
405
406         if (!tnorms || !fnors) {
407                 goto cleanup;
408         }
409
410         for (i = 0; i < looptri_num; i++) {
411                 const MLoopTri *lt = &looptri[i];
412                 float *f_no = fnors[i];
413                 const unsigned int vtri[3] = {
414                     mloop[lt->tri[0]].v,
415                     mloop[lt->tri[1]].v,
416                     mloop[lt->tri[2]].v,
417                 };
418
419                 normal_tri_v3(
420                         f_no,
421                         mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
422
423                 accumulate_vertex_normals_tri_v3(
424                         tnorms[vtri[0]], tnorms[vtri[1]], tnorms[vtri[2]],
425                         f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
426         }
427
428         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
429         for (i = 0; i < numVerts; i++) {
430                 MVert *mv = &mverts[i];
431                 float *no = tnorms[i];
432
433                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
434                         normalize_v3_v3(no, mv->co);
435                 }
436
437                 normal_float_to_short_v3(mv->no, no);
438         }
439
440 cleanup:
441         MEM_freeN(tnorms);
442
443         if (fnors != r_tri_nors)
444                 MEM_freeN(fnors);
445 }
446
447 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr, const int numLoops)
448 {
449         if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
450                 MemArena *mem;
451
452                 if (!lnors_spacearr->mem) {
453                         lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
454                 }
455                 mem = lnors_spacearr->mem;
456                 lnors_spacearr->lspacearr = BLI_memarena_calloc(mem, sizeof(MLoopNorSpace *) * (size_t)numLoops);
457                 lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
458         }
459 }
460
461 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
462 {
463         BLI_memarena_clear(lnors_spacearr->mem);
464         lnors_spacearr->lspacearr = NULL;
465         lnors_spacearr->loops_pool = NULL;
466 }
467
468 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
469 {
470         BLI_memarena_free(lnors_spacearr->mem);
471         lnors_spacearr->lspacearr = NULL;
472         lnors_spacearr->loops_pool = NULL;
473         lnors_spacearr->mem = NULL;
474 }
475
476 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
477 {
478         return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
479 }
480
481 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
482 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-4f)
483
484 /* Should only be called once.
485  * Beware, this modifies ref_vec and other_vec in place!
486  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
487  */
488 void BKE_lnor_space_define(MLoopNorSpace *lnor_space, const float lnor[3],
489                            float vec_ref[3], float vec_other[3], BLI_Stack *edge_vectors)
490 {
491         const float pi2 = (float)M_PI * 2.0f;
492         float tvec[3], dtp;
493         const float dtp_ref = dot_v3v3(vec_ref, lnor);
494         const float dtp_other = dot_v3v3(vec_other, lnor);
495
496         if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD || fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
497                 /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
498                  * tag it as invalid and abort. */
499                 lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
500
501                 if (edge_vectors) {
502                         BLI_stack_clear(edge_vectors);
503                 }
504                 return;
505         }
506
507         copy_v3_v3(lnor_space->vec_lnor, lnor);
508
509         /* Compute ref alpha, average angle of all available edge vectors to lnor. */
510         if (edge_vectors) {
511                 float alpha = 0.0f;
512                 int nbr = 0;
513                 while (!BLI_stack_is_empty(edge_vectors)) {
514                         const float *vec = BLI_stack_peek(edge_vectors);
515                         alpha += saacosf(dot_v3v3(vec, lnor));
516                         BLI_stack_discard(edge_vectors);
517                         nbr++;
518                 }
519                 /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
520                  *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
521                 BLI_assert(nbr >= 2);  /* This piece of code shall only be called for more than one loop... */
522                 lnor_space->ref_alpha = alpha / (float)nbr;
523         }
524         else {
525                 lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) + saacosf(dot_v3v3(vec_other, lnor))) / 2.0f;
526         }
527
528         /* Project vec_ref on lnor's ortho plane. */
529         mul_v3_v3fl(tvec, lnor, dtp_ref);
530         sub_v3_v3(vec_ref, tvec);
531         normalize_v3_v3(lnor_space->vec_ref, vec_ref);
532
533         cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
534         normalize_v3_v3(lnor_space->vec_ortho, tvec);
535
536         /* Project vec_other on lnor's ortho plane. */
537         mul_v3_v3fl(tvec, lnor, dtp_other);
538         sub_v3_v3(vec_other, tvec);
539         normalize_v3(vec_other);
540
541         /* Beta is angle between ref_vec and other_vec, around lnor. */
542         dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
543         if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
544                 const float beta = saacos(dtp);
545                 lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
546         }
547         else {
548                 lnor_space->ref_beta = pi2;
549         }
550 }
551
552 void BKE_lnor_space_add_loop(MLoopNorSpaceArray *lnors_spacearr, MLoopNorSpace *lnor_space, const int ml_index,
553                              const bool do_add_loop)
554 {
555         lnors_spacearr->lspacearr[ml_index] = lnor_space;
556         if (do_add_loop) {
557                 BLI_linklist_prepend_nlink(&lnor_space->loops, SET_INT_IN_POINTER(ml_index), &lnors_spacearr->loops_pool[ml_index]);
558         }
559 }
560
561 MINLINE float unit_short_to_float(const short val)
562 {
563         return (float)val / (float)SHRT_MAX;
564 }
565
566 MINLINE short unit_float_to_short(const float val)
567 {
568         /* Rounding... */
569         return (short)floorf(val * (float)SHRT_MAX + 0.5f);
570 }
571
572 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space, const short clnor_data[2], float r_custom_lnor[3])
573 {
574         /* NOP custom normal data or invalid lnor space, return. */
575         if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
576                 copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
577                 return;
578         }
579
580         {
581                 /* TODO Check whether using sincosf() gives any noticeable benefit
582                  *      (could not even get it working under linux though)! */
583                 const float pi2 = (float)(M_PI * 2.0);
584                 const float alphafac = unit_short_to_float(clnor_data[0]);
585                 const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) * alphafac;
586                 const float betafac = unit_short_to_float(clnor_data[1]);
587
588                 mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
589
590                 if (betafac == 0.0f) {
591                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
592                 }
593                 else {
594                         const float sinalpha = sinf(alpha);
595                         const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) * betafac;
596                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
597                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
598                 }
599         }
600 }
601
602 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space, const float custom_lnor[3], short r_clnor_data[2])
603 {
604         /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
605         if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
606                 r_clnor_data[0] = r_clnor_data[1] = 0;
607                 return;
608         }
609
610         {
611                 const float pi2 = (float)(M_PI * 2.0);
612                 const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
613                 float vec[3], cos_beta;
614                 float alpha;
615
616                 alpha = saacosf(cos_alpha);
617                 if (alpha > lnor_space->ref_alpha) {
618                         /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
619                         r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
620                 }
621                 else {
622                         r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
623                 }
624
625                 /* Project custom lnor on (vec_ref, vec_ortho) plane. */
626                 mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
627                 add_v3_v3(vec, custom_lnor);
628                 normalize_v3(vec);
629
630                 cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
631
632                 if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
633                         float beta = saacosf(cos_beta);
634                         if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
635                                 beta = pi2 - beta;
636                         }
637
638                         if (beta > lnor_space->ref_beta) {
639                                 r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
640                         }
641                         else {
642                                 r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
643                         }
644                 }
645                 else {
646                         r_clnor_data[1] = 0;
647                 }
648         }
649 }
650
651 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
652
653 typedef struct LoopSplitTaskData {
654         /* Specific to each instance (each task). */
655         MLoopNorSpace *lnor_space;  /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
656         float (*lnor)[3];
657         const MLoop *ml_curr;
658         const MLoop *ml_prev;
659         int ml_curr_index;
660         int ml_prev_index;
661         const int *e2l_prev;  /* Also used a flag to switch between single or fan process! */
662         int mp_index;
663
664         /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
665         BLI_Stack *edge_vectors;
666
667         char pad_c;
668 } LoopSplitTaskData;
669
670 typedef struct LoopSplitTaskDataCommon {
671         /* Read/write.
672          * Note we do not need to protect it, though, since two different tasks will *always* affect different
673          * elements in the arrays. */
674         MLoopNorSpaceArray *lnors_spacearr;
675         float (*loopnors)[3];
676         short (*clnors_data)[2];
677
678         /* Read-only. */
679         const MVert *mverts;
680         const MEdge *medges;
681         const MLoop *mloops;
682         const MPoly *mpolys;
683         const int (*edge_to_loops)[2];
684         const int *loop_to_poly;
685         const float (*polynors)[3];
686
687         int numLoops;
688         int numPolys;
689 } LoopSplitTaskDataCommon;
690
691 #define INDEX_UNSET INT_MIN
692 #define INDEX_INVALID -1
693 /* See comment about edge_to_loops below. */
694 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
695
696 static void loop_manifold_fan_around_vert_next(
697         const MLoop *mloops, const MPoly *mpolys,
698         const int *loop_to_poly, const int *e2lfan_curr, const uint mv_pivot_index,
699         const MLoop **r_mlfan_curr, int *r_mlfan_curr_index, int *r_mlfan_vert_index, int *r_mpfan_curr_index)
700 {
701         const MLoop *mlfan_next;
702         const MPoly *mpfan_next;
703
704         /* Warning! This is rather complex!
705          * We have to find our next edge around the vertex (fan mode).
706          * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
707          * whether both loops using current edge are in the same direction or not, and whether
708          * mlfan_curr_index actually uses the vertex we are fanning around!
709          * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
710          * (i.e. not the future mlfan_curr)...
711          */
712         *r_mlfan_curr_index = (e2lfan_curr[0] == *r_mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
713         *r_mpfan_curr_index = loop_to_poly[*r_mlfan_curr_index];
714
715         BLI_assert(*r_mlfan_curr_index >= 0);
716         BLI_assert(*r_mpfan_curr_index >= 0);
717
718         mlfan_next = &mloops[*r_mlfan_curr_index];
719         mpfan_next = &mpolys[*r_mpfan_curr_index];
720         if (((*r_mlfan_curr)->v == mlfan_next->v && (*r_mlfan_curr)->v == mv_pivot_index) ||
721             ((*r_mlfan_curr)->v != mlfan_next->v && (*r_mlfan_curr)->v != mv_pivot_index))
722         {
723                 /* We need the previous loop, but current one is our vertex's loop. */
724                 *r_mlfan_vert_index = *r_mlfan_curr_index;
725                 if (--(*r_mlfan_curr_index) < mpfan_next->loopstart) {
726                         *r_mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
727                 }
728         }
729         else {
730                 /* We need the next loop, which is also our vertex's loop. */
731                 if (++(*r_mlfan_curr_index) >= mpfan_next->loopstart + mpfan_next->totloop) {
732                         *r_mlfan_curr_index = mpfan_next->loopstart;
733                 }
734                 *r_mlfan_vert_index = *r_mlfan_curr_index;
735         }
736         *r_mlfan_curr = &mloops[*r_mlfan_curr_index];
737         /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
738 }
739
740 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
741 {
742         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
743         short (*clnors_data)[2] = common_data->clnors_data;
744
745         const MVert *mverts = common_data->mverts;
746         const MEdge *medges = common_data->medges;
747         const float (*polynors)[3] = common_data->polynors;
748
749         MLoopNorSpace *lnor_space = data->lnor_space;
750         float (*lnor)[3] = data->lnor;
751         const MLoop *ml_curr = data->ml_curr;
752         const MLoop *ml_prev = data->ml_prev;
753         const int ml_curr_index = data->ml_curr_index;
754 #if 0  /* Not needed for 'single' loop. */
755         const int ml_prev_index = data->ml_prev_index;
756         const int *e2l_prev = data->e2l_prev;
757 #endif
758         const int mp_index = data->mp_index;
759
760         /* Simple case (both edges around that vertex are sharp in current polygon),
761          * this loop just takes its poly normal.
762          */
763         copy_v3_v3(*lnor, polynors[mp_index]);
764
765 //      printf("BASIC: handling loop %d / edge %d / vert %d / poly %d\n", ml_curr_index, ml_curr->e, ml_curr->v, mp_index);
766
767         /* If needed, generate this (simple!) lnor space. */
768         if (lnors_spacearr) {
769                 float vec_curr[3], vec_prev[3];
770
771                 const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
772                 const MVert *mv_pivot = &mverts[mv_pivot_index];
773                 const MEdge *me_curr = &medges[ml_curr->e];
774                 const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
775                 const MEdge *me_prev = &medges[ml_prev->e];
776                 const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] : &mverts[me_prev->v1];
777
778                 sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
779                 normalize_v3(vec_curr);
780                 sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
781                 normalize_v3(vec_prev);
782
783                 BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
784                 /* We know there is only one loop in this space, no need to create a linklist in this case... */
785                 BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, false);
786
787                 if (clnors_data) {
788                         BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
789                 }
790         }
791 }
792
793 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
794 {
795         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
796         float (*loopnors)[3] = common_data->loopnors;
797         short (*clnors_data)[2] = common_data->clnors_data;
798
799         const MVert *mverts = common_data->mverts;
800         const MEdge *medges = common_data->medges;
801         const MLoop *mloops = common_data->mloops;
802         const MPoly *mpolys = common_data->mpolys;
803         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
804         const int *loop_to_poly = common_data->loop_to_poly;
805         const float (*polynors)[3] = common_data->polynors;
806
807         MLoopNorSpace *lnor_space = data->lnor_space;
808 #if 0  /* Not needed for 'fan' loops. */
809         float (*lnor)[3] = data->lnor;
810 #endif
811         const MLoop *ml_curr = data->ml_curr;
812         const MLoop *ml_prev = data->ml_prev;
813         const int ml_curr_index = data->ml_curr_index;
814         const int ml_prev_index = data->ml_prev_index;
815         const int mp_index = data->mp_index;
816         const int *e2l_prev = data->e2l_prev;
817
818         BLI_Stack *edge_vectors = data->edge_vectors;
819
820         /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
821          * and accumulate face normals into the vertex!
822          * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
823          * the vertex normal, but I do not see any easy way to detect that (would need to count number
824          * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
825          * it should not be a common case in real-life meshes anyway).
826          */
827         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
828         const MVert *mv_pivot = &mverts[mv_pivot_index];
829         const MEdge *me_org = &medges[ml_curr->e];  /* ml_curr would be mlfan_prev if we needed that one */
830         const int *e2lfan_curr;
831         float vec_curr[3], vec_prev[3], vec_org[3];
832         const MLoop *mlfan_curr;
833         float lnor[3] = {0.0f, 0.0f, 0.0f};
834         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
835         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
836
837         /* We validate clnors data on the fly - cheapest way to do! */
838         int clnors_avg[2] = {0, 0};
839         short (*clnor_ref)[2] = NULL;
840         int clnors_nbr = 0;
841         bool clnors_invalid = false;
842
843         /* Temp loop normal stack. */
844         BLI_SMALLSTACK_DECLARE(normal, float *);
845         /* Temp clnors stack. */
846         BLI_SMALLSTACK_DECLARE(clnors, short *);
847
848         e2lfan_curr = e2l_prev;
849         mlfan_curr = ml_prev;
850         mlfan_curr_index = ml_prev_index;
851         mlfan_vert_index = ml_curr_index;
852         mpfan_curr_index = mp_index;
853
854         BLI_assert(mlfan_curr_index >= 0);
855         BLI_assert(mlfan_vert_index >= 0);
856         BLI_assert(mpfan_curr_index >= 0);
857
858         /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
859         {
860                 const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
861
862                 sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
863                 normalize_v3(vec_org);
864                 copy_v3_v3(vec_prev, vec_org);
865
866                 if (lnors_spacearr) {
867                         BLI_stack_push(edge_vectors, vec_org);
868                 }
869         }
870
871 //      printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e);
872
873         while (true) {
874                 const MEdge *me_curr = &medges[mlfan_curr->e];
875                 /* Compute edge vectors.
876                  * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
877                  *       twice (or more) here. However, time gained is not worth memory and time lost,
878                  *       given the fact that this code should not be called that much in real-life meshes...
879                  */
880                 {
881                         const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
882
883                         sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
884                         normalize_v3(vec_curr);
885                 }
886
887 //              printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index);
888
889                 {
890                         /* Code similar to accumulate_vertex_normals_poly_v3. */
891                         /* Calculate angle between the two poly edges incident on this vertex. */
892                         const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
893                         /* Accumulate */
894                         madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
895
896                         if (clnors_data) {
897                                 /* Accumulate all clnors, if they are not all equal we have to fix that! */
898                                 short (*clnor)[2] = &clnors_data[mlfan_vert_index];
899                                 if (clnors_nbr) {
900                                         clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
901                                 }
902                                 else {
903                                         clnor_ref = clnor;
904                                 }
905                                 clnors_avg[0] += (*clnor)[0];
906                                 clnors_avg[1] += (*clnor)[1];
907                                 clnors_nbr++;
908                                 /* We store here a pointer to all custom lnors processed. */
909                                 BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
910                         }
911                 }
912
913                 /* We store here a pointer to all loop-normals processed. */
914                 BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
915
916                 if (lnors_spacearr) {
917                         /* Assign current lnor space to current 'vertex' loop. */
918                         BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, true);
919                         if (me_curr != me_org) {
920                                 /* We store here all edges-normalized vectors processed. */
921                                 BLI_stack_push(edge_vectors, vec_curr);
922                         }
923                 }
924
925                 if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
926                         /* Current edge is sharp and we have finished with this fan of faces around this vert,
927                          * or this vert is smooth, and we have completed a full turn around it.
928                          */
929 //                      printf("FAN: Finished!\n");
930                         break;
931                 }
932
933                 copy_v3_v3(vec_prev, vec_curr);
934
935                 /* Find next loop of the smooth fan. */
936                 loop_manifold_fan_around_vert_next(
937                             mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
938                             &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
939
940                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
941         }
942
943         {
944                 float lnor_len = normalize_v3(lnor);
945
946                 /* If we are generating lnor spacearr, we can now define the one for this fan,
947                  * and optionally compute final lnor from custom data too!
948                  */
949                 if (lnors_spacearr) {
950                         if (UNLIKELY(lnor_len == 0.0f)) {
951                                 /* Use vertex normal as fallback! */
952                                 copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
953                                 lnor_len = 1.0f;
954                         }
955
956                         BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
957
958                         if (clnors_data) {
959                                 if (clnors_invalid) {
960                                         short *clnor;
961
962                                         clnors_avg[0] /= clnors_nbr;
963                                         clnors_avg[1] /= clnors_nbr;
964                                         /* Fix/update all clnors of this fan with computed average value. */
965                                         if (G.debug & G_DEBUG) {
966                                                 printf("Invalid clnors in this fan!\n");
967                                         }
968                                         while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
969                                                 //print_v2("org clnor", clnor);
970                                                 clnor[0] = (short)clnors_avg[0];
971                                                 clnor[1] = (short)clnors_avg[1];
972                                         }
973                                         //print_v2("new clnors", clnors_avg);
974                                 }
975                                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
976
977                                 BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
978                         }
979                 }
980
981                 /* In case we get a zero normal here, just use vertex normal already set! */
982                 if (LIKELY(lnor_len != 0.0f)) {
983                         /* Copy back the final computed normal into all related loop-normals. */
984                         float *nor;
985
986                         while ((nor = BLI_SMALLSTACK_POP(normal))) {
987                                 copy_v3_v3(nor, lnor);
988                         }
989                 }
990                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
991         }
992 }
993
994 static void loop_split_worker_do(
995         LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data, BLI_Stack *edge_vectors)
996 {
997         BLI_assert(data->ml_curr);
998         if (data->e2l_prev) {
999                 BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
1000                 data->edge_vectors = edge_vectors;
1001                 split_loop_nor_fan_do(common_data, data);
1002         }
1003         else {
1004                 /* No need for edge_vectors for 'single' case! */
1005                 split_loop_nor_single_do(common_data, data);
1006         }
1007 }
1008
1009 static void loop_split_worker(TaskPool * __restrict pool, void *taskdata, int UNUSED(threadid))
1010 {
1011         LoopSplitTaskDataCommon *common_data = BLI_task_pool_userdata(pool);
1012         LoopSplitTaskData *data = taskdata;
1013
1014         /* Temp edge vectors stack, only used when computing lnor spacearr. */
1015         BLI_Stack *edge_vectors = common_data->lnors_spacearr ? BLI_stack_new(sizeof(float[3]), __func__) : NULL;
1016
1017 #ifdef DEBUG_TIME
1018         TIMEIT_START_AVERAGED(loop_split_worker);
1019 #endif
1020
1021         for (int i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
1022                 /* A NULL ml_curr is used to tag ended data! */
1023                 if (data->ml_curr == NULL) {
1024                         break;
1025                 }
1026
1027                 loop_split_worker_do(common_data, data, edge_vectors);
1028         }
1029
1030         if (edge_vectors) {
1031                 BLI_stack_free(edge_vectors);
1032         }
1033
1034 #ifdef DEBUG_TIME
1035         TIMEIT_END_AVERAGED(loop_split_worker);
1036 #endif
1037 }
1038
1039 /* Check whether gievn loop is part of an unknown-so-far cyclic smooth fan, or not.
1040  * Needed because cyclic smooth fans have no obvious 'entry point', and yet we need to walk them once, and only once. */
1041 static bool loop_split_generator_check_cyclic_smooth_fan(
1042         const MLoop *mloops, const MPoly *mpolys,
1043         const int (*edge_to_loops)[2], const int *loop_to_poly, const int *e2l_prev, BLI_bitmap *skip_loops,
1044         const MLoop *ml_curr, const MLoop *ml_prev, const int ml_curr_index, const int ml_prev_index,
1045         const int mp_curr_index)
1046 {
1047         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
1048         const int *e2lfan_curr;
1049         const MLoop *mlfan_curr;
1050         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1051         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1052
1053         e2lfan_curr = e2l_prev;
1054         if (IS_EDGE_SHARP(e2lfan_curr)) {
1055                 /* Sharp loop, so not a cyclic smooth fan... */
1056                 return false;
1057         }
1058
1059         mlfan_curr = ml_prev;
1060         mlfan_curr_index = ml_prev_index;
1061         mlfan_vert_index = ml_curr_index;
1062         mpfan_curr_index = mp_curr_index;
1063
1064         BLI_assert(mlfan_curr_index >= 0);
1065         BLI_assert(mlfan_vert_index >= 0);
1066         BLI_assert(mpfan_curr_index >= 0);
1067
1068         BLI_assert(!BLI_BITMAP_TEST(skip_loops, mlfan_vert_index));
1069         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1070
1071         while (true) {
1072                 /* Find next loop of the smooth fan. */
1073                 loop_manifold_fan_around_vert_next(
1074                             mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
1075                             &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
1076
1077                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
1078
1079                 if (IS_EDGE_SHARP(e2lfan_curr)) {
1080                         /* Sharp loop/edge, so not a cyclic smooth fan... */
1081                         return false;
1082                 }
1083                 /* Smooth loop/edge... */
1084                 else if (BLI_BITMAP_TEST(skip_loops, mlfan_vert_index)) {
1085                         if (mlfan_vert_index == ml_curr_index) {
1086                                 /* We walked around a whole cyclic smooth fan without finding any already-processed loop, means we can
1087                                  * use initial ml_curr/ml_prev edge as start for this smooth fan. */
1088                                 return true;
1089                         }
1090                         /* ... already checked in some previous looping, we can abort. */
1091                         return false;
1092                 }
1093                 else {
1094                         /* ... we can skip it in future, and keep checking the smooth fan. */
1095                         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1096                 }
1097         }
1098 }
1099
1100 static void loop_split_generator(TaskPool *pool, LoopSplitTaskDataCommon *common_data)
1101 {
1102         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1103         float (*loopnors)[3] = common_data->loopnors;
1104
1105         const MLoop *mloops = common_data->mloops;
1106         const MPoly *mpolys = common_data->mpolys;
1107         const int *loop_to_poly = common_data->loop_to_poly;
1108         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
1109         const int numLoops = common_data->numLoops;
1110         const int numPolys = common_data->numPolys;
1111
1112         const MPoly *mp;
1113         int mp_index;
1114
1115         const MLoop *ml_curr;
1116         const MLoop *ml_prev;
1117         int ml_curr_index;
1118         int ml_prev_index;
1119
1120         BLI_bitmap *skip_loops = BLI_BITMAP_NEW(numLoops, __func__);
1121
1122         LoopSplitTaskData *data_buff = NULL;
1123         int data_idx = 0;
1124
1125         /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
1126         BLI_Stack *edge_vectors = NULL;
1127
1128 #ifdef DEBUG_TIME
1129         TIMEIT_START_AVERAGED(loop_split_generator);
1130 #endif
1131
1132         if (!pool) {
1133                 if (lnors_spacearr) {
1134                         edge_vectors = BLI_stack_new(sizeof(float[3]), __func__);
1135                 }
1136         }
1137
1138         /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
1139          * Now, time to generate the normals.
1140          */
1141         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1142                 float (*lnors)[3];
1143                 const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1144                 ml_curr_index = mp->loopstart;
1145                 ml_prev_index = ml_last_index;
1146
1147                 ml_curr = &mloops[ml_curr_index];
1148                 ml_prev = &mloops[ml_prev_index];
1149                 lnors = &loopnors[ml_curr_index];
1150
1151                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1152                         const int *e2l_curr = edge_to_loops[ml_curr->e];
1153                         const int *e2l_prev = edge_to_loops[ml_prev->e];
1154
1155 //                      printf("Checking loop %d / edge %u / vert %u (sharp edge: %d, skiploop: %d)...",
1156 //                             ml_curr_index, ml_curr->e, ml_curr->v, IS_EDGE_SHARP(e2l_curr), BLI_BITMAP_TEST_BOOL(skip_loops, ml_curr_index));
1157
1158                         /* A smooth edge, we have to check for cyclic smooth fan case.
1159                          * If we find a new, never-processed cyclic smooth fan, we can do it now using that loop/edge as
1160                          * 'entry point', otherwise we can skip it. */
1161                         /* Note: In theory, we could make loop_split_generator_check_cyclic_smooth_fan() store
1162                          * mlfan_vert_index'es and edge indexes in two stacks, to avoid having to fan again around the vert during
1163                          * actual computation of clnor & clnorspace. However, this would complicate the code, add more memory usage,
1164                          * and despite its logical complexity, loop_manifold_fan_around_vert_next() is quite cheap in term of
1165                          * CPU cycles, so really think it's not worth it. */
1166                         if (!IS_EDGE_SHARP(e2l_curr) &&
1167                             (BLI_BITMAP_TEST(skip_loops, ml_curr_index) ||
1168                              !loop_split_generator_check_cyclic_smooth_fan(
1169                                       mloops, mpolys, edge_to_loops, loop_to_poly, e2l_prev, skip_loops,
1170                                       ml_curr, ml_prev, ml_curr_index, ml_prev_index, mp_index)))
1171                         {
1172 //                              printf("SKIPPING!\n");
1173                         }
1174                         else {
1175                                 LoopSplitTaskData *data, data_local;
1176
1177 //                              printf("PROCESSING!\n");
1178
1179                                 if (pool) {
1180                                         if (data_idx == 0) {
1181                                                 data_buff = MEM_calloc_arrayN(LOOP_SPLIT_TASK_BLOCK_SIZE, sizeof(*data_buff), __func__);
1182                                         }
1183                                         data = &data_buff[data_idx];
1184                                 }
1185                                 else {
1186                                         data = &data_local;
1187                                         memset(data, 0, sizeof(*data));
1188                                 }
1189
1190                                 if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1191                                         data->lnor = lnors;
1192                                         data->ml_curr = ml_curr;
1193                                         data->ml_prev = ml_prev;
1194                                         data->ml_curr_index = ml_curr_index;
1195 #if 0  /* Not needed for 'single' loop. */
1196                                         data->ml_prev_index = ml_prev_index;
1197                                         data->e2l_prev = NULL;  /* Tag as 'single' task. */
1198 #endif
1199                                         data->mp_index = mp_index;
1200                                         if (lnors_spacearr) {
1201                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1202                                         }
1203                                 }
1204                                 /* We *do not need* to check/tag loops as already computed!
1205                                  * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1206                                  * more than once!*
1207                                  * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1208                                  * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1209                                  * and not the alternative (smooth curr_edge, sharp prev_edge).
1210                                  * All this due/thanks to link between normals and loop ordering (i.e. winding).
1211                                  */
1212                                 else {
1213 #if 0  /* Not needed for 'fan' loops. */
1214                                         data->lnor = lnors;
1215 #endif
1216                                         data->ml_curr = ml_curr;
1217                                         data->ml_prev = ml_prev;
1218                                         data->ml_curr_index = ml_curr_index;
1219                                         data->ml_prev_index = ml_prev_index;
1220                                         data->e2l_prev = e2l_prev;  /* Also tag as 'fan' task. */
1221                                         data->mp_index = mp_index;
1222                                         if (lnors_spacearr) {
1223                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1224                                         }
1225                                 }
1226
1227                                 if (pool) {
1228                                         data_idx++;
1229                                         if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1230                                                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1231                                                 data_idx = 0;
1232                                         }
1233                                 }
1234                                 else {
1235                                         loop_split_worker_do(common_data, data, edge_vectors);
1236                                 }
1237                         }
1238
1239                         ml_prev = ml_curr;
1240                         ml_prev_index = ml_curr_index;
1241                 }
1242         }
1243
1244         /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1245         if (pool && data_idx) {
1246                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1247         }
1248
1249         if (edge_vectors) {
1250                 BLI_stack_free(edge_vectors);
1251         }
1252         MEM_freeN(skip_loops);
1253
1254 #ifdef DEBUG_TIME
1255         TIMEIT_END_AVERAGED(loop_split_generator);
1256 #endif
1257 }
1258
1259 /**
1260  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1261  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1262  */
1263 void BKE_mesh_normals_loop_split(
1264         const MVert *mverts, const int UNUSED(numVerts), MEdge *medges, const int numEdges,
1265         MLoop *mloops, float (*r_loopnors)[3], const int numLoops,
1266         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1267         const bool use_split_normals, float split_angle,
1268         MLoopNorSpaceArray *r_lnors_spacearr, short (*clnors_data)[2], int *r_loop_to_poly)
1269 {
1270         /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1271         BLI_assert(use_split_normals || !(r_lnors_spacearr));
1272
1273         if (!use_split_normals) {
1274                 /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1275                  * Note this is done here to keep some logic and consistency in this quite complex code,
1276                  * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1277                  * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1278                  */
1279                 int mp_index;
1280
1281                 for (mp_index = 0; mp_index < numPolys; mp_index++) {
1282                         MPoly *mp = &mpolys[mp_index];
1283                         int ml_index = mp->loopstart;
1284                         const int ml_index_end = ml_index + mp->totloop;
1285                         const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1286
1287                         for (; ml_index < ml_index_end; ml_index++) {
1288                                 if (r_loop_to_poly) {
1289                                         r_loop_to_poly[ml_index] = mp_index;
1290                                 }
1291                                 if (is_poly_flat) {
1292                                         copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1293                                 }
1294                                 else {
1295                                         normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1296                                 }
1297                         }
1298                 }
1299                 return;
1300         }
1301
1302         /* Mapping edge -> loops.
1303          * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1304          * We also use the second loop index as a kind of flag: smooth edge: > 0,
1305          *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1306          *                                                      unset: INDEX_UNSET
1307          * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1308          * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1309          * Note also that lose edges always have both values set to 0!
1310          */
1311         int (*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
1312
1313         /* Simple mapping from a loop to its polygon index. */
1314         int *loop_to_poly = r_loop_to_poly ? r_loop_to_poly : MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
1315
1316         MPoly *mp;
1317         int mp_index;
1318
1319         /* When using custom loop normals, disable the angle feature! */
1320         const bool check_angle = (split_angle < (float)M_PI) && (clnors_data == NULL);
1321
1322         MLoopNorSpaceArray _lnors_spacearr = {NULL};
1323
1324 #ifdef DEBUG_TIME
1325         TIMEIT_START_AVERAGED(BKE_mesh_normals_loop_split);
1326 #endif
1327
1328         if (check_angle) {
1329                 split_angle = cosf(split_angle);
1330         }
1331
1332         if (!r_lnors_spacearr && clnors_data) {
1333                 /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1334                 r_lnors_spacearr = &_lnors_spacearr;
1335         }
1336         if (r_lnors_spacearr) {
1337                 BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops);
1338         }
1339
1340         /* This first loop check which edges are actually smooth, and compute edge vectors. */
1341         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1342                 MLoop *ml_curr;
1343                 int *e2l;
1344                 int ml_curr_index = mp->loopstart;
1345                 const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
1346
1347                 ml_curr = &mloops[ml_curr_index];
1348
1349                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
1350                         e2l = edge_to_loops[ml_curr->e];
1351
1352                         loop_to_poly[ml_curr_index] = mp_index;
1353
1354                         /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
1355                          * those later!
1356                          */
1357                         normal_short_to_float_v3(r_loopnors[ml_curr_index], mverts[ml_curr->v].no);
1358
1359                         /* Check whether current edge might be smooth or sharp */
1360                         if ((e2l[0] | e2l[1]) == 0) {
1361                                 /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
1362                                 e2l[0] = ml_curr_index;
1363                                 /* We have to check this here too, else we might miss some flat faces!!! */
1364                                 e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
1365                         }
1366                         else if (e2l[1] == INDEX_UNSET) {
1367                                 /* Second loop using this edge, time to test its sharpness.
1368                                  * An edge is sharp if it is tagged as such, or its face is not smooth,
1369                                  * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
1370                                  * or angle between both its polys' normals is above split_angle value.
1371                                  */
1372                                 if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
1373                                     ml_curr->v == mloops[e2l[0]].v ||
1374                                     (check_angle && dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) < split_angle))
1375                                 {
1376                                         /* Note: we are sure that loop != 0 here ;) */
1377                                         e2l[1] = INDEX_INVALID;
1378                                 }
1379                                 else {
1380                                         e2l[1] = ml_curr_index;
1381                                 }
1382                         }
1383                         else if (!IS_EDGE_SHARP(e2l)) {
1384                                 /* More than two loops using this edge, tag as sharp if not yet done. */
1385                                 e2l[1] = INDEX_INVALID;
1386                         }
1387                         /* Else, edge is already 'disqualified' (i.e. sharp)! */
1388                 }
1389         }
1390
1391         /* Init data common to all tasks. */
1392         LoopSplitTaskDataCommon common_data = {
1393             .lnors_spacearr = r_lnors_spacearr,
1394             .loopnors = r_loopnors,
1395             .clnors_data = clnors_data,
1396             .mverts = mverts,
1397             .medges = medges,
1398             .mloops = mloops,
1399             .mpolys = mpolys,
1400             .edge_to_loops = (const int(*)[2])edge_to_loops,
1401             .loop_to_poly = loop_to_poly,
1402             .polynors = polynors,
1403             .numLoops = numLoops,
1404             .numPolys = numPolys,
1405         };
1406
1407         if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1408                 /* Not enough loops to be worth the whole threading overhead... */
1409                 loop_split_generator(NULL, &common_data);
1410         }
1411         else {
1412                 TaskScheduler *task_scheduler;
1413                 TaskPool *task_pool;
1414
1415                 task_scheduler = BLI_task_scheduler_get();
1416                 task_pool = BLI_task_pool_create(task_scheduler, &common_data);
1417
1418                 loop_split_generator(task_pool, &common_data);
1419
1420                 BLI_task_pool_work_and_wait(task_pool);
1421
1422                 BLI_task_pool_free(task_pool);
1423         }
1424
1425         MEM_freeN(edge_to_loops);
1426         if (!r_loop_to_poly) {
1427                 MEM_freeN(loop_to_poly);
1428         }
1429
1430         if (r_lnors_spacearr) {
1431                 if (r_lnors_spacearr == &_lnors_spacearr) {
1432                         BKE_lnor_spacearr_free(r_lnors_spacearr);
1433                 }
1434         }
1435
1436 #ifdef DEBUG_TIME
1437         TIMEIT_END_AVERAGED(BKE_mesh_normals_loop_split);
1438 #endif
1439 }
1440
1441 #undef INDEX_UNSET
1442 #undef INDEX_INVALID
1443 #undef IS_EDGE_SHARP
1444
1445 /**
1446  * Compute internal representation of given custom normals (as an array of float[2]).
1447  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1448  * same custom lnor for all loops sharing a same smooth fan.
1449  * If use_vertices if true, r_custom_loopnors is assumed to be per-vertex, not per-loop
1450  * (this allows to set whole vert's normals at once, useful in some cases).
1451  * r_custom_loopnors is expected to have normalized normals, or zero ones, in which case they will be replaced
1452  * by default loop/vertex normal.
1453  */
1454 static void mesh_normals_loop_custom_set(
1455         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1456         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1457         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1458         short (*r_clnors_data)[2], const bool use_vertices)
1459 {
1460         /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1461          * feature too, would probably be more efficient in absolute.
1462          * However, this function *is not* performance-critical, since it is mostly expected to be called
1463          * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1464          * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1465          */
1466         MLoopNorSpaceArray lnors_spacearr = {NULL};
1467         BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1468         float (*lnors)[3] = MEM_calloc_arrayN((size_t)numLoops, sizeof(*lnors), __func__);
1469         int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(int), __func__);
1470         /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1471         const bool use_split_normals = true;
1472         const float split_angle = (float)M_PI;
1473         int i;
1474
1475         BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1476
1477         /* Compute current lnor spacearr. */
1478         BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1479                                     mpolys, polynors, numPolys, use_split_normals, split_angle,
1480                                     &lnors_spacearr, NULL, loop_to_poly);
1481
1482         /* Set all given zero vectors to their default value. */
1483         if (use_vertices) {
1484                 for (i = 0; i < numVerts; i++) {
1485                         if (is_zero_v3(r_custom_loopnors[i])) {
1486                                 normal_short_to_float_v3(r_custom_loopnors[i], mverts[i].no);
1487                         }
1488                 }
1489         }
1490         else {
1491                 for (i = 0; i < numLoops; i++) {
1492                         if (is_zero_v3(r_custom_loopnors[i])) {
1493                                 copy_v3_v3(r_custom_loopnors[i], lnors[i]);
1494                         }
1495                 }
1496         }
1497
1498         /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1499          * are not (enough) equal, add sharp edges as needed.
1500          * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1501          * given custom lnors.
1502          * Note this code *will never* unsharp edges!
1503          * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1504          */
1505         if (!use_vertices) {
1506                 for (i = 0; i < numLoops; i++) {
1507                         if (!lnors_spacearr.lspacearr[i]) {
1508                                 /* This should not happen in theory, but in some rare case (probably ugly geometry)
1509                                  * we can get some NULL loopspacearr at this point. :/
1510                                  * Maybe we should set those loops' edges as sharp?
1511                                  */
1512                                 BLI_BITMAP_ENABLE(done_loops, i);
1513                                 if (G.debug & G_DEBUG) {
1514                                         printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1515                                 }
1516                                 continue;
1517                         }
1518
1519                         if (!BLI_BITMAP_TEST(done_loops, i)) {
1520                                 /* Notes:
1521                                  *     * In case of mono-loop smooth fan, loops is NULL, so everything is fine (we have nothing to do).
1522                                  *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1523                                  *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1524                                  *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1525                                  *       lnor space.
1526                                  *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1527                                  *       up into a real big one in the end!
1528                                  */
1529                                 LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1530                                 MLoop *prev_ml = NULL;
1531                                 const float *org_nor = NULL;
1532
1533                                 while (loops) {
1534                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1535                                         MLoop *ml = &mloops[lidx];
1536                                         const int nidx = lidx;
1537                                         float *nor = r_custom_loopnors[nidx];
1538
1539                                         if (!org_nor) {
1540                                                 org_nor = nor;
1541                                         }
1542                                         else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1543                                                 /* Current normal differs too much from org one, we have to tag the edge between
1544                                                  * previous loop's face and current's one as sharp.
1545                                                  * We know those two loops do not point to the same edge, since we do not allow reversed winding
1546                                                  * in a same smooth fan.
1547                                                  */
1548                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1549                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1550                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1551
1552                                                 org_nor = nor;
1553                                         }
1554
1555                                         prev_ml = ml;
1556                                         loops = loops->next;
1557                                         BLI_BITMAP_ENABLE(done_loops, lidx);
1558                                 }
1559
1560                                 /* We also have to check between last and first loops, otherwise we may miss some sharp edges here!
1561                                  * This is just a simplified version of above while loop.
1562                                  * See T45984. */
1563                                 loops = lnors_spacearr.lspacearr[i]->loops;
1564                                 if (loops && org_nor) {
1565                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1566                                         MLoop *ml = &mloops[lidx];
1567                                         const int nidx = lidx;
1568                                         float *nor = r_custom_loopnors[nidx];
1569
1570                                         if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1571                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1572                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1573                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1574                                         }
1575                                 }
1576
1577                                 /* For single loops, where lnors_spacearr.lspacearr[i]->loops is NULL. */
1578                                 BLI_BITMAP_ENABLE(done_loops, i);
1579                         }
1580                 }
1581
1582                 /* And now, recompute our new auto lnors and lnor spacearr! */
1583                 BKE_lnor_spacearr_clear(&lnors_spacearr);
1584                 BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1585                                             mpolys, polynors, numPolys, use_split_normals, split_angle,
1586                                             &lnors_spacearr, NULL, loop_to_poly);
1587         }
1588         else {
1589                 BLI_BITMAP_SET_ALL(done_loops, true, (size_t)numLoops);
1590         }
1591
1592         /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1593         for (i = 0; i < numLoops; i++) {
1594                 if (!lnors_spacearr.lspacearr[i]) {
1595                         BLI_BITMAP_DISABLE(done_loops, i);
1596                         if (G.debug & G_DEBUG) {
1597                                 printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1598                         }
1599                         continue;
1600                 }
1601
1602                 if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1603                         /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1604                          * clnors data (tiny differences in plain custom normals can give rather huge differences in
1605                          * computed 2D factors).
1606                          */
1607                         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1608                         if (loops) {
1609                                 int nbr_nors = 0;
1610                                 float avg_nor[3];
1611                                 short clnor_data_tmp[2], *clnor_data;
1612
1613                                 zero_v3(avg_nor);
1614                                 while (loops) {
1615                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1616                                         const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1617                                         float *nor = r_custom_loopnors[nidx];
1618
1619                                         nbr_nors++;
1620                                         add_v3_v3(avg_nor, nor);
1621                                         BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1622
1623                                         loops = loops->next;
1624                                         BLI_BITMAP_DISABLE(done_loops, lidx);
1625                                 }
1626
1627                                 mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1628                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1629
1630                                 while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1631                                         clnor_data[0] = clnor_data_tmp[0];
1632                                         clnor_data[1] = clnor_data_tmp[1];
1633                                 }
1634                         }
1635                         else {
1636                                 const int nidx = use_vertices ? (int)mloops[i].v : i;
1637                                 float *nor = r_custom_loopnors[nidx];
1638
1639                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1640                                 BLI_BITMAP_DISABLE(done_loops, i);
1641                         }
1642                 }
1643         }
1644
1645         MEM_freeN(lnors);
1646         MEM_freeN(loop_to_poly);
1647         MEM_freeN(done_loops);
1648         BKE_lnor_spacearr_free(&lnors_spacearr);
1649 }
1650
1651 void BKE_mesh_normals_loop_custom_set(
1652         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1653         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1654         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1655         short (*r_clnors_data)[2])
1656 {
1657         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, r_custom_loopnors, numLoops,
1658                                      mpolys, polynors, numPolys, r_clnors_data, false);
1659 }
1660
1661 void BKE_mesh_normals_loop_custom_from_vertices_set(
1662         const MVert *mverts, float (*r_custom_vertnors)[3], const int numVerts,
1663         MEdge *medges, const int numEdges, MLoop *mloops, const int numLoops,
1664         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1665         short (*r_clnors_data)[2])
1666 {
1667         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, r_custom_vertnors, numLoops,
1668                                      mpolys, polynors, numPolys, r_clnors_data, true);
1669 }
1670
1671 /**
1672  * Computes average per-vertex normals from given custom loop normals.
1673  *
1674  * \param clnors: The computed custom loop normals.
1675  * \param r_vert_clnors: The (already allocated) array where to store averaged per-vertex normals.
1676  */
1677 void BKE_mesh_normals_loop_to_vertex(
1678         const int numVerts, const MLoop *mloops, const int numLoops,
1679         const float (*clnors)[3], float (*r_vert_clnors)[3])
1680 {
1681         const MLoop *ml;
1682         int i;
1683
1684         int *vert_loops_nbr = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vert_loops_nbr), __func__);
1685
1686         copy_vn_fl((float *)r_vert_clnors, 3 * numVerts, 0.0f);
1687
1688         for (i = 0, ml = mloops; i < numLoops; i++, ml++) {
1689                 const unsigned int v = ml->v;
1690
1691                 add_v3_v3(r_vert_clnors[v], clnors[i]);
1692                 vert_loops_nbr[v]++;
1693         }
1694
1695         for (i = 0; i < numVerts; i++) {
1696                 mul_v3_fl(r_vert_clnors[i], 1.0f / (float)vert_loops_nbr[i]);
1697         }
1698
1699         MEM_freeN(vert_loops_nbr);
1700 }
1701
1702
1703 #undef LNOR_SPACE_TRIGO_THRESHOLD
1704
1705 /** \} */
1706
1707
1708 /* -------------------------------------------------------------------- */
1709
1710 /** \name Polygon Calculations
1711  * \{ */
1712
1713 /*
1714  * COMPUTE POLY NORMAL
1715  *
1716  * Computes the normal of a planar
1717  * polygon See Graphics Gems for
1718  * computing newell normal.
1719  *
1720  */
1721 static void mesh_calc_ngon_normal(
1722         const MPoly *mpoly, const MLoop *loopstart,
1723         const MVert *mvert, float normal[3])
1724 {
1725         const int nverts = mpoly->totloop;
1726         const float *v_prev = mvert[loopstart[nverts - 1].v].co;
1727         const float *v_curr;
1728         int i;
1729
1730         zero_v3(normal);
1731
1732         /* Newell's Method */
1733         for (i = 0; i < nverts; i++) {
1734                 v_curr = mvert[loopstart[i].v].co;
1735                 add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
1736                 v_prev = v_curr;
1737         }
1738
1739         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
1740                 normal[2] = 1.0f; /* other axis set to 0.0 */
1741         }
1742 }
1743
1744 void BKE_mesh_calc_poly_normal(
1745         const MPoly *mpoly, const MLoop *loopstart,
1746         const MVert *mvarray, float r_no[3])
1747 {
1748         if (mpoly->totloop > 4) {
1749                 mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
1750         }
1751         else if (mpoly->totloop == 3) {
1752                 normal_tri_v3(r_no,
1753                               mvarray[loopstart[0].v].co,
1754                               mvarray[loopstart[1].v].co,
1755                               mvarray[loopstart[2].v].co
1756                               );
1757         }
1758         else if (mpoly->totloop == 4) {
1759                 normal_quad_v3(r_no,
1760                                mvarray[loopstart[0].v].co,
1761                                mvarray[loopstart[1].v].co,
1762                                mvarray[loopstart[2].v].co,
1763                                mvarray[loopstart[3].v].co
1764                                );
1765         }
1766         else { /* horrible, two sided face! */
1767                 r_no[0] = 0.0;
1768                 r_no[1] = 0.0;
1769                 r_no[2] = 1.0;
1770         }
1771 }
1772 /* duplicate of function above _but_ takes coords rather then mverts */
1773 static void mesh_calc_ngon_normal_coords(
1774         const MPoly *mpoly, const MLoop *loopstart,
1775         const float (*vertex_coords)[3], float r_normal[3])
1776 {
1777         const int nverts = mpoly->totloop;
1778         const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
1779         const float *v_curr;
1780         int i;
1781
1782         zero_v3(r_normal);
1783
1784         /* Newell's Method */
1785         for (i = 0; i < nverts; i++) {
1786                 v_curr = vertex_coords[loopstart[i].v];
1787                 add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
1788                 v_prev = v_curr;
1789         }
1790
1791         if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
1792                 r_normal[2] = 1.0f; /* other axis set to 0.0 */
1793         }
1794 }
1795
1796 void BKE_mesh_calc_poly_normal_coords(
1797         const MPoly *mpoly, const MLoop *loopstart,
1798         const float (*vertex_coords)[3], float r_no[3])
1799 {
1800         if (mpoly->totloop > 4) {
1801                 mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
1802         }
1803         else if (mpoly->totloop == 3) {
1804                 normal_tri_v3(r_no,
1805                               vertex_coords[loopstart[0].v],
1806                               vertex_coords[loopstart[1].v],
1807                               vertex_coords[loopstart[2].v]
1808                               );
1809         }
1810         else if (mpoly->totloop == 4) {
1811                 normal_quad_v3(r_no,
1812                                vertex_coords[loopstart[0].v],
1813                                vertex_coords[loopstart[1].v],
1814                                vertex_coords[loopstart[2].v],
1815                                vertex_coords[loopstart[3].v]
1816                                );
1817         }
1818         else { /* horrible, two sided face! */
1819                 r_no[0] = 0.0;
1820                 r_no[1] = 0.0;
1821                 r_no[2] = 1.0;
1822         }
1823 }
1824
1825 static void mesh_calc_ngon_center(
1826         const MPoly *mpoly, const MLoop *loopstart,
1827         const MVert *mvert, float cent[3])
1828 {
1829         const float w = 1.0f / (float)mpoly->totloop;
1830         int i;
1831
1832         zero_v3(cent);
1833
1834         for (i = 0; i < mpoly->totloop; i++) {
1835                 madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
1836         }
1837 }
1838
1839 void BKE_mesh_calc_poly_center(
1840         const MPoly *mpoly, const MLoop *loopstart,
1841         const MVert *mvarray, float r_cent[3])
1842 {
1843         if (mpoly->totloop == 3) {
1844                 mid_v3_v3v3v3(r_cent,
1845                               mvarray[loopstart[0].v].co,
1846                               mvarray[loopstart[1].v].co,
1847                               mvarray[loopstart[2].v].co
1848                               );
1849         }
1850         else if (mpoly->totloop == 4) {
1851                 mid_v3_v3v3v3v3(r_cent,
1852                                 mvarray[loopstart[0].v].co,
1853                                 mvarray[loopstart[1].v].co,
1854                                 mvarray[loopstart[2].v].co,
1855                                 mvarray[loopstart[3].v].co
1856                                 );
1857         }
1858         else {
1859                 mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
1860         }
1861 }
1862
1863 /* note, passing polynormal is only a speedup so we can skip calculating it */
1864 float BKE_mesh_calc_poly_area(
1865         const MPoly *mpoly, const MLoop *loopstart,
1866         const MVert *mvarray)
1867 {
1868         if (mpoly->totloop == 3) {
1869                 return area_tri_v3(mvarray[loopstart[0].v].co,
1870                                    mvarray[loopstart[1].v].co,
1871                                    mvarray[loopstart[2].v].co
1872                                    );
1873         }
1874         else {
1875                 int i;
1876                 const MLoop *l_iter = loopstart;
1877                 float area;
1878                 float (*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
1879
1880                 /* pack vertex cos into an array for area_poly_v3 */
1881                 for (i = 0; i < mpoly->totloop; i++, l_iter++) {
1882                         copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
1883                 }
1884
1885                 /* finally calculate the area */
1886                 area = area_poly_v3((const float (*)[3])vertexcos, (unsigned int)mpoly->totloop);
1887
1888                 return area;
1889         }
1890 }
1891
1892 /**
1893  * Calculate the volume and volume-weighted centroid of the volume formed by the polygon and the origin.
1894  * Results will be negative if the origin is "outside" the polygon
1895  * (+ve normal side), but the polygon may be non-planar with no effect.
1896  *
1897  * Method from:
1898  * - http://forums.cgsociety.org/archive/index.php?t-756235.html
1899  * - http://www.globalspec.com/reference/52702/203279/4-8-the-centroid-of-a-tetrahedron
1900  *
1901  * \note
1902  * - Volume is 6x actual volume, and centroid is 4x actual volume-weighted centroid
1903  *   (so division can be done once at the end).
1904  * - Results will have bias if polygon is non-planar.
1905  * - The resulting volume will only be correct if the mesh is manifold and has consistent face winding
1906  *   (non-contiguous face normals or holes in the mesh surface).
1907  */
1908 static float mesh_calc_poly_volume_centroid(
1909         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
1910         float r_cent[3])
1911 {
1912         const float *v_pivot, *v_step1;
1913         float total_volume = 0.0f;
1914
1915         zero_v3(r_cent);
1916
1917         v_pivot = mvarray[loopstart[0].v].co;
1918         v_step1 = mvarray[loopstart[1].v].co;
1919
1920         for (int i = 2; i < mpoly->totloop; i++) {
1921                 const float *v_step2 = mvarray[loopstart[i].v].co;
1922
1923                 /* Calculate the 6x volume of the tetrahedron formed by the 3 vertices
1924                  * of the triangle and the origin as the fourth vertex */
1925                 float v_cross[3];
1926                 cross_v3_v3v3(v_cross, v_pivot, v_step1);
1927                 const float tetra_volume = dot_v3v3 (v_cross, v_step2);
1928                 total_volume += tetra_volume;
1929
1930                 /* Calculate the centroid of the tetrahedron formed by the 3 vertices
1931                  * of the triangle and the origin as the fourth vertex.
1932                  * The centroid is simply the average of the 4 vertices.
1933                  *
1934                  * Note that the vector is 4x the actual centroid so the division can be done once at the end. */
1935                 for (uint j = 0; j < 3; j++) {
1936                         r_cent[j] += tetra_volume * (v_pivot[j] + v_step1[j] + v_step2[j]);
1937                 }
1938
1939                 v_step1 = v_step2;
1940         }
1941
1942         return total_volume;
1943 }
1944
1945 /**
1946  * \note
1947  * - Results won't be correct if polygon is non-planar.
1948  * - This has the advantage over #mesh_calc_poly_volume_centroid
1949  *   that it doesn't depend on solid geometry, instead it weights the surface by volume.
1950  */
1951 static float mesh_calc_poly_area_centroid(
1952         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
1953         float r_cent[3])
1954 {
1955         int i;
1956         float tri_area;
1957         float total_area = 0.0f;
1958         float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
1959
1960         BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
1961         copy_v3_v3(v1, mvarray[loopstart[0].v].co);
1962         copy_v3_v3(v2, mvarray[loopstart[1].v].co);
1963         zero_v3(r_cent);
1964
1965         for (i = 2; i < mpoly->totloop; i++) {
1966                 copy_v3_v3(v3, mvarray[loopstart[i].v].co);
1967
1968                 tri_area = area_tri_signed_v3(v1, v2, v3, normal);
1969                 total_area += tri_area;
1970
1971                 mid_v3_v3v3v3(tri_cent, v1, v2, v3);
1972                 madd_v3_v3fl(r_cent, tri_cent, tri_area);
1973
1974                 copy_v3_v3(v2, v3);
1975         }
1976
1977         mul_v3_fl(r_cent, 1.0f / total_area);
1978
1979         return total_area;
1980 }
1981
1982 #if 0 /* slow version of the function below */
1983 void BKE_mesh_calc_poly_angles(MPoly *mpoly, MLoop *loopstart,
1984                                MVert *mvarray, float angles[])
1985 {
1986         MLoop *ml;
1987         MLoop *mloop = &loopstart[-mpoly->loopstart];
1988
1989         int j;
1990         for (j = 0, ml = loopstart; j < mpoly->totloop; j++, ml++) {
1991                 MLoop *ml_prev = ME_POLY_LOOP_PREV(mloop, mpoly, j);
1992                 MLoop *ml_next = ME_POLY_LOOP_NEXT(mloop, mpoly, j);
1993
1994                 float e1[3], e2[3];
1995
1996                 sub_v3_v3v3(e1, mvarray[ml_next->v].co, mvarray[ml->v].co);
1997                 sub_v3_v3v3(e2, mvarray[ml_prev->v].co, mvarray[ml->v].co);
1998
1999                 angles[j] = (float)M_PI - angle_v3v3(e1, e2);
2000         }
2001 }
2002
2003 #else /* equivalent the function above but avoid multiple subtractions + normalize */
2004
2005 void BKE_mesh_calc_poly_angles(
2006         const MPoly *mpoly, const MLoop *loopstart,
2007         const MVert *mvarray, float angles[])
2008 {
2009         float nor_prev[3];
2010         float nor_next[3];
2011
2012         int i_this = mpoly->totloop - 1;
2013         int i_next = 0;
2014
2015         sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
2016         normalize_v3(nor_prev);
2017
2018         while (i_next < mpoly->totloop) {
2019                 sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
2020                 normalize_v3(nor_next);
2021                 angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
2022
2023                 /* step */
2024                 copy_v3_v3(nor_prev, nor_next);
2025                 i_this = i_next;
2026                 i_next++;
2027         }
2028 }
2029 #endif
2030
2031 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
2032 {
2033         const MLoop *ml, *ml_next;
2034         int i = mp->totloop;
2035
2036         ml_next = mloop;       /* first loop */
2037         ml = &ml_next[i - 1];  /* last loop */
2038
2039         while (i-- != 0) {
2040                 BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
2041
2042                 ml = ml_next;
2043                 ml_next++;
2044         }
2045 }
2046
2047 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap, const MPoly *mp, const MLoop *mloop)
2048 {
2049         const MLoop *ml;
2050         int i = mp->totloop;
2051
2052         ml = mloop;
2053
2054         while (i-- != 0) {
2055                 BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
2056                 ml++;
2057         }
2058 }
2059
2060 /** \} */
2061
2062
2063 /* -------------------------------------------------------------------- */
2064
2065 /** \name Mesh Center Calculation
2066  * \{ */
2067
2068 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
2069 {
2070         int i = me->totvert;
2071         const MVert *mvert;
2072         zero_v3(r_cent);
2073         for (mvert = me->mvert; i--; mvert++) {
2074                 add_v3_v3(r_cent, mvert->co);
2075         }
2076         /* otherwise we get NAN for 0 verts */
2077         if (me->totvert) {
2078                 mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
2079         }
2080
2081         return (me->totvert != 0);
2082 }
2083
2084 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2085 {
2086         float min[3], max[3];
2087         INIT_MINMAX(min, max);
2088         if (BKE_mesh_minmax(me, min, max)) {
2089                 mid_v3_v3v3(r_cent, min, max);
2090                 return true;
2091         }
2092
2093         return false;
2094 }
2095
2096 bool BKE_mesh_center_of_surface(const Mesh *me, float r_cent[3])
2097 {
2098         int i = me->totpoly;
2099         MPoly *mpoly;
2100         float poly_area;
2101         float total_area = 0.0f;
2102         float poly_cent[3];
2103
2104         zero_v3(r_cent);
2105
2106         /* calculate a weighted average of polygon centroids */
2107         for (mpoly = me->mpoly; i--; mpoly++) {
2108                 poly_area = mesh_calc_poly_area_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2109
2110                 madd_v3_v3fl(r_cent, poly_cent, poly_area);
2111                 total_area += poly_area;
2112         }
2113         /* otherwise we get NAN for 0 polys */
2114         if (me->totpoly) {
2115                 mul_v3_fl(r_cent, 1.0f / total_area);
2116         }
2117
2118         /* zero area faces cause this, fallback to median */
2119         if (UNLIKELY(!is_finite_v3(r_cent))) {
2120                 return BKE_mesh_center_median(me, r_cent);
2121         }
2122
2123         return (me->totpoly != 0);
2124 }
2125
2126 /**
2127  * \note Mesh must be manifold with consistent face-winding, see #mesh_calc_poly_volume_centroid for details.
2128  */
2129 bool BKE_mesh_center_of_volume(const Mesh *me, float r_cent[3])
2130 {
2131         int i = me->totpoly;
2132         MPoly *mpoly;
2133         float poly_volume;
2134         float total_volume = 0.0f;
2135         float poly_cent[3];
2136
2137         zero_v3(r_cent);
2138
2139         /* calculate a weighted average of polyhedron centroids */
2140         for (mpoly = me->mpoly; i--; mpoly++) {
2141                 poly_volume = mesh_calc_poly_volume_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2142
2143                 /* poly_cent is already volume-weighted, so no need to multiply by the volume */
2144                 add_v3_v3(r_cent, poly_cent);
2145                 total_volume += poly_volume;
2146         }
2147         /* otherwise we get NAN for 0 polys */
2148         if (total_volume != 0.0f) {
2149                 /* multipy by 0.25 to get the correct centroid */
2150                 /* no need to divide volume by 6 as the centroid is weighted by 6x the volume, so it all cancels out */
2151                 mul_v3_fl(r_cent, 0.25f / total_volume);
2152         }
2153
2154         /* this can happen for non-manifold objects, fallback to median */
2155         if (UNLIKELY(!is_finite_v3(r_cent))) {
2156                 return BKE_mesh_center_median(me, r_cent);
2157         }
2158
2159         return (me->totpoly != 0);
2160 }
2161
2162 /** \} */
2163
2164
2165 /* -------------------------------------------------------------------- */
2166
2167 /** \name Mesh Volume Calculation
2168  * \{ */
2169
2170 static bool mesh_calc_center_centroid_ex(
2171         const MVert *mverts, int UNUSED(mverts_num),
2172         const MLoopTri *looptri, int looptri_num,
2173         const MLoop *mloop, float r_center[3])
2174 {
2175         const MLoopTri *lt;
2176         float totweight;
2177         int i;
2178         
2179         zero_v3(r_center);
2180         
2181         if (looptri_num == 0)
2182                 return false;
2183         
2184         totweight = 0.0f;
2185         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2186                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2187                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2188                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2189                 float area;
2190                 
2191                 area = area_tri_v3(v1->co, v2->co, v3->co);
2192                 madd_v3_v3fl(r_center, v1->co, area);
2193                 madd_v3_v3fl(r_center, v2->co, area);
2194                 madd_v3_v3fl(r_center, v3->co, area);
2195                 totweight += area;
2196         }
2197         if (totweight == 0.0f)
2198                 return false;
2199         
2200         mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2201         
2202         return true;
2203 }
2204
2205 /**
2206  * Calculate the volume and center.
2207  *
2208  * \param r_volume: Volume (unsigned).
2209  * \param r_center: Center of mass.
2210  */
2211 void BKE_mesh_calc_volume(
2212         const MVert *mverts, const int mverts_num,
2213         const MLoopTri *looptri, const int looptri_num,
2214         const MLoop *mloop,
2215         float *r_volume, float r_center[3])
2216 {
2217         const MLoopTri *lt;
2218         float center[3];
2219         float totvol;
2220         int i;
2221         
2222         if (r_volume)
2223                 *r_volume = 0.0f;
2224         if (r_center)
2225                 zero_v3(r_center);
2226         
2227         if (looptri_num == 0)
2228                 return;
2229         
2230         if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center))
2231                 return;
2232         
2233         totvol = 0.0f;
2234
2235         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2236                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2237                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2238                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2239                 float vol;
2240                 
2241                 vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2242                 if (r_volume) {
2243                         totvol += vol;
2244                 }
2245                 if (r_center) {
2246                         /* averaging factor 1/3 is applied in the end */
2247                         madd_v3_v3fl(r_center, v1->co, vol);
2248                         madd_v3_v3fl(r_center, v2->co, vol);
2249                         madd_v3_v3fl(r_center, v3->co, vol);
2250                 }
2251         }
2252         
2253         /* Note: Depending on arbitrary centroid position,
2254          * totvol can become negative even for a valid mesh.
2255          * The true value is always the positive value.
2256          */
2257         if (r_volume) {
2258                 *r_volume = fabsf(totvol);
2259         }
2260         if (r_center) {
2261                 /* Note: Factor 1/3 is applied once for all vertices here.
2262                  * This also automatically negates the vector if totvol is negative.
2263                  */
2264                 if (totvol != 0.0f)
2265                         mul_v3_fl(r_center, (1.0f / 3.0f) / totvol);
2266         }
2267 }
2268
2269
2270 /* -------------------------------------------------------------------- */
2271
2272 /** \name NGon Tessellation (NGon/Tessface Conversion)
2273  * \{ */
2274
2275 /**
2276  * Convert a triangle or quadrangle of loop/poly data to tessface data
2277  */
2278 void BKE_mesh_loops_to_mface_corners(
2279         CustomData *fdata, CustomData *ldata,
2280         CustomData *UNUSED(pdata), unsigned int lindex[4], int findex,
2281         const int UNUSED(polyindex),
2282         const int mf_len, /* 3 or 4 */
2283
2284         /* cache values to avoid lookups every time */
2285         const int numUV, /* CustomData_number_of_layers(ldata, CD_MLOOPUV) */
2286         const int numCol, /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2287         const bool hasPCol, /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2288         const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2289         const bool hasLNor /* CustomData_has_layer(ldata, CD_NORMAL) */
2290 )
2291 {
2292         MTFace *texface;
2293         MCol *mcol;
2294         MLoopCol *mloopcol;
2295         MLoopUV *mloopuv;
2296         int i, j;
2297
2298         for (i = 0; i < numUV; i++) {
2299                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2300
2301                 for (j = 0; j < mf_len; j++) {
2302                         mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2303                         copy_v2_v2(texface->uv[j], mloopuv->uv);
2304                 }
2305         }
2306
2307         for (i = 0; i < numCol; i++) {
2308                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2309
2310                 for (j = 0; j < mf_len; j++) {
2311                         mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2312                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2313                 }
2314         }
2315
2316         if (hasPCol) {
2317                 mcol = CustomData_get(fdata,  findex, CD_PREVIEW_MCOL);
2318
2319                 for (j = 0; j < mf_len; j++) {
2320                         mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2321                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2322                 }
2323         }
2324
2325         if (hasOrigSpace) {
2326                 OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2327                 OrigSpaceLoop *lof;
2328
2329                 for (j = 0; j < mf_len; j++) {
2330                         lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2331                         copy_v2_v2(of->uv[j], lof->uv);
2332                 }
2333         }
2334
2335         if (hasLNor) {
2336                 short (*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2337
2338                 for (j = 0; j < mf_len; j++) {
2339                         normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2340                 }
2341         }
2342 }
2343
2344 /**
2345  * Convert all CD layers from loop/poly to tessface data.
2346  *
2347  * \param loopindices is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2348  *
2349  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2350  */
2351 void BKE_mesh_loops_to_tessdata(CustomData *fdata, CustomData *ldata, MFace *mface,
2352                                 int *polyindices, unsigned int (*loopindices)[4], const int num_faces)
2353 {
2354         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2355          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2356          *       this. Better imho to live with it for now. :/ --mont29
2357          */
2358         const int numUV = CustomData_number_of_layers(ldata, CD_MLOOPUV);
2359         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2360         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2361         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2362         const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2363         const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2364         int findex, i, j;
2365         const int *pidx;
2366         unsigned int (*lidx)[4];
2367
2368         for (i = 0; i < numUV; i++) {
2369                 MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2370                 MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2371
2372                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2373                      findex < num_faces;
2374                      pidx++, lidx++, findex++, texface++)
2375                 {
2376                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2377                                 copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2378                         }
2379                 }
2380         }
2381
2382         for (i = 0; i < numCol; i++) {
2383                 MCol (*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2384                 MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2385
2386                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2387                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2388                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2389                         }
2390                 }
2391         }
2392
2393         if (hasPCol) {
2394                 MCol (*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2395                 MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2396
2397                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2398                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2399                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2400                         }
2401                 }
2402         }
2403
2404         if (hasOrigSpace) {
2405                 OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2406                 OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2407
2408                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2409                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2410                                 copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2411                         }
2412                 }
2413         }
2414
2415         if (hasLoopNormal) {
2416                 short (*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2417                 float (*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2418
2419                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2420                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2421                                 normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2422                         }
2423                 }
2424         }
2425
2426         if (hasLoopTangent) {
2427                 /* need to do for all uv maps at some point */
2428                 float (*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2429                 float (*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2430
2431                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2432                      findex < num_faces;
2433                      pidx++, lidx++, findex++)
2434                 {
2435                         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2436                         for (j = nverts; j--;) {
2437                                 copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2438                         }
2439                 }
2440         }
2441 }
2442
2443 void BKE_mesh_tangent_loops_to_tessdata(
2444         CustomData *fdata, CustomData *ldata, MFace *mface,
2445         int *polyindices, unsigned int (*loopindices)[4], const int num_faces, const char *layer_name)
2446 {
2447         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2448          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2449          *       this. Better imho to live with it for now. :/ --mont29
2450          */
2451
2452         float (*ftangents)[4] = NULL;
2453         float (*ltangents)[4] = NULL;
2454
2455         int findex, j;
2456         const int *pidx;
2457         unsigned int (*lidx)[4];
2458
2459         if (layer_name)
2460                 ltangents = CustomData_get_layer_named(ldata, CD_TANGENT, layer_name);
2461         else
2462                 ltangents = CustomData_get_layer(ldata, CD_TANGENT);
2463
2464         if (ltangents) {
2465                 /* need to do for all uv maps at some point */
2466                 if (layer_name)
2467                         ftangents = CustomData_get_layer_named(fdata, CD_TANGENT, layer_name);
2468                 else
2469                         ftangents = CustomData_get_layer(fdata, CD_TANGENT);
2470                 if (ftangents) {
2471                         for (findex = 0, pidx = polyindices, lidx = loopindices;
2472                              findex < num_faces;
2473                              pidx++, lidx++, findex++)
2474                         {
2475                                 int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2476                                 for (j = nverts; j--;) {
2477                                         copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2478                                 }
2479                         }
2480                 }
2481         }
2482 }
2483
2484 /**
2485  * Recreate tessellation.
2486  *
2487  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2488  *
2489  * \return number of tessellation faces.
2490  */
2491 int BKE_mesh_recalc_tessellation(
2492         CustomData *fdata, CustomData *ldata, CustomData *pdata,
2493         MVert *mvert,
2494         int totface, int totloop, int totpoly,
2495         const bool do_face_nor_copy)
2496 {
2497         /* use this to avoid locking pthread for _every_ polygon
2498          * and calling the fill function */
2499
2500 #define USE_TESSFACE_SPEEDUP
2501 #define USE_TESSFACE_QUADS  /* NEEDS FURTHER TESTING */
2502
2503 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2504 #define TESSFACE_IS_QUAD 1
2505
2506         const int looptri_num = poly_to_tri_count(totpoly, totloop);
2507
2508         MPoly *mp, *mpoly;
2509         MLoop *ml, *mloop;
2510         MFace *mface, *mf;
2511         MemArena *arena = NULL;
2512         int *mface_to_poly_map;
2513         unsigned int (*lindices)[4];
2514         int poly_index, mface_index;
2515         unsigned int j;
2516
2517         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2518         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2519
2520         /* allocate the length of totfaces, avoid many small reallocs,
2521          * if all faces are tri's it will be correct, quads == 2x allocs */
2522         /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2523         mface_to_poly_map = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface_to_poly_map), __func__);
2524         mface             = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface), __func__);
2525         lindices          = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*lindices), __func__);
2526
2527         mface_index = 0;
2528         mp = mpoly;
2529         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2530                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2531                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2532                 unsigned int l1, l2, l3, l4;
2533                 unsigned int *lidx;
2534                 if (mp_totloop < 3) {
2535                         /* do nothing */
2536                 }
2537
2538 #ifdef USE_TESSFACE_SPEEDUP
2539
2540 #define ML_TO_MF(i1, i2, i3)                                                  \
2541                 mface_to_poly_map[mface_index] = poly_index;                          \
2542                 mf = &mface[mface_index];                                             \
2543                 lidx = lindices[mface_index];                                         \
2544                 /* set loop indices, transformed to vert indices later */             \
2545                 l1 = mp_loopstart + i1;                                               \
2546                 l2 = mp_loopstart + i2;                                               \
2547                 l3 = mp_loopstart + i3;                                               \
2548                 mf->v1 = mloop[l1].v;                                                 \
2549                 mf->v2 = mloop[l2].v;                                                 \
2550                 mf->v3 = mloop[l3].v;                                                 \
2551                 mf->v4 = 0;                                                           \
2552                 lidx[0] = l1;                                                         \
2553                 lidx[1] = l2;                                                         \
2554                 lidx[2] = l3;                                                         \
2555                 lidx[3] = 0;                                                          \
2556                 mf->mat_nr = mp->mat_nr;                                              \
2557                 mf->flag = mp->flag;                                                  \
2558                 mf->edcode = 0;                                                       \
2559                 (void)0
2560
2561 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
2562 #define ML_TO_MF_QUAD()                                                       \
2563                 mface_to_poly_map[mface_index] = poly_index;                          \
2564                 mf = &mface[mface_index];                                             \
2565                 lidx = lindices[mface_index];                                         \
2566                 /* set loop indices, transformed to vert indices later */             \
2567                 l1 = mp_loopstart + 0; /* EXCEPTION */                                \
2568                 l2 = mp_loopstart + 1; /* EXCEPTION */                                \
2569                 l3 = mp_loopstart + 2; /* EXCEPTION */                                \
2570                 l4 = mp_loopstart + 3; /* EXCEPTION */                                \
2571                 mf->v1 = mloop[l1].v;                                                 \
2572                 mf->v2 = mloop[l2].v;                                                 \
2573                 mf->v3 = mloop[l3].v;                                                 \
2574                 mf->v4 = mloop[l4].v;                                                 \
2575                 lidx[0] = l1;                                                         \
2576                 lidx[1] = l2;                                                         \
2577                 lidx[2] = l3;                                                         \
2578                 lidx[3] = l4;                                                         \
2579                 mf->mat_nr = mp->mat_nr;                                              \
2580                 mf->flag = mp->flag;                                                  \
2581                 mf->edcode = TESSFACE_IS_QUAD;                                        \
2582                 (void)0
2583
2584
2585                 else if (mp_totloop == 3) {
2586                         ML_TO_MF(0, 1, 2);
2587                         mface_index++;
2588                 }
2589                 else if (mp_totloop == 4) {
2590 #ifdef USE_TESSFACE_QUADS
2591                         ML_TO_MF_QUAD();
2592                         mface_index++;
2593 #else
2594                         ML_TO_MF(0, 1, 2);
2595                         mface_index++;
2596                         ML_TO_MF(0, 2, 3);
2597                         mface_index++;
2598 #endif
2599                 }
2600 #endif /* USE_TESSFACE_SPEEDUP */
2601                 else {
2602                         const float *co_curr, *co_prev;
2603
2604                         float normal[3];
2605
2606                         float axis_mat[3][3];
2607                         float (*projverts)[2];
2608                         unsigned int (*tris)[3];
2609
2610                         const unsigned int totfilltri = mp_totloop - 2;
2611
2612                         if (UNLIKELY(arena == NULL)) {
2613                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2614                         }
2615
2616                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2617                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2618
2619                         zero_v3(normal);
2620
2621                         /* calc normal, flipped: to get a positive 2d cross product */
2622                         ml = mloop + mp_loopstart;
2623                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2624                         for (j = 0; j < mp_totloop; j++, ml++) {
2625                                 co_curr = mvert[ml->v].co;
2626                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2627                                 co_prev = co_curr;
2628                         }
2629                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2630                                 normal[2] = 1.0f;
2631                         }
2632
2633                         /* project verts to 2d */
2634                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2635
2636                         ml = mloop + mp_loopstart;
2637                         for (j = 0; j < mp_totloop; j++, ml++) {
2638                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2639                         }
2640
2641                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
2642
2643                         /* apply fill */
2644                         for (j = 0; j < totfilltri; j++) {
2645                                 unsigned int *tri = tris[j];
2646                                 lidx = lindices[mface_index];
2647
2648                                 mface_to_poly_map[mface_index] = poly_index;
2649                                 mf = &mface[mface_index];
2650
2651                                 /* set loop indices, transformed to vert indices later */
2652                                 l1 = mp_loopstart + tri[0];
2653                                 l2 = mp_loopstart + tri[1];
2654                                 l3 = mp_loopstart + tri[2];
2655
2656                                 mf->v1 = mloop[l1].v;
2657                                 mf->v2 = mloop[l2].v;
2658                                 mf->v3 = mloop[l3].v;
2659                                 mf->v4 = 0;
2660
2661                                 lidx[0] = l1;
2662                                 lidx[1] = l2;
2663                                 lidx[2] = l3;
2664                                 lidx[3] = 0;
2665
2666                                 mf->mat_nr = mp->mat_nr;
2667                                 mf->flag = mp->flag;
2668                                 mf->edcode = 0;
2669
2670                                 mface_index++;
2671                         }
2672
2673                         BLI_memarena_clear(arena);
2674                 }
2675         }
2676
2677         if (arena) {
2678                 BLI_memarena_free(arena);
2679                 arena = NULL;
2680         }
2681
2682         CustomData_free(fdata, totface);
2683         totface = mface_index;
2684
2685         BLI_assert(totface <= looptri_num);
2686
2687         /* not essential but without this we store over-alloc'd memory in the CustomData layers */
2688         if (LIKELY(looptri_num != totface)) {
2689                 mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
2690                 mface_to_poly_map = MEM_reallocN(mface_to_poly_map, sizeof(*mface_to_poly_map) * (size_t)totface);
2691         }
2692
2693         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2694
2695         /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
2696          * they are directly tessellated from */
2697         CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
2698         CustomData_from_bmeshpoly(fdata, ldata, totface);
2699
2700         if (do_face_nor_copy) {
2701                 /* If polys have a normals layer, copying that to faces can help
2702                  * avoid the need to recalculate normals later */
2703                 if (CustomData_has_layer(pdata, CD_NORMAL)) {
2704                         float (*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
2705                         float (*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
2706                         for (mface_index = 0; mface_index < totface; mface_index++) {
2707                                 copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
2708                         }
2709                 }
2710         }
2711
2712         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2713          * Polygons take care of their loops ordering, hence not of their vertices ordering.
2714          * Currently, our tfaces' fourth vertex index might be 0 even for a quad. However, we know our fourth loop index is
2715          * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
2716          * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the fourth loop index as quad test.
2717          * ...
2718          */
2719         BKE_mesh_loops_to_tessdata(fdata, ldata, NULL, mface_to_poly_map, lindices, totface);
2720
2721         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2722          * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
2723          * test_index_face() will check this and rotate the tessellated face if needed.
2724          */
2725 #ifdef USE_TESSFACE_QUADS
2726         mf = mface;
2727         for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
2728                 if (mf->edcode == TESSFACE_IS_QUAD) {
2729                         test_index_face(mf, fdata, mface_index, 4);
2730                         mf->edcode = 0;
2731                 }
2732         }
2733 #endif
2734
2735         MEM_freeN(lindices);
2736
2737         return totface;
2738
2739 #undef USE_TESSFACE_SPEEDUP
2740 #undef USE_TESSFACE_QUADS
2741
2742 #undef ML_TO_MF
2743 #undef ML_TO_MF_QUAD
2744
2745 }
2746
2747 /**
2748  * Calculate tessellation into #MLoopTri which exist only for this purpose.
2749  */
2750 void BKE_mesh_recalc_looptri(
2751         const MLoop *mloop, const MPoly *mpoly,
2752         const MVert *mvert,
2753         int totloop, int totpoly,
2754         MLoopTri *mlooptri)
2755 {
2756         /* use this to avoid locking pthread for _every_ polygon
2757          * and calling the fill function */
2758
2759 #define USE_TESSFACE_SPEEDUP
2760
2761         const MPoly *mp;
2762         const MLoop *ml;
2763         MLoopTri *mlt;
2764         MemArena *arena = NULL;
2765         int poly_index, mlooptri_index;
2766         unsigned int j;
2767
2768         mlooptri_index = 0;
2769         mp = mpoly;
2770         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2771                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2772                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2773                 unsigned int l1, l2, l3;
2774                 if (mp_totloop < 3) {
2775                         /* do nothing */
2776                 }
2777
2778 #ifdef USE_TESSFACE_SPEEDUP
2779
2780 #define ML_TO_MLT(i1, i2, i3)  { \
2781                         mlt = &mlooptri[mlooptri_index]; \
2782                         l1 = mp_loopstart + i1; \
2783                         l2 = mp_loopstart + i2; \
2784                         l3 = mp_loopstart + i3; \
2785                         ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3); \
2786                         mlt->poly = (unsigned int)poly_index; \
2787                 } ((void)0)
2788
2789                 else if (mp_totloop == 3) {
2790                         ML_TO_MLT(0, 1, 2);
2791                         mlooptri_index++;
2792                 }
2793                 else if (mp_totloop == 4) {
2794                         ML_TO_MLT(0, 1, 2);
2795                         mlooptri_index++;
2796                         ML_TO_MLT(0, 2, 3);
2797                         mlooptri_index++;
2798                 }
2799 #endif /* USE_TESSFACE_SPEEDUP */
2800                 else {
2801                         const float *co_curr, *co_prev;
2802
2803                         float normal[3];
2804
2805                         float axis_mat[3][3];
2806                         float (*projverts)[2];
2807                         unsigned int (*tris)[3];
2808
2809                         const unsigned int totfilltri = mp_totloop - 2;
2810
2811                         if (UNLIKELY(arena == NULL)) {
2812                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2813                         }
2814
2815                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2816                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2817
2818                         zero_v3(normal);
2819
2820                         /* calc normal, flipped: to get a positive 2d cross product */
2821                         ml = mloop + mp_loopstart;
2822                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2823                         for (j = 0; j < mp_totloop; j++, ml++) {
2824                                 co_curr = mvert[ml->v].co;
2825                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2826                                 co_prev = co_curr;
2827                         }
2828                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2829                                 normal[2] = 1.0f;
2830                         }
2831
2832                         /* project verts to 2d */
2833                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2834
2835                         ml = mloop + mp_loopstart;
2836                         for (j = 0; j < mp_totloop; j++, ml++) {
2837                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2838                         }
2839
2840                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
2841
2842                         /* apply fill */
2843                         for (j = 0; j < totfilltri; j++) {
2844                                 unsigned int *tri = tris[j];
2845
2846                                 mlt = &mlooptri[mlooptri_index];
2847
2848                                 /* set loop indices, transformed to vert indices later */
2849                                 l1 = mp_loopstart + tri[0];
2850                                 l2 = mp_loopstart + tri[1];
2851                                 l3 = mp_loopstart + tri[2];
2852
2853                                 ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3);
2854                                 mlt->poly = (unsigned int)poly_index;
2855
2856                                 mlooptri_index++;
2857                         }
2858
2859                         BLI_memarena_clear(arena);
2860                 }
2861         }
2862
2863         if (arena) {
2864                 BLI_memarena_free(arena);
2865                 arena = NULL;
2866         }
2867
2868         BLI_assert(mlooptri_index == poly_to_tri_count(totpoly, totloop));
2869         UNUSED_VARS_NDEBUG(totloop);
2870
2871 #undef USE_TESSFACE_SPEEDUP
2872 #undef ML_TO_MLT
2873 }
2874
2875 /* -------------------------------------------------------------------- */
2876
2877
2878 #ifdef USE_BMESH_SAVE_AS_COMPAT
2879
2880 /**
2881  * This function recreates a tessellation.
2882  * returns number of tessellation faces.
2883  *
2884  * for forwards compat only quad->tri polys to mface, skip ngons.
2885  */
2886 int BKE_mesh_mpoly_to_mface(struct CustomData *fdata, struct CustomData *ldata,
2887                             struct CustomData *pdata, int totface, int UNUSED(totloop), int totpoly)
2888 {
2889         MLoop *mloop;
2890
2891         unsigned int lindex[4];
2892         int i;
2893         int k;
2894
2895         MPoly *mp, *mpoly;
2896         MFace *mface, *mf;
2897
2898         const int numUV = CustomData_number_of_layers(ldata, CD_MLOOPUV);
2899         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2900         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2901         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2902         const bool hasLNor = CustomData_has_layer(ldata, CD_NORMAL);
2903
2904         /* over-alloc, ngons will be skipped */
2905         mface = MEM_malloc_arrayN((size_t)totpoly, sizeof(*mface), __func__);
2906
2907         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2908         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2909
2910         mp = mpoly;
2911         k = 0;
2912         for (i = 0; i < totpoly; i++, mp++) {
2913                 if (ELEM(mp->totloop, 3, 4)) {
2914                         const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2915                         mf = &mface[k];
2916
2917                         mf->mat_nr = mp->mat_nr;
2918                         mf->flag = mp->flag;
2919
2920                         mf->v1 = mp_loopstart + 0;
2921                         mf->v2 = mp_loopstart + 1;
2922                         mf->v3 = mp_loopstart + 2;
2923                         mf->v4 = (mp->totloop == 4) ? (mp_loopstart + 3) : 0;
2924
2925                         /* abuse edcode for temp storage and clear next loop */
2926                         mf->edcode = (char)mp->totloop; /* only ever 3 or 4 */
2927
2928                         k++;
2929                 }
2930         }
2931
2932         CustomData_free(fdata, totface);
2933
2934         totface = k;
2935
2936         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2937
2938         CustomData_from_bmeshpoly(fdata, ldata, totface);
2939
2940         mp = mpoly;
2941         k = 0;
2942         for (i = 0; i < totpoly; i++, mp++) {
2943                 if (ELEM(mp->totloop, 3, 4)) {
2944                         mf = &mface[k];
2945
2946                         if (mf->edcode == 3) {
2947                                 /* sort loop indices to ensure winding is correct */
2948                                 /* NO SORT - looks like we can skip this */
2949
2950                                 lindex[0] = mf->v1;
2951                                 lindex[1] = mf->v2;
2952                                 lindex[2] = mf->v3;
2953                                 lindex[3] = 0; /* unused */
2954
2955                                 /* transform loop indices to vert indices */
2956                                 mf->v1 = mloop[mf->v1].v;
2957                                 mf->v2 = mloop[mf->v2].v;
2958                                 mf->v3 = mloop[mf->v3].v;
2959
2960                                 BKE_mesh_loops_to_mface_corners(
2961                                         fdata, ldata, pdata,
2962                                         lindex, k, i, 3,
2963                                         numUV, numCol, hasPCol, hasOrigSpace, hasLNor);
2964                                 test_index_face(mf, fdata, k, 3);
2965                         }
2966                         else {
2967                                 /* sort loop indices to ensure winding is correct */
2968                                 /* NO SORT - looks like we can skip this */
2969
2970                                 lindex[0] = mf->v1;
2971                                 lindex[1] = mf->v2;
2972                                 lindex[2] = mf->v3;
2973                                 lindex[3] = mf->v4;
2974
2975                                 /* transform loop indices to vert indices */
2976                                 mf->v1 = mloop[mf->v1].v;
2977                                 mf->v2 = mloop[mf->v2].v;
2978                                 mf->v3 = mloop[mf->v3].v;
2979                                 mf->v4 = mloop[mf->v4].v;
2980
2981                                 BKE_mesh_loops_to_mface_corners(
2982                                         fdata, ldata, pdata,
2983                                         lindex, k, i, 4,
2984                                         numUV, numCol, hasPCol, hasOrigSpace, hasLNor);
2985                                 test_index_face(mf, fdata, k, 4);
2986                         }
2987
2988                         mf->edcode = 0;
2989
2990                         k++;
2991                 }
2992         }
2993
2994         return k;
2995 }
2996 #endif /* USE_BMESH_SAVE_AS_COMPAT */
2997
2998
2999 static void bm_corners_to_loops_ex(
3000         ID *id, CustomData *fdata, CustomData *ldata,
3001         MFace *mface, int totloop, int findex, int loopstart, int numTex, int numCol)
3002 {
3003         MTFace *texface;
3004         MCol *mcol;
3005         MLoopCol *mloopcol;
3006         MLoopUV *mloopuv;
3007         MFace *mf;
3008         int i;
3009
3010         mf = mface + findex;
3011
3012         for (i = 0; i < numTex; i++) {
3013                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
3014
3015                 mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, loopstart, i);
3016                 copy_v2_v2(mloopuv->uv, texface->uv[0]); mloopuv++;
3017                 copy_v2_v2(mloopuv->uv, texface->uv[1]); mloopuv++;
3018                 copy_v2_v2(mloopuv->uv, texface->uv[2]); mloopuv++;
3019
3020                 if (mf->v4) {
3021                         copy_v2_v2(mloopuv->uv, texface->uv[3]); mloopuv++;
3022                 }
3023         }
3024
3025         for (i = 0; i < numCol; i++) {
3026                 mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, loopstart, i);
3027                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
3028
3029                 MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[0]); mloopcol++;
3030                 MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[1]); mloopcol++;
3031                 MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[2]); mloopcol++;
3032                 if (mf->v4) {
3033                         MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[3]); mloopcol++;
3034                 }
3035         }
3036
3037         if (CustomData_has_layer(fdata, CD_TESSLOOPNORMAL)) {