Cleanup: Remove more #if 0 blocks
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * ***** BEGIN GPL LICENSE BLOCK *****
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  *
18  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
19  * All rights reserved.
20  *
21  * Contributor(s): Blender Foundation
22  *
23  * ***** END GPL LICENSE BLOCK *****
24  */
25
26 /** \file blender/blenkernel/intern/mesh_evaluate.c
27  *  \ingroup bke
28  *
29  * Functions to evaluate mesh data.
30  */
31
32 #include <limits.h>
33
34 #include "MEM_guardedalloc.h"
35
36 #include "DNA_object_types.h"
37 #include "DNA_mesh_types.h"
38 #include "DNA_meshdata_types.h"
39
40 #include "BLI_utildefines.h"
41 #include "BLI_memarena.h"
42 #include "BLI_mempool.h"
43 #include "BLI_math.h"
44 #include "BLI_edgehash.h"
45 #include "BLI_bitmap.h"
46 #include "BLI_polyfill_2d.h"
47 #include "BLI_linklist.h"
48 #include "BLI_linklist_stack.h"
49 #include "BLI_alloca.h"
50 #include "BLI_stack.h"
51 #include "BLI_task.h"
52
53 #include "BKE_customdata.h"
54 #include "BKE_global.h"
55 #include "BKE_mesh.h"
56 #include "BKE_multires.h"
57 #include "BKE_report.h"
58
59 #include "BLI_strict_flags.h"
60
61 #include "atomic_ops.h"
62 #include "mikktspace.h"
63
64 // #define DEBUG_TIME
65
66 #include "PIL_time.h"
67 #ifdef DEBUG_TIME
68 #  include "PIL_time_utildefines.h"
69 #endif
70
71 /* -------------------------------------------------------------------- */
72
73 /** \name Mesh Normal Calculation
74  * \{ */
75
76 /**
77  * Call when there are no polygons.
78  */
79 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
80 {
81         int i;
82         for (i = 0; i < numVerts; i++) {
83                 MVert *mv = &mverts[i];
84                 float no[3];
85
86                 normalize_v3_v3(no, mv->co);
87                 normal_float_to_short_v3(mv->no, no);
88         }
89 }
90
91 /* TODO(Sybren): we can probably rename this to BKE_mesh_calc_normals_mapping(),
92  * and remove the function of the same name below, as that one doesn't seem to be
93  * called anywhere. */
94 void BKE_mesh_calc_normals_mapping_simple(struct Mesh *mesh)
95 {
96         const bool only_face_normals = CustomData_is_referenced_layer(&mesh->vdata, CD_MVERT);
97
98         BKE_mesh_calc_normals_mapping_ex(
99                 mesh->mvert, mesh->totvert,
100                 mesh->mloop, mesh->mpoly, mesh->totloop, mesh->totpoly, NULL,
101                 mesh->mface, mesh->totface, NULL, NULL,
102                 only_face_normals);
103 }
104
105 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
106  * and vertex normals are stored in actual mverts.
107  */
108 void BKE_mesh_calc_normals_mapping(
109         MVert *mverts, int numVerts,
110         const MLoop *mloop, const MPoly *mpolys, int numLoops, int numPolys, float (*r_polyNors)[3],
111         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3])
112 {
113         BKE_mesh_calc_normals_mapping_ex(
114                 mverts, numVerts, mloop, mpolys,
115                 numLoops, numPolys, r_polyNors, mfaces, numFaces,
116                 origIndexFace, r_faceNors, false);
117 }
118 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
119 void BKE_mesh_calc_normals_mapping_ex(
120         MVert *mverts, int numVerts,
121         const MLoop *mloop, const MPoly *mpolys,
122         int numLoops, int numPolys, float (*r_polyNors)[3],
123         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3],
124         const bool only_face_normals)
125 {
126         float (*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
127         int i;
128         const MFace *mf;
129         const MPoly *mp;
130
131         if (numPolys == 0) {
132                 if (only_face_normals == false) {
133                         mesh_calc_normals_vert_fallback(mverts, numVerts);
134                 }
135                 return;
136         }
137
138         /* if we are not calculating verts and no verts were passes then we have nothing to do */
139         if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
140                 printf("%s: called with nothing to do\n", __func__);
141                 return;
142         }
143
144         if (!pnors) pnors = MEM_calloc_arrayN((size_t)numPolys, sizeof(float[3]), __func__);
145         /* if (!fnors) fnors = MEM_calloc_arrayN(numFaces, sizeof(float[3]), "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
146
147
148         if (only_face_normals == false) {
149                 /* vertex normals are optional, they require some extra calculations,
150                  * so make them optional */
151                 BKE_mesh_calc_normals_poly(mverts, NULL, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
152         }
153         else {
154                 /* only calc poly normals */
155                 mp = mpolys;
156                 for (i = 0; i < numPolys; i++, mp++) {
157                         BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
158                 }
159         }
160
161         if (origIndexFace &&
162             /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
163             fnors != NULL &&
164             numFaces)
165         {
166                 mf = mfaces;
167                 for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
168                         if (*origIndexFace < numPolys) {
169                                 copy_v3_v3(fnors[i], pnors[*origIndexFace]);
170                         }
171                         else {
172                                 /* eek, we're not corresponding to polys */
173                                 printf("error in %s: tessellation face indices are incorrect.  normals may look bad.\n", __func__);
174                         }
175                 }
176         }
177
178         if (pnors != r_polyNors) MEM_freeN(pnors);
179         /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
180
181         fnors = pnors = NULL;
182
183 }
184
185 typedef struct MeshCalcNormalsData {
186         const MPoly *mpolys;
187         const MLoop *mloop;
188         MVert *mverts;
189         float (*pnors)[3];
190         float (*lnors_weighted)[3];
191         float (*vnors)[3];
192 } MeshCalcNormalsData;
193
194 static void mesh_calc_normals_poly_cb(
195         void *__restrict userdata,
196         const int pidx,
197         const ParallelRangeTLS *__restrict UNUSED(tls))
198 {
199         MeshCalcNormalsData *data = userdata;
200         const MPoly *mp = &data->mpolys[pidx];
201
202         BKE_mesh_calc_poly_normal(mp, data->mloop + mp->loopstart, data->mverts, data->pnors[pidx]);
203 }
204
205 static void mesh_calc_normals_poly_prepare_cb(
206         void *__restrict userdata,
207         const int pidx,
208         const ParallelRangeTLS *__restrict UNUSED(tls))
209 {
210         MeshCalcNormalsData *data = userdata;
211         const MPoly *mp = &data->mpolys[pidx];
212         const MLoop *ml = &data->mloop[mp->loopstart];
213         const MVert *mverts = data->mverts;
214
215         float pnor_temp[3];
216         float *pnor = data->pnors ? data->pnors[pidx] : pnor_temp;
217         float (*lnors_weighted)[3] = data->lnors_weighted;
218
219         const int nverts = mp->totloop;
220         float (*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
221         int i;
222
223         /* Polygon Normal and edge-vector */
224         /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
225         {
226                 int i_prev = nverts - 1;
227                 const float *v_prev = mverts[ml[i_prev].v].co;
228                 const float *v_curr;
229
230                 zero_v3(pnor);
231                 /* Newell's Method */
232                 for (i = 0; i < nverts; i++) {
233                         v_curr = mverts[ml[i].v].co;
234                         add_newell_cross_v3_v3v3(pnor, v_prev, v_curr);
235
236                         /* Unrelated to normalize, calculate edge-vector */
237                         sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
238                         normalize_v3(edgevecbuf[i_prev]);
239                         i_prev = i;
240
241                         v_prev = v_curr;
242                 }
243                 if (UNLIKELY(normalize_v3(pnor) == 0.0f)) {
244                         pnor[2] = 1.0f; /* other axes set to 0.0 */
245                 }
246         }
247
248         /* accumulate angle weighted face normal */
249         /* inline version of #accumulate_vertex_normals_poly_v3,
250          * split between this threaded callback and #mesh_calc_normals_poly_accum_cb. */
251         {
252                 const float *prev_edge = edgevecbuf[nverts - 1];
253
254                 for (i = 0; i < nverts; i++) {
255                         const int lidx = mp->loopstart + i;
256                         const float *cur_edge = edgevecbuf[i];
257
258                         /* calculate angle between the two poly edges incident on
259                          * this vertex */
260                         const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
261
262                         /* Store for later accumulation */
263                         mul_v3_v3fl(lnors_weighted[lidx], pnor, fac);
264
265                         prev_edge = cur_edge;
266                 }
267         }
268 }
269
270 static void mesh_calc_normals_poly_finalize_cb(
271         void *__restrict userdata,
272         const int vidx,
273         const ParallelRangeTLS *__restrict UNUSED(tls))
274 {
275         MeshCalcNormalsData *data = userdata;
276
277         MVert *mv = &data->mverts[vidx];
278         float *no = data->vnors[vidx];
279
280         if (UNLIKELY(normalize_v3(no) == 0.0f)) {
281                 /* following Mesh convention; we use vertex coordinate itself for normal in this case */
282                 normalize_v3_v3(no, mv->co);
283         }
284
285         normal_float_to_short_v3(mv->no, no);
286 }
287
288 void BKE_mesh_calc_normals_poly(
289         MVert *mverts, float (*r_vertnors)[3], int numVerts,
290         const MLoop *mloop, const MPoly *mpolys,
291         int numLoops, int numPolys, float (*r_polynors)[3],
292         const bool only_face_normals)
293 {
294         float (*pnors)[3] = r_polynors;
295
296         ParallelRangeSettings settings;
297         BLI_parallel_range_settings_defaults(&settings);
298         settings.min_iter_per_thread = 1024;
299
300         if (only_face_normals) {
301                 BLI_assert((pnors != NULL) || (numPolys == 0));
302                 BLI_assert(r_vertnors == NULL);
303
304                 MeshCalcNormalsData data = {
305                     .mpolys = mpolys, .mloop = mloop, .mverts = mverts, .pnors = pnors,
306                 };
307
308                 BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_cb, &settings);
309                 return;
310         }
311
312         float (*vnors)[3] = r_vertnors;
313         float (*lnors_weighted)[3] = MEM_malloc_arrayN((size_t)numLoops, sizeof(*lnors_weighted), __func__);
314         bool free_vnors = false;
315
316         /* first go through and calculate normals for all the polys */
317         if (vnors == NULL) {
318                 vnors = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vnors), __func__);
319                 free_vnors = true;
320         }
321         else {
322                 memset(vnors, 0, sizeof(*vnors) * (size_t)numVerts);
323         }
324
325         MeshCalcNormalsData data = {
326             .mpolys = mpolys, .mloop = mloop, .mverts = mverts,
327             .pnors = pnors, .lnors_weighted = lnors_weighted, .vnors = vnors
328         };
329
330         /* Compute poly normals, and prepare weighted loop normals. */
331         BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_prepare_cb, &settings);
332
333         /* Actually accumulate weighted loop normals into vertex ones. */
334         /* Unfortunately, not possible to thread that (not in a reasonable, totally lock- and barrier-free fashion),
335          * since several loops will point to the same vertex... */
336         for (int lidx = 0; lidx < numLoops; lidx++) {
337                 add_v3_v3(vnors[mloop[lidx].v], data.lnors_weighted[lidx]);
338         }
339
340         /* Normalize and validate computed vertex normals. */
341         BLI_task_parallel_range(0, numVerts, &data, mesh_calc_normals_poly_finalize_cb, &settings);
342
343         if (free_vnors) {
344                 MEM_freeN(vnors);
345         }
346         MEM_freeN(lnors_weighted);
347 }
348
349 void BKE_mesh_ensure_normals(Mesh *mesh)
350 {
351         if (mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) {
352                 BKE_mesh_calc_normals(mesh);
353         }
354         BLI_assert((mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) == 0);
355 }
356
357 /**
358  * Called after calculating all modifiers.
359  */
360 void BKE_mesh_ensure_normals_for_display(Mesh *mesh)
361 {
362         /* Note: mesh *may* have a poly CD_NORMAL layer (generated by a modifier needing poly normals e.g.).
363          *       We do not use it here, though. And it should be tagged as temp!
364          */
365         /* BLI_assert((CustomData_has_layer(&mesh->pdata, CD_NORMAL) == false)); */
366
367         if (mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL || !CustomData_has_layer(&mesh->pdata, CD_NORMAL)) {
368                 float (*poly_nors)[3] = NULL;
369                 poly_nors = MEM_malloc_arrayN((size_t)mesh->totpoly, sizeof(*poly_nors), __func__);
370
371                 /* if normals are dirty we want to calculate vertex normals too */
372                 bool only_face_normals = !(mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL);
373
374                 /* calculate face normals */
375                 BKE_mesh_calc_normals_poly(
376                         mesh->mvert, NULL, mesh->totvert, mesh->mloop, mesh->mpoly,
377                         mesh->totloop, mesh->totpoly, poly_nors,
378                         only_face_normals);
379
380                 CustomData_add_layer(&mesh->pdata, CD_NORMAL, CD_ASSIGN, poly_nors, mesh->totpoly);
381
382                 mesh->runtime.cd_dirty_vert &= ~CD_MASK_NORMAL;
383         }
384 }
385
386 /* Note that this does not update the CD_NORMAL layer, but does update the normals in the CD_MVERT layer. */
387 void BKE_mesh_calc_normals(Mesh *mesh)
388 {
389 #ifdef DEBUG_TIME
390         TIMEIT_START_AVERAGED(BKE_mesh_calc_normals);
391 #endif
392         BKE_mesh_calc_normals_poly(
393                 mesh->mvert, NULL, mesh->totvert,
394                 mesh->mloop, mesh->mpoly, mesh->totloop, mesh->totpoly,
395                 NULL, false);
396 #ifdef DEBUG_TIME
397         TIMEIT_END_AVERAGED(BKE_mesh_calc_normals);
398 #endif
399         mesh->runtime.cd_dirty_vert &= ~CD_MASK_NORMAL;
400 }
401
402 void BKE_mesh_calc_normals_tessface(
403         MVert *mverts, int numVerts,
404         const MFace *mfaces, int numFaces,
405         float (*r_faceNors)[3])
406 {
407         float (*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
408         float (*fnors)[3] = (r_faceNors) ? r_faceNors : MEM_calloc_arrayN((size_t)numFaces, sizeof(*fnors), "meshnormals");
409         int i;
410
411         if (!tnorms || !fnors) {
412                 goto cleanup;
413         }
414
415         for (i = 0; i < numFaces; i++) {
416                 const MFace *mf = &mfaces[i];
417                 float *f_no = fnors[i];
418                 float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
419                 const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
420
421                 if (mf->v4)
422                         normal_quad_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
423                 else
424                         normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
425
426                 accumulate_vertex_normals_v3(
427                         tnorms[mf->v1], tnorms[mf->v2], tnorms[mf->v3], n4,
428                         f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, c4);
429         }
430
431         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
432         for (i = 0; i < numVerts; i++) {
433                 MVert *mv = &mverts[i];
434                 float *no = tnorms[i];
435
436                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
437                         normalize_v3_v3(no, mv->co);
438                 }
439
440                 normal_float_to_short_v3(mv->no, no);
441         }
442
443 cleanup:
444         MEM_freeN(tnorms);
445
446         if (fnors != r_faceNors)
447                 MEM_freeN(fnors);
448 }
449
450 void BKE_mesh_calc_normals_looptri(
451         MVert *mverts, int numVerts,
452         const MLoop *mloop,
453         const MLoopTri *looptri, int looptri_num,
454         float (*r_tri_nors)[3])
455 {
456         float (*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
457         float (*fnors)[3] = (r_tri_nors) ? r_tri_nors : MEM_calloc_arrayN((size_t)looptri_num, sizeof(*fnors), "meshnormals");
458         int i;
459
460         if (!tnorms || !fnors) {
461                 goto cleanup;
462         }
463
464         for (i = 0; i < looptri_num; i++) {
465                 const MLoopTri *lt = &looptri[i];
466                 float *f_no = fnors[i];
467                 const unsigned int vtri[3] = {
468                     mloop[lt->tri[0]].v,
469                     mloop[lt->tri[1]].v,
470                     mloop[lt->tri[2]].v,
471                 };
472
473                 normal_tri_v3(
474                         f_no,
475                         mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
476
477                 accumulate_vertex_normals_tri_v3(
478                         tnorms[vtri[0]], tnorms[vtri[1]], tnorms[vtri[2]],
479                         f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
480         }
481
482         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
483         for (i = 0; i < numVerts; i++) {
484                 MVert *mv = &mverts[i];
485                 float *no = tnorms[i];
486
487                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
488                         normalize_v3_v3(no, mv->co);
489                 }
490
491                 normal_float_to_short_v3(mv->no, no);
492         }
493
494 cleanup:
495         MEM_freeN(tnorms);
496
497         if (fnors != r_tri_nors)
498                 MEM_freeN(fnors);
499 }
500
501 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr, const int numLoops, const char data_type)
502 {
503         if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
504                 MemArena *mem;
505
506                 if (!lnors_spacearr->mem) {
507                         lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
508                 }
509                 mem = lnors_spacearr->mem;
510                 lnors_spacearr->lspacearr = BLI_memarena_calloc(mem, sizeof(MLoopNorSpace *) * (size_t)numLoops);
511                 lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
512
513                 lnors_spacearr->num_spaces = 0;
514         }
515         BLI_assert(ELEM(data_type, MLNOR_SPACEARR_BMLOOP_PTR, MLNOR_SPACEARR_LOOP_INDEX));
516         lnors_spacearr->data_type = data_type;
517 }
518
519 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
520 {
521         lnors_spacearr->num_spaces = 0;
522         lnors_spacearr->lspacearr = NULL;
523         lnors_spacearr->loops_pool = NULL;
524         BLI_memarena_clear(lnors_spacearr->mem);
525 }
526
527 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
528 {
529         lnors_spacearr->num_spaces = 0;
530         lnors_spacearr->lspacearr = NULL;
531         lnors_spacearr->loops_pool = NULL;
532         BLI_memarena_free(lnors_spacearr->mem);
533         lnors_spacearr->mem = NULL;
534 }
535
536 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
537 {
538         lnors_spacearr->num_spaces++;
539         return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
540 }
541
542 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
543 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-4f)
544
545 /* Should only be called once.
546  * Beware, this modifies ref_vec and other_vec in place!
547  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
548  */
549 void BKE_lnor_space_define(
550         MLoopNorSpace *lnor_space, const float lnor[3],
551         float vec_ref[3], float vec_other[3], BLI_Stack *edge_vectors)
552 {
553         const float pi2 = (float)M_PI * 2.0f;
554         float tvec[3], dtp;
555         const float dtp_ref = dot_v3v3(vec_ref, lnor);
556         const float dtp_other = dot_v3v3(vec_other, lnor);
557
558         if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD || fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
559                 /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
560                  * tag it as invalid and abort. */
561                 lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
562
563                 if (edge_vectors) {
564                         BLI_stack_clear(edge_vectors);
565                 }
566                 return;
567         }
568
569         copy_v3_v3(lnor_space->vec_lnor, lnor);
570
571         /* Compute ref alpha, average angle of all available edge vectors to lnor. */
572         if (edge_vectors) {
573                 float alpha = 0.0f;
574                 int nbr = 0;
575                 while (!BLI_stack_is_empty(edge_vectors)) {
576                         const float *vec = BLI_stack_peek(edge_vectors);
577                         alpha += saacosf(dot_v3v3(vec, lnor));
578                         BLI_stack_discard(edge_vectors);
579                         nbr++;
580                 }
581                 /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
582                  *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
583                 BLI_assert(nbr >= 2);  /* This piece of code shall only be called for more than one loop... */
584                 lnor_space->ref_alpha = alpha / (float)nbr;
585         }
586         else {
587                 lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) + saacosf(dot_v3v3(vec_other, lnor))) / 2.0f;
588         }
589
590         /* Project vec_ref on lnor's ortho plane. */
591         mul_v3_v3fl(tvec, lnor, dtp_ref);
592         sub_v3_v3(vec_ref, tvec);
593         normalize_v3_v3(lnor_space->vec_ref, vec_ref);
594
595         cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
596         normalize_v3_v3(lnor_space->vec_ortho, tvec);
597
598         /* Project vec_other on lnor's ortho plane. */
599         mul_v3_v3fl(tvec, lnor, dtp_other);
600         sub_v3_v3(vec_other, tvec);
601         normalize_v3(vec_other);
602
603         /* Beta is angle between ref_vec and other_vec, around lnor. */
604         dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
605         if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
606                 const float beta = saacos(dtp);
607                 lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
608         }
609         else {
610                 lnor_space->ref_beta = pi2;
611         }
612 }
613
614 /**
615  * Add a new given loop to given lnor_space.
616  * Depending on \a lnor_space->data_type, we expect \a bm_loop to be a pointer to BMLoop struct (in case of BMLOOP_PTR),
617  * or NULL (in case of LOOP_INDEX), loop index is then stored in pointer.
618  * If \a is_single is set, the BMLoop or loop index is directly stored in \a lnor_space->loops pointer (since there
619  * is only one loop in this fan), else it is added to the linked list of loops in the fan.
620  */
621 void BKE_lnor_space_add_loop(
622         MLoopNorSpaceArray *lnors_spacearr, MLoopNorSpace *lnor_space,
623         const int ml_index, void *bm_loop, const bool is_single)
624 {
625         BLI_assert((lnors_spacearr->data_type == MLNOR_SPACEARR_LOOP_INDEX && bm_loop == NULL) ||
626                    (lnors_spacearr->data_type == MLNOR_SPACEARR_BMLOOP_PTR && bm_loop != NULL));
627
628         lnors_spacearr->lspacearr[ml_index] = lnor_space;
629         if (bm_loop == NULL) {
630                 bm_loop = POINTER_FROM_INT(ml_index);
631         }
632         if (is_single) {
633                 BLI_assert(lnor_space->loops == NULL);
634                 lnor_space->flags |= MLNOR_SPACE_IS_SINGLE;
635                 lnor_space->loops = bm_loop;
636         }
637         else {
638                 BLI_assert((lnor_space->flags & MLNOR_SPACE_IS_SINGLE) == 0);
639                 BLI_linklist_prepend_nlink(&lnor_space->loops, bm_loop, &lnors_spacearr->loops_pool[ml_index]);
640         }
641 }
642
643 MINLINE float unit_short_to_float(const short val)
644 {
645         return (float)val / (float)SHRT_MAX;
646 }
647
648 MINLINE short unit_float_to_short(const float val)
649 {
650         /* Rounding... */
651         return (short)floorf(val * (float)SHRT_MAX + 0.5f);
652 }
653
654 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space, const short clnor_data[2], float r_custom_lnor[3])
655 {
656         /* NOP custom normal data or invalid lnor space, return. */
657         if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
658                 copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
659                 return;
660         }
661
662         {
663                 /* TODO Check whether using sincosf() gives any noticeable benefit
664                  *      (could not even get it working under linux though)! */
665                 const float pi2 = (float)(M_PI * 2.0);
666                 const float alphafac = unit_short_to_float(clnor_data[0]);
667                 const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) * alphafac;
668                 const float betafac = unit_short_to_float(clnor_data[1]);
669
670                 mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
671
672                 if (betafac == 0.0f) {
673                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
674                 }
675                 else {
676                         const float sinalpha = sinf(alpha);
677                         const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) * betafac;
678                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
679                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
680                 }
681         }
682 }
683
684 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space, const float custom_lnor[3], short r_clnor_data[2])
685 {
686         /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
687         if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
688                 r_clnor_data[0] = r_clnor_data[1] = 0;
689                 return;
690         }
691
692         {
693                 const float pi2 = (float)(M_PI * 2.0);
694                 const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
695                 float vec[3], cos_beta;
696                 float alpha;
697
698                 alpha = saacosf(cos_alpha);
699                 if (alpha > lnor_space->ref_alpha) {
700                         /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
701                         r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
702                 }
703                 else {
704                         r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
705                 }
706
707                 /* Project custom lnor on (vec_ref, vec_ortho) plane. */
708                 mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
709                 add_v3_v3(vec, custom_lnor);
710                 normalize_v3(vec);
711
712                 cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
713
714                 if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
715                         float beta = saacosf(cos_beta);
716                         if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
717                                 beta = pi2 - beta;
718                         }
719
720                         if (beta > lnor_space->ref_beta) {
721                                 r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
722                         }
723                         else {
724                                 r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
725                         }
726                 }
727                 else {
728                         r_clnor_data[1] = 0;
729                 }
730         }
731 }
732
733 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
734
735 typedef struct LoopSplitTaskData {
736         /* Specific to each instance (each task). */
737         MLoopNorSpace *lnor_space;  /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
738         float (*lnor)[3];
739         const MLoop *ml_curr;
740         const MLoop *ml_prev;
741         int ml_curr_index;
742         int ml_prev_index;
743         const int *e2l_prev;  /* Also used a flag to switch between single or fan process! */
744         int mp_index;
745
746         /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
747         BLI_Stack *edge_vectors;
748
749         char pad_c;
750 } LoopSplitTaskData;
751
752 typedef struct LoopSplitTaskDataCommon {
753         /* Read/write.
754          * Note we do not need to protect it, though, since two different tasks will *always* affect different
755          * elements in the arrays. */
756         MLoopNorSpaceArray *lnors_spacearr;
757         float (*loopnors)[3];
758         short (*clnors_data)[2];
759
760         /* Read-only. */
761         const MVert *mverts;
762         const MEdge *medges;
763         const MLoop *mloops;
764         const MPoly *mpolys;
765         int (*edge_to_loops)[2];
766         int *loop_to_poly;
767         const float (*polynors)[3];
768
769         int numEdges;
770         int numLoops;
771         int numPolys;
772 } LoopSplitTaskDataCommon;
773
774 #define INDEX_UNSET INT_MIN
775 #define INDEX_INVALID -1
776 /* See comment about edge_to_loops below. */
777 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
778
779 static void mesh_edges_sharp_tag(
780         LoopSplitTaskDataCommon *data,
781         const bool check_angle, const float split_angle, const bool do_sharp_edges_tag)
782 {
783         const MVert *mverts = data->mverts;
784         const MEdge *medges = data->medges;
785         const MLoop *mloops = data->mloops;
786
787         const MPoly *mpolys = data->mpolys;
788
789         const int numEdges = data->numEdges;
790         const int numPolys = data->numPolys;
791
792         float (*loopnors)[3] = data->loopnors;  /* Note: loopnors may be NULL here. */
793         const float (*polynors)[3] = data->polynors;
794
795         int (*edge_to_loops)[2] = data->edge_to_loops;
796         int *loop_to_poly = data->loop_to_poly;
797
798         BLI_bitmap *sharp_edges = do_sharp_edges_tag ? BLI_BITMAP_NEW(numEdges, __func__) : NULL;
799
800         const MPoly *mp;
801         int mp_index;
802
803         const float split_angle_cos = check_angle ? cosf(split_angle) : -1.0f;
804
805         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
806                 const MLoop *ml_curr;
807                 int *e2l;
808                 int ml_curr_index = mp->loopstart;
809                 const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
810
811                 ml_curr = &mloops[ml_curr_index];
812
813                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
814                         e2l = edge_to_loops[ml_curr->e];
815
816                         loop_to_poly[ml_curr_index] = mp_index;
817
818                         /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
819                          * those later!
820                          */
821                         if (loopnors) {
822                                 normal_short_to_float_v3(loopnors[ml_curr_index], mverts[ml_curr->v].no);
823                         }
824
825                         /* Check whether current edge might be smooth or sharp */
826                         if ((e2l[0] | e2l[1]) == 0) {
827                                 /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
828                                 e2l[0] = ml_curr_index;
829                                 /* We have to check this here too, else we might miss some flat faces!!! */
830                                 e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
831                         }
832                         else if (e2l[1] == INDEX_UNSET) {
833                                 const bool is_angle_sharp = (
834                                         check_angle &&
835                                         dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) < split_angle_cos);
836
837                                 /* Second loop using this edge, time to test its sharpness.
838                                  * An edge is sharp if it is tagged as such, or its face is not smooth,
839                                  * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
840                                  * or angle between both its polys' normals is above split_angle value.
841                                  */
842                                 if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
843                                     ml_curr->v == mloops[e2l[0]].v ||
844                                     is_angle_sharp)
845                                 {
846                                         /* Note: we are sure that loop != 0 here ;) */
847                                         e2l[1] = INDEX_INVALID;
848
849                                         /* We want to avoid tagging edges as sharp when it is already defined as such by
850                                          * other causes than angle threshold... */
851                                         if (do_sharp_edges_tag && is_angle_sharp) {
852                                                 BLI_BITMAP_SET(sharp_edges, ml_curr->e, true);
853                                         }
854                                 }
855                                 else {
856                                         e2l[1] = ml_curr_index;
857                                 }
858                         }
859                         else if (!IS_EDGE_SHARP(e2l)) {
860                                 /* More than two loops using this edge, tag as sharp if not yet done. */
861                                 e2l[1] = INDEX_INVALID;
862
863                                 /* We want to avoid tagging edges as sharp when it is already defined as such by
864                                  * other causes than angle threshold... */
865                                 if (do_sharp_edges_tag) {
866                                         BLI_BITMAP_SET(sharp_edges, ml_curr->e, false);
867                                 }
868                         }
869                         /* Else, edge is already 'disqualified' (i.e. sharp)! */
870                 }
871         }
872
873         /* If requested, do actual tagging of edges as sharp in another loop. */
874         if (do_sharp_edges_tag) {
875                 MEdge *me;
876                 int me_index;
877                 for (me = (MEdge *)medges, me_index = 0; me_index < numEdges; me++, me_index++) {
878                         if (BLI_BITMAP_TEST(sharp_edges, me_index)) {
879                                 me->flag |= ME_SHARP;
880                         }
881                 }
882
883                 MEM_freeN(sharp_edges);
884         }
885 }
886
887 /** Define sharp edges as needed to mimic 'autosmooth' from angle threshold.
888  *
889  * Used when defining an empty custom loop normals data layer, to keep same shading as with autosmooth!
890  */
891 void BKE_edges_sharp_from_angle_set(
892         const struct MVert *mverts, const int UNUSED(numVerts),
893         struct MEdge *medges, const int numEdges,
894         struct MLoop *mloops, const int numLoops,
895         struct MPoly *mpolys, const float (*polynors)[3], const int numPolys,
896         const float split_angle)
897 {
898         if (split_angle >= (float)M_PI) {
899                 /* Nothing to do! */
900                 return;
901         }
902
903         /* Mapping edge -> loops. See BKE_mesh_normals_loop_split() for details. */
904         int (*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
905
906         /* Simple mapping from a loop to its polygon index. */
907         int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
908
909         LoopSplitTaskDataCommon common_data = {
910             .mverts = mverts,
911             .medges = medges,
912             .mloops = mloops,
913             .mpolys = mpolys,
914             .edge_to_loops = edge_to_loops,
915             .loop_to_poly = loop_to_poly,
916             .polynors = polynors,
917             .numEdges = numEdges,
918             .numPolys = numPolys,
919         };
920
921         mesh_edges_sharp_tag(&common_data, true, split_angle, true);
922
923         MEM_freeN(edge_to_loops);
924         MEM_freeN(loop_to_poly);
925 }
926
927 void BKE_mesh_loop_manifold_fan_around_vert_next(
928         const MLoop *mloops, const MPoly *mpolys,
929         const int *loop_to_poly, const int *e2lfan_curr, const uint mv_pivot_index,
930         const MLoop **r_mlfan_curr, int *r_mlfan_curr_index, int *r_mlfan_vert_index, int *r_mpfan_curr_index)
931 {
932         const MLoop *mlfan_next;
933         const MPoly *mpfan_next;
934
935         /* Warning! This is rather complex!
936          * We have to find our next edge around the vertex (fan mode).
937          * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
938          * whether both loops using current edge are in the same direction or not, and whether
939          * mlfan_curr_index actually uses the vertex we are fanning around!
940          * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
941          * (i.e. not the future mlfan_curr)...
942          */
943         *r_mlfan_curr_index = (e2lfan_curr[0] == *r_mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
944         *r_mpfan_curr_index = loop_to_poly[*r_mlfan_curr_index];
945
946         BLI_assert(*r_mlfan_curr_index >= 0);
947         BLI_assert(*r_mpfan_curr_index >= 0);
948
949         mlfan_next = &mloops[*r_mlfan_curr_index];
950         mpfan_next = &mpolys[*r_mpfan_curr_index];
951         if (((*r_mlfan_curr)->v == mlfan_next->v && (*r_mlfan_curr)->v == mv_pivot_index) ||
952             ((*r_mlfan_curr)->v != mlfan_next->v && (*r_mlfan_curr)->v != mv_pivot_index))
953         {
954                 /* We need the previous loop, but current one is our vertex's loop. */
955                 *r_mlfan_vert_index = *r_mlfan_curr_index;
956                 if (--(*r_mlfan_curr_index) < mpfan_next->loopstart) {
957                         *r_mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
958                 }
959         }
960         else {
961                 /* We need the next loop, which is also our vertex's loop. */
962                 if (++(*r_mlfan_curr_index) >= mpfan_next->loopstart + mpfan_next->totloop) {
963                         *r_mlfan_curr_index = mpfan_next->loopstart;
964                 }
965                 *r_mlfan_vert_index = *r_mlfan_curr_index;
966         }
967         *r_mlfan_curr = &mloops[*r_mlfan_curr_index];
968         /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
969 }
970
971 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
972 {
973         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
974         short (*clnors_data)[2] = common_data->clnors_data;
975
976         const MVert *mverts = common_data->mverts;
977         const MEdge *medges = common_data->medges;
978         const float (*polynors)[3] = common_data->polynors;
979
980         MLoopNorSpace *lnor_space = data->lnor_space;
981         float (*lnor)[3] = data->lnor;
982         const MLoop *ml_curr = data->ml_curr;
983         const MLoop *ml_prev = data->ml_prev;
984         const int ml_curr_index = data->ml_curr_index;
985         const int mp_index = data->mp_index;
986
987         /* Simple case (both edges around that vertex are sharp in current polygon),
988          * this loop just takes its poly normal.
989          */
990         copy_v3_v3(*lnor, polynors[mp_index]);
991
992 //      printf("BASIC: handling loop %d / edge %d / vert %d / poly %d\n", ml_curr_index, ml_curr->e, ml_curr->v, mp_index);
993
994         /* If needed, generate this (simple!) lnor space. */
995         if (lnors_spacearr) {
996                 float vec_curr[3], vec_prev[3];
997
998                 const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
999                 const MVert *mv_pivot = &mverts[mv_pivot_index];
1000                 const MEdge *me_curr = &medges[ml_curr->e];
1001                 const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
1002                 const MEdge *me_prev = &medges[ml_prev->e];
1003                 const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] : &mverts[me_prev->v1];
1004
1005                 sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1006                 normalize_v3(vec_curr);
1007                 sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
1008                 normalize_v3(vec_prev);
1009
1010                 BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
1011                 /* We know there is only one loop in this space, no need to create a linklist in this case... */
1012                 BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, NULL, true);
1013
1014                 if (clnors_data) {
1015                         BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
1016                 }
1017         }
1018 }
1019
1020 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
1021 {
1022         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1023         float (*loopnors)[3] = common_data->loopnors;
1024         short (*clnors_data)[2] = common_data->clnors_data;
1025
1026         const MVert *mverts = common_data->mverts;
1027         const MEdge *medges = common_data->medges;
1028         const MLoop *mloops = common_data->mloops;
1029         const MPoly *mpolys = common_data->mpolys;
1030         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
1031         const int *loop_to_poly = common_data->loop_to_poly;
1032         const float (*polynors)[3] = common_data->polynors;
1033
1034         MLoopNorSpace *lnor_space = data->lnor_space;
1035         const MLoop *ml_curr = data->ml_curr;
1036         const MLoop *ml_prev = data->ml_prev;
1037         const int ml_curr_index = data->ml_curr_index;
1038         const int ml_prev_index = data->ml_prev_index;
1039         const int mp_index = data->mp_index;
1040         const int *e2l_prev = data->e2l_prev;
1041
1042         BLI_Stack *edge_vectors = data->edge_vectors;
1043
1044         /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
1045          * and accumulate face normals into the vertex!
1046          * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
1047          * the vertex normal, but I do not see any easy way to detect that (would need to count number
1048          * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
1049          * it should not be a common case in real-life meshes anyway).
1050          */
1051         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
1052         const MVert *mv_pivot = &mverts[mv_pivot_index];
1053         const MEdge *me_org = &medges[ml_curr->e];  /* ml_curr would be mlfan_prev if we needed that one */
1054         const int *e2lfan_curr;
1055         float vec_curr[3], vec_prev[3], vec_org[3];
1056         const MLoop *mlfan_curr;
1057         float lnor[3] = {0.0f, 0.0f, 0.0f};
1058         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1059         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1060
1061         /* We validate clnors data on the fly - cheapest way to do! */
1062         int clnors_avg[2] = {0, 0};
1063         short (*clnor_ref)[2] = NULL;
1064         int clnors_nbr = 0;
1065         bool clnors_invalid = false;
1066
1067         /* Temp loop normal stack. */
1068         BLI_SMALLSTACK_DECLARE(normal, float *);
1069         /* Temp clnors stack. */
1070         BLI_SMALLSTACK_DECLARE(clnors, short *);
1071
1072         e2lfan_curr = e2l_prev;
1073         mlfan_curr = ml_prev;
1074         mlfan_curr_index = ml_prev_index;
1075         mlfan_vert_index = ml_curr_index;
1076         mpfan_curr_index = mp_index;
1077
1078         BLI_assert(mlfan_curr_index >= 0);
1079         BLI_assert(mlfan_vert_index >= 0);
1080         BLI_assert(mpfan_curr_index >= 0);
1081
1082         /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
1083         {
1084                 const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
1085
1086                 sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
1087                 normalize_v3(vec_org);
1088                 copy_v3_v3(vec_prev, vec_org);
1089
1090                 if (lnors_spacearr) {
1091                         BLI_stack_push(edge_vectors, vec_org);
1092                 }
1093         }
1094
1095 //      printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e);
1096
1097         while (true) {
1098                 const MEdge *me_curr = &medges[mlfan_curr->e];
1099                 /* Compute edge vectors.
1100                  * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
1101                  *       twice (or more) here. However, time gained is not worth memory and time lost,
1102                  *       given the fact that this code should not be called that much in real-life meshes...
1103                  */
1104                 {
1105                         const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
1106
1107                         sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1108                         normalize_v3(vec_curr);
1109                 }
1110
1111 //              printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index);
1112
1113                 {
1114                         /* Code similar to accumulate_vertex_normals_poly_v3. */
1115                         /* Calculate angle between the two poly edges incident on this vertex. */
1116                         const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
1117                         /* Accumulate */
1118                         madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
1119
1120                         if (clnors_data) {
1121                                 /* Accumulate all clnors, if they are not all equal we have to fix that! */
1122                                 short (*clnor)[2] = &clnors_data[mlfan_vert_index];
1123                                 if (clnors_nbr) {
1124                                         clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
1125                                 }
1126                                 else {
1127                                         clnor_ref = clnor;
1128                                 }
1129                                 clnors_avg[0] += (*clnor)[0];
1130                                 clnors_avg[1] += (*clnor)[1];
1131                                 clnors_nbr++;
1132                                 /* We store here a pointer to all custom lnors processed. */
1133                                 BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
1134                         }
1135                 }
1136
1137                 /* We store here a pointer to all loop-normals processed. */
1138                 BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
1139
1140                 if (lnors_spacearr) {
1141                         /* Assign current lnor space to current 'vertex' loop. */
1142                         BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, NULL, false);
1143                         if (me_curr != me_org) {
1144                                 /* We store here all edges-normalized vectors processed. */
1145                                 BLI_stack_push(edge_vectors, vec_curr);
1146                         }
1147                 }
1148
1149                 if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
1150                         /* Current edge is sharp and we have finished with this fan of faces around this vert,
1151                          * or this vert is smooth, and we have completed a full turn around it.
1152                          */
1153 //                      printf("FAN: Finished!\n");
1154                         break;
1155                 }
1156
1157                 copy_v3_v3(vec_prev, vec_curr);
1158
1159                 /* Find next loop of the smooth fan. */
1160                 BKE_mesh_loop_manifold_fan_around_vert_next(
1161                         mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
1162                         &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
1163
1164                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
1165         }
1166
1167         {
1168                 float lnor_len = normalize_v3(lnor);
1169
1170                 /* If we are generating lnor spacearr, we can now define the one for this fan,
1171                  * and optionally compute final lnor from custom data too!
1172                  */
1173                 if (lnors_spacearr) {
1174                         if (UNLIKELY(lnor_len == 0.0f)) {
1175                                 /* Use vertex normal as fallback! */
1176                                 copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
1177                                 lnor_len = 1.0f;
1178                         }
1179
1180                         BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
1181
1182                         if (clnors_data) {
1183                                 if (clnors_invalid) {
1184                                         short *clnor;
1185
1186                                         clnors_avg[0] /= clnors_nbr;
1187                                         clnors_avg[1] /= clnors_nbr;
1188                                         /* Fix/update all clnors of this fan with computed average value. */
1189                                         if (G.debug & G_DEBUG) {
1190                                                 printf("Invalid clnors in this fan!\n");
1191                                         }
1192                                         while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
1193                                                 //print_v2("org clnor", clnor);
1194                                                 clnor[0] = (short)clnors_avg[0];
1195                                                 clnor[1] = (short)clnors_avg[1];
1196                                         }
1197                                         //print_v2("new clnors", clnors_avg);
1198                                 }
1199                                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1200
1201                                 BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
1202                         }
1203                 }
1204
1205                 /* In case we get a zero normal here, just use vertex normal already set! */
1206                 if (LIKELY(lnor_len != 0.0f)) {
1207                         /* Copy back the final computed normal into all related loop-normals. */
1208                         float *nor;
1209
1210                         while ((nor = BLI_SMALLSTACK_POP(normal))) {
1211                                 copy_v3_v3(nor, lnor);
1212                         }
1213                 }
1214                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1215         }
1216 }
1217
1218 static void loop_split_worker_do(
1219         LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data, BLI_Stack *edge_vectors)
1220 {
1221         BLI_assert(data->ml_curr);
1222         if (data->e2l_prev) {
1223                 BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
1224                 data->edge_vectors = edge_vectors;
1225                 split_loop_nor_fan_do(common_data, data);
1226         }
1227         else {
1228                 /* No need for edge_vectors for 'single' case! */
1229                 split_loop_nor_single_do(common_data, data);
1230         }
1231 }
1232
1233 static void loop_split_worker(TaskPool * __restrict pool, void *taskdata, int UNUSED(threadid))
1234 {
1235         LoopSplitTaskDataCommon *common_data = BLI_task_pool_userdata(pool);
1236         LoopSplitTaskData *data = taskdata;
1237
1238         /* Temp edge vectors stack, only used when computing lnor spacearr. */
1239         BLI_Stack *edge_vectors = common_data->lnors_spacearr ? BLI_stack_new(sizeof(float[3]), __func__) : NULL;
1240
1241 #ifdef DEBUG_TIME
1242         TIMEIT_START_AVERAGED(loop_split_worker);
1243 #endif
1244
1245         for (int i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
1246                 /* A NULL ml_curr is used to tag ended data! */
1247                 if (data->ml_curr == NULL) {
1248                         break;
1249                 }
1250
1251                 loop_split_worker_do(common_data, data, edge_vectors);
1252         }
1253
1254         if (edge_vectors) {
1255                 BLI_stack_free(edge_vectors);
1256         }
1257
1258 #ifdef DEBUG_TIME
1259         TIMEIT_END_AVERAGED(loop_split_worker);
1260 #endif
1261 }
1262
1263 /* Check whether gievn loop is part of an unknown-so-far cyclic smooth fan, or not.
1264  * Needed because cyclic smooth fans have no obvious 'entry point', and yet we need to walk them once, and only once. */
1265 static bool loop_split_generator_check_cyclic_smooth_fan(
1266         const MLoop *mloops, const MPoly *mpolys,
1267         const int (*edge_to_loops)[2], const int *loop_to_poly, const int *e2l_prev, BLI_bitmap *skip_loops,
1268         const MLoop *ml_curr, const MLoop *ml_prev, const int ml_curr_index, const int ml_prev_index,
1269         const int mp_curr_index)
1270 {
1271         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
1272         const int *e2lfan_curr;
1273         const MLoop *mlfan_curr;
1274         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1275         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1276
1277         e2lfan_curr = e2l_prev;
1278         if (IS_EDGE_SHARP(e2lfan_curr)) {
1279                 /* Sharp loop, so not a cyclic smooth fan... */
1280                 return false;
1281         }
1282
1283         mlfan_curr = ml_prev;
1284         mlfan_curr_index = ml_prev_index;
1285         mlfan_vert_index = ml_curr_index;
1286         mpfan_curr_index = mp_curr_index;
1287
1288         BLI_assert(mlfan_curr_index >= 0);
1289         BLI_assert(mlfan_vert_index >= 0);
1290         BLI_assert(mpfan_curr_index >= 0);
1291
1292         BLI_assert(!BLI_BITMAP_TEST(skip_loops, mlfan_vert_index));
1293         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1294
1295         while (true) {
1296                 /* Find next loop of the smooth fan. */
1297                 BKE_mesh_loop_manifold_fan_around_vert_next(
1298                         mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
1299                         &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
1300
1301                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
1302
1303                 if (IS_EDGE_SHARP(e2lfan_curr)) {
1304                         /* Sharp loop/edge, so not a cyclic smooth fan... */
1305                         return false;
1306                 }
1307                 /* Smooth loop/edge... */
1308                 else if (BLI_BITMAP_TEST(skip_loops, mlfan_vert_index)) {
1309                         if (mlfan_vert_index == ml_curr_index) {
1310                                 /* We walked around a whole cyclic smooth fan without finding any already-processed loop, means we can
1311                                  * use initial ml_curr/ml_prev edge as start for this smooth fan. */
1312                                 return true;
1313                         }
1314                         /* ... already checked in some previous looping, we can abort. */
1315                         return false;
1316                 }
1317                 else {
1318                         /* ... we can skip it in future, and keep checking the smooth fan. */
1319                         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1320                 }
1321         }
1322 }
1323
1324 static void loop_split_generator(TaskPool *pool, LoopSplitTaskDataCommon *common_data)
1325 {
1326         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1327         float (*loopnors)[3] = common_data->loopnors;
1328
1329         const MLoop *mloops = common_data->mloops;
1330         const MPoly *mpolys = common_data->mpolys;
1331         const int *loop_to_poly = common_data->loop_to_poly;
1332         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
1333         const int numLoops = common_data->numLoops;
1334         const int numPolys = common_data->numPolys;
1335
1336         const MPoly *mp;
1337         int mp_index;
1338
1339         const MLoop *ml_curr;
1340         const MLoop *ml_prev;
1341         int ml_curr_index;
1342         int ml_prev_index;
1343
1344         BLI_bitmap *skip_loops = BLI_BITMAP_NEW(numLoops, __func__);
1345
1346         LoopSplitTaskData *data_buff = NULL;
1347         int data_idx = 0;
1348
1349         /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
1350         BLI_Stack *edge_vectors = NULL;
1351
1352 #ifdef DEBUG_TIME
1353         TIMEIT_START_AVERAGED(loop_split_generator);
1354 #endif
1355
1356         if (!pool) {
1357                 if (lnors_spacearr) {
1358                         edge_vectors = BLI_stack_new(sizeof(float[3]), __func__);
1359                 }
1360         }
1361
1362         /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
1363          * Now, time to generate the normals.
1364          */
1365         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1366                 float (*lnors)[3];
1367                 const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1368                 ml_curr_index = mp->loopstart;
1369                 ml_prev_index = ml_last_index;
1370
1371                 ml_curr = &mloops[ml_curr_index];
1372                 ml_prev = &mloops[ml_prev_index];
1373                 lnors = &loopnors[ml_curr_index];
1374
1375                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1376                         const int *e2l_curr = edge_to_loops[ml_curr->e];
1377                         const int *e2l_prev = edge_to_loops[ml_prev->e];
1378
1379 //                      printf("Checking loop %d / edge %u / vert %u (sharp edge: %d, skiploop: %d)...",
1380 //                             ml_curr_index, ml_curr->e, ml_curr->v, IS_EDGE_SHARP(e2l_curr), BLI_BITMAP_TEST_BOOL(skip_loops, ml_curr_index));
1381
1382                         /* A smooth edge, we have to check for cyclic smooth fan case.
1383                          * If we find a new, never-processed cyclic smooth fan, we can do it now using that loop/edge as
1384                          * 'entry point', otherwise we can skip it. */
1385                         /* Note: In theory, we could make loop_split_generator_check_cyclic_smooth_fan() store
1386                          * mlfan_vert_index'es and edge indexes in two stacks, to avoid having to fan again around the vert during
1387                          * actual computation of clnor & clnorspace. However, this would complicate the code, add more memory usage,
1388                          * and despite its logical complexity, loop_manifold_fan_around_vert_next() is quite cheap in term of
1389                          * CPU cycles, so really think it's not worth it. */
1390                         if (!IS_EDGE_SHARP(e2l_curr) &&
1391                             (BLI_BITMAP_TEST(skip_loops, ml_curr_index) ||
1392                              !loop_split_generator_check_cyclic_smooth_fan(
1393                                       mloops, mpolys, edge_to_loops, loop_to_poly, e2l_prev, skip_loops,
1394                                       ml_curr, ml_prev, ml_curr_index, ml_prev_index, mp_index)))
1395                         {
1396 //                              printf("SKIPPING!\n");
1397                         }
1398                         else {
1399                                 LoopSplitTaskData *data, data_local;
1400
1401 //                              printf("PROCESSING!\n");
1402
1403                                 if (pool) {
1404                                         if (data_idx == 0) {
1405                                                 data_buff = MEM_calloc_arrayN(LOOP_SPLIT_TASK_BLOCK_SIZE, sizeof(*data_buff), __func__);
1406                                         }
1407                                         data = &data_buff[data_idx];
1408                                 }
1409                                 else {
1410                                         data = &data_local;
1411                                         memset(data, 0, sizeof(*data));
1412                                 }
1413
1414                                 if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1415                                         data->lnor = lnors;
1416                                         data->ml_curr = ml_curr;
1417                                         data->ml_prev = ml_prev;
1418                                         data->ml_curr_index = ml_curr_index;
1419                                         data->mp_index = mp_index;
1420                                         if (lnors_spacearr) {
1421                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1422                                         }
1423                                 }
1424                                 /* We *do not need* to check/tag loops as already computed!
1425                                  * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1426                                  * more than once!*
1427                                  * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1428                                  * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1429                                  * and not the alternative (smooth curr_edge, sharp prev_edge).
1430                                  * All this due/thanks to link between normals and loop ordering (i.e. winding).
1431                                  */
1432                                 else {
1433                                         data->ml_curr = ml_curr;
1434                                         data->ml_prev = ml_prev;
1435                                         data->ml_curr_index = ml_curr_index;
1436                                         data->ml_prev_index = ml_prev_index;
1437                                         data->e2l_prev = e2l_prev;  /* Also tag as 'fan' task. */
1438                                         data->mp_index = mp_index;
1439                                         if (lnors_spacearr) {
1440                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1441                                         }
1442                                 }
1443
1444                                 if (pool) {
1445                                         data_idx++;
1446                                         if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1447                                                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1448                                                 data_idx = 0;
1449                                         }
1450                                 }
1451                                 else {
1452                                         loop_split_worker_do(common_data, data, edge_vectors);
1453                                 }
1454                         }
1455
1456                         ml_prev = ml_curr;
1457                         ml_prev_index = ml_curr_index;
1458                 }
1459         }
1460
1461         /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1462         if (pool && data_idx) {
1463                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1464         }
1465
1466         if (edge_vectors) {
1467                 BLI_stack_free(edge_vectors);
1468         }
1469         MEM_freeN(skip_loops);
1470
1471 #ifdef DEBUG_TIME
1472         TIMEIT_END_AVERAGED(loop_split_generator);
1473 #endif
1474 }
1475
1476 /**
1477  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1478  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1479  */
1480 void BKE_mesh_normals_loop_split(
1481         const MVert *mverts, const int UNUSED(numVerts), MEdge *medges, const int numEdges,
1482         MLoop *mloops, float (*r_loopnors)[3], const int numLoops,
1483         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1484         const bool use_split_normals, const float split_angle,
1485         MLoopNorSpaceArray *r_lnors_spacearr, short (*clnors_data)[2], int *r_loop_to_poly)
1486 {
1487         /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1488         BLI_assert(use_split_normals || !(r_lnors_spacearr));
1489
1490         if (!use_split_normals) {
1491                 /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1492                  * Note this is done here to keep some logic and consistency in this quite complex code,
1493                  * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1494                  * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1495                  */
1496                 int mp_index;
1497
1498                 for (mp_index = 0; mp_index < numPolys; mp_index++) {
1499                         MPoly *mp = &mpolys[mp_index];
1500                         int ml_index = mp->loopstart;
1501                         const int ml_index_end = ml_index + mp->totloop;
1502                         const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1503
1504                         for (; ml_index < ml_index_end; ml_index++) {
1505                                 if (r_loop_to_poly) {
1506                                         r_loop_to_poly[ml_index] = mp_index;
1507                                 }
1508                                 if (is_poly_flat) {
1509                                         copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1510                                 }
1511                                 else {
1512                                         normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1513                                 }
1514                         }
1515                 }
1516                 return;
1517         }
1518
1519         /* Mapping edge -> loops.
1520          * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1521          * We also use the second loop index as a kind of flag: smooth edge: > 0,
1522          *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1523          *                                                      unset: INDEX_UNSET
1524          * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1525          * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1526          * Note also that lose edges always have both values set to 0!
1527          */
1528         int (*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
1529
1530         /* Simple mapping from a loop to its polygon index. */
1531         int *loop_to_poly = r_loop_to_poly ? r_loop_to_poly : MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
1532
1533         /* When using custom loop normals, disable the angle feature! */
1534         const bool check_angle = (split_angle < (float)M_PI) && (clnors_data == NULL);
1535
1536         MLoopNorSpaceArray _lnors_spacearr = {NULL};
1537
1538 #ifdef DEBUG_TIME
1539         TIMEIT_START_AVERAGED(BKE_mesh_normals_loop_split);
1540 #endif
1541
1542         if (!r_lnors_spacearr && clnors_data) {
1543                 /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1544                 r_lnors_spacearr = &_lnors_spacearr;
1545         }
1546         if (r_lnors_spacearr) {
1547                 BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops, MLNOR_SPACEARR_LOOP_INDEX);
1548         }
1549
1550         /* Init data common to all tasks. */
1551         LoopSplitTaskDataCommon common_data = {
1552             .lnors_spacearr = r_lnors_spacearr,
1553             .loopnors = r_loopnors,
1554             .clnors_data = clnors_data,
1555             .mverts = mverts,
1556             .medges = medges,
1557             .mloops = mloops,
1558             .mpolys = mpolys,
1559             .edge_to_loops = edge_to_loops,
1560             .loop_to_poly = loop_to_poly,
1561             .polynors = polynors,
1562             .numEdges = numEdges,
1563             .numLoops = numLoops,
1564             .numPolys = numPolys,
1565         };
1566
1567         /* This first loop check which edges are actually smooth, and compute edge vectors. */
1568         mesh_edges_sharp_tag(&common_data, check_angle, split_angle, false);
1569
1570         if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1571                 /* Not enough loops to be worth the whole threading overhead... */
1572                 loop_split_generator(NULL, &common_data);
1573         }
1574         else {
1575                 TaskScheduler *task_scheduler;
1576                 TaskPool *task_pool;
1577
1578                 task_scheduler = BLI_task_scheduler_get();
1579                 task_pool = BLI_task_pool_create(task_scheduler, &common_data);
1580
1581                 loop_split_generator(task_pool, &common_data);
1582
1583                 BLI_task_pool_work_and_wait(task_pool);
1584
1585                 BLI_task_pool_free(task_pool);
1586         }
1587
1588         MEM_freeN(edge_to_loops);
1589         if (!r_loop_to_poly) {
1590                 MEM_freeN(loop_to_poly);
1591         }
1592
1593         if (r_lnors_spacearr) {
1594                 if (r_lnors_spacearr == &_lnors_spacearr) {
1595                         BKE_lnor_spacearr_free(r_lnors_spacearr);
1596                 }
1597         }
1598
1599 #ifdef DEBUG_TIME
1600         TIMEIT_END_AVERAGED(BKE_mesh_normals_loop_split);
1601 #endif
1602 }
1603
1604 #undef INDEX_UNSET
1605 #undef INDEX_INVALID
1606 #undef IS_EDGE_SHARP
1607
1608 /**
1609  * Compute internal representation of given custom normals (as an array of float[2]).
1610  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1611  * same custom lnor for all loops sharing a same smooth fan.
1612  * If use_vertices if true, r_custom_loopnors is assumed to be per-vertex, not per-loop
1613  * (this allows to set whole vert's normals at once, useful in some cases).
1614  * r_custom_loopnors is expected to have normalized normals, or zero ones, in which case they will be replaced
1615  * by default loop/vertex normal.
1616  */
1617 static void mesh_normals_loop_custom_set(
1618         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1619         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1620         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1621         short (*r_clnors_data)[2], const bool use_vertices)
1622 {
1623         /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1624          * feature too, would probably be more efficient in absolute.
1625          * However, this function *is not* performance-critical, since it is mostly expected to be called
1626          * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1627          * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1628          */
1629         MLoopNorSpaceArray lnors_spacearr = {NULL};
1630         BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1631         float (*lnors)[3] = MEM_calloc_arrayN((size_t)numLoops, sizeof(*lnors), __func__);
1632         int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(int), __func__);
1633         /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1634         const bool use_split_normals = true;
1635         const float split_angle = (float)M_PI;
1636         int i;
1637
1638         BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1639
1640         /* Compute current lnor spacearr. */
1641         BKE_mesh_normals_loop_split(
1642                 mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1643                 mpolys, polynors, numPolys, use_split_normals, split_angle,
1644                 &lnors_spacearr, NULL, loop_to_poly);
1645
1646         /* Set all given zero vectors to their default value. */
1647         if (use_vertices) {
1648                 for (i = 0; i < numVerts; i++) {
1649                         if (is_zero_v3(r_custom_loopnors[i])) {
1650                                 normal_short_to_float_v3(r_custom_loopnors[i], mverts[i].no);
1651                         }
1652                 }
1653         }
1654         else {
1655                 for (i = 0; i < numLoops; i++) {
1656                         if (is_zero_v3(r_custom_loopnors[i])) {
1657                                 copy_v3_v3(r_custom_loopnors[i], lnors[i]);
1658                         }
1659                 }
1660         }
1661
1662         BLI_assert(lnors_spacearr.data_type == MLNOR_SPACEARR_LOOP_INDEX);
1663
1664         /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1665          * are not (enough) equal, add sharp edges as needed.
1666          * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1667          * given custom lnors.
1668          * Note this code *will never* unsharp edges!
1669          * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1670          */
1671         if (!use_vertices) {
1672                 for (i = 0; i < numLoops; i++) {
1673                         if (!lnors_spacearr.lspacearr[i]) {
1674                                 /* This should not happen in theory, but in some rare case (probably ugly geometry)
1675                                  * we can get some NULL loopspacearr at this point. :/
1676                                  * Maybe we should set those loops' edges as sharp?
1677                                  */
1678                                 BLI_BITMAP_ENABLE(done_loops, i);
1679                                 if (G.debug & G_DEBUG) {
1680                                         printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1681                                 }
1682                                 continue;
1683                         }
1684
1685                         if (!BLI_BITMAP_TEST(done_loops, i)) {
1686                                 /* Notes:
1687                                  *     * In case of mono-loop smooth fan, we have nothing to do.
1688                                  *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1689                                  *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1690                                  *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1691                                  *       lnor space.
1692                                  *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1693                                  *       up into a real big one in the end!
1694                                  */
1695                                 if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1696                                         BLI_BITMAP_ENABLE(done_loops, i);
1697                                         continue;
1698                                 }
1699
1700                                 LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1701                                 MLoop *prev_ml = NULL;
1702                                 const float *org_nor = NULL;
1703
1704                                 while (loops) {
1705                                         const int lidx = POINTER_AS_INT(loops->link);
1706                                         MLoop *ml = &mloops[lidx];
1707                                         const int nidx = lidx;
1708                                         float *nor = r_custom_loopnors[nidx];
1709
1710                                         if (!org_nor) {
1711                                                 org_nor = nor;
1712                                         }
1713                                         else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1714                                                 /* Current normal differs too much from org one, we have to tag the edge between
1715                                                  * previous loop's face and current's one as sharp.
1716                                                  * We know those two loops do not point to the same edge, since we do not allow reversed winding
1717                                                  * in a same smooth fan.
1718                                                  */
1719                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1720                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1721                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1722
1723                                                 org_nor = nor;
1724                                         }
1725
1726                                         prev_ml = ml;
1727                                         loops = loops->next;
1728                                         BLI_BITMAP_ENABLE(done_loops, lidx);
1729                                 }
1730
1731                                 /* We also have to check between last and first loops, otherwise we may miss some sharp edges here!
1732                                  * This is just a simplified version of above while loop.
1733                                  * See T45984. */
1734                                 loops = lnors_spacearr.lspacearr[i]->loops;
1735                                 if (loops && org_nor) {
1736                                         const int lidx = POINTER_AS_INT(loops->link);
1737                                         MLoop *ml = &mloops[lidx];
1738                                         const int nidx = lidx;
1739                                         float *nor = r_custom_loopnors[nidx];
1740
1741                                         if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1742                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1743                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1744                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1745                                         }
1746                                 }
1747                         }
1748                 }
1749
1750                 /* And now, recompute our new auto lnors and lnor spacearr! */
1751                 BKE_lnor_spacearr_clear(&lnors_spacearr);
1752                 BKE_mesh_normals_loop_split(
1753                         mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1754                         mpolys, polynors, numPolys, use_split_normals, split_angle,
1755                         &lnors_spacearr, NULL, loop_to_poly);
1756         }
1757         else {
1758                 BLI_BITMAP_SET_ALL(done_loops, true, (size_t)numLoops);
1759         }
1760
1761         /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1762         for (i = 0; i < numLoops; i++) {
1763                 if (!lnors_spacearr.lspacearr[i]) {
1764                         BLI_BITMAP_DISABLE(done_loops, i);
1765                         if (G.debug & G_DEBUG) {
1766                                 printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1767                         }
1768                         continue;
1769                 }
1770
1771                 if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1772                         /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1773                          * clnors data (tiny differences in plain custom normals can give rather huge differences in
1774                          * computed 2D factors).
1775                          */
1776                         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1777                         if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1778                                 BLI_assert(POINTER_AS_INT(loops) == i);
1779                                 const int nidx = use_vertices ? (int)mloops[i].v : i;
1780                                 float *nor = r_custom_loopnors[nidx];
1781
1782                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1783                                 BLI_BITMAP_DISABLE(done_loops, i);
1784                         }
1785                         else {
1786                                 int nbr_nors = 0;
1787                                 float avg_nor[3];
1788                                 short clnor_data_tmp[2], *clnor_data;
1789
1790                                 zero_v3(avg_nor);
1791                                 while (loops) {
1792                                         const int lidx = POINTER_AS_INT(loops->link);
1793                                         const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1794                                         float *nor = r_custom_loopnors[nidx];
1795
1796                                         nbr_nors++;
1797                                         add_v3_v3(avg_nor, nor);
1798                                         BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1799
1800                                         loops = loops->next;
1801                                         BLI_BITMAP_DISABLE(done_loops, lidx);
1802                                 }
1803
1804                                 mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1805                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1806
1807                                 while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1808                                         clnor_data[0] = clnor_data_tmp[0];
1809                                         clnor_data[1] = clnor_data_tmp[1];
1810                                 }
1811                         }
1812                 }
1813         }
1814
1815         MEM_freeN(lnors);
1816         MEM_freeN(loop_to_poly);
1817         MEM_freeN(done_loops);
1818         BKE_lnor_spacearr_free(&lnors_spacearr);
1819 }
1820
1821 void BKE_mesh_normals_loop_custom_set(
1822         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1823         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1824         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1825         short (*r_clnors_data)[2])
1826 {
1827         mesh_normals_loop_custom_set(
1828                 mverts, numVerts, medges, numEdges, mloops, r_custom_loopnors, numLoops,
1829                 mpolys, polynors, numPolys, r_clnors_data, false);
1830 }
1831
1832 void BKE_mesh_normals_loop_custom_from_vertices_set(
1833         const MVert *mverts, float (*r_custom_vertnors)[3], const int numVerts,
1834         MEdge *medges, const int numEdges, MLoop *mloops, const int numLoops,
1835         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1836         short (*r_clnors_data)[2])
1837 {
1838         mesh_normals_loop_custom_set(
1839                 mverts, numVerts, medges, numEdges, mloops, r_custom_vertnors, numLoops,
1840                 mpolys, polynors, numPolys, r_clnors_data, true);
1841 }
1842
1843 /**
1844  * Computes average per-vertex normals from given custom loop normals.
1845  *
1846  * \param clnors: The computed custom loop normals.
1847  * \param r_vert_clnors: The (already allocated) array where to store averaged per-vertex normals.
1848  */
1849 void BKE_mesh_normals_loop_to_vertex(
1850         const int numVerts, const MLoop *mloops, const int numLoops,
1851         const float (*clnors)[3], float (*r_vert_clnors)[3])
1852 {
1853         const MLoop *ml;
1854         int i;
1855
1856         int *vert_loops_nbr = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vert_loops_nbr), __func__);
1857
1858         copy_vn_fl((float *)r_vert_clnors, 3 * numVerts, 0.0f);
1859
1860         for (i = 0, ml = mloops; i < numLoops; i++, ml++) {
1861                 const unsigned int v = ml->v;
1862
1863                 add_v3_v3(r_vert_clnors[v], clnors[i]);
1864                 vert_loops_nbr[v]++;
1865         }
1866
1867         for (i = 0; i < numVerts; i++) {
1868                 mul_v3_fl(r_vert_clnors[i], 1.0f / (float)vert_loops_nbr[i]);
1869         }
1870
1871         MEM_freeN(vert_loops_nbr);
1872 }
1873
1874
1875 #undef LNOR_SPACE_TRIGO_THRESHOLD
1876
1877 /** \} */
1878
1879
1880 /* -------------------------------------------------------------------- */
1881
1882 /** \name Polygon Calculations
1883  * \{ */
1884
1885 /*
1886  * COMPUTE POLY NORMAL
1887  *
1888  * Computes the normal of a planar
1889  * polygon See Graphics Gems for
1890  * computing newell normal.
1891  *
1892  */
1893 static void mesh_calc_ngon_normal(
1894         const MPoly *mpoly, const MLoop *loopstart,
1895         const MVert *mvert, float normal[3])
1896 {
1897         const int nverts = mpoly->totloop;
1898         const float *v_prev = mvert[loopstart[nverts - 1].v].co;
1899         const float *v_curr;
1900         int i;
1901
1902         zero_v3(normal);
1903
1904         /* Newell's Method */
1905         for (i = 0; i < nverts; i++) {
1906                 v_curr = mvert[loopstart[i].v].co;
1907                 add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
1908                 v_prev = v_curr;
1909         }
1910
1911         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
1912                 normal[2] = 1.0f; /* other axis set to 0.0 */
1913         }
1914 }
1915
1916 void BKE_mesh_calc_poly_normal(
1917         const MPoly *mpoly, const MLoop *loopstart,
1918         const MVert *mvarray, float r_no[3])
1919 {
1920         if (mpoly->totloop > 4) {
1921                 mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
1922         }
1923         else if (mpoly->totloop == 3) {
1924                 normal_tri_v3(
1925                         r_no,
1926                         mvarray[loopstart[0].v].co,
1927                         mvarray[loopstart[1].v].co,
1928                         mvarray[loopstart[2].v].co);
1929         }
1930         else if (mpoly->totloop == 4) {
1931                 normal_quad_v3(
1932                         r_no,
1933                         mvarray[loopstart[0].v].co,
1934                         mvarray[loopstart[1].v].co,
1935                         mvarray[loopstart[2].v].co,
1936                         mvarray[loopstart[3].v].co);
1937         }
1938         else { /* horrible, two sided face! */
1939                 r_no[0] = 0.0;
1940                 r_no[1] = 0.0;
1941                 r_no[2] = 1.0;
1942         }
1943 }
1944 /* duplicate of function above _but_ takes coords rather then mverts */
1945 static void mesh_calc_ngon_normal_coords(
1946         const MPoly *mpoly, const MLoop *loopstart,
1947         const float (*vertex_coords)[3], float r_normal[3])
1948 {
1949         const int nverts = mpoly->totloop;
1950         const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
1951         const float *v_curr;
1952         int i;
1953
1954         zero_v3(r_normal);
1955
1956         /* Newell's Method */
1957         for (i = 0; i < nverts; i++) {
1958                 v_curr = vertex_coords[loopstart[i].v];
1959                 add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
1960                 v_prev = v_curr;
1961         }
1962
1963         if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
1964                 r_normal[2] = 1.0f; /* other axis set to 0.0 */
1965         }
1966 }
1967
1968 void BKE_mesh_calc_poly_normal_coords(
1969         const MPoly *mpoly, const MLoop *loopstart,
1970         const float (*vertex_coords)[3], float r_no[3])
1971 {
1972         if (mpoly->totloop > 4) {
1973                 mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
1974         }
1975         else if (mpoly->totloop == 3) {
1976                 normal_tri_v3(
1977                         r_no,
1978                         vertex_coords[loopstart[0].v],
1979                         vertex_coords[loopstart[1].v],
1980                         vertex_coords[loopstart[2].v]);
1981         }
1982         else if (mpoly->totloop == 4) {
1983                 normal_quad_v3(
1984                         r_no,
1985                         vertex_coords[loopstart[0].v],
1986                         vertex_coords[loopstart[1].v],
1987                         vertex_coords[loopstart[2].v],
1988                         vertex_coords[loopstart[3].v]);
1989         }
1990         else { /* horrible, two sided face! */
1991                 r_no[0] = 0.0;
1992                 r_no[1] = 0.0;
1993                 r_no[2] = 1.0;
1994         }
1995 }
1996
1997 static void mesh_calc_ngon_center(
1998         const MPoly *mpoly, const MLoop *loopstart,
1999         const MVert *mvert, float cent[3])
2000 {
2001         const float w = 1.0f / (float)mpoly->totloop;
2002         int i;
2003
2004         zero_v3(cent);
2005
2006         for (i = 0; i < mpoly->totloop; i++) {
2007                 madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
2008         }
2009 }
2010
2011 void BKE_mesh_calc_poly_center(
2012         const MPoly *mpoly, const MLoop *loopstart,
2013         const MVert *mvarray, float r_cent[3])
2014 {
2015         if (mpoly->totloop == 3) {
2016                 mid_v3_v3v3v3(
2017                         r_cent,
2018                         mvarray[loopstart[0].v].co,
2019                         mvarray[loopstart[1].v].co,
2020                         mvarray[loopstart[2].v].co);
2021         }
2022         else if (mpoly->totloop == 4) {
2023                 mid_v3_v3v3v3v3(
2024                         r_cent,
2025                         mvarray[loopstart[0].v].co,
2026                         mvarray[loopstart[1].v].co,
2027                         mvarray[loopstart[2].v].co,
2028                         mvarray[loopstart[3].v].co);
2029         }
2030         else {
2031                 mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
2032         }
2033 }
2034
2035 /* note, passing polynormal is only a speedup so we can skip calculating it */
2036 float BKE_mesh_calc_poly_area(
2037         const MPoly *mpoly, const MLoop *loopstart,
2038         const MVert *mvarray)
2039 {
2040         if (mpoly->totloop == 3) {
2041                 return area_tri_v3(
2042                         mvarray[loopstart[0].v].co,
2043                         mvarray[loopstart[1].v].co,
2044                         mvarray[loopstart[2].v].co);
2045         }
2046         else {
2047                 int i;
2048                 const MLoop *l_iter = loopstart;
2049                 float area;
2050                 float (*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
2051
2052                 /* pack vertex cos into an array for area_poly_v3 */
2053                 for (i = 0; i < mpoly->totloop; i++, l_iter++) {
2054                         copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
2055                 }
2056
2057                 /* finally calculate the area */
2058                 area = area_poly_v3((const float (*)[3])vertexcos, (unsigned int)mpoly->totloop);
2059
2060                 return area;
2061         }
2062 }
2063
2064 /**
2065  * Calculate the volume and volume-weighted centroid of the volume formed by the polygon and the origin.
2066  * Results will be negative if the origin is "outside" the polygon
2067  * (+ve normal side), but the polygon may be non-planar with no effect.
2068  *
2069  * Method from:
2070  * - http://forums.cgsociety.org/archive/index.php?t-756235.html
2071  * - http://www.globalspec.com/reference/52702/203279/4-8-the-centroid-of-a-tetrahedron
2072  *
2073  * \note
2074  * - Volume is 6x actual volume, and centroid is 4x actual volume-weighted centroid
2075  *   (so division can be done once at the end).
2076  * - Results will have bias if polygon is non-planar.
2077  * - The resulting volume will only be correct if the mesh is manifold and has consistent face winding
2078  *   (non-contiguous face normals or holes in the mesh surface).
2079  */
2080 static float mesh_calc_poly_volume_centroid(
2081         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
2082         float r_cent[3])
2083 {
2084         const float *v_pivot, *v_step1;
2085         float total_volume = 0.0f;
2086
2087         zero_v3(r_cent);
2088
2089         v_pivot = mvarray[loopstart[0].v].co;
2090         v_step1 = mvarray[loopstart[1].v].co;
2091
2092         for (int i = 2; i < mpoly->totloop; i++) {
2093                 const float *v_step2 = mvarray[loopstart[i].v].co;
2094
2095                 /* Calculate the 6x volume of the tetrahedron formed by the 3 vertices
2096                  * of the triangle and the origin as the fourth vertex */
2097                 float v_cross[3];
2098                 cross_v3_v3v3(v_cross, v_pivot, v_step1);
2099                 const float tetra_volume = dot_v3v3 (v_cross, v_step2);
2100                 total_volume += tetra_volume;
2101
2102                 /* Calculate the centroid of the tetrahedron formed by the 3 vertices
2103                  * of the triangle and the origin as the fourth vertex.
2104                  * The centroid is simply the average of the 4 vertices.
2105                  *
2106                  * Note that the vector is 4x the actual centroid so the division can be done once at the end. */
2107                 for (uint j = 0; j < 3; j++) {
2108                         r_cent[j] += tetra_volume * (v_pivot[j] + v_step1[j] + v_step2[j]);
2109                 }
2110
2111                 v_step1 = v_step2;
2112         }
2113
2114         return total_volume;
2115 }
2116
2117 /**
2118  * \note
2119  * - Results won't be correct if polygon is non-planar.
2120  * - This has the advantage over #mesh_calc_poly_volume_centroid
2121  *   that it doesn't depend on solid geometry, instead it weights the surface by volume.
2122  */
2123 static float mesh_calc_poly_area_centroid(
2124         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
2125         float r_cent[3])
2126 {
2127         int i;
2128         float tri_area;
2129         float total_area = 0.0f;
2130         float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
2131
2132         BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
2133         copy_v3_v3(v1, mvarray[loopstart[0].v].co);
2134         copy_v3_v3(v2, mvarray[loopstart[1].v].co);
2135         zero_v3(r_cent);
2136
2137         for (i = 2; i < mpoly->totloop; i++) {
2138                 copy_v3_v3(v3, mvarray[loopstart[i].v].co);
2139
2140                 tri_area = area_tri_signed_v3(v1, v2, v3, normal);
2141                 total_area += tri_area;
2142
2143                 mid_v3_v3v3v3(tri_cent, v1, v2, v3);
2144                 madd_v3_v3fl(r_cent, tri_cent, tri_area);
2145
2146                 copy_v3_v3(v2, v3);
2147         }
2148
2149         mul_v3_fl(r_cent, 1.0f / total_area);
2150
2151         return total_area;
2152 }
2153
2154 void BKE_mesh_calc_poly_angles(
2155         const MPoly *mpoly, const MLoop *loopstart,
2156         const MVert *mvarray, float angles[])
2157 {
2158         float nor_prev[3];
2159         float nor_next[3];
2160
2161         int i_this = mpoly->totloop - 1;
2162         int i_next = 0;
2163
2164         sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
2165         normalize_v3(nor_prev);
2166
2167         while (i_next < mpoly->totloop) {
2168                 sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
2169                 normalize_v3(nor_next);
2170                 angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
2171
2172                 /* step */
2173                 copy_v3_v3(nor_prev, nor_next);
2174                 i_this = i_next;
2175                 i_next++;
2176         }
2177 }
2178
2179 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
2180 {
2181         const MLoop *ml, *ml_next;
2182         int i = mp->totloop;
2183
2184         ml_next = mloop;       /* first loop */
2185         ml = &ml_next[i - 1];  /* last loop */
2186
2187         while (i-- != 0) {
2188                 BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
2189
2190                 ml = ml_next;
2191                 ml_next++;
2192         }
2193 }
2194
2195 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap, const MPoly *mp, const MLoop *mloop)
2196 {
2197         const MLoop *ml;
2198         int i = mp->totloop;
2199
2200         ml = mloop;
2201
2202         while (i-- != 0) {
2203                 BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
2204                 ml++;
2205         }
2206 }
2207
2208 /** \} */
2209
2210
2211 /* -------------------------------------------------------------------- */
2212
2213 /** \name Mesh Center Calculation
2214  * \{ */
2215
2216 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
2217 {
2218         int i = me->totvert;
2219         const MVert *mvert;
2220         zero_v3(r_cent);
2221         for (mvert = me->mvert; i--; mvert++) {
2222                 add_v3_v3(r_cent, mvert->co);
2223         }
2224         /* otherwise we get NAN for 0 verts */
2225         if (me->totvert) {
2226                 mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
2227         }
2228
2229         return (me->totvert != 0);
2230 }
2231
2232 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2233 {
2234         float min[3], max[3];
2235         INIT_MINMAX(min, max);
2236         if (BKE_mesh_minmax(me, min, max)) {
2237                 mid_v3_v3v3(r_cent, min, max);
2238                 return true;
2239         }
2240
2241         return false;
2242 }
2243
2244 bool BKE_mesh_center_of_surface(const Mesh *me, float r_cent[3])
2245 {
2246         int i = me->totpoly;
2247         MPoly *mpoly;
2248         float poly_area;
2249         float total_area = 0.0f;
2250         float poly_cent[3];
2251
2252         zero_v3(r_cent);
2253
2254         /* calculate a weighted average of polygon centroids */
2255         for (mpoly = me->mpoly; i--; mpoly++) {
2256                 poly_area = mesh_calc_poly_area_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2257
2258                 madd_v3_v3fl(r_cent, poly_cent, poly_area);
2259                 total_area += poly_area;
2260         }
2261         /* otherwise we get NAN for 0 polys */
2262         if (me->totpoly) {
2263                 mul_v3_fl(r_cent, 1.0f / total_area);
2264         }
2265
2266         /* zero area faces cause this, fallback to median */
2267         if (UNLIKELY(!is_finite_v3(r_cent))) {
2268                 return BKE_mesh_center_median(me, r_cent);
2269         }
2270
2271         return (me->totpoly != 0);
2272 }
2273
2274 /**
2275  * \note Mesh must be manifold with consistent face-winding, see #mesh_calc_poly_volume_centroid for details.
2276  */
2277 bool BKE_mesh_center_of_volume(const Mesh *me, float r_cent[3])
2278 {
2279         int i = me->totpoly;
2280         MPoly *mpoly;
2281         float poly_volume;
2282         float total_volume = 0.0f;
2283         float poly_cent[3];
2284
2285         zero_v3(r_cent);
2286
2287         /* calculate a weighted average of polyhedron centroids */
2288         for (mpoly = me->mpoly; i--; mpoly++) {
2289                 poly_volume = mesh_calc_poly_volume_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2290
2291                 /* poly_cent is already volume-weighted, so no need to multiply by the volume */
2292                 add_v3_v3(r_cent, poly_cent);
2293                 total_volume += poly_volume;
2294         }
2295         /* otherwise we get NAN for 0 polys */
2296         if (total_volume != 0.0f) {
2297                 /* multiply by 0.25 to get the correct centroid */
2298                 /* no need to divide volume by 6 as the centroid is weighted by 6x the volume, so it all cancels out */
2299                 mul_v3_fl(r_cent, 0.25f / total_volume);
2300         }
2301
2302         /* this can happen for non-manifold objects, fallback to median */
2303         if (UNLIKELY(!is_finite_v3(r_cent))) {
2304                 return BKE_mesh_center_median(me, r_cent);
2305         }
2306
2307         return (me->totpoly != 0);
2308 }
2309
2310 /** \} */
2311
2312
2313 /* -------------------------------------------------------------------- */
2314
2315 /** \name Mesh Volume Calculation
2316  * \{ */
2317
2318 static bool mesh_calc_center_centroid_ex(
2319         const MVert *mverts, int UNUSED(mverts_num),
2320         const MLoopTri *looptri, int looptri_num,
2321         const MLoop *mloop, float r_center[3])
2322 {
2323         const MLoopTri *lt;
2324         float totweight;
2325         int i;
2326
2327         zero_v3(r_center);
2328
2329         if (looptri_num == 0)
2330                 return false;
2331
2332         totweight = 0.0f;
2333         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2334                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2335                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2336                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2337                 float area;
2338
2339                 area = area_tri_v3(v1->co, v2->co, v3->co);
2340                 madd_v3_v3fl(r_center, v1->co, area);
2341                 madd_v3_v3fl(r_center, v2->co, area);
2342                 madd_v3_v3fl(r_center, v3->co, area);
2343                 totweight += area;
2344         }
2345         if (totweight == 0.0f)
2346                 return false;
2347
2348         mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2349
2350         return true;
2351 }
2352
2353 /**
2354  * Calculate the volume and center.
2355  *
2356  * \param r_volume: Volume (unsigned).
2357  * \param r_center: Center of mass.
2358  */
2359 void BKE_mesh_calc_volume(
2360         const MVert *mverts, const int mverts_num,
2361         const MLoopTri *looptri, const int looptri_num,
2362         const MLoop *mloop,
2363         float *r_volume, float r_center[3])
2364 {
2365         const MLoopTri *lt;
2366         float center[3];
2367         float totvol;
2368         int i;
2369
2370         if (r_volume)
2371                 *r_volume = 0.0f;
2372         if (r_center)
2373                 zero_v3(r_center);
2374
2375         if (looptri_num == 0)
2376                 return;
2377
2378         if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center))
2379                 return;
2380
2381         totvol = 0.0f;
2382
2383         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2384                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2385                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2386                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2387                 float vol;
2388
2389                 vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2390                 if (r_volume) {
2391                         totvol += vol;
2392                 }
2393                 if (r_center) {
2394                         /* averaging factor 1/3 is applied in the end */
2395                         madd_v3_v3fl(r_center, v1->co, vol);
2396                         madd_v3_v3fl(r_center, v2->co, vol);
2397                         madd_v3_v3fl(r_center, v3->co, vol);
2398                 }
2399         }
2400
2401         /* Note: Depending on arbitrary centroid position,
2402          * totvol can become negative even for a valid mesh.
2403          * The true value is always the positive value.
2404          */
2405         if (r_volume) {
2406                 *r_volume = fabsf(totvol);
2407         }
2408         if (r_center) {
2409                 /* Note: Factor 1/3 is applied once for all vertices here.
2410                  * This also automatically negates the vector if totvol is negative.
2411                  */
2412                 if (totvol != 0.0f)
2413                         mul_v3_fl(r_center, (1.0f / 3.0f) / totvol);
2414         }
2415 }
2416
2417 /** \} */
2418
2419 /* -------------------------------------------------------------------- */
2420
2421 /** \name NGon Tessellation (NGon/Tessface Conversion)
2422  * \{ */
2423
2424 /**
2425  * Convert a triangle or quadrangle of loop/poly data to tessface data
2426  */
2427 void BKE_mesh_loops_to_mface_corners(
2428         CustomData *fdata, CustomData *ldata,
2429         CustomData *UNUSED(pdata), unsigned int lindex[4], int findex,
2430         const int UNUSED(polyindex),
2431         const int mf_len, /* 3 or 4 */
2432
2433         /* cache values to avoid lookups every time */
2434         const int numUV, /* CustomData_number_of_layers(ldata, CD_MLOOPUV) */
2435         const int numCol, /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2436         const bool hasPCol, /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2437         const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2438         const bool hasLNor /* CustomData_has_layer(ldata, CD_NORMAL) */
2439 )
2440 {
2441         MTFace *texface;
2442         MCol *mcol;
2443         MLoopCol *mloopcol;
2444         MLoopUV *mloopuv;
2445         int i, j;
2446
2447         for (i = 0; i < numUV; i++) {
2448                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2449
2450                 for (j = 0; j < mf_len; j++) {
2451                         mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2452                         copy_v2_v2(texface->uv[j], mloopuv->uv);
2453                 }
2454         }
2455
2456         for (i = 0; i < numCol; i++) {
2457                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2458
2459                 for (j = 0; j < mf_len; j++) {
2460                         mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2461                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2462                 }
2463         }
2464
2465         if (hasPCol) {
2466                 mcol = CustomData_get(fdata,  findex, CD_PREVIEW_MCOL);
2467
2468                 for (j = 0; j < mf_len; j++) {
2469                         mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2470                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2471                 }
2472         }
2473
2474         if (hasOrigSpace) {
2475                 OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2476                 OrigSpaceLoop *lof;
2477
2478                 for (j = 0; j < mf_len; j++) {
2479                         lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2480                         copy_v2_v2(of->uv[j], lof->uv);
2481                 }
2482         }
2483
2484         if (hasLNor) {
2485                 short (*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2486
2487                 for (j = 0; j < mf_len; j++) {
2488                         normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2489                 }
2490         }
2491 }
2492
2493 /**
2494  * Convert all CD layers from loop/poly to tessface data.
2495  *
2496  * \param loopindices is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2497  *
2498  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2499  */
2500 void BKE_mesh_loops_to_tessdata(
2501         CustomData *fdata, CustomData *ldata, MFace *mface,
2502         int *polyindices, unsigned int (*loopindices)[4], const int num_faces)
2503 {
2504         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2505          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2506          *       this. Better imho to live with it for now. :/ --mont29
2507          */
2508         const int numUV = CustomData_number_of_layers(ldata, CD_MLOOPUV);
2509         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2510         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2511         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2512         const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2513         const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2514         int findex, i, j;
2515         const int *pidx;
2516         unsigned int (*lidx)[4];
2517
2518         for (i = 0; i < numUV; i++) {
2519                 MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2520                 MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2521
2522                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2523                      findex < num_faces;
2524                      pidx++, lidx++, findex++, texface++)
2525                 {
2526                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2527                                 copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2528                         }
2529                 }
2530         }
2531
2532         for (i = 0; i < numCol; i++) {
2533                 MCol (*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2534                 MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2535
2536                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2537                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2538                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2539                         }
2540                 }
2541         }
2542
2543         if (hasPCol) {
2544                 MCol (*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2545                 MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2546
2547                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2548                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2549                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2550                         }
2551                 }
2552         }
2553
2554         if (hasOrigSpace) {
2555                 OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2556                 OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2557
2558                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2559                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2560                                 copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2561                         }
2562                 }
2563         }
2564
2565         if (hasLoopNormal) {
2566                 short (*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2567                 float (*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2568
2569                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2570                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2571                                 normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2572                         }
2573                 }
2574         }
2575
2576         if (hasLoopTangent) {
2577                 /* need to do for all uv maps at some point */
2578                 float (*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2579                 float (*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2580
2581                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2582                      findex < num_faces;
2583                      pidx++, lidx++, findex++)
2584                 {
2585                         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2586                         for (j = nverts; j--;) {
2587                                 copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2588                         }
2589                 }
2590         }
2591 }
2592
2593 void BKE_mesh_tangent_loops_to_tessdata(
2594         CustomData *fdata, CustomData *ldata, MFace *mface,
2595         int *polyindices, unsigned int (*loopindices)[4], const int num_faces, const char *layer_name)
2596 {
2597         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2598          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2599          *       this. Better imho to live with it for now. :/ --mont29
2600          */
2601
2602         float (*ftangents)[4] = NULL;
2603         float (*ltangents)[4] = NULL;
2604
2605         int findex, j;
2606         const int *pidx;
2607         unsigned int (*lidx)[4];
2608
2609         if (layer_name)
2610                 ltangents = CustomData_get_layer_named(ldata, CD_TANGENT, layer_name);
2611         else
2612                 ltangents = CustomData_get_layer(ldata, CD_TANGENT);
2613
2614         if (ltangents) {
2615                 /* need to do for all uv maps at some point */
2616                 if (layer_name)
2617                         ftangents = CustomData_get_layer_named(fdata, CD_TANGENT, layer_name);
2618                 else
2619                         ftangents = CustomData_get_layer(fdata, CD_TANGENT);
2620                 if (ftangents) {
2621                         for (findex = 0, pidx = polyindices, lidx = loopindices;
2622                              findex < num_faces;
2623                              pidx++, lidx++, findex++)
2624                         {
2625                                 int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2626                                 for (j = nverts; j--;) {
2627                                         copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2628                                 }
2629                         }
2630                 }
2631         }
2632 }
2633
2634 /**
2635  * Recreate tessellation.
2636  *
2637  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2638  *
2639  * \return number of tessellation faces.
2640  */
2641 int BKE_mesh_recalc_tessellation(
2642         CustomData *fdata, CustomData *ldata, CustomData *pdata,
2643         MVert *mvert,
2644         int totface, int totloop, int totpoly,
2645         const bool do_face_nor_copy)
2646 {
2647         /* use this to avoid locking pthread for _every_ polygon
2648          * and calling the fill function */
2649
2650 #define USE_TESSFACE_SPEEDUP
2651 #define USE_TESSFACE_QUADS  /* NEEDS FURTHER TESTING */
2652
2653 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2654 #define TESSFACE_IS_QUAD 1
2655
2656         const int looptri_num = poly_to_tri_count(totpoly, totloop);
2657
2658         MPoly *mp, *mpoly;
2659         MLoop *ml, *mloop;
2660         MFace *mface, *mf;
2661         MemArena *arena = NULL;
2662         int *mface_to_poly_map;
2663         unsigned int (*lindices)[4];
2664         int poly_index, mface_index;
2665         unsigned int j;
2666
2667         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2668         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2669
2670         /* allocate the length of totfaces, avoid many small reallocs,
2671          * if all faces are tri's it will be correct, quads == 2x allocs */
2672         /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2673         mface_to_poly_map = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface_to_poly_map), __func__);
2674         mface             = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface), __func__);
2675         lindices          = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*lindices), __func__);
2676
2677         mface_index = 0;
2678         mp = mpoly;
2679         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2680                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2681                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2682                 unsigned int l1, l2, l3, l4;
2683                 unsigned int *lidx;
2684                 if (mp_totloop < 3) {
2685                         /* do nothing */
2686                 }
2687
2688 #ifdef USE_TESSFACE_SPEEDUP
2689
2690 #define ML_TO_MF(i1, i2, i3)                                                  \
2691                 mface_to_poly_map[mface_index] = poly_index;                          \
2692                 mf = &mface[mface_index];                                             \
2693                 lidx = lindices[mface_index];                                         \
2694                 /* set loop indices, transformed to vert indices later */             \
2695                 l1 = mp_loopstart + i1;                                               \
2696                 l2 = mp_loopstart + i2;                                               \
2697                 l3 = mp_loopstart + i3;                                               \
2698                 mf->v1 = mloop[l1].v;                                                 \
2699                 mf->v2 = mloop[l2].v;                                                 \
2700                 mf->v3 = mloop[l3].v;                                                 \
2701                 mf->v4 = 0;                                                           \
2702                 lidx[0] = l1;                                                         \
2703                 lidx[1] = l2;                                                         \
2704                 lidx[2] = l3;                                                         \
2705                 lidx[3] = 0;                                                          \
2706                 mf->mat_nr = mp->mat_nr;                                              \
2707                 mf->flag = mp->flag;                                                  \
2708                 mf->edcode = 0;                                                       \
2709                 (void)0
2710
2711 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
2712 #define ML_TO_MF_QUAD()                                                       \
2713                 mface_to_poly_map[mface_index] = poly_index;                          \
2714                 mf = &mface[mface_index];                                             \
2715                 lidx = lindices[mface_index];                                         \
2716                 /* set loop indices, transformed to vert indices later */             \
2717                 l1 = mp_loopstart + 0; /* EXCEPTION */                                \
2718                 l2 = mp_loopstart + 1; /* EXCEPTION */                                \
2719                 l3 = mp_loopstart + 2; /* EXCEPTION */                                \
2720                 l4 = mp_loopstart + 3; /* EXCEPTION */                                \
2721                 mf->v1 = mloop[l1].v;                                                 \
2722                 mf->v2 = mloop[l2].v;                                                 \
2723                 mf->v3 = mloop[l3].v;                                                 \
2724                 mf->v4 = mloop[l4].v;                                                 \
2725                 lidx[0] = l1;                                                         \
2726                 lidx[1] = l2;                                                         \
2727                 lidx[2] = l3;                                                         \
2728                 lidx[3] = l4;                                                         \
2729                 mf->mat_nr = mp->mat_nr;                                              \
2730                 mf->flag = mp->flag;                                                  \
2731                 mf->edcode = TESSFACE_IS_QUAD;                                        \
2732                 (void)0
2733
2734
2735                 else if (mp_totloop == 3) {
2736                         ML_TO_MF(0, 1, 2);
2737                         mface_index++;
2738                 }
2739                 else if (mp_totloop == 4) {
2740 #ifdef USE_TESSFACE_QUADS
2741                         ML_TO_MF_QUAD();
2742                         mface_index++;
2743 #else
2744                         ML_TO_MF(0, 1, 2);
2745                         mface_index++;
2746                         ML_TO_MF(0, 2, 3);
2747                         mface_index++;
2748 #endif
2749                 }
2750 #endif /* USE_TESSFACE_SPEEDUP */
2751                 else {
2752                         const float *co_curr, *co_prev;
2753
2754                         float normal[3];
2755
2756                         float axis_mat[3][3];
2757                         float (*projverts)[2];
2758                         unsigned int (*tris)[3];
2759
2760                         const unsigned int totfilltri = mp_totloop - 2;
2761
2762                         if (UNLIKELY(arena == NULL)) {
2763                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2764                         }
2765
2766                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2767                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2768
2769                         zero_v3(normal);
2770
2771                         /* calc normal, flipped: to get a positive 2d cross product */
2772                         ml = mloop + mp_loopstart;
2773                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2774                         for (j = 0; j < mp_totloop; j++, ml++) {
2775                                 co_curr = mvert[ml->v].co;
2776                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2777                                 co_prev = co_curr;
2778                         }
2779                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2780                                 normal[2] = 1.0f;
2781                         }
2782
2783                         /* project verts to 2d */
2784                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2785
2786                         ml = mloop + mp_loopstart;
2787                         for (j = 0; j < mp_totloop; j++, ml++) {
2788                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2789                         }
2790
2791                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
2792
2793                         /* apply fill */
2794                         for (j = 0; j < totfilltri; j++) {
2795                                 unsigned int *tri = tris[j];
2796                                 lidx = lindices[mface_index];
2797
2798                                 mface_to_poly_map[mface_index] = poly_index;
2799                                 mf = &mface[mface_index];
2800
2801                                 /* set loop indices, transformed to vert indices later */
2802                                 l1 = mp_loopstart + tri[0];
2803                                 l2 = mp_loopstart + tri[1];
2804                                 l3 = mp_loopstart + tri[2];
2805
2806                                 mf->v1 = mloop[l1].v;
2807                                 mf->v2 = mloop[l2].v;
2808                                 mf->v3 = mloop[l3].v;
2809                                 mf->v4 = 0;
2810
2811                                 lidx[0] = l1;
2812                                 lidx[1] = l2;
2813                                 lidx[2] = l3;
2814                                 lidx[3] = 0;
2815
2816                                 mf->mat_nr = mp->mat_nr;
2817                                 mf->flag = mp->flag;
2818                                 mf->edcode = 0;
2819
2820                                 mface_index++;
2821                         }
2822
2823                         BLI_memarena_clear(arena);
2824                 }
2825         }
2826
2827         if (arena) {
2828                 BLI_memarena_free(arena);
2829                 arena = NULL;
2830         }
2831
2832         CustomData_free(fdata, totface);
2833         totface = mface_index;
2834
2835         BLI_assert(totface <= looptri_num);
2836
2837         /* not essential but without this we store over-alloc'd memory in the CustomData layers */
2838         if (LIKELY(looptri_num != totface)) {
2839                 mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
2840                 mface_to_poly_map = MEM_reallocN(mface_to_poly_map, sizeof(*mface_to_poly_map) * (size_t)totface);
2841         }
2842
2843         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2844
2845         /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
2846          * they are directly tessellated from */
2847         CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
2848         CustomData_from_bmeshpoly(fdata, ldata, totface);
2849
2850         if (do_face_nor_copy) {
2851                 /* If polys have a normals layer, copying that to faces can help
2852                  * avoid the need to recalculate normals later */
2853                 if (CustomData_has_layer(pdata, CD_NORMAL)) {
2854                         float (*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
2855                         float (*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
2856                         for (mface_index = 0; mface_index < totface; mface_index++) {
2857                                 copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
2858                         }
2859                 }
2860         }
2861
2862         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2863          * Polygons take care of their loops ordering, hence not of their vertices ordering.
2864          * Currently, our tfaces' fourth vertex index might be 0 even for a quad. However, we know our fourth loop index is
2865          * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
2866          * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the fourth loop index as quad test.
2867          * ...
2868          */
2869         BKE_mesh_loops_to_tessdata(fdata, ldata, NULL, mface_to_poly_map, lindices, totface);
2870
2871         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2872          * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
2873          * test_index_face() will check this and rotate the tessellated face if needed.
2874          */
2875 #ifdef USE_TESSFACE_QUADS
2876         mf = mface;
2877         for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
2878                 if (mf->edcode == TESSFACE_IS_QUAD) {
2879                         test_index_face(mf, fdata, mface_index, 4);
2880                         mf->edcode = 0;
2881                 }
2882         }
2883 #endif
2884
2885         MEM_freeN(lindices);
2886
2887         return totface;
2888
2889 #undef USE_TESSFACE_SPEEDUP
2890 #undef USE_TESSFACE_QUADS
2891
2892 #undef ML_TO_MF
2893 #undef ML_TO_MF_QUAD
2894
2895 }
2896
2897 /**
2898  * Calculate tessellation into #MLoopTri which exist only for this purpose.
2899  */
2900 void BKE_mesh_recalc_looptri(
2901         const MLoop *mloop, const MPoly *mpoly,
2902         const MVert *mvert,
2903         int totloop, int totpoly,
2904         MLoopTri *mlooptri)
2905 {
2906         /* use this to avoid locking pthread for _every_ polygon
2907          * and calling the fill function */
2908
2909 #define USE_TESSFACE_SPEEDUP
2910
2911         const MPoly *mp;
2912         const MLoop *ml;
2913         MLoopTri *mlt;
2914         MemArena *arena = NULL;
2915         int poly_index, mlooptri_index;
2916         unsigned int j;
2917
2918         mlooptri_index = 0;
2919         mp = mpoly;
2920         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2921                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2922                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2923                 unsigned int l1, l2, l3;
2924                 if (mp_totloop < 3) {
2925                         /* do nothing */
2926                 }
2927
2928 #ifdef USE_TESSFACE_SPEEDUP
2929
2930 #define ML_TO_MLT(i1, i2, i3)  { \
2931                         mlt = &mlooptri[mlooptri_index]; \
2932                         l1 = mp_loopstart + i1; \
2933                         l2 = mp_loopstart + i2; \
2934                         l3 = mp_loopstart + i3; \
2935                         ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3); \
2936                         mlt->poly = (unsigned int)poly_index; \
2937                 } ((void)0)
2938
2939                 else if (mp_totloop == 3) {
2940                         ML_TO_MLT(0, 1, 2);
2941                         mlooptri_index++;
2942                 }
2943                 else if (mp_totloop == 4) {
2944                         ML_TO_MLT(0, 1, 2);
2945                         MLoopTri *mlt_a = mlt;
2946                         mlooptri_index++;
2947                         ML_TO_MLT(0, 2, 3);
2948                         MLoopTri *mlt_b = mlt;
2949                         mlooptri_index++;
2950
2951                         if (UNLIKELY(is_quad_flip_v3_first_third_fast(
2952                                              mvert[mloop[mlt_a->tri[0]].v].co,
2953                                              mvert[mloop[mlt_a->tri[1]].v].co,
2954                                              mvert[mloop[mlt_a->tri[2]].v].co,
2955                                              mvert[mloop[mlt_b->tri[2]].v].co)))
2956                         {
2957                                 /* flip out of degenerate 0-2 state. */
2958                                 mlt_a->tri[2] = mlt_b->tri[2];
2959                                 mlt_b->tri[0] = mlt_a->tri[1];
2960                         }
2961                 }
2962 #endif /* USE_TESSFACE_SPEEDUP */
2963                 else {
2964                         const float *co_curr, *co_prev;
2965
2966                         float normal[3];
2967
2968                         float axis_mat[3][3];
2969                         float (*projverts)[2];
2970                         unsigned int (*tris)[3];
2971
2972                         const unsigned int totfilltri = mp_totloop - 2;
2973
2974                         if (UNLIKELY(arena == NULL)) {
2975                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2976                         }
2977
2978                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2979                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2980
2981                         zero_v3(normal);
2982
2983                         /* calc normal, flipped: to get a positive 2d cross product */
2984                         ml = mloop + mp_loopstart;
2985                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2986                         for (j = 0; j < mp_totloop; j++, ml++) {
2987                                 co_curr = mvert[ml->v].co;
2988                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2989                                 co_prev = co_curr;
2990                         }
2991                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2992                                 normal[2] = 1.0f;
2993                         }
2994
2995                         /* project verts to 2d */
2996                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2997
2998                         ml = mloop + mp_loopstart;
2999                         for (j = 0; j < mp_totloop; j++, ml++) {
3000                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
3001                         }
3002
3003                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
3004
3005                         /* apply fill */
3006                         for (j = 0; j < totfilltri; j++) {
3007                                 unsigned int *tri = tris[j];
3008
3009                                 mlt = &mlooptri[mlooptri_index];
3010
3011                                 /* set loop indices, transformed to vert indices later */
3012                                 l1 = mp_loopstart + tri[0];
3013                                 l2 = mp_loopstart + tri[1];
3014                                 l3 = mp_loopstart + tri[2];
3015
3016                                 ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3);
3017                                 mlt->poly = (unsigned int)poly_index;
3018
3019                                 mlooptri_index++;
3020                         }
3021
3022                         BLI_memarena_clear(arena);
3023                 }
3024         }
3025
3026         if (arena) {
3027                 BLI_memarena_free(arena);
3028                 arena = NULL;
3029         }
3030
3031         BLI_assert(mlooptri_index == poly_to_tri_count(totpoly, totloop));
3032         UNUSED_VARS_NDEBUG(totloop);
3033
3034 #undef USE_TESSFACE_SPEEDUP
3035 #undef ML_TO_MLT
3036 }
3037
3038 static void bm_corners_to_loops_ex(
3039         ID *id, CustomData *fdata, CustomData *ldata,
3040         MFace *mface, int totloop, int findex, int loopstart, int numTex, int numCol)
3041 {
3042         MTFace *texface;
3043         MCol *mcol;
3044         MLoopCol *mloopcol;
3045         MLoopUV *mloopuv;
3046         MFace *mf;