Subsurf: Allow partial threading over geometry arrays
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * ***** BEGIN GPL LICENSE BLOCK *****
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  *
18  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
19  * All rights reserved.
20  *
21  * Contributor(s): Blender Foundation
22  *
23  * ***** END GPL LICENSE BLOCK *****
24  */
25
26 /** \file blender/blenkernel/intern/mesh_evaluate.c
27  *  \ingroup bke
28  *
29  * Functions to evaluate mesh data.
30  */
31
32 #include <limits.h>
33
34 #include "MEM_guardedalloc.h"
35
36 #include "DNA_object_types.h"
37 #include "DNA_mesh_types.h"
38 #include "DNA_meshdata_types.h"
39
40 #include "BLI_utildefines.h"
41 #include "BLI_memarena.h"
42 #include "BLI_mempool.h"
43 #include "BLI_math.h"
44 #include "BLI_edgehash.h"
45 #include "BLI_bitmap.h"
46 #include "BLI_polyfill2d.h"
47 #include "BLI_linklist.h"
48 #include "BLI_linklist_stack.h"
49 #include "BLI_alloca.h"
50 #include "BLI_stack.h"
51 #include "BLI_task.h"
52
53 #include "BKE_customdata.h"
54 #include "BKE_global.h"
55 #include "BKE_mesh.h"
56 #include "BKE_multires.h"
57 #include "BKE_report.h"
58
59 #include "BLI_strict_flags.h"
60
61 #include "atomic_ops.h"
62 #include "mikktspace.h"
63
64 // #define DEBUG_TIME
65
66 #include "PIL_time.h"
67 #ifdef DEBUG_TIME
68 #  include "PIL_time_utildefines.h"
69 #endif
70
71 /* -------------------------------------------------------------------- */
72
73 /** \name Mesh Normal Calculation
74  * \{ */
75
76 /**
77  * Call when there are no polygons.
78  */
79 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
80 {
81         int i;
82         for (i = 0; i < numVerts; i++) {
83                 MVert *mv = &mverts[i];
84                 float no[3];
85
86                 normalize_v3_v3(no, mv->co);
87                 normal_float_to_short_v3(mv->no, no);
88         }
89 }
90
91 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
92  * and vertex normals are stored in actual mverts.
93  */
94 void BKE_mesh_calc_normals_mapping(
95         MVert *mverts, int numVerts,
96         const MLoop *mloop, const MPoly *mpolys, int numLoops, int numPolys, float (*r_polyNors)[3],
97         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3])
98 {
99         BKE_mesh_calc_normals_mapping_ex(
100                 mverts, numVerts, mloop, mpolys,
101                 numLoops, numPolys, r_polyNors, mfaces, numFaces,
102                 origIndexFace, r_faceNors, false);
103 }
104 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
105 void BKE_mesh_calc_normals_mapping_ex(
106         MVert *mverts, int numVerts,
107         const MLoop *mloop, const MPoly *mpolys,
108         int numLoops, int numPolys, float (*r_polyNors)[3],
109         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3],
110         const bool only_face_normals)
111 {
112         float (*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
113         int i;
114         const MFace *mf;
115         const MPoly *mp;
116
117         if (numPolys == 0) {
118                 if (only_face_normals == false) {
119                         mesh_calc_normals_vert_fallback(mverts, numVerts);
120                 }
121                 return;
122         }
123
124         /* if we are not calculating verts and no verts were passes then we have nothing to do */
125         if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
126                 printf("%s: called with nothing to do\n", __func__);
127                 return;
128         }
129
130         if (!pnors) pnors = MEM_callocN(sizeof(float[3]) * (size_t)numPolys, __func__);
131         /* if (!fnors) fnors = MEM_callocN(sizeof(float[3]) * numFaces, "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
132
133
134         if (only_face_normals == false) {
135                 /* vertex normals are optional, they require some extra calculations,
136                  * so make them optional */
137                 BKE_mesh_calc_normals_poly(mverts, NULL, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
138         }
139         else {
140                 /* only calc poly normals */
141                 mp = mpolys;
142                 for (i = 0; i < numPolys; i++, mp++) {
143                         BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
144                 }
145         }
146
147         if (origIndexFace &&
148             /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
149             fnors != NULL &&
150             numFaces)
151         {
152                 mf = mfaces;
153                 for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
154                         if (*origIndexFace < numPolys) {
155                                 copy_v3_v3(fnors[i], pnors[*origIndexFace]);
156                         }
157                         else {
158                                 /* eek, we're not corresponding to polys */
159                                 printf("error in %s: tessellation face indices are incorrect.  normals may look bad.\n", __func__);
160                         }
161                 }
162         }
163
164         if (pnors != r_polyNors) MEM_freeN(pnors);
165         /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
166
167         fnors = pnors = NULL;
168         
169 }
170
171 typedef struct MeshCalcNormalsData {
172         const MPoly *mpolys;
173         const MLoop *mloop;
174         MVert *mverts;
175         float (*pnors)[3];
176         float (*lnors_weighted)[3];
177         float (*vnors)[3];
178 } MeshCalcNormalsData;
179
180 static void mesh_calc_normals_poly_cb(
181         void *__restrict userdata, 
182         const int pidx,
183         const ParallelRangeTLS *__restrict UNUSED(tls))
184 {
185         MeshCalcNormalsData *data = userdata;
186         const MPoly *mp = &data->mpolys[pidx];
187
188         BKE_mesh_calc_poly_normal(mp, data->mloop + mp->loopstart, data->mverts, data->pnors[pidx]);
189 }
190
191 static void mesh_calc_normals_poly_prepare_cb(
192         void *__restrict userdata, 
193         const int pidx,
194         const ParallelRangeTLS *__restrict UNUSED(tls))
195 {
196         MeshCalcNormalsData *data = userdata;
197         const MPoly *mp = &data->mpolys[pidx];
198         const MLoop *ml = &data->mloop[mp->loopstart];
199         const MVert *mverts = data->mverts;
200
201         float pnor_temp[3];
202         float *pnor = data->pnors ? data->pnors[pidx] : pnor_temp;
203         float (*lnors_weighted)[3] = data->lnors_weighted;
204
205         const int nverts = mp->totloop;
206         float (*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
207         int i;
208
209         /* Polygon Normal and edge-vector */
210         /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
211         {
212                 int i_prev = nverts - 1;
213                 const float *v_prev = mverts[ml[i_prev].v].co;
214                 const float *v_curr;
215
216                 zero_v3(pnor);
217                 /* Newell's Method */
218                 for (i = 0; i < nverts; i++) {
219                         v_curr = mverts[ml[i].v].co;
220                         add_newell_cross_v3_v3v3(pnor, v_prev, v_curr);
221
222                         /* Unrelated to normalize, calculate edge-vector */
223                         sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
224                         normalize_v3(edgevecbuf[i_prev]);
225                         i_prev = i;
226
227                         v_prev = v_curr;
228                 }
229                 if (UNLIKELY(normalize_v3(pnor) == 0.0f)) {
230                         pnor[2] = 1.0f; /* other axes set to 0.0 */
231                 }
232         }
233
234         /* accumulate angle weighted face normal */
235         /* inline version of #accumulate_vertex_normals_poly_v3,
236          * split between this threaded callback and #mesh_calc_normals_poly_accum_cb. */
237         {
238                 const float *prev_edge = edgevecbuf[nverts - 1];
239
240                 for (i = 0; i < nverts; i++) {
241                         const int lidx = mp->loopstart + i;
242                         const float *cur_edge = edgevecbuf[i];
243
244                         /* calculate angle between the two poly edges incident on
245                          * this vertex */
246                         const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
247
248                         /* Store for later accumulation */
249                         mul_v3_v3fl(lnors_weighted[lidx], pnor, fac);
250
251                         prev_edge = cur_edge;
252                 }
253         }
254 }
255
256 static void mesh_calc_normals_poly_accum_cb(
257         void *__restrict userdata,
258         const int lidx,
259         const ParallelRangeTLS *__restrict UNUSED(tls))
260 {
261         MeshCalcNormalsData *data = userdata;
262
263         add_v3_v3(data->vnors[data->mloop[lidx].v], data->lnors_weighted[lidx]);
264 }
265
266 static void mesh_calc_normals_poly_finalize_cb(
267         void *__restrict userdata,
268         const int vidx,
269         const ParallelRangeTLS *__restrict UNUSED(tls))
270 {
271         MeshCalcNormalsData *data = userdata;
272
273         MVert *mv = &data->mverts[vidx];
274         float *no = data->vnors[vidx];
275
276         if (UNLIKELY(normalize_v3(no) == 0.0f)) {
277                 /* following Mesh convention; we use vertex coordinate itself for normal in this case */
278                 normalize_v3_v3(no, mv->co);
279         }
280
281         normal_float_to_short_v3(mv->no, no);
282 }
283
284 void BKE_mesh_calc_normals_poly(
285         MVert *mverts, float (*r_vertnors)[3], int numVerts,
286         const MLoop *mloop, const MPoly *mpolys,
287         int numLoops, int numPolys, float (*r_polynors)[3],
288         const bool only_face_normals)
289 {
290         float (*pnors)[3] = r_polynors;
291
292         ParallelRangeSettings settings;
293         BLI_parallel_range_settings_defaults(&settings);
294         settings.min_iter_per_thread = 1024;
295
296         if (only_face_normals) {
297                 BLI_assert((pnors != NULL) || (numPolys == 0));
298                 BLI_assert(r_vertnors == NULL);
299
300                 MeshCalcNormalsData data = {
301                     .mpolys = mpolys, .mloop = mloop, .mverts = mverts, .pnors = pnors,
302                 };
303
304                 BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_cb, &settings);
305                 return;
306         }
307
308         float (*vnors)[3] = r_vertnors;
309         float (*lnors_weighted)[3] = MEM_mallocN(sizeof(*lnors_weighted) * (size_t)numLoops, __func__);
310         bool free_vnors = false;
311
312         /* first go through and calculate normals for all the polys */
313         if (vnors == NULL) {
314                 vnors = MEM_callocN(sizeof(*vnors) * (size_t)numVerts, __func__);
315                 free_vnors = true;
316         }
317         else {
318                 memset(vnors, 0, sizeof(*vnors) * (size_t)numVerts);
319         }
320
321         MeshCalcNormalsData data = {
322             .mpolys = mpolys, .mloop = mloop, .mverts = mverts,
323             .pnors = pnors, .lnors_weighted = lnors_weighted, .vnors = vnors
324         };
325
326         /* Compute poly normals, and prepare weighted loop normals. */
327         BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_prepare_cb, &settings);
328
329         /* Actually accumulate weighted loop normals into vertex ones. */
330         BLI_task_parallel_range(0, numLoops, &data, mesh_calc_normals_poly_accum_cb, &settings);
331
332         /* Normalize and validate computed vertex normals. */
333         BLI_task_parallel_range(0, numVerts, &data, mesh_calc_normals_poly_finalize_cb, &settings);
334
335         if (free_vnors) {
336                 MEM_freeN(vnors);
337         }
338         MEM_freeN(lnors_weighted);
339 }
340
341 void BKE_mesh_calc_normals(Mesh *mesh)
342 {
343 #ifdef DEBUG_TIME
344         TIMEIT_START_AVERAGED(BKE_mesh_calc_normals);
345 #endif
346         BKE_mesh_calc_normals_poly(mesh->mvert, NULL, mesh->totvert,
347                                    mesh->mloop, mesh->mpoly, mesh->totloop, mesh->totpoly,
348                                    NULL, false);
349 #ifdef DEBUG_TIME
350         TIMEIT_END_AVERAGED(BKE_mesh_calc_normals);
351 #endif
352 }
353
354 void BKE_mesh_calc_normals_tessface(
355         MVert *mverts, int numVerts,
356         const MFace *mfaces, int numFaces,
357         float (*r_faceNors)[3])
358 {
359         float (*tnorms)[3] = MEM_callocN(sizeof(*tnorms) * (size_t)numVerts, "tnorms");
360         float (*fnors)[3] = (r_faceNors) ? r_faceNors : MEM_callocN(sizeof(*fnors) * (size_t)numFaces, "meshnormals");
361         int i;
362
363         for (i = 0; i < numFaces; i++) {
364                 const MFace *mf = &mfaces[i];
365                 float *f_no = fnors[i];
366                 float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
367                 const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
368
369                 if (mf->v4)
370                         normal_quad_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
371                 else
372                         normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
373
374                 accumulate_vertex_normals_v3(
375                         tnorms[mf->v1], tnorms[mf->v2], tnorms[mf->v3], n4,
376                         f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, c4);
377         }
378
379         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
380         for (i = 0; i < numVerts; i++) {
381                 MVert *mv = &mverts[i];
382                 float *no = tnorms[i];
383                 
384                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
385                         normalize_v3_v3(no, mv->co);
386                 }
387
388                 normal_float_to_short_v3(mv->no, no);
389         }
390         
391         MEM_freeN(tnorms);
392
393         if (fnors != r_faceNors)
394                 MEM_freeN(fnors);
395 }
396
397 void BKE_mesh_calc_normals_looptri(
398         MVert *mverts, int numVerts,
399         const MLoop *mloop,
400         const MLoopTri *looptri, int looptri_num,
401         float (*r_tri_nors)[3])
402 {
403         float (*tnorms)[3] = MEM_callocN(sizeof(*tnorms) * (size_t)numVerts, "tnorms");
404         float (*fnors)[3] = (r_tri_nors) ? r_tri_nors : MEM_callocN(sizeof(*fnors) * (size_t)looptri_num, "meshnormals");
405         int i;
406
407         for (i = 0; i < looptri_num; i++) {
408                 const MLoopTri *lt = &looptri[i];
409                 float *f_no = fnors[i];
410                 const unsigned int vtri[3] = {
411                     mloop[lt->tri[0]].v,
412                     mloop[lt->tri[1]].v,
413                     mloop[lt->tri[2]].v,
414                 };
415
416                 normal_tri_v3(
417                         f_no,
418                         mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
419
420                 accumulate_vertex_normals_tri_v3(
421                         tnorms[vtri[0]], tnorms[vtri[1]], tnorms[vtri[2]],
422                         f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
423         }
424
425         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
426         for (i = 0; i < numVerts; i++) {
427                 MVert *mv = &mverts[i];
428                 float *no = tnorms[i];
429
430                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
431                         normalize_v3_v3(no, mv->co);
432                 }
433
434                 normal_float_to_short_v3(mv->no, no);
435         }
436
437         MEM_freeN(tnorms);
438
439         if (fnors != r_tri_nors)
440                 MEM_freeN(fnors);
441 }
442
443 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr, const int numLoops)
444 {
445         if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
446                 MemArena *mem;
447
448                 if (!lnors_spacearr->mem) {
449                         lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
450                 }
451                 mem = lnors_spacearr->mem;
452                 lnors_spacearr->lspacearr = BLI_memarena_calloc(mem, sizeof(MLoopNorSpace *) * (size_t)numLoops);
453                 lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
454         }
455 }
456
457 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
458 {
459         BLI_memarena_clear(lnors_spacearr->mem);
460         lnors_spacearr->lspacearr = NULL;
461         lnors_spacearr->loops_pool = NULL;
462 }
463
464 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
465 {
466         BLI_memarena_free(lnors_spacearr->mem);
467         lnors_spacearr->lspacearr = NULL;
468         lnors_spacearr->loops_pool = NULL;
469         lnors_spacearr->mem = NULL;
470 }
471
472 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
473 {
474         return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
475 }
476
477 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
478 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-4f)
479
480 /* Should only be called once.
481  * Beware, this modifies ref_vec and other_vec in place!
482  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
483  */
484 void BKE_lnor_space_define(MLoopNorSpace *lnor_space, const float lnor[3],
485                            float vec_ref[3], float vec_other[3], BLI_Stack *edge_vectors)
486 {
487         const float pi2 = (float)M_PI * 2.0f;
488         float tvec[3], dtp;
489         const float dtp_ref = dot_v3v3(vec_ref, lnor);
490         const float dtp_other = dot_v3v3(vec_other, lnor);
491
492         if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD || fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
493                 /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
494                  * tag it as invalid and abort. */
495                 lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
496
497                 if (edge_vectors) {
498                         BLI_stack_clear(edge_vectors);
499                 }
500                 return;
501         }
502
503         copy_v3_v3(lnor_space->vec_lnor, lnor);
504
505         /* Compute ref alpha, average angle of all available edge vectors to lnor. */
506         if (edge_vectors) {
507                 float alpha = 0.0f;
508                 int nbr = 0;
509                 while (!BLI_stack_is_empty(edge_vectors)) {
510                         const float *vec = BLI_stack_peek(edge_vectors);
511                         alpha += saacosf(dot_v3v3(vec, lnor));
512                         BLI_stack_discard(edge_vectors);
513                         nbr++;
514                 }
515                 /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
516                  *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
517                 BLI_assert(nbr >= 2);  /* This piece of code shall only be called for more than one loop... */
518                 lnor_space->ref_alpha = alpha / (float)nbr;
519         }
520         else {
521                 lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) + saacosf(dot_v3v3(vec_other, lnor))) / 2.0f;
522         }
523
524         /* Project vec_ref on lnor's ortho plane. */
525         mul_v3_v3fl(tvec, lnor, dtp_ref);
526         sub_v3_v3(vec_ref, tvec);
527         normalize_v3_v3(lnor_space->vec_ref, vec_ref);
528
529         cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
530         normalize_v3_v3(lnor_space->vec_ortho, tvec);
531
532         /* Project vec_other on lnor's ortho plane. */
533         mul_v3_v3fl(tvec, lnor, dtp_other);
534         sub_v3_v3(vec_other, tvec);
535         normalize_v3(vec_other);
536
537         /* Beta is angle between ref_vec and other_vec, around lnor. */
538         dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
539         if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
540                 const float beta = saacos(dtp);
541                 lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
542         }
543         else {
544                 lnor_space->ref_beta = pi2;
545         }
546 }
547
548 void BKE_lnor_space_add_loop(MLoopNorSpaceArray *lnors_spacearr, MLoopNorSpace *lnor_space, const int ml_index,
549                              const bool do_add_loop)
550 {
551         lnors_spacearr->lspacearr[ml_index] = lnor_space;
552         if (do_add_loop) {
553                 BLI_linklist_prepend_nlink(&lnor_space->loops, SET_INT_IN_POINTER(ml_index), &lnors_spacearr->loops_pool[ml_index]);
554         }
555 }
556
557 MINLINE float unit_short_to_float(const short val)
558 {
559         return (float)val / (float)SHRT_MAX;
560 }
561
562 MINLINE short unit_float_to_short(const float val)
563 {
564         /* Rounding... */
565         return (short)floorf(val * (float)SHRT_MAX + 0.5f);
566 }
567
568 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space, const short clnor_data[2], float r_custom_lnor[3])
569 {
570         /* NOP custom normal data or invalid lnor space, return. */
571         if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
572                 copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
573                 return;
574         }
575
576         {
577                 /* TODO Check whether using sincosf() gives any noticeable benefit
578                  *      (could not even get it working under linux though)! */
579                 const float pi2 = (float)(M_PI * 2.0);
580                 const float alphafac = unit_short_to_float(clnor_data[0]);
581                 const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) * alphafac;
582                 const float betafac = unit_short_to_float(clnor_data[1]);
583
584                 mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
585
586                 if (betafac == 0.0f) {
587                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
588                 }
589                 else {
590                         const float sinalpha = sinf(alpha);
591                         const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) * betafac;
592                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
593                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
594                 }
595         }
596 }
597
598 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space, const float custom_lnor[3], short r_clnor_data[2])
599 {
600         /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
601         if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
602                 r_clnor_data[0] = r_clnor_data[1] = 0;
603                 return;
604         }
605
606         {
607                 const float pi2 = (float)(M_PI * 2.0);
608                 const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
609                 float vec[3], cos_beta;
610                 float alpha;
611
612                 alpha = saacosf(cos_alpha);
613                 if (alpha > lnor_space->ref_alpha) {
614                         /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
615                         r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
616                 }
617                 else {
618                         r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
619                 }
620
621                 /* Project custom lnor on (vec_ref, vec_ortho) plane. */
622                 mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
623                 add_v3_v3(vec, custom_lnor);
624                 normalize_v3(vec);
625
626                 cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
627
628                 if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
629                         float beta = saacosf(cos_beta);
630                         if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
631                                 beta = pi2 - beta;
632                         }
633
634                         if (beta > lnor_space->ref_beta) {
635                                 r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
636                         }
637                         else {
638                                 r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
639                         }
640                 }
641                 else {
642                         r_clnor_data[1] = 0;
643                 }
644         }
645 }
646
647 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
648
649 typedef struct LoopSplitTaskData {
650         /* Specific to each instance (each task). */
651         MLoopNorSpace *lnor_space;  /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
652         float (*lnor)[3];
653         const MLoop *ml_curr;
654         const MLoop *ml_prev;
655         int ml_curr_index;
656         int ml_prev_index;
657         const int *e2l_prev;  /* Also used a flag to switch between single or fan process! */
658         int mp_index;
659
660         /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
661         BLI_Stack *edge_vectors;
662
663         char pad_c;
664 } LoopSplitTaskData;
665
666 typedef struct LoopSplitTaskDataCommon {
667         /* Read/write.
668          * Note we do not need to protect it, though, since two different tasks will *always* affect different
669          * elements in the arrays. */
670         MLoopNorSpaceArray *lnors_spacearr;
671         float (*loopnors)[3];
672         short (*clnors_data)[2];
673
674         /* Read-only. */
675         const MVert *mverts;
676         const MEdge *medges;
677         const MLoop *mloops;
678         const MPoly *mpolys;
679         const int (*edge_to_loops)[2];
680         const int *loop_to_poly;
681         const float (*polynors)[3];
682
683         int numLoops;
684         int numPolys;
685 } LoopSplitTaskDataCommon;
686
687 #define INDEX_UNSET INT_MIN
688 #define INDEX_INVALID -1
689 /* See comment about edge_to_loops below. */
690 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
691
692 static void loop_manifold_fan_around_vert_next(
693         const MLoop *mloops, const MPoly *mpolys,
694         const int *loop_to_poly, const int *e2lfan_curr, const uint mv_pivot_index,
695         const MLoop **r_mlfan_curr, int *r_mlfan_curr_index, int *r_mlfan_vert_index, int *r_mpfan_curr_index)
696 {
697         const MLoop *mlfan_next;
698         const MPoly *mpfan_next;
699
700         /* Warning! This is rather complex!
701          * We have to find our next edge around the vertex (fan mode).
702          * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
703          * whether both loops using current edge are in the same direction or not, and whether
704          * mlfan_curr_index actually uses the vertex we are fanning around!
705          * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
706          * (i.e. not the future mlfan_curr)...
707          */
708         *r_mlfan_curr_index = (e2lfan_curr[0] == *r_mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
709         *r_mpfan_curr_index = loop_to_poly[*r_mlfan_curr_index];
710
711         BLI_assert(*r_mlfan_curr_index >= 0);
712         BLI_assert(*r_mpfan_curr_index >= 0);
713
714         mlfan_next = &mloops[*r_mlfan_curr_index];
715         mpfan_next = &mpolys[*r_mpfan_curr_index];
716         if (((*r_mlfan_curr)->v == mlfan_next->v && (*r_mlfan_curr)->v == mv_pivot_index) ||
717             ((*r_mlfan_curr)->v != mlfan_next->v && (*r_mlfan_curr)->v != mv_pivot_index))
718         {
719                 /* We need the previous loop, but current one is our vertex's loop. */
720                 *r_mlfan_vert_index = *r_mlfan_curr_index;
721                 if (--(*r_mlfan_curr_index) < mpfan_next->loopstart) {
722                         *r_mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
723                 }
724         }
725         else {
726                 /* We need the next loop, which is also our vertex's loop. */
727                 if (++(*r_mlfan_curr_index) >= mpfan_next->loopstart + mpfan_next->totloop) {
728                         *r_mlfan_curr_index = mpfan_next->loopstart;
729                 }
730                 *r_mlfan_vert_index = *r_mlfan_curr_index;
731         }
732         *r_mlfan_curr = &mloops[*r_mlfan_curr_index];
733         /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
734 }
735
736 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
737 {
738         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
739         short (*clnors_data)[2] = common_data->clnors_data;
740
741         const MVert *mverts = common_data->mverts;
742         const MEdge *medges = common_data->medges;
743         const float (*polynors)[3] = common_data->polynors;
744
745         MLoopNorSpace *lnor_space = data->lnor_space;
746         float (*lnor)[3] = data->lnor;
747         const MLoop *ml_curr = data->ml_curr;
748         const MLoop *ml_prev = data->ml_prev;
749         const int ml_curr_index = data->ml_curr_index;
750 #if 0  /* Not needed for 'single' loop. */
751         const int ml_prev_index = data->ml_prev_index;
752         const int *e2l_prev = data->e2l_prev;
753 #endif
754         const int mp_index = data->mp_index;
755
756         /* Simple case (both edges around that vertex are sharp in current polygon),
757          * this loop just takes its poly normal.
758          */
759         copy_v3_v3(*lnor, polynors[mp_index]);
760
761 //      printf("BASIC: handling loop %d / edge %d / vert %d / poly %d\n", ml_curr_index, ml_curr->e, ml_curr->v, mp_index);
762
763         /* If needed, generate this (simple!) lnor space. */
764         if (lnors_spacearr) {
765                 float vec_curr[3], vec_prev[3];
766
767                 const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
768                 const MVert *mv_pivot = &mverts[mv_pivot_index];
769                 const MEdge *me_curr = &medges[ml_curr->e];
770                 const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
771                 const MEdge *me_prev = &medges[ml_prev->e];
772                 const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] : &mverts[me_prev->v1];
773
774                 sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
775                 normalize_v3(vec_curr);
776                 sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
777                 normalize_v3(vec_prev);
778
779                 BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
780                 /* We know there is only one loop in this space, no need to create a linklist in this case... */
781                 BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, false);
782
783                 if (clnors_data) {
784                         BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
785                 }
786         }
787 }
788
789 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
790 {
791         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
792         float (*loopnors)[3] = common_data->loopnors;
793         short (*clnors_data)[2] = common_data->clnors_data;
794
795         const MVert *mverts = common_data->mverts;
796         const MEdge *medges = common_data->medges;
797         const MLoop *mloops = common_data->mloops;
798         const MPoly *mpolys = common_data->mpolys;
799         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
800         const int *loop_to_poly = common_data->loop_to_poly;
801         const float (*polynors)[3] = common_data->polynors;
802
803         MLoopNorSpace *lnor_space = data->lnor_space;
804 #if 0  /* Not needed for 'fan' loops. */
805         float (*lnor)[3] = data->lnor;
806 #endif
807         const MLoop *ml_curr = data->ml_curr;
808         const MLoop *ml_prev = data->ml_prev;
809         const int ml_curr_index = data->ml_curr_index;
810         const int ml_prev_index = data->ml_prev_index;
811         const int mp_index = data->mp_index;
812         const int *e2l_prev = data->e2l_prev;
813
814         BLI_Stack *edge_vectors = data->edge_vectors;
815
816         /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
817          * and accumulate face normals into the vertex!
818          * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
819          * the vertex normal, but I do not see any easy way to detect that (would need to count number
820          * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
821          * it should not be a common case in real-life meshes anyway).
822          */
823         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
824         const MVert *mv_pivot = &mverts[mv_pivot_index];
825         const MEdge *me_org = &medges[ml_curr->e];  /* ml_curr would be mlfan_prev if we needed that one */
826         const int *e2lfan_curr;
827         float vec_curr[3], vec_prev[3], vec_org[3];
828         const MLoop *mlfan_curr;
829         float lnor[3] = {0.0f, 0.0f, 0.0f};
830         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
831         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
832
833         /* We validate clnors data on the fly - cheapest way to do! */
834         int clnors_avg[2] = {0, 0};
835         short (*clnor_ref)[2] = NULL;
836         int clnors_nbr = 0;
837         bool clnors_invalid = false;
838
839         /* Temp loop normal stack. */
840         BLI_SMALLSTACK_DECLARE(normal, float *);
841         /* Temp clnors stack. */
842         BLI_SMALLSTACK_DECLARE(clnors, short *);
843
844         e2lfan_curr = e2l_prev;
845         mlfan_curr = ml_prev;
846         mlfan_curr_index = ml_prev_index;
847         mlfan_vert_index = ml_curr_index;
848         mpfan_curr_index = mp_index;
849
850         BLI_assert(mlfan_curr_index >= 0);
851         BLI_assert(mlfan_vert_index >= 0);
852         BLI_assert(mpfan_curr_index >= 0);
853
854         /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
855         {
856                 const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
857
858                 sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
859                 normalize_v3(vec_org);
860                 copy_v3_v3(vec_prev, vec_org);
861
862                 if (lnors_spacearr) {
863                         BLI_stack_push(edge_vectors, vec_org);
864                 }
865         }
866
867 //      printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e);
868
869         while (true) {
870                 const MEdge *me_curr = &medges[mlfan_curr->e];
871                 /* Compute edge vectors.
872                  * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
873                  *       twice (or more) here. However, time gained is not worth memory and time lost,
874                  *       given the fact that this code should not be called that much in real-life meshes...
875                  */
876                 {
877                         const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
878
879                         sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
880                         normalize_v3(vec_curr);
881                 }
882
883 //              printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index);
884
885                 {
886                         /* Code similar to accumulate_vertex_normals_poly_v3. */
887                         /* Calculate angle between the two poly edges incident on this vertex. */
888                         const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
889                         /* Accumulate */
890                         madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
891
892                         if (clnors_data) {
893                                 /* Accumulate all clnors, if they are not all equal we have to fix that! */
894                                 short (*clnor)[2] = &clnors_data[mlfan_vert_index];
895                                 if (clnors_nbr) {
896                                         clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
897                                 }
898                                 else {
899                                         clnor_ref = clnor;
900                                 }
901                                 clnors_avg[0] += (*clnor)[0];
902                                 clnors_avg[1] += (*clnor)[1];
903                                 clnors_nbr++;
904                                 /* We store here a pointer to all custom lnors processed. */
905                                 BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
906                         }
907                 }
908
909                 /* We store here a pointer to all loop-normals processed. */
910                 BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
911
912                 if (lnors_spacearr) {
913                         /* Assign current lnor space to current 'vertex' loop. */
914                         BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, true);
915                         if (me_curr != me_org) {
916                                 /* We store here all edges-normalized vectors processed. */
917                                 BLI_stack_push(edge_vectors, vec_curr);
918                         }
919                 }
920
921                 if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
922                         /* Current edge is sharp and we have finished with this fan of faces around this vert,
923                          * or this vert is smooth, and we have completed a full turn around it.
924                          */
925 //                      printf("FAN: Finished!\n");
926                         break;
927                 }
928
929                 copy_v3_v3(vec_prev, vec_curr);
930
931                 /* Find next loop of the smooth fan. */
932                 loop_manifold_fan_around_vert_next(
933                             mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
934                             &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
935
936                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
937         }
938
939         {
940                 float lnor_len = normalize_v3(lnor);
941
942                 /* If we are generating lnor spacearr, we can now define the one for this fan,
943                  * and optionally compute final lnor from custom data too!
944                  */
945                 if (lnors_spacearr) {
946                         if (UNLIKELY(lnor_len == 0.0f)) {
947                                 /* Use vertex normal as fallback! */
948                                 copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
949                                 lnor_len = 1.0f;
950                         }
951
952                         BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
953
954                         if (clnors_data) {
955                                 if (clnors_invalid) {
956                                         short *clnor;
957
958                                         clnors_avg[0] /= clnors_nbr;
959                                         clnors_avg[1] /= clnors_nbr;
960                                         /* Fix/update all clnors of this fan with computed average value. */
961                                         if (G.debug & G_DEBUG) {
962                                                 printf("Invalid clnors in this fan!\n");
963                                         }
964                                         while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
965                                                 //print_v2("org clnor", clnor);
966                                                 clnor[0] = (short)clnors_avg[0];
967                                                 clnor[1] = (short)clnors_avg[1];
968                                         }
969                                         //print_v2("new clnors", clnors_avg);
970                                 }
971                                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
972
973                                 BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
974                         }
975                 }
976
977                 /* In case we get a zero normal here, just use vertex normal already set! */
978                 if (LIKELY(lnor_len != 0.0f)) {
979                         /* Copy back the final computed normal into all related loop-normals. */
980                         float *nor;
981
982                         while ((nor = BLI_SMALLSTACK_POP(normal))) {
983                                 copy_v3_v3(nor, lnor);
984                         }
985                 }
986                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
987         }
988 }
989
990 static void loop_split_worker_do(
991         LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data, BLI_Stack *edge_vectors)
992 {
993         BLI_assert(data->ml_curr);
994         if (data->e2l_prev) {
995                 BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
996                 data->edge_vectors = edge_vectors;
997                 split_loop_nor_fan_do(common_data, data);
998         }
999         else {
1000                 /* No need for edge_vectors for 'single' case! */
1001                 split_loop_nor_single_do(common_data, data);
1002         }
1003 }
1004
1005 static void loop_split_worker(TaskPool * __restrict pool, void *taskdata, int UNUSED(threadid))
1006 {
1007         LoopSplitTaskDataCommon *common_data = BLI_task_pool_userdata(pool);
1008         LoopSplitTaskData *data = taskdata;
1009
1010         /* Temp edge vectors stack, only used when computing lnor spacearr. */
1011         BLI_Stack *edge_vectors = common_data->lnors_spacearr ? BLI_stack_new(sizeof(float[3]), __func__) : NULL;
1012
1013 #ifdef DEBUG_TIME
1014         TIMEIT_START_AVERAGED(loop_split_worker);
1015 #endif
1016
1017         for (int i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
1018                 /* A NULL ml_curr is used to tag ended data! */
1019                 if (data->ml_curr == NULL) {
1020                         break;
1021                 }
1022
1023                 loop_split_worker_do(common_data, data, edge_vectors);
1024         }
1025
1026         if (edge_vectors) {
1027                 BLI_stack_free(edge_vectors);
1028         }
1029
1030 #ifdef DEBUG_TIME
1031         TIMEIT_END_AVERAGED(loop_split_worker);
1032 #endif
1033 }
1034
1035 /* Check whether gievn loop is part of an unknown-so-far cyclic smooth fan, or not.
1036  * Needed because cyclic smooth fans have no obvious 'entry point', and yet we need to walk them once, and only once. */
1037 static bool loop_split_generator_check_cyclic_smooth_fan(
1038         const MLoop *mloops, const MPoly *mpolys,
1039         const int (*edge_to_loops)[2], const int *loop_to_poly, const int *e2l_prev, BLI_bitmap *skip_loops,
1040         const MLoop *ml_curr, const MLoop *ml_prev, const int ml_curr_index, const int ml_prev_index,
1041         const int mp_curr_index)
1042 {
1043         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
1044         const int *e2lfan_curr;
1045         const MLoop *mlfan_curr;
1046         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1047         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1048
1049         e2lfan_curr = e2l_prev;
1050         if (IS_EDGE_SHARP(e2lfan_curr)) {
1051                 /* Sharp loop, so not a cyclic smooth fan... */
1052                 return false;
1053         }
1054
1055         mlfan_curr = ml_prev;
1056         mlfan_curr_index = ml_prev_index;
1057         mlfan_vert_index = ml_curr_index;
1058         mpfan_curr_index = mp_curr_index;
1059
1060         BLI_assert(mlfan_curr_index >= 0);
1061         BLI_assert(mlfan_vert_index >= 0);
1062         BLI_assert(mpfan_curr_index >= 0);
1063
1064         BLI_assert(!BLI_BITMAP_TEST(skip_loops, mlfan_vert_index));
1065         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1066
1067         while (true) {
1068                 /* Find next loop of the smooth fan. */
1069                 loop_manifold_fan_around_vert_next(
1070                             mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
1071                             &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
1072
1073                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
1074
1075                 if (IS_EDGE_SHARP(e2lfan_curr)) {
1076                         /* Sharp loop/edge, so not a cyclic smooth fan... */
1077                         return false;
1078                 }
1079                 /* Smooth loop/edge... */
1080                 else if (BLI_BITMAP_TEST(skip_loops, mlfan_vert_index)) {
1081                         if (mlfan_vert_index == ml_curr_index) {
1082                                 /* We walked around a whole cyclic smooth fan without finding any already-processed loop, means we can
1083                                  * use initial ml_curr/ml_prev edge as start for this smooth fan. */
1084                                 return true;
1085                         }
1086                         /* ... already checked in some previous looping, we can abort. */
1087                         return false;
1088                 }
1089                 else {
1090                         /* ... we can skip it in future, and keep checking the smooth fan. */
1091                         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1092                 }
1093         }
1094 }
1095
1096 static void loop_split_generator(TaskPool *pool, LoopSplitTaskDataCommon *common_data)
1097 {
1098         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1099         float (*loopnors)[3] = common_data->loopnors;
1100
1101         const MLoop *mloops = common_data->mloops;
1102         const MPoly *mpolys = common_data->mpolys;
1103         const int *loop_to_poly = common_data->loop_to_poly;
1104         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
1105         const int numLoops = common_data->numLoops;
1106         const int numPolys = common_data->numPolys;
1107
1108         const MPoly *mp;
1109         int mp_index;
1110
1111         const MLoop *ml_curr;
1112         const MLoop *ml_prev;
1113         int ml_curr_index;
1114         int ml_prev_index;
1115
1116         BLI_bitmap *skip_loops = BLI_BITMAP_NEW(numLoops, __func__);
1117
1118         LoopSplitTaskData *data_buff = NULL;
1119         int data_idx = 0;
1120
1121         /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
1122         BLI_Stack *edge_vectors = NULL;
1123
1124 #ifdef DEBUG_TIME
1125         TIMEIT_START_AVERAGED(loop_split_generator);
1126 #endif
1127
1128         if (!pool) {
1129                 if (lnors_spacearr) {
1130                         edge_vectors = BLI_stack_new(sizeof(float[3]), __func__);
1131                 }
1132         }
1133
1134         /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
1135          * Now, time to generate the normals.
1136          */
1137         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1138                 float (*lnors)[3];
1139                 const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1140                 ml_curr_index = mp->loopstart;
1141                 ml_prev_index = ml_last_index;
1142
1143                 ml_curr = &mloops[ml_curr_index];
1144                 ml_prev = &mloops[ml_prev_index];
1145                 lnors = &loopnors[ml_curr_index];
1146
1147                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1148                         const int *e2l_curr = edge_to_loops[ml_curr->e];
1149                         const int *e2l_prev = edge_to_loops[ml_prev->e];
1150
1151 //                      printf("Checking loop %d / edge %u / vert %u (sharp edge: %d, skiploop: %d)...",
1152 //                             ml_curr_index, ml_curr->e, ml_curr->v, IS_EDGE_SHARP(e2l_curr), BLI_BITMAP_TEST_BOOL(skip_loops, ml_curr_index));
1153
1154                         /* A smooth edge, we have to check for cyclic smooth fan case.
1155                          * If we find a new, never-processed cyclic smooth fan, we can do it now using that loop/edge as
1156                          * 'entry point', otherwise we can skip it. */
1157                         /* Note: In theory, we could make loop_split_generator_check_cyclic_smooth_fan() store
1158                          * mlfan_vert_index'es and edge indexes in two stacks, to avoid having to fan again around the vert during
1159                          * actual computation of clnor & clnorspace. However, this would complicate the code, add more memory usage,
1160                          * and despite its logical complexity, loop_manifold_fan_around_vert_next() is quite cheap in term of
1161                          * CPU cycles, so really think it's not worth it. */
1162                         if (!IS_EDGE_SHARP(e2l_curr) &&
1163                             (BLI_BITMAP_TEST(skip_loops, ml_curr_index) ||
1164                              !loop_split_generator_check_cyclic_smooth_fan(
1165                                       mloops, mpolys, edge_to_loops, loop_to_poly, e2l_prev, skip_loops,
1166                                       ml_curr, ml_prev, ml_curr_index, ml_prev_index, mp_index)))
1167                         {
1168 //                              printf("SKIPPING!\n");
1169                         }
1170                         else {
1171                                 LoopSplitTaskData *data, data_local;
1172
1173 //                              printf("PROCESSING!\n");
1174
1175                                 if (pool) {
1176                                         if (data_idx == 0) {
1177                                                 data_buff = MEM_callocN(sizeof(*data_buff) * LOOP_SPLIT_TASK_BLOCK_SIZE, __func__);
1178                                         }
1179                                         data = &data_buff[data_idx];
1180                                 }
1181                                 else {
1182                                         data = &data_local;
1183                                         memset(data, 0, sizeof(*data));
1184                                 }
1185
1186                                 if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1187                                         data->lnor = lnors;
1188                                         data->ml_curr = ml_curr;
1189                                         data->ml_prev = ml_prev;
1190                                         data->ml_curr_index = ml_curr_index;
1191 #if 0  /* Not needed for 'single' loop. */
1192                                         data->ml_prev_index = ml_prev_index;
1193                                         data->e2l_prev = NULL;  /* Tag as 'single' task. */
1194 #endif
1195                                         data->mp_index = mp_index;
1196                                         if (lnors_spacearr) {
1197                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1198                                         }
1199                                 }
1200                                 /* We *do not need* to check/tag loops as already computed!
1201                                  * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1202                                  * more than once!*
1203                                  * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1204                                  * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1205                                  * and not the alternative (smooth curr_edge, sharp prev_edge).
1206                                  * All this due/thanks to link between normals and loop ordering (i.e. winding).
1207                                  */
1208                                 else {
1209 #if 0  /* Not needed for 'fan' loops. */
1210                                         data->lnor = lnors;
1211 #endif
1212                                         data->ml_curr = ml_curr;
1213                                         data->ml_prev = ml_prev;
1214                                         data->ml_curr_index = ml_curr_index;
1215                                         data->ml_prev_index = ml_prev_index;
1216                                         data->e2l_prev = e2l_prev;  /* Also tag as 'fan' task. */
1217                                         data->mp_index = mp_index;
1218                                         if (lnors_spacearr) {
1219                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1220                                         }
1221                                 }
1222
1223                                 if (pool) {
1224                                         data_idx++;
1225                                         if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1226                                                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1227                                                 data_idx = 0;
1228                                         }
1229                                 }
1230                                 else {
1231                                         loop_split_worker_do(common_data, data, edge_vectors);
1232                                 }
1233                         }
1234
1235                         ml_prev = ml_curr;
1236                         ml_prev_index = ml_curr_index;
1237                 }
1238         }
1239
1240         /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1241         if (pool && data_idx) {
1242                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1243         }
1244
1245         if (edge_vectors) {
1246                 BLI_stack_free(edge_vectors);
1247         }
1248         MEM_freeN(skip_loops);
1249
1250 #ifdef DEBUG_TIME
1251         TIMEIT_END_AVERAGED(loop_split_generator);
1252 #endif
1253 }
1254
1255 /**
1256  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1257  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1258  */
1259 void BKE_mesh_normals_loop_split(
1260         const MVert *mverts, const int UNUSED(numVerts), MEdge *medges, const int numEdges,
1261         MLoop *mloops, float (*r_loopnors)[3], const int numLoops,
1262         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1263         const bool use_split_normals, float split_angle,
1264         MLoopNorSpaceArray *r_lnors_spacearr, short (*clnors_data)[2], int *r_loop_to_poly)
1265 {
1266         /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1267         BLI_assert(use_split_normals || !(r_lnors_spacearr));
1268
1269         if (!use_split_normals) {
1270                 /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1271                  * Note this is done here to keep some logic and consistency in this quite complex code,
1272                  * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1273                  * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1274                  */
1275                 int mp_index;
1276
1277                 for (mp_index = 0; mp_index < numPolys; mp_index++) {
1278                         MPoly *mp = &mpolys[mp_index];
1279                         int ml_index = mp->loopstart;
1280                         const int ml_index_end = ml_index + mp->totloop;
1281                         const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1282
1283                         for (; ml_index < ml_index_end; ml_index++) {
1284                                 if (r_loop_to_poly) {
1285                                         r_loop_to_poly[ml_index] = mp_index;
1286                                 }
1287                                 if (is_poly_flat) {
1288                                         copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1289                                 }
1290                                 else {
1291                                         normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1292                                 }
1293                         }
1294                 }
1295                 return;
1296         }
1297
1298         /* Mapping edge -> loops.
1299          * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1300          * We also use the second loop index as a kind of flag: smooth edge: > 0,
1301          *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1302          *                                                      unset: INDEX_UNSET
1303          * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1304          * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1305          * Note also that lose edges always have both values set to 0!
1306          */
1307         int (*edge_to_loops)[2] = MEM_callocN(sizeof(*edge_to_loops) * (size_t)numEdges, __func__);
1308
1309         /* Simple mapping from a loop to its polygon index. */
1310         int *loop_to_poly = r_loop_to_poly ? r_loop_to_poly : MEM_mallocN(sizeof(*loop_to_poly) * (size_t)numLoops, __func__);
1311
1312         MPoly *mp;
1313         int mp_index;
1314
1315         /* When using custom loop normals, disable the angle feature! */
1316         const bool check_angle = (split_angle < (float)M_PI) && (clnors_data == NULL);
1317
1318         MLoopNorSpaceArray _lnors_spacearr = {NULL};
1319
1320 #ifdef DEBUG_TIME
1321         TIMEIT_START_AVERAGED(BKE_mesh_normals_loop_split);
1322 #endif
1323
1324         if (check_angle) {
1325                 split_angle = cosf(split_angle);
1326         }
1327
1328         if (!r_lnors_spacearr && clnors_data) {
1329                 /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1330                 r_lnors_spacearr = &_lnors_spacearr;
1331         }
1332         if (r_lnors_spacearr) {
1333                 BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops);
1334         }
1335
1336         /* This first loop check which edges are actually smooth, and compute edge vectors. */
1337         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1338                 MLoop *ml_curr;
1339                 int *e2l;
1340                 int ml_curr_index = mp->loopstart;
1341                 const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
1342
1343                 ml_curr = &mloops[ml_curr_index];
1344
1345                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
1346                         e2l = edge_to_loops[ml_curr->e];
1347
1348                         loop_to_poly[ml_curr_index] = mp_index;
1349
1350                         /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
1351                          * those later!
1352                          */
1353                         normal_short_to_float_v3(r_loopnors[ml_curr_index], mverts[ml_curr->v].no);
1354
1355                         /* Check whether current edge might be smooth or sharp */
1356                         if ((e2l[0] | e2l[1]) == 0) {
1357                                 /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
1358                                 e2l[0] = ml_curr_index;
1359                                 /* We have to check this here too, else we might miss some flat faces!!! */
1360                                 e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
1361                         }
1362                         else if (e2l[1] == INDEX_UNSET) {
1363                                 /* Second loop using this edge, time to test its sharpness.
1364                                  * An edge is sharp if it is tagged as such, or its face is not smooth,
1365                                  * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
1366                                  * or angle between both its polys' normals is above split_angle value.
1367                                  */
1368                                 if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
1369                                     ml_curr->v == mloops[e2l[0]].v ||
1370                                     (check_angle && dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) < split_angle))
1371                                 {
1372                                         /* Note: we are sure that loop != 0 here ;) */
1373                                         e2l[1] = INDEX_INVALID;
1374                                 }
1375                                 else {
1376                                         e2l[1] = ml_curr_index;
1377                                 }
1378                         }
1379                         else if (!IS_EDGE_SHARP(e2l)) {
1380                                 /* More than two loops using this edge, tag as sharp if not yet done. */
1381                                 e2l[1] = INDEX_INVALID;
1382                         }
1383                         /* Else, edge is already 'disqualified' (i.e. sharp)! */
1384                 }
1385         }
1386
1387         /* Init data common to all tasks. */
1388         LoopSplitTaskDataCommon common_data = {
1389             .lnors_spacearr = r_lnors_spacearr,
1390             .loopnors = r_loopnors,
1391             .clnors_data = clnors_data,
1392             .mverts = mverts,
1393             .medges = medges,
1394             .mloops = mloops,
1395             .mpolys = mpolys,
1396             .edge_to_loops = (const int(*)[2])edge_to_loops,
1397             .loop_to_poly = loop_to_poly,
1398             .polynors = polynors,
1399             .numLoops = numLoops,
1400             .numPolys = numPolys,
1401         };
1402
1403         if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1404                 /* Not enough loops to be worth the whole threading overhead... */
1405                 loop_split_generator(NULL, &common_data);
1406         }
1407         else {
1408                 TaskScheduler *task_scheduler;
1409                 TaskPool *task_pool;
1410
1411                 task_scheduler = BLI_task_scheduler_get();
1412                 task_pool = BLI_task_pool_create(task_scheduler, &common_data);
1413
1414                 loop_split_generator(task_pool, &common_data);
1415
1416                 BLI_task_pool_work_and_wait(task_pool);
1417
1418                 BLI_task_pool_free(task_pool);
1419         }
1420
1421         MEM_freeN(edge_to_loops);
1422         if (!r_loop_to_poly) {
1423                 MEM_freeN(loop_to_poly);
1424         }
1425
1426         if (r_lnors_spacearr) {
1427                 if (r_lnors_spacearr == &_lnors_spacearr) {
1428                         BKE_lnor_spacearr_free(r_lnors_spacearr);
1429                 }
1430         }
1431
1432 #ifdef DEBUG_TIME
1433         TIMEIT_END_AVERAGED(BKE_mesh_normals_loop_split);
1434 #endif
1435 }
1436
1437 #undef INDEX_UNSET
1438 #undef INDEX_INVALID
1439 #undef IS_EDGE_SHARP
1440
1441 /**
1442  * Compute internal representation of given custom normals (as an array of float[2]).
1443  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1444  * same custom lnor for all loops sharing a same smooth fan.
1445  * If use_vertices if true, r_custom_loopnors is assumed to be per-vertex, not per-loop
1446  * (this allows to set whole vert's normals at once, useful in some cases).
1447  * r_custom_loopnors is expected to have normalized normals, or zero ones, in which case they will be replaced
1448  * by default loop/vertex normal.
1449  */
1450 static void mesh_normals_loop_custom_set(
1451         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1452         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1453         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1454         short (*r_clnors_data)[2], const bool use_vertices)
1455 {
1456         /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1457          * feature too, would probably be more efficient in absolute.
1458          * However, this function *is not* performance-critical, since it is mostly expected to be called
1459          * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1460          * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1461          */
1462         MLoopNorSpaceArray lnors_spacearr = {NULL};
1463         BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1464         float (*lnors)[3] = MEM_callocN(sizeof(*lnors) * (size_t)numLoops, __func__);
1465         int *loop_to_poly = MEM_mallocN(sizeof(int) * (size_t)numLoops, __func__);
1466         /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1467         const bool use_split_normals = true;
1468         const float split_angle = (float)M_PI;
1469         int i;
1470
1471         BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1472
1473         /* Compute current lnor spacearr. */
1474         BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1475                                     mpolys, polynors, numPolys, use_split_normals, split_angle,
1476                                     &lnors_spacearr, NULL, loop_to_poly);
1477
1478         /* Set all given zero vectors to their default value. */
1479         if (use_vertices) {
1480                 for (i = 0; i < numVerts; i++) {
1481                         if (is_zero_v3(r_custom_loopnors[i])) {
1482                                 normal_short_to_float_v3(r_custom_loopnors[i], mverts[i].no);
1483                         }
1484                 }
1485         }
1486         else {
1487                 for (i = 0; i < numLoops; i++) {
1488                         if (is_zero_v3(r_custom_loopnors[i])) {
1489                                 copy_v3_v3(r_custom_loopnors[i], lnors[i]);
1490                         }
1491                 }
1492         }
1493
1494         /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1495          * are not (enough) equal, add sharp edges as needed.
1496          * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1497          * given custom lnors.
1498          * Note this code *will never* unsharp edges!
1499          * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1500          */
1501         if (!use_vertices) {
1502                 for (i = 0; i < numLoops; i++) {
1503                         if (!lnors_spacearr.lspacearr[i]) {
1504                                 /* This should not happen in theory, but in some rare case (probably ugly geometry)
1505                                  * we can get some NULL loopspacearr at this point. :/
1506                                  * Maybe we should set those loops' edges as sharp?
1507                                  */
1508                                 BLI_BITMAP_ENABLE(done_loops, i);
1509                                 if (G.debug & G_DEBUG) {
1510                                         printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1511                                 }
1512                                 continue;
1513                         }
1514
1515                         if (!BLI_BITMAP_TEST(done_loops, i)) {
1516                                 /* Notes:
1517                                  *     * In case of mono-loop smooth fan, loops is NULL, so everything is fine (we have nothing to do).
1518                                  *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1519                                  *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1520                                  *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1521                                  *       lnor space.
1522                                  *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1523                                  *       up into a real big one in the end!
1524                                  */
1525                                 LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1526                                 MLoop *prev_ml = NULL;
1527                                 const float *org_nor = NULL;
1528
1529                                 while (loops) {
1530                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1531                                         MLoop *ml = &mloops[lidx];
1532                                         const int nidx = lidx;
1533                                         float *nor = r_custom_loopnors[nidx];
1534
1535                                         if (!org_nor) {
1536                                                 org_nor = nor;
1537                                         }
1538                                         else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1539                                                 /* Current normal differs too much from org one, we have to tag the edge between
1540                                                  * previous loop's face and current's one as sharp.
1541                                                  * We know those two loops do not point to the same edge, since we do not allow reversed winding
1542                                                  * in a same smooth fan.
1543                                                  */
1544                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1545                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1546                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1547
1548                                                 org_nor = nor;
1549                                         }
1550
1551                                         prev_ml = ml;
1552                                         loops = loops->next;
1553                                         BLI_BITMAP_ENABLE(done_loops, lidx);
1554                                 }
1555
1556                                 /* We also have to check between last and first loops, otherwise we may miss some sharp edges here!
1557                                  * This is just a simplified version of above while loop.
1558                                  * See T45984. */
1559                                 loops = lnors_spacearr.lspacearr[i]->loops;
1560                                 if (loops && org_nor) {
1561                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1562                                         MLoop *ml = &mloops[lidx];
1563                                         const int nidx = lidx;
1564                                         float *nor = r_custom_loopnors[nidx];
1565
1566                                         if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1567                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1568                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1569                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1570                                         }
1571                                 }
1572
1573                                 /* For single loops, where lnors_spacearr.lspacearr[i]->loops is NULL. */
1574                                 BLI_BITMAP_ENABLE(done_loops, i);
1575                         }
1576                 }
1577
1578                 /* And now, recompute our new auto lnors and lnor spacearr! */
1579                 BKE_lnor_spacearr_clear(&lnors_spacearr);
1580                 BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1581                                             mpolys, polynors, numPolys, use_split_normals, split_angle,
1582                                             &lnors_spacearr, NULL, loop_to_poly);
1583         }
1584         else {
1585                 BLI_BITMAP_SET_ALL(done_loops, true, (size_t)numLoops);
1586         }
1587
1588         /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1589         for (i = 0; i < numLoops; i++) {
1590                 if (!lnors_spacearr.lspacearr[i]) {
1591                         BLI_BITMAP_DISABLE(done_loops, i);
1592                         if (G.debug & G_DEBUG) {
1593                                 printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1594                         }
1595                         continue;
1596                 }
1597
1598                 if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1599                         /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1600                          * clnors data (tiny differences in plain custom normals can give rather huge differences in
1601                          * computed 2D factors).
1602                          */
1603                         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1604                         if (loops) {
1605                                 int nbr_nors = 0;
1606                                 float avg_nor[3];
1607                                 short clnor_data_tmp[2], *clnor_data;
1608
1609                                 zero_v3(avg_nor);
1610                                 while (loops) {
1611                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1612                                         const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1613                                         float *nor = r_custom_loopnors[nidx];
1614
1615                                         nbr_nors++;
1616                                         add_v3_v3(avg_nor, nor);
1617                                         BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1618
1619                                         loops = loops->next;
1620                                         BLI_BITMAP_DISABLE(done_loops, lidx);
1621                                 }
1622
1623                                 mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1624                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1625
1626                                 while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1627                                         clnor_data[0] = clnor_data_tmp[0];
1628                                         clnor_data[1] = clnor_data_tmp[1];
1629                                 }
1630                         }
1631                         else {
1632                                 const int nidx = use_vertices ? (int)mloops[i].v : i;
1633                                 float *nor = r_custom_loopnors[nidx];
1634
1635                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1636                                 BLI_BITMAP_DISABLE(done_loops, i);
1637                         }
1638                 }
1639         }
1640
1641         MEM_freeN(lnors);
1642         MEM_freeN(loop_to_poly);
1643         MEM_freeN(done_loops);
1644         BKE_lnor_spacearr_free(&lnors_spacearr);
1645 }
1646
1647 void BKE_mesh_normals_loop_custom_set(
1648         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1649         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1650         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1651         short (*r_clnors_data)[2])
1652 {
1653         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, r_custom_loopnors, numLoops,
1654                                      mpolys, polynors, numPolys, r_clnors_data, false);
1655 }
1656
1657 void BKE_mesh_normals_loop_custom_from_vertices_set(
1658         const MVert *mverts, float (*r_custom_vertnors)[3], const int numVerts,
1659         MEdge *medges, const int numEdges, MLoop *mloops, const int numLoops,
1660         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1661         short (*r_clnors_data)[2])
1662 {
1663         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, r_custom_vertnors, numLoops,
1664                                      mpolys, polynors, numPolys, r_clnors_data, true);
1665 }
1666
1667 /**
1668  * Computes average per-vertex normals from given custom loop normals.
1669  *
1670  * \param clnors: The computed custom loop normals.
1671  * \param r_vert_clnors: The (already allocated) array where to store averaged per-vertex normals.
1672  */
1673 void BKE_mesh_normals_loop_to_vertex(
1674         const int numVerts, const MLoop *mloops, const int numLoops,
1675         const float (*clnors)[3], float (*r_vert_clnors)[3])
1676 {
1677         const MLoop *ml;
1678         int i;
1679
1680         int *vert_loops_nbr = MEM_callocN(sizeof(*vert_loops_nbr) * (size_t)numVerts, __func__);
1681
1682         copy_vn_fl((float *)r_vert_clnors, 3 * numVerts, 0.0f);
1683
1684         for (i = 0, ml = mloops; i < numLoops; i++, ml++) {
1685                 const unsigned int v = ml->v;
1686
1687                 add_v3_v3(r_vert_clnors[v], clnors[i]);
1688                 vert_loops_nbr[v]++;
1689         }
1690
1691         for (i = 0; i < numVerts; i++) {
1692                 mul_v3_fl(r_vert_clnors[i], 1.0f / (float)vert_loops_nbr[i]);
1693         }
1694
1695         MEM_freeN(vert_loops_nbr);
1696 }
1697
1698
1699 #undef LNOR_SPACE_TRIGO_THRESHOLD
1700
1701 /** \} */
1702
1703
1704 /* -------------------------------------------------------------------- */
1705
1706 /** \name Mesh Tangent Calculations
1707  * \{ */
1708
1709 /* Tangent space utils. */
1710
1711 /* User data. */
1712 typedef struct {
1713         const MPoly *mpolys;   /* faces */
1714         const MLoop *mloops;   /* faces's vertices */
1715         const MVert *mverts;   /* vertices */
1716         const MLoopUV *luvs;   /* texture coordinates */
1717         float (*lnors)[3];     /* loops' normals */
1718         float (*tangents)[4];  /* output tangents */
1719         int num_polys;         /* number of polygons */
1720 } BKEMeshToTangent;
1721
1722 /* Mikktspace's API */
1723 static int get_num_faces(const SMikkTSpaceContext *pContext)
1724 {
1725         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1726         return p_mesh->num_polys;
1727 }
1728
1729 static int get_num_verts_of_face(const SMikkTSpaceContext *pContext, const int face_idx)
1730 {
1731         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1732         return p_mesh->mpolys[face_idx].totloop;
1733 }
1734
1735 static void get_position(const SMikkTSpaceContext *pContext, float r_co[3], const int face_idx, const int vert_idx)
1736 {
1737         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1738         const int loop_idx = p_mesh->mpolys[face_idx].loopstart + vert_idx;
1739         copy_v3_v3(r_co, p_mesh->mverts[p_mesh->mloops[loop_idx].v].co);
1740 }
1741
1742 static void get_texture_coordinate(const SMikkTSpaceContext *pContext, float r_uv[2], const int face_idx,
1743                                    const int vert_idx)
1744 {
1745         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1746         copy_v2_v2(r_uv, p_mesh->luvs[p_mesh->mpolys[face_idx].loopstart + vert_idx].uv);
1747 }
1748
1749 static void get_normal(const SMikkTSpaceContext *pContext, float r_no[3], const int face_idx, const int vert_idx)
1750 {
1751         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1752         copy_v3_v3(r_no, p_mesh->lnors[p_mesh->mpolys[face_idx].loopstart + vert_idx]);
1753 }
1754
1755 static void set_tspace(const SMikkTSpaceContext *pContext, const float fv_tangent[3], const float face_sign,
1756                        const int face_idx, const int vert_idx)
1757 {
1758         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1759         float *p_res = p_mesh->tangents[p_mesh->mpolys[face_idx].loopstart + vert_idx];
1760         copy_v3_v3(p_res, fv_tangent);
1761         p_res[3] = face_sign;
1762 }
1763
1764 /**
1765  * Compute simplified tangent space normals, i.e. tangent vector + sign of bi-tangent one, which combined with
1766  * split normals can be used to recreate the full tangent space.
1767  * Note: * The mesh should be made of only tris and quads!
1768  */
1769 void BKE_mesh_loop_tangents_ex(
1770         const MVert *mverts, const int UNUSED(numVerts), const MLoop *mloops,
1771         float (*r_looptangent)[4], float (*loopnors)[3], const MLoopUV *loopuvs,
1772         const int UNUSED(numLoops), const MPoly *mpolys, const int numPolys,
1773         ReportList *reports)
1774 {
1775         BKEMeshToTangent mesh_to_tangent = {NULL};
1776         SMikkTSpaceContext s_context = {NULL};
1777         SMikkTSpaceInterface s_interface = {NULL};
1778
1779         const MPoly *mp;
1780         int mp_index;
1781
1782         /* First check we do have a tris/quads only mesh. */
1783         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1784                 if (mp->totloop > 4) {
1785                         BKE_report(reports, RPT_ERROR, "Tangent space can only be computed for tris/quads, aborting");
1786                         return;
1787                 }
1788         }
1789
1790         /* Compute Mikktspace's tangent normals. */
1791         mesh_to_tangent.mpolys = mpolys;
1792         mesh_to_tangent.mloops = mloops;
1793         mesh_to_tangent.mverts = mverts;
1794         mesh_to_tangent.luvs = loopuvs;
1795         mesh_to_tangent.lnors = loopnors;
1796         mesh_to_tangent.tangents = r_looptangent;
1797         mesh_to_tangent.num_polys = numPolys;
1798
1799         s_context.m_pUserData = &mesh_to_tangent;
1800         s_context.m_pInterface = &s_interface;
1801         s_interface.m_getNumFaces = get_num_faces;
1802         s_interface.m_getNumVerticesOfFace = get_num_verts_of_face;
1803         s_interface.m_getPosition = get_position;
1804         s_interface.m_getTexCoord = get_texture_coordinate;
1805         s_interface.m_getNormal = get_normal;
1806         s_interface.m_setTSpaceBasic = set_tspace;
1807
1808         /* 0 if failed */
1809         if (genTangSpaceDefault(&s_context) == false) {
1810                 BKE_report(reports, RPT_ERROR, "Mikktspace failed to generate tangents for this mesh!");
1811         }
1812 }
1813
1814 /**
1815  * Wrapper around BKE_mesh_loop_tangents_ex, which takes care of most boiling code.
1816  * \note
1817  * - There must be a valid loop's CD_NORMALS available.
1818  * - The mesh should be made of only tris and quads!
1819  */
1820 void BKE_mesh_loop_tangents(Mesh *mesh, const char *uvmap, float (*r_looptangents)[4], ReportList *reports)
1821 {
1822         MLoopUV *loopuvs;
1823         float (*loopnors)[3];
1824
1825         /* Check we have valid texture coordinates first! */
1826         if (uvmap) {
1827                 loopuvs = CustomData_get_layer_named(&mesh->ldata, CD_MLOOPUV, uvmap);
1828         }
1829         else {
1830                 loopuvs = CustomData_get_layer(&mesh->ldata, CD_MLOOPUV);
1831         }
1832         if (!loopuvs) {
1833                 BKE_reportf(reports, RPT_ERROR, "Tangent space computation needs an UVMap, \"%s\" not found, aborting", uvmap);
1834                 return;
1835         }
1836
1837         loopnors = CustomData_get_layer(&mesh->ldata, CD_NORMAL);
1838         if (!loopnors) {
1839                 BKE_report(reports, RPT_ERROR, "Tangent space computation needs loop normals, none found, aborting");
1840                 return;
1841         }
1842
1843         BKE_mesh_loop_tangents_ex(mesh->mvert, mesh->totvert, mesh->mloop, r_looptangents,
1844                                   loopnors, loopuvs, mesh->totloop, mesh->mpoly, mesh->totpoly, reports);
1845 }
1846
1847 /** \} */
1848
1849
1850 /* -------------------------------------------------------------------- */
1851
1852 /** \name Polygon Calculations
1853  * \{ */
1854
1855 /*
1856  * COMPUTE POLY NORMAL
1857  *
1858  * Computes the normal of a planar
1859  * polygon See Graphics Gems for
1860  * computing newell normal.
1861  *
1862  */
1863 static void mesh_calc_ngon_normal(
1864         const MPoly *mpoly, const MLoop *loopstart,
1865         const MVert *mvert, float normal[3])
1866 {
1867         const int nverts = mpoly->totloop;
1868         const float *v_prev = mvert[loopstart[nverts - 1].v].co;
1869         const float *v_curr;
1870         int i;
1871
1872         zero_v3(normal);
1873
1874         /* Newell's Method */
1875         for (i = 0; i < nverts; i++) {
1876                 v_curr = mvert[loopstart[i].v].co;
1877                 add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
1878                 v_prev = v_curr;
1879         }
1880
1881         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
1882                 normal[2] = 1.0f; /* other axis set to 0.0 */
1883         }
1884 }
1885
1886 void BKE_mesh_calc_poly_normal(
1887         const MPoly *mpoly, const MLoop *loopstart,
1888         const MVert *mvarray, float r_no[3])
1889 {
1890         if (mpoly->totloop > 4) {
1891                 mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
1892         }
1893         else if (mpoly->totloop == 3) {
1894                 normal_tri_v3(r_no,
1895                               mvarray[loopstart[0].v].co,
1896                               mvarray[loopstart[1].v].co,
1897                               mvarray[loopstart[2].v].co
1898                               );
1899         }
1900         else if (mpoly->totloop == 4) {
1901                 normal_quad_v3(r_no,
1902                                mvarray[loopstart[0].v].co,
1903                                mvarray[loopstart[1].v].co,
1904                                mvarray[loopstart[2].v].co,
1905                                mvarray[loopstart[3].v].co
1906                                );
1907         }
1908         else { /* horrible, two sided face! */
1909                 r_no[0] = 0.0;
1910                 r_no[1] = 0.0;
1911                 r_no[2] = 1.0;
1912         }
1913 }
1914 /* duplicate of function above _but_ takes coords rather then mverts */
1915 static void mesh_calc_ngon_normal_coords(
1916         const MPoly *mpoly, const MLoop *loopstart,
1917         const float (*vertex_coords)[3], float r_normal[3])
1918 {
1919         const int nverts = mpoly->totloop;
1920         const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
1921         const float *v_curr;
1922         int i;
1923
1924         zero_v3(r_normal);
1925
1926         /* Newell's Method */
1927         for (i = 0; i < nverts; i++) {
1928                 v_curr = vertex_coords[loopstart[i].v];
1929                 add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
1930                 v_prev = v_curr;
1931         }
1932
1933         if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
1934                 r_normal[2] = 1.0f; /* other axis set to 0.0 */
1935         }
1936 }
1937
1938 void BKE_mesh_calc_poly_normal_coords(
1939         const MPoly *mpoly, const MLoop *loopstart,
1940         const float (*vertex_coords)[3], float r_no[3])
1941 {
1942         if (mpoly->totloop > 4) {
1943                 mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
1944         }
1945         else if (mpoly->totloop == 3) {
1946                 normal_tri_v3(r_no,
1947                               vertex_coords[loopstart[0].v],
1948                               vertex_coords[loopstart[1].v],
1949                               vertex_coords[loopstart[2].v]
1950                               );
1951         }
1952         else if (mpoly->totloop == 4) {
1953                 normal_quad_v3(r_no,
1954                                vertex_coords[loopstart[0].v],
1955                                vertex_coords[loopstart[1].v],
1956                                vertex_coords[loopstart[2].v],
1957                                vertex_coords[loopstart[3].v]
1958                                );
1959         }
1960         else { /* horrible, two sided face! */
1961                 r_no[0] = 0.0;
1962                 r_no[1] = 0.0;
1963                 r_no[2] = 1.0;
1964         }
1965 }
1966
1967 static void mesh_calc_ngon_center(
1968         const MPoly *mpoly, const MLoop *loopstart,
1969         const MVert *mvert, float cent[3])
1970 {
1971         const float w = 1.0f / (float)mpoly->totloop;
1972         int i;
1973
1974         zero_v3(cent);
1975
1976         for (i = 0; i < mpoly->totloop; i++) {
1977                 madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
1978         }
1979 }
1980
1981 void BKE_mesh_calc_poly_center(
1982         const MPoly *mpoly, const MLoop *loopstart,
1983         const MVert *mvarray, float r_cent[3])
1984 {
1985         if (mpoly->totloop == 3) {
1986                 mid_v3_v3v3v3(r_cent,
1987                               mvarray[loopstart[0].v].co,
1988                               mvarray[loopstart[1].v].co,
1989                               mvarray[loopstart[2].v].co
1990                               );
1991         }
1992         else if (mpoly->totloop == 4) {
1993                 mid_v3_v3v3v3v3(r_cent,
1994                                 mvarray[loopstart[0].v].co,
1995                                 mvarray[loopstart[1].v].co,
1996                                 mvarray[loopstart[2].v].co,
1997                                 mvarray[loopstart[3].v].co
1998                                 );
1999         }
2000         else {
2001                 mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
2002         }
2003 }
2004
2005 /* note, passing polynormal is only a speedup so we can skip calculating it */
2006 float BKE_mesh_calc_poly_area(
2007         const MPoly *mpoly, const MLoop *loopstart,
2008         const MVert *mvarray)
2009 {
2010         if (mpoly->totloop == 3) {
2011                 return area_tri_v3(mvarray[loopstart[0].v].co,
2012                                    mvarray[loopstart[1].v].co,
2013                                    mvarray[loopstart[2].v].co
2014                                    );
2015         }
2016         else {
2017                 int i;
2018                 const MLoop *l_iter = loopstart;
2019                 float area;
2020                 float (*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
2021
2022                 /* pack vertex cos into an array for area_poly_v3 */
2023                 for (i = 0; i < mpoly->totloop; i++, l_iter++) {
2024                         copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
2025                 }
2026
2027                 /* finally calculate the area */
2028                 area = area_poly_v3((const float (*)[3])vertexcos, (unsigned int)mpoly->totloop);
2029
2030                 return area;
2031         }
2032 }
2033
2034 /**
2035  * Calculate the volume and volume-weighted centroid of the volume formed by the polygon and the origin.
2036  * Results will be negative if the origin is "outside" the polygon
2037  * (+ve normal side), but the polygon may be non-planar with no effect.
2038  *
2039  * Method from:
2040  * - http://forums.cgsociety.org/archive/index.php?t-756235.html
2041  * - http://www.globalspec.com/reference/52702/203279/4-8-the-centroid-of-a-tetrahedron
2042  *
2043  * \note
2044  * - Volume is 6x actual volume, and centroid is 4x actual volume-weighted centroid
2045  *   (so division can be done once at the end).
2046  * - Results will have bias if polygon is non-planar.
2047  * - The resulting volume will only be correct if the mesh is manifold and has consistent face winding
2048  *   (non-contiguous face normals or holes in the mesh surface).
2049  */
2050 static float mesh_calc_poly_volume_centroid(
2051         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
2052         float r_cent[3])
2053 {
2054         const float *v_pivot, *v_step1;
2055         float total_volume = 0.0f;
2056
2057         zero_v3(r_cent);
2058
2059         v_pivot = mvarray[loopstart[0].v].co;
2060         v_step1 = mvarray[loopstart[1].v].co;
2061
2062         for (int i = 2; i < mpoly->totloop; i++) {
2063                 const float *v_step2 = mvarray[loopstart[i].v].co;
2064
2065                 /* Calculate the 6x volume of the tetrahedron formed by the 3 vertices
2066                  * of the triangle and the origin as the fourth vertex */
2067                 float v_cross[3];
2068                 cross_v3_v3v3(v_cross, v_pivot, v_step1);
2069                 const float tetra_volume = dot_v3v3 (v_cross, v_step2);
2070                 total_volume += tetra_volume;
2071
2072                 /* Calculate the centroid of the tetrahedron formed by the 3 vertices
2073                  * of the triangle and the origin as the fourth vertex.
2074                  * The centroid is simply the average of the 4 vertices.
2075                  *
2076                  * Note that the vector is 4x the actual centroid so the division can be done once at the end. */
2077                 for (uint j = 0; j < 3; j++) {
2078                         r_cent[j] += tetra_volume * (v_pivot[j] + v_step1[j] + v_step2[j]);
2079                 }
2080
2081                 v_step1 = v_step2;
2082         }
2083
2084         return total_volume;
2085 }
2086
2087 /**
2088  * \note
2089  * - Results won't be correct if polygon is non-planar.
2090  * - This has the advantage over #mesh_calc_poly_volume_centroid
2091  *   that it doesn't depend on solid geometry, instead it weights the surface by volume.
2092  */
2093 static float mesh_calc_poly_area_centroid(
2094         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
2095         float r_cent[3])
2096 {
2097         int i;
2098         float tri_area;
2099         float total_area = 0.0f;
2100         float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
2101
2102         BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
2103         copy_v3_v3(v1, mvarray[loopstart[0].v].co);
2104         copy_v3_v3(v2, mvarray[loopstart[1].v].co);
2105         zero_v3(r_cent);
2106
2107         for (i = 2; i < mpoly->totloop; i++) {
2108                 copy_v3_v3(v3, mvarray[loopstart[i].v].co);
2109
2110                 tri_area = area_tri_signed_v3(v1, v2, v3, normal);
2111                 total_area += tri_area;
2112
2113                 mid_v3_v3v3v3(tri_cent, v1, v2, v3);
2114                 madd_v3_v3fl(r_cent, tri_cent, tri_area);
2115
2116                 copy_v3_v3(v2, v3);
2117         }
2118
2119         mul_v3_fl(r_cent, 1.0f / total_area);
2120
2121         return total_area;
2122 }
2123
2124 #if 0 /* slow version of the function below */
2125 void BKE_mesh_calc_poly_angles(MPoly *mpoly, MLoop *loopstart,
2126                                MVert *mvarray, float angles[])
2127 {
2128         MLoop *ml;
2129         MLoop *mloop = &loopstart[-mpoly->loopstart];
2130
2131         int j;
2132         for (j = 0, ml = loopstart; j < mpoly->totloop; j++, ml++) {
2133                 MLoop *ml_prev = ME_POLY_LOOP_PREV(mloop, mpoly, j);
2134                 MLoop *ml_next = ME_POLY_LOOP_NEXT(mloop, mpoly, j);
2135
2136                 float e1[3], e2[3];
2137
2138                 sub_v3_v3v3(e1, mvarray[ml_next->v].co, mvarray[ml->v].co);
2139                 sub_v3_v3v3(e2, mvarray[ml_prev->v].co, mvarray[ml->v].co);
2140
2141                 angles[j] = (float)M_PI - angle_v3v3(e1, e2);
2142         }
2143 }
2144
2145 #else /* equivalent the function above but avoid multiple subtractions + normalize */
2146
2147 void BKE_mesh_calc_poly_angles(
2148         const MPoly *mpoly, const MLoop *loopstart,
2149         const MVert *mvarray, float angles[])
2150 {
2151         float nor_prev[3];
2152         float nor_next[3];
2153
2154         int i_this = mpoly->totloop - 1;
2155         int i_next = 0;
2156
2157         sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
2158         normalize_v3(nor_prev);
2159
2160         while (i_next < mpoly->totloop) {
2161                 sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
2162                 normalize_v3(nor_next);
2163                 angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
2164
2165                 /* step */
2166                 copy_v3_v3(nor_prev, nor_next);
2167                 i_this = i_next;
2168                 i_next++;
2169         }
2170 }
2171 #endif
2172
2173 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
2174 {
2175         const MLoop *ml, *ml_next;
2176         int i = mp->totloop;
2177
2178         ml_next = mloop;       /* first loop */
2179         ml = &ml_next[i - 1];  /* last loop */
2180
2181         while (i-- != 0) {
2182                 BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
2183
2184                 ml = ml_next;
2185                 ml_next++;
2186         }
2187 }
2188
2189 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap, const MPoly *mp, const MLoop *mloop)
2190 {
2191         const MLoop *ml;
2192         int i = mp->totloop;
2193
2194         ml = mloop;
2195
2196         while (i-- != 0) {
2197                 BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
2198                 ml++;
2199         }
2200 }
2201
2202 /** \} */
2203
2204
2205 /* -------------------------------------------------------------------- */
2206
2207 /** \name Mesh Center Calculation
2208  * \{ */
2209
2210 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
2211 {
2212         int i = me->totvert;
2213         const MVert *mvert;
2214         zero_v3(r_cent);
2215         for (mvert = me->mvert; i--; mvert++) {
2216                 add_v3_v3(r_cent, mvert->co);
2217         }
2218         /* otherwise we get NAN for 0 verts */
2219         if (me->totvert) {
2220                 mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
2221         }
2222
2223         return (me->totvert != 0);
2224 }
2225
2226 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2227 {
2228         float min[3], max[3];
2229         INIT_MINMAX(min, max);
2230         if (BKE_mesh_minmax(me, min, max)) {
2231                 mid_v3_v3v3(r_cent, min, max);
2232                 return true;
2233         }
2234
2235         return false;
2236 }
2237
2238 bool BKE_mesh_center_of_surface(const Mesh *me, float r_cent[3])
2239 {
2240         int i = me->totpoly;
2241         MPoly *mpoly;
2242         float poly_area;
2243         float total_area = 0.0f;
2244         float poly_cent[3];
2245
2246         zero_v3(r_cent);
2247
2248         /* calculate a weighted average of polygon centroids */
2249         for (mpoly = me->mpoly; i--; mpoly++) {
2250                 poly_area = mesh_calc_poly_area_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2251
2252                 madd_v3_v3fl(r_cent, poly_cent, poly_area);
2253                 total_area += poly_area;
2254         }
2255         /* otherwise we get NAN for 0 polys */
2256         if (me->totpoly) {
2257                 mul_v3_fl(r_cent, 1.0f / total_area);
2258         }
2259
2260         /* zero area faces cause this, fallback to median */
2261         if (UNLIKELY(!is_finite_v3(r_cent))) {
2262                 return BKE_mesh_center_median(me, r_cent);
2263         }
2264
2265         return (me->totpoly != 0);
2266 }
2267
2268 /**
2269  * \note Mesh must be manifold with consistent face-winding, see #mesh_calc_poly_volume_centroid for details.
2270  */
2271 bool BKE_mesh_center_of_volume(const Mesh *me, float r_cent[3])
2272 {
2273         int i = me->totpoly;
2274         MPoly *mpoly;
2275         float poly_volume;
2276         float total_volume = 0.0f;
2277         float poly_cent[3];
2278
2279         zero_v3(r_cent);
2280
2281         /* calculate a weighted average of polyhedron centroids */
2282         for (mpoly = me->mpoly; i--; mpoly++) {
2283                 poly_volume = mesh_calc_poly_volume_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2284
2285                 /* poly_cent is already volume-weighted, so no need to multiply by the volume */
2286                 add_v3_v3(r_cent, poly_cent);
2287                 total_volume += poly_volume;
2288         }
2289         /* otherwise we get NAN for 0 polys */
2290         if (total_volume != 0.0f) {
2291                 /* multipy by 0.25 to get the correct centroid */
2292                 /* no need to divide volume by 6 as the centroid is weighted by 6x the volume, so it all cancels out */
2293                 mul_v3_fl(r_cent, 0.25f / total_volume);
2294         }
2295
2296         /* this can happen for non-manifold objects, fallback to median */
2297         if (UNLIKELY(!is_finite_v3(r_cent))) {
2298                 return BKE_mesh_center_median(me, r_cent);
2299         }
2300
2301         return (me->totpoly != 0);
2302 }
2303
2304 /** \} */
2305
2306
2307 /* -------------------------------------------------------------------- */
2308
2309 /** \name Mesh Volume Calculation
2310  * \{ */
2311
2312 static bool mesh_calc_center_centroid_ex(
2313         const MVert *mverts, int UNUSED(mverts_num),
2314         const MLoopTri *looptri, int looptri_num,
2315         const MLoop *mloop, float r_center[3])
2316 {
2317         const MLoopTri *lt;
2318         float totweight;
2319         int i;
2320         
2321         zero_v3(r_center);
2322         
2323         if (looptri_num == 0)
2324                 return false;
2325         
2326         totweight = 0.0f;
2327         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2328                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2329                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2330                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2331                 float area;
2332                 
2333                 area = area_tri_v3(v1->co, v2->co, v3->co);
2334                 madd_v3_v3fl(r_center, v1->co, area);
2335                 madd_v3_v3fl(r_center, v2->co, area);
2336                 madd_v3_v3fl(r_center, v3->co, area);
2337                 totweight += area;
2338         }
2339         if (totweight == 0.0f)
2340                 return false;
2341         
2342         mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2343         
2344         return true;
2345 }
2346
2347 /**
2348  * Calculate the volume and center.
2349  *
2350  * \param r_volume: Volume (unsigned).
2351  * \param r_center: Center of mass.
2352  */
2353 void BKE_mesh_calc_volume(
2354         const MVert *mverts, const int mverts_num,
2355         const MLoopTri *looptri, const int looptri_num,
2356         const MLoop *mloop,
2357         float *r_volume, float r_center[3])
2358 {
2359         const MLoopTri *lt;
2360         float center[3];
2361         float totvol;
2362         int i;
2363         
2364         if (r_volume)
2365                 *r_volume = 0.0f;
2366         if (r_center)
2367                 zero_v3(r_center);
2368         
2369         if (looptri_num == 0)
2370                 return;
2371         
2372         if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center))
2373                 return;
2374         
2375         totvol = 0.0f;
2376
2377         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2378                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2379                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2380                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2381                 float vol;
2382                 
2383                 vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2384                 if (r_volume) {
2385                         totvol += vol;
2386                 }
2387                 if (r_center) {
2388                         /* averaging factor 1/3 is applied in the end */
2389                         madd_v3_v3fl(r_center, v1->co, vol);
2390                         madd_v3_v3fl(r_center, v2->co, vol);
2391                         madd_v3_v3fl(r_center, v3->co, vol);
2392                 }
2393         }
2394         
2395         /* Note: Depending on arbitrary centroid position,
2396          * totvol can become negative even for a valid mesh.
2397          * The true value is always the positive value.
2398          */
2399         if (r_volume) {
2400                 *r_volume = fabsf(totvol);
2401         }
2402         if (r_center) {
2403                 /* Note: Factor 1/3 is applied once for all vertices here.
2404                  * This also automatically negates the vector if totvol is negative.
2405                  */
2406                 if (totvol != 0.0f)
2407                         mul_v3_fl(r_center, (1.0f / 3.0f) / totvol);
2408         }
2409 }
2410
2411
2412 /* -------------------------------------------------------------------- */
2413
2414 /** \name NGon Tessellation (NGon/Tessface Conversion)
2415  * \{ */
2416
2417 /**
2418  * Convert a triangle or quadrangle of loop/poly data to tessface data
2419  */
2420 void BKE_mesh_loops_to_mface_corners(
2421         CustomData *fdata, CustomData *ldata,
2422         CustomData *pdata, unsigned int lindex[4], int findex,
2423         const int polyindex,
2424         const int mf_len, /* 3 or 4 */
2425
2426         /* cache values to avoid lookups every time */
2427         const int numTex, /* CustomData_number_of_layers(pdata, CD_MTEXPOLY) */
2428         const int numCol, /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2429         const bool hasPCol, /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2430         const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2431         const bool hasLNor /* CustomData_has_layer(ldata, CD_NORMAL) */
2432 )
2433 {
2434         MTFace *texface;
2435         MTexPoly *texpoly;
2436         MCol *mcol;
2437         MLoopCol *mloopcol;
2438         MLoopUV *mloopuv;
2439         int i, j;
2440
2441         for (i = 0; i < numTex; i++) {
2442                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2443                 texpoly = CustomData_get_n(pdata, CD_MTEXPOLY, polyindex, i);
2444
2445                 ME_MTEXFACE_CPY(texface, texpoly);
2446
2447                 for (j = 0; j < mf_len; j++) {
2448                         mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2449                         copy_v2_v2(texface->uv[j], mloopuv->uv);
2450                 }
2451         }
2452
2453         for (i = 0; i < numCol; i++) {
2454                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2455
2456                 for (j = 0; j < mf_len; j++) {
2457                         mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2458                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2459                 }
2460         }
2461
2462         if (hasPCol) {
2463                 mcol = CustomData_get(fdata,  findex, CD_PREVIEW_MCOL);
2464
2465                 for (j = 0; j < mf_len; j++) {
2466                         mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2467                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2468                 }
2469         }
2470
2471         if (hasOrigSpace) {
2472                 OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2473                 OrigSpaceLoop *lof;
2474
2475                 for (j = 0; j < mf_len; j++) {
2476                         lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2477                         copy_v2_v2(of->uv[j], lof->uv);
2478                 }
2479         }
2480
2481         if (hasLNor) {
2482                 short (*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2483
2484                 for (j = 0; j < mf_len; j++) {
2485                         normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2486                 }
2487         }
2488 }
2489
2490 /**
2491  * Convert all CD layers from loop/poly to tessface data.
2492  *
2493  * \param loopindices is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2494  *
2495  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2496  */
2497 void BKE_mesh_loops_to_tessdata(CustomData *fdata, CustomData *ldata, CustomData *pdata, MFace *mface,
2498                                 int *polyindices, unsigned int (*loopindices)[4], const int num_faces)
2499 {
2500         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2501          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2502          *       this. Better imho to live with it for now. :/ --mont29
2503          */
2504         const int numTex = CustomData_number_of_layers(pdata, CD_MTEXPOLY);
2505         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2506         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2507         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2508         const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2509         const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2510         int findex, i, j;
2511         const int *pidx;
2512         unsigned int (*lidx)[4];
2513
2514         for (i = 0; i < numTex; i++) {
2515                 MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2516                 MTexPoly *texpoly = CustomData_get_layer_n(pdata, CD_MTEXPOLY, i);
2517                 MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2518
2519                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2520                      findex < num_faces;
2521                      pidx++, lidx++, findex++, texface++)
2522                 {
2523                         ME_MTEXFACE_CPY(texface, &texpoly[*pidx]);
2524
2525                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2526                                 copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2527                         }
2528                 }
2529         }
2530
2531         for (i = 0; i < numCol; i++) {
2532                 MCol (*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2533                 MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2534
2535                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2536                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2537                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2538                         }
2539                 }
2540         }
2541
2542         if (hasPCol) {
2543                 MCol (*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2544                 MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2545
2546                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2547                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2548                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2549                         }
2550                 }
2551         }
2552
2553         if (hasOrigSpace) {
2554                 OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2555                 OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2556
2557                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2558                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2559                                 copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2560                         }
2561                 }
2562         }
2563
2564         if (hasLoopNormal) {
2565                 short (*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2566                 float (*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2567
2568                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2569                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2570                                 normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2571                         }
2572                 }
2573         }
2574
2575         if (hasLoopTangent) {
2576                 /* need to do for all uv maps at some point */
2577                 float (*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2578                 float (*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2579
2580                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2581                      findex < num_faces;
2582                      pidx++, lidx++, findex++)
2583                 {
2584                         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2585                         for (j = nverts; j--;) {
2586                                 copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2587                         }
2588                 }
2589         }
2590 }
2591
2592 void BKE_mesh_tangent_loops_to_tessdata(
2593         CustomData *fdata, CustomData *ldata, MFace *mface,
2594         int *polyindices, unsigned int (*loopindices)[4], const int num_faces, const char *layer_name)
2595 {
2596         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2597          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2598          *       this. Better imho to live with it for now. :/ --mont29
2599          */
2600
2601         float (*ftangents)[4] = NULL;
2602         float (*ltangents)[4] = NULL;
2603
2604         int findex, j;
2605         const int *pidx;
2606         unsigned int (*lidx)[4];
2607
2608         if (layer_name)
2609                 ltangents = CustomData_get_layer_named(ldata, CD_TANGENT, layer_name);
2610         else
2611                 ltangents = CustomData_get_layer(ldata, CD_TANGENT);
2612
2613         if (ltangents) {
2614                 /* need to do for all uv maps at some point */
2615                 if (layer_name)
2616                         ftangents = CustomData_get_layer_named(fdata, CD_TANGENT, layer_name);
2617                 else
2618                         ftangents = CustomData_get_layer(fdata, CD_TANGENT);
2619                 if (ftangents) {
2620                         for (findex = 0, pidx = polyindices, lidx = loopindices;
2621                              findex < num_faces;
2622                              pidx++, lidx++, findex++)
2623                         {
2624                                 int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2625                                 for (j = nverts; j--;) {
2626                                         copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2627                                 }
2628                         }
2629                 }
2630         }
2631 }
2632
2633 /**
2634  * Recreate tessellation.
2635  *
2636  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2637  *
2638  * \return number of tessellation faces.
2639  */
2640 int BKE_mesh_recalc_tessellation(
2641         CustomData *fdata, CustomData *ldata, CustomData *pdata,
2642         MVert *mvert,
2643         int totface, int totloop, int totpoly,
2644         const bool do_face_nor_copy)
2645 {
2646         /* use this to avoid locking pthread for _every_ polygon
2647          * and calling the fill function */
2648
2649 #define USE_TESSFACE_SPEEDUP
2650 #define USE_TESSFACE_QUADS  /* NEEDS FURTHER TESTING */
2651
2652 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2653 #define TESSFACE_IS_QUAD 1
2654
2655         const int looptri_num = poly_to_tri_count(totpoly, totloop);
2656
2657         MPoly *mp, *mpoly;
2658         MLoop *ml, *mloop;
2659         MFace *mface, *mf;
2660         MemArena *arena = NULL;
2661         int *mface_to_poly_map;
2662         unsigned int (*lindices)[4];
2663         int poly_index, mface_index;
2664         unsigned int j;
2665
2666         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2667         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2668
2669         /* allocate the length of totfaces, avoid many small reallocs,
2670          * if all faces are tri's it will be correct, quads == 2x allocs */
2671         /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2672         mface_to_poly_map = MEM_mallocN(sizeof(*mface_to_poly_map) * (size_t)looptri_num, __func__);
2673         mface             = MEM_mallocN(sizeof(*mface) *             (size_t)looptri_num, __func__);
2674         lindices          = MEM_mallocN(sizeof(*lindices) *          (size_t)looptri_num, __func__);
2675
2676         mface_index = 0;
2677         mp = mpoly;
2678         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2679                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2680                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2681                 unsigned int l1, l2, l3, l4;
2682                 unsigned int *lidx;
2683                 if (mp_totloop < 3) {
2684                         /* do nothing */
2685                 }
2686
2687 #ifdef USE_TESSFACE_SPEEDUP
2688
2689 #define ML_TO_MF(i1, i2, i3)                                                  \
2690                 mface_to_poly_map[mface_index] = poly_index;                          \
2691                 mf = &mface[mface_index];                                             \
2692                 lidx = lindices[mface_index];                                         \
2693                 /* set loop indices, transformed to vert indices later */             \
2694                 l1 = mp_loopstart + i1;                                               \
2695                 l2 = mp_loopstart + i2;                                               \
2696                 l3 = mp_loopstart + i3;                                               \
2697                 mf->v1 = mloop[l1].v;                                                 \
2698                 mf->v2 = mloop[l2].v;                                                 \
2699                 mf->v3 = mloop[l3].v;                                                 \
2700                 mf->v4 = 0;                                                           \
2701                 lidx[0] = l1;                                                         \
2702                 lidx[1] = l2;                                                         \
2703                 lidx[2] = l3;                                                         \
2704                 lidx[3] = 0;                                                          \
2705                 mf->mat_nr = mp->mat_nr;                                              \
2706                 mf->flag = mp->flag;                                                  \
2707                 mf->edcode = 0;                                                       \
2708                 (void)0
2709
2710 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
2711 #define ML_TO_MF_QUAD()                                                       \
2712                 mface_to_poly_map[mface_index] = poly_index;                          \
2713                 mf = &mface[mface_index];                                             \
2714                 lidx = lindices[mface_index];                                         \
2715                 /* set loop indices, transformed to vert indices later */             \
2716                 l1 = mp_loopstart + 0; /* EXCEPTION */                                \
2717                 l2 = mp_loopstart + 1; /* EXCEPTION */                                \
2718                 l3 = mp_loopstart + 2; /* EXCEPTION */                                \
2719                 l4 = mp_loopstart + 3; /* EXCEPTION */                                \
2720                 mf->v1 = mloop[l1].v;                                                 \
2721                 mf->v2 = mloop[l2].v;                                                 \
2722                 mf->v3 = mloop[l3].v;                                                 \
2723                 mf->v4 = mloop[l4].v;                                                 \
2724                 lidx[0] = l1;                                                         \
2725                 lidx[1] = l2;                                                         \
2726                 lidx[2] = l3;                                                         \
2727                 lidx[3] = l4;                                                         \
2728                 mf->mat_nr = mp->mat_nr;                                              \
2729                 mf->flag = mp->flag;                                                  \
2730                 mf->edcode = TESSFACE_IS_QUAD;                                        \
2731                 (void)0
2732
2733
2734                 else if (mp_totloop == 3) {
2735                         ML_TO_MF(0, 1, 2);
2736                         mface_index++;
2737                 }
2738                 else if (mp_totloop == 4) {
2739 #ifdef USE_TESSFACE_QUADS
2740                         ML_TO_MF_QUAD();
2741                         mface_index++;
2742 #else
2743                         ML_TO_MF(0, 1, 2);
2744                         mface_index++;
2745                         ML_TO_MF(0, 2, 3);
2746                         mface_index++;
2747 #endif
2748                 }
2749 #endif /* USE_TESSFACE_SPEEDUP */
2750                 else {
2751                         const float *co_curr, *co_prev;
2752
2753                         float normal[3];
2754
2755                         float axis_mat[3][3];
2756                         float (*projverts)[2];
2757                         unsigned int (*tris)[3];
2758
2759                         const unsigned int totfilltri = mp_totloop - 2;
2760
2761                         if (UNLIKELY(arena == NULL)) {
2762                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2763                         }
2764
2765                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2766                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2767
2768                         zero_v3(normal);
2769
2770                         /* calc normal, flipped: to get a positive 2d cross product */
2771                         ml = mloop + mp_loopstart;
2772                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2773                         for (j = 0; j < mp_totloop; j++, ml++) {
2774                                 co_curr = mvert[ml->v].co;
2775                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2776                                 co_prev = co_curr;
2777                         }
2778                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2779                                 normal[2] = 1.0f;
2780                         }
2781
2782                         /* project verts to 2d */
2783                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2784
2785                         ml = mloop + mp_loopstart;
2786                         for (j = 0; j < mp_totloop; j++, ml++) {
2787                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2788                         }
2789
2790                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
2791
2792                         /* apply fill */
2793                         for (j = 0; j < totfilltri; j++) {
2794                                 unsigned int *tri = tris[j];
2795                                 lidx = lindices[mface_index];
2796
2797                                 mface_to_poly_map[mface_index] = poly_index;
2798                                 mf = &mface[mface_index];
2799
2800                                 /* set loop indices, transformed to vert indices later */
2801                                 l1 = mp_loopstart + tri[0];
2802                                 l2 = mp_loopstart + tri[1];
2803                                 l3 = mp_loopstart + tri[2];
2804
2805                                 mf->v1 = mloop[l1].v;
2806                                 mf->v2 = mloop[l2].v;
2807                                 mf->v3 = mloop[l3].v;
2808                                 mf->v4 = 0;
2809
2810                                 lidx[0] = l1;
2811                                 lidx[1] = l2;
2812                                 lidx[2] = l3;
2813                                 lidx[3] = 0;
2814
2815                                 mf->mat_nr = mp->mat_nr;
2816                                 mf->flag = mp->flag;
2817                                 mf->edcode = 0;
2818
2819                                 mface_index++;
2820                         }
2821
2822                         BLI_memarena_clear(arena);
2823                 }
2824         }
2825
2826         if (arena) {
2827                 BLI_memarena_free(arena);
2828                 arena = NULL;
2829         }
2830
2831         CustomData_free(fdata, totface);
2832         totface = mface_index;
2833
2834         BLI_assert(totface <= looptri_num);
2835
2836         /* not essential but without this we store over-alloc'd memory in the CustomData layers */
2837         if (LIKELY(looptri_num != totface)) {
2838                 mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
2839                 mface_to_poly_map = MEM_reallocN(mface_to_poly_map, sizeof(*mface_to_poly_map) * (size_t)totface);
2840         }
2841
2842         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2843
2844         /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
2845          * they are directly tessellated from */
2846         CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
2847         CustomData_from_bmeshpoly(fdata, pdata, ldata, totface);
2848
2849         if (do_face_nor_copy) {
2850                 /* If polys have a normals layer, copying that to faces can help
2851                  * avoid the need to recalculate normals later */
2852                 if (CustomData_has_layer(pdata, CD_NORMAL)) {
2853                         float (*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
2854                         float (*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
2855                         for (mface_index = 0; mface_index < totface; mface_index++) {
2856                                 copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
2857                         }
2858                 }
2859         }
2860
2861         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2862          * Polygons take care of their loops ordering, hence not of their vertices ordering.
2863          * Currently, our tfaces' fourth vertex index might be 0 even for a quad. However, we know our fourth loop index is
2864          * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
2865          * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the fourth loop index as quad test.
2866          * ...
2867          */
2868         BKE_mesh_loops_to_tessdata(fdata, ldata, pdata, NULL, mface_to_poly_map, lindices, totface);
2869
2870         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2871          * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
2872          * test_index_face() will check this and rotate the tessellated face if needed.
2873          */
2874 #ifdef USE_TESSFACE_QUADS
2875         mf = mface;
2876         for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
2877                 if (mf->edcode == TESSFACE_IS_QUAD) {
2878                         test_index_face(mf, fdata, mface_index, 4);
2879                         mf->edcode = 0;
2880                 }
2881         }
2882 #endif
2883
2884         MEM_freeN(lindices);
2885
2886         return totface;
2887
2888 #undef USE_TESSFACE_SPEEDUP
2889 #undef USE_TESSFACE_QUADS
2890
2891 #undef ML_TO_MF
2892 #undef ML_TO_MF_QUAD
2893
2894 }
2895
2896 /**
2897  * Calculate tessellation into #MLoopTri which exist only for this purpose.
2898  */
2899 void BKE_mesh_recalc_looptri(
2900         const MLoop *mloop, const MPoly *mpoly,
2901         const MVert *mvert,
2902         int totloop, int totpoly,
2903         MLoopTri *mlooptri)
2904 {
2905         /* use this to avoid locking pthread for _every_ polygon
2906          * and calling the fill function */
2907
2908 #define USE_TESSFACE_SPEEDUP
2909
2910         const MPoly *mp;
2911         const MLoop *ml;
2912         MLoopTri *mlt;
2913         MemArena *arena = NULL;
2914         int poly_index, mlooptri_index;
2915         unsigned int j;
2916
2917         mlooptri_index = 0;
2918         mp = mpoly;
2919         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2920                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2921                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2922                 unsigned int l1, l2, l3;
2923                 if (mp_totloop < 3) {
2924                         /* do nothing */
2925                 }
2926
2927 #ifdef USE_TESSFACE_SPEEDUP
2928
2929 #define ML_TO_MLT(i1, i2, i3)  { \
2930                         mlt = &mlooptri[mlooptri_index]; \
2931                         l1 = mp_loopstart + i1; \
2932                         l2 = mp_loopstart + i2; \
2933                         l3 = mp_loopstart + i3; \
2934                         ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3); \
2935                         mlt->poly = (unsigned int)poly_index; \
2936                 } ((void)0)
2937
2938                 else if (mp_totloop == 3) {
2939                         ML_TO_MLT(0, 1, 2);
2940                         mlooptri_index++;
2941                 }
2942                 else if (mp_totloop == 4) {
2943                         ML_TO_MLT(0, 1, 2);
2944                         mlooptri_index++;
2945                         ML_TO_MLT(0, 2, 3);
2946                         mlooptri_index++;
2947                 }
2948 #endif /* USE_TESSFACE_SPEEDUP */
2949                 else {
2950                         const float *co_curr, *co_prev;
2951
2952                         float normal[3];
2953
2954                         float axis_mat[3][3];
2955                         float (*projverts)[2];
2956                         unsigned int (*tris)[3];
2957
2958                         const unsigned int totfilltri = mp_totloop - 2;
2959
2960                         if (UNLIKELY(arena == NULL)) {
2961                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2962                         }
2963
2964                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2965                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2966
2967                         zero_v3(normal);
2968
2969                         /* calc normal, flipped: to get a positive 2d cross product */
2970                         ml = mloop + mp_loopstart;
2971                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2972                         for (j = 0; j < mp_totloop; j++, ml++) {
2973                                 co_curr = mvert[ml->v].co;
2974                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2975                                 co_prev = co_curr;
2976                         }
2977                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2978                                 normal[2] = 1.0f;
2979                         }
2980
2981                         /* project verts to 2d */
2982                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2983
2984                         ml = mloop + mp_loopstart;
2985                         for (j = 0; j < mp_totloop; j++, ml++) {
2986                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2987                         }
2988
2989                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
2990
2991                         /* apply fill */
2992                         for (j = 0; j < totfilltri; j++) {
2993                                 unsigned int *tri = tris[j];
2994
2995                                 mlt = &mlooptri[mlooptri_index];
2996
2997                                 /* set loop indices, transformed to vert indices later */
2998                                 l1 = mp_loopstart + tri[0];
2999                                 l2 = mp_loopstart + tri[1];
3000                                 l3 = mp_loopstart + tri[2];
3001
3002                                 ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3);
3003                                 mlt->poly = (unsigned int)poly_index;
3004
3005                                 mlooptri_index++;
3006                         }
3007
3008                         BLI_memarena_clear(arena);
3009                 }
3010         }
3011
3012         if (arena) {
3013                 BLI_memarena_free(arena);
3014                 arena = NULL;
3015         }
3016
3017         BLI_assert(mlooptri_index == poly_to_tri_count(totpoly, totloop));
3018         UNUSED_VARS_NDEBUG(totloop);
3019
3020 #undef USE_TESSFACE_SPEEDUP
3021 #undef ML_TO_MLT
3022 }
3023
3024 /* -------------------------------------------------------------------- */
3025
3026
3027 #ifdef USE_BMESH_SAVE_AS_COMPAT
3028
3029 /**
3030  * This function recreates a tessellation.
3031  * returns number of tessellation faces.
3032  *
3033  * for forwards compat only quad->tri polys to mface, skip ngons.
3034  */
3035 int BKE_mesh_mpoly_to_mface(struct CustomData *fdata, struct CustomData *ldata,
3036                             struct CustomData *pdata, int totface, int UNUSED(totloop), int totpoly)
3037 {
3038         MLoop *mloop;
3039
3040         unsigned int lindex[4];
3041         int i;
3042         int k;
3043
3044         MPoly *mp, *mpoly;
3045         MFace *mface, *mf;
3046
3047         const int numTex = CustomData_number_of_layers(pdata, CD_MTEXPOLY);
3048         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
3049         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
3050         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
3051         const bool hasLNor = CustomData_has_layer(ldata, CD_NORMAL);
3052
3053         /* over-alloc, ngons will be skipped */
3054         mface = MEM_mallocN(sizeof(*mface) * (size_t)totpoly, __func__);
3055
3056  &