Refactor: Merge non-functional-change part of 'edit normals' 2017 GSoC.
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * ***** BEGIN GPL LICENSE BLOCK *****
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License
6  * as published by the Free Software Foundation; either version 2
7  * of the License, or (at your option) any later version.
8  *
9  * This program is distributed in the hope that it will be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write to the Free Software Foundation,
16  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
17  *
18  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
19  * All rights reserved.
20  *
21  * Contributor(s): Blender Foundation
22  *
23  * ***** END GPL LICENSE BLOCK *****
24  */
25
26 /** \file blender/blenkernel/intern/mesh_evaluate.c
27  *  \ingroup bke
28  *
29  * Functions to evaluate mesh data.
30  */
31
32 #include <limits.h>
33
34 #include "MEM_guardedalloc.h"
35
36 #include "DNA_object_types.h"
37 #include "DNA_mesh_types.h"
38 #include "DNA_meshdata_types.h"
39
40 #include "BLI_utildefines.h"
41 #include "BLI_memarena.h"
42 #include "BLI_mempool.h"
43 #include "BLI_math.h"
44 #include "BLI_edgehash.h"
45 #include "BLI_bitmap.h"
46 #include "BLI_polyfill_2d.h"
47 #include "BLI_linklist.h"
48 #include "BLI_linklist_stack.h"
49 #include "BLI_alloca.h"
50 #include "BLI_stack.h"
51 #include "BLI_task.h"
52
53 #include "BKE_customdata.h"
54 #include "BKE_global.h"
55 #include "BKE_mesh.h"
56 #include "BKE_multires.h"
57 #include "BKE_report.h"
58
59 #include "BLI_strict_flags.h"
60
61 #include "atomic_ops.h"
62 #include "mikktspace.h"
63
64 // #define DEBUG_TIME
65
66 #include "PIL_time.h"
67 #ifdef DEBUG_TIME
68 #  include "PIL_time_utildefines.h"
69 #endif
70
71 /* -------------------------------------------------------------------- */
72
73 /** \name Mesh Normal Calculation
74  * \{ */
75
76 /**
77  * Call when there are no polygons.
78  */
79 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
80 {
81         int i;
82         for (i = 0; i < numVerts; i++) {
83                 MVert *mv = &mverts[i];
84                 float no[3];
85
86                 normalize_v3_v3(no, mv->co);
87                 normal_float_to_short_v3(mv->no, no);
88         }
89 }
90
91 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
92  * and vertex normals are stored in actual mverts.
93  */
94 void BKE_mesh_calc_normals_mapping(
95         MVert *mverts, int numVerts,
96         const MLoop *mloop, const MPoly *mpolys, int numLoops, int numPolys, float (*r_polyNors)[3],
97         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3])
98 {
99         BKE_mesh_calc_normals_mapping_ex(
100                 mverts, numVerts, mloop, mpolys,
101                 numLoops, numPolys, r_polyNors, mfaces, numFaces,
102                 origIndexFace, r_faceNors, false);
103 }
104 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
105 void BKE_mesh_calc_normals_mapping_ex(
106         MVert *mverts, int numVerts,
107         const MLoop *mloop, const MPoly *mpolys,
108         int numLoops, int numPolys, float (*r_polyNors)[3],
109         const MFace *mfaces, int numFaces, const int *origIndexFace, float (*r_faceNors)[3],
110         const bool only_face_normals)
111 {
112         float (*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
113         int i;
114         const MFace *mf;
115         const MPoly *mp;
116
117         if (numPolys == 0) {
118                 if (only_face_normals == false) {
119                         mesh_calc_normals_vert_fallback(mverts, numVerts);
120                 }
121                 return;
122         }
123
124         /* if we are not calculating verts and no verts were passes then we have nothing to do */
125         if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
126                 printf("%s: called with nothing to do\n", __func__);
127                 return;
128         }
129
130         if (!pnors) pnors = MEM_calloc_arrayN((size_t)numPolys, sizeof(float[3]), __func__);
131         /* if (!fnors) fnors = MEM_calloc_arrayN(numFaces, sizeof(float[3]), "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
132
133
134         if (only_face_normals == false) {
135                 /* vertex normals are optional, they require some extra calculations,
136                  * so make them optional */
137                 BKE_mesh_calc_normals_poly(mverts, NULL, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
138         }
139         else {
140                 /* only calc poly normals */
141                 mp = mpolys;
142                 for (i = 0; i < numPolys; i++, mp++) {
143                         BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
144                 }
145         }
146
147         if (origIndexFace &&
148             /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
149             fnors != NULL &&
150             numFaces)
151         {
152                 mf = mfaces;
153                 for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
154                         if (*origIndexFace < numPolys) {
155                                 copy_v3_v3(fnors[i], pnors[*origIndexFace]);
156                         }
157                         else {
158                                 /* eek, we're not corresponding to polys */
159                                 printf("error in %s: tessellation face indices are incorrect.  normals may look bad.\n", __func__);
160                         }
161                 }
162         }
163
164         if (pnors != r_polyNors) MEM_freeN(pnors);
165         /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
166
167         fnors = pnors = NULL;
168         
169 }
170
171 typedef struct MeshCalcNormalsData {
172         const MPoly *mpolys;
173         const MLoop *mloop;
174         MVert *mverts;
175         float (*pnors)[3];
176         float (*lnors_weighted)[3];
177         float (*vnors)[3];
178 } MeshCalcNormalsData;
179
180 static void mesh_calc_normals_poly_cb(
181         void *__restrict userdata, 
182         const int pidx,
183         const ParallelRangeTLS *__restrict UNUSED(tls))
184 {
185         MeshCalcNormalsData *data = userdata;
186         const MPoly *mp = &data->mpolys[pidx];
187
188         BKE_mesh_calc_poly_normal(mp, data->mloop + mp->loopstart, data->mverts, data->pnors[pidx]);
189 }
190
191 static void mesh_calc_normals_poly_prepare_cb(
192         void *__restrict userdata, 
193         const int pidx,
194         const ParallelRangeTLS *__restrict UNUSED(tls))
195 {
196         MeshCalcNormalsData *data = userdata;
197         const MPoly *mp = &data->mpolys[pidx];
198         const MLoop *ml = &data->mloop[mp->loopstart];
199         const MVert *mverts = data->mverts;
200
201         float pnor_temp[3];
202         float *pnor = data->pnors ? data->pnors[pidx] : pnor_temp;
203         float (*lnors_weighted)[3] = data->lnors_weighted;
204
205         const int nverts = mp->totloop;
206         float (*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
207         int i;
208
209         /* Polygon Normal and edge-vector */
210         /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
211         {
212                 int i_prev = nverts - 1;
213                 const float *v_prev = mverts[ml[i_prev].v].co;
214                 const float *v_curr;
215
216                 zero_v3(pnor);
217                 /* Newell's Method */
218                 for (i = 0; i < nverts; i++) {
219                         v_curr = mverts[ml[i].v].co;
220                         add_newell_cross_v3_v3v3(pnor, v_prev, v_curr);
221
222                         /* Unrelated to normalize, calculate edge-vector */
223                         sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
224                         normalize_v3(edgevecbuf[i_prev]);
225                         i_prev = i;
226
227                         v_prev = v_curr;
228                 }
229                 if (UNLIKELY(normalize_v3(pnor) == 0.0f)) {
230                         pnor[2] = 1.0f; /* other axes set to 0.0 */
231                 }
232         }
233
234         /* accumulate angle weighted face normal */
235         /* inline version of #accumulate_vertex_normals_poly_v3,
236          * split between this threaded callback and #mesh_calc_normals_poly_accum_cb. */
237         {
238                 const float *prev_edge = edgevecbuf[nverts - 1];
239
240                 for (i = 0; i < nverts; i++) {
241                         const int lidx = mp->loopstart + i;
242                         const float *cur_edge = edgevecbuf[i];
243
244                         /* calculate angle between the two poly edges incident on
245                          * this vertex */
246                         const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
247
248                         /* Store for later accumulation */
249                         mul_v3_v3fl(lnors_weighted[lidx], pnor, fac);
250
251                         prev_edge = cur_edge;
252                 }
253         }
254 }
255
256 static void mesh_calc_normals_poly_finalize_cb(
257         void *__restrict userdata,
258         const int vidx,
259         const ParallelRangeTLS *__restrict UNUSED(tls))
260 {
261         MeshCalcNormalsData *data = userdata;
262
263         MVert *mv = &data->mverts[vidx];
264         float *no = data->vnors[vidx];
265
266         if (UNLIKELY(normalize_v3(no) == 0.0f)) {
267                 /* following Mesh convention; we use vertex coordinate itself for normal in this case */
268                 normalize_v3_v3(no, mv->co);
269         }
270
271         normal_float_to_short_v3(mv->no, no);
272 }
273
274 void BKE_mesh_calc_normals_poly(
275         MVert *mverts, float (*r_vertnors)[3], int numVerts,
276         const MLoop *mloop, const MPoly *mpolys,
277         int numLoops, int numPolys, float (*r_polynors)[3],
278         const bool only_face_normals)
279 {
280         float (*pnors)[3] = r_polynors;
281
282         ParallelRangeSettings settings;
283         BLI_parallel_range_settings_defaults(&settings);
284         settings.min_iter_per_thread = 1024;
285
286         if (only_face_normals) {
287                 BLI_assert((pnors != NULL) || (numPolys == 0));
288                 BLI_assert(r_vertnors == NULL);
289
290                 MeshCalcNormalsData data = {
291                     .mpolys = mpolys, .mloop = mloop, .mverts = mverts, .pnors = pnors,
292                 };
293
294                 BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_cb, &settings);
295                 return;
296         }
297
298         float (*vnors)[3] = r_vertnors;
299         float (*lnors_weighted)[3] = MEM_malloc_arrayN((size_t)numLoops, sizeof(*lnors_weighted), __func__);
300         bool free_vnors = false;
301
302         /* first go through and calculate normals for all the polys */
303         if (vnors == NULL) {
304                 vnors = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vnors), __func__);
305                 free_vnors = true;
306         }
307         else {
308                 memset(vnors, 0, sizeof(*vnors) * (size_t)numVerts);
309         }
310
311         MeshCalcNormalsData data = {
312             .mpolys = mpolys, .mloop = mloop, .mverts = mverts,
313             .pnors = pnors, .lnors_weighted = lnors_weighted, .vnors = vnors
314         };
315
316         /* Compute poly normals, and prepare weighted loop normals. */
317         BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_prepare_cb, &settings);
318
319         /* Actually accumulate weighted loop normals into vertex ones. */
320         /* Unfortunately, not possible to thread that (not in a reasonable, totally lock- and barrier-free fashion),
321          * since several loops will point to the same vertex... */
322         for (int lidx = 0; lidx < numLoops; lidx++) {
323                 add_v3_v3(vnors[mloop[lidx].v], data.lnors_weighted[lidx]);
324         }
325
326         /* Normalize and validate computed vertex normals. */
327         BLI_task_parallel_range(0, numVerts, &data, mesh_calc_normals_poly_finalize_cb, &settings);
328
329         if (free_vnors) {
330                 MEM_freeN(vnors);
331         }
332         MEM_freeN(lnors_weighted);
333 }
334
335 void BKE_mesh_calc_normals(Mesh *mesh)
336 {
337 #ifdef DEBUG_TIME
338         TIMEIT_START_AVERAGED(BKE_mesh_calc_normals);
339 #endif
340         BKE_mesh_calc_normals_poly(mesh->mvert, NULL, mesh->totvert,
341                                    mesh->mloop, mesh->mpoly, mesh->totloop, mesh->totpoly,
342                                    NULL, false);
343 #ifdef DEBUG_TIME
344         TIMEIT_END_AVERAGED(BKE_mesh_calc_normals);
345 #endif
346 }
347
348 void BKE_mesh_calc_normals_tessface(
349         MVert *mverts, int numVerts,
350         const MFace *mfaces, int numFaces,
351         float (*r_faceNors)[3])
352 {
353         float (*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
354         float (*fnors)[3] = (r_faceNors) ? r_faceNors : MEM_calloc_arrayN((size_t)numFaces, sizeof(*fnors), "meshnormals");
355         int i;
356
357         if (!tnorms || !fnors) {
358                 goto cleanup;
359         }
360
361         for (i = 0; i < numFaces; i++) {
362                 const MFace *mf = &mfaces[i];
363                 float *f_no = fnors[i];
364                 float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
365                 const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
366
367                 if (mf->v4)
368                         normal_quad_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
369                 else
370                         normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
371
372                 accumulate_vertex_normals_v3(
373                         tnorms[mf->v1], tnorms[mf->v2], tnorms[mf->v3], n4,
374                         f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, c4);
375         }
376
377         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
378         for (i = 0; i < numVerts; i++) {
379                 MVert *mv = &mverts[i];
380                 float *no = tnorms[i];
381                 
382                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
383                         normalize_v3_v3(no, mv->co);
384                 }
385
386                 normal_float_to_short_v3(mv->no, no);
387         }
388         
389 cleanup:
390         MEM_freeN(tnorms);
391
392         if (fnors != r_faceNors)
393                 MEM_freeN(fnors);
394 }
395
396 void BKE_mesh_calc_normals_looptri(
397         MVert *mverts, int numVerts,
398         const MLoop *mloop,
399         const MLoopTri *looptri, int looptri_num,
400         float (*r_tri_nors)[3])
401 {
402         float (*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
403         float (*fnors)[3] = (r_tri_nors) ? r_tri_nors : MEM_calloc_arrayN((size_t)looptri_num, sizeof(*fnors), "meshnormals");
404         int i;
405
406         if (!tnorms || !fnors) {
407                 goto cleanup;
408         }
409
410         for (i = 0; i < looptri_num; i++) {
411                 const MLoopTri *lt = &looptri[i];
412                 float *f_no = fnors[i];
413                 const unsigned int vtri[3] = {
414                     mloop[lt->tri[0]].v,
415                     mloop[lt->tri[1]].v,
416                     mloop[lt->tri[2]].v,
417                 };
418
419                 normal_tri_v3(
420                         f_no,
421                         mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
422
423                 accumulate_vertex_normals_tri_v3(
424                         tnorms[vtri[0]], tnorms[vtri[1]], tnorms[vtri[2]],
425                         f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
426         }
427
428         /* following Mesh convention; we use vertex coordinate itself for normal in this case */
429         for (i = 0; i < numVerts; i++) {
430                 MVert *mv = &mverts[i];
431                 float *no = tnorms[i];
432
433                 if (UNLIKELY(normalize_v3(no) == 0.0f)) {
434                         normalize_v3_v3(no, mv->co);
435                 }
436
437                 normal_float_to_short_v3(mv->no, no);
438         }
439
440 cleanup:
441         MEM_freeN(tnorms);
442
443         if (fnors != r_tri_nors)
444                 MEM_freeN(fnors);
445 }
446
447 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr, const int numLoops, const char data_type)
448 {
449         if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
450                 MemArena *mem;
451
452                 if (!lnors_spacearr->mem) {
453                         lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
454                 }
455                 mem = lnors_spacearr->mem;
456                 lnors_spacearr->lspacearr = BLI_memarena_calloc(mem, sizeof(MLoopNorSpace *) * (size_t)numLoops);
457                 lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
458         }
459         BLI_assert(ELEM(data_type, MLNOR_SPACEARR_BMLOOP_PTR, MLNOR_SPACEARR_LOOP_INDEX));
460         lnors_spacearr->data_type = data_type;
461 }
462
463 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
464 {
465         BLI_memarena_clear(lnors_spacearr->mem);
466         lnors_spacearr->lspacearr = NULL;
467         lnors_spacearr->loops_pool = NULL;
468 }
469
470 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
471 {
472         BLI_memarena_free(lnors_spacearr->mem);
473         lnors_spacearr->lspacearr = NULL;
474         lnors_spacearr->loops_pool = NULL;
475         lnors_spacearr->mem = NULL;
476 }
477
478 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
479 {
480         return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
481 }
482
483 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
484 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-4f)
485
486 /* Should only be called once.
487  * Beware, this modifies ref_vec and other_vec in place!
488  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
489  */
490 void BKE_lnor_space_define(MLoopNorSpace *lnor_space, const float lnor[3],
491                            float vec_ref[3], float vec_other[3], BLI_Stack *edge_vectors)
492 {
493         const float pi2 = (float)M_PI * 2.0f;
494         float tvec[3], dtp;
495         const float dtp_ref = dot_v3v3(vec_ref, lnor);
496         const float dtp_other = dot_v3v3(vec_other, lnor);
497
498         if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD || fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
499                 /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
500                  * tag it as invalid and abort. */
501                 lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
502
503                 if (edge_vectors) {
504                         BLI_stack_clear(edge_vectors);
505                 }
506                 return;
507         }
508
509         copy_v3_v3(lnor_space->vec_lnor, lnor);
510
511         /* Compute ref alpha, average angle of all available edge vectors to lnor. */
512         if (edge_vectors) {
513                 float alpha = 0.0f;
514                 int nbr = 0;
515                 while (!BLI_stack_is_empty(edge_vectors)) {
516                         const float *vec = BLI_stack_peek(edge_vectors);
517                         alpha += saacosf(dot_v3v3(vec, lnor));
518                         BLI_stack_discard(edge_vectors);
519                         nbr++;
520                 }
521                 /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
522                  *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
523                 BLI_assert(nbr >= 2);  /* This piece of code shall only be called for more than one loop... */
524                 lnor_space->ref_alpha = alpha / (float)nbr;
525         }
526         else {
527                 lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) + saacosf(dot_v3v3(vec_other, lnor))) / 2.0f;
528         }
529
530         /* Project vec_ref on lnor's ortho plane. */
531         mul_v3_v3fl(tvec, lnor, dtp_ref);
532         sub_v3_v3(vec_ref, tvec);
533         normalize_v3_v3(lnor_space->vec_ref, vec_ref);
534
535         cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
536         normalize_v3_v3(lnor_space->vec_ortho, tvec);
537
538         /* Project vec_other on lnor's ortho plane. */
539         mul_v3_v3fl(tvec, lnor, dtp_other);
540         sub_v3_v3(vec_other, tvec);
541         normalize_v3(vec_other);
542
543         /* Beta is angle between ref_vec and other_vec, around lnor. */
544         dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
545         if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
546                 const float beta = saacos(dtp);
547                 lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
548         }
549         else {
550                 lnor_space->ref_beta = pi2;
551         }
552 }
553
554 /**
555  * Add a new given loop to given lnor_space.
556  * Depending on \a lnor_space->data_type, we expect \a bm_loop to be a pointer to BMLoop struct (in case of BMLOOP_PTR),
557  * or NULL (in case of LOOP_INDEX), loop index is then stored in pointer.
558  * If \a is_single is set, the BMLoop or loop index is directly stored in \a lnor_space->loops pointer (since there
559  * is only one loop in this fan), else it is added to the linked list of loops in the fan.
560  */
561 void BKE_lnor_space_add_loop(
562         MLoopNorSpaceArray *lnors_spacearr, MLoopNorSpace *lnor_space,
563         const int ml_index, void *bm_loop, const bool is_single)
564 {
565         BLI_assert((lnors_spacearr->data_type == MLNOR_SPACEARR_LOOP_INDEX && bm_loop == NULL) ||
566                    (lnors_spacearr->data_type == MLNOR_SPACEARR_BMLOOP_PTR && bm_loop != NULL));
567
568         lnors_spacearr->lspacearr[ml_index] = lnor_space;
569         if (bm_loop == NULL) {
570                 bm_loop = SET_INT_IN_POINTER(ml_index);
571         }
572         if (is_single) {
573                 BLI_assert(lnor_space->loops == NULL);
574                 lnor_space->flags |= MLNOR_SPACE_IS_SINGLE;
575                 lnor_space->loops = bm_loop;
576         }
577         else {
578                 BLI_assert((lnor_space->flags & MLNOR_SPACE_IS_SINGLE) == 0);
579                 BLI_linklist_prepend_nlink(&lnor_space->loops, bm_loop, &lnors_spacearr->loops_pool[ml_index]);
580         }
581 }
582
583 MINLINE float unit_short_to_float(const short val)
584 {
585         return (float)val / (float)SHRT_MAX;
586 }
587
588 MINLINE short unit_float_to_short(const float val)
589 {
590         /* Rounding... */
591         return (short)floorf(val * (float)SHRT_MAX + 0.5f);
592 }
593
594 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space, const short clnor_data[2], float r_custom_lnor[3])
595 {
596         /* NOP custom normal data or invalid lnor space, return. */
597         if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
598                 copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
599                 return;
600         }
601
602         {
603                 /* TODO Check whether using sincosf() gives any noticeable benefit
604                  *      (could not even get it working under linux though)! */
605                 const float pi2 = (float)(M_PI * 2.0);
606                 const float alphafac = unit_short_to_float(clnor_data[0]);
607                 const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) * alphafac;
608                 const float betafac = unit_short_to_float(clnor_data[1]);
609
610                 mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
611
612                 if (betafac == 0.0f) {
613                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
614                 }
615                 else {
616                         const float sinalpha = sinf(alpha);
617                         const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) * betafac;
618                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
619                         madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
620                 }
621         }
622 }
623
624 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space, const float custom_lnor[3], short r_clnor_data[2])
625 {
626         /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
627         if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
628                 r_clnor_data[0] = r_clnor_data[1] = 0;
629                 return;
630         }
631
632         {
633                 const float pi2 = (float)(M_PI * 2.0);
634                 const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
635                 float vec[3], cos_beta;
636                 float alpha;
637
638                 alpha = saacosf(cos_alpha);
639                 if (alpha > lnor_space->ref_alpha) {
640                         /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
641                         r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
642                 }
643                 else {
644                         r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
645                 }
646
647                 /* Project custom lnor on (vec_ref, vec_ortho) plane. */
648                 mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
649                 add_v3_v3(vec, custom_lnor);
650                 normalize_v3(vec);
651
652                 cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
653
654                 if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
655                         float beta = saacosf(cos_beta);
656                         if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
657                                 beta = pi2 - beta;
658                         }
659
660                         if (beta > lnor_space->ref_beta) {
661                                 r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
662                         }
663                         else {
664                                 r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
665                         }
666                 }
667                 else {
668                         r_clnor_data[1] = 0;
669                 }
670         }
671 }
672
673 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
674
675 typedef struct LoopSplitTaskData {
676         /* Specific to each instance (each task). */
677         MLoopNorSpace *lnor_space;  /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
678         float (*lnor)[3];
679         const MLoop *ml_curr;
680         const MLoop *ml_prev;
681         int ml_curr_index;
682         int ml_prev_index;
683         const int *e2l_prev;  /* Also used a flag to switch between single or fan process! */
684         int mp_index;
685
686         /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
687         BLI_Stack *edge_vectors;
688
689         char pad_c;
690 } LoopSplitTaskData;
691
692 typedef struct LoopSplitTaskDataCommon {
693         /* Read/write.
694          * Note we do not need to protect it, though, since two different tasks will *always* affect different
695          * elements in the arrays. */
696         MLoopNorSpaceArray *lnors_spacearr;
697         float (*loopnors)[3];
698         short (*clnors_data)[2];
699
700         /* Read-only. */
701         const MVert *mverts;
702         const MEdge *medges;
703         const MLoop *mloops;
704         const MPoly *mpolys;
705         int (*edge_to_loops)[2];
706         int *loop_to_poly;
707         const float (*polynors)[3];
708
709         int numEdges;
710         int numLoops;
711         int numPolys;
712 } LoopSplitTaskDataCommon;
713
714 #define INDEX_UNSET INT_MIN
715 #define INDEX_INVALID -1
716 /* See comment about edge_to_loops below. */
717 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
718
719 static void mesh_edges_sharp_tag(
720         LoopSplitTaskDataCommon *data,
721         const bool check_angle, const float split_angle, const bool do_sharp_edges_tag)
722 {
723         const MVert *mverts = data->mverts;
724         const MEdge *medges = data->medges;
725         const MLoop *mloops = data->mloops;
726
727         const MPoly *mpolys = data->mpolys;
728
729         const int numEdges = data->numEdges;
730         const int numPolys = data->numPolys;
731
732         float (*loopnors)[3] = data->loopnors;  /* Note: loopnors may be NULL here. */
733         const float (*polynors)[3] = data->polynors;
734
735         int (*edge_to_loops)[2] = data->edge_to_loops;
736         int *loop_to_poly = data->loop_to_poly;
737
738         BLI_bitmap *sharp_edges = do_sharp_edges_tag ? BLI_BITMAP_NEW(numEdges, __func__) : NULL;
739
740         const MPoly *mp;
741         int mp_index;
742
743         const float split_angle_cos = check_angle ? cosf(split_angle) : -1.0f;
744
745         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
746                 const MLoop *ml_curr;
747                 int *e2l;
748                 int ml_curr_index = mp->loopstart;
749                 const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
750
751                 ml_curr = &mloops[ml_curr_index];
752
753                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
754                         e2l = edge_to_loops[ml_curr->e];
755
756                         loop_to_poly[ml_curr_index] = mp_index;
757
758                         /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
759                          * those later!
760                          */
761                         if (loopnors) {
762                                 normal_short_to_float_v3(loopnors[ml_curr_index], mverts[ml_curr->v].no);
763                         }
764
765                         /* Check whether current edge might be smooth or sharp */
766                         if ((e2l[0] | e2l[1]) == 0) {
767                                 /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
768                                 e2l[0] = ml_curr_index;
769                                 /* We have to check this here too, else we might miss some flat faces!!! */
770                                 e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
771                         }
772                         else if (e2l[1] == INDEX_UNSET) {
773                                 const bool is_angle_sharp = (check_angle &&
774                                                              dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) < split_angle_cos);
775
776                                 /* Second loop using this edge, time to test its sharpness.
777                                  * An edge is sharp if it is tagged as such, or its face is not smooth,
778                                  * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
779                                  * or angle between both its polys' normals is above split_angle value.
780                                  */
781                                 if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
782                                     ml_curr->v == mloops[e2l[0]].v ||
783                                     is_angle_sharp)
784                                 {
785                                         /* Note: we are sure that loop != 0 here ;) */
786                                         e2l[1] = INDEX_INVALID;
787
788                                         /* We want to avoid tagging edges as sharp when it is already defined as such by
789                                          * other causes than angle threshold... */
790                                         if (do_sharp_edges_tag && is_angle_sharp) {
791                                                 BLI_BITMAP_SET(sharp_edges, ml_curr->e, true);
792                                         }
793                                 }
794                                 else {
795                                         e2l[1] = ml_curr_index;
796                                 }
797                         }
798                         else if (!IS_EDGE_SHARP(e2l)) {
799                                 /* More than two loops using this edge, tag as sharp if not yet done. */
800                                 e2l[1] = INDEX_INVALID;
801
802                                 /* We want to avoid tagging edges as sharp when it is already defined as such by
803                                  * other causes than angle threshold... */
804                                 if (do_sharp_edges_tag) {
805                                         BLI_BITMAP_SET(sharp_edges, ml_curr->e, false);
806                                 }
807                         }
808                         /* Else, edge is already 'disqualified' (i.e. sharp)! */
809                 }
810         }
811
812         /* If requested, do actual tagging of edges as sharp in another loop. */
813         if (do_sharp_edges_tag) {
814                 MEdge *me;
815                 int me_index;
816                 for (me = (MEdge *)medges, me_index = 0; me_index < numEdges; me++, me_index++) {
817                         if (BLI_BITMAP_TEST(sharp_edges, me_index)) {
818                                 me->flag |= ME_SHARP;
819                         }
820                 }
821
822                 MEM_freeN(sharp_edges);
823         }
824 }
825
826 /** Define sharp edges as needed to mimic 'autosmooth' from angle threshold.
827  *
828  * Used when defining an empty custom loop normals data layer, to keep same shading as with autosmooth!
829  */
830 void BKE_edges_sharp_from_angle_set(
831         const struct MVert *mverts, const int UNUSED(numVerts),
832         struct MEdge *medges, const int numEdges,
833         struct MLoop *mloops, const int numLoops,
834         struct MPoly *mpolys, const float (*polynors)[3], const int numPolys,
835         const float split_angle)
836 {
837         if (split_angle >= (float)M_PI) {
838                 /* Nothing to do! */
839                 return;
840         }
841
842         /* Mapping edge -> loops. See BKE_mesh_normals_loop_split() for details. */
843         int (*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
844
845         /* Simple mapping from a loop to its polygon index. */
846         int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
847
848         LoopSplitTaskDataCommon common_data = {
849             .mverts = mverts,
850             .medges = medges,
851             .mloops = mloops,
852             .mpolys = mpolys,
853             .edge_to_loops = edge_to_loops,
854             .loop_to_poly = loop_to_poly,
855             .polynors = polynors,
856             .numEdges = numEdges,
857             .numPolys = numPolys,
858         };
859
860         mesh_edges_sharp_tag(&common_data, true, split_angle, true);
861
862         MEM_freeN(edge_to_loops);
863         MEM_freeN(loop_to_poly);
864 }
865
866 void BKE_mesh_loop_manifold_fan_around_vert_next(
867         const MLoop *mloops, const MPoly *mpolys,
868         const int *loop_to_poly, const int *e2lfan_curr, const uint mv_pivot_index,
869         const MLoop **r_mlfan_curr, int *r_mlfan_curr_index, int *r_mlfan_vert_index, int *r_mpfan_curr_index)
870 {
871         const MLoop *mlfan_next;
872         const MPoly *mpfan_next;
873
874         /* Warning! This is rather complex!
875          * We have to find our next edge around the vertex (fan mode).
876          * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
877          * whether both loops using current edge are in the same direction or not, and whether
878          * mlfan_curr_index actually uses the vertex we are fanning around!
879          * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
880          * (i.e. not the future mlfan_curr)...
881          */
882         *r_mlfan_curr_index = (e2lfan_curr[0] == *r_mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
883         *r_mpfan_curr_index = loop_to_poly[*r_mlfan_curr_index];
884
885         BLI_assert(*r_mlfan_curr_index >= 0);
886         BLI_assert(*r_mpfan_curr_index >= 0);
887
888         mlfan_next = &mloops[*r_mlfan_curr_index];
889         mpfan_next = &mpolys[*r_mpfan_curr_index];
890         if (((*r_mlfan_curr)->v == mlfan_next->v && (*r_mlfan_curr)->v == mv_pivot_index) ||
891             ((*r_mlfan_curr)->v != mlfan_next->v && (*r_mlfan_curr)->v != mv_pivot_index))
892         {
893                 /* We need the previous loop, but current one is our vertex's loop. */
894                 *r_mlfan_vert_index = *r_mlfan_curr_index;
895                 if (--(*r_mlfan_curr_index) < mpfan_next->loopstart) {
896                         *r_mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
897                 }
898         }
899         else {
900                 /* We need the next loop, which is also our vertex's loop. */
901                 if (++(*r_mlfan_curr_index) >= mpfan_next->loopstart + mpfan_next->totloop) {
902                         *r_mlfan_curr_index = mpfan_next->loopstart;
903                 }
904                 *r_mlfan_vert_index = *r_mlfan_curr_index;
905         }
906         *r_mlfan_curr = &mloops[*r_mlfan_curr_index];
907         /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
908 }
909
910 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
911 {
912         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
913         short (*clnors_data)[2] = common_data->clnors_data;
914
915         const MVert *mverts = common_data->mverts;
916         const MEdge *medges = common_data->medges;
917         const float (*polynors)[3] = common_data->polynors;
918
919         MLoopNorSpace *lnor_space = data->lnor_space;
920         float (*lnor)[3] = data->lnor;
921         const MLoop *ml_curr = data->ml_curr;
922         const MLoop *ml_prev = data->ml_prev;
923         const int ml_curr_index = data->ml_curr_index;
924 #if 0  /* Not needed for 'single' loop. */
925         const int ml_prev_index = data->ml_prev_index;
926         const int *e2l_prev = data->e2l_prev;
927 #endif
928         const int mp_index = data->mp_index;
929
930         /* Simple case (both edges around that vertex are sharp in current polygon),
931          * this loop just takes its poly normal.
932          */
933         copy_v3_v3(*lnor, polynors[mp_index]);
934
935 //      printf("BASIC: handling loop %d / edge %d / vert %d / poly %d\n", ml_curr_index, ml_curr->e, ml_curr->v, mp_index);
936
937         /* If needed, generate this (simple!) lnor space. */
938         if (lnors_spacearr) {
939                 float vec_curr[3], vec_prev[3];
940
941                 const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
942                 const MVert *mv_pivot = &mverts[mv_pivot_index];
943                 const MEdge *me_curr = &medges[ml_curr->e];
944                 const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
945                 const MEdge *me_prev = &medges[ml_prev->e];
946                 const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] : &mverts[me_prev->v1];
947
948                 sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
949                 normalize_v3(vec_curr);
950                 sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
951                 normalize_v3(vec_prev);
952
953                 BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
954                 /* We know there is only one loop in this space, no need to create a linklist in this case... */
955                 BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, NULL, true);
956
957                 if (clnors_data) {
958                         BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
959                 }
960         }
961 }
962
963 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
964 {
965         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
966         float (*loopnors)[3] = common_data->loopnors;
967         short (*clnors_data)[2] = common_data->clnors_data;
968
969         const MVert *mverts = common_data->mverts;
970         const MEdge *medges = common_data->medges;
971         const MLoop *mloops = common_data->mloops;
972         const MPoly *mpolys = common_data->mpolys;
973         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
974         const int *loop_to_poly = common_data->loop_to_poly;
975         const float (*polynors)[3] = common_data->polynors;
976
977         MLoopNorSpace *lnor_space = data->lnor_space;
978 #if 0  /* Not needed for 'fan' loops. */
979         float (*lnor)[3] = data->lnor;
980 #endif
981         const MLoop *ml_curr = data->ml_curr;
982         const MLoop *ml_prev = data->ml_prev;
983         const int ml_curr_index = data->ml_curr_index;
984         const int ml_prev_index = data->ml_prev_index;
985         const int mp_index = data->mp_index;
986         const int *e2l_prev = data->e2l_prev;
987
988         BLI_Stack *edge_vectors = data->edge_vectors;
989
990         /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
991          * and accumulate face normals into the vertex!
992          * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
993          * the vertex normal, but I do not see any easy way to detect that (would need to count number
994          * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
995          * it should not be a common case in real-life meshes anyway).
996          */
997         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
998         const MVert *mv_pivot = &mverts[mv_pivot_index];
999         const MEdge *me_org = &medges[ml_curr->e];  /* ml_curr would be mlfan_prev if we needed that one */
1000         const int *e2lfan_curr;
1001         float vec_curr[3], vec_prev[3], vec_org[3];
1002         const MLoop *mlfan_curr;
1003         float lnor[3] = {0.0f, 0.0f, 0.0f};
1004         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1005         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1006
1007         /* We validate clnors data on the fly - cheapest way to do! */
1008         int clnors_avg[2] = {0, 0};
1009         short (*clnor_ref)[2] = NULL;
1010         int clnors_nbr = 0;
1011         bool clnors_invalid = false;
1012
1013         /* Temp loop normal stack. */
1014         BLI_SMALLSTACK_DECLARE(normal, float *);
1015         /* Temp clnors stack. */
1016         BLI_SMALLSTACK_DECLARE(clnors, short *);
1017
1018         e2lfan_curr = e2l_prev;
1019         mlfan_curr = ml_prev;
1020         mlfan_curr_index = ml_prev_index;
1021         mlfan_vert_index = ml_curr_index;
1022         mpfan_curr_index = mp_index;
1023
1024         BLI_assert(mlfan_curr_index >= 0);
1025         BLI_assert(mlfan_vert_index >= 0);
1026         BLI_assert(mpfan_curr_index >= 0);
1027
1028         /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
1029         {
1030                 const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
1031
1032                 sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
1033                 normalize_v3(vec_org);
1034                 copy_v3_v3(vec_prev, vec_org);
1035
1036                 if (lnors_spacearr) {
1037                         BLI_stack_push(edge_vectors, vec_org);
1038                 }
1039         }
1040
1041 //      printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e);
1042
1043         while (true) {
1044                 const MEdge *me_curr = &medges[mlfan_curr->e];
1045                 /* Compute edge vectors.
1046                  * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
1047                  *       twice (or more) here. However, time gained is not worth memory and time lost,
1048                  *       given the fact that this code should not be called that much in real-life meshes...
1049                  */
1050                 {
1051                         const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] : &mverts[me_curr->v1];
1052
1053                         sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1054                         normalize_v3(vec_curr);
1055                 }
1056
1057 //              printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index);
1058
1059                 {
1060                         /* Code similar to accumulate_vertex_normals_poly_v3. */
1061                         /* Calculate angle between the two poly edges incident on this vertex. */
1062                         const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
1063                         /* Accumulate */
1064                         madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
1065
1066                         if (clnors_data) {
1067                                 /* Accumulate all clnors, if they are not all equal we have to fix that! */
1068                                 short (*clnor)[2] = &clnors_data[mlfan_vert_index];
1069                                 if (clnors_nbr) {
1070                                         clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
1071                                 }
1072                                 else {
1073                                         clnor_ref = clnor;
1074                                 }
1075                                 clnors_avg[0] += (*clnor)[0];
1076                                 clnors_avg[1] += (*clnor)[1];
1077                                 clnors_nbr++;
1078                                 /* We store here a pointer to all custom lnors processed. */
1079                                 BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
1080                         }
1081                 }
1082
1083                 /* We store here a pointer to all loop-normals processed. */
1084                 BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
1085
1086                 if (lnors_spacearr) {
1087                         /* Assign current lnor space to current 'vertex' loop. */
1088                         BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, NULL, false);
1089                         if (me_curr != me_org) {
1090                                 /* We store here all edges-normalized vectors processed. */
1091                                 BLI_stack_push(edge_vectors, vec_curr);
1092                         }
1093                 }
1094
1095                 if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
1096                         /* Current edge is sharp and we have finished with this fan of faces around this vert,
1097                          * or this vert is smooth, and we have completed a full turn around it.
1098                          */
1099 //                      printf("FAN: Finished!\n");
1100                         break;
1101                 }
1102
1103                 copy_v3_v3(vec_prev, vec_curr);
1104
1105                 /* Find next loop of the smooth fan. */
1106                 BKE_mesh_loop_manifold_fan_around_vert_next(
1107                             mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
1108                             &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
1109
1110                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
1111         }
1112
1113         {
1114                 float lnor_len = normalize_v3(lnor);
1115
1116                 /* If we are generating lnor spacearr, we can now define the one for this fan,
1117                  * and optionally compute final lnor from custom data too!
1118                  */
1119                 if (lnors_spacearr) {
1120                         if (UNLIKELY(lnor_len == 0.0f)) {
1121                                 /* Use vertex normal as fallback! */
1122                                 copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
1123                                 lnor_len = 1.0f;
1124                         }
1125
1126                         BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
1127
1128                         if (clnors_data) {
1129                                 if (clnors_invalid) {
1130                                         short *clnor;
1131
1132                                         clnors_avg[0] /= clnors_nbr;
1133                                         clnors_avg[1] /= clnors_nbr;
1134                                         /* Fix/update all clnors of this fan with computed average value. */
1135                                         if (G.debug & G_DEBUG) {
1136                                                 printf("Invalid clnors in this fan!\n");
1137                                         }
1138                                         while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
1139                                                 //print_v2("org clnor", clnor);
1140                                                 clnor[0] = (short)clnors_avg[0];
1141                                                 clnor[1] = (short)clnors_avg[1];
1142                                         }
1143                                         //print_v2("new clnors", clnors_avg);
1144                                 }
1145                                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1146
1147                                 BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
1148                         }
1149                 }
1150
1151                 /* In case we get a zero normal here, just use vertex normal already set! */
1152                 if (LIKELY(lnor_len != 0.0f)) {
1153                         /* Copy back the final computed normal into all related loop-normals. */
1154                         float *nor;
1155
1156                         while ((nor = BLI_SMALLSTACK_POP(normal))) {
1157                                 copy_v3_v3(nor, lnor);
1158                         }
1159                 }
1160                 /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1161         }
1162 }
1163
1164 static void loop_split_worker_do(
1165         LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data, BLI_Stack *edge_vectors)
1166 {
1167         BLI_assert(data->ml_curr);
1168         if (data->e2l_prev) {
1169                 BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
1170                 data->edge_vectors = edge_vectors;
1171                 split_loop_nor_fan_do(common_data, data);
1172         }
1173         else {
1174                 /* No need for edge_vectors for 'single' case! */
1175                 split_loop_nor_single_do(common_data, data);
1176         }
1177 }
1178
1179 static void loop_split_worker(TaskPool * __restrict pool, void *taskdata, int UNUSED(threadid))
1180 {
1181         LoopSplitTaskDataCommon *common_data = BLI_task_pool_userdata(pool);
1182         LoopSplitTaskData *data = taskdata;
1183
1184         /* Temp edge vectors stack, only used when computing lnor spacearr. */
1185         BLI_Stack *edge_vectors = common_data->lnors_spacearr ? BLI_stack_new(sizeof(float[3]), __func__) : NULL;
1186
1187 #ifdef DEBUG_TIME
1188         TIMEIT_START_AVERAGED(loop_split_worker);
1189 #endif
1190
1191         for (int i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
1192                 /* A NULL ml_curr is used to tag ended data! */
1193                 if (data->ml_curr == NULL) {
1194                         break;
1195                 }
1196
1197                 loop_split_worker_do(common_data, data, edge_vectors);
1198         }
1199
1200         if (edge_vectors) {
1201                 BLI_stack_free(edge_vectors);
1202         }
1203
1204 #ifdef DEBUG_TIME
1205         TIMEIT_END_AVERAGED(loop_split_worker);
1206 #endif
1207 }
1208
1209 /* Check whether gievn loop is part of an unknown-so-far cyclic smooth fan, or not.
1210  * Needed because cyclic smooth fans have no obvious 'entry point', and yet we need to walk them once, and only once. */
1211 static bool loop_split_generator_check_cyclic_smooth_fan(
1212         const MLoop *mloops, const MPoly *mpolys,
1213         const int (*edge_to_loops)[2], const int *loop_to_poly, const int *e2l_prev, BLI_bitmap *skip_loops,
1214         const MLoop *ml_curr, const MLoop *ml_prev, const int ml_curr_index, const int ml_prev_index,
1215         const int mp_curr_index)
1216 {
1217         const unsigned int mv_pivot_index = ml_curr->v;  /* The vertex we are "fanning" around! */
1218         const int *e2lfan_curr;
1219         const MLoop *mlfan_curr;
1220         /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1221         int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1222
1223         e2lfan_curr = e2l_prev;
1224         if (IS_EDGE_SHARP(e2lfan_curr)) {
1225                 /* Sharp loop, so not a cyclic smooth fan... */
1226                 return false;
1227         }
1228
1229         mlfan_curr = ml_prev;
1230         mlfan_curr_index = ml_prev_index;
1231         mlfan_vert_index = ml_curr_index;
1232         mpfan_curr_index = mp_curr_index;
1233
1234         BLI_assert(mlfan_curr_index >= 0);
1235         BLI_assert(mlfan_vert_index >= 0);
1236         BLI_assert(mpfan_curr_index >= 0);
1237
1238         BLI_assert(!BLI_BITMAP_TEST(skip_loops, mlfan_vert_index));
1239         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1240
1241         while (true) {
1242                 /* Find next loop of the smooth fan. */
1243                 BKE_mesh_loop_manifold_fan_around_vert_next(
1244                             mloops, mpolys, loop_to_poly, e2lfan_curr, mv_pivot_index,
1245                             &mlfan_curr, &mlfan_curr_index, &mlfan_vert_index, &mpfan_curr_index);
1246
1247                 e2lfan_curr = edge_to_loops[mlfan_curr->e];
1248
1249                 if (IS_EDGE_SHARP(e2lfan_curr)) {
1250                         /* Sharp loop/edge, so not a cyclic smooth fan... */
1251                         return false;
1252                 }
1253                 /* Smooth loop/edge... */
1254                 else if (BLI_BITMAP_TEST(skip_loops, mlfan_vert_index)) {
1255                         if (mlfan_vert_index == ml_curr_index) {
1256                                 /* We walked around a whole cyclic smooth fan without finding any already-processed loop, means we can
1257                                  * use initial ml_curr/ml_prev edge as start for this smooth fan. */
1258                                 return true;
1259                         }
1260                         /* ... already checked in some previous looping, we can abort. */
1261                         return false;
1262                 }
1263                 else {
1264                         /* ... we can skip it in future, and keep checking the smooth fan. */
1265                         BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1266                 }
1267         }
1268 }
1269
1270 static void loop_split_generator(TaskPool *pool, LoopSplitTaskDataCommon *common_data)
1271 {
1272         MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1273         float (*loopnors)[3] = common_data->loopnors;
1274
1275         const MLoop *mloops = common_data->mloops;
1276         const MPoly *mpolys = common_data->mpolys;
1277         const int *loop_to_poly = common_data->loop_to_poly;
1278         const int (*edge_to_loops)[2] = common_data->edge_to_loops;
1279         const int numLoops = common_data->numLoops;
1280         const int numPolys = common_data->numPolys;
1281
1282         const MPoly *mp;
1283         int mp_index;
1284
1285         const MLoop *ml_curr;
1286         const MLoop *ml_prev;
1287         int ml_curr_index;
1288         int ml_prev_index;
1289
1290         BLI_bitmap *skip_loops = BLI_BITMAP_NEW(numLoops, __func__);
1291
1292         LoopSplitTaskData *data_buff = NULL;
1293         int data_idx = 0;
1294
1295         /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
1296         BLI_Stack *edge_vectors = NULL;
1297
1298 #ifdef DEBUG_TIME
1299         TIMEIT_START_AVERAGED(loop_split_generator);
1300 #endif
1301
1302         if (!pool) {
1303                 if (lnors_spacearr) {
1304                         edge_vectors = BLI_stack_new(sizeof(float[3]), __func__);
1305                 }
1306         }
1307
1308         /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
1309          * Now, time to generate the normals.
1310          */
1311         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1312                 float (*lnors)[3];
1313                 const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1314                 ml_curr_index = mp->loopstart;
1315                 ml_prev_index = ml_last_index;
1316
1317                 ml_curr = &mloops[ml_curr_index];
1318                 ml_prev = &mloops[ml_prev_index];
1319                 lnors = &loopnors[ml_curr_index];
1320
1321                 for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1322                         const int *e2l_curr = edge_to_loops[ml_curr->e];
1323                         const int *e2l_prev = edge_to_loops[ml_prev->e];
1324
1325 //                      printf("Checking loop %d / edge %u / vert %u (sharp edge: %d, skiploop: %d)...",
1326 //                             ml_curr_index, ml_curr->e, ml_curr->v, IS_EDGE_SHARP(e2l_curr), BLI_BITMAP_TEST_BOOL(skip_loops, ml_curr_index));
1327
1328                         /* A smooth edge, we have to check for cyclic smooth fan case.
1329                          * If we find a new, never-processed cyclic smooth fan, we can do it now using that loop/edge as
1330                          * 'entry point', otherwise we can skip it. */
1331                         /* Note: In theory, we could make loop_split_generator_check_cyclic_smooth_fan() store
1332                          * mlfan_vert_index'es and edge indexes in two stacks, to avoid having to fan again around the vert during
1333                          * actual computation of clnor & clnorspace. However, this would complicate the code, add more memory usage,
1334                          * and despite its logical complexity, loop_manifold_fan_around_vert_next() is quite cheap in term of
1335                          * CPU cycles, so really think it's not worth it. */
1336                         if (!IS_EDGE_SHARP(e2l_curr) &&
1337                             (BLI_BITMAP_TEST(skip_loops, ml_curr_index) ||
1338                              !loop_split_generator_check_cyclic_smooth_fan(
1339                                       mloops, mpolys, edge_to_loops, loop_to_poly, e2l_prev, skip_loops,
1340                                       ml_curr, ml_prev, ml_curr_index, ml_prev_index, mp_index)))
1341                         {
1342 //                              printf("SKIPPING!\n");
1343                         }
1344                         else {
1345                                 LoopSplitTaskData *data, data_local;
1346
1347 //                              printf("PROCESSING!\n");
1348
1349                                 if (pool) {
1350                                         if (data_idx == 0) {
1351                                                 data_buff = MEM_calloc_arrayN(LOOP_SPLIT_TASK_BLOCK_SIZE, sizeof(*data_buff), __func__);
1352                                         }
1353                                         data = &data_buff[data_idx];
1354                                 }
1355                                 else {
1356                                         data = &data_local;
1357                                         memset(data, 0, sizeof(*data));
1358                                 }
1359
1360                                 if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1361                                         data->lnor = lnors;
1362                                         data->ml_curr = ml_curr;
1363                                         data->ml_prev = ml_prev;
1364                                         data->ml_curr_index = ml_curr_index;
1365 #if 0  /* Not needed for 'single' loop. */
1366                                         data->ml_prev_index = ml_prev_index;
1367                                         data->e2l_prev = NULL;  /* Tag as 'single' task. */
1368 #endif
1369                                         data->mp_index = mp_index;
1370                                         if (lnors_spacearr) {
1371                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1372                                         }
1373                                 }
1374                                 /* We *do not need* to check/tag loops as already computed!
1375                                  * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1376                                  * more than once!*
1377                                  * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1378                                  * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1379                                  * and not the alternative (smooth curr_edge, sharp prev_edge).
1380                                  * All this due/thanks to link between normals and loop ordering (i.e. winding).
1381                                  */
1382                                 else {
1383 #if 0  /* Not needed for 'fan' loops. */
1384                                         data->lnor = lnors;
1385 #endif
1386                                         data->ml_curr = ml_curr;
1387                                         data->ml_prev = ml_prev;
1388                                         data->ml_curr_index = ml_curr_index;
1389                                         data->ml_prev_index = ml_prev_index;
1390                                         data->e2l_prev = e2l_prev;  /* Also tag as 'fan' task. */
1391                                         data->mp_index = mp_index;
1392                                         if (lnors_spacearr) {
1393                                                 data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1394                                         }
1395                                 }
1396
1397                                 if (pool) {
1398                                         data_idx++;
1399                                         if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1400                                                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1401                                                 data_idx = 0;
1402                                         }
1403                                 }
1404                                 else {
1405                                         loop_split_worker_do(common_data, data, edge_vectors);
1406                                 }
1407                         }
1408
1409                         ml_prev = ml_curr;
1410                         ml_prev_index = ml_curr_index;
1411                 }
1412         }
1413
1414         /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1415         if (pool && data_idx) {
1416                 BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1417         }
1418
1419         if (edge_vectors) {
1420                 BLI_stack_free(edge_vectors);
1421         }
1422         MEM_freeN(skip_loops);
1423
1424 #ifdef DEBUG_TIME
1425         TIMEIT_END_AVERAGED(loop_split_generator);
1426 #endif
1427 }
1428
1429 /**
1430  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1431  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1432  */
1433 void BKE_mesh_normals_loop_split(
1434         const MVert *mverts, const int UNUSED(numVerts), MEdge *medges, const int numEdges,
1435         MLoop *mloops, float (*r_loopnors)[3], const int numLoops,
1436         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1437         const bool use_split_normals, const float split_angle,
1438         MLoopNorSpaceArray *r_lnors_spacearr, short (*clnors_data)[2], int *r_loop_to_poly)
1439 {
1440         /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1441         BLI_assert(use_split_normals || !(r_lnors_spacearr));
1442
1443         if (!use_split_normals) {
1444                 /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1445                  * Note this is done here to keep some logic and consistency in this quite complex code,
1446                  * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1447                  * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1448                  */
1449                 int mp_index;
1450
1451                 for (mp_index = 0; mp_index < numPolys; mp_index++) {
1452                         MPoly *mp = &mpolys[mp_index];
1453                         int ml_index = mp->loopstart;
1454                         const int ml_index_end = ml_index + mp->totloop;
1455                         const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1456
1457                         for (; ml_index < ml_index_end; ml_index++) {
1458                                 if (r_loop_to_poly) {
1459                                         r_loop_to_poly[ml_index] = mp_index;
1460                                 }
1461                                 if (is_poly_flat) {
1462                                         copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1463                                 }
1464                                 else {
1465                                         normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1466                                 }
1467                         }
1468                 }
1469                 return;
1470         }
1471
1472         /* Mapping edge -> loops.
1473          * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1474          * We also use the second loop index as a kind of flag: smooth edge: > 0,
1475          *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1476          *                                                      unset: INDEX_UNSET
1477          * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1478          * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1479          * Note also that lose edges always have both values set to 0!
1480          */
1481         int (*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
1482
1483         /* Simple mapping from a loop to its polygon index. */
1484         int *loop_to_poly = r_loop_to_poly ? r_loop_to_poly : MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
1485
1486         /* When using custom loop normals, disable the angle feature! */
1487         const bool check_angle = (split_angle < (float)M_PI) && (clnors_data == NULL);
1488
1489         MLoopNorSpaceArray _lnors_spacearr = {NULL};
1490
1491 #ifdef DEBUG_TIME
1492         TIMEIT_START_AVERAGED(BKE_mesh_normals_loop_split);
1493 #endif
1494
1495         if (!r_lnors_spacearr && clnors_data) {
1496                 /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1497                 r_lnors_spacearr = &_lnors_spacearr;
1498         }
1499         if (r_lnors_spacearr) {
1500                 BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops, MLNOR_SPACEARR_LOOP_INDEX);
1501         }
1502
1503         /* Init data common to all tasks. */
1504         LoopSplitTaskDataCommon common_data = {
1505             .lnors_spacearr = r_lnors_spacearr,
1506             .loopnors = r_loopnors,
1507             .clnors_data = clnors_data,
1508             .mverts = mverts,
1509             .medges = medges,
1510             .mloops = mloops,
1511             .mpolys = mpolys,
1512             .edge_to_loops = edge_to_loops,
1513             .loop_to_poly = loop_to_poly,
1514             .polynors = polynors,
1515             .numEdges = numEdges,
1516             .numLoops = numLoops,
1517             .numPolys = numPolys,
1518         };
1519
1520         /* This first loop check which edges are actually smooth, and compute edge vectors. */
1521         mesh_edges_sharp_tag(&common_data, check_angle, split_angle, false);
1522
1523         if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1524                 /* Not enough loops to be worth the whole threading overhead... */
1525                 loop_split_generator(NULL, &common_data);
1526         }
1527         else {
1528                 TaskScheduler *task_scheduler;
1529                 TaskPool *task_pool;
1530
1531                 task_scheduler = BLI_task_scheduler_get();
1532                 task_pool = BLI_task_pool_create(task_scheduler, &common_data);
1533
1534                 loop_split_generator(task_pool, &common_data);
1535
1536                 BLI_task_pool_work_and_wait(task_pool);
1537
1538                 BLI_task_pool_free(task_pool);
1539         }
1540
1541         MEM_freeN(edge_to_loops);
1542         if (!r_loop_to_poly) {
1543                 MEM_freeN(loop_to_poly);
1544         }
1545
1546         if (r_lnors_spacearr) {
1547                 if (r_lnors_spacearr == &_lnors_spacearr) {
1548                         BKE_lnor_spacearr_free(r_lnors_spacearr);
1549                 }
1550         }
1551
1552 #ifdef DEBUG_TIME
1553         TIMEIT_END_AVERAGED(BKE_mesh_normals_loop_split);
1554 #endif
1555 }
1556
1557 #undef INDEX_UNSET
1558 #undef INDEX_INVALID
1559 #undef IS_EDGE_SHARP
1560
1561 /**
1562  * Compute internal representation of given custom normals (as an array of float[2]).
1563  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1564  * same custom lnor for all loops sharing a same smooth fan.
1565  * If use_vertices if true, r_custom_loopnors is assumed to be per-vertex, not per-loop
1566  * (this allows to set whole vert's normals at once, useful in some cases).
1567  * r_custom_loopnors is expected to have normalized normals, or zero ones, in which case they will be replaced
1568  * by default loop/vertex normal.
1569  */
1570 static void mesh_normals_loop_custom_set(
1571         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1572         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1573         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1574         short (*r_clnors_data)[2], const bool use_vertices)
1575 {
1576         /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1577          * feature too, would probably be more efficient in absolute.
1578          * However, this function *is not* performance-critical, since it is mostly expected to be called
1579          * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1580          * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1581          */
1582         MLoopNorSpaceArray lnors_spacearr = {NULL};
1583         BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1584         float (*lnors)[3] = MEM_calloc_arrayN((size_t)numLoops, sizeof(*lnors), __func__);
1585         int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(int), __func__);
1586         /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1587         const bool use_split_normals = true;
1588         const float split_angle = (float)M_PI;
1589         int i;
1590
1591         BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1592
1593         /* Compute current lnor spacearr. */
1594         BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1595                                     mpolys, polynors, numPolys, use_split_normals, split_angle,
1596                                     &lnors_spacearr, NULL, loop_to_poly);
1597
1598         /* Set all given zero vectors to their default value. */
1599         if (use_vertices) {
1600                 for (i = 0; i < numVerts; i++) {
1601                         if (is_zero_v3(r_custom_loopnors[i])) {
1602                                 normal_short_to_float_v3(r_custom_loopnors[i], mverts[i].no);
1603                         }
1604                 }
1605         }
1606         else {
1607                 for (i = 0; i < numLoops; i++) {
1608                         if (is_zero_v3(r_custom_loopnors[i])) {
1609                                 copy_v3_v3(r_custom_loopnors[i], lnors[i]);
1610                         }
1611                 }
1612         }
1613
1614         BLI_assert(lnors_spacearr.data_type == MLNOR_SPACEARR_LOOP_INDEX);
1615
1616         /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1617          * are not (enough) equal, add sharp edges as needed.
1618          * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1619          * given custom lnors.
1620          * Note this code *will never* unsharp edges!
1621          * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1622          */
1623         if (!use_vertices) {
1624                 for (i = 0; i < numLoops; i++) {
1625                         if (!lnors_spacearr.lspacearr[i]) {
1626                                 /* This should not happen in theory, but in some rare case (probably ugly geometry)
1627                                  * we can get some NULL loopspacearr at this point. :/
1628                                  * Maybe we should set those loops' edges as sharp?
1629                                  */
1630                                 BLI_BITMAP_ENABLE(done_loops, i);
1631                                 if (G.debug & G_DEBUG) {
1632                                         printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1633                                 }
1634                                 continue;
1635                         }
1636
1637                         if (!BLI_BITMAP_TEST(done_loops, i)) {
1638                                 /* Notes:
1639                                  *     * In case of mono-loop smooth fan, we have nothing to do.
1640                                  *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1641                                  *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1642                                  *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1643                                  *       lnor space.
1644                                  *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1645                                  *       up into a real big one in the end!
1646                                  */
1647                                 if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1648                                         BLI_BITMAP_ENABLE(done_loops, i);
1649                                         continue;
1650                                 }
1651
1652                                 LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1653                                 MLoop *prev_ml = NULL;
1654                                 const float *org_nor = NULL;
1655
1656                                 while (loops) {
1657                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1658                                         MLoop *ml = &mloops[lidx];
1659                                         const int nidx = lidx;
1660                                         float *nor = r_custom_loopnors[nidx];
1661
1662                                         if (!org_nor) {
1663                                                 org_nor = nor;
1664                                         }
1665                                         else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1666                                                 /* Current normal differs too much from org one, we have to tag the edge between
1667                                                  * previous loop's face and current's one as sharp.
1668                                                  * We know those two loops do not point to the same edge, since we do not allow reversed winding
1669                                                  * in a same smooth fan.
1670                                                  */
1671                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1672                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1673                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1674
1675                                                 org_nor = nor;
1676                                         }
1677
1678                                         prev_ml = ml;
1679                                         loops = loops->next;
1680                                         BLI_BITMAP_ENABLE(done_loops, lidx);
1681                                 }
1682
1683                                 /* We also have to check between last and first loops, otherwise we may miss some sharp edges here!
1684                                  * This is just a simplified version of above while loop.
1685                                  * See T45984. */
1686                                 loops = lnors_spacearr.lspacearr[i]->loops;
1687                                 if (loops && org_nor) {
1688                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1689                                         MLoop *ml = &mloops[lidx];
1690                                         const int nidx = lidx;
1691                                         float *nor = r_custom_loopnors[nidx];
1692
1693                                         if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1694                                                 const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1695                                                 const MLoop *mlp = &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1696                                                 medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1697                                         }
1698                                 }
1699                         }
1700                 }
1701
1702                 /* And now, recompute our new auto lnors and lnor spacearr! */
1703                 BKE_lnor_spacearr_clear(&lnors_spacearr);
1704                 BKE_mesh_normals_loop_split(mverts, numVerts, medges, numEdges, mloops, lnors, numLoops,
1705                                             mpolys, polynors, numPolys, use_split_normals, split_angle,
1706                                             &lnors_spacearr, NULL, loop_to_poly);
1707         }
1708         else {
1709                 BLI_BITMAP_SET_ALL(done_loops, true, (size_t)numLoops);
1710         }
1711
1712         /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1713         for (i = 0; i < numLoops; i++) {
1714                 if (!lnors_spacearr.lspacearr[i]) {
1715                         BLI_BITMAP_DISABLE(done_loops, i);
1716                         if (G.debug & G_DEBUG) {
1717                                 printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1718                         }
1719                         continue;
1720                 }
1721
1722                 if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1723                         /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1724                          * clnors data (tiny differences in plain custom normals can give rather huge differences in
1725                          * computed 2D factors).
1726                          */
1727                         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1728                         if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1729                                 BLI_assert(GET_INT_FROM_POINTER(loops) == i);
1730                                 const int nidx = use_vertices ? (int)mloops[i].v : i;
1731                                 float *nor = r_custom_loopnors[nidx];
1732
1733                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1734                                 BLI_BITMAP_DISABLE(done_loops, i);
1735                         }
1736                         else {
1737                                 int nbr_nors = 0;
1738                                 float avg_nor[3];
1739                                 short clnor_data_tmp[2], *clnor_data;
1740
1741                                 zero_v3(avg_nor);
1742                                 while (loops) {
1743                                         const int lidx = GET_INT_FROM_POINTER(loops->link);
1744                                         const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1745                                         float *nor = r_custom_loopnors[nidx];
1746
1747                                         nbr_nors++;
1748                                         add_v3_v3(avg_nor, nor);
1749                                         BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1750
1751                                         loops = loops->next;
1752                                         BLI_BITMAP_DISABLE(done_loops, lidx);
1753                                 }
1754
1755                                 mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1756                                 BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1757
1758                                 while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1759                                         clnor_data[0] = clnor_data_tmp[0];
1760                                         clnor_data[1] = clnor_data_tmp[1];
1761                                 }
1762                         }
1763                 }
1764         }
1765
1766         MEM_freeN(lnors);
1767         MEM_freeN(loop_to_poly);
1768         MEM_freeN(done_loops);
1769         BKE_lnor_spacearr_free(&lnors_spacearr);
1770 }
1771
1772 void BKE_mesh_normals_loop_custom_set(
1773         const MVert *mverts, const int numVerts, MEdge *medges, const int numEdges,
1774         MLoop *mloops, float (*r_custom_loopnors)[3], const int numLoops,
1775         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1776         short (*r_clnors_data)[2])
1777 {
1778         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, r_custom_loopnors, numLoops,
1779                                      mpolys, polynors, numPolys, r_clnors_data, false);
1780 }
1781
1782 void BKE_mesh_normals_loop_custom_from_vertices_set(
1783         const MVert *mverts, float (*r_custom_vertnors)[3], const int numVerts,
1784         MEdge *medges, const int numEdges, MLoop *mloops, const int numLoops,
1785         MPoly *mpolys, const float (*polynors)[3], const int numPolys,
1786         short (*r_clnors_data)[2])
1787 {
1788         mesh_normals_loop_custom_set(mverts, numVerts, medges, numEdges, mloops, r_custom_vertnors, numLoops,
1789                                      mpolys, polynors, numPolys, r_clnors_data, true);
1790 }
1791
1792 /**
1793  * Computes average per-vertex normals from given custom loop normals.
1794  *
1795  * \param clnors: The computed custom loop normals.
1796  * \param r_vert_clnors: The (already allocated) array where to store averaged per-vertex normals.
1797  */
1798 void BKE_mesh_normals_loop_to_vertex(
1799         const int numVerts, const MLoop *mloops, const int numLoops,
1800         const float (*clnors)[3], float (*r_vert_clnors)[3])
1801 {
1802         const MLoop *ml;
1803         int i;
1804
1805         int *vert_loops_nbr = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vert_loops_nbr), __func__);
1806
1807         copy_vn_fl((float *)r_vert_clnors, 3 * numVerts, 0.0f);
1808
1809         for (i = 0, ml = mloops; i < numLoops; i++, ml++) {
1810                 const unsigned int v = ml->v;
1811
1812                 add_v3_v3(r_vert_clnors[v], clnors[i]);
1813                 vert_loops_nbr[v]++;
1814         }
1815
1816         for (i = 0; i < numVerts; i++) {
1817                 mul_v3_fl(r_vert_clnors[i], 1.0f / (float)vert_loops_nbr[i]);
1818         }
1819
1820         MEM_freeN(vert_loops_nbr);
1821 }
1822
1823
1824 #undef LNOR_SPACE_TRIGO_THRESHOLD
1825
1826 /** \} */
1827
1828
1829 /* -------------------------------------------------------------------- */
1830
1831 /** \name Mesh Tangent Calculations
1832  * \{ */
1833
1834 /* Tangent space utils. */
1835
1836 /* User data. */
1837 typedef struct {
1838         const MPoly *mpolys;   /* faces */
1839         const MLoop *mloops;   /* faces's vertices */
1840         const MVert *mverts;   /* vertices */
1841         const MLoopUV *luvs;   /* texture coordinates */
1842         float (*lnors)[3];     /* loops' normals */
1843         float (*tangents)[4];  /* output tangents */
1844         int num_polys;         /* number of polygons */
1845 } BKEMeshToTangent;
1846
1847 /* Mikktspace's API */
1848 static int get_num_faces(const SMikkTSpaceContext *pContext)
1849 {
1850         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1851         return p_mesh->num_polys;
1852 }
1853
1854 static int get_num_verts_of_face(const SMikkTSpaceContext *pContext, const int face_idx)
1855 {
1856         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1857         return p_mesh->mpolys[face_idx].totloop;
1858 }
1859
1860 static void get_position(const SMikkTSpaceContext *pContext, float r_co[3], const int face_idx, const int vert_idx)
1861 {
1862         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1863         const int loop_idx = p_mesh->mpolys[face_idx].loopstart + vert_idx;
1864         copy_v3_v3(r_co, p_mesh->mverts[p_mesh->mloops[loop_idx].v].co);
1865 }
1866
1867 static void get_texture_coordinate(const SMikkTSpaceContext *pContext, float r_uv[2], const int face_idx,
1868                                    const int vert_idx)
1869 {
1870         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1871         copy_v2_v2(r_uv, p_mesh->luvs[p_mesh->mpolys[face_idx].loopstart + vert_idx].uv);
1872 }
1873
1874 static void get_normal(const SMikkTSpaceContext *pContext, float r_no[3], const int face_idx, const int vert_idx)
1875 {
1876         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1877         copy_v3_v3(r_no, p_mesh->lnors[p_mesh->mpolys[face_idx].loopstart + vert_idx]);
1878 }
1879
1880 static void set_tspace(const SMikkTSpaceContext *pContext, const float fv_tangent[3], const float face_sign,
1881                        const int face_idx, const int vert_idx)
1882 {
1883         BKEMeshToTangent *p_mesh = (BKEMeshToTangent *)pContext->m_pUserData;
1884         float *p_res = p_mesh->tangents[p_mesh->mpolys[face_idx].loopstart + vert_idx];
1885         copy_v3_v3(p_res, fv_tangent);
1886         p_res[3] = face_sign;
1887 }
1888
1889 /**
1890  * Compute simplified tangent space normals, i.e. tangent vector + sign of bi-tangent one, which combined with
1891  * split normals can be used to recreate the full tangent space.
1892  * Note: * The mesh should be made of only tris and quads!
1893  */
1894 void BKE_mesh_loop_tangents_ex(
1895         const MVert *mverts, const int UNUSED(numVerts), const MLoop *mloops,
1896         float (*r_looptangent)[4], float (*loopnors)[3], const MLoopUV *loopuvs,
1897         const int UNUSED(numLoops), const MPoly *mpolys, const int numPolys,
1898         ReportList *reports)
1899 {
1900         BKEMeshToTangent mesh_to_tangent = {NULL};
1901         SMikkTSpaceContext s_context = {NULL};
1902         SMikkTSpaceInterface s_interface = {NULL};
1903
1904         const MPoly *mp;
1905         int mp_index;
1906
1907         /* First check we do have a tris/quads only mesh. */
1908         for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1909                 if (mp->totloop > 4) {
1910                         BKE_report(reports, RPT_ERROR, "Tangent space can only be computed for tris/quads, aborting");
1911                         return;
1912                 }
1913         }
1914
1915         /* Compute Mikktspace's tangent normals. */
1916         mesh_to_tangent.mpolys = mpolys;
1917         mesh_to_tangent.mloops = mloops;
1918         mesh_to_tangent.mverts = mverts;
1919         mesh_to_tangent.luvs = loopuvs;
1920         mesh_to_tangent.lnors = loopnors;
1921         mesh_to_tangent.tangents = r_looptangent;
1922         mesh_to_tangent.num_polys = numPolys;
1923
1924         s_context.m_pUserData = &mesh_to_tangent;
1925         s_context.m_pInterface = &s_interface;
1926         s_interface.m_getNumFaces = get_num_faces;
1927         s_interface.m_getNumVerticesOfFace = get_num_verts_of_face;
1928         s_interface.m_getPosition = get_position;
1929         s_interface.m_getTexCoord = get_texture_coordinate;
1930         s_interface.m_getNormal = get_normal;
1931         s_interface.m_setTSpaceBasic = set_tspace;
1932
1933         /* 0 if failed */
1934         if (genTangSpaceDefault(&s_context) == false) {
1935                 BKE_report(reports, RPT_ERROR, "Mikktspace failed to generate tangents for this mesh!");
1936         }
1937 }
1938
1939 /**
1940  * Wrapper around BKE_mesh_loop_tangents_ex, which takes care of most boiling code.
1941  * \note
1942  * - There must be a valid loop's CD_NORMALS available.
1943  * - The mesh should be made of only tris and quads!
1944  */
1945 void BKE_mesh_loop_tangents(Mesh *mesh, const char *uvmap, float (*r_looptangents)[4], ReportList *reports)
1946 {
1947         MLoopUV *loopuvs;
1948         float (*loopnors)[3];
1949
1950         /* Check we have valid texture coordinates first! */
1951         if (uvmap) {
1952                 loopuvs = CustomData_get_layer_named(&mesh->ldata, CD_MLOOPUV, uvmap);
1953         }
1954         else {
1955                 loopuvs = CustomData_get_layer(&mesh->ldata, CD_MLOOPUV);
1956         }
1957         if (!loopuvs) {
1958                 BKE_reportf(reports, RPT_ERROR, "Tangent space computation needs an UVMap, \"%s\" not found, aborting", uvmap);
1959                 return;
1960         }
1961
1962         loopnors = CustomData_get_layer(&mesh->ldata, CD_NORMAL);
1963         if (!loopnors) {
1964                 BKE_report(reports, RPT_ERROR, "Tangent space computation needs loop normals, none found, aborting");
1965                 return;
1966         }
1967
1968         BKE_mesh_loop_tangents_ex(mesh->mvert, mesh->totvert, mesh->mloop, r_looptangents,
1969                                   loopnors, loopuvs, mesh->totloop, mesh->mpoly, mesh->totpoly, reports);
1970 }
1971
1972 /** \} */
1973
1974
1975 /* -------------------------------------------------------------------- */
1976
1977 /** \name Polygon Calculations
1978  * \{ */
1979
1980 /*
1981  * COMPUTE POLY NORMAL
1982  *
1983  * Computes the normal of a planar
1984  * polygon See Graphics Gems for
1985  * computing newell normal.
1986  *
1987  */
1988 static void mesh_calc_ngon_normal(
1989         const MPoly *mpoly, const MLoop *loopstart,
1990         const MVert *mvert, float normal[3])
1991 {
1992         const int nverts = mpoly->totloop;
1993         const float *v_prev = mvert[loopstart[nverts - 1].v].co;
1994         const float *v_curr;
1995         int i;
1996
1997         zero_v3(normal);
1998
1999         /* Newell's Method */
2000         for (i = 0; i < nverts; i++) {
2001                 v_curr = mvert[loopstart[i].v].co;
2002                 add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
2003                 v_prev = v_curr;
2004         }
2005
2006         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2007                 normal[2] = 1.0f; /* other axis set to 0.0 */
2008         }
2009 }
2010
2011 void BKE_mesh_calc_poly_normal(
2012         const MPoly *mpoly, const MLoop *loopstart,
2013         const MVert *mvarray, float r_no[3])
2014 {
2015         if (mpoly->totloop > 4) {
2016                 mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
2017         }
2018         else if (mpoly->totloop == 3) {
2019                 normal_tri_v3(r_no,
2020                               mvarray[loopstart[0].v].co,
2021                               mvarray[loopstart[1].v].co,
2022                               mvarray[loopstart[2].v].co
2023                               );
2024         }
2025         else if (mpoly->totloop == 4) {
2026                 normal_quad_v3(r_no,
2027                                mvarray[loopstart[0].v].co,
2028                                mvarray[loopstart[1].v].co,
2029                                mvarray[loopstart[2].v].co,
2030                                mvarray[loopstart[3].v].co
2031                                );
2032         }
2033         else { /* horrible, two sided face! */
2034                 r_no[0] = 0.0;
2035                 r_no[1] = 0.0;
2036                 r_no[2] = 1.0;
2037         }
2038 }
2039 /* duplicate of function above _but_ takes coords rather then mverts */
2040 static void mesh_calc_ngon_normal_coords(
2041         const MPoly *mpoly, const MLoop *loopstart,
2042         const float (*vertex_coords)[3], float r_normal[3])
2043 {
2044         const int nverts = mpoly->totloop;
2045         const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
2046         const float *v_curr;
2047         int i;
2048
2049         zero_v3(r_normal);
2050
2051         /* Newell's Method */
2052         for (i = 0; i < nverts; i++) {
2053                 v_curr = vertex_coords[loopstart[i].v];
2054                 add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
2055                 v_prev = v_curr;
2056         }
2057
2058         if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
2059                 r_normal[2] = 1.0f; /* other axis set to 0.0 */
2060         }
2061 }
2062
2063 void BKE_mesh_calc_poly_normal_coords(
2064         const MPoly *mpoly, const MLoop *loopstart,
2065         const float (*vertex_coords)[3], float r_no[3])
2066 {
2067         if (mpoly->totloop > 4) {
2068                 mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
2069         }
2070         else if (mpoly->totloop == 3) {
2071                 normal_tri_v3(r_no,
2072                               vertex_coords[loopstart[0].v],
2073                               vertex_coords[loopstart[1].v],
2074                               vertex_coords[loopstart[2].v]
2075                               );
2076         }
2077         else if (mpoly->totloop == 4) {
2078                 normal_quad_v3(r_no,
2079                                vertex_coords[loopstart[0].v],
2080                                vertex_coords[loopstart[1].v],
2081                                vertex_coords[loopstart[2].v],
2082                                vertex_coords[loopstart[3].v]
2083                                );
2084         }
2085         else { /* horrible, two sided face! */
2086                 r_no[0] = 0.0;
2087                 r_no[1] = 0.0;
2088                 r_no[2] = 1.0;
2089         }
2090 }
2091
2092 static void mesh_calc_ngon_center(
2093         const MPoly *mpoly, const MLoop *loopstart,
2094         const MVert *mvert, float cent[3])
2095 {
2096         const float w = 1.0f / (float)mpoly->totloop;
2097         int i;
2098
2099         zero_v3(cent);
2100
2101         for (i = 0; i < mpoly->totloop; i++) {
2102                 madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
2103         }
2104 }
2105
2106 void BKE_mesh_calc_poly_center(
2107         const MPoly *mpoly, const MLoop *loopstart,
2108         const MVert *mvarray, float r_cent[3])
2109 {
2110         if (mpoly->totloop == 3) {
2111                 mid_v3_v3v3v3(r_cent,
2112                               mvarray[loopstart[0].v].co,
2113                               mvarray[loopstart[1].v].co,
2114                               mvarray[loopstart[2].v].co
2115                               );
2116         }
2117         else if (mpoly->totloop == 4) {
2118                 mid_v3_v3v3v3v3(r_cent,
2119                                 mvarray[loopstart[0].v].co,
2120                                 mvarray[loopstart[1].v].co,
2121                                 mvarray[loopstart[2].v].co,
2122                                 mvarray[loopstart[3].v].co
2123                                 );
2124         }
2125         else {
2126                 mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
2127         }
2128 }
2129
2130 /* note, passing polynormal is only a speedup so we can skip calculating it */
2131 float BKE_mesh_calc_poly_area(
2132         const MPoly *mpoly, const MLoop *loopstart,
2133         const MVert *mvarray)
2134 {
2135         if (mpoly->totloop == 3) {
2136                 return area_tri_v3(mvarray[loopstart[0].v].co,
2137                                    mvarray[loopstart[1].v].co,
2138                                    mvarray[loopstart[2].v].co
2139                                    );
2140         }
2141         else {
2142                 int i;
2143                 const MLoop *l_iter = loopstart;
2144                 float area;
2145                 float (*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
2146
2147                 /* pack vertex cos into an array for area_poly_v3 */
2148                 for (i = 0; i < mpoly->totloop; i++, l_iter++) {
2149                         copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
2150                 }
2151
2152                 /* finally calculate the area */
2153                 area = area_poly_v3((const float (*)[3])vertexcos, (unsigned int)mpoly->totloop);
2154
2155                 return area;
2156         }
2157 }
2158
2159 /**
2160  * Calculate the volume and volume-weighted centroid of the volume formed by the polygon and the origin.
2161  * Results will be negative if the origin is "outside" the polygon
2162  * (+ve normal side), but the polygon may be non-planar with no effect.
2163  *
2164  * Method from:
2165  * - http://forums.cgsociety.org/archive/index.php?t-756235.html
2166  * - http://www.globalspec.com/reference/52702/203279/4-8-the-centroid-of-a-tetrahedron
2167  *
2168  * \note
2169  * - Volume is 6x actual volume, and centroid is 4x actual volume-weighted centroid
2170  *   (so division can be done once at the end).
2171  * - Results will have bias if polygon is non-planar.
2172  * - The resulting volume will only be correct if the mesh is manifold and has consistent face winding
2173  *   (non-contiguous face normals or holes in the mesh surface).
2174  */
2175 static float mesh_calc_poly_volume_centroid(
2176         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
2177         float r_cent[3])
2178 {
2179         const float *v_pivot, *v_step1;
2180         float total_volume = 0.0f;
2181
2182         zero_v3(r_cent);
2183
2184         v_pivot = mvarray[loopstart[0].v].co;
2185         v_step1 = mvarray[loopstart[1].v].co;
2186
2187         for (int i = 2; i < mpoly->totloop; i++) {
2188                 const float *v_step2 = mvarray[loopstart[i].v].co;
2189
2190                 /* Calculate the 6x volume of the tetrahedron formed by the 3 vertices
2191                  * of the triangle and the origin as the fourth vertex */
2192                 float v_cross[3];
2193                 cross_v3_v3v3(v_cross, v_pivot, v_step1);
2194                 const float tetra_volume = dot_v3v3 (v_cross, v_step2);
2195                 total_volume += tetra_volume;
2196
2197                 /* Calculate the centroid of the tetrahedron formed by the 3 vertices
2198                  * of the triangle and the origin as the fourth vertex.
2199                  * The centroid is simply the average of the 4 vertices.
2200                  *
2201                  * Note that the vector is 4x the actual centroid so the division can be done once at the end. */
2202                 for (uint j = 0; j < 3; j++) {
2203                         r_cent[j] += tetra_volume * (v_pivot[j] + v_step1[j] + v_step2[j]);
2204                 }
2205
2206                 v_step1 = v_step2;
2207         }
2208
2209         return total_volume;
2210 }
2211
2212 /**
2213  * \note
2214  * - Results won't be correct if polygon is non-planar.
2215  * - This has the advantage over #mesh_calc_poly_volume_centroid
2216  *   that it doesn't depend on solid geometry, instead it weights the surface by volume.
2217  */
2218 static float mesh_calc_poly_area_centroid(
2219         const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray,
2220         float r_cent[3])
2221 {
2222         int i;
2223         float tri_area;
2224         float total_area = 0.0f;
2225         float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
2226
2227         BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
2228         copy_v3_v3(v1, mvarray[loopstart[0].v].co);
2229         copy_v3_v3(v2, mvarray[loopstart[1].v].co);
2230         zero_v3(r_cent);
2231
2232         for (i = 2; i < mpoly->totloop; i++) {
2233                 copy_v3_v3(v3, mvarray[loopstart[i].v].co);
2234
2235                 tri_area = area_tri_signed_v3(v1, v2, v3, normal);
2236                 total_area += tri_area;
2237
2238                 mid_v3_v3v3v3(tri_cent, v1, v2, v3);
2239                 madd_v3_v3fl(r_cent, tri_cent, tri_area);
2240
2241                 copy_v3_v3(v2, v3);
2242         }
2243
2244         mul_v3_fl(r_cent, 1.0f / total_area);
2245
2246         return total_area;
2247 }
2248
2249 #if 0 /* slow version of the function below */
2250 void BKE_mesh_calc_poly_angles(MPoly *mpoly, MLoop *loopstart,
2251                                MVert *mvarray, float angles[])
2252 {
2253         MLoop *ml;
2254         MLoop *mloop = &loopstart[-mpoly->loopstart];
2255
2256         int j;
2257         for (j = 0, ml = loopstart; j < mpoly->totloop; j++, ml++) {
2258                 MLoop *ml_prev = ME_POLY_LOOP_PREV(mloop, mpoly, j);
2259                 MLoop *ml_next = ME_POLY_LOOP_NEXT(mloop, mpoly, j);
2260
2261                 float e1[3], e2[3];
2262
2263                 sub_v3_v3v3(e1, mvarray[ml_next->v].co, mvarray[ml->v].co);
2264                 sub_v3_v3v3(e2, mvarray[ml_prev->v].co, mvarray[ml->v].co);
2265
2266                 angles[j] = (float)M_PI - angle_v3v3(e1, e2);
2267         }
2268 }
2269
2270 #else /* equivalent the function above but avoid multiple subtractions + normalize */
2271
2272 void BKE_mesh_calc_poly_angles(
2273         const MPoly *mpoly, const MLoop *loopstart,
2274         const MVert *mvarray, float angles[])
2275 {
2276         float nor_prev[3];
2277         float nor_next[3];
2278
2279         int i_this = mpoly->totloop - 1;
2280         int i_next = 0;
2281
2282         sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
2283         normalize_v3(nor_prev);
2284
2285         while (i_next < mpoly->totloop) {
2286                 sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
2287                 normalize_v3(nor_next);
2288                 angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
2289
2290                 /* step */
2291                 copy_v3_v3(nor_prev, nor_next);
2292                 i_this = i_next;
2293                 i_next++;
2294         }
2295 }
2296 #endif
2297
2298 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
2299 {
2300         const MLoop *ml, *ml_next;
2301         int i = mp->totloop;
2302
2303         ml_next = mloop;       /* first loop */
2304         ml = &ml_next[i - 1];  /* last loop */
2305
2306         while (i-- != 0) {
2307                 BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
2308
2309                 ml = ml_next;
2310                 ml_next++;
2311         }
2312 }
2313
2314 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap, const MPoly *mp, const MLoop *mloop)
2315 {
2316         const MLoop *ml;
2317         int i = mp->totloop;
2318
2319         ml = mloop;
2320
2321         while (i-- != 0) {
2322                 BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
2323                 ml++;
2324         }
2325 }
2326
2327 /** \} */
2328
2329
2330 /* -------------------------------------------------------------------- */
2331
2332 /** \name Mesh Center Calculation
2333  * \{ */
2334
2335 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
2336 {
2337         int i = me->totvert;
2338         const MVert *mvert;
2339         zero_v3(r_cent);
2340         for (mvert = me->mvert; i--; mvert++) {
2341                 add_v3_v3(r_cent, mvert->co);
2342         }
2343         /* otherwise we get NAN for 0 verts */
2344         if (me->totvert) {
2345                 mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
2346         }
2347
2348         return (me->totvert != 0);
2349 }
2350
2351 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2352 {
2353         float min[3], max[3];
2354         INIT_MINMAX(min, max);
2355         if (BKE_mesh_minmax(me, min, max)) {
2356                 mid_v3_v3v3(r_cent, min, max);
2357                 return true;
2358         }
2359
2360         return false;
2361 }
2362
2363 bool BKE_mesh_center_of_surface(const Mesh *me, float r_cent[3])
2364 {
2365         int i = me->totpoly;
2366         MPoly *mpoly;
2367         float poly_area;
2368         float total_area = 0.0f;
2369         float poly_cent[3];
2370
2371         zero_v3(r_cent);
2372
2373         /* calculate a weighted average of polygon centroids */
2374         for (mpoly = me->mpoly; i--; mpoly++) {
2375                 poly_area = mesh_calc_poly_area_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2376
2377                 madd_v3_v3fl(r_cent, poly_cent, poly_area);
2378                 total_area += poly_area;
2379         }
2380         /* otherwise we get NAN for 0 polys */
2381         if (me->totpoly) {
2382                 mul_v3_fl(r_cent, 1.0f / total_area);
2383         }
2384
2385         /* zero area faces cause this, fallback to median */
2386         if (UNLIKELY(!is_finite_v3(r_cent))) {
2387                 return BKE_mesh_center_median(me, r_cent);
2388         }
2389
2390         return (me->totpoly != 0);
2391 }
2392
2393 /**
2394  * \note Mesh must be manifold with consistent face-winding, see #mesh_calc_poly_volume_centroid for details.
2395  */
2396 bool BKE_mesh_center_of_volume(const Mesh *me, float r_cent[3])
2397 {
2398         int i = me->totpoly;
2399         MPoly *mpoly;
2400         float poly_volume;
2401         float total_volume = 0.0f;
2402         float poly_cent[3];
2403
2404         zero_v3(r_cent);
2405
2406         /* calculate a weighted average of polyhedron centroids */
2407         for (mpoly = me->mpoly; i--; mpoly++) {
2408                 poly_volume = mesh_calc_poly_volume_centroid(mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2409
2410                 /* poly_cent is already volume-weighted, so no need to multiply by the volume */
2411                 add_v3_v3(r_cent, poly_cent);
2412                 total_volume += poly_volume;
2413         }
2414         /* otherwise we get NAN for 0 polys */
2415         if (total_volume != 0.0f) {
2416                 /* multipy by 0.25 to get the correct centroid */
2417                 /* no need to divide volume by 6 as the centroid is weighted by 6x the volume, so it all cancels out */
2418                 mul_v3_fl(r_cent, 0.25f / total_volume);
2419         }
2420
2421         /* this can happen for non-manifold objects, fallback to median */
2422         if (UNLIKELY(!is_finite_v3(r_cent))) {
2423                 return BKE_mesh_center_median(me, r_cent);
2424         }
2425
2426         return (me->totpoly != 0);
2427 }
2428
2429 /** \} */
2430
2431
2432 /* -------------------------------------------------------------------- */
2433
2434 /** \name Mesh Volume Calculation
2435  * \{ */
2436
2437 static bool mesh_calc_center_centroid_ex(
2438         const MVert *mverts, int UNUSED(mverts_num),
2439         const MLoopTri *looptri, int looptri_num,
2440         const MLoop *mloop, float r_center[3])
2441 {
2442         const MLoopTri *lt;
2443         float totweight;
2444         int i;
2445         
2446         zero_v3(r_center);
2447         
2448         if (looptri_num == 0)
2449                 return false;
2450         
2451         totweight = 0.0f;
2452         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2453                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2454                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2455                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2456                 float area;
2457                 
2458                 area = area_tri_v3(v1->co, v2->co, v3->co);
2459                 madd_v3_v3fl(r_center, v1->co, area);
2460                 madd_v3_v3fl(r_center, v2->co, area);
2461                 madd_v3_v3fl(r_center, v3->co, area);
2462                 totweight += area;
2463         }
2464         if (totweight == 0.0f)
2465                 return false;
2466         
2467         mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2468         
2469         return true;
2470 }
2471
2472 /**
2473  * Calculate the volume and center.
2474  *
2475  * \param r_volume: Volume (unsigned).
2476  * \param r_center: Center of mass.
2477  */
2478 void BKE_mesh_calc_volume(
2479         const MVert *mverts, const int mverts_num,
2480         const MLoopTri *looptri, const int looptri_num,
2481         const MLoop *mloop,
2482         float *r_volume, float r_center[3])
2483 {
2484         const MLoopTri *lt;
2485         float center[3];
2486         float totvol;
2487         int i;
2488         
2489         if (r_volume)
2490                 *r_volume = 0.0f;
2491         if (r_center)
2492                 zero_v3(r_center);
2493         
2494         if (looptri_num == 0)
2495                 return;
2496         
2497         if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center))
2498                 return;
2499         
2500         totvol = 0.0f;
2501
2502         for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2503                 const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2504                 const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2505                 const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2506                 float vol;
2507                 
2508                 vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2509                 if (r_volume) {
2510                         totvol += vol;
2511                 }
2512                 if (r_center) {
2513                         /* averaging factor 1/3 is applied in the end */
2514                         madd_v3_v3fl(r_center, v1->co, vol);
2515                         madd_v3_v3fl(r_center, v2->co, vol);
2516                         madd_v3_v3fl(r_center, v3->co, vol);
2517                 }
2518         }
2519         
2520         /* Note: Depending on arbitrary centroid position,
2521          * totvol can become negative even for a valid mesh.
2522          * The true value is always the positive value.
2523          */
2524         if (r_volume) {
2525                 *r_volume = fabsf(totvol);
2526         }
2527         if (r_center) {
2528                 /* Note: Factor 1/3 is applied once for all vertices here.
2529                  * This also automatically negates the vector if totvol is negative.
2530                  */
2531                 if (totvol != 0.0f)
2532                         mul_v3_fl(r_center, (1.0f / 3.0f) / totvol);
2533         }
2534 }
2535
2536
2537 /* -------------------------------------------------------------------- */
2538
2539 /** \name NGon Tessellation (NGon/Tessface Conversion)
2540  * \{ */
2541
2542 /**
2543  * Convert a triangle or quadrangle of loop/poly data to tessface data
2544  */
2545 void BKE_mesh_loops_to_mface_corners(
2546         CustomData *fdata, CustomData *ldata,
2547         CustomData *pdata, unsigned int lindex[4], int findex,
2548         const int polyindex,
2549         const int mf_len, /* 3 or 4 */
2550
2551         /* cache values to avoid lookups every time */
2552         const int numTex, /* CustomData_number_of_layers(pdata, CD_MTEXPOLY) */
2553         const int numCol, /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2554         const bool hasPCol, /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2555         const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2556         const bool hasLNor /* CustomData_has_layer(ldata, CD_NORMAL) */
2557 )
2558 {
2559         MTFace *texface;
2560         MTexPoly *texpoly;
2561         MCol *mcol;
2562         MLoopCol *mloopcol;
2563         MLoopUV *mloopuv;
2564         int i, j;
2565
2566         for (i = 0; i < numTex; i++) {
2567                 texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2568                 texpoly = CustomData_get_n(pdata, CD_MTEXPOLY, polyindex, i);
2569
2570                 ME_MTEXFACE_CPY(texface, texpoly);
2571
2572                 for (j = 0; j < mf_len; j++) {
2573                         mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2574                         copy_v2_v2(texface->uv[j], mloopuv->uv);
2575                 }
2576         }
2577
2578         for (i = 0; i < numCol; i++) {
2579                 mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2580
2581                 for (j = 0; j < mf_len; j++) {
2582                         mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2583                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2584                 }
2585         }
2586
2587         if (hasPCol) {
2588                 mcol = CustomData_get(fdata,  findex, CD_PREVIEW_MCOL);
2589
2590                 for (j = 0; j < mf_len; j++) {
2591                         mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2592                         MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2593                 }
2594         }
2595
2596         if (hasOrigSpace) {
2597                 OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2598                 OrigSpaceLoop *lof;
2599
2600                 for (j = 0; j < mf_len; j++) {
2601                         lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2602                         copy_v2_v2(of->uv[j], lof->uv);
2603                 }
2604         }
2605
2606         if (hasLNor) {
2607                 short (*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2608
2609                 for (j = 0; j < mf_len; j++) {
2610                         normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2611                 }
2612         }
2613 }
2614
2615 /**
2616  * Convert all CD layers from loop/poly to tessface data.
2617  *
2618  * \param loopindices is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2619  *
2620  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2621  */
2622 void BKE_mesh_loops_to_tessdata(CustomData *fdata, CustomData *ldata, CustomData *pdata, MFace *mface,
2623                                 int *polyindices, unsigned int (*loopindices)[4], const int num_faces)
2624 {
2625         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2626          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2627          *       this. Better imho to live with it for now. :/ --mont29
2628          */
2629         const int numTex = CustomData_number_of_layers(pdata, CD_MTEXPOLY);
2630         const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2631         const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2632         const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2633         const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2634         const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2635         int findex, i, j;
2636         const int *pidx;
2637         unsigned int (*lidx)[4];
2638
2639         for (i = 0; i < numTex; i++) {
2640                 MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2641                 MTexPoly *texpoly = CustomData_get_layer_n(pdata, CD_MTEXPOLY, i);
2642                 MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2643
2644                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2645                      findex < num_faces;
2646                      pidx++, lidx++, findex++, texface++)
2647                 {
2648                         ME_MTEXFACE_CPY(texface, &texpoly[*pidx]);
2649
2650                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2651                                 copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2652                         }
2653                 }
2654         }
2655
2656         for (i = 0; i < numCol; i++) {
2657                 MCol (*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2658                 MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2659
2660                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2661                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2662                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2663                         }
2664                 }
2665         }
2666
2667         if (hasPCol) {
2668                 MCol (*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2669                 MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2670
2671                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2672                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2673                                 MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2674                         }
2675                 }
2676         }
2677
2678         if (hasOrigSpace) {
2679                 OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2680                 OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2681
2682                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2683                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2684                                 copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2685                         }
2686                 }
2687         }
2688
2689         if (hasLoopNormal) {
2690                 short (*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2691                 float (*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2692
2693                 for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2694                         for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2695                                 normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2696                         }
2697                 }
2698         }
2699
2700         if (hasLoopTangent) {
2701                 /* need to do for all uv maps at some point */
2702                 float (*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2703                 float (*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2704
2705                 for (findex = 0, pidx = polyindices, lidx = loopindices;
2706                      findex < num_faces;
2707                      pidx++, lidx++, findex++)
2708                 {
2709                         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2710                         for (j = nverts; j--;) {
2711                                 copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2712                         }
2713                 }
2714         }
2715 }
2716
2717 void BKE_mesh_tangent_loops_to_tessdata(
2718         CustomData *fdata, CustomData *ldata, MFace *mface,
2719         int *polyindices, unsigned int (*loopindices)[4], const int num_faces, const char *layer_name)
2720 {
2721         /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2722          *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2723          *       this. Better imho to live with it for now. :/ --mont29
2724          */
2725
2726         float (*ftangents)[4] = NULL;
2727         float (*ltangents)[4] = NULL;
2728
2729         int findex, j;
2730         const int *pidx;
2731         unsigned int (*lidx)[4];
2732
2733         if (layer_name)
2734                 ltangents = CustomData_get_layer_named(ldata, CD_TANGENT, layer_name);
2735         else
2736                 ltangents = CustomData_get_layer(ldata, CD_TANGENT);
2737
2738         if (ltangents) {
2739                 /* need to do for all uv maps at some point */
2740                 if (layer_name)
2741                         ftangents = CustomData_get_layer_named(fdata, CD_TANGENT, layer_name);
2742                 else
2743                         ftangents = CustomData_get_layer(fdata, CD_TANGENT);
2744                 if (ftangents) {
2745                         for (findex = 0, pidx = polyindices, lidx = loopindices;
2746                              findex < num_faces;
2747                              pidx++, lidx++, findex++)
2748                         {
2749                                 int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2750                                 for (j = nverts; j--;) {
2751                                         copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2752                                 }
2753                         }
2754                 }
2755         }
2756 }
2757
2758 /**
2759  * Recreate tessellation.
2760  *
2761  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2762  *
2763  * \return number of tessellation faces.
2764  */
2765 int BKE_mesh_recalc_tessellation(
2766         CustomData *fdata, CustomData *ldata, CustomData *pdata,
2767         MVert *mvert,
2768         int totface, int totloop, int totpoly,
2769         const bool do_face_nor_copy)
2770 {
2771         /* use this to avoid locking pthread for _every_ polygon
2772          * and calling the fill function */
2773
2774 #define USE_TESSFACE_SPEEDUP
2775 #define USE_TESSFACE_QUADS  /* NEEDS FURTHER TESTING */
2776
2777 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2778 #define TESSFACE_IS_QUAD 1
2779
2780         const int looptri_num = poly_to_tri_count(totpoly, totloop);
2781
2782         MPoly *mp, *mpoly;
2783         MLoop *ml, *mloop;
2784         MFace *mface, *mf;
2785         MemArena *arena = NULL;
2786         int *mface_to_poly_map;
2787         unsigned int (*lindices)[4];
2788         int poly_index, mface_index;
2789         unsigned int j;
2790
2791         mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2792         mloop = CustomData_get_layer(ldata, CD_MLOOP);
2793
2794         /* allocate the length of totfaces, avoid many small reallocs,
2795          * if all faces are tri's it will be correct, quads == 2x allocs */
2796         /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2797         mface_to_poly_map = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface_to_poly_map), __func__);
2798         mface             = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface), __func__);
2799         lindices          = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*lindices), __func__);
2800
2801         mface_index = 0;
2802         mp = mpoly;
2803         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2804                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2805                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
2806                 unsigned int l1, l2, l3, l4;
2807                 unsigned int *lidx;
2808                 if (mp_totloop < 3) {
2809                         /* do nothing */
2810                 }
2811
2812 #ifdef USE_TESSFACE_SPEEDUP
2813
2814 #define ML_TO_MF(i1, i2, i3)                                                  \
2815                 mface_to_poly_map[mface_index] = poly_index;                          \
2816                 mf = &mface[mface_index];                                             \
2817                 lidx = lindices[mface_index];                                         \
2818                 /* set loop indices, transformed to vert indices later */             \
2819                 l1 = mp_loopstart + i1;                                               \
2820                 l2 = mp_loopstart + i2;                                               \
2821                 l3 = mp_loopstart + i3;                                               \
2822                 mf->v1 = mloop[l1].v;                                                 \
2823                 mf->v2 = mloop[l2].v;                                                 \
2824                 mf->v3 = mloop[l3].v;                                                 \
2825                 mf->v4 = 0;                                                           \
2826                 lidx[0] = l1;                                                         \
2827                 lidx[1] = l2;                                                         \
2828                 lidx[2] = l3;                                                         \
2829                 lidx[3] = 0;                                                          \
2830                 mf->mat_nr = mp->mat_nr;                                              \
2831                 mf->flag = mp->flag;                                                  \
2832                 mf->edcode = 0;                                                       \
2833                 (void)0
2834
2835 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
2836 #define ML_TO_MF_QUAD()                                                       \
2837                 mface_to_poly_map[mface_index] = poly_index;                          \
2838                 mf = &mface[mface_index];                                             \
2839                 lidx = lindices[mface_index];                                         \
2840                 /* set loop indices, transformed to vert indices later */             \
2841                 l1 = mp_loopstart + 0; /* EXCEPTION */                                \
2842                 l2 = mp_loopstart + 1; /* EXCEPTION */                                \
2843                 l3 = mp_loopstart + 2; /* EXCEPTION */                                \
2844                 l4 = mp_loopstart + 3; /* EXCEPTION */                                \
2845                 mf->v1 = mloop[l1].v;                                                 \
2846                 mf->v2 = mloop[l2].v;                                                 \
2847                 mf->v3 = mloop[l3].v;                                                 \
2848                 mf->v4 = mloop[l4].v;                                                 \
2849                 lidx[0] = l1;                                                         \
2850                 lidx[1] = l2;                                                         \
2851                 lidx[2] = l3;                                                         \
2852                 lidx[3] = l4;                                                         \
2853                 mf->mat_nr = mp->mat_nr;                                              \
2854                 mf->flag = mp->flag;                                                  \
2855                 mf->edcode = TESSFACE_IS_QUAD;                                        \
2856                 (void)0
2857
2858
2859                 else if (mp_totloop == 3) {
2860                         ML_TO_MF(0, 1, 2);
2861                         mface_index++;
2862                 }
2863                 else if (mp_totloop == 4) {
2864 #ifdef USE_TESSFACE_QUADS
2865                         ML_TO_MF_QUAD();
2866                         mface_index++;
2867 #else
2868                         ML_TO_MF(0, 1, 2);
2869                         mface_index++;
2870                         ML_TO_MF(0, 2, 3);
2871                         mface_index++;
2872 #endif
2873                 }
2874 #endif /* USE_TESSFACE_SPEEDUP */
2875                 else {
2876                         const float *co_curr, *co_prev;
2877
2878                         float normal[3];
2879
2880                         float axis_mat[3][3];
2881                         float (*projverts)[2];
2882                         unsigned int (*tris)[3];
2883
2884                         const unsigned int totfilltri = mp_totloop - 2;
2885
2886                         if (UNLIKELY(arena == NULL)) {
2887                                 arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
2888                         }
2889
2890                         tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
2891                         projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
2892
2893                         zero_v3(normal);
2894
2895                         /* calc normal, flipped: to get a positive 2d cross product */
2896                         ml = mloop + mp_loopstart;
2897                         co_prev = mvert[ml[mp_totloop - 1].v].co;
2898                         for (j = 0; j < mp_totloop; j++, ml++) {
2899                                 co_curr = mvert[ml->v].co;
2900                                 add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
2901                                 co_prev = co_curr;
2902                         }
2903                         if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2904                                 normal[2] = 1.0f;
2905                         }
2906
2907                         /* project verts to 2d */
2908                         axis_dominant_v3_to_m3_negate(axis_mat, normal);
2909
2910                         ml = mloop + mp_loopstart;
2911                         for (j = 0; j < mp_totloop; j++, ml++) {
2912                                 mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
2913                         }
2914
2915                         BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
2916
2917                         /* apply fill */
2918                         for (j = 0; j < totfilltri; j++) {
2919                                 unsigned int *tri = tris[j];
2920                                 lidx = lindices[mface_index];
2921
2922                                 mface_to_poly_map[mface_index] = poly_index;
2923                                 mf = &mface[mface_index];
2924
2925                                 /* set loop indices, transformed to vert indices later */
2926                                 l1 = mp_loopstart + tri[0];
2927                                 l2 = mp_loopstart + tri[1];
2928                                 l3 = mp_loopstart + tri[2];
2929
2930                                 mf->v1 = mloop[l1].v;
2931                                 mf->v2 = mloop[l2].v;
2932                                 mf->v3 = mloop[l3].v;
2933                                 mf->v4 = 0;
2934
2935                                 lidx[0] = l1;
2936                                 lidx[1] = l2;
2937                                 lidx[2] = l3;
2938                                 lidx[3] = 0;
2939
2940                                 mf->mat_nr = mp->mat_nr;
2941                                 mf->flag = mp->flag;
2942                                 mf->edcode = 0;
2943
2944                                 mface_index++;
2945                         }
2946
2947                         BLI_memarena_clear(arena);
2948                 }
2949         }
2950
2951         if (arena) {
2952                 BLI_memarena_free(arena);
2953                 arena = NULL;
2954         }
2955
2956         CustomData_free(fdata, totface);
2957         totface = mface_index;
2958
2959         BLI_assert(totface <= looptri_num);
2960
2961         /* not essential but without this we store over-alloc'd memory in the CustomData layers */
2962         if (LIKELY(looptri_num != totface)) {
2963                 mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
2964                 mface_to_poly_map = MEM_reallocN(mface_to_poly_map, sizeof(*mface_to_poly_map) * (size_t)totface);
2965         }
2966
2967         CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
2968
2969         /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
2970          * they are directly tessellated from */
2971         CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
2972         CustomData_from_bmeshpoly(fdata, pdata, ldata, totface);
2973
2974         if (do_face_nor_copy) {
2975                 /* If polys have a normals layer, copying that to faces can help
2976                  * avoid the need to recalculate normals later */
2977                 if (CustomData_has_layer(pdata, CD_NORMAL)) {
2978                         float (*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
2979                         float (*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
2980                         for (mface_index = 0; mface_index < totface; mface_index++) {
2981                                 copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
2982                         }
2983                 }
2984         }
2985
2986         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2987          * Polygons take care of their loops ordering, hence not of their vertices ordering.
2988          * Currently, our tfaces' fourth vertex index might be 0 even for a quad. However, we know our fourth loop index is
2989          * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
2990          * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the fourth loop index as quad test.
2991          * ...
2992          */
2993         BKE_mesh_loops_to_tessdata(fdata, ldata, pdata, NULL, mface_to_poly_map, lindices, totface);
2994
2995         /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
2996          * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
2997          * test_index_face() will check this and rotate the tessellated face if needed.
2998          */
2999 #ifdef USE_TESSFACE_QUADS
3000         mf = mface;
3001         for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
3002                 if (mf->edcode == TESSFACE_IS_QUAD) {
3003                         test_index_face(mf, fdata, mface_index, 4);
3004                         mf->edcode = 0;
3005                 }
3006         }
3007 #endif
3008
3009         MEM_freeN(lindices);
3010
3011         return totface;
3012
3013 #undef USE_TESSFACE_SPEEDUP
3014 #undef USE_TESSFACE_QUADS
3015
3016 #undef ML_TO_MF
3017 #undef ML_TO_MF_QUAD
3018
3019 }
3020
3021 /**
3022  * Calculate tessellation into #MLoopTri which exist only for this purpose.
3023  */
3024 void BKE_mesh_recalc_looptri(
3025         const MLoop *mloop, const MPoly *mpoly,
3026         const MVert *mvert,
3027         int totloop, int totpoly,
3028         MLoopTri *mlooptri)
3029 {
3030         /* use this to avoid locking pthread for _every_ polygon
3031          * and calling the fill function */
3032
3033 #define USE_TESSFACE_SPEEDUP
3034
3035         const MPoly *mp;
3036         const MLoop *ml;
3037         MLoopTri *mlt;
3038         MemArena *arena = NULL;
3039         int poly_index, mlooptri_index;
3040         unsigned int j;
3041
3042         mlooptri_index = 0;
3043         mp = mpoly;
3044         for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
3045                 const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
3046                 const unsigned int mp_totloop = (unsigned int)mp->totloop;
3047                 unsigned int l1, l2, l3;
3048                 if (mp_totloop < 3) {
3049                         /* do nothing */
3050                 }
3051
3052 #ifdef USE_TESSFACE_SPEEDUP
3053
3054 #define ML_TO_MLT(i1, i2, i3)  { \
3055                         mlt = &mlooptri[mlooptri_index]; \
3056