Cleanup: style, use braces for blenkernel
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * This program is free software; you can redistribute it and/or
3  * modify it under the terms of the GNU General Public License
4  * as published by the Free Software Foundation; either version 2
5  * of the License, or (at your option) any later version.
6  *
7  * This program is distributed in the hope that it will be useful,
8  * but WITHOUT ANY WARRANTY; without even the implied warranty of
9  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
10  * GNU General Public License for more details.
11  *
12  * You should have received a copy of the GNU General Public License
13  * along with this program; if not, write to the Free Software Foundation,
14  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
15  *
16  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
17  * All rights reserved.
18  */
19
20 /** \file
21  * \ingroup bke
22  *
23  * Functions to evaluate mesh data.
24  */
25
26 #include <limits.h>
27
28 #include "CLG_log.h"
29
30 #include "MEM_guardedalloc.h"
31
32 #include "DNA_object_types.h"
33 #include "DNA_mesh_types.h"
34 #include "DNA_meshdata_types.h"
35
36 #include "BLI_utildefines.h"
37 #include "BLI_memarena.h"
38 #include "BLI_math.h"
39 #include "BLI_edgehash.h"
40 #include "BLI_bitmap.h"
41 #include "BLI_polyfill_2d.h"
42 #include "BLI_linklist.h"
43 #include "BLI_linklist_stack.h"
44 #include "BLI_alloca.h"
45 #include "BLI_stack.h"
46 #include "BLI_task.h"
47
48 #include "BKE_customdata.h"
49 #include "BKE_global.h"
50 #include "BKE_mesh.h"
51 #include "BKE_multires.h"
52 #include "BKE_report.h"
53
54 #include "BLI_strict_flags.h"
55
56 #include "atomic_ops.h"
57 #include "mikktspace.h"
58
59 // #define DEBUG_TIME
60
61 #include "PIL_time.h"
62 #ifdef DEBUG_TIME
63 #  include "PIL_time_utildefines.h"
64 #endif
65
66 static CLG_LogRef LOG = {"bke.mesh_evaluate"};
67
68 /* -------------------------------------------------------------------- */
69 /** \name Mesh Normal Calculation
70  * \{ */
71
72 /**
73  * Call when there are no polygons.
74  */
75 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
76 {
77   int i;
78   for (i = 0; i < numVerts; i++) {
79     MVert *mv = &mverts[i];
80     float no[3];
81
82     normalize_v3_v3(no, mv->co);
83     normal_float_to_short_v3(mv->no, no);
84   }
85 }
86
87 /* TODO(Sybren): we can probably rename this to BKE_mesh_calc_normals_mapping(),
88  * and remove the function of the same name below, as that one doesn't seem to be
89  * called anywhere. */
90 void BKE_mesh_calc_normals_mapping_simple(struct Mesh *mesh)
91 {
92   const bool only_face_normals = CustomData_is_referenced_layer(&mesh->vdata, CD_MVERT);
93
94   BKE_mesh_calc_normals_mapping_ex(mesh->mvert,
95                                    mesh->totvert,
96                                    mesh->mloop,
97                                    mesh->mpoly,
98                                    mesh->totloop,
99                                    mesh->totpoly,
100                                    NULL,
101                                    mesh->mface,
102                                    mesh->totface,
103                                    NULL,
104                                    NULL,
105                                    only_face_normals);
106 }
107
108 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
109  * and vertex normals are stored in actual mverts.
110  */
111 void BKE_mesh_calc_normals_mapping(MVert *mverts,
112                                    int numVerts,
113                                    const MLoop *mloop,
114                                    const MPoly *mpolys,
115                                    int numLoops,
116                                    int numPolys,
117                                    float (*r_polyNors)[3],
118                                    const MFace *mfaces,
119                                    int numFaces,
120                                    const int *origIndexFace,
121                                    float (*r_faceNors)[3])
122 {
123   BKE_mesh_calc_normals_mapping_ex(mverts,
124                                    numVerts,
125                                    mloop,
126                                    mpolys,
127                                    numLoops,
128                                    numPolys,
129                                    r_polyNors,
130                                    mfaces,
131                                    numFaces,
132                                    origIndexFace,
133                                    r_faceNors,
134                                    false);
135 }
136 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
137 void BKE_mesh_calc_normals_mapping_ex(MVert *mverts,
138                                       int numVerts,
139                                       const MLoop *mloop,
140                                       const MPoly *mpolys,
141                                       int numLoops,
142                                       int numPolys,
143                                       float (*r_polyNors)[3],
144                                       const MFace *mfaces,
145                                       int numFaces,
146                                       const int *origIndexFace,
147                                       float (*r_faceNors)[3],
148                                       const bool only_face_normals)
149 {
150   float(*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
151   int i;
152   const MFace *mf;
153   const MPoly *mp;
154
155   if (numPolys == 0) {
156     if (only_face_normals == false) {
157       mesh_calc_normals_vert_fallback(mverts, numVerts);
158     }
159     return;
160   }
161
162   /* if we are not calculating verts and no verts were passes then we have nothing to do */
163   if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
164     CLOG_WARN(&LOG, "called with nothing to do");
165     return;
166   }
167
168   if (!pnors) {
169     pnors = MEM_calloc_arrayN((size_t)numPolys, sizeof(float[3]), __func__);
170   }
171   /* if (!fnors) fnors = MEM_calloc_arrayN(numFaces, sizeof(float[3]), "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
172
173   if (only_face_normals == false) {
174     /* vertex normals are optional, they require some extra calculations,
175      * so make them optional */
176     BKE_mesh_calc_normals_poly(
177         mverts, NULL, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
178   }
179   else {
180     /* only calc poly normals */
181     mp = mpolys;
182     for (i = 0; i < numPolys; i++, mp++) {
183       BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
184     }
185   }
186
187   if (origIndexFace &&
188       /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
189           fnors != NULL &&
190       numFaces) {
191     mf = mfaces;
192     for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
193       if (*origIndexFace < numPolys) {
194         copy_v3_v3(fnors[i], pnors[*origIndexFace]);
195       }
196       else {
197         /* eek, we're not corresponding to polys */
198         CLOG_ERROR(&LOG, "tessellation face indices are incorrect.  normals may look bad.");
199       }
200     }
201   }
202
203   if (pnors != r_polyNors) {
204     MEM_freeN(pnors);
205   }
206   /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
207
208   fnors = pnors = NULL;
209 }
210
211 typedef struct MeshCalcNormalsData {
212   const MPoly *mpolys;
213   const MLoop *mloop;
214   MVert *mverts;
215   float (*pnors)[3];
216   float (*lnors_weighted)[3];
217   float (*vnors)[3];
218 } MeshCalcNormalsData;
219
220 static void mesh_calc_normals_poly_cb(void *__restrict userdata,
221                                       const int pidx,
222                                       const ParallelRangeTLS *__restrict UNUSED(tls))
223 {
224   MeshCalcNormalsData *data = userdata;
225   const MPoly *mp = &data->mpolys[pidx];
226
227   BKE_mesh_calc_poly_normal(mp, data->mloop + mp->loopstart, data->mverts, data->pnors[pidx]);
228 }
229
230 static void mesh_calc_normals_poly_prepare_cb(void *__restrict userdata,
231                                               const int pidx,
232                                               const ParallelRangeTLS *__restrict UNUSED(tls))
233 {
234   MeshCalcNormalsData *data = userdata;
235   const MPoly *mp = &data->mpolys[pidx];
236   const MLoop *ml = &data->mloop[mp->loopstart];
237   const MVert *mverts = data->mverts;
238
239   float pnor_temp[3];
240   float *pnor = data->pnors ? data->pnors[pidx] : pnor_temp;
241   float(*lnors_weighted)[3] = data->lnors_weighted;
242
243   const int nverts = mp->totloop;
244   float(*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
245   int i;
246
247   /* Polygon Normal and edge-vector */
248   /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
249   {
250     int i_prev = nverts - 1;
251     const float *v_prev = mverts[ml[i_prev].v].co;
252     const float *v_curr;
253
254     zero_v3(pnor);
255     /* Newell's Method */
256     for (i = 0; i < nverts; i++) {
257       v_curr = mverts[ml[i].v].co;
258       add_newell_cross_v3_v3v3(pnor, v_prev, v_curr);
259
260       /* Unrelated to normalize, calculate edge-vector */
261       sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
262       normalize_v3(edgevecbuf[i_prev]);
263       i_prev = i;
264
265       v_prev = v_curr;
266     }
267     if (UNLIKELY(normalize_v3(pnor) == 0.0f)) {
268       pnor[2] = 1.0f; /* other axes set to 0.0 */
269     }
270   }
271
272   /* accumulate angle weighted face normal */
273   /* inline version of #accumulate_vertex_normals_poly_v3,
274    * split between this threaded callback and #mesh_calc_normals_poly_accum_cb. */
275   {
276     const float *prev_edge = edgevecbuf[nverts - 1];
277
278     for (i = 0; i < nverts; i++) {
279       const int lidx = mp->loopstart + i;
280       const float *cur_edge = edgevecbuf[i];
281
282       /* calculate angle between the two poly edges incident on
283        * this vertex */
284       const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
285
286       /* Store for later accumulation */
287       mul_v3_v3fl(lnors_weighted[lidx], pnor, fac);
288
289       prev_edge = cur_edge;
290     }
291   }
292 }
293
294 static void mesh_calc_normals_poly_finalize_cb(void *__restrict userdata,
295                                                const int vidx,
296                                                const ParallelRangeTLS *__restrict UNUSED(tls))
297 {
298   MeshCalcNormalsData *data = userdata;
299
300   MVert *mv = &data->mverts[vidx];
301   float *no = data->vnors[vidx];
302
303   if (UNLIKELY(normalize_v3(no) == 0.0f)) {
304     /* following Mesh convention; we use vertex coordinate itself for normal in this case */
305     normalize_v3_v3(no, mv->co);
306   }
307
308   normal_float_to_short_v3(mv->no, no);
309 }
310
311 void BKE_mesh_calc_normals_poly(MVert *mverts,
312                                 float (*r_vertnors)[3],
313                                 int numVerts,
314                                 const MLoop *mloop,
315                                 const MPoly *mpolys,
316                                 int numLoops,
317                                 int numPolys,
318                                 float (*r_polynors)[3],
319                                 const bool only_face_normals)
320 {
321   float(*pnors)[3] = r_polynors;
322
323   ParallelRangeSettings settings;
324   BLI_parallel_range_settings_defaults(&settings);
325   settings.min_iter_per_thread = 1024;
326
327   if (only_face_normals) {
328     BLI_assert((pnors != NULL) || (numPolys == 0));
329     BLI_assert(r_vertnors == NULL);
330
331     MeshCalcNormalsData data = {
332         .mpolys = mpolys,
333         .mloop = mloop,
334         .mverts = mverts,
335         .pnors = pnors,
336     };
337
338     BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_cb, &settings);
339     return;
340   }
341
342   float(*vnors)[3] = r_vertnors;
343   float(*lnors_weighted)[3] = MEM_malloc_arrayN(
344       (size_t)numLoops, sizeof(*lnors_weighted), __func__);
345   bool free_vnors = false;
346
347   /* first go through and calculate normals for all the polys */
348   if (vnors == NULL) {
349     vnors = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vnors), __func__);
350     free_vnors = true;
351   }
352   else {
353     memset(vnors, 0, sizeof(*vnors) * (size_t)numVerts);
354   }
355
356   MeshCalcNormalsData data = {
357       .mpolys = mpolys,
358       .mloop = mloop,
359       .mverts = mverts,
360       .pnors = pnors,
361       .lnors_weighted = lnors_weighted,
362       .vnors = vnors,
363   };
364
365   /* Compute poly normals, and prepare weighted loop normals. */
366   BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_prepare_cb, &settings);
367
368   /* Actually accumulate weighted loop normals into vertex ones. */
369   /* Unfortunately, not possible to thread that (not in a reasonable, totally lock- and barrier-free fashion),
370    * since several loops will point to the same vertex... */
371   for (int lidx = 0; lidx < numLoops; lidx++) {
372     add_v3_v3(vnors[mloop[lidx].v], data.lnors_weighted[lidx]);
373   }
374
375   /* Normalize and validate computed vertex normals. */
376   BLI_task_parallel_range(0, numVerts, &data, mesh_calc_normals_poly_finalize_cb, &settings);
377
378   if (free_vnors) {
379     MEM_freeN(vnors);
380   }
381   MEM_freeN(lnors_weighted);
382 }
383
384 void BKE_mesh_ensure_normals(Mesh *mesh)
385 {
386   if (mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) {
387     BKE_mesh_calc_normals(mesh);
388   }
389   BLI_assert((mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) == 0);
390 }
391
392 /**
393  * Called after calculating all modifiers.
394  */
395 void BKE_mesh_ensure_normals_for_display(Mesh *mesh)
396 {
397   float(*poly_nors)[3] = CustomData_get_layer(&mesh->pdata, CD_NORMAL);
398   const bool do_vert_normals = (mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) != 0;
399   const bool do_poly_normals = (mesh->runtime.cd_dirty_poly & CD_MASK_NORMAL || poly_nors == NULL);
400
401   if (do_vert_normals || do_poly_normals) {
402     const bool do_add_poly_nors_cddata = (poly_nors == NULL);
403     if (do_add_poly_nors_cddata) {
404       poly_nors = MEM_malloc_arrayN((size_t)mesh->totpoly, sizeof(*poly_nors), __func__);
405     }
406
407     /* calculate poly/vert normals */
408     BKE_mesh_calc_normals_poly(mesh->mvert,
409                                NULL,
410                                mesh->totvert,
411                                mesh->mloop,
412                                mesh->mpoly,
413                                mesh->totloop,
414                                mesh->totpoly,
415                                poly_nors,
416                                !do_vert_normals);
417
418     if (do_add_poly_nors_cddata) {
419       CustomData_add_layer(&mesh->pdata, CD_NORMAL, CD_ASSIGN, poly_nors, mesh->totpoly);
420     }
421
422     mesh->runtime.cd_dirty_vert &= ~CD_MASK_NORMAL;
423     mesh->runtime.cd_dirty_poly &= ~CD_MASK_NORMAL;
424   }
425 }
426
427 /* Note that this does not update the CD_NORMAL layer, but does update the normals in the CD_MVERT layer. */
428 void BKE_mesh_calc_normals(Mesh *mesh)
429 {
430 #ifdef DEBUG_TIME
431   TIMEIT_START_AVERAGED(BKE_mesh_calc_normals);
432 #endif
433   BKE_mesh_calc_normals_poly(mesh->mvert,
434                              NULL,
435                              mesh->totvert,
436                              mesh->mloop,
437                              mesh->mpoly,
438                              mesh->totloop,
439                              mesh->totpoly,
440                              NULL,
441                              false);
442 #ifdef DEBUG_TIME
443   TIMEIT_END_AVERAGED(BKE_mesh_calc_normals);
444 #endif
445   mesh->runtime.cd_dirty_vert &= ~CD_MASK_NORMAL;
446 }
447
448 void BKE_mesh_calc_normals_tessface(
449     MVert *mverts, int numVerts, const MFace *mfaces, int numFaces, float (*r_faceNors)[3])
450 {
451   float(*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
452   float(*fnors)[3] = (r_faceNors) ?
453                          r_faceNors :
454                          MEM_calloc_arrayN((size_t)numFaces, sizeof(*fnors), "meshnormals");
455   int i;
456
457   if (!tnorms || !fnors) {
458     goto cleanup;
459   }
460
461   for (i = 0; i < numFaces; i++) {
462     const MFace *mf = &mfaces[i];
463     float *f_no = fnors[i];
464     float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
465     const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
466
467     if (mf->v4) {
468       normal_quad_v3(
469           f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
470     }
471     else {
472       normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
473     }
474
475     accumulate_vertex_normals_v3(tnorms[mf->v1],
476                                  tnorms[mf->v2],
477                                  tnorms[mf->v3],
478                                  n4,
479                                  f_no,
480                                  mverts[mf->v1].co,
481                                  mverts[mf->v2].co,
482                                  mverts[mf->v3].co,
483                                  c4);
484   }
485
486   /* following Mesh convention; we use vertex coordinate itself for normal in this case */
487   for (i = 0; i < numVerts; i++) {
488     MVert *mv = &mverts[i];
489     float *no = tnorms[i];
490
491     if (UNLIKELY(normalize_v3(no) == 0.0f)) {
492       normalize_v3_v3(no, mv->co);
493     }
494
495     normal_float_to_short_v3(mv->no, no);
496   }
497
498 cleanup:
499   MEM_freeN(tnorms);
500
501   if (fnors != r_faceNors) {
502     MEM_freeN(fnors);
503   }
504 }
505
506 void BKE_mesh_calc_normals_looptri(MVert *mverts,
507                                    int numVerts,
508                                    const MLoop *mloop,
509                                    const MLoopTri *looptri,
510                                    int looptri_num,
511                                    float (*r_tri_nors)[3])
512 {
513   float(*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
514   float(*fnors)[3] = (r_tri_nors) ?
515                          r_tri_nors :
516                          MEM_calloc_arrayN((size_t)looptri_num, sizeof(*fnors), "meshnormals");
517   int i;
518
519   if (!tnorms || !fnors) {
520     goto cleanup;
521   }
522
523   for (i = 0; i < looptri_num; i++) {
524     const MLoopTri *lt = &looptri[i];
525     float *f_no = fnors[i];
526     const unsigned int vtri[3] = {
527         mloop[lt->tri[0]].v,
528         mloop[lt->tri[1]].v,
529         mloop[lt->tri[2]].v,
530     };
531
532     normal_tri_v3(f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
533
534     accumulate_vertex_normals_tri_v3(tnorms[vtri[0]],
535                                      tnorms[vtri[1]],
536                                      tnorms[vtri[2]],
537                                      f_no,
538                                      mverts[vtri[0]].co,
539                                      mverts[vtri[1]].co,
540                                      mverts[vtri[2]].co);
541   }
542
543   /* following Mesh convention; we use vertex coordinate itself for normal in this case */
544   for (i = 0; i < numVerts; i++) {
545     MVert *mv = &mverts[i];
546     float *no = tnorms[i];
547
548     if (UNLIKELY(normalize_v3(no) == 0.0f)) {
549       normalize_v3_v3(no, mv->co);
550     }
551
552     normal_float_to_short_v3(mv->no, no);
553   }
554
555 cleanup:
556   MEM_freeN(tnorms);
557
558   if (fnors != r_tri_nors) {
559     MEM_freeN(fnors);
560   }
561 }
562
563 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr,
564                             const int numLoops,
565                             const char data_type)
566 {
567   if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
568     MemArena *mem;
569
570     if (!lnors_spacearr->mem) {
571       lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
572     }
573     mem = lnors_spacearr->mem;
574     lnors_spacearr->lspacearr = BLI_memarena_calloc(mem,
575                                                     sizeof(MLoopNorSpace *) * (size_t)numLoops);
576     lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
577
578     lnors_spacearr->num_spaces = 0;
579   }
580   BLI_assert(ELEM(data_type, MLNOR_SPACEARR_BMLOOP_PTR, MLNOR_SPACEARR_LOOP_INDEX));
581   lnors_spacearr->data_type = data_type;
582 }
583
584 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
585 {
586   lnors_spacearr->num_spaces = 0;
587   lnors_spacearr->lspacearr = NULL;
588   lnors_spacearr->loops_pool = NULL;
589   BLI_memarena_clear(lnors_spacearr->mem);
590 }
591
592 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
593 {
594   lnors_spacearr->num_spaces = 0;
595   lnors_spacearr->lspacearr = NULL;
596   lnors_spacearr->loops_pool = NULL;
597   BLI_memarena_free(lnors_spacearr->mem);
598   lnors_spacearr->mem = NULL;
599 }
600
601 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
602 {
603   lnors_spacearr->num_spaces++;
604   return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
605 }
606
607 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
608 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-4f)
609
610 /* Should only be called once.
611  * Beware, this modifies ref_vec and other_vec in place!
612  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
613  */
614 void BKE_lnor_space_define(MLoopNorSpace *lnor_space,
615                            const float lnor[3],
616                            float vec_ref[3],
617                            float vec_other[3],
618                            BLI_Stack *edge_vectors)
619 {
620   const float pi2 = (float)M_PI * 2.0f;
621   float tvec[3], dtp;
622   const float dtp_ref = dot_v3v3(vec_ref, lnor);
623   const float dtp_other = dot_v3v3(vec_other, lnor);
624
625   if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD ||
626                fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
627     /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
628      * tag it as invalid and abort. */
629     lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
630
631     if (edge_vectors) {
632       BLI_stack_clear(edge_vectors);
633     }
634     return;
635   }
636
637   copy_v3_v3(lnor_space->vec_lnor, lnor);
638
639   /* Compute ref alpha, average angle of all available edge vectors to lnor. */
640   if (edge_vectors) {
641     float alpha = 0.0f;
642     int nbr = 0;
643     while (!BLI_stack_is_empty(edge_vectors)) {
644       const float *vec = BLI_stack_peek(edge_vectors);
645       alpha += saacosf(dot_v3v3(vec, lnor));
646       BLI_stack_discard(edge_vectors);
647       nbr++;
648     }
649     /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
650      *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
651     BLI_assert(nbr >= 2); /* This piece of code shall only be called for more than one loop... */
652     lnor_space->ref_alpha = alpha / (float)nbr;
653   }
654   else {
655     lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) +
656                              saacosf(dot_v3v3(vec_other, lnor))) /
657                             2.0f;
658   }
659
660   /* Project vec_ref on lnor's ortho plane. */
661   mul_v3_v3fl(tvec, lnor, dtp_ref);
662   sub_v3_v3(vec_ref, tvec);
663   normalize_v3_v3(lnor_space->vec_ref, vec_ref);
664
665   cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
666   normalize_v3_v3(lnor_space->vec_ortho, tvec);
667
668   /* Project vec_other on lnor's ortho plane. */
669   mul_v3_v3fl(tvec, lnor, dtp_other);
670   sub_v3_v3(vec_other, tvec);
671   normalize_v3(vec_other);
672
673   /* Beta is angle between ref_vec and other_vec, around lnor. */
674   dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
675   if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
676     const float beta = saacos(dtp);
677     lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
678   }
679   else {
680     lnor_space->ref_beta = pi2;
681   }
682 }
683
684 /**
685  * Add a new given loop to given lnor_space.
686  * Depending on \a lnor_space->data_type, we expect \a bm_loop to be a pointer to BMLoop struct (in case of BMLOOP_PTR),
687  * or NULL (in case of LOOP_INDEX), loop index is then stored in pointer.
688  * If \a is_single is set, the BMLoop or loop index is directly stored in \a lnor_space->loops pointer (since there
689  * is only one loop in this fan), else it is added to the linked list of loops in the fan.
690  */
691 void BKE_lnor_space_add_loop(MLoopNorSpaceArray *lnors_spacearr,
692                              MLoopNorSpace *lnor_space,
693                              const int ml_index,
694                              void *bm_loop,
695                              const bool is_single)
696 {
697   BLI_assert((lnors_spacearr->data_type == MLNOR_SPACEARR_LOOP_INDEX && bm_loop == NULL) ||
698              (lnors_spacearr->data_type == MLNOR_SPACEARR_BMLOOP_PTR && bm_loop != NULL));
699
700   lnors_spacearr->lspacearr[ml_index] = lnor_space;
701   if (bm_loop == NULL) {
702     bm_loop = POINTER_FROM_INT(ml_index);
703   }
704   if (is_single) {
705     BLI_assert(lnor_space->loops == NULL);
706     lnor_space->flags |= MLNOR_SPACE_IS_SINGLE;
707     lnor_space->loops = bm_loop;
708   }
709   else {
710     BLI_assert((lnor_space->flags & MLNOR_SPACE_IS_SINGLE) == 0);
711     BLI_linklist_prepend_nlink(&lnor_space->loops, bm_loop, &lnors_spacearr->loops_pool[ml_index]);
712   }
713 }
714
715 MINLINE float unit_short_to_float(const short val)
716 {
717   return (float)val / (float)SHRT_MAX;
718 }
719
720 MINLINE short unit_float_to_short(const float val)
721 {
722   /* Rounding... */
723   return (short)floorf(val * (float)SHRT_MAX + 0.5f);
724 }
725
726 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space,
727                                           const short clnor_data[2],
728                                           float r_custom_lnor[3])
729 {
730   /* NOP custom normal data or invalid lnor space, return. */
731   if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
732     copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
733     return;
734   }
735
736   {
737     /* TODO Check whether using sincosf() gives any noticeable benefit
738      *      (could not even get it working under linux though)! */
739     const float pi2 = (float)(M_PI * 2.0);
740     const float alphafac = unit_short_to_float(clnor_data[0]);
741     const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) *
742                         alphafac;
743     const float betafac = unit_short_to_float(clnor_data[1]);
744
745     mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
746
747     if (betafac == 0.0f) {
748       madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
749     }
750     else {
751       const float sinalpha = sinf(alpha);
752       const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) *
753                          betafac;
754       madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
755       madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
756     }
757   }
758 }
759
760 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space,
761                                           const float custom_lnor[3],
762                                           short r_clnor_data[2])
763 {
764   /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
765   if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
766     r_clnor_data[0] = r_clnor_data[1] = 0;
767     return;
768   }
769
770   {
771     const float pi2 = (float)(M_PI * 2.0);
772     const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
773     float vec[3], cos_beta;
774     float alpha;
775
776     alpha = saacosf(cos_alpha);
777     if (alpha > lnor_space->ref_alpha) {
778       /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
779       r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
780     }
781     else {
782       r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
783     }
784
785     /* Project custom lnor on (vec_ref, vec_ortho) plane. */
786     mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
787     add_v3_v3(vec, custom_lnor);
788     normalize_v3(vec);
789
790     cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
791
792     if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
793       float beta = saacosf(cos_beta);
794       if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
795         beta = pi2 - beta;
796       }
797
798       if (beta > lnor_space->ref_beta) {
799         r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
800       }
801       else {
802         r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
803       }
804     }
805     else {
806       r_clnor_data[1] = 0;
807     }
808   }
809 }
810
811 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
812
813 typedef struct LoopSplitTaskData {
814   /* Specific to each instance (each task). */
815   MLoopNorSpace *
816       lnor_space; /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
817   float (*lnor)[3];
818   const MLoop *ml_curr;
819   const MLoop *ml_prev;
820   int ml_curr_index;
821   int ml_prev_index;
822   const int *e2l_prev; /* Also used a flag to switch between single or fan process! */
823   int mp_index;
824
825   /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
826   BLI_Stack *edge_vectors;
827
828   char pad_c;
829 } LoopSplitTaskData;
830
831 typedef struct LoopSplitTaskDataCommon {
832   /* Read/write.
833    * Note we do not need to protect it, though, since two different tasks will *always* affect different
834    * elements in the arrays. */
835   MLoopNorSpaceArray *lnors_spacearr;
836   float (*loopnors)[3];
837   short (*clnors_data)[2];
838
839   /* Read-only. */
840   const MVert *mverts;
841   const MEdge *medges;
842   const MLoop *mloops;
843   const MPoly *mpolys;
844   int (*edge_to_loops)[2];
845   int *loop_to_poly;
846   const float (*polynors)[3];
847
848   int numEdges;
849   int numLoops;
850   int numPolys;
851 } LoopSplitTaskDataCommon;
852
853 #define INDEX_UNSET INT_MIN
854 #define INDEX_INVALID -1
855 /* See comment about edge_to_loops below. */
856 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
857
858 static void mesh_edges_sharp_tag(LoopSplitTaskDataCommon *data,
859                                  const bool check_angle,
860                                  const float split_angle,
861                                  const bool do_sharp_edges_tag)
862 {
863   const MVert *mverts = data->mverts;
864   const MEdge *medges = data->medges;
865   const MLoop *mloops = data->mloops;
866
867   const MPoly *mpolys = data->mpolys;
868
869   const int numEdges = data->numEdges;
870   const int numPolys = data->numPolys;
871
872   float(*loopnors)[3] = data->loopnors; /* Note: loopnors may be NULL here. */
873   const float(*polynors)[3] = data->polynors;
874
875   int(*edge_to_loops)[2] = data->edge_to_loops;
876   int *loop_to_poly = data->loop_to_poly;
877
878   BLI_bitmap *sharp_edges = do_sharp_edges_tag ? BLI_BITMAP_NEW(numEdges, __func__) : NULL;
879
880   const MPoly *mp;
881   int mp_index;
882
883   const float split_angle_cos = check_angle ? cosf(split_angle) : -1.0f;
884
885   for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
886     const MLoop *ml_curr;
887     int *e2l;
888     int ml_curr_index = mp->loopstart;
889     const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
890
891     ml_curr = &mloops[ml_curr_index];
892
893     for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
894       e2l = edge_to_loops[ml_curr->e];
895
896       loop_to_poly[ml_curr_index] = mp_index;
897
898       /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
899        * those later!
900        */
901       if (loopnors) {
902         normal_short_to_float_v3(loopnors[ml_curr_index], mverts[ml_curr->v].no);
903       }
904
905       /* Check whether current edge might be smooth or sharp */
906       if ((e2l[0] | e2l[1]) == 0) {
907         /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
908         e2l[0] = ml_curr_index;
909         /* We have to check this here too, else we might miss some flat faces!!! */
910         e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
911       }
912       else if (e2l[1] == INDEX_UNSET) {
913         const bool is_angle_sharp = (check_angle &&
914                                      dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) <
915                                          split_angle_cos);
916
917         /* Second loop using this edge, time to test its sharpness.
918          * An edge is sharp if it is tagged as such, or its face is not smooth,
919          * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
920          * or angle between both its polys' normals is above split_angle value.
921          */
922         if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
923             ml_curr->v == mloops[e2l[0]].v || is_angle_sharp) {
924           /* Note: we are sure that loop != 0 here ;) */
925           e2l[1] = INDEX_INVALID;
926
927           /* We want to avoid tagging edges as sharp when it is already defined as such by
928            * other causes than angle threshold... */
929           if (do_sharp_edges_tag && is_angle_sharp) {
930             BLI_BITMAP_SET(sharp_edges, ml_curr->e, true);
931           }
932         }
933         else {
934           e2l[1] = ml_curr_index;
935         }
936       }
937       else if (!IS_EDGE_SHARP(e2l)) {
938         /* More than two loops using this edge, tag as sharp if not yet done. */
939         e2l[1] = INDEX_INVALID;
940
941         /* We want to avoid tagging edges as sharp when it is already defined as such by
942          * other causes than angle threshold... */
943         if (do_sharp_edges_tag) {
944           BLI_BITMAP_SET(sharp_edges, ml_curr->e, false);
945         }
946       }
947       /* Else, edge is already 'disqualified' (i.e. sharp)! */
948     }
949   }
950
951   /* If requested, do actual tagging of edges as sharp in another loop. */
952   if (do_sharp_edges_tag) {
953     MEdge *me;
954     int me_index;
955     for (me = (MEdge *)medges, me_index = 0; me_index < numEdges; me++, me_index++) {
956       if (BLI_BITMAP_TEST(sharp_edges, me_index)) {
957         me->flag |= ME_SHARP;
958       }
959     }
960
961     MEM_freeN(sharp_edges);
962   }
963 }
964
965 /** Define sharp edges as needed to mimic 'autosmooth' from angle threshold.
966  *
967  * Used when defining an empty custom loop normals data layer, to keep same shading as with autosmooth!
968  */
969 void BKE_edges_sharp_from_angle_set(const struct MVert *mverts,
970                                     const int UNUSED(numVerts),
971                                     struct MEdge *medges,
972                                     const int numEdges,
973                                     struct MLoop *mloops,
974                                     const int numLoops,
975                                     struct MPoly *mpolys,
976                                     const float (*polynors)[3],
977                                     const int numPolys,
978                                     const float split_angle)
979 {
980   if (split_angle >= (float)M_PI) {
981     /* Nothing to do! */
982     return;
983   }
984
985   /* Mapping edge -> loops. See BKE_mesh_normals_loop_split() for details. */
986   int(*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
987
988   /* Simple mapping from a loop to its polygon index. */
989   int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
990
991   LoopSplitTaskDataCommon common_data = {
992       .mverts = mverts,
993       .medges = medges,
994       .mloops = mloops,
995       .mpolys = mpolys,
996       .edge_to_loops = edge_to_loops,
997       .loop_to_poly = loop_to_poly,
998       .polynors = polynors,
999       .numEdges = numEdges,
1000       .numPolys = numPolys,
1001   };
1002
1003   mesh_edges_sharp_tag(&common_data, true, split_angle, true);
1004
1005   MEM_freeN(edge_to_loops);
1006   MEM_freeN(loop_to_poly);
1007 }
1008
1009 void BKE_mesh_loop_manifold_fan_around_vert_next(const MLoop *mloops,
1010                                                  const MPoly *mpolys,
1011                                                  const int *loop_to_poly,
1012                                                  const int *e2lfan_curr,
1013                                                  const uint mv_pivot_index,
1014                                                  const MLoop **r_mlfan_curr,
1015                                                  int *r_mlfan_curr_index,
1016                                                  int *r_mlfan_vert_index,
1017                                                  int *r_mpfan_curr_index)
1018 {
1019   const MLoop *mlfan_next;
1020   const MPoly *mpfan_next;
1021
1022   /* Warning! This is rather complex!
1023    * We have to find our next edge around the vertex (fan mode).
1024    * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
1025    * whether both loops using current edge are in the same direction or not, and whether
1026    * mlfan_curr_index actually uses the vertex we are fanning around!
1027    * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
1028    * (i.e. not the future mlfan_curr)...
1029    */
1030   *r_mlfan_curr_index = (e2lfan_curr[0] == *r_mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
1031   *r_mpfan_curr_index = loop_to_poly[*r_mlfan_curr_index];
1032
1033   BLI_assert(*r_mlfan_curr_index >= 0);
1034   BLI_assert(*r_mpfan_curr_index >= 0);
1035
1036   mlfan_next = &mloops[*r_mlfan_curr_index];
1037   mpfan_next = &mpolys[*r_mpfan_curr_index];
1038   if (((*r_mlfan_curr)->v == mlfan_next->v && (*r_mlfan_curr)->v == mv_pivot_index) ||
1039       ((*r_mlfan_curr)->v != mlfan_next->v && (*r_mlfan_curr)->v != mv_pivot_index)) {
1040     /* We need the previous loop, but current one is our vertex's loop. */
1041     *r_mlfan_vert_index = *r_mlfan_curr_index;
1042     if (--(*r_mlfan_curr_index) < mpfan_next->loopstart) {
1043       *r_mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
1044     }
1045   }
1046   else {
1047     /* We need the next loop, which is also our vertex's loop. */
1048     if (++(*r_mlfan_curr_index) >= mpfan_next->loopstart + mpfan_next->totloop) {
1049       *r_mlfan_curr_index = mpfan_next->loopstart;
1050     }
1051     *r_mlfan_vert_index = *r_mlfan_curr_index;
1052   }
1053   *r_mlfan_curr = &mloops[*r_mlfan_curr_index];
1054   /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
1055 }
1056
1057 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
1058 {
1059   MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1060   short(*clnors_data)[2] = common_data->clnors_data;
1061
1062   const MVert *mverts = common_data->mverts;
1063   const MEdge *medges = common_data->medges;
1064   const float(*polynors)[3] = common_data->polynors;
1065
1066   MLoopNorSpace *lnor_space = data->lnor_space;
1067   float(*lnor)[3] = data->lnor;
1068   const MLoop *ml_curr = data->ml_curr;
1069   const MLoop *ml_prev = data->ml_prev;
1070   const int ml_curr_index = data->ml_curr_index;
1071 #if 0 /* Not needed for 'single' loop. */
1072   const int ml_prev_index = data->ml_prev_index;
1073   const int *e2l_prev = data->e2l_prev;
1074 #endif
1075   const int mp_index = data->mp_index;
1076
1077   /* Simple case (both edges around that vertex are sharp in current polygon),
1078    * this loop just takes its poly normal.
1079    */
1080   copy_v3_v3(*lnor, polynors[mp_index]);
1081
1082   //  printf("BASIC: handling loop %d / edge %d / vert %d / poly %d\n", ml_curr_index, ml_curr->e, ml_curr->v, mp_index);
1083
1084   /* If needed, generate this (simple!) lnor space. */
1085   if (lnors_spacearr) {
1086     float vec_curr[3], vec_prev[3];
1087
1088     const unsigned int mv_pivot_index = ml_curr->v; /* The vertex we are "fanning" around! */
1089     const MVert *mv_pivot = &mverts[mv_pivot_index];
1090     const MEdge *me_curr = &medges[ml_curr->e];
1091     const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] :
1092                                                           &mverts[me_curr->v1];
1093     const MEdge *me_prev = &medges[ml_prev->e];
1094     const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] :
1095                                                           &mverts[me_prev->v1];
1096
1097     sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1098     normalize_v3(vec_curr);
1099     sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
1100     normalize_v3(vec_prev);
1101
1102     BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
1103     /* We know there is only one loop in this space, no need to create a linklist in this case... */
1104     BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, NULL, true);
1105
1106     if (clnors_data) {
1107       BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
1108     }
1109   }
1110 }
1111
1112 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
1113 {
1114   MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1115   float(*loopnors)[3] = common_data->loopnors;
1116   short(*clnors_data)[2] = common_data->clnors_data;
1117
1118   const MVert *mverts = common_data->mverts;
1119   const MEdge *medges = common_data->medges;
1120   const MLoop *mloops = common_data->mloops;
1121   const MPoly *mpolys = common_data->mpolys;
1122   const int(*edge_to_loops)[2] = common_data->edge_to_loops;
1123   const int *loop_to_poly = common_data->loop_to_poly;
1124   const float(*polynors)[3] = common_data->polynors;
1125
1126   MLoopNorSpace *lnor_space = data->lnor_space;
1127 #if 0 /* Not needed for 'fan' loops. */
1128   float(*lnor)[3] = data->lnor;
1129 #endif
1130   const MLoop *ml_curr = data->ml_curr;
1131   const MLoop *ml_prev = data->ml_prev;
1132   const int ml_curr_index = data->ml_curr_index;
1133   const int ml_prev_index = data->ml_prev_index;
1134   const int mp_index = data->mp_index;
1135   const int *e2l_prev = data->e2l_prev;
1136
1137   BLI_Stack *edge_vectors = data->edge_vectors;
1138
1139   /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
1140    * and accumulate face normals into the vertex!
1141    * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
1142    * the vertex normal, but I do not see any easy way to detect that (would need to count number
1143    * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
1144    * it should not be a common case in real-life meshes anyway).
1145    */
1146   const unsigned int mv_pivot_index = ml_curr->v; /* The vertex we are "fanning" around! */
1147   const MVert *mv_pivot = &mverts[mv_pivot_index];
1148   const MEdge *me_org =
1149       &medges[ml_curr->e]; /* ml_curr would be mlfan_prev if we needed that one */
1150   const int *e2lfan_curr;
1151   float vec_curr[3], vec_prev[3], vec_org[3];
1152   const MLoop *mlfan_curr;
1153   float lnor[3] = {0.0f, 0.0f, 0.0f};
1154   /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1155   int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1156
1157   /* We validate clnors data on the fly - cheapest way to do! */
1158   int clnors_avg[2] = {0, 0};
1159   short(*clnor_ref)[2] = NULL;
1160   int clnors_nbr = 0;
1161   bool clnors_invalid = false;
1162
1163   /* Temp loop normal stack. */
1164   BLI_SMALLSTACK_DECLARE(normal, float *);
1165   /* Temp clnors stack. */
1166   BLI_SMALLSTACK_DECLARE(clnors, short *);
1167
1168   e2lfan_curr = e2l_prev;
1169   mlfan_curr = ml_prev;
1170   mlfan_curr_index = ml_prev_index;
1171   mlfan_vert_index = ml_curr_index;
1172   mpfan_curr_index = mp_index;
1173
1174   BLI_assert(mlfan_curr_index >= 0);
1175   BLI_assert(mlfan_vert_index >= 0);
1176   BLI_assert(mpfan_curr_index >= 0);
1177
1178   /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
1179   {
1180     const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
1181
1182     sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
1183     normalize_v3(vec_org);
1184     copy_v3_v3(vec_prev, vec_org);
1185
1186     if (lnors_spacearr) {
1187       BLI_stack_push(edge_vectors, vec_org);
1188     }
1189   }
1190
1191   //  printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e);
1192
1193   while (true) {
1194     const MEdge *me_curr = &medges[mlfan_curr->e];
1195     /* Compute edge vectors.
1196      * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
1197      *       twice (or more) here. However, time gained is not worth memory and time lost,
1198      *       given the fact that this code should not be called that much in real-life meshes...
1199      */
1200     {
1201       const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] :
1202                                                             &mverts[me_curr->v1];
1203
1204       sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1205       normalize_v3(vec_curr);
1206     }
1207
1208     //      printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index);
1209
1210     {
1211       /* Code similar to accumulate_vertex_normals_poly_v3. */
1212       /* Calculate angle between the two poly edges incident on this vertex. */
1213       const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
1214       /* Accumulate */
1215       madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
1216
1217       if (clnors_data) {
1218         /* Accumulate all clnors, if they are not all equal we have to fix that! */
1219         short(*clnor)[2] = &clnors_data[mlfan_vert_index];
1220         if (clnors_nbr) {
1221           clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
1222         }
1223         else {
1224           clnor_ref = clnor;
1225         }
1226         clnors_avg[0] += (*clnor)[0];
1227         clnors_avg[1] += (*clnor)[1];
1228         clnors_nbr++;
1229         /* We store here a pointer to all custom lnors processed. */
1230         BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
1231       }
1232     }
1233
1234     /* We store here a pointer to all loop-normals processed. */
1235     BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
1236
1237     if (lnors_spacearr) {
1238       /* Assign current lnor space to current 'vertex' loop. */
1239       BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, NULL, false);
1240       if (me_curr != me_org) {
1241         /* We store here all edges-normalized vectors processed. */
1242         BLI_stack_push(edge_vectors, vec_curr);
1243       }
1244     }
1245
1246     if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
1247       /* Current edge is sharp and we have finished with this fan of faces around this vert,
1248        * or this vert is smooth, and we have completed a full turn around it.
1249        */
1250       //          printf("FAN: Finished!\n");
1251       break;
1252     }
1253
1254     copy_v3_v3(vec_prev, vec_curr);
1255
1256     /* Find next loop of the smooth fan. */
1257     BKE_mesh_loop_manifold_fan_around_vert_next(mloops,
1258                                                 mpolys,
1259                                                 loop_to_poly,
1260                                                 e2lfan_curr,
1261                                                 mv_pivot_index,
1262                                                 &mlfan_curr,
1263                                                 &mlfan_curr_index,
1264                                                 &mlfan_vert_index,
1265                                                 &mpfan_curr_index);
1266
1267     e2lfan_curr = edge_to_loops[mlfan_curr->e];
1268   }
1269
1270   {
1271     float lnor_len = normalize_v3(lnor);
1272
1273     /* If we are generating lnor spacearr, we can now define the one for this fan,
1274      * and optionally compute final lnor from custom data too!
1275      */
1276     if (lnors_spacearr) {
1277       if (UNLIKELY(lnor_len == 0.0f)) {
1278         /* Use vertex normal as fallback! */
1279         copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
1280         lnor_len = 1.0f;
1281       }
1282
1283       BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
1284
1285       if (clnors_data) {
1286         if (clnors_invalid) {
1287           short *clnor;
1288
1289           clnors_avg[0] /= clnors_nbr;
1290           clnors_avg[1] /= clnors_nbr;
1291           /* Fix/update all clnors of this fan with computed average value. */
1292           if (G.debug & G_DEBUG) {
1293             printf("Invalid clnors in this fan!\n");
1294           }
1295           while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
1296             //print_v2("org clnor", clnor);
1297             clnor[0] = (short)clnors_avg[0];
1298             clnor[1] = (short)clnors_avg[1];
1299           }
1300           //print_v2("new clnors", clnors_avg);
1301         }
1302         /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1303
1304         BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
1305       }
1306     }
1307
1308     /* In case we get a zero normal here, just use vertex normal already set! */
1309     if (LIKELY(lnor_len != 0.0f)) {
1310       /* Copy back the final computed normal into all related loop-normals. */
1311       float *nor;
1312
1313       while ((nor = BLI_SMALLSTACK_POP(normal))) {
1314         copy_v3_v3(nor, lnor);
1315       }
1316     }
1317     /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1318   }
1319 }
1320
1321 static void loop_split_worker_do(LoopSplitTaskDataCommon *common_data,
1322                                  LoopSplitTaskData *data,
1323                                  BLI_Stack *edge_vectors)
1324 {
1325   BLI_assert(data->ml_curr);
1326   if (data->e2l_prev) {
1327     BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
1328     data->edge_vectors = edge_vectors;
1329     split_loop_nor_fan_do(common_data, data);
1330   }
1331   else {
1332     /* No need for edge_vectors for 'single' case! */
1333     split_loop_nor_single_do(common_data, data);
1334   }
1335 }
1336
1337 static void loop_split_worker(TaskPool *__restrict pool, void *taskdata, int UNUSED(threadid))
1338 {
1339   LoopSplitTaskDataCommon *common_data = BLI_task_pool_userdata(pool);
1340   LoopSplitTaskData *data = taskdata;
1341
1342   /* Temp edge vectors stack, only used when computing lnor spacearr. */
1343   BLI_Stack *edge_vectors = common_data->lnors_spacearr ?
1344                                 BLI_stack_new(sizeof(float[3]), __func__) :
1345                                 NULL;
1346
1347 #ifdef DEBUG_TIME
1348   TIMEIT_START_AVERAGED(loop_split_worker);
1349 #endif
1350
1351   for (int i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
1352     /* A NULL ml_curr is used to tag ended data! */
1353     if (data->ml_curr == NULL) {
1354       break;
1355     }
1356
1357     loop_split_worker_do(common_data, data, edge_vectors);
1358   }
1359
1360   if (edge_vectors) {
1361     BLI_stack_free(edge_vectors);
1362   }
1363
1364 #ifdef DEBUG_TIME
1365   TIMEIT_END_AVERAGED(loop_split_worker);
1366 #endif
1367 }
1368
1369 /* Check whether gievn loop is part of an unknown-so-far cyclic smooth fan, or not.
1370  * Needed because cyclic smooth fans have no obvious 'entry point', and yet we need to walk them once, and only once. */
1371 static bool loop_split_generator_check_cyclic_smooth_fan(const MLoop *mloops,
1372                                                          const MPoly *mpolys,
1373                                                          const int (*edge_to_loops)[2],
1374                                                          const int *loop_to_poly,
1375                                                          const int *e2l_prev,
1376                                                          BLI_bitmap *skip_loops,
1377                                                          const MLoop *ml_curr,
1378                                                          const MLoop *ml_prev,
1379                                                          const int ml_curr_index,
1380                                                          const int ml_prev_index,
1381                                                          const int mp_curr_index)
1382 {
1383   const unsigned int mv_pivot_index = ml_curr->v; /* The vertex we are "fanning" around! */
1384   const int *e2lfan_curr;
1385   const MLoop *mlfan_curr;
1386   /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1387   int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1388
1389   e2lfan_curr = e2l_prev;
1390   if (IS_EDGE_SHARP(e2lfan_curr)) {
1391     /* Sharp loop, so not a cyclic smooth fan... */
1392     return false;
1393   }
1394
1395   mlfan_curr = ml_prev;
1396   mlfan_curr_index = ml_prev_index;
1397   mlfan_vert_index = ml_curr_index;
1398   mpfan_curr_index = mp_curr_index;
1399
1400   BLI_assert(mlfan_curr_index >= 0);
1401   BLI_assert(mlfan_vert_index >= 0);
1402   BLI_assert(mpfan_curr_index >= 0);
1403
1404   BLI_assert(!BLI_BITMAP_TEST(skip_loops, mlfan_vert_index));
1405   BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1406
1407   while (true) {
1408     /* Find next loop of the smooth fan. */
1409     BKE_mesh_loop_manifold_fan_around_vert_next(mloops,
1410                                                 mpolys,
1411                                                 loop_to_poly,
1412                                                 e2lfan_curr,
1413                                                 mv_pivot_index,
1414                                                 &mlfan_curr,
1415                                                 &mlfan_curr_index,
1416                                                 &mlfan_vert_index,
1417                                                 &mpfan_curr_index);
1418
1419     e2lfan_curr = edge_to_loops[mlfan_curr->e];
1420
1421     if (IS_EDGE_SHARP(e2lfan_curr)) {
1422       /* Sharp loop/edge, so not a cyclic smooth fan... */
1423       return false;
1424     }
1425     /* Smooth loop/edge... */
1426     else if (BLI_BITMAP_TEST(skip_loops, mlfan_vert_index)) {
1427       if (mlfan_vert_index == ml_curr_index) {
1428         /* We walked around a whole cyclic smooth fan without finding any already-processed loop, means we can
1429          * use initial ml_curr/ml_prev edge as start for this smooth fan. */
1430         return true;
1431       }
1432       /* ... already checked in some previous looping, we can abort. */
1433       return false;
1434     }
1435     else {
1436       /* ... we can skip it in future, and keep checking the smooth fan. */
1437       BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1438     }
1439   }
1440 }
1441
1442 static void loop_split_generator(TaskPool *pool, LoopSplitTaskDataCommon *common_data)
1443 {
1444   MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1445   float(*loopnors)[3] = common_data->loopnors;
1446
1447   const MLoop *mloops = common_data->mloops;
1448   const MPoly *mpolys = common_data->mpolys;
1449   const int *loop_to_poly = common_data->loop_to_poly;
1450   const int(*edge_to_loops)[2] = common_data->edge_to_loops;
1451   const int numLoops = common_data->numLoops;
1452   const int numPolys = common_data->numPolys;
1453
1454   const MPoly *mp;
1455   int mp_index;
1456
1457   const MLoop *ml_curr;
1458   const MLoop *ml_prev;
1459   int ml_curr_index;
1460   int ml_prev_index;
1461
1462   BLI_bitmap *skip_loops = BLI_BITMAP_NEW(numLoops, __func__);
1463
1464   LoopSplitTaskData *data_buff = NULL;
1465   int data_idx = 0;
1466
1467   /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
1468   BLI_Stack *edge_vectors = NULL;
1469
1470 #ifdef DEBUG_TIME
1471   TIMEIT_START_AVERAGED(loop_split_generator);
1472 #endif
1473
1474   if (!pool) {
1475     if (lnors_spacearr) {
1476       edge_vectors = BLI_stack_new(sizeof(float[3]), __func__);
1477     }
1478   }
1479
1480   /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
1481    * Now, time to generate the normals.
1482    */
1483   for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1484     float(*lnors)[3];
1485     const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1486     ml_curr_index = mp->loopstart;
1487     ml_prev_index = ml_last_index;
1488
1489     ml_curr = &mloops[ml_curr_index];
1490     ml_prev = &mloops[ml_prev_index];
1491     lnors = &loopnors[ml_curr_index];
1492
1493     for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1494       const int *e2l_curr = edge_to_loops[ml_curr->e];
1495       const int *e2l_prev = edge_to_loops[ml_prev->e];
1496
1497       //          printf("Checking loop %d / edge %u / vert %u (sharp edge: %d, skiploop: %d)...",
1498       //                 ml_curr_index, ml_curr->e, ml_curr->v, IS_EDGE_SHARP(e2l_curr), BLI_BITMAP_TEST_BOOL(skip_loops, ml_curr_index));
1499
1500       /* A smooth edge, we have to check for cyclic smooth fan case.
1501        * If we find a new, never-processed cyclic smooth fan, we can do it now using that loop/edge as
1502        * 'entry point', otherwise we can skip it. */
1503       /* Note: In theory, we could make loop_split_generator_check_cyclic_smooth_fan() store
1504        * mlfan_vert_index'es and edge indexes in two stacks, to avoid having to fan again around the vert during
1505        * actual computation of clnor & clnorspace. However, this would complicate the code, add more memory usage,
1506        * and despite its logical complexity, loop_manifold_fan_around_vert_next() is quite cheap in term of
1507        * CPU cycles, so really think it's not worth it. */
1508       if (!IS_EDGE_SHARP(e2l_curr) && (BLI_BITMAP_TEST(skip_loops, ml_curr_index) ||
1509                                        !loop_split_generator_check_cyclic_smooth_fan(mloops,
1510                                                                                      mpolys,
1511                                                                                      edge_to_loops,
1512                                                                                      loop_to_poly,
1513                                                                                      e2l_prev,
1514                                                                                      skip_loops,
1515                                                                                      ml_curr,
1516                                                                                      ml_prev,
1517                                                                                      ml_curr_index,
1518                                                                                      ml_prev_index,
1519                                                                                      mp_index))) {
1520         //              printf("SKIPPING!\n");
1521       }
1522       else {
1523         LoopSplitTaskData *data, data_local;
1524
1525         //              printf("PROCESSING!\n");
1526
1527         if (pool) {
1528           if (data_idx == 0) {
1529             data_buff = MEM_calloc_arrayN(
1530                 LOOP_SPLIT_TASK_BLOCK_SIZE, sizeof(*data_buff), __func__);
1531           }
1532           data = &data_buff[data_idx];
1533         }
1534         else {
1535           data = &data_local;
1536           memset(data, 0, sizeof(*data));
1537         }
1538
1539         if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1540           data->lnor = lnors;
1541           data->ml_curr = ml_curr;
1542           data->ml_prev = ml_prev;
1543           data->ml_curr_index = ml_curr_index;
1544 #if 0 /* Not needed for 'single' loop. */
1545           data->ml_prev_index = ml_prev_index;
1546           data->e2l_prev = NULL; /* Tag as 'single' task. */
1547 #endif
1548           data->mp_index = mp_index;
1549           if (lnors_spacearr) {
1550             data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1551           }
1552         }
1553         /* We *do not need* to check/tag loops as already computed!
1554          * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1555          * more than once!*
1556          * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1557          * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1558          * and not the alternative (smooth curr_edge, sharp prev_edge).
1559          * All this due/thanks to link between normals and loop ordering (i.e. winding).
1560          */
1561         else {
1562 #if 0 /* Not needed for 'fan' loops. */
1563           data->lnor = lnors;
1564 #endif
1565           data->ml_curr = ml_curr;
1566           data->ml_prev = ml_prev;
1567           data->ml_curr_index = ml_curr_index;
1568           data->ml_prev_index = ml_prev_index;
1569           data->e2l_prev = e2l_prev; /* Also tag as 'fan' task. */
1570           data->mp_index = mp_index;
1571           if (lnors_spacearr) {
1572             data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1573           }
1574         }
1575
1576         if (pool) {
1577           data_idx++;
1578           if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1579             BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1580             data_idx = 0;
1581           }
1582         }
1583         else {
1584           loop_split_worker_do(common_data, data, edge_vectors);
1585         }
1586       }
1587
1588       ml_prev = ml_curr;
1589       ml_prev_index = ml_curr_index;
1590     }
1591   }
1592
1593   /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1594   if (pool && data_idx) {
1595     BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1596   }
1597
1598   if (edge_vectors) {
1599     BLI_stack_free(edge_vectors);
1600   }
1601   MEM_freeN(skip_loops);
1602
1603 #ifdef DEBUG_TIME
1604   TIMEIT_END_AVERAGED(loop_split_generator);
1605 #endif
1606 }
1607
1608 /**
1609  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1610  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1611  */
1612 void BKE_mesh_normals_loop_split(const MVert *mverts,
1613                                  const int UNUSED(numVerts),
1614                                  MEdge *medges,
1615                                  const int numEdges,
1616                                  MLoop *mloops,
1617                                  float (*r_loopnors)[3],
1618                                  const int numLoops,
1619                                  MPoly *mpolys,
1620                                  const float (*polynors)[3],
1621                                  const int numPolys,
1622                                  const bool use_split_normals,
1623                                  const float split_angle,
1624                                  MLoopNorSpaceArray *r_lnors_spacearr,
1625                                  short (*clnors_data)[2],
1626                                  int *r_loop_to_poly)
1627 {
1628   /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1629   BLI_assert(use_split_normals || !(r_lnors_spacearr));
1630
1631   if (!use_split_normals) {
1632     /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1633      * Note this is done here to keep some logic and consistency in this quite complex code,
1634      * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1635      * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1636      */
1637     int mp_index;
1638
1639     for (mp_index = 0; mp_index < numPolys; mp_index++) {
1640       MPoly *mp = &mpolys[mp_index];
1641       int ml_index = mp->loopstart;
1642       const int ml_index_end = ml_index + mp->totloop;
1643       const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1644
1645       for (; ml_index < ml_index_end; ml_index++) {
1646         if (r_loop_to_poly) {
1647           r_loop_to_poly[ml_index] = mp_index;
1648         }
1649         if (is_poly_flat) {
1650           copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1651         }
1652         else {
1653           normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1654         }
1655       }
1656     }
1657     return;
1658   }
1659
1660   /* Mapping edge -> loops.
1661    * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1662    * We also use the second loop index as a kind of flag: smooth edge: > 0,
1663    *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1664    *                                                      unset: INDEX_UNSET
1665    * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1666    * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1667    * Note also that lose edges always have both values set to 0!
1668    */
1669   int(*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
1670
1671   /* Simple mapping from a loop to its polygon index. */
1672   int *loop_to_poly = r_loop_to_poly ?
1673                           r_loop_to_poly :
1674                           MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
1675
1676   /* When using custom loop normals, disable the angle feature! */
1677   const bool check_angle = (split_angle < (float)M_PI) && (clnors_data == NULL);
1678
1679   MLoopNorSpaceArray _lnors_spacearr = {NULL};
1680
1681 #ifdef DEBUG_TIME
1682   TIMEIT_START_AVERAGED(BKE_mesh_normals_loop_split);
1683 #endif
1684
1685   if (!r_lnors_spacearr && clnors_data) {
1686     /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1687     r_lnors_spacearr = &_lnors_spacearr;
1688   }
1689   if (r_lnors_spacearr) {
1690     BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops, MLNOR_SPACEARR_LOOP_INDEX);
1691   }
1692
1693   /* Init data common to all tasks. */
1694   LoopSplitTaskDataCommon common_data = {
1695       .lnors_spacearr = r_lnors_spacearr,
1696       .loopnors = r_loopnors,
1697       .clnors_data = clnors_data,
1698       .mverts = mverts,
1699       .medges = medges,
1700       .mloops = mloops,
1701       .mpolys = mpolys,
1702       .edge_to_loops = edge_to_loops,
1703       .loop_to_poly = loop_to_poly,
1704       .polynors = polynors,
1705       .numEdges = numEdges,
1706       .numLoops = numLoops,
1707       .numPolys = numPolys,
1708   };
1709
1710   /* This first loop check which edges are actually smooth, and compute edge vectors. */
1711   mesh_edges_sharp_tag(&common_data, check_angle, split_angle, false);
1712
1713   if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1714     /* Not enough loops to be worth the whole threading overhead... */
1715     loop_split_generator(NULL, &common_data);
1716   }
1717   else {
1718     TaskScheduler *task_scheduler;
1719     TaskPool *task_pool;
1720
1721     task_scheduler = BLI_task_scheduler_get();
1722     task_pool = BLI_task_pool_create(task_scheduler, &common_data);
1723
1724     loop_split_generator(task_pool, &common_data);
1725
1726     BLI_task_pool_work_and_wait(task_pool);
1727
1728     BLI_task_pool_free(task_pool);
1729   }
1730
1731   MEM_freeN(edge_to_loops);
1732   if (!r_loop_to_poly) {
1733     MEM_freeN(loop_to_poly);
1734   }
1735
1736   if (r_lnors_spacearr) {
1737     if (r_lnors_spacearr == &_lnors_spacearr) {
1738       BKE_lnor_spacearr_free(r_lnors_spacearr);
1739     }
1740   }
1741
1742 #ifdef DEBUG_TIME
1743   TIMEIT_END_AVERAGED(BKE_mesh_normals_loop_split);
1744 #endif
1745 }
1746
1747 #undef INDEX_UNSET
1748 #undef INDEX_INVALID
1749 #undef IS_EDGE_SHARP
1750
1751 /**
1752  * Compute internal representation of given custom normals (as an array of float[2]).
1753  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1754  * same custom lnor for all loops sharing a same smooth fan.
1755  * If use_vertices if true, r_custom_loopnors is assumed to be per-vertex, not per-loop
1756  * (this allows to set whole vert's normals at once, useful in some cases).
1757  * r_custom_loopnors is expected to have normalized normals, or zero ones, in which case they will be replaced
1758  * by default loop/vertex normal.
1759  */
1760 static void mesh_normals_loop_custom_set(const MVert *mverts,
1761                                          const int numVerts,
1762                                          MEdge *medges,
1763                                          const int numEdges,
1764                                          MLoop *mloops,
1765                                          float (*r_custom_loopnors)[3],
1766                                          const int numLoops,
1767                                          MPoly *mpolys,
1768                                          const float (*polynors)[3],
1769                                          const int numPolys,
1770                                          short (*r_clnors_data)[2],
1771                                          const bool use_vertices)
1772 {
1773   /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1774    * feature too, would probably be more efficient in absolute.
1775    * However, this function *is not* performance-critical, since it is mostly expected to be called
1776    * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1777    * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1778    */
1779   MLoopNorSpaceArray lnors_spacearr = {NULL};
1780   BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1781   float(*lnors)[3] = MEM_calloc_arrayN((size_t)numLoops, sizeof(*lnors), __func__);
1782   int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(int), __func__);
1783   /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1784   const bool use_split_normals = true;
1785   const float split_angle = (float)M_PI;
1786   int i;
1787
1788   BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1789
1790   /* Compute current lnor spacearr. */
1791   BKE_mesh_normals_loop_split(mverts,
1792                               numVerts,
1793                               medges,
1794                               numEdges,
1795                               mloops,
1796                               lnors,
1797                               numLoops,
1798                               mpolys,
1799                               polynors,
1800                               numPolys,
1801                               use_split_normals,
1802                               split_angle,
1803                               &lnors_spacearr,
1804                               NULL,
1805                               loop_to_poly);
1806
1807   /* Set all given zero vectors to their default value. */
1808   if (use_vertices) {
1809     for (i = 0; i < numVerts; i++) {
1810       if (is_zero_v3(r_custom_loopnors[i])) {
1811         normal_short_to_float_v3(r_custom_loopnors[i], mverts[i].no);
1812       }
1813     }
1814   }
1815   else {
1816     for (i = 0; i < numLoops; i++) {
1817       if (is_zero_v3(r_custom_loopnors[i])) {
1818         copy_v3_v3(r_custom_loopnors[i], lnors[i]);
1819       }
1820     }
1821   }
1822
1823   BLI_assert(lnors_spacearr.data_type == MLNOR_SPACEARR_LOOP_INDEX);
1824
1825   /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1826    * are not (enough) equal, add sharp edges as needed.
1827    * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1828    * given custom lnors.
1829    * Note this code *will never* unsharp edges!
1830    * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1831    */
1832   if (!use_vertices) {
1833     for (i = 0; i < numLoops; i++) {
1834       if (!lnors_spacearr.lspacearr[i]) {
1835         /* This should not happen in theory, but in some rare case (probably ugly geometry)
1836          * we can get some NULL loopspacearr at this point. :/
1837          * Maybe we should set those loops' edges as sharp?
1838          */
1839         BLI_BITMAP_ENABLE(done_loops, i);
1840         if (G.debug & G_DEBUG) {
1841           printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1842         }
1843         continue;
1844       }
1845
1846       if (!BLI_BITMAP_TEST(done_loops, i)) {
1847         /* Notes:
1848          *     * In case of mono-loop smooth fan, we have nothing to do.
1849          *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1850          *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1851          *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1852          *       lnor space.
1853          *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1854          *       up into a real big one in the end!
1855          */
1856         if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1857           BLI_BITMAP_ENABLE(done_loops, i);
1858           continue;
1859         }
1860
1861         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1862         MLoop *prev_ml = NULL;
1863         const float *org_nor = NULL;
1864
1865         while (loops) {
1866           const int lidx = POINTER_AS_INT(loops->link);
1867           MLoop *ml = &mloops[lidx];
1868           const int nidx = lidx;
1869           float *nor = r_custom_loopnors[nidx];
1870
1871           if (!org_nor) {
1872             org_nor = nor;
1873           }
1874           else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1875             /* Current normal differs too much from org one, we have to tag the edge between
1876              * previous loop's face and current's one as sharp.
1877              * We know those two loops do not point to the same edge, since we do not allow reversed winding
1878              * in a same smooth fan.
1879              */
1880             const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1881             const MLoop *mlp =
1882                 &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1883             medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1884
1885             org_nor = nor;
1886           }
1887
1888           prev_ml = ml;
1889           loops = loops->next;
1890           BLI_BITMAP_ENABLE(done_loops, lidx);
1891         }
1892
1893         /* We also have to check between last and first loops, otherwise we may miss some sharp edges here!
1894          * This is just a simplified version of above while loop.
1895          * See T45984. */
1896         loops = lnors_spacearr.lspacearr[i]->loops;
1897         if (loops && org_nor) {
1898           const int lidx = POINTER_AS_INT(loops->link);
1899           MLoop *ml = &mloops[lidx];
1900           const int nidx = lidx;
1901           float *nor = r_custom_loopnors[nidx];
1902
1903           if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1904             const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1905             const MLoop *mlp =
1906                 &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1907             medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1908           }
1909         }
1910       }
1911     }
1912
1913     /* And now, recompute our new auto lnors and lnor spacearr! */
1914     BKE_lnor_spacearr_clear(&lnors_spacearr);
1915     BKE_mesh_normals_loop_split(mverts,
1916                                 numVerts,
1917                                 medges,
1918                                 numEdges,
1919                                 mloops,
1920                                 lnors,
1921                                 numLoops,
1922                                 mpolys,
1923                                 polynors,
1924                                 numPolys,
1925                                 use_split_normals,
1926                                 split_angle,
1927                                 &lnors_spacearr,
1928                                 NULL,
1929                                 loop_to_poly);
1930   }
1931   else {
1932     BLI_bitmap_set_all(done_loops, true, (size_t)numLoops);
1933   }
1934
1935   /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1936   for (i = 0; i < numLoops; i++) {
1937     if (!lnors_spacearr.lspacearr[i]) {
1938       BLI_BITMAP_DISABLE(done_loops, i);
1939       if (G.debug & G_DEBUG) {
1940         printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1941       }
1942       continue;
1943     }
1944
1945     if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1946       /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1947        * clnors data (tiny differences in plain custom normals can give rather huge differences in
1948        * computed 2D factors).
1949        */
1950       LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1951       if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1952         BLI_assert(POINTER_AS_INT(loops) == i);
1953         const int nidx = use_vertices ? (int)mloops[i].v : i;
1954         float *nor = r_custom_loopnors[nidx];
1955
1956         BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1957         BLI_BITMAP_DISABLE(done_loops, i);
1958       }
1959       else {
1960         int nbr_nors = 0;
1961         float avg_nor[3];
1962         short clnor_data_tmp[2], *clnor_data;
1963
1964         zero_v3(avg_nor);
1965         while (loops) {
1966           const int lidx = POINTER_AS_INT(loops->link);
1967           const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1968           float *nor = r_custom_loopnors[nidx];
1969
1970           nbr_nors++;
1971           add_v3_v3(avg_nor, nor);
1972           BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1973
1974           loops = loops->next;
1975           BLI_BITMAP_DISABLE(done_loops, lidx);
1976         }
1977
1978         mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1979         BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1980
1981         while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1982           clnor_data[0] = clnor_data_tmp[0];
1983           clnor_data[1] = clnor_data_tmp[1];
1984         }
1985       }
1986     }
1987   }
1988
1989   MEM_freeN(lnors);
1990   MEM_freeN(loop_to_poly);
1991   MEM_freeN(done_loops);
1992   BKE_lnor_spacearr_free(&lnors_spacearr);
1993 }
1994
1995 void BKE_mesh_normals_loop_custom_set(const MVert *mverts,
1996                                       const int numVerts,
1997                                       MEdge *medges,
1998                                       const int numEdges,
1999                                       MLoop *mloops,
2000                                       float (*r_custom_loopnors)[3],
2001                                       const int numLoops,
2002                                       MPoly *mpolys,
2003                                       const float (*polynors)[3],
2004                                       const int numPolys,
2005                                       short (*r_clnors_data)[2])
2006 {
2007   mesh_normals_loop_custom_set(mverts,
2008                                numVerts,
2009                                medges,
2010                                numEdges,
2011                                mloops,
2012                                r_custom_loopnors,
2013                                numLoops,
2014                                mpolys,
2015                                polynors,
2016                                numPolys,
2017                                r_clnors_data,
2018                                false);
2019 }
2020
2021 void BKE_mesh_normals_loop_custom_from_vertices_set(const MVert *mverts,
2022                                                     float (*r_custom_vertnors)[3],
2023                                                     const int numVerts,
2024                                                     MEdge *medges,
2025                                                     const int numEdges,
2026                                                     MLoop *mloops,
2027                                                     const int numLoops,
2028                                                     MPoly *mpolys,
2029                                                     const float (*polynors)[3],
2030                                                     const int numPolys,
2031                                                     short (*r_clnors_data)[2])
2032 {
2033   mesh_normals_loop_custom_set(mverts,
2034                                numVerts,
2035                                medges,
2036                                numEdges,
2037                                mloops,
2038                                r_custom_vertnors,
2039                                numLoops,
2040                                mpolys,
2041                                polynors,
2042                                numPolys,
2043                                r_clnors_data,
2044                                true);
2045 }
2046
2047 static void mesh_set_custom_normals(Mesh *mesh, float (*r_custom_nors)[3], const bool use_vertices)
2048 {
2049   short(*clnors)[2];
2050   const int numloops = mesh->totloop;
2051
2052   clnors = CustomData_get_layer(&mesh->ldata, CD_CUSTOMLOOPNORMAL);
2053   if (clnors != NULL) {
2054     memset(clnors, 0, sizeof(*clnors) * (size_t)numloops);
2055   }
2056   else {
2057     clnors = CustomData_add_layer(&mesh->ldata, CD_CUSTOMLOOPNORMAL, CD_CALLOC, NULL, numloops);
2058   }
2059
2060   float(*polynors)[3] = CustomData_get_layer(&mesh->pdata, CD_NORMAL);
2061   bool free_polynors = false;
2062   if (polynors == NULL) {
2063     polynors = MEM_mallocN(sizeof(float[3]) * (size_t)mesh->totpoly, __func__);
2064     BKE_mesh_calc_normals_poly(mesh->mvert,
2065                                NULL,
2066                                mesh->totvert,
2067                                mesh->mloop,
2068                                mesh->mpoly,
2069                                mesh->totloop,
2070                                mesh->totpoly,
2071                                polynors,
2072                                false);
2073     free_polynors = true;
2074   }
2075
2076   mesh_normals_loop_custom_set(mesh->mvert,
2077                                mesh->totvert,
2078                                mesh->medge,
2079                                mesh->totedge,
2080                                mesh->mloop,
2081                                r_custom_nors,
2082                                mesh->totloop,
2083                                mesh->mpoly,
2084                                polynors,
2085                                mesh->totpoly,
2086                                clnors,
2087                                use_vertices);
2088
2089   if (free_polynors) {
2090     MEM_freeN(polynors);
2091   }
2092 }
2093
2094 /**
2095  * Higher level functions hiding most of the code needed around call to #BKE_mesh_normals_loop_custom_set().
2096  *
2097  * \param r_custom_loopnors is not const, since code will replace zero_v3 normals there
2098  *                          with automatically computed vectors.
2099  */
2100 void BKE_mesh_set_custom_normals(Mesh *mesh, float (*r_custom_loopnors)[3])
2101 {
2102   mesh_set_custom_normals(mesh, r_custom_loopnors, false);
2103 }
2104
2105 /**
2106  * Higher level functions hiding most of the code needed around call to #BKE_mesh_normals_loop_custom_from_vertices_set().
2107  *
2108  * \param r_custom_loopnors is not const, since code will replace zero_v3 normals there
2109  *                          with automatically computed vectors.
2110  */
2111 void BKE_mesh_set_custom_normals_from_vertices(Mesh *mesh, float (*r_custom_vertnors)[3])
2112 {
2113   mesh_set_custom_normals(mesh, r_custom_vertnors, true);
2114 }
2115
2116 /**
2117  * Computes average per-vertex normals from given custom loop normals.
2118  *
2119  * \param clnors: The computed custom loop normals.
2120  * \param r_vert_clnors: The (already allocated) array where to store averaged per-vertex normals.
2121  */
2122 void BKE_mesh_normals_loop_to_vertex(const int numVerts,
2123                                      const MLoop *mloops,
2124                                      const int numLoops,
2125                                      const float (*clnors)[3],
2126                                      float (*r_vert_clnors)[3])
2127 {
2128   const MLoop *ml;
2129   int i;
2130
2131   int *vert_loops_nbr = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vert_loops_nbr), __func__);
2132
2133   copy_vn_fl((float *)r_vert_clnors, 3 * numVerts, 0.0f);
2134
2135   for (i = 0, ml = mloops; i < numLoops; i++, ml++) {
2136     const unsigned int v = ml->v;
2137
2138     add_v3_v3(r_vert_clnors[v], clnors[i]);
2139     vert_loops_nbr[v]++;
2140   }
2141
2142   for (i = 0; i < numVerts; i++) {
2143     mul_v3_fl(r_vert_clnors[i], 1.0f / (float)vert_loops_nbr[i]);
2144   }
2145
2146   MEM_freeN(vert_loops_nbr);
2147 }
2148
2149 #undef LNOR_SPACE_TRIGO_THRESHOLD
2150
2151 /** \} */
2152
2153 /* -------------------------------------------------------------------- */
2154 /** \name Polygon Calculations
2155  * \{ */
2156
2157 /*
2158  * COMPUTE POLY NORMAL
2159  *
2160  * Computes the normal of a planar
2161  * polygon See Graphics Gems for
2162  * computing newell normal.
2163  */
2164 static void mesh_calc_ngon_normal(const MPoly *mpoly,
2165                                   const MLoop *loopstart,
2166                                   const MVert *mvert,
2167                                   float normal[3])
2168 {
2169   const int nverts = mpoly->totloop;
2170   const float *v_prev = mvert[loopstart[nverts - 1].v].co;
2171   const float *v_curr;
2172   int i;
2173
2174   zero_v3(normal);
2175
2176   /* Newell's Method */
2177   for (i = 0; i < nverts; i++) {
2178     v_curr = mvert[loopstart[i].v].co;
2179     add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
2180     v_prev = v_curr;
2181   }
2182
2183   if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2184     normal[2] = 1.0f; /* other axis set to 0.0 */
2185   }
2186 }
2187
2188 void BKE_mesh_calc_poly_normal(const MPoly *mpoly,
2189                                const MLoop *loopstart,
2190                                const MVert *mvarray,
2191                                float r_no[3])
2192 {
2193   if (mpoly->totloop > 4) {
2194     mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
2195   }
2196   else if (mpoly->totloop == 3) {
2197     normal_tri_v3(
2198         r_no, mvarray[loopstart[0].v].co, mvarray[loopstart[1].v].co, mvarray[loopstart[2].v].co);
2199   }
2200   else if (mpoly->totloop == 4) {
2201     normal_quad_v3(r_no,
2202                    mvarray[loopstart[0].v].co,
2203                    mvarray[loopstart[1].v].co,
2204                    mvarray[loopstart[2].v].co,
2205                    mvarray[loopstart[3].v].co);
2206   }
2207   else { /* horrible, two sided face! */
2208     r_no[0] = 0.0;
2209     r_no[1] = 0.0;
2210     r_no[2] = 1.0;
2211   }
2212 }
2213 /* duplicate of function above _but_ takes coords rather then mverts */
2214 static void mesh_calc_ngon_normal_coords(const MPoly *mpoly,
2215                                          const MLoop *loopstart,
2216                                          const float (*vertex_coords)[3],
2217                                          float r_normal[3])
2218 {
2219   const int nverts = mpoly->totloop;
2220   const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
2221   const float *v_curr;
2222   int i;
2223
2224   zero_v3(r_normal);
2225
2226   /* Newell's Method */
2227   for (i = 0; i < nverts; i++) {
2228     v_curr = vertex_coords[loopstart[i].v];
2229     add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
2230     v_prev = v_curr;
2231   }
2232
2233   if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
2234     r_normal[2] = 1.0f; /* other axis set to 0.0 */
2235   }
2236 }
2237
2238 void BKE_mesh_calc_poly_normal_coords(const MPoly *mpoly,
2239                                       const MLoop *loopstart,
2240                                       const float (*vertex_coords)[3],
2241                                       float r_no[3])
2242 {
2243   if (mpoly->totloop > 4) {
2244     mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
2245   }
2246   else if (mpoly->totloop == 3) {
2247     normal_tri_v3(r_no,
2248                   vertex_coords[loopstart[0].v],
2249                   vertex_coords[loopstart[1].v],
2250                   vertex_coords[loopstart[2].v]);
2251   }
2252   else if (mpoly->totloop == 4) {
2253     normal_quad_v3(r_no,
2254                    vertex_coords[loopstart[0].v],
2255                    vertex_coords[loopstart[1].v],
2256                    vertex_coords[loopstart[2].v],
2257                    vertex_coords[loopstart[3].v]);
2258   }
2259   else { /* horrible, two sided face! */
2260     r_no[0] = 0.0;
2261     r_no[1] = 0.0;
2262     r_no[2] = 1.0;
2263   }
2264 }
2265
2266 static void mesh_calc_ngon_center(const MPoly *mpoly,
2267                                   const MLoop *loopstart,
2268                                   const MVert *mvert,
2269                                   float cent[3])
2270 {
2271   const float w = 1.0f / (float)mpoly->totloop;
2272   int i;
2273
2274   zero_v3(cent);
2275
2276   for (i = 0; i < mpoly->totloop; i++) {
2277     madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
2278   }
2279 }
2280
2281 void BKE_mesh_calc_poly_center(const MPoly *mpoly,
2282                                const MLoop *loopstart,
2283                                const MVert *mvarray,
2284                                float r_cent[3])
2285 {
2286   if (mpoly->totloop == 3) {
2287     mid_v3_v3v3v3(r_cent,
2288                   mvarray[loopstart[0].v].co,
2289                   mvarray[loopstart[1].v].co,
2290                   mvarray[loopstart[2].v].co);
2291   }
2292   else if (mpoly->totloop == 4) {
2293     mid_v3_v3v3v3v3(r_cent,
2294                     mvarray[loopstart[0].v].co,
2295                     mvarray[loopstart[1].v].co,
2296                     mvarray[loopstart[2].v].co,
2297                     mvarray[loopstart[3].v].co);
2298   }
2299   else {
2300     mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
2301   }
2302 }
2303
2304 /* note, passing polynormal is only a speedup so we can skip calculating it */
2305 float BKE_mesh_calc_poly_area(const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray)
2306 {
2307   if (mpoly->totloop == 3) {
2308     return area_tri_v3(
2309         mvarray[loopstart[0].v].co, mvarray[loopstart[1].v].co, mvarray[loopstart[2].v].co);
2310   }
2311   else {
2312     int i;
2313     const MLoop *l_iter = loopstart;
2314     float area;
2315     float(*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
2316
2317     /* pack vertex cos into an array for area_poly_v3 */
2318     for (i = 0; i < mpoly->totloop; i++, l_iter++) {
2319       copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
2320     }
2321
2322     /* finally calculate the area */
2323     area = area_poly_v3((const float(*)[3])vertexcos, (unsigned int)mpoly->totloop);
2324
2325     return area;
2326   }
2327 }
2328
2329 /**
2330  * Calculate the volume and volume-weighted centroid of the volume formed by the polygon and the origin.
2331  * Results will be negative if the origin is "outside" the polygon
2332  * (+ve normal side), but the polygon may be non-planar with no effect.
2333  *
2334  * Method from:
2335  * - http://forums.cgsociety.org/archive/index.php?t-756235.html
2336  * - http://www.globalspec.com/reference/52702/203279/4-8-the-centroid-of-a-tetrahedron
2337  *
2338  * \note
2339  * - Volume is 6x actual volume, and centroid is 4x actual volume-weighted centroid
2340  *   (so division can be done once at the end).
2341  * - Results will have bias if polygon is non-planar.
2342  * - The resulting volume will only be correct if the mesh is manifold and has consistent face winding
2343  *   (non-contiguous face normals or holes in the mesh surface).
2344  */
2345 static float mesh_calc_poly_volume_centroid(const MPoly *mpoly,
2346                                             const MLoop *loopstart,
2347                                             const MVert *mvarray,
2348                                             float r_cent[3])
2349 {
2350   const float *v_pivot, *v_step1;
2351   float total_volume = 0.0f;
2352
2353   zero_v3(r_cent);
2354
2355   v_pivot = mvarray[loopstart[0].v].co;
2356   v_step1 = mvarray[loopstart[1].v].co;
2357
2358   for (int i = 2; i < mpoly->totloop; i++) {
2359     const float *v_step2 = mvarray[loopstart[i].v].co;
2360
2361     /* Calculate the 6x volume of the tetrahedron formed by the 3 vertices
2362      * of the triangle and the origin as the fourth vertex */
2363     float v_cross[3];
2364     cross_v3_v3v3(v_cross, v_pivot, v_step1);
2365     const float tetra_volume = dot_v3v3(v_cross, v_step2);
2366     total_volume += tetra_volume;
2367
2368     /* Calculate the centroid of the tetrahedron formed by the 3 vertices
2369      * of the triangle and the origin as the fourth vertex.
2370      * The centroid is simply the average of the 4 vertices.
2371      *
2372      * Note that the vector is 4x the actual centroid so the division can be done once at the end. */
2373     for (uint j = 0; j < 3; j++) {
2374       r_cent[j] += tetra_volume * (v_pivot[j] + v_step1[j] + v_step2[j]);
2375     }
2376
2377     v_step1 = v_step2;
2378   }
2379
2380   return total_volume;
2381 }
2382
2383 /**
2384  * \note
2385  * - Results won't be correct if polygon is non-planar.
2386  * - This has the advantage over #mesh_calc_poly_volume_centroid
2387  *   that it doesn't depend on solid geometry, instead it weights the surface by volume.
2388  */
2389 static float mesh_calc_poly_area_centroid(const MPoly *mpoly,
2390                                           const MLoop *loopstart,
2391                                           const MVert *mvarray,
2392                                           float r_cent[3])
2393 {
2394   int i;
2395   float tri_area;
2396   float total_area = 0.0f;
2397   float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
2398
2399   BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
2400   copy_v3_v3(v1, mvarray[loopstart[0].v].co);
2401   copy_v3_v3(v2, mvarray[loopstart[1].v].co);
2402   zero_v3(r_cent);
2403
2404   for (i = 2; i < mpoly->totloop; i++) {
2405     copy_v3_v3(v3, mvarray[loopstart[i].v].co);
2406
2407     tri_area = area_tri_signed_v3(v1, v2, v3, normal);
2408     total_area += tri_area;
2409
2410     mid_v3_v3v3v3(tri_cent, v1, v2, v3);
2411     madd_v3_v3fl(r_cent, tri_cent, tri_area);
2412
2413     copy_v3_v3(v2, v3);
2414   }
2415
2416   mul_v3_fl(r_cent, 1.0f / total_area);
2417
2418   return total_area;
2419 }
2420
2421 void BKE_mesh_calc_poly_angles(const MPoly *mpoly,
2422                                const MLoop *loopstart,
2423                                const MVert *mvarray,
2424                                float angles[])
2425 {
2426   float nor_prev[3];
2427   float nor_next[3];
2428
2429   int i_this = mpoly->totloop - 1;
2430   int i_next = 0;
2431
2432   sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
2433   normalize_v3(nor_prev);
2434
2435   while (i_next < mpoly->totloop) {
2436     sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
2437     normalize_v3(nor_next);
2438     angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
2439
2440     /* step */
2441     copy_v3_v3(nor_prev, nor_next);
2442     i_this = i_next;
2443     i_next++;
2444   }
2445 }
2446
2447 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
2448 {
2449   const MLoop *ml, *ml_next;
2450   int i = mp->totloop;
2451
2452   ml_next = mloop;      /* first loop */
2453   ml = &ml_next[i - 1]; /* last loop */
2454
2455   while (i-- != 0) {
2456     BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
2457
2458     ml = ml_next;
2459     ml_next++;
2460   }
2461 }
2462
2463 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap,
2464                                      const MPoly *mp,
2465                                      const MLoop *mloop)
2466 {
2467   const MLoop *ml;
2468   int i = mp->totloop;
2469
2470   ml = mloop;
2471
2472   while (i-- != 0) {
2473     BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
2474     ml++;
2475   }
2476 }
2477
2478 /** \} */
2479
2480 /* -------------------------------------------------------------------- */
2481 /** \name Mesh Center Calculation
2482  * \{ */
2483
2484 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
2485 {
2486   int i = me->totvert;
2487   const MVert *mvert;
2488   zero_v3(r_cent);
2489   for (mvert = me->mvert; i--; mvert++) {
2490     add_v3_v3(r_cent, mvert->co);
2491   }
2492   /* otherwise we get NAN for 0 verts */
2493   if (me->totvert) {
2494     mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
2495   }
2496
2497   return (me->totvert != 0);
2498 }
2499
2500 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2501 {
2502   float min[3], max[3];
2503   INIT_MINMAX(min, max);
2504   if (BKE_mesh_minmax(me, min, max)) {
2505     mid_v3_v3v3(r_cent, min, max);
2506     return true;
2507   }
2508
2509   return false;
2510 }
2511
2512 bool BKE_mesh_center_of_surface(const Mesh *me, float r_cent[3])
2513 {
2514   int i = me->totpoly;
2515   MPoly *mpoly;
2516   float poly_area;
2517   float total_area = 0.0f;
2518   float poly_cent[3];
2519
2520   zero_v3(r_cent);
2521
2522   /* calculate a weighted average of polygon centroids */
2523   for (mpoly = me->mpoly; i--; mpoly++) {
2524     poly_area = mesh_calc_poly_area_centroid(
2525         mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2526
2527     madd_v3_v3fl(r_cent, poly_cent, poly_area);
2528     total_area += poly_area;
2529   }
2530   /* otherwise we get NAN for 0 polys */
2531   if (me->totpoly) {
2532     mul_v3_fl(r_cent, 1.0f / total_area);
2533   }
2534
2535   /* zero area faces cause this, fallback to median */
2536   if (UNLIKELY(!is_finite_v3(r_cent))) {
2537     return BKE_mesh_center_median(me, r_cent);
2538   }
2539
2540   return (me->totpoly != 0);
2541 }
2542
2543 /**
2544  * \note Mesh must be manifold with consistent face-winding, see #mesh_calc_poly_volume_centroid for details.
2545  */
2546 bool BKE_mesh_center_of_volume(const Mesh *me, float r_cent[3])
2547 {
2548   int i = me->totpoly;
2549   MPoly *mpoly;
2550   float poly_volume;
2551   float total_volume = 0.0f;
2552   float poly_cent[3];
2553
2554   zero_v3(r_cent);
2555
2556   /* calculate a weighted average of polyhedron centroids */
2557   for (mpoly = me->mpoly; i--; mpoly++) {
2558     poly_volume = mesh_calc_poly_volume_centroid(
2559         mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2560
2561     /* poly_cent is already volume-weighted, so no need to multiply by the volume */
2562     add_v3_v3(r_cent, poly_cent);
2563     total_volume += poly_volume;
2564   }
2565   /* otherwise we get NAN for 0 polys */
2566   if (total_volume != 0.0f) {
2567     /* multiply by 0.25 to get the correct centroid */
2568     /* no need to divide volume by 6 as the centroid is weighted by 6x the volume, so it all cancels out */
2569     mul_v3_fl(r_cent, 0.25f / total_volume);
2570   }
2571
2572   /* this can happen for non-manifold objects, fallback to median */
2573   if (UNLIKELY(!is_finite_v3(r_cent))) {
2574     return BKE_mesh_center_median(me, r_cent);
2575   }
2576
2577   return (me->totpoly != 0);
2578 }
2579
2580 /** \} */
2581
2582 /* -------------------------------------------------------------------- */
2583 /** \name Mesh Volume Calculation
2584  * \{ */
2585
2586 static bool mesh_calc_center_centroid_ex(const MVert *mverts,
2587                                          int UNUSED(mverts_num),
2588                                          const MLoopTri *looptri,
2589                                          int looptri_num,
2590                                          const MLoop *mloop,
2591                                          float r_center[3])
2592 {
2593   const MLoopTri *lt;
2594   float totweight;
2595   int i;
2596
2597   zero_v3(r_center);
2598
2599   if (looptri_num == 0) {
2600     return false;
2601   }
2602
2603   totweight = 0.0f;
2604   for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2605     const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2606     const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2607     const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2608     float area;
2609
2610     area = area_tri_v3(v1->co, v2->co, v3->co);
2611     madd_v3_v3fl(r_center, v1->co, area);
2612     madd_v3_v3fl(r_center, v2->co, area);
2613     madd_v3_v3fl(r_center, v3->co, area);
2614     totweight += area;
2615   }
2616   if (totweight == 0.0f) {
2617     return false;
2618   }
2619
2620   mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2621
2622   return true;
2623 }
2624
2625 /**
2626  * Calculate the volume and center.
2627  *
2628  * \param r_volume: Volume (unsigned).
2629  * \param r_center: Center of mass.
2630  */
2631 void BKE_mesh_calc_volume(const MVert *mverts,
2632                           const int mverts_num,
2633                           const MLoopTri *looptri,
2634                           const int looptri_num,
2635                           const MLoop *mloop,
2636                           float *r_volume,
2637                           float r_center[3])
2638 {
2639   const MLoopTri *lt;
2640   float center[3];
2641   float totvol;
2642   int i;
2643
2644   if (r_volume) {
2645     *r_volume = 0.0f;
2646   }
2647   if (r_center) {
2648     zero_v3(r_center);
2649   }
2650
2651   if (looptri_num == 0) {
2652     return;
2653   }
2654
2655   if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center)) {
2656     return;
2657   }
2658
2659   totvol = 0.0f;
2660
2661   for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2662     const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2663     const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2664     const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2665     float vol;
2666
2667     vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2668     if (r_volume) {
2669       totvol += vol;
2670     }
2671     if (r_center) {
2672       /* averaging factor 1/3 is applied in the end */
2673       madd_v3_v3fl(r_center, v1->co, vol);
2674       madd_v3_v3fl(r_center, v2->co, vol);
2675       madd_v3_v3fl(r_center, v3->co, vol);
2676     }
2677   }
2678
2679   /* Note: Depending on arbitrary centroid position,
2680    * totvol can become negative even for a valid mesh.
2681    * The true value is always the positive value.
2682    */
2683   if (r_volume) {
2684     *r_volume = fabsf(totvol);
2685   }
2686   if (r_center) {
2687     /* Note: Factor 1/3 is applied once for all vertices here.
2688      * This also automatically negates the vector if totvol is negative.
2689      */
2690     if (totvol != 0.0f) {
2691       mul_v3_fl(r_center, (1.0f / 3.0f) / totvol);
2692     }
2693   }
2694 }
2695
2696 /** \} */
2697
2698 /* -------------------------------------------------------------------- */
2699 /** \name NGon Tessellation (NGon/Tessface Conversion)
2700  * \{ */
2701
2702 /**
2703  * Convert a triangle or quadrangle of loop/poly data to tessface data
2704  */
2705 void BKE_mesh_loops_to_mface_corners(
2706     CustomData *fdata,
2707     CustomData *ldata,
2708     CustomData *UNUSED(pdata),
2709     unsigned int lindex[4],
2710     int findex,
2711     const int UNUSED(polyindex),
2712     const int mf_len, /* 3 or 4 */
2713
2714     /* cache values to avoid lookups every time */
2715     const int numUV,         /* CustomData_number_of_layers(ldata, CD_MLOOPUV) */
2716     const int numCol,        /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2717     const bool hasPCol,      /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2718     const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2719     const bool hasLNor       /* CustomData_has_layer(ldata, CD_NORMAL) */
2720 )
2721 {
2722   MTFace *texface;
2723   MCol *mcol;
2724   MLoopCol *mloopcol;
2725   MLoopUV *mloopuv;
2726   int i, j;
2727
2728   for (i = 0; i < numUV; i++) {
2729     texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2730
2731     for (j = 0; j < mf_len; j++) {
2732       mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2733       copy_v2_v2(texface->uv[j], mloopuv->uv);
2734     }
2735   }
2736
2737   for (i = 0; i < numCol; i++) {
2738     mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2739
2740     for (j = 0; j < mf_len; j++) {
2741       mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2742       MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2743     }
2744   }
2745
2746   if (hasPCol) {
2747     mcol = CustomData_get(fdata, findex, CD_PREVIEW_MCOL);
2748
2749     for (j = 0; j < mf_len; j++) {
2750       mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2751       MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2752     }
2753   }
2754
2755   if (hasOrigSpace) {
2756     OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2757     OrigSpaceLoop *lof;
2758
2759     for (j = 0; j < mf_len; j++) {
2760       lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2761       copy_v2_v2(of->uv[j], lof->uv);
2762     }
2763   }
2764
2765   if (hasLNor) {
2766     short(*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2767
2768     for (j = 0; j < mf_len; j++) {
2769       normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2770     }
2771   }
2772 }
2773
2774 /**
2775  * Convert all CD layers from loop/poly to tessface data.
2776  *
2777  * \param loopindices: is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2778  *
2779  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2780  */
2781 void BKE_mesh_loops_to_tessdata(CustomData *fdata,
2782                                 CustomData *ldata,
2783                                 MFace *mface,
2784                                 int *polyindices,
2785                                 unsigned int (*loopindices)[4],
2786                                 const int num_faces)
2787 {
2788   /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2789    *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2790    *       this. Better imho to live with it for now. :/ --mont29
2791    */
2792   const int numUV = CustomData_number_of_layers(ldata, CD_MLOOPUV);
2793   const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2794   const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2795   const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2796   const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2797   const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2798   int findex, i, j;
2799   const int *pidx;
2800   unsigned int(*lidx)[4];
2801
2802   for (i = 0; i < numUV; i++) {
2803     MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2804     MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2805
2806     for (findex = 0, pidx = polyindices, lidx = loopindices; findex < num_faces;
2807          pidx++, lidx++, findex++, texface++) {
2808       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2809         copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2810       }
2811     }
2812   }
2813
2814   for (i = 0; i < numCol; i++) {
2815     MCol(*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2816     MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2817
2818     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2819       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2820         MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2821       }
2822     }
2823   }
2824
2825   if (hasPCol) {
2826     MCol(*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2827     MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2828
2829     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2830       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2831         MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2832       }
2833     }
2834   }
2835
2836   if (hasOrigSpace) {
2837     OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2838     OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2839
2840     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2841       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2842         copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2843       }
2844     }
2845   }
2846
2847   if (hasLoopNormal) {
2848     short(*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2849     float(*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2850
2851     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2852       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2853         normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2854       }
2855     }
2856   }
2857
2858   if (hasLoopTangent) {
2859     /* need to do for all uv maps at some point */
2860     float(*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2861     float(*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2862
2863     for (findex = 0, pidx = polyindices, lidx = loopindices; findex < num_faces;
2864          pidx++, lidx++, findex++) {
2865       int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2866       for (j = nverts; j--;) {
2867         copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2868       }
2869     }
2870   }
2871 }
2872
2873 void BKE_mesh_tangent_loops_to_tessdata(CustomData *fdata,
2874                                         CustomData *ldata,
2875                                         MFace *mface,
2876                                         int *polyindices,
2877                                         unsigned int (*loopindices)[4],
2878                                         const int num_faces,
2879                                         const char *layer_name)
2880 {
2881   /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2882    *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2883    *       this. Better imho to live with it for now. :/ --mont29
2884    */
2885
2886   float(*ftangents)[4] = NULL;
2887   float(*ltangents)[4] = NULL;
2888
2889   int findex, j;
2890   const int *pidx;
2891   unsigned int(*lidx)[4];
2892
2893   if (layer_name) {
2894     ltangents = CustomData_get_layer_named(ldata, CD_TANGENT, layer_name);
2895   }
2896   else {
2897     ltangents = CustomData_get_layer(ldata, CD_TANGENT);
2898   }
2899
2900   if (ltangents) {
2901     /* need to do for all uv maps at some point */
2902     if (layer_name) {
2903       ftangents = CustomData_get_layer_named(fdata, CD_TANGENT, layer_name);
2904     }
2905     else {
2906       ftangents = CustomData_get_layer(fdata, CD_TANGENT);
2907     }
2908     if (ftangents) {
2909       for (findex = 0, pidx = polyindices, lidx = loopindices; findex < num_faces;
2910            pidx++, lidx++, findex++) {
2911         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2912         for (j = nverts; j--;) {
2913           copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2914         }
2915       }
2916     }
2917   }
2918 }
2919
2920 /**
2921  * Recreate tessellation.
2922  *
2923  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2924  *
2925  * \return number of tessellation faces.
2926  */
2927 int BKE_mesh_recalc_tessellation(CustomData *fdata,
2928                                  CustomData *ldata,
2929                                  CustomData *pdata,
2930                                  MVert *mvert,
2931                                  int totface,
2932                                  int totloop,
2933                                  int totpoly,
2934                                  const bool do_face_nor_copy)
2935 {
2936   /* use this to avoid locking pthread for _every_ polygon
2937    * and calling the fill function */
2938
2939 #define USE_TESSFACE_SPEEDUP
2940 #define USE_TESSFACE_QUADS /* NEEDS FURTHER TESTING */
2941
2942 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2943 #define TESSFACE_IS_QUAD 1
2944
2945   const int looptri_num = poly_to_tri_count(totpoly, totloop);
2946
2947   MPoly *mp, *mpoly;
2948   MLoop *ml, *mloop;
2949   MFace *mface, *mf;
2950   MemArena *arena = NULL;
2951   int *mface_to_poly_map;
2952   unsigned int(*lindices)[4];
2953   int poly_index, mface_index;
2954   unsigned int j;
2955
2956   mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2957   mloop = CustomData_get_layer(ldata, CD_MLOOP);
2958
2959   /* allocate the length of totfaces, avoid many small reallocs,
2960    * if all faces are tri's it will be correct, quads == 2x allocs */
2961   /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2962   mface_to_poly_map = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface_to_poly_map), __func__);
2963   mface = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface), __func__);
2964   lindices = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*lindices), __func__);
2965
2966   mface_index = 0;
2967   mp = mpoly;
2968   for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2969     const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2970     const unsigned int mp_totloop = (unsigned int)mp->totloop;
2971     unsigned int l1, l2, l3, l4;
2972     unsigned int *lidx;
2973     if (mp_totloop < 3) {
2974       /* do nothing */
2975     }
2976
2977 #ifdef USE_TESSFACE_SPEEDUP
2978
2979 #  define ML_TO_MF(i1, i2, i3) \
2980     mface_to_poly_map[mface_index] = poly_index; \
2981     mf = &mface[mface_index]; \
2982     lidx = lindices[mface_index]; \
2983     /* set loop indices, transformed to vert indices later */ \
2984     l1 = mp_loopstart + i1; \
2985     l2 = mp_loopstart + i2; \
2986     l3 = mp_loopstart + i3; \
2987     mf->v1 = mloop[l1].v; \
2988     mf->v2 = mloop[l2].v; \
2989     mf->v3 = mloop[l3].v; \
2990     mf->v4 = 0; \
2991     lidx[0] = l1; \
2992     lidx[1] = l2; \
2993     lidx[2] = l3; \
2994     lidx[3] = 0; \
2995     mf->mat_nr = mp->mat_nr; \
2996     mf->flag = mp->flag; \
2997     mf->edcode = 0; \
2998     (void)0
2999
3000 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
3001 #  define ML_TO_MF_QUAD() \
3002     mface_to_poly_map[mface_index] = poly_index; \
3003     mf = &mface[mface_index]; \
3004     lidx = lindices[mface_index]; \
3005     /* set loop indices, transformed to vert indices later */ \
3006     l1 = mp_loopstart + 0; /* EXCEPTION */ \
3007     l2 = mp_loopstart + 1; /* EXCEPTION */ \
3008     l3 = mp_loopstart + 2; /* EXCEPTION */ \
3009     l4 = mp_loopstart + 3; /* EXCEPTION */ \
3010     mf->v1 = mloop[l1].v; \
3011     mf->v2 = mloop[l2].v; \
3012     mf->v3 = mloop[l3].v; \
3013     mf->v4 = mloop[l4].v; \
3014     lidx[0] = l1; \
3015     lidx[1] = l2; \
3016     lidx[2] = l3; \
3017     lidx[3] = l4; \
3018     mf->mat_nr = mp->mat_nr; \
3019     mf->flag = mp->flag; \
3020     mf->edcode = TESSFACE_IS_QUAD; \
3021     (void)0
3022
3023     else if (mp_totloop == 3) {
3024       ML_TO_MF(0, 1, 2);
3025       mface_index++;
3026     }
3027     else if (mp_totloop == 4) {
3028 #  ifdef USE_TESSFACE_QUADS
3029       ML_TO_MF_QUAD();
3030       mface_index++;
3031 #  else
3032       ML_TO_MF(0, 1, 2);
3033       mface_index++;
3034       ML_TO_MF(0, 2, 3);
3035       mface_index++;
3036 #  endif
3037     }
3038 #endif /* USE_TESSFACE_SPEEDUP */
3039     else {
3040       const float *co_curr, *co_prev;
3041
3042       float normal[3];
3043
3044       float axis_mat[3][3];
3045       float(*projverts)[2];
3046       unsigned int(*tris)[3];
3047
3048       const unsigned int totfilltri = mp_totloop - 2;
3049
3050       if (UNLIKELY(arena == NULL)) {
3051         arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
3052       }
3053
3054       tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
3055       projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
3056
3057       zero_v3(normal);
3058
3059       /* calc normal, flipped: to get a positive 2d cross product */
3060       ml = mloop + mp_loopstart;
3061       co_prev = mvert[ml[mp_totloop - 1].v].co;
3062       for (j = 0; j < mp_totloop; j++, ml++) {
3063         co_curr = mvert[ml->v].co;
3064         add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
3065         co_prev = co_curr;
3066       }
3067       if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
3068         normal[2] = 1.0f;
3069       }
3070
3071       /* project verts to 2d */
3072       axis_dominant_v3_to_m3_negate(axis_mat, normal);
3073
3074       ml = mloop + mp_loopstart;
3075       for (j = 0; j < mp_totloop; j++, ml++) {
3076         mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
3077       }
3078
3079       BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
3080
3081       /* apply fill */
3082       for (j = 0; j < totfilltri; j++) {
3083         unsigned int *tri = tris[j];
3084         lidx = lindices[mface_index];
3085
3086         mface_to_poly_map[mface_index] = poly_index;
3087         mf = &mface[mface_index];
3088
3089         /* set loop indices, transformed to vert indices later */
3090         l1 = mp_loopstart + tri[0];
3091         l2 = mp_loopstart + tri[1];
3092         l3 = mp_loopstart + tri[2];
3093
3094         mf->v1 = mloop[l1].v;
3095         mf->v2 = mloop[l2].v;
3096         mf->v3 = mloop[l3].v;
3097         mf->v4 = 0;
3098
3099         lidx[0] = l1;
3100         lidx[1] = l2;
3101         lidx[2] = l3;
3102         lidx[3] = 0;
3103
3104         mf->mat_nr = mp->mat_nr;
3105         mf->flag = mp->flag;
3106         mf->edcode = 0;
3107
3108         mface_index++;
3109       }
3110
3111       BLI_memarena_clear(arena);
3112     }
3113   }
3114
3115   if (arena) {
3116     BLI_memarena_free(arena);
3117     arena = NULL;
3118   }
3119
3120   CustomData_free(fdata, totface);
3121   totface = mface_index;
3122
3123   BLI_assert(totface <= looptri_num);
3124
3125   /* not essential but without this we store over-alloc'd memory in the CustomData layers */
3126   if (LIKELY(looptri_num != totface)) {
3127     mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
3128     mface_to_poly_map = MEM_reallocN(mface_to_poly_map,
3129                                      sizeof(*mface_to_poly_map) * (size_t)totface);
3130   }
3131
3132   CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
3133
3134   /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
3135    * they are directly tessellated from */
3136   CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
3137   CustomData_from_bmeshpoly(fdata, ldata, totface);
3138
3139   if (do_face_nor_copy) {
3140     /* If polys have a normals layer, copying that to faces can help
3141      * avoid the need to recalculate normals later */
3142     if (CustomData_has_layer(pdata, CD_NORMAL)) {
3143       float(*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
3144       float(*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
3145       for (mface_index = 0; mface_index < totface; mface_index++) {
3146         copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
3147       }
3148     }
3149   }
3150
3151   /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
3152    * Polygons take care of their loops ordering, hence not of their vertices ordering.
3153    * Currently, our tfaces' fourth vertex index might be 0 even for a quad. However, we know our fourth loop index is
3154    * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
3155    * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the fourth loop index as quad test.
3156    * ...
3157    */
3158   BKE_mesh_loops_to_tessdata(fdata, ldata, NULL, mface_to_poly_map, lindices, totface);
3159
3160   /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
3161    * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
3162    * test_index_face() will check this and rotate the tessellated face if needed.
3163    */
3164 #ifdef USE_TESSFACE_QUADS
3165   mf = mface;
3166   for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
3167     if (mf->edcode == TESSFACE_IS_QUAD) {
3168       test_index_face(mf, fdata, mface_index, 4);
3169       mf->edcode = 0;
3170     }
3171   }
3172 #endif
3173
3174   MEM_freeN(lindices);
3175
3176   return totface;
3177
3178 #undef USE_TESSFACE_SPEEDUP
3179 #undef USE_TESSFACE_QUADS
3180
3181 #undef ML_TO_MF
3182 #undef ML_TO_MF_QUAD
3183 }
3184
3185 /**
3186  * Calculate tessellation into #MLoopTri which exist only for this purpose.
3187  */
3188 void BKE_mesh_recalc_looptri(const MLoop *mloop,
3189                              const MPoly *mpoly,
3190                              const MVert *mvert,
3191                              int totloop,
3192                              int totpoly,
3193                              MLoopTri *mlooptri)
3194 {
3195   /* use this to avoid locking pthread for _every_ polygon
3196    * and calling the fill function */
3197
3198 #define USE_TESSFACE_SPEEDUP
3199
3200   const MPoly *mp;
3201   const MLoop *ml;
3202   MLoopTri *mlt;
3203   MemArena *arena = NULL;
3204   int poly_index, mlooptri_index;
3205   unsigned int j;
3206
3207   mlooptri_index = 0;
3208   mp = mpoly;
3209   for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
3210     const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
3211     const unsigned int mp_totloop = (unsigned int)mp->totloop;
3212     unsigned int l1, l2, l3;
3213     if (mp_totloop < 3) {
3214       /* do nothing */
3215     }
3216
3217 #ifdef USE_TESSFACE_SPEEDUP
3218
3219 #  define ML_TO_MLT(i1, i2, i3) \
3220     { \
3221       mlt = &mlooptri[mlooptri_index]; \
3222       l1 = mp_loopstart + i1; \
3223       l2 = mp_loopstart + i2; \
3224       l3 = mp_loopstart + i3; \
3225       ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3); \
3226       mlt->poly = (unsigned int)poly_index; \
3227     } \
3228     ((void)0)
3229
3230     else if (mp_totloop == 3) {
3231       ML_TO_MLT(0, 1, 2);
3232       mlooptri_index++;
3233     }
3234     else if (mp_totloop == 4) {
3235       ML_TO_MLT(0, 1, 2);
3236       MLoopTri *mlt_a = mlt;
3237       mlooptri_index++;
3238       ML_TO_MLT(0, 2, 3);
3239       MLoopTri *mlt_b = mlt;
3240       mlooptri_index++;
3241
3242       if (UNLIKELY(is_quad_flip_v3_first_third_fast(mvert[mloop[mlt_a->tri[0]].v].co,
3243                                                     mvert[mloop[mlt_a->tri[1]].v].co,
3244                                                     mvert[mloop[mlt_a->tri[2]].v].co,
3245                                                     mvert[mloop[mlt_b->tri[2]].v].co))) {
3246         /* flip out of degenerate 0-2 state. */
3247         mlt_a->tri[2] = mlt_b->tri[2];
3248         mlt_b->tri[0] = mlt_a->tri[1];
3249       }
3250     }
3251 #endif /* USE_TESSFACE_SPEEDUP */
3252     else {
3253       const float *co_curr, *co_prev;
3254
3255       float normal[3];
3256
3257       float axis_mat[3][3];
3258       float(*projverts)[2];
3259       unsigned int(*tris)[3];
3260
3261       const unsigned int totfilltri = mp_totloop - 2;
3262
3263       if (UNLIKELY(arena == NULL)) {
3264         arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
3265       }
3266
3267       tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
3268       projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
3269
3270       zero_v3(normal);
3271
3272       /* calc normal, flipped: to get a positive 2d cross product */
3273       ml = mloop + mp_loopstart;
3274       co_prev = mvert[ml[mp_totloop - 1].v].co;
3275       for (j = 0; j < mp_totloop; j++, ml++) {
3276         co_curr = mvert[ml->v].co;
3277         add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
3278         co_prev = co_curr;
3279       }
3280       if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
3281         normal[2] = 1.0f;
3282       }
3283
3284       /* project verts to 2d */
3285       axis_dominant_v3_to_m3_negate(axis_mat, normal);
3286
3287       ml = mloop + mp_loopstart;
3288       for (j = 0; j < mp_totloop; j++, ml++) {
3289         mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
3290       }
3291
3292       BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
3293
3294       /* apply fill */
3295       for (j = 0; j < totfilltri; j++) {
3296         unsigned int *tri = tris[j];
3297
3298         mlt = &mlooptri[mlooptri_index];
3299
3300         /* set loop indices, transformed to vert indices later */
3301         l1 = mp_loopstart + tri[0];
3302         l2 = mp_loopstart + tri[1];
3303         l3 = mp_loopstart + tri[2];
3304
3305         ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3);
3306         mlt->poly = (unsigned int)poly_index;
3307
3308         mlooptri_index++;
3309       }
3310
3311       BLI_memarena_clear(arena);
3312     }
3313   }
3314
3315   if (arena) {
3316     BLI_memarena_free(arena);
3317     arena = NULL;
3318   }
3319
3320   BLI_assert(mlooptri_index == poly_to_tri_count(totpoly, totloop));
3321   UNUSED_VARS_NDEBUG(totloop);
3322
3323 #undef USE_TESSFACE_SPEEDUP
3324 #undef ML_TO_MLT
3325 }
3326
3327 static void bm_corners_to_loops_ex(ID *id,
3328                                    CustomData *fdata,
3329                                    CustomData *ldata,
3330                                    MFace *mface,
3331                                    int totloop,
3332                                    int findex,
3333                                    int loopstart,
3334                                    int numTex,
3335                                    int numCol)
3336 {
3337   MTFace *texface;
3338   MCol *mcol;
3339   MLoopCol *mloopcol;
3340   MLoopUV *mloopuv;
3341   MFace *mf;
3342   int i;
3343
3344   mf = mface + findex;
3345
3346   for (i = 0; i < numTex; i++) {
3347     texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
3348
3349     mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, loopstart, i);
3350     copy_v2_v2(mloopuv->uv, texface->uv[0]);
3351     mloopuv++;
3352     copy_v2_v2(mloopuv->uv, texface->uv[1]);
3353     mloopuv++;
3354     copy_v2_v2(mloopuv->uv, texface->uv[2]);
3355     mloopuv++;
3356
3357     if (mf->v4) {
3358       copy_v2_v2(mloopuv->uv, texface->uv[3]);
3359       mloopuv++;
3360     }
3361   }
3362
3363   for (i = 0; i < numCol; i++) {
3364     mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, loopstart, i);
3365     mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
3366
3367     MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[0]);
3368     mloopcol++;
3369     MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[1]);
3370     mloopcol++;
3371     MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[2]);
3372     mloopcol++;
3373     if (mf->v4) {
3374       MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[3]);
3375       mloopcol++;
3376     }
3377   }
3378
3379   if (CustomData_has_layer(fdata, CD_TESSLOOPNORMAL)) {
3380     float(*lnors)[3] = CustomData_get(ldata, loopstart, CD_NORMAL);
3381     short(*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
3382     const int max = mf->v4 ? 4 : 3;
3383
3384     for (i = 0; i < max; i++, lnors++, tlnors++) {
3385       normal_short_to_float_v3(*lnors, *tlnors);
3386     }
3387   }
3388
3389   if (CustomData_has_layer(fdata, CD_MDISPS)) {
3390     MDisps *ld = CustomData_get(ldata, loopstart, CD_MDISPS);
3391     MDisps *fd = CustomData_get(fdata, findex, CD_MDISPS);
3392     float(*disps)[3] = fd->disps;
3393     int tot = mf->v4 ? 4 : 3;