ClangFormat: apply to source, most of intern
[blender.git] / source / blender / blenkernel / intern / mesh_evaluate.c
1 /*
2  * This program is free software; you can redistribute it and/or
3  * modify it under the terms of the GNU General Public License
4  * as published by the Free Software Foundation; either version 2
5  * of the License, or (at your option) any later version.
6  *
7  * This program is distributed in the hope that it will be useful,
8  * but WITHOUT ANY WARRANTY; without even the implied warranty of
9  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
10  * GNU General Public License for more details.
11  *
12  * You should have received a copy of the GNU General Public License
13  * along with this program; if not, write to the Free Software Foundation,
14  * Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
15  *
16  * The Original Code is Copyright (C) 2001-2002 by NaN Holding BV.
17  * All rights reserved.
18  */
19
20 /** \file
21  * \ingroup bke
22  *
23  * Functions to evaluate mesh data.
24  */
25
26 #include <limits.h>
27
28 #include "CLG_log.h"
29
30 #include "MEM_guardedalloc.h"
31
32 #include "DNA_object_types.h"
33 #include "DNA_mesh_types.h"
34 #include "DNA_meshdata_types.h"
35
36 #include "BLI_utildefines.h"
37 #include "BLI_memarena.h"
38 #include "BLI_math.h"
39 #include "BLI_edgehash.h"
40 #include "BLI_bitmap.h"
41 #include "BLI_polyfill_2d.h"
42 #include "BLI_linklist.h"
43 #include "BLI_linklist_stack.h"
44 #include "BLI_alloca.h"
45 #include "BLI_stack.h"
46 #include "BLI_task.h"
47
48 #include "BKE_customdata.h"
49 #include "BKE_global.h"
50 #include "BKE_mesh.h"
51 #include "BKE_multires.h"
52 #include "BKE_report.h"
53
54 #include "BLI_strict_flags.h"
55
56 #include "atomic_ops.h"
57 #include "mikktspace.h"
58
59 // #define DEBUG_TIME
60
61 #include "PIL_time.h"
62 #ifdef DEBUG_TIME
63 #  include "PIL_time_utildefines.h"
64 #endif
65
66 static CLG_LogRef LOG = {"bke.mesh_evaluate"};
67
68 /* -------------------------------------------------------------------- */
69 /** \name Mesh Normal Calculation
70  * \{ */
71
72 /**
73  * Call when there are no polygons.
74  */
75 static void mesh_calc_normals_vert_fallback(MVert *mverts, int numVerts)
76 {
77   int i;
78   for (i = 0; i < numVerts; i++) {
79     MVert *mv = &mverts[i];
80     float no[3];
81
82     normalize_v3_v3(no, mv->co);
83     normal_float_to_short_v3(mv->no, no);
84   }
85 }
86
87 /* TODO(Sybren): we can probably rename this to BKE_mesh_calc_normals_mapping(),
88  * and remove the function of the same name below, as that one doesn't seem to be
89  * called anywhere. */
90 void BKE_mesh_calc_normals_mapping_simple(struct Mesh *mesh)
91 {
92   const bool only_face_normals = CustomData_is_referenced_layer(&mesh->vdata, CD_MVERT);
93
94   BKE_mesh_calc_normals_mapping_ex(mesh->mvert,
95                                    mesh->totvert,
96                                    mesh->mloop,
97                                    mesh->mpoly,
98                                    mesh->totloop,
99                                    mesh->totpoly,
100                                    NULL,
101                                    mesh->mface,
102                                    mesh->totface,
103                                    NULL,
104                                    NULL,
105                                    only_face_normals);
106 }
107
108 /* Calculate vertex and face normals, face normals are returned in *r_faceNors if non-NULL
109  * and vertex normals are stored in actual mverts.
110  */
111 void BKE_mesh_calc_normals_mapping(MVert *mverts,
112                                    int numVerts,
113                                    const MLoop *mloop,
114                                    const MPoly *mpolys,
115                                    int numLoops,
116                                    int numPolys,
117                                    float (*r_polyNors)[3],
118                                    const MFace *mfaces,
119                                    int numFaces,
120                                    const int *origIndexFace,
121                                    float (*r_faceNors)[3])
122 {
123   BKE_mesh_calc_normals_mapping_ex(mverts,
124                                    numVerts,
125                                    mloop,
126                                    mpolys,
127                                    numLoops,
128                                    numPolys,
129                                    r_polyNors,
130                                    mfaces,
131                                    numFaces,
132                                    origIndexFace,
133                                    r_faceNors,
134                                    false);
135 }
136 /* extended version of 'BKE_mesh_calc_normals_poly' with option not to calc vertex normals */
137 void BKE_mesh_calc_normals_mapping_ex(MVert *mverts,
138                                       int numVerts,
139                                       const MLoop *mloop,
140                                       const MPoly *mpolys,
141                                       int numLoops,
142                                       int numPolys,
143                                       float (*r_polyNors)[3],
144                                       const MFace *mfaces,
145                                       int numFaces,
146                                       const int *origIndexFace,
147                                       float (*r_faceNors)[3],
148                                       const bool only_face_normals)
149 {
150   float(*pnors)[3] = r_polyNors, (*fnors)[3] = r_faceNors;
151   int i;
152   const MFace *mf;
153   const MPoly *mp;
154
155   if (numPolys == 0) {
156     if (only_face_normals == false) {
157       mesh_calc_normals_vert_fallback(mverts, numVerts);
158     }
159     return;
160   }
161
162   /* if we are not calculating verts and no verts were passes then we have nothing to do */
163   if ((only_face_normals == true) && (r_polyNors == NULL) && (r_faceNors == NULL)) {
164     CLOG_WARN(&LOG, "called with nothing to do");
165     return;
166   }
167
168   if (!pnors)
169     pnors = MEM_calloc_arrayN((size_t)numPolys, sizeof(float[3]), __func__);
170   /* if (!fnors) fnors = MEM_calloc_arrayN(numFaces, sizeof(float[3]), "face nors mesh.c"); */ /* NO NEED TO ALLOC YET */
171
172   if (only_face_normals == false) {
173     /* vertex normals are optional, they require some extra calculations,
174      * so make them optional */
175     BKE_mesh_calc_normals_poly(
176         mverts, NULL, numVerts, mloop, mpolys, numLoops, numPolys, pnors, false);
177   }
178   else {
179     /* only calc poly normals */
180     mp = mpolys;
181     for (i = 0; i < numPolys; i++, mp++) {
182       BKE_mesh_calc_poly_normal(mp, mloop + mp->loopstart, mverts, pnors[i]);
183     }
184   }
185
186   if (origIndexFace &&
187       /* fnors == r_faceNors */ /* NO NEED TO ALLOC YET */
188           fnors != NULL &&
189       numFaces) {
190     mf = mfaces;
191     for (i = 0; i < numFaces; i++, mf++, origIndexFace++) {
192       if (*origIndexFace < numPolys) {
193         copy_v3_v3(fnors[i], pnors[*origIndexFace]);
194       }
195       else {
196         /* eek, we're not corresponding to polys */
197         CLOG_ERROR(&LOG, "tessellation face indices are incorrect.  normals may look bad.");
198       }
199     }
200   }
201
202   if (pnors != r_polyNors)
203     MEM_freeN(pnors);
204   /* if (fnors != r_faceNors) MEM_freeN(fnors); */ /* NO NEED TO ALLOC YET */
205
206   fnors = pnors = NULL;
207 }
208
209 typedef struct MeshCalcNormalsData {
210   const MPoly *mpolys;
211   const MLoop *mloop;
212   MVert *mverts;
213   float (*pnors)[3];
214   float (*lnors_weighted)[3];
215   float (*vnors)[3];
216 } MeshCalcNormalsData;
217
218 static void mesh_calc_normals_poly_cb(void *__restrict userdata,
219                                       const int pidx,
220                                       const ParallelRangeTLS *__restrict UNUSED(tls))
221 {
222   MeshCalcNormalsData *data = userdata;
223   const MPoly *mp = &data->mpolys[pidx];
224
225   BKE_mesh_calc_poly_normal(mp, data->mloop + mp->loopstart, data->mverts, data->pnors[pidx]);
226 }
227
228 static void mesh_calc_normals_poly_prepare_cb(void *__restrict userdata,
229                                               const int pidx,
230                                               const ParallelRangeTLS *__restrict UNUSED(tls))
231 {
232   MeshCalcNormalsData *data = userdata;
233   const MPoly *mp = &data->mpolys[pidx];
234   const MLoop *ml = &data->mloop[mp->loopstart];
235   const MVert *mverts = data->mverts;
236
237   float pnor_temp[3];
238   float *pnor = data->pnors ? data->pnors[pidx] : pnor_temp;
239   float(*lnors_weighted)[3] = data->lnors_weighted;
240
241   const int nverts = mp->totloop;
242   float(*edgevecbuf)[3] = BLI_array_alloca(edgevecbuf, (size_t)nverts);
243   int i;
244
245   /* Polygon Normal and edge-vector */
246   /* inline version of #BKE_mesh_calc_poly_normal, also does edge-vectors */
247   {
248     int i_prev = nverts - 1;
249     const float *v_prev = mverts[ml[i_prev].v].co;
250     const float *v_curr;
251
252     zero_v3(pnor);
253     /* Newell's Method */
254     for (i = 0; i < nverts; i++) {
255       v_curr = mverts[ml[i].v].co;
256       add_newell_cross_v3_v3v3(pnor, v_prev, v_curr);
257
258       /* Unrelated to normalize, calculate edge-vector */
259       sub_v3_v3v3(edgevecbuf[i_prev], v_prev, v_curr);
260       normalize_v3(edgevecbuf[i_prev]);
261       i_prev = i;
262
263       v_prev = v_curr;
264     }
265     if (UNLIKELY(normalize_v3(pnor) == 0.0f)) {
266       pnor[2] = 1.0f; /* other axes set to 0.0 */
267     }
268   }
269
270   /* accumulate angle weighted face normal */
271   /* inline version of #accumulate_vertex_normals_poly_v3,
272    * split between this threaded callback and #mesh_calc_normals_poly_accum_cb. */
273   {
274     const float *prev_edge = edgevecbuf[nverts - 1];
275
276     for (i = 0; i < nverts; i++) {
277       const int lidx = mp->loopstart + i;
278       const float *cur_edge = edgevecbuf[i];
279
280       /* calculate angle between the two poly edges incident on
281        * this vertex */
282       const float fac = saacos(-dot_v3v3(cur_edge, prev_edge));
283
284       /* Store for later accumulation */
285       mul_v3_v3fl(lnors_weighted[lidx], pnor, fac);
286
287       prev_edge = cur_edge;
288     }
289   }
290 }
291
292 static void mesh_calc_normals_poly_finalize_cb(void *__restrict userdata,
293                                                const int vidx,
294                                                const ParallelRangeTLS *__restrict UNUSED(tls))
295 {
296   MeshCalcNormalsData *data = userdata;
297
298   MVert *mv = &data->mverts[vidx];
299   float *no = data->vnors[vidx];
300
301   if (UNLIKELY(normalize_v3(no) == 0.0f)) {
302     /* following Mesh convention; we use vertex coordinate itself for normal in this case */
303     normalize_v3_v3(no, mv->co);
304   }
305
306   normal_float_to_short_v3(mv->no, no);
307 }
308
309 void BKE_mesh_calc_normals_poly(MVert *mverts,
310                                 float (*r_vertnors)[3],
311                                 int numVerts,
312                                 const MLoop *mloop,
313                                 const MPoly *mpolys,
314                                 int numLoops,
315                                 int numPolys,
316                                 float (*r_polynors)[3],
317                                 const bool only_face_normals)
318 {
319   float(*pnors)[3] = r_polynors;
320
321   ParallelRangeSettings settings;
322   BLI_parallel_range_settings_defaults(&settings);
323   settings.min_iter_per_thread = 1024;
324
325   if (only_face_normals) {
326     BLI_assert((pnors != NULL) || (numPolys == 0));
327     BLI_assert(r_vertnors == NULL);
328
329     MeshCalcNormalsData data = {
330         .mpolys = mpolys,
331         .mloop = mloop,
332         .mverts = mverts,
333         .pnors = pnors,
334     };
335
336     BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_cb, &settings);
337     return;
338   }
339
340   float(*vnors)[3] = r_vertnors;
341   float(*lnors_weighted)[3] = MEM_malloc_arrayN(
342       (size_t)numLoops, sizeof(*lnors_weighted), __func__);
343   bool free_vnors = false;
344
345   /* first go through and calculate normals for all the polys */
346   if (vnors == NULL) {
347     vnors = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vnors), __func__);
348     free_vnors = true;
349   }
350   else {
351     memset(vnors, 0, sizeof(*vnors) * (size_t)numVerts);
352   }
353
354   MeshCalcNormalsData data = {
355       .mpolys = mpolys,
356       .mloop = mloop,
357       .mverts = mverts,
358       .pnors = pnors,
359       .lnors_weighted = lnors_weighted,
360       .vnors = vnors,
361   };
362
363   /* Compute poly normals, and prepare weighted loop normals. */
364   BLI_task_parallel_range(0, numPolys, &data, mesh_calc_normals_poly_prepare_cb, &settings);
365
366   /* Actually accumulate weighted loop normals into vertex ones. */
367   /* Unfortunately, not possible to thread that (not in a reasonable, totally lock- and barrier-free fashion),
368    * since several loops will point to the same vertex... */
369   for (int lidx = 0; lidx < numLoops; lidx++) {
370     add_v3_v3(vnors[mloop[lidx].v], data.lnors_weighted[lidx]);
371   }
372
373   /* Normalize and validate computed vertex normals. */
374   BLI_task_parallel_range(0, numVerts, &data, mesh_calc_normals_poly_finalize_cb, &settings);
375
376   if (free_vnors) {
377     MEM_freeN(vnors);
378   }
379   MEM_freeN(lnors_weighted);
380 }
381
382 void BKE_mesh_ensure_normals(Mesh *mesh)
383 {
384   if (mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) {
385     BKE_mesh_calc_normals(mesh);
386   }
387   BLI_assert((mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) == 0);
388 }
389
390 /**
391  * Called after calculating all modifiers.
392  */
393 void BKE_mesh_ensure_normals_for_display(Mesh *mesh)
394 {
395   float(*poly_nors)[3] = CustomData_get_layer(&mesh->pdata, CD_NORMAL);
396   const bool do_vert_normals = (mesh->runtime.cd_dirty_vert & CD_MASK_NORMAL) != 0;
397   const bool do_poly_normals = (mesh->runtime.cd_dirty_poly & CD_MASK_NORMAL || poly_nors == NULL);
398
399   if (do_vert_normals || do_poly_normals) {
400     const bool do_add_poly_nors_cddata = (poly_nors == NULL);
401     if (do_add_poly_nors_cddata) {
402       poly_nors = MEM_malloc_arrayN((size_t)mesh->totpoly, sizeof(*poly_nors), __func__);
403     }
404
405     /* calculate poly/vert normals */
406     BKE_mesh_calc_normals_poly(mesh->mvert,
407                                NULL,
408                                mesh->totvert,
409                                mesh->mloop,
410                                mesh->mpoly,
411                                mesh->totloop,
412                                mesh->totpoly,
413                                poly_nors,
414                                !do_vert_normals);
415
416     if (do_add_poly_nors_cddata) {
417       CustomData_add_layer(&mesh->pdata, CD_NORMAL, CD_ASSIGN, poly_nors, mesh->totpoly);
418     }
419
420     mesh->runtime.cd_dirty_vert &= ~CD_MASK_NORMAL;
421     mesh->runtime.cd_dirty_poly &= ~CD_MASK_NORMAL;
422   }
423 }
424
425 /* Note that this does not update the CD_NORMAL layer, but does update the normals in the CD_MVERT layer. */
426 void BKE_mesh_calc_normals(Mesh *mesh)
427 {
428 #ifdef DEBUG_TIME
429   TIMEIT_START_AVERAGED(BKE_mesh_calc_normals);
430 #endif
431   BKE_mesh_calc_normals_poly(mesh->mvert,
432                              NULL,
433                              mesh->totvert,
434                              mesh->mloop,
435                              mesh->mpoly,
436                              mesh->totloop,
437                              mesh->totpoly,
438                              NULL,
439                              false);
440 #ifdef DEBUG_TIME
441   TIMEIT_END_AVERAGED(BKE_mesh_calc_normals);
442 #endif
443   mesh->runtime.cd_dirty_vert &= ~CD_MASK_NORMAL;
444 }
445
446 void BKE_mesh_calc_normals_tessface(
447     MVert *mverts, int numVerts, const MFace *mfaces, int numFaces, float (*r_faceNors)[3])
448 {
449   float(*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
450   float(*fnors)[3] = (r_faceNors) ?
451                          r_faceNors :
452                          MEM_calloc_arrayN((size_t)numFaces, sizeof(*fnors), "meshnormals");
453   int i;
454
455   if (!tnorms || !fnors) {
456     goto cleanup;
457   }
458
459   for (i = 0; i < numFaces; i++) {
460     const MFace *mf = &mfaces[i];
461     float *f_no = fnors[i];
462     float *n4 = (mf->v4) ? tnorms[mf->v4] : NULL;
463     const float *c4 = (mf->v4) ? mverts[mf->v4].co : NULL;
464
465     if (mf->v4)
466       normal_quad_v3(
467           f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co, mverts[mf->v4].co);
468     else
469       normal_tri_v3(f_no, mverts[mf->v1].co, mverts[mf->v2].co, mverts[mf->v3].co);
470
471     accumulate_vertex_normals_v3(tnorms[mf->v1],
472                                  tnorms[mf->v2],
473                                  tnorms[mf->v3],
474                                  n4,
475                                  f_no,
476                                  mverts[mf->v1].co,
477                                  mverts[mf->v2].co,
478                                  mverts[mf->v3].co,
479                                  c4);
480   }
481
482   /* following Mesh convention; we use vertex coordinate itself for normal in this case */
483   for (i = 0; i < numVerts; i++) {
484     MVert *mv = &mverts[i];
485     float *no = tnorms[i];
486
487     if (UNLIKELY(normalize_v3(no) == 0.0f)) {
488       normalize_v3_v3(no, mv->co);
489     }
490
491     normal_float_to_short_v3(mv->no, no);
492   }
493
494 cleanup:
495   MEM_freeN(tnorms);
496
497   if (fnors != r_faceNors)
498     MEM_freeN(fnors);
499 }
500
501 void BKE_mesh_calc_normals_looptri(MVert *mverts,
502                                    int numVerts,
503                                    const MLoop *mloop,
504                                    const MLoopTri *looptri,
505                                    int looptri_num,
506                                    float (*r_tri_nors)[3])
507 {
508   float(*tnorms)[3] = MEM_calloc_arrayN((size_t)numVerts, sizeof(*tnorms), "tnorms");
509   float(*fnors)[3] = (r_tri_nors) ?
510                          r_tri_nors :
511                          MEM_calloc_arrayN((size_t)looptri_num, sizeof(*fnors), "meshnormals");
512   int i;
513
514   if (!tnorms || !fnors) {
515     goto cleanup;
516   }
517
518   for (i = 0; i < looptri_num; i++) {
519     const MLoopTri *lt = &looptri[i];
520     float *f_no = fnors[i];
521     const unsigned int vtri[3] = {
522         mloop[lt->tri[0]].v,
523         mloop[lt->tri[1]].v,
524         mloop[lt->tri[2]].v,
525     };
526
527     normal_tri_v3(f_no, mverts[vtri[0]].co, mverts[vtri[1]].co, mverts[vtri[2]].co);
528
529     accumulate_vertex_normals_tri_v3(tnorms[vtri[0]],
530                                      tnorms[vtri[1]],
531                                      tnorms[vtri[2]],
532                                      f_no,
533                                      mverts[vtri[0]].co,
534                                      mverts[vtri[1]].co,
535                                      mverts[vtri[2]].co);
536   }
537
538   /* following Mesh convention; we use vertex coordinate itself for normal in this case */
539   for (i = 0; i < numVerts; i++) {
540     MVert *mv = &mverts[i];
541     float *no = tnorms[i];
542
543     if (UNLIKELY(normalize_v3(no) == 0.0f)) {
544       normalize_v3_v3(no, mv->co);
545     }
546
547     normal_float_to_short_v3(mv->no, no);
548   }
549
550 cleanup:
551   MEM_freeN(tnorms);
552
553   if (fnors != r_tri_nors)
554     MEM_freeN(fnors);
555 }
556
557 void BKE_lnor_spacearr_init(MLoopNorSpaceArray *lnors_spacearr,
558                             const int numLoops,
559                             const char data_type)
560 {
561   if (!(lnors_spacearr->lspacearr && lnors_spacearr->loops_pool)) {
562     MemArena *mem;
563
564     if (!lnors_spacearr->mem) {
565       lnors_spacearr->mem = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
566     }
567     mem = lnors_spacearr->mem;
568     lnors_spacearr->lspacearr = BLI_memarena_calloc(mem,
569                                                     sizeof(MLoopNorSpace *) * (size_t)numLoops);
570     lnors_spacearr->loops_pool = BLI_memarena_alloc(mem, sizeof(LinkNode) * (size_t)numLoops);
571
572     lnors_spacearr->num_spaces = 0;
573   }
574   BLI_assert(ELEM(data_type, MLNOR_SPACEARR_BMLOOP_PTR, MLNOR_SPACEARR_LOOP_INDEX));
575   lnors_spacearr->data_type = data_type;
576 }
577
578 void BKE_lnor_spacearr_clear(MLoopNorSpaceArray *lnors_spacearr)
579 {
580   lnors_spacearr->num_spaces = 0;
581   lnors_spacearr->lspacearr = NULL;
582   lnors_spacearr->loops_pool = NULL;
583   BLI_memarena_clear(lnors_spacearr->mem);
584 }
585
586 void BKE_lnor_spacearr_free(MLoopNorSpaceArray *lnors_spacearr)
587 {
588   lnors_spacearr->num_spaces = 0;
589   lnors_spacearr->lspacearr = NULL;
590   lnors_spacearr->loops_pool = NULL;
591   BLI_memarena_free(lnors_spacearr->mem);
592   lnors_spacearr->mem = NULL;
593 }
594
595 MLoopNorSpace *BKE_lnor_space_create(MLoopNorSpaceArray *lnors_spacearr)
596 {
597   lnors_spacearr->num_spaces++;
598   return BLI_memarena_calloc(lnors_spacearr->mem, sizeof(MLoopNorSpace));
599 }
600
601 /* This threshold is a bit touchy (usual float precision issue), this value seems OK. */
602 #define LNOR_SPACE_TRIGO_THRESHOLD (1.0f - 1e-4f)
603
604 /* Should only be called once.
605  * Beware, this modifies ref_vec and other_vec in place!
606  * In case no valid space can be generated, ref_alpha and ref_beta are set to zero (which means 'use auto lnors').
607  */
608 void BKE_lnor_space_define(MLoopNorSpace *lnor_space,
609                            const float lnor[3],
610                            float vec_ref[3],
611                            float vec_other[3],
612                            BLI_Stack *edge_vectors)
613 {
614   const float pi2 = (float)M_PI * 2.0f;
615   float tvec[3], dtp;
616   const float dtp_ref = dot_v3v3(vec_ref, lnor);
617   const float dtp_other = dot_v3v3(vec_other, lnor);
618
619   if (UNLIKELY(fabsf(dtp_ref) >= LNOR_SPACE_TRIGO_THRESHOLD ||
620                fabsf(dtp_other) >= LNOR_SPACE_TRIGO_THRESHOLD)) {
621     /* If vec_ref or vec_other are too much aligned with lnor, we can't build lnor space,
622      * tag it as invalid and abort. */
623     lnor_space->ref_alpha = lnor_space->ref_beta = 0.0f;
624
625     if (edge_vectors) {
626       BLI_stack_clear(edge_vectors);
627     }
628     return;
629   }
630
631   copy_v3_v3(lnor_space->vec_lnor, lnor);
632
633   /* Compute ref alpha, average angle of all available edge vectors to lnor. */
634   if (edge_vectors) {
635     float alpha = 0.0f;
636     int nbr = 0;
637     while (!BLI_stack_is_empty(edge_vectors)) {
638       const float *vec = BLI_stack_peek(edge_vectors);
639       alpha += saacosf(dot_v3v3(vec, lnor));
640       BLI_stack_discard(edge_vectors);
641       nbr++;
642     }
643     /* Note: In theory, this could be 'nbr > 2', but there is one case where we only have two edges for
644      *       two loops: a smooth vertex with only two edges and two faces (our Monkey's nose has that, e.g.). */
645     BLI_assert(nbr >= 2); /* This piece of code shall only be called for more than one loop... */
646     lnor_space->ref_alpha = alpha / (float)nbr;
647   }
648   else {
649     lnor_space->ref_alpha = (saacosf(dot_v3v3(vec_ref, lnor)) +
650                              saacosf(dot_v3v3(vec_other, lnor))) /
651                             2.0f;
652   }
653
654   /* Project vec_ref on lnor's ortho plane. */
655   mul_v3_v3fl(tvec, lnor, dtp_ref);
656   sub_v3_v3(vec_ref, tvec);
657   normalize_v3_v3(lnor_space->vec_ref, vec_ref);
658
659   cross_v3_v3v3(tvec, lnor, lnor_space->vec_ref);
660   normalize_v3_v3(lnor_space->vec_ortho, tvec);
661
662   /* Project vec_other on lnor's ortho plane. */
663   mul_v3_v3fl(tvec, lnor, dtp_other);
664   sub_v3_v3(vec_other, tvec);
665   normalize_v3(vec_other);
666
667   /* Beta is angle between ref_vec and other_vec, around lnor. */
668   dtp = dot_v3v3(lnor_space->vec_ref, vec_other);
669   if (LIKELY(dtp < LNOR_SPACE_TRIGO_THRESHOLD)) {
670     const float beta = saacos(dtp);
671     lnor_space->ref_beta = (dot_v3v3(lnor_space->vec_ortho, vec_other) < 0.0f) ? pi2 - beta : beta;
672   }
673   else {
674     lnor_space->ref_beta = pi2;
675   }
676 }
677
678 /**
679  * Add a new given loop to given lnor_space.
680  * Depending on \a lnor_space->data_type, we expect \a bm_loop to be a pointer to BMLoop struct (in case of BMLOOP_PTR),
681  * or NULL (in case of LOOP_INDEX), loop index is then stored in pointer.
682  * If \a is_single is set, the BMLoop or loop index is directly stored in \a lnor_space->loops pointer (since there
683  * is only one loop in this fan), else it is added to the linked list of loops in the fan.
684  */
685 void BKE_lnor_space_add_loop(MLoopNorSpaceArray *lnors_spacearr,
686                              MLoopNorSpace *lnor_space,
687                              const int ml_index,
688                              void *bm_loop,
689                              const bool is_single)
690 {
691   BLI_assert((lnors_spacearr->data_type == MLNOR_SPACEARR_LOOP_INDEX && bm_loop == NULL) ||
692              (lnors_spacearr->data_type == MLNOR_SPACEARR_BMLOOP_PTR && bm_loop != NULL));
693
694   lnors_spacearr->lspacearr[ml_index] = lnor_space;
695   if (bm_loop == NULL) {
696     bm_loop = POINTER_FROM_INT(ml_index);
697   }
698   if (is_single) {
699     BLI_assert(lnor_space->loops == NULL);
700     lnor_space->flags |= MLNOR_SPACE_IS_SINGLE;
701     lnor_space->loops = bm_loop;
702   }
703   else {
704     BLI_assert((lnor_space->flags & MLNOR_SPACE_IS_SINGLE) == 0);
705     BLI_linklist_prepend_nlink(&lnor_space->loops, bm_loop, &lnors_spacearr->loops_pool[ml_index]);
706   }
707 }
708
709 MINLINE float unit_short_to_float(const short val)
710 {
711   return (float)val / (float)SHRT_MAX;
712 }
713
714 MINLINE short unit_float_to_short(const float val)
715 {
716   /* Rounding... */
717   return (short)floorf(val * (float)SHRT_MAX + 0.5f);
718 }
719
720 void BKE_lnor_space_custom_data_to_normal(MLoopNorSpace *lnor_space,
721                                           const short clnor_data[2],
722                                           float r_custom_lnor[3])
723 {
724   /* NOP custom normal data or invalid lnor space, return. */
725   if (clnor_data[0] == 0 || lnor_space->ref_alpha == 0.0f || lnor_space->ref_beta == 0.0f) {
726     copy_v3_v3(r_custom_lnor, lnor_space->vec_lnor);
727     return;
728   }
729
730   {
731     /* TODO Check whether using sincosf() gives any noticeable benefit
732      *      (could not even get it working under linux though)! */
733     const float pi2 = (float)(M_PI * 2.0);
734     const float alphafac = unit_short_to_float(clnor_data[0]);
735     const float alpha = (alphafac > 0.0f ? lnor_space->ref_alpha : pi2 - lnor_space->ref_alpha) *
736                         alphafac;
737     const float betafac = unit_short_to_float(clnor_data[1]);
738
739     mul_v3_v3fl(r_custom_lnor, lnor_space->vec_lnor, cosf(alpha));
740
741     if (betafac == 0.0f) {
742       madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinf(alpha));
743     }
744     else {
745       const float sinalpha = sinf(alpha);
746       const float beta = (betafac > 0.0f ? lnor_space->ref_beta : pi2 - lnor_space->ref_beta) *
747                          betafac;
748       madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ref, sinalpha * cosf(beta));
749       madd_v3_v3fl(r_custom_lnor, lnor_space->vec_ortho, sinalpha * sinf(beta));
750     }
751   }
752 }
753
754 void BKE_lnor_space_custom_normal_to_data(MLoopNorSpace *lnor_space,
755                                           const float custom_lnor[3],
756                                           short r_clnor_data[2])
757 {
758   /* We use null vector as NOP custom normal (can be simpler than giving autocomputed lnor...). */
759   if (is_zero_v3(custom_lnor) || compare_v3v3(lnor_space->vec_lnor, custom_lnor, 1e-4f)) {
760     r_clnor_data[0] = r_clnor_data[1] = 0;
761     return;
762   }
763
764   {
765     const float pi2 = (float)(M_PI * 2.0);
766     const float cos_alpha = dot_v3v3(lnor_space->vec_lnor, custom_lnor);
767     float vec[3], cos_beta;
768     float alpha;
769
770     alpha = saacosf(cos_alpha);
771     if (alpha > lnor_space->ref_alpha) {
772       /* Note we could stick to [0, pi] range here, but makes decoding more complex, not worth it. */
773       r_clnor_data[0] = unit_float_to_short(-(pi2 - alpha) / (pi2 - lnor_space->ref_alpha));
774     }
775     else {
776       r_clnor_data[0] = unit_float_to_short(alpha / lnor_space->ref_alpha);
777     }
778
779     /* Project custom lnor on (vec_ref, vec_ortho) plane. */
780     mul_v3_v3fl(vec, lnor_space->vec_lnor, -cos_alpha);
781     add_v3_v3(vec, custom_lnor);
782     normalize_v3(vec);
783
784     cos_beta = dot_v3v3(lnor_space->vec_ref, vec);
785
786     if (cos_beta < LNOR_SPACE_TRIGO_THRESHOLD) {
787       float beta = saacosf(cos_beta);
788       if (dot_v3v3(lnor_space->vec_ortho, vec) < 0.0f) {
789         beta = pi2 - beta;
790       }
791
792       if (beta > lnor_space->ref_beta) {
793         r_clnor_data[1] = unit_float_to_short(-(pi2 - beta) / (pi2 - lnor_space->ref_beta));
794       }
795       else {
796         r_clnor_data[1] = unit_float_to_short(beta / lnor_space->ref_beta);
797       }
798     }
799     else {
800       r_clnor_data[1] = 0;
801     }
802   }
803 }
804
805 #define LOOP_SPLIT_TASK_BLOCK_SIZE 1024
806
807 typedef struct LoopSplitTaskData {
808   /* Specific to each instance (each task). */
809   MLoopNorSpace *
810       lnor_space; /* We have to create those outside of tasks, since afaik memarena is not threadsafe. */
811   float (*lnor)[3];
812   const MLoop *ml_curr;
813   const MLoop *ml_prev;
814   int ml_curr_index;
815   int ml_prev_index;
816   const int *e2l_prev; /* Also used a flag to switch between single or fan process! */
817   int mp_index;
818
819   /* This one is special, it's owned and managed by worker tasks, avoid to have to create it for each fan! */
820   BLI_Stack *edge_vectors;
821
822   char pad_c;
823 } LoopSplitTaskData;
824
825 typedef struct LoopSplitTaskDataCommon {
826   /* Read/write.
827    * Note we do not need to protect it, though, since two different tasks will *always* affect different
828    * elements in the arrays. */
829   MLoopNorSpaceArray *lnors_spacearr;
830   float (*loopnors)[3];
831   short (*clnors_data)[2];
832
833   /* Read-only. */
834   const MVert *mverts;
835   const MEdge *medges;
836   const MLoop *mloops;
837   const MPoly *mpolys;
838   int (*edge_to_loops)[2];
839   int *loop_to_poly;
840   const float (*polynors)[3];
841
842   int numEdges;
843   int numLoops;
844   int numPolys;
845 } LoopSplitTaskDataCommon;
846
847 #define INDEX_UNSET INT_MIN
848 #define INDEX_INVALID -1
849 /* See comment about edge_to_loops below. */
850 #define IS_EDGE_SHARP(_e2l) (ELEM((_e2l)[1], INDEX_UNSET, INDEX_INVALID))
851
852 static void mesh_edges_sharp_tag(LoopSplitTaskDataCommon *data,
853                                  const bool check_angle,
854                                  const float split_angle,
855                                  const bool do_sharp_edges_tag)
856 {
857   const MVert *mverts = data->mverts;
858   const MEdge *medges = data->medges;
859   const MLoop *mloops = data->mloops;
860
861   const MPoly *mpolys = data->mpolys;
862
863   const int numEdges = data->numEdges;
864   const int numPolys = data->numPolys;
865
866   float(*loopnors)[3] = data->loopnors; /* Note: loopnors may be NULL here. */
867   const float(*polynors)[3] = data->polynors;
868
869   int(*edge_to_loops)[2] = data->edge_to_loops;
870   int *loop_to_poly = data->loop_to_poly;
871
872   BLI_bitmap *sharp_edges = do_sharp_edges_tag ? BLI_BITMAP_NEW(numEdges, __func__) : NULL;
873
874   const MPoly *mp;
875   int mp_index;
876
877   const float split_angle_cos = check_angle ? cosf(split_angle) : -1.0f;
878
879   for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
880     const MLoop *ml_curr;
881     int *e2l;
882     int ml_curr_index = mp->loopstart;
883     const int ml_last_index = (ml_curr_index + mp->totloop) - 1;
884
885     ml_curr = &mloops[ml_curr_index];
886
887     for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++) {
888       e2l = edge_to_loops[ml_curr->e];
889
890       loop_to_poly[ml_curr_index] = mp_index;
891
892       /* Pre-populate all loop normals as if their verts were all-smooth, this way we don't have to compute
893        * those later!
894        */
895       if (loopnors) {
896         normal_short_to_float_v3(loopnors[ml_curr_index], mverts[ml_curr->v].no);
897       }
898
899       /* Check whether current edge might be smooth or sharp */
900       if ((e2l[0] | e2l[1]) == 0) {
901         /* 'Empty' edge until now, set e2l[0] (and e2l[1] to INDEX_UNSET to tag it as unset). */
902         e2l[0] = ml_curr_index;
903         /* We have to check this here too, else we might miss some flat faces!!! */
904         e2l[1] = (mp->flag & ME_SMOOTH) ? INDEX_UNSET : INDEX_INVALID;
905       }
906       else if (e2l[1] == INDEX_UNSET) {
907         const bool is_angle_sharp = (check_angle &&
908                                      dot_v3v3(polynors[loop_to_poly[e2l[0]]], polynors[mp_index]) <
909                                          split_angle_cos);
910
911         /* Second loop using this edge, time to test its sharpness.
912          * An edge is sharp if it is tagged as such, or its face is not smooth,
913          * or both poly have opposed (flipped) normals, i.e. both loops on the same edge share the same vertex,
914          * or angle between both its polys' normals is above split_angle value.
915          */
916         if (!(mp->flag & ME_SMOOTH) || (medges[ml_curr->e].flag & ME_SHARP) ||
917             ml_curr->v == mloops[e2l[0]].v || is_angle_sharp) {
918           /* Note: we are sure that loop != 0 here ;) */
919           e2l[1] = INDEX_INVALID;
920
921           /* We want to avoid tagging edges as sharp when it is already defined as such by
922            * other causes than angle threshold... */
923           if (do_sharp_edges_tag && is_angle_sharp) {
924             BLI_BITMAP_SET(sharp_edges, ml_curr->e, true);
925           }
926         }
927         else {
928           e2l[1] = ml_curr_index;
929         }
930       }
931       else if (!IS_EDGE_SHARP(e2l)) {
932         /* More than two loops using this edge, tag as sharp if not yet done. */
933         e2l[1] = INDEX_INVALID;
934
935         /* We want to avoid tagging edges as sharp when it is already defined as such by
936          * other causes than angle threshold... */
937         if (do_sharp_edges_tag) {
938           BLI_BITMAP_SET(sharp_edges, ml_curr->e, false);
939         }
940       }
941       /* Else, edge is already 'disqualified' (i.e. sharp)! */
942     }
943   }
944
945   /* If requested, do actual tagging of edges as sharp in another loop. */
946   if (do_sharp_edges_tag) {
947     MEdge *me;
948     int me_index;
949     for (me = (MEdge *)medges, me_index = 0; me_index < numEdges; me++, me_index++) {
950       if (BLI_BITMAP_TEST(sharp_edges, me_index)) {
951         me->flag |= ME_SHARP;
952       }
953     }
954
955     MEM_freeN(sharp_edges);
956   }
957 }
958
959 /** Define sharp edges as needed to mimic 'autosmooth' from angle threshold.
960  *
961  * Used when defining an empty custom loop normals data layer, to keep same shading as with autosmooth!
962  */
963 void BKE_edges_sharp_from_angle_set(const struct MVert *mverts,
964                                     const int UNUSED(numVerts),
965                                     struct MEdge *medges,
966                                     const int numEdges,
967                                     struct MLoop *mloops,
968                                     const int numLoops,
969                                     struct MPoly *mpolys,
970                                     const float (*polynors)[3],
971                                     const int numPolys,
972                                     const float split_angle)
973 {
974   if (split_angle >= (float)M_PI) {
975     /* Nothing to do! */
976     return;
977   }
978
979   /* Mapping edge -> loops. See BKE_mesh_normals_loop_split() for details. */
980   int(*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
981
982   /* Simple mapping from a loop to its polygon index. */
983   int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
984
985   LoopSplitTaskDataCommon common_data = {
986       .mverts = mverts,
987       .medges = medges,
988       .mloops = mloops,
989       .mpolys = mpolys,
990       .edge_to_loops = edge_to_loops,
991       .loop_to_poly = loop_to_poly,
992       .polynors = polynors,
993       .numEdges = numEdges,
994       .numPolys = numPolys,
995   };
996
997   mesh_edges_sharp_tag(&common_data, true, split_angle, true);
998
999   MEM_freeN(edge_to_loops);
1000   MEM_freeN(loop_to_poly);
1001 }
1002
1003 void BKE_mesh_loop_manifold_fan_around_vert_next(const MLoop *mloops,
1004                                                  const MPoly *mpolys,
1005                                                  const int *loop_to_poly,
1006                                                  const int *e2lfan_curr,
1007                                                  const uint mv_pivot_index,
1008                                                  const MLoop **r_mlfan_curr,
1009                                                  int *r_mlfan_curr_index,
1010                                                  int *r_mlfan_vert_index,
1011                                                  int *r_mpfan_curr_index)
1012 {
1013   const MLoop *mlfan_next;
1014   const MPoly *mpfan_next;
1015
1016   /* Warning! This is rather complex!
1017    * We have to find our next edge around the vertex (fan mode).
1018    * First we find the next loop, which is either previous or next to mlfan_curr_index, depending
1019    * whether both loops using current edge are in the same direction or not, and whether
1020    * mlfan_curr_index actually uses the vertex we are fanning around!
1021    * mlfan_curr_index is the index of mlfan_next here, and mlfan_next is not the real next one
1022    * (i.e. not the future mlfan_curr)...
1023    */
1024   *r_mlfan_curr_index = (e2lfan_curr[0] == *r_mlfan_curr_index) ? e2lfan_curr[1] : e2lfan_curr[0];
1025   *r_mpfan_curr_index = loop_to_poly[*r_mlfan_curr_index];
1026
1027   BLI_assert(*r_mlfan_curr_index >= 0);
1028   BLI_assert(*r_mpfan_curr_index >= 0);
1029
1030   mlfan_next = &mloops[*r_mlfan_curr_index];
1031   mpfan_next = &mpolys[*r_mpfan_curr_index];
1032   if (((*r_mlfan_curr)->v == mlfan_next->v && (*r_mlfan_curr)->v == mv_pivot_index) ||
1033       ((*r_mlfan_curr)->v != mlfan_next->v && (*r_mlfan_curr)->v != mv_pivot_index)) {
1034     /* We need the previous loop, but current one is our vertex's loop. */
1035     *r_mlfan_vert_index = *r_mlfan_curr_index;
1036     if (--(*r_mlfan_curr_index) < mpfan_next->loopstart) {
1037       *r_mlfan_curr_index = mpfan_next->loopstart + mpfan_next->totloop - 1;
1038     }
1039   }
1040   else {
1041     /* We need the next loop, which is also our vertex's loop. */
1042     if (++(*r_mlfan_curr_index) >= mpfan_next->loopstart + mpfan_next->totloop) {
1043       *r_mlfan_curr_index = mpfan_next->loopstart;
1044     }
1045     *r_mlfan_vert_index = *r_mlfan_curr_index;
1046   }
1047   *r_mlfan_curr = &mloops[*r_mlfan_curr_index];
1048   /* And now we are back in sync, mlfan_curr_index is the index of mlfan_curr! Pff! */
1049 }
1050
1051 static void split_loop_nor_single_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
1052 {
1053   MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1054   short(*clnors_data)[2] = common_data->clnors_data;
1055
1056   const MVert *mverts = common_data->mverts;
1057   const MEdge *medges = common_data->medges;
1058   const float(*polynors)[3] = common_data->polynors;
1059
1060   MLoopNorSpace *lnor_space = data->lnor_space;
1061   float(*lnor)[3] = data->lnor;
1062   const MLoop *ml_curr = data->ml_curr;
1063   const MLoop *ml_prev = data->ml_prev;
1064   const int ml_curr_index = data->ml_curr_index;
1065 #if 0 /* Not needed for 'single' loop. */
1066   const int ml_prev_index = data->ml_prev_index;
1067   const int *e2l_prev = data->e2l_prev;
1068 #endif
1069   const int mp_index = data->mp_index;
1070
1071   /* Simple case (both edges around that vertex are sharp in current polygon),
1072    * this loop just takes its poly normal.
1073    */
1074   copy_v3_v3(*lnor, polynors[mp_index]);
1075
1076   //  printf("BASIC: handling loop %d / edge %d / vert %d / poly %d\n", ml_curr_index, ml_curr->e, ml_curr->v, mp_index);
1077
1078   /* If needed, generate this (simple!) lnor space. */
1079   if (lnors_spacearr) {
1080     float vec_curr[3], vec_prev[3];
1081
1082     const unsigned int mv_pivot_index = ml_curr->v; /* The vertex we are "fanning" around! */
1083     const MVert *mv_pivot = &mverts[mv_pivot_index];
1084     const MEdge *me_curr = &medges[ml_curr->e];
1085     const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] :
1086                                                           &mverts[me_curr->v1];
1087     const MEdge *me_prev = &medges[ml_prev->e];
1088     const MVert *mv_3 = (me_prev->v1 == mv_pivot_index) ? &mverts[me_prev->v2] :
1089                                                           &mverts[me_prev->v1];
1090
1091     sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1092     normalize_v3(vec_curr);
1093     sub_v3_v3v3(vec_prev, mv_3->co, mv_pivot->co);
1094     normalize_v3(vec_prev);
1095
1096     BKE_lnor_space_define(lnor_space, *lnor, vec_curr, vec_prev, NULL);
1097     /* We know there is only one loop in this space, no need to create a linklist in this case... */
1098     BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, ml_curr_index, NULL, true);
1099
1100     if (clnors_data) {
1101       BKE_lnor_space_custom_data_to_normal(lnor_space, clnors_data[ml_curr_index], *lnor);
1102     }
1103   }
1104 }
1105
1106 static void split_loop_nor_fan_do(LoopSplitTaskDataCommon *common_data, LoopSplitTaskData *data)
1107 {
1108   MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1109   float(*loopnors)[3] = common_data->loopnors;
1110   short(*clnors_data)[2] = common_data->clnors_data;
1111
1112   const MVert *mverts = common_data->mverts;
1113   const MEdge *medges = common_data->medges;
1114   const MLoop *mloops = common_data->mloops;
1115   const MPoly *mpolys = common_data->mpolys;
1116   const int(*edge_to_loops)[2] = common_data->edge_to_loops;
1117   const int *loop_to_poly = common_data->loop_to_poly;
1118   const float(*polynors)[3] = common_data->polynors;
1119
1120   MLoopNorSpace *lnor_space = data->lnor_space;
1121 #if 0 /* Not needed for 'fan' loops. */
1122   float (*lnor)[3] = data->lnor;
1123 #endif
1124   const MLoop *ml_curr = data->ml_curr;
1125   const MLoop *ml_prev = data->ml_prev;
1126   const int ml_curr_index = data->ml_curr_index;
1127   const int ml_prev_index = data->ml_prev_index;
1128   const int mp_index = data->mp_index;
1129   const int *e2l_prev = data->e2l_prev;
1130
1131   BLI_Stack *edge_vectors = data->edge_vectors;
1132
1133   /* Gah... We have to fan around current vertex, until we find the other non-smooth edge,
1134    * and accumulate face normals into the vertex!
1135    * Note in case this vertex has only one sharp edges, this is a waste because the normal is the same as
1136    * the vertex normal, but I do not see any easy way to detect that (would need to count number
1137    * of sharp edges per vertex, I doubt the additional memory usage would be worth it, especially as
1138    * it should not be a common case in real-life meshes anyway).
1139    */
1140   const unsigned int mv_pivot_index = ml_curr->v; /* The vertex we are "fanning" around! */
1141   const MVert *mv_pivot = &mverts[mv_pivot_index];
1142   const MEdge *me_org =
1143       &medges[ml_curr->e]; /* ml_curr would be mlfan_prev if we needed that one */
1144   const int *e2lfan_curr;
1145   float vec_curr[3], vec_prev[3], vec_org[3];
1146   const MLoop *mlfan_curr;
1147   float lnor[3] = {0.0f, 0.0f, 0.0f};
1148   /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1149   int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1150
1151   /* We validate clnors data on the fly - cheapest way to do! */
1152   int clnors_avg[2] = {0, 0};
1153   short(*clnor_ref)[2] = NULL;
1154   int clnors_nbr = 0;
1155   bool clnors_invalid = false;
1156
1157   /* Temp loop normal stack. */
1158   BLI_SMALLSTACK_DECLARE(normal, float *);
1159   /* Temp clnors stack. */
1160   BLI_SMALLSTACK_DECLARE(clnors, short *);
1161
1162   e2lfan_curr = e2l_prev;
1163   mlfan_curr = ml_prev;
1164   mlfan_curr_index = ml_prev_index;
1165   mlfan_vert_index = ml_curr_index;
1166   mpfan_curr_index = mp_index;
1167
1168   BLI_assert(mlfan_curr_index >= 0);
1169   BLI_assert(mlfan_vert_index >= 0);
1170   BLI_assert(mpfan_curr_index >= 0);
1171
1172   /* Only need to compute previous edge's vector once, then we can just reuse old current one! */
1173   {
1174     const MVert *mv_2 = (me_org->v1 == mv_pivot_index) ? &mverts[me_org->v2] : &mverts[me_org->v1];
1175
1176     sub_v3_v3v3(vec_org, mv_2->co, mv_pivot->co);
1177     normalize_v3(vec_org);
1178     copy_v3_v3(vec_prev, vec_org);
1179
1180     if (lnors_spacearr) {
1181       BLI_stack_push(edge_vectors, vec_org);
1182     }
1183   }
1184
1185   //  printf("FAN: vert %d, start edge %d\n", mv_pivot_index, ml_curr->e);
1186
1187   while (true) {
1188     const MEdge *me_curr = &medges[mlfan_curr->e];
1189     /* Compute edge vectors.
1190      * NOTE: We could pre-compute those into an array, in the first iteration, instead of computing them
1191      *       twice (or more) here. However, time gained is not worth memory and time lost,
1192      *       given the fact that this code should not be called that much in real-life meshes...
1193      */
1194     {
1195       const MVert *mv_2 = (me_curr->v1 == mv_pivot_index) ? &mverts[me_curr->v2] :
1196                                                             &mverts[me_curr->v1];
1197
1198       sub_v3_v3v3(vec_curr, mv_2->co, mv_pivot->co);
1199       normalize_v3(vec_curr);
1200     }
1201
1202     //      printf("\thandling edge %d / loop %d\n", mlfan_curr->e, mlfan_curr_index);
1203
1204     {
1205       /* Code similar to accumulate_vertex_normals_poly_v3. */
1206       /* Calculate angle between the two poly edges incident on this vertex. */
1207       const float fac = saacos(dot_v3v3(vec_curr, vec_prev));
1208       /* Accumulate */
1209       madd_v3_v3fl(lnor, polynors[mpfan_curr_index], fac);
1210
1211       if (clnors_data) {
1212         /* Accumulate all clnors, if they are not all equal we have to fix that! */
1213         short(*clnor)[2] = &clnors_data[mlfan_vert_index];
1214         if (clnors_nbr) {
1215           clnors_invalid |= ((*clnor_ref)[0] != (*clnor)[0] || (*clnor_ref)[1] != (*clnor)[1]);
1216         }
1217         else {
1218           clnor_ref = clnor;
1219         }
1220         clnors_avg[0] += (*clnor)[0];
1221         clnors_avg[1] += (*clnor)[1];
1222         clnors_nbr++;
1223         /* We store here a pointer to all custom lnors processed. */
1224         BLI_SMALLSTACK_PUSH(clnors, (short *)*clnor);
1225       }
1226     }
1227
1228     /* We store here a pointer to all loop-normals processed. */
1229     BLI_SMALLSTACK_PUSH(normal, (float *)(loopnors[mlfan_vert_index]));
1230
1231     if (lnors_spacearr) {
1232       /* Assign current lnor space to current 'vertex' loop. */
1233       BKE_lnor_space_add_loop(lnors_spacearr, lnor_space, mlfan_vert_index, NULL, false);
1234       if (me_curr != me_org) {
1235         /* We store here all edges-normalized vectors processed. */
1236         BLI_stack_push(edge_vectors, vec_curr);
1237       }
1238     }
1239
1240     if (IS_EDGE_SHARP(e2lfan_curr) || (me_curr == me_org)) {
1241       /* Current edge is sharp and we have finished with this fan of faces around this vert,
1242        * or this vert is smooth, and we have completed a full turn around it.
1243        */
1244       //          printf("FAN: Finished!\n");
1245       break;
1246     }
1247
1248     copy_v3_v3(vec_prev, vec_curr);
1249
1250     /* Find next loop of the smooth fan. */
1251     BKE_mesh_loop_manifold_fan_around_vert_next(mloops,
1252                                                 mpolys,
1253                                                 loop_to_poly,
1254                                                 e2lfan_curr,
1255                                                 mv_pivot_index,
1256                                                 &mlfan_curr,
1257                                                 &mlfan_curr_index,
1258                                                 &mlfan_vert_index,
1259                                                 &mpfan_curr_index);
1260
1261     e2lfan_curr = edge_to_loops[mlfan_curr->e];
1262   }
1263
1264   {
1265     float lnor_len = normalize_v3(lnor);
1266
1267     /* If we are generating lnor spacearr, we can now define the one for this fan,
1268      * and optionally compute final lnor from custom data too!
1269      */
1270     if (lnors_spacearr) {
1271       if (UNLIKELY(lnor_len == 0.0f)) {
1272         /* Use vertex normal as fallback! */
1273         copy_v3_v3(lnor, loopnors[mlfan_vert_index]);
1274         lnor_len = 1.0f;
1275       }
1276
1277       BKE_lnor_space_define(lnor_space, lnor, vec_org, vec_curr, edge_vectors);
1278
1279       if (clnors_data) {
1280         if (clnors_invalid) {
1281           short *clnor;
1282
1283           clnors_avg[0] /= clnors_nbr;
1284           clnors_avg[1] /= clnors_nbr;
1285           /* Fix/update all clnors of this fan with computed average value. */
1286           if (G.debug & G_DEBUG) {
1287             printf("Invalid clnors in this fan!\n");
1288           }
1289           while ((clnor = BLI_SMALLSTACK_POP(clnors))) {
1290             //print_v2("org clnor", clnor);
1291             clnor[0] = (short)clnors_avg[0];
1292             clnor[1] = (short)clnors_avg[1];
1293           }
1294           //print_v2("new clnors", clnors_avg);
1295         }
1296         /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1297
1298         BKE_lnor_space_custom_data_to_normal(lnor_space, *clnor_ref, lnor);
1299       }
1300     }
1301
1302     /* In case we get a zero normal here, just use vertex normal already set! */
1303     if (LIKELY(lnor_len != 0.0f)) {
1304       /* Copy back the final computed normal into all related loop-normals. */
1305       float *nor;
1306
1307       while ((nor = BLI_SMALLSTACK_POP(normal))) {
1308         copy_v3_v3(nor, lnor);
1309       }
1310     }
1311     /* Extra bonus: since smallstack is local to this func, no more need to empty it at all cost! */
1312   }
1313 }
1314
1315 static void loop_split_worker_do(LoopSplitTaskDataCommon *common_data,
1316                                  LoopSplitTaskData *data,
1317                                  BLI_Stack *edge_vectors)
1318 {
1319   BLI_assert(data->ml_curr);
1320   if (data->e2l_prev) {
1321     BLI_assert((edge_vectors == NULL) || BLI_stack_is_empty(edge_vectors));
1322     data->edge_vectors = edge_vectors;
1323     split_loop_nor_fan_do(common_data, data);
1324   }
1325   else {
1326     /* No need for edge_vectors for 'single' case! */
1327     split_loop_nor_single_do(common_data, data);
1328   }
1329 }
1330
1331 static void loop_split_worker(TaskPool *__restrict pool, void *taskdata, int UNUSED(threadid))
1332 {
1333   LoopSplitTaskDataCommon *common_data = BLI_task_pool_userdata(pool);
1334   LoopSplitTaskData *data = taskdata;
1335
1336   /* Temp edge vectors stack, only used when computing lnor spacearr. */
1337   BLI_Stack *edge_vectors = common_data->lnors_spacearr ?
1338                                 BLI_stack_new(sizeof(float[3]), __func__) :
1339                                 NULL;
1340
1341 #ifdef DEBUG_TIME
1342   TIMEIT_START_AVERAGED(loop_split_worker);
1343 #endif
1344
1345   for (int i = 0; i < LOOP_SPLIT_TASK_BLOCK_SIZE; i++, data++) {
1346     /* A NULL ml_curr is used to tag ended data! */
1347     if (data->ml_curr == NULL) {
1348       break;
1349     }
1350
1351     loop_split_worker_do(common_data, data, edge_vectors);
1352   }
1353
1354   if (edge_vectors) {
1355     BLI_stack_free(edge_vectors);
1356   }
1357
1358 #ifdef DEBUG_TIME
1359   TIMEIT_END_AVERAGED(loop_split_worker);
1360 #endif
1361 }
1362
1363 /* Check whether gievn loop is part of an unknown-so-far cyclic smooth fan, or not.
1364  * Needed because cyclic smooth fans have no obvious 'entry point', and yet we need to walk them once, and only once. */
1365 static bool loop_split_generator_check_cyclic_smooth_fan(const MLoop *mloops,
1366                                                          const MPoly *mpolys,
1367                                                          const int (*edge_to_loops)[2],
1368                                                          const int *loop_to_poly,
1369                                                          const int *e2l_prev,
1370                                                          BLI_bitmap *skip_loops,
1371                                                          const MLoop *ml_curr,
1372                                                          const MLoop *ml_prev,
1373                                                          const int ml_curr_index,
1374                                                          const int ml_prev_index,
1375                                                          const int mp_curr_index)
1376 {
1377   const unsigned int mv_pivot_index = ml_curr->v; /* The vertex we are "fanning" around! */
1378   const int *e2lfan_curr;
1379   const MLoop *mlfan_curr;
1380   /* mlfan_vert_index: the loop of our current edge might not be the loop of our current vertex! */
1381   int mlfan_curr_index, mlfan_vert_index, mpfan_curr_index;
1382
1383   e2lfan_curr = e2l_prev;
1384   if (IS_EDGE_SHARP(e2lfan_curr)) {
1385     /* Sharp loop, so not a cyclic smooth fan... */
1386     return false;
1387   }
1388
1389   mlfan_curr = ml_prev;
1390   mlfan_curr_index = ml_prev_index;
1391   mlfan_vert_index = ml_curr_index;
1392   mpfan_curr_index = mp_curr_index;
1393
1394   BLI_assert(mlfan_curr_index >= 0);
1395   BLI_assert(mlfan_vert_index >= 0);
1396   BLI_assert(mpfan_curr_index >= 0);
1397
1398   BLI_assert(!BLI_BITMAP_TEST(skip_loops, mlfan_vert_index));
1399   BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1400
1401   while (true) {
1402     /* Find next loop of the smooth fan. */
1403     BKE_mesh_loop_manifold_fan_around_vert_next(mloops,
1404                                                 mpolys,
1405                                                 loop_to_poly,
1406                                                 e2lfan_curr,
1407                                                 mv_pivot_index,
1408                                                 &mlfan_curr,
1409                                                 &mlfan_curr_index,
1410                                                 &mlfan_vert_index,
1411                                                 &mpfan_curr_index);
1412
1413     e2lfan_curr = edge_to_loops[mlfan_curr->e];
1414
1415     if (IS_EDGE_SHARP(e2lfan_curr)) {
1416       /* Sharp loop/edge, so not a cyclic smooth fan... */
1417       return false;
1418     }
1419     /* Smooth loop/edge... */
1420     else if (BLI_BITMAP_TEST(skip_loops, mlfan_vert_index)) {
1421       if (mlfan_vert_index == ml_curr_index) {
1422         /* We walked around a whole cyclic smooth fan without finding any already-processed loop, means we can
1423          * use initial ml_curr/ml_prev edge as start for this smooth fan. */
1424         return true;
1425       }
1426       /* ... already checked in some previous looping, we can abort. */
1427       return false;
1428     }
1429     else {
1430       /* ... we can skip it in future, and keep checking the smooth fan. */
1431       BLI_BITMAP_ENABLE(skip_loops, mlfan_vert_index);
1432     }
1433   }
1434 }
1435
1436 static void loop_split_generator(TaskPool *pool, LoopSplitTaskDataCommon *common_data)
1437 {
1438   MLoopNorSpaceArray *lnors_spacearr = common_data->lnors_spacearr;
1439   float(*loopnors)[3] = common_data->loopnors;
1440
1441   const MLoop *mloops = common_data->mloops;
1442   const MPoly *mpolys = common_data->mpolys;
1443   const int *loop_to_poly = common_data->loop_to_poly;
1444   const int(*edge_to_loops)[2] = common_data->edge_to_loops;
1445   const int numLoops = common_data->numLoops;
1446   const int numPolys = common_data->numPolys;
1447
1448   const MPoly *mp;
1449   int mp_index;
1450
1451   const MLoop *ml_curr;
1452   const MLoop *ml_prev;
1453   int ml_curr_index;
1454   int ml_prev_index;
1455
1456   BLI_bitmap *skip_loops = BLI_BITMAP_NEW(numLoops, __func__);
1457
1458   LoopSplitTaskData *data_buff = NULL;
1459   int data_idx = 0;
1460
1461   /* Temp edge vectors stack, only used when computing lnor spacearr (and we are not multi-threading). */
1462   BLI_Stack *edge_vectors = NULL;
1463
1464 #ifdef DEBUG_TIME
1465   TIMEIT_START_AVERAGED(loop_split_generator);
1466 #endif
1467
1468   if (!pool) {
1469     if (lnors_spacearr) {
1470       edge_vectors = BLI_stack_new(sizeof(float[3]), __func__);
1471     }
1472   }
1473
1474   /* We now know edges that can be smoothed (with their vector, and their two loops), and edges that will be hard!
1475    * Now, time to generate the normals.
1476    */
1477   for (mp = mpolys, mp_index = 0; mp_index < numPolys; mp++, mp_index++) {
1478     float(*lnors)[3];
1479     const int ml_last_index = (mp->loopstart + mp->totloop) - 1;
1480     ml_curr_index = mp->loopstart;
1481     ml_prev_index = ml_last_index;
1482
1483     ml_curr = &mloops[ml_curr_index];
1484     ml_prev = &mloops[ml_prev_index];
1485     lnors = &loopnors[ml_curr_index];
1486
1487     for (; ml_curr_index <= ml_last_index; ml_curr++, ml_curr_index++, lnors++) {
1488       const int *e2l_curr = edge_to_loops[ml_curr->e];
1489       const int *e2l_prev = edge_to_loops[ml_prev->e];
1490
1491       //          printf("Checking loop %d / edge %u / vert %u (sharp edge: %d, skiploop: %d)...",
1492       //                 ml_curr_index, ml_curr->e, ml_curr->v, IS_EDGE_SHARP(e2l_curr), BLI_BITMAP_TEST_BOOL(skip_loops, ml_curr_index));
1493
1494       /* A smooth edge, we have to check for cyclic smooth fan case.
1495        * If we find a new, never-processed cyclic smooth fan, we can do it now using that loop/edge as
1496        * 'entry point', otherwise we can skip it. */
1497       /* Note: In theory, we could make loop_split_generator_check_cyclic_smooth_fan() store
1498        * mlfan_vert_index'es and edge indexes in two stacks, to avoid having to fan again around the vert during
1499        * actual computation of clnor & clnorspace. However, this would complicate the code, add more memory usage,
1500        * and despite its logical complexity, loop_manifold_fan_around_vert_next() is quite cheap in term of
1501        * CPU cycles, so really think it's not worth it. */
1502       if (!IS_EDGE_SHARP(e2l_curr) && (BLI_BITMAP_TEST(skip_loops, ml_curr_index) ||
1503                                        !loop_split_generator_check_cyclic_smooth_fan(mloops,
1504                                                                                      mpolys,
1505                                                                                      edge_to_loops,
1506                                                                                      loop_to_poly,
1507                                                                                      e2l_prev,
1508                                                                                      skip_loops,
1509                                                                                      ml_curr,
1510                                                                                      ml_prev,
1511                                                                                      ml_curr_index,
1512                                                                                      ml_prev_index,
1513                                                                                      mp_index))) {
1514         //              printf("SKIPPING!\n");
1515       }
1516       else {
1517         LoopSplitTaskData *data, data_local;
1518
1519         //              printf("PROCESSING!\n");
1520
1521         if (pool) {
1522           if (data_idx == 0) {
1523             data_buff = MEM_calloc_arrayN(
1524                 LOOP_SPLIT_TASK_BLOCK_SIZE, sizeof(*data_buff), __func__);
1525           }
1526           data = &data_buff[data_idx];
1527         }
1528         else {
1529           data = &data_local;
1530           memset(data, 0, sizeof(*data));
1531         }
1532
1533         if (IS_EDGE_SHARP(e2l_curr) && IS_EDGE_SHARP(e2l_prev)) {
1534           data->lnor = lnors;
1535           data->ml_curr = ml_curr;
1536           data->ml_prev = ml_prev;
1537           data->ml_curr_index = ml_curr_index;
1538 #if 0 /* Not needed for 'single' loop. */
1539           data->ml_prev_index = ml_prev_index;
1540           data->e2l_prev = NULL;  /* Tag as 'single' task. */
1541 #endif
1542           data->mp_index = mp_index;
1543           if (lnors_spacearr) {
1544             data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1545           }
1546         }
1547         /* We *do not need* to check/tag loops as already computed!
1548          * Due to the fact a loop only links to one of its two edges, a same fan *will never be walked
1549          * more than once!*
1550          * Since we consider edges having neighbor polys with inverted (flipped) normals as sharp, we are sure
1551          * that no fan will be skipped, even only considering the case (sharp curr_edge, smooth prev_edge),
1552          * and not the alternative (smooth curr_edge, sharp prev_edge).
1553          * All this due/thanks to link between normals and loop ordering (i.e. winding).
1554          */
1555         else {
1556 #if 0 /* Not needed for 'fan' loops. */
1557           data->lnor = lnors;
1558 #endif
1559           data->ml_curr = ml_curr;
1560           data->ml_prev = ml_prev;
1561           data->ml_curr_index = ml_curr_index;
1562           data->ml_prev_index = ml_prev_index;
1563           data->e2l_prev = e2l_prev; /* Also tag as 'fan' task. */
1564           data->mp_index = mp_index;
1565           if (lnors_spacearr) {
1566             data->lnor_space = BKE_lnor_space_create(lnors_spacearr);
1567           }
1568         }
1569
1570         if (pool) {
1571           data_idx++;
1572           if (data_idx == LOOP_SPLIT_TASK_BLOCK_SIZE) {
1573             BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1574             data_idx = 0;
1575           }
1576         }
1577         else {
1578           loop_split_worker_do(common_data, data, edge_vectors);
1579         }
1580       }
1581
1582       ml_prev = ml_curr;
1583       ml_prev_index = ml_curr_index;
1584     }
1585   }
1586
1587   /* Last block of data... Since it is calloc'ed and we use first NULL item as stopper, everything is fine. */
1588   if (pool && data_idx) {
1589     BLI_task_pool_push(pool, loop_split_worker, data_buff, true, TASK_PRIORITY_LOW);
1590   }
1591
1592   if (edge_vectors) {
1593     BLI_stack_free(edge_vectors);
1594   }
1595   MEM_freeN(skip_loops);
1596
1597 #ifdef DEBUG_TIME
1598   TIMEIT_END_AVERAGED(loop_split_generator);
1599 #endif
1600 }
1601
1602 /**
1603  * Compute split normals, i.e. vertex normals associated with each poly (hence 'loop normals').
1604  * Useful to materialize sharp edges (or non-smooth faces) without actually modifying the geometry (splitting edges).
1605  */
1606 void BKE_mesh_normals_loop_split(const MVert *mverts,
1607                                  const int UNUSED(numVerts),
1608                                  MEdge *medges,
1609                                  const int numEdges,
1610                                  MLoop *mloops,
1611                                  float (*r_loopnors)[3],
1612                                  const int numLoops,
1613                                  MPoly *mpolys,
1614                                  const float (*polynors)[3],
1615                                  const int numPolys,
1616                                  const bool use_split_normals,
1617                                  const float split_angle,
1618                                  MLoopNorSpaceArray *r_lnors_spacearr,
1619                                  short (*clnors_data)[2],
1620                                  int *r_loop_to_poly)
1621 {
1622   /* For now this is not supported. If we do not use split normals, we do not generate anything fancy! */
1623   BLI_assert(use_split_normals || !(r_lnors_spacearr));
1624
1625   if (!use_split_normals) {
1626     /* In this case, we simply fill lnors with vnors (or fnors for flat faces), quite simple!
1627      * Note this is done here to keep some logic and consistency in this quite complex code,
1628      * since we may want to use lnors even when mesh's 'autosmooth' is disabled (see e.g. mesh mapping code).
1629      * As usual, we could handle that on case-by-case basis, but simpler to keep it well confined here.
1630      */
1631     int mp_index;
1632
1633     for (mp_index = 0; mp_index < numPolys; mp_index++) {
1634       MPoly *mp = &mpolys[mp_index];
1635       int ml_index = mp->loopstart;
1636       const int ml_index_end = ml_index + mp->totloop;
1637       const bool is_poly_flat = ((mp->flag & ME_SMOOTH) == 0);
1638
1639       for (; ml_index < ml_index_end; ml_index++) {
1640         if (r_loop_to_poly) {
1641           r_loop_to_poly[ml_index] = mp_index;
1642         }
1643         if (is_poly_flat) {
1644           copy_v3_v3(r_loopnors[ml_index], polynors[mp_index]);
1645         }
1646         else {
1647           normal_short_to_float_v3(r_loopnors[ml_index], mverts[mloops[ml_index].v].no);
1648         }
1649       }
1650     }
1651     return;
1652   }
1653
1654   /* Mapping edge -> loops.
1655    * If that edge is used by more than two loops (polys), it is always sharp (and tagged as such, see below).
1656    * We also use the second loop index as a kind of flag: smooth edge: > 0,
1657    *                                                      sharp edge: < 0 (INDEX_INVALID || INDEX_UNSET),
1658    *                                                      unset: INDEX_UNSET
1659    * Note that currently we only have two values for second loop of sharp edges. However, if needed, we can
1660    * store the negated value of loop index instead of INDEX_INVALID to retrieve the real value later in code).
1661    * Note also that lose edges always have both values set to 0!
1662    */
1663   int(*edge_to_loops)[2] = MEM_calloc_arrayN((size_t)numEdges, sizeof(*edge_to_loops), __func__);
1664
1665   /* Simple mapping from a loop to its polygon index. */
1666   int *loop_to_poly = r_loop_to_poly ?
1667                           r_loop_to_poly :
1668                           MEM_malloc_arrayN((size_t)numLoops, sizeof(*loop_to_poly), __func__);
1669
1670   /* When using custom loop normals, disable the angle feature! */
1671   const bool check_angle = (split_angle < (float)M_PI) && (clnors_data == NULL);
1672
1673   MLoopNorSpaceArray _lnors_spacearr = {NULL};
1674
1675 #ifdef DEBUG_TIME
1676   TIMEIT_START_AVERAGED(BKE_mesh_normals_loop_split);
1677 #endif
1678
1679   if (!r_lnors_spacearr && clnors_data) {
1680     /* We need to compute lnor spacearr if some custom lnor data are given to us! */
1681     r_lnors_spacearr = &_lnors_spacearr;
1682   }
1683   if (r_lnors_spacearr) {
1684     BKE_lnor_spacearr_init(r_lnors_spacearr, numLoops, MLNOR_SPACEARR_LOOP_INDEX);
1685   }
1686
1687   /* Init data common to all tasks. */
1688   LoopSplitTaskDataCommon common_data = {
1689       .lnors_spacearr = r_lnors_spacearr,
1690       .loopnors = r_loopnors,
1691       .clnors_data = clnors_data,
1692       .mverts = mverts,
1693       .medges = medges,
1694       .mloops = mloops,
1695       .mpolys = mpolys,
1696       .edge_to_loops = edge_to_loops,
1697       .loop_to_poly = loop_to_poly,
1698       .polynors = polynors,
1699       .numEdges = numEdges,
1700       .numLoops = numLoops,
1701       .numPolys = numPolys,
1702   };
1703
1704   /* This first loop check which edges are actually smooth, and compute edge vectors. */
1705   mesh_edges_sharp_tag(&common_data, check_angle, split_angle, false);
1706
1707   if (numLoops < LOOP_SPLIT_TASK_BLOCK_SIZE * 8) {
1708     /* Not enough loops to be worth the whole threading overhead... */
1709     loop_split_generator(NULL, &common_data);
1710   }
1711   else {
1712     TaskScheduler *task_scheduler;
1713     TaskPool *task_pool;
1714
1715     task_scheduler = BLI_task_scheduler_get();
1716     task_pool = BLI_task_pool_create(task_scheduler, &common_data);
1717
1718     loop_split_generator(task_pool, &common_data);
1719
1720     BLI_task_pool_work_and_wait(task_pool);
1721
1722     BLI_task_pool_free(task_pool);
1723   }
1724
1725   MEM_freeN(edge_to_loops);
1726   if (!r_loop_to_poly) {
1727     MEM_freeN(loop_to_poly);
1728   }
1729
1730   if (r_lnors_spacearr) {
1731     if (r_lnors_spacearr == &_lnors_spacearr) {
1732       BKE_lnor_spacearr_free(r_lnors_spacearr);
1733     }
1734   }
1735
1736 #ifdef DEBUG_TIME
1737   TIMEIT_END_AVERAGED(BKE_mesh_normals_loop_split);
1738 #endif
1739 }
1740
1741 #undef INDEX_UNSET
1742 #undef INDEX_INVALID
1743 #undef IS_EDGE_SHARP
1744
1745 /**
1746  * Compute internal representation of given custom normals (as an array of float[2]).
1747  * It also makes sure the mesh matches those custom normals, by setting sharp edges flag as needed to get a
1748  * same custom lnor for all loops sharing a same smooth fan.
1749  * If use_vertices if true, r_custom_loopnors is assumed to be per-vertex, not per-loop
1750  * (this allows to set whole vert's normals at once, useful in some cases).
1751  * r_custom_loopnors is expected to have normalized normals, or zero ones, in which case they will be replaced
1752  * by default loop/vertex normal.
1753  */
1754 static void mesh_normals_loop_custom_set(const MVert *mverts,
1755                                          const int numVerts,
1756                                          MEdge *medges,
1757                                          const int numEdges,
1758                                          MLoop *mloops,
1759                                          float (*r_custom_loopnors)[3],
1760                                          const int numLoops,
1761                                          MPoly *mpolys,
1762                                          const float (*polynors)[3],
1763                                          const int numPolys,
1764                                          short (*r_clnors_data)[2],
1765                                          const bool use_vertices)
1766 {
1767   /* We *may* make that poor BKE_mesh_normals_loop_split() even more complex by making it handling that
1768    * feature too, would probably be more efficient in absolute.
1769    * However, this function *is not* performance-critical, since it is mostly expected to be called
1770    * by io addons when importing custom normals, and modifier (and perhaps from some editing tools later?).
1771    * So better to keep some simplicity here, and just call BKE_mesh_normals_loop_split() twice!
1772    */
1773   MLoopNorSpaceArray lnors_spacearr = {NULL};
1774   BLI_bitmap *done_loops = BLI_BITMAP_NEW((size_t)numLoops, __func__);
1775   float(*lnors)[3] = MEM_calloc_arrayN((size_t)numLoops, sizeof(*lnors), __func__);
1776   int *loop_to_poly = MEM_malloc_arrayN((size_t)numLoops, sizeof(int), __func__);
1777   /* In this case we always consider split nors as ON, and do not want to use angle to define smooth fans! */
1778   const bool use_split_normals = true;
1779   const float split_angle = (float)M_PI;
1780   int i;
1781
1782   BLI_SMALLSTACK_DECLARE(clnors_data, short *);
1783
1784   /* Compute current lnor spacearr. */
1785   BKE_mesh_normals_loop_split(mverts,
1786                               numVerts,
1787                               medges,
1788                               numEdges,
1789                               mloops,
1790                               lnors,
1791                               numLoops,
1792                               mpolys,
1793                               polynors,
1794                               numPolys,
1795                               use_split_normals,
1796                               split_angle,
1797                               &lnors_spacearr,
1798                               NULL,
1799                               loop_to_poly);
1800
1801   /* Set all given zero vectors to their default value. */
1802   if (use_vertices) {
1803     for (i = 0; i < numVerts; i++) {
1804       if (is_zero_v3(r_custom_loopnors[i])) {
1805         normal_short_to_float_v3(r_custom_loopnors[i], mverts[i].no);
1806       }
1807     }
1808   }
1809   else {
1810     for (i = 0; i < numLoops; i++) {
1811       if (is_zero_v3(r_custom_loopnors[i])) {
1812         copy_v3_v3(r_custom_loopnors[i], lnors[i]);
1813       }
1814     }
1815   }
1816
1817   BLI_assert(lnors_spacearr.data_type == MLNOR_SPACEARR_LOOP_INDEX);
1818
1819   /* Now, check each current smooth fan (one lnor space per smooth fan!), and if all its matching custom lnors
1820    * are not (enough) equal, add sharp edges as needed.
1821    * This way, next time we run BKE_mesh_normals_loop_split(), we'll get lnor spacearr/smooth fans matching
1822    * given custom lnors.
1823    * Note this code *will never* unsharp edges!
1824    * And quite obviously, when we set custom normals per vertices, running this is absolutely useless.
1825    */
1826   if (!use_vertices) {
1827     for (i = 0; i < numLoops; i++) {
1828       if (!lnors_spacearr.lspacearr[i]) {
1829         /* This should not happen in theory, but in some rare case (probably ugly geometry)
1830          * we can get some NULL loopspacearr at this point. :/
1831          * Maybe we should set those loops' edges as sharp?
1832          */
1833         BLI_BITMAP_ENABLE(done_loops, i);
1834         if (G.debug & G_DEBUG) {
1835           printf("WARNING! Getting invalid NULL loop space for loop %d!\n", i);
1836         }
1837         continue;
1838       }
1839
1840       if (!BLI_BITMAP_TEST(done_loops, i)) {
1841         /* Notes:
1842          *     * In case of mono-loop smooth fan, we have nothing to do.
1843          *     * Loops in this linklist are ordered (in reversed order compared to how they were discovered by
1844          *       BKE_mesh_normals_loop_split(), but this is not a problem). Which means if we find a
1845          *       mismatching clnor, we know all remaining loops will have to be in a new, different smooth fan/
1846          *       lnor space.
1847          *     * In smooth fan case, we compare each clnor against a ref one, to avoid small differences adding
1848          *       up into a real big one in the end!
1849          */
1850         if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1851           BLI_BITMAP_ENABLE(done_loops, i);
1852           continue;
1853         }
1854
1855         LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1856         MLoop *prev_ml = NULL;
1857         const float *org_nor = NULL;
1858
1859         while (loops) {
1860           const int lidx = POINTER_AS_INT(loops->link);
1861           MLoop *ml = &mloops[lidx];
1862           const int nidx = lidx;
1863           float *nor = r_custom_loopnors[nidx];
1864
1865           if (!org_nor) {
1866             org_nor = nor;
1867           }
1868           else if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1869             /* Current normal differs too much from org one, we have to tag the edge between
1870              * previous loop's face and current's one as sharp.
1871              * We know those two loops do not point to the same edge, since we do not allow reversed winding
1872              * in a same smooth fan.
1873              */
1874             const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1875             const MLoop *mlp =
1876                 &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1877             medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1878
1879             org_nor = nor;
1880           }
1881
1882           prev_ml = ml;
1883           loops = loops->next;
1884           BLI_BITMAP_ENABLE(done_loops, lidx);
1885         }
1886
1887         /* We also have to check between last and first loops, otherwise we may miss some sharp edges here!
1888          * This is just a simplified version of above while loop.
1889          * See T45984. */
1890         loops = lnors_spacearr.lspacearr[i]->loops;
1891         if (loops && org_nor) {
1892           const int lidx = POINTER_AS_INT(loops->link);
1893           MLoop *ml = &mloops[lidx];
1894           const int nidx = lidx;
1895           float *nor = r_custom_loopnors[nidx];
1896
1897           if (dot_v3v3(org_nor, nor) < LNOR_SPACE_TRIGO_THRESHOLD) {
1898             const MPoly *mp = &mpolys[loop_to_poly[lidx]];
1899             const MLoop *mlp =
1900                 &mloops[(lidx == mp->loopstart) ? mp->loopstart + mp->totloop - 1 : lidx - 1];
1901             medges[(prev_ml->e == mlp->e) ? prev_ml->e : ml->e].flag |= ME_SHARP;
1902           }
1903         }
1904       }
1905     }
1906
1907     /* And now, recompute our new auto lnors and lnor spacearr! */
1908     BKE_lnor_spacearr_clear(&lnors_spacearr);
1909     BKE_mesh_normals_loop_split(mverts,
1910                                 numVerts,
1911                                 medges,
1912                                 numEdges,
1913                                 mloops,
1914                                 lnors,
1915                                 numLoops,
1916                                 mpolys,
1917                                 polynors,
1918                                 numPolys,
1919                                 use_split_normals,
1920                                 split_angle,
1921                                 &lnors_spacearr,
1922                                 NULL,
1923                                 loop_to_poly);
1924   }
1925   else {
1926     BLI_bitmap_set_all(done_loops, true, (size_t)numLoops);
1927   }
1928
1929   /* And we just have to convert plain object-space custom normals to our lnor space-encoded ones. */
1930   for (i = 0; i < numLoops; i++) {
1931     if (!lnors_spacearr.lspacearr[i]) {
1932       BLI_BITMAP_DISABLE(done_loops, i);
1933       if (G.debug & G_DEBUG) {
1934         printf("WARNING! Still getting invalid NULL loop space in second loop for loop %d!\n", i);
1935       }
1936       continue;
1937     }
1938
1939     if (BLI_BITMAP_TEST_BOOL(done_loops, i)) {
1940       /* Note we accumulate and average all custom normals in current smooth fan, to avoid getting different
1941        * clnors data (tiny differences in plain custom normals can give rather huge differences in
1942        * computed 2D factors).
1943        */
1944       LinkNode *loops = lnors_spacearr.lspacearr[i]->loops;
1945       if (lnors_spacearr.lspacearr[i]->flags & MLNOR_SPACE_IS_SINGLE) {
1946         BLI_assert(POINTER_AS_INT(loops) == i);
1947         const int nidx = use_vertices ? (int)mloops[i].v : i;
1948         float *nor = r_custom_loopnors[nidx];
1949
1950         BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], nor, r_clnors_data[i]);
1951         BLI_BITMAP_DISABLE(done_loops, i);
1952       }
1953       else {
1954         int nbr_nors = 0;
1955         float avg_nor[3];
1956         short clnor_data_tmp[2], *clnor_data;
1957
1958         zero_v3(avg_nor);
1959         while (loops) {
1960           const int lidx = POINTER_AS_INT(loops->link);
1961           const int nidx = use_vertices ? (int)mloops[lidx].v : lidx;
1962           float *nor = r_custom_loopnors[nidx];
1963
1964           nbr_nors++;
1965           add_v3_v3(avg_nor, nor);
1966           BLI_SMALLSTACK_PUSH(clnors_data, (short *)r_clnors_data[lidx]);
1967
1968           loops = loops->next;
1969           BLI_BITMAP_DISABLE(done_loops, lidx);
1970         }
1971
1972         mul_v3_fl(avg_nor, 1.0f / (float)nbr_nors);
1973         BKE_lnor_space_custom_normal_to_data(lnors_spacearr.lspacearr[i], avg_nor, clnor_data_tmp);
1974
1975         while ((clnor_data = BLI_SMALLSTACK_POP(clnors_data))) {
1976           clnor_data[0] = clnor_data_tmp[0];
1977           clnor_data[1] = clnor_data_tmp[1];
1978         }
1979       }
1980     }
1981   }
1982
1983   MEM_freeN(lnors);
1984   MEM_freeN(loop_to_poly);
1985   MEM_freeN(done_loops);
1986   BKE_lnor_spacearr_free(&lnors_spacearr);
1987 }
1988
1989 void BKE_mesh_normals_loop_custom_set(const MVert *mverts,
1990                                       const int numVerts,
1991                                       MEdge *medges,
1992                                       const int numEdges,
1993                                       MLoop *mloops,
1994                                       float (*r_custom_loopnors)[3],
1995                                       const int numLoops,
1996                                       MPoly *mpolys,
1997                                       const float (*polynors)[3],
1998                                       const int numPolys,
1999                                       short (*r_clnors_data)[2])
2000 {
2001   mesh_normals_loop_custom_set(mverts,
2002                                numVerts,
2003                                medges,
2004                                numEdges,
2005                                mloops,
2006                                r_custom_loopnors,
2007                                numLoops,
2008                                mpolys,
2009                                polynors,
2010                                numPolys,
2011                                r_clnors_data,
2012                                false);
2013 }
2014
2015 void BKE_mesh_normals_loop_custom_from_vertices_set(const MVert *mverts,
2016                                                     float (*r_custom_vertnors)[3],
2017                                                     const int numVerts,
2018                                                     MEdge *medges,
2019                                                     const int numEdges,
2020                                                     MLoop *mloops,
2021                                                     const int numLoops,
2022                                                     MPoly *mpolys,
2023                                                     const float (*polynors)[3],
2024                                                     const int numPolys,
2025                                                     short (*r_clnors_data)[2])
2026 {
2027   mesh_normals_loop_custom_set(mverts,
2028                                numVerts,
2029                                medges,
2030                                numEdges,
2031                                mloops,
2032                                r_custom_vertnors,
2033                                numLoops,
2034                                mpolys,
2035                                polynors,
2036                                numPolys,
2037                                r_clnors_data,
2038                                true);
2039 }
2040
2041 static void mesh_set_custom_normals(Mesh *mesh, float (*r_custom_nors)[3], const bool use_vertices)
2042 {
2043   short(*clnors)[2];
2044   const int numloops = mesh->totloop;
2045
2046   clnors = CustomData_get_layer(&mesh->ldata, CD_CUSTOMLOOPNORMAL);
2047   if (clnors != NULL) {
2048     memset(clnors, 0, sizeof(*clnors) * (size_t)numloops);
2049   }
2050   else {
2051     clnors = CustomData_add_layer(&mesh->ldata, CD_CUSTOMLOOPNORMAL, CD_CALLOC, NULL, numloops);
2052   }
2053
2054   float(*polynors)[3] = CustomData_get_layer(&mesh->pdata, CD_NORMAL);
2055   bool free_polynors = false;
2056   if (polynors == NULL) {
2057     polynors = MEM_mallocN(sizeof(float[3]) * (size_t)mesh->totpoly, __func__);
2058     BKE_mesh_calc_normals_poly(mesh->mvert,
2059                                NULL,
2060                                mesh->totvert,
2061                                mesh->mloop,
2062                                mesh->mpoly,
2063                                mesh->totloop,
2064                                mesh->totpoly,
2065                                polynors,
2066                                false);
2067     free_polynors = true;
2068   }
2069
2070   mesh_normals_loop_custom_set(mesh->mvert,
2071                                mesh->totvert,
2072                                mesh->medge,
2073                                mesh->totedge,
2074                                mesh->mloop,
2075                                r_custom_nors,
2076                                mesh->totloop,
2077                                mesh->mpoly,
2078                                polynors,
2079                                mesh->totpoly,
2080                                clnors,
2081                                use_vertices);
2082
2083   if (free_polynors) {
2084     MEM_freeN(polynors);
2085   }
2086 }
2087
2088 /**
2089  * Higher level functions hiding most of the code needed around call to #BKE_mesh_normals_loop_custom_set().
2090  *
2091  * \param r_custom_loopnors is not const, since code will replace zero_v3 normals there
2092  *                          with automatically computed vectors.
2093  */
2094 void BKE_mesh_set_custom_normals(Mesh *mesh, float (*r_custom_loopnors)[3])
2095 {
2096   mesh_set_custom_normals(mesh, r_custom_loopnors, false);
2097 }
2098
2099 /**
2100  * Higher level functions hiding most of the code needed around call to #BKE_mesh_normals_loop_custom_from_vertices_set().
2101  *
2102  * \param r_custom_loopnors is not const, since code will replace zero_v3 normals there
2103  *                          with automatically computed vectors.
2104  */
2105 void BKE_mesh_set_custom_normals_from_vertices(Mesh *mesh, float (*r_custom_vertnors)[3])
2106 {
2107   mesh_set_custom_normals(mesh, r_custom_vertnors, true);
2108 }
2109
2110 /**
2111  * Computes average per-vertex normals from given custom loop normals.
2112  *
2113  * \param clnors: The computed custom loop normals.
2114  * \param r_vert_clnors: The (already allocated) array where to store averaged per-vertex normals.
2115  */
2116 void BKE_mesh_normals_loop_to_vertex(const int numVerts,
2117                                      const MLoop *mloops,
2118                                      const int numLoops,
2119                                      const float (*clnors)[3],
2120                                      float (*r_vert_clnors)[3])
2121 {
2122   const MLoop *ml;
2123   int i;
2124
2125   int *vert_loops_nbr = MEM_calloc_arrayN((size_t)numVerts, sizeof(*vert_loops_nbr), __func__);
2126
2127   copy_vn_fl((float *)r_vert_clnors, 3 * numVerts, 0.0f);
2128
2129   for (i = 0, ml = mloops; i < numLoops; i++, ml++) {
2130     const unsigned int v = ml->v;
2131
2132     add_v3_v3(r_vert_clnors[v], clnors[i]);
2133     vert_loops_nbr[v]++;
2134   }
2135
2136   for (i = 0; i < numVerts; i++) {
2137     mul_v3_fl(r_vert_clnors[i], 1.0f / (float)vert_loops_nbr[i]);
2138   }
2139
2140   MEM_freeN(vert_loops_nbr);
2141 }
2142
2143 #undef LNOR_SPACE_TRIGO_THRESHOLD
2144
2145 /** \} */
2146
2147 /* -------------------------------------------------------------------- */
2148 /** \name Polygon Calculations
2149  * \{ */
2150
2151 /*
2152  * COMPUTE POLY NORMAL
2153  *
2154  * Computes the normal of a planar
2155  * polygon See Graphics Gems for
2156  * computing newell normal.
2157  */
2158 static void mesh_calc_ngon_normal(const MPoly *mpoly,
2159                                   const MLoop *loopstart,
2160                                   const MVert *mvert,
2161                                   float normal[3])
2162 {
2163   const int nverts = mpoly->totloop;
2164   const float *v_prev = mvert[loopstart[nverts - 1].v].co;
2165   const float *v_curr;
2166   int i;
2167
2168   zero_v3(normal);
2169
2170   /* Newell's Method */
2171   for (i = 0; i < nverts; i++) {
2172     v_curr = mvert[loopstart[i].v].co;
2173     add_newell_cross_v3_v3v3(normal, v_prev, v_curr);
2174     v_prev = v_curr;
2175   }
2176
2177   if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
2178     normal[2] = 1.0f; /* other axis set to 0.0 */
2179   }
2180 }
2181
2182 void BKE_mesh_calc_poly_normal(const MPoly *mpoly,
2183                                const MLoop *loopstart,
2184                                const MVert *mvarray,
2185                                float r_no[3])
2186 {
2187   if (mpoly->totloop > 4) {
2188     mesh_calc_ngon_normal(mpoly, loopstart, mvarray, r_no);
2189   }
2190   else if (mpoly->totloop == 3) {
2191     normal_tri_v3(
2192         r_no, mvarray[loopstart[0].v].co, mvarray[loopstart[1].v].co, mvarray[loopstart[2].v].co);
2193   }
2194   else if (mpoly->totloop == 4) {
2195     normal_quad_v3(r_no,
2196                    mvarray[loopstart[0].v].co,
2197                    mvarray[loopstart[1].v].co,
2198                    mvarray[loopstart[2].v].co,
2199                    mvarray[loopstart[3].v].co);
2200   }
2201   else { /* horrible, two sided face! */
2202     r_no[0] = 0.0;
2203     r_no[1] = 0.0;
2204     r_no[2] = 1.0;
2205   }
2206 }
2207 /* duplicate of function above _but_ takes coords rather then mverts */
2208 static void mesh_calc_ngon_normal_coords(const MPoly *mpoly,
2209                                          const MLoop *loopstart,
2210                                          const float (*vertex_coords)[3],
2211                                          float r_normal[3])
2212 {
2213   const int nverts = mpoly->totloop;
2214   const float *v_prev = vertex_coords[loopstart[nverts - 1].v];
2215   const float *v_curr;
2216   int i;
2217
2218   zero_v3(r_normal);
2219
2220   /* Newell's Method */
2221   for (i = 0; i < nverts; i++) {
2222     v_curr = vertex_coords[loopstart[i].v];
2223     add_newell_cross_v3_v3v3(r_normal, v_prev, v_curr);
2224     v_prev = v_curr;
2225   }
2226
2227   if (UNLIKELY(normalize_v3(r_normal) == 0.0f)) {
2228     r_normal[2] = 1.0f; /* other axis set to 0.0 */
2229   }
2230 }
2231
2232 void BKE_mesh_calc_poly_normal_coords(const MPoly *mpoly,
2233                                       const MLoop *loopstart,
2234                                       const float (*vertex_coords)[3],
2235                                       float r_no[3])
2236 {
2237   if (mpoly->totloop > 4) {
2238     mesh_calc_ngon_normal_coords(mpoly, loopstart, vertex_coords, r_no);
2239   }
2240   else if (mpoly->totloop == 3) {
2241     normal_tri_v3(r_no,
2242                   vertex_coords[loopstart[0].v],
2243                   vertex_coords[loopstart[1].v],
2244                   vertex_coords[loopstart[2].v]);
2245   }
2246   else if (mpoly->totloop == 4) {
2247     normal_quad_v3(r_no,
2248                    vertex_coords[loopstart[0].v],
2249                    vertex_coords[loopstart[1].v],
2250                    vertex_coords[loopstart[2].v],
2251                    vertex_coords[loopstart[3].v]);
2252   }
2253   else { /* horrible, two sided face! */
2254     r_no[0] = 0.0;
2255     r_no[1] = 0.0;
2256     r_no[2] = 1.0;
2257   }
2258 }
2259
2260 static void mesh_calc_ngon_center(const MPoly *mpoly,
2261                                   const MLoop *loopstart,
2262                                   const MVert *mvert,
2263                                   float cent[3])
2264 {
2265   const float w = 1.0f / (float)mpoly->totloop;
2266   int i;
2267
2268   zero_v3(cent);
2269
2270   for (i = 0; i < mpoly->totloop; i++) {
2271     madd_v3_v3fl(cent, mvert[(loopstart++)->v].co, w);
2272   }
2273 }
2274
2275 void BKE_mesh_calc_poly_center(const MPoly *mpoly,
2276                                const MLoop *loopstart,
2277                                const MVert *mvarray,
2278                                float r_cent[3])
2279 {
2280   if (mpoly->totloop == 3) {
2281     mid_v3_v3v3v3(r_cent,
2282                   mvarray[loopstart[0].v].co,
2283                   mvarray[loopstart[1].v].co,
2284                   mvarray[loopstart[2].v].co);
2285   }
2286   else if (mpoly->totloop == 4) {
2287     mid_v3_v3v3v3v3(r_cent,
2288                     mvarray[loopstart[0].v].co,
2289                     mvarray[loopstart[1].v].co,
2290                     mvarray[loopstart[2].v].co,
2291                     mvarray[loopstart[3].v].co);
2292   }
2293   else {
2294     mesh_calc_ngon_center(mpoly, loopstart, mvarray, r_cent);
2295   }
2296 }
2297
2298 /* note, passing polynormal is only a speedup so we can skip calculating it */
2299 float BKE_mesh_calc_poly_area(const MPoly *mpoly, const MLoop *loopstart, const MVert *mvarray)
2300 {
2301   if (mpoly->totloop == 3) {
2302     return area_tri_v3(
2303         mvarray[loopstart[0].v].co, mvarray[loopstart[1].v].co, mvarray[loopstart[2].v].co);
2304   }
2305   else {
2306     int i;
2307     const MLoop *l_iter = loopstart;
2308     float area;
2309     float(*vertexcos)[3] = BLI_array_alloca(vertexcos, (size_t)mpoly->totloop);
2310
2311     /* pack vertex cos into an array for area_poly_v3 */
2312     for (i = 0; i < mpoly->totloop; i++, l_iter++) {
2313       copy_v3_v3(vertexcos[i], mvarray[l_iter->v].co);
2314     }
2315
2316     /* finally calculate the area */
2317     area = area_poly_v3((const float(*)[3])vertexcos, (unsigned int)mpoly->totloop);
2318
2319     return area;
2320   }
2321 }
2322
2323 /**
2324  * Calculate the volume and volume-weighted centroid of the volume formed by the polygon and the origin.
2325  * Results will be negative if the origin is "outside" the polygon
2326  * (+ve normal side), but the polygon may be non-planar with no effect.
2327  *
2328  * Method from:
2329  * - http://forums.cgsociety.org/archive/index.php?t-756235.html
2330  * - http://www.globalspec.com/reference/52702/203279/4-8-the-centroid-of-a-tetrahedron
2331  *
2332  * \note
2333  * - Volume is 6x actual volume, and centroid is 4x actual volume-weighted centroid
2334  *   (so division can be done once at the end).
2335  * - Results will have bias if polygon is non-planar.
2336  * - The resulting volume will only be correct if the mesh is manifold and has consistent face winding
2337  *   (non-contiguous face normals or holes in the mesh surface).
2338  */
2339 static float mesh_calc_poly_volume_centroid(const MPoly *mpoly,
2340                                             const MLoop *loopstart,
2341                                             const MVert *mvarray,
2342                                             float r_cent[3])
2343 {
2344   const float *v_pivot, *v_step1;
2345   float total_volume = 0.0f;
2346
2347   zero_v3(r_cent);
2348
2349   v_pivot = mvarray[loopstart[0].v].co;
2350   v_step1 = mvarray[loopstart[1].v].co;
2351
2352   for (int i = 2; i < mpoly->totloop; i++) {
2353     const float *v_step2 = mvarray[loopstart[i].v].co;
2354
2355     /* Calculate the 6x volume of the tetrahedron formed by the 3 vertices
2356      * of the triangle and the origin as the fourth vertex */
2357     float v_cross[3];
2358     cross_v3_v3v3(v_cross, v_pivot, v_step1);
2359     const float tetra_volume = dot_v3v3(v_cross, v_step2);
2360     total_volume += tetra_volume;
2361
2362     /* Calculate the centroid of the tetrahedron formed by the 3 vertices
2363      * of the triangle and the origin as the fourth vertex.
2364      * The centroid is simply the average of the 4 vertices.
2365      *
2366      * Note that the vector is 4x the actual centroid so the division can be done once at the end. */
2367     for (uint j = 0; j < 3; j++) {
2368       r_cent[j] += tetra_volume * (v_pivot[j] + v_step1[j] + v_step2[j]);
2369     }
2370
2371     v_step1 = v_step2;
2372   }
2373
2374   return total_volume;
2375 }
2376
2377 /**
2378  * \note
2379  * - Results won't be correct if polygon is non-planar.
2380  * - This has the advantage over #mesh_calc_poly_volume_centroid
2381  *   that it doesn't depend on solid geometry, instead it weights the surface by volume.
2382  */
2383 static float mesh_calc_poly_area_centroid(const MPoly *mpoly,
2384                                           const MLoop *loopstart,
2385                                           const MVert *mvarray,
2386                                           float r_cent[3])
2387 {
2388   int i;
2389   float tri_area;
2390   float total_area = 0.0f;
2391   float v1[3], v2[3], v3[3], normal[3], tri_cent[3];
2392
2393   BKE_mesh_calc_poly_normal(mpoly, loopstart, mvarray, normal);
2394   copy_v3_v3(v1, mvarray[loopstart[0].v].co);
2395   copy_v3_v3(v2, mvarray[loopstart[1].v].co);
2396   zero_v3(r_cent);
2397
2398   for (i = 2; i < mpoly->totloop; i++) {
2399     copy_v3_v3(v3, mvarray[loopstart[i].v].co);
2400
2401     tri_area = area_tri_signed_v3(v1, v2, v3, normal);
2402     total_area += tri_area;
2403
2404     mid_v3_v3v3v3(tri_cent, v1, v2, v3);
2405     madd_v3_v3fl(r_cent, tri_cent, tri_area);
2406
2407     copy_v3_v3(v2, v3);
2408   }
2409
2410   mul_v3_fl(r_cent, 1.0f / total_area);
2411
2412   return total_area;
2413 }
2414
2415 void BKE_mesh_calc_poly_angles(const MPoly *mpoly,
2416                                const MLoop *loopstart,
2417                                const MVert *mvarray,
2418                                float angles[])
2419 {
2420   float nor_prev[3];
2421   float nor_next[3];
2422
2423   int i_this = mpoly->totloop - 1;
2424   int i_next = 0;
2425
2426   sub_v3_v3v3(nor_prev, mvarray[loopstart[i_this - 1].v].co, mvarray[loopstart[i_this].v].co);
2427   normalize_v3(nor_prev);
2428
2429   while (i_next < mpoly->totloop) {
2430     sub_v3_v3v3(nor_next, mvarray[loopstart[i_this].v].co, mvarray[loopstart[i_next].v].co);
2431     normalize_v3(nor_next);
2432     angles[i_this] = angle_normalized_v3v3(nor_prev, nor_next);
2433
2434     /* step */
2435     copy_v3_v3(nor_prev, nor_next);
2436     i_this = i_next;
2437     i_next++;
2438   }
2439 }
2440
2441 void BKE_mesh_poly_edgehash_insert(EdgeHash *ehash, const MPoly *mp, const MLoop *mloop)
2442 {
2443   const MLoop *ml, *ml_next;
2444   int i = mp->totloop;
2445
2446   ml_next = mloop;      /* first loop */
2447   ml = &ml_next[i - 1]; /* last loop */
2448
2449   while (i-- != 0) {
2450     BLI_edgehash_reinsert(ehash, ml->v, ml_next->v, NULL);
2451
2452     ml = ml_next;
2453     ml_next++;
2454   }
2455 }
2456
2457 void BKE_mesh_poly_edgebitmap_insert(unsigned int *edge_bitmap,
2458                                      const MPoly *mp,
2459                                      const MLoop *mloop)
2460 {
2461   const MLoop *ml;
2462   int i = mp->totloop;
2463
2464   ml = mloop;
2465
2466   while (i-- != 0) {
2467     BLI_BITMAP_ENABLE(edge_bitmap, ml->e);
2468     ml++;
2469   }
2470 }
2471
2472 /** \} */
2473
2474 /* -------------------------------------------------------------------- */
2475 /** \name Mesh Center Calculation
2476  * \{ */
2477
2478 bool BKE_mesh_center_median(const Mesh *me, float r_cent[3])
2479 {
2480   int i = me->totvert;
2481   const MVert *mvert;
2482   zero_v3(r_cent);
2483   for (mvert = me->mvert; i--; mvert++) {
2484     add_v3_v3(r_cent, mvert->co);
2485   }
2486   /* otherwise we get NAN for 0 verts */
2487   if (me->totvert) {
2488     mul_v3_fl(r_cent, 1.0f / (float)me->totvert);
2489   }
2490
2491   return (me->totvert != 0);
2492 }
2493
2494 bool BKE_mesh_center_bounds(const Mesh *me, float r_cent[3])
2495 {
2496   float min[3], max[3];
2497   INIT_MINMAX(min, max);
2498   if (BKE_mesh_minmax(me, min, max)) {
2499     mid_v3_v3v3(r_cent, min, max);
2500     return true;
2501   }
2502
2503   return false;
2504 }
2505
2506 bool BKE_mesh_center_of_surface(const Mesh *me, float r_cent[3])
2507 {
2508   int i = me->totpoly;
2509   MPoly *mpoly;
2510   float poly_area;
2511   float total_area = 0.0f;
2512   float poly_cent[3];
2513
2514   zero_v3(r_cent);
2515
2516   /* calculate a weighted average of polygon centroids */
2517   for (mpoly = me->mpoly; i--; mpoly++) {
2518     poly_area = mesh_calc_poly_area_centroid(
2519         mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2520
2521     madd_v3_v3fl(r_cent, poly_cent, poly_area);
2522     total_area += poly_area;
2523   }
2524   /* otherwise we get NAN for 0 polys */
2525   if (me->totpoly) {
2526     mul_v3_fl(r_cent, 1.0f / total_area);
2527   }
2528
2529   /* zero area faces cause this, fallback to median */
2530   if (UNLIKELY(!is_finite_v3(r_cent))) {
2531     return BKE_mesh_center_median(me, r_cent);
2532   }
2533
2534   return (me->totpoly != 0);
2535 }
2536
2537 /**
2538  * \note Mesh must be manifold with consistent face-winding, see #mesh_calc_poly_volume_centroid for details.
2539  */
2540 bool BKE_mesh_center_of_volume(const Mesh *me, float r_cent[3])
2541 {
2542   int i = me->totpoly;
2543   MPoly *mpoly;
2544   float poly_volume;
2545   float total_volume = 0.0f;
2546   float poly_cent[3];
2547
2548   zero_v3(r_cent);
2549
2550   /* calculate a weighted average of polyhedron centroids */
2551   for (mpoly = me->mpoly; i--; mpoly++) {
2552     poly_volume = mesh_calc_poly_volume_centroid(
2553         mpoly, me->mloop + mpoly->loopstart, me->mvert, poly_cent);
2554
2555     /* poly_cent is already volume-weighted, so no need to multiply by the volume */
2556     add_v3_v3(r_cent, poly_cent);
2557     total_volume += poly_volume;
2558   }
2559   /* otherwise we get NAN for 0 polys */
2560   if (total_volume != 0.0f) {
2561     /* multiply by 0.25 to get the correct centroid */
2562     /* no need to divide volume by 6 as the centroid is weighted by 6x the volume, so it all cancels out */
2563     mul_v3_fl(r_cent, 0.25f / total_volume);
2564   }
2565
2566   /* this can happen for non-manifold objects, fallback to median */
2567   if (UNLIKELY(!is_finite_v3(r_cent))) {
2568     return BKE_mesh_center_median(me, r_cent);
2569   }
2570
2571   return (me->totpoly != 0);
2572 }
2573
2574 /** \} */
2575
2576 /* -------------------------------------------------------------------- */
2577 /** \name Mesh Volume Calculation
2578  * \{ */
2579
2580 static bool mesh_calc_center_centroid_ex(const MVert *mverts,
2581                                          int UNUSED(mverts_num),
2582                                          const MLoopTri *looptri,
2583                                          int looptri_num,
2584                                          const MLoop *mloop,
2585                                          float r_center[3])
2586 {
2587   const MLoopTri *lt;
2588   float totweight;
2589   int i;
2590
2591   zero_v3(r_center);
2592
2593   if (looptri_num == 0)
2594     return false;
2595
2596   totweight = 0.0f;
2597   for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2598     const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2599     const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2600     const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2601     float area;
2602
2603     area = area_tri_v3(v1->co, v2->co, v3->co);
2604     madd_v3_v3fl(r_center, v1->co, area);
2605     madd_v3_v3fl(r_center, v2->co, area);
2606     madd_v3_v3fl(r_center, v3->co, area);
2607     totweight += area;
2608   }
2609   if (totweight == 0.0f)
2610     return false;
2611
2612   mul_v3_fl(r_center, 1.0f / (3.0f * totweight));
2613
2614   return true;
2615 }
2616
2617 /**
2618  * Calculate the volume and center.
2619  *
2620  * \param r_volume: Volume (unsigned).
2621  * \param r_center: Center of mass.
2622  */
2623 void BKE_mesh_calc_volume(const MVert *mverts,
2624                           const int mverts_num,
2625                           const MLoopTri *looptri,
2626                           const int looptri_num,
2627                           const MLoop *mloop,
2628                           float *r_volume,
2629                           float r_center[3])
2630 {
2631   const MLoopTri *lt;
2632   float center[3];
2633   float totvol;
2634   int i;
2635
2636   if (r_volume)
2637     *r_volume = 0.0f;
2638   if (r_center)
2639     zero_v3(r_center);
2640
2641   if (looptri_num == 0)
2642     return;
2643
2644   if (!mesh_calc_center_centroid_ex(mverts, mverts_num, looptri, looptri_num, mloop, center))
2645     return;
2646
2647   totvol = 0.0f;
2648
2649   for (i = 0, lt = looptri; i < looptri_num; i++, lt++) {
2650     const MVert *v1 = &mverts[mloop[lt->tri[0]].v];
2651     const MVert *v2 = &mverts[mloop[lt->tri[1]].v];
2652     const MVert *v3 = &mverts[mloop[lt->tri[2]].v];
2653     float vol;
2654
2655     vol = volume_tetrahedron_signed_v3(center, v1->co, v2->co, v3->co);
2656     if (r_volume) {
2657       totvol += vol;
2658     }
2659     if (r_center) {
2660       /* averaging factor 1/3 is applied in the end */
2661       madd_v3_v3fl(r_center, v1->co, vol);
2662       madd_v3_v3fl(r_center, v2->co, vol);
2663       madd_v3_v3fl(r_center, v3->co, vol);
2664     }
2665   }
2666
2667   /* Note: Depending on arbitrary centroid position,
2668    * totvol can become negative even for a valid mesh.
2669    * The true value is always the positive value.
2670    */
2671   if (r_volume) {
2672     *r_volume = fabsf(totvol);
2673   }
2674   if (r_center) {
2675     /* Note: Factor 1/3 is applied once for all vertices here.
2676      * This also automatically negates the vector if totvol is negative.
2677      */
2678     if (totvol != 0.0f)
2679       mul_v3_fl(r_center, (1.0f / 3.0f) / totvol);
2680   }
2681 }
2682
2683 /** \} */
2684
2685 /* -------------------------------------------------------------------- */
2686 /** \name NGon Tessellation (NGon/Tessface Conversion)
2687  * \{ */
2688
2689 /**
2690  * Convert a triangle or quadrangle of loop/poly data to tessface data
2691  */
2692 void BKE_mesh_loops_to_mface_corners(
2693     CustomData *fdata,
2694     CustomData *ldata,
2695     CustomData *UNUSED(pdata),
2696     unsigned int lindex[4],
2697     int findex,
2698     const int UNUSED(polyindex),
2699     const int mf_len, /* 3 or 4 */
2700
2701     /* cache values to avoid lookups every time */
2702     const int numUV,         /* CustomData_number_of_layers(ldata, CD_MLOOPUV) */
2703     const int numCol,        /* CustomData_number_of_layers(ldata, CD_MLOOPCOL) */
2704     const bool hasPCol,      /* CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL) */
2705     const bool hasOrigSpace, /* CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP) */
2706     const bool hasLNor       /* CustomData_has_layer(ldata, CD_NORMAL) */
2707 )
2708 {
2709   MTFace *texface;
2710   MCol *mcol;
2711   MLoopCol *mloopcol;
2712   MLoopUV *mloopuv;
2713   int i, j;
2714
2715   for (i = 0; i < numUV; i++) {
2716     texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
2717
2718     for (j = 0; j < mf_len; j++) {
2719       mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, (int)lindex[j], i);
2720       copy_v2_v2(texface->uv[j], mloopuv->uv);
2721     }
2722   }
2723
2724   for (i = 0; i < numCol; i++) {
2725     mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
2726
2727     for (j = 0; j < mf_len; j++) {
2728       mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, (int)lindex[j], i);
2729       MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2730     }
2731   }
2732
2733   if (hasPCol) {
2734     mcol = CustomData_get(fdata, findex, CD_PREVIEW_MCOL);
2735
2736     for (j = 0; j < mf_len; j++) {
2737       mloopcol = CustomData_get(ldata, (int)lindex[j], CD_PREVIEW_MLOOPCOL);
2738       MESH_MLOOPCOL_TO_MCOL(mloopcol, &mcol[j]);
2739     }
2740   }
2741
2742   if (hasOrigSpace) {
2743     OrigSpaceFace *of = CustomData_get(fdata, findex, CD_ORIGSPACE);
2744     OrigSpaceLoop *lof;
2745
2746     for (j = 0; j < mf_len; j++) {
2747       lof = CustomData_get(ldata, (int)lindex[j], CD_ORIGSPACE_MLOOP);
2748       copy_v2_v2(of->uv[j], lof->uv);
2749     }
2750   }
2751
2752   if (hasLNor) {
2753     short(*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
2754
2755     for (j = 0; j < mf_len; j++) {
2756       normal_float_to_short_v3(tlnors[j], CustomData_get(ldata, (int)lindex[j], CD_NORMAL));
2757     }
2758   }
2759 }
2760
2761 /**
2762  * Convert all CD layers from loop/poly to tessface data.
2763  *
2764  * \param loopindices: is an array of an int[4] per tessface, mapping tessface's verts to loops indices.
2765  *
2766  * \note when mface is not NULL, mface[face_index].v4 is used to test quads, else, loopindices[face_index][3] is used.
2767  */
2768 void BKE_mesh_loops_to_tessdata(CustomData *fdata,
2769                                 CustomData *ldata,
2770                                 MFace *mface,
2771                                 int *polyindices,
2772                                 unsigned int (*loopindices)[4],
2773                                 const int num_faces)
2774 {
2775   /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2776    *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2777    *       this. Better imho to live with it for now. :/ --mont29
2778    */
2779   const int numUV = CustomData_number_of_layers(ldata, CD_MLOOPUV);
2780   const int numCol = CustomData_number_of_layers(ldata, CD_MLOOPCOL);
2781   const bool hasPCol = CustomData_has_layer(ldata, CD_PREVIEW_MLOOPCOL);
2782   const bool hasOrigSpace = CustomData_has_layer(ldata, CD_ORIGSPACE_MLOOP);
2783   const bool hasLoopNormal = CustomData_has_layer(ldata, CD_NORMAL);
2784   const bool hasLoopTangent = CustomData_has_layer(ldata, CD_TANGENT);
2785   int findex, i, j;
2786   const int *pidx;
2787   unsigned int(*lidx)[4];
2788
2789   for (i = 0; i < numUV; i++) {
2790     MTFace *texface = CustomData_get_layer_n(fdata, CD_MTFACE, i);
2791     MLoopUV *mloopuv = CustomData_get_layer_n(ldata, CD_MLOOPUV, i);
2792
2793     for (findex = 0, pidx = polyindices, lidx = loopindices; findex < num_faces;
2794          pidx++, lidx++, findex++, texface++) {
2795       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2796         copy_v2_v2(texface->uv[j], mloopuv[(*lidx)[j]].uv);
2797       }
2798     }
2799   }
2800
2801   for (i = 0; i < numCol; i++) {
2802     MCol(*mcol)[4] = CustomData_get_layer_n(fdata, CD_MCOL, i);
2803     MLoopCol *mloopcol = CustomData_get_layer_n(ldata, CD_MLOOPCOL, i);
2804
2805     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2806       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2807         MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2808       }
2809     }
2810   }
2811
2812   if (hasPCol) {
2813     MCol(*mcol)[4] = CustomData_get_layer(fdata, CD_PREVIEW_MCOL);
2814     MLoopCol *mloopcol = CustomData_get_layer(ldata, CD_PREVIEW_MLOOPCOL);
2815
2816     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, mcol++) {
2817       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2818         MESH_MLOOPCOL_TO_MCOL(&mloopcol[(*lidx)[j]], &(*mcol)[j]);
2819       }
2820     }
2821   }
2822
2823   if (hasOrigSpace) {
2824     OrigSpaceFace *of = CustomData_get_layer(fdata, CD_ORIGSPACE);
2825     OrigSpaceLoop *lof = CustomData_get_layer(ldata, CD_ORIGSPACE_MLOOP);
2826
2827     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, of++) {
2828       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2829         copy_v2_v2(of->uv[j], lof[(*lidx)[j]].uv);
2830       }
2831     }
2832   }
2833
2834   if (hasLoopNormal) {
2835     short(*fnors)[4][3] = CustomData_get_layer(fdata, CD_TESSLOOPNORMAL);
2836     float(*lnors)[3] = CustomData_get_layer(ldata, CD_NORMAL);
2837
2838     for (findex = 0, lidx = loopindices; findex < num_faces; lidx++, findex++, fnors++) {
2839       for (j = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3; j--;) {
2840         normal_float_to_short_v3((*fnors)[j], lnors[(*lidx)[j]]);
2841       }
2842     }
2843   }
2844
2845   if (hasLoopTangent) {
2846     /* need to do for all uv maps at some point */
2847     float(*ftangents)[4] = CustomData_get_layer(fdata, CD_TANGENT);
2848     float(*ltangents)[4] = CustomData_get_layer(ldata, CD_TANGENT);
2849
2850     for (findex = 0, pidx = polyindices, lidx = loopindices; findex < num_faces;
2851          pidx++, lidx++, findex++) {
2852       int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2853       for (j = nverts; j--;) {
2854         copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2855       }
2856     }
2857   }
2858 }
2859
2860 void BKE_mesh_tangent_loops_to_tessdata(CustomData *fdata,
2861                                         CustomData *ldata,
2862                                         MFace *mface,
2863                                         int *polyindices,
2864                                         unsigned int (*loopindices)[4],
2865                                         const int num_faces,
2866                                         const char *layer_name)
2867 {
2868   /* Note: performances are sub-optimal when we get a NULL mface, we could be ~25% quicker with dedicated code...
2869    *       Issue is, unless having two different functions with nearly the same code, there's not much ways to solve
2870    *       this. Better imho to live with it for now. :/ --mont29
2871    */
2872
2873   float(*ftangents)[4] = NULL;
2874   float(*ltangents)[4] = NULL;
2875
2876   int findex, j;
2877   const int *pidx;
2878   unsigned int(*lidx)[4];
2879
2880   if (layer_name)
2881     ltangents = CustomData_get_layer_named(ldata, CD_TANGENT, layer_name);
2882   else
2883     ltangents = CustomData_get_layer(ldata, CD_TANGENT);
2884
2885   if (ltangents) {
2886     /* need to do for all uv maps at some point */
2887     if (layer_name)
2888       ftangents = CustomData_get_layer_named(fdata, CD_TANGENT, layer_name);
2889     else
2890       ftangents = CustomData_get_layer(fdata, CD_TANGENT);
2891     if (ftangents) {
2892       for (findex = 0, pidx = polyindices, lidx = loopindices; findex < num_faces;
2893            pidx++, lidx++, findex++) {
2894         int nverts = (mface ? mface[findex].v4 : (*lidx)[3]) ? 4 : 3;
2895         for (j = nverts; j--;) {
2896           copy_v4_v4(ftangents[findex * 4 + j], ltangents[(*lidx)[j]]);
2897         }
2898       }
2899     }
2900   }
2901 }
2902
2903 /**
2904  * Recreate tessellation.
2905  *
2906  * \param do_face_nor_copy: Controls whether the normals from the poly are copied to the tessellated faces.
2907  *
2908  * \return number of tessellation faces.
2909  */
2910 int BKE_mesh_recalc_tessellation(CustomData *fdata,
2911                                  CustomData *ldata,
2912                                  CustomData *pdata,
2913                                  MVert *mvert,
2914                                  int totface,
2915                                  int totloop,
2916                                  int totpoly,
2917                                  const bool do_face_nor_copy)
2918 {
2919   /* use this to avoid locking pthread for _every_ polygon
2920    * and calling the fill function */
2921
2922 #define USE_TESSFACE_SPEEDUP
2923 #define USE_TESSFACE_QUADS /* NEEDS FURTHER TESTING */
2924
2925 /* We abuse MFace->edcode to tag quad faces. See below for details. */
2926 #define TESSFACE_IS_QUAD 1
2927
2928   const int looptri_num = poly_to_tri_count(totpoly, totloop);
2929
2930   MPoly *mp, *mpoly;
2931   MLoop *ml, *mloop;
2932   MFace *mface, *mf;
2933   MemArena *arena = NULL;
2934   int *mface_to_poly_map;
2935   unsigned int(*lindices)[4];
2936   int poly_index, mface_index;
2937   unsigned int j;
2938
2939   mpoly = CustomData_get_layer(pdata, CD_MPOLY);
2940   mloop = CustomData_get_layer(ldata, CD_MLOOP);
2941
2942   /* allocate the length of totfaces, avoid many small reallocs,
2943    * if all faces are tri's it will be correct, quads == 2x allocs */
2944   /* take care. we are _not_ calloc'ing so be sure to initialize each field */
2945   mface_to_poly_map = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface_to_poly_map), __func__);
2946   mface = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*mface), __func__);
2947   lindices = MEM_malloc_arrayN((size_t)looptri_num, sizeof(*lindices), __func__);
2948
2949   mface_index = 0;
2950   mp = mpoly;
2951   for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
2952     const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
2953     const unsigned int mp_totloop = (unsigned int)mp->totloop;
2954     unsigned int l1, l2, l3, l4;
2955     unsigned int *lidx;
2956     if (mp_totloop < 3) {
2957       /* do nothing */
2958     }
2959
2960 #ifdef USE_TESSFACE_SPEEDUP
2961
2962 #  define ML_TO_MF(i1, i2, i3) \
2963     mface_to_poly_map[mface_index] = poly_index; \
2964     mf = &mface[mface_index]; \
2965     lidx = lindices[mface_index]; \
2966     /* set loop indices, transformed to vert indices later */ \
2967     l1 = mp_loopstart + i1; \
2968     l2 = mp_loopstart + i2; \
2969     l3 = mp_loopstart + i3; \
2970     mf->v1 = mloop[l1].v; \
2971     mf->v2 = mloop[l2].v; \
2972     mf->v3 = mloop[l3].v; \
2973     mf->v4 = 0; \
2974     lidx[0] = l1; \
2975     lidx[1] = l2; \
2976     lidx[2] = l3; \
2977     lidx[3] = 0; \
2978     mf->mat_nr = mp->mat_nr; \
2979     mf->flag = mp->flag; \
2980     mf->edcode = 0; \
2981     (void)0
2982
2983 /* ALMOST IDENTICAL TO DEFINE ABOVE (see EXCEPTION) */
2984 #  define ML_TO_MF_QUAD() \
2985     mface_to_poly_map[mface_index] = poly_index; \
2986     mf = &mface[mface_index]; \
2987     lidx = lindices[mface_index]; \
2988     /* set loop indices, transformed to vert indices later */ \
2989     l1 = mp_loopstart + 0; /* EXCEPTION */ \
2990     l2 = mp_loopstart + 1; /* EXCEPTION */ \
2991     l3 = mp_loopstart + 2; /* EXCEPTION */ \
2992     l4 = mp_loopstart + 3; /* EXCEPTION */ \
2993     mf->v1 = mloop[l1].v; \
2994     mf->v2 = mloop[l2].v; \
2995     mf->v3 = mloop[l3].v; \
2996     mf->v4 = mloop[l4].v; \
2997     lidx[0] = l1; \
2998     lidx[1] = l2; \
2999     lidx[2] = l3; \
3000     lidx[3] = l4; \
3001     mf->mat_nr = mp->mat_nr; \
3002     mf->flag = mp->flag; \
3003     mf->edcode = TESSFACE_IS_QUAD; \
3004     (void)0
3005
3006     else if (mp_totloop == 3) {
3007       ML_TO_MF(0, 1, 2);
3008       mface_index++;
3009     }
3010     else if (mp_totloop == 4) {
3011 #  ifdef USE_TESSFACE_QUADS
3012       ML_TO_MF_QUAD();
3013       mface_index++;
3014 #  else
3015       ML_TO_MF(0, 1, 2);
3016       mface_index++;
3017       ML_TO_MF(0, 2, 3);
3018       mface_index++;
3019 #  endif
3020     }
3021 #endif /* USE_TESSFACE_SPEEDUP */
3022     else {
3023       const float *co_curr, *co_prev;
3024
3025       float normal[3];
3026
3027       float axis_mat[3][3];
3028       float(*projverts)[2];
3029       unsigned int(*tris)[3];
3030
3031       const unsigned int totfilltri = mp_totloop - 2;
3032
3033       if (UNLIKELY(arena == NULL)) {
3034         arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
3035       }
3036
3037       tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
3038       projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
3039
3040       zero_v3(normal);
3041
3042       /* calc normal, flipped: to get a positive 2d cross product */
3043       ml = mloop + mp_loopstart;
3044       co_prev = mvert[ml[mp_totloop - 1].v].co;
3045       for (j = 0; j < mp_totloop; j++, ml++) {
3046         co_curr = mvert[ml->v].co;
3047         add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
3048         co_prev = co_curr;
3049       }
3050       if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
3051         normal[2] = 1.0f;
3052       }
3053
3054       /* project verts to 2d */
3055       axis_dominant_v3_to_m3_negate(axis_mat, normal);
3056
3057       ml = mloop + mp_loopstart;
3058       for (j = 0; j < mp_totloop; j++, ml++) {
3059         mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
3060       }
3061
3062       BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
3063
3064       /* apply fill */
3065       for (j = 0; j < totfilltri; j++) {
3066         unsigned int *tri = tris[j];
3067         lidx = lindices[mface_index];
3068
3069         mface_to_poly_map[mface_index] = poly_index;
3070         mf = &mface[mface_index];
3071
3072         /* set loop indices, transformed to vert indices later */
3073         l1 = mp_loopstart + tri[0];
3074         l2 = mp_loopstart + tri[1];
3075         l3 = mp_loopstart + tri[2];
3076
3077         mf->v1 = mloop[l1].v;
3078         mf->v2 = mloop[l2].v;
3079         mf->v3 = mloop[l3].v;
3080         mf->v4 = 0;
3081
3082         lidx[0] = l1;
3083         lidx[1] = l2;
3084         lidx[2] = l3;
3085         lidx[3] = 0;
3086
3087         mf->mat_nr = mp->mat_nr;
3088         mf->flag = mp->flag;
3089         mf->edcode = 0;
3090
3091         mface_index++;
3092       }
3093
3094       BLI_memarena_clear(arena);
3095     }
3096   }
3097
3098   if (arena) {
3099     BLI_memarena_free(arena);
3100     arena = NULL;
3101   }
3102
3103   CustomData_free(fdata, totface);
3104   totface = mface_index;
3105
3106   BLI_assert(totface <= looptri_num);
3107
3108   /* not essential but without this we store over-alloc'd memory in the CustomData layers */
3109   if (LIKELY(looptri_num != totface)) {
3110     mface = MEM_reallocN(mface, sizeof(*mface) * (size_t)totface);
3111     mface_to_poly_map = MEM_reallocN(mface_to_poly_map,
3112                                      sizeof(*mface_to_poly_map) * (size_t)totface);
3113   }
3114
3115   CustomData_add_layer(fdata, CD_MFACE, CD_ASSIGN, mface, totface);
3116
3117   /* CD_ORIGINDEX will contain an array of indices from tessfaces to the polygons
3118    * they are directly tessellated from */
3119   CustomData_add_layer(fdata, CD_ORIGINDEX, CD_ASSIGN, mface_to_poly_map, totface);
3120   CustomData_from_bmeshpoly(fdata, ldata, totface);
3121
3122   if (do_face_nor_copy) {
3123     /* If polys have a normals layer, copying that to faces can help
3124      * avoid the need to recalculate normals later */
3125     if (CustomData_has_layer(pdata, CD_NORMAL)) {
3126       float(*pnors)[3] = CustomData_get_layer(pdata, CD_NORMAL);
3127       float(*fnors)[3] = CustomData_add_layer(fdata, CD_NORMAL, CD_CALLOC, NULL, totface);
3128       for (mface_index = 0; mface_index < totface; mface_index++) {
3129         copy_v3_v3(fnors[mface_index], pnors[mface_to_poly_map[mface_index]]);
3130       }
3131     }
3132   }
3133
3134   /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
3135    * Polygons take care of their loops ordering, hence not of their vertices ordering.
3136    * Currently, our tfaces' fourth vertex index might be 0 even for a quad. However, we know our fourth loop index is
3137    * never 0 for quads (because they are sorted for polygons, and our quads are still mere copies of their polygons).
3138    * So we pass NULL as MFace pointer, and BKE_mesh_loops_to_tessdata will use the fourth loop index as quad test.
3139    * ...
3140    */
3141   BKE_mesh_loops_to_tessdata(fdata, ldata, NULL, mface_to_poly_map, lindices, totface);
3142
3143   /* NOTE: quad detection issue - fourth vertidx vs fourth loopidx:
3144    * ...However, most TFace code uses 'MFace->v4 == 0' test to check whether it is a tri or quad.
3145    * test_index_face() will check this and rotate the tessellated face if needed.
3146    */
3147 #ifdef USE_TESSFACE_QUADS
3148   mf = mface;
3149   for (mface_index = 0; mface_index < totface; mface_index++, mf++) {
3150     if (mf->edcode == TESSFACE_IS_QUAD) {
3151       test_index_face(mf, fdata, mface_index, 4);
3152       mf->edcode = 0;
3153     }
3154   }
3155 #endif
3156
3157   MEM_freeN(lindices);
3158
3159   return totface;
3160
3161 #undef USE_TESSFACE_SPEEDUP
3162 #undef USE_TESSFACE_QUADS
3163
3164 #undef ML_TO_MF
3165 #undef ML_TO_MF_QUAD
3166 }
3167
3168 /**
3169  * Calculate tessellation into #MLoopTri which exist only for this purpose.
3170  */
3171 void BKE_mesh_recalc_looptri(const MLoop *mloop,
3172                              const MPoly *mpoly,
3173                              const MVert *mvert,
3174                              int totloop,
3175                              int totpoly,
3176                              MLoopTri *mlooptri)
3177 {
3178   /* use this to avoid locking pthread for _every_ polygon
3179    * and calling the fill function */
3180
3181 #define USE_TESSFACE_SPEEDUP
3182
3183   const MPoly *mp;
3184   const MLoop *ml;
3185   MLoopTri *mlt;
3186   MemArena *arena = NULL;
3187   int poly_index, mlooptri_index;
3188   unsigned int j;
3189
3190   mlooptri_index = 0;
3191   mp = mpoly;
3192   for (poly_index = 0; poly_index < totpoly; poly_index++, mp++) {
3193     const unsigned int mp_loopstart = (unsigned int)mp->loopstart;
3194     const unsigned int mp_totloop = (unsigned int)mp->totloop;
3195     unsigned int l1, l2, l3;
3196     if (mp_totloop < 3) {
3197       /* do nothing */
3198     }
3199
3200 #ifdef USE_TESSFACE_SPEEDUP
3201
3202 #  define ML_TO_MLT(i1, i2, i3) \
3203     { \
3204       mlt = &mlooptri[mlooptri_index]; \
3205       l1 = mp_loopstart + i1; \
3206       l2 = mp_loopstart + i2; \
3207       l3 = mp_loopstart + i3; \
3208       ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3); \
3209       mlt->poly = (unsigned int)poly_index; \
3210     } \
3211     ((void)0)
3212
3213     else if (mp_totloop == 3) {
3214       ML_TO_MLT(0, 1, 2);
3215       mlooptri_index++;
3216     }
3217     else if (mp_totloop == 4) {
3218       ML_TO_MLT(0, 1, 2);
3219       MLoopTri *mlt_a = mlt;
3220       mlooptri_index++;
3221       ML_TO_MLT(0, 2, 3);
3222       MLoopTri *mlt_b = mlt;
3223       mlooptri_index++;
3224
3225       if (UNLIKELY(is_quad_flip_v3_first_third_fast(mvert[mloop[mlt_a->tri[0]].v].co,
3226                                                     mvert[mloop[mlt_a->tri[1]].v].co,
3227                                                     mvert[mloop[mlt_a->tri[2]].v].co,
3228                                                     mvert[mloop[mlt_b->tri[2]].v].co))) {
3229         /* flip out of degenerate 0-2 state. */
3230         mlt_a->tri[2] = mlt_b->tri[2];
3231         mlt_b->tri[0] = mlt_a->tri[1];
3232       }
3233     }
3234 #endif /* USE_TESSFACE_SPEEDUP */
3235     else {
3236       const float *co_curr, *co_prev;
3237
3238       float normal[3];
3239
3240       float axis_mat[3][3];
3241       float(*projverts)[2];
3242       unsigned int(*tris)[3];
3243
3244       const unsigned int totfilltri = mp_totloop - 2;
3245
3246       if (UNLIKELY(arena == NULL)) {
3247         arena = BLI_memarena_new(BLI_MEMARENA_STD_BUFSIZE, __func__);
3248       }
3249
3250       tris = BLI_memarena_alloc(arena, sizeof(*tris) * (size_t)totfilltri);
3251       projverts = BLI_memarena_alloc(arena, sizeof(*projverts) * (size_t)mp_totloop);
3252
3253       zero_v3(normal);
3254
3255       /* calc normal, flipped: to get a positive 2d cross product */
3256       ml = mloop + mp_loopstart;
3257       co_prev = mvert[ml[mp_totloop - 1].v].co;
3258       for (j = 0; j < mp_totloop; j++, ml++) {
3259         co_curr = mvert[ml->v].co;
3260         add_newell_cross_v3_v3v3(normal, co_prev, co_curr);
3261         co_prev = co_curr;
3262       }
3263       if (UNLIKELY(normalize_v3(normal) == 0.0f)) {
3264         normal[2] = 1.0f;
3265       }
3266
3267       /* project verts to 2d */
3268       axis_dominant_v3_to_m3_negate(axis_mat, normal);
3269
3270       ml = mloop + mp_loopstart;
3271       for (j = 0; j < mp_totloop; j++, ml++) {
3272         mul_v2_m3v3(projverts[j], axis_mat, mvert[ml->v].co);
3273       }
3274
3275       BLI_polyfill_calc_arena(projverts, mp_totloop, 1, tris, arena);
3276
3277       /* apply fill */
3278       for (j = 0; j < totfilltri; j++) {
3279         unsigned int *tri = tris[j];
3280
3281         mlt = &mlooptri[mlooptri_index];
3282
3283         /* set loop indices, transformed to vert indices later */
3284         l1 = mp_loopstart + tri[0];
3285         l2 = mp_loopstart + tri[1];
3286         l3 = mp_loopstart + tri[2];
3287
3288         ARRAY_SET_ITEMS(mlt->tri, l1, l2, l3);
3289         mlt->poly = (unsigned int)poly_index;
3290
3291         mlooptri_index++;
3292       }
3293
3294       BLI_memarena_clear(arena);
3295     }
3296   }
3297
3298   if (arena) {
3299     BLI_memarena_free(arena);
3300     arena = NULL;
3301   }
3302
3303   BLI_assert(mlooptri_index == poly_to_tri_count(totpoly, totloop));
3304   UNUSED_VARS_NDEBUG(totloop);
3305
3306 #undef USE_TESSFACE_SPEEDUP
3307 #undef ML_TO_MLT
3308 }
3309
3310 static void bm_corners_to_loops_ex(ID *id,
3311                                    CustomData *fdata,
3312                                    CustomData *ldata,
3313                                    MFace *mface,
3314                                    int totloop,
3315                                    int findex,
3316                                    int loopstart,
3317                                    int numTex,
3318                                    int numCol)
3319 {
3320   MTFace *texface;
3321   MCol *mcol;
3322   MLoopCol *mloopcol;
3323   MLoopUV *mloopuv;
3324   MFace *mf;
3325   int i;
3326
3327   mf = mface + findex;
3328
3329   for (i = 0; i < numTex; i++) {
3330     texface = CustomData_get_n(fdata, CD_MTFACE, findex, i);
3331
3332     mloopuv = CustomData_get_n(ldata, CD_MLOOPUV, loopstart, i);
3333     copy_v2_v2(mloopuv->uv, texface->uv[0]);
3334     mloopuv++;
3335     copy_v2_v2(mloopuv->uv, texface->uv[1]);
3336     mloopuv++;
3337     copy_v2_v2(mloopuv->uv, texface->uv[2]);
3338     mloopuv++;
3339
3340     if (mf->v4) {
3341       copy_v2_v2(mloopuv->uv, texface->uv[3]);
3342       mloopuv++;
3343     }
3344   }
3345
3346   for (i = 0; i < numCol; i++) {
3347     mloopcol = CustomData_get_n(ldata, CD_MLOOPCOL, loopstart, i);
3348     mcol = CustomData_get_n(fdata, CD_MCOL, findex, i);
3349
3350     MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[0]);
3351     mloopcol++;
3352     MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[1]);
3353     mloopcol++;
3354     MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[2]);
3355     mloopcol++;
3356     if (mf->v4) {
3357       MESH_MLOOPCOL_FROM_MCOL(mloopcol, &mcol[3]);
3358       mloopcol++;
3359     }
3360   }
3361
3362   if (CustomData_has_layer(fdata, CD_TESSLOOPNORMAL)) {
3363     float(*lnors)[3] = CustomData_get(ldata, loopstart, CD_NORMAL);
3364     short(*tlnors)[3] = CustomData_get(fdata, findex, CD_TESSLOOPNORMAL);
3365     const int max = mf->v4 ? 4 : 3;
3366
3367     for (i = 0; i < max; i++, lnors++, tlnors++) {
3368       normal_short_to_float_v3(*lnors, *tlnors);
3369     }
3370   }
3371
3372   if (CustomData_has_layer(fdata, CD_MDISPS)) {
3373     MDisps *ld = CustomData_get(ldata, loopstart, CD_MDISPS);
3374     MDisps *fd = CustomData_get(fdata, findex, CD_MDISPS);
3375     float(*disps)[3] = fd->disps;
3376     int tot = mf->v4 ? 4 : 3;
3377     int corners;
3378
3379     if (CustomData_external_test(fdata, CD_MDISPS)) {
3380       if (id && fdata->external) {
3381         CustomData_external_add(ldata, id, CD_MDISPS, totloop, fdata->external->filename);
3382       }
3383     }
3384
3385     corners = multires_mdisp_corners(fd);
3386
3387     if (corners == 0) {
3388       /* Empty MDisp layers appear in at least one of the sintel.blend files.
3389        * Not sure why this happens, but it seems fine to just ignore them here.
3390        * If (corners == 0) for a non-empty layer though, something went wrong. */