PyAPI: don't adjust prefs when an fails to load
[blender.git] / tests / python / bl_rna_wiki_reference.py
1 # ##### BEGIN GPL LICENSE BLOCK #####
2 #
3 #  This program is free software; you can redistribute it and/or
4 #  modify it under the terms of the GNU General Public License
5 #  as published by the Free Software Foundation; either version 2
6 #  of the License, or (at your option) any later version.
7 #
8 #  This program is distributed in the hope that it will be useful,
9 #  but WITHOUT ANY WARRANTY; without even the implied warranty of
10 #  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11 #  GNU General Public License for more details.
12 #
13 #  You should have received a copy of the GNU General Public License
14 #  along with this program; if not, write to the Free Software Foundation,
15 #  Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301, USA.
16 #
17 # ##### END GPL LICENSE BLOCK #####
18
19 # <pep8 compliant>
20
21 # Use for validating our wiki interlinking.
22 #  ./blender.bin --background -noaudio --python tests/python/bl_rna_wiki_reference.py
23 #
24 # 1) test_data()              -- ensure the data we have is correct format
25 # 2) test_lookup_coverage()   -- ensure that we have lookups for _every_ RNA path
26 # 3) test_urls()              -- ensure all the URL's are correct
27 # 4) test_language_coverage() -- ensure language lookup table is complete
28 #
29
30 import bpy
31
32
33 def test_data():
34     import rna_wiki_reference
35
36     assert(isinstance(rna_wiki_reference.url_manual_mapping, tuple))
37     for i, value in enumerate(rna_wiki_reference.url_manual_mapping):
38         try:
39             assert(len(value) == 2)
40             assert(isinstance(value[0], str))
41             assert(isinstance(value[1], str))
42         except:
43             print("Expected a tuple of 2 strings, instead item %d is a %s: %r" % (i, type(value), value))
44             import traceback
45             traceback.print_exc()
46             raise
47
48
49 # a stripped down version of api_dump() in rna_info_dump.py
50 def test_lookup_coverage():
51
52     def rna_ids():
53         import rna_info
54         struct = rna_info.BuildRNAInfo()[0]
55         for struct_id, v in sorted(struct.items()):
56             props = [(prop.identifier, prop) for prop in v.properties]
57             struct_path = "bpy.types.%s" % struct_id[1]
58             for prop_id, prop in props:
59                 yield (struct_path, "%s.%s" % (struct_path, prop_id))
60
61         for submod_id in dir(bpy.ops):
62             op_path = "bpy.ops.%s" % submod_id
63             for op_id in dir(getattr(bpy.ops, submod_id)):
64                 yield (op_path, "%s.%s" % (op_path, op_id))
65
66     # check coverage
67     from bl_operators import wm
68
69     set_group_all = set()
70     set_group_doc = set()
71
72     for rna_group, rna_id in rna_ids():
73         url = wm.WM_OT_doc_view_manual._lookup_rna_url(rna_id, verbose=False)
74         print(rna_id, "->", url)
75
76         set_group_all.add(rna_group)
77         if url is not None:
78             set_group_doc.add(rna_group)
79
80     # finally report undocumented groups
81     print("")
82     print("---------------------")
83     print("Undocumented Sections")
84
85     for rna_group in sorted(set_group_all):
86         if rna_group not in set_group_doc:
87             print("%s.*" % rna_group)
88
89
90 def test_language_coverage():
91     pass  # TODO
92
93
94 def test_urls():
95     import sys
96     import rna_wiki_reference
97
98     import urllib.error
99     from urllib.request import urlopen
100
101     prefix = rna_wiki_reference.url_manual_prefix
102     urls = {suffix for (rna_id, suffix) in rna_wiki_reference.url_manual_mapping}
103
104     urls_len = "%d" % len(urls)
105     print("")
106     print("-------------" + "-" * len(urls_len))
107     print("Testing URLS %s" % urls_len)
108     print("")
109
110     color_red = '\033[0;31m'
111     color_green = '\033[1;32m'
112     color_normal = '\033[0m'
113
114     urls_fail = []
115
116     for url in sorted(urls):
117         url_full = prefix + url
118         print("  %s ... " % url_full, end="")
119         sys.stdout.flush()
120         try:
121             urlopen(url_full)
122             print(color_green + "OK" + color_normal)
123         except urllib.error.HTTPError:
124             print(color_red + "FAIL!" + color_normal)
125             urls_fail.append(url)
126
127     if urls_fail:
128         urls_len = "%d" % len(urls_fail)
129         print("")
130         print("------------" + "-" * len(urls_len))
131         print("Failed URLS %s" % urls_len)
132         print("")
133         for url in urls_fail:
134             print("  %s%s%s" % (color_red, url, color_normal))
135
136
137 def main():
138     test_data()
139     test_lookup_coverage()
140     test_language_coverage()
141     test_urls()
142
143 if __name__ == "__main__":
144     main()