Better training
[opus.git] / src / mlp_data.c
1 #include "mlp.h"
2
3 /* RMS error was 0.069845, seed was 1322025605 */
4
5 static const float weights[581] = {
6
7 /* hidden layer */
8 1.52937, 0.240116, -0.0808422, -0.019036, -0.199579, 
9 -0.0777284, 0.0506183, -0.0155793, -0.181522, 0.03296, 
10 -0.0133165, 0.179916, -0.122064, -0.0236821, -0.192921, 
11 -7.41934, -0.1775, 3.17407, 6.74356, -0.976582, 
12 -0.206271, -2.36372, -0.187823, 0.0721386, 0.182445, 
13 1.05044, 0.0536177, -0.079352, -7.53152, -0.000840837, 
14 0.16012, -0.737235, 0.907956, -0.977085, -0.20257, 
15 0.240006, -0.125651, 0.0292286, 0.0881101, -0.00420089, 
16 0.144169, -0.411473, 0.518353, 24.7599, 7.13795, 
17 -0.198564, -8.46416, 1.62151, 1.97394, 1.06731, 
18 0.212259, -0.294498, -1.43245, -1.7405, -2.24067, 
19 0.108053, -7.95142, -0.124435, -0.0220739, -0.0720463, 
20 0.0344748, 0.0543195, -0.0278653, -0.00880633, -0.0800235, 
21 -0.0628277, 0.018996, -0.136465, -0.0202844, -0.0871884, 
22 -0.00116258, -1.47936, 0.305648, 2.91397, -0.628477, 
23 0.379082, 1.01097, 0.108782, 0.719828, 1.80274, 
24 -0.180042, -1.30241, -0.645234, 0.208385, 0.838486, 
25 0.214029, -0.00758414, 0.418987, 0.325509, -0.350113, 
26 -0.229126, 0.0648517, -0.061675, -0.146279, -0.0269004, 
27 0.117271, -0.105326, 0.345759, 0.143439, -3.98419, 
28 0.755833, -1.65706, -0.890625, 1.08994, 0.87214, 
29 1.44122, -0.243985, -0.952904, -0.838194, -1.98792, 
30 -0.638013, 0.597385, 5.6797, 0.0436189, -0.013998, 
31 0.0319089, -0.0968088, -0.0172178, 0.0481363, -0.0418244, 
32 -0.0131255, -0.0462831, 0.0483697, 0.0402757, -0.127525, 
33 0.0414987, -0.187244, 3.89027, -4.62985, 0.516058, 
34 -1.22865, -0.190653, -0.165429, 0.100515, -1.03228, 
35 -0.321134, 0.0992221, 0.606127, 0.0554443, 1.45482, 
36 -0.253561, 0.096237, -0.0246694, 0.371363, -0.0914336, 
37 0.103553, 0.0189161, -0.0105249, 0.0604053, 0.0411006, 
38 0.0639854, 0.109094, -0.00979879, 0.324731, -0.0567231, 
39 -2.01856, 1.16363, 1.30608, -0.289826, 0.159106, 
40 -0.0876134, 0.327582, 0.0923214, -0.247681, 0.253649, 
41 0.138327, -0.872563, -2.63221, 0.86812, 0.0144657, 
42 0.0157262, 0.0286942, 0.0295632, 0.0478701, -0.00398791, 
43 0.0521685, 0.0127316, -0.0668749, -0.0383492, -0.00951385, 
44 -0.00556075, 0.0322671, 0.00116312, 10.1702, 0.908796, 
45 0.344389, -9.78791, -0.0103152, -0.814278, 0.224774, 
46 -0.84427, -1.20048, 0.111694, 1.02544, 0.475563, 
47 0.18777, -1.12989, 0.0435492, -0.121442, 0.275871, 
48 0.16293, -0.544925, 0.508003, 1.13018, 0.472551, 
49 -0.270614, 0.65337, 0.57463, 0.597287, 0.351477, 
50 0.122146, -13.7731, -1.05173, -0.607099, -1.8646, 
51 -0.185848, -0.17991, -0.247395, 0.270694, 0.674929, 
52 0.138423, 0.542756, -0.399379, -2.26304, 0.474791, 
53 0.107511, 0.280356, -0.76117, -0.711896, 2.34404, 
54 -0.246417, -0.0171513, -0.743835, 0.221894, -0.0688801, 
55 0.769435, -0.172876, 0.0275787, -1.09694, 43.5206, 
56 4.98303, 9.28984, -9.01778, 0.412928, 0.797472, 
57 0.504419, 0.143125, -2.30534, 0.187757, 0.0600608, 
58 0.0396294, 2.83625, -2.27696, 0.0577414, 0.0259672, 
59 -0.20545, 0.0843962, -0.241982, -0.181173, -0.0303534, 
60 0.368835, -0.325961, 0.300561, -0.0341177, 0.0938862, 
61 -0.123384, -0.0835186, -6.73898, 1.21737, 2.19072, 
62 1.04479, 0.0516565, -0.809079, 0.149924, -0.397419, 
63 -2.47109, -0.320068, -0.0366975, -0.18933, 0.952215, 
64 2.08882, 0.0150159, 0.00712614, 0.139391, -0.0632642, 
65 -0.00458523, 0.0274453, 0.00354731, -0.014494, -0.000608929, 
66 0.0232959, 0.00615738, 0.0222414, 0.109995, -0.0635244, 
67 1.51811, -0.00460887, 0.899197, 1.56449, -0.00806591, 
68 0.310737, -0.441759, -0.615191, 0.305784, -0.118165, 
69 -0.690831, -0.932832, -0.468231, 0.869044, 0.0748202, 
70 -0.0780407, 0.0780088, 0.024609, -0.00519675, -0.0687518, 
71 0.044041, -0.0570666, 0.037407, -0.14082, 0.0348575, 
72 -0.14069, 0.180557, -0.0571276, -32.4574, -0.0710406, 
73 -5.39569, 2.65794, 0.181025, 0.493114, 0.111346, 
74 0.506378, 1.16452, -0.563642, -0.278853, -0.447802, 
75 0.232193, -6.42728, -0.109856, 0.022866, -0.0839836, 
76 -0.0839169, -0.319109, -0.902373, -0.157901, 0.298015, 
77 -0.16787, 0.0928949, -0.71114, 0.0373198, -0.0722619, 
78 -0.122185, -17.1527, 4.88383, 2.38947, 8.88169, 
79 -0.00947956, 0.0823654, 0.799126, 1.28023, 0.526565, 
80 -0.0149172, -1.12657, -0.24462, -3.23915, 0.0058726, 
81 0.127453, 0.29968, -0.208872, 0.0242737, 0.479791, 
82 -3.21354, 1.52516, -0.692431, -0.165378, -0.731346, 
83 0.314575, -0.569414, -0.0801118, 0.086923, 8.02887, 
84 -0.235296, -0.276748, -7.72231, -0.115556, -0.976338, 
85 0.0980647, -2.55159, -0.410249, 0.968147, -0.131815, 
86 -0.511169, 0.0891097, -1.20927, -0.013714, 0.210441, 
87 0.0838065, 0.161028, -0.01217, -0.00352592, 0.0893854, 
88 -0.0787796, 0.0651729, -0.0219344, -0.000346421, 0.180829, 
89 0.0847809, 0.116443, 0.0632044, -1.31752, 1.0611, 
90 -1.73675, -0.0728349, 0.183918, 0.0451227, -0.525749, 
91 -0.255804, 0.10796, -0.300506, 0.595564, 0.697484, 
92 -1.05565, 0.0174366, 0.273086, 0.00330815, 0.133234, 
93 -0.0170445, 0.385873, -0.392262, 0.441475, -0.244255, 
94 0.159125, 0.102305, 0.271859, -0.0477384, 0.0994522, 
95 12.1298, -1.23951, 1.33346, -0.669615, 0.0928112, 
96 0.301609, -0.0872949, -0.530852, -0.791418, -0.211807, 
97 0.233519, 0.00779643, -0.208301, -11.4151, -0.0142366, 
98 0.0636537, 0.0716135, -0.0404406, -0.116361, -0.172063, 
99 -0.229208, -0.0866464, -0.134274, 0.0473229, -0.190149, 
100 -0.112906, -0.0548081, -0.15995, -0.761112, 6.38996, 
101 0.687383, -5.54174, 0.27056, 0.156832, 0.410845, 
102 1.73844, 0.868191, -0.415126, -0.362902, -0.488269, 
103 -0.679177, 2.90133, 0.0325332, -0.13787, -0.099454, 
104 -0.125178, 0.0312495, 0.0215725, -0.0180029, 0.000786626, 
105 -0.0165868, 0.00228741, 0.0489981, -0.142374, -0.070654, 
106 -0.0980396, -5.4804, -1.42786, 0.370574, 5.29591, 
107 -0.103996, -0.291983, -0.220591, -0.445399, 0.153502, 
108 0.0372166, 0.181633, 0.0616784, 0.69087, -0.246005, 
109 0.179546, -0.0553659, 0.0486791, -0.429761, 0.379239, 
110 -0.293269, 0.370228, -0.232783, 0.192865, -0.153421, 
111 0.412135, -0.181689, 0.0816143, -0.245055, 0.851942, 
112 -0.771025, -1.52187, -0.656314, 0.638177, 0.882082, 
113 -0.466803, -0.193064, 0.233788, 1.40801, 0.388835, 
114 -0.206663, 1.3398, -10.2146, -0.086454, -0.33979, 
115 -0.11021, -0.044777, 0.0383833, -0.171588, -0.0686855, 
116 0.0452209, 0.0578143, 0.0676435, -0.24006, -0.40246, 
117 -0.0549284, 0.00786321, -11.5892, 13.4008, -0.148449, 
118 1.4845, -0.198285, -0.280658, -2.56881, -0.597918, 
119 0.0713039, -0.0129557, 0.907337, -1.36003, 0.357266, 
120
121 /* output layer */
122 -9.51428, -0.855928, 0.674433, -1.45903, -1.15718, 
123 3.25902, -0.85739, 1.45401, -0.346373, 0.563214, 
124 -0.97603, 1.52396, -0.804053, -0.56299, 0.213345, 
125 -2.50068, -1.06777, -1.073, -2.88991, -1.10272, 
126 -2.77165, };
127
128 static const int topo[3] = {27, 20, 1};
129
130 const MLP net = {
131         3,
132         topo,
133         weights
134 };
135