This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CroCo-Stereocopylefttwo views0.42
8
0.33
135
0.83
115
0.59
162
0.28
40
0.26
1
0.33
33
1.22
109
0.85
61
0.43
4
0.49
7
0.65
59
0.46
35
0.40
1
0.36
16
0.19
65
0.15
112
0.16
8
0.14
22
0.20
86
0.17
23
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
CroCo-Stereo Lap2two views0.46
19
0.37
204
0.87
137
0.62
190
0.79
328
0.28
2
0.35
49
0.81
6
0.73
29
0.39
3
0.54
15
0.71
78
0.54
68
0.60
13
0.48
88
0.18
40
0.18
184
0.19
47
0.16
54
0.21
121
0.21
87
StereoIMtwo views0.38
1
0.27
35
0.72
57
0.45
8
0.35
137
0.30
3
0.31
25
0.81
6
0.54
3
0.38
2
0.38
1
0.58
43
0.49
53
0.53
4
0.39
31
0.20
99
0.16
139
0.19
47
0.15
30
0.19
59
0.15
3
AFF-stereotwo views0.60
87
0.28
43
0.72
57
0.48
29
0.29
51
0.34
4
0.37
61
1.22
109
1.20
189
1.21
175
1.59
280
1.10
198
0.70
130
1.01
84
0.44
61
0.14
1
0.12
5
0.19
47
0.20
128
0.18
34
0.15
3
test crocotwo views0.49
25
0.29
61
1.23
238
0.51
57
0.40
170
0.35
5
0.37
61
1.04
45
0.62
16
0.44
5
0.76
36
0.42
4
0.41
16
1.17
117
0.46
76
0.23
169
0.15
112
0.24
167
0.19
102
0.25
196
0.18
32
DLNR_Zeroshot_testpermissivetwo views23.23
417
48.25
434
43.77
423
177.04
434
78.39
430
0.35
5
0.21
1
23.33
417
0.82
53
0.67
41
0.86
55
0.58
43
0.30
4
1.64
186
0.48
88
10.69
420
0.13
17
0.18
33
0.14
22
76.63
433
0.23
122
MC-Stereotwo views0.46
19
0.24
9
0.58
18
0.63
200
0.30
63
0.38
7
0.32
29
0.98
30
0.74
36
0.66
39
0.85
54
0.56
40
0.60
99
1.07
97
0.32
2
0.17
18
0.12
5
0.17
13
0.15
30
0.16
11
0.16
13
MIF-Stereo (partial)two views0.48
24
0.28
43
0.83
115
0.51
57
0.53
242
0.39
8
0.27
14
1.03
43
0.64
19
0.47
11
0.71
32
0.51
32
0.51
55
1.13
110
0.47
84
0.20
99
0.16
139
0.23
146
0.20
128
0.24
187
0.20
70
MIF-Stereotwo views0.38
1
0.24
9
0.67
47
0.49
34
0.36
139
0.40
9
0.32
29
0.55
1
0.55
4
0.55
30
0.55
17
0.36
2
0.31
6
0.59
11
0.52
108
0.21
120
0.15
112
0.17
13
0.15
30
0.19
59
0.17
23
RAFT+CT+SAtwo views0.63
101
0.30
79
0.73
67
0.69
262
0.37
144
0.40
9
0.55
195
1.93
254
1.04
129
0.72
46
1.23
169
0.62
52
0.69
128
1.69
195
0.42
54
0.19
65
0.13
17
0.22
120
0.22
186
0.21
121
0.19
51
RAFT-Stereo + iAFFtwo views0.56
47
0.28
43
0.81
98
0.45
8
0.25
8
0.40
9
0.34
40
1.12
72
1.13
161
1.35
238
1.58
276
0.80
91
0.67
122
0.71
30
0.43
57
0.14
1
0.11
2
0.18
33
0.17
70
0.18
34
0.16
13
IGEV_Zeroshot_testtwo views0.59
81
0.33
135
1.11
203
0.63
200
0.37
144
0.41
12
0.33
33
1.80
221
0.79
48
1.04
103
1.10
119
1.06
183
0.43
22
0.87
61
0.48
88
0.18
40
0.13
17
0.19
47
0.18
84
0.20
86
0.23
122
AEACVtwo views0.41
4
0.25
16
0.60
24
0.55
110
0.52
237
0.43
13
0.38
68
0.98
30
0.63
17
0.44
5
0.56
18
0.46
15
0.59
95
0.56
6
0.31
1
0.17
18
0.13
17
0.18
33
0.16
54
0.17
20
0.17
23
AnonymousMtwo views0.63
101
1.14
363
0.43
5
0.46
14
0.32
97
0.43
13
0.46
138
1.27
121
0.78
42
1.00
90
0.66
21
0.68
65
0.45
28
0.61
14
0.46
76
0.21
120
0.16
139
1.84
386
0.98
383
0.15
4
0.15
3
XX-Stereotwo views0.97
246
0.28
43
8.28
383
0.85
329
0.70
308
0.44
15
0.22
2
1.07
50
0.69
25
0.66
39
1.56
271
1.38
262
0.38
14
1.36
134
0.38
28
0.21
120
0.14
58
0.20
70
0.19
102
0.19
59
0.16
13
Selective-IGEVtwo views0.42
8
0.26
19
0.56
16
0.48
29
0.27
19
0.45
16
0.33
33
1.56
167
0.61
15
0.36
1
0.47
4
0.52
35
0.30
4
1.08
99
0.33
3
0.15
4
0.13
17
0.17
13
0.13
11
0.16
11
0.15
3
CREStereo++_RVCtwo views0.49
25
0.22
3
0.46
8
0.48
29
0.38
154
0.45
16
0.25
4
0.77
4
1.30
235
0.82
61
1.23
169
0.47
20
0.37
13
0.55
5
0.44
61
0.16
7
0.11
2
0.16
8
0.80
376
0.18
34
0.12
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TestStereo1two views0.66
110
0.29
61
0.95
162
0.82
319
0.32
97
0.47
18
0.43
107
1.52
157
1.22
201
0.99
86
1.32
200
0.65
59
0.76
140
1.78
204
0.44
61
0.20
99
0.16
139
0.22
120
0.19
102
0.21
121
0.20
70
SA-5Ktwo views0.66
110
0.29
61
0.95
162
0.82
319
0.32
97
0.47
18
0.43
107
1.52
157
1.22
201
0.99
86
1.32
200
0.65
59
0.76
140
1.78
204
0.44
61
0.20
99
0.16
139
0.22
120
0.19
102
0.21
121
0.20
70
iRaft-Stereo_5wtwo views0.89
220
0.31
104
1.04
186
0.56
122
0.47
213
0.47
18
0.68
241
1.19
99
1.08
137
0.80
55
1.35
212
1.46
274
0.90
200
5.11
336
1.16
259
0.18
40
0.15
112
0.22
120
0.19
102
0.21
121
0.24
141
GLC_STEREOtwo views0.41
4
0.27
35
0.43
5
0.55
110
0.24
6
0.47
18
0.30
23
0.81
6
0.64
19
0.53
28
0.74
35
0.50
31
0.31
6
0.65
25
0.45
72
0.18
40
0.20
208
0.23
146
0.19
102
0.21
121
0.21
87
ASMatchtwo views0.89
220
0.29
61
0.72
57
0.56
122
0.36
139
0.47
18
0.37
61
1.16
92
0.95
92
1.11
115
3.26
369
0.95
152
0.96
220
4.88
333
0.53
117
0.20
99
0.16
139
0.22
120
0.19
102
0.20
86
0.30
229
LoStwo views0.41
4
0.23
6
0.46
8
0.39
2
0.23
5
0.48
23
0.40
79
1.12
72
0.94
88
0.50
19
0.66
21
0.49
28
0.42
19
0.63
23
0.39
31
0.19
65
0.14
58
0.16
8
0.11
6
0.14
1
0.15
3
DCANet-4two views0.59
81
0.28
43
1.65
287
0.44
7
0.25
8
0.48
23
0.36
55
1.15
89
1.36
258
1.13
126
1.03
97
0.56
40
0.74
134
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
ffftwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
csctwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
cscssctwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
ff7two views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
fffftwo views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
11ttwo views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
CASnettwo views0.42
8
0.26
19
0.52
15
0.52
69
0.21
2
0.49
28
0.35
49
0.85
14
0.85
61
0.84
65
0.69
27
0.48
24
0.31
6
0.57
8
0.34
4
0.19
65
0.12
5
0.27
233
0.22
186
0.23
158
0.15
3
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
anonymousdsptwo views0.45
11
0.30
79
0.60
24
0.48
29
0.34
122
0.49
28
0.42
91
0.97
26
0.60
12
0.51
26
0.53
9
0.46
15
0.47
41
1.36
134
0.35
6
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
ccc-4two views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
ADStereo(finetuned)two views0.62
92
0.26
19
1.59
284
0.45
8
0.25
8
0.49
28
0.36
55
1.18
95
1.35
251
1.16
145
1.04
101
0.60
48
1.18
287
0.85
59
0.57
137
0.17
18
0.14
58
0.17
13
0.13
11
0.19
59
0.24
141
IGEV-Stereopermissivetwo views0.45
11
0.30
79
0.60
24
0.48
29
0.34
122
0.49
28
0.42
91
0.98
30
0.60
12
0.51
26
0.53
9
0.46
15
0.47
41
1.36
134
0.35
6
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
OMP-Stereotwo views0.95
241
0.35
184
0.79
92
0.92
345
0.32
97
0.49
28
0.35
49
1.22
109
1.11
151
1.58
303
1.12
129
1.44
269
0.69
128
6.92
374
0.51
102
0.20
99
0.15
112
0.24
167
0.19
102
0.21
121
0.16
13
DCANettwo views0.58
70
0.26
19
1.15
212
0.45
8
0.25
8
0.49
28
0.36
55
1.18
95
1.35
251
1.15
141
1.04
101
0.60
48
0.91
202
0.84
56
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.19
59
0.25
160
IGEVStereo-DCAtwo views0.49
25
0.33
135
0.64
37
0.46
14
0.34
122
0.50
38
0.42
91
0.93
20
0.59
7
0.48
13
0.48
5
0.48
24
0.45
28
2.28
263
0.44
61
0.19
65
0.14
58
0.19
47
0.15
30
0.17
20
0.21
87
rrrtwo views0.57
59
0.33
135
2.43
331
0.46
14
0.34
122
0.50
38
0.38
68
0.84
13
0.55
4
0.48
13
0.48
5
0.48
24
0.45
28
2.28
263
0.44
61
0.19
65
0.14
58
0.19
47
0.15
30
0.17
20
0.18
32
StereoVisiontwo views0.67
118
0.37
204
1.02
182
0.60
169
0.41
180
0.50
38
0.41
87
1.32
129
0.96
96
0.73
47
2.48
357
0.82
103
0.57
77
1.06
95
0.50
100
0.26
224
0.28
291
0.29
253
0.28
267
0.37
276
0.22
108
HHNettwo views0.64
104
0.28
43
0.69
53
0.45
8
0.46
207
0.50
38
0.57
204
1.13
76
1.03
123
1.26
198
2.21
343
0.70
72
0.59
95
1.10
105
0.51
102
0.21
120
0.13
17
0.23
146
0.19
102
0.20
86
0.31
238
raftrobusttwo views0.55
36
0.27
35
0.63
32
0.68
252
0.69
302
0.50
38
0.34
40
1.08
55
0.97
100
1.32
222
0.88
60
0.62
52
0.80
160
0.82
50
0.44
61
0.20
99
0.16
139
0.16
8
0.14
22
0.15
4
0.18
32
EKT-Stereotwo views0.56
47
0.33
135
0.84
124
0.61
182
0.64
285
0.51
43
0.48
151
1.14
78
0.95
92
0.74
48
0.89
62
0.77
86
0.42
19
1.18
118
0.42
54
0.23
169
0.17
161
0.21
93
0.18
84
0.20
86
0.26
177
LoS_RVCtwo views0.45
11
0.29
61
0.48
10
0.49
34
0.83
337
0.51
43
0.43
107
0.65
2
0.44
1
0.47
11
0.78
41
0.44
7
0.60
99
0.59
11
0.37
25
0.14
1
0.12
5
0.14
1
0.10
1
0.14
1
1.08
374
sAnonymous2two views0.59
81
0.61
301
1.82
296
0.61
182
0.52
237
0.51
43
0.54
188
0.97
26
0.70
26
0.50
19
0.68
24
0.46
15
0.63
110
0.61
14
0.41
49
0.22
149
0.17
161
0.23
146
0.21
164
0.85
365
0.56
331
CroCo_RVCtwo views0.59
81
0.61
301
1.82
296
0.61
182
0.52
237
0.51
43
0.54
188
0.97
26
0.70
26
0.50
19
0.68
24
0.46
15
0.63
110
0.61
14
0.41
49
0.22
149
0.17
161
0.23
146
0.21
164
0.85
365
0.56
331
MIM_Stereotwo views0.60
87
0.26
19
1.02
182
0.49
34
0.32
97
0.52
47
0.28
17
1.41
142
0.82
53
1.02
97
1.16
150
0.93
144
0.53
61
1.48
159
0.63
158
0.17
18
0.17
161
0.20
70
0.19
102
0.17
20
0.18
32
iRaftStereo_RVCtwo views0.49
25
0.28
43
0.72
57
0.53
89
0.29
51
0.52
47
0.33
33
1.14
78
0.84
58
0.85
67
0.99
82
0.55
38
0.36
12
0.83
53
0.40
44
0.18
40
0.13
17
0.22
120
0.20
128
0.20
86
0.18
32
sCroCo_RVCtwo views0.51
31
0.43
245
1.15
212
0.66
230
0.60
273
0.52
47
0.40
79
0.93
20
0.64
19
0.45
9
0.76
36
0.49
28
0.49
53
0.65
25
0.49
97
0.27
241
0.28
291
0.23
146
0.22
186
0.29
233
0.28
204
CREStereotwo views0.40
3
0.24
9
0.40
2
0.37
1
0.22
4
0.52
47
0.29
21
0.81
6
1.15
171
0.59
31
0.72
33
0.51
32
0.42
19
0.57
8
0.37
25
0.19
65
0.13
17
0.15
3
0.10
1
0.14
1
0.15
3
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
CEStwo views0.51
31
0.21
2
0.40
2
0.42
4
1.40
377
0.53
51
0.34
40
1.04
45
0.68
23
0.45
9
0.67
23
0.35
1
0.28
2
0.58
10
0.35
6
0.16
7
0.13
17
0.15
3
0.10
1
0.19
59
1.69
384
GMOStereotwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
error versiontwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
test-vtwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
TRStereotwo views0.67
118
0.71
326
1.06
191
0.77
307
0.68
299
0.53
51
0.38
68
2.52
355
0.96
96
0.81
59
0.84
52
0.87
120
0.39
15
1.16
114
0.46
76
0.24
187
0.17
161
0.23
146
0.24
225
0.18
34
0.20
70
RAFT-345two views0.86
213
0.26
19
0.73
67
0.53
89
0.28
40
0.53
51
0.41
87
0.85
14
1.31
242
1.33
227
2.32
348
0.85
118
0.53
61
5.69
348
0.48
88
0.19
65
0.14
58
0.22
120
0.17
70
0.17
20
0.17
23
test-2two views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
270
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
rafts_anoytwo views0.55
36
0.32
118
0.66
44
0.72
279
0.61
278
0.53
51
0.40
79
1.24
114
1.06
133
0.85
67
0.83
51
0.67
63
0.53
61
0.77
40
0.55
127
0.20
99
0.15
112
0.25
203
0.26
244
0.22
140
0.21
87
raft+_RVCtwo views0.56
47
0.29
61
0.61
28
0.65
217
0.56
257
0.53
51
0.53
179
1.40
138
1.02
120
0.78
52
1.04
101
0.70
72
0.55
70
1.00
82
0.49
97
0.18
40
0.16
139
0.19
47
0.19
102
0.18
34
0.17
23
EGLCR-Stereotwo views0.41
4
0.24
9
0.59
22
0.45
8
0.27
19
0.54
60
0.22
2
1.23
113
0.56
6
0.44
5
0.43
2
0.68
65
0.29
3
0.89
65
0.34
4
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.18
32
RCA-Stereotwo views0.52
33
0.26
19
0.66
44
0.49
34
0.33
110
0.54
60
0.44
124
1.20
103
1.41
279
0.69
42
1.06
106
0.63
56
0.79
154
0.62
18
0.35
6
0.17
18
0.12
5
0.17
13
0.14
22
0.16
11
0.16
13
raft_robusttwo views0.71
144
0.32
118
0.75
77
0.54
100
0.28
40
0.54
60
0.35
49
1.54
163
1.24
205
1.18
158
1.07
108
0.73
79
0.53
61
3.65
310
0.40
44
0.19
65
0.16
139
0.20
70
0.22
186
0.21
121
0.19
51
DN-CSS_ROBtwo views0.67
118
0.36
188
1.36
258
0.59
162
0.41
180
0.54
60
0.45
132
1.30
127
0.95
92
1.05
105
1.47
243
0.69
69
0.64
112
1.80
211
0.60
150
0.19
65
0.15
112
0.25
203
0.23
213
0.22
140
0.23
122
PSM-softLosstwo views0.80
183
0.33
135
0.89
142
0.63
200
0.32
97
0.55
64
0.40
79
1.26
117
0.78
42
1.25
188
1.07
108
0.83
111
0.51
55
5.33
340
0.61
153
0.25
207
0.15
112
0.25
203
0.22
186
0.20
86
0.26
177
KMStereotwo views0.80
183
0.33
135
0.89
142
0.63
200
0.32
97
0.55
64
0.40
79
1.26
117
0.78
42
1.25
188
1.07
108
0.83
111
0.51
55
5.33
340
0.61
153
0.25
207
0.15
112
0.25
203
0.22
186
0.20
86
0.26
177
test_xeample3two views0.57
59
0.33
135
3.11
348
0.46
14
0.34
122
0.55
64
0.38
68
0.86
17
0.49
2
0.54
29
0.46
3
0.44
7
0.44
26
1.49
165
0.45
72
0.18
40
0.14
58
0.19
47
0.15
30
0.17
20
0.18
32
CAStwo views0.66
110
0.19
1
0.41
4
2.31
387
0.86
342
0.56
67
0.53
179
0.83
10
0.63
17
0.49
16
0.70
31
0.36
2
0.26
1
0.47
2
0.37
25
2.33
389
0.10
1
0.14
1
0.10
1
0.17
20
1.31
379
SAtwo views0.69
136
0.31
104
0.97
170
0.64
211
0.30
63
0.56
67
0.38
68
1.84
230
1.35
251
0.99
86
1.37
217
0.69
69
0.94
213
1.88
223
0.43
57
0.20
99
0.16
139
0.25
203
0.23
213
0.22
140
0.19
51
knoymoustwo views0.53
34
0.32
118
0.51
14
0.46
14
0.30
63
0.57
69
0.54
188
1.10
68
0.78
42
0.99
86
0.84
52
0.95
152
0.57
77
0.89
65
0.51
102
0.21
120
0.14
58
0.26
224
0.14
22
0.23
158
0.25
160
ProNettwo views0.46
19
0.30
79
0.69
53
0.46
14
0.32
97
0.57
69
0.52
173
1.15
89
0.67
22
0.44
5
0.50
8
0.44
7
0.43
22
1.31
127
0.38
28
0.16
7
0.15
112
0.19
47
0.16
54
0.18
34
0.18
32
test-3two views0.56
47
0.24
9
0.82
107
0.50
46
0.29
51
0.57
69
0.34
40
1.09
62
1.03
123
1.33
227
0.69
27
0.87
120
0.45
28
1.68
191
0.39
31
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.16
13
test_1two views0.56
47
0.24
9
0.82
107
0.50
46
0.29
51
0.57
69
0.34
40
1.09
62
1.03
123
1.28
208
0.69
27
0.87
120
0.45
28
1.67
189
0.39
31
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.16
13
PFNet+two views0.62
92
0.31
104
0.99
174
0.57
140
0.31
77
0.57
69
0.30
23
0.99
35
1.25
211
1.33
227
1.10
119
0.79
89
0.57
77
1.35
133
0.53
117
0.26
224
0.17
161
0.28
245
0.26
244
0.21
121
0.27
193
DeepStereo_RVCtwo views0.57
59
0.31
104
0.78
88
0.53
89
0.30
63
0.57
69
0.32
29
1.11
70
0.80
52
1.17
147
0.94
68
0.83
111
0.93
211
1.01
84
0.61
153
0.23
169
0.14
58
0.21
93
0.19
102
0.24
187
0.26
177
RAFT-IKPtwo views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.57
69
0.35
49
1.14
78
0.73
29
1.13
126
0.96
71
0.83
111
0.61
109
1.26
124
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
TestStereotwo views0.65
108
0.42
241
0.83
115
0.52
69
0.27
19
0.57
69
0.44
124
1.07
50
0.92
76
0.85
67
1.01
88
0.68
65
0.56
75
3.22
301
0.47
84
0.23
169
0.15
112
0.24
167
0.18
84
0.28
223
0.18
32
XX-TBDtwo views0.47
22
0.71
326
0.39
1
0.81
315
0.25
8
0.57
69
0.26
10
0.73
3
1.30
235
0.78
52
1.01
88
0.45
14
0.33
10
0.49
3
0.39
31
0.20
99
0.15
112
0.15
3
0.11
6
0.17
20
0.15
3
Prome-Stereotwo views0.76
163
0.29
61
0.57
17
0.58
150
0.33
110
0.58
78
0.94
303
0.98
30
0.92
76
1.46
278
2.45
355
0.91
137
1.38
311
1.60
182
0.44
61
0.19
65
0.13
17
0.19
47
0.18
84
0.20
86
0.87
367
MyStereo07two views0.50
29
0.30
79
0.58
18
0.58
150
0.48
215
0.59
79
0.78
264
1.19
99
0.60
12
0.49
16
0.54
15
0.43
6
0.55
70
1.32
130
0.36
16
0.18
40
0.18
184
0.24
167
0.21
164
0.23
158
0.23
122
MyStereo04two views0.71
144
0.30
79
1.28
247
0.58
150
0.48
215
0.59
79
0.78
264
1.74
208
1.49
306
0.94
81
0.91
64
0.74
80
0.86
182
1.59
177
0.69
175
0.18
40
0.18
184
0.24
167
0.21
164
0.23
158
0.23
122
DCREtwo views0.85
211
0.28
43
0.76
79
0.60
169
0.49
221
0.59
79
0.53
179
1.04
45
0.92
76
0.80
55
7.34
397
0.87
120
0.57
77
0.78
47
0.43
57
0.16
7
0.17
161
0.19
47
0.17
70
0.18
34
0.22
108
CFNet-RSSMtwo views0.57
59
0.25
16
0.76
79
0.49
34
0.28
40
0.59
79
0.27
14
1.89
245
1.17
180
1.09
112
0.95
69
1.06
183
0.53
61
0.74
34
0.41
49
0.17
18
0.13
17
0.17
13
0.15
30
0.16
11
0.16
13
DisPMtwo views0.68
127
0.30
79
0.85
130
0.66
230
0.35
137
0.60
83
0.44
124
1.10
68
1.10
147
1.56
299
1.10
119
0.80
91
0.58
92
2.37
271
0.46
76
0.25
207
0.14
58
0.23
146
0.21
164
0.20
86
0.26
177
test_3two views0.57
59
0.24
9
0.87
137
0.55
110
0.30
63
0.60
83
0.40
79
1.07
50
1.08
137
1.20
169
0.68
24
0.92
142
0.43
22
1.68
191
0.40
44
0.16
7
0.13
17
0.22
120
0.19
102
0.21
121
0.17
23
GwcNet-ADLtwo views0.67
118
0.33
135
0.90
147
0.58
150
0.41
180
0.60
83
0.59
215
1.55
165
1.28
225
1.11
115
1.13
139
0.90
134
0.59
95
1.11
108
0.91
221
0.28
252
0.18
184
0.18
33
0.18
84
0.25
196
0.33
252
test-1two views0.56
47
0.28
43
1.13
207
0.58
150
0.34
122
0.60
83
0.38
68
1.56
167
0.98
103
0.80
55
1.02
90
0.83
111
0.52
59
0.64
24
0.46
76
0.17
18
0.16
139
0.20
70
0.17
70
0.20
86
0.26
177
IIG-Stereotwo views0.97
246
0.34
162
0.80
97
0.90
343
0.33
110
0.61
87
0.26
10
1.27
121
1.08
137
1.69
318
1.37
217
1.44
269
0.74
134
6.94
375
0.53
117
0.21
120
0.14
58
0.23
146
0.18
84
0.20
86
0.15
3
Pruner-Stereotwo views0.64
104
0.31
104
0.79
92
0.66
230
0.31
77
0.61
87
0.42
91
1.22
109
1.09
144
1.53
292
1.09
117
0.94
149
0.55
70
1.37
137
0.56
134
0.25
207
0.14
58
0.24
167
0.21
164
0.21
121
0.25
160
MyStereo06two views0.67
118
0.29
61
1.06
191
0.58
150
0.48
215
0.62
89
0.72
253
2.26
319
0.89
66
1.07
110
1.12
129
1.22
221
0.56
75
0.83
53
0.47
84
0.17
18
0.17
161
0.24
167
0.21
164
0.23
158
0.23
122
MyStereo05two views0.70
138
0.29
61
1.22
236
0.58
150
0.48
215
0.62
89
0.72
253
1.52
157
1.54
313
1.17
147
0.91
64
0.77
86
0.79
154
1.45
153
0.68
174
0.17
18
0.17
161
0.24
167
0.21
164
0.23
158
0.23
122
OCTAStereotwo views0.82
193
0.33
135
0.83
115
0.65
217
0.31
77
0.62
89
0.44
124
1.35
131
0.93
83
1.30
214
1.02
90
0.81
97
0.57
77
5.32
339
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.30
229
ROB_FTStereo_v2two views0.57
59
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.42
91
1.14
78
0.73
29
1.13
126
0.97
78
0.82
103
0.60
99
1.15
112
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
ROB_FTStereotwo views0.56
47
0.33
135
0.82
107
0.52
69
0.27
19
0.62
89
0.25
4
1.14
78
0.74
36
1.13
126
0.96
71
0.82
103
0.60
99
1.18
118
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
HUI-Stereotwo views0.54
35
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.29
21
1.14
78
0.74
36
1.13
126
0.96
71
0.82
103
0.60
99
0.83
53
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
PFNettwo views0.92
235
0.28
43
1.20
232
0.68
252
0.32
97
0.62
89
0.55
195
1.27
121
1.01
117
1.47
279
1.09
117
0.97
159
0.68
125
6.58
368
0.59
148
0.21
120
0.13
17
0.24
167
0.19
102
0.20
86
0.20
70
iGMRVCtwo views0.58
70
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.38
68
1.14
78
0.73
29
1.13
126
0.97
78
0.82
103
0.59
95
1.54
168
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
Patchmatch Stereo++two views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.63
97
0.28
17
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.40
141
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
NF-Stereotwo views0.82
193
0.33
135
0.83
115
0.65
217
0.31
77
0.63
97
0.43
107
1.35
131
0.93
83
1.30
214
1.02
90
0.81
97
0.57
77
5.37
344
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.30
229
NRIStereotwo views0.62
92
0.31
104
0.78
88
0.56
122
0.28
40
0.63
97
0.33
33
1.16
92
0.92
76
1.15
141
0.87
57
0.90
134
0.58
92
2.24
259
0.56
134
0.22
149
0.14
58
0.21
93
0.19
102
0.22
140
0.18
32
PSM-adaLosstwo views0.56
47
0.33
135
0.81
98
0.52
69
0.27
19
0.63
97
0.41
87
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.09
103
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
RE-Stereotwo views0.82
193
0.33
135
0.84
124
0.65
217
0.31
77
0.63
97
0.44
124
1.35
131
0.93
83
1.30
214
1.02
90
0.80
91
0.57
77
5.34
342
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.31
238
TVStereotwo views0.82
193
0.33
135
0.84
124
0.65
217
0.31
77
0.63
97
0.44
124
1.35
131
0.93
83
1.30
214
1.02
90
0.80
91
0.57
77
5.34
342
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.31
238
iRAFTtwo views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.63
97
0.28
17
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.40
141
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
Gwc-CoAtRStwo views0.55
36
0.27
35
0.73
67
0.49
34
0.30
63
0.63
97
0.25
4
1.38
136
1.12
156
1.05
105
1.02
90
1.10
198
0.55
70
0.72
32
0.44
61
0.17
18
0.14
58
0.17
13
0.15
30
0.16
11
0.17
23
4D-IteraStereotwo views0.50
29
0.26
19
0.84
124
0.51
57
0.49
221
0.64
105
0.31
25
0.91
19
1.02
120
1.05
105
0.72
33
0.76
82
0.32
9
0.69
29
0.40
44
0.18
40
0.11
2
0.23
146
0.20
128
0.19
59
0.16
13
qqqtwo views0.62
92
0.36
188
0.88
139
0.50
46
0.28
40
0.64
105
0.62
227
1.58
172
0.91
71
0.83
62
0.96
71
0.95
152
0.79
154
0.99
80
0.67
170
0.21
120
0.23
253
0.24
167
0.23
213
0.23
158
0.25
160
IRAFT_RVCtwo views0.90
227
0.30
79
0.89
142
0.67
243
0.31
77
0.64
105
1.00
313
1.40
138
0.97
100
1.23
181
1.04
101
1.00
169
0.96
220
5.77
351
0.57
137
0.24
187
0.13
17
0.25
203
0.21
164
0.20
86
0.21
87
RALCasStereoNettwo views0.58
70
0.34
162
0.77
82
0.65
217
0.64
285
0.64
105
0.51
165
1.06
49
0.99
110
0.71
43
1.06
106
0.77
86
0.44
26
1.38
138
0.52
108
0.20
99
0.18
184
0.18
33
0.16
54
0.20
86
0.22
108
IPLGRtwo views0.62
92
0.28
43
1.32
253
0.50
46
0.29
51
0.65
109
0.34
40
1.47
152
1.19
185
1.21
175
1.07
108
0.70
72
0.65
116
1.05
91
0.55
127
0.18
40
0.15
112
0.20
70
0.17
70
0.21
121
0.20
70
AAGNettwo views1.84
346
0.30
79
0.79
92
0.66
230
0.32
97
0.65
109
0.50
164
1.02
37
1.01
117
1.47
279
1.21
163
0.99
165
1.16
277
2.76
288
22.69
416
0.24
187
0.13
17
0.22
120
0.20
128
0.24
187
0.16
13
TransformOpticalFlowtwo views0.97
246
0.30
79
0.96
169
0.54
100
0.31
77
0.65
109
0.54
188
1.87
238
1.19
185
1.12
123
1.44
236
1.34
255
0.98
230
6.68
371
0.44
61
0.19
65
0.12
5
0.21
93
0.19
102
0.18
34
0.23
122
FTStereotwo views0.92
235
0.28
43
0.61
28
0.57
140
0.34
122
0.65
109
1.80
372
1.09
62
0.84
58
1.75
322
4.13
379
1.04
179
1.62
330
1.59
177
0.48
88
0.21
120
0.17
161
0.23
146
0.22
186
0.19
59
0.58
337
TANstereotwo views0.45
11
0.23
6
0.50
13
0.43
5
0.21
2
0.65
109
0.26
10
0.83
10
0.88
65
0.95
83
0.99
82
0.51
32
0.45
28
0.56
6
0.36
16
0.19
65
0.24
261
0.16
8
0.13
11
0.17
20
0.27
193
Anonymoustwo views0.56
47
0.41
239
1.05
188
0.67
243
0.73
309
0.65
109
0.68
241
1.12
72
0.79
48
0.48
13
0.60
19
0.42
4
0.60
99
0.81
48
0.55
127
0.26
224
0.24
261
0.21
93
0.21
164
0.41
294
0.30
229
CrosDoStereotwo views1.56
326
0.26
19
0.78
88
0.51
57
0.29
51
0.66
115
11.86
407
1.18
95
1.00
114
1.35
238
1.76
303
0.99
165
1.83
349
6.64
369
0.83
206
0.19
65
0.15
112
0.20
70
0.22
186
0.18
34
0.25
160
KYRafttwo views0.77
168
0.29
61
0.68
49
0.59
162
0.29
51
0.66
115
0.83
281
1.05
48
0.89
66
1.63
312
2.22
344
1.15
211
0.99
233
1.59
177
0.41
49
0.21
120
0.14
58
0.22
120
0.28
267
0.21
121
1.01
370
DeepStereo_LLtwo views1.56
326
0.26
19
0.78
88
0.51
57
0.29
51
0.66
115
11.86
407
1.18
95
1.00
114
1.35
238
1.76
303
0.99
165
1.83
349
6.64
369
0.83
206
0.19
65
0.15
112
0.20
70
0.22
186
0.18
34
0.25
160
RAFT_R40two views0.84
206
0.30
79
0.83
115
0.63
200
0.31
77
0.66
115
0.43
107
1.15
89
0.99
110
1.47
279
1.10
119
1.00
169
0.84
170
5.44
345
0.53
117
0.23
169
0.13
17
0.23
146
0.20
128
0.23
158
0.19
51
cross-rafttwo views0.56
47
0.26
19
0.65
42
0.55
110
0.31
77
0.66
115
0.37
61
1.68
190
0.82
53
1.06
109
1.07
108
1.25
230
0.45
28
0.74
34
0.39
31
0.15
4
0.13
17
0.19
47
0.16
54
0.19
59
0.17
23
whm_ethtwo views0.69
136
0.51
274
1.32
253
0.56
122
0.64
285
0.67
120
0.45
132
1.59
177
1.33
246
1.02
97
1.92
327
0.48
24
0.48
43
0.71
30
0.53
117
0.24
187
0.20
208
0.25
203
0.24
225
0.25
196
0.35
267
STrans-v2two views1.06
265
0.31
104
1.02
182
0.52
69
0.33
110
0.67
120
0.78
264
2.66
365
1.26
217
1.15
141
1.46
241
1.37
261
1.40
314
6.68
371
0.46
76
0.19
65
0.13
17
0.21
93
0.18
84
0.18
34
0.21
87
RALAANettwo views0.62
92
0.37
204
0.97
170
0.66
230
0.50
225
0.67
120
0.31
25
1.27
121
1.09
144
1.11
115
1.17
152
0.88
126
0.46
35
1.27
126
0.45
72
0.20
99
0.15
112
0.21
93
0.18
84
0.27
208
0.19
51
MSKI-zero shottwo views0.56
47
0.30
79
0.61
28
0.55
110
0.28
40
0.68
123
0.28
17
1.25
116
0.68
23
0.92
77
1.33
204
0.81
97
0.33
10
1.94
227
0.36
16
0.18
40
0.13
17
0.17
13
0.13
11
0.16
11
0.19
51
LL-Strereo2two views0.56
47
0.36
188
0.77
82
0.56
122
0.40
170
0.68
123
0.37
61
1.21
107
0.83
56
0.96
84
0.79
43
0.91
137
0.41
16
1.08
99
0.48
88
0.18
40
0.17
161
0.29
253
0.25
233
0.22
140
0.19
51
RAFT_CTSACEtwo views0.66
110
0.29
61
1.14
210
0.57
140
0.51
234
0.68
123
0.44
124
0.88
18
0.98
103
1.03
101
1.83
314
1.23
225
0.67
122
1.48
159
0.38
28
0.16
7
0.16
139
0.21
93
0.20
128
0.20
86
0.17
23
MIPNettwo views0.60
87
0.31
104
1.07
195
0.51
57
0.34
122
0.68
123
0.40
79
1.67
189
1.14
167
1.11
115
0.93
66
0.60
48
0.78
149
0.77
40
0.58
142
0.18
40
0.14
58
0.19
47
0.16
54
0.18
34
0.21
87
GANet-ADLtwo views0.63
101
0.38
221
0.82
107
0.67
243
0.41
180
0.68
123
0.51
165
1.64
185
1.16
176
0.98
85
1.10
119
0.90
134
0.58
92
0.81
48
0.63
158
0.27
241
0.18
184
0.18
33
0.16
54
0.23
158
0.27
193
LCNettwo views0.73
152
0.30
79
0.58
18
0.58
150
0.31
77
0.68
123
0.53
179
1.09
62
0.94
88
1.19
163
1.34
207
0.96
156
1.32
305
2.50
274
0.46
76
0.19
65
0.13
17
0.21
93
0.25
233
0.28
223
0.69
354
R-Stereo Traintwo views0.60
87
0.30
79
0.72
57
0.57
140
0.37
144
0.68
123
0.52
173
1.45
147
0.78
42
1.61
308
1.50
253
0.76
82
0.53
61
0.67
27
0.51
102
0.19
65
0.16
139
0.18
33
0.15
30
0.18
34
0.19
51
RAFT-Stereopermissivetwo views0.60
87
0.30
79
0.72
57
0.57
140
0.37
144
0.68
123
0.52
173
1.45
147
0.78
42
1.61
308
1.50
253
0.76
82
0.53
61
0.67
27
0.51
102
0.19
65
0.16
139
0.18
33
0.15
30
0.18
34
0.19
51
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
AE-Stereotwo views0.58
70
0.29
61
0.81
98
0.62
190
0.41
180
0.69
131
0.46
138
2.49
351
1.25
211
0.49
16
0.77
39
0.69
69
0.46
35
0.61
14
0.42
54
0.17
18
0.16
139
0.21
93
0.20
128
0.19
59
0.18
32
xtwo views0.59
81
0.34
162
0.79
92
0.51
57
0.32
97
0.69
131
0.46
138
1.64
185
0.97
100
0.86
71
0.86
55
0.83
111
0.74
134
0.75
38
0.70
178
0.21
120
0.22
231
0.22
120
0.20
128
0.21
121
0.24
141
RAFTtwo views0.67
118
0.32
118
0.83
115
0.63
200
0.34
122
0.69
131
0.57
204
1.14
78
0.84
58
1.12
123
1.20
158
1.75
318
0.92
210
1.09
103
0.60
150
0.22
149
0.19
198
0.27
233
0.24
225
0.22
140
0.23
122
SST-Stereotwo views0.85
211
0.30
79
0.81
98
0.63
200
0.31
77
0.70
134
0.25
4
1.16
92
0.95
92
1.47
279
1.11
126
0.99
165
0.86
182
5.69
348
0.53
117
0.23
169
0.13
17
0.23
146
0.19
102
0.23
158
0.19
51
EAI-Stereotwo views0.76
163
0.31
104
0.74
72
0.55
110
0.28
40
0.70
134
1.72
365
2.57
358
0.90
70
0.75
50
3.03
366
0.57
42
0.43
22
1.10
105
0.49
97
0.19
65
0.14
58
0.17
13
0.18
84
0.17
20
0.21
87
test_4two views0.55
36
0.23
6
0.67
47
0.56
122
0.32
97
0.71
136
0.39
77
0.83
10
0.72
28
0.93
80
1.87
321
0.70
72
0.41
16
1.21
121
0.39
31
0.16
7
0.13
17
0.21
93
0.23
213
0.20
86
0.18
32
GMM-Stereotwo views0.75
158
0.27
35
0.66
44
0.56
122
0.34
122
0.71
136
0.97
308
1.09
62
0.91
71
1.37
244
1.79
307
1.11
203
0.79
154
2.08
247
0.48
88
0.19
65
0.12
5
0.25
203
0.25
233
0.21
121
0.78
361
PMTNettwo views0.47
22
0.22
3
0.43
5
0.39
2
0.24
6
0.71
136
0.26
10
0.78
5
1.03
123
0.65
38
0.69
27
0.55
38
0.48
43
0.90
68
0.36
16
0.99
374
0.13
17
0.15
3
0.10
1
0.15
4
0.15
3
CFNet_pseudotwo views0.68
127
0.34
162
0.93
153
0.50
46
0.39
161
0.72
139
0.42
91
1.44
145
1.25
211
1.17
147
1.35
212
1.22
221
0.66
120
1.04
88
0.64
161
0.21
120
0.17
161
0.33
286
0.19
102
0.39
286
0.28
204
111two views0.66
110
0.27
35
1.15
212
0.46
14
0.25
8
0.72
139
0.42
91
1.57
170
1.44
290
0.83
62
1.39
223
1.10
198
0.80
160
0.97
79
0.65
165
0.20
99
0.14
58
0.18
33
0.15
30
0.18
34
0.28
204
ccs_robtwo views0.68
127
0.34
162
0.93
153
0.50
46
0.39
161
0.72
139
0.42
91
1.43
144
1.25
211
1.17
147
1.34
207
1.22
221
0.66
120
1.04
88
0.64
161
0.21
120
0.17
161
0.35
300
0.20
128
0.40
290
0.29
216
LL-Strereotwo views1.42
313
0.44
250
2.02
311
0.62
190
1.07
361
0.73
142
0.65
235
2.02
270
1.21
195
1.60
307
1.62
282
2.02
339
2.10
362
9.67
400
1.07
251
0.22
149
0.20
208
0.27
233
0.24
225
0.23
158
0.33
252
PSMNet-RSSMtwo views0.78
170
0.32
118
0.89
142
0.65
217
0.43
190
0.73
142
0.58
211
2.14
295
1.19
185
1.18
158
1.38
221
1.31
248
1.07
263
1.43
150
0.82
205
0.28
252
0.21
221
0.27
233
0.29
282
0.25
196
0.26
177
ddtwo views0.62
92
0.51
274
1.17
226
0.56
122
0.33
110
0.74
144
0.46
138
1.03
43
1.40
276
0.80
55
0.87
57
0.60
48
0.57
77
1.02
86
0.86
210
0.28
252
0.18
184
0.26
224
0.19
102
0.35
267
0.27
193
ACREtwo views0.66
110
0.37
204
1.27
246
0.60
169
0.50
225
0.74
144
0.47
147
1.26
117
1.10
147
1.40
257
1.56
271
0.62
52
0.46
35
0.88
63
0.78
193
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
anonymousdsp2two views0.58
70
0.29
61
0.93
153
0.51
57
0.30
63
0.75
146
0.46
138
1.95
258
0.87
64
0.81
59
0.78
41
0.76
82
0.48
43
1.10
105
0.45
72
0.19
65
0.14
58
0.18
33
0.13
11
0.20
86
0.22
108
CIPLGtwo views0.67
118
0.37
204
1.17
226
0.60
169
0.51
234
0.75
146
0.48
151
1.26
117
1.11
151
1.43
267
1.58
276
0.64
58
0.48
43
0.94
71
0.78
193
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
IPLGR_Ctwo views0.67
118
0.38
221
1.20
232
0.60
169
0.50
225
0.75
146
0.48
151
1.28
125
1.13
161
1.42
263
1.57
275
0.62
52
0.48
43
0.85
59
0.80
202
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
HCRNettwo views0.72
149
0.40
230
0.86
135
0.61
182
0.57
261
0.75
146
0.35
49
1.39
137
1.21
195
1.11
115
0.99
82
1.01
173
0.76
140
2.18
255
0.73
182
0.28
252
0.19
198
0.28
245
0.23
213
0.25
196
0.26
177
AANet_RVCtwo views1.22
292
0.60
296
1.94
304
0.69
262
0.46
207
0.75
146
0.69
245
1.51
155
1.57
319
1.36
243
1.90
324
1.51
283
0.87
188
7.23
378
1.89
330
0.26
224
0.19
198
0.19
47
0.16
54
0.23
158
0.37
273
DualNettwo views1.46
317
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
369
1.19
163
1.49
246
1.07
186
0.85
175
1.57
171
13.82
400
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
ffmtwo views0.79
178
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
369
1.19
163
1.49
246
1.07
186
0.85
175
1.57
171
0.35
6
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
ff1two views1.88
347
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
369
1.19
163
1.49
246
1.07
186
0.85
175
9.88
404
13.82
400
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
mmxtwo views1.89
350
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
2.32
327
1.41
279
1.19
163
1.49
246
1.07
186
0.85
175
9.88
404
13.82
400
0.25
207
0.21
221
0.31
266
0.28
267
0.32
256
0.29
216
xxxcopylefttwo views1.89
350
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
2.32
327
1.41
279
1.19
163
1.49
246
1.07
186
0.85
175
9.88
404
13.82
400
0.25
207
0.21
221
0.31
266
0.28
267
0.32
256
0.29
216
CFNet_ucstwo views0.73
152
0.34
162
0.94
159
0.53
89
0.44
197
0.76
151
0.46
138
1.73
207
1.34
248
1.24
185
1.54
263
1.08
196
0.64
112
1.05
91
0.64
161
0.26
224
0.20
208
0.37
312
0.22
186
0.42
298
0.30
229
UDGNettwo views0.75
158
1.23
369
0.99
174
0.82
319
0.42
187
0.76
151
0.38
68
0.98
30
1.37
263
0.83
62
0.88
60
0.70
72
0.60
99
1.25
123
0.57
137
0.57
358
0.19
198
1.03
378
0.26
244
0.79
364
0.35
267
PSM-AADtwo views0.80
183
0.29
61
0.58
18
0.58
150
0.29
51
0.76
151
1.19
334
1.08
55
0.94
88
1.65
314
1.58
276
0.81
97
2.12
365
1.67
189
0.44
61
0.19
65
0.14
58
0.38
316
0.32
302
0.22
140
0.68
352
GrayStereotwo views0.83
202
0.28
43
0.62
31
0.66
230
0.37
144
0.76
151
1.79
369
1.19
99
0.91
71
1.98
344
1.89
322
1.07
186
1.76
345
1.43
150
0.50
100
0.20
99
0.15
112
0.19
47
0.21
164
0.18
34
0.41
289
CRE-IMPtwo views0.57
59
0.32
118
0.82
107
0.54
100
0.29
51
0.77
160
0.25
4
1.19
99
0.79
48
1.09
112
0.95
69
0.81
97
0.57
77
1.11
108
0.57
137
0.22
149
0.14
58
0.23
146
0.19
102
0.28
223
0.24
141
Sa-1000two views0.76
163
0.30
79
0.92
152
0.62
190
0.31
77
0.78
161
0.37
61
2.00
268
1.38
265
1.30
214
2.04
334
0.86
119
0.74
134
1.87
217
0.40
44
0.19
65
0.14
58
0.25
203
0.24
225
0.21
121
0.19
51
cf-rtwo views0.79
178
0.32
118
1.06
191
0.57
140
0.64
285
0.78
161
0.51
165
2.04
276
1.22
201
1.20
169
1.27
184
1.53
286
0.91
202
1.47
157
0.94
233
0.25
207
0.19
198
0.22
120
0.23
213
0.19
59
0.21
87
GwcNet-RSSMtwo views0.83
202
0.34
162
1.29
250
0.65
217
0.55
253
0.78
161
0.62
227
1.89
245
1.27
221
1.18
158
1.39
223
1.56
291
0.91
202
1.60
182
1.22
267
0.26
224
0.20
208
0.23
146
0.24
225
0.21
121
0.21
87
DeepPruner_ROBtwo views0.79
178
0.55
286
1.14
210
0.61
182
0.46
207
0.78
161
0.54
188
1.83
229
1.00
114
1.42
263
1.27
184
1.23
225
0.77
144
1.56
169
0.89
216
0.35
298
0.28
291
0.27
233
0.26
244
0.32
256
0.34
259
IPLGtwo views0.72
149
0.29
61
1.12
206
0.53
89
0.44
197
0.79
165
0.33
33
1.35
131
1.10
147
1.32
222
1.11
126
0.52
35
0.54
68
3.13
297
0.71
181
0.17
18
0.14
58
0.20
70
0.17
70
0.18
34
0.21
87
PCWNet_CMDtwo views0.68
127
0.34
162
0.93
153
0.51
57
0.38
154
0.80
166
0.42
91
1.51
155
1.34
248
1.17
147
1.31
195
1.23
225
0.65
116
0.94
71
0.62
156
0.21
120
0.17
161
0.27
233
0.19
102
0.43
300
0.28
204
AACVNettwo views0.90
227
0.40
230
0.98
172
0.86
332
0.40
170
0.80
166
0.49
159
1.81
224
0.86
63
1.11
115
1.34
207
1.32
252
0.99
233
4.23
319
0.86
210
0.26
224
0.22
231
0.28
245
0.22
186
0.30
243
0.28
204
RAFT-RH_RVCtwo views1.04
261
0.26
19
0.76
79
0.53
89
0.29
51
0.80
166
0.32
29
0.85
14
1.12
156
2.04
347
4.63
384
1.03
178
0.57
77
5.93
354
0.52
108
0.20
99
0.13
17
0.26
224
0.20
128
0.16
11
0.19
51
GMStereopermissivetwo views0.58
70
0.50
270
1.09
198
0.52
69
0.32
97
0.80
166
0.43
107
1.02
37
1.41
279
0.89
74
0.77
39
0.52
35
0.46
35
0.89
65
0.56
134
0.25
207
0.16
139
0.20
70
0.22
186
0.31
248
0.27
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
ACVNettwo views0.66
110
0.33
135
0.74
72
0.55
110
0.37
144
0.80
166
0.47
147
1.46
149
1.11
151
1.01
93
1.31
195
1.07
186
0.91
202
0.82
50
1.09
252
0.22
149
0.19
198
0.21
93
0.18
84
0.23
158
0.19
51
GANet-RSSMtwo views0.78
170
0.31
104
0.90
147
0.67
243
0.58
263
0.80
166
0.62
227
2.04
276
1.15
171
1.11
115
1.27
184
1.26
236
1.18
287
1.68
191
0.74
184
0.26
224
0.21
221
0.22
120
0.22
186
0.23
158
0.23
122
MSMDNettwo views0.68
127
0.34
162
0.93
153
0.52
69
0.38
154
0.80
166
0.42
91
1.52
157
1.35
251
1.17
147
1.31
195
1.23
225
0.65
116
0.94
71
0.62
156
0.21
120
0.17
161
0.26
224
0.19
102
0.41
294
0.28
204
pcwnet_v2two views0.91
232
0.39
225
2.74
340
0.64
211
0.55
253
0.81
173
0.49
159
2.19
311
1.63
325
1.44
270
1.64
287
1.09
197
0.79
154
1.31
127
0.70
178
0.32
280
0.25
274
0.29
253
0.27
258
0.37
276
0.37
273
GASNettwo views1.13
277
1.10
361
3.29
353
1.00
359
0.68
299
0.82
174
0.67
239
1.85
236
1.38
265
1.39
251
1.25
175
1.25
230
1.20
289
2.72
286
1.62
311
0.46
337
0.26
279
0.36
310
0.34
316
0.55
337
0.33
252
CASStwo views0.67
118
0.36
188
0.84
124
0.57
140
0.28
40
0.82
174
0.43
107
1.62
184
0.92
76
1.39
251
1.28
189
0.87
120
0.84
170
0.88
63
0.59
148
0.36
305
0.19
198
0.26
224
0.22
186
0.29
233
0.43
299
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
iRaft-Stereo_20wtwo views0.71
144
0.33
135
1.25
243
0.50
46
0.36
139
0.82
174
0.31
25
3.16
378
0.89
66
1.24
185
1.14
144
0.79
89
0.65
116
1.15
112
0.43
57
0.18
40
0.13
17
0.18
33
0.17
70
0.20
86
0.23
122
DAStwo views0.89
220
0.37
204
1.20
232
0.66
230
0.69
302
0.82
174
0.62
227
1.79
217
1.26
217
1.93
339
1.55
266
0.96
156
1.17
280
2.72
286
0.69
175
0.22
149
0.16
139
0.25
203
0.18
84
0.29
233
0.24
141
SepStereotwo views0.87
216
0.37
204
1.20
232
0.66
230
0.69
302
0.82
174
0.62
227
1.79
217
1.26
217
1.93
339
1.55
266
0.96
156
1.17
280
2.34
266
0.69
175
0.22
149
0.16
139
0.25
203
0.18
84
0.29
233
0.24
141
FENettwo views0.62
92
0.30
79
0.68
49
0.57
140
0.33
110
0.82
174
0.40
79
1.41
142
1.12
156
1.03
101
0.87
57
0.98
160
0.84
170
1.00
82
0.70
178
0.23
169
0.16
139
0.23
146
0.20
128
0.22
140
0.24
141
SMFormertwo views0.79
178
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.99
240
0.24
187
0.22
231
0.22
120
0.21
164
0.23
158
0.27
193
ttatwo views0.79
178
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.99
240
0.24
187
0.22
231
0.22
120
0.21
164
0.19
59
0.22
108
qqq1two views0.76
163
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.48
88
0.24
187
0.22
231
0.18
33
0.15
30
0.19
59
0.22
108
fff1two views0.76
163
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.48
88
0.24
187
0.22
231
0.18
33
0.15
30
0.19
59
0.22
108
11t1two views0.57
59
0.30
79
0.84
124
0.54
100
0.30
63
0.83
180
0.41
87
1.34
130
0.79
48
0.88
73
0.82
50
0.70
72
0.70
130
0.96
78
0.67
170
0.21
120
0.21
221
0.20
70
0.16
54
0.21
121
0.26
177
dadtwo views0.90
227
0.73
332
1.28
247
0.59
162
0.39
161
0.83
180
0.45
132
1.24
114
1.54
313
1.52
289
1.28
189
1.36
257
0.86
182
2.54
277
0.91
221
0.43
325
0.27
287
0.82
371
0.26
244
0.44
310
0.34
259
SACVNettwo views0.89
220
0.51
274
1.08
197
0.83
323
0.58
263
0.83
180
0.78
264
1.84
230
1.17
180
1.39
251
1.33
204
1.25
230
1.01
242
2.31
265
0.92
225
0.35
298
0.26
279
0.31
266
0.29
282
0.35
267
0.48
310
GMStereo_Zeroshotpermissivetwo views0.70
138
0.64
310
1.11
203
0.65
217
0.38
154
0.84
187
0.37
61
1.09
62
1.16
176
1.14
139
1.07
108
1.26
236
0.55
70
1.23
122
0.65
165
0.34
290
0.17
161
0.31
266
0.18
84
0.57
340
0.23
122
DMCA-RVCcopylefttwo views0.83
202
0.46
254
2.19
323
0.68
252
0.49
221
0.84
187
0.48
151
1.44
145
1.07
134
1.56
299
1.04
101
1.29
244
0.86
182
1.49
165
0.92
225
0.27
241
0.22
231
0.35
300
0.28
267
0.32
256
0.28
204
DMCAtwo views0.71
144
0.36
188
1.17
226
0.53
89
0.45
200
0.84
187
0.46
138
1.52
157
1.09
144
1.20
169
1.12
129
1.21
217
0.74
134
0.87
61
1.09
252
0.25
207
0.20
208
0.27
233
0.19
102
0.24
187
0.29
216
ICVPtwo views0.66
110
0.35
184
0.71
56
0.63
200
0.41
180
0.85
190
0.56
201
1.78
214
0.96
96
0.92
77
1.24
173
0.88
126
0.75
139
0.76
39
0.93
228
0.31
273
0.22
231
0.22
120
0.21
164
0.24
187
0.28
204
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
mmmtwo views0.68
127
0.37
204
0.91
150
0.54
100
0.34
122
0.86
191
0.58
211
1.72
206
1.02
120
1.13
126
1.41
231
0.83
111
0.78
149
0.95
77
0.67
170
0.22
149
0.20
208
0.29
253
0.26
244
0.27
208
0.27
193
riskmintwo views0.62
92
0.29
61
0.73
67
0.50
46
0.34
122
0.86
191
0.44
124
1.74
208
1.07
134
0.76
51
0.76
36
1.19
214
1.01
242
0.84
56
0.60
150
0.20
99
0.16
139
0.24
167
0.16
54
0.24
187
0.29
216
CFNet-ftpermissivetwo views0.78
170
0.36
188
0.74
72
0.67
243
0.56
257
0.86
191
0.54
188
1.46
149
1.17
180
1.01
93
1.28
189
1.68
307
1.03
249
1.57
171
0.95
235
0.27
241
0.21
221
0.33
286
0.26
244
0.31
248
0.26
177
CFNet_RVCtwo views0.78
170
0.36
188
0.74
72
0.67
243
0.56
257
0.86
191
0.54
188
1.46
149
1.17
180
1.01
93
1.28
189
1.68
307
1.03
249
1.57
171
0.95
235
0.27
241
0.21
221
0.33
286
0.26
244
0.31
248
0.26
177
STTStereotwo views0.82
193
0.53
280
1.53
279
0.68
252
0.56
257
0.88
195
0.56
201
1.57
170
1.14
167
1.39
251
1.10
119
1.26
236
0.84
170
1.49
165
0.90
219
0.29
264
0.28
291
0.33
286
0.40
331
0.33
261
0.37
273
test_5two views0.70
138
0.32
118
0.99
174
0.69
262
0.50
225
0.89
196
0.51
165
1.88
243
1.14
167
0.78
52
1.13
139
1.04
179
0.89
197
1.59
177
0.46
76
0.19
65
0.14
58
0.23
146
0.22
186
0.22
140
0.20
70
ARAFTtwo views0.82
193
0.40
230
1.77
292
0.53
89
0.31
77
0.89
196
0.81
276
2.32
327
1.08
137
1.66
315
1.25
175
1.04
179
0.64
112
1.91
224
0.52
108
0.20
99
0.15
112
0.28
245
0.27
258
0.17
20
0.18
32
UCFNet_RVCtwo views0.72
149
0.37
204
0.59
22
0.66
230
0.41
180
0.89
196
0.68
241
1.78
214
1.15
171
1.01
93
1.20
158
1.22
221
0.95
218
1.07
97
0.66
169
0.28
252
0.21
221
0.34
294
0.31
297
0.33
261
0.29
216
MyStereo8two views0.70
138
0.32
118
1.24
241
0.63
200
0.53
242
0.90
199
0.34
40
1.60
179
1.35
251
1.20
169
1.31
195
0.89
132
0.64
112
0.77
40
1.02
247
0.18
40
0.15
112
0.20
70
0.18
84
0.22
140
0.30
229
FADNet-RVCtwo views0.96
245
0.72
329
2.96
344
0.64
211
0.49
221
0.90
199
0.59
215
1.85
236
1.27
221
0.92
77
0.97
78
1.36
257
0.90
200
2.36
268
1.31
277
0.30
269
0.29
299
0.32
278
0.32
302
0.42
298
0.37
273
Selective-RAFTtwo views0.55
36
0.29
61
0.85
130
0.58
150
0.28
40
0.91
201
0.34
40
1.00
36
0.96
96
0.59
31
0.64
20
0.80
91
0.76
140
1.34
132
0.51
102
0.21
120
0.15
112
0.17
13
0.15
30
0.19
59
0.19
51
DIP-Stereotwo views0.64
104
0.32
118
0.91
150
0.49
34
0.36
139
0.91
201
0.33
33
2.51
354
0.77
41
1.25
188
1.00
86
0.68
65
0.51
55
0.92
70
0.65
165
0.19
65
0.15
112
0.21
93
0.17
70
0.19
59
0.22
108
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
DeepPrunerFtwo views1.68
335
0.82
340
6.82
377
0.94
353
1.20
373
0.91
201
0.97
308
2.50
352
5.19
398
1.22
180
1.30
194
1.18
213
1.29
299
4.96
335
1.75
324
0.43
325
0.35
327
0.52
348
0.48
350
0.43
300
0.42
295
TDLMtwo views1.08
271
0.50
270
1.01
180
0.69
262
0.54
249
0.91
201
1.40
349
1.60
179
1.36
258
1.17
147
1.40
228
1.07
186
1.00
239
6.19
358
0.85
209
0.34
290
0.22
231
0.35
300
0.26
244
0.38
282
0.29
216
PS-NSSStwo views1.02
258
0.62
306
1.17
226
0.61
182
0.58
263
0.91
201
0.79
272
2.02
270
1.19
185
1.17
147
1.68
293
1.00
169
0.85
175
4.43
324
0.86
210
0.38
308
0.31
308
0.52
348
0.32
302
0.52
328
0.45
304
MLCVtwo views0.77
168
0.39
225
1.31
251
0.55
110
0.25
8
0.91
201
0.39
77
1.48
154
1.28
225
1.49
286
1.54
263
1.02
175
0.68
125
2.12
251
0.93
228
0.19
65
0.13
17
0.19
47
0.14
22
0.19
59
0.22
108
iResNet_ROBtwo views0.82
193
0.36
188
1.13
207
0.60
169
0.37
144
0.91
201
0.38
68
2.41
338
1.61
324
1.35
238
1.35
212
1.25
230
0.97
227
1.75
200
0.88
214
0.21
120
0.14
58
0.17
13
0.12
9
0.19
59
0.30
229
HHtwo views0.68
127
0.33
135
0.83
115
0.53
89
0.34
122
0.92
208
0.45
132
1.79
217
0.74
36
0.71
43
1.13
139
1.60
295
0.83
168
1.95
230
0.39
31
0.18
40
0.14
58
0.19
47
0.17
70
0.19
59
0.19
51
HanStereotwo views0.68
127
0.33
135
0.83
115
0.53
89
0.34
122
0.92
208
0.45
132
1.79
217
0.74
36
0.71
43
1.13
139
1.60
295
0.83
168
1.95
230
0.39
31
0.18
40
0.14
58
0.19
47
0.17
70
0.19
59
0.19
51
ToySttwo views0.73
152
0.35
184
1.64
286
0.54
100
0.37
144
0.92
208
0.81
276
1.21
107
1.03
123
0.86
71
1.12
129
1.31
248
1.01
242
1.04
88
0.88
214
0.19
65
0.20
208
0.24
167
0.24
225
0.27
208
0.28
204
Anonymous3two views0.64
104
0.47
259
1.31
251
0.59
162
0.50
225
0.93
211
0.69
245
1.11
70
0.83
56
0.74
48
0.89
62
0.65
59
0.68
125
1.08
99
0.54
126
0.40
317
0.31
308
0.26
224
0.26
244
0.31
248
0.30
229
CVANet_RVCtwo views1.10
273
0.49
267
1.15
212
0.65
217
0.54
249
0.93
211
1.00
313
1.69
199
1.36
258
1.42
263
1.39
223
1.24
229
1.17
280
6.22
360
0.80
202
0.35
298
0.24
261
0.35
300
0.30
293
0.44
310
0.32
246
ttttwo views1.26
301
0.36
188
0.79
92
0.65
217
0.42
187
0.94
213
0.57
204
2.33
332
1.38
265
1.25
188
1.65
288
0.92
142
0.78
149
2.64
281
8.73
388
0.30
269
0.28
291
0.26
224
0.25
233
0.29
233
0.32
246
THIR-Stereotwo views1.02
258
0.29
61
0.73
67
0.51
57
0.29
51
0.94
213
1.31
344
1.08
55
0.98
103
1.35
238
1.91
326
1.16
212
1.54
326
6.37
366
0.79
197
0.20
99
0.14
58
0.21
93
0.22
186
0.19
59
0.25
160
GEStwo views0.70
138
0.37
204
1.05
188
0.62
190
0.38
154
0.94
213
0.57
204
2.37
334
0.92
76
1.05
105
1.12
129
0.67
63
0.77
144
1.02
86
0.65
165
0.28
252
0.20
208
0.20
70
0.20
128
0.22
140
0.31
238
test_xeamplepermissivetwo views1.55
325
0.31
104
0.94
159
0.54
100
0.31
77
0.94
213
0.58
211
2.40
337
1.40
276
1.29
212
1.55
266
0.89
132
0.88
195
1.72
197
15.94
407
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
AdaStereotwo views0.74
155
0.48
262
0.86
135
0.75
299
0.38
154
0.94
213
0.56
201
2.05
280
1.24
205
1.15
141
1.22
165
1.07
186
0.67
122
1.05
91
0.73
182
0.33
283
0.16
139
0.32
278
0.22
186
0.29
233
0.23
122
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
iResNetv2_ROBtwo views0.88
218
0.43
245
2.62
339
0.60
169
0.38
154
0.94
213
0.67
239
1.88
243
1.38
265
1.27
203
1.45
239
1.26
236
1.05
260
1.92
225
0.64
161
0.24
187
0.15
112
0.19
47
0.14
22
0.24
187
0.21
87
RAFT-Testtwo views0.58
70
0.27
35
0.81
98
0.50
46
0.33
110
0.95
219
0.27
14
1.40
138
0.89
66
1.00
90
1.12
129
1.39
263
0.48
43
0.74
34
0.41
49
0.17
18
0.14
58
0.17
13
0.14
22
0.16
11
0.18
32
DRafttwo views0.81
191
0.26
19
0.77
82
0.47
24
0.31
77
0.95
219
0.52
173
1.13
76
0.99
110
1.78
327
2.01
333
0.80
91
1.71
341
2.64
281
0.74
184
0.19
65
0.14
58
0.20
70
0.20
128
0.18
34
0.24
141
GEStereo_RVCtwo views0.93
240
0.40
230
1.15
212
0.67
243
0.50
225
0.95
219
0.78
264
2.73
367
1.21
195
1.20
169
1.12
129
1.25
230
0.91
202
3.21
300
0.95
235
0.31
273
0.20
208
0.23
146
0.20
128
0.28
223
0.31
238
FADNettwo views0.98
249
0.64
310
2.57
335
0.66
230
0.55
253
0.95
219
0.57
204
1.91
249
1.38
265
0.94
81
1.02
90
1.36
257
1.00
239
2.69
284
0.97
239
0.34
290
0.34
323
0.31
266
0.34
316
0.61
349
0.42
295
NLCA_NET_v2_RVCtwo views0.84
206
0.46
254
1.40
263
0.69
262
0.61
278
0.95
219
0.52
173
1.68
190
1.21
195
1.39
251
1.15
149
1.42
265
0.88
195
1.78
204
0.93
228
0.26
224
0.23
253
0.27
233
0.27
258
0.30
243
0.39
282
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
Consistency-Rafttwo views1.27
304
1.01
356
2.17
321
1.04
361
1.20
373
0.96
224
1.00
313
1.84
230
1.95
349
1.38
249
2.11
338
1.44
269
1.03
249
1.18
118
1.40
288
0.73
369
0.83
384
0.89
373
0.99
385
1.33
378
0.95
369
iResNettwo views0.80
183
0.45
251
1.47
267
0.72
279
0.31
77
0.96
224
0.64
233
1.80
221
1.28
225
1.31
220
1.48
245
0.94
149
0.78
149
1.77
202
0.99
240
0.19
65
0.14
58
0.18
33
0.15
30
0.22
140
0.27
193
Any-RAFTtwo views0.55
36
0.27
35
0.49
11
0.50
46
0.27
19
0.98
226
0.25
4
1.71
203
1.08
137
0.90
75
0.99
82
1.13
207
0.46
35
0.74
34
0.35
6
0.19
65
0.13
17
0.17
13
0.13
11
0.16
11
0.19
51
hitnet-ftcopylefttwo views0.84
206
0.38
221
0.75
77
0.59
162
0.44
197
0.99
227
0.47
147
1.61
181
1.38
265
1.21
175
1.22
165
1.82
321
0.99
233
1.87
217
1.09
252
0.33
283
0.29
299
0.34
294
0.27
258
0.36
271
0.33
252
1111xtwo views1.96
353
0.32
118
1.54
280
0.54
100
0.30
63
1.00
228
0.69
245
2.47
347
1.33
246
1.21
175
1.44
236
1.21
217
1.11
271
8.49
391
16.14
408
0.22
149
0.23
253
0.22
120
0.23
213
0.25
196
0.26
177
s12784htwo views0.55
36
0.22
3
0.49
11
0.43
5
0.19
1
1.00
228
0.34
40
1.40
138
1.30
235
0.84
65
0.93
66
0.63
56
0.52
59
1.48
159
0.47
84
0.15
4
0.12
5
0.17
13
0.11
6
0.19
59
0.13
2
RASNettwo views1.16
281
0.34
162
1.11
203
0.73
286
0.86
342
1.00
228
0.60
223
1.56
167
1.43
288
1.07
110
1.37
217
2.08
346
1.44
319
7.00
376
1.56
305
0.20
99
0.17
161
0.17
13
0.19
102
0.19
59
0.19
51
DEmStereotwo views0.98
249
0.25
16
0.85
130
0.49
34
0.33
110
1.02
231
0.55
195
0.97
26
0.93
83
1.41
259
2.13
339
1.01
173
2.01
356
5.62
347
0.78
193
0.19
65
0.15
112
0.20
70
0.20
128
0.18
34
0.25
160
CFNettwo views0.99
251
0.40
230
1.23
238
0.65
217
0.43
190
1.03
232
0.49
159
2.01
269
1.35
251
1.02
97
1.39
223
1.10
198
0.86
182
5.47
346
0.89
216
0.24
187
0.18
184
0.28
245
0.27
258
0.27
208
0.22
108
Anonymous_2two views1.37
307
0.56
289
0.94
159
0.57
140
0.62
282
1.04
233
0.65
235
1.82
227
1.01
117
1.00
90
0.79
43
1.42
265
1.27
297
1.06
95
0.83
206
0.62
361
0.67
380
1.05
379
9.88
416
1.09
375
0.55
329
ac_64two views0.86
213
0.32
118
1.02
182
0.74
292
0.60
273
1.04
233
0.53
179
2.20
314
0.99
110
1.23
181
1.11
126
1.96
333
1.06
261
2.01
238
1.01
245
0.30
269
0.22
231
0.24
167
0.23
213
0.22
140
0.22
108
BEATNet_4xtwo views0.82
193
0.54
283
2.02
311
0.56
122
0.28
40
1.04
233
0.55
195
2.14
295
1.13
161
1.24
185
1.26
177
1.00
169
0.94
213
1.13
110
1.23
270
0.21
120
0.14
58
0.24
167
0.20
128
0.37
276
0.23
122
222two views1.67
333
0.31
104
0.93
153
0.59
162
0.31
77
1.05
236
0.43
107
2.39
335
1.47
301
1.37
244
1.55
266
0.94
149
0.94
213
1.98
233
17.76
410
0.24
187
0.22
231
0.21
93
0.20
128
0.22
140
0.26
177
psm_uptwo views0.83
202
0.37
204
0.88
139
0.68
252
0.59
269
1.05
236
0.92
298
1.68
190
1.17
180
1.41
259
1.22
165
1.30
246
1.31
303
1.39
140
0.89
216
0.27
241
0.30
303
0.31
266
0.27
258
0.28
223
0.28
204
HITNettwo views0.71
144
0.42
241
1.07
195
0.52
69
0.25
8
1.05
236
0.48
151
2.12
290
1.08
137
1.21
175
1.23
169
0.91
137
0.84
170
0.90
68
0.91
221
0.17
18
0.12
5
0.21
93
0.17
70
0.29
233
0.18
32
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
EDNetEfficienttwo views2.40
370
1.14
363
8.59
386
0.77
307
0.73
309
1.06
239
1.53
355
1.54
163
4.06
391
4.87
398
2.81
361
2.23
347
3.53
388
3.04
295
9.65
393
0.27
241
0.24
261
0.27
233
0.31
297
0.70
358
0.67
349
Anonymous Stereotwo views1.42
313
0.90
345
3.93
361
0.81
315
0.83
337
1.06
239
1.90
375
1.81
224
1.52
309
1.75
322
1.44
236
1.28
242
0.87
188
5.94
355
1.94
332
0.38
308
0.39
343
0.38
316
0.41
335
0.45
312
0.50
314
FADNet-RVC-Resampletwo views0.91
232
0.51
274
2.92
343
0.64
211
0.46
207
1.07
241
0.60
223
1.76
211
1.24
205
1.10
114
0.98
81
1.06
183
0.98
230
2.17
254
0.95
235
0.24
187
0.22
231
0.30
262
0.32
302
0.36
271
0.40
286
anonymitytwo views1.14
278
0.98
354
1.24
241
1.09
364
1.13
365
1.08
242
0.90
294
2.02
270
1.23
204
1.32
222
1.27
184
1.27
241
1.09
266
1.16
114
1.03
248
1.02
375
1.01
398
0.97
375
0.97
382
0.98
370
1.01
370
aanetorigintwo views1.26
301
0.85
343
3.00
345
0.72
279
0.80
330
1.08
242
1.05
317
1.12
72
1.39
274
3.53
385
2.60
358
1.72
311
1.73
343
1.98
233
1.77
327
0.26
224
0.24
261
0.26
224
0.25
233
0.38
282
0.51
319
NOSS_ROBtwo views1.29
305
0.49
267
0.68
49
0.60
169
0.40
170
1.09
244
0.77
261
1.94
255
1.44
290
1.04
103
1.46
241
1.10
198
0.81
164
10.57
409
0.78
193
0.46
337
0.43
352
0.48
343
0.45
344
0.45
312
0.43
299
DLCB_ROBtwo views0.92
235
0.43
245
0.95
162
0.71
274
0.55
253
1.11
245
0.83
281
1.61
181
1.32
244
1.67
316
1.66
289
1.70
310
0.93
211
1.96
232
1.34
282
0.26
224
0.25
274
0.27
233
0.28
267
0.28
223
0.28
204
XPNet_ROBtwo views1.02
258
0.56
289
1.33
255
0.75
299
0.58
263
1.11
245
1.13
325
1.77
212
1.29
233
1.88
334
1.43
234
1.63
300
1.13
276
2.04
241
1.69
319
0.40
317
0.31
308
0.33
286
0.29
282
0.37
276
0.37
273
ADLNet2two views0.92
235
0.37
204
1.25
243
0.80
312
0.65
291
1.12
247
0.75
258
1.95
258
1.42
287
1.26
198
1.67
291
1.68
307
1.04
255
1.80
211
1.23
270
0.25
207
0.22
231
0.21
93
0.22
186
0.27
208
0.31
238
CoDeXtwo views0.78
170
0.31
104
1.04
186
0.56
122
0.37
144
1.13
248
0.60
223
2.77
369
1.29
233
1.17
147
1.26
177
0.91
137
0.87
188
1.42
148
0.74
184
0.21
120
0.16
139
0.21
93
0.18
84
0.21
121
0.21
87
PSMNet-ADLtwo views0.75
158
0.36
188
0.69
53
0.71
274
0.47
213
1.13
248
0.46
138
1.47
152
1.07
134
0.85
67
1.18
154
1.31
248
0.94
213
1.56
169
1.06
250
0.34
290
0.22
231
0.22
120
0.23
213
0.27
208
0.36
270
FAT-Stereotwo views1.10
273
0.43
245
1.46
266
0.74
292
0.60
273
1.13
248
0.92
298
2.06
281
1.71
331
1.75
322
2.00
332
2.02
339
1.47
322
2.02
240
1.26
274
0.44
333
0.36
331
0.34
294
0.29
282
0.36
271
0.57
334
tt1two views0.65
108
0.34
162
0.65
42
0.60
169
0.27
19
1.14
251
0.48
151
1.08
55
2.62
369
0.59
31
0.79
43
0.49
28
0.80
160
1.57
171
0.35
6
0.21
120
0.13
17
0.25
203
0.16
54
0.20
86
0.23
122
AASNettwo views0.80
183
0.39
225
1.16
225
0.84
327
0.80
330
1.14
251
0.59
215
2.12
290
1.21
195
1.26
198
1.26
177
0.93
144
0.77
144
0.84
56
1.23
270
0.28
252
0.24
261
0.24
167
0.20
128
0.28
223
0.27
193
RPtwo views1.17
283
0.54
283
1.48
268
0.93
350
1.05
360
1.14
251
0.85
288
1.99
267
1.70
329
1.72
320
2.07
336
1.91
323
1.93
354
2.00
237
1.37
286
0.55
356
0.37
335
0.48
343
0.37
326
0.46
316
0.46
309
xxxxtwo views1.61
329
0.32
118
0.98
172
0.58
150
0.31
77
1.15
254
0.43
107
2.43
340
1.41
279
1.17
147
1.40
228
1.21
217
0.86
182
1.94
227
16.68
409
0.24
187
0.24
261
0.21
93
0.20
128
0.23
158
0.27
193
HSM-Net_RVCpermissivetwo views0.91
232
0.31
104
0.60
24
0.54
100
0.31
77
1.15
254
0.60
223
3.76
385
1.30
235
1.57
302
1.75
302
1.67
305
1.01
242
1.61
184
0.90
219
0.23
169
0.17
161
0.19
47
0.18
84
0.20
86
0.22
108
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
ETE_ROBtwo views1.01
257
0.69
323
1.49
269
0.72
279
0.50
225
1.15
254
1.12
323
1.91
249
1.24
205
1.94
341
1.50
253
1.73
313
1.06
261
1.78
204
1.33
281
0.33
283
0.26
279
0.38
316
0.34
316
0.40
290
0.44
302
ACVNet-DCAtwo views0.59
81
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.58
172
0.91
71
0.60
34
0.80
46
0.47
20
0.87
188
1.48
159
0.35
6
0.21
120
0.13
17
0.25
203
0.15
30
0.23
158
0.25
160
xx1two views0.70
138
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.07
50
3.23
381
0.60
34
0.80
46
0.95
152
0.79
154
1.48
159
0.35
6
0.21
120
0.13
17
0.24
167
0.23
213
0.23
158
0.25
160
1test111two views0.58
70
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.58
172
0.91
71
0.60
34
0.80
46
0.47
20
0.87
188
0.99
80
0.67
170
0.21
120
0.13
17
0.25
203
0.15
30
0.23
158
0.25
160
cc1two views0.68
127
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.07
50
3.23
381
0.60
34
0.80
46
0.47
20
0.87
188
1.48
159
0.35
6
0.21
120
0.13
17
0.25
203
0.15
30
0.19
59
0.23
122
psmorigintwo views1.69
337
0.74
334
13.13
398
0.70
271
0.60
273
1.16
257
0.79
272
1.69
199
1.25
211
2.07
349
1.77
305
2.23
347
1.51
325
2.14
252
1.45
293
0.39
315
0.41
346
0.34
294
0.33
311
0.45
312
0.63
346
HGLStereotwo views0.89
220
0.42
241
1.15
212
0.82
319
1.03
359
1.16
257
0.57
204
1.68
190
1.28
225
1.26
198
1.62
282
1.13
207
1.31
303
1.85
213
1.11
256
0.25
207
0.24
261
0.24
167
0.22
186
0.24
187
0.29
216
PWC_ROBbinarytwo views1.39
309
0.93
351
4.07
363
0.77
307
0.83
337
1.16
257
0.53
179
1.87
238
2.01
352
2.36
357
3.06
367
1.65
302
1.60
329
2.65
283
2.29
343
0.34
290
0.23
253
0.36
310
0.25
233
0.39
286
0.49
311
FADNet_RVCtwo views0.88
218
0.56
289
2.15
320
0.57
140
0.43
190
1.17
264
0.46
138
1.68
190
1.12
156
0.91
76
1.24
173
0.91
137
0.94
213
2.22
257
1.20
262
0.28
252
0.22
231
0.32
278
0.28
267
0.46
316
0.42
295
PASMtwo views1.48
320
1.08
358
3.96
362
0.93
350
0.93
349
1.17
264
1.19
334
1.77
212
1.65
326
1.90
335
1.52
261
1.75
318
1.42
316
4.54
326
1.52
303
0.64
363
0.68
382
0.69
368
0.79
375
0.70
358
0.74
357
edge stereotwo views1.15
280
0.54
283
1.50
270
0.73
286
0.66
294
1.18
266
0.84
283
2.13
294
1.41
279
1.73
321
1.84
315
2.53
362
1.46
320
2.46
272
1.35
284
0.43
325
0.41
346
0.54
353
0.36
322
0.43
300
0.50
314
PA-Nettwo views1.14
278
0.63
307
2.12
318
0.67
243
0.75
316
1.19
267
0.91
296
1.91
249
1.46
300
1.18
158
1.23
169
1.33
254
1.17
280
4.31
322
1.41
289
0.29
264
0.46
359
0.33
286
0.50
354
0.33
261
0.57
334
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
RAFT + AFFtwo views1.07
269
0.47
259
1.36
258
0.68
252
0.50
225
1.20
268
1.22
337
2.58
359
1.26
217
1.33
227
1.56
271
1.19
214
1.49
324
3.89
317
1.01
245
0.22
149
0.26
279
0.30
262
0.27
258
0.29
233
0.32
246
NVstereo2Dtwo views0.99
251
0.45
251
2.21
324
0.79
311
0.75
316
1.20
268
0.86
289
1.98
263
1.41
279
1.02
97
1.18
154
1.31
248
0.97
227
2.25
260
0.93
228
0.45
336
0.22
231
0.39
320
0.25
233
0.59
343
0.68
352
S-Stereotwo views1.17
283
0.48
262
2.25
327
0.83
323
0.81
334
1.22
270
1.17
332
2.12
290
2.08
355
1.47
279
2.13
339
1.55
289
1.16
277
2.09
248
1.46
295
0.42
324
0.40
345
0.35
300
0.32
302
0.45
312
0.73
356
HSMtwo views1.22
292
0.34
162
0.81
98
0.61
182
0.39
161
1.22
270
0.63
232
2.45
342
1.25
211
1.32
222
1.26
177
1.91
323
1.08
264
9.21
396
0.75
187
0.23
169
0.17
161
0.20
70
0.16
54
0.22
140
0.24
141
acv_fttwo views0.78
170
0.33
135
1.10
201
0.73
286
0.86
342
1.23
272
0.57
204
1.65
188
1.11
151
1.31
220
1.31
195
1.07
186
0.91
202
0.82
50
1.35
284
0.22
149
0.19
198
0.21
93
0.18
84
0.22
140
0.19
51
ADLNettwo views0.89
220
0.39
225
1.09
198
0.88
335
0.73
309
1.24
273
0.75
258
2.02
270
1.41
279
1.58
303
1.37
217
1.26
236
1.00
239
1.31
127
1.18
260
0.28
252
0.21
221
0.26
224
0.26
244
0.29
233
0.36
270
BSDual-CNNtwo views0.75
158
0.34
162
0.77
82
0.55
110
0.45
200
1.25
274
0.66
237
2.65
362
1.04
129
1.25
188
1.12
129
1.11
203
0.77
144
0.94
71
0.76
190
0.25
207
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
hknettwo views0.82
193
0.34
162
1.15
212
0.55
110
0.39
161
1.25
274
0.66
237
2.65
362
1.10
147
1.25
188
1.12
129
1.58
294
0.85
175
1.41
143
0.79
197
0.23
169
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
UPFNettwo views0.84
206
0.34
162
1.09
198
0.62
190
0.74
313
1.25
274
0.78
264
1.69
199
1.20
189
1.39
251
1.13
139
1.30
246
0.87
188
1.73
198
1.22
267
0.24
187
0.26
279
0.24
167
0.23
213
0.26
206
0.20
70
PSMNet_ROBtwo views0.95
241
0.57
294
1.45
265
0.75
299
0.64
285
1.28
277
1.12
323
1.84
230
1.15
171
1.16
145
1.29
193
1.44
269
0.89
197
1.74
199
1.70
321
0.33
283
0.25
274
0.37
312
0.39
329
0.36
271
0.32
246
ssnet_v2two views0.92
235
0.39
225
1.22
236
0.66
230
0.39
161
1.31
278
0.96
307
2.32
327
1.45
295
1.48
284
1.17
152
1.53
286
0.91
202
1.16
114
1.71
323
0.31
273
0.27
287
0.30
262
0.29
282
0.28
223
0.29
216
IERtwo views0.74
155
0.33
135
1.25
243
0.50
46
0.53
242
1.32
279
0.55
195
1.31
128
1.08
137
1.30
214
1.34
207
1.11
203
1.10
269
1.05
91
0.81
204
0.20
99
0.17
161
0.21
93
0.21
164
0.20
86
0.21
87
LMCR-Stereopermissivemany views0.87
216
0.50
270
0.99
174
0.80
312
0.43
190
1.32
279
0.55
195
2.79
372
1.03
123
1.55
298
1.49
246
0.74
80
1.01
242
1.76
201
0.99
240
0.30
269
0.17
161
0.22
120
0.18
84
0.31
248
0.22
108
NCC-stereotwo views1.20
289
0.60
296
1.84
298
0.88
335
0.95
353
1.32
279
0.94
303
2.14
295
1.36
258
1.43
267
1.79
307
1.93
327
2.13
366
2.54
277
1.41
289
0.49
345
0.38
338
0.45
336
0.59
366
0.43
300
0.45
304
Abc-Nettwo views1.20
289
0.60
296
1.84
298
0.88
335
0.95
353
1.32
279
0.94
303
2.14
295
1.36
258
1.43
267
1.79
307
1.93
327
2.13
366
2.54
277
1.41
289
0.49
345
0.38
338
0.45
336
0.59
366
0.43
300
0.45
304
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
StereoDRNet-Refinedtwo views0.84
206
0.43
245
1.01
180
0.66
230
0.43
190
1.32
279
0.49
159
1.64
185
1.24
205
1.53
292
1.45
239
1.49
279
0.97
227
1.32
130
1.31
277
0.21
120
0.17
161
0.27
233
0.25
233
0.25
196
0.34
259
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
NCCL2two views1.06
265
0.64
310
1.35
256
0.78
310
0.58
263
1.32
279
1.69
361
1.89
245
1.38
265
1.52
289
1.20
158
1.91
323
1.17
280
1.79
209
1.50
299
0.35
298
0.31
308
0.45
336
0.44
341
0.41
294
0.45
304
UDGtwo views1.47
318
2.69
404
1.13
207
1.45
379
1.65
383
1.34
285
0.79
272
1.75
210
1.27
221
1.29
212
1.74
301
1.99
335
1.39
313
1.66
188
1.51
301
0.91
372
0.55
372
2.30
389
0.76
373
1.99
381
1.20
378
Wz-Net-SNSevtwo views1.68
335
1.45
376
8.71
387
0.71
274
0.67
298
1.35
286
1.51
352
2.15
299
1.47
301
1.51
287
1.68
293
2.27
350
1.38
311
4.23
319
2.36
345
0.32
280
0.29
299
0.31
266
0.33
311
0.43
300
0.39
282
SFCPSMtwo views0.74
155
0.30
79
1.06
191
0.52
69
0.39
161
1.36
287
0.64
233
2.42
339
1.11
151
1.18
158
1.21
163
0.81
97
0.78
149
1.08
99
0.57
137
0.22
149
0.17
161
0.22
120
0.24
225
0.23
158
0.21
87
gwcnet-sptwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
244
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
scenettwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
244
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
ssnettwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
244
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
DGSMNettwo views1.24
299
0.84
342
3.20
349
0.91
344
0.92
346
1.39
291
1.34
345
2.46
346
1.44
290
1.34
234
1.66
289
1.50
281
1.03
249
1.85
213
1.30
276
0.48
343
0.48
362
0.55
357
0.51
356
0.78
363
0.79
362
Syn2CoExtwo views1.23
296
0.80
336
3.07
347
0.83
323
0.68
299
1.39
291
0.87
291
2.23
316
1.57
319
1.28
208
1.58
276
1.42
265
1.57
328
3.79
315
1.48
298
0.36
305
0.32
318
0.34
294
0.30
293
0.30
243
0.41
289
GANettwo views1.41
311
0.52
278
1.18
230
0.74
292
0.48
215
1.40
293
1.69
361
1.87
238
1.28
225
1.56
299
2.39
351
1.56
291
1.25
294
9.13
394
1.20
262
0.31
273
0.32
318
0.34
294
0.29
282
0.40
290
0.33
252
CBMV_ROBtwo views0.99
251
0.46
254
0.68
49
0.53
89
0.39
161
1.40
293
0.48
151
2.09
286
1.30
235
1.53
292
2.29
347
1.36
257
1.23
290
2.46
272
1.04
249
0.44
333
0.42
351
0.47
342
0.44
341
0.41
294
0.39
282
anonymousatwo views0.78
170
0.30
79
0.85
130
0.51
57
0.96
355
1.41
295
0.47
147
1.61
181
0.94
88
1.33
227
1.77
305
1.66
303
1.11
271
0.72
32
0.63
158
0.19
65
0.18
184
0.23
146
0.25
233
0.20
86
0.22
108
AF-Nettwo views1.23
296
0.56
289
2.31
328
0.88
335
0.93
349
1.41
295
0.73
256
2.27
323
1.71
331
1.76
326
2.42
353
2.00
336
1.70
339
1.98
233
1.62
311
0.50
349
0.29
299
0.49
345
0.33
311
0.40
290
0.34
259
GANetREF_RVCpermissivetwo views1.11
275
0.90
345
1.56
281
0.88
335
0.53
242
1.41
295
1.35
346
1.91
249
1.54
313
1.28
208
1.32
200
1.46
274
1.23
290
2.04
241
1.00
244
0.57
358
0.45
355
0.67
366
0.52
357
0.91
368
0.62
344
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
FINETtwo views1.54
324
0.67
320
7.28
379
0.76
305
0.97
356
1.42
298
1.38
348
2.80
374
3.12
380
1.23
181
1.68
293
1.04
179
1.11
271
3.35
306
1.78
328
0.43
325
0.37
335
0.32
278
0.29
282
0.43
300
0.41
289
SQANettwo views1.38
308
0.95
352
1.37
261
1.89
384
1.47
381
1.44
299
0.81
276
1.89
245
1.13
161
1.34
234
1.26
177
1.28
242
1.02
247
1.64
186
0.91
221
2.55
390
0.35
327
1.47
382
0.56
362
2.48
385
1.74
385
psmgtwo views0.75
158
0.34
162
0.77
82
0.52
69
0.45
200
1.46
300
0.73
256
2.15
299
1.04
129
1.25
188
1.33
204
1.11
203
0.77
144
0.94
71
0.76
190
0.25
207
0.20
208
0.25
203
0.26
244
0.23
158
0.24
141
Nwc_Nettwo views1.19
287
0.53
280
2.34
329
0.92
345
0.81
334
1.49
301
0.70
251
2.28
325
1.32
244
1.41
259
2.27
345
2.03
342
1.76
345
2.05
245
1.46
295
0.43
325
0.30
303
0.43
332
0.46
346
0.39
286
0.40
286
DSFCAtwo views0.95
241
0.38
221
1.23
238
0.55
110
0.66
294
1.50
302
0.93
301
1.58
172
1.24
205
1.59
306
1.16
150
1.48
277
0.95
218
2.96
293
1.20
262
0.31
273
0.28
291
0.25
203
0.26
244
0.29
233
0.26
177
StereoDRNettwo views1.05
264
0.53
280
2.21
324
0.80
312
0.93
349
1.50
302
0.90
294
2.06
281
1.44
290
1.68
317
1.20
158
1.48
277
0.99
233
1.86
216
1.60
308
0.29
264
0.24
261
0.29
253
0.28
267
0.35
267
0.33
252
DANettwo views1.16
281
0.64
310
1.52
276
0.88
335
0.74
313
1.52
304
0.52
173
1.68
190
1.21
195
1.81
328
1.55
266
2.02
339
1.11
271
3.30
305
2.28
341
0.34
290
0.31
308
0.40
326
0.30
293
0.46
316
0.54
324
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
CBMVpermissivetwo views1.04
261
0.48
262
0.88
139
0.56
122
0.36
139
1.52
304
1.55
356
1.87
238
1.59
321
2.11
350
1.67
291
1.46
274
1.35
308
1.92
225
1.31
277
0.35
298
0.35
327
0.39
320
0.33
311
0.34
266
0.34
259
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
RGCtwo views1.22
292
0.82
340
1.71
289
0.95
355
0.98
358
1.53
306
0.80
275
2.18
309
1.35
251
1.69
318
1.94
328
2.03
342
1.66
336
2.36
268
1.50
299
0.46
337
0.36
331
0.59
364
0.48
350
0.49
324
0.49
311
SGM-Foresttwo views1.29
305
0.40
230
0.74
72
0.54
100
0.37
144
1.55
307
1.26
342
1.82
227
1.39
274
2.22
353
1.81
313
1.64
301
1.02
247
7.65
383
1.20
262
0.39
315
0.37
335
0.39
320
0.34
316
0.37
276
0.34
259
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
pmcnntwo views2.84
380
0.46
254
5.19
372
0.68
252
0.42
187
1.55
307
1.16
331
2.32
327
1.60
323
2.72
368
7.49
398
17.96
412
1.48
323
6.04
357
6.64
381
0.18
40
0.15
112
0.15
3
0.12
9
0.20
86
0.20
70
UNettwo views0.86
213
0.36
188
1.52
276
0.62
190
0.74
313
1.56
309
0.49
159
1.55
165
1.12
156
1.28
208
1.10
119
1.52
285
1.10
269
1.69
195
1.14
257
0.24
187
0.18
184
0.25
203
0.21
164
0.25
196
0.25
160
NVStereoNet_ROBtwo views2.17
363
1.18
365
3.51
356
1.14
369
1.26
376
1.57
310
1.51
352
2.19
311
2.11
357
2.04
347
4.80
385
3.17
376
2.11
364
7.97
386
2.10
335
1.12
381
0.94
394
1.10
380
1.34
392
0.95
369
1.31
379
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
MFMNet_retwo views1.47
318
1.20
367
2.50
333
1.46
380
1.08
362
1.58
311
1.51
352
1.96
261
1.87
344
2.31
356
2.20
342
1.51
283
1.88
352
1.57
171
1.34
282
0.94
373
0.83
384
0.84
372
0.80
376
1.00
371
1.06
373
NaN_ROBtwo views1.23
296
0.63
307
1.76
291
0.67
243
0.50
225
1.59
312
2.00
376
1.87
238
1.52
309
2.14
352
1.26
177
1.40
264
1.09
266
4.60
328
1.75
324
0.28
252
0.34
323
0.28
245
0.29
282
0.30
243
0.37
273
DRN-Testtwo views1.07
269
0.49
267
1.95
308
0.75
299
0.81
334
1.61
313
0.78
264
2.26
319
1.53
311
1.84
331
1.35
212
1.42
265
1.04
255
2.26
261
1.61
309
0.28
252
0.23
253
0.31
266
0.30
293
0.33
261
0.33
252
LALA_ROBtwo views1.06
265
0.66
317
1.37
261
0.70
271
0.53
242
1.61
313
1.25
341
1.81
224
1.48
305
1.82
330
1.40
228
1.93
327
1.03
249
1.68
191
1.69
319
0.38
308
0.28
291
0.43
332
0.37
326
0.43
300
0.38
279
CSP-Nettwo views1.00
254
0.41
239
0.99
174
0.56
122
0.43
190
1.62
315
0.76
260
2.16
301
1.16
176
1.33
227
1.22
165
1.32
252
0.89
197
4.67
330
0.93
228
0.35
298
0.24
261
0.20
70
0.20
128
0.23
158
0.30
229
HBP-ISPtwo views1.00
254
0.60
296
0.85
130
0.64
211
0.48
215
1.63
316
0.77
261
2.24
318
1.30
235
1.33
227
1.53
262
0.87
120
0.99
233
3.26
303
0.76
190
0.46
337
0.44
353
0.54
353
0.48
350
0.48
321
0.42
295
delettwo views0.90
227
0.34
162
1.15
212
0.69
262
0.66
294
1.63
316
0.81
276
1.95
258
1.49
306
1.42
263
1.38
221
1.29
244
0.91
202
1.78
204
1.18
260
0.22
149
0.22
231
0.24
167
0.25
233
0.22
140
0.24
141
EDNetEfficientorigintwo views10.59
409
1.52
380
177.33
434
0.68
252
0.54
249
1.66
318
1.20
336
1.94
255
3.39
384
4.69
396
3.37
370
3.08
374
2.79
379
3.25
302
3.63
361
0.26
224
0.24
261
0.33
286
0.28
267
0.85
365
0.87
367
LSMtwo views6.55
401
1.26
370
15.64
403
1.79
382
68.74
429
1.67
319
2.08
382
2.26
319
2.59
367
3.13
382
3.08
368
1.90
322
1.81
348
2.89
292
2.16
338
0.43
325
0.59
377
0.50
346
0.58
364
0.64
351
17.24
420
Wz-Net-LNSevtwo views1.17
283
0.72
329
4.71
369
0.66
230
0.84
340
1.72
320
1.13
325
1.97
262
1.43
288
1.34
234
1.32
200
1.66
303
1.30
302
1.44
152
1.51
301
0.29
264
0.26
279
0.24
167
0.23
213
0.33
261
0.35
267
ccnettwo views1.19
287
0.71
326
1.36
258
0.81
315
0.75
316
1.72
320
1.13
325
1.98
263
1.31
242
1.52
289
1.84
315
1.75
318
1.36
309
2.01
238
2.04
334
0.57
358
0.54
370
0.57
361
0.56
362
0.60
346
0.60
342
PWCDC_ROBbinarytwo views1.39
309
0.91
349
2.10
316
1.08
363
0.92
346
1.72
320
0.58
211
2.03
274
3.30
383
1.32
222
4.87
387
1.21
217
1.71
341
1.98
233
1.75
324
0.65
364
0.26
279
0.29
253
0.25
233
0.56
338
0.41
289
CBFPSMtwo views0.95
241
0.37
204
2.10
316
0.51
57
0.39
161
1.73
323
0.87
291
1.59
177
1.13
161
1.11
115
1.00
86
2.34
355
1.64
335
1.42
148
1.44
292
0.19
65
0.18
184
0.20
70
0.20
128
0.22
140
0.36
270
GwcNetcopylefttwo views1.26
301
0.63
307
5.13
371
0.81
315
1.15
369
1.73
323
0.69
245
1.84
230
1.53
311
1.51
287
1.71
298
1.72
311
1.09
266
2.20
256
1.61
309
0.31
273
0.30
303
0.29
253
0.27
258
0.30
243
0.41
289
RYNettwo views1.24
299
0.52
278
1.57
283
0.73
286
0.97
356
1.74
325
0.95
306
2.09
286
1.54
313
1.44
270
1.18
154
1.94
331
1.29
299
4.57
327
1.93
331
0.27
241
0.23
253
0.35
300
0.27
258
0.57
340
0.59
339
CC-Net-ROBtwo views1.53
323
1.31
374
1.68
288
0.92
345
0.80
330
1.75
326
0.99
311
2.04
276
1.27
221
1.12
123
1.62
282
1.20
216
0.98
230
7.82
384
0.92
225
1.15
383
0.41
346
2.20
387
0.46
346
1.37
379
0.56
331
CRFU-Nettwo views0.90
227
0.42
241
1.10
201
0.69
262
0.59
269
1.76
327
0.84
283
2.33
332
0.92
76
1.45
276
1.20
158
1.62
297
1.25
294
1.38
138
0.94
233
0.28
252
0.23
253
0.22
120
0.19
102
0.24
187
0.27
193
WZ-Nettwo views2.14
361
1.08
358
11.68
397
0.89
342
0.78
326
1.76
327
1.59
359
2.39
335
2.03
353
2.11
350
1.95
330
2.30
353
2.28
369
5.94
355
3.86
365
0.35
298
0.27
287
0.29
253
0.32
302
0.52
328
0.50
314
coex-fttwo views8.35
406
2.39
398
100.24
433
0.68
252
0.54
249
1.77
329
1.57
358
1.71
203
11.00
404
18.91
418
3.76
375
3.85
380
8.23
406
3.29
304
6.58
380
0.31
273
0.31
308
0.32
278
0.31
297
0.69
357
0.57
334
fast-acv-fttwo views1.00
254
0.48
262
1.85
300
0.61
182
0.52
237
1.77
329
0.69
245
1.52
157
1.47
301
1.34
234
1.85
318
1.73
313
1.24
293
1.62
185
1.56
305
0.27
241
0.28
291
0.28
245
0.28
267
0.28
223
0.31
238
CSANtwo views1.61
329
0.67
320
3.24
352
0.74
292
0.52
237
1.77
329
1.74
366
1.98
263
1.94
348
2.47
364
2.33
349
1.93
327
2.04
359
6.45
367
1.95
333
0.43
325
0.36
331
0.41
330
0.42
336
0.43
300
0.44
302
iinet-ftwo views1.04
261
0.50
270
4.24
365
0.58
150
0.43
190
1.78
332
0.70
251
1.29
126
1.16
176
1.25
188
1.42
232
1.57
293
1.42
316
1.47
157
1.70
321
0.26
224
0.23
253
0.20
70
0.20
128
0.26
206
0.26
177
FBW_ROBtwo views1.78
340
0.66
317
1.90
303
0.72
279
0.66
294
1.79
333
1.07
319
2.79
372
1.77
335
1.84
331
1.79
307
1.98
334
1.37
310
12.42
412
2.22
339
0.36
305
0.38
338
0.57
361
0.39
329
0.46
316
0.51
319
DDUNettwo views1.56
326
2.70
405
1.35
256
1.79
382
1.88
385
1.82
334
0.91
296
1.84
230
1.20
189
1.40
257
1.79
307
1.62
297
1.17
280
1.59
177
1.22
267
1.11
380
0.76
383
2.38
392
0.94
380
2.12
382
1.53
383
MMNettwo views0.89
220
0.35
184
1.44
264
0.64
211
0.59
269
1.83
335
0.48
151
1.70
202
1.38
265
1.45
276
1.19
157
1.25
230
1.16
277
1.77
202
1.27
275
0.20
99
0.19
198
0.23
146
0.22
186
0.25
196
0.24
141
SuperBtwo views2.50
372
0.72
329
18.07
408
0.72
279
0.53
242
1.85
336
0.86
289
1.80
221
2.40
363
1.54
295
1.42
232
1.13
207
1.17
280
4.18
318
4.80
372
0.25
207
0.20
208
0.23
146
0.19
102
7.64
415
0.38
279
RTSCtwo views1.43
316
0.89
344
3.62
358
0.94
353
0.64
285
1.85
336
0.69
245
2.20
314
2.04
354
2.22
353
1.70
296
1.67
305
1.27
297
2.53
276
4.48
369
0.33
283
0.25
274
0.27
233
0.29
282
0.38
282
0.40
286
SPS-STEREOcopylefttwo views1.78
340
1.09
360
1.52
276
1.22
372
1.14
367
1.87
338
1.11
322
2.27
323
1.70
329
3.17
383
2.39
351
2.84
370
1.93
354
4.41
323
2.93
353
1.04
378
0.99
397
0.97
375
0.94
380
1.03
373
1.05
372
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
APVNettwo views1.11
275
0.59
295
1.95
308
0.87
333
0.77
322
1.90
339
0.82
280
2.03
274
1.15
171
1.14
139
1.43
234
1.55
289
1.12
275
3.03
294
1.62
311
0.32
280
0.34
323
0.42
331
0.36
322
0.36
271
0.41
289
ADCReftwo views1.50
321
0.61
301
3.83
360
0.76
305
0.77
322
1.91
340
0.77
261
2.16
301
1.34
248
1.63
312
1.59
280
1.35
256
1.40
314
1.79
209
8.32
387
0.25
207
0.21
221
0.32
278
0.31
297
0.31
248
0.32
246
MaskLacGwcNet_RVCtwo views1.17
283
1.06
357
1.28
247
0.88
335
0.69
302
1.92
341
0.92
298
1.71
203
1.14
167
1.17
147
1.26
177
1.49
279
0.80
160
2.04
241
0.86
210
2.02
385
0.34
323
0.79
370
0.36
322
1.38
380
1.33
381
Wz-Net-MNSevtwo views1.21
291
0.66
317
3.44
355
0.69
262
0.73
309
1.93
342
1.44
351
2.16
301
1.59
321
1.85
333
1.49
246
1.50
281
1.34
307
2.05
245
1.54
304
0.27
241
0.24
261
0.28
245
0.28
267
0.35
267
0.32
246
SHDtwo views1.42
313
0.81
339
2.79
342
0.98
357
0.92
346
1.97
343
0.68
241
2.43
340
2.55
366
2.54
365
1.72
299
2.01
338
1.62
330
2.14
252
2.70
350
0.40
317
0.33
321
0.39
320
0.40
331
0.48
321
0.54
324
otakutwo views1.67
333
1.18
365
1.56
281
2.27
386
1.59
382
1.98
344
1.23
339
2.23
316
1.37
263
1.48
284
1.63
286
1.73
313
1.23
290
1.85
213
1.09
252
2.96
393
0.58
376
1.74
383
0.61
369
2.94
391
2.15
389
ADCMidtwo views2.11
359
0.90
345
8.39
385
0.75
299
0.69
302
1.98
344
1.14
328
2.18
309
1.67
328
2.85
372
1.85
318
2.35
356
2.02
358
2.35
267
10.58
395
0.34
290
0.32
318
0.39
320
0.44
341
0.51
327
0.53
323
Wz-Net-LNSev-Reftwo views1.09
272
0.46
254
2.61
338
0.71
274
0.65
291
2.00
346
0.78
264
2.07
283
1.47
301
1.62
310
1.47
243
1.53
286
1.29
299
2.10
249
1.65
317
0.24
187
0.14
58
0.20
70
0.16
54
0.28
223
0.28
204
XQCtwo views1.51
322
0.98
354
3.20
349
0.92
345
0.76
321
2.01
347
1.17
332
2.53
356
1.99
351
2.01
346
1.54
263
2.00
336
1.54
326
3.16
298
3.46
360
0.49
345
0.31
308
0.45
336
0.40
331
0.71
360
0.62
344
RainbowNettwo views2.06
356
1.86
387
1.97
310
2.86
394
2.25
390
2.03
348
1.79
369
2.77
369
1.92
346
1.54
295
1.84
315
1.95
332
1.73
343
2.23
258
1.38
287
3.40
400
0.86
389
2.39
394
1.00
386
2.94
391
2.42
393
DPSNettwo views1.91
352
0.64
310
5.95
373
0.73
286
0.59
269
2.04
349
1.61
360
3.84
386
1.96
350
1.54
295
1.39
223
2.27
350
3.32
385
4.95
334
4.79
370
0.50
349
0.31
308
0.29
253
0.26
244
0.67
355
0.54
324
DISCOtwo views1.06
265
0.37
204
1.19
231
0.73
286
0.46
207
2.04
349
0.84
283
2.26
319
1.54
313
1.25
188
1.36
216
2.38
357
1.08
264
2.60
280
1.62
311
0.24
187
0.19
198
0.22
120
0.20
128
0.32
256
0.29
216
DispFullNettwo views2.39
369
2.89
407
3.74
359
3.09
399
2.27
392
2.04
349
0.84
283
2.19
311
1.73
333
2.54
365
1.98
331
2.23
347
5.83
399
3.44
308
1.84
329
1.03
376
0.33
321
2.65
400
1.97
404
2.87
390
2.34
392
Ntrotwo views1.72
339
1.21
368
1.62
285
2.54
391
1.86
384
2.09
352
1.14
328
2.08
284
1.38
265
1.23
181
1.62
282
1.62
297
1.33
306
2.04
241
1.21
266
3.09
394
0.56
373
1.82
385
0.65
370
2.97
394
2.25
391
ADCStwo views2.35
366
1.26
370
6.54
376
0.85
329
0.77
322
2.18
353
1.79
369
2.47
347
2.20
359
2.80
371
2.14
341
2.38
357
2.09
361
2.81
289
13.83
404
0.43
325
0.41
346
0.40
326
0.45
344
0.59
343
0.67
349
AnyNet_C32two views2.14
361
1.45
376
7.38
380
0.95
355
1.12
363
2.23
354
2.34
391
2.10
288
1.54
313
2.44
360
1.79
307
2.04
344
1.66
336
2.69
284
10.48
394
0.38
308
0.35
327
0.35
300
0.42
336
0.50
325
0.60
342
WCMA_ROBtwo views2.05
355
0.55
286
1.77
292
0.74
292
0.61
278
2.24
355
1.56
357
2.17
308
1.79
339
4.16
391
6.36
393
5.66
392
4.66
396
3.19
299
2.77
351
0.55
356
0.45
355
0.40
326
0.43
339
0.48
321
0.50
314
ADCP+two views2.12
360
0.56
289
10.01
390
0.68
252
0.91
345
2.25
356
1.04
316
1.92
253
1.50
308
1.58
303
1.34
207
1.73
313
1.62
330
2.27
262
13.20
397
0.25
207
0.22
231
0.32
278
0.29
282
0.38
282
0.34
259
FCDSN-DCtwo views2.47
371
0.65
316
1.00
179
0.85
329
0.75
316
2.26
357
0.97
308
2.31
326
1.83
342
5.52
403
7.65
400
7.72
400
7.70
405
4.43
324
2.64
349
0.52
351
0.48
362
0.52
348
0.52
357
0.57
340
0.59
339
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ACVNet_1two views3.08
386
1.48
379
17.70
405
2.90
396
2.35
395
2.30
358
1.43
350
3.16
378
2.26
362
1.91
336
2.05
335
3.51
377
2.32
370
3.71
313
1.58
307
3.25
396
0.66
379
2.40
395
1.06
389
3.07
396
2.59
395
BUStwo views0.78
170
0.34
162
0.77
82
0.55
110
0.45
200
2.30
358
0.42
91
2.65
362
1.04
129
1.25
188
1.12
129
1.02
175
0.70
130
0.94
71
0.75
187
0.25
207
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
NINENettwo views0.81
191
0.40
230
0.89
142
0.65
217
0.53
242
2.30
358
0.42
91
2.12
290
1.13
161
1.20
169
1.27
184
1.02
175
0.70
130
1.26
124
0.75
187
0.29
264
0.24
261
0.31
266
0.21
164
0.27
208
0.26
177
ACVNet-4btwo views3.05
385
1.42
375
18.09
409
2.85
393
2.33
394
2.32
361
1.22
337
2.47
347
2.21
360
1.26
198
2.36
350
2.64
366
1.46
320
6.32
364
1.23
270
3.29
397
0.45
355
2.37
391
1.02
388
3.03
395
2.61
396
Wz-Net-TNSevtwo views2.10
358
2.71
406
9.30
388
0.72
279
0.65
291
2.41
362
1.81
373
2.45
342
1.77
335
1.62
310
1.56
271
2.56
363
2.01
356
5.30
338
4.46
368
0.41
320
0.38
338
0.33
286
0.37
326
0.54
335
0.64
347
stereogantwo views1.22
292
0.45
251
2.03
313
0.87
333
0.85
341
2.52
363
0.72
253
1.98
263
1.78
338
1.92
337
1.94
328
2.31
354
1.42
316
2.10
249
1.14
257
0.38
308
0.36
331
0.39
320
0.32
302
0.52
328
0.49
311
ADCLtwo views1.82
344
0.70
324
4.57
368
0.70
271
0.63
284
2.56
364
1.77
368
2.08
284
1.77
335
1.95
343
1.89
322
2.04
344
1.88
352
2.36
268
9.55
392
0.27
241
0.25
274
0.35
300
0.32
302
0.39
286
0.39
282
MeshStereopermissivetwo views2.36
367
0.60
296
1.05
188
0.63
200
0.51
234
2.58
365
0.99
311
3.46
382
2.21
360
7.38
407
5.06
389
7.50
397
3.10
381
7.02
377
2.54
348
0.44
333
0.44
353
0.45
336
0.40
331
0.43
300
0.45
304
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
PVDtwo views1.82
344
0.91
349
3.02
346
1.03
360
0.94
352
2.61
366
1.14
328
2.78
371
3.40
385
3.08
381
2.75
360
2.39
359
2.49
374
2.81
289
3.66
362
0.48
343
0.49
366
0.59
364
0.49
353
0.60
346
0.81
364
MFN_U_SF_RVCtwo views1.62
331
0.96
353
4.36
367
0.92
345
0.69
302
2.62
367
1.10
321
2.50
352
1.74
334
1.99
345
1.86
320
2.45
360
1.78
347
3.08
296
2.84
352
0.54
353
0.50
367
0.56
359
0.60
368
0.60
346
0.67
349
ACVNet_2two views2.86
381
1.47
378
8.28
383
2.68
392
2.26
391
2.70
368
1.84
374
3.41
380
3.04
379
2.27
355
3.42
372
4.58
384
2.10
362
5.91
353
1.62
311
2.58
391
0.67
380
2.22
388
0.85
378
2.79
388
2.47
394
ADCPNettwo views1.97
354
0.78
335
9.38
389
0.74
292
0.61
278
2.73
369
1.36
347
2.11
289
1.66
327
1.92
337
1.70
296
2.45
360
2.07
360
2.50
274
6.84
382
0.38
308
0.38
338
0.38
316
0.43
339
0.47
320
0.50
314
SANettwo views2.26
365
0.70
324
6.94
378
0.69
262
0.46
207
2.76
370
1.76
367
2.61
360
5.84
400
2.45
361
3.52
373
3.71
378
3.38
387
5.90
352
2.14
337
0.34
290
0.31
308
0.32
278
0.29
282
0.54
335
0.43
299
SGM_RVCbinarytwo views1.88
347
0.40
230
0.90
147
0.63
200
0.30
63
2.81
371
1.26
342
2.73
367
1.81
341
4.09
387
2.85
363
3.88
381
3.19
382
8.42
390
2.44
346
0.33
283
0.31
308
0.30
262
0.28
267
0.31
248
0.31
238
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
PDISCO_ROBtwo views1.41
311
0.73
332
2.04
314
1.40
375
1.46
380
2.83
372
1.07
319
2.64
361
2.11
357
1.41
259
1.50
253
1.73
313
0.99
233
2.83
291
1.46
295
1.03
376
0.27
287
0.54
353
0.47
348
0.77
362
0.84
366
LE_ROBtwo views8.35
406
0.47
259
27.42
420
0.83
323
0.34
122
2.84
373
3.36
402
4.03
389
27.04
420
25.20
420
8.72
404
8.55
403
27.35
420
7.37
380
22.13
413
0.22
149
0.20
208
0.20
70
0.21
164
0.25
196
0.25
160
FC-DCNNcopylefttwo views2.88
383
0.61
301
1.15
212
0.75
299
0.57
261
2.85
374
1.05
317
3.44
381
2.64
373
6.93
404
7.63
399
9.86
406
7.02
404
5.76
350
4.31
367
0.54
353
0.48
362
0.51
347
0.50
354
0.53
333
0.52
321
ELAS_RVCcopylefttwo views2.87
382
0.80
336
3.22
351
1.16
371
1.12
363
2.92
375
5.33
404
2.98
376
4.18
392
5.04
399
4.82
386
4.71
386
8.23
406
4.25
321
4.79
370
0.67
366
0.57
374
0.57
361
0.53
359
0.66
354
0.74
357
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
G-Nettwo views1.71
338
0.67
320
2.09
315
1.14
369
0.75
316
2.96
376
0.89
293
1.58
172
1.30
235
2.76
370
8.12
403
2.29
352
2.51
375
1.94
227
2.23
340
0.49
345
0.45
355
0.45
336
0.31
297
0.62
350
0.59
339
AnyNet_C01two views2.38
368
2.21
396
10.17
391
0.99
358
0.79
328
3.12
377
2.37
392
2.69
366
1.89
345
2.58
367
2.44
354
2.70
368
1.86
351
3.65
310
7.12
383
0.41
320
0.41
346
0.40
326
0.42
336
0.68
356
0.79
362
Deantwo views3.77
390
1.65
384
17.87
406
3.01
398
2.54
397
3.15
378
2.10
383
4.80
396
4.42
393
2.89
374
6.03
391
5.45
391
2.55
377
3.40
307
2.13
336
3.22
395
0.89
391
2.51
398
1.07
390
3.07
396
2.65
399
MADNet+two views2.80
377
3.38
409
11.57
396
1.50
381
1.21
375
3.18
379
2.00
376
3.52
384
2.61
368
1.81
328
2.09
337
2.83
369
2.18
368
7.55
382
5.44
376
0.84
370
0.83
384
0.71
369
0.66
371
1.05
374
1.08
374
IMH-64-1two views2.82
378
1.87
388
1.77
292
3.31
401
2.69
398
3.22
380
2.07
380
4.25
391
2.77
377
2.46
362
3.78
376
3.05
372
2.34
371
4.67
330
3.00
355
3.84
404
0.84
387
2.75
401
1.39
393
3.34
399
2.93
401
IMH-64two views2.82
378
1.87
388
1.77
292
3.31
401
2.69
398
3.22
380
2.07
380
4.25
391
2.77
377
2.46
362
3.78
376
3.05
372
2.34
371
4.67
330
3.00
355
3.84
404
0.84
387
2.75
401
1.39
393
3.34
399
2.93
401
LVEtwo views3.40
389
1.80
386
2.21
324
2.90
396
2.44
396
3.27
382
2.25
387
4.80
396
5.06
397
2.43
359
6.79
394
5.99
393
2.64
378
9.20
395
2.28
341
3.30
398
1.11
403
2.38
392
1.48
399
2.95
393
2.62
397
WAO-6two views2.98
384
1.67
385
1.88
302
2.38
390
2.30
393
3.53
383
2.37
392
4.38
393
4.64
396
2.42
358
4.50
380
4.85
387
2.99
380
5.22
337
5.37
375
1.77
384
1.16
404
2.31
390
1.47
398
2.42
384
1.99
388
MFN_U_SF_DS_RVCtwo views1.80
342
1.11
362
4.33
366
0.84
327
0.77
322
3.70
384
2.41
395
2.04
276
1.85
343
1.75
322
1.90
324
1.92
326
1.25
294
7.33
379
1.45
293
0.47
341
0.47
360
0.53
352
0.77
374
0.50
325
0.55
329
SAMSARAtwo views1.80
342
0.90
345
3.37
354
1.28
374
1.13
365
3.71
385
2.33
390
2.53
356
1.93
347
3.17
383
1.73
300
2.99
371
1.68
338
3.53
309
2.46
347
0.47
341
0.54
370
0.43
332
0.47
348
0.59
343
0.64
347
PWCKtwo views3.24
387
2.37
397
10.86
393
2.14
385
1.14
367
3.71
385
4.19
403
3.02
377
3.55
387
3.05
380
3.63
374
3.09
375
2.35
373
8.16
388
3.41
359
2.17
388
0.96
395
1.77
384
1.01
387
2.84
389
1.40
382
RTStwo views2.76
374
1.55
382
15.40
400
1.13
366
1.42
378
3.75
387
2.21
385
2.45
342
2.72
375
2.91
375
2.85
363
2.58
364
1.62
330
6.28
362
5.80
377
0.41
320
0.30
303
0.35
300
0.35
320
0.52
328
0.54
324
RTSAtwo views2.76
374
1.55
382
15.40
400
1.13
366
1.42
378
3.75
387
2.21
385
2.45
342
2.72
375
2.91
375
2.85
363
2.58
364
1.62
330
6.28
362
5.80
377
0.41
320
0.30
303
0.35
300
0.35
320
0.52
328
0.54
324
SDNRtwo views1.66
332
0.55
286
2.36
330
0.56
122
0.58
263
3.79
389
0.45
132
1.78
214
1.40
276
1.38
249
2.45
355
1.13
207
0.96
220
11.03
410
1.31
277
0.67
366
0.64
378
0.43
332
0.32
302
0.71
360
0.76
360
WAO-7two views2.78
376
1.54
381
2.18
322
1.41
378
1.19
372
3.92
390
2.01
379
4.19
390
3.89
390
2.98
377
5.47
390
4.18
382
3.28
384
8.24
389
4.27
366
1.13
382
1.01
398
1.18
381
1.13
391
1.19
377
1.13
377
notakertwo views4.29
392
2.42
400
5.06
370
3.89
409
3.29
407
4.00
391
2.25
387
4.93
398
3.47
386
4.21
393
6.79
394
7.67
399
3.37
386
9.25
397
6.47
379
4.09
409
1.42
406
3.35
410
2.13
407
4.11
406
3.54
406
MSMD_ROBtwo views2.08
357
0.61
301
1.15
212
0.71
274
0.62
282
4.00
391
0.93
301
1.94
255
1.79
339
4.71
397
4.60
383
8.14
401
3.87
392
3.75
314
1.65
317
0.54
353
0.48
362
0.55
357
0.58
364
0.53
333
0.52
321
IMHtwo views3.35
388
1.95
390
1.86
301
3.30
400
2.72
400
4.03
393
2.00
376
4.58
395
3.83
389
2.87
373
6.99
396
4.69
385
3.21
383
6.77
373
2.97
354
3.91
407
0.89
391
2.78
403
1.40
397
3.36
401
2.93
401
KSHMRtwo views8.76
408
2.14
395
3.59
357
3.60
406
3.13
404
4.15
394
2.67
397
5.61
402
58.90
433
3.04
379
55.71
433
4.94
388
2.54
376
4.61
329
3.05
357
3.49
401
1.57
408
3.14
406
1.98
405
3.84
403
3.49
405
MDST_ROBtwo views1.88
347
0.40
230
1.71
289
0.93
350
0.60
273
4.27
395
1.23
339
3.99
388
1.44
290
4.61
395
2.63
359
1.44
269
1.03
249
9.78
401
1.62
311
0.33
283
0.26
279
0.37
312
0.33
311
0.31
248
0.34
259
LRCNet_RVCtwo views22.79
416
32.09
423
22.06
410
29.83
421
26.15
419
4.40
396
0.84
283
22.64
416
2.10
356
26.93
421
29.25
421
23.03
421
15.56
411
23.91
419
18.92
411
32.00
427
20.04
428
34.68
427
32.13
427
30.66
426
28.52
426
ktntwo views4.56
393
2.41
399
2.54
334
3.79
408
3.25
405
4.81
397
2.91
400
5.52
400
7.36
401
4.12
390
14.55
410
7.54
398
3.70
389
7.84
385
3.35
358
4.06
408
1.86
409
3.26
409
2.22
408
3.27
398
2.86
400
MSC_U_SF_DS_RVCtwo views2.22
364
1.29
373
4.14
364
1.10
365
0.78
326
5.00
398
2.38
394
2.47
347
2.67
374
1.94
341
2.28
346
2.66
367
1.70
339
9.10
393
2.29
343
0.68
368
0.52
368
0.68
367
0.71
372
1.17
376
0.81
364
UNDER WATERtwo views5.68
399
2.46
402
15.52
402
3.98
411
3.53
408
5.15
399
2.74
398
5.58
401
16.41
411
4.00
386
4.56
381
9.12
404
6.43
402
6.22
360
9.11
390
3.85
406
1.35
405
3.18
408
1.98
405
4.51
409
3.84
410
HanzoNettwo views11.92
411
5.12
410
17.18
404
4.19
412
3.59
410
5.16
400
2.82
399
7.41
407
9.96
403
33.31
429
27.60
420
22.25
419
37.31
424
18.18
415
13.57
399
8.13
415
3.44
412
3.50
411
3.44
411
7.77
416
4.52
412
MADNet++two views5.41
397
3.18
408
6.43
375
4.66
413
3.95
411
6.15
401
6.75
405
4.51
394
4.51
395
5.06
400
6.27
392
4.96
389
6.14
400
9.39
398
11.70
396
4.71
410
4.19
413
3.97
412
3.33
410
4.08
405
4.25
411
ELAScopylefttwo views2.67
373
0.80
336
2.13
319
1.13
366
1.15
369
6.25
402
2.56
396
3.50
383
3.68
388
5.36
401
4.92
388
3.79
379
5.56
398
3.65
310
5.22
374
0.66
365
0.57
374
0.56
359
0.54
360
0.65
353
0.75
359
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
UNDER WATER-64two views5.84
400
2.48
403
17.93
407
3.97
410
3.58
409
7.70
403
3.03
401
5.72
403
14.13
405
4.18
392
4.00
378
9.27
405
6.80
403
6.20
359
9.22
391
3.67
402
1.52
407
3.14
406
1.95
403
4.43
408
3.83
409
WAO-8two views4.57
394
2.01
391
2.58
336
2.37
388
2.21
388
9.75
404
1.71
363
6.04
404
16.34
408
4.11
388
7.69
401
7.41
395
3.85
390
10.02
407
3.85
363
2.05
386
1.09
401
2.44
396
1.39
393
2.56
386
1.86
386
Venustwo views4.57
394
2.01
391
2.58
336
2.37
388
2.21
388
9.75
404
1.71
363
6.04
404
16.34
408
4.11
388
7.69
401
7.41
395
3.85
390
10.02
407
3.85
363
2.05
386
1.09
401
2.44
396
1.39
393
2.56
386
1.86
386
TorneroNet-64two views5.41
397
2.10
394
2.43
331
3.49
404
2.83
401
9.90
406
2.13
384
8.87
410
16.79
413
5.39
402
9.18
405
10.68
410
3.92
393
9.55
399
5.11
373
3.36
399
0.86
389
2.88
404
1.62
400
3.76
402
3.37
404
SGM+DAISYtwo views5.38
396
1.28
372
8.24
382
1.27
373
1.16
371
10.62
407
16.01
412
2.93
375
2.53
365
8.64
410
13.03
408
8.26
402
13.38
409
6.34
365
7.59
385
1.07
379
1.05
400
1.00
377
0.98
383
1.02
372
1.12
376
JetBluetwo views4.18
391
2.45
401
10.42
392
1.40
375
2.89
402
10.68
408
10.68
406
3.91
387
2.52
364
2.74
369
3.39
371
4.50
383
4.27
394
7.97
386
7.67
386
0.89
371
0.97
396
0.89
373
0.92
379
2.26
383
2.21
390
tttwo views6.61
402
0.28
43
6.10
374
3.77
407
2.17
387
11.53
409
19.61
413
13.53
415
5.81
399
3.00
378
2.82
362
4.97
390
6.33
401
3.83
316
7.23
384
9.13
416
11.32
420
5.87
415
6.22
414
6.01
412
2.63
398
DPSMNet_ROBtwo views13.08
413
8.28
413
22.32
412
9.54
417
18.15
414
11.53
409
31.98
419
10.83
413
16.27
407
7.17
406
19.40
417
10.12
407
16.69
412
9.87
403
22.50
415
4.78
412
8.72
415
5.38
414
10.25
418
6.16
414
11.59
416
DGTPSM_ROBtwo views13.06
412
8.27
412
22.29
411
9.53
416
18.14
413
11.53
409
31.97
418
10.82
412
16.25
406
7.14
405
19.39
416
10.12
407
16.69
412
9.85
402
22.49
414
4.77
411
8.72
415
5.37
413
10.24
417
6.15
413
11.56
415
JetRedtwo views7.02
403
8.94
414
25.72
416
2.89
395
3.27
406
14.25
412
12.27
409
6.69
406
4.45
394
4.46
394
4.56
381
6.65
394
5.43
397
7.46
381
14.41
406
2.60
392
3.31
410
2.61
399
2.30
409
4.34
407
3.79
408
SGM-ForestMtwo views7.81
405
0.48
262
11.02
394
0.74
292
0.40
170
16.83
413
12.72
411
7.91
408
8.13
402
11.53
411
10.25
406
22.44
420
14.01
410
17.02
414
20.52
412
0.38
308
0.39
343
0.37
312
0.36
322
0.37
276
0.38
279
MANEtwo views7.50
404
0.64
310
7.97
381
1.40
375
2.10
386
16.86
414
12.56
410
12.91
414
17.51
416
8.50
409
11.60
407
14.66
411
13.33
408
12.02
411
13.28
398
0.62
361
0.52
368
0.52
348
1.90
402
0.56
338
0.58
337
DPSimNet_ROBtwo views24.77
418
9.69
415
61.46
431
3.56
405
19.46
415
25.95
415
77.56
432
5.09
399
16.60
412
21.50
419
29.82
422
25.12
422
85.69
434
13.37
413
23.07
417
7.23
414
17.79
421
8.55
416
7.57
415
4.57
411
31.84
427
Anonymous_1two views42.79
429
18.71
416
24.75
413
21.81
418
45.16
428
27.68
416
37.52
420
28.64
420
16.34
408
14.72
414
14.53
409
20.60
413
17.82
414
21.52
416
25.88
418
113.45
434
8.91
417
100.63
431
126.37
431
158.50
434
12.31
417
DPSM_ROBtwo views19.12
414
19.13
417
25.13
414
22.15
419
20.86
417
28.06
417
37.75
421
27.18
418
16.95
414
14.25
412
15.07
411
21.66
414
18.69
415
21.83
417
26.51
419
10.15
418
9.30
418
10.45
418
10.41
419
14.00
417
12.85
418
DPSMtwo views19.12
414
19.13
417
25.13
414
22.15
419
20.86
417
28.06
417
37.75
421
27.18
418
16.95
414
14.25
412
15.07
411
21.66
414
18.69
415
21.83
417
26.51
419
10.15
418
9.30
418
10.45
418
10.41
419
14.00
417
12.85
418
HaxPigtwo views39.02
426
41.39
431
41.59
421
30.10
422
32.36
420
29.49
419
27.65
416
30.56
421
37.94
430
43.75
430
43.81
429
33.42
423
35.69
421
41.51
424
40.33
426
43.91
431
47.48
433
45.87
428
47.14
429
42.29
427
44.06
430
AVERAGE_ROBtwo views40.42
427
42.30
432
42.61
422
36.91
424
35.54
422
30.42
420
27.59
415
37.45
427
38.45
431
44.87
431
44.27
430
37.55
425
36.69
422
41.82
425
40.25
425
45.36
432
46.73
432
47.09
429
46.32
428
42.47
428
43.74
429
xxxxx1two views54.34
432
26.72
420
27.03
417
114.14
431
99.00
431
30.68
421
47.19
423
32.52
422
26.09
417
17.85
415
17.48
413
21.86
416
20.92
417
24.38
420
33.78
421
34.73
428
41.33
429
157.67
432
175.68
432
65.82
430
71.99
432
tt_lltwo views54.34
432
26.72
420
27.03
417
114.14
431
99.00
431
30.68
421
47.19
423
32.52
422
26.09
417
17.85
415
17.48
413
21.86
416
20.92
417
24.38
420
33.78
421
34.73
428
41.33
429
157.67
432
175.68
432
65.82
430
71.99
432
fftwo views54.34
432
26.72
420
27.03
417
114.14
431
99.00
431
30.68
421
47.19
423
32.52
422
26.09
417
17.85
415
17.48
413
21.86
416
20.92
417
24.38
420
33.78
421
34.73
428
41.33
429
157.67
432
175.68
432
65.82
430
71.99
432
MEDIAN_ROBtwo views42.01
428
44.30
433
44.14
424
35.08
423
34.90
421
31.33
424
29.90
417
36.77
426
40.11
432
47.14
432
46.55
431
37.49
424
38.50
431
44.30
432
42.32
427
47.93
433
49.31
434
49.68
430
49.00
430
44.98
429
46.46
431
TorneroNettwo views10.72
410
2.09
393
2.76
341
3.48
403
3.03
403
44.72
425
2.31
389
8.62
409
67.06
434
7.45
408
23.21
418
10.59
409
4.28
395
9.03
392
9.00
389
3.67
402
0.91
393
3.04
405
1.63
401
3.92
404
3.55
407
SPstereotwo views26.71
419
6.90
411
11.42
395
5.86
414
6.44
412
48.17
426
80.34
433
67.41
434
34.42
429
28.80
427
27.49
419
43.68
431
37.53
428
44.96
433
54.23
434
5.06
413
4.92
414
10.92
420
6.03
413
4.54
410
5.00
414
BEATNet-Init1two views27.39
420
21.01
419
73.65
432
1.07
362
0.80
330
56.07
427
22.82
414
33.14
425
31.71
422
51.78
433
52.93
432
65.63
433
48.54
432
48.75
434
36.36
424
0.52
351
0.47
360
0.54
353
0.54
360
0.64
351
0.72
355
MyStereo03two views38.45
422
38.46
427
50.33
426
44.93
427
42.03
425
56.44
428
76.24
428
54.16
428
34.06
426
28.68
424
30.42
425
43.46
426
37.33
425
43.76
427
53.43
430
20.29
422
18.73
425
21.02
421
21.05
423
28.19
420
25.91
423
MyStereo02two views38.45
422
38.46
427
50.33
426
44.93
427
42.03
425
56.44
428
76.24
428
54.16
428
34.06
426
28.68
424
30.42
425
43.46
426
37.33
425
43.76
427
53.43
430
20.29
422
18.73
425
21.02
421
21.05
423
28.19
420
25.91
423
MyStereotwo views38.45
422
38.46
427
50.33
426
44.93
427
42.03
425
56.44
428
76.24
428
54.16
428
34.06
426
28.68
424
30.42
425
43.46
426
37.33
425
43.76
427
53.43
430
20.29
422
18.73
425
21.02
421
21.05
423
28.19
420
25.91
423
Selective-RAFT-Errortwo views38.47
425
38.44
426
50.38
429
44.74
425
42.01
424
56.47
431
76.24
428
54.44
431
34.02
425
28.59
423
30.30
423
43.51
429
38.10
430
43.69
426
53.24
428
20.36
425
18.72
424
21.05
425
21.02
421
28.25
424
25.87
422
CasAABBNettwo views38.42
421
38.42
425
50.26
425
44.76
426
41.87
423
56.47
431
76.22
427
54.44
431
33.92
424
28.53
422
30.36
424
43.53
430
37.59
429
43.77
430
53.32
429
20.27
421
18.70
423
21.03
424
21.04
422
28.19
420
25.79
421
LSM0two views42.92
430
38.72
430
50.66
430
47.49
430
110.18
434
56.77
433
75.87
426
54.87
433
33.74
423
29.48
428
31.12
428
43.77
432
37.12
423
43.85
431
53.44
433
20.50
426
18.67
422
21.05
425
21.07
426
28.37
425
41.73
428
PMLtwo views51.64
431
37.49
424
14.31
399
7.45
415
20.27
416
107.80
434
231.34
435
8.94
411
27.70
421
86.74
434
268.93
435
69.03
434
61.09
433
24.71
423
14.36
405
9.71
417
3.40
411
9.60
417
4.67
412
20.46
419
4.76
413
test_example2two views192.91
435
210.59
435
206.44
435
199.86
435
204.90
435
172.02
435
182.95
434
138.34
435
134.89
435
193.14
435
200.54
434
186.77
435
177.82
435
204.95
435
207.57
435
221.83
435
238.70
435
186.02
435
190.07
435
226.94
435
173.78
435