This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
MIF-Stereotwo views0.36
10
0.66
142
2.43
125
0.28
33
0.24
117
0.30
4
0.18
10
0.35
1
0.36
2
0.26
14
0.37
41
0.18
1
0.18
6
0.33
14
0.30
55
0.11
110
0.08
38
0.09
13
0.08
27
0.25
207
0.09
2
GLC_STEREOtwo views0.31
1
0.30
5
1.80
10
0.29
45
0.12
3
0.41
13
0.20
20
0.39
2
0.42
9
0.26
14
0.31
25
0.25
22
0.19
7
0.36
23
0.26
32
0.09
11
0.11
124
0.12
134
0.10
70
0.13
35
0.15
30
TANstereotwo views0.39
15
0.70
155
2.48
166
0.23
3
0.12
3
0.54
72
0.16
3
0.41
3
0.47
24
0.45
51
0.51
115
0.26
28
0.22
18
0.34
15
0.21
1
0.10
47
0.10
103
0.08
3
0.07
12
0.09
5
0.18
56
CREStereo++_RVCtwo views0.38
13
0.37
50
2.47
161
0.25
5
0.16
20
0.54
72
0.15
1
0.42
4
0.57
66
0.37
25
0.52
122
0.24
19
0.19
7
0.31
3
0.27
36
0.09
11
0.06
1
0.08
3
0.30
309
0.09
5
0.22
76
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
LoS_RVCtwo views0.34
5
0.38
55
1.96
37
0.27
21
0.35
216
0.43
15
0.22
38
0.43
5
0.34
1
0.24
9
0.34
33
0.23
13
0.28
71
0.34
15
0.22
4
0.08
1
0.07
6
0.07
1
0.05
1
0.10
10
0.35
154
XX-TBDtwo views0.40
17
1.04
235
2.49
169
0.35
142
0.13
5
0.51
45
0.17
5
0.44
6
0.52
45
0.38
28
0.51
115
0.23
13
0.19
7
0.31
3
0.25
23
0.10
47
0.07
6
0.08
3
0.06
6
0.09
5
0.18
56
CASnettwo views0.32
3
0.40
63
1.80
10
0.28
33
0.11
1
0.47
29
0.19
12
0.45
7
0.47
24
0.39
30
0.31
25
0.23
13
0.17
1
0.31
3
0.21
1
0.11
110
0.06
1
0.15
244
0.12
138
0.16
69
0.08
1
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
RAFT-RH_RVCtwo views0.65
190
0.73
165
2.78
266
0.39
197
0.29
163
0.60
141
0.18
10
0.45
7
0.63
103
0.75
290
1.89
372
0.47
127
0.29
87
1.59
263
1.21
290
0.15
232
0.07
6
0.13
190
0.13
158
0.11
17
0.10
4
MC-Stereotwo views0.58
125
0.37
50
2.00
40
0.88
345
0.64
315
0.54
72
0.19
12
0.46
9
0.39
3
0.58
169
0.39
50
0.27
35
0.27
61
0.71
140
0.32
77
0.09
11
1.20
354
0.09
13
0.16
211
0.22
172
1.92
380
StereoIMtwo views0.35
7
0.89
205
2.15
68
0.25
5
0.29
163
0.29
3
0.17
5
0.47
10
0.41
5
0.21
1
0.22
2
0.28
37
0.21
15
0.32
13
0.31
69
0.10
47
0.09
81
0.10
46
0.08
27
0.11
17
0.12
10
CEStwo views0.33
4
0.32
14
1.46
2
0.25
5
0.50
274
0.40
12
0.20
20
0.48
11
0.48
27
0.22
3
0.29
17
0.26
28
0.19
7
0.35
21
0.22
4
0.09
11
0.07
6
0.08
3
0.05
1
0.16
69
0.54
246
GMStereopermissivetwo views0.44
37
1.32
298
2.65
222
0.28
33
0.16
20
0.42
14
0.22
38
0.48
11
0.63
103
0.41
33
0.36
37
0.26
28
0.25
40
0.41
40
0.30
55
0.14
214
0.08
38
0.10
46
0.12
138
0.17
90
0.13
12
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
PMTNettwo views0.35
7
0.38
55
1.75
8
0.21
2
0.14
8
0.57
104
0.24
79
0.48
11
0.44
16
0.28
18
0.32
31
0.26
28
0.24
26
0.41
40
0.24
15
0.42
355
0.07
6
0.08
3
0.05
1
0.18
109
0.15
30
ff7two views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
396
IGEVStereo-DCAtwo views0.74
243
0.74
174
2.09
56
0.76
333
0.77
334
0.45
17
0.23
57
0.49
14
0.62
92
0.71
279
0.22
2
0.30
42
0.28
71
1.29
221
1.53
317
0.10
47
1.50
377
0.10
46
0.18
232
0.24
192
2.22
396
fffftwo views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
396
11ttwo views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
396
CAStwo views0.39
15
0.31
7
1.79
9
0.81
342
0.34
208
0.51
45
0.23
57
0.49
14
0.42
9
0.23
6
0.31
25
0.20
2
0.17
1
0.30
2
0.25
23
0.77
374
0.06
1
0.07
1
0.05
1
0.10
10
0.41
188
ccc-4two views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
396
UDGNettwo views0.50
70
1.36
311
2.44
133
0.37
166
0.19
63
0.58
111
0.23
57
0.49
14
0.69
167
0.42
37
0.39
50
0.34
59
0.29
87
0.55
91
0.32
77
0.25
329
0.10
103
0.37
356
0.19
248
0.30
257
0.17
49
RAFT-345two views0.56
110
0.37
50
2.68
238
0.40
210
0.34
208
0.58
111
0.41
245
0.49
14
0.70
177
0.51
110
0.99
330
0.43
91
0.28
71
1.56
252
0.81
241
0.10
47
0.07
6
0.11
92
0.09
37
0.11
17
0.09
2
sCroCo_RVCtwo views0.37
11
0.39
59
2.38
104
0.35
142
0.27
148
0.31
5
0.22
38
0.49
14
0.48
27
0.23
6
0.34
33
0.25
22
0.24
26
0.35
21
0.25
23
0.15
232
0.17
198
0.12
134
0.11
108
0.15
60
0.15
30
LoStwo views0.34
5
0.35
37
1.88
23
0.25
5
0.13
5
0.53
65
0.20
20
0.50
23
0.53
51
0.26
14
0.28
15
0.37
66
0.24
26
0.40
34
0.25
23
0.10
47
0.08
38
0.08
3
0.06
6
0.15
60
0.10
4
test_4two views0.47
48
0.80
188
2.15
68
0.36
156
0.29
163
0.59
129
0.28
132
0.50
23
0.42
9
0.43
43
0.76
285
0.39
73
0.22
18
0.73
146
0.49
153
0.08
1
0.18
204
0.11
92
0.15
194
0.29
251
0.27
107
ddtwo views0.48
55
1.32
298
2.41
116
0.31
73
0.17
37
0.58
111
0.26
110
0.50
23
0.71
189
0.42
37
0.41
59
0.34
59
0.28
71
0.47
50
0.41
117
0.18
276
0.10
103
0.13
190
0.12
138
0.22
172
0.16
43
CREStereotwo views0.31
1
0.35
37
1.66
6
0.19
1
0.13
5
0.55
81
0.17
5
0.50
23
0.50
35
0.28
18
0.34
33
0.24
19
0.21
15
0.34
15
0.23
14
0.11
110
0.07
6
0.08
3
0.05
1
0.10
10
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
AAGNettwo views0.92
311
0.40
63
2.53
177
0.60
300
1.01
362
0.62
181
0.45
269
0.52
27
0.68
159
0.58
169
0.53
125
0.50
139
0.72
298
1.22
209
7.32
410
0.12
142
0.07
6
0.12
134
0.10
70
0.16
69
0.10
4
NRIStereotwo views0.50
70
0.34
30
2.44
133
0.52
274
0.16
20
0.94
331
0.73
343
0.52
27
0.65
116
0.48
65
0.40
58
0.59
181
0.29
87
0.78
157
0.33
86
0.11
110
0.13
152
0.11
92
0.09
37
0.22
172
0.25
97
DeepStereo_RVCtwo views0.47
48
0.37
50
2.19
74
0.55
285
0.18
47
0.60
141
0.58
310
0.52
27
0.62
92
0.49
81
0.45
75
0.39
73
0.85
322
0.47
50
0.34
94
0.12
142
0.08
38
0.11
92
0.09
37
0.15
60
0.19
60
ProNettwo views0.46
45
0.60
126
1.85
19
0.35
142
0.67
319
0.49
37
0.25
98
0.53
30
0.57
66
0.21
1
0.24
6
0.22
8
0.20
14
0.52
78
0.22
4
0.09
11
0.47
286
0.10
46
0.09
37
0.23
186
1.33
357
Patchmatch Stereo++two views0.43
25
0.36
40
2.44
133
0.48
254
0.17
37
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.56
94
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.43
25
0.36
40
2.44
133
0.48
254
0.18
47
0.61
159
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.49
68
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
ROB_FTStereo_v2two views0.43
25
0.36
40
2.44
133
0.49
265
0.17
37
0.61
159
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.44
106
0.28
71
0.48
58
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
ROB_FTStereotwo views0.43
25
0.36
40
2.44
133
0.48
254
0.18
47
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.51
74
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
HUI-Stereotwo views0.43
25
0.36
40
2.45
149
0.48
254
0.18
47
0.61
159
0.27
124
0.53
30
0.61
83
0.48
65
0.43
63
0.44
106
0.28
71
0.47
50
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
iGMRVCtwo views0.43
25
0.36
40
2.44
133
0.48
254
0.18
47
0.61
159
0.27
124
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.57
97
0.31
69
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
iRAFTtwo views0.43
25
0.36
40
2.44
133
0.48
254
0.17
37
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.56
94
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
RAFT-IKPtwo views0.43
25
0.36
40
2.44
133
0.48
254
0.16
20
0.60
141
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.51
74
0.31
69
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
4D-IteraStereotwo views0.62
166
1.29
295
3.04
306
0.27
21
0.30
174
0.46
20
0.26
110
0.54
39
0.51
40
0.41
33
0.31
25
0.39
73
0.19
7
0.53
85
0.65
200
0.09
11
0.47
286
0.12
134
0.11
108
0.21
158
2.14
388
anonymousdsptwo views0.86
291
0.59
124
2.65
222
1.33
370
1.25
378
0.56
85
0.23
57
0.54
39
0.71
189
1.13
344
0.25
11
0.22
8
0.24
26
1.24
213
0.24
15
0.09
11
2.34
405
0.10
46
0.18
232
0.25
207
3.12
410
DisPMtwo views0.48
55
0.41
68
2.54
181
0.61
306
0.18
47
0.59
129
0.62
323
0.54
39
0.67
135
0.61
204
0.53
125
0.38
71
0.26
48
0.76
152
0.31
69
0.13
184
0.07
6
0.12
134
0.11
108
0.12
25
0.15
30
IGEV-Stereopermissivetwo views0.86
291
0.60
126
2.65
222
1.35
372
1.25
378
0.56
85
0.23
57
0.54
39
0.71
189
1.14
345
0.25
11
0.22
8
0.24
26
1.24
213
0.24
15
0.09
11
2.34
405
0.10
46
0.18
232
0.25
207
3.13
411
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
PFNet+two views0.50
70
0.43
76
2.54
181
0.49
265
0.18
47
0.58
111
0.76
345
0.54
39
0.72
196
0.56
151
0.48
88
0.39
73
0.26
48
0.94
178
0.33
86
0.14
214
0.09
81
0.14
219
0.13
158
0.12
25
0.16
43
ASMatchtwo views0.61
153
0.47
85
2.72
251
0.91
350
0.36
222
0.56
85
0.24
79
0.54
39
0.67
135
0.48
65
1.20
348
0.47
127
0.65
280
1.33
225
0.93
255
0.10
47
0.08
38
0.11
92
0.11
108
0.10
10
0.17
49
DEmStereotwo views0.69
221
0.40
63
2.42
120
0.42
222
0.18
47
0.66
233
0.88
356
0.54
39
0.64
109
0.60
197
1.00
331
0.45
118
1.24
354
1.53
248
2.21
351
0.10
47
0.08
38
0.10
46
0.10
70
0.11
17
0.14
24
CRE-IMPtwo views0.46
45
0.31
7
2.40
112
0.53
278
0.17
37
0.79
295
0.68
336
0.54
39
0.66
123
0.47
63
0.43
63
0.44
106
0.26
48
0.43
44
0.33
86
0.12
142
0.07
6
0.12
134
0.09
37
0.17
90
0.23
84
TestStereotwo views0.49
66
0.88
200
2.38
104
0.30
59
0.16
20
0.43
15
0.25
98
0.55
47
0.46
18
0.38
28
0.46
77
0.34
59
0.28
71
1.96
319
0.28
41
0.11
110
0.08
38
0.12
134
0.09
37
0.15
60
0.13
12
MIF-Stereo (partial)two views0.41
18
0.71
157
2.67
233
0.27
21
0.24
117
0.32
6
0.17
5
0.56
48
0.46
18
0.26
14
0.37
41
0.25
22
0.26
48
0.46
48
0.35
101
0.11
110
0.08
38
0.12
134
0.10
70
0.21
158
0.15
30
dadtwo views0.58
125
1.35
307
2.39
110
0.31
73
0.20
68
0.62
181
0.26
110
0.56
48
0.79
249
0.66
254
0.64
218
0.64
205
0.36
122
0.87
170
0.48
144
0.28
339
0.15
179
0.40
359
0.18
232
0.24
192
0.22
76
DRafttwo views0.65
190
0.47
85
2.38
104
0.25
5
0.17
37
0.64
206
0.65
328
0.56
48
0.57
66
0.67
256
0.98
327
0.38
71
0.99
340
1.42
234
2.06
340
0.11
110
0.14
165
0.10
46
0.14
176
0.18
109
0.21
72
sAnonymous2two views0.45
40
0.88
200
2.97
297
0.31
73
0.25
123
0.34
8
0.28
132
0.56
48
0.49
29
0.25
11
0.30
20
0.23
13
0.29
87
0.31
3
0.22
4
0.12
142
0.09
81
0.12
134
0.13
158
0.38
309
0.43
197
CroCo_RVCtwo views0.45
40
0.88
200
2.97
297
0.31
73
0.25
123
0.34
8
0.28
132
0.56
48
0.49
29
0.25
11
0.30
20
0.23
13
0.29
87
0.31
3
0.22
4
0.12
142
0.09
81
0.12
134
0.13
158
0.38
309
0.43
197
SST-Stereotwo views0.56
110
0.30
5
2.44
133
0.71
330
0.55
286
0.62
181
0.65
328
0.57
53
0.67
135
0.59
188
0.53
125
0.51
142
0.59
265
1.57
256
0.31
69
0.12
142
0.07
6
0.12
134
0.10
70
0.17
90
0.11
9
Anonymoustwo views0.41
18
0.44
80
2.55
188
0.35
142
0.32
193
0.38
11
0.34
207
0.57
53
0.41
5
0.25
11
0.30
20
0.23
13
0.29
87
0.38
26
0.28
41
0.15
232
0.13
152
0.11
92
0.12
138
0.24
192
0.30
128
MyStereo07two views0.56
110
0.68
150
2.42
120
0.30
59
0.41
247
0.61
159
0.31
179
0.58
55
0.72
196
1.17
348
0.26
14
0.20
2
0.27
61
1.28
220
0.28
41
0.09
11
0.59
305
0.12
134
0.21
268
0.16
69
0.48
223
GMOStereotwo views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
error versiontwo views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
test-vtwo views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
RAFT_R40two views0.55
102
0.31
7
2.44
133
0.57
298
0.42
257
0.62
181
0.52
292
0.58
55
0.66
123
0.56
151
0.54
139
0.54
155
0.50
227
1.56
252
0.53
164
0.11
110
0.07
6
0.12
134
0.10
70
0.16
69
0.10
4
test-2two views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
iRaftStereo_RVCtwo views0.47
48
0.84
191
1.91
28
0.29
45
0.15
13
0.53
65
0.20
20
0.58
55
0.50
35
0.37
25
0.43
63
0.42
90
0.23
24
0.38
26
0.28
41
0.09
11
0.70
323
0.12
134
0.11
108
0.43
332
0.77
297
Pruner-Stereotwo views0.55
102
0.38
55
2.49
169
1.78
393
0.19
63
0.63
194
0.45
269
0.59
62
0.67
135
0.61
204
0.48
88
0.41
86
0.25
40
0.49
68
0.99
266
0.13
184
0.07
6
0.12
134
0.10
70
0.13
35
0.14
24
raftrobusttwo views0.52
82
1.14
254
2.15
68
0.33
110
0.99
357
0.53
65
0.21
29
0.59
62
0.50
35
0.53
126
0.36
37
0.31
47
0.33
111
0.47
50
0.42
121
0.10
47
0.55
298
0.09
13
0.08
27
0.22
172
0.46
217
aanetorigintwo views0.81
269
1.03
232
2.64
221
0.44
237
0.44
259
0.59
129
1.00
367
0.59
62
0.70
177
1.54
379
1.22
350
0.82
286
1.08
347
1.06
187
1.07
275
0.18
276
0.15
179
0.17
274
0.21
268
0.53
352
0.65
275
GMStereo_Zeroshotpermissivetwo views0.44
37
0.44
80
1.84
17
0.44
237
0.20
68
0.52
60
0.19
12
0.60
65
0.54
54
0.58
169
0.59
181
0.63
199
0.29
87
0.59
101
0.34
94
0.16
246
0.09
81
0.16
260
0.09
37
0.26
222
0.26
102
knoymoustwo views0.37
11
0.34
30
1.83
14
0.25
5
0.18
47
0.45
17
0.24
79
0.60
65
0.40
4
0.42
37
0.39
50
0.54
155
0.25
40
0.41
40
0.29
50
0.12
142
0.08
38
0.12
134
0.07
12
0.13
35
0.20
68
LL-Strereo2two views0.62
166
1.36
311
2.47
161
1.37
373
0.96
353
0.54
72
0.28
132
0.61
67
0.49
29
0.42
37
0.34
33
0.44
106
0.21
15
0.57
97
0.53
164
0.11
110
0.26
248
0.16
260
0.14
176
0.18
109
0.98
332
Selective-IGEVtwo views0.57
117
0.42
70
1.87
22
1.67
388
1.33
381
0.36
10
0.20
20
0.61
67
0.71
189
0.22
3
0.31
25
0.22
8
0.19
7
0.52
78
0.36
103
0.09
11
0.97
336
0.09
13
0.15
194
0.20
149
0.85
312
FTStereotwo views0.79
264
0.32
14
2.83
277
0.70
328
0.21
77
0.73
265
1.75
396
0.61
67
0.60
80
1.07
340
1.62
367
1.28
363
2.11
387
0.75
150
0.30
55
0.19
287
0.08
38
0.12
134
0.11
108
0.12
25
0.39
176
LCNettwo views0.58
125
0.43
76
2.42
120
0.91
350
0.22
86
0.95
333
0.29
157
0.62
70
0.64
109
0.52
118
0.55
148
0.41
86
0.75
309
0.84
167
0.27
36
0.10
47
0.07
6
0.12
134
0.18
232
0.97
379
0.40
181
PSM-AADtwo views0.67
210
0.29
2
2.41
116
0.37
166
0.23
108
0.86
313
1.15
377
0.62
70
0.66
123
0.64
236
0.71
267
0.67
218
2.90
395
0.65
121
0.32
77
0.10
47
0.08
38
0.17
274
0.15
194
0.14
51
0.34
148
KYRafttwo views0.52
82
0.35
37
2.40
112
0.34
127
0.21
77
0.75
272
0.43
258
0.62
70
0.63
103
0.64
236
0.92
317
0.53
150
0.72
298
0.60
106
0.26
32
0.10
47
0.07
6
0.12
134
0.14
176
0.13
35
0.54
246
THIR-Stereotwo views0.88
298
0.85
193
2.33
97
0.26
15
0.16
20
0.59
129
2.69
401
0.62
70
0.54
54
0.62
216
1.61
366
0.96
324
1.77
378
1.67
273
2.20
350
0.10
47
0.08
38
0.14
219
0.11
108
0.16
69
0.21
72
GMM-Stereotwo views0.53
91
0.33
23
2.89
287
0.53
278
0.24
117
0.77
286
0.46
274
0.62
70
0.65
116
0.58
169
0.73
272
0.47
127
0.43
186
0.68
131
0.29
50
0.10
47
0.06
1
0.13
190
0.13
158
0.14
51
0.44
209
RALCasStereoNettwo views0.65
190
1.34
304
2.56
192
0.43
232
0.96
353
0.50
43
0.26
110
0.62
70
0.56
63
0.43
43
0.49
101
0.36
63
0.28
71
0.72
145
0.53
164
0.10
47
1.18
352
0.09
13
0.08
27
0.27
233
1.27
352
test crocotwo views0.43
25
0.73
165
2.80
269
0.28
33
0.19
63
0.33
7
0.21
29
0.63
76
0.50
35
0.24
9
0.38
47
0.24
19
0.25
40
0.48
58
0.32
77
0.12
142
0.08
38
0.13
190
0.09
37
0.43
332
0.13
12
CroCo-Stereo Lap2two views0.38
13
0.91
213
2.02
45
0.33
110
0.38
234
0.23
2
0.21
29
0.63
76
0.51
40
0.23
6
0.28
15
0.29
41
0.23
24
0.34
15
0.28
41
0.10
47
0.09
81
0.10
46
0.08
27
0.22
172
0.15
30
PSM-softLosstwo views0.52
82
0.34
30
2.47
161
0.55
285
0.17
37
0.61
159
0.39
240
0.64
78
0.67
135
0.52
118
0.48
88
0.39
73
0.25
40
1.46
240
0.77
228
0.13
184
0.08
38
0.13
190
0.12
138
0.12
25
0.15
30
KMStereotwo views0.52
82
0.34
30
2.47
161
0.55
285
0.17
37
0.61
159
0.39
240
0.64
78
0.67
135
0.52
118
0.48
88
0.39
73
0.25
40
1.46
240
0.77
228
0.13
184
0.08
38
0.13
190
0.12
138
0.12
25
0.15
30
PFNettwo views0.62
166
0.42
70
2.69
244
0.43
232
0.55
286
0.62
181
0.27
124
0.64
78
0.72
196
0.61
204
0.56
160
0.45
118
0.33
111
1.86
305
1.12
280
0.28
339
0.09
81
0.12
134
0.16
211
0.26
222
0.27
107
AnonymousMtwo views0.45
40
0.49
89
1.83
14
0.29
45
0.15
13
0.53
65
0.22
38
0.64
78
0.66
123
0.47
63
0.33
32
0.30
42
0.25
40
0.49
68
0.29
50
0.12
142
0.27
254
0.71
378
0.37
343
0.12
25
0.41
188
Gwc-CoAtRStwo views0.41
18
0.37
50
2.06
52
0.28
33
0.41
247
0.48
32
0.19
12
0.64
78
0.49
29
0.45
51
0.39
50
0.57
174
0.26
48
0.37
24
0.28
41
0.09
11
0.19
208
0.09
13
0.31
314
0.11
17
0.25
97
Selective-RAFTtwo views0.46
45
0.48
88
1.88
23
0.32
90
0.16
20
0.61
159
0.19
12
0.66
83
0.62
92
0.28
18
0.30
20
0.41
86
0.33
111
0.51
74
0.32
77
0.11
110
1.09
348
0.09
13
0.35
337
0.19
132
0.37
161
Prome-Stereotwo views0.53
91
0.36
40
2.39
110
0.60
300
0.23
108
0.63
194
0.41
245
0.66
83
0.67
135
0.59
188
1.02
334
0.43
91
0.71
297
0.61
109
0.34
94
0.10
47
0.07
6
0.10
46
0.09
37
0.13
35
0.44
209
raft+_RVCtwo views0.62
166
1.18
268
2.43
125
0.36
156
2.08
401
0.52
60
0.25
98
0.66
83
0.54
54
0.36
23
0.46
77
0.32
51
0.28
71
0.49
68
0.43
127
0.10
47
0.91
334
0.10
46
0.09
37
0.22
172
0.70
290
MIM_Stereotwo views0.55
102
0.92
218
2.65
222
0.32
90
1.09
369
0.51
45
0.19
12
0.67
86
0.52
45
0.48
65
0.54
139
0.43
91
0.27
61
0.57
97
0.30
55
0.08
1
0.17
198
0.11
92
0.10
70
0.28
243
0.80
304
GrayStereotwo views0.71
230
0.27
1
2.40
112
0.89
346
0.23
108
0.62
181
1.40
391
0.67
86
0.70
177
0.72
281
0.77
289
0.55
163
3.03
396
0.60
106
0.28
41
0.10
47
0.08
38
0.10
46
0.21
268
0.12
25
0.37
161
rafts_anoytwo views0.60
146
1.33
302
2.59
198
0.53
278
1.09
369
0.49
37
0.25
98
0.67
86
0.53
51
0.41
33
0.38
47
0.33
55
0.30
97
0.68
131
0.41
117
0.10
47
1.13
351
0.13
190
0.15
194
0.20
149
0.29
119
IRAFT_RVCtwo views0.59
140
0.74
174
2.42
120
0.47
253
0.21
77
0.59
129
0.42
251
0.68
89
0.73
199
0.54
130
0.50
113
0.49
135
0.51
231
1.57
256
1.00
268
0.11
110
0.25
245
0.13
190
0.10
70
0.15
60
0.14
24
RAFT-Stereo + iAFFtwo views0.58
125
1.48
333
2.53
177
0.29
45
0.78
337
0.52
60
0.20
20
0.68
89
0.66
123
0.51
110
0.61
196
0.40
81
0.32
106
0.40
34
0.43
127
0.08
1
0.63
311
0.09
13
0.09
37
0.37
303
0.58
255
anonymousatwo views0.74
243
0.60
126
2.58
196
0.96
354
1.33
381
0.61
159
0.26
110
0.69
91
0.56
63
0.55
141
0.84
299
0.82
286
0.46
209
0.56
94
0.61
186
0.10
47
1.11
350
0.12
134
0.98
397
0.14
51
0.97
330
RAFT_CTSACEtwo views0.58
125
1.16
262
2.76
263
0.36
156
0.29
163
0.54
72
0.29
157
0.69
91
0.51
40
0.51
110
0.75
282
0.67
218
0.37
127
0.63
113
0.47
141
0.08
1
0.49
290
0.11
92
0.10
70
0.41
328
0.32
138
RALAANettwo views0.52
82
1.37
314
2.63
212
0.33
110
0.23
108
0.48
32
0.19
12
0.69
91
0.55
59
0.49
81
0.46
77
0.39
73
0.31
101
0.53
85
0.53
164
0.10
47
0.33
263
0.11
92
0.17
224
0.29
251
0.13
12
AFF-stereotwo views0.57
117
1.51
335
2.59
198
0.33
110
0.23
108
0.51
45
0.21
29
0.69
91
0.68
159
0.49
81
0.63
211
0.49
135
0.34
118
0.50
73
0.37
106
0.08
1
0.54
296
0.10
46
0.10
70
0.40
322
0.60
262
ACVNettwo views0.54
98
0.87
196
2.45
149
0.28
33
0.22
86
0.59
129
0.36
223
0.69
91
0.73
199
0.49
81
0.59
181
0.69
241
0.42
173
0.47
50
0.70
211
0.11
110
0.10
103
0.10
46
0.09
37
0.36
297
0.39
176
CFNet-ftpermissivetwo views0.60
146
1.16
262
2.45
149
0.29
45
0.30
174
0.64
206
0.28
132
0.69
91
0.57
66
0.49
81
0.57
170
0.79
274
0.44
194
1.48
243
0.62
189
0.15
232
0.10
103
0.28
336
0.14
176
0.21
158
0.29
119
CFNet_RVCtwo views0.60
146
1.16
262
2.45
149
0.29
45
0.30
174
0.64
206
0.28
132
0.69
91
0.57
66
0.49
81
0.57
170
0.79
274
0.44
194
1.48
243
0.62
189
0.15
232
0.10
103
0.28
336
0.14
176
0.21
158
0.29
119
HHNettwo views0.63
178
0.67
143
3.10
311
0.37
166
0.25
123
0.64
206
0.60
316
0.70
98
0.67
135
0.55
141
1.12
344
0.32
51
0.60
270
0.43
44
1.75
326
0.16
246
0.08
38
0.12
134
0.10
70
0.18
109
0.22
76
NF-Stereotwo views0.53
91
0.33
23
2.55
188
0.55
285
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.44
239
0.78
232
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
OCTAStereotwo views0.53
91
0.33
23
2.54
181
0.56
294
0.16
20
0.61
159
0.42
251
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.79
235
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
RE-Stereotwo views0.53
91
0.33
23
2.54
181
0.56
294
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.77
228
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
TVStereotwo views0.53
91
0.33
23
2.54
181
0.56
294
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.77
228
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
RAFTtwo views0.62
166
1.35
307
2.26
84
0.62
308
0.53
283
0.47
29
0.35
216
0.70
98
0.58
72
0.50
99
0.50
113
0.79
274
0.40
151
0.49
68
0.36
103
0.11
110
0.79
328
0.14
219
0.13
158
0.52
351
0.72
293
CASStwo views0.43
25
0.34
30
2.01
42
0.33
110
0.17
37
0.54
72
0.24
79
0.71
104
0.52
45
0.62
216
0.55
148
0.40
81
0.41
162
0.43
44
0.33
86
0.17
265
0.10
103
0.14
219
0.11
108
0.18
109
0.23
84
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
11t1two views0.60
146
0.49
89
2.19
74
0.35
142
0.58
295
0.48
32
0.21
29
0.72
105
0.73
199
0.49
81
0.47
82
0.35
62
0.34
118
0.61
109
0.71
215
0.12
142
1.26
362
0.10
46
0.29
303
0.16
69
1.22
349
StereoVisiontwo views0.52
82
1.12
251
2.70
248
0.34
127
0.32
193
0.47
29
0.26
110
0.73
106
0.61
83
0.33
22
0.89
313
0.45
118
0.26
48
0.52
78
0.39
114
0.14
214
0.15
179
0.16
260
0.15
194
0.22
172
0.14
24
DMCA-RVCcopylefttwo views0.70
226
1.30
296
3.59
356
0.37
166
0.89
346
0.57
104
0.31
179
0.73
106
0.59
76
0.69
267
0.54
139
0.59
181
0.57
255
1.25
216
0.66
203
0.16
246
0.38
271
0.20
305
0.15
194
0.22
172
0.23
84
fast-acv-fttwo views0.67
210
1.24
285
3.26
321
0.39
197
0.30
174
0.80
298
0.48
280
0.74
108
0.76
229
0.60
197
0.78
293
0.76
266
0.60
270
0.70
134
0.78
232
0.16
246
0.15
179
0.18
290
0.17
224
0.38
309
0.24
93
cross-rafttwo views0.47
48
0.34
30
2.17
71
0.70
328
0.84
342
0.50
43
0.35
216
0.74
108
0.43
13
0.44
49
0.45
75
0.63
199
0.25
40
0.37
24
0.27
36
0.08
1
0.14
165
0.10
46
0.23
275
0.11
17
0.27
107
AACVNettwo views0.61
153
1.13
253
2.47
161
0.37
166
0.21
77
0.57
104
0.25
98
0.75
110
0.55
59
0.56
151
0.60
188
0.66
216
0.44
194
2.11
331
0.49
153
0.14
214
0.11
124
0.14
219
0.11
108
0.35
291
0.23
84
OMP-Stereotwo views0.64
185
0.87
196
2.38
104
0.56
294
0.37
228
0.60
141
0.26
110
0.75
110
0.71
189
0.65
248
0.60
188
0.68
230
0.32
106
2.07
325
1.18
286
0.11
110
0.08
38
0.12
134
0.09
37
0.17
90
0.28
113
EKT-Stereotwo views1.56
376
0.55
113
2.60
203
2.54
406
19.66
422
0.55
81
0.22
38
0.76
112
0.51
40
0.40
32
0.36
37
0.43
91
0.27
61
0.74
149
0.42
121
0.13
184
0.17
198
0.11
92
0.16
211
0.20
149
0.50
231
HHtwo views0.79
264
0.52
101
2.72
251
1.45
376
0.80
338
0.91
325
0.23
57
0.76
112
0.76
229
0.64
236
0.55
148
0.87
302
0.41
162
0.94
178
0.45
134
0.09
11
1.20
354
0.10
46
0.09
37
0.16
69
2.16
389
HanStereotwo views0.79
264
0.52
101
2.72
251
1.45
376
0.80
338
0.91
325
0.23
57
0.76
112
0.76
229
0.64
236
0.55
148
0.87
302
0.41
162
0.94
178
0.45
134
0.09
11
1.20
354
0.10
46
0.09
37
0.16
69
2.16
389
coex-fttwo views6.14
410
1.98
372
60.80
436
0.34
127
0.30
174
0.80
298
1.17
380
0.76
112
4.34
403
19.82
423
2.15
379
1.61
374
8.77
413
1.82
298
10.36
415
0.44
359
2.05
389
0.18
290
0.19
248
0.39
316
4.61
415
IERtwo views0.49
66
0.73
165
2.12
63
0.27
21
0.25
123
0.65
220
0.27
124
0.76
112
0.59
76
0.56
151
0.59
181
0.60
188
0.53
241
0.64
117
0.44
130
0.12
142
0.09
81
0.11
92
0.11
108
0.18
109
0.15
30
UCFNet_RVCtwo views0.55
102
1.16
262
2.48
166
0.31
73
0.27
148
0.65
220
0.28
132
0.76
112
0.58
72
0.51
110
0.53
125
0.67
218
0.42
173
0.91
175
0.45
134
0.16
246
0.11
124
0.17
274
0.17
224
0.20
149
0.23
84
CBFPSMtwo views0.62
166
1.34
304
2.12
63
0.30
59
0.23
108
0.71
256
0.38
234
0.77
118
0.68
159
0.51
110
0.49
101
1.03
338
0.82
316
0.63
113
1.35
303
0.11
110
0.12
139
0.10
46
0.10
70
0.19
132
0.37
161
test-3two views0.58
125
0.43
76
2.44
133
0.52
274
0.59
296
0.46
20
0.23
57
0.77
118
0.49
29
0.52
118
0.29
17
0.44
106
0.22
18
0.59
101
0.97
258
0.08
1
1.27
363
0.10
46
0.35
337
0.29
251
0.62
265
test_1two views0.58
125
0.43
76
2.44
133
0.52
274
0.59
296
0.46
20
0.23
57
0.77
118
0.49
29
0.51
110
0.29
17
0.44
106
0.22
18
0.59
101
0.97
258
0.08
1
1.27
363
0.10
46
0.35
337
0.29
251
0.63
269
PSMNet-ADLtwo views0.56
110
0.47
85
2.03
46
0.35
142
0.22
86
0.67
240
0.27
124
0.77
118
0.58
72
0.43
43
0.53
125
0.70
247
0.45
202
1.89
310
0.64
195
0.16
246
0.13
152
0.11
92
0.13
158
0.15
60
0.51
235
CrosDoStereotwo views0.96
319
0.49
89
2.66
226
0.27
21
0.33
199
0.54
72
3.69
405
0.77
118
0.66
123
0.70
270
1.39
359
0.53
150
1.47
365
1.77
287
3.02
375
0.10
47
0.08
38
0.11
92
0.11
108
0.22
172
0.30
128
DeepStereo_LLtwo views0.96
319
0.49
89
2.66
226
0.27
21
0.33
199
0.54
72
3.69
405
0.77
118
0.66
123
0.70
270
1.39
359
0.53
150
1.47
365
1.77
287
3.02
375
0.10
47
0.08
38
0.11
92
0.11
108
0.22
172
0.30
128
MLCVtwo views0.59
140
1.41
319
2.41
116
0.31
73
0.15
13
0.60
141
0.23
57
0.77
118
0.63
103
0.67
256
0.66
231
0.55
163
0.37
127
1.16
203
1.09
277
0.10
47
0.07
6
0.09
13
0.07
12
0.21
158
0.29
119
whm_ethtwo views0.51
80
0.86
195
2.79
267
0.31
73
0.31
182
0.49
37
0.24
79
0.78
125
0.75
221
0.48
65
0.86
307
0.26
28
0.26
48
0.38
26
0.29
50
0.13
184
0.11
124
0.13
190
0.12
138
0.14
51
0.44
209
PCWNet_CMDtwo views0.48
55
0.50
95
2.23
81
0.27
21
0.20
68
0.56
85
0.22
38
0.78
125
0.67
135
0.49
81
0.55
148
0.68
230
0.56
250
0.48
58
0.32
77
0.11
110
0.10
103
0.14
219
0.10
70
0.19
132
0.43
197
ToySttwo views0.67
210
0.88
200
2.61
207
0.39
197
0.73
327
0.61
159
0.38
234
0.78
125
0.73
199
0.43
43
0.70
254
0.72
250
0.45
202
0.66
124
0.62
189
0.14
214
0.63
311
0.13
190
0.33
329
0.24
192
1.18
341
iRaft-Stereo_5wtwo views0.65
190
1.35
307
2.21
79
0.30
59
0.63
311
0.49
37
0.28
132
0.78
125
0.64
109
0.41
33
0.61
196
0.62
195
0.46
209
1.79
292
0.48
144
0.10
47
0.25
245
0.11
92
0.12
138
0.40
322
0.94
322
IIG-Stereotwo views0.65
190
0.87
196
2.32
95
0.55
285
0.23
108
0.62
181
0.21
29
0.78
125
0.71
189
0.64
236
0.69
241
0.69
241
0.38
134
2.07
325
1.37
307
0.11
110
0.08
38
0.11
92
0.09
37
0.15
60
0.27
107
G-Nettwo views1.02
329
0.70
155
3.23
317
0.60
300
0.66
318
2.00
390
0.71
340
0.78
125
0.70
177
1.14
345
2.53
388
1.29
365
1.01
342
1.47
242
1.74
325
0.25
329
0.24
238
0.24
325
0.26
289
0.37
303
0.40
181
MSMDNettwo views0.48
55
0.50
95
2.23
81
0.27
21
0.20
68
0.56
85
0.22
38
0.78
125
0.67
135
0.49
81
0.55
148
0.68
230
0.56
250
0.48
58
0.32
77
0.11
110
0.10
103
0.13
190
0.10
70
0.18
109
0.43
197
test_3two views0.59
140
0.44
80
2.44
133
0.53
278
0.59
296
0.48
32
0.30
169
0.79
132
0.52
45
0.51
110
0.30
20
0.45
118
0.22
18
0.59
101
0.97
258
0.08
1
1.25
359
0.11
92
0.35
337
0.30
257
0.62
265
CroCo-Stereocopylefttwo views0.35
7
0.71
157
1.67
7
0.32
90
0.17
37
0.19
1
0.21
29
0.79
132
0.54
54
0.22
3
0.25
11
0.55
163
0.22
18
0.28
1
0.28
41
0.10
47
0.08
38
0.08
3
0.07
12
0.12
25
0.10
4
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
ICVPtwo views0.48
55
0.33
23
2.37
102
0.34
127
0.22
86
0.60
141
0.55
301
0.79
132
0.53
51
0.45
51
0.60
188
0.49
135
0.36
122
0.55
91
0.46
138
0.16
246
0.16
191
0.14
219
0.11
108
0.16
69
0.32
138
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
HCRNettwo views0.50
70
0.75
178
2.08
55
0.39
197
0.29
163
0.58
111
0.22
38
0.79
132
0.67
135
0.49
81
0.49
101
0.48
133
0.37
127
1.13
199
0.40
115
0.15
232
0.10
103
0.15
244
0.13
158
0.21
158
0.19
60
DN-CSS_ROBtwo views0.56
110
1.64
352
2.75
260
0.42
222
0.22
86
0.57
104
0.19
12
0.79
132
0.66
123
0.46
61
0.62
203
0.41
86
0.32
106
0.73
146
0.49
153
0.12
142
0.08
38
0.14
219
0.13
158
0.38
309
0.17
49
MSKI-zero shottwo views0.70
226
0.44
80
2.62
211
1.47
378
0.75
329
0.56
85
0.20
20
0.80
137
0.45
17
0.60
197
0.52
122
0.44
106
0.17
1
0.70
134
0.26
32
0.09
11
2.87
411
0.09
13
0.32
319
0.14
51
0.50
231
xtwo views0.65
190
0.62
135
2.12
63
0.36
156
0.61
308
0.48
32
0.24
79
0.80
137
0.89
306
0.50
99
0.56
160
0.44
106
0.36
122
0.62
112
0.80
237
0.11
110
1.44
376
0.11
92
0.39
349
0.16
69
1.34
359
GANet-ADLtwo views0.48
55
0.56
115
2.51
173
0.34
127
0.20
68
0.58
111
0.25
98
0.80
137
0.57
66
0.43
43
0.61
196
0.56
170
0.31
101
0.44
47
0.44
130
0.14
214
0.11
124
0.10
46
0.09
37
0.22
172
0.38
169
Anonymous3two views0.47
48
0.49
89
2.61
207
0.33
110
0.25
123
0.72
262
0.32
189
0.80
137
0.60
80
0.36
23
0.41
59
0.33
55
0.29
87
0.46
48
0.30
55
0.19
287
0.18
204
0.13
190
0.13
158
0.18
109
0.22
76
CFNet_pseudotwo views0.47
48
0.50
95
2.19
74
0.26
15
0.20
68
0.56
85
0.22
38
0.80
137
0.62
92
0.50
99
0.56
160
0.68
230
0.47
217
0.53
85
0.33
86
0.11
110
0.10
103
0.15
244
0.10
70
0.18
109
0.33
141
psmorigintwo views1.41
363
0.91
213
13.83
418
0.37
166
0.30
174
0.63
194
0.37
226
0.80
137
0.64
109
0.98
329
0.87
309
1.16
361
0.78
312
3.95
400
1.09
277
0.19
287
0.22
230
0.17
274
0.19
248
0.25
207
0.47
219
ccs_robtwo views0.47
48
0.50
95
2.19
74
0.26
15
0.20
68
0.56
85
0.22
38
0.80
137
0.62
92
0.50
99
0.56
160
0.68
230
0.47
217
0.53
85
0.33
86
0.11
110
0.10
103
0.16
260
0.10
70
0.18
109
0.33
141
ACVNet-DCAtwo views0.67
210
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.81
144
0.83
274
0.77
294
0.39
50
0.25
22
0.38
134
0.70
134
0.22
4
0.10
47
2.13
395
0.11
92
0.09
37
0.16
69
1.18
341
1test111two views0.72
238
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.81
144
0.83
274
0.77
294
0.39
50
0.25
22
0.38
134
1.03
185
0.75
223
0.10
47
2.13
395
0.11
92
0.09
37
0.16
69
1.18
341
qqqtwo views0.65
190
0.63
137
2.10
62
0.30
59
0.64
315
0.46
20
0.27
124
0.81
144
0.83
274
0.48
65
0.56
160
0.46
122
0.37
127
1.03
185
0.75
223
0.11
110
1.41
375
0.12
134
0.41
354
0.16
69
1.18
341
GANet-RSSMtwo views0.63
178
1.14
254
2.67
233
0.38
184
0.26
137
0.59
129
0.29
157
0.81
144
0.56
63
0.50
99
0.57
170
0.67
218
0.50
227
1.91
316
0.50
156
0.14
214
0.10
103
0.24
325
0.12
138
0.36
297
0.28
113
DSFCAtwo views0.62
166
0.77
181
1.95
34
0.29
45
0.29
163
0.79
295
0.86
353
0.81
144
0.73
199
0.73
282
0.66
231
0.67
218
0.57
255
1.17
205
1.03
271
0.16
246
0.15
179
0.13
190
0.14
176
0.19
132
0.28
113
DMCAtwo views0.50
70
0.83
190
1.95
34
0.32
90
0.24
117
0.59
129
0.26
110
0.81
144
0.68
159
0.59
188
0.49
101
0.56
170
0.36
122
0.65
121
0.65
200
0.14
214
0.10
103
0.14
219
0.10
70
0.19
132
0.29
119
STTStereotwo views0.58
125
0.95
222
2.95
295
0.37
166
0.31
182
0.62
181
0.32
189
0.81
144
0.63
103
0.61
204
0.55
148
0.67
218
0.43
186
0.87
170
0.48
144
0.16
246
0.16
191
0.17
274
0.20
257
0.17
90
0.25
97
mmmtwo views0.66
207
0.53
104
1.83
14
0.38
184
0.86
343
0.49
37
0.27
124
0.82
151
0.83
274
0.59
188
0.69
241
0.47
127
0.38
134
0.81
165
0.73
220
0.12
142
1.37
371
0.14
219
0.45
358
0.18
109
1.35
361
TestStereo1two views0.59
140
1.21
275
2.63
212
0.40
210
0.60
301
0.56
85
0.34
207
0.82
151
0.73
199
0.45
51
0.63
211
0.36
63
0.42
173
0.66
124
0.42
121
0.10
47
0.32
259
0.12
134
0.10
70
0.34
280
0.52
240
SA-5Ktwo views0.59
140
1.21
275
2.63
212
0.40
210
0.60
301
0.56
85
0.34
207
0.82
151
0.73
199
0.45
51
0.63
211
0.36
63
0.42
173
0.66
124
0.42
121
0.10
47
0.32
259
0.12
134
0.10
70
0.34
280
0.52
240
CIPLGtwo views0.63
178
1.59
344
3.16
315
0.79
339
0.31
182
0.62
181
0.57
308
0.82
151
0.68
159
0.58
169
0.63
211
0.43
91
0.31
101
0.48
58
0.42
121
0.12
142
0.20
220
0.13
190
0.13
158
0.36
297
0.21
72
IPLGR_Ctwo views0.64
185
1.66
355
3.36
329
0.80
340
0.31
182
0.60
141
0.60
316
0.82
151
0.69
167
0.58
169
0.62
203
0.44
106
0.31
101
0.47
50
0.43
127
0.12
142
0.22
230
0.13
190
0.15
194
0.35
291
0.21
72
ACREtwo views0.63
178
1.55
338
3.41
340
0.76
333
0.28
158
0.60
141
0.56
305
0.82
151
0.68
159
0.57
163
0.62
203
0.43
91
0.30
97
0.47
50
0.42
121
0.12
142
0.19
208
0.13
190
0.14
176
0.36
297
0.20
68
cf-rtwo views0.62
166
1.27
291
2.99
302
0.34
127
0.28
158
0.60
141
0.28
132
0.82
151
0.70
177
0.55
141
0.61
196
0.77
268
0.41
162
1.32
224
0.52
161
0.13
184
0.09
81
0.11
92
0.12
138
0.22
172
0.27
107
R-Stereo Traintwo views0.42
22
0.31
7
2.51
173
0.30
59
0.18
47
0.56
85
0.25
98
0.82
151
0.41
5
0.57
163
0.67
234
0.33
55
0.24
26
0.34
15
0.33
86
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
RAFT-Stereopermissivetwo views0.42
22
0.31
7
2.51
173
0.30
59
0.18
47
0.56
85
0.25
98
0.82
151
0.41
5
0.57
163
0.67
234
0.33
55
0.24
26
0.34
15
0.33
86
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
RASNettwo views0.69
221
1.05
236
2.59
198
0.37
166
0.47
270
0.66
233
0.33
202
0.82
151
0.76
229
0.51
110
0.65
225
0.93
316
0.62
274
2.20
336
0.80
237
0.14
214
0.09
81
0.09
13
0.11
108
0.18
109
0.37
161
Any-RAFTtwo views0.42
22
0.33
23
1.89
25
0.28
33
0.21
77
0.69
249
0.21
29
0.83
161
0.60
80
0.45
51
0.43
63
0.62
195
0.30
97
0.48
58
0.24
15
0.11
110
0.40
277
0.08
3
0.06
6
0.10
10
0.16
43
RAFT-Testtwo views0.56
110
0.41
68
2.01
42
0.90
348
1.07
367
0.65
220
0.37
226
0.83
161
0.65
116
0.49
81
0.49
101
0.93
316
0.24
26
0.52
78
0.30
55
0.10
47
0.38
271
0.09
13
0.38
346
0.11
17
0.19
60
RAFT+CT+SAtwo views0.60
146
1.25
288
2.49
169
0.38
184
0.75
329
0.55
81
0.34
207
0.83
161
0.68
159
0.39
30
0.55
148
0.44
106
0.29
87
0.75
150
0.28
41
0.09
11
0.24
238
0.11
92
0.51
367
0.30
257
0.74
296
test-1two views0.61
153
0.54
106
2.09
56
0.31
73
1.37
383
0.51
45
0.28
132
0.83
161
0.50
35
0.42
37
0.55
148
0.54
155
0.24
26
0.38
26
1.25
296
0.10
47
1.08
347
0.10
46
0.17
224
0.11
17
0.77
297
FENettwo views0.48
55
0.58
118
2.46
156
0.33
110
0.18
47
0.58
111
0.22
38
0.83
161
0.64
109
0.49
81
0.42
61
0.55
163
0.38
134
0.52
78
0.51
159
0.12
142
0.09
81
0.12
134
0.11
108
0.17
90
0.31
136
PASMtwo views0.82
273
1.00
225
2.68
238
0.52
274
0.48
271
0.65
220
0.59
313
0.83
161
0.89
306
0.82
310
0.73
272
0.89
309
0.68
290
2.39
349
0.73
220
0.35
351
0.37
267
0.36
354
0.41
354
0.45
337
0.51
235
DeepPruner_ROBtwo views0.58
125
1.06
237
2.68
238
0.30
59
0.26
137
0.63
194
0.31
179
0.83
161
0.51
40
0.62
216
0.56
160
0.65
209
0.39
145
1.06
187
0.56
173
0.19
287
0.14
165
0.14
219
0.14
176
0.24
192
0.33
141
IGEV_Zeroshot_testtwo views0.91
310
0.39
59
3.80
365
0.42
222
1.95
399
0.56
85
0.64
325
0.84
168
0.55
59
1.45
374
0.53
125
0.79
274
0.42
173
0.57
97
1.13
281
0.10
47
0.49
290
0.10
46
0.34
335
0.19
132
2.97
408
anonymousdsp2two views0.88
298
0.31
7
1.96
37
1.06
360
1.56
391
0.57
104
0.22
38
0.84
168
0.98
334
1.20
354
0.37
41
0.65
209
0.26
48
1.19
207
0.46
138
0.10
47
2.40
407
0.10
46
0.13
158
0.19
132
2.96
407
gwcnet-sptwo views0.52
82
0.71
157
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
scenettwo views0.52
82
0.71
157
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
RCA-Stereotwo views0.45
40
0.38
55
1.80
10
0.27
21
0.25
123
0.58
111
0.23
57
0.84
168
0.66
123
0.42
37
0.44
74
0.28
37
0.35
120
0.31
3
0.21
1
0.09
11
1.01
339
0.09
13
0.07
12
0.21
158
0.53
243
ssnettwo views0.52
82
0.71
157
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
DCANet-4two views0.43
25
0.32
14
2.31
93
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.55
141
0.48
88
0.28
37
0.37
127
0.40
34
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
ADStereo(finetuned)two views0.50
70
0.91
213
2.43
125
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.56
151
0.49
101
0.32
51
0.75
309
0.40
34
0.40
115
0.10
47
0.07
6
0.09
13
0.07
12
0.13
35
0.45
214
DCANettwo views0.49
66
0.91
213
2.63
212
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.56
151
0.49
101
0.32
51
0.41
162
0.39
30
0.41
117
0.10
47
0.07
6
0.09
13
0.07
12
0.14
51
0.45
214
GwcNet-RSSMtwo views0.64
185
1.38
317
2.69
244
0.33
110
0.26
137
0.60
141
0.32
189
0.84
168
0.73
199
0.56
151
0.65
225
0.72
250
0.42
173
1.78
290
0.60
181
0.14
214
0.10
103
0.12
134
0.13
158
0.26
222
0.26
102
xx1two views0.71
230
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.85
178
1.05
345
0.77
294
0.39
50
0.46
122
0.37
127
0.70
134
0.22
4
0.10
47
2.13
395
0.12
134
0.41
354
0.16
69
1.18
341
cc1two views0.74
243
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.85
178
1.05
345
0.77
294
0.39
50
0.25
22
0.38
134
0.70
134
0.22
4
0.10
47
2.13
395
0.11
92
0.09
37
0.25
207
2.20
395
DualNettwo views0.97
322
0.67
143
3.39
334
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
327
0.54
130
0.74
275
0.67
218
0.40
151
0.64
117
3.86
389
0.10
47
2.16
400
0.15
244
0.33
329
0.25
207
2.19
391
ffmtwo views0.78
261
0.67
143
3.39
334
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
327
0.54
130
0.74
275
0.67
218
0.40
151
0.64
117
0.22
4
0.10
47
2.16
400
0.15
244
0.33
329
0.25
207
2.19
391
ff1two views1.07
338
0.67
143
3.39
334
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
327
0.54
130
0.74
275
0.67
218
0.40
151
2.75
377
3.86
389
0.10
47
2.16
400
0.15
244
0.33
329
0.25
207
2.19
391
tt1two views0.74
243
0.73
165
2.34
98
0.67
321
0.63
311
0.75
272
0.24
79
0.85
178
0.96
327
0.81
306
0.38
47
0.26
28
0.35
120
0.64
117
0.22
4
0.10
47
2.16
400
0.11
92
0.09
37
0.25
207
2.19
391
EGLCR-Stereotwo views0.90
308
0.31
7
1.90
26
1.60
384
0.95
352
1.14
352
0.42
251
0.85
178
0.43
13
1.74
383
0.21
1
0.27
35
0.17
1
1.56
252
0.30
55
0.10
47
2.60
408
0.10
46
0.09
37
0.10
10
3.10
409
ffftwo views0.50
70
0.90
210
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
280
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
test_5two views0.61
153
1.25
288
2.76
263
0.39
197
0.64
315
0.58
111
0.35
216
0.85
178
0.66
123
0.49
81
0.56
160
0.55
163
0.40
151
0.79
158
0.32
77
0.10
47
0.19
208
0.12
134
0.12
138
0.33
274
0.85
312
s12784htwo views0.41
18
0.34
30
2.17
71
0.24
4
0.11
1
0.64
206
0.24
79
0.85
178
0.70
177
0.45
51
0.54
139
0.28
37
0.27
61
0.51
74
0.27
36
0.11
110
0.06
1
0.09
13
0.06
6
0.16
69
0.14
24
csctwo views0.50
70
0.90
210
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
280
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
cscssctwo views0.50
70
0.90
210
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
280
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
CFNet-RSSMtwo views0.44
37
0.36
40
2.38
104
0.28
33
0.43
258
0.53
65
0.20
20
0.86
190
0.52
45
0.44
49
0.36
37
0.53
150
0.26
48
0.40
34
0.27
36
0.09
11
0.08
38
0.09
13
0.38
346
0.10
10
0.22
76
MMNettwo views0.55
102
0.92
218
2.03
46
0.34
127
0.27
148
0.79
295
0.28
132
0.86
190
0.79
249
0.62
216
0.58
176
0.59
181
0.56
250
0.80
162
0.61
186
0.11
110
0.11
124
0.12
134
0.11
108
0.21
158
0.22
76
UNettwo views0.56
110
0.58
118
2.81
273
0.32
90
0.33
199
0.74
270
0.27
124
0.86
190
0.67
135
0.55
141
0.55
148
0.72
250
0.55
248
0.79
158
0.58
177
0.12
142
0.09
81
0.13
190
0.11
108
0.20
149
0.19
60
EDNetEfficientorigintwo views8.19
412
1.27
291
145.54
438
0.51
273
0.96
353
0.75
272
0.49
285
0.86
190
1.57
379
2.12
389
1.49
363
1.28
363
1.35
356
1.84
301
2.15
347
0.14
214
0.13
152
0.17
274
0.18
232
0.39
316
0.64
274
ac_64two views0.63
178
0.77
181
2.71
249
0.37
166
0.34
208
0.64
206
0.30
169
0.86
190
0.67
135
0.58
169
0.53
125
0.88
306
0.48
223
1.84
301
0.71
215
0.15
232
0.12
139
0.12
134
0.12
138
0.21
158
0.25
97
acv_fttwo views0.57
117
0.87
196
2.45
149
0.33
110
0.41
247
0.63
194
0.29
157
0.86
190
0.73
199
0.64
236
0.59
181
0.69
241
0.45
202
0.47
50
0.68
208
0.11
110
0.10
103
0.10
46
0.09
37
0.43
332
0.39
176
DLCB_ROBtwo views0.61
153
0.96
223
2.00
40
0.37
166
0.25
123
0.65
220
0.37
226
0.86
190
0.76
229
0.73
282
0.70
254
0.84
291
0.47
217
1.57
256
0.72
219
0.13
184
0.13
152
0.14
219
0.14
176
0.18
109
0.33
141
MyStereo05two views0.57
117
0.72
162
2.72
251
0.31
73
0.25
123
0.60
141
0.30
169
0.87
197
0.82
268
0.54
130
0.37
41
0.53
150
0.42
173
0.63
113
0.73
220
0.09
11
0.55
298
0.12
134
0.20
257
0.16
69
0.56
253
SQANettwo views0.92
311
1.96
370
3.23
317
0.77
336
0.83
340
0.76
276
0.38
234
0.87
197
0.68
159
0.64
236
0.69
241
0.73
256
0.52
238
1.35
227
1.36
305
0.80
375
0.30
257
0.60
373
0.29
303
0.93
377
0.70
290
iinet-ftwo views0.62
166
1.18
268
2.55
188
0.33
110
0.25
123
0.82
305
0.34
207
0.87
197
0.69
167
0.56
151
0.64
218
0.73
256
0.67
288
0.80
162
0.81
241
0.14
214
0.13
152
0.11
92
0.10
70
0.44
335
0.26
102
EDNetEfficienttwo views1.29
354
0.78
184
4.27
382
0.65
315
1.03
364
0.94
331
1.38
389
0.87
197
1.75
384
2.33
397
1.32
356
1.04
342
2.21
389
1.59
263
4.07
394
0.16
246
0.19
208
0.15
244
0.27
297
0.38
309
0.40
181
HGLStereotwo views0.61
153
1.20
273
2.59
198
0.36
156
0.40
242
0.65
220
0.30
169
0.87
197
0.67
135
0.60
197
0.70
254
0.69
241
0.56
250
1.07
189
0.59
179
0.14
214
0.13
152
0.13
190
0.12
138
0.23
186
0.23
84
TDLMtwo views0.83
277
1.28
293
2.38
104
0.46
247
0.26
137
0.66
233
0.55
301
0.87
197
0.80
256
2.54
400
0.62
203
0.61
190
0.51
231
2.68
371
0.67
205
0.20
295
0.11
124
0.35
353
0.15
194
0.33
274
0.48
223
NLCA_NET_v2_RVCtwo views0.62
166
1.15
260
3.11
312
0.39
197
0.37
228
0.60
141
0.28
132
0.87
197
0.64
109
0.63
225
0.56
160
0.71
249
0.45
202
1.08
190
0.52
161
0.15
232
0.12
139
0.14
219
0.15
194
0.18
109
0.25
97
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
StereoDRNet-Refinedtwo views0.55
102
0.61
131
2.07
53
0.34
127
0.21
77
0.68
246
0.26
110
0.87
197
0.73
199
0.70
270
0.69
241
0.74
258
0.45
202
1.10
192
0.62
189
0.12
142
0.09
81
0.14
219
0.14
176
0.27
233
0.24
93
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
MyStereo04two views0.57
117
0.68
150
2.66
226
0.30
59
0.41
247
0.61
159
0.31
179
0.88
205
0.80
256
0.48
65
0.37
41
0.54
155
0.42
173
0.61
109
0.71
215
0.09
11
0.59
305
0.12
134
0.21
268
0.16
69
0.48
223
TransformOpticalFlowtwo views0.65
190
0.61
131
2.67
233
0.45
244
0.26
137
0.62
181
0.28
132
0.88
205
0.76
229
0.76
292
0.74
275
0.90
310
0.84
319
1.82
298
0.80
237
0.10
47
0.07
6
0.11
92
0.09
37
0.12
25
0.19
60
UPFNettwo views0.51
80
0.67
143
2.04
49
0.34
127
0.33
199
0.65
220
0.37
226
0.88
205
0.65
116
0.60
197
0.53
125
0.61
190
0.41
162
0.77
153
0.55
171
0.13
184
0.13
152
0.13
190
0.13
158
0.20
149
0.16
43
PSMNet-RSSMtwo views0.61
153
1.19
271
2.43
125
0.33
110
0.25
123
0.59
129
0.28
132
0.88
205
0.65
116
0.54
130
0.62
203
0.69
241
0.46
209
1.67
273
0.50
156
0.15
232
0.10
103
0.14
219
0.16
211
0.20
149
0.28
113
AANet_RVCtwo views0.79
264
1.46
330
2.72
251
0.34
127
0.25
123
0.59
129
0.32
189
0.88
205
0.83
274
0.62
216
0.95
322
0.80
280
0.43
186
2.46
355
1.72
323
0.38
352
0.26
248
0.10
46
0.09
37
0.25
207
0.43
197
DISCOtwo views0.61
153
0.63
137
1.98
39
0.46
247
0.34
208
0.84
311
0.35
216
0.88
205
0.81
263
0.61
204
0.64
218
1.06
346
0.53
241
1.11
196
0.83
246
0.13
184
0.10
103
0.11
92
0.10
70
0.26
222
0.37
161
DAStwo views0.61
153
0.42
70
1.85
19
0.34
127
0.34
208
0.52
60
0.42
251
0.89
211
0.80
256
0.85
315
0.69
241
0.57
174
0.51
231
2.38
348
0.57
175
0.13
184
0.09
81
0.12
134
0.09
37
0.18
109
0.37
161
SepStereotwo views0.57
117
0.42
70
1.85
19
0.34
127
0.34
208
0.52
60
0.42
251
0.89
211
0.80
256
0.85
315
0.69
241
0.57
174
0.51
231
1.55
250
0.57
175
0.13
184
0.09
81
0.12
134
0.09
37
0.18
109
0.37
161
delettwo views0.60
146
0.84
191
2.45
149
0.33
110
0.35
216
0.73
265
0.46
274
0.89
211
0.80
256
0.58
169
0.62
203
0.67
218
0.51
231
1.14
201
0.64
195
0.12
142
0.12
139
0.13
190
0.14
176
0.22
172
0.29
119
hitnet-ftcopylefttwo views0.73
240
1.09
242
2.59
198
0.28
33
0.22
86
0.71
256
0.36
223
0.89
211
0.67
135
0.58
169
0.83
297
1.03
338
0.94
337
2.31
341
0.70
211
0.23
316
0.14
165
0.41
361
0.13
158
0.24
192
0.28
113
MaskLacGwcNet_RVCtwo views0.84
280
1.41
319
2.80
269
0.94
352
0.35
216
0.89
321
0.41
245
0.89
211
0.66
123
0.57
163
0.63
211
0.75
262
0.38
134
2.37
345
0.55
171
1.16
389
0.31
258
0.36
354
0.21
268
0.59
357
0.63
269
HITNettwo views0.55
102
1.28
293
2.73
256
0.35
142
0.14
8
0.56
85
0.23
57
0.89
211
0.62
92
0.52
118
0.51
115
0.49
135
0.38
134
0.52
78
0.60
181
0.09
11
0.07
6
0.10
46
0.08
27
0.25
207
0.61
263
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
iResNettwo views0.59
140
1.09
242
2.54
181
0.44
237
0.18
47
0.65
220
0.29
157
0.89
211
0.75
221
0.59
188
0.64
218
0.43
91
0.39
145
0.73
146
1.24
295
0.11
110
0.08
38
0.09
13
0.08
27
0.21
158
0.40
181
NCCL2two views0.71
230
1.32
298
2.30
91
0.44
237
0.31
182
0.71
256
0.67
334
0.89
211
0.69
167
0.70
270
0.61
196
0.85
296
0.54
243
1.58
262
0.70
211
0.20
295
0.17
198
0.66
375
0.25
283
0.26
222
0.38
169
MyStereo06two views0.70
226
0.72
162
3.51
348
0.31
73
0.25
123
0.60
141
0.30
169
0.90
219
0.67
135
1.48
377
0.53
125
0.84
291
0.57
255
0.60
106
1.11
279
0.09
11
0.55
298
0.12
134
0.20
257
0.16
69
0.56
253
CFNet_ucstwo views0.50
70
0.55
113
2.28
87
0.27
21
0.22
86
0.58
111
0.23
57
0.90
219
0.69
167
0.54
130
0.64
218
0.68
230
0.44
194
0.55
91
0.34
94
0.14
214
0.12
139
0.16
260
0.11
108
0.19
132
0.38
169
CSP-Nettwo views0.55
102
0.61
131
1.81
13
0.30
59
0.23
108
0.77
286
0.35
216
0.90
219
0.62
92
0.62
216
0.60
188
0.65
209
0.42
173
1.76
284
0.47
141
0.17
265
0.12
139
0.10
46
0.10
70
0.21
158
0.16
43
DDUNettwo views0.90
308
1.63
351
2.77
265
0.77
336
0.69
323
0.83
306
0.44
264
0.90
219
0.70
177
0.68
262
0.76
285
0.92
311
0.54
243
1.14
201
1.35
303
0.61
368
0.37
267
0.96
384
0.52
369
0.77
372
0.67
278
111two views0.57
117
1.41
319
2.63
212
0.25
5
0.15
13
0.59
129
0.26
110
0.90
219
0.83
274
0.50
99
0.54
139
0.57
174
0.38
134
0.54
90
0.41
117
0.10
47
0.07
6
0.09
13
0.07
12
0.24
192
0.81
306
CVANet_RVCtwo views0.82
273
1.18
268
3.98
371
0.40
210
0.28
158
0.63
194
0.43
258
0.90
219
0.78
240
1.14
345
0.69
241
0.68
230
0.52
238
2.62
364
0.48
144
0.20
295
0.13
152
0.22
313
0.37
343
0.37
303
0.48
223
PSMNet_ROBtwo views0.75
252
1.42
323
2.93
292
0.39
197
0.32
193
0.73
265
0.56
305
0.90
219
0.74
216
0.56
151
0.60
188
0.75
262
0.47
217
2.00
321
1.31
299
0.18
276
0.13
152
0.19
295
0.20
257
0.26
222
0.40
181
Wz-Net-LNSevtwo views0.66
207
1.30
296
2.81
273
0.35
142
0.37
228
0.80
298
0.48
280
0.91
226
0.87
297
0.63
225
0.70
254
0.80
280
0.59
265
0.67
127
0.68
208
0.15
232
0.14
165
0.12
134
0.12
138
0.24
192
0.38
169
SACVNettwo views0.68
215
1.08
241
2.58
196
0.38
184
0.28
158
0.65
220
0.37
226
0.91
226
0.65
116
0.67
256
0.62
203
0.69
241
0.47
217
2.07
325
0.65
200
0.18
276
0.14
165
0.16
260
0.15
194
0.39
316
0.41
188
GwcNetcopylefttwo views0.76
255
1.09
242
3.68
359
0.38
184
0.45
262
0.81
303
0.45
269
0.91
226
0.89
306
0.63
225
0.77
289
0.82
286
0.51
231
1.64
269
0.85
248
0.17
265
0.16
191
0.15
244
0.15
194
0.33
274
0.34
148
FADNet-RVC-Resampletwo views0.74
243
1.54
337
3.81
366
0.38
184
0.29
163
0.62
181
0.38
234
0.91
226
0.67
135
0.52
118
0.51
115
0.63
199
0.44
194
1.56
252
0.59
179
0.24
323
0.32
259
0.22
313
0.19
248
0.30
257
0.71
292
FADNet-RVCtwo views0.69
221
1.65
353
2.74
258
0.35
142
0.26
137
0.60
141
0.29
157
0.91
226
0.67
135
0.46
61
0.51
115
0.62
195
0.46
209
1.75
282
0.81
241
0.17
265
0.20
220
0.17
274
0.18
232
0.60
358
0.39
176
BEATNet_4xtwo views0.57
117
1.16
262
2.56
192
0.35
142
0.16
20
0.56
85
0.25
98
0.91
226
0.64
109
0.55
141
0.53
125
0.59
181
0.43
186
0.67
127
0.76
226
0.12
142
0.09
81
0.12
134
0.09
37
0.23
186
0.58
255
PA-Nettwo views0.93
316
1.36
311
4.14
376
0.64
313
0.41
247
0.70
252
0.53
294
0.91
226
0.88
301
0.53
126
0.60
188
0.70
247
0.54
243
2.40
350
2.57
365
0.17
265
0.28
256
0.19
295
0.28
299
0.25
207
0.48
223
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
FADNettwo views0.71
230
1.60
348
2.53
177
0.33
110
0.30
174
0.67
240
0.29
157
0.92
233
0.75
221
0.45
51
0.49
101
0.66
216
0.57
255
1.85
303
0.85
248
0.46
362
0.20
220
0.17
274
0.20
257
0.60
358
0.37
161
ADCReftwo views0.88
298
1.45
328
2.68
238
0.38
184
0.35
216
0.95
333
0.51
288
0.92
233
0.81
263
0.89
319
0.84
299
0.61
190
1.35
356
1.26
218
3.38
380
0.14
214
0.12
139
0.17
274
0.19
248
0.28
243
0.34
148
Anonymous Stereotwo views0.83
277
1.57
339
3.56
353
0.46
247
0.39
236
0.63
194
0.84
352
0.92
233
0.83
274
0.68
262
0.68
237
0.64
205
0.42
173
2.42
353
1.02
270
0.23
316
0.23
235
0.19
295
0.20
257
0.31
265
0.40
181
GwcNet-ADLtwo views0.54
98
0.78
184
2.85
281
0.31
73
0.20
68
0.58
111
0.29
157
0.93
236
0.67
135
0.48
65
0.47
82
0.56
170
0.33
111
0.48
58
0.80
237
0.13
184
0.12
139
0.09
13
0.09
37
0.14
51
0.40
181
GEStwo views0.49
66
0.54
106
2.37
102
0.31
73
0.19
63
0.61
159
0.30
169
0.93
236
0.52
45
0.49
81
0.53
125
0.40
81
0.43
186
0.59
101
0.67
205
0.16
246
0.11
124
0.12
134
0.10
70
0.20
149
0.30
128
ADCPNettwo views1.07
338
1.37
314
4.54
391
0.38
184
0.68
322
1.36
360
0.64
325
0.93
236
0.83
274
0.79
303
0.82
295
1.08
349
1.18
353
1.30
223
2.68
367
0.21
303
0.69
320
0.21
309
0.95
395
0.30
257
0.54
246
DANettwo views0.85
288
0.68
150
2.41
116
1.18
368
0.48
271
0.77
286
1.23
383
0.93
236
1.53
377
0.90
321
0.72
270
0.97
326
0.57
255
1.86
305
1.05
273
0.18
276
0.16
191
0.19
295
0.16
211
0.26
222
0.67
278
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
CFNettwo views0.65
190
1.45
328
2.27
85
0.34
127
0.25
123
0.64
206
0.23
57
0.93
236
0.79
249
0.48
65
0.59
181
0.58
178
0.40
151
2.28
339
0.63
194
0.13
184
0.09
81
0.15
244
0.14
176
0.34
280
0.26
102
SMFormertwo views0.64
185
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.86
250
0.13
184
1.01
339
0.11
92
0.26
289
0.17
90
0.84
308
ttatwo views0.63
178
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.86
250
0.13
184
1.01
339
0.11
92
0.26
289
0.19
132
0.59
258
qqq1two views0.62
166
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.64
195
0.13
184
1.01
339
0.09
13
0.24
277
0.19
132
0.59
258
fff1two views0.62
166
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.64
195
0.13
184
1.01
339
0.09
13
0.24
277
0.19
132
0.59
258
Wz-Net-LNSev-Reftwo views0.65
190
1.15
260
2.40
112
0.33
110
0.30
174
0.83
306
0.40
243
0.94
241
0.82
268
0.67
256
0.76
285
0.68
230
0.58
262
1.13
199
1.25
296
0.14
214
0.08
38
0.10
46
0.08
27
0.18
109
0.28
113
CRFU-Nettwo views0.58
125
0.42
70
1.90
26
0.49
265
0.27
148
0.83
306
0.35
216
0.94
241
0.54
54
0.65
248
0.60
188
0.78
272
1.34
355
1.00
181
0.51
159
0.17
265
0.14
165
0.17
274
0.10
70
0.19
132
0.20
68
psmgtwo views0.48
55
0.32
14
1.58
3
0.28
33
0.22
86
0.75
272
0.35
216
0.94
241
0.67
135
0.61
204
0.59
181
0.63
199
0.38
134
0.48
58
0.97
258
0.13
184
0.11
124
0.13
190
0.13
158
0.14
51
0.15
30
ADLNet2two views0.73
240
1.22
280
3.28
323
0.34
127
0.36
222
0.65
220
0.37
226
0.94
241
0.87
297
0.57
163
0.65
225
0.92
311
0.48
223
2.05
323
0.60
181
0.13
184
0.11
124
0.11
92
0.11
108
0.37
303
0.38
169
DIP-Stereotwo views0.43
25
0.50
95
2.21
79
0.27
21
0.18
47
0.63
194
0.17
5
0.94
241
0.58
72
0.49
81
0.48
88
0.30
42
0.30
97
0.40
34
0.31
69
0.10
47
0.08
38
0.10
46
0.08
27
0.15
60
0.33
141
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
SuperBtwo views1.19
348
1.62
349
5.29
399
0.37
166
0.26
137
0.81
303
0.87
354
0.94
241
1.19
361
0.68
262
0.68
237
0.63
199
1.37
359
1.73
279
3.30
377
0.16
246
0.12
139
0.17
274
0.16
211
2.74
409
0.63
269
ADCP+two views1.03
333
1.68
356
3.83
367
0.35
142
0.39
236
1.05
342
0.79
349
0.94
241
0.86
295
0.69
267
0.68
237
0.85
296
1.53
371
1.02
183
4.56
398
0.13
184
0.12
139
0.16
260
0.15
194
0.28
243
0.44
209
GANettwo views0.92
311
1.20
273
2.68
238
0.45
244
0.27
148
0.76
276
0.66
330
0.94
241
0.77
237
0.79
303
1.17
345
0.84
291
0.91
331
2.72
373
1.76
327
0.18
276
0.42
279
0.44
366
0.20
257
0.33
274
0.94
322
XPNet_ROBtwo views0.68
215
1.11
249
2.28
87
0.38
184
0.27
148
0.67
240
0.47
278
0.94
241
0.75
221
0.80
305
0.71
267
0.81
283
0.54
243
1.72
278
0.84
247
0.22
308
0.16
191
0.16
260
0.15
194
0.25
207
0.45
214
raft_robusttwo views0.68
215
1.24
285
2.42
120
0.30
59
0.57
291
0.53
65
0.25
98
0.95
254
0.79
249
0.49
81
0.46
77
1.12
355
0.74
305
1.50
246
0.61
186
0.09
11
0.62
310
0.10
46
0.30
309
0.26
222
0.30
128
ADLNettwo views0.68
215
1.02
229
2.68
238
0.35
142
0.34
208
0.67
240
0.34
207
0.95
254
0.79
249
0.70
270
0.62
203
0.80
280
0.46
209
1.77
287
0.69
210
0.15
232
0.12
139
0.14
219
0.14
176
0.31
265
0.54
246
RPtwo views0.74
243
1.01
228
2.48
166
0.44
237
0.45
262
0.66
233
0.45
269
0.95
254
0.87
297
0.70
270
0.95
322
0.99
330
0.82
316
1.55
250
0.82
244
0.26
333
0.19
208
0.23
320
0.20
257
0.34
280
0.38
169
XX-Stereotwo views0.98
324
0.57
116
4.45
389
1.64
386
5.33
412
0.55
81
0.16
3
0.96
257
0.43
13
0.45
51
0.65
225
0.85
296
0.19
7
0.79
158
0.26
32
0.11
110
0.80
329
0.10
46
0.32
319
0.17
90
0.78
300
ARAFTtwo views0.65
190
1.69
357
3.34
328
0.29
45
0.16
20
0.65
220
0.36
223
0.96
257
0.73
199
0.63
225
0.49
101
0.56
170
0.31
101
1.23
211
0.35
101
0.11
110
0.08
38
0.14
219
0.13
158
0.38
309
0.50
231
APVNettwo views0.76
255
1.11
249
3.23
317
0.39
197
0.36
222
0.85
312
0.44
264
0.96
257
0.73
199
0.58
169
0.69
241
0.76
266
0.56
250
2.29
340
0.82
244
0.17
265
0.18
204
0.24
325
0.19
248
0.35
291
0.27
107
psm_uptwo views0.65
190
1.02
229
2.53
177
0.36
156
0.31
182
0.64
206
0.38
234
0.96
257
0.73
199
0.63
225
0.57
170
0.68
230
0.57
255
1.90
315
0.52
161
0.17
265
0.15
179
0.16
260
0.15
194
0.27
233
0.22
76
NVstereo2Dtwo views0.63
178
0.57
116
2.29
89
0.37
166
0.35
216
0.69
249
0.49
285
0.96
257
0.88
301
0.49
81
0.54
139
0.72
250
0.46
209
1.98
320
0.50
156
0.19
287
0.20
220
0.18
290
0.16
211
0.28
243
0.34
148
iResNetv2_ROBtwo views0.71
230
1.90
369
3.48
346
0.43
232
0.22
86
0.60
141
0.29
157
0.96
257
0.78
240
0.60
197
0.65
225
0.60
188
0.46
209
0.80
162
1.21
290
0.12
142
0.08
38
0.10
46
0.07
12
0.44
335
0.33
141
MSMD_ROBtwo views1.41
363
1.03
232
2.75
260
0.41
219
0.32
193
2.00
390
0.61
321
0.96
257
1.43
371
2.97
405
2.63
392
4.76
404
2.04
386
2.44
354
1.78
329
0.30
343
0.26
248
0.32
348
0.32
319
0.32
270
0.63
269
GASNettwo views0.84
280
1.98
372
4.07
374
0.48
254
0.33
199
0.58
111
0.34
207
0.97
264
0.81
263
0.60
197
0.59
181
0.74
258
0.55
248
2.08
328
1.18
286
0.22
308
0.15
179
0.19
295
0.17
224
0.55
354
0.29
119
SAtwo views0.61
153
1.14
254
2.79
267
0.32
90
0.63
311
0.57
104
0.30
169
0.97
264
0.78
240
0.43
43
0.63
211
0.39
73
0.46
209
0.70
134
0.31
69
0.10
47
0.44
283
0.13
190
0.32
319
0.31
265
0.51
235
UDGtwo views0.86
291
1.57
339
2.80
269
0.68
326
0.59
296
0.78
291
0.38
234
0.97
264
0.74
216
0.63
225
0.70
254
1.01
334
0.68
290
1.02
183
1.22
293
0.45
360
0.34
264
0.89
382
0.51
367
0.73
367
0.58
255
ADCLtwo views1.07
338
1.22
280
2.80
269
0.40
210
0.33
199
1.50
367
1.87
398
0.97
264
1.04
344
1.26
362
1.28
352
0.99
330
1.41
362
1.36
228
3.51
383
0.17
265
0.14
165
0.22
313
0.21
268
0.32
270
0.43
197
AnyNet_C32two views1.08
341
1.76
362
3.01
304
0.50
270
0.54
284
1.17
355
1.16
379
0.97
264
0.95
325
1.11
342
0.98
327
0.87
302
0.93
336
1.57
256
4.11
395
0.22
308
0.20
220
0.25
330
0.25
283
0.40
322
0.68
283
AdaStereotwo views0.48
55
0.44
80
2.18
73
0.36
156
0.20
68
0.59
129
0.29
157
0.97
264
0.74
216
0.52
118
0.55
148
0.61
190
0.33
111
0.52
78
0.44
130
0.18
276
0.08
38
0.17
274
0.11
108
0.18
109
0.24
93
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
anonymitytwo views0.86
291
0.68
150
1.44
1
0.64
313
0.83
340
0.67
240
0.52
292
0.98
270
0.73
199
0.96
328
0.70
254
0.81
283
0.86
324
1.10
192
1.34
301
0.64
369
0.72
326
0.58
371
1.44
406
0.60
358
0.91
319
Wz-Net-MNSevtwo views0.74
243
1.42
323
2.75
260
0.38
184
0.33
199
0.90
324
0.61
321
0.98
270
0.94
320
0.77
294
0.75
282
0.75
262
0.66
286
1.39
229
0.76
226
0.17
265
0.13
152
0.14
219
0.14
176
0.28
243
0.48
223
edge stereotwo views0.84
280
0.74
174
3.42
343
0.38
184
1.21
376
0.63
194
0.41
245
0.98
270
0.83
274
0.81
306
0.88
311
1.14
357
0.73
301
2.16
334
0.89
252
0.22
308
0.20
220
0.26
332
0.18
232
0.38
309
0.43
197
HSMtwo views0.67
210
0.92
218
2.29
89
0.30
59
0.29
163
0.65
220
0.29
157
0.98
270
0.67
135
0.59
188
0.58
176
1.39
368
0.65
280
2.56
359
0.45
134
0.11
110
0.09
81
0.10
46
0.08
27
0.18
109
0.24
93
StereoDRNettwo views0.71
230
1.24
285
2.56
192
0.42
222
0.45
262
0.73
265
0.46
274
0.98
270
0.81
263
0.77
294
0.56
160
0.74
258
0.48
223
1.69
277
0.91
254
0.15
232
0.14
165
0.15
244
0.15
194
0.26
222
0.51
235
stereogantwo views0.74
243
0.68
150
2.82
275
0.40
210
0.40
242
1.05
342
0.42
251
0.99
275
0.96
327
0.78
302
0.86
307
1.15
359
0.73
301
1.57
256
0.56
173
0.20
295
0.19
208
0.20
305
0.16
211
0.37
303
0.34
148
RYNettwo views0.77
259
0.91
213
2.36
100
0.37
166
0.41
247
0.88
319
0.44
264
0.99
275
0.88
301
0.65
248
0.54
139
0.92
311
0.61
272
2.70
372
1.23
294
0.15
232
0.14
165
0.17
274
0.14
176
0.27
233
0.55
252
LSMtwo views3.40
402
1.42
323
5.81
403
9.98
418
30.74
432
0.86
313
1.14
375
0.99
275
1.26
363
1.40
371
2.18
380
0.93
316
0.85
322
1.76
284
1.03
271
0.22
308
0.35
265
0.24
325
0.29
303
0.40
322
6.21
416
iResNet_ROBtwo views0.60
146
1.59
344
2.04
49
0.32
90
0.21
77
0.60
141
0.22
38
0.99
275
0.85
289
0.61
204
0.63
211
0.58
178
0.42
173
1.08
190
0.98
264
0.11
110
0.08
38
0.09
13
0.06
6
0.23
186
0.33
141
NOSS_ROBtwo views0.75
252
1.03
232
2.27
85
0.68
326
0.26
137
0.68
246
0.30
169
0.99
275
0.82
268
0.59
188
0.58
176
0.77
268
0.39
145
2.75
377
0.48
144
0.25
329
0.24
238
0.28
336
0.26
289
0.29
251
1.07
336
LALA_ROBtwo views0.68
215
1.14
254
2.50
172
0.37
166
0.29
163
0.78
291
0.55
301
0.99
275
0.84
286
0.82
310
0.68
237
0.93
316
0.50
227
1.01
182
0.89
252
0.21
303
0.15
179
0.21
309
0.18
232
0.26
222
0.30
128
ssnet_v2two views0.64
185
0.99
224
2.67
233
0.33
110
0.22
86
0.72
262
0.45
269
1.00
281
0.80
256
0.66
254
0.54
139
0.81
283
0.48
223
0.91
175
1.08
276
0.16
246
0.14
165
0.14
219
0.14
176
0.33
274
0.31
136
Sa-1000two views0.61
153
1.07
238
2.71
249
0.32
90
0.61
308
0.61
159
0.31
179
1.00
281
0.76
229
0.53
126
0.83
297
0.43
91
0.33
111
0.69
133
0.30
55
0.10
47
0.52
295
0.13
190
0.28
299
0.29
251
0.29
119
AASNettwo views0.66
207
1.49
334
2.97
297
0.37
166
0.33
199
0.65
220
0.30
169
1.00
281
0.78
240
0.56
151
0.60
188
0.55
163
0.39
145
0.88
174
0.96
257
0.15
232
0.12
139
0.13
190
0.11
108
0.45
337
0.35
154
SFCPSMtwo views0.48
55
0.39
59
2.30
91
0.28
33
0.27
148
0.70
252
0.32
189
1.00
281
0.69
167
0.50
99
0.52
122
0.43
91
0.36
122
0.53
85
0.44
130
0.12
142
0.09
81
0.12
134
0.16
211
0.18
109
0.23
84
FADNet_RVCtwo views0.87
297
1.51
335
2.90
289
0.31
73
0.24
117
0.71
256
0.25
98
1.00
281
0.65
116
0.45
51
0.57
170
0.61
190
0.44
194
1.53
248
0.75
223
0.94
379
0.97
336
0.28
336
1.00
398
0.89
376
1.36
363
S-Stereotwo views0.82
273
0.73
165
3.79
364
0.40
210
0.37
228
0.70
252
0.69
338
1.00
281
1.03
341
0.63
225
0.92
317
0.82
286
0.59
265
2.35
344
0.71
215
0.18
276
0.22
230
0.17
274
0.18
232
0.30
257
0.67
278
RGCtwo views0.78
261
1.10
247
2.55
188
0.45
244
0.45
262
0.73
265
0.40
243
1.00
281
0.75
221
0.75
290
1.04
338
1.02
337
0.73
301
1.74
281
1.15
283
0.24
323
0.19
208
0.28
336
0.26
289
0.31
265
0.38
169
WCMA_ROBtwo views1.29
354
1.21
275
3.13
314
0.65
315
0.36
222
1.20
359
0.78
347
1.00
281
0.98
334
1.78
384
2.62
391
3.08
393
2.01
385
1.86
305
2.35
357
0.38
352
0.38
271
0.32
348
0.32
319
0.31
265
1.06
335
AEACVtwo views0.89
305
0.29
2
1.84
17
2.50
405
1.68
395
0.53
65
0.21
29
1.01
289
0.42
9
0.68
262
0.31
25
0.22
8
0.39
145
1.63
266
0.25
23
0.09
11
2.60
408
0.09
13
0.54
371
0.23
186
2.27
401
LL-Strereotwo views0.85
288
1.73
358
3.06
310
0.37
166
0.61
308
0.54
72
0.33
202
1.01
289
0.76
229
0.69
267
0.58
176
0.85
296
0.78
312
2.65
367
0.54
169
0.14
214
0.58
304
0.14
219
0.12
138
0.42
330
1.05
334
STrans-v2two views0.69
221
0.62
135
2.66
226
0.28
33
0.23
108
0.57
104
0.32
189
1.01
289
0.77
237
0.92
324
0.84
299
0.88
306
0.92
334
1.81
295
1.19
288
0.10
47
0.07
6
0.10
46
0.09
37
0.12
25
0.30
128
FAT-Stereotwo views0.72
238
0.60
126
2.86
283
0.37
166
0.29
163
0.64
206
0.55
301
1.01
289
0.91
311
0.76
292
0.94
319
0.93
316
0.79
314
1.82
298
0.60
181
0.19
287
0.19
208
0.17
274
0.16
211
0.23
186
0.47
219
ADCMidtwo views1.06
336
1.82
364
3.53
351
0.39
197
0.36
222
0.99
336
0.58
310
1.01
289
0.94
320
1.23
360
1.02
334
1.01
334
1.01
342
1.11
196
4.04
393
0.22
308
0.19
208
0.42
363
0.32
319
0.42
330
0.53
243
SGM-Foresttwo views1.84
383
7.91
416
10.36
412
0.42
222
0.33
199
1.04
340
1.29
385
1.01
289
0.88
301
1.19
349
2.30
384
1.03
338
1.79
379
2.60
363
2.81
370
0.22
308
0.21
228
0.21
309
0.19
248
0.25
207
0.79
302
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
Ntrotwo views1.11
343
2.10
382
3.52
350
0.97
355
0.87
345
1.06
345
0.54
297
1.02
295
0.93
319
0.63
225
0.76
285
0.93
316
0.67
288
1.76
284
1.71
321
1.03
384
0.46
284
0.76
380
0.41
354
1.29
387
0.86
315
Consistency-Rafttwo views0.92
311
1.21
275
3.50
347
0.98
356
0.63
311
0.77
286
0.54
297
1.02
295
1.01
339
0.62
216
1.03
336
0.65
209
1.04
344
0.81
165
1.36
305
0.45
360
0.47
286
0.51
369
0.59
377
0.65
364
0.47
219
pcwnet_v2two views0.65
190
0.54
106
4.29
385
0.33
110
0.27
148
0.60
141
0.25
98
1.02
295
0.92
313
0.61
204
0.69
241
0.62
195
0.54
243
0.67
127
0.38
112
0.18
276
0.15
179
0.15
244
0.14
176
0.21
158
0.49
229
ccnettwo views0.77
259
0.61
131
2.01
42
0.40
210
0.46
269
1.05
342
0.59
313
1.02
295
0.74
216
0.90
321
0.97
324
0.82
286
0.89
329
1.68
276
1.16
285
0.32
346
0.26
248
0.32
348
0.28
299
0.35
291
0.47
219
MFN_U_SF_DS_RVCtwo views1.08
341
2.01
376
2.56
192
0.49
265
0.40
242
1.49
366
0.96
362
1.02
295
0.95
325
0.85
315
0.94
319
1.06
346
0.59
265
2.92
383
1.15
283
0.43
358
0.74
327
0.32
348
0.55
372
0.74
368
1.35
361
MFMNet_retwo views1.01
328
1.73
358
3.04
306
0.85
344
0.76
332
0.93
329
0.81
350
1.02
295
1.10
351
1.05
337
1.06
341
0.84
291
0.96
338
0.93
177
0.97
258
0.68
372
0.61
307
0.63
374
0.60
379
0.77
372
0.80
304
CoDeXtwo views0.54
98
0.52
101
2.25
83
0.30
59
0.26
137
0.61
159
0.32
189
1.03
301
0.73
199
0.49
81
0.56
160
0.52
149
0.40
151
1.59
263
0.38
112
0.12
142
0.09
81
0.11
92
0.10
70
0.15
60
0.22
76
otakutwo views1.15
346
2.10
382
3.51
348
0.98
356
0.74
328
1.02
339
0.59
313
1.03
301
0.89
306
0.70
270
1.60
365
0.98
327
0.65
280
1.63
266
1.80
330
0.99
383
0.46
284
0.73
379
0.40
350
1.30
389
0.88
316
DCREtwo views0.76
255
0.80
188
2.31
93
1.05
359
1.18
374
0.63
194
0.26
110
1.03
301
0.59
76
0.52
118
2.12
377
0.44
106
0.27
61
0.41
40
0.53
164
0.09
11
1.02
344
0.10
46
0.32
319
0.16
69
1.47
369
DGSMNettwo views2.93
399
0.77
181
3.44
344
3.58
412
4.25
410
2.53
399
6.86
413
1.03
301
0.88
301
0.58
169
1.85
371
0.79
274
0.62
274
1.63
266
1.46
312
4.62
411
4.98
414
5.15
416
4.71
415
4.52
415
4.37
413
GANetREF_RVCpermissivetwo views0.81
269
1.44
327
3.04
306
0.49
265
0.27
148
0.83
306
0.63
324
1.03
301
0.92
313
0.63
225
0.61
196
0.72
250
0.59
265
2.40
350
0.58
177
0.33
348
0.25
245
0.37
356
0.25
283
0.41
328
0.36
160
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
DispFullNettwo views1.69
381
2.25
391
5.23
397
1.53
382
8.78
413
0.89
321
0.37
226
1.03
301
0.98
334
1.37
367
1.00
331
1.13
356
1.97
384
1.51
247
0.98
264
0.55
367
0.32
259
1.19
391
0.64
380
1.16
382
0.88
316
Wz-Net-SNSevtwo views0.85
288
1.83
365
3.36
329
0.42
222
0.31
182
0.71
256
0.66
330
1.04
307
0.94
320
0.68
262
0.85
302
0.96
324
0.62
274
1.75
282
1.14
282
0.16
246
0.15
179
0.16
260
0.17
224
0.39
316
0.63
269
Syn2CoExtwo views0.78
261
1.43
326
3.54
352
0.44
237
0.31
182
0.64
206
0.43
258
1.04
307
0.83
274
0.64
236
0.77
289
0.74
258
0.74
305
1.91
316
0.64
195
0.20
295
0.17
198
0.19
295
0.15
194
0.30
257
0.59
258
NCC-stereotwo views0.88
298
1.22
280
2.97
297
0.60
300
0.45
262
1.88
384
0.48
280
1.04
307
0.75
221
0.70
270
0.85
302
0.93
316
0.84
319
1.81
295
1.51
315
0.28
339
0.19
208
0.23
320
0.31
314
0.27
233
0.35
154
Abc-Nettwo views0.88
298
1.22
280
2.97
297
0.60
300
0.45
262
1.88
384
0.48
280
1.04
307
0.75
221
0.70
270
0.85
302
0.93
316
0.84
319
1.81
295
1.51
315
0.28
339
0.19
208
0.23
320
0.31
314
0.27
233
0.35
154
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
PS-NSSStwo views0.69
221
1.37
314
2.44
133
0.31
73
0.32
193
0.64
206
0.34
207
1.04
307
0.74
216
0.56
151
0.75
282
0.51
142
0.42
173
2.41
352
0.54
169
0.24
323
0.17
198
0.27
333
0.18
232
0.30
257
0.23
84
PWC_ROBbinarytwo views0.81
269
1.41
319
2.60
203
0.41
219
0.40
242
0.63
194
0.31
179
1.04
307
0.99
337
0.92
324
1.29
353
0.78
272
0.68
290
1.65
272
1.50
314
0.19
287
0.12
139
0.18
290
0.13
158
0.51
348
0.54
246
PWCDC_ROBbinarytwo views0.83
277
1.57
339
2.63
212
0.48
254
0.37
228
0.78
291
0.29
157
1.04
307
1.36
370
0.63
225
2.05
376
0.64
205
0.70
296
1.10
192
1.20
289
0.33
348
0.14
165
0.15
244
0.12
138
0.63
362
0.46
217
pmcnntwo views1.44
365
1.25
288
3.57
354
0.74
331
1.42
385
0.72
262
0.56
305
1.04
307
1.06
347
1.03
336
2.89
398
6.01
408
0.75
309
2.54
358
3.60
385
0.14
214
0.11
124
0.08
3
0.06
6
0.34
280
0.81
306
mmxtwo views0.99
326
0.67
143
3.39
334
0.32
90
0.22
86
0.58
111
0.28
132
1.05
315
0.92
313
0.54
130
0.74
275
0.67
218
0.40
151
2.75
377
3.86
389
0.13
184
1.25
359
0.15
244
0.33
329
0.19
132
1.28
354
xxxcopylefttwo views0.99
326
0.67
143
3.39
334
0.32
90
0.22
86
0.58
111
0.28
132
1.05
315
0.92
313
0.54
130
0.74
275
0.67
218
0.40
151
2.75
377
3.86
389
0.13
184
1.25
359
0.15
244
0.33
329
0.19
132
1.28
354
BUStwo views0.45
40
0.32
14
1.58
3
0.31
73
0.22
86
0.91
325
0.23
57
1.05
315
0.67
135
0.64
236
0.53
125
0.65
209
0.32
106
0.48
58
0.34
94
0.13
184
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
NINENettwo views0.54
98
0.40
63
2.19
74
0.55
285
0.26
137
0.91
325
0.23
57
1.05
315
0.77
237
0.54
130
0.57
170
0.65
209
0.32
106
1.22
209
0.34
94
0.16
246
0.13
152
0.16
260
0.11
108
0.16
69
0.14
24
BSDual-CNNtwo views0.48
55
0.32
14
1.58
3
0.31
73
0.22
86
0.76
276
0.32
189
1.05
315
0.67
135
0.64
236
0.53
125
0.63
199
0.38
134
0.48
58
0.97
258
0.13
184
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
hknettwo views0.53
91
0.39
59
2.04
49
0.31
73
0.24
117
0.76
276
0.32
189
1.05
315
0.71
189
0.64
236
0.53
125
0.79
274
0.40
151
0.84
167
0.78
232
0.12
142
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
WZ-Nettwo views1.04
334
1.83
365
4.20
379
0.42
222
0.36
222
0.88
319
0.71
340
1.05
315
1.11
353
0.84
314
0.94
319
1.06
346
1.17
352
2.37
345
2.24
353
0.20
295
0.14
165
0.15
244
0.16
211
0.36
297
0.53
243
GEStereo_RVCtwo views0.61
153
1.19
271
2.61
207
0.48
254
0.25
123
0.63
194
0.37
226
1.05
315
0.79
249
0.55
141
0.55
148
0.59
181
0.44
194
1.10
192
0.48
144
0.16
246
0.11
124
0.12
134
0.11
108
0.27
233
0.43
197
RAFT + AFFtwo views0.79
264
1.73
358
2.99
302
0.34
127
0.35
216
0.67
240
0.51
288
1.05
315
0.79
249
0.54
130
0.58
176
0.59
181
0.81
315
1.80
293
1.21
290
0.13
184
0.27
254
0.15
244
0.14
176
0.45
337
0.69
287
NaN_ROBtwo views1.25
351
1.46
330
3.84
368
0.54
284
0.56
288
1.12
350
0.99
363
1.05
315
1.03
341
1.10
341
0.87
309
0.77
268
1.07
346
5.85
407
2.98
373
0.16
246
0.23
235
0.16
260
0.24
277
0.28
243
0.66
276
CBMV_ROBtwo views0.88
298
0.75
178
2.73
256
0.36
156
0.22
86
0.76
276
0.47
278
1.05
315
0.81
263
1.06
339
1.04
338
0.88
306
1.36
358
2.17
335
2.03
337
0.23
316
0.24
238
0.27
333
0.25
283
0.27
233
0.73
294
CBMVpermissivetwo views0.86
291
1.00
225
2.82
275
0.35
142
0.21
77
0.78
291
0.78
347
1.05
315
0.87
297
0.90
321
0.74
275
0.87
302
1.89
382
1.67
273
1.38
309
0.19
287
0.20
220
0.21
309
0.19
248
0.28
243
0.84
308
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
IPLGRtwo views0.58
125
0.64
139
3.12
313
0.37
166
0.18
47
0.62
181
0.54
297
1.06
327
0.69
167
0.73
282
0.46
77
0.50
139
0.44
194
1.12
198
0.31
69
0.10
47
0.08
38
0.11
92
0.09
37
0.21
158
0.20
68
LMCR-Stereopermissivemany views0.61
153
1.00
225
2.60
203
0.42
222
0.22
86
0.74
270
0.31
179
1.06
327
0.70
177
0.62
216
0.64
218
0.40
81
0.52
238
0.84
167
1.27
298
0.20
295
0.09
81
0.12
134
0.09
37
0.26
222
0.16
43
Nwc_Nettwo views0.75
252
1.10
247
2.96
296
0.42
222
0.39
236
0.77
286
0.39
240
1.06
327
0.73
199
0.65
248
1.00
331
0.99
330
0.74
305
1.43
235
0.99
266
0.24
323
0.15
179
0.23
320
0.26
289
0.27
233
0.30
128
ttttwo views0.89
305
0.51
100
2.51
173
0.36
156
0.31
182
0.61
159
0.28
132
1.07
330
0.92
313
0.56
151
0.77
289
0.55
163
0.37
127
2.27
338
3.51
383
0.16
246
1.21
357
0.13
190
0.31
314
0.18
109
1.26
351
AF-Nettwo views0.76
255
1.14
254
2.74
258
0.42
222
0.41
247
0.70
252
0.41
245
1.07
330
0.94
320
0.73
282
1.05
340
1.04
342
0.86
324
1.23
211
1.00
268
0.23
316
0.15
179
0.25
330
0.18
232
0.32
270
0.35
154
DRN-Testtwo views0.71
230
0.79
186
2.83
277
0.40
210
0.44
259
0.80
298
0.41
245
1.07
330
0.83
274
0.82
310
0.64
218
0.68
230
0.57
255
1.78
290
0.79
235
0.16
246
0.13
152
0.17
274
0.16
211
0.24
192
0.51
235
AE-Stereotwo views0.71
230
0.32
14
2.44
133
0.44
237
0.50
274
0.58
111
0.23
57
1.08
333
0.67
135
0.67
256
0.51
115
0.47
127
0.24
26
0.63
113
0.32
77
0.09
11
2.15
399
0.11
92
0.45
358
0.22
172
2.01
382
test_xeamplepermissivetwo views0.98
324
0.65
141
2.12
63
0.29
45
0.67
319
0.60
141
0.28
132
1.08
333
0.85
289
0.62
216
0.70
254
0.44
106
0.41
162
1.95
318
5.45
403
0.12
142
1.33
370
0.11
92
0.31
314
0.18
109
1.42
366
HBP-ISPtwo views0.82
273
1.57
339
3.28
323
0.50
270
0.27
148
0.86
313
0.54
297
1.09
335
0.78
240
0.81
306
0.70
254
0.68
230
1.00
341
2.02
322
0.47
141
0.24
323
0.24
238
0.29
344
0.25
283
0.28
243
0.52
240
222two views1.02
329
0.60
126
1.95
34
0.29
45
0.51
276
0.62
181
0.24
79
1.09
335
0.86
295
0.64
236
0.67
234
0.47
127
0.42
173
1.86
305
6.73
408
0.13
184
1.21
357
0.11
92
0.32
319
0.17
90
1.44
367
xxxxtwo views0.97
322
0.64
139
2.14
67
0.30
59
0.67
319
0.64
206
0.24
79
1.09
335
0.91
311
0.57
163
0.65
225
0.58
178
0.39
145
1.57
256
5.49
404
0.13
184
1.38
372
0.11
92
0.32
319
0.17
90
1.41
365
1111xtwo views1.06
336
0.79
186
3.29
325
0.33
110
0.60
301
0.64
206
0.33
202
1.10
338
0.92
313
0.59
188
0.69
241
0.59
181
0.47
217
2.64
366
4.61
399
0.12
142
1.38
372
0.11
92
0.49
364
0.18
109
1.30
356
AnyNet_C01two views1.20
349
1.89
368
4.25
381
0.55
285
0.54
284
1.57
370
1.39
390
1.10
338
1.13
355
1.19
349
1.34
358
1.15
359
1.11
349
1.73
279
2.89
372
0.26
333
0.24
238
0.28
336
0.24
277
0.50
346
0.68
283
SPS-STEREOcopylefttwo views1.22
350
1.65
353
3.41
340
0.66
319
0.69
323
1.01
338
0.68
336
1.10
338
0.96
327
1.40
371
1.25
351
1.46
371
1.08
347
2.05
323
2.24
353
0.66
370
0.61
307
0.58
371
0.57
375
0.66
365
1.65
375
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet-4btwo views2.00
387
2.19
386
4.85
393
1.09
361
0.86
343
1.15
353
0.53
294
1.11
341
1.15
358
0.65
248
1.09
342
1.97
379
0.69
294
2.31
341
9.78
414
5.73
413
0.42
279
1.03
388
0.55
372
1.89
400
0.92
321
RTSCtwo views0.84
280
1.40
318
2.67
233
0.50
270
0.40
242
0.83
306
0.33
202
1.11
341
1.14
356
0.93
327
0.82
295
0.84
291
0.58
262
1.34
226
1.82
331
0.18
276
0.49
290
0.14
219
0.30
309
0.46
341
0.42
192
Wz-Net-TNSevtwo views1.02
329
2.26
393
3.69
360
0.38
184
0.31
182
1.00
337
0.71
340
1.12
343
1.02
340
0.74
288
0.73
272
1.09
352
0.91
331
2.46
355
2.15
347
0.21
303
0.20
220
0.16
260
0.20
257
0.48
344
0.62
265
ADCStwo views1.14
345
2.02
377
3.36
329
0.43
232
0.37
228
0.96
335
0.81
350
1.12
343
1.17
360
1.25
361
0.98
327
1.08
349
0.92
334
1.41
233
4.97
401
0.23
316
0.21
228
0.22
313
0.23
275
0.40
322
0.67
278
CC-Net-ROBtwo views0.95
318
1.57
339
2.93
292
0.90
348
0.39
236
0.87
317
0.44
264
1.12
343
0.83
274
0.59
188
0.69
241
0.64
205
0.50
227
2.73
375
0.93
255
0.97
382
0.40
277
0.87
381
0.29
303
0.61
361
0.66
276
RTStwo views1.29
354
1.59
344
6.48
406
0.63
310
0.57
291
1.59
372
0.90
358
1.15
346
1.44
372
1.20
354
1.31
354
1.10
353
0.87
327
2.67
368
2.27
355
0.21
303
0.38
271
0.19
295
0.20
257
0.46
341
0.68
283
RTSAtwo views1.29
354
1.59
344
6.48
406
0.63
310
0.57
291
1.59
372
0.90
358
1.15
346
1.44
372
1.20
354
1.31
354
1.10
353
0.87
327
2.67
368
2.27
355
0.21
303
0.38
271
0.19
295
0.20
257
0.46
341
0.68
283
FBW_ROBtwo views0.94
317
1.23
284
2.35
99
0.46
247
0.32
193
0.87
317
0.46
274
1.15
346
0.97
333
0.83
313
0.78
293
1.01
334
0.64
279
3.65
398
1.65
320
0.27
336
0.24
238
0.40
359
0.26
289
0.32
270
0.88
316
SHDtwo views0.84
280
1.14
254
2.54
181
0.80
340
0.52
278
0.76
276
0.34
207
1.16
349
1.29
366
1.11
342
0.85
302
0.98
327
0.74
305
1.25
216
1.48
313
0.22
308
0.37
267
0.20
305
0.27
297
0.36
297
0.41
188
XQCtwo views0.84
280
1.32
298
2.61
207
0.78
338
0.44
259
0.89
321
0.53
294
1.16
349
1.07
348
0.85
315
0.69
241
0.92
311
0.73
301
1.40
231
1.44
311
0.24
323
0.35
265
0.23
320
0.26
289
0.45
337
0.39
176
DeepPrunerFtwo views0.92
311
1.33
302
3.41
340
0.46
247
0.51
276
0.64
206
0.49
285
1.16
349
2.62
395
0.65
248
0.61
196
0.65
209
0.62
274
2.23
337
1.31
299
0.23
316
0.19
208
0.30
345
0.28
299
0.39
316
0.34
148
FCDSN-DCtwo views1.45
367
1.12
251
3.30
326
0.48
254
0.41
247
1.13
351
0.60
316
1.17
352
1.28
365
2.25
394
2.85
396
3.65
396
3.34
400
2.58
361
2.44
359
0.31
345
0.26
248
0.31
346
0.30
309
0.37
303
0.78
300
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
SANettwo views1.35
359
1.80
363
4.39
387
0.41
219
0.29
163
1.72
379
0.89
357
1.17
352
2.47
392
1.22
358
1.82
370
1.72
376
1.70
375
2.57
360
3.30
377
0.18
276
0.16
191
0.16
260
0.15
194
0.34
280
0.62
265
STTRV1_RVCtwo views0.81
269
0.59
124
2.88
286
0.43
232
0.49
273
0.80
298
0.44
264
1.18
354
0.84
286
0.63
225
0.89
313
0.72
250
0.63
278
2.67
368
0.67
205
0.51
364
0.65
313
0.27
333
0.24
277
0.35
291
0.29
119
RainbowNettwo views1.27
352
2.22
389
3.58
355
1.14
366
0.92
349
1.08
347
0.76
345
1.19
355
1.15
358
0.77
294
0.97
324
1.08
349
0.83
318
1.64
269
1.72
323
1.20
391
1.30
368
1.01
387
0.58
376
1.23
384
0.97
330
NVStereoNet_ROBtwo views1.45
367
1.62
349
3.59
356
1.09
361
0.70
325
0.86
313
0.67
334
1.19
355
1.51
376
1.20
354
4.05
404
1.61
374
1.94
383
2.97
385
2.07
341
0.67
371
0.69
320
0.55
370
0.70
381
0.57
355
0.67
278
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
PDISCO_ROBtwo views0.84
280
1.46
330
2.84
279
0.65
315
0.59
296
1.17
355
0.48
280
1.19
355
1.08
350
0.67
256
0.72
270
1.00
333
0.61
272
1.24
213
1.05
273
0.38
352
0.18
204
0.28
336
0.24
277
0.58
356
0.44
209
test_xeample3two views0.86
291
0.75
178
3.36
329
0.65
315
0.76
332
0.49
37
0.33
202
1.21
358
0.80
256
0.61
204
0.23
5
0.30
42
0.29
87
1.17
205
1.57
319
0.10
47
1.79
383
0.10
46
0.40
350
0.25
207
2.09
385
rrrtwo views0.84
280
0.74
174
3.40
339
0.76
333
0.77
334
0.45
17
0.28
132
1.23
359
0.84
286
0.71
279
0.22
2
0.30
42
0.28
71
1.29
221
1.53
317
0.10
47
1.50
377
0.10
46
0.29
303
0.24
192
1.75
377
MFN_U_SF_RVCtwo views1.57
377
2.56
406
3.30
326
0.66
319
0.41
247
1.15
353
0.51
288
1.27
360
1.35
369
1.61
381
1.20
348
1.43
369
0.97
339
1.80
293
2.10
342
1.88
404
1.79
383
1.97
409
2.14
408
1.61
397
1.76
378
ACVNet_1two views1.47
369
2.27
394
4.92
394
1.11
364
0.89
346
1.19
357
0.66
330
1.28
361
1.19
361
0.98
329
0.97
324
3.06
392
1.48
367
2.37
345
1.82
331
1.08
386
0.49
290
1.03
388
0.48
362
1.20
383
0.95
325
HSM-Net_RVCpermissivetwo views0.70
226
0.40
63
2.45
149
0.27
21
0.19
63
0.68
246
0.30
169
1.29
362
0.73
199
0.73
282
0.70
254
0.77
268
0.45
202
3.73
399
0.46
138
0.13
184
0.09
81
0.10
46
0.09
37
0.13
35
0.32
138
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
CSANtwo views1.38
361
1.74
361
4.12
375
0.53
278
0.38
234
1.06
345
1.15
377
1.29
362
1.12
354
1.19
349
1.90
373
1.04
342
1.44
363
5.92
408
2.82
371
0.26
333
0.22
230
0.24
325
0.25
283
0.35
291
0.54
246
MSC_U_SF_DS_RVCtwo views1.40
362
2.04
379
3.02
305
0.58
299
0.41
247
2.15
393
1.00
367
1.31
364
1.29
366
1.05
337
1.10
343
1.29
365
0.91
331
3.07
386
1.34
301
1.65
401
0.84
331
0.68
377
0.88
392
1.55
396
1.91
379
PVDtwo views1.05
335
1.21
275
2.36
100
0.84
343
0.91
348
1.04
340
0.64
325
1.32
365
1.68
381
1.43
373
1.41
361
1.14
357
1.15
351
1.49
245
1.77
328
0.27
336
0.65
313
0.28
336
0.35
337
0.40
322
0.73
294
EAI-Stereotwo views1.16
347
0.29
2
1.94
33
0.55
285
0.97
356
1.96
386
7.94
414
1.34
366
1.03
341
1.01
335
1.48
362
0.51
142
0.66
286
0.65
121
1.42
310
0.09
11
0.23
235
0.09
13
0.53
370
0.13
35
0.49
229
MDST_ROBtwo views1.28
353
0.53
104
3.84
368
0.55
285
0.45
262
4.06
406
0.60
316
1.36
367
0.89
306
2.18
391
1.17
345
0.98
327
0.72
298
4.28
402
2.12
344
0.20
295
0.16
191
0.19
295
0.17
224
0.20
149
0.84
308
iRaft-Stereo_20wtwo views1.50
370
0.42
70
4.81
392
2.24
403
2.09
402
1.36
360
1.27
384
1.38
368
0.94
320
2.07
386
0.42
61
0.85
296
0.69
294
0.87
170
1.37
307
0.10
47
4.04
413
0.09
13
0.40
350
0.17
90
4.53
414
IPLGtwo views0.74
243
1.09
242
2.87
284
0.36
156
0.21
77
1.63
375
0.60
316
1.39
369
0.63
103
1.39
369
0.51
115
0.40
81
0.86
324
1.40
231
0.37
106
0.09
11
0.07
6
0.14
219
0.12
138
0.34
280
0.23
84
DPSNettwo views1.02
329
0.72
162
2.84
279
0.60
300
0.39
236
1.08
347
0.75
344
1.41
370
1.14
356
0.74
288
0.69
241
1.05
345
1.67
373
2.09
330
2.22
352
0.27
336
0.61
307
0.20
305
0.50
366
0.48
344
1.03
333
MeshStereopermissivetwo views1.29
354
1.34
304
3.04
306
0.35
142
0.28
158
1.10
349
0.69
338
1.42
371
1.07
348
2.71
403
2.43
386
2.95
388
1.50
368
2.92
383
2.03
337
0.23
316
0.22
230
0.22
313
0.19
248
0.50
346
0.69
287
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
riskmintwo views0.96
319
0.32
14
2.07
53
1.72
391
1.61
394
1.62
374
0.57
308
1.45
372
0.55
59
0.73
282
0.89
313
0.92
311
0.45
202
1.16
203
0.60
181
0.11
110
1.30
368
0.12
134
1.38
405
0.14
51
1.51
370
SAMSARAtwo views1.11
343
1.35
307
2.60
203
1.34
371
0.77
334
1.67
377
1.41
393
1.47
373
0.99
337
1.54
379
0.89
313
1.44
370
0.90
330
1.88
309
1.71
321
0.25
329
0.55
298
0.22
313
0.34
335
0.39
316
0.50
231
ETE_ROBtwo views0.68
215
1.09
242
2.32
95
0.38
184
0.26
137
0.69
249
0.51
288
1.49
374
0.75
221
0.81
306
0.71
267
0.85
296
0.51
231
1.39
229
0.70
211
0.17
265
0.14
165
0.19
295
0.16
211
0.24
192
0.35
154
ACVNet_2two views1.54
375
2.20
388
4.42
388
1.10
363
0.93
351
1.37
362
0.87
354
1.53
375
1.71
383
1.22
358
1.72
368
2.12
382
1.06
345
2.58
361
1.93
333
0.94
379
0.54
296
1.00
386
0.56
374
2.11
404
0.96
327
ELAS_RVCcopylefttwo views1.51
373
0.88
200
3.36
329
0.63
310
0.56
288
1.53
368
2.73
402
1.53
375
1.76
385
2.26
395
2.21
383
2.10
381
3.07
397
2.08
328
2.52
361
0.42
355
0.42
279
0.42
363
0.37
343
0.51
348
0.84
308
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PWCKtwo views1.62
380
2.32
398
4.27
382
1.11
364
0.56
288
1.81
382
1.84
397
1.55
377
1.54
378
1.45
374
1.81
369
1.82
377
1.38
360
3.34
391
2.14
346
1.09
387
0.57
302
0.98
385
0.59
377
1.50
395
0.79
302
MADNet+two views1.44
365
2.19
386
6.00
404
0.89
346
0.70
325
1.58
371
1.11
372
1.56
378
1.30
368
0.89
319
1.03
336
1.25
362
1.12
350
3.29
390
2.80
369
0.48
363
0.57
302
0.39
358
0.36
342
0.63
362
0.69
287
Anonymous_2two views1.36
360
0.49
89
2.03
46
1.71
390
1.58
392
2.49
398
0.58
310
1.59
379
2.31
390
0.77
294
0.88
311
1.03
338
0.58
262
1.20
208
0.66
203
0.32
346
1.38
372
1.42
400
3.87
414
0.78
374
1.56
371
MIPNettwo views0.88
298
1.07
238
2.85
281
0.61
306
0.18
47
1.46
365
1.37
387
1.65
380
0.78
240
1.93
385
0.85
302
0.75
262
1.66
372
0.87
170
0.34
94
0.10
47
0.08
38
0.11
92
0.32
319
0.27
233
0.26
102
ELAScopylefttwo views1.52
374
0.92
218
2.91
290
0.62
308
0.57
291
3.13
401
2.21
400
1.67
381
1.58
380
2.42
398
2.43
386
1.87
378
2.49
392
1.85
303
2.70
368
0.42
355
0.43
282
0.41
361
0.40
350
0.51
348
0.85
312
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views1.89
384
2.09
381
4.16
377
0.74
331
1.23
377
4.52
410
3.86
407
1.68
382
1.26
363
1.28
364
1.54
364
2.36
385
1.86
381
3.35
392
3.37
379
0.54
365
0.49
290
0.48
367
0.49
364
1.39
393
1.21
347
FC-DCNNcopylefttwo views1.60
379
0.85
193
3.44
344
0.46
247
0.39
236
1.96
386
0.66
330
1.72
383
1.70
382
2.75
404
2.91
399
4.20
399
3.15
398
2.72
373
2.66
366
0.30
343
0.26
248
0.31
346
0.30
309
0.33
274
0.91
319
IMH-64-1two views1.50
370
1.98
372
2.69
244
1.39
374
1.12
371
1.39
363
1.19
381
1.80
384
1.47
374
1.19
349
2.20
381
1.53
372
1.51
369
2.12
332
1.98
334
1.34
394
0.68
317
1.28
394
0.70
381
1.37
391
1.12
338
IMH-64two views1.50
370
1.98
372
2.69
244
1.39
374
1.12
371
1.39
363
1.19
381
1.80
384
1.47
374
1.19
349
2.20
381
1.53
372
1.51
369
2.12
332
1.98
334
1.34
394
0.68
317
1.28
394
0.70
381
1.37
391
1.12
338
WAO-6two views1.69
381
1.87
367
3.21
316
1.15
367
1.01
362
2.29
394
1.06
371
1.85
386
2.84
399
1.30
366
2.59
390
2.19
383
1.67
373
2.62
364
2.52
361
0.96
381
0.68
317
1.19
391
0.84
389
1.13
380
0.95
325
MyStereo8two views0.73
240
1.16
262
2.89
287
0.53
278
0.34
208
0.71
256
0.20
20
1.87
387
0.59
76
0.53
126
0.66
231
0.50
139
0.33
111
1.27
219
0.62
189
0.10
47
1.19
353
0.10
46
0.21
268
0.21
158
0.61
263
WAO-7two views1.58
378
2.04
379
3.25
320
0.94
352
0.75
329
1.75
380
1.13
374
1.87
387
1.97
388
1.46
376
2.53
388
1.98
380
1.75
376
3.13
387
2.48
360
0.69
373
0.67
316
0.94
383
0.74
386
0.80
375
0.77
297
SGM_RVCbinarytwo views2.11
390
1.07
238
2.87
284
0.98
356
0.92
349
2.72
400
1.88
399
1.91
389
12.27
412
2.09
387
1.99
375
2.47
386
2.24
390
2.87
382
2.03
337
0.54
365
0.47
286
0.42
363
0.47
361
0.74
368
1.22
349
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
TRStereotwo views0.89
305
1.02
229
2.91
290
4.59
413
0.31
182
0.93
329
0.23
57
1.93
390
0.66
123
0.37
25
0.54
139
0.48
133
0.40
151
0.67
127
0.29
50
0.13
184
0.37
267
0.11
92
0.48
362
0.13
35
1.21
347
SDNRtwo views2.06
388
2.93
409
2.94
294
1.55
383
5.13
411
1.98
389
0.24
79
1.95
391
2.62
395
0.92
324
2.71
394
5.76
407
0.68
290
3.61
397
3.84
388
0.33
348
0.38
271
0.22
313
0.17
224
1.13
380
2.04
384
Deantwo views1.92
385
2.31
397
5.03
396
1.31
369
1.08
368
1.55
369
0.99
363
1.98
392
2.33
391
1.51
378
4.15
405
4.23
402
1.39
361
2.31
341
2.10
342
1.18
390
0.69
320
1.18
390
0.75
387
1.30
389
1.07
336
IMHtwo views2.14
391
2.46
402
3.60
358
1.70
389
1.13
373
1.65
376
0.93
361
2.13
393
1.93
387
1.37
367
2.64
393
2.19
383
1.82
380
5.77
406
2.18
349
5.70
412
1.05
346
1.31
396
0.72
385
1.39
393
1.13
340
ktntwo views4.44
406
2.47
403
3.70
361
1.82
395
1.49
390
2.11
392
1.40
391
2.30
394
12.56
413
11.36
415
16.25
418
11.30
416
3.77
402
4.41
404
3.47
382
1.86
403
0.99
338
1.74
408
1.21
402
3.28
410
1.39
364
LVEtwo views2.10
389
2.61
407
4.30
386
1.79
394
1.81
398
1.68
378
1.04
370
2.35
395
2.78
398
1.27
363
2.87
397
4.21
401
1.46
364
2.83
381
2.02
336
2.87
409
0.92
335
1.19
391
1.47
407
1.29
387
1.18
341
UNDER WATER-64two views2.59
392
2.28
395
5.63
401
1.85
397
1.45
387
3.28
402
1.60
395
2.62
396
5.57
405
2.09
387
2.12
377
4.10
398
4.21
404
2.74
376
3.64
386
1.49
398
0.86
332
1.58
404
1.09
401
1.91
401
1.62
374
LE_ROBtwo views4.55
407
2.43
401
9.94
410
2.79
410
4.03
409
2.40
397
3.54
404
2.72
397
11.04
411
11.64
416
4.69
408
5.25
405
10.74
414
4.52
405
9.73
413
0.82
376
0.70
323
1.34
397
0.97
396
0.74
368
0.94
322
MADNet++two views2.94
400
2.17
385
3.27
322
2.55
407
2.28
404
3.29
403
3.37
403
2.76
398
2.67
397
3.10
406
3.20
400
2.78
387
3.25
399
4.11
401
4.68
400
2.72
408
2.27
404
3.03
412
2.43
410
2.34
407
2.59
405
notakertwo views2.77
395
2.35
399
4.02
373
2.61
408
1.44
386
1.77
381
1.14
375
2.77
399
1.81
386
2.30
396
11.41
414
3.95
397
4.70
405
3.24
389
3.01
374
1.58
400
0.88
333
1.71
407
1.08
400
2.10
403
1.44
367
FINETtwo views1.92
385
1.96
370
4.49
390
1.62
385
1.39
384
3.51
404
4.39
408
2.89
400
2.58
394
1.39
369
1.98
374
1.35
367
2.12
388
1.64
269
2.12
344
0.84
377
1.03
345
0.18
290
0.29
303
0.54
353
2.12
387
SGM+DAISYtwo views2.67
393
2.14
384
4.28
384
1.92
399
2.11
403
4.36
409
5.22
411
3.17
401
3.00
400
3.24
407
3.81
403
3.03
390
3.61
401
2.53
357
3.79
387
1.15
388
1.29
366
0.66
375
0.71
384
0.95
378
2.44
404
KSHMRtwo views4.19
405
2.37
400
6.24
405
1.73
392
1.48
389
1.97
388
1.29
385
3.18
402
17.06
422
2.15
390
15.74
417
9.09
412
1.75
376
8.33
413
2.37
358
1.55
399
1.29
366
1.70
406
1.23
403
1.75
398
1.60
373
UNDER WATERtwo views2.84
396
2.25
391
5.25
398
1.84
396
1.45
387
2.36
396
1.44
394
3.23
403
6.51
408
2.61
401
2.73
395
5.69
406
5.64
408
3.14
388
4.18
396
1.48
397
0.81
330
1.60
405
1.07
399
1.91
401
1.67
376
WAO-8two views2.91
397
2.55
404
3.77
362
1.93
400
1.04
365
4.08
407
0.99
363
3.25
404
6.09
406
2.20
392
3.34
401
3.33
394
2.64
393
11.73
415
2.52
361
2.12
405
1.92
386
1.55
402
0.93
393
1.27
385
0.96
327
Venustwo views2.91
397
2.55
404
3.77
362
1.93
400
1.04
365
4.08
407
0.99
363
3.25
404
6.09
406
2.20
392
3.34
401
3.33
394
2.64
393
11.73
415
2.52
361
2.12
405
1.92
386
1.55
402
0.93
393
1.27
385
0.96
327
JetRedtwo views3.37
401
4.96
413
10.08
411
1.48
379
1.73
397
7.63
413
5.47
412
3.47
406
2.20
389
2.42
398
2.40
385
2.98
389
2.35
391
3.52
396
6.60
407
1.33
393
1.90
385
1.38
398
1.23
403
2.30
406
2.02
383
HanzoNettwo views7.85
411
3.30
412
5.75
402
7.47
416
3.97
408
2.34
395
1.37
387
3.47
406
4.02
402
13.30
417
10.49
410
10.86
414
16.67
420
8.50
414
10.51
416
10.80
420
9.84
422
5.83
417
13.69
420
7.24
417
7.51
417
TorneroNet-64two views2.74
394
2.23
390
4.18
378
1.48
379
1.20
375
3.88
405
1.01
369
3.48
408
6.61
409
2.62
402
4.55
407
4.20
399
3.84
403
3.39
394
3.40
381
1.23
392
0.66
315
1.39
399
0.80
388
3.42
411
1.27
352
SGM-ForestMtwo views3.67
404
2.70
408
5.34
400
1.65
387
1.72
396
6.02
412
5.08
410
4.10
409
3.47
401
4.59
409
4.21
406
9.81
413
5.79
409
6.44
409
6.97
409
0.88
378
1.09
348
0.33
352
0.45
358
0.68
366
2.10
386
TorneroNettwo views5.60
409
2.30
396
3.98
371
1.49
381
1.26
380
14.47
418
1.11
372
4.85
410
20.66
427
10.12
412
16.30
419
11.78
417
7.35
411
3.41
395
4.38
397
1.36
396
0.70
323
1.46
401
0.87
391
2.73
408
1.33
357
FADEtwo views15.98
420
3.24
411
8.93
409
2.10
402
2.93
406
1.19
357
0.91
360
4.99
411
2.50
393
1.28
364
1.19
347
3.05
391
7.02
410
8.01
412
5.49
404
96.22
437
36.26
437
65.47
434
65.78
434
1.78
399
1.34
359
PMLtwo views22.99
424
17.34
421
8.24
408
5.48
414
9.84
414
50.35
437
102.65
437
5.84
412
13.52
414
37.08
437
104.84
437
30.61
436
23.20
428
12.09
417
7.96
411
6.27
415
2.12
394
6.31
418
2.42
409
10.67
420
2.95
406
MANEtwo views3.51
403
2.03
378
3.88
370
1.89
398
2.01
400
5.98
411
4.72
409
5.87
413
7.13
410
3.80
408
5.10
409
6.11
409
5.34
407
4.39
403
5.05
402
1.07
385
1.28
365
0.50
368
0.85
390
0.76
371
2.36
403
DGTPSM_ROBtwo views8.97
413
5.94
414
13.01
416
5.95
415
11.34
415
8.54
414
24.06
420
6.47
414
13.52
414
5.19
410
11.52
415
6.18
410
11.04
415
7.02
410
13.92
417
4.47
410
7.66
415
3.90
413
7.43
418
4.34
414
7.98
418
DPSMNet_ROBtwo views9.58
414
5.96
415
13.98
419
8.88
417
11.87
416
8.54
414
24.08
421
6.48
415
13.67
417
5.35
411
11.53
416
6.31
411
11.04
415
7.69
411
14.09
418
7.61
419
8.23
417
5.03
415
7.75
419
5.24
416
8.36
419
DLNR_Zeroshot_testpermissivetwo views13.74
418
20.06
423
23.92
425
121.50
438
35.20
433
0.46
20
0.15
1
7.96
416
0.47
24
0.29
21
0.37
41
0.26
28
0.17
1
0.79
158
0.36
103
7.16
418
2.95
412
0.09
13
0.38
346
50.40
436
1.95
381
tttwo views4.94
408
0.32
14
4.22
380
2.29
404
1.58
392
10.19
416
16.94
419
9.44
417
5.03
404
1.69
382
1.33
357
4.68
403
5.02
406
3.38
393
5.91
406
6.15
414
9.47
421
2.80
411
3.16
413
3.54
412
1.58
372
LRCNet_RVCtwo views13.78
419
19.34
422
13.01
416
19.47
423
12.67
417
1.85
383
0.42
251
12.28
418
1.10
351
15.76
419
18.69
423
12.52
420
8.65
412
12.22
418
9.64
412
22.29
427
8.38
420
25.92
429
24.06
430
19.72
428
17.59
425
Anonymous_1two views22.76
423
11.11
417
11.93
413
12.73
419
26.05
431
19.39
423
27.77
425
14.18
419
13.64
416
14.92
418
10.66
411
11.26
415
11.24
417
12.48
419
14.45
419
37.82
436
7.87
416
34.92
433
63.61
433
87.51
437
11.75
422
DPSM_ROBtwo views12.32
415
11.13
418
12.31
414
12.90
420
12.80
418
19.81
425
28.13
426
14.50
420
14.31
419
10.62
413
11.34
412
12.03
418
11.89
418
13.08
420
15.22
420
7.09
416
8.31
418
6.47
419
7.32
416
8.69
418
8.43
420
DPSMtwo views12.32
415
11.13
418
12.31
414
12.90
420
12.80
418
19.81
425
28.13
426
14.50
420
14.31
419
10.62
413
11.34
412
12.03
418
11.89
418
13.08
420
15.22
420
7.09
416
8.31
418
6.47
419
7.32
416
8.69
418
8.43
420
BEATNet-Init1two views12.32
415
12.82
420
28.66
433
3.22
411
3.71
407
21.59
427
11.42
415
14.54
422
13.73
418
20.24
424
20.16
424
26.14
432
19.85
423
19.08
426
15.33
422
1.81
402
1.93
388
2.05
410
2.48
411
4.25
413
3.41
412
HaxPigtwo views19.88
422
22.39
428
22.30
423
17.98
422
17.98
421
12.06
417
12.06
416
16.25
423
15.97
421
21.05
425
21.41
426
18.85
424
18.35
421
20.07
427
19.64
424
23.57
431
23.19
431
24.07
428
23.71
429
22.95
429
23.72
432
MEDIAN_ROBtwo views23.95
425
26.96
436
26.29
432
22.14
424
22.09
423
16.18
419
14.23
417
20.47
424
20.09
423
25.43
433
25.22
435
22.96
425
22.54
427
24.33
428
23.18
429
28.15
433
27.16
435
28.60
431
27.73
431
27.59
430
27.58
433
DPSimNet_ROBtwo views24.35
426
23.81
434
31.38
435
25.93
426
22.83
424
31.30
429
34.38
429
20.78
425
28.92
432
27.39
434
22.99
434
28.29
435
35.76
437
15.47
422
17.82
423
24.28
432
17.90
429
22.23
427
14.12
421
19.38
427
22.12
431
xxxxx1two views29.05
435
20.74
424
14.05
420
50.10
434
40.25
434
19.01
420
26.60
422
21.83
426
20.22
424
16.52
420
17.56
420
18.33
421
21.41
424
16.11
423
20.77
425
23.48
428
26.77
432
66.36
435
78.56
435
30.19
432
32.23
435
tt_lltwo views29.05
435
20.74
424
14.05
420
50.10
434
40.25
434
19.01
420
26.60
422
21.83
426
20.22
424
16.52
420
17.56
420
18.33
421
21.41
424
16.11
423
20.77
425
23.48
428
26.77
432
66.36
435
78.56
435
30.19
432
32.23
435
fftwo views29.05
435
20.74
424
14.05
420
50.10
434
40.25
434
19.01
420
26.60
422
21.83
426
20.22
424
16.52
420
17.56
420
18.33
421
21.41
424
16.11
423
20.77
425
23.48
428
26.77
432
66.36
435
78.56
435
30.19
432
32.23
435
AVERAGE_ROBtwo views26.91
433
30.28
437
29.18
434
25.78
425
25.30
425
19.49
424
15.38
418
23.70
429
23.02
429
28.38
435
27.78
436
26.23
433
25.76
436
26.95
435
25.55
430
31.27
435
30.02
436
31.76
432
30.80
432
30.88
435
30.77
434
MyStereo03two views24.90
429
22.40
429
24.90
428
26.19
429
25.93
428
39.80
431
56.77
434
29.00
430
28.95
433
21.51
429
22.81
431
24.16
426
23.92
430
26.26
430
30.65
434
14.24
422
17.13
426
13.03
421
14.76
425
17.48
421
18.00
426
MyStereo02two views24.90
429
22.40
429
24.90
428
26.19
429
25.93
428
39.80
431
56.77
434
29.00
430
28.95
433
21.51
429
22.81
431
24.16
426
23.92
430
26.26
430
30.65
434
14.24
422
17.13
426
13.03
421
14.76
425
17.48
421
18.00
426
MyStereotwo views24.90
429
22.40
429
24.90
428
26.19
429
25.93
428
39.80
431
56.77
434
29.00
430
28.95
433
21.51
429
22.81
431
24.16
426
23.92
430
26.26
430
30.65
434
14.24
422
17.13
426
13.03
421
14.76
425
17.48
421
18.00
426
CasAABBNettwo views24.76
427
22.38
427
24.44
426
26.05
427
25.75
426
39.79
430
56.76
433
29.10
433
28.88
431
21.22
426
22.69
429
24.21
429
23.99
434
26.23
429
30.62
433
14.22
421
16.71
424
13.03
421
14.75
423
17.49
424
16.97
423
LSM0two views26.57
432
22.53
433
25.76
431
30.62
433
52.30
437
39.86
435
56.49
431
29.18
434
28.76
430
21.26
427
22.46
428
24.42
431
23.97
433
26.42
434
30.66
437
14.29
426
16.56
423
13.06
426
14.65
422
17.62
426
20.52
429
Selective-RAFT-Errortwo views24.83
428
22.44
432
24.80
427
26.10
428
25.82
427
39.85
434
56.72
432
29.21
435
29.03
436
21.29
428
22.80
430
24.25
430
24.07
435
26.28
433
30.60
432
14.24
422
16.85
425
13.04
425
14.75
423
17.53
425
17.02
424
SPstereotwo views16.55
421
3.18
410
4.92
394
2.73
409
2.77
405
29.67
428
52.00
430
39.41
436
29.70
437
21.94
432
21.64
427
27.45
434
23.83
429
27.92
437
26.10
431
2.44
407
2.60
408
4.96
414
3.11
412
2.27
405
2.32
402
ASD4two views27.03
434
24.46
435
23.91
424
27.24
432
17.87
420
47.08
436
31.36
428
41.80
437
21.82
428
31.12
436
20.82
425
33.80
437
18.50
422
27.25
436
21.57
428
29.52
434
20.55
430
27.54
430
23.38
428
30.03
431
20.96
430
test_example2two views115.17
438
122.38
438
93.45
437
115.38
437
123.53
438
101.24
438
113.11
438
54.67
438
99.94
438
135.50
438
136.43
438
85.67
438
85.40
438
110.44
438
104.91
438
152.17
438
205.21
438
99.17
438
114.27
438
138.55
438
112.04
438