This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort by
MIF-Stereotwo views0.36
10
0.66
143
2.43
126
0.28
34
0.24
118
0.30
4
0.18
10
0.35
1
0.36
2
0.26
14
0.37
42
0.18
1
0.18
6
0.33
14
0.30
56
0.11
110
0.08
38
0.09
13
0.08
27
0.25
208
0.09
2
MyStereo07two views0.56
111
0.68
151
2.42
121
0.30
60
0.41
248
0.61
160
0.31
180
0.58
55
0.72
196
1.17
348
0.26
14
0.20
2
0.27
62
1.28
221
0.28
42
0.09
11
0.59
306
0.12
135
0.21
269
0.16
69
0.48
224
ff7two views0.65
191
0.58
119
2.09
57
0.39
198
0.60
302
0.56
86
0.23
58
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
27
0.71
141
0.24
15
0.09
11
2.09
391
0.10
46
0.18
233
0.24
193
2.22
396
fffftwo views0.65
191
0.58
119
2.09
57
0.39
198
0.60
302
0.56
86
0.23
58
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
27
0.71
141
0.24
15
0.09
11
2.09
391
0.10
46
0.18
233
0.24
193
2.22
396
11ttwo views0.65
191
0.58
119
2.09
57
0.39
198
0.60
302
0.56
86
0.23
58
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
27
0.71
141
0.24
15
0.09
11
2.09
391
0.10
46
0.18
233
0.24
193
2.22
396
CAStwo views0.39
15
0.31
7
1.79
10
0.81
343
0.34
209
0.51
46
0.23
58
0.49
14
0.42
9
0.23
6
0.31
25
0.20
2
0.17
1
0.30
2
0.25
23
0.77
375
0.06
1
0.07
1
0.05
1
0.10
10
0.41
189
ccc-4two views0.65
191
0.58
119
2.09
57
0.39
198
0.60
302
0.56
86
0.23
58
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
27
0.71
141
0.24
15
0.09
11
2.09
391
0.10
46
0.18
233
0.24
193
2.22
396
Former-RAFT_DAM_RVCtwo views0.52
82
0.51
100
1.12
1
0.26
15
0.22
86
0.46
20
0.20
20
1.10
338
1.33
369
3.13
406
0.33
32
0.22
8
0.20
14
0.34
15
0.26
32
0.11
110
0.09
81
0.11
92
0.09
37
0.17
90
0.21
72
AEACVtwo views0.89
305
0.29
2
1.84
18
2.50
406
1.68
396
0.53
66
0.21
30
1.01
289
0.42
9
0.68
262
0.31
25
0.22
8
0.39
146
1.63
267
0.25
23
0.09
11
2.60
409
0.09
13
0.54
372
0.23
187
2.27
401
anonymousdsptwo views0.86
291
0.59
125
2.65
223
1.33
371
1.25
379
0.56
86
0.23
58
0.54
39
0.71
189
1.13
344
0.25
11
0.22
8
0.24
27
1.24
214
0.24
15
0.09
11
2.34
406
0.10
46
0.18
233
0.25
208
3.12
410
Selective-IGEVtwo views0.57
118
0.42
70
1.87
23
1.67
389
1.33
382
0.36
10
0.20
20
0.61
67
0.71
189
0.22
3
0.31
25
0.22
8
0.19
7
0.52
79
0.36
104
0.09
11
0.97
337
0.09
13
0.15
195
0.20
150
0.85
313
ProNettwo views0.46
45
0.60
127
1.85
20
0.35
143
0.67
320
0.49
38
0.25
99
0.53
30
0.57
66
0.21
1
0.24
6
0.22
8
0.20
14
0.52
79
0.22
4
0.09
11
0.47
287
0.10
46
0.09
37
0.23
187
1.33
358
IGEV-Stereopermissivetwo views0.86
291
0.60
127
2.65
223
1.35
373
1.25
379
0.56
86
0.23
58
0.54
39
0.71
189
1.14
345
0.25
11
0.22
8
0.24
27
1.24
214
0.24
15
0.09
11
2.34
406
0.10
46
0.18
233
0.25
208
3.13
411
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
CASnettwo views0.32
3
0.40
63
1.80
11
0.28
34
0.11
1
0.47
30
0.19
12
0.45
7
0.47
24
0.39
30
0.31
25
0.23
14
0.17
1
0.31
3
0.21
1
0.11
110
0.06
1
0.15
245
0.12
139
0.16
69
0.08
1
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LoS_RVCtwo views0.34
5
0.38
55
1.96
38
0.27
22
0.35
217
0.43
15
0.22
39
0.43
5
0.34
1
0.24
9
0.34
34
0.23
14
0.28
72
0.34
15
0.22
4
0.08
1
0.07
6
0.07
1
0.05
1
0.10
10
0.35
155
XX-TBDtwo views0.40
17
1.04
236
2.49
170
0.35
143
0.13
5
0.51
46
0.17
5
0.44
6
0.52
45
0.38
28
0.51
116
0.23
14
0.19
7
0.31
3
0.25
23
0.10
47
0.07
6
0.08
3
0.06
6
0.09
5
0.18
56
sAnonymous2two views0.45
40
0.88
201
2.97
297
0.31
74
0.25
124
0.34
8
0.28
133
0.56
48
0.49
29
0.25
11
0.30
20
0.23
14
0.29
88
0.31
3
0.22
4
0.12
143
0.09
81
0.12
135
0.13
159
0.38
310
0.43
198
CroCo_RVCtwo views0.45
40
0.88
201
2.97
297
0.31
74
0.25
124
0.34
8
0.28
133
0.56
48
0.49
29
0.25
11
0.30
20
0.23
14
0.29
88
0.31
3
0.22
4
0.12
143
0.09
81
0.12
135
0.13
159
0.38
310
0.43
198
Anonymoustwo views0.41
18
0.44
80
2.55
189
0.35
143
0.32
194
0.38
11
0.34
208
0.57
53
0.41
5
0.25
11
0.30
20
0.23
14
0.29
88
0.38
27
0.28
42
0.15
233
0.13
153
0.11
92
0.12
139
0.24
193
0.30
129
test crocotwo views0.43
25
0.73
166
2.80
270
0.28
34
0.19
63
0.33
7
0.21
30
0.63
76
0.50
35
0.24
9
0.38
48
0.24
20
0.25
41
0.48
59
0.32
78
0.12
143
0.08
38
0.13
191
0.09
37
0.43
333
0.13
12
CREStereo++_RVCtwo views0.38
13
0.37
50
2.47
162
0.25
5
0.16
20
0.54
73
0.15
1
0.42
4
0.57
66
0.37
25
0.52
123
0.24
20
0.19
7
0.31
3
0.27
37
0.09
11
0.06
1
0.08
3
0.30
310
0.09
5
0.22
77
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CREStereotwo views0.31
1
0.35
37
1.66
7
0.19
1
0.13
5
0.55
82
0.17
5
0.50
23
0.50
35
0.28
18
0.34
34
0.24
20
0.21
16
0.34
15
0.23
14
0.11
110
0.07
6
0.08
3
0.05
1
0.10
10
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
ACVNet-DCAtwo views0.67
211
0.73
166
2.43
126
0.67
322
0.52
279
0.76
277
0.24
80
0.81
144
0.83
274
0.77
294
0.39
51
0.25
23
0.38
135
0.70
135
0.22
4
0.10
47
2.13
396
0.11
92
0.09
37
0.16
69
1.18
342
1test111two views0.72
239
0.73
166
2.43
126
0.67
322
0.52
279
0.76
277
0.24
80
0.81
144
0.83
274
0.77
294
0.39
51
0.25
23
0.38
135
1.03
186
0.75
224
0.10
47
2.13
396
0.11
92
0.09
37
0.16
69
1.18
342
cc1two views0.74
244
0.73
166
2.43
126
0.67
322
0.52
279
0.76
277
0.24
80
0.85
178
1.05
345
0.77
294
0.39
51
0.25
23
0.38
135
0.70
135
0.22
4
0.10
47
2.13
396
0.11
92
0.09
37
0.25
208
2.20
395
MIF-Stereo (partial)two views0.41
18
0.71
158
2.67
234
0.27
22
0.24
118
0.32
6
0.17
5
0.56
48
0.46
18
0.26
14
0.37
42
0.25
23
0.26
49
0.46
49
0.35
102
0.11
110
0.08
38
0.12
135
0.10
71
0.21
159
0.15
30
GLC_STEREOtwo views0.31
1
0.30
5
1.80
11
0.29
46
0.12
3
0.41
13
0.20
20
0.39
2
0.42
9
0.26
14
0.31
25
0.25
23
0.19
7
0.36
24
0.26
32
0.09
11
0.11
125
0.12
135
0.10
71
0.13
35
0.15
30
sCroCo_RVCtwo views0.37
11
0.39
59
2.38
105
0.35
143
0.27
149
0.31
5
0.22
39
0.49
14
0.48
27
0.23
6
0.34
34
0.25
23
0.24
27
0.35
22
0.25
23
0.15
233
0.17
199
0.12
135
0.11
109
0.15
60
0.15
30
tt1two views0.74
244
0.73
166
2.34
99
0.67
322
0.63
312
0.75
273
0.24
80
0.85
178
0.96
327
0.81
306
0.38
48
0.26
29
0.35
121
0.64
118
0.22
4
0.10
47
2.16
401
0.11
92
0.09
37
0.25
208
2.19
391
whm_ethtwo views0.51
80
0.86
196
2.79
268
0.31
74
0.31
183
0.49
38
0.24
80
0.78
125
0.75
221
0.48
65
0.86
308
0.26
29
0.26
49
0.38
27
0.29
51
0.13
185
0.11
125
0.13
191
0.12
139
0.14
51
0.44
210
DLNR_Zeroshot_testpermissivetwo views13.74
418
20.06
424
23.92
424
121.50
439
35.20
434
0.46
20
0.15
1
7.96
416
0.47
24
0.29
21
0.37
42
0.26
29
0.17
1
0.79
159
0.36
104
7.16
419
2.95
413
0.09
13
0.38
347
50.40
437
1.95
381
CEStwo views0.33
4
0.32
14
1.46
3
0.25
5
0.50
275
0.40
12
0.20
20
0.48
11
0.48
27
0.22
3
0.29
17
0.26
29
0.19
7
0.35
22
0.22
4
0.09
11
0.07
6
0.08
3
0.05
1
0.16
69
0.54
247
TANstereotwo views0.39
15
0.70
156
2.48
167
0.23
3
0.12
3
0.54
73
0.16
3
0.41
3
0.47
24
0.45
51
0.51
116
0.26
29
0.22
19
0.34
15
0.21
1
0.10
47
0.10
104
0.08
3
0.07
12
0.09
5
0.18
56
GMStereopermissivetwo views0.44
37
1.32
299
2.65
223
0.28
34
0.16
20
0.42
14
0.22
39
0.48
11
0.63
103
0.41
33
0.36
38
0.26
29
0.25
41
0.41
41
0.30
56
0.14
215
0.08
38
0.10
46
0.12
139
0.17
90
0.13
12
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
PMTNettwo views0.35
7
0.38
55
1.75
9
0.21
2
0.14
8
0.57
105
0.24
80
0.48
11
0.44
16
0.28
18
0.32
31
0.26
29
0.24
27
0.41
41
0.24
15
0.42
356
0.07
6
0.08
3
0.05
1
0.18
110
0.15
30
EGLCR-Stereotwo views0.90
308
0.31
7
1.90
27
1.60
385
0.95
353
1.14
353
0.42
252
0.85
178
0.43
13
1.74
382
0.21
1
0.27
36
0.17
1
1.56
253
0.30
56
0.10
47
2.60
409
0.10
46
0.09
37
0.10
10
3.10
409
MC-Stereotwo views0.58
126
0.37
50
2.00
41
0.88
346
0.64
316
0.54
73
0.19
12
0.46
9
0.39
3
0.58
169
0.39
51
0.27
36
0.27
62
0.71
141
0.32
78
0.09
11
1.20
355
0.09
13
0.16
212
0.22
173
1.92
380
StereoIMtwo views0.35
7
0.89
206
2.15
69
0.25
5
0.29
164
0.29
3
0.17
5
0.47
10
0.41
5
0.21
1
0.22
2
0.28
38
0.21
16
0.32
13
0.31
70
0.10
47
0.09
81
0.10
46
0.08
27
0.11
17
0.12
10
RCA-Stereotwo views0.45
40
0.38
55
1.80
11
0.27
22
0.25
124
0.58
112
0.23
58
0.84
168
0.66
123
0.42
37
0.44
75
0.28
38
0.35
121
0.31
3
0.21
1
0.09
11
1.01
340
0.09
13
0.07
12
0.21
159
0.53
244
DCANet-4two views0.43
25
0.32
14
2.31
94
0.26
15
0.14
8
0.51
46
0.22
39
0.84
168
0.78
240
0.55
141
0.48
89
0.28
38
0.37
128
0.40
35
0.37
107
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
198
s12784htwo views0.41
18
0.34
30
2.17
72
0.24
4
0.11
1
0.64
207
0.24
80
0.85
178
0.70
177
0.45
51
0.54
140
0.28
38
0.27
62
0.51
75
0.27
37
0.11
110
0.06
1
0.09
13
0.06
6
0.16
69
0.14
24
CroCo-Stereo Lap2two views0.38
13
0.91
214
2.02
46
0.33
111
0.38
235
0.23
2
0.21
30
0.63
76
0.51
40
0.23
6
0.28
15
0.29
42
0.23
25
0.34
15
0.28
42
0.10
47
0.09
81
0.10
46
0.08
27
0.22
173
0.15
30
IGEVStereo-DCAtwo views0.74
244
0.74
175
2.09
57
0.76
334
0.77
335
0.45
17
0.23
58
0.49
14
0.62
92
0.71
279
0.22
2
0.30
43
0.28
72
1.29
222
1.53
318
0.10
47
1.50
378
0.10
46
0.18
233
0.24
193
2.22
396
rrrtwo views0.84
280
0.74
175
3.40
339
0.76
334
0.77
335
0.45
17
0.28
133
1.23
360
0.84
286
0.71
279
0.22
2
0.30
43
0.28
72
1.29
222
1.53
318
0.10
47
1.50
378
0.10
46
0.29
304
0.24
193
1.75
377
AnonymousMtwo views0.45
40
0.49
89
1.83
15
0.29
46
0.15
13
0.53
66
0.22
39
0.64
78
0.66
123
0.47
63
0.33
32
0.30
43
0.25
41
0.49
69
0.29
51
0.12
143
0.27
255
0.71
379
0.37
344
0.12
25
0.41
189
test_xeample3two views0.86
291
0.75
179
3.36
329
0.65
316
0.76
333
0.49
38
0.33
203
1.21
359
0.80
256
0.61
204
0.23
5
0.30
43
0.29
88
1.17
206
1.57
320
0.10
47
1.79
384
0.10
46
0.40
351
0.25
208
2.09
385
DIP-Stereotwo views0.43
25
0.50
95
2.21
80
0.27
22
0.18
47
0.63
195
0.17
5
0.94
241
0.58
72
0.49
81
0.48
89
0.30
43
0.30
98
0.40
35
0.31
70
0.10
47
0.08
38
0.10
46
0.08
27
0.15
60
0.33
142
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
ffftwo views0.50
70
0.90
211
2.63
213
0.25
5
0.15
13
0.51
46
0.22
39
0.85
178
0.82
268
0.55
141
0.48
89
0.31
48
0.65
281
0.39
31
0.37
107
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
198
raftrobusttwo views0.52
82
1.14
255
2.15
69
0.33
111
0.99
358
0.53
66
0.21
30
0.59
62
0.50
35
0.53
126
0.36
38
0.31
48
0.33
112
0.47
51
0.42
122
0.10
47
0.55
299
0.09
13
0.08
27
0.22
173
0.46
218
csctwo views0.50
70
0.90
211
2.63
213
0.25
5
0.15
13
0.51
46
0.22
39
0.85
178
0.82
268
0.55
141
0.48
89
0.31
48
0.65
281
0.39
31
0.37
107
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
198
cscssctwo views0.50
70
0.90
211
2.63
213
0.25
5
0.15
13
0.51
46
0.22
39
0.85
178
0.82
268
0.55
141
0.48
89
0.31
48
0.65
281
0.39
31
0.37
107
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
198
ADStereo(finetuned)two views0.50
70
0.91
214
2.43
126
0.26
15
0.14
8
0.51
46
0.22
39
0.84
168
0.78
240
0.56
151
0.49
102
0.32
52
0.75
310
0.40
35
0.40
116
0.10
47
0.07
6
0.09
13
0.07
12
0.13
35
0.45
215
HHNettwo views0.63
179
0.67
144
3.10
311
0.37
167
0.25
124
0.64
207
0.60
317
0.70
98
0.67
135
0.55
141
1.12
345
0.32
52
0.60
271
0.43
45
1.75
327
0.16
247
0.08
38
0.12
135
0.10
71
0.18
110
0.22
77
raft+_RVCtwo views0.62
167
1.18
269
2.43
126
0.36
157
2.08
402
0.52
61
0.25
99
0.66
83
0.54
54
0.36
23
0.46
78
0.32
52
0.28
72
0.49
69
0.43
128
0.10
47
0.91
335
0.10
46
0.09
37
0.22
173
0.70
291
DCANettwo views0.49
66
0.91
214
2.63
213
0.26
15
0.14
8
0.51
46
0.22
39
0.84
168
0.78
240
0.56
151
0.49
102
0.32
52
0.41
163
0.39
31
0.41
118
0.10
47
0.07
6
0.09
13
0.07
12
0.14
51
0.45
215
rafts_anoytwo views0.60
147
1.33
303
2.59
199
0.53
279
1.09
370
0.49
38
0.25
99
0.67
86
0.53
51
0.41
33
0.38
48
0.33
56
0.30
98
0.68
132
0.41
118
0.10
47
1.13
352
0.13
191
0.15
195
0.20
150
0.29
120
Anonymous3two views0.47
48
0.49
89
2.61
208
0.33
111
0.25
124
0.72
263
0.32
190
0.80
137
0.60
80
0.36
23
0.41
60
0.33
56
0.29
88
0.46
49
0.30
56
0.19
288
0.18
205
0.13
191
0.13
159
0.18
110
0.22
77
R-Stereo Traintwo views0.42
22
0.31
7
2.51
174
0.30
60
0.18
47
0.56
86
0.25
99
0.82
151
0.41
5
0.57
163
0.67
235
0.33
56
0.24
27
0.34
15
0.33
87
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
RAFT-Stereopermissivetwo views0.42
22
0.31
7
2.51
174
0.30
60
0.18
47
0.56
86
0.25
99
0.82
151
0.41
5
0.57
163
0.67
235
0.33
56
0.24
27
0.34
15
0.33
87
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
UDGNettwo views0.50
70
1.36
312
2.44
134
0.37
167
0.19
63
0.58
112
0.23
58
0.49
14
0.69
167
0.42
37
0.39
51
0.34
60
0.29
88
0.55
92
0.32
78
0.25
330
0.10
104
0.37
357
0.19
249
0.30
258
0.17
49
ddtwo views0.48
55
1.32
299
2.41
117
0.31
74
0.17
37
0.58
112
0.26
111
0.50
23
0.71
189
0.42
37
0.41
60
0.34
60
0.28
72
0.47
51
0.41
118
0.18
277
0.10
104
0.13
191
0.12
139
0.22
173
0.16
43
TestStereotwo views0.49
66
0.88
201
2.38
105
0.30
60
0.16
20
0.43
15
0.25
99
0.55
47
0.46
18
0.38
28
0.46
78
0.34
60
0.28
72
1.96
320
0.28
42
0.11
110
0.08
38
0.12
135
0.09
37
0.15
60
0.13
12
11t1two views0.60
147
0.49
89
2.19
75
0.35
143
0.58
296
0.48
33
0.21
30
0.72
105
0.73
199
0.49
81
0.47
83
0.35
63
0.34
119
0.61
110
0.71
216
0.12
143
1.26
363
0.10
46
0.29
304
0.16
69
1.22
350
TestStereo1two views0.59
141
1.21
276
2.63
213
0.40
211
0.60
302
0.56
86
0.34
208
0.82
151
0.73
199
0.45
51
0.63
212
0.36
64
0.42
174
0.66
125
0.42
122
0.10
47
0.32
260
0.12
135
0.10
71
0.34
281
0.52
241
SA-5Ktwo views0.59
141
1.21
276
2.63
213
0.40
211
0.60
302
0.56
86
0.34
208
0.82
151
0.73
199
0.45
51
0.63
212
0.36
64
0.42
174
0.66
125
0.42
122
0.10
47
0.32
260
0.12
135
0.10
71
0.34
281
0.52
241
RALCasStereoNettwo views0.65
191
1.34
305
2.56
193
0.43
233
0.96
354
0.50
44
0.26
111
0.62
70
0.56
63
0.43
43
0.49
102
0.36
64
0.28
72
0.72
146
0.53
165
0.10
47
1.18
353
0.09
13
0.08
27
0.27
234
1.27
353
LoStwo views0.34
5
0.35
37
1.88
24
0.25
5
0.13
5
0.53
66
0.20
20
0.50
23
0.53
51
0.26
14
0.28
15
0.37
67
0.24
27
0.40
35
0.25
23
0.10
47
0.08
38
0.08
3
0.06
6
0.15
60
0.10
4
NF-Stereotwo views0.53
92
0.33
23
2.55
189
0.55
286
0.16
20
0.61
160
0.43
259
0.70
98
0.70
177
0.50
99
0.47
83
0.37
67
0.26
49
1.44
240
0.78
233
0.12
143
0.07
6
0.12
135
0.10
71
0.13
35
0.17
49
OCTAStereotwo views0.53
92
0.33
23
2.54
182
0.56
295
0.16
20
0.61
160
0.42
252
0.70
98
0.70
177
0.50
99
0.47
83
0.37
67
0.26
49
1.43
236
0.79
236
0.12
143
0.07
6
0.12
135
0.10
71
0.13
35
0.17
49
RE-Stereotwo views0.53
92
0.33
23
2.54
182
0.56
295
0.16
20
0.61
160
0.43
259
0.70
98
0.70
177
0.50
99
0.47
83
0.37
67
0.26
49
1.43
236
0.77
229
0.12
143
0.07
6
0.12
135
0.10
71
0.13
35
0.17
49
TVStereotwo views0.53
92
0.33
23
2.54
182
0.56
295
0.16
20
0.61
160
0.43
259
0.70
98
0.70
177
0.50
99
0.47
83
0.37
67
0.26
49
1.43
236
0.77
229
0.12
143
0.07
6
0.12
135
0.10
71
0.13
35
0.17
49
DisPMtwo views0.48
55
0.41
68
2.54
182
0.61
307
0.18
47
0.59
130
0.62
324
0.54
39
0.67
135
0.61
204
0.53
126
0.38
72
0.26
49
0.76
153
0.31
70
0.13
185
0.07
6
0.12
135
0.11
109
0.12
25
0.15
30
DRafttwo views0.65
191
0.47
85
2.38
105
0.25
5
0.17
37
0.64
207
0.65
329
0.56
48
0.57
66
0.67
256
0.98
328
0.38
72
0.99
341
1.42
235
2.06
341
0.11
110
0.14
166
0.10
46
0.14
177
0.18
110
0.21
72
4D-IteraStereotwo views0.62
167
1.29
296
3.04
306
0.27
22
0.30
175
0.46
20
0.26
111
0.54
39
0.51
40
0.41
33
0.31
25
0.39
74
0.19
7
0.53
86
0.65
201
0.09
11
0.47
287
0.12
135
0.11
109
0.21
159
2.14
388
SAtwo views0.61
154
1.14
255
2.79
268
0.32
91
0.63
312
0.57
105
0.30
170
0.97
264
0.78
240
0.43
43
0.63
212
0.39
74
0.46
210
0.70
135
0.31
70
0.10
47
0.44
284
0.13
191
0.32
320
0.31
266
0.51
236
test_4two views0.47
48
0.80
189
2.15
69
0.36
157
0.29
164
0.59
130
0.28
133
0.50
23
0.42
9
0.43
43
0.76
286
0.39
74
0.22
19
0.73
147
0.49
154
0.08
1
0.18
205
0.11
92
0.15
195
0.29
252
0.27
108
PFNet+two views0.50
70
0.43
76
2.54
182
0.49
266
0.18
47
0.58
112
0.76
346
0.54
39
0.72
196
0.56
151
0.48
89
0.39
74
0.26
49
0.94
179
0.33
87
0.14
215
0.09
81
0.14
220
0.13
159
0.12
25
0.16
43
PSM-softLosstwo views0.52
82
0.34
30
2.47
162
0.55
286
0.17
37
0.61
160
0.39
241
0.64
78
0.67
135
0.52
118
0.48
89
0.39
74
0.25
41
1.46
241
0.77
229
0.13
185
0.08
38
0.13
191
0.12
139
0.12
25
0.15
30
KMStereotwo views0.52
82
0.34
30
2.47
162
0.55
286
0.17
37
0.61
160
0.39
241
0.64
78
0.67
135
0.52
118
0.48
89
0.39
74
0.25
41
1.46
241
0.77
229
0.13
185
0.08
38
0.13
191
0.12
139
0.12
25
0.15
30
DeepStereo_RVCtwo views0.47
48
0.37
50
2.19
75
0.55
286
0.18
47
0.60
142
0.58
311
0.52
27
0.62
92
0.49
81
0.45
76
0.39
74
0.85
323
0.47
51
0.34
95
0.12
143
0.08
38
0.11
92
0.09
37
0.15
60
0.19
60
RALAANettwo views0.52
82
1.37
315
2.63
213
0.33
111
0.23
109
0.48
33
0.19
12
0.69
91
0.55
59
0.49
81
0.46
78
0.39
74
0.31
102
0.53
86
0.53
165
0.10
47
0.33
264
0.11
92
0.17
225
0.29
252
0.13
12
CASStwo views0.43
25
0.34
30
2.01
43
0.33
111
0.17
37
0.54
73
0.24
80
0.71
104
0.52
45
0.62
216
0.55
149
0.40
82
0.41
163
0.43
45
0.33
87
0.17
266
0.10
104
0.14
220
0.11
109
0.18
110
0.23
85
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
IPLGtwo views0.74
244
1.09
243
2.87
285
0.36
157
0.21
77
1.63
375
0.60
317
1.39
370
0.63
103
1.39
368
0.51
116
0.40
82
0.86
325
1.40
232
0.37
107
0.09
11
0.07
6
0.14
220
0.12
139
0.34
281
0.23
85
LMCR-Stereopermissivemany views0.61
154
1.00
226
2.60
204
0.42
223
0.22
86
0.74
271
0.31
180
1.06
327
0.70
177
0.62
216
0.64
219
0.40
82
0.52
239
0.84
168
1.27
299
0.20
296
0.09
81
0.12
135
0.09
37
0.26
223
0.16
43
GEStwo views0.49
66
0.54
107
2.37
103
0.31
74
0.19
63
0.61
160
0.30
170
0.93
236
0.52
45
0.49
81
0.53
126
0.40
82
0.43
187
0.59
102
0.67
206
0.16
247
0.11
125
0.12
135
0.10
71
0.20
150
0.30
129
RAFT-Stereo + iAFFtwo views0.58
126
1.48
334
2.53
178
0.29
46
0.78
338
0.52
61
0.20
20
0.68
89
0.66
123
0.51
110
0.61
197
0.40
82
0.32
107
0.40
35
0.43
128
0.08
1
0.63
312
0.09
13
0.09
37
0.37
304
0.58
256
Selective-RAFTtwo views0.46
45
0.48
88
1.88
24
0.32
91
0.16
20
0.61
160
0.19
12
0.66
83
0.62
92
0.28
18
0.30
20
0.41
87
0.33
112
0.51
75
0.32
78
0.11
110
1.09
349
0.09
13
0.35
338
0.19
133
0.37
162
LCNettwo views0.58
126
0.43
76
2.42
121
0.91
351
0.22
86
0.95
334
0.29
158
0.62
70
0.64
109
0.52
118
0.55
149
0.41
87
0.75
310
0.84
168
0.27
37
0.10
47
0.07
6
0.12
135
0.18
233
0.97
380
0.40
182
Pruner-Stereotwo views0.55
103
0.38
55
2.49
170
1.78
394
0.19
63
0.63
195
0.45
270
0.59
62
0.67
135
0.61
204
0.48
89
0.41
87
0.25
41
0.49
69
0.99
267
0.13
185
0.07
6
0.12
135
0.10
71
0.13
35
0.14
24
DN-CSS_ROBtwo views0.56
111
1.64
353
2.75
261
0.42
223
0.22
86
0.57
105
0.19
12
0.79
132
0.66
123
0.46
61
0.62
204
0.41
87
0.32
107
0.73
147
0.49
154
0.12
143
0.08
38
0.14
220
0.13
159
0.38
310
0.17
49
iRaftStereo_RVCtwo views0.47
48
0.84
192
1.91
29
0.29
46
0.15
13
0.53
66
0.20
20
0.58
55
0.50
35
0.37
25
0.43
64
0.42
91
0.23
25
0.38
27
0.28
42
0.09
11
0.70
324
0.12
135
0.11
109
0.43
333
0.77
298
EKT-Stereotwo views1.56
376
0.55
114
2.60
204
2.54
407
19.66
423
0.55
82
0.22
39
0.76
112
0.51
40
0.40
32
0.36
38
0.43
92
0.27
62
0.74
150
0.42
122
0.13
185
0.17
199
0.11
92
0.16
212
0.20
150
0.50
232
MIM_Stereotwo views0.55
103
0.92
219
2.65
223
0.32
91
1.09
370
0.51
46
0.19
12
0.67
86
0.52
45
0.48
65
0.54
140
0.43
92
0.27
62
0.57
98
0.30
56
0.08
1
0.17
199
0.11
92
0.10
71
0.28
244
0.80
305
Sa-1000two views0.61
154
1.07
239
2.71
250
0.32
91
0.61
309
0.61
160
0.31
180
1.00
281
0.76
229
0.53
126
0.83
298
0.43
92
0.33
112
0.69
134
0.30
56
0.10
47
0.52
296
0.13
191
0.28
300
0.29
252
0.29
120
CIPLGtwo views0.63
179
1.59
345
3.16
315
0.79
340
0.31
183
0.62
182
0.57
309
0.82
151
0.68
159
0.58
169
0.63
212
0.43
92
0.31
102
0.48
59
0.42
122
0.12
143
0.20
221
0.13
191
0.13
159
0.36
298
0.21
72
ACREtwo views0.63
179
1.55
339
3.41
340
0.76
334
0.28
159
0.60
142
0.56
306
0.82
151
0.68
159
0.57
163
0.62
204
0.43
92
0.30
98
0.47
51
0.42
122
0.12
143
0.19
209
0.13
191
0.14
177
0.36
298
0.20
68
Patchmatch Stereo++two views0.43
25
0.36
40
2.44
134
0.48
255
0.17
37
0.61
160
0.26
111
0.53
30
0.61
83
0.48
65
0.43
64
0.43
92
0.28
72
0.56
95
0.30
56
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.43
25
0.36
40
2.44
134
0.48
255
0.18
47
0.61
160
0.28
133
0.53
30
0.61
83
0.48
65
0.43
64
0.43
92
0.28
72
0.49
69
0.30
56
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
ROB_FTStereotwo views0.43
25
0.36
40
2.44
134
0.48
255
0.18
47
0.61
160
0.26
111
0.53
30
0.61
83
0.48
65
0.43
64
0.43
92
0.28
72
0.51
75
0.30
56
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
iGMRVCtwo views0.43
25
0.36
40
2.44
134
0.48
255
0.18
47
0.61
160
0.27
125
0.53
30
0.61
83
0.48
65
0.43
64
0.43
92
0.28
72
0.57
98
0.31
70
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
RAFT-345two views0.56
111
0.37
50
2.68
239
0.40
211
0.34
209
0.58
112
0.41
246
0.49
14
0.70
177
0.51
110
0.99
331
0.43
92
0.28
72
1.56
253
0.81
242
0.10
47
0.07
6
0.11
92
0.09
37
0.11
17
0.09
2
iRAFTtwo views0.43
25
0.36
40
2.44
134
0.48
255
0.17
37
0.61
160
0.26
111
0.53
30
0.61
83
0.48
65
0.43
64
0.43
92
0.28
72
0.56
95
0.30
56
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
RAFT-IKPtwo views0.43
25
0.36
40
2.44
134
0.48
255
0.16
20
0.60
142
0.28
133
0.53
30
0.61
83
0.48
65
0.43
64
0.43
92
0.28
72
0.51
75
0.31
70
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
Prome-Stereotwo views0.53
92
0.36
40
2.39
111
0.60
301
0.23
109
0.63
195
0.41
246
0.66
83
0.67
135
0.59
188
1.02
335
0.43
92
0.71
298
0.61
110
0.34
95
0.10
47
0.07
6
0.10
46
0.09
37
0.13
35
0.44
210
SFCPSMtwo views0.48
55
0.39
59
2.30
92
0.28
34
0.27
149
0.70
253
0.32
190
1.00
281
0.69
167
0.50
99
0.52
123
0.43
92
0.36
123
0.53
86
0.44
131
0.12
143
0.09
81
0.12
135
0.16
212
0.18
110
0.23
85
iResNettwo views0.59
141
1.09
243
2.54
182
0.44
238
0.18
47
0.65
221
0.29
158
0.89
211
0.75
221
0.59
188
0.64
219
0.43
92
0.39
146
0.73
147
1.24
296
0.11
110
0.08
38
0.09
13
0.08
27
0.21
159
0.40
182
MSKI-zero shottwo views0.70
227
0.44
80
2.62
212
1.47
379
0.75
330
0.56
86
0.20
20
0.80
137
0.45
17
0.60
197
0.52
123
0.44
107
0.17
1
0.70
135
0.26
32
0.09
11
2.87
412
0.09
13
0.32
320
0.14
51
0.50
232
LL-Strereo2two views0.62
167
1.36
312
2.47
162
1.37
374
0.96
354
0.54
73
0.28
133
0.61
67
0.49
29
0.42
37
0.34
34
0.44
107
0.21
16
0.57
98
0.53
165
0.11
110
0.26
249
0.16
261
0.14
177
0.18
110
0.98
333
DCREtwo views0.76
256
0.80
189
2.31
94
1.05
360
1.18
375
0.63
195
0.26
111
1.03
301
0.59
76
0.52
118
2.12
377
0.44
107
0.27
62
0.41
41
0.53
165
0.09
11
1.02
345
0.10
46
0.32
320
0.16
69
1.47
369
xtwo views0.65
191
0.62
136
2.12
64
0.36
157
0.61
309
0.48
33
0.24
80
0.80
137
0.89
306
0.50
99
0.56
161
0.44
107
0.36
123
0.62
113
0.80
238
0.11
110
1.44
377
0.11
92
0.39
350
0.16
69
1.34
360
RAFT+CT+SAtwo views0.60
147
1.25
289
2.49
170
0.38
185
0.75
330
0.55
82
0.34
208
0.83
161
0.68
159
0.39
30
0.55
149
0.44
107
0.29
88
0.75
151
0.28
42
0.09
11
0.24
239
0.11
92
0.51
368
0.30
258
0.74
297
IPLGR_Ctwo views0.64
186
1.66
356
3.36
329
0.80
341
0.31
183
0.60
142
0.60
317
0.82
151
0.69
167
0.58
169
0.62
204
0.44
107
0.31
102
0.47
51
0.43
128
0.12
143
0.22
231
0.13
191
0.15
195
0.35
292
0.21
72
test-3two views0.58
126
0.43
76
2.44
134
0.52
275
0.59
297
0.46
20
0.23
58
0.77
118
0.49
29
0.52
118
0.29
17
0.44
107
0.22
19
0.59
102
0.97
259
0.08
1
1.27
364
0.10
46
0.35
338
0.29
252
0.62
266
test_1two views0.58
126
0.43
76
2.44
134
0.52
275
0.59
297
0.46
20
0.23
58
0.77
118
0.49
29
0.51
110
0.29
17
0.44
107
0.22
19
0.59
102
0.97
259
0.08
1
1.27
364
0.10
46
0.35
338
0.29
252
0.63
270
ROB_FTStereo_v2two views0.43
25
0.36
40
2.44
134
0.49
266
0.17
37
0.61
160
0.28
133
0.53
30
0.61
83
0.48
65
0.43
64
0.44
107
0.28
72
0.48
59
0.30
56
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
HUI-Stereotwo views0.43
25
0.36
40
2.45
150
0.48
255
0.18
47
0.61
160
0.27
125
0.53
30
0.61
83
0.48
65
0.43
64
0.44
107
0.28
72
0.47
51
0.30
56
0.12
143
0.08
38
0.12
135
0.10
71
0.17
90
0.13
12
CRE-IMPtwo views0.46
45
0.31
7
2.40
113
0.53
279
0.17
37
0.79
296
0.68
337
0.54
39
0.66
123
0.47
63
0.43
64
0.44
107
0.26
49
0.43
45
0.33
87
0.12
143
0.07
6
0.12
135
0.09
37
0.17
90
0.23
85
test_xeamplepermissivetwo views0.98
324
0.65
142
2.12
64
0.29
46
0.67
320
0.60
142
0.28
133
1.08
333
0.85
289
0.62
216
0.70
255
0.44
107
0.41
163
1.95
319
5.45
404
0.12
143
1.33
371
0.11
92
0.31
315
0.18
110
1.42
366
StereoVisiontwo views0.52
82
1.12
252
2.70
249
0.34
128
0.32
194
0.47
30
0.26
111
0.73
106
0.61
83
0.33
22
0.89
314
0.45
119
0.26
49
0.52
79
0.39
115
0.14
215
0.15
180
0.16
261
0.15
195
0.22
173
0.14
24
test_3two views0.59
141
0.44
80
2.44
134
0.53
279
0.59
297
0.48
33
0.30
170
0.79
132
0.52
45
0.51
110
0.30
20
0.45
119
0.22
19
0.59
102
0.97
259
0.08
1
1.25
360
0.11
92
0.35
338
0.30
258
0.62
266
DEmStereotwo views0.69
222
0.40
63
2.42
121
0.42
223
0.18
47
0.66
234
0.88
357
0.54
39
0.64
109
0.60
197
1.00
332
0.45
119
1.24
355
1.53
249
2.21
352
0.10
47
0.08
38
0.10
46
0.10
71
0.11
17
0.14
24
PFNettwo views0.62
167
0.42
70
2.69
245
0.43
233
0.55
287
0.62
182
0.27
125
0.64
78
0.72
196
0.61
204
0.56
161
0.45
119
0.33
112
1.86
306
1.12
281
0.28
340
0.09
81
0.12
135
0.16
212
0.26
223
0.27
108
xx1two views0.71
231
0.73
166
2.43
126
0.67
322
0.52
279
0.76
277
0.24
80
0.85
178
1.05
345
0.77
294
0.39
51
0.46
123
0.37
128
0.70
135
0.22
4
0.10
47
2.13
396
0.12
135
0.41
355
0.16
69
1.18
342
gwcnet-sptwo views0.52
82
0.71
158
2.66
227
0.32
91
0.22
86
0.66
234
0.31
180
0.84
168
0.69
167
0.61
204
0.49
102
0.46
123
0.43
187
0.77
154
0.48
145
0.12
143
0.11
125
0.11
92
0.11
109
0.19
133
0.19
60
scenettwo views0.52
82
0.71
158
2.66
227
0.32
91
0.22
86
0.66
234
0.31
180
0.84
168
0.69
167
0.61
204
0.49
102
0.46
123
0.43
187
0.77
154
0.48
145
0.12
143
0.11
125
0.11
92
0.11
109
0.19
133
0.19
60
ssnettwo views0.52
82
0.71
158
2.66
227
0.32
91
0.22
86
0.66
234
0.31
180
0.84
168
0.69
167
0.61
204
0.49
102
0.46
123
0.43
187
0.77
154
0.48
145
0.12
143
0.11
125
0.11
92
0.11
109
0.19
133
0.19
60
qqqtwo views0.65
191
0.63
138
2.10
63
0.30
60
0.64
316
0.46
20
0.27
125
0.81
144
0.83
274
0.48
65
0.56
161
0.46
123
0.37
128
1.03
186
0.75
224
0.11
110
1.41
376
0.12
135
0.41
355
0.16
69
1.18
342
AE-Stereotwo views0.71
231
0.32
14
2.44
134
0.44
238
0.50
275
0.58
112
0.23
58
1.08
333
0.67
135
0.67
256
0.51
116
0.47
128
0.24
27
0.63
114
0.32
78
0.09
11
2.15
400
0.11
92
0.45
359
0.22
173
2.01
382
mmmtwo views0.66
208
0.53
105
1.83
15
0.38
185
0.86
344
0.49
38
0.27
125
0.82
151
0.83
274
0.59
188
0.69
242
0.47
128
0.38
135
0.81
166
0.73
221
0.12
143
1.37
372
0.14
220
0.45
359
0.18
110
1.35
361
ASMatchtwo views0.61
154
0.47
85
2.72
252
0.91
351
0.36
223
0.56
86
0.24
80
0.54
39
0.67
135
0.48
65
1.20
348
0.47
128
0.65
281
1.33
226
0.93
256
0.10
47
0.08
38
0.11
92
0.11
109
0.10
10
0.17
49
RAFT-RH_RVCtwo views0.65
191
0.73
166
2.78
267
0.39
198
0.29
164
0.60
142
0.18
10
0.45
7
0.63
103
0.75
290
1.89
372
0.47
128
0.29
88
1.59
264
1.21
291
0.15
233
0.07
6
0.13
191
0.13
159
0.11
17
0.10
4
GMM-Stereotwo views0.53
92
0.33
23
2.89
287
0.53
279
0.24
118
0.77
287
0.46
275
0.62
70
0.65
116
0.58
169
0.73
273
0.47
128
0.43
187
0.68
132
0.29
51
0.10
47
0.06
1
0.13
191
0.13
159
0.14
51
0.44
210
222two views1.02
329
0.60
127
1.95
35
0.29
46
0.51
277
0.62
182
0.24
80
1.09
335
0.86
295
0.64
236
0.67
235
0.47
128
0.42
174
1.86
306
6.73
408
0.13
185
1.21
358
0.11
92
0.32
320
0.17
90
1.44
367
TRStereotwo views0.89
305
1.02
230
2.91
290
4.59
414
0.31
183
0.93
330
0.23
58
1.93
391
0.66
123
0.37
25
0.54
140
0.48
134
0.40
152
0.67
128
0.29
51
0.13
185
0.37
268
0.11
92
0.48
363
0.13
35
1.21
348
HCRNettwo views0.50
70
0.75
179
2.08
56
0.39
198
0.29
164
0.58
112
0.22
39
0.79
132
0.67
135
0.49
81
0.49
102
0.48
134
0.37
128
1.13
200
0.40
116
0.15
233
0.10
104
0.15
245
0.13
159
0.21
159
0.19
60
IRAFT_RVCtwo views0.59
141
0.74
175
2.42
121
0.47
254
0.21
77
0.59
130
0.42
252
0.68
89
0.73
199
0.54
130
0.50
114
0.49
136
0.51
232
1.57
257
1.00
269
0.11
110
0.25
246
0.13
191
0.10
71
0.15
60
0.14
24
ICVPtwo views0.48
55
0.33
23
2.37
103
0.34
128
0.22
86
0.60
142
0.55
302
0.79
132
0.53
51
0.45
51
0.60
189
0.49
136
0.36
123
0.55
92
0.46
139
0.16
247
0.16
192
0.14
220
0.11
109
0.16
69
0.32
139
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
AFF-stereotwo views0.57
118
1.51
336
2.59
199
0.33
111
0.23
109
0.51
46
0.21
30
0.69
91
0.68
159
0.49
81
0.63
212
0.49
136
0.34
119
0.50
74
0.37
107
0.08
1
0.54
297
0.10
46
0.10
71
0.40
323
0.60
263
HITNettwo views0.55
103
1.28
294
2.73
257
0.35
143
0.14
8
0.56
86
0.23
58
0.89
211
0.62
92
0.52
118
0.51
116
0.49
136
0.38
135
0.52
79
0.60
182
0.09
11
0.07
6
0.10
46
0.08
27
0.25
208
0.61
264
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
MyStereo8two views0.73
241
1.16
263
2.89
287
0.53
279
0.34
209
0.71
257
0.20
20
1.87
388
0.59
76
0.53
126
0.66
232
0.50
140
0.33
112
1.27
220
0.62
190
0.10
47
1.19
354
0.10
46
0.21
269
0.21
159
0.61
264
IPLGRtwo views0.58
126
0.64
140
3.12
313
0.37
167
0.18
47
0.62
182
0.54
298
1.06
327
0.69
167
0.73
282
0.46
78
0.50
140
0.44
195
1.12
199
0.31
70
0.10
47
0.08
38
0.11
92
0.09
37
0.21
159
0.20
68
AAGNettwo views0.92
311
0.40
63
2.53
178
0.60
301
1.01
363
0.62
182
0.45
270
0.52
27
0.68
159
0.58
169
0.53
126
0.50
140
0.72
299
1.22
210
7.32
410
0.12
143
0.07
6
0.12
135
0.10
71
0.16
69
0.10
4
SMFormertwo views0.64
186
0.54
107
1.92
30
0.32
91
0.16
20
0.46
20
0.24
80
0.94
241
0.85
289
0.58
169
0.70
255
0.51
143
0.41
163
1.89
311
0.86
251
0.13
185
1.01
340
0.11
92
0.26
290
0.17
90
0.84
309
ttatwo views0.63
179
0.54
107
1.92
30
0.32
91
0.16
20
0.46
20
0.24
80
0.94
241
0.85
289
0.58
169
0.70
255
0.51
143
0.41
163
1.89
311
0.86
251
0.13
185
1.01
340
0.11
92
0.26
290
0.19
133
0.59
259
qqq1two views0.62
167
0.54
107
1.92
30
0.32
91
0.16
20
0.46
20
0.24
80
0.94
241
0.85
289
0.58
169
0.70
255
0.51
143
0.41
163
1.89
311
0.64
196
0.13
185
1.01
340
0.09
13
0.24
278
0.19
133
0.59
259
fff1two views0.62
167
0.54
107
1.92
30
0.32
91
0.16
20
0.46
20
0.24
80
0.94
241
0.85
289
0.58
169
0.70
255
0.51
143
0.41
163
1.89
311
0.64
196
0.13
185
1.01
340
0.09
13
0.24
278
0.19
133
0.59
259
SST-Stereotwo views0.56
111
0.30
5
2.44
134
0.71
331
0.55
287
0.62
182
0.65
329
0.57
53
0.67
135
0.59
188
0.53
126
0.51
143
0.59
266
1.57
257
0.31
70
0.12
143
0.07
6
0.12
135
0.10
71
0.17
90
0.11
9
EAI-Stereotwo views1.16
347
0.29
2
1.94
34
0.55
286
0.97
357
1.96
386
7.94
414
1.34
367
1.03
341
1.01
335
1.48
362
0.51
143
0.66
287
0.65
122
1.42
311
0.09
11
0.23
236
0.09
13
0.53
371
0.13
35
0.49
230
PS-NSSStwo views0.69
222
1.37
315
2.44
134
0.31
74
0.32
194
0.64
207
0.34
208
1.04
307
0.74
216
0.56
151
0.75
283
0.51
143
0.42
174
2.41
353
0.54
170
0.24
324
0.17
199
0.27
334
0.18
233
0.30
258
0.23
85
CoDeXtwo views0.54
99
0.52
102
2.25
84
0.30
60
0.26
138
0.61
160
0.32
190
1.03
301
0.73
199
0.49
81
0.56
161
0.52
150
0.40
152
1.59
264
0.38
113
0.12
143
0.09
81
0.11
92
0.10
71
0.15
60
0.22
77
MyStereo05two views0.57
118
0.72
163
2.72
252
0.31
74
0.25
124
0.60
142
0.30
170
0.87
197
0.82
268
0.54
130
0.37
42
0.53
151
0.42
174
0.63
114
0.73
221
0.09
11
0.55
299
0.12
135
0.20
258
0.16
69
0.56
254
CrosDoStereotwo views0.96
319
0.49
89
2.66
227
0.27
22
0.33
200
0.54
73
3.69
405
0.77
118
0.66
123
0.70
270
1.39
359
0.53
151
1.47
366
1.77
288
3.02
376
0.10
47
0.08
38
0.11
92
0.11
109
0.22
173
0.30
129
KYRafttwo views0.52
82
0.35
37
2.40
113
0.34
128
0.21
77
0.75
273
0.43
259
0.62
70
0.63
103
0.64
236
0.92
318
0.53
151
0.72
299
0.60
107
0.26
32
0.10
47
0.07
6
0.12
135
0.14
177
0.13
35
0.54
247
DeepStereo_LLtwo views0.96
319
0.49
89
2.66
227
0.27
22
0.33
200
0.54
73
3.69
405
0.77
118
0.66
123
0.70
270
1.39
359
0.53
151
1.47
366
1.77
288
3.02
376
0.10
47
0.08
38
0.11
92
0.11
109
0.22
173
0.30
129
CFNet-RSSMtwo views0.44
37
0.36
40
2.38
105
0.28
34
0.43
259
0.53
66
0.20
20
0.86
190
0.52
45
0.44
49
0.36
38
0.53
151
0.26
49
0.40
35
0.27
37
0.09
11
0.08
38
0.09
13
0.38
347
0.10
10
0.22
77
MyStereo04two views0.57
118
0.68
151
2.66
227
0.30
60
0.41
248
0.61
160
0.31
180
0.88
205
0.80
256
0.48
65
0.37
42
0.54
156
0.42
174
0.61
110
0.71
216
0.09
11
0.59
306
0.12
135
0.21
269
0.16
69
0.48
224
knoymoustwo views0.37
11
0.34
30
1.83
15
0.25
5
0.18
47
0.45
17
0.24
80
0.60
65
0.40
4
0.42
37
0.39
51
0.54
156
0.25
41
0.41
41
0.29
51
0.12
143
0.08
38
0.12
135
0.07
12
0.13
35
0.20
68
GMOStereotwo views0.58
126
0.89
206
2.46
157
0.29
46
0.99
358
0.51
46
0.32
190
0.58
55
0.46
18
0.58
169
0.48
89
0.54
156
0.27
62
0.31
3
0.25
23
0.09
11
1.64
380
0.13
191
0.11
109
0.34
281
0.42
193
error versiontwo views0.58
126
0.89
206
2.46
157
0.29
46
0.99
358
0.51
46
0.32
190
0.58
55
0.46
18
0.58
169
0.48
89
0.54
156
0.27
62
0.31
3
0.25
23
0.09
11
1.64
380
0.13
191
0.11
109
0.34
281
0.42
193
test-vtwo views0.58
126
0.89
206
2.46
157
0.29
46
0.99
358
0.51
46
0.32
190
0.58
55
0.46
18
0.58
169
0.48
89
0.54
156
0.27
62
0.31
3
0.25
23
0.09
11
1.64
380
0.13
191
0.11
109
0.34
281
0.42
193
RAFT_R40two views0.55
103
0.31
7
2.44
134
0.57
299
0.42
258
0.62
182
0.52
293
0.58
55
0.66
123
0.56
151
0.54
140
0.54
156
0.50
228
1.56
253
0.53
165
0.11
110
0.07
6
0.12
135
0.10
71
0.16
69
0.10
4
test-2two views0.58
126
0.89
206
2.46
157
0.29
46
0.99
358
0.51
46
0.32
190
0.58
55
0.46
18
0.58
169
0.48
89
0.54
156
0.27
62
0.31
3
0.25
23
0.09
11
1.64
380
0.13
191
0.11
109
0.34
281
0.42
193
test-1two views0.61
154
0.54
107
2.09
57
0.31
74
1.37
384
0.51
46
0.28
133
0.83
161
0.50
35
0.42
37
0.55
149
0.54
156
0.24
27
0.38
27
1.25
297
0.10
47
1.08
348
0.10
46
0.17
225
0.11
17
0.77
298
ttttwo views0.89
305
0.51
100
2.51
174
0.36
157
0.31
183
0.61
160
0.28
133
1.07
330
0.92
313
0.56
151
0.77
290
0.55
164
0.37
128
2.27
339
3.51
384
0.16
247
1.21
358
0.13
191
0.31
315
0.18
110
1.26
352
test_5two views0.61
154
1.25
289
2.76
264
0.39
198
0.64
316
0.58
112
0.35
217
0.85
178
0.66
123
0.49
81
0.56
161
0.55
164
0.40
152
0.79
159
0.32
78
0.10
47
0.19
209
0.12
135
0.12
139
0.33
275
0.85
313
AASNettwo views0.66
208
1.49
335
2.97
297
0.37
167
0.33
200
0.65
221
0.30
170
1.00
281
0.78
240
0.56
151
0.60
189
0.55
164
0.39
146
0.88
175
0.96
258
0.15
233
0.12
140
0.13
191
0.11
109
0.45
338
0.35
155
GrayStereotwo views0.71
231
0.27
1
2.40
113
0.89
347
0.23
109
0.62
182
1.40
391
0.67
86
0.70
177
0.72
281
0.77
290
0.55
164
3.03
397
0.60
107
0.28
42
0.10
47
0.08
38
0.10
46
0.21
269
0.12
25
0.37
162
CroCo-Stereocopylefttwo views0.35
7
0.71
158
1.67
8
0.32
91
0.17
37
0.19
1
0.21
30
0.79
132
0.54
54
0.22
3
0.25
11
0.55
164
0.22
19
0.28
1
0.28
42
0.10
47
0.08
38
0.08
3
0.07
12
0.12
25
0.10
4
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
FENettwo views0.48
55
0.58
119
2.46
157
0.33
111
0.18
47
0.58
112
0.22
39
0.83
161
0.64
109
0.49
81
0.42
62
0.55
164
0.38
135
0.52
79
0.51
160
0.12
143
0.09
81
0.12
135
0.11
109
0.17
90
0.31
137
MLCVtwo views0.59
141
1.41
320
2.41
117
0.31
74
0.15
13
0.60
142
0.23
58
0.77
118
0.63
103
0.67
256
0.66
232
0.55
164
0.37
128
1.16
204
1.09
278
0.10
47
0.07
6
0.09
13
0.07
12
0.21
159
0.29
120
GwcNet-ADLtwo views0.54
99
0.78
185
2.85
282
0.31
74
0.20
68
0.58
112
0.29
158
0.93
236
0.67
135
0.48
65
0.47
83
0.56
171
0.33
112
0.48
59
0.80
238
0.13
185
0.12
140
0.09
13
0.09
37
0.14
51
0.40
182
GANet-ADLtwo views0.48
55
0.56
116
2.51
174
0.34
128
0.20
68
0.58
112
0.25
99
0.80
137
0.57
66
0.43
43
0.61
197
0.56
171
0.31
102
0.44
48
0.44
131
0.14
215
0.11
125
0.10
46
0.09
37
0.22
173
0.38
170
ARAFTtwo views0.65
191
1.69
358
3.34
328
0.29
46
0.16
20
0.65
221
0.36
224
0.96
257
0.73
199
0.63
225
0.49
102
0.56
171
0.31
102
1.23
212
0.35
102
0.11
110
0.08
38
0.14
220
0.13
159
0.38
310
0.50
232
DMCAtwo views0.50
70
0.83
191
1.95
35
0.32
91
0.24
118
0.59
130
0.26
111
0.81
144
0.68
159
0.59
188
0.49
102
0.56
171
0.36
123
0.65
122
0.65
201
0.14
215
0.10
104
0.14
220
0.10
71
0.19
133
0.29
120
DAStwo views0.61
154
0.42
70
1.85
20
0.34
128
0.34
209
0.52
61
0.42
252
0.89
211
0.80
256
0.85
315
0.69
242
0.57
175
0.51
232
2.38
349
0.57
176
0.13
185
0.09
81
0.12
135
0.09
37
0.18
110
0.37
162
SepStereotwo views0.57
118
0.42
70
1.85
20
0.34
128
0.34
209
0.52
61
0.42
252
0.89
211
0.80
256
0.85
315
0.69
242
0.57
175
0.51
232
1.55
251
0.57
176
0.13
185
0.09
81
0.12
135
0.09
37
0.18
110
0.37
162
111two views0.57
118
1.41
320
2.63
213
0.25
5
0.15
13
0.59
130
0.26
111
0.90
219
0.83
274
0.50
99
0.54
140
0.57
175
0.38
135
0.54
91
0.41
118
0.10
47
0.07
6
0.09
13
0.07
12
0.24
193
0.81
307
Gwc-CoAtRStwo views0.41
18
0.37
50
2.06
53
0.28
34
0.41
248
0.48
33
0.19
12
0.64
78
0.49
29
0.45
51
0.39
51
0.57
175
0.26
49
0.37
25
0.28
42
0.09
11
0.19
209
0.09
13
0.31
315
0.11
17
0.25
98
xxxxtwo views0.97
322
0.64
140
2.14
68
0.30
60
0.67
320
0.64
207
0.24
80
1.09
335
0.91
311
0.57
163
0.65
226
0.58
179
0.39
146
1.57
257
5.49
405
0.13
185
1.38
373
0.11
92
0.32
320
0.17
90
1.41
365
CFNettwo views0.65
191
1.45
329
2.27
86
0.34
128
0.25
124
0.64
207
0.23
58
0.93
236
0.79
249
0.48
65
0.59
182
0.58
179
0.40
152
2.28
340
0.63
195
0.13
185
0.09
81
0.15
245
0.14
177
0.34
281
0.26
103
iResNet_ROBtwo views0.60
147
1.59
345
2.04
50
0.32
91
0.21
77
0.60
142
0.22
39
0.99
275
0.85
289
0.61
204
0.63
212
0.58
179
0.42
174
1.08
191
0.98
265
0.11
110
0.08
38
0.09
13
0.06
6
0.23
187
0.33
142
1111xtwo views1.06
336
0.79
187
3.29
325
0.33
111
0.60
302
0.64
207
0.33
203
1.10
338
0.92
313
0.59
188
0.69
242
0.59
182
0.47
218
2.64
367
4.61
400
0.12
143
1.38
373
0.11
92
0.49
365
0.18
110
1.30
357
NRIStereotwo views0.50
70
0.34
30
2.44
134
0.52
275
0.16
20
0.94
332
0.73
344
0.52
27
0.65
116
0.48
65
0.40
59
0.59
182
0.29
88
0.78
158
0.33
87
0.11
110
0.13
153
0.11
92
0.09
37
0.22
173
0.25
98
GEStereo_RVCtwo views0.61
154
1.19
272
2.61
208
0.48
255
0.25
124
0.63
195
0.37
227
1.05
315
0.79
249
0.55
141
0.55
149
0.59
182
0.44
195
1.10
193
0.48
145
0.16
247
0.11
125
0.12
135
0.11
109
0.27
234
0.43
198
RAFT + AFFtwo views0.79
265
1.73
359
2.99
302
0.34
128
0.35
217
0.67
241
0.51
289
1.05
315
0.79
249
0.54
130
0.58
177
0.59
182
0.81
316
1.80
294
1.21
291
0.13
185
0.27
255
0.15
245
0.14
177
0.45
338
0.69
288
MMNettwo views0.55
103
0.92
219
2.03
47
0.34
128
0.27
149
0.79
296
0.28
133
0.86
190
0.79
249
0.62
216
0.58
177
0.59
182
0.56
251
0.80
163
0.61
187
0.11
110
0.11
125
0.12
135
0.11
109
0.21
159
0.22
77
DMCA-RVCcopylefttwo views0.70
227
1.30
297
3.59
356
0.37
167
0.89
347
0.57
105
0.31
180
0.73
106
0.59
76
0.69
267
0.54
140
0.59
182
0.57
256
1.25
217
0.66
204
0.16
247
0.38
272
0.20
306
0.15
195
0.22
173
0.23
85
BEATNet_4xtwo views0.57
118
1.16
263
2.56
193
0.35
143
0.16
20
0.56
86
0.25
99
0.91
226
0.64
109
0.55
141
0.53
126
0.59
182
0.43
187
0.67
128
0.76
227
0.12
143
0.09
81
0.12
135
0.09
37
0.23
187
0.58
256
IERtwo views0.49
66
0.73
166
2.12
64
0.27
22
0.25
124
0.65
221
0.27
125
0.76
112
0.59
76
0.56
151
0.59
182
0.60
189
0.53
242
0.64
118
0.44
131
0.12
143
0.09
81
0.11
92
0.11
109
0.18
110
0.15
30
iResNetv2_ROBtwo views0.71
231
1.90
370
3.48
346
0.43
233
0.22
86
0.60
142
0.29
158
0.96
257
0.78
240
0.60
197
0.65
226
0.60
189
0.46
210
0.80
163
1.21
291
0.12
143
0.08
38
0.10
46
0.07
12
0.44
336
0.33
142
UPFNettwo views0.51
80
0.67
144
2.04
50
0.34
128
0.33
200
0.65
221
0.37
227
0.88
205
0.65
116
0.60
197
0.53
126
0.61
191
0.41
163
0.77
154
0.55
172
0.13
185
0.13
153
0.13
191
0.13
159
0.20
150
0.16
43
FADNet_RVCtwo views0.87
297
1.51
336
2.90
289
0.31
74
0.24
118
0.71
257
0.25
99
1.00
281
0.65
116
0.45
51
0.57
171
0.61
191
0.44
195
1.53
249
0.75
224
0.94
380
0.97
337
0.28
337
1.00
399
0.89
377
1.36
363
ADCReftwo views0.88
298
1.45
329
2.68
239
0.38
185
0.35
217
0.95
334
0.51
289
0.92
233
0.81
263
0.89
319
0.84
300
0.61
191
1.35
357
1.26
219
3.38
381
0.14
215
0.12
140
0.17
275
0.19
249
0.28
244
0.34
149
TDLMtwo views0.83
277
1.28
294
2.38
105
0.46
248
0.26
138
0.66
234
0.55
302
0.87
197
0.80
256
2.54
399
0.62
204
0.61
191
0.51
232
2.68
372
0.67
206
0.20
296
0.11
125
0.35
354
0.15
195
0.33
275
0.48
224
AdaStereotwo views0.48
55
0.44
80
2.18
74
0.36
157
0.20
68
0.59
130
0.29
158
0.97
264
0.74
216
0.52
118
0.55
149
0.61
191
0.33
112
0.52
79
0.44
131
0.18
277
0.08
38
0.17
275
0.11
109
0.18
110
0.24
94
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
Any-RAFTtwo views0.42
22
0.33
23
1.89
26
0.28
34
0.21
77
0.69
250
0.21
30
0.83
161
0.60
80
0.45
51
0.43
64
0.62
196
0.30
98
0.48
59
0.24
15
0.11
110
0.40
278
0.08
3
0.06
6
0.10
10
0.16
43
iRaft-Stereo_5wtwo views0.65
191
1.35
308
2.21
80
0.30
60
0.63
312
0.49
38
0.28
133
0.78
125
0.64
109
0.41
33
0.61
197
0.62
196
0.46
210
1.79
293
0.48
145
0.10
47
0.25
246
0.11
92
0.12
139
0.40
323
0.94
323
pcwnet_v2two views0.65
191
0.54
107
4.29
385
0.33
111
0.27
149
0.60
142
0.25
99
1.02
295
0.92
313
0.61
204
0.69
242
0.62
196
0.54
244
0.67
128
0.38
113
0.18
277
0.15
180
0.15
245
0.14
177
0.21
159
0.49
230
FADNet-RVCtwo views0.69
222
1.65
354
2.74
259
0.35
143
0.26
138
0.60
142
0.29
158
0.91
226
0.67
135
0.46
61
0.51
116
0.62
196
0.46
210
1.75
283
0.81
242
0.17
266
0.20
221
0.17
275
0.18
233
0.60
359
0.39
177
GMStereo_Zeroshotpermissivetwo views0.44
37
0.44
80
1.84
18
0.44
238
0.20
68
0.52
61
0.19
12
0.60
65
0.54
54
0.58
169
0.59
182
0.63
200
0.29
88
0.59
102
0.34
95
0.16
247
0.09
81
0.16
261
0.09
37
0.26
223
0.26
103
BSDual-CNNtwo views0.48
55
0.32
14
1.58
4
0.31
74
0.22
86
0.76
277
0.32
190
1.05
315
0.67
135
0.64
236
0.53
126
0.63
200
0.38
135
0.48
59
0.97
259
0.13
185
0.10
104
0.14
220
0.12
139
0.13
35
0.15
30
psmgtwo views0.48
55
0.32
14
1.58
4
0.28
34
0.22
86
0.75
273
0.35
217
0.94
241
0.67
135
0.61
204
0.59
182
0.63
200
0.38
135
0.48
59
0.97
259
0.13
185
0.11
125
0.13
191
0.13
159
0.14
51
0.15
30
cross-rafttwo views0.47
48
0.34
30
2.17
72
0.70
329
0.84
343
0.50
44
0.35
217
0.74
108
0.43
13
0.44
49
0.45
76
0.63
200
0.25
41
0.37
25
0.27
37
0.08
1
0.14
166
0.10
46
0.23
276
0.11
17
0.27
108
FADNet-RVC-Resampletwo views0.74
244
1.54
338
3.81
366
0.38
185
0.29
164
0.62
182
0.38
235
0.91
226
0.67
135
0.52
118
0.51
116
0.63
200
0.44
195
1.56
253
0.59
180
0.24
324
0.32
260
0.22
314
0.19
249
0.30
258
0.71
293
SuperBtwo views1.19
348
1.62
350
5.29
399
0.37
167
0.26
138
0.81
304
0.87
355
0.94
241
1.19
361
0.68
262
0.68
238
0.63
200
1.37
360
1.73
280
3.30
378
0.16
247
0.12
140
0.17
275
0.16
212
2.74
410
0.63
270
dadtwo views0.58
126
1.35
308
2.39
111
0.31
74
0.20
68
0.62
182
0.26
111
0.56
48
0.79
249
0.66
254
0.64
219
0.64
206
0.36
123
0.87
171
0.48
145
0.28
340
0.15
180
0.40
360
0.18
233
0.24
193
0.22
77
CC-Net-ROBtwo views0.95
318
1.57
340
2.93
292
0.90
349
0.39
237
0.87
318
0.44
265
1.12
344
0.83
274
0.59
188
0.69
242
0.64
206
0.50
228
2.73
376
0.93
256
0.97
383
0.40
278
0.87
382
0.29
304
0.61
362
0.66
277
Anonymous Stereotwo views0.83
277
1.57
340
3.56
353
0.46
248
0.39
237
0.63
195
0.84
353
0.92
233
0.83
274
0.68
262
0.68
238
0.64
206
0.42
174
2.42
354
1.02
271
0.23
317
0.23
236
0.19
296
0.20
258
0.31
266
0.40
182
PWCDC_ROBbinarytwo views0.83
277
1.57
340
2.63
213
0.48
255
0.37
229
0.78
292
0.29
158
1.04
307
1.36
371
0.63
225
2.05
376
0.64
206
0.70
297
1.10
193
1.20
290
0.33
349
0.14
166
0.15
245
0.12
139
0.63
363
0.46
218
anonymousdsp2two views0.88
298
0.31
7
1.96
38
1.06
361
1.56
392
0.57
105
0.22
39
0.84
168
0.98
334
1.20
354
0.37
42
0.65
210
0.26
49
1.19
208
0.46
139
0.10
47
2.40
408
0.10
46
0.13
159
0.19
133
2.96
407
BUStwo views0.45
40
0.32
14
1.58
4
0.31
74
0.22
86
0.91
326
0.23
58
1.05
315
0.67
135
0.64
236
0.53
126
0.65
210
0.32
107
0.48
59
0.34
95
0.13
185
0.10
104
0.14
220
0.12
139
0.13
35
0.15
30
NINENettwo views0.54
99
0.40
63
2.19
75
0.55
286
0.26
138
0.91
326
0.23
58
1.05
315
0.77
237
0.54
130
0.57
171
0.65
210
0.32
107
1.22
210
0.34
95
0.16
247
0.13
153
0.16
261
0.11
109
0.16
69
0.14
24
CSP-Nettwo views0.55
103
0.61
132
1.81
14
0.30
60
0.23
109
0.77
287
0.35
217
0.90
219
0.62
92
0.62
216
0.60
189
0.65
210
0.42
174
1.76
285
0.47
142
0.17
266
0.12
140
0.10
46
0.10
71
0.21
159
0.16
43
Consistency-Rafttwo views0.92
311
1.21
276
3.50
347
0.98
357
0.63
312
0.77
287
0.54
298
1.02
295
1.01
339
0.62
216
1.03
337
0.65
210
1.04
345
0.81
166
1.36
306
0.45
361
0.47
287
0.51
370
0.59
378
0.65
365
0.47
220
DeepPrunerFtwo views0.92
311
1.33
303
3.41
340
0.46
248
0.51
277
0.64
207
0.49
286
1.16
350
2.62
395
0.65
248
0.61
197
0.65
210
0.62
275
2.23
338
1.31
300
0.23
317
0.19
209
0.30
346
0.28
300
0.39
317
0.34
149
DeepPruner_ROBtwo views0.58
126
1.06
238
2.68
239
0.30
60
0.26
138
0.63
195
0.31
180
0.83
161
0.51
40
0.62
216
0.56
161
0.65
210
0.39
146
1.06
188
0.56
174
0.19
288
0.14
166
0.14
220
0.14
177
0.24
193
0.33
142
AACVNettwo views0.61
154
1.13
254
2.47
162
0.37
167
0.21
77
0.57
105
0.25
99
0.75
110
0.55
59
0.56
151
0.60
189
0.66
217
0.44
195
2.11
332
0.49
154
0.14
215
0.11
125
0.14
220
0.11
109
0.35
292
0.23
85
FADNettwo views0.71
231
1.60
349
2.53
178
0.33
111
0.30
175
0.67
241
0.29
158
0.92
233
0.75
221
0.45
51
0.49
102
0.66
217
0.57
256
1.85
304
0.85
249
0.46
363
0.20
221
0.17
275
0.20
258
0.60
359
0.37
162
DualNettwo views0.97
322
0.67
144
3.39
334
0.32
91
0.22
86
0.58
112
0.28
133
0.85
178
0.96
327
0.54
130
0.74
276
0.67
219
0.40
152
0.64
118
3.86
390
0.10
47
2.16
401
0.15
245
0.33
330
0.25
208
2.19
391
ffmtwo views0.78
262
0.67
144
3.39
334
0.32
91
0.22
86
0.58
112
0.28
133
0.85
178
0.96
327
0.54
130
0.74
276
0.67
219
0.40
152
0.64
118
0.22
4
0.10
47
2.16
401
0.15
245
0.33
330
0.25
208
2.19
391
ff1two views1.07
338
0.67
144
3.39
334
0.32
91
0.22
86
0.58
112
0.28
133
0.85
178
0.96
327
0.54
130
0.74
276
0.67
219
0.40
152
2.75
378
3.86
390
0.10
47
2.16
401
0.15
245
0.33
330
0.25
208
2.19
391
mmxtwo views0.99
326
0.67
144
3.39
334
0.32
91
0.22
86
0.58
112
0.28
133
1.05
315
0.92
313
0.54
130
0.74
276
0.67
219
0.40
152
2.75
378
3.86
390
0.13
185
1.25
360
0.15
245
0.33
330
0.19
133
1.28
355
xxxcopylefttwo views0.99
326
0.67
144
3.39
334
0.32
91
0.22
86
0.58
112
0.28
133
1.05
315
0.92
313
0.54
130
0.74
276
0.67
219
0.40
152
2.75
378
3.86
390
0.13
185
1.25
360
0.15
245
0.33
330
0.19
133
1.28
355
RAFT_CTSACEtwo views0.58
126
1.16
263
2.76
264
0.36
157
0.29
164
0.54
73
0.29
158
0.69
91
0.51
40
0.51
110
0.75
283
0.67
219
0.37
128
0.63
114
0.47
142
0.08
1
0.49
291
0.11
92
0.10
71
0.41
329
0.32
139
PSM-AADtwo views0.67
211
0.29
2
2.41
117
0.37
167
0.23
109
0.86
314
1.15
377
0.62
70
0.66
123
0.64
236
0.71
268
0.67
219
2.90
396
0.65
122
0.32
78
0.10
47
0.08
38
0.17
275
0.15
195
0.14
51
0.34
149
delettwo views0.60
147
0.84
192
2.45
150
0.33
111
0.35
217
0.73
266
0.46
275
0.89
211
0.80
256
0.58
169
0.62
204
0.67
219
0.51
232
1.14
202
0.64
196
0.12
143
0.12
140
0.13
191
0.14
177
0.22
173
0.29
120
GANet-RSSMtwo views0.63
179
1.14
255
2.67
234
0.38
185
0.26
138
0.59
130
0.29
158
0.81
144
0.56
63
0.50
99
0.57
171
0.67
219
0.50
228
1.91
317
0.50
157
0.14
215
0.10
104
0.24
326
0.12
139
0.36
298
0.28
114
DSFCAtwo views0.62
167
0.77
182
1.95
35
0.29
46
0.29
164
0.79
296
0.86
354
0.81
144
0.73
199
0.73
282
0.66
232
0.67
219
0.57
256
1.17
206
1.03
272
0.16
247
0.15
180
0.13
191
0.14
177
0.19
133
0.28
114
STTStereotwo views0.58
126
0.95
223
2.95
295
0.37
167
0.31
183
0.62
182
0.32
190
0.81
144
0.63
103
0.61
204
0.55
149
0.67
219
0.43
187
0.87
171
0.48
145
0.16
247
0.16
192
0.17
275
0.20
258
0.17
90
0.25
98
UCFNet_RVCtwo views0.55
103
1.16
263
2.48
167
0.31
74
0.27
149
0.65
221
0.28
133
0.76
112
0.58
72
0.51
110
0.53
126
0.67
219
0.42
174
0.91
176
0.45
135
0.16
247
0.11
125
0.17
275
0.17
225
0.20
150
0.23
85
PCWNet_CMDtwo views0.48
55
0.50
95
2.23
82
0.27
22
0.20
68
0.56
86
0.22
39
0.78
125
0.67
135
0.49
81
0.55
149
0.68
231
0.56
251
0.48
59
0.32
78
0.11
110
0.10
104
0.14
220
0.10
71
0.19
133
0.43
198
CFNet_ucstwo views0.50
70
0.55
114
2.28
88
0.27
22
0.22
86
0.58
112
0.23
58
0.90
219
0.69
167
0.54
130
0.64
219
0.68
231
0.44
195
0.55
92
0.34
95
0.14
215
0.12
140
0.16
261
0.11
109
0.19
133
0.38
170
HBP-ISPtwo views0.82
273
1.57
340
3.28
323
0.50
271
0.27
149
0.86
314
0.54
298
1.09
335
0.78
240
0.81
306
0.70
255
0.68
231
1.00
342
2.02
323
0.47
142
0.24
324
0.24
239
0.29
345
0.25
284
0.28
244
0.52
241
Wz-Net-LNSev-Reftwo views0.65
191
1.15
261
2.40
113
0.33
111
0.30
175
0.83
307
0.40
244
0.94
241
0.82
268
0.67
256
0.76
286
0.68
231
0.58
263
1.13
200
1.25
297
0.14
215
0.08
38
0.10
46
0.08
27
0.18
110
0.28
114
OMP-Stereotwo views0.64
186
0.87
197
2.38
105
0.56
295
0.37
229
0.60
142
0.26
111
0.75
110
0.71
189
0.65
248
0.60
189
0.68
231
0.32
107
2.07
326
1.18
287
0.11
110
0.08
38
0.12
135
0.09
37
0.17
90
0.28
114
CFNet_pseudotwo views0.47
48
0.50
95
2.19
75
0.26
15
0.20
68
0.56
86
0.22
39
0.80
137
0.62
92
0.50
99
0.56
161
0.68
231
0.47
218
0.53
86
0.33
87
0.11
110
0.10
104
0.15
245
0.10
71
0.18
110
0.33
142
psm_uptwo views0.65
191
1.02
230
2.53
178
0.36
157
0.31
183
0.64
207
0.38
235
0.96
257
0.73
199
0.63
225
0.57
171
0.68
231
0.57
256
1.90
316
0.52
162
0.17
266
0.15
180
0.16
261
0.15
195
0.27
234
0.22
77
MSMDNettwo views0.48
55
0.50
95
2.23
82
0.27
22
0.20
68
0.56
86
0.22
39
0.78
125
0.67
135
0.49
81
0.55
149
0.68
231
0.56
251
0.48
59
0.32
78
0.11
110
0.10
104
0.13
191
0.10
71
0.18
110
0.43
198
CVANet_RVCtwo views0.82
273
1.18
269
3.98
371
0.40
211
0.28
159
0.63
195
0.43
259
0.90
219
0.78
240
1.14
345
0.69
242
0.68
231
0.52
239
2.62
365
0.48
145
0.20
296
0.13
153
0.22
314
0.37
344
0.37
304
0.48
224
ccs_robtwo views0.47
48
0.50
95
2.19
75
0.26
15
0.20
68
0.56
86
0.22
39
0.80
137
0.62
92
0.50
99
0.56
161
0.68
231
0.47
218
0.53
86
0.33
87
0.11
110
0.10
104
0.16
261
0.10
71
0.18
110
0.33
142
DRN-Testtwo views0.71
231
0.79
187
2.83
278
0.40
211
0.44
260
0.80
299
0.41
246
1.07
330
0.83
274
0.82
310
0.64
219
0.68
231
0.57
256
1.78
291
0.79
236
0.16
247
0.13
153
0.17
275
0.16
212
0.24
193
0.51
236
SACVNettwo views0.68
216
1.08
242
2.58
197
0.38
185
0.28
159
0.65
221
0.37
227
0.91
226
0.65
116
0.67
256
0.62
204
0.69
242
0.47
218
2.07
326
0.65
201
0.18
277
0.14
166
0.16
261
0.15
195
0.39
317
0.41
189
IIG-Stereotwo views0.65
191
0.87
197
2.32
96
0.55
286
0.23
109
0.62
182
0.21
30
0.78
125
0.71
189
0.64
236
0.69
242
0.69
242
0.38
135
2.07
326
1.37
308
0.11
110
0.08
38
0.11
92
0.09
37
0.15
60
0.27
108
ACVNettwo views0.54
99
0.87
197
2.45
150
0.28
34
0.22
86
0.59
130
0.36
224
0.69
91
0.73
199
0.49
81
0.59
182
0.69
242
0.42
174
0.47
51
0.70
212
0.11
110
0.10
104
0.10
46
0.09
37
0.36
298
0.39
177
acv_fttwo views0.57
118
0.87
197
2.45
150
0.33
111
0.41
248
0.63
195
0.29
158
0.86
190
0.73
199
0.64
236
0.59
182
0.69
242
0.45
203
0.47
51
0.68
209
0.11
110
0.10
104
0.10
46
0.09
37
0.43
333
0.39
177
HGLStereotwo views0.61
154
1.20
274
2.59
199
0.36
157
0.40
243
0.65
221
0.30
170
0.87
197
0.67
135
0.60
197
0.70
255
0.69
242
0.56
251
1.07
190
0.59
180
0.14
215
0.13
153
0.13
191
0.12
139
0.23
187
0.23
85
PSMNet-RSSMtwo views0.61
154
1.19
272
2.43
126
0.33
111
0.25
124
0.59
130
0.28
133
0.88
205
0.65
116
0.54
130
0.62
204
0.69
242
0.46
210
1.67
274
0.50
157
0.15
233
0.10
104
0.14
220
0.16
212
0.20
150
0.28
114
PSMNet-ADLtwo views0.56
111
0.47
85
2.03
47
0.35
143
0.22
86
0.67
241
0.27
125
0.77
118
0.58
72
0.43
43
0.53
126
0.70
248
0.45
203
1.89
311
0.64
196
0.16
247
0.13
153
0.11
92
0.13
159
0.15
60
0.51
236
PA-Nettwo views0.93
316
1.36
312
4.14
376
0.64
314
0.41
248
0.70
253
0.53
295
0.91
226
0.88
301
0.53
126
0.60
189
0.70
248
0.54
244
2.40
351
2.57
366
0.17
266
0.28
257
0.19
296
0.28
300
0.25
208
0.48
224
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NLCA_NET_v2_RVCtwo views0.62
167
1.15
261
3.11
312
0.39
198
0.37
229
0.60
142
0.28
133
0.87
197
0.64
109
0.63
225
0.56
161
0.71
250
0.45
203
1.08
191
0.52
162
0.15
233
0.12
140
0.14
220
0.15
195
0.18
110
0.25
98
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
ToySttwo views0.67
211
0.88
201
2.61
208
0.39
198
0.73
328
0.61
160
0.38
235
0.78
125
0.73
199
0.43
43
0.70
255
0.72
251
0.45
203
0.66
125
0.62
190
0.14
215
0.63
312
0.13
191
0.33
330
0.24
193
1.18
342
UNettwo views0.56
111
0.58
119
2.81
274
0.32
91
0.33
200
0.74
271
0.27
125
0.86
190
0.67
135
0.55
141
0.55
149
0.72
251
0.55
249
0.79
159
0.58
178
0.12
143
0.09
81
0.13
191
0.11
109
0.20
150
0.19
60
GwcNet-RSSMtwo views0.64
186
1.38
318
2.69
245
0.33
111
0.26
138
0.60
142
0.32
190
0.84
168
0.73
199
0.56
151
0.65
226
0.72
251
0.42
174
1.78
291
0.60
182
0.14
215
0.10
104
0.12
135
0.13
159
0.26
223
0.26
103
STTRV1_RVCtwo views0.59
125
0.43
233
0.49
274
0.80
299
0.44
265
1.18
355
0.84
286
0.63
225
0.89
314
0.72
251
0.63
279
2.67
369
0.67
206
0.51
365
0.65
314
0.27
334
0.24
278
0.35
292
0.29
120
GANetREF_RVCpermissivetwo views0.81
270
1.44
328
3.04
306
0.49
266
0.27
149
0.83
307
0.63
325
1.03
301
0.92
313
0.63
225
0.61
197
0.72
251
0.59
266
2.40
351
0.58
178
0.33
349
0.25
246
0.37
357
0.25
284
0.41
329
0.36
161
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
NVstereo2Dtwo views0.63
179
0.57
117
2.29
90
0.37
167
0.35
217
0.69
250
0.49
286
0.96
257
0.88
301
0.49
81
0.54
140
0.72
251
0.46
210
1.98
321
0.50
157
0.19
288
0.20
221
0.18
291
0.16
212
0.28
244
0.34
149
SQANettwo views0.92
311
1.96
371
3.23
317
0.77
337
0.83
341
0.76
277
0.38
235
0.87
197
0.68
159
0.64
236
0.69
242
0.73
257
0.52
239
1.35
228
1.36
306
0.80
376
0.30
258
0.60
374
0.29
304
0.93
378
0.70
291
iinet-ftwo views0.62
167
1.18
269
2.55
189
0.33
111
0.25
124
0.82
306
0.34
208
0.87
197
0.69
167
0.56
151
0.64
219
0.73
257
0.67
289
0.80
163
0.81
242
0.14
215
0.13
153
0.11
92
0.10
71
0.44
336
0.26
103
GASNettwo views0.84
280
1.98
373
4.07
374
0.48
255
0.33
200
0.58
112
0.34
208
0.97
264
0.81
263
0.60
197
0.59
182
0.74
259
0.55
249
2.08
329
1.18
287
0.22
309
0.15
180
0.19
296
0.17
225
0.55
355
0.29
120
Syn2CoExtwo views0.78
262
1.43
327
3.54
352
0.44
238
0.31
183
0.64
207
0.43
259
1.04
307
0.83
274
0.64
236
0.77
290
0.74
259
0.74
306
1.91
317
0.64
196
0.20
296
0.17
199
0.19
296
0.15
195
0.30
258
0.59
259
StereoDRNet-Refinedtwo views0.55
103
0.61
132
2.07
54
0.34
128
0.21
77
0.68
247
0.26
111
0.87
197
0.73
199
0.70
270
0.69
242
0.74
259
0.45
203
1.10
193
0.62
190
0.12
143
0.09
81
0.14
220
0.14
177
0.27
234
0.24
94
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
StereoDRNettwo views0.71
231
1.24
286
2.56
193
0.42
223
0.45
263
0.73
266
0.46
275
0.98
270
0.81
263
0.77
294
0.56
161
0.74
259
0.48
224
1.69
278
0.91
255
0.15
233
0.14
166
0.15
245
0.15
195
0.26
223
0.51
236
Wz-Net-MNSevtwo views0.74
244
1.42
324
2.75
261
0.38
185
0.33
200
0.90
325
0.61
322
0.98
270
0.94
320
0.77
294
0.75
283
0.75
263
0.66
287
1.39
230
0.76
227
0.17
266
0.13
153
0.14
220
0.14
177
0.28
244
0.48
224
MIPNettwo views0.88
298
1.07
239
2.85
282
0.61
307
0.18
47
1.46
365
1.37
387
1.65
381
0.78
240
1.93
384
0.85
303
0.75
263
1.66
373
0.87
171
0.34
95
0.10
47
0.08
38
0.11
92
0.32
320
0.27
234
0.26
103
MaskLacGwcNet_RVCtwo views0.84
280
1.41
320
2.80
270
0.94
353
0.35
217
0.89
322
0.41
246
0.89
211
0.66
123
0.57
163
0.63
212
0.75
263
0.38
135
2.37
346
0.55
172
1.16
390
0.31
259
0.36
355
0.21
269
0.59
358
0.63
270
PSMNet_ROBtwo views0.75
253
1.42
324
2.93
292
0.39
198
0.32
194
0.73
266
0.56
306
0.90
219
0.74
216
0.56
151
0.60
189
0.75
263
0.47
218
2.00
322
1.31
300
0.18
277
0.13
153
0.19
296
0.20
258
0.26
223
0.40
182
fast-acv-fttwo views0.67
211
1.24
286
3.26
321
0.39
198
0.30
175
0.80
299
0.48
281
0.74
108
0.76
229
0.60
197
0.78
294
0.76
267
0.60
271
0.70
135
0.78
233
0.16
247
0.15
180
0.18
291
0.17
225
0.38
310
0.24
94
APVNettwo views0.76
256
1.11
250
3.23
317
0.39
198
0.36
223
0.85
313
0.44
265
0.96
257
0.73
199
0.58
169
0.69
242
0.76
267
0.56
251
2.29
341
0.82
245
0.17
266
0.18
205
0.24
326
0.19
249
0.35
292
0.27
108
cf-rtwo views0.62
167
1.27
292
2.99
302
0.34
128
0.28
159
0.60
142
0.28
133
0.82
151
0.70
177
0.55
141
0.61
197
0.77
269
0.41
163
1.32
225
0.52
162
0.13
185
0.09
81
0.11
92
0.12
139
0.22
173
0.27
108
HSM-Net_RVCpermissivetwo views0.70
227
0.40
63
2.45
150
0.27
22
0.19
63
0.68
247
0.30
170
1.29
363
0.73
199
0.73
282
0.70
255
0.77
269
0.45
203
3.73
400
0.46
139
0.13
185
0.09
81
0.10
46
0.09
37
0.13
35
0.32
139
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
NaN_ROBtwo views1.25
351
1.46
331
3.84
368
0.54
285
0.56
289
1.12
351
0.99
363
1.05
315
1.03
341
1.10
341
0.87
310
0.77
269
1.07
347
5.85
408
2.98
374
0.16
247
0.23
236
0.16
261
0.24
278
0.28
244
0.66
277
NOSS_ROBtwo views0.75
253
1.03
233
2.27
86
0.68
327
0.26
138
0.68
247
0.30
170
0.99
275
0.82
268
0.59
188
0.58
177
0.77
269
0.39
146
2.75
378
0.48
145
0.25
330
0.24
239
0.28
337
0.26
290
0.29
252
1.07
337
CRFU-Nettwo views0.58
126
0.42
70
1.90
27
0.49
266
0.27
149
0.83
307
0.35
217
0.94
241
0.54
54
0.65
248
0.60
189
0.78
273
1.34
356
1.00
182
0.51
160
0.17
266
0.14
166
0.17
275
0.10
71
0.19
133
0.20
68
PWC_ROBbinarytwo views0.81
270
1.41
320
2.60
204
0.41
220
0.40
243
0.63
195
0.31
180
1.04
307
0.99
337
0.92
324
1.29
353
0.78
273
0.68
291
1.65
273
1.50
315
0.19
288
0.12
140
0.18
291
0.13
159
0.51
349
0.54
247
IGEV_Zeroshot_testtwo views0.91
310
0.39
59
3.80
365
0.42
223
1.95
400
0.56
86
0.64
326
0.84
168
0.55
59
1.45
373
0.53
126
0.79
275
0.42
174
0.57
98
1.13
282
0.10
47
0.49
291
0.10
46
0.34
336
0.19
133
2.97
408
hknettwo views0.53
92
0.39
59
2.04
50
0.31
74
0.24
118
0.76
277
0.32
190
1.05
315
0.71
189
0.64
236
0.53
126
0.79
275
0.40
152
0.84
168
0.78
233
0.12
143
0.10
104
0.14
220
0.12
139
0.13
35
0.15
30
RAFTtwo views0.62
167
1.35
308
2.26
85
0.62
309
0.53
284
0.47
30
0.35
217
0.70
98
0.58
72
0.50
99
0.50
114
0.79
275
0.40
152
0.49
69
0.36
104
0.11
110
0.79
329
0.14
220
0.13
159
0.52
352
0.72
294
DGSMNettwo views2.93
399
0.77
182
3.44
344
3.58
413
4.25
411
2.53
399
6.86
413
1.03
301
0.88
301
0.58
169
1.85
371
0.79
275
0.62
275
1.63
267
1.46
313
4.62
412
4.98
415
5.15
417
4.71
416
4.52
416
4.37
413
CFNet-ftpermissivetwo views0.60
147
1.16
263
2.45
150
0.29
46
0.30
175
0.64
207
0.28
133
0.69
91
0.57
66
0.49
81
0.57
171
0.79
275
0.44
195
1.48
244
0.62
190
0.15
233
0.10
104
0.28
337
0.14
177
0.21
159
0.29
120
CFNet_RVCtwo views0.60
147
1.16
263
2.45
150
0.29
46
0.30
175
0.64
207
0.28
133
0.69
91
0.57
66
0.49
81
0.57
171
0.79
275
0.44
195
1.48
244
0.62
190
0.15
233
0.10
104
0.28
337
0.14
177
0.21
159
0.29
120
Wz-Net-LNSevtwo views0.66
208
1.30
297
2.81
274
0.35
143
0.37
229
0.80
299
0.48
281
0.91
226
0.87
297
0.63
225
0.70
255
0.80
281
0.59
266
0.67
128
0.68
209
0.15
233
0.14
166
0.12
135
0.12
139
0.24
193
0.38
170
ADLNettwo views0.68
216
1.02
230
2.68
239
0.35
143
0.34
209
0.67
241
0.34
208
0.95
254
0.79
249
0.70
270
0.62
204
0.80
281
0.46
210
1.77
288
0.69
211
0.15
233
0.12
140
0.14
220
0.14
177
0.31
266
0.54
247
AANet_RVCtwo views0.79
265
1.46
331
2.72
252
0.34
128
0.25
124
0.59
130
0.32
190
0.88
205
0.83
274
0.62
216
0.95
323
0.80
281
0.43
187
2.46
356
1.72
324
0.38
353
0.26
249
0.10
46
0.09
37
0.25
208
0.43
198
ssnet_v2two views0.64
186
0.99
225
2.67
234
0.33
111
0.22
86
0.72
263
0.45
270
1.00
281
0.80
256
0.66
254
0.54
140
0.81
284
0.48
224
0.91
176
1.08
277
0.16
247
0.14
166
0.14
220
0.14
177
0.33
275
0.31
137
anonymitytwo views0.86
291
0.68
151
1.44
2
0.64
314
0.83
341
0.67
241
0.52
293
0.98
270
0.73
199
0.96
328
0.70
255
0.81
284
0.86
325
1.10
193
1.34
302
0.64
370
0.72
327
0.58
372
1.44
407
0.60
359
0.91
320
XPNet_ROBtwo views0.68
216
1.11
250
2.28
88
0.38
185
0.27
149
0.67
241
0.47
279
0.94
241
0.75
221
0.80
305
0.71
268
0.81
284
0.54
244
1.72
279
0.84
248
0.22
309
0.16
192
0.16
261
0.15
195
0.25
208
0.45
215
anonymousatwo views0.74
244
0.60
127
2.58
197
0.96
355
1.33
382
0.61
160
0.26
111
0.69
91
0.56
63
0.55
141
0.84
300
0.82
287
0.46
210
0.56
95
0.61
187
0.10
47
1.11
351
0.12
135
0.98
398
0.14
51
0.97
331
ccnettwo views0.77
260
0.61
132
2.01
43
0.40
211
0.46
270
1.05
343
0.59
314
1.02
295
0.74
216
0.90
321
0.97
325
0.82
287
0.89
330
1.68
277
1.16
286
0.32
347
0.26
249
0.32
349
0.28
300
0.35
292
0.47
220
aanetorigintwo views0.81
270
1.03
233
2.64
222
0.44
238
0.44
260
0.59
130
1.00
367
0.59
62
0.70
177
1.54
378
1.22
350
0.82
287
1.08
348
1.06
188
1.07
276
0.18
277
0.15
180
0.17
275
0.21
269
0.53
353
0.65
276
GwcNetcopylefttwo views0.76
256
1.09
243
3.68
359
0.38
185
0.45
263
0.81
304
0.45
270
0.91
226
0.89
306
0.63
225
0.77
290
0.82
287
0.51
232
1.64
270
0.85
249
0.17
266
0.16
192
0.15
245
0.15
195
0.33
275
0.34
149
S-Stereotwo views0.82
273
0.73
166
3.79
364
0.40
211
0.37
229
0.70
253
0.69
339
1.00
281
1.03
341
0.63
225
0.92
318
0.82
287
0.59
266
2.35
345
0.71
216
0.18
277
0.22
231
0.17
275
0.18
233
0.30
258
0.67
279
MyStereo06two views0.70
227
0.72
163
3.51
348
0.31
74
0.25
124
0.60
142
0.30
170
0.90
219
0.67
135
1.48
376
0.53
126
0.84
292
0.57
256
0.60
107
1.11
280
0.09
11
0.55
299
0.12
135
0.20
258
0.16
69
0.56
254
RTSCtwo views0.84
280
1.40
319
2.67
234
0.50
271
0.40
243
0.83
307
0.33
203
1.11
342
1.14
356
0.93
327
0.82
296
0.84
292
0.58
263
1.34
227
1.82
332
0.18
277
0.49
291
0.14
220
0.30
310
0.46
342
0.42
193
GANettwo views0.92
311
1.20
274
2.68
239
0.45
245
0.27
149
0.76
277
0.66
331
0.94
241
0.77
237
0.79
303
1.17
346
0.84
292
0.91
332
2.72
374
1.76
328
0.18
277
0.42
280
0.44
367
0.20
258
0.33
275
0.94
323
MFMNet_retwo views1.01
328
1.73
359
3.04
306
0.85
345
0.76
333
0.93
330
0.81
351
1.02
295
1.10
351
1.05
337
1.06
342
0.84
292
0.96
339
0.93
178
0.97
259
0.68
373
0.61
308
0.63
375
0.60
380
0.77
373
0.80
305
DLCB_ROBtwo views0.61
154
0.96
224
2.00
41
0.37
167
0.25
124
0.65
221
0.37
227
0.86
190
0.76
229
0.73
282
0.70
255
0.84
292
0.47
218
1.57
257
0.72
220
0.13
185
0.13
153
0.14
220
0.14
177
0.18
110
0.33
142
LL-Strereotwo views0.85
288
1.73
359
3.06
310
0.37
167
0.61
309
0.54
73
0.33
203
1.01
289
0.76
229
0.69
267
0.58
177
0.85
297
0.78
313
2.65
368
0.54
170
0.14
215
0.58
305
0.14
220
0.12
139
0.42
331
1.05
335
iRaft-Stereo_20wtwo views1.50
370
0.42
70
4.81
392
2.24
404
2.09
403
1.36
360
1.27
384
1.38
369
0.94
320
2.07
385
0.42
62
0.85
297
0.69
295
0.87
171
1.37
308
0.10
47
4.04
414
0.09
13
0.40
351
0.17
90
4.53
414
XX-Stereotwo views0.98
324
0.57
117
4.45
389
1.64
387
5.33
413
0.55
82
0.16
3
0.96
257
0.43
13
0.45
51
0.65
226
0.85
297
0.19
7
0.79
159
0.26
32
0.11
110
0.80
330
0.10
46
0.32
320
0.17
90
0.78
301
ADCP+two views1.03
333
1.68
357
3.83
367
0.35
143
0.39
237
1.05
343
0.79
350
0.94
241
0.86
295
0.69
267
0.68
238
0.85
297
1.53
372
1.02
184
4.56
399
0.13
185
0.12
140
0.16
261
0.15
195
0.28
244
0.44
210
NCCL2two views0.71
231
1.32
299
2.30
92
0.44
238
0.31
183
0.71
257
0.67
335
0.89
211
0.69
167
0.70
270
0.61
197
0.85
297
0.54
244
1.58
263
0.70
212
0.20
296
0.17
199
0.66
376
0.25
284
0.26
223
0.38
170
ETE_ROBtwo views0.68
216
1.09
243
2.32
96
0.38
185
0.26
138
0.69
250
0.51
289
1.49
375
0.75
221
0.81
306
0.71
268
0.85
297
0.51
232
1.39
230
0.70
212
0.17
266
0.14
166
0.19
296
0.16
212
0.24
193
0.35
155
HHtwo views0.79
265
0.52
102
2.72
252
1.45
377
0.80
339
0.91
326
0.23
58
0.76
112
0.76
229
0.64
236
0.55
149
0.87
303
0.41
163
0.94
179
0.45
135
0.09
11
1.20
355
0.10
46
0.09
37
0.16
69
2.16
389
HanStereotwo views0.79
265
0.52
102
2.72
252
1.45
377
0.80
339
0.91
326
0.23
58
0.76
112
0.76
229
0.64
236
0.55
149
0.87
303
0.41
163
0.94
179
0.45
135
0.09
11
1.20
355
0.10
46
0.09
37
0.16
69
2.16
389
AnyNet_C32two views1.08
341
1.76
363
3.01
304
0.50
271
0.54
285
1.17
356
1.16
379
0.97
264
0.95
325
1.11
342
0.98
328
0.87
303
0.93
337
1.57
257
4.11
396
0.22
309
0.20
221
0.25
331
0.25
284
0.40
323
0.68
284
CBMVpermissivetwo views0.86
291
1.00
226
2.82
276
0.35
143
0.21
77
0.78
292
0.78
348
1.05
315
0.87
297
0.90
321
0.74
276
0.87
303
1.89
383
1.67
274
1.38
310
0.19
288
0.20
221
0.21
310
0.19
249
0.28
244
0.84
309
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
STrans-v2two views0.69
222
0.62
136
2.66
227
0.28
34
0.23
109
0.57
105
0.32
190
1.01
289
0.77
237
0.92
324
0.84
300
0.88
307
0.92
335
1.81
296
1.19
289
0.10
47
0.07
6
0.10
46
0.09
37
0.12
25
0.30
129
ac_64two views0.63
179
0.77
182
2.71
250
0.37
167
0.34
209
0.64
207
0.30
170
0.86
190
0.67
135
0.58
169
0.53
126
0.88
307
0.48
224
1.84
302
0.71
216
0.15
233
0.12
140
0.12
135
0.12
139
0.21
159
0.25
98
CBMV_ROBtwo views0.88
298
0.75
179
2.73
257
0.36
157
0.22
86
0.76
277
0.47
279
1.05
315
0.81
263
1.06
339
1.04
339
0.88
307
1.36
359
2.17
336
2.03
338
0.23
317
0.24
239
0.27
334
0.25
284
0.27
234
0.73
295
PASMtwo views0.82
273
1.00
226
2.68
239
0.52
275
0.48
272
0.65
221
0.59
314
0.83
161
0.89
306
0.82
310
0.73
273
0.89
310
0.68
291
2.39
350
0.73
221
0.35
352
0.37
268
0.36
355
0.41
355
0.45
338
0.51
236
TransformOpticalFlowtwo views0.65
191
0.61
132
2.67
234
0.45
245
0.26
138
0.62
182
0.28
133
0.88
205
0.76
229
0.76
292
0.74
276
0.90
311
0.84
320
1.82
299
0.80
238
0.10
47
0.07
6
0.11
92
0.09
37
0.12
25
0.19
60
riskmintwo views0.96
319
0.32
14
2.07
54
1.72
392
1.61
395
1.62
374
0.57
309
1.45
373
0.55
59
0.73
282
0.89
314
0.92
312
0.45
203
1.16
204
0.60
182
0.11
110
1.30
369
0.12
135
1.38
406
0.14
51
1.51
370
DDUNettwo views0.90
308
1.63
352
2.77
266
0.77
337
0.69
324
0.83
307
0.44
265
0.90
219
0.70
177
0.68
262
0.76
286
0.92
312
0.54
244
1.14
202
1.35
304
0.61
369
0.37
268
0.96
385
0.52
370
0.77
373
0.67
279
ADLNet2two views0.73
241
1.22
281
3.28
323
0.34
128
0.36
223
0.65
221
0.37
227
0.94
241
0.87
297
0.57
163
0.65
226
0.92
312
0.48
224
2.05
324
0.60
182
0.13
185
0.11
125
0.11
92
0.11
109
0.37
304
0.38
170
XQCtwo views0.84
280
1.32
299
2.61
208
0.78
339
0.44
260
0.89
322
0.53
295
1.16
350
1.07
348
0.85
315
0.69
242
0.92
312
0.73
302
1.40
232
1.44
312
0.24
324
0.35
266
0.23
321
0.26
290
0.45
338
0.39
177
RYNettwo views0.77
260
0.91
214
2.36
101
0.37
167
0.41
248
0.88
320
0.44
265
0.99
275
0.88
301
0.65
248
0.54
140
0.92
312
0.61
273
2.70
373
1.23
295
0.15
233
0.14
166
0.17
275
0.14
177
0.27
234
0.55
253
Ntrotwo views1.11
343
2.10
383
3.52
350
0.97
356
0.87
346
1.06
346
0.54
298
1.02
295
0.93
319
0.63
225
0.76
286
0.93
317
0.67
289
1.76
285
1.71
322
1.03
385
0.46
285
0.76
381
0.41
355
1.29
388
0.86
316
RAFT-Testtwo views0.56
111
0.41
68
2.01
43
0.90
349
1.07
368
0.65
221
0.37
227
0.83
161
0.65
116
0.49
81
0.49
102
0.93
317
0.24
27
0.52
79
0.30
56
0.10
47
0.38
272
0.09
13
0.38
347
0.11
17
0.19
60
FAT-Stereotwo views0.72
239
0.60
127
2.86
284
0.37
167
0.29
164
0.64
207
0.55
302
1.01
289
0.91
311
0.76
292
0.94
320
0.93
317
0.79
315
1.82
299
0.60
182
0.19
288
0.19
209
0.17
275
0.16
212
0.23
187
0.47
220
NCC-stereotwo views0.88
298
1.22
281
2.97
297
0.60
301
0.45
263
1.88
384
0.48
281
1.04
307
0.75
221
0.70
270
0.85
303
0.93
317
0.84
320
1.81
296
1.51
316
0.28
340
0.19
209
0.23
321
0.31
315
0.27
234
0.35
155
Abc-Nettwo views0.88
298
1.22
281
2.97
297
0.60
301
0.45
263
1.88
384
0.48
281
1.04
307
0.75
221
0.70
270
0.85
303
0.93
317
0.84
320
1.81
296
1.51
316
0.28
340
0.19
209
0.23
321
0.31
315
0.27
234
0.35
155
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RASNettwo views0.69
222
1.05
237
2.59
199
0.37
167
0.47
271
0.66
234
0.33
203
0.82
151
0.76
229
0.51
110
0.65
226
0.93
317
0.62
275
2.20
337
0.80
238
0.14
215
0.09
81
0.09
13
0.11
109
0.18
110
0.37
162
LSMtwo views3.40
402
1.42
324
5.81
403
9.98
419
30.74
433
0.86
314
1.14
375
0.99
275
1.26
363
1.40
370
2.18
380
0.93
317
0.85
323
1.76
285
1.03
272
0.22
309
0.35
266
0.24
326
0.29
304
0.40
323
6.21
416
LALA_ROBtwo views0.68
216
1.14
255
2.50
173
0.37
167
0.29
164
0.78
292
0.55
302
0.99
275
0.84
286
0.82
310
0.68
238
0.93
317
0.50
228
1.01
183
0.89
253
0.21
304
0.15
180
0.21
310
0.18
233
0.26
223
0.30
129
Wz-Net-SNSevtwo views0.85
288
1.83
366
3.36
329
0.42
223
0.31
183
0.71
257
0.66
331
1.04
307
0.94
320
0.68
262
0.85
303
0.96
325
0.62
275
1.75
283
1.14
283
0.16
247
0.15
180
0.16
261
0.17
225
0.39
317
0.63
270
THIR-Stereotwo views0.88
298
0.85
194
2.33
98
0.26
15
0.16
20
0.59
130
2.69
401
0.62
70
0.54
54
0.62
216
1.61
366
0.96
325
1.77
379
1.67
274
2.20
351
0.10
47
0.08
38
0.14
220
0.11
109
0.16
69
0.21
72
DANettwo views0.85
288
0.68
151
2.41
117
1.18
369
0.48
272
0.77
287
1.23
383
0.93
236
1.53
378
0.90
321
0.72
271
0.97
327
0.57
256
1.86
306
1.05
274
0.18
277
0.16
192
0.19
296
0.16
212
0.26
223
0.67
279
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
otakutwo views1.15
346
2.10
383
3.51
348
0.98
357
0.74
329
1.02
340
0.59
314
1.03
301
0.89
306
0.70
270
1.60
365
0.98
328
0.65
281
1.63
267
1.80
331
0.99
384
0.46
285
0.73
380
0.40
351
1.30
390
0.88
317
SHDtwo views0.84
280
1.14
255
2.54
182
0.80
341
0.52
279
0.76
277
0.34
208
1.16
350
1.29
366
1.11
342
0.85
303
0.98
328
0.74
306
1.25
217
1.48
314
0.22
309
0.37
268
0.20
306
0.27
298
0.36
298
0.41
189
MDST_ROBtwo views1.28
353
0.53
105
3.84
368
0.55
286
0.45
263
4.06
406
0.60
317
1.36
368
0.89
306
2.18
390
1.17
346
0.98
328
0.72
299
4.28
403
2.12
345
0.20
296
0.16
192
0.19
296
0.17
225
0.20
150
0.84
309
RPtwo views0.74
244
1.01
229
2.48
167
0.44
238
0.45
263
0.66
234
0.45
270
0.95
254
0.87
297
0.70
270
0.95
323
0.99
331
0.82
317
1.55
251
0.82
245
0.26
334
0.19
209
0.23
321
0.20
258
0.34
281
0.38
170
Nwc_Nettwo views0.75
253
1.10
248
2.96
296
0.42
223
0.39
237
0.77
287
0.39
241
1.06
327
0.73
199
0.65
248
1.00
332
0.99
331
0.74
306
1.43
236
0.99
267
0.24
324
0.15
180
0.23
321
0.26
290
0.27
234
0.30
129
ADCLtwo views1.07
338
1.22
281
2.80
270
0.40
211
0.33
200
1.50
367
1.87
398
0.97
264
1.04
344
1.26
362
1.28
352
0.99
331
1.41
363
1.36
229
3.51
384
0.17
266
0.14
166
0.22
314
0.21
269
0.32
271
0.43
198
PDISCO_ROBtwo views0.84
280
1.46
331
2.84
280
0.65
316
0.59
297
1.17
356
0.48
281
1.19
356
1.08
350
0.67
256
0.72
271
1.00
334
0.61
273
1.24
214
1.05
274
0.38
353
0.18
205
0.28
337
0.24
278
0.58
357
0.44
210
UDGtwo views0.86
291
1.57
340
2.80
270
0.68
327
0.59
297
0.78
292
0.38
235
0.97
264
0.74
216
0.63
225
0.70
255
1.01
335
0.68
291
1.02
184
1.22
294
0.45
361
0.34
265
0.89
383
0.51
368
0.73
368
0.58
256
ADCMidtwo views1.06
336
1.82
365
3.53
351
0.39
198
0.36
223
0.99
337
0.58
311
1.01
289
0.94
320
1.23
360
1.02
335
1.01
335
1.01
343
1.11
197
4.04
394
0.22
309
0.19
209
0.42
364
0.32
320
0.42
331
0.53
244
FBW_ROBtwo views0.94
317
1.23
285
2.35
100
0.46
248
0.32
194
0.87
318
0.46
275
1.15
347
0.97
333
0.83
313
0.78
294
1.01
335
0.64
280
3.65
399
1.65
321
0.27
337
0.24
239
0.40
360
0.26
290
0.32
271
0.88
317
RGCtwo views0.78
262
1.10
248
2.55
189
0.45
245
0.45
263
0.73
266
0.40
244
1.00
281
0.75
221
0.75
290
1.04
339
1.02
338
0.73
302
1.74
282
1.15
284
0.24
324
0.19
209
0.28
337
0.26
290
0.31
266
0.38
170
CBFPSMtwo views0.62
167
1.34
305
2.12
64
0.30
60
0.23
109
0.71
257
0.38
235
0.77
118
0.68
159
0.51
110
0.49
102
1.03
339
0.82
317
0.63
114
1.35
304
0.11
110
0.12
140
0.10
46
0.10
71
0.19
133
0.37
162
Anonymous_2two views1.36
360
0.49
89
2.03
47
1.71
391
1.58
393
2.49
398
0.58
311
1.59
380
2.31
391
0.77
294
0.88
312
1.03
339
0.58
263
1.20
209
0.66
204
0.32
347
1.38
373
1.42
401
3.87
415
0.78
375
1.56
371
hitnet-ftcopylefttwo views0.73
241
1.09
243
2.59
199
0.28
34
0.22
86
0.71
257
0.36
224
0.89
211
0.67
135
0.58
169
0.83
298
1.03
339
0.94
338
2.31
342
0.70
212
0.23
317
0.14
166
0.41
362
0.13
159
0.24
193
0.28
114
SGM-Foresttwo views1.84
383
7.91
417
10.36
411
0.42
223
0.33
200
1.04
341
1.29
385
1.01
289
0.88
301
1.19
349
2.30
384
1.03
339
1.79
380
2.60
364
2.81
371
0.22
309
0.21
229
0.21
310
0.19
249
0.25
208
0.79
303
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
EDNetEfficienttwo views1.29
354
0.78
185
4.27
382
0.65
316
1.03
365
0.94
332
1.38
389
0.87
197
1.75
385
2.33
396
1.32
356
1.04
343
2.21
390
1.59
264
4.07
395
0.16
247
0.19
209
0.15
245
0.27
298
0.38
310
0.40
182
AF-Nettwo views0.76
256
1.14
255
2.74
259
0.42
223
0.41
248
0.70
253
0.41
246
1.07
330
0.94
320
0.73
282
1.05
341
1.04
343
0.86
325
1.23
212
1.00
269
0.23
317
0.15
180
0.25
331
0.18
233
0.32
271
0.35
155
CSANtwo views1.38
361
1.74
362
4.12
375
0.53
279
0.38
235
1.06
346
1.15
377
1.29
363
1.12
354
1.19
349
1.90
373
1.04
343
1.44
364
5.92
409
2.82
372
0.26
334
0.22
231
0.24
326
0.25
284
0.35
292
0.54
247
DPSNettwo views1.02
329
0.72
163
2.84
280
0.60
301
0.39
237
1.08
348
0.75
345
1.41
371
1.14
356
0.74
288
0.69
242
1.05
346
1.67
374
2.09
331
2.22
353
0.27
337
0.61
308
0.20
306
0.50
367
0.48
345
1.03
334
WZ-Nettwo views1.04
334
1.83
366
4.20
379
0.42
223
0.36
223
0.88
320
0.71
341
1.05
315
1.11
353
0.84
314
0.94
320
1.06
347
1.17
353
2.37
346
2.24
354
0.20
296
0.14
166
0.15
245
0.16
212
0.36
298
0.53
244
MFN_U_SF_DS_RVCtwo views1.08
341
2.01
377
2.56
193
0.49
266
0.40
243
1.49
366
0.96
362
1.02
295
0.95
325
0.85
315
0.94
320
1.06
347
0.59
266
2.92
384
1.15
284
0.43
359
0.74
328
0.32
349
0.55
373
0.74
369
1.35
361
DISCOtwo views0.61
154
0.63
138
1.98
40
0.46
248
0.34
209
0.84
312
0.35
217
0.88
205
0.81
263
0.61
204
0.64
219
1.06
347
0.53
242
1.11
197
0.83
247
0.13
185
0.10
104
0.11
92
0.10
71
0.26
223
0.37
162
RainbowNettwo views1.27
352
2.22
390
3.58
355
1.14
367
0.92
350
1.08
348
0.76
346
1.19
356
1.15
358
0.77
294
0.97
325
1.08
350
0.83
319
1.64
270
1.72
324
1.20
392
1.30
369
1.01
388
0.58
377
1.23
385
0.97
331
ADCStwo views1.14
345
2.02
378
3.36
329
0.43
233
0.37
229
0.96
336
0.81
351
1.12
344
1.17
360
1.25
361
0.98
328
1.08
350
0.92
335
1.41
234
4.97
402
0.23
317
0.21
229
0.22
314
0.23
276
0.40
323
0.67
279
ADCPNettwo views1.07
338
1.37
315
4.54
391
0.38
185
0.68
323
1.36
360
0.64
326
0.93
236
0.83
274
0.79
303
0.82
296
1.08
350
1.18
354
1.30
224
2.68
368
0.21
304
0.69
321
0.21
310
0.95
396
0.30
258
0.54
247
Wz-Net-TNSevtwo views1.02
329
2.26
394
3.69
360
0.38
185
0.31
183
1.00
338
0.71
341
1.12
344
1.02
340
0.74
288
0.73
273
1.09
353
0.91
332
2.46
356
2.15
348
0.21
304
0.20
221
0.16
261
0.20
258
0.48
345
0.62
266
RTStwo views1.29
354
1.59
345
6.48
406
0.63
311
0.57
292
1.59
372
0.90
359
1.15
347
1.44
373
1.20
354
1.31
354
1.10
354
0.87
328
2.67
369
2.27
356
0.21
304
0.38
272
0.19
296
0.20
258
0.46
342
0.68
284
RTSAtwo views1.29
354
1.59
345
6.48
406
0.63
311
0.57
292
1.59
372
0.90
359
1.15
347
1.44
373
1.20
354
1.31
354
1.10
354
0.87
328
2.67
369
2.27
356
0.21
304
0.38
272
0.19
296
0.20
258
0.46
342
0.68
284
raft_robusttwo views0.68
216
1.24
286
2.42
121
0.30
60
0.57
292
0.53
66
0.25
99
0.95
254
0.79
249
0.49
81
0.46
78
1.12
356
0.74
306
1.50
247
0.61
187
0.09
11
0.62
311
0.10
46
0.30
310
0.26
223
0.30
129
DispFullNettwo views1.69
381
2.25
392
5.23
397
1.53
383
8.78
414
0.89
322
0.37
227
1.03
301
0.98
334
1.37
366
1.00
332
1.13
357
1.97
385
1.51
248
0.98
265
0.55
368
0.32
260
1.19
392
0.64
381
1.16
383
0.88
317
edge stereotwo views0.84
280
0.74
175
3.42
343
0.38
185
1.21
377
0.63
195
0.41
246
0.98
270
0.83
274
0.81
306
0.88
312
1.14
358
0.73
302
2.16
335
0.89
253
0.22
309
0.20
221
0.26
333
0.18
233
0.38
310
0.43
198
PVDtwo views1.05
335
1.21
276
2.36
101
0.84
344
0.91
349
1.04
341
0.64
326
1.32
366
1.68
382
1.43
372
1.41
361
1.14
358
1.15
352
1.49
246
1.77
329
0.27
337
0.65
314
0.28
337
0.35
338
0.40
323
0.73
295
stereogantwo views0.74
244
0.68
151
2.82
276
0.40
211
0.40
243
1.05
343
0.42
252
0.99
275
0.96
327
0.78
302
0.86
308
1.15
360
0.73
302
1.57
257
0.56
174
0.20
296
0.19
209
0.20
306
0.16
212
0.37
304
0.34
149
AnyNet_C01two views1.20
349
1.89
369
4.25
381
0.55
286
0.54
285
1.57
370
1.39
390
1.10
338
1.13
355
1.19
349
1.34
358
1.15
360
1.11
350
1.73
280
2.89
373
0.26
334
0.24
239
0.28
337
0.24
278
0.50
347
0.68
284
psmorigintwo views1.41
363
0.91
214
13.83
417
0.37
167
0.30
175
0.63
195
0.37
227
0.80
137
0.64
109
0.98
329
0.87
310
1.16
362
0.78
313
3.95
401
1.09
278
0.19
288
0.22
231
0.17
275
0.19
249
0.25
208
0.47
220
MADNet+two views1.44
365
2.19
387
6.00
404
0.89
347
0.70
326
1.58
371
1.11
372
1.56
379
1.30
368
0.89
319
1.03
337
1.25
363
1.12
351
3.29
391
2.80
370
0.48
364
0.57
303
0.39
359
0.36
343
0.63
363
0.69
288
FTStereotwo views0.79
265
0.32
14
2.83
278
0.70
329
0.21
77
0.73
266
1.75
396
0.61
67
0.60
80
1.07
340
1.62
367
1.28
364
2.11
388
0.75
151
0.30
56
0.19
288
0.08
38
0.12
135
0.11
109
0.12
25
0.39
177
EDNetEfficientorigintwo views8.19
412
1.27
292
145.54
437
0.51
274
0.96
354
0.75
273
0.49
286
0.86
190
1.57
380
2.12
388
1.49
363
1.28
364
1.35
357
1.84
302
2.15
348
0.14
215
0.13
153
0.17
275
0.18
233
0.39
317
0.64
275
MSC_U_SF_DS_RVCtwo views1.40
362
2.04
380
3.02
305
0.58
300
0.41
248
2.15
393
1.00
367
1.31
365
1.29
366
1.05
337
1.10
344
1.29
366
0.91
332
3.07
387
1.34
302
1.65
402
0.84
332
0.68
378
0.88
393
1.55
397
1.91
379
G-Nettwo views1.02
329
0.70
156
3.23
317
0.60
301
0.66
319
2.00
390
0.71
341
0.78
125
0.70
177
1.14
345
2.53
388
1.29
366
1.01
343
1.47
243
1.74
326
0.25
330
0.24
239
0.24
326
0.26
290
0.37
304
0.40
182
FINETtwo views1.92
385
1.96
371
4.49
390
1.62
386
1.39
385
3.51
404
4.39
408
2.89
401
2.58
394
1.39
368
1.98
374
1.35
368
2.12
389
1.64
270
2.12
345
0.84
378
1.03
346
0.18
291
0.29
304
0.54
354
2.12
387
HSMtwo views0.67
211
0.92
219
2.29
90
0.30
60
0.29
164
0.65
221
0.29
158
0.98
270
0.67
135
0.59
188
0.58
177
1.39
369
0.65
281
2.56
360
0.45
135
0.11
110
0.09
81
0.10
46
0.08
27
0.18
110
0.24
94
MFN_U_SF_RVCtwo views1.57
377
2.56
407
3.30
326
0.66
320
0.41
248
1.15
354
0.51
289
1.27
361
1.35
370
1.61
380
1.20
348
1.43
370
0.97
340
1.80
294
2.10
343
1.88
405
1.79
384
1.97
410
2.14
409
1.61
398
1.76
378
SAMSARAtwo views1.11
343
1.35
308
2.60
204
1.34
372
0.77
335
1.67
377
1.41
393
1.47
374
0.99
337
1.54
378
0.89
314
1.44
371
0.90
331
1.88
310
1.71
322
0.25
330
0.55
299
0.22
314
0.34
336
0.39
317
0.50
232
SPS-STEREOcopylefttwo views1.22
350
1.65
354
3.41
340
0.66
320
0.69
324
1.01
339
0.68
337
1.10
338
0.96
327
1.40
370
1.25
351
1.46
372
1.08
348
2.05
324
2.24
354
0.66
371
0.61
308
0.58
372
0.57
376
0.66
366
1.65
375
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
IMH-64-1two views1.50
370
1.98
373
2.69
245
1.39
375
1.12
372
1.39
363
1.19
381
1.80
385
1.47
375
1.19
349
2.20
381
1.53
373
1.51
370
2.12
333
1.98
335
1.34
395
0.68
318
1.28
395
0.70
382
1.37
392
1.12
339
IMH-64two views1.50
370
1.98
373
2.69
245
1.39
375
1.12
372
1.39
363
1.19
381
1.80
385
1.47
375
1.19
349
2.20
381
1.53
373
1.51
370
2.12
333
1.98
335
1.34
395
0.68
318
1.28
395
0.70
382
1.37
392
1.12
339
coex-fttwo views6.14
410
1.98
373
60.80
435
0.34
128
0.30
175
0.80
299
1.17
380
0.76
112
4.34
403
19.82
423
2.15
379
1.61
375
8.77
413
1.82
299
10.36
415
0.44
360
2.05
390
0.18
291
0.19
249
0.39
317
4.61
415
NVStereoNet_ROBtwo views1.45
367
1.62
350
3.59
356
1.09
362
0.70
326
0.86
314
0.67
335
1.19
356
1.51
377
1.20
354
4.05
404
1.61
375
1.94
384
2.97
386
2.07
342
0.67
372
0.69
321
0.55
371
0.70
382
0.57
356
0.67
279
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SANettwo views1.35
359
1.80
364
4.39
387
0.41
220
0.29
164
1.72
379
0.89
358
1.17
353
2.47
393
1.22
358
1.82
370
1.72
377
1.70
376
2.57
361
3.30
378
0.18
277
0.16
192
0.16
261
0.15
195
0.34
281
0.62
266
PWCKtwo views1.62
380
2.32
399
4.27
382
1.11
365
0.56
289
1.81
382
1.84
397
1.55
378
1.54
379
1.45
373
1.81
369
1.82
378
1.38
361
3.34
392
2.14
347
1.09
388
0.57
303
0.98
386
0.59
378
1.50
396
0.79
303
ELAScopylefttwo views1.52
374
0.92
219
2.91
290
0.62
309
0.57
292
3.13
401
2.21
400
1.67
382
1.58
381
2.42
397
2.43
386
1.87
379
2.49
393
1.85
304
2.70
369
0.42
356
0.43
283
0.41
362
0.40
351
0.51
349
0.85
313
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ACVNet-4btwo views2.00
387
2.19
387
4.85
393
1.09
362
0.86
344
1.15
354
0.53
295
1.11
342
1.15
358
0.65
248
1.09
343
1.97
380
0.69
295
2.31
342
9.78
414
5.73
414
0.42
280
1.03
389
0.55
373
1.89
401
0.92
322
WAO-7two views1.58
378
2.04
380
3.25
320
0.94
353
0.75
330
1.75
380
1.13
374
1.87
388
1.97
389
1.46
375
2.53
388
1.98
381
1.75
377
3.13
388
2.48
361
0.69
374
0.67
317
0.94
384
0.74
387
0.80
376
0.77
298
ELAS_RVCcopylefttwo views1.51
373
0.88
201
3.36
329
0.63
311
0.56
289
1.53
368
2.73
402
1.53
376
1.76
386
2.26
394
2.21
383
2.10
382
3.07
398
2.08
329
2.52
362
0.42
356
0.42
280
0.42
364
0.37
344
0.51
349
0.84
309
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ACVNet_2two views1.54
375
2.20
389
4.42
388
1.10
364
0.93
352
1.37
362
0.87
355
1.53
376
1.71
384
1.22
358
1.72
368
2.12
383
1.06
346
2.58
362
1.93
334
0.94
380
0.54
297
1.00
387
0.56
375
2.11
405
0.96
328
WAO-6two views1.69
381
1.87
368
3.21
316
1.15
368
1.01
363
2.29
394
1.06
371
1.85
387
2.84
399
1.30
365
2.59
390
2.19
384
1.67
374
2.62
365
2.52
362
0.96
382
0.68
318
1.19
392
0.84
390
1.13
381
0.95
326
IMHtwo views2.14
391
2.46
403
3.60
358
1.70
390
1.13
374
1.65
376
0.93
361
2.13
394
1.93
388
1.37
366
2.64
393
2.19
384
1.82
381
5.77
407
2.18
350
5.70
413
1.05
347
1.31
397
0.72
386
1.39
394
1.13
341
JetBluetwo views1.89
384
2.09
382
4.16
377
0.74
332
1.23
378
4.52
410
3.86
407
1.68
383
1.26
363
1.28
364
1.54
364
2.36
386
1.86
382
3.35
393
3.37
380
0.54
366
0.49
291
0.48
368
0.49
365
1.39
394
1.21
348
SGM_RVCbinarytwo views2.11
390
1.07
239
2.87
285
0.98
357
0.92
350
2.72
400
1.88
399
1.91
390
12.27
412
2.09
386
1.99
375
2.47
387
2.24
391
2.87
383
2.03
338
0.54
366
0.47
287
0.42
364
0.47
362
0.74
369
1.22
350
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
MADNet++two views2.94
400
2.17
386
3.27
322
2.55
408
2.28
405
3.29
403
3.37
403
2.76
399
2.67
397
3.10
405
3.20
400
2.78
388
3.25
400
4.11
402
4.68
401
2.72
409
2.27
405
3.03
413
2.43
411
2.34
408
2.59
405
MeshStereopermissivetwo views1.29
354
1.34
305
3.04
306
0.35
143
0.28
159
1.10
350
0.69
339
1.42
372
1.07
348
2.71
402
2.43
386
2.95
389
1.50
369
2.92
384
2.03
338
0.23
317
0.22
231
0.22
314
0.19
249
0.50
347
0.69
288
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
JetRedtwo views3.37
401
4.96
414
10.08
410
1.48
380
1.73
398
7.63
413
5.47
412
3.47
407
2.20
390
2.42
397
2.40
385
2.98
390
2.35
392
3.52
397
6.60
407
1.33
394
1.90
386
1.38
399
1.23
404
2.30
407
2.02
383
SGM+DAISYtwo views2.67
393
2.14
385
4.28
384
1.92
400
2.11
404
4.36
409
5.22
411
3.17
402
3.00
400
3.24
407
3.81
403
3.03
391
3.61
402
2.53
358
3.79
388
1.15
389
1.29
367
0.66
376
0.71
385
0.95
379
2.44
404
ACVNet_1two views1.47
369
2.27
395
4.92
394
1.11
365
0.89
347
1.19
358
0.66
331
1.28
362
1.19
361
0.98
329
0.97
325
3.06
392
1.48
368
2.37
346
1.82
332
1.08
387
0.49
291
1.03
389
0.48
363
1.20
384
0.95
326
WCMA_ROBtwo views1.29
354
1.21
276
3.13
314
0.65
316
0.36
223
1.20
359
0.78
348
1.00
281
0.98
334
1.78
383
2.62
391
3.08
393
2.01
386
1.86
306
2.35
358
0.38
353
0.38
272
0.32
349
0.32
320
0.31
266
1.06
336
WAO-8two views2.91
397
2.55
405
3.77
362
1.93
401
1.04
366
4.08
407
0.99
363
3.25
405
6.09
406
2.20
391
3.34
401
3.33
394
2.64
394
11.73
415
2.52
362
2.12
406
1.92
387
1.55
403
0.93
394
1.27
386
0.96
328
Venustwo views2.91
397
2.55
405
3.77
362
1.93
401
1.04
366
4.08
407
0.99
363
3.25
405
6.09
406
2.20
391
3.34
401
3.33
394
2.64
394
11.73
415
2.52
362
2.12
406
1.92
387
1.55
403
0.93
394
1.27
386
0.96
328
FCDSN-DCtwo views1.45
367
1.12
252
3.30
326
0.48
255
0.41
248
1.13
352
0.60
317
1.17
353
1.28
365
2.25
393
2.85
396
3.65
396
3.34
401
2.58
362
2.44
360
0.31
346
0.26
249
0.31
347
0.30
310
0.37
304
0.78
301
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
notakertwo views2.77
395
2.35
400
4.02
373
2.61
409
1.44
387
1.77
381
1.14
375
2.77
400
1.81
387
2.30
395
11.41
414
3.95
397
4.70
406
3.24
390
3.01
375
1.58
401
0.88
334
1.71
408
1.08
401
2.10
404
1.44
367
UNDER WATER-64two views2.59
392
2.28
396
5.63
401
1.85
398
1.45
388
3.28
402
1.60
395
2.62
397
5.57
405
2.09
386
2.12
377
4.10
398
4.21
405
2.74
377
3.64
387
1.49
399
0.86
333
1.58
405
1.09
402
1.91
402
1.62
374
TorneroNet-64two views2.74
394
2.23
391
4.18
378
1.48
380
1.20
376
3.88
405
1.01
369
3.48
409
6.61
409
2.62
401
4.55
407
4.20
399
3.84
404
3.39
395
3.40
382
1.23
393
0.66
316
1.39
400
0.80
389
3.42
412
1.27
353
FC-DCNNcopylefttwo views1.60
379
0.85
194
3.44
344
0.46
248
0.39
237
1.96
386
0.66
331
1.72
384
1.70
383
2.75
403
2.91
399
4.20
399
3.15
399
2.72
374
2.66
367
0.30
344
0.26
249
0.31
347
0.30
310
0.33
275
0.91
320
LVEtwo views2.10
389
2.61
408
4.30
386
1.79
395
1.81
399
1.68
378
1.04
370
2.35
396
2.78
398
1.27
363
2.87
397
4.21
401
1.46
365
2.83
382
2.02
337
2.87
410
0.92
336
1.19
392
1.47
408
1.29
388
1.18
342
Deantwo views1.92
385
2.31
398
5.03
396
1.31
370
1.08
369
1.55
369
0.99
363
1.98
393
2.33
392
1.51
377
4.15
405
4.23
402
1.39
362
2.31
342
2.10
343
1.18
391
0.69
321
1.18
391
0.75
388
1.30
390
1.07
337
tttwo views4.94
408
0.32
14
4.22
380
2.29
405
1.58
393
10.19
416
16.94
419
9.44
417
5.03
404
1.69
381
1.33
357
4.68
403
5.02
407
3.38
394
5.91
406
6.15
415
9.47
422
2.80
412
3.16
414
3.54
413
1.58
372
MSMD_ROBtwo views1.41
363
1.03
233
2.75
261
0.41
220
0.32
194
2.00
390
0.61
322
0.96
257
1.43
372
2.97
404
2.63
392
4.76
404
2.04
387
2.44
355
1.78
330
0.30
344
0.26
249
0.32
349
0.32
320
0.32
271
0.63
270
LE_ROBtwo views4.55
407
2.43
402
9.94
409
2.79
411
4.03
410
2.40
397
3.54
404
2.72
398
11.04
411
11.64
416
4.69
408
5.25
405
10.74
414
4.52
406
9.73
413
0.82
377
0.70
324
1.34
398
0.97
397
0.74
369
0.94
323
UNDER WATERtwo views2.84
396
2.25
392
5.25
398
1.84
397
1.45
388
2.36
396
1.44
394
3.23
404
6.51
408
2.61
400
2.73
395
5.69
406
5.64
409
3.14
389
4.18
397
1.48
398
0.81
331
1.60
406
1.07
400
1.91
402
1.67
376
SDNRtwo views2.06
388
2.93
410
2.94
294
1.55
384
5.13
412
1.98
389
0.24
80
1.95
392
2.62
395
0.92
324
2.71
394
5.76
407
0.68
291
3.61
398
3.84
389
0.33
349
0.38
272
0.22
314
0.17
225
1.13
381
2.04
384
pmcnntwo views1.44
365
1.25
289
3.57
354
0.74
332
1.42
386
0.72
263
0.56
306
1.04
307
1.06
347
1.03
336
2.89
398
6.01
408
0.75
310
2.54
359
3.60
386
0.14
215
0.11
125
0.08
3
0.06
6
0.34
281
0.81
307
MANEtwo views3.51
403
2.03
379
3.88
370
1.89
399
2.01
401
5.98
411
4.72
409
5.87
413
7.13
410
3.80
408
5.10
409
6.11
409
5.34
408
4.39
404
5.05
403
1.07
386
1.28
366
0.50
369
0.85
391
0.76
372
2.36
403
DGTPSM_ROBtwo views8.97
413
5.94
415
13.01
415
5.95
416
11.34
416
8.54
414
24.06
420
6.47
414
13.52
414
5.19
410
11.52
415
6.18
410
11.04
415
7.02
411
13.92
417
4.47
411
7.66
416
3.90
414
7.43
419
4.34
415
7.98
418
DPSMNet_ROBtwo views9.58
414
5.96
416
13.98
418
8.88
418
11.87
417
8.54
414
24.08
421
6.48
415
13.67
417
5.35
411
11.53
416
6.31
411
11.04
415
7.69
412
14.09
418
7.61
420
8.23
418
5.03
416
7.75
420
5.24
417
8.36
419
KSHMRtwo views4.19
405
2.37
401
6.24
405
1.73
393
1.48
390
1.97
388
1.29
385
3.18
403
17.06
422
2.15
389
15.74
417
9.09
412
1.75
377
8.33
413
2.37
359
1.55
400
1.29
367
1.70
407
1.23
404
1.75
399
1.60
373
SGM-ForestMtwo views3.67
404
2.70
409
5.34
400
1.65
388
1.72
397
6.02
412
5.08
410
4.10
410
3.47
401
4.59
409
4.21
406
9.81
413
5.79
410
6.44
410
6.97
409
0.88
379
1.09
349
0.33
353
0.45
359
0.68
367
2.10
386
HanzoNettwo views7.85
411
3.30
413
5.75
402
7.47
417
3.97
409
2.34
395
1.37
387
3.47
407
4.02
402
13.30
417
10.49
410
10.86
414
16.67
420
8.50
414
10.51
416
10.80
421
9.84
423
5.83
418
13.69
421
7.24
418
7.51
417
Anonymous_1two views22.76
422
11.11
418
11.93
412
12.73
420
26.05
432
19.39
423
27.77
425
14.18
419
13.64
416
14.92
418
10.66
411
11.26
415
11.24
417
12.48
419
14.45
419
37.82
437
7.87
417
34.92
434
63.61
434
87.51
438
11.75
422
ktntwo views4.44
406
2.47
404
3.70
361
1.82
396
1.49
391
2.11
392
1.40
391
2.30
395
12.56
413
11.36
415
16.25
418
11.30
416
3.77
403
4.41
405
3.47
383
1.86
404
0.99
339
1.74
409
1.21
403
3.28
411
1.39
364
TorneroNettwo views5.60
409
2.30
397
3.98
371
1.49
382
1.26
381
14.47
418
1.11
372
4.85
411
20.66
427
10.12
412
16.30
419
11.78
417
7.35
411
3.41
396
4.38
398
1.36
397
0.70
324
1.46
402
0.87
392
2.73
409
1.33
358
DPSM_ROBtwo views12.32
415
11.13
419
12.31
413
12.90
421
12.80
419
19.81
425
28.13
426
14.50
420
14.31
419
10.62
413
11.34
412
12.03
418
11.89
418
13.08
420
15.22
420
7.09
417
8.31
419
6.47
420
7.32
417
8.69
419
8.43
420
DPSMtwo views12.32
415
11.13
419
12.31
413
12.90
421
12.80
419
19.81
425
28.13
426
14.50
420
14.31
419
10.62
413
11.34
412
12.03
418
11.89
418
13.08
420
15.22
420
7.09
417
8.31
419
6.47
420
7.32
417
8.69
419
8.43
420
LRCNet_RVCtwo views13.78
419
19.34
423
13.01
415
19.47
424
12.67
418
1.85
383
0.42
252
12.28
418
1.10
351
15.76
419
18.69
423
12.52
420
8.65
412
12.22
418
9.64
412
22.29
428
8.38
421
25.92
430
24.06
431
19.72
429
17.59
425
xxxxx1two views29.05
434
20.74
425
14.05
419
50.10
435
40.25
435
19.01
420
26.60
422
21.83
426
20.22
424
16.52
420
17.56
420
18.33
421
21.41
424
16.11
423
20.77
425
23.48
429
26.77
433
66.36
436
78.56
435
30.19
433
32.23
435
tt_lltwo views29.05
434
20.74
425
14.05
419
50.10
435
40.25
435
19.01
420
26.60
422
21.83
426
20.22
424
16.52
420
17.56
420
18.33
421
21.41
424
16.11
423
20.77
425
23.48
429
26.77
433
66.36
436
78.56
435
30.19
433
32.23
435
fftwo views29.05
434
20.74
425
14.05
419
50.10
435
40.25
435
19.01
420
26.60
422
21.83
426
20.22
424
16.52
420
17.56
420
18.33
421
21.41
424
16.11
423
20.77
425
23.48
429
26.77
433
66.36
436
78.56
435
30.19
433
32.23
435
HaxPigtwo views19.88
421
22.39
429
22.30
422
17.98
423
17.98
422
12.06
417
12.06
416
16.25
423
15.97
421
21.05
425
21.41
426
18.85
424
18.35
421
20.07
427
19.64
424
23.57
432
23.19
432
24.07
429
23.71
430
22.95
430
23.72
432
MEDIAN_ROBtwo views23.95
424
26.96
437
26.29
431
22.14
425
22.09
424
16.18
419
14.23
417
20.47
424
20.09
423
25.43
433
25.22
435
22.96
425
22.54
427
24.33
428
23.18
429
28.15
434
27.16
436
28.60
432
27.73
432
27.59
431
27.58
433
MyStereo03two views24.90
428
22.40
430
24.90
427
26.19
430
25.93
429
39.80
431
56.77
434
29.00
430
28.95
433
21.51
429
22.81
431
24.16
426
23.92
430
26.26
430
30.65
434
14.24
423
17.13
427
13.03
422
14.76
426
17.48
422
18.00
426
MyStereo02two views24.90
428
22.40
430
24.90
427
26.19
430
25.93
429
39.80
431
56.77
434
29.00
430
28.95
433
21.51
429
22.81
431
24.16
426
23.92
430
26.26
430
30.65
434
14.24
423
17.13
427
13.03
422
14.76
426
17.48
422
18.00
426
MyStereotwo views24.90
428
22.40
430
24.90
427
26.19
430
25.93
429
39.80
431
56.77
434
29.00
430
28.95
433
21.51
429
22.81
431
24.16
426
23.92
430
26.26
430
30.65
434
14.24
423
17.13
427
13.03
422
14.76
426
17.48
422
18.00
426
CasAABBNettwo views24.76
426
22.38
428
24.44
425
26.05
428
25.75
427
39.79
430
56.76
433
29.10
433
28.88
431
21.22
426
22.69
429
24.21
429
23.99
434
26.23
429
30.62
433
14.22
422
16.71
425
13.03
422
14.75
424
17.49
425
16.97
423
Selective-RAFT-Errortwo views24.83
427
22.44
433
24.80
426
26.10
429
25.82
428
39.85
434
56.72
432
29.21
435
29.03
436
21.29
428
22.80
430
24.25
430
24.07
435
26.28
433
30.60
432
14.24
423
16.85
426
13.04
426
14.75
424
17.53
426
17.02
424
LSM0two views26.57
431
22.53
434
25.76
430
30.62
434
52.30
438
39.86
435
56.49
431
29.18
434
28.76
430
21.26
427
22.46
428
24.42
431
23.97
433
26.42
434
30.66
437
14.29
427
16.56
424
13.06
427
14.65
423
17.62
427
20.52
429
BEATNet-Init1two views12.32
415
12.82
421
28.66
432
3.22
412
3.71
408
21.59
427
11.42
415
14.54
422
13.73
418
20.24
424
20.16
424
26.14
432
19.85
423
19.08
426
15.33
422
1.81
403
1.93
389
2.05
411
2.48
412
4.25
414
3.41
412
AVERAGE_ROBtwo views26.91
432
30.28
438
29.18
433
25.78
426
25.30
426
19.49
424
15.38
418
23.70
429
23.02
429
28.38
435
27.78
436
26.23
433
25.76
436
26.95
435
25.55
430
31.27
436
30.02
437
31.76
433
30.80
433
30.88
436
30.77
434
SPstereotwo views16.55
420
3.18
411
4.92
394
2.73
410
2.77
406
29.67
428
52.00
430
39.41
436
29.70
437
21.94
432
21.64
427
27.45
434
23.83
429
27.92
437
26.10
431
2.44
408
2.60
409
4.96
415
3.11
413
2.27
406
2.32
402
DPSimNet_ROBtwo views24.35
425
23.81
435
31.38
434
25.93
427
22.83
425
31.30
429
34.38
429
20.78
425
28.92
432
27.39
434
22.99
434
28.29
435
35.76
437
15.47
422
17.82
423
24.28
433
17.90
430
22.23
428
14.12
422
19.38
428
22.12
431
PMLtwo views22.99
423
17.34
422
8.24
408
5.48
415
9.84
415
50.35
437
102.65
437
5.84
412
13.52
414
37.08
437
104.84
437
30.61
436
23.20
428
12.09
417
7.96
411
6.27
416
2.12
395
6.31
419
2.42
410
10.67
421
2.95
406
ASD4two views27.03
433
24.46
436
23.91
423
27.24
433
17.87
421
47.08
436
31.36
428
41.80
437
21.82
428
31.12
436
20.82
425
33.80
437
18.50
422
27.25
436
21.57
428
29.52
435
20.55
431
27.54
431
23.38
429
30.03
432
20.96
430
test_example2two views115.17
437
122.38
439
93.45
436
115.38
438
123.53
439
101.24
438
113.11
438
54.67
438
99.94
438
135.50
438
136.43
438
85.67
438
85.40
438
110.44
438
104.91
438
152.17
438
205.21
438
99.17
439
114.27
438
138.55
439
112.04
438
FADEtwo views3.24
412
2.10
403
2.93
407
65.47
435
1.78
400