This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort by
MIF-Stereotwo views0.36
10
0.66
142
2.43
125
0.28
33
0.24
117
0.30
4
0.18
10
0.35
1
0.36
2
0.26
14
0.37
41
0.18
1
0.18
6
0.33
14
0.30
55
0.11
110
0.08
38
0.09
13
0.08
27
0.25
207
0.09
2
MyStereo07two views0.56
110
0.68
150
2.42
120
0.30
59
0.41
247
0.61
159
0.31
179
0.58
55
0.72
196
1.17
348
0.26
14
0.20
2
0.27
61
1.28
220
0.28
41
0.09
11
0.59
305
0.12
134
0.21
268
0.16
69
0.48
223
ff7two views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
395
fffftwo views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
395
11ttwo views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
395
CAStwo views0.39
15
0.31
7
1.79
9
0.81
342
0.34
208
0.51
45
0.23
57
0.49
14
0.42
9
0.23
6
0.31
25
0.20
2
0.17
1
0.30
2
0.25
23
0.77
374
0.06
1
0.07
1
0.05
1
0.10
10
0.41
188
ccc-4two views0.65
190
0.58
118
2.09
56
0.39
197
0.60
301
0.56
85
0.23
57
0.49
14
0.62
92
1.00
331
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
390
0.10
46
0.18
232
0.24
192
2.22
395
AEACVtwo views0.89
304
0.29
2
1.84
17
2.50
405
1.68
395
0.53
65
0.21
29
1.01
289
0.42
9
0.68
262
0.31
25
0.22
8
0.39
145
1.63
266
0.25
23
0.09
11
2.60
408
0.09
13
0.54
371
0.23
186
2.27
400
anonymousdsptwo views0.86
290
0.59
124
2.65
222
1.33
370
1.25
378
0.56
85
0.23
57
0.54
39
0.71
189
1.13
344
0.25
11
0.22
8
0.24
26
1.24
213
0.24
15
0.09
11
2.34
405
0.10
46
0.18
232
0.25
207
3.12
409
Selective-IGEVtwo views0.57
117
0.42
70
1.87
22
1.67
388
1.33
381
0.36
10
0.20
20
0.61
67
0.71
189
0.22
3
0.31
25
0.22
8
0.19
7
0.52
78
0.36
103
0.09
11
0.97
336
0.09
13
0.15
194
0.20
149
0.85
312
ProNettwo views0.46
45
0.60
126
1.85
19
0.35
142
0.67
319
0.49
37
0.25
98
0.53
30
0.57
66
0.21
1
0.24
6
0.22
8
0.20
14
0.52
78
0.22
4
0.09
11
0.47
286
0.10
46
0.09
37
0.23
186
1.33
357
IGEV-Stereopermissivetwo views0.86
290
0.60
126
2.65
222
1.35
372
1.25
378
0.56
85
0.23
57
0.54
39
0.71
189
1.14
345
0.25
11
0.22
8
0.24
26
1.24
213
0.24
15
0.09
11
2.34
405
0.10
46
0.18
232
0.25
207
3.13
410
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
CASnettwo views0.32
3
0.40
63
1.80
10
0.28
33
0.11
1
0.47
29
0.19
12
0.45
7
0.47
24
0.39
30
0.31
25
0.23
13
0.17
1
0.31
3
0.21
1
0.11
110
0.06
1
0.15
244
0.12
138
0.16
69
0.08
1
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LoS_RVCtwo views0.34
5
0.38
55
1.96
37
0.27
21
0.35
216
0.43
15
0.22
38
0.43
5
0.34
1
0.24
9
0.34
33
0.23
13
0.28
71
0.34
15
0.22
4
0.08
1
0.07
6
0.07
1
0.05
1
0.10
10
0.35
154
XX-TBDtwo views0.40
17
1.04
235
2.49
169
0.35
142
0.13
5
0.51
45
0.17
5
0.44
6
0.52
45
0.38
28
0.51
115
0.23
13
0.19
7
0.31
3
0.25
23
0.10
47
0.07
6
0.08
3
0.06
6
0.09
5
0.18
56
sAnonymous2two views0.45
40
0.88
200
2.97
296
0.31
73
0.25
123
0.34
8
0.28
132
0.56
48
0.49
29
0.25
11
0.30
20
0.23
13
0.29
87
0.31
3
0.22
4
0.12
142
0.09
81
0.12
134
0.13
158
0.38
309
0.43
197
CroCo_RVCtwo views0.45
40
0.88
200
2.97
296
0.31
73
0.25
123
0.34
8
0.28
132
0.56
48
0.49
29
0.25
11
0.30
20
0.23
13
0.29
87
0.31
3
0.22
4
0.12
142
0.09
81
0.12
134
0.13
158
0.38
309
0.43
197
Anonymoustwo views0.41
18
0.44
80
2.55
188
0.35
142
0.32
193
0.38
11
0.34
207
0.57
53
0.41
5
0.25
11
0.30
20
0.23
13
0.29
87
0.38
26
0.28
41
0.15
232
0.13
152
0.11
92
0.12
138
0.24
192
0.30
128
test crocotwo views0.43
25
0.73
165
2.80
269
0.28
33
0.19
63
0.33
7
0.21
29
0.63
76
0.50
35
0.24
9
0.38
47
0.24
19
0.25
40
0.48
58
0.32
77
0.12
142
0.08
38
0.13
190
0.09
37
0.43
332
0.13
12
CREStereo++_RVCtwo views0.38
13
0.37
50
2.47
161
0.25
5
0.16
20
0.54
72
0.15
1
0.42
4
0.57
66
0.37
25
0.52
122
0.24
19
0.19
7
0.31
3
0.27
36
0.09
11
0.06
1
0.08
3
0.30
309
0.09
5
0.22
76
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CREStereotwo views0.31
1
0.35
37
1.66
6
0.19
1
0.13
5
0.55
81
0.17
5
0.50
23
0.50
35
0.28
18
0.34
33
0.24
19
0.21
15
0.34
15
0.23
14
0.11
110
0.07
6
0.08
3
0.05
1
0.10
10
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
ACVNet-DCAtwo views0.67
210
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.81
144
0.83
274
0.77
294
0.39
50
0.25
22
0.38
134
0.70
134
0.22
4
0.10
47
2.13
395
0.11
92
0.09
37
0.16
69
1.18
341
1test111two views0.72
238
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.81
144
0.83
274
0.77
294
0.39
50
0.25
22
0.38
134
1.03
185
0.75
223
0.10
47
2.13
395
0.11
92
0.09
37
0.16
69
1.18
341
cc1two views0.74
243
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.85
178
1.05
345
0.77
294
0.39
50
0.25
22
0.38
134
0.70
134
0.22
4
0.10
47
2.13
395
0.11
92
0.09
37
0.25
207
2.20
394
MIF-Stereo (partial)two views0.41
18
0.71
157
2.67
233
0.27
21
0.24
117
0.32
6
0.17
5
0.56
48
0.46
18
0.26
14
0.37
41
0.25
22
0.26
48
0.46
48
0.35
101
0.11
110
0.08
38
0.12
134
0.10
70
0.21
158
0.15
30
GLC_STEREOtwo views0.31
1
0.30
5
1.80
10
0.29
45
0.12
3
0.41
13
0.20
20
0.39
2
0.42
9
0.26
14
0.31
25
0.25
22
0.19
7
0.36
23
0.26
32
0.09
11
0.11
124
0.12
134
0.10
70
0.13
35
0.15
30
sCroCo_RVCtwo views0.37
11
0.39
59
2.38
104
0.35
142
0.27
148
0.31
5
0.22
38
0.49
14
0.48
27
0.23
6
0.34
33
0.25
22
0.24
26
0.35
21
0.25
23
0.15
232
0.17
198
0.12
134
0.11
108
0.15
60
0.15
30
tt1two views0.74
243
0.73
165
2.34
98
0.67
321
0.63
311
0.75
272
0.24
79
0.85
178
0.96
327
0.81
306
0.38
47
0.26
28
0.35
120
0.64
117
0.22
4
0.10
47
2.16
400
0.11
92
0.09
37
0.25
207
2.19
390
whm_ethtwo views0.51
80
0.86
195
2.79
267
0.31
73
0.31
182
0.49
37
0.24
79
0.78
125
0.75
221
0.48
65
0.86
307
0.26
28
0.26
48
0.38
26
0.29
50
0.13
184
0.11
124
0.13
190
0.12
138
0.14
51
0.44
209
DLNR_Zeroshot_testpermissivetwo views13.74
417
20.06
423
23.92
423
121.50
438
35.20
433
0.46
20
0.15
1
7.96
415
0.47
24
0.29
21
0.37
41
0.26
28
0.17
1
0.79
158
0.36
103
7.16
418
2.95
412
0.09
13
0.38
346
50.40
436
1.95
380
CEStwo views0.33
4
0.32
14
1.46
2
0.25
5
0.50
274
0.40
12
0.20
20
0.48
11
0.48
27
0.22
3
0.29
17
0.26
28
0.19
7
0.35
21
0.22
4
0.09
11
0.07
6
0.08
3
0.05
1
0.16
69
0.54
246
TANstereotwo views0.39
15
0.70
155
2.48
166
0.23
3
0.12
3
0.54
72
0.16
3
0.41
3
0.47
24
0.45
51
0.51
115
0.26
28
0.22
18
0.34
15
0.21
1
0.10
47
0.10
103
0.08
3
0.07
12
0.09
5
0.18
56
GMStereopermissivetwo views0.44
37
1.32
298
2.65
222
0.28
33
0.16
20
0.42
14
0.22
38
0.48
11
0.63
103
0.41
33
0.36
37
0.26
28
0.25
40
0.41
40
0.30
55
0.14
214
0.08
38
0.10
46
0.12
138
0.17
90
0.13
12
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
PMTNettwo views0.35
7
0.38
55
1.75
8
0.21
2
0.14
8
0.57
104
0.24
79
0.48
11
0.44
16
0.28
18
0.32
31
0.26
28
0.24
26
0.41
40
0.24
15
0.42
355
0.07
6
0.08
3
0.05
1
0.18
109
0.15
30
EGLCR-Stereotwo views0.90
307
0.31
7
1.90
26
1.60
384
0.95
352
1.14
352
0.42
251
0.85
178
0.43
13
1.74
382
0.21
1
0.27
35
0.17
1
1.56
252
0.30
55
0.10
47
2.60
408
0.10
46
0.09
37
0.10
10
3.10
408
MC-Stereotwo views0.58
125
0.37
50
2.00
40
0.88
345
0.64
315
0.54
72
0.19
12
0.46
9
0.39
3
0.58
169
0.39
50
0.27
35
0.27
61
0.71
140
0.32
77
0.09
11
1.20
354
0.09
13
0.16
211
0.22
172
1.92
379
StereoIMtwo views0.35
7
0.89
205
2.15
68
0.25
5
0.29
163
0.29
3
0.17
5
0.47
10
0.41
5
0.21
1
0.22
2
0.28
37
0.21
15
0.32
13
0.31
69
0.10
47
0.09
81
0.10
46
0.08
27
0.11
17
0.12
10
RCA-Stereotwo views0.45
40
0.38
55
1.80
10
0.27
21
0.25
123
0.58
111
0.23
57
0.84
168
0.66
123
0.42
37
0.44
74
0.28
37
0.35
120
0.31
3
0.21
1
0.09
11
1.01
339
0.09
13
0.07
12
0.21
158
0.53
243
DCANet-4two views0.43
25
0.32
14
2.31
93
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.55
141
0.48
88
0.28
37
0.37
127
0.40
34
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
s12784htwo views0.41
18
0.34
30
2.17
71
0.24
4
0.11
1
0.64
206
0.24
79
0.85
178
0.70
177
0.45
51
0.54
139
0.28
37
0.27
61
0.51
74
0.27
36
0.11
110
0.06
1
0.09
13
0.06
6
0.16
69
0.14
24
CroCo-Stereo Lap2two views0.38
13
0.91
213
2.02
45
0.33
110
0.38
234
0.23
2
0.21
29
0.63
76
0.51
40
0.23
6
0.28
15
0.29
41
0.23
24
0.34
15
0.28
41
0.10
47
0.09
81
0.10
46
0.08
27
0.22
172
0.15
30
IGEVStereo-DCAtwo views0.74
243
0.74
174
2.09
56
0.76
333
0.77
334
0.45
17
0.23
57
0.49
14
0.62
92
0.71
279
0.22
2
0.30
42
0.28
71
1.29
221
1.53
317
0.10
47
1.50
377
0.10
46
0.18
232
0.24
192
2.22
395
rrrtwo views0.84
279
0.74
174
3.40
338
0.76
333
0.77
334
0.45
17
0.28
132
1.23
359
0.84
286
0.71
279
0.22
2
0.30
42
0.28
71
1.29
221
1.53
317
0.10
47
1.50
377
0.10
46
0.29
303
0.24
192
1.75
376
AnonymousMtwo views0.45
40
0.49
89
1.83
14
0.29
45
0.15
13
0.53
65
0.22
38
0.64
78
0.66
123
0.47
63
0.33
32
0.30
42
0.25
40
0.49
68
0.29
50
0.12
142
0.27
254
0.71
378
0.37
343
0.12
25
0.41
188
test_xeample3two views0.86
290
0.75
178
3.36
328
0.65
315
0.76
332
0.49
37
0.33
202
1.21
358
0.80
256
0.61
204
0.23
5
0.30
42
0.29
87
1.17
205
1.57
319
0.10
47
1.79
383
0.10
46
0.40
350
0.25
207
2.09
384
DIP-Stereotwo views0.43
25
0.50
95
2.21
79
0.27
21
0.18
47
0.63
194
0.17
5
0.94
241
0.58
72
0.49
81
0.48
88
0.30
42
0.30
97
0.40
34
0.31
69
0.10
47
0.08
38
0.10
46
0.08
27
0.15
60
0.33
141
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
ffftwo views0.50
70
0.90
210
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
280
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
raftrobusttwo views0.52
82
1.14
254
2.15
68
0.33
110
0.99
357
0.53
65
0.21
29
0.59
62
0.50
35
0.53
126
0.36
37
0.31
47
0.33
111
0.47
50
0.42
121
0.10
47
0.55
298
0.09
13
0.08
27
0.22
172
0.46
217
csctwo views0.50
70
0.90
210
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
280
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
cscssctwo views0.50
70
0.90
210
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
280
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
197
ADStereo(finetuned)two views0.50
70
0.91
213
2.43
125
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.56
151
0.49
101
0.32
51
0.75
309
0.40
34
0.40
115
0.10
47
0.07
6
0.09
13
0.07
12
0.13
35
0.45
214
HHNettwo views0.63
178
0.67
143
3.10
310
0.37
166
0.25
123
0.64
206
0.60
316
0.70
98
0.67
135
0.55
141
1.12
344
0.32
51
0.60
270
0.43
44
1.75
326
0.16
246
0.08
38
0.12
134
0.10
70
0.18
109
0.22
76
raft+_RVCtwo views0.62
166
1.18
268
2.43
125
0.36
156
2.08
401
0.52
60
0.25
98
0.66
83
0.54
54
0.36
23
0.46
77
0.32
51
0.28
71
0.49
68
0.43
127
0.10
47
0.91
334
0.10
46
0.09
37
0.22
172
0.70
290
DCANettwo views0.49
66
0.91
213
2.63
212
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.56
151
0.49
101
0.32
51
0.41
162
0.39
30
0.41
117
0.10
47
0.07
6
0.09
13
0.07
12
0.14
51
0.45
214
rafts_anoytwo views0.60
146
1.33
302
2.59
198
0.53
278
1.09
369
0.49
37
0.25
98
0.67
86
0.53
51
0.41
33
0.38
47
0.33
55
0.30
97
0.68
131
0.41
117
0.10
47
1.13
351
0.13
190
0.15
194
0.20
149
0.29
119
Anonymous3two views0.47
48
0.49
89
2.61
207
0.33
110
0.25
123
0.72
262
0.32
189
0.80
137
0.60
80
0.36
23
0.41
59
0.33
55
0.29
87
0.46
48
0.30
55
0.19
287
0.18
204
0.13
190
0.13
158
0.18
109
0.22
76
R-Stereo Traintwo views0.42
22
0.31
7
2.51
173
0.30
59
0.18
47
0.56
85
0.25
98
0.82
151
0.41
5
0.57
163
0.67
234
0.33
55
0.24
26
0.34
15
0.33
86
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
RAFT-Stereopermissivetwo views0.42
22
0.31
7
2.51
173
0.30
59
0.18
47
0.56
85
0.25
98
0.82
151
0.41
5
0.57
163
0.67
234
0.33
55
0.24
26
0.34
15
0.33
86
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
UDGNettwo views0.50
70
1.36
311
2.44
133
0.37
166
0.19
63
0.58
111
0.23
57
0.49
14
0.69
167
0.42
37
0.39
50
0.34
59
0.29
87
0.55
91
0.32
77
0.25
329
0.10
103
0.37
356
0.19
248
0.30
257
0.17
49
ddtwo views0.48
55
1.32
298
2.41
116
0.31
73
0.17
37
0.58
111
0.26
110
0.50
23
0.71
189
0.42
37
0.41
59
0.34
59
0.28
71
0.47
50
0.41
117
0.18
276
0.10
103
0.13
190
0.12
138
0.22
172
0.16
43
TestStereotwo views0.49
66
0.88
200
2.38
104
0.30
59
0.16
20
0.43
15
0.25
98
0.55
47
0.46
18
0.38
28
0.46
77
0.34
59
0.28
71
1.96
319
0.28
41
0.11
110
0.08
38
0.12
134
0.09
37
0.15
60
0.13
12
11t1two views0.60
146
0.49
89
2.19
74
0.35
142
0.58
295
0.48
32
0.21
29
0.72
105
0.73
199
0.49
81
0.47
82
0.35
62
0.34
118
0.61
109
0.71
215
0.12
142
1.26
362
0.10
46
0.29
303
0.16
69
1.22
349
TestStereo1two views0.59
140
1.21
275
2.63
212
0.40
210
0.60
301
0.56
85
0.34
207
0.82
151
0.73
199
0.45
51
0.63
211
0.36
63
0.42
173
0.66
124
0.42
121
0.10
47
0.32
259
0.12
134
0.10
70
0.34
280
0.52
240
SA-5Ktwo views0.59
140
1.21
275
2.63
212
0.40
210
0.60
301
0.56
85
0.34
207
0.82
151
0.73
199
0.45
51
0.63
211
0.36
63
0.42
173
0.66
124
0.42
121
0.10
47
0.32
259
0.12
134
0.10
70
0.34
280
0.52
240
RALCasStereoNettwo views0.65
190
1.34
304
2.56
192
0.43
232
0.96
353
0.50
43
0.26
110
0.62
70
0.56
63
0.43
43
0.49
101
0.36
63
0.28
71
0.72
145
0.53
164
0.10
47
1.18
352
0.09
13
0.08
27
0.27
233
1.27
352
LoStwo views0.34
5
0.35
37
1.88
23
0.25
5
0.13
5
0.53
65
0.20
20
0.50
23
0.53
51
0.26
14
0.28
15
0.37
66
0.24
26
0.40
34
0.25
23
0.10
47
0.08
38
0.08
3
0.06
6
0.15
60
0.10
4
NF-Stereotwo views0.53
91
0.33
23
2.55
188
0.55
285
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.44
239
0.78
232
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
OCTAStereotwo views0.53
91
0.33
23
2.54
181
0.56
294
0.16
20
0.61
159
0.42
251
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.79
235
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
RE-Stereotwo views0.53
91
0.33
23
2.54
181
0.56
294
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.77
228
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
TVStereotwo views0.53
91
0.33
23
2.54
181
0.56
294
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.77
228
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
DisPMtwo views0.48
55
0.41
68
2.54
181
0.61
306
0.18
47
0.59
129
0.62
323
0.54
39
0.67
135
0.61
204
0.53
125
0.38
71
0.26
48
0.76
152
0.31
69
0.13
184
0.07
6
0.12
134
0.11
108
0.12
25
0.15
30
DRafttwo views0.65
190
0.47
85
2.38
104
0.25
5
0.17
37
0.64
206
0.65
328
0.56
48
0.57
66
0.67
256
0.98
327
0.38
71
0.99
340
1.42
234
2.06
340
0.11
110
0.14
165
0.10
46
0.14
176
0.18
109
0.21
72
4D-IteraStereotwo views0.62
166
1.29
295
3.04
305
0.27
21
0.30
174
0.46
20
0.26
110
0.54
39
0.51
40
0.41
33
0.31
25
0.39
73
0.19
7
0.53
85
0.65
200
0.09
11
0.47
286
0.12
134
0.11
108
0.21
158
2.14
387
SAtwo views0.61
153
1.14
254
2.79
267
0.32
90
0.63
311
0.57
104
0.30
169
0.97
264
0.78
240
0.43
43
0.63
211
0.39
73
0.46
209
0.70
134
0.31
69
0.10
47
0.44
283
0.13
190
0.32
319
0.31
265
0.51
235
test_4two views0.47
48
0.80
188
2.15
68
0.36
156
0.29
163
0.59
129
0.28
132
0.50
23
0.42
9
0.43
43
0.76
285
0.39
73
0.22
18
0.73
146
0.49
153
0.08
1
0.18
204
0.11
92
0.15
194
0.29
251
0.27
107
PFNet+two views0.50
70
0.43
76
2.54
181
0.49
265
0.18
47
0.58
111
0.76
345
0.54
39
0.72
196
0.56
151
0.48
88
0.39
73
0.26
48
0.94
178
0.33
86
0.14
214
0.09
81
0.14
219
0.13
158
0.12
25
0.16
43
PSM-softLosstwo views0.52
82
0.34
30
2.47
161
0.55
285
0.17
37
0.61
159
0.39
240
0.64
78
0.67
135
0.52
118
0.48
88
0.39
73
0.25
40
1.46
240
0.77
228
0.13
184
0.08
38
0.13
190
0.12
138
0.12
25
0.15
30
KMStereotwo views0.52
82
0.34
30
2.47
161
0.55
285
0.17
37
0.61
159
0.39
240
0.64
78
0.67
135
0.52
118
0.48
88
0.39
73
0.25
40
1.46
240
0.77
228
0.13
184
0.08
38
0.13
190
0.12
138
0.12
25
0.15
30
DeepStereo_RVCtwo views0.47
48
0.37
50
2.19
74
0.55
285
0.18
47
0.60
141
0.58
310
0.52
27
0.62
92
0.49
81
0.45
75
0.39
73
0.85
322
0.47
50
0.34
94
0.12
142
0.08
38
0.11
92
0.09
37
0.15
60
0.19
60
RALAANettwo views0.52
82
1.37
314
2.63
212
0.33
110
0.23
108
0.48
32
0.19
12
0.69
91
0.55
59
0.49
81
0.46
77
0.39
73
0.31
101
0.53
85
0.53
164
0.10
47
0.33
263
0.11
92
0.17
224
0.29
251
0.13
12
CASStwo views0.43
25
0.34
30
2.01
42
0.33
110
0.17
37
0.54
72
0.24
79
0.71
104
0.52
45
0.62
216
0.55
148
0.40
81
0.41
162
0.43
44
0.33
86
0.17
265
0.10
103
0.14
219
0.11
108
0.18
109
0.23
84
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
IPLGtwo views0.74
243
1.09
242
2.87
284
0.36
156
0.21
77
1.63
374
0.60
316
1.39
369
0.63
103
1.39
368
0.51
115
0.40
81
0.86
324
1.40
231
0.37
106
0.09
11
0.07
6
0.14
219
0.12
138
0.34
280
0.23
84
LMCR-Stereopermissivemany views0.61
153
1.00
225
2.60
203
0.42
222
0.22
86
0.74
270
0.31
179
1.06
327
0.70
177
0.62
216
0.64
218
0.40
81
0.52
238
0.84
167
1.27
298
0.20
295
0.09
81
0.12
134
0.09
37
0.26
222
0.16
43
GEStwo views0.49
66
0.54
106
2.37
102
0.31
73
0.19
63
0.61
159
0.30
169
0.93
236
0.52
45
0.49
81
0.53
125
0.40
81
0.43
186
0.59
101
0.67
205
0.16
246
0.11
124
0.12
134
0.10
70
0.20
149
0.30
128
RAFT-Stereo + iAFFtwo views0.58
125
1.48
333
2.53
177
0.29
45
0.78
337
0.52
60
0.20
20
0.68
89
0.66
123
0.51
110
0.61
196
0.40
81
0.32
106
0.40
34
0.43
127
0.08
1
0.63
311
0.09
13
0.09
37
0.37
303
0.58
255
Selective-RAFTtwo views0.46
45
0.48
88
1.88
23
0.32
90
0.16
20
0.61
159
0.19
12
0.66
83
0.62
92
0.28
18
0.30
20
0.41
86
0.33
111
0.51
74
0.32
77
0.11
110
1.09
348
0.09
13
0.35
337
0.19
132
0.37
161
LCNettwo views0.58
125
0.43
76
2.42
120
0.91
350
0.22
86
0.95
333
0.29
157
0.62
70
0.64
109
0.52
118
0.55
148
0.41
86
0.75
309
0.84
167
0.27
36
0.10
47
0.07
6
0.12
134
0.18
232
0.97
379
0.40
181
Pruner-Stereotwo views0.55
102
0.38
55
2.49
169
1.78
393
0.19
63
0.63
194
0.45
269
0.59
62
0.67
135
0.61
204
0.48
88
0.41
86
0.25
40
0.49
68
0.99
266
0.13
184
0.07
6
0.12
134
0.10
70
0.13
35
0.14
24
DN-CSS_ROBtwo views0.56
110
1.64
352
2.75
260
0.42
222
0.22
86
0.57
104
0.19
12
0.79
132
0.66
123
0.46
61
0.62
203
0.41
86
0.32
106
0.73
146
0.49
153
0.12
142
0.08
38
0.14
219
0.13
158
0.38
309
0.17
49
iRaftStereo_RVCtwo views0.47
48
0.84
191
1.91
28
0.29
45
0.15
13
0.53
65
0.20
20
0.58
55
0.50
35
0.37
25
0.43
63
0.42
90
0.23
24
0.38
26
0.28
41
0.09
11
0.70
323
0.12
134
0.11
108
0.43
332
0.77
297
EKT-Stereotwo views1.56
375
0.55
113
2.60
203
2.54
406
19.66
422
0.55
81
0.22
38
0.76
112
0.51
40
0.40
32
0.36
37
0.43
91
0.27
61
0.74
149
0.42
121
0.13
184
0.17
198
0.11
92
0.16
211
0.20
149
0.50
231
MIM_Stereotwo views0.55
102
0.92
218
2.65
222
0.32
90
1.09
369
0.51
45
0.19
12
0.67
86
0.52
45
0.48
65
0.54
139
0.43
91
0.27
61
0.57
97
0.30
55
0.08
1
0.17
198
0.11
92
0.10
70
0.28
243
0.80
304
Sa-1000two views0.61
153
1.07
238
2.71
249
0.32
90
0.61
308
0.61
159
0.31
179
1.00
281
0.76
229
0.53
126
0.83
297
0.43
91
0.33
111
0.69
133
0.30
55
0.10
47
0.52
295
0.13
190
0.28
299
0.29
251
0.29
119
CIPLGtwo views0.63
178
1.59
344
3.16
314
0.79
339
0.31
182
0.62
181
0.57
308
0.82
151
0.68
159
0.58
169
0.63
211
0.43
91
0.31
101
0.48
58
0.42
121
0.12
142
0.20
220
0.13
190
0.13
158
0.36
297
0.21
72
ACREtwo views0.63
178
1.55
338
3.41
339
0.76
333
0.28
158
0.60
141
0.56
305
0.82
151
0.68
159
0.57
163
0.62
203
0.43
91
0.30
97
0.47
50
0.42
121
0.12
142
0.19
208
0.13
190
0.14
176
0.36
297
0.20
68
Patchmatch Stereo++two views0.43
25
0.36
40
2.44
133
0.48
254
0.17
37
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.56
94
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.43
25
0.36
40
2.44
133
0.48
254
0.18
47
0.61
159
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.49
68
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
ROB_FTStereotwo views0.43
25
0.36
40
2.44
133
0.48
254
0.18
47
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.51
74
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
iGMRVCtwo views0.43
25
0.36
40
2.44
133
0.48
254
0.18
47
0.61
159
0.27
124
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.57
97
0.31
69
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
RAFT-345two views0.56
110
0.37
50
2.68
238
0.40
210
0.34
208
0.58
111
0.41
245
0.49
14
0.70
177
0.51
110
0.99
330
0.43
91
0.28
71
1.56
252
0.81
241
0.10
47
0.07
6
0.11
92
0.09
37
0.11
17
0.09
2
iRAFTtwo views0.43
25
0.36
40
2.44
133
0.48
254
0.17
37
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.56
94
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
RAFT-IKPtwo views0.43
25
0.36
40
2.44
133
0.48
254
0.16
20
0.60
141
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.51
74
0.31
69
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
Prome-Stereotwo views0.53
91
0.36
40
2.39
110
0.60
300
0.23
108
0.63
194
0.41
245
0.66
83
0.67
135
0.59
188
1.02
334
0.43
91
0.71
297
0.61
109
0.34
94
0.10
47
0.07
6
0.10
46
0.09
37
0.13
35
0.44
209
SFCPSMtwo views0.48
55
0.39
59
2.30
91
0.28
33
0.27
148
0.70
252
0.32
189
1.00
281
0.69
167
0.50
99
0.52
122
0.43
91
0.36
122
0.53
85
0.44
130
0.12
142
0.09
81
0.12
134
0.16
211
0.18
109
0.23
84
iResNettwo views0.59
140
1.09
242
2.54
181
0.44
237
0.18
47
0.65
220
0.29
157
0.89
211
0.75
221
0.59
188
0.64
218
0.43
91
0.39
145
0.73
146
1.24
295
0.11
110
0.08
38
0.09
13
0.08
27
0.21
158
0.40
181
MSKI-zero shottwo views0.70
226
0.44
80
2.62
211
1.47
378
0.75
329
0.56
85
0.20
20
0.80
137
0.45
17
0.60
197
0.52
122
0.44
106
0.17
1
0.70
134
0.26
32
0.09
11
2.87
411
0.09
13
0.32
319
0.14
51
0.50
231
LL-Strereo2two views0.62
166
1.36
311
2.47
161
1.37
373
0.96
353
0.54
72
0.28
132
0.61
67
0.49
29
0.42
37
0.34
33
0.44
106
0.21
15
0.57
97
0.53
164
0.11
110
0.26
248
0.16
260
0.14
176
0.18
109
0.98
332
DCREtwo views0.76
255
0.80
188
2.31
93
1.05
359
1.18
374
0.63
194
0.26
110
1.03
301
0.59
76
0.52
118
2.12
376
0.44
106
0.27
61
0.41
40
0.53
164
0.09
11
1.02
344
0.10
46
0.32
319
0.16
69
1.47
368
xtwo views0.65
190
0.62
135
2.12
63
0.36
156
0.61
308
0.48
32
0.24
79
0.80
137
0.89
306
0.50
99
0.56
160
0.44
106
0.36
122
0.62
112
0.80
237
0.11
110
1.44
376
0.11
92
0.39
349
0.16
69
1.34
359
RAFT+CT+SAtwo views0.60
146
1.25
288
2.49
169
0.38
184
0.75
329
0.55
81
0.34
207
0.83
161
0.68
159
0.39
30
0.55
148
0.44
106
0.29
87
0.75
150
0.28
41
0.09
11
0.24
238
0.11
92
0.51
367
0.30
257
0.74
296
IPLGR_Ctwo views0.64
185
1.66
355
3.36
328
0.80
340
0.31
182
0.60
141
0.60
316
0.82
151
0.69
167
0.58
169
0.62
203
0.44
106
0.31
101
0.47
50
0.43
127
0.12
142
0.22
230
0.13
190
0.15
194
0.35
291
0.21
72
test-3two views0.58
125
0.43
76
2.44
133
0.52
274
0.59
296
0.46
20
0.23
57
0.77
118
0.49
29
0.52
118
0.29
17
0.44
106
0.22
18
0.59
101
0.97
258
0.08
1
1.27
363
0.10
46
0.35
337
0.29
251
0.62
265
test_1two views0.58
125
0.43
76
2.44
133
0.52
274
0.59
296
0.46
20
0.23
57
0.77
118
0.49
29
0.51
110
0.29
17
0.44
106
0.22
18
0.59
101
0.97
258
0.08
1
1.27
363
0.10
46
0.35
337
0.29
251
0.63
269
ROB_FTStereo_v2two views0.43
25
0.36
40
2.44
133
0.49
265
0.17
37
0.61
159
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.44
106
0.28
71
0.48
58
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
HUI-Stereotwo views0.43
25
0.36
40
2.45
149
0.48
254
0.18
47
0.61
159
0.27
124
0.53
30
0.61
83
0.48
65
0.43
63
0.44
106
0.28
71
0.47
50
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
CRE-IMPtwo views0.46
45
0.31
7
2.40
112
0.53
278
0.17
37
0.79
295
0.68
336
0.54
39
0.66
123
0.47
63
0.43
63
0.44
106
0.26
48
0.43
44
0.33
86
0.12
142
0.07
6
0.12
134
0.09
37
0.17
90
0.23
84
test_xeamplepermissivetwo views0.98
323
0.65
141
2.12
63
0.29
45
0.67
319
0.60
141
0.28
132
1.08
333
0.85
289
0.62
216
0.70
254
0.44
106
0.41
162
1.95
318
5.45
403
0.12
142
1.33
370
0.11
92
0.31
314
0.18
109
1.42
365
StereoVisiontwo views0.52
82
1.12
251
2.70
248
0.34
127
0.32
193
0.47
29
0.26
110
0.73
106
0.61
83
0.33
22
0.89
313
0.45
118
0.26
48
0.52
78
0.39
114
0.14
214
0.15
179
0.16
260
0.15
194
0.22
172
0.14
24
test_3two views0.59
140
0.44
80
2.44
133
0.53
278
0.59
296
0.48
32
0.30
169
0.79
132
0.52
45
0.51
110
0.30
20
0.45
118
0.22
18
0.59
101
0.97
258
0.08
1
1.25
359
0.11
92
0.35
337
0.30
257
0.62
265
DEmStereotwo views0.69
221
0.40
63
2.42
120
0.42
222
0.18
47
0.66
233
0.88
356
0.54
39
0.64
109
0.60
197
1.00
331
0.45
118
1.24
354
1.53
248
2.21
351
0.10
47
0.08
38
0.10
46
0.10
70
0.11
17
0.14
24
PFNettwo views0.62
166
0.42
70
2.69
244
0.43
232
0.55
286
0.62
181
0.27
124
0.64
78
0.72
196
0.61
204
0.56
160
0.45
118
0.33
111
1.86
305
1.12
280
0.28
339
0.09
81
0.12
134
0.16
211
0.26
222
0.27
107
xx1two views0.71
230
0.73
165
2.43
125
0.67
321
0.52
278
0.76
276
0.24
79
0.85
178
1.05
345
0.77
294
0.39
50
0.46
122
0.37
127
0.70
134
0.22
4
0.10
47
2.13
395
0.12
134
0.41
354
0.16
69
1.18
341
gwcnet-sptwo views0.52
82
0.71
157
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
scenettwo views0.52
82
0.71
157
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
ssnettwo views0.52
82
0.71
157
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
qqqtwo views0.65
190
0.63
137
2.10
62
0.30
59
0.64
315
0.46
20
0.27
124
0.81
144
0.83
274
0.48
65
0.56
160
0.46
122
0.37
127
1.03
185
0.75
223
0.11
110
1.41
375
0.12
134
0.41
354
0.16
69
1.18
341
AE-Stereotwo views0.71
230
0.32
14
2.44
133
0.44
237
0.50
274
0.58
111
0.23
57
1.08
333
0.67
135
0.67
256
0.51
115
0.47
127
0.24
26
0.63
113
0.32
77
0.09
11
2.15
399
0.11
92
0.45
358
0.22
172
2.01
381
mmmtwo views0.66
207
0.53
104
1.83
14
0.38
184
0.86
343
0.49
37
0.27
124
0.82
151
0.83
274
0.59
188
0.69
241
0.47
127
0.38
134
0.81
165
0.73
220
0.12
142
1.37
371
0.14
219
0.45
358
0.18
109
1.35
360
ASMatchtwo views0.61
153
0.47
85
2.72
251
0.91
350
0.36
222
0.56
85
0.24
79
0.54
39
0.67
135
0.48
65
1.20
347
0.47
127
0.65
280
1.33
225
0.93
255
0.10
47
0.08
38
0.11
92
0.11
108
0.10
10
0.17
49
RAFT-RH_RVCtwo views0.65
190
0.73
165
2.78
266
0.39
197
0.29
163
0.60
141
0.18
10
0.45
7
0.63
103
0.75
290
1.89
371
0.47
127
0.29
87
1.59
263
1.21
290
0.15
232
0.07
6
0.13
190
0.13
158
0.11
17
0.10
4
GMM-Stereotwo views0.53
91
0.33
23
2.89
286
0.53
278
0.24
117
0.77
286
0.46
274
0.62
70
0.65
116
0.58
169
0.73
272
0.47
127
0.43
186
0.68
131
0.29
50
0.10
47
0.06
1
0.13
190
0.13
158
0.14
51
0.44
209
222two views1.02
328
0.60
126
1.95
34
0.29
45
0.51
276
0.62
181
0.24
79
1.09
335
0.86
295
0.64
236
0.67
234
0.47
127
0.42
173
1.86
305
6.73
407
0.13
184
1.21
357
0.11
92
0.32
319
0.17
90
1.44
366
TRStereotwo views0.89
304
1.02
229
2.91
289
4.59
413
0.31
182
0.93
329
0.23
57
1.93
390
0.66
123
0.37
25
0.54
139
0.48
133
0.40
151
0.67
127
0.29
50
0.13
184
0.37
267
0.11
92
0.48
362
0.13
35
1.21
347
HCRNettwo views0.50
70
0.75
178
2.08
55
0.39
197
0.29
163
0.58
111
0.22
38
0.79
132
0.67
135
0.49
81
0.49
101
0.48
133
0.37
127
1.13
199
0.40
115
0.15
232
0.10
103
0.15
244
0.13
158
0.21
158
0.19
60
IRAFT_RVCtwo views0.59
140
0.74
174
2.42
120
0.47
253
0.21
77
0.59
129
0.42
251
0.68
89
0.73
199
0.54
130
0.50
113
0.49
135
0.51
231
1.57
256
1.00
268
0.11
110
0.25
245
0.13
190
0.10
70
0.15
60
0.14
24
ICVPtwo views0.48
55
0.33
23
2.37
102
0.34
127
0.22
86
0.60
141
0.55
301
0.79
132
0.53
51
0.45
51
0.60
188
0.49
135
0.36
122
0.55
91
0.46
138
0.16
246
0.16
191
0.14
219
0.11
108
0.16
69
0.32
138
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
AFF-stereotwo views0.57
117
1.51
335
2.59
198
0.33
110
0.23
108
0.51
45
0.21
29
0.69
91
0.68
159
0.49
81
0.63
211
0.49
135
0.34
118
0.50
73
0.37
106
0.08
1
0.54
296
0.10
46
0.10
70
0.40
322
0.60
262
HITNettwo views0.55
102
1.28
293
2.73
256
0.35
142
0.14
8
0.56
85
0.23
57
0.89
211
0.62
92
0.52
118
0.51
115
0.49
135
0.38
134
0.52
78
0.60
181
0.09
11
0.07
6
0.10
46
0.08
27
0.25
207
0.61
263
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
MyStereo8two views0.73
240
1.16
262
2.89
286
0.53
278
0.34
208
0.71
256
0.20
20
1.87
387
0.59
76
0.53
126
0.66
231
0.50
139
0.33
111
1.27
219
0.62
189
0.10
47
1.19
353
0.10
46
0.21
268
0.21
158
0.61
263
IPLGRtwo views0.58
125
0.64
139
3.12
312
0.37
166
0.18
47
0.62
181
0.54
297
1.06
327
0.69
167
0.73
282
0.46
77
0.50
139
0.44
194
1.12
198
0.31
69
0.10
47
0.08
38
0.11
92
0.09
37
0.21
158
0.20
68
AAGNettwo views0.92
310
0.40
63
2.53
177
0.60
300
1.01
362
0.62
181
0.45
269
0.52
27
0.68
159
0.58
169
0.53
125
0.50
139
0.72
298
1.22
209
7.32
409
0.12
142
0.07
6
0.12
134
0.10
70
0.16
69
0.10
4
SMFormertwo views0.64
185
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.86
250
0.13
184
1.01
339
0.11
92
0.26
289
0.17
90
0.84
308
ttatwo views0.63
178
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.86
250
0.13
184
1.01
339
0.11
92
0.26
289
0.19
132
0.59
258
qqq1two views0.62
166
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.64
195
0.13
184
1.01
339
0.09
13
0.24
277
0.19
132
0.59
258
fff1two views0.62
166
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
289
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.64
195
0.13
184
1.01
339
0.09
13
0.24
277
0.19
132
0.59
258
SST-Stereotwo views0.56
110
0.30
5
2.44
133
0.71
330
0.55
286
0.62
181
0.65
328
0.57
53
0.67
135
0.59
188
0.53
125
0.51
142
0.59
265
1.57
256
0.31
69
0.12
142
0.07
6
0.12
134
0.10
70
0.17
90
0.11
9
EAI-Stereotwo views1.16
346
0.29
2
1.94
33
0.55
285
0.97
356
1.96
385
7.94
413
1.34
366
1.03
341
1.01
335
1.48
361
0.51
142
0.66
286
0.65
121
1.42
310
0.09
11
0.23
235
0.09
13
0.53
370
0.13
35
0.49
229
PS-NSSStwo views0.69
221
1.37
314
2.44
133
0.31
73
0.32
193
0.64
206
0.34
207
1.04
307
0.74
216
0.56
151
0.75
282
0.51
142
0.42
173
2.41
352
0.54
169
0.24
323
0.17
198
0.27
333
0.18
232
0.30
257
0.23
84
CoDeXtwo views0.54
98
0.52
101
2.25
83
0.30
59
0.26
137
0.61
159
0.32
189
1.03
301
0.73
199
0.49
81
0.56
160
0.52
149
0.40
151
1.59
263
0.38
112
0.12
142
0.09
81
0.11
92
0.10
70
0.15
60
0.22
76
MyStereo05two views0.57
117
0.72
162
2.72
251
0.31
73
0.25
123
0.60
141
0.30
169
0.87
197
0.82
268
0.54
130
0.37
41
0.53
150
0.42
173
0.63
113
0.73
220
0.09
11
0.55
298
0.12
134
0.20
257
0.16
69
0.56
253
CrosDoStereotwo views0.96
318
0.49
89
2.66
226
0.27
21
0.33
199
0.54
72
3.69
404
0.77
118
0.66
123
0.70
270
1.39
358
0.53
150
1.47
365
1.77
287
3.02
375
0.10
47
0.08
38
0.11
92
0.11
108
0.22
172
0.30
128
KYRafttwo views0.52
82
0.35
37
2.40
112
0.34
127
0.21
77
0.75
272
0.43
258
0.62
70
0.63
103
0.64
236
0.92
317
0.53
150
0.72
298
0.60
106
0.26
32
0.10
47
0.07
6
0.12
134
0.14
176
0.13
35
0.54
246
DeepStereo_LLtwo views0.96
318
0.49
89
2.66
226
0.27
21
0.33
199
0.54
72
3.69
404
0.77
118
0.66
123
0.70
270
1.39
358
0.53
150
1.47
365
1.77
287
3.02
375
0.10
47
0.08
38
0.11
92
0.11
108
0.22
172
0.30
128
CFNet-RSSMtwo views0.44
37
0.36
40
2.38
104
0.28
33
0.43
258
0.53
65
0.20
20
0.86
190
0.52
45
0.44
49
0.36
37
0.53
150
0.26
48
0.40
34
0.27
36
0.09
11
0.08
38
0.09
13
0.38
346
0.10
10
0.22
76
MyStereo04two views0.57
117
0.68
150
2.66
226
0.30
59
0.41
247
0.61
159
0.31
179
0.88
205
0.80
256
0.48
65
0.37
41
0.54
155
0.42
173
0.61
109
0.71
215
0.09
11
0.59
305
0.12
134
0.21
268
0.16
69
0.48
223
knoymoustwo views0.37
11
0.34
30
1.83
14
0.25
5
0.18
47
0.45
17
0.24
79
0.60
65
0.40
4
0.42
37
0.39
50
0.54
155
0.25
40
0.41
40
0.29
50
0.12
142
0.08
38
0.12
134
0.07
12
0.13
35
0.20
68
GMOStereotwo views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
error versiontwo views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
test-vtwo views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
RAFT_R40two views0.55
102
0.31
7
2.44
133
0.57
298
0.42
257
0.62
181
0.52
292
0.58
55
0.66
123
0.56
151
0.54
139
0.54
155
0.50
227
1.56
252
0.53
164
0.11
110
0.07
6
0.12
134
0.10
70
0.16
69
0.10
4
test-2two views0.58
125
0.89
205
2.46
156
0.29
45
0.99
357
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
379
0.13
190
0.11
108
0.34
280
0.42
192
test-1two views0.61
153
0.54
106
2.09
56
0.31
73
1.37
383
0.51
45
0.28
132
0.83
161
0.50
35
0.42
37
0.55
148
0.54
155
0.24
26
0.38
26
1.25
296
0.10
47
1.08
347
0.10
46
0.17
224
0.11
17
0.77
297
ttttwo views0.89
304
0.51
100
2.51
173
0.36
156
0.31
182
0.61
159
0.28
132
1.07
330
0.92
313
0.56
151
0.77
289
0.55
163
0.37
127
2.27
338
3.51
383
0.16
246
1.21
357
0.13
190
0.31
314
0.18
109
1.26
351
test_5two views0.61
153
1.25
288
2.76
263
0.39
197
0.64
315
0.58
111
0.35
216
0.85
178
0.66
123
0.49
81
0.56
160
0.55
163
0.40
151
0.79
158
0.32
77
0.10
47
0.19
208
0.12
134
0.12
138
0.33
274
0.85
312
AASNettwo views0.66
207
1.49
334
2.97
296
0.37
166
0.33
199
0.65
220
0.30
169
1.00
281
0.78
240
0.56
151
0.60
188
0.55
163
0.39
145
0.88
174
0.96
257
0.15
232
0.12
139
0.13
190
0.11
108
0.45
337
0.35
154
GrayStereotwo views0.71
230
0.27
1
2.40
112
0.89
346
0.23
108
0.62
181
1.40
390
0.67
86
0.70
177
0.72
281
0.77
289
0.55
163
3.03
396
0.60
106
0.28
41
0.10
47
0.08
38
0.10
46
0.21
268
0.12
25
0.37
161
CroCo-Stereocopylefttwo views0.35
7
0.71
157
1.67
7
0.32
90
0.17
37
0.19
1
0.21
29
0.79
132
0.54
54
0.22
3
0.25
11
0.55
163
0.22
18
0.28
1
0.28
41
0.10
47
0.08
38
0.08
3
0.07
12
0.12
25
0.10
4
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
FENettwo views0.48
55
0.58
118
2.46
156
0.33
110
0.18
47
0.58
111
0.22
38
0.83
161
0.64
109
0.49
81
0.42
61
0.55
163
0.38
134
0.52
78
0.51
159
0.12
142
0.09
81
0.12
134
0.11
108
0.17
90
0.31
136
MLCVtwo views0.59
140
1.41
319
2.41
116
0.31
73
0.15
13
0.60
141
0.23
57
0.77
118
0.63
103
0.67
256
0.66
231
0.55
163
0.37
127
1.16
203
1.09
277
0.10
47
0.07
6
0.09
13
0.07
12
0.21
158
0.29
119
GwcNet-ADLtwo views0.54
98
0.78
184
2.85
281
0.31
73
0.20
68
0.58
111
0.29
157
0.93
236
0.67
135
0.48
65
0.47
82
0.56
170
0.33
111
0.48
58
0.80
237
0.13
184
0.12
139
0.09
13
0.09
37
0.14
51
0.40
181
GANet-ADLtwo views0.48
55
0.56
115
2.51
173
0.34
127
0.20
68
0.58
111
0.25
98
0.80
137
0.57
66
0.43
43
0.61
196
0.56
170
0.31
101
0.44
47
0.44
130
0.14
214
0.11
124
0.10
46
0.09
37
0.22
172
0.38
169
ARAFTtwo views0.65
190
1.69
357
3.34
327
0.29
45
0.16
20
0.65
220
0.36
223
0.96
257
0.73
199
0.63
225
0.49
101
0.56
170
0.31
101
1.23
211
0.35
101
0.11
110
0.08
38
0.14
219
0.13
158
0.38
309
0.50
231
DMCAtwo views0.50
70
0.83
190
1.95
34
0.32
90
0.24
117
0.59
129
0.26
110
0.81
144
0.68
159
0.59
188
0.49
101
0.56
170
0.36
122
0.65
121
0.65
200
0.14
214
0.10
103
0.14
219
0.10
70
0.19
132
0.29
119
DAStwo views0.61
153
0.42
70
1.85
19
0.34
127
0.34
208
0.52
60
0.42
251
0.89
211
0.80
256
0.85
315
0.69
241
0.57
174
0.51
231
2.38
348
0.57
175
0.13
184
0.09
81
0.12
134
0.09
37
0.18
109
0.37
161
SepStereotwo views0.57
117
0.42
70
1.85
19
0.34
127
0.34
208
0.52
60
0.42
251
0.89
211
0.80
256
0.85
315
0.69
241
0.57
174
0.51
231
1.55
250
0.57
175
0.13
184
0.09
81
0.12
134
0.09
37
0.18
109
0.37
161
111two views0.57
117
1.41
319
2.63
212
0.25
5
0.15
13
0.59
129
0.26
110
0.90
219
0.83
274
0.50
99
0.54
139
0.57
174
0.38
134
0.54
90
0.41
117
0.10
47
0.07
6
0.09
13
0.07
12
0.24
192
0.81
306
Gwc-CoAtRStwo views0.41
18
0.37
50
2.06
52
0.28
33
0.41
247
0.48
32
0.19
12
0.64
78
0.49
29
0.45
51
0.39
50
0.57
174
0.26
48
0.37
24
0.28
41
0.09
11
0.19
208
0.09
13
0.31
314
0.11
17
0.25
97
xxxxtwo views0.97
321
0.64
139
2.14
67
0.30
59
0.67
319
0.64
206
0.24
79
1.09
335
0.91
311
0.57
163
0.65
225
0.58
178
0.39
145
1.57
256
5.49
404
0.13
184
1.38
372
0.11
92
0.32
319
0.17
90
1.41
364
CFNettwo views0.65
190
1.45
328
2.27
85
0.34
127
0.25
123
0.64
206
0.23
57
0.93
236
0.79
249
0.48
65
0.59
181
0.58
178
0.40
151
2.28
339
0.63
194
0.13
184
0.09
81
0.15
244
0.14
176
0.34
280
0.26
102
iResNet_ROBtwo views0.60
146
1.59
344
2.04
49
0.32
90
0.21
77
0.60
141
0.22
38
0.99
275
0.85
289
0.61
204
0.63
211
0.58
178
0.42
173
1.08
190
0.98
264
0.11
110
0.08
38
0.09
13
0.06
6
0.23
186
0.33
141
1111xtwo views1.06
335
0.79
186
3.29
324
0.33
110
0.60
301
0.64
206
0.33
202
1.10
338
0.92
313
0.59
188
0.69
241
0.59
181
0.47
217
2.64
366
4.61
399
0.12
142
1.38
372
0.11
92
0.49
364
0.18
109
1.30
356
NRIStereotwo views0.50
70
0.34
30
2.44
133
0.52
274
0.16
20
0.94
331
0.73
343
0.52
27
0.65
116
0.48
65
0.40
58
0.59
181
0.29
87
0.78
157
0.33
86
0.11
110
0.13
152
0.11
92
0.09
37
0.22
172
0.25
97
GEStereo_RVCtwo views0.61
153
1.19
271
2.61
207
0.48
254
0.25
123
0.63
194
0.37
226
1.05
315
0.79
249
0.55
141
0.55
148
0.59
181
0.44
194
1.10
192
0.48
144
0.16
246
0.11
124
0.12
134
0.11
108
0.27
233
0.43
197
RAFT + AFFtwo views0.79
264
1.73
358
2.99
301
0.34
127
0.35
216
0.67
240
0.51
288
1.05
315
0.79
249
0.54
130
0.58
176
0.59
181
0.81
315
1.80
293
1.21
290
0.13
184
0.27
254
0.15
244
0.14
176
0.45
337
0.69
287
MMNettwo views0.55
102
0.92
218
2.03
46
0.34
127
0.27
148
0.79
295
0.28
132
0.86
190
0.79
249
0.62
216
0.58
176
0.59
181
0.56
250
0.80
162
0.61
186
0.11
110
0.11
124
0.12
134
0.11
108
0.21
158
0.22
76
DMCA-RVCcopylefttwo views0.70
226
1.30
296
3.59
355
0.37
166
0.89
346
0.57
104
0.31
179
0.73
106
0.59
76
0.69
267
0.54
139
0.59
181
0.57
255
1.25
216
0.66
203
0.16
246
0.38
271
0.20
305
0.15
194
0.22
172
0.23
84
BEATNet_4xtwo views0.57
117
1.16
262
2.56
192
0.35
142
0.16
20
0.56
85
0.25
98
0.91
226
0.64
109
0.55
141
0.53
125
0.59
181
0.43
186
0.67
127
0.76
226
0.12
142
0.09
81
0.12
134
0.09
37
0.23
186
0.58
255
IERtwo views0.49
66
0.73
165
2.12
63
0.27
21
0.25
123
0.65
220
0.27
124
0.76
112
0.59
76
0.56
151
0.59
181
0.60
188
0.53
241
0.64
117
0.44
130
0.12
142
0.09
81
0.11
92
0.11
108
0.18
109
0.15
30
iResNetv2_ROBtwo views0.71
230
1.90
369
3.48
345
0.43
232
0.22
86
0.60
141
0.29
157
0.96
257
0.78
240
0.60
197
0.65
225
0.60
188
0.46
209
0.80
162
1.21
290
0.12
142
0.08
38
0.10
46
0.07
12
0.44
335
0.33
141
UPFNettwo views0.51
80
0.67
143
2.04
49
0.34
127
0.33
199
0.65
220
0.37
226
0.88
205
0.65
116
0.60
197
0.53
125
0.61
190
0.41
162
0.77
153
0.55
171
0.13
184
0.13
152
0.13
190
0.13
158
0.20
149
0.16
43
FADNet_RVCtwo views0.87
296
1.51
335
2.90
288
0.31
73
0.24
117
0.71
256
0.25
98
1.00
281
0.65
116
0.45
51
0.57
170
0.61
190
0.44
194
1.53
248
0.75
223
0.94
379
0.97
336
0.28
336
1.00
398
0.89
376
1.36
362
ADCReftwo views0.88
297
1.45
328
2.68
238
0.38
184
0.35
216
0.95
333
0.51
288
0.92
233
0.81
263
0.89
319
0.84
299
0.61
190
1.35
356
1.26
218
3.38
380
0.14
214
0.12
139
0.17
274
0.19
248
0.28
243
0.34
148
TDLMtwo views0.83
276
1.28
293
2.38
104
0.46
247
0.26
137
0.66
233
0.55
301
0.87
197
0.80
256
2.54
399
0.62
203
0.61
190
0.51
231
2.68
371
0.67
205
0.20
295
0.11
124
0.35
353
0.15
194
0.33
274
0.48
223
AdaStereotwo views0.48
55
0.44
80
2.18
73
0.36
156
0.20
68
0.59
129
0.29
157
0.97
264
0.74
216
0.52
118
0.55
148
0.61
190
0.33
111
0.52
78
0.44
130
0.18
276
0.08
38
0.17
274
0.11
108
0.18
109
0.24
93
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
Any-RAFTtwo views0.42
22
0.33
23
1.89
25
0.28
33
0.21
77
0.69
249
0.21
29
0.83
161
0.60
80
0.45
51
0.43
63
0.62
195
0.30
97
0.48
58
0.24
15
0.11
110
0.40
277
0.08
3
0.06
6
0.10
10
0.16
43
iRaft-Stereo_5wtwo views0.65
190
1.35
307
2.21
79
0.30
59
0.63
311
0.49
37
0.28
132
0.78
125
0.64
109
0.41
33
0.61
196
0.62
195
0.46
209
1.79
292
0.48
144
0.10
47
0.25
245
0.11
92
0.12
138
0.40
322
0.94
322
pcwnet_v2two views0.65
190
0.54
106
4.29
384
0.33
110
0.27
148
0.60
141
0.25
98
1.02
295
0.92
313
0.61
204
0.69
241
0.62
195
0.54
243
0.67
127
0.38
112
0.18
276
0.15
179
0.15
244
0.14
176
0.21
158
0.49
229
FADNet-RVCtwo views0.69
221
1.65
353
2.74
258
0.35
142
0.26
137
0.60
141
0.29
157
0.91
226
0.67
135
0.46
61
0.51
115
0.62
195
0.46
209
1.75
282
0.81
241
0.17
265
0.20
220
0.17
274
0.18
232
0.60
358
0.39
176
GMStereo_Zeroshotpermissivetwo views0.44
37
0.44
80
1.84
17
0.44
237
0.20
68
0.52
60
0.19
12
0.60
65
0.54
54
0.58
169
0.59
181
0.63
199
0.29
87
0.59
101
0.34
94
0.16
246
0.09
81
0.16
260
0.09
37
0.26
222
0.26
102
BSDual-CNNtwo views0.48
55
0.32
14
1.58
3
0.31
73
0.22
86
0.76
276
0.32
189
1.05
315
0.67
135
0.64
236
0.53
125
0.63
199
0.38
134
0.48
58
0.97
258
0.13
184
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
psmgtwo views0.48
55
0.32
14
1.58
3
0.28
33
0.22
86
0.75
272
0.35
216
0.94
241
0.67
135
0.61
204
0.59
181
0.63
199
0.38
134
0.48
58
0.97
258
0.13
184
0.11
124
0.13
190
0.13
158
0.14
51
0.15
30
cross-rafttwo views0.47
48
0.34
30
2.17
71
0.70
328
0.84
342
0.50
43
0.35
216
0.74
108
0.43
13
0.44
49
0.45
75
0.63
199
0.25
40
0.37
24
0.27
36
0.08
1
0.14
165
0.10
46
0.23
275
0.11
17
0.27
107
FADNet-RVC-Resampletwo views0.74
243
1.54
337
3.81
365
0.38
184
0.29
163
0.62
181
0.38
234
0.91
226
0.67
135
0.52
118
0.51
115
0.63
199
0.44
194
1.56
252
0.59
179
0.24
323
0.32
259
0.22
313
0.19
248
0.30
257
0.71
292
SuperBtwo views1.19
347
1.62
349
5.29
398
0.37
166
0.26
137
0.81
303
0.87
354
0.94
241
1.19
361
0.68
262
0.68
237
0.63
199
1.37
359
1.73
279
3.30
377
0.16
246
0.12
139
0.17
274
0.16
211
2.74
409
0.63
269
dadtwo views0.58
125
1.35
307
2.39
110
0.31
73
0.20
68
0.62
181
0.26
110
0.56
48
0.79
249
0.66
254
0.64
218
0.64
205
0.36
122
0.87
170
0.48
144
0.28
339
0.15
179
0.40
359
0.18
232
0.24
192
0.22
76
CC-Net-ROBtwo views0.95
317
1.57
339
2.93
291
0.90
348
0.39
236
0.87
317
0.44
264
1.12
343
0.83
274
0.59
188
0.69
241
0.64
205
0.50
227
2.73
375
0.93
255
0.97
382
0.40
277
0.87
381
0.29
303
0.61
361
0.66
276
Anonymous Stereotwo views0.83
276
1.57
339
3.56
352
0.46
247
0.39
236
0.63
194
0.84
352
0.92
233
0.83
274
0.68
262
0.68
237
0.64
205
0.42
173
2.42
353
1.02
270
0.23
316
0.23
235
0.19
295
0.20
257
0.31
265
0.40
181
PWCDC_ROBbinarytwo views0.83
276
1.57
339
2.63
212
0.48
254
0.37
228
0.78
291
0.29
157
1.04
307
1.36
370
0.63
225
2.05
375
0.64
205
0.70
296
1.10
192
1.20
289
0.33
348
0.14
165
0.15
244
0.12
138
0.63
362
0.46
217
anonymousdsp2two views0.88
297
0.31
7
1.96
37
1.06
360
1.56
391
0.57
104
0.22
38
0.84
168
0.98
334
1.20
354
0.37
41
0.65
209
0.26
48
1.19
207
0.46
138
0.10
47
2.40
407
0.10
46
0.13
158
0.19
132
2.96
406
BUStwo views0.45
40
0.32
14
1.58
3
0.31
73
0.22
86
0.91
325
0.23
57
1.05
315
0.67
135
0.64
236
0.53
125
0.65
209
0.32
106
0.48
58
0.34
94
0.13
184
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
NINENettwo views0.54
98
0.40
63
2.19
74
0.55
285
0.26
137
0.91
325
0.23
57
1.05
315
0.77
237
0.54
130
0.57
170
0.65
209
0.32
106
1.22
209
0.34
94
0.16
246
0.13
152
0.16
260
0.11
108
0.16
69
0.14
24
CSP-Nettwo views0.55
102
0.61
131
1.81
13
0.30
59
0.23
108
0.77
286
0.35
216
0.90
219
0.62
92
0.62
216
0.60
188
0.65
209
0.42
173
1.76
284
0.47
141
0.17
265
0.12
139
0.10
46
0.10
70
0.21
158
0.16
43
Consistency-Rafttwo views0.92
310
1.21
275
3.50
346
0.98
356
0.63
311
0.77
286
0.54
297
1.02
295
1.01
339
0.62
216
1.03
336
0.65
209
1.04
344
0.81
165
1.36
305
0.45
360
0.47
286
0.51
369
0.59
377
0.65
364
0.47
219
DeepPrunerFtwo views0.92
310
1.33
302
3.41
339
0.46
247
0.51
276
0.64
206
0.49
285
1.16
349
2.62
394
0.65
248
0.61
196
0.65
209
0.62
274
2.23
337
1.31
299
0.23
316
0.19
208
0.30
345
0.28
299
0.39
316
0.34
148
DeepPruner_ROBtwo views0.58
125
1.06
237
2.68
238
0.30
59
0.26
137
0.63
194
0.31
179
0.83
161
0.51
40
0.62
216
0.56
160
0.65
209
0.39
145
1.06
187
0.56
173
0.19
287
0.14
165
0.14
219
0.14
176
0.24
192
0.33
141
AACVNettwo views0.61
153
1.13
253
2.47
161
0.37
166
0.21
77
0.57
104
0.25
98
0.75
110
0.55
59
0.56
151
0.60
188
0.66
216
0.44
194
2.11
331
0.49
153
0.14
214
0.11
124
0.14
219
0.11
108
0.35
291
0.23
84
FADNettwo views0.71
230
1.60
348
2.53
177
0.33
110
0.30
174
0.67
240
0.29
157
0.92
233
0.75
221
0.45
51
0.49
101
0.66
216
0.57
255
1.85
303
0.85
248
0.46
362
0.20
220
0.17
274
0.20
257
0.60
358
0.37
161
DualNettwo views0.97
321
0.67
143
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
327
0.54
130
0.74
275
0.67
218
0.40
151
0.64
117
3.86
389
0.10
47
2.16
400
0.15
244
0.33
329
0.25
207
2.19
390
ffmtwo views0.78
261
0.67
143
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
327
0.54
130
0.74
275
0.67
218
0.40
151
0.64
117
0.22
4
0.10
47
2.16
400
0.15
244
0.33
329
0.25
207
2.19
390
ff1two views1.07
337
0.67
143
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
327
0.54
130
0.74
275
0.67
218
0.40
151
2.75
377
3.86
389
0.10
47
2.16
400
0.15
244
0.33
329
0.25
207
2.19
390
mmxtwo views0.99
325
0.67
143
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
1.05
315
0.92
313
0.54
130
0.74
275
0.67
218
0.40
151
2.75
377
3.86
389
0.13
184
1.25
359
0.15
244
0.33
329
0.19
132
1.28
354
xxxcopylefttwo views0.99
325
0.67
143
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
1.05
315
0.92
313
0.54
130
0.74
275
0.67
218
0.40
151
2.75
377
3.86
389
0.13
184
1.25
359
0.15
244
0.33
329
0.19
132
1.28
354
RAFT_CTSACEtwo views0.58
125
1.16
262
2.76
263
0.36
156
0.29
163
0.54
72
0.29
157
0.69
91
0.51
40
0.51
110
0.75
282
0.67
218
0.37
127
0.63
113
0.47
141
0.08
1
0.49
290
0.11
92
0.10
70
0.41
328
0.32
138
PSM-AADtwo views0.67
210
0.29
2
2.41
116
0.37
166
0.23
108
0.86
313
1.15
376
0.62
70
0.66
123
0.64
236
0.71
267
0.67
218
2.90
395
0.65
121
0.32
77
0.10
47
0.08
38
0.17
274
0.15
194
0.14
51
0.34
148
delettwo views0.60
146
0.84
191
2.45
149
0.33
110
0.35
216
0.73
265
0.46
274
0.89
211
0.80
256
0.58
169
0.62
203
0.67
218
0.51
231
1.14
201
0.64
195
0.12
142
0.12
139
0.13
190
0.14
176
0.22
172
0.29
119
GANet-RSSMtwo views0.63
178
1.14
254
2.67
233
0.38
184
0.26
137
0.59
129
0.29
157
0.81
144
0.56
63
0.50
99
0.57
170
0.67
218
0.50
227
1.91
316
0.50
156
0.14
214
0.10
103
0.24
325
0.12
138
0.36
297
0.28
113
DSFCAtwo views0.62
166
0.77
181
1.95
34
0.29
45
0.29
163
0.79
295
0.86
353
0.81
144
0.73
199
0.73
282
0.66
231
0.67
218
0.57
255
1.17
205
1.03
271
0.16
246
0.15
179
0.13
190
0.14
176
0.19
132
0.28
113
STTStereotwo views0.58
125
0.95
222
2.95
294
0.37
166
0.31
182
0.62
181
0.32
189
0.81
144
0.63
103
0.61
204
0.55
148
0.67
218
0.43
186
0.87
170
0.48
144
0.16
246
0.16
191
0.17
274
0.20
257
0.17
90
0.25
97
UCFNet_RVCtwo views0.55
102
1.16
262
2.48
166
0.31
73
0.27
148
0.65
220
0.28
132
0.76
112
0.58
72
0.51
110
0.53
125
0.67
218
0.42
173
0.91
175
0.45
134
0.16
246
0.11
124
0.17
274
0.17
224
0.20
149
0.23
84
PCWNet_CMDtwo views0.48
55
0.50
95
2.23
81
0.27
21
0.20
68
0.56
85
0.22
38
0.78
125
0.67
135
0.49
81
0.55
148
0.68
230
0.56
250
0.48
58
0.32
77
0.11
110
0.10
103
0.14
219
0.10
70
0.19
132
0.43
197
CFNet_ucstwo views0.50
70
0.55
113
2.28
87
0.27
21
0.22
86
0.58
111
0.23
57
0.90
219
0.69
167
0.54
130
0.64
218
0.68
230
0.44
194
0.55
91
0.34
94
0.14
214
0.12
139
0.16
260
0.11
108
0.19
132
0.38
169
HBP-ISPtwo views0.82
272
1.57
339
3.28
322
0.50
270
0.27
148
0.86
313
0.54
297
1.09
335
0.78
240
0.81
306
0.70
254
0.68
230
1.00
341
2.02
322
0.47
141
0.24
323
0.24
238
0.29
344
0.25
283
0.28
243
0.52
240
Wz-Net-LNSev-Reftwo views0.65
190
1.15
260
2.40
112
0.33
110
0.30
174
0.83
306
0.40
243
0.94
241
0.82
268
0.67
256
0.76
285
0.68
230
0.58
262
1.13
199
1.25
296
0.14
214
0.08
38
0.10
46
0.08
27
0.18
109
0.28
113
OMP-Stereotwo views0.64
185
0.87
196
2.38
104
0.56
294
0.37
228
0.60
141
0.26
110
0.75
110
0.71
189
0.65
248
0.60
188
0.68
230
0.32
106
2.07
325
1.18
286
0.11
110
0.08
38
0.12
134
0.09
37
0.17
90
0.28
113
CFNet_pseudotwo views0.47
48
0.50
95
2.19
74
0.26
15
0.20
68
0.56
85
0.22
38
0.80
137
0.62
92
0.50
99
0.56
160
0.68
230
0.47
217
0.53
85
0.33
86
0.11
110
0.10
103
0.15
244
0.10
70
0.18
109
0.33
141
psm_uptwo views0.65
190
1.02
229
2.53
177
0.36
156
0.31
182
0.64
206
0.38
234
0.96
257
0.73
199
0.63
225
0.57
170
0.68
230
0.57
255
1.90
315
0.52
161
0.17
265
0.15
179
0.16
260
0.15
194
0.27
233
0.22
76
MSMDNettwo views0.48
55
0.50
95
2.23
81
0.27
21
0.20
68
0.56
85
0.22
38
0.78
125
0.67
135
0.49
81
0.55
148
0.68
230
0.56
250
0.48
58
0.32
77
0.11
110
0.10
103
0.13
190
0.10
70
0.18
109
0.43
197
CVANet_RVCtwo views0.82
272
1.18
268
3.98
370
0.40
210
0.28
158
0.63
194
0.43
258
0.90
219
0.78
240
1.14
345
0.69
241
0.68
230
0.52
238
2.62
364
0.48
144
0.20
295
0.13
152
0.22
313
0.37
343
0.37
303
0.48
223
ccs_robtwo views0.47
48
0.50
95
2.19
74
0.26
15
0.20
68
0.56
85
0.22
38
0.80
137
0.62
92
0.50
99
0.56
160
0.68
230
0.47
217
0.53
85
0.33
86
0.11
110
0.10
103
0.16
260
0.10
70
0.18
109
0.33
141
DRN-Testtwo views0.71
230
0.79
186
2.83
277
0.40
210
0.44
259
0.80
298
0.41
245
1.07
330
0.83
274
0.82
310
0.64
218
0.68
230
0.57
255
1.78
290
0.79
235
0.16
246
0.13
152
0.17
274
0.16
211
0.24
192
0.51
235
SACVNettwo views0.68
215
1.08
241
2.58
196
0.38
184
0.28
158
0.65
220
0.37
226
0.91
226
0.65
116
0.67
256
0.62
203
0.69
241
0.47
217
2.07
325
0.65
200
0.18
276
0.14
165
0.16
260
0.15
194
0.39
316
0.41
188
IIG-Stereotwo views0.65
190
0.87
196
2.32
95
0.55
285
0.23
108
0.62
181
0.21
29
0.78
125
0.71
189
0.64
236
0.69
241
0.69
241
0.38
134
2.07
325
1.37
307
0.11
110
0.08
38
0.11
92
0.09
37
0.15
60
0.27
107
ACVNettwo views0.54
98
0.87
196
2.45
149
0.28
33
0.22
86
0.59
129
0.36
223
0.69
91
0.73
199
0.49
81
0.59
181
0.69
241
0.42
173
0.47
50
0.70
211
0.11
110
0.10
103
0.10
46
0.09
37
0.36
297
0.39
176
acv_fttwo views0.57
117
0.87
196
2.45
149
0.33
110
0.41
247
0.63
194
0.29
157
0.86
190
0.73
199
0.64
236
0.59
181
0.69
241
0.45
202
0.47
50
0.68
208
0.11
110
0.10
103
0.10
46
0.09
37
0.43
332
0.39
176
HGLStereotwo views0.61
153
1.20
273
2.59
198
0.36
156
0.40
242
0.65
220
0.30
169
0.87
197
0.67
135
0.60
197
0.70
254
0.69
241
0.56
250
1.07
189
0.59
179
0.14
214
0.13
152
0.13
190
0.12
138
0.23
186
0.23
84
PSMNet-RSSMtwo views0.61
153
1.19
271
2.43
125
0.33
110
0.25
123
0.59
129
0.28
132
0.88
205
0.65
116
0.54
130
0.62
203
0.69
241
0.46
209
1.67
273
0.50
156
0.15
232
0.10
103
0.14
219
0.16
211
0.20
149
0.28
113
PSMNet-ADLtwo views0.56
110
0.47
85
2.03
46
0.35
142
0.22
86
0.67
240
0.27
124
0.77
118
0.58
72
0.43
43
0.53
125
0.70
247
0.45
202
1.89
310
0.64
195
0.16
246
0.13
152
0.11
92
0.13
158
0.15
60
0.51
235
PA-Nettwo views0.93
315
1.36
311
4.14
375
0.64
313
0.41
247
0.70
252
0.53
294
0.91
226
0.88
301
0.53
126
0.60
188
0.70
247
0.54
243
2.40
350
2.57
365
0.17
265
0.28
256
0.19
295
0.28
299
0.25
207
0.48
223
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NLCA_NET_v2_RVCtwo views0.62
166
1.15
260
3.11
311
0.39
197
0.37
228
0.60
141
0.28
132
0.87
197
0.64
109
0.63
225
0.56
160
0.71
249
0.45
202
1.08
190
0.52
161
0.15
232
0.12
139
0.14
219
0.15
194
0.18
109
0.25
97
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
ToySttwo views0.67
210
0.88
200
2.61
207
0.39
197
0.73
327
0.61
159
0.38
234
0.78
125
0.73
199
0.43
43
0.70
254
0.72
250
0.45
202
0.66
124
0.62
189
0.14
214
0.63
311
0.13
190
0.33
329
0.24
192
1.18
341
UNettwo views0.56
110
0.58
118
2.81
273
0.32
90
0.33
199
0.74
270
0.27
124
0.86
190
0.67
135
0.55
141
0.55
148
0.72
250
0.55
248
0.79
158
0.58
177
0.12
142
0.09
81
0.13
190
0.11
108
0.20
149
0.19
60
GwcNet-RSSMtwo views0.64
185
1.38
317
2.69
244
0.33
110
0.26
137
0.60
141
0.32
189
0.84
168
0.73
199
0.56
151
0.65
225
0.72
250
0.42
173
1.78
290
0.60
181
0.14
214
0.10
103
0.12
134
0.13
158
0.26
222
0.26
102
STTRV1_RVCtwo views0.59
124
0.43
232
0.49
273
0.80
298
0.44
264
1.18
354
0.84
286
0.63
225
0.89
313
0.72
250
0.63
278
2.67
368
0.67
205
0.51
364
0.65
313
0.27
333
0.24
277
0.35
291
0.29
119
GANetREF_RVCpermissivetwo views0.81
269
1.44
327
3.04
305
0.49
265
0.27
148
0.83
306
0.63
324
1.03
301
0.92
313
0.63
225
0.61
196
0.72
250
0.59
265
2.40
350
0.58
177
0.33
348
0.25
245
0.37
356
0.25
283
0.41
328
0.36
160
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
NVstereo2Dtwo views0.63
178
0.57
116
2.29
89
0.37
166
0.35
216
0.69
249
0.49
285
0.96
257
0.88
301
0.49
81
0.54
139
0.72
250
0.46
209
1.98
320
0.50
156
0.19
287
0.20
220
0.18
290
0.16
211
0.28
243
0.34
148
SQANettwo views0.92
310
1.96
370
3.23
316
0.77
336
0.83
340
0.76
276
0.38
234
0.87
197
0.68
159
0.64
236
0.69
241
0.73
256
0.52
238
1.35
227
1.36
305
0.80
375
0.30
257
0.60
373
0.29
303
0.93
377
0.70
290
iinet-ftwo views0.62
166
1.18
268
2.55
188
0.33
110
0.25
123
0.82
305
0.34
207
0.87
197
0.69
167
0.56
151
0.64
218
0.73
256
0.67
288
0.80
162
0.81
241
0.14
214
0.13
152
0.11
92
0.10
70
0.44
335
0.26
102
GASNettwo views0.84
279
1.98
372
4.07
373
0.48
254
0.33
199
0.58
111
0.34
207
0.97
264
0.81
263
0.60
197
0.59
181
0.74
258
0.55
248
2.08
328
1.18
286
0.22
308
0.15
179
0.19
295
0.17
224
0.55
354
0.29
119
Syn2CoExtwo views0.78
261
1.43
326
3.54
351
0.44
237
0.31
182
0.64
206
0.43
258
1.04
307
0.83
274
0.64
236
0.77
289
0.74
258
0.74
305
1.91
316
0.64
195
0.20
295
0.17
198
0.19
295
0.15
194
0.30
257
0.59
258
StereoDRNet-Refinedtwo views0.55
102
0.61
131
2.07
53
0.34
127
0.21
77
0.68
246
0.26
110
0.87
197
0.73
199
0.70
270
0.69
241
0.74
258
0.45
202
1.10
192
0.62
189
0.12
142
0.09
81
0.14
219
0.14
176
0.27
233
0.24
93
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
StereoDRNettwo views0.71
230
1.24
285
2.56
192
0.42
222
0.45
262
0.73
265
0.46
274
0.98
270
0.81
263
0.77
294
0.56
160
0.74
258
0.48
223
1.69
277
0.91
254
0.15
232
0.14
165
0.15
244
0.15
194
0.26
222
0.51
235
Wz-Net-MNSevtwo views0.74
243
1.42
323
2.75
260
0.38
184
0.33
199
0.90
324
0.61
321
0.98
270
0.94
320
0.77
294
0.75
282
0.75
262
0.66
286
1.39
229
0.76
226
0.17
265
0.13
152
0.14
219
0.14
176
0.28
243
0.48
223
MIPNettwo views0.88
297
1.07
238
2.85
281
0.61
306
0.18
47
1.46
364
1.37
386
1.65
380
0.78
240
1.93
384
0.85
302
0.75
262
1.66
372
0.87
170
0.34
94
0.10
47
0.08
38
0.11
92
0.32
319
0.27
233
0.26
102
MaskLacGwcNet_RVCtwo views0.84
279
1.41
319
2.80
269
0.94
352
0.35
216
0.89
321
0.41
245
0.89
211
0.66
123
0.57
163
0.63
211
0.75
262
0.38
134
2.37
345
0.55
171
1.16
389
0.31
258
0.36
354
0.21
268
0.59
357
0.63
269
PSMNet_ROBtwo views0.75
252
1.42
323
2.93
291
0.39
197
0.32
193
0.73
265
0.56
305
0.90
219
0.74
216
0.56
151
0.60
188
0.75
262
0.47
217
2.00
321
1.31
299
0.18
276
0.13
152
0.19
295
0.20
257
0.26
222
0.40
181
fast-acv-fttwo views0.67
210
1.24
285
3.26
320
0.39
197
0.30
174
0.80
298
0.48
280
0.74
108
0.76
229
0.60
197
0.78
293
0.76
266
0.60
270
0.70
134
0.78
232
0.16
246
0.15
179
0.18
290
0.17
224
0.38
309
0.24
93
APVNettwo views0.76
255
1.11
249
3.23
316
0.39
197
0.36
222
0.85
312
0.44
264
0.96
257
0.73
199
0.58
169
0.69
241
0.76
266
0.56
250
2.29
340
0.82
244
0.17
265
0.18
204
0.24
325
0.19
248
0.35
291
0.27
107
cf-rtwo views0.62
166
1.27
291
2.99
301
0.34
127
0.28
158
0.60
141
0.28
132
0.82
151
0.70
177
0.55
141
0.61
196
0.77
268
0.41
162
1.32
224
0.52
161
0.13
184
0.09
81
0.11
92
0.12
138
0.22
172
0.27
107
HSM-Net_RVCpermissivetwo views0.70
226
0.40
63
2.45
149
0.27
21
0.19
63
0.68
246
0.30
169
1.29
362
0.73
199
0.73
282
0.70
254
0.77
268
0.45
202
3.73
399
0.46
138
0.13
184
0.09
81
0.10
46
0.09
37
0.13
35
0.32
138
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
NaN_ROBtwo views1.25
350
1.46
330
3.84
367
0.54
284
0.56
288
1.12
350
0.99
362
1.05
315
1.03
341
1.10
341
0.87
309
0.77
268
1.07
346
5.85
407
2.98
373
0.16
246
0.23
235
0.16
260
0.24
277
0.28
243
0.66
276
NOSS_ROBtwo views0.75
252
1.03
232
2.27
85
0.68
326
0.26
137
0.68
246
0.30
169
0.99
275
0.82
268
0.59
188
0.58
176
0.77
268
0.39
145
2.75
377
0.48
144
0.25
329
0.24
238
0.28
336
0.26
289
0.29
251
1.07
336
CRFU-Nettwo views0.58
125
0.42
70
1.90
26
0.49
265
0.27
148
0.83
306
0.35
216
0.94
241
0.54
54
0.65
248
0.60
188
0.78
272
1.34
355
1.00
181
0.51
159
0.17
265
0.14
165
0.17
274
0.10
70
0.19
132
0.20
68
PWC_ROBbinarytwo views0.81
269
1.41
319
2.60
203
0.41
219
0.40
242
0.63
194
0.31
179
1.04
307
0.99
337
0.92
324
1.29
352
0.78
272
0.68
290
1.65
272
1.50
314
0.19
287
0.12
139
0.18
290
0.13
158
0.51
348
0.54
246
IGEV_Zeroshot_testtwo views0.91
309
0.39
59
3.80
364
0.42
222
1.95
399
0.56
85
0.64
325
0.84
168
0.55
59
1.45
373
0.53
125
0.79
274
0.42
173
0.57
97
1.13
281
0.10
47
0.49
290
0.10
46
0.34
335
0.19
132
2.97
407
hknettwo views0.53
91
0.39
59
2.04
49
0.31
73
0.24
117
0.76
276
0.32
189
1.05
315
0.71
189
0.64
236
0.53
125
0.79
274
0.40
151
0.84
167
0.78
232
0.12
142
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
RAFTtwo views0.62
166
1.35
307
2.26
84
0.62
308
0.53
283
0.47
29
0.35
216
0.70
98
0.58
72
0.50
99
0.50
113
0.79
274
0.40
151
0.49
68
0.36
103
0.11
110
0.79
328
0.14
219
0.13
158
0.52
351
0.72
293
DGSMNettwo views2.93
398
0.77
181
3.44
343
3.58
412
4.25
410
2.53
398
6.86
412
1.03
301
0.88
301
0.58
169
1.85
370
0.79
274
0.62
274
1.63
266
1.46
312
4.62
411
4.98
414
5.15
416
4.71
415
4.52
415
4.37
412
CFNet-ftpermissivetwo views0.60
146
1.16
262
2.45
149
0.29
45
0.30
174
0.64
206
0.28
132
0.69
91
0.57
66
0.49
81
0.57
170
0.79
274
0.44
194
1.48
243
0.62
189
0.15
232
0.10
103
0.28
336
0.14
176
0.21
158
0.29
119
CFNet_RVCtwo views0.60
146
1.16
262
2.45
149
0.29
45
0.30
174
0.64
206
0.28
132
0.69
91
0.57
66
0.49
81
0.57
170
0.79
274
0.44
194
1.48
243
0.62
189
0.15
232
0.10
103
0.28
336
0.14
176
0.21
158
0.29
119
Wz-Net-LNSevtwo views0.66
207
1.30
296
2.81
273
0.35
142
0.37
228
0.80
298
0.48
280
0.91
226
0.87
297
0.63
225
0.70
254
0.80
280
0.59
265
0.67
127
0.68
208
0.15
232
0.14
165
0.12
134
0.12
138
0.24
192
0.38
169
ADLNettwo views0.68
215
1.02
229
2.68
238
0.35
142
0.34
208
0.67
240
0.34
207
0.95
254
0.79
249
0.70
270
0.62
203
0.80
280
0.46
209
1.77
287
0.69
210
0.15
232
0.12
139
0.14
219
0.14
176
0.31
265
0.54
246
AANet_RVCtwo views0.79
264
1.46
330
2.72
251
0.34
127
0.25
123
0.59
129
0.32
189
0.88
205
0.83
274
0.62
216
0.95
322
0.80
280
0.43
186
2.46
355
1.72
323
0.38
352
0.26
248
0.10
46
0.09
37
0.25
207
0.43
197
ssnet_v2two views0.64
185
0.99
224
2.67
233
0.33
110
0.22
86
0.72
262
0.45
269
1.00
281
0.80
256
0.66
254
0.54
139
0.81
283
0.48
223
0.91
175
1.08
276
0.16
246
0.14
165
0.14
219
0.14
176
0.33
274
0.31
136
anonymitytwo views0.86
290
0.68
150
1.44
1
0.64
313
0.83
340
0.67
240
0.52
292
0.98
270
0.73
199
0.96
328
0.70
254
0.81
283
0.86
324
1.10
192
1.34
301
0.64
369
0.72
326
0.58
371
1.44
406
0.60
358
0.91
319
XPNet_ROBtwo views0.68
215
1.11
249
2.28
87
0.38
184
0.27
148
0.67
240
0.47
278
0.94
241
0.75
221
0.80
305
0.71
267
0.81
283
0.54
243
1.72
278
0.84
247
0.22
308
0.16
191
0.16
260
0.15
194
0.25
207
0.45
214
anonymousatwo views0.74
243
0.60
126
2.58
196
0.96
354
1.33
381
0.61
159
0.26
110
0.69
91
0.56
63
0.55
141
0.84
299
0.82
286
0.46
209
0.56
94
0.61
186
0.10
47
1.11
350
0.12
134
0.98
397
0.14
51
0.97
330
ccnettwo views0.77
259
0.61
131
2.01
42
0.40
210
0.46
269
1.05
342
0.59
313
1.02
295
0.74
216
0.90
321
0.97
324
0.82
286
0.89
329
1.68
276
1.16
285
0.32
346
0.26
248
0.32
348
0.28
299
0.35
291
0.47
219
aanetorigintwo views0.81
269
1.03
232
2.64
221
0.44
237
0.44
259
0.59
129
1.00
366
0.59
62
0.70
177
1.54
378
1.22
349
0.82
286
1.08
347
1.06
187
1.07
275
0.18
276
0.15
179
0.17
274
0.21
268
0.53
352
0.65
275
GwcNetcopylefttwo views0.76
255
1.09
242
3.68
358
0.38
184
0.45
262
0.81
303
0.45
269
0.91
226
0.89
306
0.63
225
0.77
289
0.82
286
0.51
231
1.64
269
0.85
248
0.17
265
0.16
191
0.15
244
0.15
194
0.33
274
0.34
148
S-Stereotwo views0.82
272
0.73
165
3.79
363
0.40
210
0.37
228
0.70
252
0.69
338
1.00
281
1.03
341
0.63
225
0.92
317
0.82
286
0.59
265
2.35
344
0.71
215
0.18
276
0.22
230
0.17
274
0.18
232
0.30
257
0.67
278
MyStereo06two views0.70
226
0.72
162
3.51
347
0.31
73
0.25
123
0.60
141
0.30
169
0.90
219
0.67
135
1.48
376
0.53
125
0.84
291
0.57
255
0.60
106
1.11
279
0.09
11
0.55
298
0.12
134
0.20
257
0.16
69
0.56
253
RTSCtwo views0.84
279
1.40
318
2.67
233
0.50
270
0.40
242
0.83
306
0.33
202
1.11
341
1.14
356
0.93
327
0.82
295
0.84
291
0.58
262
1.34
226
1.82
331
0.18
276
0.49
290
0.14
219
0.30
309
0.46
341
0.42
192
GANettwo views0.92
310
1.20
273
2.68
238
0.45
244
0.27
148
0.76
276
0.66
330
0.94
241
0.77
237
0.79
303
1.17
345
0.84
291
0.91
331
2.72
373
1.76
327
0.18
276
0.42
279
0.44
366
0.20
257
0.33
274
0.94
322
MFMNet_retwo views1.01
327
1.73
358
3.04
305
0.85
344
0.76
332
0.93
329
0.81
350
1.02
295
1.10
351
1.05
337
1.06
341
0.84
291
0.96
338
0.93
177
0.97
258
0.68
372
0.61
307
0.63
374
0.60
379
0.77
372
0.80
304
DLCB_ROBtwo views0.61
153
0.96
223
2.00
40
0.37
166
0.25
123
0.65
220
0.37
226
0.86
190
0.76
229
0.73
282
0.70
254
0.84
291
0.47
217
1.57
256
0.72
219
0.13
184
0.13
152
0.14
219
0.14
176
0.18
109
0.33
141
LL-Strereotwo views0.85
287
1.73
358
3.06
309
0.37
166
0.61
308
0.54
72
0.33
202
1.01
289
0.76
229
0.69
267
0.58
176
0.85
296
0.78
312
2.65
367
0.54
169
0.14
214
0.58
304
0.14
219
0.12
138
0.42
330
1.05
334
iRaft-Stereo_20wtwo views1.50
369
0.42
70
4.81
391
2.24
403
2.09
402
1.36
359
1.27
383
1.38
368
0.94
320
2.07
385
0.42
61
0.85
296
0.69
294
0.87
170
1.37
307
0.10
47
4.04
413
0.09
13
0.40
350
0.17
90
4.53
413
XX-Stereotwo views0.98
323
0.57
116
4.45
388
1.64
386
5.33
412
0.55
81
0.16
3
0.96
257
0.43
13
0.45
51
0.65
225
0.85
296
0.19
7
0.79
158
0.26
32
0.11
110
0.80
329
0.10
46
0.32
319
0.17
90
0.78
300
ADCP+two views1.03
332
1.68
356
3.83
366
0.35
142
0.39
236
1.05
342
0.79
349
0.94
241
0.86
295
0.69
267
0.68
237
0.85
296
1.53
371
1.02
183
4.56
398
0.13
184
0.12
139
0.16
260
0.15
194
0.28
243
0.44
209
NCCL2two views0.71
230
1.32
298
2.30
91
0.44
237
0.31
182
0.71
256
0.67
334
0.89
211
0.69
167
0.70
270
0.61
196
0.85
296
0.54
243
1.58
262
0.70
211
0.20
295
0.17
198
0.66
375
0.25
283
0.26
222
0.38
169
ETE_ROBtwo views0.68
215
1.09
242
2.32
95
0.38
184
0.26
137
0.69
249
0.51
288
1.49
374
0.75
221
0.81
306
0.71
267
0.85
296
0.51
231
1.39
229
0.70
211
0.17
265
0.14
165
0.19
295
0.16
211
0.24
192
0.35
154
HHtwo views0.79
264
0.52
101
2.72
251
1.45
376
0.80
338
0.91
325
0.23
57
0.76
112
0.76
229
0.64
236
0.55
148
0.87
302
0.41
162
0.94
178
0.45
134
0.09
11
1.20
354
0.10
46
0.09
37
0.16
69
2.16
388
HanStereotwo views0.79
264
0.52
101
2.72
251
1.45
376
0.80
338
0.91
325
0.23
57
0.76
112
0.76
229
0.64
236
0.55
148
0.87
302
0.41
162
0.94
178
0.45
134
0.09
11
1.20
354
0.10
46
0.09
37
0.16
69
2.16
388
AnyNet_C32two views1.08
340
1.76
362
3.01
303
0.50
270
0.54
284
1.17
355
1.16
378
0.97
264
0.95
325
1.11
342
0.98
327
0.87
302
0.93
336
1.57
256
4.11
395
0.22
308
0.20
220
0.25
330
0.25
283
0.40
322
0.68
283
CBMVpermissivetwo views0.86
290
1.00
225
2.82
275
0.35
142
0.21
77
0.78
291
0.78
347
1.05
315
0.87
297
0.90
321
0.74
275
0.87
302
1.89
382
1.67
273
1.38
309
0.19
287
0.20
220
0.21
309
0.19
248
0.28
243
0.84
308
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
STrans-v2two views0.69
221
0.62
135
2.66
226
0.28
33
0.23
108
0.57
104
0.32
189
1.01
289
0.77
237
0.92
324
0.84
299
0.88
306
0.92
334
1.81
295
1.19
288
0.10
47
0.07
6
0.10
46
0.09
37
0.12
25
0.30
128
ac_64two views0.63
178
0.77
181
2.71
249
0.37
166
0.34
208
0.64
206
0.30
169
0.86
190
0.67
135
0.58
169
0.53
125
0.88
306
0.48
223
1.84
301
0.71
215
0.15
232
0.12
139
0.12
134
0.12
138
0.21
158
0.25
97
CBMV_ROBtwo views0.88
297
0.75
178
2.73
256
0.36
156
0.22
86
0.76
276
0.47
278
1.05
315
0.81
263
1.06
339
1.04
338
0.88
306
1.36
358
2.17
335
2.03
337
0.23
316
0.24
238
0.27
333
0.25
283
0.27
233
0.73
294
PASMtwo views0.82
272
1.00
225
2.68
238
0.52
274
0.48
271
0.65
220
0.59
313
0.83
161
0.89
306
0.82
310
0.73
272
0.89
309
0.68
290
2.39
349
0.73
220
0.35
351
0.37
267
0.36
354
0.41
354
0.45
337
0.51
235
TransformOpticalFlowtwo views0.65
190
0.61
131
2.67
233
0.45
244
0.26
137
0.62
181
0.28
132
0.88
205
0.76
229
0.76
292
0.74
275
0.90
310
0.84
319
1.82
298
0.80
237
0.10
47
0.07
6
0.11
92
0.09
37
0.12
25
0.19
60
riskmintwo views0.96
318
0.32
14
2.07
53
1.72
391
1.61
394
1.62
373
0.57
308
1.45
372
0.55
59
0.73
282
0.89
313
0.92
311
0.45
202
1.16
203
0.60
181
0.11
110
1.30
368
0.12
134
1.38
405
0.14
51
1.51
369
DDUNettwo views0.90
307
1.63
351
2.77
265
0.77
336
0.69
323
0.83
306
0.44
264
0.90
219
0.70
177
0.68
262
0.76
285
0.92
311
0.54
243
1.14
201
1.35
303
0.61
368
0.37
267
0.96
384
0.52
369
0.77
372
0.67
278
ADLNet2two views0.73
240
1.22
280
3.28
322
0.34
127
0.36
222
0.65
220
0.37
226
0.94
241
0.87
297
0.57
163
0.65
225
0.92
311
0.48
223
2.05
323
0.60
181
0.13
184
0.11
124
0.11
92
0.11
108
0.37
303
0.38
169
XQCtwo views0.84
279
1.32
298
2.61
207
0.78
338
0.44
259
0.89
321
0.53
294
1.16
349
1.07
348
0.85
315
0.69
241
0.92
311
0.73
301
1.40
231
1.44
311
0.24
323
0.35
265
0.23
320
0.26
289
0.45
337
0.39
176
RYNettwo views0.77
259
0.91
213
2.36
100
0.37
166
0.41
247
0.88
319
0.44
264
0.99
275
0.88
301
0.65
248
0.54
139
0.92
311
0.61
272
2.70
372
1.23
294
0.15
232
0.14
165
0.17
274
0.14
176
0.27
233
0.55
252
Ntrotwo views1.11
342
2.10
382
3.52
349
0.97
355
0.87
345
1.06
345
0.54
297
1.02
295
0.93
319
0.63
225
0.76
285
0.93
316
0.67
288
1.76
284
1.71
321
1.03
384
0.46
284
0.76
380
0.41
354
1.29
387
0.86
315
RAFT-Testtwo views0.56
110
0.41
68
2.01
42
0.90
348
1.07
367
0.65
220
0.37
226
0.83
161
0.65
116
0.49
81
0.49
101
0.93
316
0.24
26
0.52
78
0.30
55
0.10
47
0.38
271
0.09
13
0.38
346
0.11
17
0.19
60
FAT-Stereotwo views0.72
238
0.60
126
2.86
283
0.37
166
0.29
163
0.64
206
0.55
301
1.01
289
0.91
311
0.76
292
0.94
319
0.93
316
0.79
314
1.82
298
0.60
181
0.19
287
0.19
208
0.17
274
0.16
211
0.23
186
0.47
219
NCC-stereotwo views0.88
297
1.22
280
2.97
296
0.60
300
0.45
262
1.88
383
0.48
280
1.04
307
0.75
221
0.70
270
0.85
302
0.93
316
0.84
319
1.81
295
1.51
315
0.28
339
0.19
208
0.23
320
0.31
314
0.27
233
0.35
154
Abc-Nettwo views0.88
297
1.22
280
2.97
296
0.60
300
0.45
262
1.88
383
0.48
280
1.04
307
0.75
221
0.70
270
0.85
302
0.93
316
0.84
319
1.81
295
1.51
315
0.28
339
0.19
208
0.23
320
0.31
314
0.27
233
0.35
154
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RASNettwo views0.69
221
1.05
236
2.59
198
0.37
166
0.47
270
0.66
233
0.33
202
0.82
151
0.76
229
0.51
110
0.65
225
0.93
316
0.62
274
2.20
336
0.80
237
0.14
214
0.09
81
0.09
13
0.11
108
0.18
109
0.37
161
LSMtwo views3.40
401
1.42
323
5.81
402
9.98
418
30.74
432
0.86
313
1.14
374
0.99
275
1.26
363
1.40
370
2.18
379
0.93
316
0.85
322
1.76
284
1.03
271
0.22
308
0.35
265
0.24
325
0.29
303
0.40
322
6.21
415
LALA_ROBtwo views0.68
215
1.14
254
2.50
172
0.37
166
0.29
163
0.78
291
0.55
301
0.99
275
0.84
286
0.82
310
0.68
237
0.93
316
0.50
227
1.01
182
0.89
252
0.21
303
0.15
179
0.21
309
0.18
232
0.26
222
0.30
128
Wz-Net-SNSevtwo views0.85
287
1.83
365
3.36
328
0.42
222
0.31
182
0.71
256
0.66
330
1.04
307
0.94
320
0.68
262
0.85
302
0.96
324
0.62
274
1.75
282
1.14
282
0.16
246
0.15
179
0.16
260
0.17
224
0.39
316
0.63
269
THIR-Stereotwo views0.88
297
0.85
193
2.33
97
0.26
15
0.16
20
0.59
129
2.69
400
0.62
70
0.54
54
0.62
216
1.61
365
0.96
324
1.77
378
1.67
273
2.20
350
0.10
47
0.08
38
0.14
219
0.11
108
0.16
69
0.21
72
DANettwo views0.85
287
0.68
150
2.41
116
1.18
368
0.48
271
0.77
286
1.23
382
0.93
236
1.53
377
0.90
321
0.72
270
0.97
326
0.57
255
1.86
305
1.05
273
0.18
276
0.16
191
0.19
295
0.16
211
0.26
222
0.67
278
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
otakutwo views1.15
345
2.10
382
3.51
347
0.98
356
0.74
328
1.02
339
0.59
313
1.03
301
0.89
306
0.70
270
1.60
364
0.98
327
0.65
280
1.63
266
1.80
330
0.99
383
0.46
284
0.73
379
0.40
350
1.30
389
0.88
316
SHDtwo views0.84
279
1.14
254
2.54
181
0.80
340
0.52
278
0.76
276
0.34
207
1.16
349
1.29
366
1.11
342
0.85
302
0.98
327
0.74
305
1.25
216
1.48
313
0.22
308
0.37
267
0.20
305
0.27
297
0.36
297
0.41
188
MDST_ROBtwo views1.28
352
0.53
104
3.84
367
0.55
285
0.45
262
4.06
405
0.60
316
1.36
367
0.89
306
2.18
390
1.17
345
0.98
327
0.72
298
4.28
402
2.12
344
0.20
295
0.16
191
0.19
295
0.17
224
0.20
149
0.84
308
RPtwo views0.74
243
1.01
228
2.48
166
0.44
237
0.45
262
0.66
233
0.45
269
0.95
254
0.87
297
0.70
270
0.95
322
0.99
330
0.82
316
1.55
250
0.82
244
0.26
333
0.19
208
0.23
320
0.20
257
0.34
280
0.38
169
Nwc_Nettwo views0.75
252
1.10
247
2.96
295
0.42
222
0.39
236
0.77
286
0.39
240
1.06
327
0.73
199
0.65
248
1.00
331
0.99
330
0.74
305
1.43
235
0.99
266
0.24
323
0.15
179
0.23
320
0.26
289
0.27
233
0.30
128
ADCLtwo views1.07
337
1.22
280
2.80
269
0.40
210
0.33
199
1.50
366
1.87
397
0.97
264
1.04
344
1.26
362
1.28
351
0.99
330
1.41
362
1.36
228
3.51
383
0.17
265
0.14
165
0.22
313
0.21
268
0.32
270
0.43
197
PDISCO_ROBtwo views0.84
279
1.46
330
2.84
279
0.65
315
0.59
296
1.17
355
0.48
280
1.19
355
1.08
350
0.67
256
0.72
270
1.00
333
0.61
272
1.24
213
1.05
273
0.38
352
0.18
204
0.28
336
0.24
277
0.58
356
0.44
209
UDGtwo views0.86
290
1.57
339
2.80
269
0.68
326
0.59
296
0.78
291
0.38
234
0.97
264
0.74
216
0.63
225
0.70
254
1.01
334
0.68
290
1.02
183
1.22
293
0.45
360
0.34
264
0.89
382
0.51
367
0.73
367
0.58
255
ADCMidtwo views1.06
335
1.82
364
3.53
350
0.39
197
0.36
222
0.99
336
0.58
310
1.01
289
0.94
320
1.23
360
1.02
334
1.01
334
1.01
342
1.11
196
4.04
393
0.22
308
0.19
208
0.42
363
0.32
319
0.42
330
0.53
243
FBW_ROBtwo views0.94
316
1.23
284
2.35
99
0.46
247
0.32
193
0.87
317
0.46
274
1.15
346
0.97
333
0.83
313
0.78
293
1.01
334
0.64
279
3.65
398
1.65
320
0.27
336
0.24
238
0.40
359
0.26
289
0.32
270
0.88
316
RGCtwo views0.78
261
1.10
247
2.55
188
0.45
244
0.45
262
0.73
265
0.40
243
1.00
281
0.75
221
0.75
290
1.04
338
1.02
337
0.73
301
1.74
281
1.15
283
0.24
323
0.19
208
0.28
336
0.26
289
0.31
265
0.38
169
CBFPSMtwo views0.62
166
1.34
304
2.12
63
0.30
59
0.23
108
0.71
256
0.38
234
0.77
118
0.68
159
0.51
110
0.49
101
1.03
338
0.82
316
0.63
113
1.35
303
0.11
110
0.12
139
0.10
46
0.10
70
0.19
132
0.37
161
Anonymous_2two views1.36
359
0.49
89
2.03
46
1.71
390
1.58
392
2.49
397
0.58
310
1.59
379
2.31
390
0.77
294
0.88
311
1.03
338
0.58
262
1.20
208
0.66
203
0.32
346
1.38
372
1.42
400
3.87
414
0.78
374
1.56
370
hitnet-ftcopylefttwo views0.73
240
1.09
242
2.59
198
0.28
33
0.22
86
0.71
256
0.36
223
0.89
211
0.67
135
0.58
169
0.83
297
1.03
338
0.94
337
2.31
341
0.70
211
0.23
316
0.14
165
0.41
361
0.13
158
0.24
192
0.28
113
SGM-Foresttwo views1.84
382
7.91
416
10.36
410
0.42
222
0.33
199
1.04
340
1.29
384
1.01
289
0.88
301
1.19
349
2.30
383
1.03
338
1.79
379
2.60
363
2.81
370
0.22
308
0.21
228
0.21
309
0.19
248
0.25
207
0.79
302
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
EDNetEfficienttwo views1.29
353
0.78
184
4.27
381
0.65
315
1.03
364
0.94
331
1.38
388
0.87
197
1.75
384
2.33
396
1.32
355
1.04
342
2.21
389
1.59
263
4.07
394
0.16
246
0.19
208
0.15
244
0.27
297
0.38
309
0.40
181
AF-Nettwo views0.76
255
1.14
254
2.74
258
0.42
222
0.41
247
0.70
252
0.41
245
1.07
330
0.94
320
0.73
282
1.05
340
1.04
342
0.86
324
1.23
211
1.00
268
0.23
316
0.15
179
0.25
330
0.18
232
0.32
270
0.35
154
CSANtwo views1.38
360
1.74
361
4.12
374
0.53
278
0.38
234
1.06
345
1.15
376
1.29
362
1.12
354
1.19
349
1.90
372
1.04
342
1.44
363
5.92
408
2.82
371
0.26
333
0.22
230
0.24
325
0.25
283
0.35
291
0.54
246
DPSNettwo views1.02
328
0.72
162
2.84
279
0.60
300
0.39
236
1.08
347
0.75
344
1.41
370
1.14
356
0.74
288
0.69
241
1.05
345
1.67
373
2.09
330
2.22
352
0.27
336
0.61
307
0.20
305
0.50
366
0.48
344
1.03
333
WZ-Nettwo views1.04
333
1.83
365
4.20
378
0.42
222
0.36
222
0.88
319
0.71
340
1.05
315
1.11
353
0.84
314
0.94
319
1.06
346
1.17
352
2.37
345
2.24
353
0.20
295
0.14
165
0.15
244
0.16
211
0.36
297
0.53
243
MFN_U_SF_DS_RVCtwo views1.08
340
2.01
376
2.56
192
0.49
265
0.40
242
1.49
365
0.96
361
1.02
295
0.95
325
0.85
315
0.94
319
1.06
346
0.59
265
2.92
383
1.15
283
0.43
358
0.74
327
0.32
348
0.55
372
0.74
368
1.35
360
DISCOtwo views0.61
153
0.63
137
1.98
39
0.46
247
0.34
208
0.84
311
0.35
216
0.88
205
0.81
263
0.61
204
0.64
218
1.06
346
0.53
241
1.11
196
0.83
246
0.13
184
0.10
103
0.11
92
0.10
70
0.26
222
0.37
161
RainbowNettwo views1.27
351
2.22
389
3.58
354
1.14
366
0.92
349
1.08
347
0.76
345
1.19
355
1.15
358
0.77
294
0.97
324
1.08
349
0.83
318
1.64
269
1.72
323
1.20
391
1.30
368
1.01
387
0.58
376
1.23
384
0.97
330
ADCStwo views1.14
344
2.02
377
3.36
328
0.43
232
0.37
228
0.96
335
0.81
350
1.12
343
1.17
360
1.25
361
0.98
327
1.08
349
0.92
334
1.41
233
4.97
401
0.23
316
0.21
228
0.22
313
0.23
275
0.40
322
0.67
278
ADCPNettwo views1.07
337
1.37
314
4.54
390
0.38
184
0.68
322
1.36
359
0.64
325
0.93
236
0.83
274
0.79
303
0.82
295
1.08
349
1.18
353
1.30
223
2.68
367
0.21
303
0.69
320
0.21
309
0.95
395
0.30
257
0.54
246
Wz-Net-TNSevtwo views1.02
328
2.26
393
3.69
359
0.38
184
0.31
182
1.00
337
0.71
340
1.12
343
1.02
340
0.74
288
0.73
272
1.09
352
0.91
331
2.46
355
2.15
347
0.21
303
0.20
220
0.16
260
0.20
257
0.48
344
0.62
265
RTStwo views1.29
353
1.59
344
6.48
405
0.63
310
0.57
291
1.59
371
0.90
358
1.15
346
1.44
372
1.20
354
1.31
353
1.10
353
0.87
327
2.67
368
2.27
355
0.21
303
0.38
271
0.19
295
0.20
257
0.46
341
0.68
283
RTSAtwo views1.29
353
1.59
344
6.48
405
0.63
310
0.57
291
1.59
371
0.90
358
1.15
346
1.44
372
1.20
354
1.31
353
1.10
353
0.87
327
2.67
368
2.27
355
0.21
303
0.38
271
0.19
295
0.20
257
0.46
341
0.68
283
raft_robusttwo views0.68
215
1.24
285
2.42
120
0.30
59
0.57
291
0.53
65
0.25
98
0.95
254
0.79
249
0.49
81
0.46
77
1.12
355
0.74
305
1.50
246
0.61
186
0.09
11
0.62
310
0.10
46
0.30
309
0.26
222
0.30
128
DispFullNettwo views1.69
380
2.25
391
5.23
396
1.53
382
8.78
413
0.89
321
0.37
226
1.03
301
0.98
334
1.37
366
1.00
331
1.13
356
1.97
384
1.51
247
0.98
264
0.55
367
0.32
259
1.19
391
0.64
380
1.16
382
0.88
316
edge stereotwo views0.84
279
0.74
174
3.42
342
0.38
184
1.21
376
0.63
194
0.41
245
0.98
270
0.83
274
0.81
306
0.88
311
1.14
357
0.73
301
2.16
334
0.89
252
0.22
308
0.20
220
0.26
332
0.18
232
0.38
309
0.43
197
PVDtwo views1.05
334
1.21
275
2.36
100
0.84
343
0.91
348
1.04
340
0.64
325
1.32
365
1.68
381
1.43
372
1.41
360
1.14
357
1.15
351
1.49
245
1.77
328
0.27
336
0.65
313
0.28
336
0.35
337
0.40
322
0.73
294
stereogantwo views0.74
243
0.68
150
2.82
275
0.40
210
0.40
242
1.05
342
0.42
251
0.99
275
0.96
327
0.78
302
0.86
307
1.15
359
0.73
301
1.57
256
0.56
173
0.20
295
0.19
208
0.20
305
0.16
211
0.37
303
0.34
148
AnyNet_C01two views1.20
348
1.89
368
4.25
380
0.55
285
0.54
284
1.57
369
1.39
389
1.10
338
1.13
355
1.19
349
1.34
357
1.15
359
1.11
349
1.73
279
2.89
372
0.26
333
0.24
238
0.28
336
0.24
277
0.50
346
0.68
283
psmorigintwo views1.41
362
0.91
213
13.83
416
0.37
166
0.30
174
0.63
194
0.37
226
0.80
137
0.64
109
0.98
329
0.87
309
1.16
361
0.78
312
3.95
400
1.09
277
0.19
287
0.22
230
0.17
274
0.19
248
0.25
207
0.47
219
MADNet+two views1.44
364
2.19
386
6.00
403
0.89
346
0.70
325
1.58
370
1.11
371
1.56
378
1.30
368
0.89
319
1.03
336
1.25
362
1.12
350
3.29
390
2.80
369
0.48
363
0.57
302
0.39
358
0.36
342
0.63
362
0.69
287
FTStereotwo views0.79
264
0.32
14
2.83
277
0.70
328
0.21
77
0.73
265
1.75
395
0.61
67
0.60
80
1.07
340
1.62
366
1.28
363
2.11
387
0.75
150
0.30
55
0.19
287
0.08
38
0.12
134
0.11
108
0.12
25
0.39
176
EDNetEfficientorigintwo views8.19
411
1.27
291
145.54
436
0.51
273
0.96
353
0.75
272
0.49
285
0.86
190
1.57
379
2.12
388
1.49
362
1.28
363
1.35
356
1.84
301
2.15
347
0.14
214
0.13
152
0.17
274
0.18
232
0.39
316
0.64
274
MSC_U_SF_DS_RVCtwo views1.40
361
2.04
379
3.02
304
0.58
299
0.41
247
2.15
392
1.00
366
1.31
364
1.29
366
1.05
337
1.10
343
1.29
365
0.91
331
3.07
386
1.34
301
1.65
401
0.84
331
0.68
377
0.88
392
1.55
396
1.91
378
G-Nettwo views1.02
328
0.70
155
3.23
316
0.60
300
0.66
318
2.00
389
0.71
340
0.78
125
0.70
177
1.14
345
2.53
387
1.29
365
1.01
342
1.47
242
1.74
325
0.25
329
0.24
238
0.24
325
0.26
289
0.37
303
0.40
181
FINETtwo views1.92
384
1.96
370
4.49
389
1.62
385
1.39
384
3.51
403
4.39
407
2.89
400
2.58
393
1.39
368
1.98
373
1.35
367
2.12
388
1.64
269
2.12
344
0.84
377
1.03
345
0.18
290
0.29
303
0.54
353
2.12
386
HSMtwo views0.67
210
0.92
218
2.29
89
0.30
59
0.29
163
0.65
220
0.29
157
0.98
270
0.67
135
0.59
188
0.58
176
1.39
368
0.65
280
2.56
359
0.45
134
0.11
110
0.09
81
0.10
46
0.08
27
0.18
109
0.24
93
MFN_U_SF_RVCtwo views1.57
376
2.56
406
3.30
325
0.66
319
0.41
247
1.15
353
0.51
288
1.27
360
1.35
369
1.61
380
1.20
347
1.43
369
0.97
339
1.80
293
2.10
342
1.88
404
1.79
383
1.97
409
2.14
408
1.61
397
1.76
377
SAMSARAtwo views1.11
342
1.35
307
2.60
203
1.34
371
0.77
334
1.67
376
1.41
392
1.47
373
0.99
337
1.54
378
0.89
313
1.44
370
0.90
330
1.88
309
1.71
321
0.25
329
0.55
298
0.22
313
0.34
335
0.39
316
0.50
231
SPS-STEREOcopylefttwo views1.22
349
1.65
353
3.41
339
0.66
319
0.69
323
1.01
338
0.68
336
1.10
338
0.96
327
1.40
370
1.25
350
1.46
371
1.08
347
2.05
323
2.24
353
0.66
370
0.61
307
0.58
371
0.57
375
0.66
365
1.65
374
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
IMH-64-1two views1.50
369
1.98
372
2.69
244
1.39
374
1.12
371
1.39
362
1.19
380
1.80
384
1.47
374
1.19
349
2.20
380
1.53
372
1.51
369
2.12
332
1.98
334
1.34
394
0.68
317
1.28
394
0.70
381
1.37
391
1.12
338
IMH-64two views1.50
369
1.98
372
2.69
244
1.39
374
1.12
371
1.39
362
1.19
380
1.80
384
1.47
374
1.19
349
2.20
380
1.53
372
1.51
369
2.12
332
1.98
334
1.34
394
0.68
317
1.28
394
0.70
381
1.37
391
1.12
338
coex-fttwo views6.14
409
1.98
372
60.80
434
0.34
127
0.30
174
0.80
298
1.17
379
0.76
112
4.34
402
19.82
422
2.15
378
1.61
374
8.77
412
1.82
298
10.36
414
0.44
359
2.05
389
0.18
290
0.19
248
0.39
316
4.61
414
NVStereoNet_ROBtwo views1.45
366
1.62
349
3.59
355
1.09
361
0.70
325
0.86
313
0.67
334
1.19
355
1.51
376
1.20
354
4.05
403
1.61
374
1.94
383
2.97
385
2.07
341
0.67
371
0.69
320
0.55
370
0.70
381
0.57
355
0.67
278
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SANettwo views1.35
358
1.80
363
4.39
386
0.41
219
0.29
163
1.72
378
0.89
357
1.17
352
2.47
392
1.22
358
1.82
369
1.72
376
1.70
375
2.57
360
3.30
377
0.18
276
0.16
191
0.16
260
0.15
194
0.34
280
0.62
265
PWCKtwo views1.62
379
2.32
398
4.27
381
1.11
364
0.56
288
1.81
381
1.84
396
1.55
377
1.54
378
1.45
373
1.81
368
1.82
377
1.38
360
3.34
391
2.14
346
1.09
387
0.57
302
0.98
385
0.59
377
1.50
395
0.79
302
ELAScopylefttwo views1.52
373
0.92
218
2.91
289
0.62
308
0.57
291
3.13
400
2.21
399
1.67
381
1.58
380
2.42
397
2.43
385
1.87
378
2.49
392
1.85
303
2.70
368
0.42
355
0.43
282
0.41
361
0.40
350
0.51
348
0.85
312
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ACVNet-4btwo views2.00
386
2.19
386
4.85
392
1.09
361
0.86
343
1.15
353
0.53
294
1.11
341
1.15
358
0.65
248
1.09
342
1.97
379
0.69
294
2.31
341
9.78
413
5.73
413
0.42
279
1.03
388
0.55
372
1.89
400
0.92
321
WAO-7two views1.58
377
2.04
379
3.25
319
0.94
352
0.75
329
1.75
379
1.13
373
1.87
387
1.97
388
1.46
375
2.53
387
1.98
380
1.75
376
3.13
387
2.48
360
0.69
373
0.67
316
0.94
383
0.74
386
0.80
375
0.77
297
ELAS_RVCcopylefttwo views1.51
372
0.88
200
3.36
328
0.63
310
0.56
288
1.53
367
2.73
401
1.53
375
1.76
385
2.26
394
2.21
382
2.10
381
3.07
397
2.08
328
2.52
361
0.42
355
0.42
279
0.42
363
0.37
343
0.51
348
0.84
308
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ACVNet_2two views1.54
374
2.20
388
4.42
387
1.10
363
0.93
351
1.37
361
0.87
354
1.53
375
1.71
383
1.22
358
1.72
367
2.12
382
1.06
345
2.58
361
1.93
333
0.94
379
0.54
296
1.00
386
0.56
374
2.11
404
0.96
327
WAO-6two views1.69
380
1.87
367
3.21
315
1.15
367
1.01
362
2.29
393
1.06
370
1.85
386
2.84
398
1.30
365
2.59
389
2.19
383
1.67
373
2.62
364
2.52
361
0.96
381
0.68
317
1.19
391
0.84
389
1.13
380
0.95
325
IMHtwo views2.14
390
2.46
402
3.60
357
1.70
389
1.13
373
1.65
375
0.93
360
2.13
393
1.93
387
1.37
366
2.64
392
2.19
383
1.82
380
5.77
406
2.18
349
5.70
412
1.05
346
1.31
396
0.72
385
1.39
393
1.13
340
JetBluetwo views1.89
383
2.09
381
4.16
376
0.74
331
1.23
377
4.52
409
3.86
406
1.68
382
1.26
363
1.28
364
1.54
363
2.36
385
1.86
381
3.35
392
3.37
379
0.54
365
0.49
290
0.48
367
0.49
364
1.39
393
1.21
347
SGM_RVCbinarytwo views2.11
389
1.07
238
2.87
284
0.98
356
0.92
349
2.72
399
1.88
398
1.91
389
12.27
411
2.09
386
1.99
374
2.47
386
2.24
390
2.87
382
2.03
337
0.54
365
0.47
286
0.42
363
0.47
361
0.74
368
1.22
349
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
MADNet++two views2.94
399
2.17
385
3.27
321
2.55
407
2.28
404
3.29
402
3.37
402
2.76
398
2.67
396
3.10
405
3.20
399
2.78
387
3.25
399
4.11
401
4.68
400
2.72
408
2.27
404
3.03
412
2.43
410
2.34
407
2.59
404
MeshStereopermissivetwo views1.29
353
1.34
304
3.04
305
0.35
142
0.28
158
1.10
349
0.69
338
1.42
371
1.07
348
2.71
402
2.43
385
2.95
388
1.50
368
2.92
383
2.03
337
0.23
316
0.22
230
0.22
313
0.19
248
0.50
346
0.69
287
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
JetRedtwo views3.37
400
4.96
413
10.08
409
1.48
379
1.73
397
7.63
412
5.47
411
3.47
406
2.20
389
2.42
397
2.40
384
2.98
389
2.35
391
3.52
396
6.60
406
1.33
393
1.90
385
1.38
398
1.23
403
2.30
406
2.02
382
SGM+DAISYtwo views2.67
392
2.14
384
4.28
383
1.92
399
2.11
403
4.36
408
5.22
410
3.17
401
3.00
399
3.24
406
3.81
402
3.03
390
3.61
401
2.53
357
3.79
387
1.15
388
1.29
366
0.66
375
0.71
384
0.95
378
2.44
403
ACVNet_1two views1.47
368
2.27
394
4.92
393
1.11
364
0.89
346
1.19
357
0.66
330
1.28
361
1.19
361
0.98
329
0.97
324
3.06
391
1.48
367
2.37
345
1.82
331
1.08
386
0.49
290
1.03
388
0.48
362
1.20
383
0.95
325
WCMA_ROBtwo views1.29
353
1.21
275
3.13
313
0.65
315
0.36
222
1.20
358
0.78
347
1.00
281
0.98
334
1.78
383
2.62
390
3.08
392
2.01
385
1.86
305
2.35
357
0.38
352
0.38
271
0.32
348
0.32
319
0.31
265
1.06
335
WAO-8two views2.91
396
2.55
404
3.77
361
1.93
400
1.04
365
4.08
406
0.99
362
3.25
404
6.09
405
2.20
391
3.34
400
3.33
393
2.64
393
11.73
414
2.52
361
2.12
405
1.92
386
1.55
402
0.93
393
1.27
385
0.96
327
Venustwo views2.91
396
2.55
404
3.77
361
1.93
400
1.04
365
4.08
406
0.99
362
3.25
404
6.09
405
2.20
391
3.34
400
3.33
393
2.64
393
11.73
414
2.52
361
2.12
405
1.92
386
1.55
402
0.93
393
1.27
385
0.96
327
FCDSN-DCtwo views1.45
366
1.12
251
3.30
325
0.48
254
0.41
247
1.13
351
0.60
316
1.17
352
1.28
365
2.25
393
2.85
395
3.65
395
3.34
400
2.58
361
2.44
359
0.31
345
0.26
248
0.31
346
0.30
309
0.37
303
0.78
300
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
notakertwo views2.77
394
2.35
399
4.02
372
2.61
408
1.44
386
1.77
380
1.14
374
2.77
399
1.81
386
2.30
395
11.41
413
3.95
396
4.70
405
3.24
389
3.01
374
1.58
400
0.88
333
1.71
407
1.08
400
2.10
403
1.44
366
UNDER WATER-64two views2.59
391
2.28
395
5.63
400
1.85
397
1.45
387
3.28
401
1.60
394
2.62
396
5.57
404
2.09
386
2.12
376
4.10
397
4.21
404
2.74
376
3.64
386
1.49
398
0.86
332
1.58
404
1.09
401
1.91
401
1.62
373
TorneroNet-64two views2.74
393
2.23
390
4.18
377
1.48
379
1.20
375
3.88
404
1.01
368
3.48
408
6.61
408
2.62
401
4.55
406
4.20
398
3.84
403
3.39
394
3.40
381
1.23
392
0.66
315
1.39
399
0.80
388
3.42
411
1.27
352
FC-DCNNcopylefttwo views1.60
378
0.85
193
3.44
343
0.46
247
0.39
236
1.96
385
0.66
330
1.72
383
1.70
382
2.75
403
2.91
398
4.20
398
3.15
398
2.72
373
2.66
366
0.30
343
0.26
248
0.31
346
0.30
309
0.33
274
0.91
319
LVEtwo views2.10
388
2.61
407
4.30
385
1.79
394
1.81
398
1.68
377
1.04
369
2.35
395
2.78
397
1.27
363
2.87
396
4.21
400
1.46
364
2.83
381
2.02
336
2.87
409
0.92
335
1.19
391
1.47
407
1.29
387
1.18
341
Deantwo views1.92
384
2.31
397
5.03
395
1.31
369
1.08
368
1.55
368
0.99
362
1.98
392
2.33
391
1.51
377
4.15
404
4.23
401
1.39
361
2.31
341
2.10
342
1.18
390
0.69
320
1.18
390
0.75
387
1.30
389
1.07
336
tttwo views4.94
407
0.32
14
4.22
379
2.29
404
1.58
392
10.19
415
16.94
418
9.44
416
5.03
403
1.69
381
1.33
356
4.68
402
5.02
406
3.38
393
5.91
405
6.15
414
9.47
421
2.80
411
3.16
413
3.54
412
1.58
371
MSMD_ROBtwo views1.41
362
1.03
232
2.75
260
0.41
219
0.32
193
2.00
389
0.61
321
0.96
257
1.43
371
2.97
404
2.63
391
4.76
403
2.04
386
2.44
354
1.78
329
0.30
343
0.26
248
0.32
348
0.32
319
0.32
270
0.63
269
LE_ROBtwo views4.55
406
2.43
401
9.94
408
2.79
410
4.03
409
2.40
396
3.54
403
2.72
397
11.04
410
11.64
415
4.69
407
5.25
404
10.74
413
4.52
405
9.73
412
0.82
376
0.70
323
1.34
397
0.97
396
0.74
368
0.94
322
UNDER WATERtwo views2.84
395
2.25
391
5.25
397
1.84
396
1.45
387
2.36
395
1.44
393
3.23
403
6.51
407
2.61
400
2.73
394
5.69
405
5.64
408
3.14
388
4.18
396
1.48
397
0.81
330
1.60
405
1.07
399
1.91
401
1.67
375
SDNRtwo views2.06
387
2.93
409
2.94
293
1.55
383
5.13
411
1.98
388
0.24
79
1.95
391
2.62
394
0.92
324
2.71
393
5.76
406
0.68
290
3.61
397
3.84
388
0.33
348
0.38
271
0.22
313
0.17
224
1.13
380
2.04
383
pmcnntwo views1.44
364
1.25
288
3.57
353
0.74
331
1.42
385
0.72
262
0.56
305
1.04
307
1.06
347
1.03
336
2.89
397
6.01
407
0.75
309
2.54
358
3.60
385
0.14
214
0.11
124
0.08
3
0.06
6
0.34
280
0.81
306
MANEtwo views3.51
402
2.03
378
3.88
369
1.89
398
2.01
400
5.98
410
4.72
408
5.87
412
7.13
409
3.80
407
5.10
408
6.11
408
5.34
407
4.39
403
5.05
402
1.07
385
1.28
365
0.50
368
0.85
390
0.76
371
2.36
402
DGTPSM_ROBtwo views8.97
412
5.94
414
13.01
414
5.95
415
11.34
415
8.54
413
24.06
419
6.47
413
13.52
413
5.19
409
11.52
414
6.18
409
11.04
414
7.02
410
13.92
416
4.47
410
7.66
415
3.90
413
7.43
418
4.34
414
7.98
417
DPSMNet_ROBtwo views9.58
413
5.96
415
13.98
417
8.88
417
11.87
416
8.54
413
24.08
420
6.48
414
13.67
416
5.35
410
11.53
415
6.31
410
11.04
414
7.69
411
14.09
417
7.61
419
8.23
417
5.03
415
7.75
419
5.24
416
8.36
418
KSHMRtwo views4.19
404
2.37
400
6.24
404
1.73
392
1.48
389
1.97
387
1.29
384
3.18
402
17.06
421
2.15
389
15.74
416
9.09
411
1.75
376
8.33
412
2.37
358
1.55
399
1.29
366
1.70
406
1.23
403
1.75
398
1.60
372
SGM-ForestMtwo views3.67
403
2.70
408
5.34
399
1.65
387
1.72
396
6.02
411
5.08
409
4.10
409
3.47
400
4.59
408
4.21
405
9.81
412
5.79
409
6.44
409
6.97
408
0.88
378
1.09
348
0.33
352
0.45
358
0.68
366
2.10
385
HanzoNettwo views7.85
410
3.30
412
5.75
401
7.47
416
3.97
408
2.34
394
1.37
386
3.47
406
4.02
401
13.30
416
10.49
409
10.86
413
16.67
419
8.50
413
10.51
415
10.80
420
9.84
422
5.83
417
13.69
420
7.24
417
7.51
416
Anonymous_1two views22.76
421
11.11
417
11.93
411
12.73
419
26.05
431
19.39
422
27.77
424
14.18
418
13.64
415
14.92
417
10.66
410
11.26
414
11.24
416
12.48
418
14.45
418
37.82
436
7.87
416
34.92
433
63.61
433
87.51
437
11.75
421
ktntwo views4.44
405
2.47
403
3.70
360
1.82
395
1.49
390
2.11
391
1.40
390
2.30
394
12.56
412
11.36
414
16.25
417
11.30
415
3.77
402
4.41
404
3.47
382
1.86
403
0.99
338
1.74
408
1.21
402
3.28
410
1.39
363
TorneroNettwo views5.60
408
2.30
396
3.98
370
1.49
381
1.26
380
14.47
417
1.11
371
4.85
410
20.66
426
10.12
411
16.30
418
11.78
416
7.35
410
3.41
395
4.38
397
1.36
396
0.70
323
1.46
401
0.87
391
2.73
408
1.33
357
DPSM_ROBtwo views12.32
414
11.13
418
12.31
412
12.90
420
12.80
418
19.81
424
28.13
425
14.50
419
14.31
418
10.62
412
11.34
411
12.03
417
11.89
417
13.08
419
15.22
419
7.09
416
8.31
418
6.47
419
7.32
416
8.69
418
8.43
419
DPSMtwo views12.32
414
11.13
418
12.31
412
12.90
420
12.80
418
19.81
424
28.13
425
14.50
419
14.31
418
10.62
412
11.34
411
12.03
417
11.89
417
13.08
419
15.22
419
7.09
416
8.31
418
6.47
419
7.32
416
8.69
418
8.43
419
LRCNet_RVCtwo views13.78
418
19.34
422
13.01
414
19.47
423
12.67
417
1.85
382
0.42
251
12.28
417
1.10
351
15.76
418
18.69
422
12.52
419
8.65
411
12.22
417
9.64
411
22.29
427
8.38
420
25.92
429
24.06
430
19.72
428
17.59
424
xxxxx1two views29.05
433
20.74
424
14.05
418
50.10
434
40.25
434
19.01
419
26.60
421
21.83
425
20.22
423
16.52
419
17.56
419
18.33
420
21.41
423
16.11
422
20.77
424
23.48
428
26.77
432
66.36
435
78.56
434
30.19
432
32.23
434
tt_lltwo views29.05
433
20.74
424
14.05
418
50.10
434
40.25
434
19.01
419
26.60
421
21.83
425
20.22
423
16.52
419
17.56
419
18.33
420
21.41
423
16.11
422
20.77
424
23.48
428
26.77
432
66.36
435
78.56
434
30.19
432
32.23
434
fftwo views29.05
433
20.74
424
14.05
418
50.10
434
40.25
434
19.01
419
26.60
421
21.83
425
20.22
423
16.52
419
17.56
419
18.33
420
21.41
423
16.11
422
20.77
424
23.48
428
26.77
432
66.36
435
78.56
434
30.19
432
32.23
434
HaxPigtwo views19.88
420
22.39
428
22.30
421
17.98
422
17.98
421
12.06
416
12.06
415
16.25
422
15.97
420
21.05
424
21.41
425
18.85
423
18.35
420
20.07
426
19.64
423
23.57
431
23.19
431
24.07
428
23.71
429
22.95
429
23.72
431
MEDIAN_ROBtwo views23.95
423
26.96
436
26.29
430
22.14
424
22.09
423
16.18
418
14.23
416
20.47
423
20.09
422
25.43
432
25.22
434
22.96
424
22.54
426
24.33
427
23.18
428
28.15
433
27.16
435
28.60
431
27.73
431
27.59
430
27.58
432
MyStereo03two views24.90
427
22.40
429
24.90
426
26.19
429
25.93
428
39.80
430
56.77
433
29.00
429
28.95
432
21.51
428
22.81
430
24.16
425
23.92
429
26.26
429
30.65
433
14.24
422
17.13
426
13.03
421
14.76
425
17.48
421
18.00
425
MyStereo02two views24.90
427
22.40
429
24.90
426
26.19
429
25.93
428
39.80
430
56.77
433
29.00
429
28.95
432
21.51
428
22.81
430
24.16
425
23.92
429
26.26
429
30.65
433
14.24
422
17.13
426
13.03
421
14.76
425
17.48
421
18.00
425
MyStereotwo views24.90
427
22.40
429
24.90
426
26.19
429
25.93
428
39.80
430
56.77
433
29.00
429
28.95
432
21.51
428
22.81
430
24.16
425
23.92
429
26.26
429
30.65
433
14.24
422
17.13
426
13.03
421
14.76
425
17.48
421
18.00
425
CasAABBNettwo views24.76
425
22.38
427
24.44
424
26.05
427
25.75
426
39.79
429
56.76
432
29.10
432
28.88
430
21.22
425
22.69
428
24.21
428
23.99
433
26.23
428
30.62
432
14.22
421
16.71
424
13.03
421
14.75
423
17.49
424
16.97
422
Selective-RAFT-Errortwo views24.83
426
22.44
432
24.80
425
26.10
428
25.82
427
39.85
433
56.72
431
29.21
434
29.03
435
21.29
427
22.80
429
24.25
429
24.07
434
26.28
432
30.60
431
14.24
422
16.85
425
13.04
425
14.75
423
17.53
425
17.02
423
LSM0two views26.57
430
22.53
433
25.76
429
30.62
433
52.30
437
39.86
434
56.49
430
29.18
433
28.76
429
21.26
426
22.46
427
24.42
430
23.97
432
26.42
433
30.66
436
14.29
426
16.56
423
13.06
426
14.65
422
17.62
426
20.52
428
BEATNet-Init1two views12.32
414
12.82
420
28.66
431
3.22
411
3.71
407
21.59
426
11.42
414
14.54
421
13.73
417
20.24
423
20.16
423
26.14
431
19.85
422
19.08
425
15.33
421
1.81
402
1.93
388
2.05
410
2.48
411
4.25
413
3.41
411
AVERAGE_ROBtwo views26.91
431
30.28
437
29.18
432
25.78
425
25.30
425
19.49
423
15.38
417
23.70
428
23.02
428
28.38
434
27.78
435
26.23
432
25.76
435
26.95
434
25.55
429
31.27
435
30.02
436
31.76
432
30.80
432
30.88
435
30.77
433
SPstereotwo views16.55
419
3.18
410
4.92
393
2.73
409
2.77
405
29.67
427
52.00
429
39.41
435
29.70
436
21.94
431
21.64
426
27.45
433
23.83
428
27.92
436
26.10
430
2.44
407
2.60
408
4.96
414
3.11
412
2.27
405
2.32
401
DPSimNet_ROBtwo views24.35
424
23.81
434
31.38
433
25.93
426
22.83
424
31.30
428
34.38
428
20.78
424
28.92
431
27.39
433
22.99
433
28.29
434
35.76
436
15.47
421
17.82
422
24.28
432
17.90
429
22.23
427
14.12
421
19.38
427
22.12
430
PMLtwo views22.99
422
17.34
421
8.24
407
5.48
414
9.84
414
50.35
436
102.65
436
5.84
411
13.52
413
37.08
436
104.84
436
30.61
435
23.20
427
12.09
416
7.96
410
6.27
415
2.12
394
6.31
418
2.42
409
10.67
420
2.95
405
ASD4two views27.03
432
24.46
435
23.91
422
27.24
432
17.87
420
47.08
435
31.36
427
41.80
436
21.82
427
31.12
435
20.82
424
33.80
436
18.50
421
27.25
435
21.57
427
29.52
434
20.55
430
27.54
430
23.38
428
30.03
431
20.96
429
test_example2two views115.17
436
122.38
438
93.45
435
115.38
437
123.53
438
101.24
437
113.11
437
54.67
437
99.94
437
135.50
437
136.43
437
85.67
437
85.40
437
110.44
437
104.91
437
152.17
437
205.21
437
99.17
438
114.27
437
138.55
438
112.04
437
FADEtwo views3.24
411
2.10
402
2.93
406
65.47
434
1.78
399