This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
Selective-IGEVtwo views0.24
1
0.18
34
0.35
29
0.35
29
0.19
9
0.27
25
0.25
31
0.55
27
0.23
1
0.27
2
0.25
2
0.34
20
0.19
2
0.58
105
0.22
1
0.12
4
0.10
9
0.14
16
0.11
15
0.12
8
0.10
3
iRaft-Stereo_20wtwo views0.39
107
0.19
49
0.57
228
0.37
44
0.27
171
0.31
53
0.24
24
1.44
356
0.29
2
0.69
128
0.53
43
0.60
127
0.42
115
0.83
246
0.27
33
0.14
32
0.11
57
0.14
16
0.13
50
0.15
77
0.13
58
XX-Stereotwo views0.37
79
0.17
19
0.45
130
0.55
321
0.36
276
0.38
98
0.20
1
0.60
45
0.30
3
0.46
45
1.30
302
0.73
195
0.26
17
0.56
78
0.26
25
0.16
110
0.11
57
0.17
85
0.16
122
0.14
45
0.10
3
EAI-Stereotwo views0.34
35
0.19
49
0.44
119
0.39
84
0.21
29
0.31
53
0.30
70
1.15
281
0.30
3
0.49
50
0.75
98
0.36
30
0.28
32
0.62
138
0.27
33
0.14
32
0.11
57
0.14
16
0.13
50
0.13
20
0.12
33
IGEV_Zeroshot_testtwo views0.34
35
0.18
34
0.67
270
0.39
84
0.28
190
0.30
43
0.25
31
0.74
140
0.31
5
0.62
82
0.57
53
0.54
90
0.25
11
0.53
65
0.27
33
0.14
32
0.10
9
0.15
42
0.14
72
0.14
45
0.12
33
MIF-Stereotwo views0.27
5
0.17
19
0.37
44
0.40
107
0.27
171
0.30
43
0.28
50
0.39
2
0.31
5
0.29
6
0.46
23
0.27
2
0.25
11
0.47
44
0.34
95
0.17
142
0.13
152
0.13
9
0.12
29
0.14
45
0.12
33
AEACVtwo views0.27
5
0.17
19
0.31
13
0.34
11
0.45
328
0.26
17
0.28
50
0.37
1
0.32
7
0.30
7
0.46
23
0.31
7
0.37
88
0.36
5
0.24
6
0.14
32
0.10
9
0.15
42
0.12
29
0.13
20
0.11
9
LoS_RVCtwo views0.27
5
0.16
8
0.27
8
0.32
8
0.30
223
0.44
126
0.34
117
0.41
4
0.33
8
0.31
8
0.51
37
0.29
4
0.32
60
0.36
5
0.28
43
0.11
1
0.10
9
0.11
1
0.08
1
0.11
1
0.19
203
ff7two views0.29
12
0.21
101
0.38
53
0.36
37
0.26
147
0.31
53
0.35
134
0.62
55
0.34
9
0.38
21
0.33
10
0.32
9
0.29
42
0.58
105
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
IGEVStereo-DCAtwo views0.29
12
0.22
128
0.38
53
0.35
29
0.27
171
0.37
86
0.35
134
0.62
55
0.34
9
0.38
21
0.30
6
0.35
25
0.27
23
0.51
55
0.22
1
0.15
79
0.12
98
0.16
60
0.12
29
0.13
20
0.15
106
fffftwo views0.29
12
0.21
101
0.38
53
0.36
37
0.26
147
0.31
53
0.35
134
0.62
55
0.34
9
0.38
21
0.33
10
0.32
9
0.29
42
0.58
105
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
11ttwo views0.29
12
0.21
101
0.38
53
0.36
37
0.26
147
0.31
53
0.35
134
0.62
55
0.34
9
0.38
21
0.33
10
0.32
9
0.29
42
0.58
105
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
ccc-4two views0.29
12
0.21
101
0.38
53
0.36
37
0.26
147
0.31
53
0.35
134
0.62
55
0.34
9
0.38
21
0.33
10
0.32
9
0.29
42
0.58
105
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
R-Stereo Traintwo views0.39
107
0.18
34
0.42
100
0.42
168
0.26
147
0.40
102
0.32
101
0.72
131
0.34
9
0.89
244
1.28
298
0.57
100
0.35
76
0.42
21
0.32
73
0.15
79
0.12
98
0.14
16
0.12
29
0.14
45
0.13
58
RAFT-Stereopermissivetwo views0.39
107
0.18
34
0.42
100
0.42
168
0.26
147
0.40
102
0.32
101
0.72
131
0.34
9
0.89
244
1.28
298
0.57
100
0.35
76
0.42
21
0.32
73
0.15
79
0.12
98
0.14
16
0.12
29
0.14
45
0.13
58
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MyStereo06two views0.38
93
0.21
101
0.61
240
0.41
131
0.28
190
0.41
115
0.50
261
0.95
213
0.35
16
0.62
82
0.54
45
0.76
207
0.27
23
0.50
51
0.29
54
0.14
32
0.13
152
0.18
119
0.17
162
0.17
139
0.15
106
test crocotwo views0.31
26
0.20
70
0.50
193
0.39
84
0.29
213
0.27
25
0.30
70
0.44
6
0.35
16
0.31
8
0.66
73
0.30
5
0.31
56
0.65
162
0.31
65
0.17
142
0.13
152
0.20
178
0.15
94
0.17
139
0.12
33
StereoIMtwo views0.26
3
0.18
34
0.36
34
0.36
37
0.26
147
0.27
25
0.27
43
0.43
5
0.35
16
0.27
2
0.26
3
0.41
42
0.28
32
0.40
16
0.28
43
0.16
110
0.14
178
0.16
60
0.13
50
0.14
45
0.12
33
anonymousdsptwo views0.29
12
0.21
101
0.38
53
0.37
44
0.25
112
0.30
43
0.35
134
0.63
60
0.35
16
0.39
29
0.33
10
0.33
17
0.28
32
0.59
119
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
IGEV-Stereopermissivetwo views0.29
12
0.21
101
0.38
53
0.37
44
0.25
112
0.30
43
0.35
134
0.63
60
0.35
16
0.39
29
0.33
10
0.33
17
0.28
32
0.59
119
0.25
9
0.14
32
0.10
9
0.17
85
0.12
29
0.14
45
0.15
106
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
EGLCR-Stereotwo views0.25
2
0.16
8
0.33
20
0.34
11
0.20
20
0.35
78
0.20
1
0.52
19
0.36
21
0.28
4
0.27
4
0.41
42
0.18
1
0.45
30
0.26
25
0.14
32
0.10
9
0.16
60
0.14
72
0.13
20
0.11
9
Patchmatch Stereo++two views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.22
8
0.59
36
0.36
21
0.63
89
0.73
88
0.58
108
0.38
91
0.58
105
0.36
126
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.31
85
0.59
36
0.36
21
0.63
89
0.73
88
0.58
108
0.38
91
0.56
78
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
ROB_FTStereo_v2two views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.31
85
0.59
36
0.36
21
0.63
89
0.73
88
0.57
100
0.38
91
0.57
88
0.36
126
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
ROB_FTStereotwo views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.25
15
0.21
4
0.59
36
0.36
21
0.63
89
0.73
88
0.58
108
0.38
91
0.57
88
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
HUI-Stereotwo views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.22
8
0.60
45
0.36
21
0.63
89
0.73
88
0.58
108
0.38
91
0.50
51
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
iGMRVCtwo views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.30
70
0.59
36
0.36
21
0.63
89
0.73
88
0.58
108
0.38
91
0.58
105
0.36
126
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
iRAFTtwo views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.22
8
0.59
36
0.36
21
0.63
89
0.73
88
0.58
108
0.38
91
0.58
105
0.36
126
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
RAFT-IKPtwo views0.35
46
0.23
145
0.47
155
0.41
131
0.22
42
0.24
7
0.28
50
0.59
36
0.36
21
0.63
89
0.73
88
0.57
100
0.38
91
0.58
105
0.36
126
0.18
170
0.12
98
0.20
178
0.16
122
0.20
203
0.15
106
test_xeample3two views0.29
12
0.21
101
0.41
81
0.35
29
0.26
147
0.35
78
0.32
101
0.56
28
0.36
21
0.43
38
0.32
9
0.34
20
0.28
32
0.54
68
0.23
4
0.14
32
0.11
57
0.16
60
0.12
29
0.14
45
0.13
58
MyStereo07two views0.32
28
0.22
128
0.34
26
0.42
168
0.28
190
0.40
102
0.50
261
0.72
131
0.37
31
0.37
17
0.34
16
0.32
9
0.31
56
0.59
119
0.27
33
0.14
32
0.13
152
0.18
119
0.17
162
0.17
139
0.16
144
DLNR_Zeroshot_testpermissivetwo views20.09
420
36.28
428
38.04
425
169.85
437
61.80
433
0.23
5
0.20
1
13.88
419
0.37
31
0.44
41
0.66
73
0.43
54
0.21
5
0.62
138
0.28
43
5.46
418
0.10
9
0.15
42
0.11
15
72.60
436
0.11
9
ProNettwo views0.29
12
0.21
101
0.38
53
0.35
29
0.24
86
0.32
63
0.43
229
0.57
31
0.37
31
0.33
13
0.30
6
0.32
9
0.28
32
0.57
88
0.26
25
0.13
12
0.11
57
0.16
60
0.13
50
0.13
20
0.13
58
MC-Stereotwo views0.28
8
0.17
19
0.32
17
0.38
65
0.20
20
0.26
17
0.26
37
0.49
13
0.37
31
0.37
17
0.61
62
0.41
42
0.31
56
0.55
70
0.25
9
0.13
12
0.09
2
0.14
16
0.12
29
0.12
8
0.11
9
HHtwo views0.35
46
0.20
70
0.47
155
0.40
107
0.25
112
0.33
67
0.31
85
0.76
151
0.38
35
0.43
38
0.57
53
0.79
215
0.44
130
0.71
196
0.25
9
0.15
79
0.11
57
0.15
42
0.14
72
0.14
45
0.12
33
HanStereotwo views0.35
46
0.20
70
0.47
155
0.40
107
0.25
112
0.33
67
0.31
85
0.76
151
0.38
35
0.43
38
0.57
53
0.79
215
0.44
130
0.71
196
0.25
9
0.15
79
0.11
57
0.15
42
0.14
72
0.14
45
0.12
33
CroCo-Stereo Lap2two views0.28
8
0.24
180
0.39
70
0.50
284
0.29
213
0.20
1
0.31
85
0.49
13
0.38
35
0.24
1
0.27
4
0.46
66
0.31
56
0.39
14
0.30
59
0.14
32
0.15
201
0.16
60
0.13
50
0.16
108
0.15
106
DeepStereo_RVCtwo views0.36
64
0.21
101
0.47
155
0.40
107
0.24
86
0.26
17
0.22
8
0.60
45
0.38
35
0.69
128
0.67
77
0.57
100
0.51
160
0.56
78
0.39
152
0.16
110
0.12
98
0.18
119
0.15
94
0.19
190
0.18
175
RAFT-Testtwo views0.34
35
0.18
34
0.37
44
0.38
65
0.23
69
0.50
141
0.23
18
0.69
108
0.40
39
0.60
76
0.85
151
0.61
131
0.28
32
0.46
37
0.27
33
0.14
32
0.11
57
0.14
16
0.11
15
0.13
20
0.12
33
cross-rafttwo views0.34
35
0.20
70
0.37
44
0.44
201
0.23
69
0.32
63
0.35
134
0.74
140
0.40
39
0.60
76
0.77
104
0.57
100
0.27
23
0.43
24
0.28
43
0.12
4
0.10
9
0.15
42
0.13
50
0.15
77
0.11
9
DIP-Stereotwo views0.39
107
0.21
101
0.50
193
0.41
131
0.28
190
0.62
206
0.27
43
0.77
154
0.40
39
0.64
98
0.86
154
0.52
82
0.33
68
0.66
167
0.42
164
0.15
79
0.13
152
0.17
85
0.14
72
0.15
77
0.15
106
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
test_4two views0.36
64
0.18
34
0.31
13
0.44
201
0.25
112
0.20
1
0.34
117
0.56
28
0.41
42
0.59
72
1.45
329
0.43
54
0.25
11
0.63
148
0.28
43
0.12
4
0.10
9
0.17
85
0.19
208
0.15
77
0.11
9
KYRafttwo views0.48
181
0.20
70
0.38
53
0.44
201
0.23
69
0.44
126
0.37
164
0.66
80
0.41
42
0.94
268
1.73
348
0.79
215
0.41
114
0.63
148
0.31
65
0.16
110
0.11
57
0.18
119
0.22
262
0.16
108
0.78
378
AnonymousMtwo views0.41
130
0.81
366
0.29
10
0.34
11
0.22
42
0.28
32
0.38
184
0.53
26
0.41
42
0.70
134
0.49
31
0.47
68
0.27
23
0.41
19
0.31
65
0.15
79
0.12
98
1.51
386
0.26
305
0.12
8
0.10
3
CRE-IMPtwo views0.36
64
0.23
145
0.49
181
0.42
168
0.24
86
0.41
115
0.21
4
0.57
31
0.41
42
0.65
105
0.72
84
0.53
86
0.37
88
0.61
132
0.38
146
0.17
142
0.11
57
0.19
154
0.15
94
0.21
221
0.18
175
rrrtwo views0.29
12
0.22
128
0.41
81
0.35
29
0.27
171
0.37
86
0.32
101
0.52
19
0.42
46
0.38
21
0.30
6
0.35
25
0.27
23
0.51
55
0.22
1
0.15
79
0.12
98
0.16
60
0.13
50
0.13
20
0.14
87
MIF-Stereo (partial)two views0.31
26
0.18
34
0.37
44
0.41
131
0.31
240
0.28
32
0.23
18
0.47
9
0.42
46
0.31
8
0.63
64
0.36
30
0.35
76
0.57
88
0.31
65
0.17
142
0.13
152
0.19
154
0.17
162
0.18
157
0.14
87
11t1two views0.36
64
0.21
101
0.42
100
0.35
29
0.22
42
0.62
206
0.29
57
0.69
108
0.43
48
0.60
76
0.53
43
0.53
86
0.48
144
0.56
78
0.40
157
0.18
170
0.14
178
0.16
60
0.13
50
0.17
139
0.17
161
MSKI-zero shottwo views0.32
28
0.17
19
0.34
26
0.39
84
0.21
29
0.32
63
0.22
8
0.61
51
0.43
48
0.52
58
0.64
67
0.61
131
0.20
4
0.74
212
0.25
9
0.14
32
0.10
9
0.14
16
0.10
10
0.12
8
0.12
33
GLC_STEREOtwo views0.29
12
0.19
49
0.27
8
0.44
201
0.19
9
0.31
53
0.26
37
0.47
9
0.43
48
0.37
17
0.47
28
0.41
42
0.23
7
0.50
51
0.34
95
0.14
32
0.18
253
0.19
154
0.16
122
0.16
108
0.13
58
FTStereotwo views0.56
251
0.20
70
0.37
44
0.41
131
0.25
112
0.40
102
0.79
343
0.66
80
0.43
48
1.09
322
3.27
388
0.70
172
0.73
270
0.55
70
0.33
85
0.14
32
0.13
152
0.19
154
0.17
162
0.15
77
0.30
299
LL-Strereo2two views0.35
46
0.24
180
0.48
171
0.41
131
0.26
147
0.35
78
0.24
24
0.67
90
0.44
52
0.54
63
0.51
37
0.66
160
0.25
11
0.66
167
0.30
59
0.14
32
0.12
98
0.23
243
0.20
230
0.18
157
0.13
58
CroCo-Stereocopylefttwo views0.26
3
0.22
128
0.36
34
0.48
255
0.22
42
0.20
1
0.29
57
0.51
16
0.44
52
0.28
4
0.23
1
0.42
48
0.26
17
0.29
1
0.26
25
0.15
79
0.13
152
0.13
9
0.11
15
0.16
108
0.12
33
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
Prome-Stereotwo views0.46
164
0.19
49
0.35
29
0.44
201
0.26
147
0.40
102
0.45
237
0.68
99
0.44
52
0.96
276
1.84
355
0.59
122
0.67
241
0.61
132
0.32
73
0.14
32
0.11
57
0.16
60
0.14
72
0.16
108
0.29
292
sCroCo_RVCtwo views0.35
46
0.28
239
0.69
279
0.51
296
0.39
294
0.41
115
0.31
85
0.49
13
0.45
55
0.31
8
0.48
29
0.38
36
0.32
60
0.46
37
0.32
73
0.21
234
0.22
288
0.19
154
0.19
208
0.21
221
0.20
223
CEStwo views0.28
8
0.14
2
0.23
1
0.30
4
0.70
369
0.37
86
0.27
43
0.48
11
0.46
56
0.34
14
0.48
29
0.27
2
0.22
6
0.39
14
0.23
4
0.13
12
0.11
57
0.12
2
0.08
1
0.13
20
0.17
161
PSM-softLosstwo views0.38
93
0.20
70
0.48
171
0.41
131
0.26
147
0.30
43
0.35
134
0.69
108
0.46
56
0.62
82
0.82
133
0.59
122
0.33
68
0.70
191
0.39
152
0.19
199
0.12
98
0.20
178
0.18
184
0.16
108
0.22
249
KMStereotwo views0.38
93
0.20
70
0.48
171
0.41
131
0.26
147
0.30
43
0.35
134
0.69
108
0.46
56
0.62
82
0.82
133
0.59
122
0.33
68
0.70
191
0.39
152
0.19
199
0.12
98
0.20
178
0.18
184
0.16
108
0.22
249
CAStwo views0.34
35
0.13
1
0.25
6
1.28
387
0.30
223
0.46
133
0.38
184
0.48
11
0.47
59
0.34
14
0.52
41
0.24
1
0.19
2
0.29
1
0.27
33
0.69
378
0.08
1
0.12
2
0.08
1
0.12
8
0.15
106
SST-Stereotwo views0.40
119
0.19
49
0.45
130
0.42
168
0.25
112
0.25
15
0.21
4
0.66
80
0.47
59
1.08
320
0.79
121
0.72
186
0.43
122
0.77
226
0.35
110
0.16
110
0.11
57
0.20
178
0.16
122
0.19
190
0.15
106
MyStereo8two views0.40
119
0.20
70
0.54
214
0.41
131
0.29
213
0.53
154
0.29
57
0.65
71
0.49
61
0.71
140
0.98
208
0.58
108
0.43
122
0.50
51
0.51
215
0.15
79
0.12
98
0.16
60
0.14
72
0.19
190
0.19
203
Anonymoustwo views0.39
107
0.27
226
0.66
266
0.53
312
0.43
317
0.55
163
0.49
257
0.63
60
0.50
62
0.37
17
0.42
19
0.33
17
0.42
115
0.56
78
0.38
146
0.20
220
0.19
267
0.17
85
0.18
184
0.30
292
0.24
262
DCREtwo views0.37
79
0.18
34
0.46
145
0.45
222
0.32
252
0.42
120
0.37
164
0.63
60
0.51
63
0.47
48
0.94
182
0.56
95
0.36
85
0.52
60
0.32
73
0.14
32
0.13
152
0.15
42
0.14
72
0.14
45
0.13
58
RAFT-345two views0.40
119
0.18
34
0.40
77
0.38
65
0.22
42
0.33
67
0.26
37
0.61
51
0.51
63
0.74
164
1.79
353
0.45
60
0.33
68
0.66
167
0.36
126
0.14
32
0.11
57
0.18
119
0.14
72
0.13
20
0.13
58
iRaftStereo_RVCtwo views0.32
28
0.19
49
0.37
44
0.39
84
0.22
42
0.31
53
0.29
57
0.68
99
0.51
63
0.49
50
0.66
73
0.37
32
0.23
7
0.45
30
0.33
85
0.14
32
0.10
9
0.18
119
0.17
162
0.15
77
0.12
33
xtwo views0.39
107
0.24
180
0.41
81
0.34
11
0.23
69
0.52
148
0.32
101
0.86
179
0.52
66
0.57
69
0.70
82
0.59
122
0.50
157
0.49
50
0.46
197
0.17
142
0.15
201
0.17
85
0.15
94
0.17
139
0.16
144
sAnonymous2two views0.40
119
0.39
298
0.85
311
0.48
255
0.37
281
0.40
102
0.46
240
0.57
31
0.52
66
0.38
21
0.46
23
0.35
25
0.42
115
0.43
24
0.30
59
0.19
199
0.14
178
0.18
119
0.17
162
0.57
367
0.44
352
CroCo_RVCtwo views0.40
119
0.39
298
0.85
311
0.48
255
0.37
281
0.40
102
0.46
240
0.57
31
0.52
66
0.38
21
0.46
23
0.35
25
0.42
115
0.43
24
0.30
59
0.19
199
0.14
178
0.18
119
0.17
162
0.57
367
0.44
352
mmmtwo views0.44
148
0.27
226
0.46
145
0.38
65
0.24
86
0.61
199
0.35
134
0.94
207
0.53
69
0.72
151
1.05
238
0.63
138
0.50
157
0.57
88
0.45
187
0.18
170
0.15
201
0.23
243
0.20
230
0.20
203
0.18
175
CASnettwo views0.30
24
0.20
70
0.33
20
0.41
131
0.16
2
0.26
17
0.24
24
0.52
19
0.53
69
0.52
58
0.54
45
0.39
37
0.24
10
0.40
16
0.26
25
0.14
32
0.10
9
0.22
229
0.18
184
0.18
157
0.11
9
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
LCNettwo views0.41
130
0.20
70
0.32
17
0.44
201
0.24
86
0.47
135
0.29
57
0.67
90
0.53
69
0.72
151
1.03
230
0.66
160
0.60
201
0.58
105
0.34
95
0.14
32
0.10
9
0.19
154
0.19
208
0.21
221
0.36
324
GMM-Stereotwo views0.44
148
0.19
49
0.36
34
0.42
168
0.25
112
0.51
145
0.47
245
0.71
127
0.53
69
0.76
171
1.37
312
0.76
207
0.38
91
0.60
125
0.33
85
0.15
79
0.10
9
0.20
178
0.19
208
0.16
108
0.27
279
ACVNet-DCAtwo views0.35
46
0.23
145
0.33
20
0.41
131
0.22
42
0.55
163
0.38
184
0.85
176
0.54
73
0.41
32
0.50
32
0.34
20
0.49
147
0.57
88
0.25
9
0.16
110
0.10
9
0.19
154
0.13
50
0.18
157
0.17
161
1test111two views0.36
64
0.23
145
0.33
20
0.41
131
0.22
42
0.55
163
0.38
184
0.85
176
0.54
73
0.41
32
0.50
32
0.34
20
0.49
147
0.55
70
0.45
187
0.16
110
0.10
9
0.19
154
0.13
50
0.18
157
0.17
161
MIM_Stereotwo views0.38
93
0.17
19
0.53
211
0.37
44
0.24
86
0.27
25
0.24
24
0.70
122
0.54
73
0.72
151
1.00
215
0.63
138
0.29
42
0.64
155
0.38
146
0.13
12
0.14
178
0.17
85
0.16
122
0.14
45
0.11
9
qqqtwo views0.40
119
0.26
212
0.44
119
0.36
37
0.22
42
0.46
133
0.36
152
0.85
176
0.54
73
0.56
67
0.69
80
0.65
155
0.53
165
0.55
70
0.45
187
0.17
142
0.16
228
0.20
178
0.19
208
0.18
157
0.17
161
AACVNettwo views0.50
210
0.23
145
0.49
181
0.46
241
0.29
213
0.52
148
0.38
184
0.90
196
0.55
77
0.81
191
1.03
230
1.00
273
0.70
261
0.83
246
0.54
228
0.21
234
0.18
253
0.24
257
0.18
184
0.23
246
0.20
223
NRIStereotwo views0.36
64
0.20
70
0.45
130
0.41
131
0.23
69
0.34
73
0.26
37
0.65
71
0.55
77
0.64
98
0.63
64
0.56
95
0.37
88
0.65
162
0.37
138
0.15
79
0.11
57
0.18
119
0.15
94
0.17
139
0.14
87
Pruner-Stereotwo views0.38
93
0.20
70
0.45
130
0.40
107
0.25
112
0.22
4
0.24
24
0.67
90
0.55
77
0.89
244
0.76
100
0.68
166
0.29
42
0.62
138
0.35
110
0.18
170
0.12
98
0.20
178
0.17
162
0.17
139
0.18
175
TANstereotwo views0.30
24
0.15
3
0.31
13
0.30
4
0.17
3
0.55
163
0.23
18
0.44
6
0.55
77
0.59
72
0.68
79
0.37
32
0.26
17
0.35
4
0.27
33
0.15
79
0.16
228
0.12
2
0.10
10
0.13
20
0.14
87
CRFU-Nettwo views0.57
256
0.27
226
0.57
228
0.46
241
0.30
223
1.20
340
0.52
278
1.10
262
0.56
81
1.00
293
0.98
208
1.06
290
0.79
288
0.81
237
0.71
267
0.21
234
0.19
267
0.18
119
0.16
122
0.18
157
0.19
203
DisPMtwo views0.39
107
0.19
49
0.44
119
0.41
131
0.27
171
0.24
7
0.31
85
0.65
71
0.57
82
0.87
232
0.87
158
0.60
127
0.32
60
0.76
219
0.32
73
0.18
170
0.12
98
0.19
154
0.17
162
0.15
77
0.20
223
RAFTtwo views0.45
158
0.22
128
0.45
130
0.47
250
0.26
147
0.54
158
0.47
245
0.66
80
0.58
83
0.80
183
0.82
133
0.94
260
0.57
184
0.75
216
0.34
95
0.17
142
0.15
201
0.22
229
0.20
230
0.16
108
0.12
33
TRStereotwo views0.37
79
0.27
226
0.59
233
0.47
250
0.41
306
0.29
36
0.30
70
0.84
173
0.59
84
0.52
58
0.41
18
0.52
82
0.26
17
0.73
206
0.27
33
0.17
142
0.12
98
0.19
154
0.19
208
0.13
20
0.11
9
test-1two views0.36
64
0.19
49
0.71
286
0.46
241
0.26
147
0.44
126
0.36
152
0.60
45
0.59
84
0.48
49
0.67
77
0.53
86
0.36
85
0.40
16
0.29
54
0.14
32
0.11
57
0.16
60
0.14
72
0.15
77
0.16
144
CIPLGtwo views0.41
130
0.21
101
0.63
251
0.45
222
0.33
261
0.52
148
0.33
110
0.65
71
0.60
86
0.82
200
0.96
193
0.46
66
0.32
60
0.55
70
0.44
181
0.16
110
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
ac_64two views0.52
226
0.22
128
0.50
193
0.45
222
0.28
190
0.80
265
0.45
237
1.02
237
0.61
87
0.91
256
0.83
138
1.07
295
0.68
247
0.74
212
0.70
263
0.21
234
0.18
253
0.20
178
0.19
208
0.18
157
0.15
106
AE-Stereotwo views0.34
35
0.21
101
0.42
100
0.48
255
0.31
240
0.48
137
0.35
134
0.61
51
0.62
88
0.32
12
0.55
50
0.52
82
0.27
23
0.47
44
0.29
54
0.13
12
0.13
152
0.18
119
0.16
122
0.15
77
0.12
33
StereoVisiontwo views0.42
136
0.28
239
0.45
130
0.49
270
0.28
190
0.38
98
0.38
184
0.72
131
0.62
88
0.44
41
1.14
267
0.54
90
0.39
103
0.56
78
0.34
95
0.21
234
0.24
305
0.25
268
0.24
286
0.26
268
0.16
144
CASStwo views0.45
158
0.27
226
0.42
100
0.48
255
0.22
42
0.61
199
0.34
117
0.97
219
0.62
88
0.71
140
0.85
151
0.61
131
0.55
178
0.57
88
0.41
160
0.29
305
0.16
228
0.22
229
0.18
184
0.22
237
0.28
286
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
anonymousatwo views0.49
197
0.20
70
0.42
100
0.38
65
0.23
69
0.91
290
0.35
134
0.75
146
0.62
88
0.85
220
1.54
337
1.06
290
0.66
238
0.51
55
0.43
169
0.16
110
0.13
152
0.19
154
0.21
247
0.16
108
0.14
87
iRaft-Stereo_5wtwo views0.45
158
0.21
101
0.48
171
0.42
168
0.28
190
0.31
53
0.54
285
0.63
60
0.62
88
0.62
82
0.89
169
1.01
276
0.69
251
0.75
216
0.66
253
0.13
12
0.12
98
0.17
85
0.15
94
0.14
45
0.15
106
IPLGR_Ctwo views0.40
119
0.21
101
0.64
256
0.45
222
0.33
261
0.52
148
0.34
117
0.66
80
0.62
88
0.82
200
0.92
178
0.45
60
0.32
60
0.52
60
0.46
197
0.17
142
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
GMOStereotwo views0.37
79
0.19
49
0.38
53
0.43
186
0.24
86
0.37
86
0.38
184
0.52
19
0.62
88
0.87
232
0.84
143
0.64
145
0.35
76
0.37
8
0.28
43
0.13
12
0.11
57
0.20
178
0.18
184
0.15
77
0.11
9
error versiontwo views0.37
79
0.19
49
0.38
53
0.43
186
0.24
86
0.37
86
0.38
184
0.52
19
0.62
88
0.87
232
0.84
143
0.64
145
0.35
76
0.37
8
0.28
43
0.13
12
0.11
57
0.20
178
0.18
184
0.15
77
0.11
9
test-vtwo views0.37
79
0.19
49
0.38
53
0.43
186
0.24
86
0.37
86
0.38
184
0.52
19
0.62
88
0.87
232
0.84
143
0.64
145
0.35
76
0.37
8
0.28
43
0.13
12
0.11
57
0.20
178
0.18
184
0.15
77
0.11
9
test-2two views0.37
79
0.19
49
0.38
53
0.43
186
0.24
86
0.37
86
0.38
184
0.52
19
0.62
88
0.87
232
0.84
143
0.64
145
0.35
76
0.37
8
0.28
43
0.13
12
0.11
57
0.20
178
0.18
184
0.15
77
0.11
9
Selective-RAFTtwo views0.35
46
0.23
145
0.51
200
0.44
201
0.21
29
0.64
221
0.27
43
0.59
36
0.63
98
0.40
31
0.38
17
0.55
93
0.40
108
0.57
88
0.35
110
0.13
12
0.11
57
0.14
16
0.12
29
0.16
108
0.13
58
IPLGtwo views0.39
107
0.20
70
0.59
233
0.40
107
0.24
86
0.54
158
0.27
43
0.75
146
0.63
98
0.84
219
0.81
130
0.32
9
0.32
60
0.60
125
0.45
187
0.13
12
0.11
57
0.16
60
0.13
50
0.13
20
0.12
33
ACREtwo views0.40
119
0.21
101
0.65
261
0.45
222
0.33
261
0.51
145
0.33
110
0.66
80
0.63
98
0.80
183
0.92
178
0.45
60
0.32
60
0.52
60
0.45
187
0.16
110
0.12
98
0.15
42
0.14
72
0.13
20
0.14
87
GrayStereotwo views0.49
197
0.19
49
0.42
100
0.46
241
0.28
190
0.53
154
0.67
316
0.69
108
0.63
98
1.02
300
1.47
332
0.78
214
0.76
277
0.56
78
0.33
85
0.14
32
0.12
98
0.17
85
0.17
162
0.15
77
0.29
292
raftrobusttwo views0.34
35
0.19
49
0.36
34
0.41
131
0.27
171
0.30
43
0.25
31
0.71
127
0.63
98
0.58
70
0.55
50
0.45
60
0.46
137
0.51
55
0.29
54
0.16
110
0.12
98
0.14
16
0.12
29
0.12
8
0.13
58
HCRNettwo views0.44
148
0.34
273
0.41
81
0.53
312
0.26
147
0.53
154
0.29
57
0.83
170
0.63
98
0.71
140
0.81
130
0.77
213
0.50
157
0.66
167
0.36
126
0.24
266
0.16
228
0.24
257
0.20
230
0.21
221
0.18
175
PMTNettwo views0.32
28
0.16
8
0.24
3
0.29
2
0.18
7
0.45
131
0.22
8
0.56
28
0.63
98
0.46
45
0.54
45
0.39
37
0.34
74
0.48
49
0.24
6
0.75
380
0.10
9
0.12
2
0.08
1
0.12
8
0.11
9
EKT-Stereotwo views0.35
46
0.23
145
0.39
70
0.43
186
0.29
213
0.38
98
0.31
85
0.69
108
0.64
105
0.45
43
0.63
64
0.49
76
0.27
23
0.56
78
0.33
85
0.18
170
0.14
178
0.18
119
0.15
94
0.16
108
0.16
144
knoymoustwo views0.36
64
0.20
70
0.31
13
0.31
6
0.22
42
0.36
84
0.29
57
0.61
51
0.64
105
0.67
117
0.70
82
0.60
127
0.40
108
0.58
105
0.34
95
0.17
142
0.11
57
0.20
178
0.11
15
0.17
139
0.18
175
RALCasStereoNettwo views0.36
64
0.21
101
0.37
44
0.42
168
0.26
147
0.35
78
0.38
184
0.63
60
0.64
105
0.50
53
0.72
84
0.51
80
0.29
42
0.59
119
0.36
126
0.16
110
0.14
178
0.15
42
0.13
50
0.17
139
0.16
144
RALAANettwo views0.38
93
0.23
145
0.48
171
0.42
168
0.29
213
0.35
78
0.25
31
0.86
179
0.64
105
0.67
117
0.65
69
0.60
127
0.29
42
0.60
125
0.34
95
0.15
79
0.12
98
0.17
85
0.15
94
0.21
221
0.13
58
HITNettwo views0.41
130
0.26
212
0.45
130
0.33
10
0.17
3
0.63
215
0.30
70
0.93
203
0.64
105
0.71
140
0.82
133
0.64
145
0.52
162
0.59
119
0.43
169
0.14
32
0.10
9
0.15
42
0.13
50
0.19
190
0.12
33
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
anonymousdsp2two views0.35
46
0.20
70
0.43
109
0.37
44
0.24
86
0.48
137
0.31
85
0.86
179
0.65
110
0.55
65
0.50
32
0.50
77
0.34
74
0.56
78
0.31
65
0.14
32
0.10
9
0.14
16
0.10
10
0.16
108
0.14
87
Anonymous3two views0.46
164
0.34
273
0.86
316
0.50
284
0.37
281
0.81
270
0.50
261
0.72
131
0.65
110
0.51
55
0.65
69
0.45
60
0.45
134
0.64
155
0.38
146
0.24
266
0.24
305
0.22
229
0.21
247
0.23
246
0.23
256
TestStereotwo views0.38
93
0.31
258
0.40
77
0.45
222
0.20
20
0.40
102
0.37
164
0.66
80
0.65
110
0.53
61
0.78
112
0.47
68
0.40
108
0.55
70
0.37
138
0.18
170
0.13
152
0.20
178
0.15
94
0.22
237
0.13
58
IERtwo views0.46
164
0.23
145
0.50
193
0.38
65
0.28
190
0.69
237
0.35
134
0.80
165
0.66
113
0.83
212
0.94
182
0.75
201
0.77
281
0.60
125
0.42
164
0.17
142
0.14
178
0.17
85
0.17
162
0.17
139
0.15
106
AFF-stereotwo views0.38
93
0.19
49
0.39
70
0.37
44
0.21
29
0.27
25
0.31
85
0.65
71
0.66
113
0.64
98
1.13
265
0.76
207
0.39
103
0.55
70
0.33
85
0.11
1
0.09
2
0.16
60
0.16
122
0.13
20
0.11
9
RAFT_R40two views0.40
119
0.19
49
0.44
119
0.43
186
0.25
112
0.23
5
0.26
37
0.67
90
0.67
115
0.98
285
0.78
112
0.72
186
0.43
122
0.76
219
0.35
110
0.16
110
0.11
57
0.20
178
0.16
122
0.18
157
0.14
87
AAGNettwo views1.43
372
0.20
70
0.48
171
0.44
201
0.25
112
0.29
36
0.31
85
0.65
71
0.68
116
0.97
281
0.86
154
0.67
165
0.62
211
0.64
155
20.63
418
0.16
110
0.11
57
0.19
154
0.15
94
0.19
190
0.12
33
ASMatchtwo views0.48
181
0.19
49
0.45
130
0.39
84
0.28
190
0.37
86
0.26
37
0.74
140
0.68
116
0.76
171
2.34
368
0.61
131
0.52
162
0.62
138
0.37
138
0.14
32
0.12
98
0.17
85
0.15
94
0.14
45
0.21
236
GEStwo views0.44
148
0.23
145
0.57
228
0.40
107
0.30
223
0.59
193
0.36
152
0.96
215
0.68
116
0.74
164
0.83
138
0.47
68
0.48
144
0.67
177
0.43
169
0.22
252
0.16
228
0.17
85
0.16
122
0.18
157
0.23
256
DMCA-RVCcopylefttwo views0.51
217
0.30
253
0.59
233
0.50
284
0.32
252
0.54
158
0.38
184
0.86
179
0.68
116
0.94
268
0.86
154
0.91
255
0.68
247
0.70
191
0.59
239
0.23
257
0.18
253
0.31
317
0.23
273
0.26
268
0.19
203
DMCAtwo views0.45
158
0.26
212
0.50
193
0.38
65
0.28
190
0.51
145
0.34
117
0.93
203
0.68
116
0.75
166
0.83
138
0.79
215
0.53
165
0.51
55
0.54
228
0.21
234
0.16
228
0.21
217
0.16
122
0.19
190
0.21
236
MIPNettwo views0.37
79
0.21
101
0.59
233
0.39
84
0.25
112
0.50
141
0.28
50
0.77
154
0.70
121
0.65
105
0.60
59
0.40
40
0.49
147
0.44
29
0.37
138
0.14
32
0.11
57
0.16
60
0.13
50
0.14
45
0.13
58
PFNet+two views0.40
119
0.19
49
0.49
181
0.39
84
0.25
112
0.28
32
0.23
18
0.64
70
0.70
121
0.85
220
0.79
121
0.64
145
0.35
76
0.72
201
0.34
95
0.19
199
0.14
178
0.23
243
0.20
230
0.16
108
0.20
223
NF-Stereotwo views0.38
93
0.20
70
0.45
130
0.41
131
0.25
112
0.26
17
0.31
85
0.69
108
0.70
121
0.65
105
0.77
104
0.57
100
0.30
52
0.67
177
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.16
108
0.27
279
OCTAStereotwo views0.38
93
0.20
70
0.46
145
0.41
131
0.25
112
0.26
17
0.31
85
0.69
108
0.70
121
0.65
105
0.77
104
0.58
108
0.30
52
0.67
177
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.16
108
0.27
279
PSM-AADtwo views0.48
181
0.20
70
0.37
44
0.43
186
0.23
69
0.56
178
0.50
261
0.65
71
0.70
121
1.07
317
1.12
259
0.58
108
0.92
317
0.61
132
0.32
73
0.15
79
0.11
57
0.25
268
0.26
305
0.18
157
0.43
351
RE-Stereotwo views0.38
93
0.20
70
0.46
145
0.41
131
0.25
112
0.26
17
0.31
85
0.69
108
0.70
121
0.65
105
0.77
104
0.58
108
0.30
52
0.67
177
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.16
108
0.27
279
TVStereotwo views0.38
93
0.20
70
0.46
145
0.41
131
0.25
112
0.26
17
0.31
85
0.69
108
0.70
121
0.65
105
0.77
104
0.58
108
0.30
52
0.67
177
0.35
110
0.18
170
0.12
98
0.20
178
0.16
122
0.16
108
0.27
279
RAFT-RH_RVCtwo views0.56
251
0.17
19
0.41
81
0.37
44
0.23
69
0.57
182
0.24
24
0.60
45
0.70
121
1.19
333
3.94
399
0.56
95
0.38
91
0.65
162
0.36
126
0.13
12
0.11
57
0.20
178
0.14
72
0.12
8
0.13
58
ICVPtwo views0.46
164
0.25
198
0.38
53
0.48
255
0.28
190
0.58
184
0.43
229
1.00
227
0.70
121
0.67
117
0.95
189
0.75
201
0.55
178
0.53
65
0.54
228
0.23
257
0.17
242
0.19
154
0.17
162
0.19
190
0.20
223
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
FENettwo views0.42
136
0.22
128
0.38
53
0.39
84
0.24
86
0.55
163
0.32
101
0.79
161
0.70
121
0.71
140
0.72
84
0.63
138
0.57
184
0.62
138
0.44
181
0.19
199
0.13
152
0.19
154
0.17
162
0.18
157
0.19
203
DeepPruner_ROBtwo views0.53
229
0.34
273
0.59
233
0.41
131
0.30
223
0.50
141
0.43
229
1.19
294
0.70
121
0.85
220
1.05
238
0.86
235
0.55
178
0.84
251
0.51
215
0.29
305
0.23
298
0.22
229
0.22
262
0.26
268
0.25
268
4D-IteraStereotwo views0.33
34
0.18
34
0.40
77
0.40
107
0.24
86
0.32
63
0.27
43
0.58
35
0.72
132
0.65
105
0.54
45
0.42
48
0.23
7
0.45
30
0.28
43
0.14
32
0.09
2
0.19
154
0.16
122
0.16
108
0.11
9
LoStwo views0.29
12
0.15
3
0.30
11
0.29
2
0.18
7
0.33
67
0.29
57
0.51
16
0.72
132
0.34
14
0.52
41
0.41
42
0.28
32
0.47
44
0.28
43
0.15
79
0.11
57
0.13
9
0.09
6
0.11
1
0.11
9
CSP-Nettwo views0.56
251
0.27
226
0.49
181
0.41
131
0.28
190
1.22
341
0.50
261
1.23
312
0.72
132
0.95
275
0.95
189
0.89
249
0.62
211
0.83
246
0.62
245
0.26
286
0.17
242
0.17
85
0.17
162
0.18
157
0.17
161
CREStereotwo views0.28
8
0.15
3
0.24
3
0.27
1
0.17
3
0.37
86
0.25
31
0.51
16
0.72
132
0.42
37
0.51
37
0.32
9
0.26
17
0.38
12
0.25
9
0.16
110
0.11
57
0.12
2
0.08
1
0.12
8
0.11
9
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
BEATNet_4xtwo views0.46
164
0.32
260
0.56
225
0.37
44
0.19
9
0.63
215
0.35
134
1.01
234
0.72
132
0.77
176
0.83
138
0.70
172
0.59
197
0.68
185
0.53
225
0.16
110
0.12
98
0.16
60
0.14
72
0.24
256
0.16
144
Any-RAFTtwo views0.35
46
0.16
8
0.30
11
0.34
11
0.21
29
0.52
148
0.22
8
0.88
190
0.73
137
0.53
61
0.73
88
0.64
145
0.28
32
0.46
37
0.24
6
0.15
79
0.10
9
0.13
9
0.10
10
0.13
20
0.12
33
RAFT_CTSACEtwo views0.45
158
0.20
70
0.44
119
0.45
222
0.27
171
0.34
73
0.39
203
0.60
45
0.73
137
0.76
171
1.44
326
0.83
227
0.38
91
1.08
314
0.26
25
0.12
4
0.13
152
0.18
119
0.16
122
0.15
77
0.11
9
STrans-v2two views0.46
164
0.20
70
0.48
171
0.40
107
0.24
86
0.55
163
0.50
261
1.07
253
0.73
137
0.65
105
1.05
238
0.72
186
0.69
251
0.72
201
0.33
85
0.14
32
0.10
9
0.17
85
0.14
72
0.13
20
0.12
33
XX-TBDtwo views0.32
28
0.53
339
0.26
7
0.51
296
0.20
20
0.37
86
0.24
24
0.40
3
0.73
137
0.54
63
0.69
80
0.31
7
0.25
11
0.32
3
0.27
33
0.16
110
0.10
9
0.12
2
0.09
6
0.13
20
0.11
9
RAFT-Stereo + iAFFtwo views0.36
64
0.17
19
0.41
81
0.35
29
0.19
9
0.33
67
0.29
57
0.65
71
0.73
137
0.68
123
1.01
218
0.56
95
0.40
108
0.42
21
0.30
59
0.11
1
0.09
2
0.15
42
0.14
72
0.13
20
0.10
3
IPLGRtwo views0.39
107
0.21
101
0.63
251
0.39
84
0.22
42
0.49
140
0.29
57
0.76
151
0.74
142
0.78
179
0.77
104
0.44
59
0.42
115
0.47
44
0.38
146
0.13
12
0.12
98
0.16
60
0.14
72
0.15
77
0.13
58
DEmStereotwo views0.48
181
0.17
19
0.50
193
0.38
65
0.25
112
0.59
193
0.34
117
0.63
60
0.74
142
0.89
244
1.66
344
0.58
108
1.06
337
0.60
125
0.42
164
0.14
32
0.11
57
0.16
60
0.16
122
0.14
45
0.15
106
HHNettwo views0.41
130
0.17
19
0.41
81
0.34
11
0.37
281
0.33
67
0.34
117
0.69
108
0.75
144
0.86
225
1.30
302
0.52
82
0.32
60
0.52
60
0.35
110
0.15
79
0.11
57
0.19
154
0.15
94
0.15
77
0.24
262
UNettwo views0.54
239
0.26
212
0.66
266
0.44
201
0.40
299
0.99
307
0.41
221
0.98
222
0.75
144
0.83
212
0.89
169
1.04
285
0.72
269
0.73
206
0.62
245
0.19
199
0.14
178
0.20
178
0.17
162
0.20
203
0.17
161
UPFNettwo views0.53
229
0.24
180
0.51
200
0.45
222
0.38
289
0.84
283
0.49
257
0.99
224
0.75
144
0.87
232
0.88
165
0.86
235
0.64
227
0.80
234
0.71
267
0.20
220
0.20
275
0.20
178
0.20
230
0.19
190
0.15
106
Gwc-CoAtRStwo views0.34
35
0.17
19
0.44
119
0.39
84
0.23
69
0.34
73
0.22
8
0.70
122
0.75
144
0.60
76
0.59
58
0.58
108
0.29
42
0.45
30
0.26
25
0.14
32
0.11
57
0.14
16
0.12
29
0.12
8
0.12
33
HSMtwo views0.51
217
0.24
180
0.41
81
0.39
84
0.24
86
0.75
252
0.40
209
1.22
308
0.75
144
0.81
191
0.91
174
1.21
313
0.69
251
0.87
261
0.46
197
0.17
142
0.13
152
0.17
85
0.14
72
0.17
139
0.17
161
DN-CSS_ROBtwo views0.43
142
0.26
212
0.62
243
0.40
107
0.29
213
0.44
126
0.27
43
0.77
154
0.75
144
0.72
151
1.09
254
0.48
72
0.43
122
0.69
188
0.37
138
0.15
79
0.12
98
0.21
217
0.19
208
0.18
157
0.16
144
GMStereo_Zeroshotpermissivetwo views0.49
197
0.44
313
0.74
293
0.49
270
0.27
171
0.56
178
0.29
57
0.73
138
0.76
150
0.86
225
0.94
182
0.91
255
0.36
85
0.74
212
0.43
169
0.26
286
0.14
178
0.26
282
0.15
94
0.36
322
0.18
175
BUStwo views0.45
158
0.25
198
0.43
109
0.45
222
0.28
190
0.70
239
0.34
117
0.94
207
0.76
150
0.75
166
0.80
123
0.65
155
0.49
147
0.64
155
0.51
215
0.20
220
0.14
178
0.22
229
0.19
208
0.18
157
0.18
175
BSDual-CNNtwo views0.46
164
0.25
198
0.43
109
0.45
222
0.28
190
0.77
255
0.40
209
0.94
207
0.76
150
0.75
166
0.80
123
0.76
207
0.54
176
0.64
155
0.43
169
0.20
220
0.14
178
0.22
229
0.19
208
0.18
157
0.18
175
psmgtwo views0.49
197
0.25
198
0.43
109
0.41
131
0.28
190
0.85
284
0.43
229
0.99
224
0.76
150
0.91
256
0.94
182
0.76
207
0.54
176
0.64
155
0.43
169
0.20
220
0.15
201
0.20
178
0.20
230
0.18
157
0.18
175
TransformOpticalFlowtwo views0.44
148
0.20
70
0.47
155
0.41
131
0.23
69
0.37
86
0.47
245
0.94
207
0.76
150
0.65
105
1.14
267
0.73
195
0.56
183
0.76
219
0.32
73
0.15
79
0.10
9
0.17
85
0.15
94
0.14
45
0.13
58
IIG-Stereotwo views0.43
142
0.21
101
0.44
119
0.50
284
0.25
112
0.44
126
0.21
4
0.71
127
0.76
150
0.83
212
0.95
189
0.83
227
0.43
122
0.90
271
0.35
110
0.15
79
0.12
98
0.19
154
0.14
72
0.15
77
0.11
9
LMCR-Stereopermissivemany views0.53
229
0.30
253
0.53
211
0.58
331
0.30
223
0.83
280
0.36
152
1.19
294
0.76
150
0.88
240
1.04
234
0.56
95
0.62
211
0.82
239
0.67
256
0.19
199
0.15
201
0.19
154
0.14
72
0.23
246
0.17
161
ToySttwo views0.49
197
0.27
226
0.75
296
0.40
107
0.27
171
0.64
221
0.49
257
0.84
173
0.77
157
0.60
76
0.83
138
0.88
245
0.66
238
0.70
191
0.56
234
0.16
110
0.17
242
0.21
217
0.20
230
0.21
221
0.19
203
Anonymous_2two views0.82
315
0.44
313
0.63
251
0.40
107
0.43
317
0.80
265
0.52
278
0.72
131
0.77
157
0.71
140
0.60
59
0.87
240
0.76
277
0.75
216
0.58
235
0.52
368
0.54
381
0.54
368
4.82
417
0.56
365
0.40
341
SACVNettwo views0.58
262
0.34
273
0.55
219
0.55
321
0.36
276
0.63
215
0.48
251
1.13
272
0.77
157
1.02
300
1.06
244
1.02
281
0.74
272
0.90
271
0.51
215
0.27
293
0.21
282
0.25
268
0.24
286
0.29
283
0.36
324
IRAFT_RVCtwo views0.42
136
0.20
70
0.48
171
0.44
201
0.24
86
0.27
25
0.54
285
0.74
140
0.77
157
0.76
171
0.80
123
0.73
195
0.51
160
0.70
191
0.36
126
0.17
142
0.10
9
0.21
217
0.16
122
0.16
108
0.14
87
SFCPSMtwo views0.47
174
0.21
101
0.55
219
0.40
107
0.27
171
0.87
288
0.37
164
1.33
336
0.77
157
0.80
183
0.84
143
0.54
90
0.49
147
0.57
88
0.37
138
0.18
170
0.13
152
0.18
119
0.20
230
0.16
108
0.15
106
PSMNet-RSSMtwo views0.48
181
0.22
128
0.38
53
0.42
168
0.25
112
0.50
141
0.37
164
1.10
262
0.77
157
0.70
134
1.06
244
0.84
231
0.64
227
0.62
138
0.47
201
0.23
257
0.15
201
0.23
243
0.25
295
0.20
203
0.19
203
whm_ethtwo views0.48
181
0.30
253
0.74
293
0.46
241
0.38
289
0.37
86
0.37
164
0.79
161
0.78
163
0.82
200
1.74
350
0.37
32
0.38
91
0.60
125
0.38
146
0.18
170
0.16
228
0.20
178
0.20
230
0.19
190
0.22
249
test-3two views0.34
35
0.16
8
0.43
109
0.39
84
0.21
29
0.43
122
0.22
8
0.63
60
0.78
163
0.71
140
0.45
20
0.64
145
0.27
23
0.43
24
0.31
65
0.12
4
0.09
2
0.17
85
0.13
50
0.12
8
0.10
3
test_1two views0.34
35
0.16
8
0.43
109
0.39
84
0.21
29
0.43
122
0.23
18
0.63
60
0.78
163
0.68
123
0.45
20
0.64
145
0.27
23
0.43
24
0.31
65
0.12
4
0.09
2
0.17
85
0.13
50
0.12
8
0.10
3
OMP-Stereotwo views0.42
136
0.22
128
0.46
145
0.52
307
0.24
86
0.36
84
0.25
31
0.71
127
0.78
163
0.77
176
0.64
67
0.89
249
0.39
103
0.91
278
0.35
110
0.15
79
0.12
98
0.20
178
0.15
94
0.15
77
0.12
33
PFNettwo views0.42
136
0.18
34
0.58
232
0.43
186
0.24
86
0.43
122
0.32
101
0.74
140
0.78
163
1.00
293
0.74
97
0.68
166
0.39
103
0.72
201
0.37
138
0.16
110
0.10
9
0.20
178
0.15
94
0.16
108
0.13
58
HGLStereotwo views0.56
251
0.28
239
0.57
228
0.50
284
0.37
281
0.80
265
0.45
237
1.02
237
0.78
163
0.86
225
1.14
267
0.89
249
0.82
296
0.76
219
0.73
270
0.21
234
0.20
275
0.19
154
0.18
184
0.19
190
0.21
236
GANet-RSSMtwo views0.47
174
0.21
101
0.37
44
0.38
65
0.25
112
0.58
184
0.36
152
1.07
253
0.78
163
0.68
123
1.01
218
0.86
235
0.67
241
0.62
138
0.44
181
0.21
234
0.15
201
0.18
119
0.18
184
0.18
157
0.17
161
MaskLacGwcNet_RVCtwo views0.67
282
0.81
366
0.73
289
0.53
312
0.37
281
1.40
352
0.53
281
1.04
244
0.79
170
0.88
240
0.94
182
0.95
262
0.53
165
0.93
286
0.58
235
0.39
351
0.30
333
0.57
370
0.31
328
0.53
361
0.30
299
CoDeXtwo views0.47
174
0.20
70
0.49
181
0.42
168
0.25
112
0.75
252
0.36
152
1.27
325
0.80
171
0.82
200
0.96
193
0.62
137
0.57
184
0.60
125
0.36
126
0.17
142
0.12
98
0.17
85
0.15
94
0.16
108
0.14
87
riskmintwo views0.38
93
0.20
70
0.39
70
0.32
8
0.23
69
0.53
154
0.30
70
0.63
60
0.80
171
0.49
50
0.56
52
0.73
195
0.58
191
0.55
70
0.36
126
0.17
142
0.11
57
0.19
154
0.13
50
0.19
190
0.20
223
RAFT+CT+SAtwo views0.39
107
0.23
145
0.36
34
0.51
296
0.27
171
0.29
36
0.46
240
0.75
146
0.80
171
0.51
55
0.89
169
0.41
42
0.40
108
0.78
230
0.32
73
0.14
32
0.11
57
0.18
119
0.18
184
0.15
77
0.14
87
PSMNet-ADLtwo views0.48
181
0.27
226
0.40
77
0.48
255
0.30
223
0.68
235
0.37
164
0.90
196
0.80
171
0.61
81
0.80
123
0.92
257
0.62
211
0.72
201
0.63
248
0.23
257
0.18
253
0.18
119
0.20
230
0.22
237
0.20
223
ACVNettwo views0.46
164
0.23
145
0.36
34
0.39
84
0.28
190
0.58
184
0.40
209
0.87
186
0.80
171
0.64
98
0.96
193
0.79
215
0.60
201
0.63
148
0.67
256
0.17
142
0.15
201
0.16
60
0.15
94
0.18
157
0.15
106
acv_fttwo views0.51
217
0.23
145
0.56
225
0.44
201
0.28
190
0.86
287
0.39
203
0.91
200
0.80
171
0.97
281
0.96
193
0.79
215
0.59
197
0.63
148
0.87
298
0.17
142
0.15
201
0.16
60
0.15
94
0.17
139
0.15
106
ARAFTtwo views0.47
174
0.24
180
0.79
306
0.42
168
0.25
112
0.55
163
0.55
289
0.75
146
0.81
177
0.89
244
0.75
98
0.73
195
0.47
140
0.88
264
0.37
138
0.15
79
0.12
98
0.23
243
0.22
262
0.14
45
0.13
58
CBFPSMtwo views0.59
269
0.22
128
1.31
358
0.38
65
0.27
171
1.12
329
0.65
313
0.79
161
0.82
178
0.80
183
0.81
130
1.35
337
0.87
308
0.67
177
0.76
275
0.16
110
0.15
201
0.15
42
0.16
122
0.17
139
0.22
249
test_5two views0.43
142
0.24
180
0.43
109
0.52
307
0.28
190
0.28
32
0.42
228
0.72
131
0.82
178
0.62
82
0.91
174
0.72
186
0.55
178
0.79
233
0.35
110
0.14
32
0.11
57
0.18
119
0.18
184
0.18
157
0.16
144
test_3two views0.36
64
0.19
49
0.44
119
0.44
201
0.23
69
0.48
137
0.36
152
0.66
80
0.82
178
0.64
98
0.45
20
0.68
166
0.25
11
0.41
19
0.31
65
0.12
4
0.10
9
0.18
119
0.16
122
0.15
77
0.11
9
psm_uptwo views0.55
240
0.26
212
0.47
155
0.49
270
0.32
252
0.65
226
0.56
294
1.04
244
0.82
178
0.82
200
0.88
165
1.01
276
0.94
323
0.74
212
0.61
243
0.21
234
0.25
313
0.26
282
0.23
273
0.21
221
0.20
223
DSFCAtwo views0.55
240
0.25
198
0.62
243
0.40
107
0.36
276
0.74
249
0.52
278
1.04
244
0.82
178
1.06
314
0.84
143
0.89
249
0.63
217
0.99
296
0.58
235
0.25
276
0.21
282
0.21
217
0.21
247
0.21
221
0.19
203
SQANettwo views0.82
315
0.74
361
0.67
270
1.13
382
0.98
380
1.11
326
0.47
245
1.07
253
0.83
183
0.91
256
1.05
238
1.03
283
0.74
272
1.01
299
0.64
250
0.61
375
0.24
305
1.03
382
0.35
341
1.18
386
0.58
373
hknettwo views0.49
197
0.25
198
0.51
200
0.45
222
0.29
213
0.77
255
0.40
209
0.94
207
0.83
183
0.75
166
0.80
123
0.97
266
0.61
206
0.73
206
0.45
187
0.18
170
0.14
178
0.22
229
0.19
208
0.18
157
0.18
175
s12784htwo views0.36
64
0.15
3
0.24
3
0.34
11
0.15
1
0.77
255
0.29
57
0.80
165
0.83
183
0.56
67
0.57
53
0.43
54
0.40
108
0.57
88
0.33
85
0.12
4
0.10
9
0.14
16
0.09
6
0.14
45
0.09
1
iinet-ftwo views0.67
282
0.26
212
2.15
386
0.39
84
0.31
240
1.19
339
0.56
294
0.84
173
0.84
186
0.80
183
1.17
279
1.05
289
0.84
302
0.71
196
1.21
348
0.20
220
0.18
253
0.17
85
0.15
94
0.20
203
0.20
223
gwcnet-sptwo views0.48
181
0.23
145
0.70
283
0.40
107
0.26
147
0.81
270
0.41
221
0.89
192
0.84
186
0.91
256
0.76
100
0.66
160
0.61
206
0.66
167
0.50
207
0.18
170
0.17
242
0.18
119
0.18
184
0.18
157
0.18
175
scenettwo views0.48
181
0.23
145
0.70
283
0.40
107
0.26
147
0.81
270
0.41
221
0.89
192
0.84
186
0.91
256
0.76
100
0.66
160
0.61
206
0.66
167
0.50
207
0.18
170
0.17
242
0.18
119
0.18
184
0.18
157
0.18
175
ssnettwo views0.48
181
0.23
145
0.70
283
0.40
107
0.26
147
0.81
270
0.41
221
0.89
192
0.84
186
0.91
256
0.76
100
0.66
160
0.61
206
0.66
167
0.50
207
0.18
170
0.17
242
0.18
119
0.18
184
0.18
157
0.18
175
CFNet-RSSMtwo views0.34
35
0.17
19
0.45
130
0.39
84
0.22
42
0.35
78
0.23
18
0.73
138
0.84
186
0.65
105
0.54
45
0.57
100
0.28
32
0.46
37
0.26
25
0.13
12
0.10
9
0.14
16
0.12
29
0.13
20
0.11
9
DANettwo views0.71
293
0.45
317
0.91
320
0.59
334
0.40
299
0.81
270
0.40
209
0.97
219
0.84
186
1.20
336
1.22
287
1.33
331
0.88
311
1.16
323
1.24
350
0.27
293
0.23
298
0.31
317
0.25
295
0.35
318
0.32
309
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
UCFNet_RVCtwo views0.49
197
0.26
212
0.35
29
0.39
84
0.26
147
0.64
221
0.36
152
1.15
281
0.84
186
0.67
117
0.88
165
0.88
245
0.59
197
0.58
105
0.45
187
0.24
266
0.17
242
0.27
294
0.27
310
0.25
264
0.23
256
DRafttwo views0.49
197
0.17
19
0.47
155
0.37
44
0.25
112
0.58
184
0.40
209
0.65
71
0.85
193
1.02
300
1.75
352
0.50
77
0.82
296
0.63
148
0.40
157
0.13
12
0.11
57
0.16
60
0.16
122
0.14
45
0.15
106
APVNettwo views0.71
293
0.37
285
0.89
319
0.56
324
0.45
328
1.18
338
0.68
321
1.41
352
0.85
193
0.81
191
1.15
272
1.04
285
0.81
292
1.10
317
1.17
345
0.26
286
0.28
325
0.32
322
0.31
328
0.29
283
0.30
299
cf-rtwo views0.47
174
0.23
145
0.41
81
0.39
84
0.23
69
0.59
193
0.37
164
0.88
190
0.85
193
0.72
151
1.05
238
0.94
260
0.62
211
0.56
78
0.54
228
0.21
234
0.14
178
0.17
85
0.19
208
0.15
77
0.15
106
CFNet-ftpermissivetwo views0.48
181
0.23
145
0.36
34
0.40
107
0.26
147
0.64
221
0.37
164
0.87
186
0.85
193
0.64
98
1.00
215
1.01
276
0.64
227
0.61
132
0.53
225
0.23
257
0.15
201
0.24
257
0.21
247
0.23
246
0.18
175
CFNet_RVCtwo views0.48
181
0.23
145
0.36
34
0.40
107
0.26
147
0.64
221
0.37
164
0.87
186
0.85
193
0.64
98
1.00
215
1.01
276
0.64
227
0.61
132
0.53
225
0.23
257
0.15
201
0.24
257
0.21
247
0.23
246
0.18
175
AASNettwo views0.53
229
0.25
198
0.52
205
0.49
270
0.32
252
0.74
249
0.40
209
1.50
362
0.86
198
0.86
225
0.92
178
0.64
145
0.59
197
0.59
119
0.79
280
0.23
257
0.19
267
0.20
178
0.16
122
0.21
221
0.19
203
GANet-ADLtwo views0.42
136
0.25
198
0.45
130
0.43
186
0.29
213
0.54
158
0.35
134
0.89
192
0.86
198
0.63
89
0.72
84
0.68
166
0.42
115
0.52
60
0.41
160
0.21
234
0.14
178
0.15
42
0.13
50
0.18
157
0.19
203
CrosDoStereotwo views0.50
210
0.18
34
0.45
130
0.38
65
0.24
86
0.40
102
1.18
373
0.67
90
0.86
198
0.94
268
1.37
312
0.63
138
0.77
281
0.65
162
0.45
187
0.15
79
0.12
98
0.17
85
0.18
184
0.14
45
0.14
87
DeepStereo_LLtwo views0.50
210
0.18
34
0.45
130
0.38
65
0.24
86
0.40
102
1.18
373
0.67
90
0.86
198
0.94
268
1.37
312
0.63
138
0.77
281
0.65
162
0.45
187
0.15
79
0.12
98
0.17
85
0.18
184
0.14
45
0.14
87
ADLNettwo views0.55
240
0.27
226
0.51
200
0.44
201
0.35
274
0.78
259
0.46
240
1.08
257
0.86
198
0.99
288
0.98
208
0.92
257
0.63
217
0.69
188
0.81
285
0.22
252
0.16
228
0.22
229
0.22
262
0.21
221
0.21
236
test_xeamplepermissivetwo views1.01
340
0.21
101
0.42
100
0.35
29
0.21
29
0.71
244
0.39
203
1.23
312
0.86
198
0.81
191
1.04
234
0.69
170
0.61
206
0.69
188
10.93
410
0.19
199
0.15
201
0.18
119
0.17
162
0.18
157
0.17
161
delettwo views0.55
240
0.24
180
0.55
219
0.44
201
0.33
261
1.07
320
0.50
261
1.00
227
0.86
198
0.85
220
0.96
193
0.90
253
0.63
217
0.83
246
0.74
273
0.18
170
0.18
253
0.20
178
0.21
247
0.16
108
0.15
106
STTStereotwo views0.55
240
0.37
285
0.76
301
0.44
201
0.31
240
0.60
198
0.44
235
0.96
215
0.86
198
0.99
288
0.90
172
0.96
264
0.58
191
0.71
196
0.61
243
0.25
276
0.23
298
0.26
282
0.32
334
0.24
256
0.23
256
PS-NSSStwo views0.58
262
0.44
313
0.62
243
0.42
168
0.33
261
0.66
229
0.58
298
1.02
237
0.86
198
0.77
176
1.28
298
0.72
186
0.64
227
0.82
239
0.59
239
0.31
314
0.26
319
0.40
346
0.27
310
0.33
307
0.26
272
THIR-Stereotwo views0.50
210
0.18
34
0.45
130
0.38
65
0.23
69
0.75
252
0.67
316
0.66
80
0.87
207
1.02
300
1.40
318
0.72
186
0.76
277
0.62
138
0.42
164
0.15
79
0.11
57
0.17
85
0.18
184
0.14
45
0.15
106
FADNet-RVCtwo views0.60
272
0.53
339
1.14
340
0.46
241
0.39
294
0.61
199
0.39
203
1.12
271
0.87
207
0.70
134
0.84
143
1.04
285
0.55
178
0.94
293
0.69
260
0.26
286
0.25
313
0.28
301
0.28
315
0.31
297
0.31
305
G-Nettwo views0.95
336
0.46
319
1.04
330
0.64
346
0.48
336
2.12
380
0.64
312
1.01
234
0.87
207
1.75
367
2.82
384
1.30
323
1.64
375
1.06
309
0.96
323
0.36
345
0.29
330
0.35
331
0.25
295
0.45
346
0.42
346
MLCVtwo views0.47
174
0.24
180
0.61
240
0.37
44
0.17
3
0.61
199
0.33
110
0.80
165
0.87
207
0.94
268
1.13
265
0.72
186
0.43
122
0.89
269
0.51
215
0.13
12
0.10
9
0.13
9
0.11
15
0.14
45
0.12
33
NINENettwo views0.50
210
0.29
247
0.51
200
0.45
222
0.32
252
0.70
239
0.34
117
1.10
262
0.88
211
0.80
183
0.94
182
0.65
155
0.49
147
0.73
206
0.51
215
0.22
252
0.20
275
0.25
268
0.18
184
0.22
237
0.21
236
CREStereo++_RVCtwo views0.32
28
0.15
3
0.23
1
0.31
6
0.24
86
0.27
25
0.22
8
0.46
8
0.88
211
0.46
45
0.80
123
0.30
5
0.26
17
0.36
5
0.33
85
0.13
12
0.09
2
0.13
9
0.51
373
0.13
20
0.09
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CFNet_pseudotwo views0.46
164
0.24
180
0.52
205
0.37
44
0.27
171
0.58
184
0.30
70
0.86
179
0.88
211
0.82
200
1.03
230
0.75
201
0.47
140
0.58
105
0.44
181
0.17
142
0.12
98
0.24
257
0.16
122
0.24
256
0.19
203
xxxxtwo views1.01
340
0.22
128
0.43
109
0.36
37
0.21
29
0.82
278
0.36
152
1.32
334
0.88
211
0.71
140
0.94
182
0.97
266
0.63
217
0.64
155
10.58
409
0.20
220
0.16
228
0.18
119
0.17
162
0.19
190
0.19
203
psmorigintwo views0.82
315
0.51
330
2.09
384
0.49
270
0.41
306
0.85
284
0.50
261
1.04
244
0.88
211
1.45
351
1.43
324
1.50
351
1.06
337
1.22
331
0.97
324
0.31
314
0.32
346
0.27
294
0.27
310
0.33
307
0.42
346
FADNet_RVCtwo views0.55
240
0.37
285
1.17
346
0.44
201
0.31
240
0.56
178
0.34
117
1.06
252
0.88
211
0.67
117
0.90
172
0.61
131
0.65
233
0.93
286
0.70
263
0.21
234
0.18
253
0.26
282
0.23
273
0.31
297
0.28
286
RASNettwo views0.53
229
0.22
128
0.52
205
0.38
65
0.22
42
0.68
235
0.38
184
0.97
219
0.88
211
0.73
158
1.04
234
1.03
283
0.92
317
0.90
271
0.86
294
0.16
110
0.14
178
0.14
16
0.17
162
0.15
77
0.13
58
NLCA_NET_v2_RVCtwo views0.53
229
0.32
260
0.64
256
0.44
201
0.30
223
0.66
229
0.44
235
1.04
244
0.88
211
0.91
256
0.91
174
0.99
270
0.60
201
0.68
185
0.60
242
0.21
234
0.17
242
0.22
229
0.22
262
0.21
221
0.21
236
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
ccs_robtwo views0.46
164
0.24
180
0.52
205
0.37
44
0.27
171
0.58
184
0.31
85
0.86
179
0.88
211
0.82
200
1.02
226
0.75
201
0.47
140
0.58
105
0.44
181
0.17
142
0.12
98
0.24
257
0.16
122
0.24
256
0.19
203
AdaStereotwo views0.50
210
0.32
260
0.47
155
0.48
255
0.25
112
0.67
233
0.32
101
1.17
289
0.88
211
0.75
166
0.99
213
0.75
201
0.49
147
0.67
177
0.46
197
0.27
293
0.12
98
0.28
301
0.18
184
0.23
246
0.18
175
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
raft+_RVCtwo views0.38
93
0.19
49
0.35
29
0.37
44
0.25
112
0.45
131
0.37
164
0.78
159
0.89
221
0.51
55
0.78
112
0.50
77
0.29
42
0.53
65
0.40
157
0.15
79
0.12
98
0.17
85
0.15
94
0.14
45
0.12
33
222two views1.18
359
0.22
128
0.44
119
0.37
44
0.22
42
0.79
262
0.37
164
1.31
333
0.89
221
0.92
264
1.08
250
0.72
186
0.71
265
0.66
167
13.89
413
0.20
220
0.15
201
0.17
85
0.16
122
0.18
157
0.19
203
TestStereo1two views0.43
142
0.23
145
0.41
81
0.51
296
0.24
86
0.34
73
0.40
209
0.77
154
0.90
223
0.68
123
0.96
193
0.48
72
0.46
137
0.91
278
0.32
73
0.16
110
0.13
152
0.18
119
0.15
94
0.14
45
0.13
58
SA-5Ktwo views0.43
142
0.23
145
0.41
81
0.51
296
0.24
86
0.34
73
0.40
209
0.77
154
0.90
223
0.68
123
0.96
193
0.48
72
0.46
137
0.91
278
0.32
73
0.16
110
0.13
152
0.18
119
0.15
94
0.14
45
0.13
58
rafts_anoytwo views0.37
79
0.21
101
0.36
34
0.41
131
0.26
147
0.30
43
0.33
110
0.67
90
0.90
223
0.58
70
0.66
73
0.45
60
0.33
68
0.47
44
0.39
152
0.16
110
0.11
57
0.21
217
0.23
273
0.17
139
0.14
87
hitnet-ftcopylefttwo views0.55
240
0.27
226
0.39
70
0.41
131
0.28
190
0.78
259
0.40
209
0.92
201
0.90
223
0.82
200
1.01
218
1.13
308
0.70
261
0.78
230
0.67
256
0.28
299
0.20
275
0.28
301
0.22
262
0.29
283
0.26
272
anonymitytwo views0.97
337
0.89
372
1.05
331
0.92
374
1.03
383
0.97
302
0.81
345
1.29
328
0.91
227
1.07
317
0.98
208
1.00
273
0.95
326
1.02
304
0.92
317
0.96
386
0.95
404
0.90
379
0.91
392
0.92
378
0.94
385
ADStereo(finetuned)two views0.37
79
0.16
8
0.49
181
0.34
11
0.19
9
0.30
43
0.30
70
0.68
99
0.91
227
0.70
134
0.77
104
0.43
54
0.69
251
0.45
30
0.33
85
0.14
32
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
DCANettwo views0.36
64
0.16
8
0.41
81
0.34
11
0.19
9
0.30
43
0.30
70
0.68
99
0.91
227
0.70
134
0.77
104
0.43
54
0.57
184
0.45
30
0.34
95
0.14
32
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
RAFT + AFFtwo views0.53
229
0.29
247
0.75
296
0.51
296
0.32
252
0.63
215
0.60
302
1.00
227
0.91
227
0.78
179
0.87
158
0.83
227
0.58
191
0.80
234
0.47
201
0.17
142
0.20
275
0.23
243
0.22
262
0.18
157
0.18
175
MMNettwo views0.55
240
0.25
198
0.61
240
0.43
186
0.34
268
1.07
320
0.39
203
0.87
186
0.91
227
0.91
256
0.93
181
0.86
235
0.76
277
0.81
237
0.76
275
0.15
79
0.14
178
0.18
119
0.19
208
0.20
203
0.16
144
DCANet-4two views0.36
64
0.20
70
0.48
171
0.34
11
0.19
9
0.29
36
0.30
70
0.66
80
0.92
232
0.69
128
0.78
112
0.40
40
0.47
140
0.45
30
0.34
95
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
UDGNettwo views0.48
181
0.77
363
0.50
193
0.48
255
0.31
240
0.41
115
0.34
117
0.70
122
0.92
232
0.65
105
0.60
59
0.58
108
0.43
122
0.63
148
0.41
160
0.32
326
0.15
201
0.66
374
0.19
208
0.36
322
0.21
236
GEStereo_RVCtwo views0.55
240
0.29
247
0.63
251
0.49
270
0.31
240
0.70
239
0.54
285
1.22
308
0.92
232
0.82
200
0.85
151
0.85
233
0.63
217
0.90
271
0.65
251
0.24
266
0.16
228
0.19
154
0.16
122
0.21
221
0.22
249
DLCB_ROBtwo views0.58
262
0.28
239
0.47
155
0.49
270
0.32
252
0.77
255
0.50
261
0.99
224
0.92
232
1.04
309
1.14
267
1.21
313
0.69
251
0.88
264
0.69
260
0.20
220
0.20
275
0.22
229
0.22
262
0.21
221
0.18
175
PSMNet_ROBtwo views0.64
277
0.37
285
0.65
261
0.56
324
0.42
312
0.97
302
0.83
346
1.21
300
0.92
232
0.79
181
1.02
226
1.08
297
0.63
217
0.82
239
0.91
316
0.29
305
0.20
275
0.31
317
0.31
328
0.26
268
0.23
256
CFNet_ucstwo views0.50
210
0.24
180
0.55
219
0.38
65
0.31
240
0.58
184
0.33
110
0.98
222
0.93
237
0.88
240
1.19
285
0.80
223
0.49
147
0.63
148
0.43
169
0.21
234
0.15
201
0.26
282
0.18
184
0.26
268
0.22
249
Sa-1000two views0.48
181
0.24
180
0.41
81
0.45
222
0.25
112
0.59
193
0.34
117
0.81
168
0.93
237
0.82
200
1.50
333
0.53
86
0.45
134
0.92
281
0.30
59
0.15
79
0.12
98
0.21
217
0.19
208
0.15
77
0.13
58
GwcNet-RSSMtwo views0.49
197
0.24
180
0.42
100
0.40
107
0.23
69
0.55
163
0.38
184
0.93
203
0.93
237
0.71
140
1.16
277
0.86
235
0.60
201
0.62
138
0.66
253
0.21
234
0.14
178
0.19
154
0.20
230
0.16
108
0.15
106
FADNet-RVC-Resampletwo views0.56
251
0.33
268
1.16
341
0.49
270
0.34
268
0.71
244
0.43
229
1.01
234
0.93
237
0.82
200
0.87
158
0.74
200
0.67
241
0.73
206
0.45
187
0.18
170
0.18
253
0.26
282
0.27
310
0.26
268
0.27
279
HSM-Net_RVCpermissivetwo views0.53
229
0.22
128
0.35
29
0.37
44
0.21
29
0.85
284
0.37
164
1.23
312
0.93
237
0.90
251
1.15
272
1.26
317
0.63
217
0.72
201
0.48
204
0.17
142
0.13
152
0.16
60
0.15
94
0.17
139
0.15
106
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
CVANet_RVCtwo views0.57
256
0.33
268
0.44
119
0.47
250
0.32
252
0.67
233
0.61
307
1.05
249
0.93
237
0.85
220
1.04
234
1.01
276
0.73
270
0.83
246
0.52
222
0.29
305
0.19
267
0.27
294
0.25
295
0.31
297
0.21
236
ETE_ROBtwo views0.70
289
0.49
323
0.73
289
0.56
324
0.36
276
0.79
262
0.87
353
1.14
278
0.93
237
1.19
333
1.18
281
1.39
340
0.82
296
0.99
296
0.80
282
0.26
286
0.21
282
0.31
317
0.26
305
0.33
307
0.34
317
DDUNettwo views1.06
348
2.56
412
0.68
273
1.21
384
1.26
388
1.03
314
0.69
325
1.11
267
0.94
244
0.96
276
1.22
287
1.27
318
0.82
296
0.93
286
0.72
269
0.84
383
0.38
361
1.99
392
0.60
378
1.10
385
0.85
382
ccnettwo views0.82
315
0.57
345
0.75
296
0.54
318
0.59
360
1.09
325
0.66
314
1.38
347
0.94
244
1.12
326
1.44
326
1.29
321
0.92
317
0.95
295
1.24
350
0.49
364
0.42
370
0.50
365
0.47
364
0.51
356
0.46
357
GANettwo views0.70
289
0.37
285
0.55
219
0.51
296
0.34
268
0.94
295
0.96
360
1.08
257
0.94
244
1.04
309
1.98
361
1.13
308
0.88
311
1.12
320
0.66
253
0.25
276
0.26
319
0.27
294
0.22
262
0.31
297
0.22
249
StereoDRNet-Refinedtwo views0.58
262
0.32
260
0.54
214
0.46
241
0.30
223
0.96
301
0.40
209
1.00
227
0.94
244
1.12
326
1.08
250
0.96
264
0.67
241
0.90
271
0.89
312
0.17
142
0.13
152
0.22
229
0.21
247
0.20
203
0.19
203
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
XPNet_ROBtwo views0.70
289
0.35
277
0.68
273
0.52
307
0.40
299
0.79
262
0.85
352
1.16
284
0.94
244
1.33
347
1.15
272
1.38
339
0.83
300
1.03
306
0.90
314
0.32
326
0.25
313
0.26
282
0.24
286
0.31
297
0.28
286
ADLNet2two views0.55
240
0.25
198
0.65
261
0.47
250
0.30
223
0.83
280
0.50
261
1.05
249
0.95
249
0.80
183
0.98
208
0.99
270
0.69
251
0.77
226
0.73
270
0.20
220
0.16
228
0.17
85
0.18
184
0.21
221
0.21
236
PCWNet_CMDtwo views0.48
181
0.24
180
0.52
205
0.39
84
0.27
171
0.63
215
0.30
70
0.95
213
0.96
250
0.86
225
1.07
247
0.79
215
0.44
130
0.57
88
0.43
169
0.17
142
0.12
98
0.21
217
0.16
122
0.24
256
0.19
203
SAtwo views0.44
148
0.25
198
0.46
145
0.46
241
0.24
86
0.43
122
0.36
152
0.75
146
0.96
250
0.59
72
1.03
230
0.48
72
0.52
162
0.94
293
0.32
73
0.16
110
0.12
98
0.21
217
0.19
208
0.15
77
0.13
58
MSMDNettwo views0.48
181
0.24
180
0.52
205
0.39
84
0.27
171
0.63
215
0.30
70
0.96
215
0.96
250
0.86
225
1.07
247
0.79
215
0.44
130
0.57
88
0.43
169
0.17
142
0.12
98
0.20
178
0.16
122
0.23
246
0.19
203
LL-Strereotwo views0.57
256
0.27
226
0.68
273
0.48
255
0.34
268
0.39
101
0.48
251
0.94
207
0.97
253
0.83
212
0.78
112
1.10
301
1.18
349
1.33
344
0.49
206
0.17
142
0.14
178
0.22
229
0.19
208
0.16
108
0.17
161
DAStwo views0.51
217
0.25
198
0.60
238
0.48
255
0.31
240
0.58
184
0.41
221
0.83
170
0.97
253
0.89
244
1.12
259
0.70
172
0.75
274
0.82
239
0.43
169
0.17
142
0.13
152
0.18
119
0.15
94
0.20
203
0.18
175
SepStereotwo views0.51
217
0.25
198
0.60
238
0.48
255
0.31
240
0.58
184
0.41
221
0.83
170
0.97
253
0.89
244
1.12
259
0.70
172
0.75
274
0.93
286
0.43
169
0.17
142
0.13
152
0.18
119
0.15
94
0.20
203
0.18
175
GwcNet-ADLtwo views0.44
148
0.22
128
0.48
171
0.45
222
0.30
223
0.40
102
0.37
164
0.92
201
0.97
253
0.71
140
0.78
112
0.61
131
0.42
115
0.62
138
0.50
207
0.19
199
0.14
178
0.15
42
0.14
72
0.18
157
0.18
175
SDNRtwo views0.86
323
0.37
285
1.47
371
0.40
107
0.38
289
3.38
400
0.33
110
0.90
196
0.98
257
0.99
288
2.09
365
0.59
122
0.71
265
1.29
340
0.70
263
0.51
367
0.56
382
0.36
334
0.26
305
0.43
341
0.46
357
fast-acv-fttwo views0.64
277
0.30
253
0.73
289
0.45
222
0.34
268
1.17
336
0.49
257
0.86
179
0.98
257
1.02
300
1.36
309
1.29
321
0.85
303
0.76
219
0.81
285
0.21
234
0.23
298
0.23
243
0.23
273
0.21
221
0.20
223
raft_robusttwo views0.41
130
0.23
145
0.36
34
0.42
168
0.21
29
0.40
102
0.33
110
0.79
161
0.98
257
0.79
181
0.87
158
0.39
37
0.33
68
0.84
251
0.29
54
0.13
12
0.12
98
0.16
60
0.17
162
0.15
77
0.12
33
ADCReftwo views0.80
311
0.43
309
1.32
360
0.50
284
0.45
328
1.07
320
0.51
275
1.07
253
0.98
257
1.17
331
1.42
321
0.87
240
0.91
314
0.85
258
3.19
387
0.18
170
0.16
228
0.23
243
0.23
273
0.22
237
0.21
236
CBMV_ROBtwo views0.59
269
0.37
285
0.38
53
0.39
84
0.28
190
0.74
249
0.28
50
1.00
227
0.98
257
0.94
268
1.25
294
0.81
225
0.78
286
0.87
261
0.50
207
0.36
345
0.37
359
0.43
349
0.40
353
0.33
307
0.30
299
1111xtwo views0.55
240
0.22
128
0.46
145
0.38
65
0.20
20
0.66
229
0.43
229
1.23
312
0.99
262
0.71
140
0.99
213
0.95
262
0.69
251
0.90
271
1.08
338
0.18
170
0.17
242
0.18
119
0.19
208
0.20
203
0.18
175
ssnet_v2two views0.58
262
0.28
239
0.56
225
0.43
186
0.29
213
0.95
298
0.59
300
1.13
272
0.99
262
0.93
265
0.80
123
0.99
270
0.64
227
0.82
239
0.94
318
0.25
276
0.22
288
0.23
243
0.24
286
0.20
203
0.19
203
Wz-Net-LNSev-Reftwo views0.63
276
0.28
239
0.99
327
0.40
107
0.30
223
1.03
314
0.56
294
1.10
262
0.99
262
0.97
281
1.22
287
1.06
290
0.69
251
1.07
312
0.95
321
0.19
199
0.11
57
0.16
60
0.13
50
0.22
237
0.21
236
UDGtwo views0.88
326
0.82
369
0.67
270
1.00
378
0.96
377
1.02
311
0.57
297
1.13
272
0.99
262
0.90
251
0.97
207
1.31
324
0.99
331
0.85
258
0.84
289
0.54
372
0.32
346
1.77
389
0.40
353
0.94
379
0.66
375
Anonymous Stereotwo views0.75
302
0.54
341
1.78
379
0.57
329
0.56
353
0.62
206
1.25
381
0.96
215
0.99
262
0.96
276
0.95
189
0.83
227
0.58
191
1.27
338
1.21
348
0.31
314
0.30
333
0.31
317
0.33
337
0.33
307
0.36
324
StereoDRNettwo views0.64
277
0.33
268
0.68
273
0.51
296
0.43
317
1.03
314
0.53
281
1.47
358
0.99
262
1.10
324
0.87
158
1.07
295
0.71
265
0.82
239
0.88
301
0.23
257
0.19
267
0.25
268
0.23
273
0.27
278
0.19
203
iResNettwo views0.49
197
0.29
247
0.79
306
0.42
168
0.21
29
0.61
199
0.40
209
0.82
169
0.99
262
0.87
232
1.12
259
0.69
170
0.53
165
0.78
230
0.51
215
0.15
79
0.11
57
0.14
16
0.12
29
0.17
139
0.15
106
HBP-ISPtwo views0.59
269
0.45
317
0.43
109
0.45
222
0.33
261
0.70
239
0.28
50
1.11
267
1.00
269
0.83
212
1.18
281
0.65
155
0.68
247
0.88
264
0.52
222
0.35
342
0.38
361
0.47
357
0.41
358
0.38
328
0.31
305
aanetorigintwo views0.83
321
0.56
343
1.87
381
0.49
270
0.38
289
0.56
178
0.66
314
0.70
122
1.00
269
2.42
386
2.02
362
1.31
324
1.18
349
0.93
286
1.13
344
0.20
220
0.18
253
0.20
178
0.19
208
0.27
278
0.30
299
CFNettwo views0.51
217
0.29
247
0.46
145
0.41
131
0.27
171
0.70
239
0.32
101
1.13
272
1.00
269
0.72
151
1.07
247
0.85
233
0.60
201
0.76
219
0.52
222
0.19
199
0.14
178
0.23
243
0.23
273
0.21
221
0.16
144
NCCL2two views0.72
297
0.41
305
0.65
261
0.64
346
0.44
324
0.98
306
1.20
375
1.11
267
1.00
269
0.98
285
0.96
193
1.49
350
0.87
308
0.90
271
0.79
280
0.31
314
0.26
319
0.39
343
0.39
350
0.32
302
0.32
309
TDLMtwo views0.57
256
0.33
268
0.49
181
0.51
296
0.30
223
0.66
229
0.73
336
1.03
241
1.01
273
0.82
200
1.10
256
0.84
231
0.70
261
0.86
260
0.58
235
0.28
299
0.17
242
0.25
268
0.22
262
0.26
268
0.19
203
iResNetv2_ROBtwo views0.52
226
0.27
226
0.69
279
0.38
65
0.25
112
0.62
206
0.35
134
1.17
289
1.01
273
0.99
288
1.06
244
0.88
245
0.67
241
0.66
167
0.39
152
0.19
199
0.13
152
0.15
42
0.11
15
0.18
157
0.16
144
DRN-Testtwo views0.66
281
0.32
260
0.66
266
0.50
284
0.39
294
1.15
333
0.61
307
1.49
361
1.01
273
1.12
326
1.08
250
1.06
290
0.69
251
0.77
226
0.94
318
0.23
257
0.17
242
0.26
282
0.25
295
0.25
264
0.21
236
SMFormertwo views0.51
217
0.23
145
0.62
243
0.34
11
0.20
20
0.62
206
0.34
117
1.21
300
1.02
276
0.81
191
1.01
218
0.71
176
0.65
233
0.84
251
0.55
232
0.19
199
0.15
201
0.18
119
0.16
122
0.18
157
0.18
175
ttatwo views0.51
217
0.23
145
0.62
243
0.34
11
0.20
20
0.62
206
0.34
117
1.21
300
1.02
276
0.81
191
1.01
218
0.71
176
0.65
233
0.84
251
0.55
232
0.19
199
0.15
201
0.18
119
0.16
122
0.15
77
0.14
87
qqq1two views0.49
197
0.23
145
0.62
243
0.34
11
0.20
20
0.62
206
0.34
117
1.21
300
1.02
276
0.81
191
1.01
218
0.71
176
0.65
233
0.84
251
0.34
95
0.19
199
0.15
201
0.14
16
0.12
29
0.15
77
0.14
87
fff1two views0.49
197
0.23
145
0.62
243
0.34
11
0.20
20
0.62
206
0.34
117
1.21
300
1.02
276
0.81
191
1.01
218
0.71
176
0.65
233
0.84
251
0.34
95
0.19
199
0.15
201
0.14
16
0.12
29
0.15
77
0.14
87
CC-Net-ROBtwo views0.82
315
0.96
377
0.85
311
0.58
331
0.45
328
1.27
346
0.70
330
1.17
289
1.02
276
0.83
212
1.23
291
0.90
253
0.77
281
1.06
309
0.69
260
0.46
359
0.34
354
1.71
388
0.38
346
0.59
371
0.36
324
mmxtwo views0.53
229
0.26
212
0.49
181
0.37
44
0.25
112
0.55
163
0.37
164
1.16
284
1.03
281
0.73
158
0.96
193
0.71
176
0.53
165
1.01
299
0.88
301
0.20
220
0.15
201
0.25
268
0.21
247
0.22
237
0.20
223
xxxcopylefttwo views0.53
229
0.26
212
0.49
181
0.37
44
0.25
112
0.55
163
0.37
164
1.16
284
1.03
281
0.73
158
0.96
193
0.71
176
0.53
165
1.01
299
0.88
301
0.20
220
0.15
201
0.25
268
0.21
247
0.22
237
0.20
223
GASNettwo views0.67
282
0.72
359
0.96
324
0.70
364
0.48
336
0.62
206
0.47
245
1.08
257
1.03
281
0.94
268
0.82
133
0.93
259
0.83
300
1.33
344
0.80
282
0.31
314
0.22
288
0.29
309
0.28
315
0.44
342
0.24
262
ADCP+two views1.06
348
0.35
277
1.51
373
0.49
270
0.51
342
1.45
358
0.55
289
1.25
322
1.03
281
1.16
330
1.15
272
1.10
301
1.07
339
1.56
359
6.75
406
0.19
199
0.16
228
0.23
243
0.21
247
0.28
280
0.21
236
DualNettwo views0.47
174
0.26
212
0.49
181
0.37
44
0.25
112
0.55
163
0.37
164
0.68
99
1.04
285
0.73
158
0.96
193
0.71
176
0.53
165
0.57
88
0.88
301
0.16
110
0.10
9
0.25
268
0.21
247
0.16
108
0.16
144
ffmtwo views0.44
148
0.26
212
0.49
181
0.37
44
0.25
112
0.55
163
0.37
164
0.68
99
1.04
285
0.73
158
0.96
193
0.71
176
0.53
165
0.57
88
0.25
9
0.16
110
0.10
9
0.25
268
0.21
247
0.16
108
0.16
144
ff1two views0.49
197
0.26
212
0.49
181
0.37
44
0.25
112
0.55
163
0.37
164
0.68
99
1.04
285
0.73
158
0.96
193
0.71
176
0.53
165
1.01
299
0.88
301
0.16
110
0.10
9
0.25
268
0.21
247
0.16
108
0.16
144
tt1two views0.36
64
0.24
180
0.32
17
0.41
131
0.22
42
0.54
158
0.38
184
0.68
99
1.04
285
0.41
32
0.46
23
0.35
25
0.45
134
0.57
88
0.25
9
0.16
110
0.10
9
0.19
154
0.13
50
0.16
108
0.16
144
GMStereopermissivetwo views0.39
107
0.37
285
0.54
214
0.40
107
0.26
147
0.42
120
0.36
152
0.59
36
1.04
285
0.55
65
0.51
37
0.37
32
0.35
76
0.54
68
0.41
160
0.19
199
0.13
152
0.16
60
0.17
162
0.24
256
0.18
175
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
ttttwo views0.51
217
0.25
198
0.43
109
0.38
65
0.24
86
0.65
226
0.38
184
1.18
292
1.05
290
0.72
151
1.08
250
0.63
138
0.49
147
0.84
251
0.59
239
0.24
266
0.21
282
0.22
229
0.20
230
0.24
256
0.24
262
ddtwo views0.43
142
0.38
294
0.55
219
0.44
201
0.25
112
0.47
135
0.38
184
0.70
122
1.05
290
0.59
72
0.65
69
0.42
48
0.39
103
0.66
167
0.50
207
0.24
266
0.15
201
0.21
217
0.15
94
0.22
237
0.18
175
FADNettwo views0.61
274
0.51
330
1.10
335
0.45
222
0.44
324
0.65
226
0.41
221
1.19
294
1.05
290
0.70
134
0.84
143
0.98
269
0.66
238
0.82
239
0.50
207
0.29
305
0.30
333
0.27
294
0.30
321
0.46
349
0.35
322
RGCtwo views0.79
310
0.59
347
0.71
286
0.65
351
0.65
364
0.92
294
0.58
298
1.29
328
1.05
290
1.07
317
1.45
329
1.47
348
1.03
335
1.21
330
0.88
301
0.32
326
0.30
333
0.48
360
0.40
353
0.37
324
0.37
330
Nwc_Nettwo views0.78
307
0.38
294
0.73
289
0.60
339
0.55
350
1.05
319
0.55
289
1.67
377
1.05
290
0.88
240
1.86
357
1.40
342
1.09
340
1.10
317
0.87
298
0.30
311
0.25
313
0.36
334
0.38
346
0.29
283
0.29
292
ADCMidtwo views1.14
354
0.52
336
2.23
387
0.53
312
0.43
317
1.07
320
0.75
338
1.23
312
1.05
290
2.15
380
1.44
326
1.50
351
1.43
365
1.56
359
5.01
400
0.26
286
0.24
305
0.29
309
0.31
328
0.37
324
0.33
313
SGM-Foresttwo views0.62
275
0.32
260
0.39
70
0.43
186
0.30
223
1.02
311
0.55
289
1.09
261
1.05
290
1.06
314
1.18
281
1.10
301
0.67
241
0.88
264
0.62
245
0.31
314
0.33
352
0.33
327
0.30
321
0.30
292
0.28
286
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
xx1two views0.39
107
0.23
145
0.33
20
0.41
131
0.22
42
0.55
163
0.38
184
0.67
90
1.06
297
0.41
32
0.50
32
0.65
155
0.53
165
0.57
88
0.25
9
0.16
110
0.10
9
0.20
178
0.19
208
0.18
157
0.17
161
cc1two views0.37
79
0.23
145
0.33
20
0.41
131
0.22
42
0.55
163
0.38
184
0.67
90
1.06
297
0.41
32
0.50
32
0.34
20
0.49
147
0.57
88
0.25
9
0.16
110
0.10
9
0.19
154
0.13
50
0.16
108
0.15
106
ffftwo views0.37
79
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
108
1.06
297
0.69
128
0.78
112
0.42
48
0.63
217
0.46
37
0.34
95
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
csctwo views0.37
79
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
108
1.06
297
0.69
128
0.78
112
0.42
48
0.63
217
0.46
37
0.34
95
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
cscssctwo views0.37
79
0.16
8
0.41
81
0.34
11
0.19
9
0.29
36
0.30
70
0.69
108
1.06
297
0.69
128
0.78
112
0.42
48
0.63
217
0.46
37
0.34
95
0.14
32
0.10
9
0.14
16
0.11
15
0.11
1
0.13
58
edge stereotwo views0.76
303
0.38
294
0.74
293
0.52
307
0.43
317
0.80
265
0.53
281
1.28
327
1.06
297
1.28
343
1.38
317
1.81
364
1.11
342
1.08
314
0.85
293
0.33
332
0.32
346
0.41
347
0.28
315
0.32
302
0.36
324
Wz-Net-LNSevtwo views0.71
293
0.51
330
1.36
366
0.50
284
0.41
306
1.15
333
0.69
325
1.21
300
1.07
303
1.02
300
1.12
259
1.08
297
0.87
308
0.89
269
0.89
312
0.24
266
0.22
288
0.21
217
0.19
208
0.26
268
0.26
272
ADCPNettwo views1.03
344
0.48
320
2.70
389
0.54
318
0.42
312
1.40
352
0.75
338
1.13
272
1.07
303
1.22
338
1.42
321
1.68
362
1.09
340
1.36
351
3.45
391
0.30
311
0.28
325
0.29
309
0.32
334
0.37
324
0.35
322
LALA_ROBtwo views0.74
300
0.43
309
0.69
279
0.54
318
0.40
299
1.01
309
0.95
359
1.21
300
1.07
303
1.22
338
1.12
259
1.56
357
0.79
288
1.04
308
0.86
294
0.33
332
0.22
288
0.35
331
0.30
321
0.35
318
0.31
305
MyStereo04two views0.44
148
0.22
128
0.44
119
0.42
168
0.28
190
0.40
102
0.50
261
1.00
227
1.08
306
0.62
82
0.58
57
0.55
93
0.57
184
0.71
196
0.44
181
0.14
32
0.13
152
0.18
119
0.17
162
0.17
139
0.16
144
NOSS_ROBtwo views0.57
256
0.39
298
0.39
70
0.44
201
0.30
223
0.73
248
0.54
285
1.03
241
1.08
306
0.67
117
0.87
158
0.76
207
0.57
184
0.77
226
0.47
201
0.38
349
0.38
361
0.44
352
0.42
359
0.37
324
0.34
317
MyStereo05two views0.44
148
0.21
101
0.45
130
0.41
131
0.28
190
0.41
115
0.50
261
0.93
203
1.09
308
0.76
171
0.61
62
0.51
80
0.57
184
0.73
206
0.42
164
0.14
32
0.13
152
0.18
119
0.17
162
0.17
139
0.15
106
CBMVpermissivetwo views0.64
277
0.35
277
0.41
81
0.42
168
0.25
112
1.01
309
0.77
340
1.13
272
1.09
308
1.17
331
1.22
287
1.04
285
0.75
274
0.88
264
0.63
248
0.28
299
0.30
333
0.34
329
0.30
321
0.26
268
0.26
272
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
DGSMNettwo views0.76
303
0.55
342
1.29
357
0.58
331
0.62
362
0.94
295
0.70
330
1.26
323
1.11
310
0.83
212
1.24
292
1.00
273
0.71
265
1.03
306
0.81
285
0.34
338
0.29
330
0.41
347
0.40
353
0.57
367
0.55
372
NCC-stereotwo views0.78
307
0.40
302
0.76
301
0.61
341
0.67
365
0.81
270
0.69
325
1.54
369
1.11
310
0.90
251
1.36
309
1.33
331
1.16
346
1.19
326
0.88
301
0.31
314
0.30
333
0.37
338
0.48
366
0.33
307
0.33
313
Abc-Nettwo views0.78
307
0.40
302
0.76
301
0.61
341
0.67
365
0.81
270
0.69
325
1.54
369
1.11
310
0.90
251
1.36
309
1.33
331
1.16
346
1.19
326
0.88
301
0.31
314
0.30
333
0.37
338
0.48
366
0.33
307
0.33
313
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
STTRV1_RVCtwo views0.82
315
0.59
347
1.16
341
0.67
357
0.81
370
1.11
326
0.63
309
1.30
331
1.11
310
0.98
285
1.33
306
1.08
297
0.95
326
1.26
335
0.87
298
0.55
373
0.25
313
0.43
349
0.39
350
0.58
370
0.40
341
Syn2CoExtwo views0.71
293
0.51
330
0.95
322
0.64
346
0.45
328
0.91
290
0.53
281
1.48
359
1.13
314
0.93
265
1.35
308
1.02
281
0.99
331
0.92
281
0.80
282
0.30
311
0.27
323
0.28
301
0.24
286
0.23
246
0.24
262
MDST_ROBtwo views0.91
332
0.27
226
0.85
311
0.63
345
0.41
306
2.53
384
0.71
334
1.60
372
1.13
314
2.83
393
1.73
348
0.97
266
0.69
251
1.61
362
0.73
270
0.25
276
0.22
288
0.32
322
0.28
315
0.25
264
0.24
262
PA-Nettwo views0.67
282
0.43
309
0.83
309
0.50
284
0.53
346
0.94
295
0.68
321
1.10
262
1.14
316
0.80
183
0.88
165
0.87
240
0.77
281
1.02
304
0.88
301
0.24
266
0.41
368
0.29
309
0.44
360
0.26
268
0.34
317
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NVstereo2Dtwo views0.60
272
0.30
253
0.75
296
0.48
255
0.43
317
0.89
289
0.48
251
1.05
249
1.15
317
0.66
116
0.86
154
0.88
245
0.70
261
0.99
296
0.65
251
0.32
326
0.15
201
0.28
301
0.20
230
0.40
331
0.36
324
Wz-Net-MNSevtwo views0.76
303
0.40
302
1.34
361
0.50
284
0.40
299
1.44
357
0.83
346
1.15
281
1.16
318
1.25
342
1.20
286
1.13
308
0.81
292
1.16
323
1.00
331
0.22
252
0.19
267
0.24
257
0.23
273
0.28
280
0.26
272
111two views0.40
119
0.17
19
0.41
81
0.34
11
0.19
9
0.52
148
0.28
50
0.74
140
1.16
318
0.50
53
0.91
174
0.63
138
0.48
144
0.61
132
0.35
110
0.14
32
0.10
9
0.14
16
0.12
29
0.13
20
0.13
58
GwcNetcopylefttwo views0.69
287
0.36
282
1.10
335
0.51
296
0.42
312
1.08
324
0.50
261
1.21
300
1.16
318
1.00
293
1.37
312
1.06
290
0.79
288
0.92
281
0.94
318
0.25
276
0.24
305
0.24
257
0.22
262
0.23
246
0.26
272
otakutwo views1.04
345
0.93
374
0.88
318
1.33
388
1.05
385
1.66
369
0.70
330
1.40
351
1.18
321
1.08
320
1.32
305
1.33
331
0.91
314
1.23
332
0.76
275
0.72
379
0.46
378
1.24
384
0.50
371
1.40
387
0.75
376
RYNettwo views0.72
297
0.35
277
0.64
256
0.53
312
0.67
365
1.31
348
0.67
316
1.20
298
1.18
321
1.05
311
0.87
158
1.27
318
0.93
322
0.93
286
1.27
354
0.22
252
0.16
228
0.26
282
0.23
273
0.40
331
0.39
338
GANetREF_RVCpermissivetwo views0.80
311
0.75
362
0.86
316
0.66
354
0.42
312
1.15
333
0.98
361
1.14
278
1.19
323
1.01
298
1.02
226
1.10
301
0.90
313
1.15
322
0.76
275
0.48
362
0.39
365
0.57
370
0.38
346
0.63
373
0.46
357
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
NaN_ROBtwo views0.69
287
0.44
313
0.69
279
0.51
296
0.33
261
0.97
302
1.06
367
1.22
308
1.19
323
1.24
341
0.96
193
1.08
297
0.78
286
1.20
328
0.67
256
0.24
266
0.30
333
0.23
243
0.24
286
0.23
246
0.25
268
SPS-STEREOcopylefttwo views1.25
364
0.93
374
1.06
332
1.04
380
1.03
383
1.41
354
0.91
357
1.51
365
1.19
323
2.09
378
1.83
354
1.94
369
1.39
362
1.62
363
1.39
358
0.97
387
0.94
403
0.90
379
0.89
388
0.96
381
0.96
388
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
pcwnet_v2two views0.58
262
0.28
239
0.84
310
0.45
222
0.35
274
0.61
199
0.35
134
1.27
325
1.21
326
0.99
288
1.27
296
0.72
186
0.58
191
0.67
177
0.48
204
0.27
293
0.21
282
0.24
257
0.23
273
0.29
283
0.29
292
SGM+DAISYtwo views1.35
368
0.94
376
1.25
354
0.96
375
1.00
382
1.52
362
1.02
366
1.34
338
1.21
326
2.64
389
2.65
379
2.44
378
1.56
370
1.64
366
1.26
352
0.97
387
0.95
404
0.90
379
0.90
389
0.94
379
0.96
388
RPtwo views0.76
303
0.36
282
0.63
251
0.66
354
0.58
359
0.80
265
0.55
289
1.14
278
1.22
328
0.97
281
1.65
342
1.43
344
1.32
359
1.01
299
0.84
289
0.33
332
0.30
333
0.36
334
0.30
321
0.34
314
0.34
317
DISCOtwo views0.70
289
0.26
212
0.68
273
0.44
201
0.31
240
1.14
331
0.51
275
1.23
312
1.23
329
0.81
191
1.05
238
1.50
351
0.85
303
1.82
374
1.03
332
0.19
199
0.15
201
0.18
119
0.16
122
0.24
256
0.23
256
WCMA_ROBtwo views1.14
354
0.36
282
0.76
301
0.49
270
0.44
324
1.23
343
0.67
316
1.11
267
1.23
329
2.84
394
3.95
400
3.28
391
1.83
381
1.25
334
0.99
328
0.44
357
0.34
354
0.34
329
0.37
343
0.41
337
0.40
341
RCA-Stereotwo views0.35
46
0.17
19
0.34
26
0.38
65
0.22
42
0.31
53
0.34
117
0.68
99
1.24
331
0.45
43
0.65
69
0.47
68
0.43
122
0.38
12
0.27
33
0.13
12
0.10
9
0.14
16
0.11
15
0.11
1
0.11
9
Wz-Net-SNSevtwo views0.91
332
0.73
360
2.13
385
0.56
324
0.45
328
0.95
298
1.13
372
1.34
338
1.24
331
1.02
300
1.30
302
1.46
345
0.86
305
1.81
373
1.50
360
0.25
276
0.23
298
0.25
268
0.26
305
0.32
302
0.29
292
AnyNet_C32two views1.16
358
0.62
354
2.40
388
0.57
329
0.55
350
1.41
354
1.34
387
1.18
292
1.24
331
1.49
352
1.42
321
1.39
340
1.20
353
1.55
357
4.82
398
0.29
305
0.28
325
0.29
309
0.34
339
0.38
328
0.42
346
MSMD_ROBtwo views1.21
361
0.49
323
0.62
243
0.59
334
0.50
339
1.62
368
0.67
316
1.23
312
1.24
331
2.45
387
3.77
394
3.09
388
2.98
400
1.32
343
0.81
285
0.45
358
0.41
368
0.49
363
0.51
373
0.47
351
0.44
352
Ntrotwo views1.09
352
0.97
380
0.91
320
1.44
389
1.19
387
1.69
372
0.80
344
1.35
341
1.25
335
1.00
293
1.29
301
1.31
324
0.97
329
1.26
335
0.84
289
0.84
383
0.43
373
1.36
385
0.50
371
1.56
388
0.78
378
dadtwo views0.58
262
0.50
327
0.64
256
0.43
186
0.30
223
0.59
193
0.36
152
0.78
159
1.25
335
1.01
298
1.17
279
1.15
311
0.53
165
0.68
185
0.50
207
0.35
342
0.23
298
0.37
338
0.21
247
0.29
283
0.20
223
SGM_RVCbinarytwo views0.97
337
0.28
239
0.41
81
0.39
84
0.22
42
1.55
363
0.73
336
1.51
365
1.25
335
2.25
383
1.92
358
2.58
381
1.56
370
2.02
381
1.19
347
0.27
293
0.27
323
0.27
294
0.25
295
0.25
264
0.25
268
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
PASMtwo views0.90
331
0.64
355
1.69
375
0.69
363
0.69
368
0.78
259
0.84
349
1.03
241
1.26
338
1.19
333
1.15
272
1.31
324
0.98
330
1.24
333
1.03
332
0.52
368
0.56
382
0.59
373
0.66
380
0.56
365
0.54
371
AANet_RVCtwo views0.57
256
0.32
260
0.54
214
0.45
222
0.27
171
0.57
182
0.48
251
1.00
227
1.28
339
0.86
225
1.33
306
0.87
240
0.58
191
1.07
312
0.75
274
0.18
170
0.12
98
0.15
42
0.13
50
0.18
157
0.18
175
pmcnntwo views1.23
362
0.29
247
0.96
324
0.40
107
0.23
69
0.95
298
0.69
325
1.16
284
1.28
339
1.67
365
2.33
367
11.15
416
0.86
305
0.93
286
0.88
301
0.15
79
0.12
98
0.12
2
0.10
10
0.15
77
0.15
106
FAT-Stereotwo views0.73
299
0.33
268
0.75
296
0.49
270
0.37
281
0.71
244
0.59
300
1.36
344
1.30
341
1.03
308
1.40
318
1.59
360
1.15
345
0.87
261
0.86
294
0.28
299
0.28
325
0.28
301
0.23
273
0.28
280
0.38
336
AF-Nettwo views0.81
314
0.39
298
0.68
273
0.64
346
0.54
348
0.91
290
0.51
275
1.61
373
1.31
342
0.96
276
2.02
362
1.46
345
1.26
357
1.11
319
0.99
328
0.32
326
0.24
305
0.39
343
0.27
310
0.30
292
0.25
268
iResNet_ROBtwo views0.52
226
0.21
101
0.53
211
0.37
44
0.21
29
0.61
199
0.29
57
1.51
365
1.32
343
0.90
251
1.02
226
0.80
223
0.62
211
0.76
219
0.43
169
0.16
110
0.12
98
0.13
9
0.09
6
0.15
77
0.18
175
MFN_U_SF_RVCtwo views1.09
352
0.59
347
1.97
383
0.67
357
0.44
324
1.93
377
0.60
302
1.85
380
1.36
344
1.61
359
1.54
337
1.95
370
1.37
361
1.64
366
1.73
364
0.40
355
0.37
359
0.45
353
0.48
366
0.44
342
0.44
352
AnyNet_C01two views1.56
376
1.05
382
7.45
406
0.64
346
0.54
348
1.99
378
1.38
389
1.43
355
1.36
344
1.63
362
1.92
358
1.84
365
1.33
360
2.40
389
4.03
393
0.33
332
0.32
346
0.32
322
0.34
339
0.44
342
0.45
356
stereogantwo views0.80
311
0.31
258
0.71
286
0.59
334
0.50
339
1.72
373
0.48
251
1.35
341
1.37
346
1.00
293
1.46
331
1.56
357
0.95
326
1.29
340
0.84
289
0.28
299
0.29
330
0.29
309
0.25
295
0.38
328
0.38
336
FBW_ROBtwo views0.88
326
0.50
327
0.85
311
0.55
321
0.40
299
1.17
336
0.78
342
1.50
362
1.37
346
1.33
347
1.27
296
1.48
349
1.00
333
2.57
393
0.98
327
0.25
276
0.32
346
0.45
353
0.30
321
0.34
314
0.28
286
MeshStereopermissivetwo views1.34
366
0.43
309
0.54
214
0.44
201
0.34
268
1.66
369
0.60
302
1.94
381
1.37
346
4.47
407
3.25
386
4.71
399
1.94
384
1.92
377
1.17
345
0.35
342
0.35
356
0.37
338
0.31
328
0.32
302
0.32
309
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
FCDSN-DCtwo views1.39
371
0.56
343
0.65
261
0.74
368
0.59
360
1.38
351
0.63
309
1.35
341
1.39
349
3.26
401
4.50
405
4.61
397
2.63
395
1.58
361
1.03
332
0.46
359
0.42
370
0.48
360
0.47
364
0.50
355
0.50
367
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ADCLtwo views1.04
345
0.38
294
1.35
362
0.50
284
0.39
294
1.61
367
0.89
354
1.29
328
1.39
349
1.29
344
1.50
333
1.24
316
1.24
354
1.37
352
4.87
399
0.21
234
0.19
267
0.25
268
0.25
295
0.29
283
0.27
279
Wz-Net-TNSevtwo views1.14
354
1.06
383
4.32
400
0.49
270
0.42
312
1.51
361
1.11
371
1.48
359
1.40
351
1.22
338
1.26
295
1.58
359
1.43
365
1.76
371
1.70
363
0.32
326
0.31
343
0.26
282
0.30
321
0.41
337
0.41
345
MFN_U_SF_DS_RVCtwo views1.02
343
0.57
345
1.51
373
0.67
357
0.50
339
2.57
385
1.66
397
1.20
298
1.43
352
1.38
349
1.57
339
1.33
331
0.92
317
1.64
366
0.88
301
0.37
348
0.39
365
0.46
356
0.60
378
0.41
337
0.40
341
DPSNettwo views0.99
339
0.42
307
1.88
382
0.53
312
0.41
306
1.59
366
1.26
382
2.21
387
1.43
352
1.10
324
1.11
257
1.46
345
1.95
385
1.34
346
1.26
352
0.34
338
0.25
313
0.25
268
0.21
247
0.46
349
0.37
330
SAMSARAtwo views1.07
350
0.65
356
1.19
348
1.06
381
0.90
373
1.76
374
1.76
401
1.46
357
1.44
354
1.51
353
1.16
277
2.00
371
1.14
344
1.48
355
1.31
356
0.39
351
0.44
375
0.35
331
0.38
346
0.49
353
0.49
366
DispFullNettwo views1.60
378
2.63
413
2.75
390
2.56
406
1.79
398
1.24
344
0.47
245
1.37
346
1.45
355
1.87
370
1.50
333
1.55
356
2.46
391
2.04
382
1.04
335
0.59
374
0.18
253
2.32
401
0.68
382
2.29
402
1.14
394
CSANtwo views0.83
321
0.49
323
0.77
305
0.60
339
0.41
306
1.14
331
1.06
367
1.19
294
1.46
356
1.32
345
1.43
324
1.37
338
1.19
351
1.27
338
0.86
294
0.39
351
0.31
343
0.36
334
0.37
343
0.35
318
0.34
317
PWC_ROBbinarytwo views0.87
324
0.52
336
1.28
355
0.50
284
0.32
252
0.91
290
0.37
164
1.36
344
1.46
356
1.61
359
2.59
377
1.16
312
1.01
334
1.34
346
1.40
359
0.25
276
0.18
253
0.28
301
0.20
230
0.29
283
0.28
286
FINETtwo views0.67
282
0.42
307
1.00
328
0.46
241
0.43
317
0.83
280
0.89
354
1.08
257
1.50
358
0.87
232
1.14
267
0.71
176
0.68
247
0.92
281
0.70
263
0.36
345
0.30
333
0.26
282
0.24
286
0.35
318
0.33
313
XQCtwo views0.89
328
0.65
356
1.31
358
0.67
357
0.52
345
1.22
341
0.68
321
1.26
323
1.52
359
1.14
329
1.11
257
1.28
320
1.04
336
1.40
354
1.77
367
0.38
349
0.24
305
0.37
338
0.31
328
0.53
361
0.47
361
FC-DCNNcopylefttwo views1.59
377
0.51
330
0.66
266
0.61
341
0.49
338
1.56
364
0.70
330
1.66
376
1.53
360
4.64
408
4.62
406
5.85
406
3.34
403
1.84
375
1.11
340
0.46
359
0.42
370
0.47
357
0.46
361
0.48
352
0.46
357
NVStereoNet_ROBtwo views1.24
363
0.90
373
1.13
339
0.86
372
0.88
372
1.11
326
0.99
363
1.42
353
1.53
360
1.59
358
2.48
372
2.24
374
1.53
367
1.96
380
1.30
355
0.76
381
0.70
386
0.78
376
1.00
394
0.71
375
0.88
383
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
RainbowNettwo views1.35
368
1.49
392
1.19
348
1.88
395
1.45
389
1.48
359
1.07
369
1.61
373
1.55
362
1.20
336
1.59
340
1.54
355
1.13
343
1.34
346
0.97
324
1.36
397
0.70
386
1.82
390
0.79
386
1.71
390
1.07
393
MFMNet_retwo views1.14
354
0.97
380
1.19
348
0.99
376
0.95
376
1.25
345
1.22
378
1.39
348
1.55
362
1.69
366
1.67
346
1.21
313
1.53
367
1.12
320
0.99
328
0.87
385
0.75
393
0.79
377
0.75
384
0.90
377
0.94
385
Consistency-Rafttwo views1.01
340
0.81
366
1.24
353
0.84
371
0.97
378
0.81
270
0.84
349
1.30
331
1.59
364
1.05
311
1.68
347
1.12
305
0.91
314
0.92
281
1.11
340
0.65
376
0.74
389
0.79
377
0.90
389
1.06
384
0.79
380
LRCNet_RVCtwo views21.24
421
31.15
427
21.41
417
28.98
425
23.82
423
3.13
399
0.60
302
20.96
424
1.59
364
25.58
424
28.15
427
21.99
425
14.79
414
21.94
425
16.41
415
28.89
434
14.87
425
33.53
430
31.28
430
29.51
432
26.16
429
PDISCO_ROBtwo views0.91
332
0.48
320
1.06
332
0.99
376
0.97
378
1.67
371
0.63
309
1.64
375
1.59
364
1.06
314
1.18
281
1.31
324
0.79
288
1.55
357
0.97
324
0.49
364
0.22
288
0.45
353
0.40
353
0.45
346
0.37
330
S-Stereotwo views0.74
300
0.35
277
0.96
324
0.56
324
0.45
328
0.82
278
0.60
302
1.24
319
1.60
367
0.96
276
1.41
320
1.12
305
0.94
323
0.80
234
1.04
335
0.26
286
0.31
343
0.28
301
0.25
295
0.32
302
0.47
361
ACVNet-4btwo views1.35
368
1.31
388
1.10
335
1.90
396
1.59
391
1.92
376
0.77
340
1.52
368
1.62
368
1.05
311
1.60
341
2.11
372
0.94
323
1.64
366
0.77
279
1.30
394
0.35
356
2.03
396
0.67
381
1.88
396
0.84
381
LSMtwo views4.74
408
0.77
363
10.16
408
0.70
364
56.56
432
1.02
311
1.00
365
1.24
319
1.62
368
2.04
376
2.34
368
1.33
331
1.17
348
1.38
353
1.09
339
0.33
332
0.49
379
0.39
343
0.46
361
0.51
356
10.09
418
MADNet+two views2.23
392
2.43
409
10.85
409
1.22
385
0.91
374
2.76
389
1.40
390
2.12
386
1.67
370
1.32
345
1.74
350
1.86
368
1.74
377
6.25
408
4.41
397
0.65
376
0.64
385
0.58
372
0.54
375
0.80
376
0.76
377
WZ-Nettwo views1.19
360
0.59
347
4.07
398
0.62
344
0.51
342
1.34
349
1.31
386
1.32
334
1.74
371
1.53
355
1.65
342
1.74
363
1.28
358
2.25
387
2.01
373
0.27
293
0.21
282
0.23
243
0.25
295
0.40
331
0.39
338
RTSCtwo views0.87
324
0.48
320
1.23
352
0.52
307
0.37
281
1.13
330
0.50
261
1.34
338
1.79
372
1.51
353
1.24
292
1.12
305
0.81
292
1.62
363
2.16
376
0.25
276
0.19
267
0.23
243
0.24
286
0.30
292
0.31
305
ADCStwo views1.51
375
0.61
351
3.42
393
0.59
334
0.51
342
1.27
346
1.08
370
1.59
371
1.81
373
1.91
374
1.66
344
1.51
354
1.42
364
1.94
379
8.60
408
0.33
332
0.32
346
0.33
327
0.36
342
0.44
342
0.42
346
ACVNet_1two views1.46
373
1.33
389
1.12
338
1.91
397
1.62
392
1.83
375
0.98
361
2.00
384
1.85
374
1.39
350
1.53
336
2.32
376
1.53
367
1.34
346
1.11
340
1.30
394
0.50
380
2.06
398
0.58
377
1.93
398
0.95
387
JetBluetwo views2.78
395
1.26
386
7.04
405
1.16
383
1.48
390
8.00
412
6.02
413
2.60
390
1.92
375
2.12
379
2.64
378
3.34
392
3.05
401
6.49
409
3.39
389
0.78
382
0.76
394
0.75
375
0.76
385
0.97
382
1.18
399
MSC_U_SF_DS_RVCtwo views1.34
366
0.87
371
1.76
378
0.86
372
0.56
353
4.29
404
1.79
402
1.50
362
1.98
376
1.61
359
1.85
356
1.84
365
1.41
363
1.89
376
1.36
357
0.48
362
0.40
367
0.56
369
0.57
376
0.69
374
0.48
363
DeepPrunerFtwo views0.89
328
0.52
336
3.43
394
0.68
361
0.81
370
0.72
247
0.72
335
1.22
308
1.99
377
0.93
265
1.01
218
0.87
240
0.86
305
1.08
314
0.95
321
0.34
338
0.28
325
0.43
349
0.39
350
0.30
292
0.32
309
SuperBtwo views1.04
345
0.37
285
4.81
401
0.43
186
0.31
240
0.99
307
0.46
240
1.02
237
2.09
378
1.09
322
1.09
254
0.75
201
0.81
292
1.06
309
1.76
366
0.19
199
0.15
201
0.17
85
0.15
94
2.82
409
0.26
272
SHDtwo views0.93
335
0.50
327
1.18
347
0.59
334
0.46
335
0.97
302
0.48
251
1.70
378
2.15
379
1.58
356
1.37
312
1.42
343
1.19
351
1.31
342
1.60
361
0.31
314
0.26
319
0.32
322
0.33
337
0.40
331
0.42
346
RTStwo views1.98
386
0.96
377
11.36
410
0.65
351
0.57
357
2.77
390
1.40
390
1.39
348
2.26
380
1.89
371
2.56
374
1.32
329
1.25
355
5.20
406
4.05
394
0.31
314
0.22
288
0.29
309
0.29
319
0.40
331
0.37
330
RTSAtwo views1.98
386
0.96
377
11.36
410
0.65
351
0.57
357
2.77
390
1.40
390
1.39
348
2.26
380
1.89
371
2.56
374
1.32
329
1.25
355
5.20
406
4.05
394
0.31
314
0.22
288
0.29
309
0.29
319
0.40
331
0.37
330
IMH-64-1two views1.86
382
1.62
397
1.16
341
2.20
400
1.89
400
2.33
382
1.30
383
2.89
392
2.29
382
1.66
363
2.80
382
2.49
379
1.61
372
2.10
383
1.78
368
1.60
398
0.74
389
2.43
402
1.02
395
2.12
399
1.17
397
IMH-64two views1.86
382
1.62
397
1.16
341
2.20
400
1.89
400
2.33
382
1.30
383
2.89
392
2.29
382
1.66
363
2.80
382
2.49
379
1.61
372
2.10
383
1.78
368
1.60
398
0.74
389
2.43
402
1.02
395
2.12
399
1.17
397
ELAScopylefttwo views1.63
380
0.61
351
0.95
322
0.68
361
0.55
350
3.01
398
1.55
395
2.39
389
2.33
384
3.64
404
3.89
398
2.75
383
2.90
399
2.15
385
2.27
382
0.52
368
0.45
376
0.50
365
0.48
366
0.54
363
0.52
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PWCDC_ROBbinarytwo views0.89
328
0.49
323
0.80
308
0.74
368
0.40
299
1.03
314
0.39
203
1.33
336
2.35
385
1.02
300
3.77
394
0.81
225
0.92
317
1.20
328
0.90
314
0.34
338
0.22
288
0.24
257
0.20
230
0.34
314
0.29
292
PWCKtwo views1.92
385
1.66
400
3.12
392
1.65
390
0.91
374
2.84
392
2.26
407
2.10
385
2.41
386
2.36
385
2.31
366
2.22
373
1.82
379
3.43
397
2.03
374
1.61
400
0.71
388
1.51
386
0.82
387
1.69
389
0.91
384
ACVNet_2two views1.65
381
1.27
387
1.41
369
1.75
392
1.62
392
2.22
381
1.20
375
2.30
388
2.62
387
1.78
368
2.56
374
3.03
385
1.61
372
1.54
356
1.12
343
1.06
390
0.58
384
1.82
390
0.70
383
1.82
392
0.96
388
ELAS_RVCcopylefttwo views1.60
378
0.61
351
1.01
329
0.70
364
0.56
353
2.00
379
1.89
404
1.96
382
2.65
388
3.33
402
3.26
387
3.03
385
3.41
404
2.49
391
2.09
375
0.52
368
0.45
376
0.50
365
0.48
366
0.54
363
0.52
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
EDNetEfficientorigintwo views9.93
413
1.15
384
175.16
436
0.48
255
0.36
276
1.04
318
0.68
321
1.24
319
2.69
389
3.17
400
2.50
373
2.30
375
2.07
388
1.76
371
2.21
377
0.20
220
0.18
253
0.24
257
0.19
208
0.51
356
0.50
367
EDNetEfficienttwo views1.46
373
0.80
365
6.12
403
0.47
250
0.39
294
0.69
237
0.83
346
0.90
196
2.77
390
3.50
403
1.96
360
1.66
361
2.03
387
1.26
335
4.18
396
0.21
234
0.18
253
0.21
217
0.20
230
0.41
337
0.39
338
PVDtwo views1.28
365
0.67
358
1.28
355
0.74
368
0.62
362
1.50
360
0.84
349
1.99
383
2.96
391
2.18
381
2.36
370
1.85
367
1.95
385
1.92
377
1.94
371
0.39
351
0.36
358
0.49
363
0.37
343
0.51
356
0.64
374
IMHtwo views2.04
389
1.62
397
1.20
351
2.20
400
1.89
400
2.91
397
1.30
383
3.11
395
3.03
392
1.81
369
3.35
392
3.03
385
1.90
382
2.48
390
1.80
370
1.66
401
0.77
395
2.45
404
1.04
398
2.15
401
1.19
400
notakertwo views2.76
394
2.29
408
1.80
380
2.96
410
2.58
411
2.90
396
1.75
400
3.24
398
3.05
393
2.78
392
4.24
403
6.15
409
2.51
393
3.34
396
2.75
385
2.31
409
1.18
407
3.00
412
1.65
408
2.84
410
1.97
406
WAO-7two views1.90
384
1.20
385
1.35
362
1.27
386
1.06
386
2.84
392
1.56
396
3.23
397
3.06
394
2.23
382
3.33
391
3.17
389
2.28
390
3.12
394
2.21
377
1.02
389
0.91
399
1.06
383
1.03
397
1.04
383
0.97
391
DPSimNet_ROBtwo views3.58
402
2.45
410
8.57
407
2.53
404
2.37
406
2.88
395
3.77
412
3.14
396
3.23
395
4.71
409
3.86
397
4.68
398
4.87
409
4.07
404
5.62
401
2.33
410
2.33
413
2.47
405
2.52
411
2.51
406
2.64
411
SANettwo views1.07
350
0.41
305
1.06
332
0.48
255
0.30
223
1.41
354
0.94
358
1.42
353
3.36
396
1.58
356
2.43
371
2.33
377
1.70
376
1.34
346
1.07
337
0.28
299
0.24
305
0.26
282
0.23
273
0.34
314
0.30
299
JetRedtwo views5.27
409
5.84
416
12.81
413
2.36
403
2.83
412
12.23
416
10.50
415
4.46
406
3.60
397
3.86
405
3.83
396
4.85
402
4.18
407
6.78
410
11.96
411
2.17
408
2.96
415
2.18
400
1.97
409
3.38
414
2.68
412
MADNet++two views4.03
403
2.70
414
3.44
395
3.72
415
3.44
414
4.44
405
3.52
411
3.95
405
3.61
398
4.46
406
4.98
408
4.10
396
4.58
408
7.00
411
5.89
402
3.74
412
3.67
416
3.27
414
2.71
413
3.70
415
3.66
415
WAO-6two views2.04
389
1.50
393
1.16
341
1.70
391
1.67
396
2.69
386
1.44
393
3.06
394
3.63
399
1.98
375
3.27
388
3.54
395
2.07
388
2.36
388
2.22
379
1.31
396
0.91
399
2.04
397
1.22
404
1.73
391
1.27
401
Deantwo views1.98
386
1.36
390
1.36
366
2.12
399
1.81
399
2.74
387
1.36
388
3.37
401
3.80
400
2.08
377
3.32
390
3.21
390
1.82
379
1.71
370
1.67
362
1.27
391
0.77
395
1.99
392
0.90
389
1.86
393
1.03
392
LVEtwo views2.12
391
1.44
391
1.36
366
1.99
398
1.78
397
2.75
388
1.79
402
2.82
391
3.95
401
1.90
373
4.33
404
3.52
394
1.81
378
2.24
386
1.74
365
1.74
402
0.87
398
2.06
398
1.13
400
1.91
397
1.35
402
SGM-ForestMtwo views4.04
404
0.32
260
0.46
145
0.43
186
0.27
171
7.50
411
1.45
394
3.84
404
4.24
402
8.19
414
6.76
411
19.00
422
9.08
411
10.74
415
6.62
405
0.31
314
0.33
352
0.32
322
0.32
334
0.29
283
0.29
292
tttwo views6.20
410
0.20
70
5.89
402
3.55
414
2.07
403
11.26
415
19.21
416
11.74
417
5.46
403
2.69
390
2.04
364
4.87
403
6.25
410
3.70
401
7.09
407
8.32
419
11.17
424
4.93
415
5.41
418
5.74
417
2.37
410
ktntwo views2.98
398
2.25
407
1.73
377
2.84
409
2.53
410
3.76
403
2.15
406
3.70
403
5.47
404
2.75
391
5.17
409
5.94
407
2.48
392
3.23
395
2.46
383
2.34
411
1.44
410
2.78
410
2.03
410
2.45
405
2.01
408
KSHMRtwo views2.57
393
1.93
403
1.69
375
2.63
408
2.42
407
2.86
394
2.07
405
3.27
399
6.50
405
2.49
388
3.36
393
3.41
393
1.92
383
2.49
391
1.94
371
2.13
407
1.40
409
2.79
411
1.50
407
2.73
407
1.77
405
HanzoNettwo views6.76
412
2.45
410
4.22
399
3.19
412
2.94
413
3.62
401
2.28
408
4.79
410
7.20
406
14.00
419
13.19
418
17.49
420
22.30
424
13.25
417
6.19
403
4.20
415
1.93
412
3.10
413
2.56
412
3.35
413
2.88
413
coex-fttwo views6.43
411
1.51
394
87.33
435
0.49
270
0.38
289
1.34
349
1.21
377
1.16
284
8.09
407
12.12
415
2.79
381
2.77
384
3.31
402
1.16
323
3.15
386
0.24
266
0.23
298
0.27
294
0.24
286
0.45
346
0.37
330
ASD4two views9.96
414
8.86
419
17.78
414
7.17
417
9.80
416
16.08
418
28.92
420
9.77
416
8.20
408
7.02
413
7.08
412
8.47
412
9.57
413
11.17
416
20.26
417
4.12
414
4.14
418
5.57
418
4.74
416
5.53
416
4.90
417
TorneroNet-64two views3.44
399
1.86
401
1.42
370
2.58
407
2.28
405
6.87
409
1.68
398
4.70
409
12.03
409
2.31
384
5.59
410
8.25
411
2.55
394
3.97
403
2.73
384
1.81
403
0.74
389
2.57
406
1.07
399
2.35
403
1.44
403
MANEtwo views4.13
405
0.51
330
0.64
256
0.66
354
0.56
353
6.89
410
0.99
363
7.55
412
12.04
410
6.68
412
8.57
414
10.69
415
9.45
412
7.59
412
6.39
404
0.49
364
0.43
373
0.48
360
0.98
393
0.49
353
0.48
363
UNDER WATER-64two views3.53
401
2.01
404
3.94
397
3.22
413
2.49
409
5.41
408
2.60
410
3.43
402
12.41
411
3.03
399
2.68
380
6.07
408
4.04
406
3.79
402
3.33
388
2.02
405
1.24
408
2.63
407
1.46
406
2.78
408
2.08
409
WAO-8two views2.92
396
1.55
395
1.35
362
1.79
393
1.63
394
5.23
406
1.22
378
4.58
407
12.56
412
2.84
394
4.07
402
4.83
400
2.72
397
3.49
398
2.25
380
1.27
391
0.91
399
1.99
392
1.15
402
1.86
393
1.15
395
Venustwo views2.92
396
1.55
395
1.35
362
1.79
393
1.63
394
5.23
406
1.22
378
4.58
407
12.56
412
2.84
394
4.06
401
4.83
400
2.72
397
3.49
398
2.25
380
1.27
391
0.91
399
1.99
392
1.15
402
1.86
393
1.15
395
UNDER WATERtwo views3.46
400
2.07
406
3.64
396
3.09
411
2.48
408
3.75
402
2.42
409
3.31
400
13.77
414
2.90
398
2.95
385
5.84
405
3.69
405
3.69
400
3.48
392
2.07
406
1.11
406
2.70
409
1.40
405
2.84
410
1.98
407
BEATNet-Init1two views15.13
417
0.82
369
50.86
434
0.72
367
0.53
346
38.10
428
7.03
414
11.83
418
14.25
415
29.78
432
30.17
432
48.21
436
22.64
425
26.78
426
18.11
416
0.42
356
0.38
361
0.47
357
0.46
361
0.51
356
0.48
363
DGTPSM_ROBtwo views12.07
415
8.00
417
20.99
415
8.93
419
16.78
418
10.67
413
30.87
421
9.01
414
15.16
416
6.50
410
15.41
422
9.04
413
14.85
415
9.25
413
21.67
419
4.57
416
8.57
419
5.08
416
9.28
419
5.90
418
10.95
419
DPSMNet_ROBtwo views12.08
416
8.00
417
21.00
416
8.97
420
16.79
419
10.67
413
30.89
422
9.02
415
15.17
417
6.51
411
15.41
422
9.04
413
14.85
415
9.27
414
21.67
419
4.58
417
8.57
419
5.09
417
9.29
420
5.90
418
10.95
419
Anonymous_1two views33.25
424
18.26
420
23.92
418
20.54
421
21.28
422
25.59
420
35.94
423
22.01
427
15.57
418
13.33
416
13.49
419
18.08
421
15.29
417
20.36
418
24.60
421
16.28
427
8.84
421
66.59
434
118.00
434
155.73
437
11.23
421
DPSM_ROBtwo views17.78
418
18.63
421
24.31
422
20.90
422
19.47
420
25.97
421
36.21
424
21.23
425
16.24
419
13.38
417
14.06
420
19.18
423
16.30
418
20.78
419
25.67
422
9.38
421
9.23
422
9.49
421
9.82
421
13.51
421
11.91
422
DPSMtwo views17.78
418
18.63
421
24.31
422
20.90
422
19.47
420
25.97
421
36.21
424
21.23
425
16.24
419
13.38
417
14.06
420
19.18
423
16.30
418
20.78
419
25.67
422
9.38
421
9.23
422
9.49
421
9.82
421
13.51
421
11.91
422
LE_ROBtwo views4.42
406
0.24
180
2.75
390
0.42
168
0.23
69
1.57
365
0.90
356
1.71
379
17.88
421
16.56
423
4.88
407
5.17
404
18.85
423
1.63
365
14.62
414
0.17
142
0.14
178
0.16
60
0.16
122
0.19
190
0.17
161
xxxxx1two views36.64
430
19.51
423
24.21
419
61.66
434
64.63
434
27.28
424
40.10
426
20.25
420
18.63
422
14.07
420
12.97
415
17.26
417
17.36
420
21.70
422
27.93
424
13.18
424
18.50
427
111.26
435
133.37
435
29.24
429
39.73
431
tt_lltwo views36.64
430
19.51
423
24.21
419
61.66
434
64.63
434
27.28
424
40.10
426
20.25
420
18.63
422
14.07
420
12.97
415
17.26
417
17.36
420
21.70
422
27.93
424
13.18
424
18.50
427
111.26
435
133.37
435
29.24
429
39.73
431
fftwo views36.64
430
19.51
423
24.21
419
61.66
434
64.63
434
27.28
424
40.10
426
20.25
420
18.63
422
14.07
420
12.97
415
17.26
417
17.36
420
21.70
422
27.93
424
13.18
424
18.50
427
111.26
435
133.37
435
29.24
429
39.73
431
PMLtwo views40.80
436
29.24
426
11.87
412
7.20
418
14.47
417
92.13
436
213.69
437
7.63
413
23.35
425
74.72
436
190.14
437
50.17
437
26.15
426
21.39
421
12.70
412
8.76
420
2.92
414
8.45
420
3.25
414
13.26
420
4.42
416
TorneroNettwo views4.53
407
1.89
402
1.48
372
2.55
405
2.27
404
13.78
417
1.69
399
4.84
411
23.73
426
2.89
397
7.70
413
7.06
410
2.69
396
4.26
405
3.42
390
1.84
404
0.77
395
2.68
408
1.13
400
2.42
404
1.47
404
HaxPigtwo views31.96
423
37.24
429
34.27
424
24.37
424
24.88
424
18.26
419
19.86
417
20.64
423
28.52
427
35.97
433
38.75
433
25.57
426
28.72
427
33.88
427
34.39
427
35.94
435
38.87
435
37.80
431
40.48
431
39.68
433
41.15
434
MyStereo03two views35.77
426
37.55
432
48.75
430
42.19
428
39.18
427
52.27
431
73.13
432
42.32
430
32.61
428
27.03
428
28.40
429
38.50
429
32.89
429
41.62
430
51.63
432
18.78
429
18.59
432
19.11
423
19.80
426
27.18
423
23.95
424
MyStereo02two views35.77
426
37.55
432
48.75
430
42.19
428
39.18
427
52.27
431
73.13
432
42.32
430
32.61
428
27.03
428
28.40
429
38.50
429
32.89
429
41.62
430
51.63
432
18.78
429
18.59
432
19.11
423
19.80
426
27.18
423
23.95
424
MyStereotwo views35.77
426
37.55
432
48.75
430
42.19
428
39.18
427
52.27
431
73.13
432
42.32
430
32.61
428
27.03
428
28.40
429
38.50
429
32.89
429
41.62
430
51.63
432
18.78
429
18.59
432
19.11
423
19.80
426
27.18
423
23.95
424
Selective-RAFT-Errortwo views35.84
429
37.49
431
48.83
433
42.26
432
39.24
431
52.30
434
73.09
430
42.66
434
32.61
428
26.80
426
28.30
428
38.84
434
33.51
433
41.68
434
51.59
431
18.82
432
18.58
431
19.17
428
19.80
426
27.28
427
24.05
428
CasAABBNettwo views35.74
425
37.43
430
48.72
429
42.22
431
39.20
430
52.24
430
73.12
431
42.61
433
32.62
432
26.78
425
27.95
425
38.58
432
32.60
428
41.67
433
51.65
435
18.74
428
18.57
430
19.15
427
19.77
425
27.20
426
23.98
427
LSM0two views38.95
435
37.60
435
48.58
428
43.57
433
91.06
437
52.57
435
72.57
429
43.17
435
32.63
433
26.97
427
27.97
426
38.65
433
32.94
432
41.86
435
51.78
436
18.89
433
18.41
426
19.13
426
19.63
424
27.29
428
33.77
430
MEDIAN_ROBtwo views37.38
433
40.85
437
40.60
427
32.31
426
31.85
425
27.20
423
24.55
418
29.10
428
33.19
434
42.09
435
41.76
435
33.35
427
34.39
435
39.78
429
37.07
428
43.64
437
44.10
437
44.12
433
43.40
433
41.51
435
42.76
436
SPstereotwo views24.26
422
4.19
415
6.66
404
4.29
416
3.79
415
45.68
429
78.09
435
63.52
436
33.36
435
27.50
431
26.65
424
39.53
435
33.55
434
42.77
436
51.02
430
3.90
413
3.72
417
5.95
419
4.66
415
3.15
412
3.30
414
AVERAGE_ROBtwo views37.58
434
40.13
436
40.15
426
34.81
427
33.82
426
28.55
427
25.10
419
32.02
429
34.06
436
41.28
434
40.66
434
34.46
428
34.81
436
39.18
428
37.57
429
42.78
436
43.44
436
43.82
432
43.03
432
40.47
434
41.51
435
test_example2two views176.61
437
205.14
438
198.86
437
188.60
438
190.98
438
152.67
437
170.61
436
94.86
437
123.55
437
178.88
437
179.48
436
158.94
438
141.34
437
192.61
437
198.96
437
203.76
438
236.37
438
164.13
438
173.55
438
218.58
438
160.41
437
FADEtwo views2.05
405
1.03
379
0.99
381
2.73
382
11.57
423
1.70
411
23.09
429
15.86
423
0.62
372