This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort by
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
21
0.18
1
0.62
116
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
368
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
27
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
298
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
158
0.38
91
0.34
116
0.66
55
0.35
6
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
rrrtwo views0.31
23
0.24
139
0.56
184
0.36
27
0.27
158
0.38
91
0.31
87
0.56
24
0.44
43
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
323
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
22
0.31
6
0.36
78
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
Any-RAFTtwo views0.36
42
0.17
8
0.31
10
0.35
12
0.21
25
0.51
143
0.21
5
0.93
188
0.75
134
0.56
63
0.73
85
0.66
161
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
43
0.54
44
0.38
35
0.34
70
0.50
49
0.25
3
0.75
377
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
ACVNet-DCAtwo views0.36
42
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
xx1two views0.40
102
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
314
0.42
32
0.50
31
0.65
149
0.56
174
0.61
94
0.26
8
0.17
125
0.11
39
0.20
176
0.19
207
0.18
151
0.19
165
cc1two views0.38
76
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
314
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
ffmtwo views0.47
161
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
302
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
0.26
8
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
tt1two views0.37
60
0.25
167
0.35
19
0.43
166
0.23
56
0.52
150
0.37
157
0.72
109
1.13
302
0.42
32
0.46
22
0.35
25
0.44
124
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
129
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
60
0.54
44
0.39
38
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
229
0.18
183
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
HHtwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.31
51
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.30
39
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
257
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
45
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
104
0.22
30
0.32
60
0.22
11
0.65
53
0.45
47
0.52
53
0.64
67
0.60
126
0.19
3
0.78
215
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
45
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
86
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
61
0.41
43
0.31
53
0.57
69
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
RAFT_CTSACEtwo views0.46
152
0.20
54
0.48
115
0.46
222
0.27
158
0.34
72
0.39
183
0.62
36
0.74
132
0.78
174
1.44
324
0.86
234
0.38
89
1.09
301
0.27
23
0.13
9
0.13
141
0.18
116
0.16
115
0.16
103
0.12
10
test_xeample3two views0.31
23
0.23
120
0.56
184
0.36
27
0.26
129
0.35
74
0.32
99
0.60
31
0.38
17
0.44
38
0.32
9
0.33
18
0.28
27
0.66
146
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
36
0.32
13
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
166
0.29
198
0.40
101
0.48
248
0.78
143
0.38
17
0.38
18
0.34
16
0.32
13
0.30
50
0.63
125
0.28
29
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
244
0.43
121
0.34
116
0.42
4
0.34
5
0.33
11
0.51
36
0.29
4
0.38
89
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
262
CAStwo views0.37
60
0.13
1
0.27
7
1.34
387
0.31
227
0.46
131
0.38
170
0.50
11
0.48
56
0.35
15
0.52
39
0.24
1
0.19
3
0.30
1
0.28
29
1.03
388
0.08
1
0.12
2
0.08
1
0.12
2
0.28
279
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
218
0.62
36
0.41
34
0.33
11
0.31
6
0.32
13
0.28
27
0.60
88
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
164
0.23
20
0.46
6
0.56
67
0.60
71
0.69
79
0.37
32
0.26
17
0.36
4
0.28
29
0.16
99
0.16
211
0.13
8
0.10
10
0.14
36
0.15
78
XX-TBDtwo views0.32
26
0.53
324
0.26
4
0.53
301
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
61
0.70
81
0.31
6
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
XX-Stereotwo views0.38
76
0.18
14
0.52
158
0.58
327
0.38
282
0.39
96
0.20
1
0.62
36
0.31
2
0.47
45
1.29
299
0.72
188
0.25
12
0.59
78
0.28
29
0.16
99
0.11
39
0.17
85
0.16
115
0.14
36
0.11
3
CFNet-RSSMtwo views0.35
36
0.18
14
0.47
102
0.39
60
0.22
30
0.35
74
0.23
20
0.78
143
0.86
186
0.67
109
0.54
44
0.56
96
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
IGEV_Zeroshot_testtwo views0.36
42
0.19
33
0.71
251
0.41
104
0.29
198
0.30
39
0.25
30
0.86
165
0.40
29
0.64
94
0.57
52
0.56
96
0.25
12
0.56
65
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
39
0.42
45
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
RCA-Stereotwo views0.36
42
0.18
14
0.37
27
0.38
44
0.23
56
0.31
51
0.33
108
0.70
92
1.25
326
0.45
39
0.65
69
0.46
64
0.43
119
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
test_4two views0.37
60
0.19
33
0.34
13
0.45
199
0.26
129
0.20
2
0.34
116
0.58
27
0.42
38
0.60
71
1.45
327
0.43
51
0.26
17
0.67
155
0.29
37
0.12
4
0.10
8
0.17
85
0.19
207
0.15
66
0.12
10
iRaft-Stereo_20wtwo views0.42
123
0.20
54
0.63
216
0.39
60
0.27
158
0.33
66
0.25
30
1.76
376
0.37
14
0.73
140
0.53
41
0.63
138
0.42
116
0.86
238
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
GMOStereotwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
error versiontwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
test-vtwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
TRStereotwo views0.39
88
0.32
252
0.64
220
0.49
257
0.41
299
0.30
39
0.30
69
0.97
202
0.63
84
0.53
59
0.43
18
0.52
82
0.26
17
0.77
207
0.29
37
0.18
156
0.12
86
0.19
147
0.19
207
0.13
14
0.13
31
test-2two views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
Gwc-CoAtRStwo views0.35
36
0.18
14
0.46
91
0.39
60
0.23
56
0.34
72
0.22
11
0.74
128
0.77
139
0.62
77
0.60
58
0.58
114
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
129
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
39
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
RAFT-Testtwo views0.35
36
0.19
33
0.42
58
0.39
60
0.24
77
0.50
138
0.23
20
0.74
128
0.44
43
0.62
77
0.85
145
0.64
145
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
86
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
102
0.53
41
0.42
45
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
176
0.16
115
0.16
103
0.12
10
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
268
0.30
217
0.19
1
0.31
87
0.52
13
0.41
34
0.25
1
0.28
4
0.46
64
0.31
53
0.39
8
0.30
48
0.15
67
0.15
190
0.16
57
0.13
49
0.17
127
0.16
98
raft_robusttwo views0.41
116
0.24
139
0.39
36
0.43
166
0.22
30
0.40
101
0.33
108
0.80
150
0.98
248
0.80
178
0.88
158
0.41
43
0.32
59
0.89
247
0.30
48
0.14
18
0.12
86
0.16
57
0.18
183
0.15
66
0.13
31
test-1two views0.37
60
0.20
54
0.76
268
0.47
240
0.27
158
0.44
127
0.36
145
0.63
42
0.65
93
0.49
48
0.67
77
0.54
88
0.35
73
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
156
sAnonymous2two views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
343
CroCo_RVCtwo views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
343
EAI-Stereotwo views0.36
42
0.21
74
0.46
91
0.40
86
0.22
30
0.33
66
0.36
145
1.22
285
0.32
3
0.52
53
0.75
98
0.35
25
0.28
27
0.65
138
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
MyStereo06two views0.40
102
0.22
97
0.65
225
0.42
129
0.29
198
0.43
121
0.48
248
1.05
228
0.43
41
0.64
94
0.54
44
0.78
213
0.27
22
0.53
53
0.31
57
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
AE-Stereotwo views0.36
42
0.21
74
0.47
102
0.49
257
0.31
227
0.50
138
0.34
116
0.72
109
0.73
127
0.34
13
0.55
49
0.52
82
0.28
27
0.48
41
0.31
57
0.13
9
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
Sa-1000two views0.49
179
0.25
167
0.45
84
0.46
222
0.25
101
0.64
208
0.34
116
0.85
163
0.95
232
0.85
204
1.51
334
0.55
90
0.44
124
0.94
262
0.31
57
0.16
99
0.12
86
0.21
217
0.20
226
0.15
66
0.14
49
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
199
0.24
77
0.32
60
0.35
138
0.77
140
0.42
38
0.62
77
0.77
101
0.58
114
0.27
22
0.46
29
0.31
57
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
raftrobusttwo views0.35
36
0.20
54
0.39
36
0.43
166
0.29
198
0.31
51
0.25
30
0.73
122
0.66
96
0.59
69
0.56
51
0.44
54
0.45
131
0.55
61
0.31
57
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
RAFT-Stereo + iAFFtwo views0.37
60
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
66
0.77
139
0.72
133
0.99
207
0.56
96
0.39
102
0.44
22
0.31
57
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
test crocotwo views0.32
26
0.21
74
0.59
201
0.40
86
0.29
198
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
72
0.31
6
0.33
64
0.68
163
0.32
63
0.18
156
0.13
141
0.20
176
0.15
90
0.18
151
0.13
31
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
104
0.32
244
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
64
0.37
32
0.36
78
0.60
88
0.32
63
0.17
125
0.13
141
0.19
147
0.17
157
0.18
151
0.15
78
DLNR_Zeroshot_testpermissivetwo views20.12
421
36.36
428
38.38
426
170.13
437
62.28
433
0.22
4
0.20
1
13.43
420
0.40
29
0.45
39
0.66
72
0.42
45
0.21
5
0.64
132
0.32
63
5.57
418
0.10
8
0.15
41
0.11
15
72.31
436
0.13
31
LL-Strereo2two views0.36
42
0.25
167
0.52
158
0.43
166
0.27
158
0.36
78
0.27
42
0.70
92
0.46
52
0.55
61
0.53
41
0.65
149
0.24
10
0.69
169
0.32
63
0.14
18
0.13
141
0.23
243
0.20
226
0.19
184
0.14
49
DCREtwo views0.38
76
0.19
33
0.47
102
0.45
199
0.33
255
0.45
130
0.40
193
0.66
55
0.53
65
0.49
48
0.95
184
0.57
99
0.39
102
0.53
53
0.32
63
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
test-3two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.72
133
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.70
123
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_3two views0.37
60
0.19
33
0.50
131
0.45
199
0.24
77
0.47
133
0.36
145
0.69
82
0.84
176
0.66
102
0.46
22
0.68
168
0.25
12
0.45
25
0.32
63
0.12
4
0.10
8
0.18
116
0.16
115
0.15
66
0.12
10
KYRafttwo views0.48
170
0.21
74
0.41
50
0.45
199
0.23
56
0.43
121
0.36
145
0.68
71
0.45
47
0.94
253
1.72
349
0.78
213
0.40
107
0.65
138
0.32
63
0.16
99
0.11
39
0.18
116
0.22
261
0.17
127
0.76
377
Prome-Stereotwo views0.46
152
0.20
54
0.37
27
0.45
199
0.26
129
0.40
101
0.42
218
0.69
82
0.49
57
0.96
270
1.84
355
0.58
114
0.64
211
0.63
125
0.32
63
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
288
anonymousdsp2two views0.37
60
0.21
74
0.49
122
0.38
44
0.24
77
0.48
137
0.31
87
0.91
178
0.68
103
0.57
65
0.51
36
0.51
79
0.34
70
0.59
78
0.33
73
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
TestStereo1two views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
RAFT+CT+SAtwo views0.40
102
0.24
139
0.40
45
0.53
301
0.27
158
0.28
31
0.45
235
0.79
148
0.81
162
0.51
51
0.90
163
0.42
45
0.39
102
0.81
223
0.33
73
0.15
67
0.11
39
0.18
116
0.18
183
0.15
66
0.15
78
SA-5Ktwo views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
SAtwo views0.45
147
0.26
195
0.50
131
0.47
240
0.24
77
0.46
131
0.36
145
0.79
148
1.00
255
0.61
75
1.04
231
0.50
76
0.50
150
0.98
279
0.33
73
0.16
99
0.13
141
0.21
217
0.19
207
0.15
66
0.14
49
TransformOpticalFlowtwo views0.46
152
0.21
74
0.49
122
0.42
129
0.24
77
0.36
78
0.46
238
1.04
222
0.84
176
0.67
109
1.14
264
0.73
192
0.56
174
0.78
215
0.33
73
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
PSM-AADtwo views0.48
170
0.21
74
0.39
36
0.44
187
0.23
56
0.56
169
0.47
243
0.67
66
0.73
127
1.08
312
1.12
256
0.58
114
0.87
303
0.63
125
0.33
73
0.15
67
0.11
39
0.25
267
0.26
303
0.18
151
0.42
339
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
86
0.23
56
0.31
51
0.29
57
0.70
92
0.55
66
0.49
48
0.66
72
0.37
32
0.23
7
0.47
34
0.33
73
0.14
18
0.11
39
0.19
147
0.17
157
0.16
103
0.13
31
sCroCo_RVCtwo views0.36
42
0.29
229
0.73
261
0.52
294
0.39
291
0.42
117
0.31
87
0.52
13
0.46
52
0.31
7
0.48
27
0.38
35
0.32
59
0.46
29
0.33
73
0.22
241
0.23
293
0.19
147
0.19
207
0.21
208
0.22
223
StereoVisiontwo views0.43
135
0.29
229
0.54
177
0.50
268
0.28
179
0.37
86
0.38
170
0.75
133
0.63
84
0.46
43
1.11
254
0.53
86
0.38
89
0.57
69
0.34
82
0.21
225
0.24
301
0.25
267
0.24
284
0.26
263
0.17
134
EKT-Stereotwo views0.36
42
0.24
139
0.44
79
0.44
187
0.30
217
0.37
86
0.30
69
0.72
109
0.68
103
0.47
45
0.63
64
0.49
75
0.28
27
0.59
78
0.34
82
0.19
191
0.14
172
0.18
116
0.15
90
0.16
103
0.18
156
DisPMtwo views0.40
102
0.20
54
0.50
131
0.42
129
0.27
158
0.24
7
0.30
69
0.68
71
0.61
83
0.88
224
0.87
155
0.59
123
0.32
59
0.80
219
0.34
82
0.19
191
0.12
86
0.19
147
0.17
157
0.16
103
0.21
208
STrans-v2two views0.47
161
0.21
74
0.49
122
0.41
104
0.25
101
0.54
159
0.49
258
1.16
262
0.82
170
0.67
109
1.05
234
0.71
173
0.67
228
0.74
187
0.34
82
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
FTStereotwo views0.56
235
0.21
74
0.39
36
0.42
129
0.25
101
0.39
96
0.73
329
0.69
82
0.45
47
1.09
316
3.23
387
0.69
170
0.71
248
0.55
61
0.34
82
0.15
67
0.13
141
0.19
147
0.17
157
0.15
66
0.32
298
GMM-Stereotwo views0.44
141
0.20
54
0.39
36
0.42
129
0.25
101
0.50
138
0.44
231
0.72
109
0.57
71
0.77
163
1.37
312
0.76
206
0.38
89
0.62
116
0.34
82
0.15
67
0.10
8
0.20
176
0.19
207
0.17
127
0.28
279
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
45
0.80
123
0.29
4
0.25
12
0.37
5
0.34
82
0.14
18
0.09
2
0.13
8
0.52
374
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
86
0.28
179
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
22
0.27
2
0.25
12
0.48
41
0.35
89
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
LCNettwo views0.42
123
0.21
74
0.34
13
0.44
187
0.24
77
0.47
133
0.28
50
0.69
82
0.57
71
0.72
133
1.03
228
0.66
161
0.58
186
0.60
88
0.35
89
0.15
67
0.10
8
0.19
147
0.19
207
0.22
226
0.37
321
GrayStereotwo views0.49
179
0.20
54
0.44
79
0.47
240
0.29
198
0.51
143
0.62
304
0.71
99
0.66
96
1.04
297
1.46
328
0.77
211
0.73
259
0.58
73
0.35
89
0.15
67
0.12
86
0.17
85
0.17
157
0.15
66
0.30
288
AnonymousMtwo views0.42
123
0.86
368
0.31
10
0.35
12
0.23
56
0.30
39
0.37
157
0.56
24
0.44
43
0.72
133
0.50
31
0.47
68
0.29
41
0.42
18
0.35
89
0.16
99
0.12
86
1.51
386
0.32
330
0.12
2
0.11
3
s12784htwo views0.37
60
0.15
2
0.26
4
0.34
9
0.15
1
0.80
263
0.29
57
0.83
158
0.87
190
0.58
68
0.58
54
0.43
51
0.41
111
0.59
78
0.35
89
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
RALAANettwo views0.40
102
0.24
139
0.56
184
0.43
166
0.30
217
0.36
78
0.25
30
0.89
172
0.69
108
0.69
119
0.65
69
0.61
128
0.30
50
0.63
125
0.35
89
0.16
99
0.13
141
0.18
116
0.15
90
0.21
208
0.14
49
AFF-stereotwo views0.39
88
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
87
0.67
66
0.72
118
0.66
102
1.12
256
0.75
200
0.38
89
0.57
69
0.35
89
0.11
1
0.09
2
0.16
57
0.16
115
0.14
36
0.12
10
R-Stereo Traintwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
qqq1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
knoymoustwo views0.37
60
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
42
0.65
93
0.69
119
0.69
79
0.60
126
0.40
107
0.61
94
0.36
98
0.17
125
0.11
39
0.20
176
0.12
26
0.18
151
0.19
165
Selective-RAFTtwo views0.36
42
0.23
120
0.54
177
0.45
199
0.22
30
0.64
208
0.27
42
0.62
36
0.65
93
0.41
31
0.38
17
0.55
90
0.39
102
0.59
78
0.36
98
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
ADStereo(finetuned)two views0.39
88
0.18
14
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.68
236
0.46
29
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
test_5two views0.44
141
0.25
167
0.48
115
0.53
301
0.28
179
0.28
31
0.42
218
0.77
140
0.87
190
0.63
84
0.91
169
0.73
192
0.53
159
0.82
228
0.36
98
0.14
18
0.11
39
0.18
116
0.18
183
0.18
151
0.16
98
OMP-Stereotwo views0.43
135
0.23
120
0.50
131
0.53
301
0.25
101
0.36
78
0.24
23
0.73
122
0.81
162
0.78
174
0.64
67
0.88
241
0.41
111
0.95
267
0.36
98
0.15
67
0.12
86
0.20
176
0.15
90
0.16
103
0.13
31
DCANettwo views0.38
76
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.56
174
0.47
34
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
DCANet-4two views0.38
76
0.22
97
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.69
82
0.97
244
0.70
123
0.79
113
0.40
39
0.46
137
0.46
29
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ffftwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
187
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
26
0.40
39
0.23
7
0.51
50
0.37
106
0.15
67
0.18
246
0.19
147
0.16
115
0.16
103
0.14
49
PFNet+two views0.41
116
0.20
54
0.53
165
0.40
86
0.25
101
0.28
31
0.22
11
0.66
55
0.76
137
0.85
204
0.79
113
0.63
138
0.34
70
0.75
192
0.37
106
0.20
210
0.14
172
0.23
243
0.20
226
0.17
127
0.21
208
HHNettwo views0.42
123
0.19
33
0.43
74
0.35
12
0.38
282
0.33
66
0.33
108
0.71
99
0.78
142
0.87
216
1.30
301
0.52
82
0.36
78
0.53
53
0.37
106
0.16
99
0.11
39
0.19
147
0.15
90
0.15
66
0.25
257
IIG-Stereotwo views0.45
147
0.22
97
0.48
115
0.51
280
0.26
129
0.43
121
0.21
5
0.73
122
0.80
153
0.84
194
0.95
184
0.82
227
0.46
137
0.95
267
0.37
106
0.16
99
0.12
86
0.19
147
0.15
90
0.15
66
0.12
10
RAFT-345two views0.41
116
0.19
33
0.42
58
0.39
60
0.23
56
0.32
60
0.25
30
0.62
36
0.56
67
0.74
147
1.77
352
0.44
54
0.35
73
0.67
155
0.37
106
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
RAFTtwo views0.46
152
0.23
120
0.52
158
0.48
248
0.27
158
0.55
164
0.47
243
0.68
71
0.60
81
0.83
188
0.82
131
1.00
271
0.56
174
0.76
200
0.37
106
0.18
156
0.16
211
0.22
229
0.20
226
0.16
103
0.14
49
TestStereotwo views0.39
88
0.32
252
0.42
58
0.45
199
0.20
18
0.41
110
0.38
170
0.69
82
0.66
96
0.56
63
0.78
109
0.48
71
0.43
119
0.59
78
0.37
106
0.18
156
0.13
141
0.20
176
0.15
90
0.23
240
0.14
49
csctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
111two views0.42
123
0.18
14
0.46
91
0.35
12
0.19
8
0.52
150
0.28
50
0.76
135
1.16
311
0.52
53
0.92
175
0.65
149
0.51
155
0.65
138
0.37
106
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
ARAFTtwo views0.48
170
0.25
167
0.82
281
0.42
129
0.25
101
0.56
169
0.54
279
0.82
156
0.82
170
0.92
246
0.75
98
0.75
200
0.48
144
0.89
247
0.37
106
0.15
67
0.12
86
0.23
243
0.22
261
0.14
36
0.14
49
whm_ethtwo views0.49
179
0.32
252
0.79
274
0.47
240
0.38
282
0.37
86
0.37
157
0.83
158
0.83
175
0.82
183
1.73
350
0.36
31
0.39
102
0.61
94
0.38
119
0.19
191
0.17
237
0.20
176
0.20
226
0.20
199
0.25
257
PSM-adaLosstwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.59
78
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.20
1
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
HUI-Stereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.22
11
0.63
42
0.40
29
0.64
94
0.73
85
0.58
114
0.38
89
0.53
53
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
SST-Stereotwo views0.41
116
0.20
54
0.48
115
0.43
166
0.25
101
0.25
16
0.21
5
0.68
71
0.50
60
1.08
312
0.79
113
0.71
173
0.42
116
0.81
223
0.38
119
0.17
125
0.11
39
0.20
176
0.16
115
0.19
184
0.15
78
RAFT-RH_RVCtwo views0.57
239
0.18
14
0.44
79
0.38
44
0.23
56
0.56
169
0.24
23
0.61
34
0.73
127
1.18
328
3.90
398
0.55
90
0.40
107
0.67
155
0.38
119
0.14
18
0.11
39
0.20
176
0.15
90
0.12
2
0.14
49
RALCasStereoNettwo views0.37
60
0.23
120
0.41
50
0.44
187
0.28
179
0.36
78
0.38
170
0.66
55
0.67
102
0.51
51
0.74
96
0.51
79
0.29
41
0.64
132
0.38
119
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
134
HCRNettwo views0.46
152
0.35
267
0.45
84
0.54
310
0.26
129
0.52
150
0.29
57
0.87
166
0.64
88
0.75
150
0.82
131
0.76
206
0.53
159
0.70
176
0.38
119
0.24
261
0.16
211
0.24
256
0.20
226
0.21
208
0.20
192
MIM_Stereotwo views0.39
88
0.18
14
0.59
201
0.38
44
0.25
101
0.27
25
0.24
23
0.72
109
0.56
67
0.72
133
1.00
211
0.62
134
0.29
41
0.67
155
0.39
127
0.13
9
0.14
172
0.17
85
0.16
115
0.14
36
0.12
10
riskmintwo views0.41
116
0.21
74
0.44
79
0.34
9
0.24
77
0.58
183
0.32
99
0.70
92
0.86
186
0.52
53
0.57
52
0.78
213
0.60
193
0.58
73
0.39
127
0.17
125
0.12
86
0.19
147
0.13
49
0.19
184
0.22
223
MIPNettwo views0.39
88
0.22
97
0.66
227
0.40
86
0.25
101
0.53
153
0.29
57
0.78
143
0.74
132
0.68
116
0.60
58
0.40
39
0.48
144
0.45
25
0.39
127
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
Patchmatch Stereo++two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
NF-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
OCTAStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.58
114
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
ROB_FTStereo_v2two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ASMatchtwo views0.48
170
0.20
54
0.47
102
0.39
60
0.28
179
0.37
86
0.26
40
0.76
135
0.72
118
0.77
163
2.29
367
0.61
128
0.51
155
0.64
132
0.39
127
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
223
RAFT_R40two views0.41
116
0.20
54
0.47
102
0.44
187
0.25
101
0.23
6
0.25
30
0.69
82
0.70
110
0.98
276
0.78
109
0.72
188
0.43
119
0.80
219
0.39
127
0.17
125
0.11
39
0.20
176
0.16
115
0.18
151
0.15
78
PFNettwo views0.43
135
0.19
33
0.61
207
0.44
187
0.24
77
0.42
117
0.31
87
0.76
135
0.81
162
1.01
284
0.74
96
0.67
165
0.41
111
0.75
192
0.39
127
0.16
99
0.10
8
0.20
176
0.15
90
0.16
103
0.14
49
RE-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
Pruner-Stereotwo views0.39
88
0.21
74
0.51
139
0.41
104
0.25
101
0.22
4
0.24
23
0.71
99
0.59
74
0.90
238
0.75
98
0.67
165
0.30
50
0.64
132
0.39
127
0.19
191
0.12
86
0.20
176
0.17
157
0.17
127
0.19
165
TVStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
iGMRVCtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.29
57
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
IRAFT_RVCtwo views0.43
135
0.20
54
0.52
158
0.45
199
0.24
77
0.26
18
0.51
264
0.76
135
0.78
142
0.77
163
0.80
123
0.73
192
0.50
150
0.74
187
0.39
127
0.18
156
0.10
8
0.21
217
0.17
157
0.17
127
0.15
78
iRAFTtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
RAFT-IKPtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.27
42
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
Anonymous3two views0.47
161
0.35
267
0.91
304
0.50
268
0.38
282
0.81
268
0.55
283
0.76
135
0.66
96
0.52
53
0.65
69
0.44
54
0.45
131
0.66
146
0.39
127
0.25
273
0.25
309
0.22
229
0.21
243
0.23
240
0.24
250
Anonymoustwo views0.40
102
0.29
229
0.70
248
0.54
310
0.44
316
0.56
169
0.54
279
0.68
71
0.52
62
0.38
18
0.44
19
0.33
18
0.42
116
0.57
69
0.39
127
0.20
210
0.20
271
0.18
116
0.18
183
0.30
288
0.24
250
SFCPSMtwo views0.48
170
0.22
97
0.59
201
0.41
104
0.27
158
0.85
280
0.36
145
1.39
332
0.79
148
0.81
182
0.85
145
0.54
88
0.50
150
0.60
88
0.39
127
0.18
156
0.14
172
0.18
116
0.20
226
0.17
127
0.16
98
CoDeXtwo views0.48
170
0.21
74
0.53
165
0.43
166
0.25
101
0.74
245
0.38
170
1.36
329
0.82
170
0.84
194
0.96
188
0.63
138
0.57
183
0.63
125
0.40
147
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
IPLGRtwo views0.40
102
0.22
97
0.70
248
0.40
86
0.22
30
0.51
143
0.29
57
0.78
143
0.78
142
0.80
178
0.77
101
0.44
54
0.41
111
0.48
41
0.40
147
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
NRIStereotwo views0.37
60
0.21
74
0.49
122
0.42
129
0.23
56
0.33
66
0.25
30
0.68
71
0.59
74
0.65
98
0.63
64
0.55
90
0.37
82
0.67
155
0.40
147
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
CRE-IMPtwo views0.37
60
0.23
120
0.53
165
0.42
129
0.24
77
0.40
101
0.21
5
0.61
34
0.45
47
0.65
98
0.73
85
0.53
86
0.37
82
0.63
125
0.40
147
0.18
156
0.11
39
0.19
147
0.16
115
0.21
208
0.19
165
DN-CSS_ROBtwo views0.45
147
0.27
207
0.74
265
0.41
104
0.29
198
0.43
121
0.29
57
0.80
150
0.78
142
0.73
140
1.08
248
0.48
71
0.45
131
0.81
223
0.40
147
0.15
67
0.12
86
0.21
217
0.19
207
0.18
151
0.17
134
rafts_anoytwo views0.38
76
0.22
97
0.38
33
0.43
166
0.28
179
0.32
60
0.32
99
0.70
92
0.91
214
0.59
69
0.66
72
0.45
61
0.33
64
0.49
47
0.41
152
0.16
99
0.12
86
0.21
217
0.23
270
0.18
151
0.16
98
raft+_RVCtwo views0.38
76
0.20
54
0.38
33
0.39
60
0.27
158
0.44
127
0.35
138
0.81
152
0.90
208
0.52
53
0.78
109
0.50
76
0.29
41
0.56
65
0.41
152
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
GMStereopermissivetwo views0.40
102
0.38
281
0.61
207
0.41
104
0.27
158
0.47
133
0.35
138
0.62
36
1.04
270
0.57
65
0.54
44
0.38
35
0.36
78
0.56
65
0.41
152
0.20
210
0.13
141
0.16
57
0.17
157
0.24
248
0.20
192
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
DRafttwo views0.49
179
0.18
14
0.50
131
0.38
44
0.25
101
0.57
179
0.39
183
0.67
66
0.86
186
1.02
288
1.75
351
0.50
76
0.79
279
0.65
138
0.42
155
0.14
18
0.11
39
0.16
57
0.16
115
0.14
36
0.17
134
DeepStereo_RVCtwo views0.37
60
0.22
97
0.51
139
0.41
104
0.24
77
0.26
18
0.22
11
0.64
52
0.40
29
0.69
119
0.67
77
0.57
99
0.50
150
0.58
73
0.42
155
0.17
125
0.12
86
0.18
116
0.16
115
0.19
184
0.19
165
MyStereo05two views0.46
152
0.22
97
0.51
139
0.42
129
0.29
198
0.43
121
0.48
248
0.96
200
1.12
296
0.77
163
0.62
63
0.51
79
0.57
183
0.79
217
0.43
157
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
UDGNettwo views0.50
190
0.82
363
0.56
184
0.51
280
0.32
244
0.41
110
0.34
116
0.71
99
0.93
221
0.65
98
0.60
58
0.58
114
0.44
124
0.65
138
0.43
157
0.33
325
0.15
190
0.67
374
0.20
226
0.49
350
0.23
242
PSM-softLosstwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
KMStereotwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
THIR-Stereotwo views0.51
200
0.19
33
0.47
102
0.39
60
0.23
56
0.74
245
0.64
310
0.68
71
0.88
200
1.03
291
1.40
315
0.71
173
0.75
264
0.64
132
0.43
157
0.16
99
0.11
39
0.17
85
0.18
183
0.15
66
0.17
134
DIP-Stereotwo views0.40
102
0.22
97
0.58
193
0.42
129
0.29
198
0.62
195
0.27
42
0.87
166
0.42
38
0.65
98
0.86
149
0.52
82
0.35
73
0.67
155
0.43
157
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
134
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
iResNetv2_ROBtwo views0.55
226
0.29
229
0.86
292
0.39
60
0.25
101
0.67
228
0.37
157
1.21
279
1.02
262
1.02
288
1.10
250
0.89
246
0.79
279
0.74
187
0.43
157
0.19
191
0.13
141
0.15
41
0.11
15
0.19
184
0.16
98
PCWNet_CMDtwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.98
204
0.99
251
0.87
216
1.07
242
0.78
213
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.21
217
0.16
115
0.26
263
0.20
192
CASStwo views0.46
152
0.28
220
0.45
84
0.48
248
0.22
30
0.63
200
0.34
116
0.99
207
0.66
96
0.76
155
0.86
149
0.61
128
0.58
186
0.58
73
0.44
164
0.29
302
0.16
211
0.22
229
0.18
183
0.23
240
0.28
279
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
GANet-ADLtwo views0.44
141
0.27
207
0.48
115
0.44
187
0.30
217
0.54
159
0.36
145
0.94
193
0.88
200
0.64
94
0.72
83
0.68
168
0.44
124
0.55
61
0.44
164
0.22
241
0.15
190
0.15
41
0.13
49
0.18
151
0.21
208
DEmStereotwo views0.49
179
0.18
14
0.53
165
0.39
60
0.26
129
0.57
179
0.33
108
0.65
53
0.75
134
0.90
238
1.65
343
0.57
99
1.02
327
0.63
125
0.44
164
0.14
18
0.12
86
0.16
57
0.16
115
0.14
36
0.17
134
MSMDNettwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.99
207
0.99
251
0.87
216
1.07
242
0.79
219
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.20
176
0.16
115
0.25
257
0.20
192
MyStereo04two views0.45
147
0.23
120
0.52
158
0.43
166
0.29
198
0.40
101
0.48
248
1.02
216
1.12
296
0.62
77
0.58
54
0.55
90
0.56
174
0.77
207
0.45
169
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
11t1two views0.38
76
0.23
120
0.49
122
0.36
27
0.23
56
0.61
191
0.31
87
0.74
128
0.47
54
0.62
77
0.55
49
0.55
90
0.49
148
0.58
73
0.45
169
0.18
156
0.15
190
0.16
57
0.13
49
0.17
127
0.19
165
CFNet_ucstwo views0.51
200
0.25
167
0.58
193
0.39
60
0.31
227
0.59
189
0.35
138
1.04
222
0.95
232
0.89
231
1.19
279
0.80
223
0.49
148
0.66
146
0.45
169
0.21
225
0.16
211
0.26
281
0.18
183
0.27
272
0.23
242
FENettwo views0.43
135
0.23
120
0.40
45
0.40
86
0.24
77
0.54
159
0.33
108
0.83
158
0.72
118
0.74
147
0.73
85
0.63
138
0.56
174
0.65
138
0.45
169
0.19
191
0.13
141
0.19
147
0.17
157
0.18
151
0.20
192
GMStereo_Zeroshotpermissivetwo views0.51
200
0.46
311
0.80
275
0.50
268
0.28
179
0.57
179
0.30
69
0.75
133
0.79
148
0.88
224
0.94
180
0.90
248
0.37
82
0.77
207
0.46
173
0.27
287
0.14
172
0.26
281
0.15
90
0.39
327
0.19
165
anonymousatwo views0.51
200
0.21
74
0.47
102
0.39
60
0.25
101
0.89
288
0.36
145
0.78
143
0.63
84
0.88
224
1.54
335
1.09
301
0.67
228
0.53
53
0.46
173
0.17
125
0.14
172
0.19
147
0.21
243
0.16
103
0.16
98
IERtwo views0.48
170
0.25
167
0.60
206
0.38
44
0.28
179
0.67
228
0.38
170
0.82
156
0.68
103
0.88
224
0.95
184
0.74
196
0.79
279
0.62
116
0.46
173
0.17
125
0.14
172
0.17
85
0.17
157
0.17
127
0.16
98
CrosDoStereotwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
369
0.69
82
0.87
190
0.94
253
1.36
309
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
DeepStereo_LLtwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
369
0.69
82
0.87
190
0.94
253
1.36
309
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
CFNet_pseudotwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.03
228
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.13
141
0.24
256
0.16
115
0.26
263
0.21
208
GEStwo views0.46
152
0.25
167
0.62
212
0.41
104
0.30
217
0.62
195
0.37
157
1.06
233
0.70
110
0.75
150
0.83
136
0.47
68
0.52
158
0.69
169
0.46
173
0.23
255
0.17
237
0.17
85
0.16
115
0.18
151
0.24
250
ccs_robtwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.02
217
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.12
86
0.24
256
0.16
115
0.26
263
0.21
208
iResNet_ROBtwo views0.55
226
0.24
139
0.61
207
0.38
44
0.22
30
0.66
219
0.30
69
1.59
364
1.33
340
0.94
253
1.05
234
0.81
225
0.69
238
0.84
234
0.46
173
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
192
DAStwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.89
247
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
SepStereotwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.97
277
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
HITNettwo views0.43
135
0.27
207
0.50
131
0.34
9
0.18
5
0.65
214
0.32
99
0.99
207
0.70
110
0.73
140
0.86
149
0.66
161
0.56
174
0.61
94
0.47
182
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
1test111two views0.37
60
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.59
78
0.48
185
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
qqqtwo views0.42
123
0.28
220
0.50
131
0.37
35
0.22
30
0.47
133
0.39
183
0.91
178
0.59
74
0.57
65
0.71
82
0.65
149
0.56
174
0.59
78
0.48
185
0.17
125
0.17
237
0.20
176
0.19
207
0.18
151
0.19
165
BSDual-CNNtwo views0.48
170
0.26
195
0.47
102
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.80
153
0.77
163
0.80
123
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
psmgtwo views0.50
190
0.26
195
0.47
102
0.42
129
0.29
198
0.82
271
0.42
218
1.07
235
0.80
153
0.95
258
0.94
180
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.16
211
0.20
176
0.20
226
0.19
184
0.19
165
GANet-RSSMtwo views0.49
179
0.22
97
0.42
58
0.39
60
0.26
129
0.58
183
0.41
213
1.12
249
0.82
170
0.73
140
1.02
217
0.88
241
0.75
264
0.67
155
0.48
185
0.22
241
0.16
211
0.18
116
0.19
207
0.18
151
0.18
156
UCFNet_RVCtwo views0.50
190
0.27
207
0.37
27
0.40
86
0.27
158
0.66
219
0.42
218
1.18
270
0.86
186
0.70
123
0.89
161
0.91
254
0.60
193
0.62
116
0.48
185
0.24
261
0.18
246
0.28
299
0.27
307
0.25
257
0.24
250
HSMtwo views0.53
216
0.25
167
0.46
91
0.40
86
0.25
101
0.74
245
0.44
231
1.29
311
0.78
142
0.82
183
0.92
175
1.21
313
0.75
264
0.90
252
0.48
185
0.18
156
0.14
172
0.17
85
0.14
69
0.17
127
0.18
156
mmmtwo views0.47
161
0.28
220
0.51
139
0.39
60
0.25
101
0.61
191
0.38
170
1.00
213
0.60
81
0.77
163
1.07
242
0.65
149
0.53
159
0.61
94
0.49
192
0.18
156
0.15
190
0.23
243
0.20
226
0.21
208
0.20
192
IPLGtwo views0.40
102
0.21
74
0.64
220
0.41
104
0.25
101
0.54
159
0.27
42
0.77
140
0.68
103
0.85
204
0.82
131
0.33
18
0.32
59
0.64
132
0.49
192
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
xtwo views0.41
116
0.25
167
0.46
91
0.36
27
0.24
77
0.54
159
0.31
87
0.94
193
0.58
73
0.60
71
0.72
83
0.61
128
0.53
159
0.52
51
0.50
194
0.18
156
0.16
211
0.17
85
0.16
115
0.17
127
0.18
156
hknettwo views0.51
200
0.26
195
0.58
193
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.89
204
0.77
163
0.80
123
0.96
263
0.67
228
0.75
192
0.50
194
0.19
191
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
LL-Strereotwo views0.58
250
0.29
229
0.83
285
0.48
248
0.35
270
0.39
96
0.48
248
1.04
222
0.99
251
0.87
216
0.79
113
1.08
295
1.15
344
1.35
338
0.51
196
0.18
156
0.15
190
0.22
229
0.19
207
0.17
127
0.21
208
pcwnet_v2two views0.60
261
0.29
229
0.89
301
0.46
222
0.36
275
0.62
195
0.38
170
1.33
322
1.24
324
1.02
288
1.27
294
0.71
173
0.59
190
0.71
181
0.51
196
0.28
295
0.21
277
0.24
256
0.23
270
0.29
281
0.30
288
RAFT + AFFtwo views0.54
221
0.30
243
0.84
288
0.51
280
0.32
244
0.63
200
0.57
288
1.05
228
0.95
232
0.80
178
0.87
155
0.85
230
0.57
183
0.87
240
0.51
196
0.18
156
0.21
277
0.23
243
0.22
261
0.19
184
0.19
165
AdaStereotwo views0.52
210
0.34
263
0.53
165
0.49
257
0.25
101
0.71
237
0.36
145
1.24
289
0.91
214
0.77
163
0.98
198
0.75
200
0.50
150
0.71
181
0.51
196
0.27
287
0.13
141
0.28
299
0.18
183
0.23
240
0.18
156
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
MyStereo8two views0.42
123
0.21
74
0.64
220
0.43
166
0.29
198
0.55
164
0.28
50
0.72
109
0.50
60
0.73
140
1.01
215
0.57
99
0.44
124
0.52
51
0.52
200
0.15
67
0.12
86
0.16
57
0.14
69
0.19
184
0.21
208
gwcnet-sptwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
scenettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
ssnettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
CIPLGtwo views0.42
123
0.23
120
0.71
251
0.45
199
0.33
255
0.51
143
0.33
108
0.68
71
0.68
103
0.84
194
0.96
188
0.47
68
0.33
64
0.56
65
0.52
200
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
ACREtwo views0.42
123
0.23
120
0.73
261
0.45
199
0.33
255
0.50
138
0.33
108
0.68
71
0.70
110
0.82
183
0.92
175
0.46
64
0.32
59
0.53
53
0.52
200
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
PSMNet-RSSMtwo views0.50
190
0.24
139
0.41
50
0.43
166
0.26
129
0.51
143
0.40
193
1.16
262
0.79
148
0.75
150
1.07
242
0.87
238
0.69
238
0.66
146
0.52
200
0.24
261
0.16
211
0.23
243
0.26
303
0.20
199
0.20
192
FADNet-RVC-Resampletwo views0.58
250
0.35
267
1.34
347
0.50
268
0.34
265
0.73
241
0.43
225
1.09
243
0.96
239
0.83
188
0.87
155
0.76
206
0.66
219
0.77
207
0.52
200
0.19
191
0.18
246
0.26
281
0.27
307
0.28
279
0.29
284
NOSS_ROBtwo views0.59
254
0.40
293
0.42
58
0.45
199
0.31
227
0.79
257
0.53
273
1.09
243
1.12
296
0.69
119
0.92
175
0.77
211
0.63
204
0.81
223
0.52
200
0.39
349
0.38
359
0.44
351
0.42
359
0.38
323
0.36
315
ddtwo views0.44
141
0.40
293
0.62
212
0.44
187
0.26
129
0.51
143
0.38
170
0.72
109
1.07
283
0.60
71
0.66
72
0.43
51
0.40
107
0.68
163
0.53
209
0.24
261
0.15
190
0.21
217
0.16
115
0.24
248
0.19
165
IPLGR_Ctwo views0.42
123
0.23
120
0.71
251
0.46
222
0.33
255
0.51
143
0.34
116
0.69
82
0.69
108
0.84
194
0.92
175
0.46
64
0.33
64
0.53
53
0.53
209
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
HSM-Net_RVCpermissivetwo views0.55
226
0.23
120
0.37
27
0.38
44
0.22
30
0.86
282
0.40
193
1.31
314
0.93
221
0.92
246
1.15
266
1.26
317
0.71
248
0.75
192
0.53
209
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
134
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
dadtwo views0.61
264
0.53
324
0.72
257
0.44
187
0.31
227
0.64
208
0.37
157
0.85
163
1.28
331
1.05
302
1.17
274
1.18
311
0.61
197
0.70
176
0.54
212
0.36
339
0.23
293
0.37
337
0.21
243
0.31
292
0.23
242
FADNettwo views0.63
273
0.53
324
1.20
332
0.46
222
0.44
316
0.66
219
0.41
213
1.24
289
1.07
283
0.70
123
0.84
138
0.98
266
0.65
217
0.87
240
0.54
212
0.29
302
0.30
331
0.27
289
0.30
318
0.48
347
0.36
315
GwcNet-ADLtwo views0.45
147
0.24
139
0.51
139
0.46
222
0.30
217
0.41
110
0.40
193
0.95
196
0.98
248
0.73
140
0.78
109
0.61
128
0.41
111
0.67
155
0.55
214
0.20
210
0.14
172
0.15
41
0.14
69
0.19
184
0.22
223
CVANet_RVCtwo views0.59
254
0.35
267
0.54
177
0.49
257
0.33
255
0.70
234
0.67
312
1.12
249
0.97
244
0.88
224
1.05
234
1.01
275
0.72
255
0.94
262
0.55
214
0.30
309
0.20
271
0.28
299
0.26
303
0.32
298
0.23
242
BUStwo views0.47
161
0.26
195
0.47
102
0.46
222
0.29
198
0.78
251
0.34
116
0.99
207
0.80
153
0.77
163
0.80
123
0.64
145
0.54
163
0.66
146
0.56
216
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
NINENettwo views0.52
210
0.30
243
0.55
180
0.46
222
0.33
255
0.78
251
0.34
116
1.18
270
0.91
214
0.84
194
0.97
195
0.64
145
0.54
163
0.74
187
0.56
216
0.23
255
0.20
271
0.25
267
0.18
183
0.22
226
0.22
223
DeepPruner_ROBtwo views0.55
226
0.37
277
0.67
231
0.42
129
0.31
227
0.50
138
0.43
225
1.22
285
0.73
127
0.86
214
1.05
234
0.85
230
0.58
186
0.90
252
0.56
216
0.29
302
0.23
293
0.22
229
0.22
261
0.26
263
0.26
262
CBMV_ROBtwo views0.62
270
0.39
285
0.41
50
0.41
104
0.28
179
0.86
282
0.28
50
1.06
233
1.02
262
0.95
258
1.33
303
0.81
225
0.84
292
0.94
262
0.56
216
0.37
343
0.37
358
0.43
349
0.40
352
0.33
302
0.32
298
HBP-ISPtwo views0.61
264
0.47
317
0.45
84
0.46
222
0.33
255
0.79
257
0.29
57
1.15
260
1.05
272
0.85
204
1.18
278
0.67
165
0.71
248
0.92
256
0.57
220
0.37
343
0.38
359
0.47
357
0.41
357
0.39
327
0.32
298
SACVNettwo views0.61
264
0.36
275
0.67
231
0.57
322
0.37
277
0.65
214
0.47
243
1.16
262
0.80
153
1.04
297
1.06
240
1.02
277
0.81
286
0.99
283
0.57
220
0.28
295
0.21
277
0.25
267
0.24
284
0.30
288
0.39
324
CFNet-ftpermissivetwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
DMCAtwo views0.47
161
0.27
207
0.59
201
0.39
60
0.29
198
0.53
153
0.34
116
0.98
204
0.70
110
0.78
174
0.83
136
0.79
219
0.55
166
0.54
60
0.57
220
0.21
225
0.16
211
0.21
217
0.16
115
0.19
184
0.22
223
CFNet_RVCtwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
AACVNettwo views0.52
210
0.25
167
0.56
184
0.48
248
0.29
198
0.55
164
0.38
170
0.96
200
0.59
74
0.83
188
1.03
228
1.03
279
0.77
277
0.91
254
0.58
225
0.22
241
0.18
246
0.24
256
0.18
183
0.24
248
0.22
223
CFNettwo views0.53
216
0.30
243
0.53
165
0.42
129
0.28
179
0.73
241
0.35
138
1.21
279
1.01
257
0.74
147
1.07
242
0.85
230
0.60
193
0.83
230
0.58
225
0.19
191
0.15
190
0.23
243
0.23
270
0.21
208
0.17
134
MLCVtwo views0.49
179
0.26
195
0.73
261
0.38
44
0.18
5
0.64
208
0.33
108
0.84
162
0.89
204
0.96
270
1.12
256
0.72
188
0.45
131
1.00
288
0.59
227
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
SMFormertwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.19
184
0.20
192
ttatwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.15
66
0.16
98
BEATNet_4xtwo views0.49
179
0.35
267
0.72
257
0.38
44
0.20
18
0.65
214
0.36
145
1.08
240
0.78
142
0.78
174
0.88
158
0.73
192
0.64
211
0.71
181
0.60
228
0.16
99
0.12
86
0.16
57
0.15
90
0.24
248
0.18
156
iResNettwo views0.52
210
0.31
250
0.86
292
0.44
187
0.22
30
0.66
219
0.47
243
0.92
186
1.02
262
0.89
231
1.12
256
0.69
170
0.55
166
0.86
238
0.60
228
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
134
ToySttwo views0.52
210
0.27
207
0.93
305
0.42
129
0.28
179
0.67
228
0.56
286
0.88
171
0.79
148
0.61
75
0.85
145
0.92
257
0.70
243
0.72
185
0.61
232
0.16
99
0.17
237
0.21
217
0.21
243
0.22
226
0.21
208
Anonymous_2two views0.84
314
0.45
306
0.66
227
0.41
104
0.45
323
0.82
271
0.53
273
0.81
152
0.81
162
0.73
140
0.61
61
0.91
254
0.76
273
0.77
207
0.61
232
0.51
365
0.55
381
0.54
368
4.92
416
0.54
360
0.42
339
ICVPtwo views0.48
170
0.26
195
0.42
58
0.49
257
0.28
179
0.63
200
0.43
225
1.05
228
0.72
118
0.68
116
0.95
184
0.75
200
0.56
174
0.55
61
0.61
232
0.24
261
0.18
246
0.19
147
0.17
157
0.19
184
0.21
208
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
cf-rtwo views0.49
179
0.24
139
0.49
122
0.40
86
0.23
56
0.58
183
0.38
170
0.92
186
0.87
190
0.77
163
1.06
240
0.98
266
0.67
228
0.59
78
0.61
232
0.21
225
0.14
172
0.17
85
0.19
207
0.15
66
0.16
98
MaskLacGwcNet_RVCtwo views0.71
285
0.84
367
0.80
275
0.55
316
0.38
282
1.38
348
0.57
288
1.07
235
0.81
162
0.90
238
0.94
180
0.95
260
0.54
163
1.01
289
0.61
232
0.41
354
0.30
331
0.57
370
0.31
327
0.86
376
0.39
324
TDLMtwo views0.59
254
0.35
267
0.57
191
0.53
301
0.32
244
0.67
228
0.72
324
1.09
243
1.03
266
0.84
194
1.11
254
0.84
228
0.71
248
0.96
270
0.61
232
0.28
295
0.18
246
0.26
281
0.22
261
0.27
272
0.21
208
PS-NSSStwo views0.60
261
0.46
311
0.68
238
0.43
166
0.34
265
0.66
219
0.57
288
1.05
228
0.91
214
0.80
178
1.28
295
0.72
188
0.67
228
0.89
247
0.61
232
0.32
317
0.26
318
0.40
346
0.27
307
0.35
314
0.29
284
DSFCAtwo views0.57
239
0.27
207
0.71
251
0.41
104
0.36
275
0.78
251
0.53
273
1.08
240
0.85
180
1.08
312
0.84
138
0.90
248
0.66
219
1.05
296
0.63
239
0.26
278
0.22
286
0.21
217
0.21
243
0.22
226
0.20
192
DMCA-RVCcopylefttwo views0.54
221
0.32
252
0.83
285
0.51
280
0.32
244
0.59
189
0.38
170
0.89
172
0.70
110
0.95
258
0.88
158
0.90
248
0.69
238
0.75
192
0.63
239
0.23
255
0.18
246
0.31
317
0.24
284
0.27
272
0.21
208
NLCA_NET_v2_RVCtwo views0.55
226
0.33
258
0.71
251
0.46
222
0.31
227
0.66
219
0.43
225
1.07
235
0.89
204
0.93
249
0.91
169
0.98
266
0.61
197
0.76
200
0.64
241
0.22
241
0.18
246
0.22
229
0.22
261
0.22
226
0.24
250
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CSP-Nettwo views0.57
239
0.29
229
0.55
180
0.42
129
0.29
198
1.20
339
0.49
258
1.29
311
0.75
134
0.98
276
0.97
195
0.88
241
0.69
238
0.85
236
0.66
242
0.27
287
0.18
246
0.17
85
0.17
157
0.18
151
0.19
165
psm_uptwo views0.57
239
0.27
207
0.52
158
0.50
268
0.33
255
0.65
214
0.60
300
1.07
235
0.84
176
0.87
216
0.91
169
1.00
271
1.06
332
0.80
219
0.66
242
0.22
241
0.25
309
0.26
281
0.23
270
0.22
226
0.21
208
STTStereotwo views0.57
239
0.39
285
0.87
297
0.45
199
0.32
244
0.62
195
0.45
235
1.01
214
0.87
190
1.01
284
0.91
169
0.95
260
0.58
186
0.77
207
0.66
242
0.25
273
0.24
301
0.27
289
0.33
336
0.25
257
0.26
262
iRaft-Stereo_5wtwo views0.46
152
0.22
97
0.53
165
0.43
166
0.30
217
0.30
39
0.53
273
0.66
55
0.71
116
0.62
77
0.89
161
1.01
275
0.67
228
0.76
200
0.67
245
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
134
GEStereo_RVCtwo views0.56
235
0.30
243
0.70
248
0.51
280
0.31
227
0.70
234
0.54
279
1.31
314
0.93
221
0.85
204
0.86
149
0.84
228
0.63
204
0.92
256
0.67
245
0.24
261
0.16
211
0.19
147
0.17
157
0.21
208
0.23
242
UNettwo views0.55
226
0.27
207
0.72
257
0.45
199
0.41
299
0.97
299
0.40
193
1.01
214
0.80
153
0.87
216
0.90
163
1.03
279
0.75
264
0.76
200
0.67
245
0.19
191
0.15
190
0.20
176
0.17
157
0.21
208
0.18
156
PSMNet-ADLtwo views0.50
190
0.28
220
0.43
74
0.49
257
0.31
227
0.70
234
0.38
170
0.94
193
0.81
162
0.62
77
0.80
123
0.91
254
0.62
199
0.76
200
0.68
248
0.24
261
0.18
246
0.19
147
0.20
226
0.22
226
0.22
223
NVstereo2Dtwo views0.62
270
0.32
252
0.82
281
0.50
268
0.44
316
0.88
285
0.48
248
1.12
249
1.17
314
0.67
109
0.90
163
0.90
248
0.69
238
1.02
292
0.69
249
0.33
325
0.16
211
0.29
307
0.20
226
0.43
337
0.46
353
SQANettwo views0.87
321
0.76
359
0.76
268
1.16
382
0.99
379
1.10
321
0.51
264
1.12
249
0.85
180
0.93
249
1.05
234
1.03
279
0.76
273
1.07
297
0.70
250
0.79
378
0.25
309
1.04
382
0.36
341
1.56
386
0.70
375
CC-Net-ROBtwo views0.84
314
1.01
377
0.93
305
0.60
331
0.45
323
1.25
341
0.71
320
1.20
276
1.05
272
0.84
194
1.24
286
0.90
248
0.78
278
1.14
307
0.70
250
0.48
361
0.34
353
1.71
388
0.38
346
0.78
374
0.40
330
ACVNettwo views0.47
161
0.24
139
0.39
36
0.40
86
0.28
179
0.58
183
0.40
193
0.91
178
0.81
162
0.67
109
0.96
188
0.79
219
0.66
219
0.65
138
0.71
252
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
hitnet-ftcopylefttwo views0.57
239
0.29
229
0.43
74
0.42
129
0.29
198
0.81
268
0.40
193
0.98
204
0.91
214
0.84
194
1.01
215
1.13
307
0.72
255
0.83
230
0.71
252
0.28
295
0.21
277
0.28
299
0.22
261
0.29
281
0.27
270
SGM-Foresttwo views0.65
275
0.33
258
0.43
74
0.44
187
0.30
217
1.01
310
0.54
279
1.13
255
1.09
294
1.11
322
1.21
281
1.10
302
0.76
273
0.99
283
0.71
252
0.32
317
0.33
350
0.33
327
0.30
318
0.30
288
0.28
279
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ac_64two views0.54
221
0.24
139
0.58
193
0.46
222
0.28
179
0.79
257
0.44
231
1.11
248
0.63
84
0.94
253
0.85
145
1.06
290
0.70
243
0.76
200
0.72
255
0.22
241
0.18
246
0.20
176
0.19
207
0.18
151
0.16
98
LMCR-Stereopermissivemany views0.55
226
0.33
258
0.57
191
0.60
331
0.30
217
0.80
263
0.36
145
1.30
313
0.79
148
0.90
238
1.04
231
0.57
99
0.64
211
0.87
240
0.73
256
0.20
210
0.15
190
0.19
147
0.14
69
0.25
257
0.18
156
HGLStereotwo views0.58
250
0.30
243
0.65
225
0.51
280
0.38
282
0.78
251
0.45
235
1.07
235
0.82
170
0.89
231
1.16
269
0.88
241
0.91
312
0.80
219
0.74
257
0.21
225
0.21
277
0.20
176
0.18
183
0.19
184
0.22
223
GwcNet-RSSMtwo views0.51
200
0.25
167
0.51
139
0.41
104
0.24
77
0.56
169
0.41
213
0.97
202
0.96
239
0.75
150
1.17
274
0.89
246
0.66
219
0.66
146
0.74
257
0.22
241
0.15
190
0.19
147
0.21
243
0.17
127
0.16
98
GANettwo views0.74
292
0.38
281
0.63
216
0.54
310
0.35
270
1.01
310
0.95
357
1.15
260
0.95
232
1.09
316
2.00
362
1.14
308
0.92
314
1.29
328
0.75
259
0.25
273
0.27
320
0.27
289
0.23
270
0.32
298
0.24
250
DLCB_ROBtwo views0.60
261
0.29
229
0.53
165
0.50
268
0.33
255
0.76
250
0.51
264
1.02
216
0.94
228
1.07
311
1.16
269
1.21
313
0.73
259
0.98
279
0.75
259
0.21
225
0.20
271
0.22
229
0.23
270
0.22
226
0.20
192
CBMVpermissivetwo views0.68
280
0.37
277
0.50
131
0.43
166
0.26
129
1.00
306
0.71
320
1.17
268
1.16
311
1.24
337
1.29
299
1.06
290
0.86
300
0.98
279
0.75
259
0.29
302
0.30
331
0.34
329
0.30
318
0.26
263
0.27
270
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
CRFU-Nettwo views0.59
254
0.29
229
0.62
212
0.47
240
0.31
227
1.20
339
0.51
264
1.19
273
0.59
74
1.05
302
1.00
211
1.06
290
0.87
303
0.83
230
0.77
262
0.22
241
0.19
263
0.18
116
0.16
115
0.19
184
0.20
192
SDNRtwo views0.89
323
0.39
285
1.66
371
0.42
129
0.39
291
3.35
399
0.32
99
0.95
196
1.05
272
1.05
302
2.12
365
0.62
134
0.71
248
1.40
339
0.78
263
0.53
367
0.56
382
0.36
333
0.27
307
0.46
344
0.50
360
ADLNet2two views0.57
239
0.26
195
0.71
251
0.48
248
0.31
227
0.83
274
0.51
264
1.10
247
0.99
251
0.85
204
0.99
207
0.99
270
0.70
243
0.79
217
0.78
263
0.21
225
0.17
237
0.18
116
0.18
183
0.22
226
0.22
223
delettwo views0.57
239
0.25
167
0.63
216
0.46
222
0.34
265
1.05
318
0.51
264
1.04
222
0.94
228
0.90
238
0.99
207
0.90
248
0.68
236
0.87
240
0.78
263
0.18
156
0.18
246
0.20
176
0.21
243
0.17
127
0.17
134
UPFNettwo views0.55
226
0.26
195
0.59
201
0.46
222
0.38
282
0.83
274
0.48
248
1.03
221
0.80
153
0.92
246
0.91
169
0.85
230
0.67
228
0.87
240
0.78
263
0.20
210
0.21
277
0.20
176
0.20
226
0.20
199
0.15
78
FADNet-RVCtwo views0.62
270
0.56
338
1.29
341
0.47
240
0.39
291
0.63
200
0.40
193
1.16
262
0.91
214
0.71
132
0.86
149
1.04
283
0.55
166
0.99
283
0.78
263
0.27
287
0.26
318
0.28
299
0.29
317
0.32
298
0.31
295
GANetREF_RVCpermissivetwo views0.82
306
0.77
360
0.95
310
0.68
354
0.43
311
1.15
331
1.06
364
1.19
273
1.20
321
1.03
291
1.02
217
1.10
302
0.89
309
1.20
318
0.78
263
0.49
362
0.39
363
0.58
371
0.39
348
0.69
371
0.49
358
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
NaN_ROBtwo views0.73
287
0.46
311
0.89
301
0.52
294
0.34
265
0.98
303
1.11
366
1.28
307
1.20
321
1.27
341
0.96
188
1.08
295
0.79
279
1.34
337
0.78
263
0.24
261
0.30
331
0.23
243
0.24
284
0.23
240
0.26
262
DDUNettwo views1.10
345
2.58
411
0.83
285
1.21
384
1.27
388
1.02
312
0.69
317
1.17
268
0.95
232
0.98
276
1.26
290
1.28
318
0.84
292
0.97
277
0.79
270
0.85
381
0.40
366
2.00
393
0.60
378
1.34
385
0.94
381
MMNettwo views0.57
239
0.26
195
0.67
231
0.45
199
0.35
270
1.04
316
0.39
183
0.93
188
0.98
248
0.96
270
0.97
195
0.86
234
0.80
283
0.83
230
0.80
271
0.16
99
0.15
190
0.19
147
0.19
207
0.20
199
0.17
134
FADNet_RVCtwo views0.58
250
0.39
285
1.26
336
0.45
199
0.32
244
0.55
164
0.34
116
1.12
249
0.90
208
0.68
116
0.90
163
0.61
128
0.71
248
1.03
294
0.80
271
0.21
225
0.18
246
0.27
289
0.23
270
0.33
302
0.30
288
otakutwo views1.10
345
0.96
372
0.96
311
1.37
388
1.06
385
1.65
365
0.72
324
1.46
348
1.19
319
1.10
319
1.32
302
1.32
324
0.95
321
1.29
328
0.81
273
0.89
383
0.46
376
1.24
384
0.50
371
1.86
388
0.89
380
FINETtwo views0.75
296
0.45
306
1.38
350
0.48
248
0.46
331
0.98
303
1.00
361
1.22
285
1.69
368
0.91
245
1.25
287
0.74
196
0.74
261
1.09
301
0.82
274
0.37
343
0.31
339
0.27
289
0.24
284
0.35
314
0.34
309
ADLNettwo views0.57
239
0.29
229
0.58
193
0.46
222
0.35
270
0.80
263
0.46
238
1.14
257
0.88
200
1.03
291
0.98
198
0.92
257
0.66
219
0.71
181
0.83
275
0.22
241
0.16
211
0.22
229
0.22
261
0.22
226
0.23
242
ACVNet-4btwo views1.43
370
1.34
386
1.28
340
1.95
396
1.60
391
1.93
375
0.77
335
1.59
364
1.64
366
1.05
302
1.60
341
2.10
372
0.92
314
1.79
367
0.84
276
1.76
397
0.35
355
2.03
396
0.67
380
2.16
395
1.18
390
AASNettwo views0.55
226
0.27
207
0.62
212
0.51
280
0.32
244
0.73
241
0.44
231
1.55
356
0.88
200
0.88
224
0.94
180
0.64
145
0.63
204
0.62
116
0.84
276
0.23
255
0.20
271
0.20
176
0.16
115
0.22
226
0.20
192
GASNettwo views0.70
283
0.77
360
1.16
329
0.71
362
0.49
335
0.62
195
0.48
248
1.12
249
1.05
272
0.98
276
0.84
138
0.94
259
0.82
287
1.41
342
0.85
278
0.33
325
0.22
286
0.29
307
0.28
313
0.44
340
0.26
262
CBFPSMtwo views0.61
264
0.25
167
1.41
352
0.39
60
0.27
158
1.10
321
0.67
312
0.83
158
0.84
176
0.82
183
0.81
129
1.33
329
0.85
296
0.72
185
0.86
279
0.16
99
0.15
190
0.15
41
0.17
157
0.17
127
0.23
242
stereogantwo views0.83
312
0.33
258
0.89
301
0.61
335
0.51
340
1.80
371
0.50
261
1.41
338
1.39
345
1.05
302
1.47
330
1.56
358
1.04
330
1.32
335
0.87
280
0.29
302
0.29
327
0.29
307
0.25
295
0.39
327
0.40
330
acv_fttwo views0.52
210
0.24
139
0.64
220
0.45
199
0.28
179
0.85
280
0.40
193
0.95
196
0.81
162
1.00
282
0.96
188
0.79
219
0.62
199
0.65
138
0.88
281
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
ETE_ROBtwo views0.73
287
0.52
322
0.93
305
0.57
322
0.37
277
0.80
263
0.86
350
1.19
273
0.95
232
1.20
330
1.22
283
1.39
341
0.86
300
1.07
297
0.88
281
0.27
287
0.21
277
0.31
317
0.27
307
0.34
308
0.35
312
Ntrotwo views1.15
350
1.00
376
1.00
317
1.49
389
1.20
387
1.69
368
0.81
341
1.39
332
1.25
326
1.01
284
1.28
295
1.31
322
1.00
326
1.31
333
0.89
283
1.10
389
0.43
372
1.36
385
0.51
372
1.95
390
0.99
386
DGSMNettwo views0.80
303
0.58
342
1.42
353
0.61
335
0.65
362
0.94
294
0.75
333
1.35
325
1.16
311
0.88
224
1.26
290
1.00
271
0.75
264
1.07
297
0.89
283
0.36
339
0.31
339
0.41
347
0.40
352
0.60
368
0.59
372
Syn2CoExtwo views0.74
292
0.55
336
1.17
330
0.66
348
0.45
323
0.89
288
0.56
286
1.54
355
1.15
309
0.95
258
1.35
308
1.03
279
1.03
328
0.96
270
0.89
283
0.31
312
0.27
320
0.29
307
0.24
284
0.23
240
0.27
270
AANet_RVCtwo views0.59
254
0.35
267
0.68
238
0.47
240
0.28
179
0.57
179
0.47
243
1.04
222
1.28
331
0.87
216
1.33
303
0.86
234
0.63
204
1.16
311
0.89
283
0.19
191
0.13
141
0.15
41
0.14
69
0.18
151
0.20
192
NCCL2two views0.74
292
0.45
306
0.77
271
0.65
346
0.45
323
0.97
299
1.16
371
1.16
262
1.02
262
1.00
282
0.98
198
1.48
348
0.88
307
0.99
283
0.89
283
0.31
312
0.27
320
0.39
343
0.39
348
0.33
302
0.34
309
MDST_ROBtwo views0.97
333
0.29
229
1.02
319
0.64
344
0.43
311
2.64
386
0.82
343
1.68
372
1.18
318
2.89
392
1.82
354
0.97
264
0.75
264
1.83
369
0.89
283
0.26
278
0.22
286
0.32
322
0.28
313
0.26
263
0.26
262
fast-acv-fttwo views0.66
276
0.32
252
0.80
275
0.46
222
0.34
265
1.26
342
0.50
261
0.91
178
1.00
255
1.05
302
1.36
309
1.28
318
0.84
292
0.81
223
0.90
289
0.22
241
0.24
301
0.23
243
0.23
270
0.21
208
0.22
223
RPtwo views0.80
303
0.38
281
0.73
261
0.67
350
0.59
355
0.82
271
0.57
288
1.21
279
1.28
331
1.03
291
1.68
345
1.45
343
1.49
365
1.08
300
0.90
289
0.36
339
0.31
339
0.37
337
0.30
318
0.36
318
0.36
315
STTRV1_RVCtwo views0.83
312
0.60
346
1.19
331
0.67
350
0.81
370
1.12
326
0.63
307
1.37
331
1.12
296
0.98
276
1.34
307
1.08
295
0.95
321
1.28
326
0.90
289
0.57
372
0.25
309
0.44
351
0.39
348
0.60
368
0.41
335
FAT-Stereotwo views0.75
296
0.34
263
0.81
280
0.51
280
0.38
282
0.78
251
0.63
307
1.39
332
1.32
338
1.05
302
1.40
315
1.58
359
1.14
342
0.92
256
0.91
292
0.29
302
0.28
325
0.28
299
0.23
270
0.28
279
0.41
335
MSMD_ROBtwo views1.25
358
0.51
320
0.64
220
0.60
331
0.50
338
1.66
366
0.67
312
1.26
297
1.26
329
2.64
389
3.82
396
3.06
387
3.20
400
1.45
347
0.91
292
0.46
357
0.41
368
0.49
363
0.51
372
0.47
346
0.45
349
UDGtwo views0.93
325
1.03
378
0.75
267
1.00
375
0.97
377
1.02
312
0.57
288
1.18
270
1.01
257
0.93
249
1.02
217
1.32
324
1.03
328
0.88
246
0.92
294
0.55
371
0.33
350
1.82
390
0.41
357
1.20
384
0.74
376
edge stereotwo views0.79
302
0.40
293
0.82
281
0.52
294
0.44
316
0.83
274
0.58
295
1.34
324
1.08
288
1.30
342
1.38
313
1.79
364
1.13
341
1.15
310
0.92
294
0.34
332
0.32
345
0.42
348
0.28
313
0.33
302
0.39
324
anonymitytwo views0.98
335
0.89
369
1.06
322
0.93
374
1.04
384
0.97
299
0.82
343
1.33
322
0.93
221
1.08
312
0.98
198
1.02
277
0.95
321
1.02
292
0.93
296
0.96
384
0.96
404
0.90
379
0.91
389
0.92
378
0.95
383
StereoDRNet-Refinedtwo views0.61
264
0.33
258
0.63
216
0.47
240
0.31
227
0.94
294
0.41
213
1.04
222
0.97
244
1.15
326
1.13
262
1.00
271
0.74
261
0.93
259
0.93
296
0.18
156
0.13
141
0.22
229
0.21
243
0.20
199
0.21
208
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
NCC-stereotwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
324
1.60
366
1.12
296
0.95
258
1.41
317
1.37
336
1.37
357
1.26
323
0.94
298
0.32
317
0.30
331
0.37
337
0.49
369
0.34
308
0.35
312
Nwc_Nettwo views0.82
306
0.40
293
0.86
292
0.62
339
0.56
348
1.04
316
0.57
288
1.72
374
1.08
288
0.93
249
1.88
357
1.44
342
1.24
349
1.19
315
0.94
298
0.31
312
0.25
309
0.36
333
0.39
348
0.31
292
0.31
295
Abc-Nettwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
324
1.60
366
1.12
296
0.95
258
1.41
317
1.37
336
1.37
357
1.26
323
0.94
298
0.32
317
0.30
331
0.37
337
0.49
369
0.34
308
0.35
312
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
MFN_U_SF_DS_RVCtwo views1.06
341
0.61
347
1.82
373
0.69
357
0.51
340
2.62
385
1.69
396
1.28
307
1.44
350
1.39
349
1.56
337
1.34
332
0.91
312
1.68
361
0.95
301
0.38
348
0.39
363
0.46
356
0.61
379
0.41
331
0.43
343
StereoDRNettwo views0.67
277
0.35
267
0.82
281
0.53
301
0.44
316
1.03
314
0.53
273
1.51
353
1.06
276
1.13
324
0.91
169
1.07
294
0.74
261
0.87
240
0.95
301
0.24
261
0.19
263
0.25
267
0.23
270
0.27
272
0.22
223
PA-Nettwo views0.70
283
0.46
311
0.96
311
0.51
280
0.53
344
0.94
294
0.73
329
1.14
257
1.15
309
0.83
188
0.90
163
0.88
241
0.76
273
1.19
315
0.96
303
0.25
273
0.41
368
0.29
307
0.44
360
0.27
272
0.39
324
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
LALA_ROBtwo views0.76
299
0.46
311
0.86
292
0.55
316
0.41
299
1.00
306
0.93
356
1.25
295
1.13
302
1.23
335
1.15
266
1.55
356
0.80
283
1.11
304
0.96
303
0.33
325
0.23
293
0.35
330
0.30
318
0.35
314
0.32
298
pmcnntwo views1.27
360
0.31
250
1.14
328
0.41
104
0.23
56
0.97
299
0.71
320
1.23
288
1.32
338
1.83
369
2.34
369
11.25
415
0.89
309
1.04
295
0.96
303
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
ssnet_v2two views0.61
264
0.29
229
0.69
246
0.45
199
0.30
217
0.93
292
0.62
304
1.20
276
1.03
266
0.97
273
0.81
129
0.98
266
0.67
228
0.84
234
0.97
306
0.26
278
0.23
293
0.23
243
0.24
284
0.20
199
0.21
208
RGCtwo views0.82
306
0.62
348
0.80
275
0.67
350
0.66
364
0.91
290
0.59
298
1.35
325
1.09
294
1.12
323
1.46
328
1.50
350
1.09
335
1.28
326
0.97
306
0.34
332
0.30
331
0.48
360
0.40
352
0.38
323
0.38
323
XPNet_ROBtwo views0.73
287
0.38
281
0.80
275
0.53
301
0.40
294
0.80
263
0.83
345
1.21
279
0.96
239
1.37
346
1.17
274
1.37
336
0.87
303
1.14
307
0.99
308
0.33
325
0.25
309
0.27
289
0.24
284
0.31
292
0.29
284
Wz-Net-LNSevtwo views0.75
296
0.54
330
1.59
362
0.51
280
0.41
299
1.16
333
0.79
339
1.27
302
1.13
302
1.04
297
1.14
264
1.11
304
0.94
319
0.93
259
1.00
309
0.24
261
0.22
286
0.21
217
0.19
207
0.26
263
0.27
270
GwcNetcopylefttwo views0.73
287
0.39
285
1.37
349
0.53
301
0.43
311
1.10
321
0.52
270
1.27
302
1.19
319
1.05
302
1.41
317
1.06
290
0.86
300
0.98
279
1.01
310
0.26
278
0.24
301
0.24
256
0.23
270
0.23
240
0.28
279
DRN-Testtwo views0.68
280
0.34
263
0.77
271
0.52
294
0.40
294
1.14
329
0.61
302
1.56
360
1.04
270
1.18
328
1.10
250
1.05
286
0.72
255
0.82
228
1.01
310
0.24
261
0.18
246
0.26
281
0.25
295
0.26
263
0.23
242
CSANtwo views0.88
322
0.52
322
0.93
305
0.61
335
0.42
308
1.19
338
1.11
366
1.27
302
1.48
355
1.37
346
1.44
324
1.37
336
1.30
352
1.46
349
1.01
310
0.39
349
0.31
339
0.36
333
0.37
343
0.35
314
0.36
315
PDISCO_ROBtwo views0.96
331
0.51
320
1.13
326
1.03
378
1.00
380
1.81
372
0.77
335
1.72
374
1.60
362
1.09
316
1.19
279
1.34
332
0.80
283
1.62
356
1.01
310
0.58
373
0.22
286
0.45
353
0.40
352
0.50
352
0.41
335
PSMNet_ROBtwo views0.67
277
0.39
285
0.76
268
0.57
322
0.43
311
1.00
306
0.85
349
1.25
295
0.93
221
0.82
183
1.04
231
1.08
295
0.64
211
0.89
247
1.02
314
0.29
302
0.21
277
0.31
317
0.31
327
0.27
272
0.25
257
ttttwo views0.56
235
0.27
207
0.49
122
0.39
60
0.25
101
0.65
214
0.42
218
1.24
289
1.08
288
0.76
155
1.10
250
0.63
138
0.51
155
0.95
267
1.03
315
0.25
273
0.22
286
0.22
229
0.21
243
0.25
257
0.25
257
RainbowNettwo views1.42
369
1.53
392
1.31
344
1.93
395
1.46
389
1.52
359
1.03
362
1.67
371
1.55
358
1.23
335
1.59
340
1.54
355
1.21
346
1.40
339
1.03
315
1.70
395
0.70
386
1.82
390
0.80
386
2.11
394
1.22
391
Wz-Net-LNSev-Reftwo views0.67
277
0.30
243
1.20
332
0.42
129
0.31
227
1.00
306
0.58
295
1.16
262
1.07
283
1.01
284
1.25
287
1.08
295
0.75
264
1.18
314
1.03
315
0.20
210
0.12
86
0.16
57
0.13
49
0.22
226
0.22
223
psmorigintwo views0.84
314
0.53
324
2.21
381
0.50
268
0.41
299
0.86
282
0.57
288
1.08
240
0.90
208
1.50
351
1.42
321
1.50
350
1.09
335
1.29
328
1.03
315
0.32
317
0.33
350
0.27
289
0.27
307
0.34
308
0.45
349
RASNettwo views0.57
239
0.24
139
0.61
207
0.39
60
0.23
56
0.71
237
0.40
193
1.02
216
0.93
221
0.77
163
1.05
234
1.05
286
0.98
325
0.99
283
1.03
315
0.16
99
0.14
172
0.14
13
0.17
157
0.15
66
0.14
49
MFMNet_retwo views1.17
353
0.99
374
1.31
344
1.02
377
0.95
375
1.32
344
1.32
380
1.44
345
1.58
361
1.72
365
1.70
348
1.21
313
1.57
367
1.16
311
1.04
320
0.88
382
0.76
393
0.79
376
0.75
384
0.90
377
0.94
381
PWCDC_ROBbinarytwo views0.93
325
0.54
330
0.97
315
0.78
369
0.41
299
1.03
314
0.42
218
1.39
332
2.34
384
1.04
297
3.73
395
0.80
223
1.12
339
1.29
328
1.04
320
0.37
343
0.22
286
0.24
256
0.20
226
0.36
318
0.31
295
AF-Nettwo views0.85
319
0.41
297
0.87
297
0.66
348
0.54
346
0.96
298
0.52
270
1.66
370
1.37
342
1.03
291
2.04
364
1.46
344
1.36
355
1.19
315
1.05
322
0.34
332
0.24
301
0.39
343
0.28
313
0.31
292
0.26
262
Wz-Net-MNSevtwo views0.81
305
0.42
301
1.64
368
0.51
280
0.41
299
1.46
352
0.95
357
1.24
289
1.26
329
1.31
343
1.25
287
1.17
310
0.83
289
1.21
319
1.06
323
0.22
241
0.19
263
0.24
256
0.23
270
0.29
281
0.26
262
G-Nettwo views0.95
330
0.48
319
1.13
326
0.67
350
0.49
335
2.07
377
0.63
307
1.02
216
0.90
208
1.77
366
2.62
379
1.28
318
1.60
368
1.09
301
1.06
323
0.37
343
0.30
331
0.35
330
0.25
295
0.46
344
0.45
349
S-Stereotwo views0.76
299
0.36
275
1.10
323
0.57
322
0.46
331
0.83
274
0.59
298
1.31
314
1.62
364
0.98
276
1.41
317
1.11
304
0.93
316
0.85
236
1.07
325
0.27
287
0.31
339
0.28
299
0.25
295
0.33
302
0.50
360
DeepPrunerFtwo views0.93
325
0.55
336
3.88
391
0.70
360
0.81
370
0.72
240
0.74
331
1.28
307
1.97
375
0.95
258
1.02
217
0.87
238
0.85
296
1.16
311
1.07
325
0.35
337
0.29
327
0.43
349
0.40
352
0.31
292
0.33
307
DISCOtwo views0.72
286
0.27
207
0.72
257
0.45
199
0.31
227
1.12
326
0.53
273
1.32
319
1.25
326
0.84
194
1.07
242
1.52
354
0.87
303
1.82
368
1.08
327
0.20
210
0.15
190
0.18
116
0.16
115
0.24
248
0.24
250
Consistency-Rafttwo views1.01
339
0.82
363
1.27
339
0.85
371
0.97
377
0.81
268
0.83
345
1.35
325
1.61
363
1.06
310
1.66
344
1.11
304
0.93
316
0.93
259
1.11
328
0.65
375
0.75
391
0.79
376
0.91
389
1.09
383
0.79
378
PASMtwo views0.96
331
0.71
357
2.05
378
0.72
363
0.72
369
0.84
279
0.92
353
1.14
257
1.34
341
1.25
338
1.22
283
1.34
332
1.07
333
1.31
333
1.11
328
0.53
367
0.57
383
0.59
372
0.67
380
0.56
367
0.57
371
DispFullNettwo views1.64
377
2.64
412
3.14
387
2.57
404
1.78
397
1.32
344
0.55
283
1.42
343
1.45
351
1.89
371
1.48
331
1.55
356
2.35
390
2.08
378
1.12
330
0.60
374
0.19
263
2.33
401
0.73
383
2.35
399
1.30
395
FBW_ROBtwo views0.94
329
0.54
330
1.03
320
0.56
319
0.42
308
1.16
333
0.76
334
1.56
360
1.41
346
1.38
348
1.33
303
1.47
346
1.07
333
2.94
393
1.14
331
0.26
278
0.32
345
0.45
353
0.30
318
0.34
308
0.30
288
aanetorigintwo views0.85
319
0.58
342
1.98
376
0.50
268
0.40
294
0.66
219
0.70
318
0.72
109
1.01
257
2.44
387
2.00
362
1.32
324
1.25
350
0.96
270
1.16
332
0.20
210
0.19
263
0.20
176
0.20
226
0.27
272
0.33
307
ACVNet_1two views1.55
374
1.36
387
1.35
348
1.96
397
1.63
392
1.83
373
0.96
359
2.09
382
1.85
373
1.43
350
1.54
335
2.31
375
1.68
372
1.42
343
1.18
333
1.76
397
0.51
380
2.05
398
0.59
377
2.24
398
1.30
395
APVNettwo views0.73
287
0.39
285
1.01
318
0.58
327
0.45
323
1.16
333
0.68
315
1.47
349
0.87
190
0.84
194
1.15
266
1.04
283
0.84
292
1.14
307
1.18
333
0.27
287
0.28
325
0.32
322
0.31
327
0.29
281
0.32
298
FCDSN-DCtwo views1.43
370
0.57
339
0.69
246
0.74
365
0.59
355
1.42
350
0.65
311
1.40
336
1.41
346
3.31
402
4.42
405
4.57
397
3.01
398
1.70
362
1.19
335
0.46
357
0.42
370
0.48
360
0.47
362
0.51
355
0.51
364
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ACVNet_2two views1.74
379
1.30
385
1.62
367
1.81
392
1.63
392
2.28
382
1.34
382
2.35
387
2.64
387
1.82
368
2.55
375
2.99
385
1.71
373
1.67
360
1.20
336
1.48
393
0.59
384
1.81
389
0.71
382
2.09
393
1.29
394
LSMtwo views4.83
406
0.83
366
11.23
408
0.76
368
56.73
432
1.10
321
1.18
372
1.35
325
1.70
369
2.13
377
2.34
369
1.34
332
1.19
345
1.52
352
1.23
337
0.34
332
0.50
379
0.39
343
0.47
362
0.51
355
9.82
419
iinet-ftwo views0.69
282
0.29
229
2.34
383
0.41
104
0.31
227
1.16
333
0.58
295
0.87
166
0.85
180
0.86
214
1.17
274
1.04
283
0.83
289
0.76
200
1.26
338
0.21
225
0.18
246
0.17
85
0.16
115
0.21
208
0.21
208
SANettwo views1.15
350
0.45
306
1.40
351
0.50
268
0.32
244
1.54
360
1.21
374
1.49
350
3.35
396
1.61
355
2.41
372
2.32
377
1.80
376
1.57
354
1.27
339
0.28
295
0.25
309
0.26
281
0.24
284
0.36
318
0.32
298
RYNettwo views0.76
299
0.37
277
0.74
265
0.54
310
0.67
365
1.35
346
0.68
315
1.28
307
1.21
323
1.10
319
0.90
163
1.31
322
0.94
319
1.01
289
1.30
340
0.22
241
0.16
211
0.27
289
0.23
270
0.43
337
0.45
349
WCMA_ROBtwo views1.22
355
0.39
285
0.93
305
0.51
280
0.45
323
1.44
351
0.79
339
1.20
276
1.30
336
2.99
398
3.94
399
3.30
391
2.17
387
1.42
343
1.31
341
0.46
357
0.35
355
0.35
330
0.37
343
0.41
331
0.42
339
MeshStereopermissivetwo views1.38
366
0.45
306
0.58
193
0.45
199
0.35
270
1.63
364
0.60
300
2.07
381
1.43
349
4.49
407
3.32
391
4.67
398
2.08
384
2.08
378
1.32
342
0.36
339
0.36
357
0.37
337
0.32
330
0.32
298
0.34
309
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ccnettwo views0.84
314
0.59
344
0.86
292
0.56
319
0.60
358
1.11
325
0.72
324
1.44
345
0.97
244
1.15
326
1.44
324
1.28
318
0.95
321
1.01
289
1.33
343
0.49
362
0.43
372
0.50
365
0.47
362
0.52
358
0.48
357
Anonymous Stereotwo views0.82
306
0.59
344
2.10
379
0.59
329
0.58
353
0.68
232
1.42
387
1.05
228
1.07
283
1.03
291
1.02
217
0.86
234
0.65
217
1.33
336
1.36
344
0.32
317
0.31
339
0.31
317
0.33
336
0.34
308
0.39
324
DANettwo views0.74
292
0.47
317
0.98
316
0.60
331
0.41
299
0.92
291
0.41
213
1.02
216
0.87
190
1.22
333
1.22
283
1.33
329
0.88
307
1.26
323
1.37
345
0.27
287
0.24
301
0.31
317
0.25
295
0.37
321
0.36
315
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
SGM_RVCbinarytwo views1.04
340
0.30
243
0.47
102
0.41
104
0.23
56
1.73
370
0.77
335
1.63
368
1.30
336
2.39
385
1.99
361
2.64
380
1.78
375
2.22
382
1.40
346
0.28
295
0.27
320
0.27
289
0.25
295
0.25
257
0.25
257
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
FC-DCNNcopylefttwo views1.67
378
0.53
324
0.68
238
0.62
339
0.49
335
1.62
363
0.71
320
1.77
377
1.55
358
4.73
409
4.66
407
5.82
406
3.94
403
2.13
380
1.42
347
0.47
360
0.42
370
0.47
357
0.46
361
0.48
347
0.47
355
NVStereoNet_ROBtwo views1.31
364
0.96
372
1.33
346
0.90
373
0.92
372
1.15
331
1.05
363
1.49
350
1.62
364
1.63
357
2.51
374
2.31
375
1.62
369
2.16
381
1.42
347
0.81
380
0.73
387
0.79
376
1.02
393
0.73
372
0.97
384
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
DualNettwo views0.53
216
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
302
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
1.46
349
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ff1two views0.56
235
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
302
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
349
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
mmxtwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
349
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
xxxcopylefttwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
349
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
MSC_U_SF_DS_RVCtwo views1.38
366
0.91
370
2.11
380
0.89
372
0.57
352
4.27
405
1.79
400
1.55
356
2.00
377
1.64
358
1.85
356
1.83
365
1.44
361
1.89
372
1.49
353
0.49
362
0.40
366
0.56
369
0.58
376
0.75
373
0.52
366
SAMSARAtwo views1.15
350
0.69
353
1.44
355
1.09
381
0.93
373
2.10
379
1.87
403
1.64
369
1.47
354
1.64
358
1.21
281
2.06
371
1.14
342
1.61
355
1.50
354
0.39
349
0.45
374
0.36
333
0.38
346
0.50
352
0.51
364
DPSNettwo views1.08
344
0.44
305
2.64
384
0.54
310
0.42
308
1.59
361
1.25
377
2.39
388
1.50
356
1.13
324
1.12
256
1.51
352
2.19
388
1.44
346
1.51
355
0.35
337
0.25
309
0.25
267
0.21
243
0.49
350
0.39
324
PWC_ROBbinarytwo views0.92
324
0.57
339
1.64
368
0.53
301
0.33
255
0.93
292
0.39
183
1.42
343
1.51
357
1.66
360
2.57
376
1.18
311
1.11
337
1.50
351
1.54
356
0.26
278
0.18
246
0.28
299
0.20
226
0.30
288
0.32
298
SGM+DAISYtwo views1.52
373
0.99
374
1.61
366
1.01
376
1.02
382
1.86
374
1.19
373
1.49
350
1.38
344
2.96
396
3.00
386
2.79
383
1.94
378
1.88
370
1.62
357
0.98
386
0.97
405
0.91
381
0.91
389
0.94
379
0.99
386
SPS-STEREOcopylefttwo views1.29
362
0.94
371
1.10
323
1.05
380
1.03
383
1.48
354
0.91
351
1.57
362
1.24
324
2.13
377
1.90
358
1.94
369
1.46
362
1.77
365
1.64
358
0.97
385
0.94
403
0.90
379
0.89
388
0.96
380
0.97
384
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
Wz-Net-SNSevtwo views0.99
337
0.80
362
3.00
385
0.57
322
0.46
331
0.94
294
1.22
376
1.40
336
1.28
331
1.04
297
1.33
303
1.46
344
0.90
311
2.06
376
1.65
359
0.26
278
0.24
301
0.25
267
0.26
303
0.33
302
0.30
288
Deantwo views2.07
388
1.39
388
1.69
372
2.17
399
1.83
399
2.75
390
1.28
378
3.49
400
3.80
400
2.13
377
3.30
390
3.18
389
1.98
381
1.78
366
1.72
360
1.73
396
0.79
397
1.99
392
0.91
389
2.17
396
1.34
398
SuperBtwo views1.00
338
0.41
297
4.03
394
0.45
199
0.32
244
0.99
305
0.49
258
1.09
243
2.09
378
1.10
319
1.10
250
0.74
196
0.83
289
1.13
305
1.75
361
0.20
210
0.15
190
0.17
85
0.15
90
2.50
403
0.27
270
SHDtwo views0.98
335
0.54
330
1.30
343
0.63
341
0.50
338
1.14
329
0.50
261
1.80
378
2.20
379
1.66
360
1.39
314
1.47
346
1.21
346
1.40
339
1.80
362
0.32
317
0.27
320
0.32
322
0.34
338
0.41
331
0.44
347
LVEtwo views2.20
391
1.47
390
1.44
355
2.06
398
1.80
398
2.79
392
1.77
399
2.96
391
3.94
402
1.95
374
4.29
404
3.47
394
1.97
379
2.48
386
1.85
363
2.06
399
0.88
398
2.06
399
1.13
400
2.17
396
1.53
400
MFN_U_SF_RVCtwo views1.14
349
0.63
349
2.33
382
0.69
357
0.46
331
2.04
376
0.70
318
1.90
379
1.37
342
1.62
356
1.56
337
1.94
369
1.36
355
1.73
364
1.90
364
0.41
354
0.38
359
0.45
353
0.48
366
0.45
341
0.47
355
IMH-64-1two views1.96
382
1.64
397
1.26
336
2.26
401
1.91
400
2.30
383
1.35
383
2.99
392
2.29
380
1.70
362
2.79
383
2.47
378
1.66
370
2.33
383
1.95
365
2.07
400
0.74
389
2.44
402
1.04
395
2.40
400
1.59
401
IMH-64two views1.96
382
1.64
397
1.26
336
2.26
401
1.91
400
2.30
383
1.35
383
2.99
392
2.29
380
1.70
362
2.79
383
2.47
378
1.66
370
2.33
383
1.95
365
2.07
400
0.74
389
2.44
402
1.04
395
2.40
400
1.59
401
IMHtwo views2.15
390
1.66
399
1.29
341
2.25
400
1.92
402
2.87
393
1.33
381
3.25
395
3.04
393
1.87
370
3.33
393
3.00
386
2.03
383
2.80
392
1.95
365
2.09
402
0.78
394
2.45
404
1.05
398
2.44
402
1.62
403
Wz-Net-TNSevtwo views1.23
357
1.24
383
5.25
399
0.51
280
0.43
311
1.49
357
1.09
365
1.58
363
1.42
348
1.25
338
1.26
290
1.58
359
1.52
366
1.97
373
1.95
365
0.33
325
0.32
345
0.26
281
0.30
318
0.41
331
0.43
343
XQCtwo views0.97
333
0.70
354
1.54
360
0.70
360
0.55
347
1.48
354
0.81
341
1.41
338
1.57
360
1.21
331
1.12
256
1.33
329
1.04
330
1.55
353
2.00
369
0.39
349
0.25
309
0.37
337
0.32
330
0.55
362
0.49
358
KSHMRtwo views2.64
393
1.96
403
1.86
375
2.69
408
2.44
406
2.88
394
2.04
404
3.46
399
6.31
406
2.51
388
3.27
388
3.39
393
1.97
379
2.59
389
2.08
370
2.48
407
1.41
409
2.80
411
1.51
407
2.98
408
2.09
406
PVDtwo views1.34
365
0.70
354
1.42
353
0.78
369
0.65
362
1.68
367
0.91
351
2.12
384
3.01
391
2.25
382
2.35
371
1.90
368
1.99
382
1.98
374
2.14
371
0.40
353
0.38
359
0.49
363
0.37
343
0.51
355
0.67
374
1111xtwo views0.64
274
0.23
120
0.61
207
0.39
60
0.21
25
0.68
232
0.46
238
1.32
319
1.03
266
0.76
155
1.02
217
0.95
260
0.72
255
1.13
305
2.15
372
0.18
156
0.18
246
0.18
116
0.19
207
0.20
199
0.19
165
WZ-Nettwo views1.29
362
0.64
350
5.42
400
0.64
344
0.52
342
1.37
347
1.29
379
1.41
338
1.77
371
1.56
354
1.69
347
1.74
363
1.41
359
2.50
388
2.16
373
0.28
295
0.21
277
0.23
243
0.25
295
0.39
327
0.41
335
PWCKtwo views2.06
387
1.75
400
4.11
395
1.69
390
0.93
373
3.13
398
2.86
410
2.18
385
2.41
385
2.38
384
2.33
368
2.22
373
1.85
377
3.52
397
2.20
374
1.65
394
0.73
387
1.52
387
0.83
387
1.81
387
1.02
389
EDNetEfficientorigintwo views9.96
414
1.17
382
175.17
437
0.49
257
0.37
277
1.13
328
0.74
331
1.27
302
2.70
388
3.16
401
2.49
373
2.28
374
2.15
386
1.88
370
2.27
375
0.21
225
0.19
263
0.25
267
0.20
226
0.54
360
0.53
368
WAO-8two views3.00
395
1.60
394
1.52
357
1.82
393
1.65
394
5.57
407
1.35
383
4.65
408
12.37
412
2.89
392
4.04
401
4.89
401
2.78
394
3.73
399
2.44
376
1.29
390
0.93
401
2.00
393
1.16
402
2.02
391
1.23
392
Venustwo views3.00
395
1.60
394
1.52
357
1.82
393
1.65
394
5.57
407
1.35
383
4.65
408
12.37
412
2.89
392
4.04
401
4.89
401
2.78
394
3.73
399
2.44
376
1.29
390
0.93
401
2.00
393
1.16
402
2.02
391
1.23
392
RTSCtwo views0.93
325
0.54
330
1.59
362
0.56
319
0.40
294
1.17
337
0.55
283
1.44
345
1.82
372
1.53
353
1.26
290
1.15
309
0.82
287
1.70
362
2.44
376
0.26
278
0.20
271
0.23
243
0.24
284
0.31
292
0.32
298
WAO-6two views2.11
389
1.52
391
1.25
335
1.73
391
1.69
396
2.72
389
1.62
393
3.15
394
3.64
397
2.01
376
3.28
389
3.52
395
2.20
389
2.59
389
2.48
379
1.31
392
0.92
399
2.04
397
1.22
404
1.89
389
1.35
399
WAO-7two views1.96
382
1.24
383
1.52
357
1.28
386
1.06
385
2.92
395
1.64
394
3.32
396
3.05
394
2.28
383
3.32
391
3.19
390
2.38
391
3.39
395
2.49
380
1.02
387
0.92
399
1.06
383
1.04
395
1.05
382
0.99
386
ELAS_RVCcopylefttwo views1.76
380
0.64
350
1.20
332
0.74
365
0.59
355
2.18
380
2.53
408
2.10
383
2.85
390
3.46
403
3.41
394
3.12
388
4.11
404
2.69
391
2.53
381
0.54
370
0.47
377
0.51
367
0.48
366
0.55
362
0.55
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ktntwo views3.02
397
2.27
406
1.85
374
2.89
409
2.54
410
3.72
401
2.14
405
3.79
403
5.33
404
2.82
391
5.09
409
5.95
407
2.54
392
3.34
394
2.58
382
2.65
409
1.44
410
2.78
410
2.03
410
2.61
405
2.10
407
ELAScopylefttwo views1.77
381
0.64
350
1.10
323
0.72
363
0.58
353
3.37
400
1.76
398
2.54
389
2.57
386
3.77
405
3.96
400
2.83
384
3.44
401
2.34
385
2.73
383
0.53
367
0.47
377
0.50
365
0.48
366
0.55
362
0.55
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views2.87
394
2.31
407
2.01
377
3.03
410
2.60
411
2.94
396
1.82
401
3.43
398
3.06
395
2.89
392
4.21
403
6.15
409
2.71
393
3.42
396
2.90
384
2.67
410
1.18
407
3.00
412
1.67
408
3.13
409
2.26
408
TorneroNet-64two views3.54
399
1.89
401
1.59
362
2.62
407
2.29
404
6.88
410
1.72
397
4.72
410
11.88
410
2.43
386
5.46
411
8.16
411
2.80
396
4.13
403
3.03
385
2.25
405
0.75
391
2.57
406
1.09
399
2.65
406
1.84
405
coex-fttwo views6.50
412
1.57
393
87.99
436
0.49
257
0.38
282
1.41
349
1.21
374
1.21
279
7.96
408
12.14
416
2.78
382
2.74
381
3.83
402
1.30
332
3.19
386
0.24
261
0.23
293
0.27
289
0.24
284
0.48
347
0.40
330
ADCReftwo views0.84
314
0.46
311
1.60
365
0.52
294
0.45
323
1.08
320
0.52
270
1.13
255
1.03
266
1.22
333
1.43
323
0.87
238
0.93
316
0.91
254
3.35
387
0.19
191
0.16
211
0.23
243
0.23
270
0.23
240
0.22
223
UNDER WATER-64two views3.72
401
2.07
404
4.57
397
3.30
413
2.52
409
5.61
409
2.63
409
3.67
402
12.27
411
3.09
399
2.66
380
5.99
408
4.74
407
3.93
402
3.57
388
2.54
408
1.24
408
2.65
407
1.48
406
3.21
411
2.62
411
TorneroNettwo views4.49
403
1.92
402
1.65
370
2.60
406
2.29
404
14.95
418
1.86
402
4.86
411
19.56
426
3.10
400
7.52
414
7.00
410
2.90
397
4.48
404
3.66
389
2.24
404
0.78
394
2.68
408
1.14
401
2.79
407
1.80
404
UNDER WATERtwo views3.63
400
2.12
405
4.11
395
3.17
411
2.51
408
3.77
403
2.45
407
3.53
401
13.66
415
2.98
397
2.92
385
5.75
405
4.13
405
3.85
401
3.75
390
2.84
411
1.11
406
2.71
409
1.41
405
3.26
412
2.50
410
JetBluetwo views3.02
397
1.39
388
7.91
405
1.17
383
1.49
390
8.53
411
7.94
413
2.82
390
1.98
376
2.15
381
2.69
381
3.32
392
3.01
398
6.66
410
3.81
391
0.79
378
0.78
394
0.75
375
0.76
385
1.04
381
1.33
397
EDNetEfficienttwo views1.47
372
0.82
363
6.28
402
0.48
248
0.40
294
0.73
241
0.83
345
0.95
196
2.77
389
3.48
404
1.95
359
1.64
361
2.12
385
1.42
343
3.84
392
0.21
225
0.19
263
0.21
217
0.21
243
0.43
337
0.42
339
ADCPNettwo views1.11
348
0.53
324
3.26
389
0.55
316
0.44
316
1.47
353
0.83
345
1.21
279
1.17
314
1.26
340
1.42
321
1.67
362
1.12
339
1.48
350
3.86
393
0.30
309
0.29
327
0.30
316
0.32
330
0.37
321
0.37
321
RTStwo views2.03
385
1.03
378
11.50
409
0.68
354
0.63
360
2.71
387
1.56
391
1.55
356
2.32
382
1.93
372
2.57
376
1.32
324
1.32
353
5.20
405
4.30
394
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
RTSAtwo views2.03
385
1.03
378
11.50
409
0.68
354
0.63
360
2.71
387
1.56
391
1.55
356
2.32
382
1.93
372
2.57
376
1.32
324
1.32
353
5.20
405
4.30
394
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
AnyNet_C01two views1.63
376
1.16
381
7.38
404
0.65
346
0.56
348
2.25
381
1.53
389
1.53
354
1.46
353
1.71
364
1.95
359
1.83
365
1.41
359
2.48
386
4.42
396
0.33
325
0.32
345
0.32
322
0.34
338
0.45
341
0.50
360
FADEtwo views5.30
409
2.54
408
14.53
413
1.04
379
1.00
380
2.09
378
0.92
353
4.03
405
3.02
392
1.77
366
1.60
341
2.74
381
6.71
410
6.31
408
4.51
397
14.64
427
1.73
411
21.24
429
14.41
423
0.63
370
0.65
373
MADNet+two views2.28
392
2.56
409
10.82
407
1.25
385
0.96
376
2.77
391
1.44
388
2.34
386
1.76
370
1.36
345
1.78
353
1.84
367
1.74
374
6.33
409
4.57
398
0.67
376
0.66
385
0.59
372
0.54
375
0.84
375
0.81
379
AnyNet_C32two views1.27
360
0.72
358
3.33
390
0.59
329
0.56
348
1.51
358
1.53
389
1.27
302
1.28
331
1.52
352
1.48
331
1.38
340
1.23
348
1.64
358
5.26
399
0.30
309
0.29
327
0.29
307
0.34
338
0.38
323
0.44
347
ADCLtwo views1.10
345
0.42
301
1.57
361
0.51
280
0.41
299
1.71
369
0.92
353
1.36
329
1.45
351
1.33
344
1.56
337
1.22
316
1.26
351
1.45
347
5.27
400
0.22
241
0.19
263
0.25
267
0.25
295
0.29
281
0.29
284
ADCMidtwo views1.22
355
0.57
339
3.17
388
0.54
310
0.44
316
1.07
319
0.77
335
1.31
314
1.13
302
2.14
380
1.48
331
1.49
349
1.47
364
1.65
359
5.30
401
0.26
278
0.24
301
0.29
307
0.32
330
0.38
323
0.36
315
MADNet++two views4.18
402
2.72
414
4.00
392
3.80
415
3.44
414
4.72
406
4.05
412
4.01
404
3.74
398
4.52
408
5.14
410
4.20
396
4.89
408
7.04
412
6.39
402
3.79
412
3.70
416
3.27
414
2.70
413
3.68
414
3.74
416
HanzoNettwo views6.97
413
2.57
410
4.66
398
3.29
412
2.96
413
3.75
402
2.35
406
5.08
412
7.11
407
14.46
423
13.06
416
17.69
420
22.95
426
13.72
418
6.61
403
4.36
414
1.96
412
3.14
413
2.59
412
3.88
415
3.19
414
tttwo views6.21
411
0.22
97
5.88
401
3.55
414
2.07
403
11.25
416
19.19
417
11.84
418
5.47
405
2.71
390
2.18
366
4.87
400
6.25
409
3.71
398
7.09
404
8.31
419
11.17
424
4.91
415
5.39
418
5.72
416
2.42
409
ADCP+two views1.18
354
0.37
277
3.09
386
0.50
268
0.52
342
1.48
354
0.61
302
1.32
319
1.07
283
1.21
331
1.16
269
1.08
295
1.11
337
1.63
357
7.17
405
0.20
210
0.16
211
0.24
256
0.22
261
0.29
281
0.22
223
MANEtwo views4.73
404
0.54
330
0.77
271
0.69
357
0.60
358
10.35
413
1.67
395
8.68
414
12.66
414
6.90
413
9.43
415
11.59
416
10.59
413
8.26
413
8.41
406
0.51
365
0.45
374
0.48
360
1.02
393
0.50
352
0.50
360
DPSimNet_ROBtwo views5.19
408
2.71
413
18.56
415
2.59
405
2.49
407
4.25
404
10.93
414
3.33
397
3.93
401
5.02
410
4.52
406
5.74
404
10.18
411
5.44
407
8.79
407
2.40
406
2.47
413
2.48
405
2.54
411
2.56
404
2.87
412
ADCStwo views1.60
375
0.70
354
4.02
393
0.61
335
0.53
344
1.31
343
1.11
366
1.71
373
1.86
374
1.97
375
1.68
345
1.51
352
1.46
362
2.07
377
9.20
408
0.34
332
0.32
345
0.33
327
0.36
341
0.45
341
0.46
353
SGM-ForestMtwo views4.73
404
0.34
263
1.05
321
0.46
222
0.28
179
10.26
412
3.48
411
4.52
406
5.16
403
8.68
415
7.48
413
18.87
422
10.80
414
11.26
416
10.01
409
0.32
317
0.34
353
0.32
322
0.32
330
0.29
281
0.30
288
xxxxtwo views1.07
343
0.23
120
0.53
165
0.38
44
0.22
30
0.83
274
0.36
145
1.41
338
0.95
232
0.75
150
0.99
207
0.97
264
0.64
211
0.70
176
11.37
410
0.20
210
0.17
237
0.18
116
0.17
157
0.19
184
0.20
192
test_xeamplepermissivetwo views1.06
341
0.23
120
0.51
139
0.37
35
0.22
30
0.71
237
0.39
183
1.31
314
0.92
220
0.87
216
1.08
248
0.70
172
0.64
211
0.75
192
11.43
411
0.19
191
0.16
211
0.18
116
0.17
157
0.18
151
0.19
165
JetRedtwo views5.38
410
6.17
416
12.68
412
2.38
403
2.85
412
12.60
417
11.17
415
4.60
407
3.74
398
3.87
406
3.85
397
4.83
399
4.13
405
6.81
411
12.18
412
2.18
403
2.95
415
2.19
400
1.98
409
3.49
413
3.01
413
PMLtwo views40.49
437
30.31
426
12.46
411
7.19
417
14.30
417
91.44
437
212.44
438
7.73
413
23.24
427
74.44
437
185.05
438
49.81
437
25.78
427
21.34
422
12.84
413
8.71
420
2.93
414
8.43
420
3.24
414
13.77
422
4.45
417
222two views1.25
358
0.23
120
0.53
165
0.38
44
0.23
56
0.78
251
0.37
157
1.41
338
0.93
221
0.97
273
1.13
262
0.74
196
0.71
248
0.74
187
14.86
414
0.20
210
0.16
211
0.17
85
0.16
115
0.18
151
0.20
192
LE_ROBtwo views4.86
407
0.27
207
9.43
406
0.45
199
0.24
77
1.61
362
0.96
359
2.05
380
17.75
422
16.36
424
4.84
408
5.17
403
19.48
424
2.05
375
15.49
415
0.17
125
0.15
190
0.16
57
0.16
115
0.20
199
0.19
165
LRCNet_RVCtwo views21.27
422
31.14
427
21.46
418
28.97
425
23.77
423
3.11
397
0.62
304
20.94
424
1.64
366
25.57
425
28.13
426
21.96
425
14.74
415
21.99
426
16.44
416
29.16
434
14.92
425
33.57
430
31.28
430
29.67
432
26.33
430
BEATNet-Init1two views15.65
418
1.62
396
54.26
435
0.75
367
0.56
348
37.03
429
13.39
416
13.20
419
14.59
416
29.41
433
29.29
433
47.69
436
21.87
425
26.91
427
19.58
417
0.43
356
0.39
363
0.47
357
0.47
362
0.52
358
0.52
366
AAGNettwo views1.40
368
0.20
54
0.52
158
0.45
199
0.26
129
0.29
35
0.29
57
0.67
66
0.71
116
0.97
273
0.86
149
0.66
161
0.60
193
0.66
146
19.98
418
0.17
125
0.11
39
0.19
147
0.15
90
0.20
199
0.13
31
ASD4two views10.37
415
9.12
419
17.90
414
7.49
418
10.02
416
16.90
419
28.93
421
11.05
417
8.53
409
7.42
414
7.41
412
8.91
412
10.32
412
11.44
417
20.38
419
4.52
415
4.58
418
5.68
418
5.04
417
5.72
416
6.02
418
DPSMNet_ROBtwo views12.13
417
8.03
417
21.13
417
9.02
420
16.82
419
10.68
414
30.78
423
9.15
416
15.24
418
6.56
412
15.50
424
9.02
413
15.13
416
9.28
415
21.71
420
4.59
417
8.60
419
5.08
417
9.26
419
5.89
419
11.06
420
DGTPSM_ROBtwo views12.12
416
8.03
417
21.12
416
8.97
419
16.81
418
10.68
414
30.77
422
9.14
415
15.23
417
6.55
411
15.49
423
9.02
413
15.13
416
9.26
414
21.71
420
4.58
416
8.60
419
5.07
416
9.26
419
5.88
418
11.06
420
Anonymous_1two views33.12
425
18.23
420
23.86
419
20.53
421
21.18
422
25.45
421
35.84
424
22.44
428
15.68
419
13.41
417
13.70
420
18.00
421
15.15
418
20.31
419
24.47
422
14.56
426
8.84
421
66.24
434
117.79
434
155.41
437
11.40
422
DPSM_ROBtwo views17.80
419
18.60
421
24.24
423
20.89
422
19.49
420
25.83
422
36.10
425
21.62
426
16.41
420
13.46
418
14.26
421
19.11
423
16.15
419
20.74
420
25.59
423
9.37
421
9.23
422
9.47
421
9.81
421
13.47
420
12.09
423
DPSMtwo views17.80
419
18.60
421
24.24
423
20.89
422
19.49
420
25.83
422
36.10
425
21.62
426
16.41
420
13.46
418
14.26
421
19.11
423
16.15
419
20.74
420
25.59
423
9.37
421
9.23
422
9.47
421
9.81
421
13.47
420
12.09
423
xxxxx1two views36.77
431
19.69
423
24.00
420
62.46
434
66.77
434
27.30
425
39.89
427
20.40
421
18.80
423
14.18
420
13.11
417
17.29
417
17.30
421
21.62
423
27.81
425
13.61
423
18.98
432
111.36
435
133.25
435
28.84
429
38.64
432
tt_lltwo views36.77
431
19.69
423
24.00
420
62.46
434
66.77
434
27.30
425
39.89
427
20.40
421
18.80
423
14.18
420
13.11
417
17.29
417
17.30
421
21.62
423
27.81
425
13.61
423
18.98
432
111.36
435
133.25
435
28.84
429
38.64
432
fftwo views36.77
431
19.69
423
24.00
420
62.46
434
66.77
434
27.30
425
39.89
427
20.40
421
18.80
423
14.18
420
13.11
417
17.29
417
17.30
421
21.62
423
27.81
425
13.61
423
18.98
432
111.36
435
133.25
435
28.84
429
38.64
432
HaxPigtwo views31.93
424
37.19
429
34.22
425
24.41
424
24.94
424
18.53
420
20.18
418
21.15
425
28.84
428
35.74
434
38.86
434
26.18
426
28.75
428
33.85
428
34.15
428
35.89
435
38.80
435
37.79
431
40.52
431
39.33
433
39.33
435
MEDIAN_ROBtwo views37.35
434
40.72
437
40.37
428
32.26
426
31.80
425
27.29
424
25.02
419
29.47
429
33.43
436
41.99
436
41.60
436
33.48
427
34.37
436
39.66
430
36.94
429
43.49
437
43.96
437
44.07
433
43.35
433
41.32
435
42.43
437
AVERAGE_ROBtwo views37.53
435
40.05
436
40.01
427
34.74
427
33.76
426
28.46
428
25.14
420
32.31
430
34.08
437
41.20
435
40.52
435
34.51
428
34.78
437
39.11
429
37.48
430
42.68
436
43.32
436
43.80
432
42.99
432
40.42
434
41.31
436
SPstereotwo views24.33
423
4.45
415
7.15
403
4.44
416
4.17
415
45.69
430
77.93
436
63.66
437
33.40
435
27.58
432
26.62
425
39.42
435
33.37
435
42.68
437
50.66
431
4.01
413
3.77
417
6.06
419
4.73
415
3.17
410
3.55
415
Selective-RAFT-Errortwo views35.87
430
37.42
431
48.73
434
42.24
429
39.28
428
52.00
435
72.87
431
43.41
435
32.95
430
26.97
427
28.72
428
38.71
434
33.15
434
41.59
435
51.42
432
18.77
432
18.60
428
19.14
428
19.78
429
27.19
427
24.42
429
MyStereo03two views35.83
427
37.48
432
48.64
431
42.37
430
39.41
429
51.98
432
72.91
432
43.07
431
33.07
432
27.20
429
28.81
430
38.36
429
32.60
430
41.58
431
51.47
433
18.74
429
18.61
429
19.07
423
19.77
426
27.10
423
24.35
426
MyStereo02two views35.83
427
37.48
432
48.64
431
42.37
430
39.41
429
51.98
432
72.91
432
43.07
431
33.07
432
27.20
429
28.81
430
38.36
429
32.60
430
41.58
431
51.47
433
18.74
429
18.61
429
19.07
423
19.77
426
27.10
423
24.35
426
MyStereotwo views35.83
427
37.48
432
48.64
431
42.37
430
39.41
429
51.98
432
72.91
432
43.07
431
33.07
432
27.20
429
28.81
430
38.36
429
32.60
430
41.58
431
51.47
433
18.74
429
18.61
429
19.07
423
19.77
426
27.10
423
24.35
426
CasAABBNettwo views35.77
426
37.38
430
48.59
430
42.20
428
39.23
427
51.95
431
72.92
435
43.36
434
33.03
431
26.93
426
28.31
427
38.43
432
32.32
429
41.58
431
51.50
436
18.71
428
18.58
427
19.11
427
19.75
425
27.11
426
24.33
425
LSM0two views38.96
436
37.52
435
48.37
429
43.79
433
91.31
437
52.31
436
72.38
430
43.71
436
32.75
429
27.16
428
28.73
429
38.51
433
32.63
433
41.75
436
51.59
437
18.85
433
18.43
426
19.09
426
19.60
424
27.21
428
33.44
431
test_example2two views176.82
438
204.75
438
198.54
438
188.58
438
191.23
438
151.28
438
169.77
437
97.63
438
125.81
438
179.94
438
183.74
437
158.20
438
139.14
438
192.16
438
198.12
438
203.48
438
236.37
438
163.71
438
173.22
438
217.79
438
162.95
438