This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
s12784htwo views0.36
62
0.15
3
0.24
3
0.34
11
0.15
1
0.77
245
0.29
57
0.80
162
0.83
179
0.56
65
0.57
50
0.43
53
0.40
105
0.57
85
0.33
82
0.12
4
0.10
9
0.14
16
0.09
6
0.14
45
0.09
1
CASnettwo views0.30
24
0.20
70
0.33
20
0.41
127
0.16
2
0.26
17
0.24
24
0.52
19
0.53
66
0.52
56
0.54
44
0.39
36
0.24
10
0.40
16
0.26
25
0.14
31
0.10
9
0.22
219
0.18
174
0.18
149
0.11
9
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
TANstereotwo views0.30
24
0.15
3
0.31
13
0.30
4
0.17
3
0.55
157
0.23
18
0.44
6
0.55
74
0.59
70
0.68
74
0.37
31
0.26
17
0.35
4
0.27
33
0.15
74
0.16
218
0.12
2
0.10
10
0.13
20
0.14
86
CREStereotwo views0.28
8
0.15
3
0.24
3
0.27
1
0.17
3
0.37
86
0.25
31
0.51
16
0.72
128
0.42
35
0.51
36
0.32
9
0.26
17
0.38
12
0.25
9
0.16
104
0.11
57
0.12
2
0.08
1
0.12
8
0.11
9
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
HITNettwo views0.41
126
0.26
202
0.45
127
0.33
10
0.17
3
0.63
205
0.30
69
0.93
200
0.64
101
0.71
136
0.82
128
0.64
140
0.52
158
0.59
116
0.43
163
0.14
31
0.10
9
0.15
40
0.13
48
0.19
181
0.12
33
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
MLCVtwo views0.47
168
0.24
170
0.61
235
0.37
40
0.17
3
0.61
193
0.33
109
0.80
162
0.87
203
0.94
258
1.13
255
0.72
177
0.43
119
0.89
259
0.51
208
0.13
12
0.10
9
0.13
9
0.11
15
0.14
45
0.12
33
LoStwo views0.29
12
0.15
3
0.30
11
0.29
2
0.18
7
0.33
67
0.29
57
0.51
16
0.72
128
0.34
13
0.52
40
0.41
41
0.28
30
0.47
44
0.28
42
0.15
74
0.11
57
0.13
9
0.09
6
0.11
1
0.11
9
PMTNettwo views0.32
28
0.16
8
0.24
3
0.29
2
0.18
7
0.45
127
0.22
8
0.56
28
0.63
94
0.46
43
0.54
44
0.39
36
0.34
71
0.48
48
0.24
6
0.75
369
0.10
9
0.12
2
0.08
1
0.12
8
0.11
9
Selective-IGEVtwo views0.24
1
0.18
34
0.35
28
0.35
25
0.19
9
0.27
25
0.25
31
0.55
27
0.23
1
0.27
2
0.25
2
0.34
19
0.19
2
0.58
102
0.22
1
0.12
4
0.10
9
0.14
16
0.11
15
0.12
8
0.10
3
DCANet-4two views0.36
62
0.20
70
0.48
167
0.34
11
0.19
9
0.29
36
0.30
69
0.66
78
0.92
228
0.69
124
0.78
107
0.40
39
0.47
136
0.45
30
0.34
92
0.14
31
0.10
9
0.14
16
0.11
15
0.11
1
0.13
57
ffftwo views0.37
77
0.16
8
0.41
80
0.34
11
0.19
9
0.29
36
0.30
69
0.69
106
1.06
289
0.69
124
0.78
107
0.42
47
0.63
211
0.46
37
0.34
92
0.14
31
0.10
9
0.14
16
0.11
15
0.11
1
0.13
57
ADStereo(finetuned)two views0.37
77
0.16
8
0.49
177
0.34
11
0.19
9
0.30
43
0.30
69
0.68
97
0.91
223
0.70
130
0.77
99
0.43
53
0.69
241
0.45
30
0.33
82
0.14
31
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
GLC_STEREOtwo views0.29
12
0.19
49
0.27
8
0.44
192
0.19
9
0.31
53
0.26
37
0.47
9
0.43
46
0.37
16
0.47
27
0.41
41
0.23
7
0.50
50
0.34
92
0.14
31
0.18
243
0.19
144
0.16
119
0.16
104
0.13
57
DCANettwo views0.36
62
0.16
8
0.41
80
0.34
11
0.19
9
0.30
43
0.30
69
0.68
97
0.91
223
0.70
130
0.77
99
0.43
53
0.57
180
0.45
30
0.34
92
0.14
31
0.10
9
0.14
16
0.11
15
0.13
20
0.12
33
csctwo views0.37
77
0.16
8
0.41
80
0.34
11
0.19
9
0.29
36
0.30
69
0.69
106
1.06
289
0.69
124
0.78
107
0.42
47
0.63
211
0.46
37
0.34
92
0.14
31
0.10
9
0.14
16
0.11
15
0.11
1
0.13
57
cscssctwo views0.37
77
0.16
8
0.41
80
0.34
11
0.19
9
0.29
36
0.30
69
0.69
106
1.06
289
0.69
124
0.78
107
0.42
47
0.63
211
0.46
37
0.34
92
0.14
31
0.10
9
0.14
16
0.11
15
0.11
1
0.13
57
111two views0.40
116
0.17
19
0.41
80
0.34
11
0.19
9
0.52
143
0.28
50
0.74
137
1.16
307
0.50
51
0.91
169
0.63
133
0.48
140
0.61
128
0.35
105
0.14
31
0.10
9
0.14
16
0.12
29
0.13
20
0.13
57
RAFT-Stereo + iAFFtwo views0.36
62
0.17
19
0.41
80
0.35
25
0.19
9
0.33
67
0.29
57
0.65
70
0.73
133
0.68
119
1.01
212
0.56
91
0.40
105
0.42
21
0.30
56
0.11
1
0.09
2
0.15
40
0.14
70
0.13
20
0.10
3
BEATNet_4xtwo views0.46
158
0.32
250
0.56
220
0.37
40
0.19
9
0.63
205
0.35
129
1.01
228
0.72
128
0.77
170
0.83
133
0.70
167
0.59
191
0.68
181
0.53
217
0.16
104
0.12
98
0.16
58
0.14
70
0.24
246
0.16
138
1111xtwo views0.55
230
0.22
124
0.46
141
0.38
61
0.20
20
0.66
219
0.43
223
1.23
302
0.99
258
0.71
136
0.99
207
0.95
252
0.69
241
0.90
261
1.08
327
0.18
164
0.17
232
0.18
116
0.19
198
0.20
193
0.18
167
EGLCR-Stereotwo views0.25
2
0.16
8
0.33
20
0.34
11
0.20
20
0.35
78
0.20
1
0.52
19
0.36
20
0.28
4
0.27
4
0.41
41
0.18
1
0.45
30
0.26
25
0.14
31
0.10
9
0.16
58
0.14
70
0.13
20
0.11
9
MC-Stereotwo views0.28
8
0.17
19
0.32
17
0.38
61
0.20
20
0.26
17
0.26
37
0.49
13
0.37
30
0.37
16
0.61
58
0.41
41
0.31
54
0.55
67
0.25
9
0.13
12
0.09
2
0.14
16
0.12
29
0.12
8
0.11
9
TestStereotwo views0.38
91
0.31
248
0.40
76
0.45
213
0.20
20
0.40
102
0.37
158
0.66
78
0.65
106
0.53
59
0.78
107
0.47
67
0.40
105
0.55
67
0.37
133
0.18
164
0.13
151
0.20
168
0.15
91
0.22
227
0.13
57
XX-TBDtwo views0.32
28
0.53
329
0.26
7
0.51
286
0.20
20
0.37
86
0.24
24
0.40
3
0.73
133
0.54
61
0.69
75
0.31
7
0.25
11
0.32
3
0.27
33
0.16
104
0.10
9
0.12
2
0.09
6
0.13
20
0.11
9
MSKI-zero shottwo views0.32
28
0.17
19
0.34
26
0.39
80
0.21
25
0.32
63
0.22
8
0.61
51
0.43
46
0.52
56
0.64
62
0.61
126
0.20
4
0.74
206
0.25
9
0.14
31
0.10
9
0.14
16
0.10
10
0.12
8
0.12
33
Any-RAFTtwo views0.35
44
0.16
8
0.30
11
0.34
11
0.21
25
0.52
143
0.22
8
0.88
187
0.73
133
0.53
59
0.73
83
0.64
140
0.28
30
0.46
37
0.24
6
0.15
74
0.10
9
0.13
9
0.10
10
0.13
20
0.12
33
Selective-RAFTtwo views0.35
44
0.23
139
0.51
196
0.44
192
0.21
25
0.64
211
0.27
43
0.59
36
0.63
94
0.40
29
0.38
16
0.55
90
0.40
105
0.57
85
0.35
105
0.13
12
0.11
57
0.14
16
0.12
29
0.16
104
0.13
57
raft_robusttwo views0.41
126
0.23
139
0.36
33
0.42
161
0.21
25
0.40
102
0.33
109
0.79
158
0.98
253
0.79
175
0.87
153
0.39
36
0.33
65
0.84
245
0.29
53
0.13
12
0.12
98
0.16
58
0.17
156
0.15
77
0.12
33
test-3two views0.34
34
0.16
8
0.43
107
0.39
80
0.21
25
0.43
118
0.22
8
0.63
59
0.78
159
0.71
136
0.45
19
0.64
140
0.27
23
0.43
24
0.31
62
0.12
4
0.09
2
0.17
82
0.13
48
0.12
8
0.10
3
test_1two views0.34
34
0.16
8
0.43
107
0.39
80
0.21
25
0.43
118
0.23
18
0.63
59
0.78
159
0.68
119
0.45
19
0.64
140
0.27
23
0.43
24
0.31
62
0.12
4
0.09
2
0.17
82
0.13
48
0.12
8
0.10
3
xxxxtwo views1.01
329
0.22
124
0.43
107
0.36
33
0.21
25
0.82
268
0.36
146
1.32
323
0.88
207
0.71
136
0.94
177
0.97
256
0.63
211
0.64
151
10.58
398
0.20
210
0.16
218
0.18
116
0.17
156
0.19
181
0.19
194
test_xeamplepermissivetwo views1.01
329
0.21
100
0.42
99
0.35
25
0.21
25
0.71
234
0.39
197
1.23
302
0.86
194
0.81
185
1.04
224
0.69
165
0.61
200
0.69
184
10.93
399
0.19
193
0.15
195
0.18
116
0.17
156
0.18
149
0.17
153
AFF-stereotwo views0.38
91
0.19
49
0.39
69
0.37
40
0.21
25
0.27
25
0.31
84
0.65
70
0.66
109
0.64
94
1.13
255
0.76
198
0.39
100
0.55
67
0.33
82
0.11
1
0.09
2
0.16
58
0.16
119
0.13
20
0.11
9
EAI-Stereotwo views0.34
34
0.19
49
0.44
117
0.39
80
0.21
25
0.31
53
0.30
69
1.15
275
0.30
3
0.49
48
0.75
93
0.36
29
0.28
30
0.62
134
0.27
33
0.14
31
0.11
57
0.14
16
0.13
48
0.13
20
0.12
33
HSM-Net_RVCpermissivetwo views0.53
219
0.22
124
0.35
28
0.37
40
0.21
25
0.85
274
0.37
158
1.23
302
0.93
233
0.90
241
1.15
262
1.26
306
0.63
211
0.72
196
0.48
197
0.17
136
0.13
151
0.16
58
0.15
91
0.17
135
0.15
102
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
iResNettwo views0.49
191
0.29
237
0.79
296
0.42
161
0.21
25
0.61
193
0.40
203
0.82
166
0.99
258
0.87
222
1.12
249
0.69
165
0.53
161
0.78
224
0.51
208
0.15
74
0.11
57
0.14
16
0.12
29
0.17
135
0.15
102
iResNet_ROBtwo views0.52
216
0.21
100
0.53
207
0.37
40
0.21
25
0.61
193
0.29
57
1.51
354
1.32
332
0.90
241
1.02
216
0.80
213
0.62
205
0.76
213
0.43
163
0.16
104
0.12
98
0.13
9
0.09
6
0.15
77
0.18
167
ACVNet-DCAtwo views0.35
44
0.23
139
0.33
20
0.41
127
0.22
38
0.55
157
0.38
178
0.85
173
0.54
70
0.41
30
0.50
31
0.34
19
0.49
143
0.57
85
0.25
9
0.16
104
0.10
9
0.19
144
0.13
48
0.18
149
0.17
153
xx1two views0.39
104
0.23
139
0.33
20
0.41
127
0.22
38
0.55
157
0.38
178
0.67
88
1.06
289
0.41
30
0.50
31
0.65
150
0.53
161
0.57
85
0.25
9
0.16
104
0.10
9
0.20
168
0.19
198
0.18
149
0.17
153
1test111two views0.36
62
0.23
139
0.33
20
0.41
127
0.22
38
0.55
157
0.38
178
0.85
173
0.54
70
0.41
30
0.50
31
0.34
19
0.49
143
0.55
67
0.45
180
0.16
104
0.10
9
0.19
144
0.13
48
0.18
149
0.17
153
cc1two views0.37
77
0.23
139
0.33
20
0.41
127
0.22
38
0.55
157
0.38
178
0.67
88
1.06
289
0.41
30
0.50
31
0.34
19
0.49
143
0.57
85
0.25
9
0.16
104
0.10
9
0.19
144
0.13
48
0.16
104
0.15
102
11t1two views0.36
62
0.21
100
0.42
99
0.35
25
0.22
38
0.62
200
0.29
57
0.69
106
0.43
46
0.60
74
0.53
42
0.53
83
0.48
140
0.56
75
0.40
152
0.18
164
0.14
172
0.16
58
0.13
48
0.17
135
0.17
153
tt1two views0.36
62
0.24
170
0.32
17
0.41
127
0.22
38
0.54
152
0.38
178
0.68
97
1.04
277
0.41
30
0.46
22
0.35
24
0.45
130
0.57
85
0.25
9
0.16
104
0.10
9
0.19
144
0.13
48
0.16
104
0.16
138
CASStwo views0.45
152
0.27
216
0.42
99
0.48
246
0.22
38
0.61
193
0.34
116
0.97
214
0.62
85
0.71
136
0.85
146
0.61
126
0.55
174
0.57
85
0.41
155
0.29
295
0.16
218
0.22
219
0.18
174
0.22
227
0.28
276
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
knoymoustwo views0.36
62
0.20
70
0.31
13
0.31
6
0.22
38
0.36
84
0.29
57
0.61
51
0.64
101
0.67
113
0.70
77
0.60
122
0.40
105
0.58
102
0.34
92
0.17
136
0.11
57
0.20
168
0.11
15
0.17
135
0.18
167
RCA-Stereotwo views0.35
44
0.17
19
0.34
26
0.38
61
0.22
38
0.31
53
0.34
116
0.68
97
1.24
320
0.45
41
0.65
64
0.47
67
0.43
119
0.38
12
0.27
33
0.13
12
0.10
9
0.14
16
0.11
15
0.11
1
0.11
9
qqqtwo views0.40
116
0.26
202
0.44
117
0.36
33
0.22
38
0.46
129
0.36
146
0.85
173
0.54
70
0.56
65
0.69
75
0.65
150
0.53
161
0.55
67
0.45
180
0.17
136
0.16
218
0.20
168
0.19
198
0.18
149
0.17
153
IPLGRtwo views0.39
104
0.21
100
0.63
241
0.39
80
0.22
38
0.49
135
0.29
57
0.76
148
0.74
138
0.78
173
0.77
99
0.44
58
0.42
112
0.47
44
0.38
141
0.13
12
0.12
98
0.16
58
0.14
70
0.15
77
0.13
57
Patchmatch Stereo++two views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.22
8
0.59
36
0.36
20
0.63
85
0.73
83
0.58
104
0.38
88
0.58
102
0.36
121
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.31
84
0.59
36
0.36
20
0.63
85
0.73
83
0.58
104
0.38
88
0.56
75
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
ROB_FTStereo_v2two views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.31
84
0.59
36
0.36
20
0.63
85
0.73
83
0.57
96
0.38
88
0.57
85
0.36
121
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
ROB_FTStereotwo views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.25
15
0.21
4
0.59
36
0.36
20
0.63
85
0.73
83
0.58
104
0.38
88
0.57
85
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
HUI-Stereotwo views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.22
8
0.60
45
0.36
20
0.63
85
0.73
83
0.58
104
0.38
88
0.50
50
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
iGMRVCtwo views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.30
69
0.59
36
0.36
20
0.63
85
0.73
83
0.58
104
0.38
88
0.58
102
0.36
121
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
RAFT-345two views0.40
116
0.18
34
0.40
76
0.38
61
0.22
38
0.33
67
0.26
37
0.61
51
0.51
60
0.74
159
1.79
342
0.45
59
0.33
65
0.66
163
0.36
121
0.14
31
0.11
57
0.18
116
0.14
70
0.13
20
0.13
57
iRAFTtwo views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.22
8
0.59
36
0.36
20
0.63
85
0.73
83
0.58
104
0.38
88
0.58
102
0.36
121
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
AnonymousMtwo views0.41
126
0.81
355
0.29
10
0.34
11
0.22
38
0.28
32
0.38
178
0.53
26
0.41
40
0.70
130
0.49
30
0.47
67
0.27
23
0.41
19
0.31
62
0.15
74
0.12
98
1.51
375
0.26
295
0.12
8
0.10
3
CroCo-Stereocopylefttwo views0.26
3
0.22
124
0.36
33
0.48
246
0.22
38
0.20
1
0.29
57
0.51
16
0.44
50
0.28
4
0.23
1
0.42
47
0.26
17
0.29
1
0.26
25
0.15
74
0.13
151
0.13
9
0.11
15
0.16
104
0.12
33
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFT-IKPtwo views0.35
44
0.23
139
0.47
151
0.41
127
0.22
38
0.24
7
0.28
50
0.59
36
0.36
20
0.63
85
0.73
83
0.57
96
0.38
88
0.58
102
0.36
121
0.18
164
0.12
98
0.20
168
0.16
119
0.20
193
0.15
102
iRaftStereo_RVCtwo views0.32
28
0.19
49
0.37
43
0.39
80
0.22
38
0.31
53
0.29
57
0.68
97
0.51
60
0.49
48
0.66
68
0.37
31
0.23
7
0.45
30
0.33
82
0.14
31
0.10
9
0.18
116
0.17
156
0.15
77
0.12
33
222two views1.18
348
0.22
124
0.44
117
0.37
40
0.22
38
0.79
252
0.37
158
1.31
322
0.89
217
0.92
254
1.08
240
0.72
177
0.71
255
0.66
163
13.89
402
0.20
210
0.15
195
0.17
82
0.16
119
0.18
149
0.19
194
CFNet-RSSMtwo views0.34
34
0.17
19
0.45
127
0.39
80
0.22
38
0.35
78
0.23
18
0.73
135
0.84
182
0.65
101
0.54
44
0.57
96
0.28
30
0.46
37
0.26
25
0.13
12
0.10
9
0.14
16
0.12
29
0.13
20
0.11
9
RASNettwo views0.53
219
0.22
124
0.52
201
0.38
61
0.22
38
0.68
225
0.38
178
0.97
214
0.88
207
0.73
153
1.04
224
1.03
273
0.92
307
0.90
261
0.86
284
0.16
104
0.14
172
0.14
16
0.17
156
0.15
77
0.13
57
SGM_RVCbinarytwo views0.97
326
0.28
229
0.41
80
0.39
80
0.22
38
1.55
352
0.73
325
1.51
354
1.25
324
2.25
372
1.92
347
2.58
370
1.56
359
2.02
370
1.19
336
0.27
283
0.27
312
0.27
284
0.25
285
0.25
254
0.25
258
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
RAFT-Testtwo views0.34
34
0.18
34
0.37
43
0.38
61
0.23
65
0.50
136
0.23
18
0.69
106
0.40
37
0.60
74
0.85
146
0.61
126
0.28
30
0.46
37
0.27
33
0.14
31
0.11
57
0.14
16
0.11
15
0.13
20
0.12
33
anonymousatwo views0.49
191
0.20
70
0.42
99
0.38
61
0.23
65
0.91
280
0.35
129
0.75
143
0.62
85
0.85
210
1.54
326
1.06
280
0.66
228
0.51
52
0.43
163
0.16
104
0.13
151
0.19
144
0.21
237
0.16
104
0.14
86
riskmintwo views0.38
91
0.20
70
0.39
69
0.32
8
0.23
65
0.53
149
0.30
69
0.63
59
0.80
167
0.49
48
0.56
49
0.73
186
0.58
185
0.55
67
0.36
121
0.17
136
0.11
57
0.19
144
0.13
48
0.19
181
0.20
213
xtwo views0.39
104
0.24
170
0.41
80
0.34
11
0.23
65
0.52
143
0.32
100
0.86
176
0.52
63
0.57
67
0.70
77
0.59
117
0.50
153
0.49
49
0.46
190
0.17
136
0.15
195
0.17
82
0.15
91
0.17
135
0.16
138
test_3two views0.36
62
0.19
49
0.44
117
0.44
192
0.23
65
0.48
133
0.36
146
0.66
78
0.82
174
0.64
94
0.45
19
0.68
161
0.25
11
0.41
19
0.31
62
0.12
4
0.10
9
0.18
116
0.16
119
0.15
77
0.11
9
TransformOpticalFlowtwo views0.44
144
0.20
70
0.47
151
0.41
127
0.23
65
0.37
86
0.47
239
0.94
203
0.76
146
0.65
101
1.14
257
0.73
186
0.56
179
0.76
213
0.32
70
0.15
74
0.10
9
0.17
82
0.15
91
0.14
45
0.13
57
NRIStereotwo views0.36
62
0.20
70
0.45
127
0.41
127
0.23
65
0.34
73
0.26
37
0.65
70
0.55
74
0.64
94
0.63
59
0.56
91
0.37
85
0.65
158
0.37
133
0.15
74
0.11
57
0.18
116
0.15
91
0.17
135
0.14
86
PSM-AADtwo views0.48
175
0.20
70
0.37
43
0.43
177
0.23
65
0.56
172
0.50
255
0.65
70
0.70
117
1.07
306
1.12
249
0.58
104
0.92
307
0.61
128
0.32
70
0.15
74
0.11
57
0.25
258
0.26
295
0.18
149
0.43
340
KYRafttwo views0.48
175
0.20
70
0.38
52
0.44
192
0.23
65
0.44
122
0.37
158
0.66
78
0.41
40
0.94
258
1.73
337
0.79
205
0.41
111
0.63
144
0.31
62
0.16
104
0.11
57
0.18
116
0.22
252
0.16
104
0.78
367
THIR-Stereotwo views0.50
202
0.18
34
0.45
127
0.38
61
0.23
65
0.75
242
0.67
305
0.66
78
0.87
203
1.02
289
1.40
307
0.72
177
0.76
267
0.62
134
0.42
159
0.15
74
0.11
57
0.17
82
0.18
174
0.14
45
0.15
102
RAFT-RH_RVCtwo views0.56
241
0.17
19
0.41
80
0.37
40
0.23
65
0.57
176
0.24
24
0.60
45
0.70
117
1.19
322
3.94
388
0.56
91
0.38
88
0.65
158
0.36
121
0.13
12
0.11
57
0.20
168
0.14
70
0.12
8
0.13
57
cross-rafttwo views0.34
34
0.20
70
0.37
43
0.44
192
0.23
65
0.32
63
0.35
129
0.74
137
0.40
37
0.60
74
0.77
99
0.57
96
0.27
23
0.43
24
0.28
42
0.12
4
0.10
9
0.15
40
0.13
48
0.15
77
0.11
9
Gwc-CoAtRStwo views0.34
34
0.17
19
0.44
117
0.39
80
0.23
65
0.34
73
0.22
8
0.70
120
0.75
140
0.60
74
0.59
54
0.58
104
0.29
40
0.45
30
0.26
25
0.14
31
0.11
57
0.14
16
0.12
29
0.12
8
0.12
33
cf-rtwo views0.47
168
0.23
139
0.41
80
0.39
80
0.23
65
0.59
187
0.37
158
0.88
187
0.85
189
0.72
146
1.05
228
0.94
250
0.62
205
0.56
75
0.54
220
0.21
224
0.14
172
0.17
82
0.19
198
0.15
77
0.15
102
GwcNet-RSSMtwo views0.49
191
0.24
170
0.42
99
0.40
103
0.23
65
0.55
157
0.38
178
0.93
200
0.93
233
0.71
136
1.16
267
0.86
225
0.60
195
0.62
134
0.66
243
0.21
224
0.14
172
0.19
144
0.20
220
0.16
104
0.15
102
LE_ROBtwo views4.42
395
0.24
170
2.75
379
0.42
161
0.23
65
1.57
354
0.90
345
1.71
368
17.88
409
16.56
411
4.88
396
5.17
392
18.85
411
1.63
354
14.62
403
0.17
136
0.14
172
0.16
58
0.16
119
0.19
181
0.17
153
pmcnntwo views1.23
351
0.29
237
0.96
314
0.40
103
0.23
65
0.95
288
0.69
314
1.16
278
1.28
328
1.67
354
2.33
356
11.15
403
0.86
295
0.93
276
0.88
290
0.15
74
0.12
98
0.12
2
0.10
10
0.15
77
0.15
102
mmmtwo views0.44
144
0.27
216
0.46
141
0.38
61
0.24
82
0.61
193
0.35
129
0.94
203
0.53
66
0.72
146
1.05
228
0.63
133
0.50
153
0.57
85
0.45
180
0.18
164
0.15
195
0.23
233
0.20
220
0.20
193
0.18
167
ttttwo views0.51
209
0.25
188
0.43
107
0.38
61
0.24
82
0.65
216
0.38
178
1.18
286
1.05
282
0.72
146
1.08
240
0.63
133
0.49
143
0.84
245
0.59
229
0.24
256
0.21
272
0.22
219
0.20
220
0.24
246
0.24
252
MIM_Stereotwo views0.38
91
0.17
19
0.53
207
0.37
40
0.24
82
0.27
25
0.24
24
0.70
120
0.54
70
0.72
146
1.00
209
0.63
133
0.29
40
0.64
151
0.38
141
0.13
12
0.14
172
0.17
82
0.16
119
0.14
45
0.11
9
4D-IteraStereotwo views0.33
33
0.18
34
0.40
76
0.40
103
0.24
82
0.32
63
0.27
43
0.58
35
0.72
128
0.65
101
0.54
44
0.42
47
0.23
7
0.45
30
0.28
42
0.14
31
0.09
2
0.19
144
0.16
119
0.16
104
0.11
9
anonymousdsp2two views0.35
44
0.20
70
0.43
107
0.37
40
0.24
82
0.48
133
0.31
84
0.86
176
0.65
106
0.55
63
0.50
31
0.50
76
0.34
71
0.56
75
0.31
62
0.14
31
0.10
9
0.14
16
0.10
10
0.16
104
0.14
86
ProNettwo views0.29
12
0.21
100
0.38
52
0.35
25
0.24
82
0.32
63
0.43
223
0.57
31
0.37
30
0.33
12
0.30
6
0.32
9
0.28
30
0.57
85
0.26
25
0.13
12
0.11
57
0.16
58
0.13
48
0.13
20
0.13
57
TestStereo1two views0.43
138
0.23
139
0.41
80
0.51
286
0.24
82
0.34
73
0.40
203
0.77
151
0.90
219
0.68
119
0.96
188
0.48
71
0.46
133
0.91
268
0.32
70
0.16
104
0.13
151
0.18
116
0.15
91
0.14
45
0.13
57
SA-5Ktwo views0.43
138
0.23
139
0.41
80
0.51
286
0.24
82
0.34
73
0.40
203
0.77
151
0.90
219
0.68
119
0.96
188
0.48
71
0.46
133
0.91
268
0.32
70
0.16
104
0.13
151
0.18
116
0.15
91
0.14
45
0.13
57
SAtwo views0.44
144
0.25
188
0.46
141
0.46
232
0.24
82
0.43
118
0.36
146
0.75
143
0.96
246
0.59
70
1.03
220
0.48
71
0.52
158
0.94
283
0.32
70
0.16
104
0.12
98
0.21
207
0.19
198
0.15
77
0.13
57
IPLGtwo views0.39
104
0.20
70
0.59
228
0.40
103
0.24
82
0.54
152
0.27
43
0.75
143
0.63
94
0.84
209
0.81
125
0.32
9
0.32
57
0.60
121
0.45
180
0.13
12
0.11
57
0.16
58
0.13
48
0.13
20
0.12
33
GMOStereotwo views0.37
77
0.19
49
0.38
52
0.43
177
0.24
82
0.37
86
0.38
178
0.52
19
0.62
85
0.87
222
0.84
138
0.64
140
0.35
73
0.37
8
0.28
42
0.13
12
0.11
57
0.20
168
0.18
174
0.15
77
0.11
9
error versiontwo views0.37
77
0.19
49
0.38
52
0.43
177
0.24
82
0.37
86
0.38
178
0.52
19
0.62
85
0.87
222
0.84
138
0.64
140
0.35
73
0.37
8
0.28
42
0.13
12
0.11
57
0.20
168
0.18
174
0.15
77
0.11
9
test-vtwo views0.37
77
0.19
49
0.38
52
0.43
177
0.24
82
0.37
86
0.38
178
0.52
19
0.62
85
0.87
222
0.84
138
0.64
140
0.35
73
0.37
8
0.28
42
0.13
12
0.11
57
0.20
168
0.18
174
0.15
77
0.11
9
CrosDoStereotwo views0.50
202
0.18
34
0.45
127
0.38
61
0.24
82
0.40
102
1.18
362
0.67
88
0.86
194
0.94
258
1.37
301
0.63
133
0.77
271
0.65
158
0.45
180
0.15
74
0.12
98
0.17
82
0.18
174
0.14
45
0.14
86
LCNettwo views0.41
126
0.20
70
0.32
17
0.44
192
0.24
82
0.47
131
0.29
57
0.67
88
0.53
66
0.72
146
1.03
220
0.66
155
0.60
195
0.58
102
0.34
92
0.14
31
0.10
9
0.19
144
0.19
198
0.21
211
0.36
314
STrans-v2two views0.46
158
0.20
70
0.48
167
0.40
103
0.24
82
0.55
157
0.50
255
1.07
247
0.73
133
0.65
101
1.05
228
0.72
177
0.69
241
0.72
196
0.33
82
0.14
31
0.10
9
0.17
82
0.14
70
0.13
20
0.12
33
OMP-Stereotwo views0.42
132
0.22
124
0.46
141
0.52
297
0.24
82
0.36
84
0.25
31
0.71
125
0.78
159
0.77
170
0.64
62
0.89
239
0.39
100
0.91
268
0.35
105
0.15
74
0.12
98
0.20
168
0.15
91
0.15
77
0.12
33
DeepStereo_LLtwo views0.50
202
0.18
34
0.45
127
0.38
61
0.24
82
0.40
102
1.18
362
0.67
88
0.86
194
0.94
258
1.37
301
0.63
133
0.77
271
0.65
158
0.45
180
0.15
74
0.12
98
0.17
82
0.18
174
0.14
45
0.14
86
PFNettwo views0.42
132
0.18
34
0.58
227
0.43
177
0.24
82
0.43
118
0.32
100
0.74
137
0.78
159
1.00
282
0.74
92
0.68
161
0.39
100
0.72
196
0.37
133
0.16
104
0.10
9
0.20
168
0.15
91
0.16
104
0.13
57
DeepStereo_RVCtwo views0.36
62
0.21
100
0.47
151
0.40
103
0.24
82
0.26
17
0.22
8
0.60
45
0.38
33
0.69
124
0.67
72
0.57
96
0.51
156
0.56
75
0.39
147
0.16
104
0.12
98
0.18
116
0.15
91
0.19
181
0.18
167
IRAFT_RVCtwo views0.42
132
0.20
70
0.48
167
0.44
192
0.24
82
0.27
25
0.54
275
0.74
137
0.77
153
0.76
166
0.80
118
0.73
186
0.51
156
0.70
187
0.36
121
0.17
136
0.10
9
0.21
207
0.16
119
0.16
104
0.14
86
CRE-IMPtwo views0.36
62
0.23
139
0.49
177
0.42
161
0.24
82
0.41
113
0.21
4
0.57
31
0.41
40
0.65
101
0.72
79
0.53
83
0.37
85
0.61
128
0.38
141
0.17
136
0.11
57
0.19
144
0.15
91
0.21
211
0.18
167
test-2two views0.37
77
0.19
49
0.38
52
0.43
177
0.24
82
0.37
86
0.38
178
0.52
19
0.62
85
0.87
222
0.84
138
0.64
140
0.35
73
0.37
8
0.28
42
0.13
12
0.11
57
0.20
168
0.18
174
0.15
77
0.11
9
CREStereo++_RVCtwo views0.32
28
0.15
3
0.23
1
0.31
6
0.24
82
0.27
25
0.22
8
0.46
8
0.88
207
0.46
43
0.80
118
0.30
5
0.26
17
0.36
5
0.33
82
0.13
12
0.09
2
0.13
9
0.51
362
0.13
20
0.09
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
FENettwo views0.42
132
0.22
124
0.38
52
0.39
80
0.24
82
0.55
157
0.32
100
0.79
158
0.70
117
0.71
136
0.72
79
0.63
133
0.57
180
0.62
134
0.44
175
0.19
193
0.13
151
0.19
144
0.17
156
0.18
149
0.19
194
HSMtwo views0.51
209
0.24
170
0.41
80
0.39
80
0.24
82
0.75
242
0.40
203
1.22
298
0.75
140
0.81
185
0.91
169
1.21
302
0.69
241
0.87
251
0.46
190
0.17
136
0.13
151
0.17
82
0.14
70
0.17
135
0.17
153
CoDeXtwo views0.47
168
0.20
70
0.49
177
0.42
161
0.25
108
0.75
242
0.36
146
1.27
315
0.80
167
0.82
190
0.96
188
0.62
132
0.57
180
0.60
121
0.36
121
0.17
136
0.12
98
0.17
82
0.15
91
0.16
104
0.14
86
DualNettwo views0.47
168
0.26
202
0.49
177
0.37
40
0.25
108
0.55
157
0.37
158
0.68
97
1.04
277
0.73
153
0.96
188
0.71
171
0.53
161
0.57
85
0.88
290
0.16
104
0.10
9
0.25
258
0.21
237
0.16
104
0.16
138
Wang Yun; Wang Longguang: ECCV2024. ECCV2024
ffmtwo views0.44
144
0.26
202
0.49
177
0.37
40
0.25
108
0.55
157
0.37
158
0.68
97
1.04
277
0.73
153
0.96
188
0.71
171
0.53
161
0.57
85
0.25
9
0.16
104
0.10
9
0.25
258
0.21
237
0.16
104
0.16
138
ff1two views0.49
191
0.26
202
0.49
177
0.37
40
0.25
108
0.55
157
0.37
158
0.68
97
1.04
277
0.73
153
0.96
188
0.71
171
0.53
161
1.01
289
0.88
290
0.16
104
0.10
9
0.25
258
0.21
237
0.16
104
0.16
138
mmxtwo views0.53
219
0.26
202
0.49
177
0.37
40
0.25
108
0.55
157
0.37
158
1.16
278
1.03
273
0.73
153
0.96
188
0.71
171
0.53
161
1.01
289
0.88
290
0.20
210
0.15
195
0.25
258
0.21
237
0.22
227
0.20
213
xxxcopylefttwo views0.53
219
0.26
202
0.49
177
0.37
40
0.25
108
0.55
157
0.37
158
1.16
278
1.03
273
0.73
153
0.96
188
0.71
171
0.53
161
1.01
289
0.88
290
0.20
210
0.15
195
0.25
258
0.21
237
0.22
227
0.20
213
HHtwo views0.35
44
0.20
70
0.47
151
0.40
103
0.25
108
0.33
67
0.31
84
0.76
148
0.38
33
0.43
36
0.57
50
0.79
205
0.44
126
0.71
192
0.25
9
0.15
74
0.11
57
0.15
40
0.14
70
0.14
45
0.12
33
HanStereotwo views0.35
44
0.20
70
0.47
151
0.40
103
0.25
108
0.33
67
0.31
84
0.76
148
0.38
33
0.43
36
0.57
50
0.79
205
0.44
126
0.71
192
0.25
9
0.15
74
0.11
57
0.15
40
0.14
70
0.14
45
0.12
33
anonymousdsptwo views0.29
12
0.21
100
0.38
52
0.37
40
0.25
108
0.30
43
0.35
129
0.63
59
0.35
16
0.39
27
0.33
10
0.33
16
0.28
30
0.59
116
0.25
9
0.14
31
0.10
9
0.17
82
0.12
29
0.14
45
0.15
102
Sa-1000two views0.48
175
0.24
170
0.41
80
0.45
213
0.25
108
0.59
187
0.34
116
0.81
165
0.93
233
0.82
190
1.50
322
0.53
83
0.45
130
0.92
271
0.30
56
0.15
74
0.12
98
0.21
207
0.19
198
0.15
77
0.13
57
test_4two views0.36
62
0.18
34
0.31
13
0.44
192
0.25
108
0.20
1
0.34
116
0.56
28
0.41
40
0.59
70
1.45
318
0.43
53
0.25
11
0.63
144
0.28
42
0.12
4
0.10
9
0.17
82
0.19
198
0.15
77
0.11
9
IGEV-Stereopermissivetwo views0.29
12
0.21
100
0.38
52
0.37
40
0.25
108
0.30
43
0.35
129
0.63
59
0.35
16
0.39
27
0.33
10
0.33
16
0.28
30
0.59
116
0.25
9
0.14
31
0.10
9
0.17
82
0.12
29
0.14
45
0.15
102
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
ddtwo views0.43
138
0.38
284
0.55
214
0.44
192
0.25
108
0.47
131
0.38
178
0.70
120
1.05
282
0.59
70
0.65
64
0.42
47
0.39
100
0.66
163
0.50
200
0.24
256
0.15
195
0.21
207
0.15
91
0.22
227
0.18
167
MIPNettwo views0.37
77
0.21
100
0.59
228
0.39
80
0.25
108
0.50
136
0.28
50
0.77
151
0.70
117
0.65
101
0.60
55
0.40
39
0.49
143
0.44
29
0.37
133
0.14
31
0.11
57
0.16
58
0.13
48
0.14
45
0.13
57
PFNet+two views0.40
116
0.19
49
0.49
177
0.39
80
0.25
108
0.28
32
0.23
18
0.64
69
0.70
117
0.85
210
0.79
116
0.64
140
0.35
73
0.72
196
0.34
92
0.19
193
0.14
172
0.23
233
0.20
220
0.16
104
0.20
213
AAGNettwo views1.43
361
0.20
70
0.48
167
0.44
192
0.25
108
0.29
36
0.31
84
0.65
70
0.68
112
0.97
271
0.86
149
0.67
160
0.62
205
0.64
151
20.63
406
0.16
104
0.11
57
0.19
144
0.15
91
0.19
181
0.12
33
IIG-Stereotwo views0.43
138
0.21
100
0.44
117
0.50
274
0.25
108
0.44
122
0.21
4
0.71
125
0.76
146
0.83
202
0.95
184
0.83
217
0.43
119
0.90
261
0.35
105
0.15
74
0.12
98
0.19
144
0.14
70
0.15
77
0.11
9
NF-Stereotwo views0.38
91
0.20
70
0.45
127
0.41
127
0.25
108
0.26
17
0.31
84
0.69
106
0.70
117
0.65
101
0.77
99
0.57
96
0.30
50
0.67
173
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.16
104
0.27
269
OCTAStereotwo views0.38
91
0.20
70
0.46
141
0.41
127
0.25
108
0.26
17
0.31
84
0.69
106
0.70
117
0.65
101
0.77
99
0.58
104
0.30
50
0.67
173
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.16
104
0.27
269
FTStereotwo views0.56
241
0.20
70
0.37
43
0.41
127
0.25
108
0.40
102
0.79
332
0.66
78
0.43
46
1.09
311
3.27
377
0.70
167
0.73
260
0.55
67
0.33
82
0.14
31
0.13
151
0.19
144
0.17
156
0.15
77
0.30
289
DEmStereotwo views0.48
175
0.17
19
0.50
189
0.38
61
0.25
108
0.59
187
0.34
116
0.63
59
0.74
138
0.89
234
1.66
333
0.58
104
1.06
326
0.60
121
0.42
159
0.14
31
0.11
57
0.16
58
0.16
119
0.14
45
0.15
102
SST-Stereotwo views0.40
116
0.19
49
0.45
127
0.42
161
0.25
108
0.25
15
0.21
4
0.66
78
0.47
57
1.08
309
0.79
116
0.72
177
0.43
119
0.77
220
0.35
105
0.16
104
0.11
57
0.20
168
0.16
119
0.19
181
0.15
102
RAFT_R40two views0.40
116
0.19
49
0.44
117
0.43
177
0.25
108
0.23
5
0.26
37
0.67
88
0.67
111
0.98
275
0.78
107
0.72
177
0.43
119
0.76
213
0.35
105
0.16
104
0.11
57
0.20
168
0.16
119
0.18
149
0.14
86
DRafttwo views0.49
191
0.17
19
0.47
151
0.37
40
0.25
108
0.58
178
0.40
203
0.65
70
0.85
189
1.02
289
1.75
341
0.50
76
0.82
286
0.63
144
0.40
152
0.13
12
0.11
57
0.16
58
0.16
119
0.14
45
0.15
102
RE-Stereotwo views0.38
91
0.20
70
0.46
141
0.41
127
0.25
108
0.26
17
0.31
84
0.69
106
0.70
117
0.65
101
0.77
99
0.58
104
0.30
50
0.67
173
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.16
104
0.27
269
Pruner-Stereotwo views0.38
91
0.20
70
0.45
127
0.40
103
0.25
108
0.22
4
0.24
24
0.67
88
0.55
74
0.89
234
0.76
95
0.68
161
0.29
40
0.62
134
0.35
105
0.18
164
0.12
98
0.20
168
0.17
156
0.17
135
0.18
167
TVStereotwo views0.38
91
0.20
70
0.46
141
0.41
127
0.25
108
0.26
17
0.31
84
0.69
106
0.70
117
0.65
101
0.77
99
0.58
104
0.30
50
0.67
173
0.35
105
0.18
164
0.12
98
0.20
168
0.16
119
0.16
104
0.27
269
GMM-Stereotwo views0.44
144
0.19
49
0.36
33
0.42
161
0.25
108
0.51
140
0.47
239
0.71
125
0.53
66
0.76
166
1.37
301
0.76
198
0.38
88
0.60
121
0.33
82
0.15
74
0.10
9
0.20
168
0.19
198
0.16
104
0.27
269
raft+_RVCtwo views0.38
91
0.19
49
0.35
28
0.37
40
0.25
108
0.45
127
0.37
158
0.78
156
0.89
217
0.51
53
0.78
107
0.50
76
0.29
40
0.53
62
0.40
152
0.15
74
0.12
98
0.17
82
0.15
91
0.14
45
0.12
33
ARAFTtwo views0.47
168
0.24
170
0.79
296
0.42
161
0.25
108
0.55
157
0.55
279
0.75
143
0.81
173
0.89
234
0.75
93
0.73
186
0.47
136
0.88
254
0.37
133
0.15
74
0.12
98
0.23
233
0.22
252
0.14
45
0.13
57
GANet-RSSMtwo views0.47
168
0.21
100
0.37
43
0.38
61
0.25
108
0.58
178
0.36
146
1.07
247
0.78
159
0.68
119
1.01
212
0.86
225
0.67
231
0.62
134
0.44
175
0.21
224
0.15
195
0.18
116
0.18
174
0.18
149
0.17
153
PSMNet-RSSMtwo views0.48
175
0.22
124
0.38
52
0.42
161
0.25
108
0.50
136
0.37
158
1.10
256
0.77
153
0.70
130
1.06
234
0.84
221
0.64
221
0.62
134
0.47
194
0.23
247
0.15
195
0.23
233
0.25
285
0.20
193
0.19
194
AdaStereotwo views0.50
202
0.32
250
0.47
151
0.48
246
0.25
108
0.67
223
0.32
100
1.17
283
0.88
207
0.75
161
0.99
207
0.75
192
0.49
143
0.67
173
0.46
190
0.27
283
0.12
98
0.28
291
0.18
174
0.23
236
0.18
167
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
iResNetv2_ROBtwo views0.52
216
0.27
216
0.69
269
0.38
61
0.25
108
0.62
200
0.35
129
1.17
283
1.01
269
0.99
277
1.06
234
0.88
235
0.67
231
0.66
163
0.39
147
0.19
193
0.13
151
0.15
40
0.11
15
0.18
149
0.16
138
CBMVpermissivetwo views0.64
267
0.35
267
0.41
80
0.42
161
0.25
108
1.01
299
0.77
329
1.13
266
1.09
299
1.17
320
1.22
277
1.04
275
0.75
264
0.88
254
0.63
238
0.28
289
0.30
322
0.34
319
0.30
311
0.26
258
0.26
262
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
ff7two views0.29
12
0.21
100
0.38
52
0.36
33
0.26
143
0.31
53
0.35
129
0.62
54
0.34
9
0.38
19
0.33
10
0.32
9
0.29
40
0.58
102
0.25
9
0.14
31
0.10
9
0.17
82
0.12
29
0.14
45
0.15
102
fffftwo views0.29
12
0.21
100
0.38
52
0.36
33
0.26
143
0.31
53
0.35
129
0.62
54
0.34
9
0.38
19
0.33
10
0.32
9
0.29
40
0.58
102
0.25
9
0.14
31
0.10
9
0.17
82
0.12
29
0.14
45
0.15
102
11ttwo views0.29
12
0.21
100
0.38
52
0.36
33
0.26
143
0.31
53
0.35
129
0.62
54
0.34
9
0.38
19
0.33
10
0.32
9
0.29
40
0.58
102
0.25
9
0.14
31
0.10
9
0.17
82
0.12
29
0.14
45
0.15
102
StereoIMtwo views0.26
3
0.18
34
0.36
33
0.36
33
0.26
143
0.27
25
0.27
43
0.43
5
0.35
16
0.27
2
0.26
3
0.41
41
0.28
30
0.40
16
0.28
42
0.16
104
0.14
172
0.16
58
0.13
48
0.14
45
0.12
33
LL-Strereo2two views0.35
44
0.24
170
0.48
167
0.41
127
0.26
143
0.35
78
0.24
24
0.67
88
0.44
50
0.54
61
0.51
36
0.66
155
0.25
11
0.66
163
0.30
56
0.14
31
0.12
98
0.23
233
0.20
220
0.18
149
0.13
57
gwcnet-sptwo views0.48
175
0.23
139
0.70
273
0.40
103
0.26
143
0.81
260
0.41
215
0.89
189
0.84
182
0.91
246
0.76
95
0.66
155
0.61
200
0.66
163
0.50
200
0.18
164
0.17
232
0.18
116
0.18
174
0.18
149
0.18
167
scenettwo views0.48
175
0.23
139
0.70
273
0.40
103
0.26
143
0.81
260
0.41
215
0.89
189
0.84
182
0.91
246
0.76
95
0.66
155
0.61
200
0.66
163
0.50
200
0.18
164
0.17
232
0.18
116
0.18
174
0.18
149
0.18
167
ssnettwo views0.48
175
0.23
139
0.70
273
0.40
103
0.26
143
0.81
260
0.41
215
0.89
189
0.84
182
0.91
246
0.76
95
0.66
155
0.61
200
0.66
163
0.50
200
0.18
164
0.17
232
0.18
116
0.18
174
0.18
149
0.18
167
ccc-4two views0.29
12
0.21
100
0.38
52
0.36
33
0.26
143
0.31
53
0.35
129
0.62
54
0.34
9
0.38
19
0.33
10
0.32
9
0.29
40
0.58
102
0.25
9
0.14
31
0.10
9
0.17
82
0.12
29
0.14
45
0.15
102
PSM-softLosstwo views0.38
91
0.20
70
0.48
167
0.41
127
0.26
143
0.30
43
0.35
129
0.69
106
0.46
54
0.62
80
0.82
128
0.59
117
0.33
65
0.70
187
0.39
147
0.19
193
0.12
98
0.20
168
0.18
174
0.16
104
0.22
239
KMStereotwo views0.38
91
0.20
70
0.48
167
0.41
127
0.26
143
0.30
43
0.35
129
0.69
106
0.46
54
0.62
80
0.82
128
0.59
117
0.33
65
0.70
187
0.39
147
0.19
193
0.12
98
0.20
168
0.18
174
0.16
104
0.22
239
RAFTtwo views0.45
152
0.22
124
0.45
127
0.47
241
0.26
143
0.54
152
0.47
239
0.66
78
0.58
80
0.80
177
0.82
128
0.94
250
0.57
180
0.75
210
0.34
92
0.17
136
0.15
195
0.22
219
0.20
220
0.16
104
0.12
33
test-1two views0.36
62
0.19
49
0.71
276
0.46
232
0.26
143
0.44
122
0.36
146
0.60
45
0.59
81
0.48
47
0.67
72
0.53
83
0.36
82
0.40
16
0.29
53
0.14
31
0.11
57
0.16
58
0.14
70
0.15
77
0.16
138
Prome-Stereotwo views0.46
158
0.19
49
0.35
28
0.44
192
0.26
143
0.40
102
0.45
231
0.68
97
0.44
50
0.96
266
1.84
344
0.59
117
0.67
231
0.61
128
0.32
70
0.14
31
0.11
57
0.16
58
0.14
70
0.16
104
0.29
282
rafts_anoytwo views0.37
77
0.21
100
0.36
33
0.41
127
0.26
143
0.30
43
0.33
109
0.67
88
0.90
219
0.58
68
0.66
68
0.45
59
0.33
65
0.47
44
0.39
147
0.16
104
0.11
57
0.21
207
0.23
263
0.17
135
0.14
86
RALCasStereoNettwo views0.36
62
0.21
100
0.37
43
0.42
161
0.26
143
0.35
78
0.38
178
0.63
59
0.64
101
0.50
51
0.72
79
0.51
79
0.29
40
0.59
116
0.36
121
0.16
104
0.14
172
0.15
40
0.13
48
0.17
135
0.16
138
HCRNettwo views0.44
144
0.34
263
0.41
80
0.53
302
0.26
143
0.53
149
0.29
57
0.83
167
0.63
94
0.71
136
0.81
125
0.77
203
0.50
153
0.66
163
0.36
121
0.24
256
0.16
218
0.24
247
0.20
220
0.21
211
0.18
167
test_xeample3two views0.29
12
0.21
100
0.41
80
0.35
25
0.26
143
0.35
78
0.32
100
0.56
28
0.36
20
0.43
36
0.32
9
0.34
19
0.28
30
0.54
65
0.23
4
0.14
31
0.11
57
0.16
58
0.12
29
0.14
45
0.13
57
GMStereopermissivetwo views0.39
104
0.37
275
0.54
210
0.40
103
0.26
143
0.42
116
0.36
146
0.59
36
1.04
277
0.55
63
0.51
36
0.37
31
0.35
73
0.54
65
0.41
155
0.19
193
0.13
151
0.16
58
0.17
156
0.24
246
0.18
167
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
CFNet-ftpermissivetwo views0.48
175
0.23
139
0.36
33
0.40
103
0.26
143
0.64
211
0.37
158
0.87
183
0.85
189
0.64
94
1.00
209
1.01
266
0.64
221
0.61
128
0.53
217
0.23
247
0.15
195
0.24
247
0.21
237
0.23
236
0.18
167
R-Stereo Traintwo views0.39
104
0.18
34
0.42
99
0.42
161
0.26
143
0.40
102
0.32
100
0.72
129
0.34
9
0.89
234
1.28
288
0.57
96
0.35
73
0.42
21
0.32
70
0.15
74
0.12
98
0.14
16
0.12
29
0.14
45
0.13
57
RAFT-Stereopermissivetwo views0.39
104
0.18
34
0.42
99
0.42
161
0.26
143
0.40
102
0.32
100
0.72
129
0.34
9
0.89
234
1.28
288
0.57
96
0.35
73
0.42
21
0.32
70
0.15
74
0.12
98
0.14
16
0.12
29
0.14
45
0.13
57
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CFNet_RVCtwo views0.48
175
0.23
139
0.36
33
0.40
103
0.26
143
0.64
211
0.37
158
0.87
183
0.85
189
0.64
94
1.00
209
1.01
266
0.64
221
0.61
128
0.53
217
0.23
247
0.15
195
0.24
247
0.21
237
0.23
236
0.18
167
UCFNet_RVCtwo views0.49
191
0.26
202
0.35
28
0.39
80
0.26
143
0.64
211
0.36
146
1.15
275
0.84
182
0.67
113
0.88
160
0.88
235
0.59
191
0.58
102
0.45
180
0.24
256
0.17
232
0.27
284
0.27
300
0.25
254
0.23
246
IGEVStereo-DCAtwo views0.29
12
0.22
124
0.38
52
0.35
25
0.27
167
0.37
86
0.35
129
0.62
54
0.34
9
0.38
19
0.30
6
0.35
24
0.27
23
0.51
52
0.22
1
0.15
74
0.12
98
0.16
58
0.12
29
0.13
20
0.15
102
rrrtwo views0.29
12
0.22
124
0.41
80
0.35
25
0.27
167
0.37
86
0.32
100
0.52
19
0.42
44
0.38
19
0.30
6
0.35
24
0.27
23
0.51
52
0.22
1
0.15
74
0.12
98
0.16
58
0.13
48
0.13
20
0.14
86
GMStereo_Zeroshotpermissivetwo views0.49
191
0.44
303
0.74
283
0.49
260
0.27
167
0.56
172
0.29
57
0.73
135
0.76
146
0.86
215
0.94
177
0.91
245
0.36
82
0.74
206
0.43
163
0.26
276
0.14
172
0.26
272
0.15
91
0.36
312
0.18
167
MIF-Stereotwo views0.27
5
0.17
19
0.37
43
0.40
103
0.27
167
0.30
43
0.28
50
0.39
2
0.31
5
0.29
6
0.46
22
0.27
2
0.25
11
0.47
44
0.34
92
0.17
136
0.13
151
0.13
9
0.12
29
0.14
45
0.12
33
PCWNet_CMDtwo views0.48
175
0.24
170
0.52
201
0.39
80
0.27
167
0.63
205
0.30
69
0.95
209
0.96
246
0.86
215
1.07
237
0.79
205
0.44
126
0.57
85
0.43
163
0.17
136
0.12
98
0.21
207
0.16
119
0.24
246
0.19
194
CBFPSMtwo views0.59
259
0.22
124
1.31
347
0.38
61
0.27
167
1.12
318
0.65
302
0.79
158
0.82
174
0.80
177
0.81
125
1.35
326
0.87
298
0.67
173
0.76
265
0.16
104
0.15
195
0.15
40
0.16
119
0.17
135
0.22
239
ToySttwo views0.49
191
0.27
216
0.75
286
0.40
103
0.27
167
0.64
211
0.49
251
0.84
170
0.77
153
0.60
74
0.83
133
0.88
235
0.66
228
0.70
187
0.56
224
0.16
104
0.17
232
0.21
207
0.20
220
0.21
211
0.19
194
DisPMtwo views0.39
104
0.19
49
0.44
117
0.41
127
0.27
167
0.24
7
0.31
84
0.65
70
0.57
79
0.87
222
0.87
153
0.60
122
0.32
57
0.76
213
0.32
70
0.18
164
0.12
98
0.19
144
0.17
156
0.15
77
0.20
213
RAFT_CTSACEtwo views0.45
152
0.20
70
0.44
117
0.45
213
0.27
167
0.34
73
0.39
197
0.60
45
0.73
133
0.76
166
1.44
315
0.83
217
0.38
88
1.08
304
0.26
25
0.12
4
0.13
151
0.18
116
0.16
119
0.15
77
0.11
9
RAFT+CT+SAtwo views0.39
104
0.23
139
0.36
33
0.51
286
0.27
167
0.29
36
0.46
234
0.75
143
0.80
167
0.51
53
0.89
164
0.41
41
0.40
105
0.78
224
0.32
70
0.14
31
0.11
57
0.18
116
0.18
174
0.15
77
0.14
86
iRaft-Stereo_20wtwo views0.39
104
0.19
49
0.57
223
0.37
40
0.27
167
0.31
53
0.24
24
1.44
345
0.29
2
0.69
124
0.53
42
0.60
122
0.42
112
0.83
240
0.27
33
0.14
31
0.11
57
0.14
16
0.13
48
0.15
77
0.13
57
raftrobusttwo views0.34
34
0.19
49
0.36
33
0.41
127
0.27
167
0.30
43
0.25
31
0.71
125
0.63
94
0.58
68
0.55
48
0.45
59
0.46
133
0.51
52
0.29
53
0.16
104
0.12
98
0.14
16
0.12
29
0.12
8
0.13
57
CFNet_pseudotwo views0.46
158
0.24
170
0.52
201
0.37
40
0.27
167
0.58
178
0.30
69
0.86
176
0.88
207
0.82
190
1.03
220
0.75
192
0.47
136
0.58
102
0.44
175
0.17
136
0.12
98
0.24
247
0.16
119
0.24
246
0.19
194
SFCPSMtwo views0.47
168
0.21
100
0.55
214
0.40
103
0.27
167
0.87
278
0.37
158
1.33
325
0.77
153
0.80
177
0.84
138
0.54
87
0.49
143
0.57
85
0.37
133
0.18
164
0.13
151
0.18
116
0.20
220
0.16
104
0.15
102
MSMDNettwo views0.48
175
0.24
170
0.52
201
0.39
80
0.27
167
0.63
205
0.30
69
0.96
210
0.96
246
0.86
215
1.07
237
0.79
205
0.44
126
0.57
85
0.43
163
0.17
136
0.12
98
0.20
168
0.16
119
0.23
236
0.19
194
CFNettwo views0.51
209
0.29
237
0.46
141
0.41
127
0.27
167
0.70
229
0.32
100
1.13
266
1.00
265
0.72
146
1.07
237
0.85
223
0.60
195
0.76
213
0.52
214
0.19
193
0.14
172
0.23
233
0.23
263
0.21
211
0.16
138
ccs_robtwo views0.46
158
0.24
170
0.52
201
0.37
40
0.27
167
0.58
178
0.31
84
0.86
176
0.88
207
0.82
190
1.02
216
0.75
192
0.47
136
0.58
102
0.44
175
0.17
136
0.12
98
0.24
247
0.16
119
0.24
246
0.19
194
AANet_RVCtwo views0.57
246
0.32
250
0.54
210
0.45
213
0.27
167
0.57
176
0.48
245
1.00
222
1.28
328
0.86
215
1.33
296
0.87
230
0.58
185
1.07
302
0.75
264
0.18
164
0.12
98
0.15
40
0.13
48
0.18
149
0.18
167
SGM-ForestMtwo views4.04
393
0.32
250
0.46
141
0.43
177
0.27
167
7.50
400
1.45
383
3.84
393
4.24
391
8.19
402
6.76
400
19.00
409
9.08
400
10.74
404
6.62
394
0.31
304
0.33
341
0.32
312
0.32
324
0.29
273
0.29
282
IGEV_Zeroshot_testtwo views0.34
34
0.18
34
0.67
260
0.39
80
0.28
186
0.30
43
0.25
31
0.74
137
0.31
5
0.62
80
0.57
50
0.54
87
0.25
11
0.53
62
0.27
33
0.14
31
0.10
9
0.15
40
0.14
70
0.14
45
0.12
33
StereoVisiontwo views0.42
132
0.28
229
0.45
127
0.49
260
0.28
186
0.38
98
0.38
178
0.72
129
0.62
85
0.44
39
1.14
257
0.54
87
0.39
100
0.56
75
0.34
92
0.21
224
0.24
295
0.25
258
0.24
276
0.26
258
0.16
138
BUStwo views0.45
152
0.25
188
0.43
107
0.45
213
0.28
186
0.70
229
0.34
116
0.94
203
0.76
146
0.75
161
0.80
118
0.65
150
0.49
143
0.64
151
0.51
208
0.20
210
0.14
172
0.22
219
0.19
198
0.18
149
0.18
167
IERtwo views0.46
158
0.23
139
0.50
189
0.38
61
0.28
186
0.69
227
0.35
129
0.80
162
0.66
109
0.83
202
0.94
177
0.75
192
0.77
271
0.60
121
0.42
159
0.17
136
0.14
172
0.17
82
0.17
156
0.17
135
0.15
102
test_5two views0.43
138
0.24
170
0.43
107
0.52
297
0.28
186
0.28
32
0.42
222
0.72
129
0.82
174
0.62
80
0.91
169
0.72
177
0.55
174
0.79
227
0.35
105
0.14
31
0.11
57
0.18
116
0.18
174
0.18
149
0.16
138
BSDual-CNNtwo views0.46
158
0.25
188
0.43
107
0.45
213
0.28
186
0.77
245
0.40
203
0.94
203
0.76
146
0.75
161
0.80
118
0.76
198
0.54
172
0.64
151
0.43
163
0.20
210
0.14
172
0.22
219
0.19
198
0.18
149
0.18
167
iRaft-Stereo_5wtwo views0.45
152
0.21
100
0.48
167
0.42
161
0.28
186
0.31
53
0.54
275
0.63
59
0.62
85
0.62
80
0.89
164
1.01
266
0.69
241
0.75
210
0.66
243
0.13
12
0.12
98
0.17
82
0.15
91
0.14
45
0.15
102
psmgtwo views0.49
191
0.25
188
0.43
107
0.41
127
0.28
186
0.85
274
0.43
223
0.99
219
0.76
146
0.91
246
0.94
177
0.76
198
0.54
172
0.64
151
0.43
163
0.20
210
0.15
195
0.20
168
0.20
220
0.18
149
0.18
167
CSP-Nettwo views0.56
241
0.27
216
0.49
177
0.41
127
0.28
186
1.22
330
0.50
255
1.23
302
0.72
128
0.95
265
0.95
184
0.89
239
0.62
205
0.83
240
0.62
235
0.26
276
0.17
232
0.17
82
0.17
156
0.18
149
0.17
153
ASMatchtwo views0.48
175
0.19
49
0.45
127
0.39
80
0.28
186
0.37
86
0.26
37
0.74
137
0.68
112
0.76
166
2.34
357
0.61
126
0.52
158
0.62
134
0.37
133
0.14
31
0.12
98
0.17
82
0.15
91
0.14
45
0.21
226
GrayStereotwo views0.49
191
0.19
49
0.42
99
0.46
232
0.28
186
0.53
149
0.67
305
0.69
106
0.63
94
1.02
289
1.47
321
0.78
204
0.76
267
0.56
75
0.33
82
0.14
31
0.12
98
0.17
82
0.17
156
0.15
77
0.29
282
ICVPtwo views0.46
158
0.25
188
0.38
52
0.48
246
0.28
186
0.58
178
0.43
223
1.00
222
0.70
117
0.67
113
0.95
184
0.75
192
0.55
174
0.53
62
0.54
220
0.23
247
0.17
232
0.19
144
0.17
156
0.19
181
0.20
213
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
ac_64two views0.52
216
0.22
124
0.50
189
0.45
213
0.28
186
0.80
255
0.45
231
1.02
231
0.61
84
0.91
246
0.83
133
1.07
285
0.68
237
0.74
206
0.70
253
0.21
224
0.18
243
0.20
168
0.19
198
0.18
149
0.15
102
ACVNettwo views0.46
158
0.23
139
0.36
33
0.39
80
0.28
186
0.58
178
0.40
203
0.87
183
0.80
167
0.64
94
0.96
188
0.79
205
0.60
195
0.63
144
0.67
246
0.17
136
0.15
195
0.16
58
0.15
91
0.18
149
0.15
102
acv_fttwo views0.51
209
0.23
139
0.56
220
0.44
192
0.28
186
0.86
277
0.39
197
0.91
197
0.80
167
0.97
271
0.96
188
0.79
205
0.59
191
0.63
144
0.87
288
0.17
136
0.15
195
0.16
58
0.15
91
0.17
135
0.15
102
hitnet-ftcopylefttwo views0.55
230
0.27
216
0.39
69
0.41
127
0.28
186
0.78
249
0.40
203
0.92
198
0.90
219
0.82
190
1.01
212
1.13
297
0.70
251
0.78
224
0.67
246
0.28
289
0.20
265
0.28
291
0.22
252
0.29
273
0.26
262
DMCAtwo views0.45
152
0.26
202
0.50
189
0.38
61
0.28
186
0.51
140
0.34
116
0.93
200
0.68
112
0.75
161
0.83
133
0.79
205
0.53
161
0.51
52
0.54
220
0.21
224
0.16
218
0.21
207
0.16
119
0.19
181
0.21
226
DIP-Stereotwo views0.39
104
0.21
100
0.50
189
0.41
127
0.28
186
0.62
200
0.27
43
0.77
151
0.40
37
0.64
94
0.86
149
0.52
80
0.33
65
0.66
163
0.42
159
0.15
74
0.13
151
0.17
82
0.14
70
0.15
77
0.15
102
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
CBMV_ROBtwo views0.59
259
0.37
275
0.38
52
0.39
80
0.28
186
0.74
239
0.28
50
1.00
222
0.98
253
0.94
258
1.25
284
0.81
215
0.78
276
0.87
251
0.50
200
0.36
335
0.37
348
0.43
339
0.40
342
0.33
297
0.30
289
test crocotwo views0.31
26
0.20
70
0.50
189
0.39
80
0.29
205
0.27
25
0.30
69
0.44
6
0.35
16
0.31
8
0.66
68
0.30
5
0.31
54
0.65
158
0.31
62
0.17
136
0.13
151
0.20
168
0.15
91
0.17
135
0.12
33
EKT-Stereotwo views0.35
44
0.23
139
0.39
69
0.43
177
0.29
205
0.38
98
0.31
84
0.69
106
0.64
101
0.45
41
0.63
59
0.49
75
0.27
23
0.56
75
0.33
82
0.18
164
0.14
172
0.18
116
0.15
91
0.16
104
0.16
138
ssnet_v2two views0.58
252
0.28
229
0.56
220
0.43
177
0.29
205
0.95
288
0.59
290
1.13
266
0.99
258
0.93
255
0.80
118
0.99
260
0.64
221
0.82
233
0.94
307
0.25
266
0.22
278
0.23
233
0.24
276
0.20
193
0.19
194
CroCo-Stereo Lap2two views0.28
8
0.24
170
0.39
69
0.50
274
0.29
205
0.20
1
0.31
84
0.49
13
0.38
33
0.24
1
0.27
4
0.46
65
0.31
54
0.39
14
0.30
56
0.14
31
0.15
195
0.16
58
0.13
48
0.16
104
0.15
102
hknettwo views0.49
191
0.25
188
0.51
196
0.45
213
0.29
205
0.77
245
0.40
203
0.94
203
0.83
179
0.75
161
0.80
118
0.97
256
0.61
200
0.73
201
0.45
180
0.18
164
0.14
172
0.22
219
0.19
198
0.18
149
0.18
167
AACVNettwo views0.50
202
0.23
139
0.49
177
0.46
232
0.29
205
0.52
143
0.38
178
0.90
193
0.55
74
0.81
185
1.03
220
1.00
263
0.70
251
0.83
240
0.54
220
0.21
224
0.18
243
0.24
247
0.18
174
0.23
236
0.20
213
GANet-ADLtwo views0.42
132
0.25
188
0.45
127
0.43
177
0.29
205
0.54
152
0.35
129
0.89
189
0.86
194
0.63
85
0.72
79
0.68
161
0.42
112
0.52
57
0.41
155
0.21
224
0.14
172
0.15
40
0.13
48
0.18
149
0.19
194
RALAANettwo views0.38
91
0.23
139
0.48
167
0.42
161
0.29
205
0.35
78
0.25
31
0.86
176
0.64
101
0.67
113
0.65
64
0.60
122
0.29
40
0.60
121
0.34
92
0.15
74
0.12
98
0.17
82
0.15
91
0.21
211
0.13
57
DN-CSS_ROBtwo views0.43
138
0.26
202
0.62
237
0.40
103
0.29
205
0.44
122
0.27
43
0.77
151
0.75
140
0.72
146
1.09
244
0.48
71
0.43
119
0.69
184
0.37
133
0.15
74
0.12
98
0.21
207
0.19
198
0.18
149
0.16
138
LoS_RVCtwo views0.27
5
0.16
8
0.27
8
0.32
8
0.30
214
0.44
122
0.34
116
0.41
4
0.33
8
0.31
8
0.51
36
0.29
4
0.32
57
0.36
5
0.28
42
0.11
1
0.10
9
0.11
1
0.08
1
0.11
1
0.19
194
CAStwo views0.34
34
0.13
1
0.25
6
1.28
375
0.30
214
0.46
129
0.38
178
0.48
11
0.47
57
0.34
13
0.52
40
0.24
1
0.19
2
0.29
1
0.27
33
0.69
367
0.08
1
0.12
2
0.08
1
0.12
8
0.15
102
Wz-Net-LNSev-Reftwo views0.63
266
0.28
229
0.99
317
0.40
103
0.30
214
1.03
304
0.56
284
1.10
256
0.99
258
0.97
271
1.22
277
1.06
280
0.69
241
1.07
302
0.95
310
0.19
193
0.11
57
0.16
58
0.13
48
0.22
227
0.21
226
CRFU-Nettwo views0.57
246
0.27
216
0.57
223
0.46
232
0.30
214
1.20
329
0.52
268
1.10
256
0.56
78
1.00
282
0.98
203
1.06
280
0.79
278
0.81
231
0.71
257
0.21
224
0.19
257
0.18
116
0.16
119
0.18
149
0.19
194
dadtwo views0.58
252
0.50
317
0.64
246
0.43
177
0.30
214
0.59
187
0.36
146
0.78
156
1.25
324
1.01
287
1.17
269
1.15
300
0.53
161
0.68
181
0.50
200
0.35
332
0.23
288
0.37
328
0.21
237
0.29
273
0.20
213
GwcNet-ADLtwo views0.44
144
0.22
124
0.48
167
0.45
213
0.30
214
0.40
102
0.37
158
0.92
198
0.97
249
0.71
136
0.78
107
0.61
126
0.42
112
0.62
134
0.50
200
0.19
193
0.14
172
0.15
40
0.14
70
0.18
149
0.18
167
PSMNet-ADLtwo views0.48
175
0.27
216
0.40
76
0.48
246
0.30
214
0.68
225
0.37
158
0.90
193
0.80
167
0.61
79
0.80
118
0.92
247
0.62
205
0.72
196
0.63
238
0.23
247
0.18
243
0.18
116
0.20
220
0.22
227
0.20
213
ADLNet2two views0.55
230
0.25
188
0.65
251
0.47
241
0.30
214
0.83
270
0.50
255
1.05
243
0.95
245
0.80
177
0.98
203
0.99
260
0.69
241
0.77
220
0.73
260
0.20
210
0.16
218
0.17
82
0.18
174
0.21
211
0.21
226
LMCR-Stereopermissivemany views0.53
219
0.30
243
0.53
207
0.58
321
0.30
214
0.83
270
0.36
146
1.19
288
0.76
146
0.88
230
1.04
224
0.56
91
0.62
205
0.82
233
0.67
246
0.19
193
0.15
195
0.19
144
0.14
70
0.23
236
0.17
153
GEStwo views0.44
144
0.23
139
0.57
223
0.40
103
0.30
214
0.59
187
0.36
146
0.96
210
0.68
112
0.74
159
0.83
133
0.47
67
0.48
140
0.67
173
0.43
163
0.22
242
0.16
218
0.17
82
0.16
119
0.18
149
0.23
246
TDLMtwo views0.57
246
0.33
258
0.49
177
0.51
286
0.30
214
0.66
219
0.73
325
1.03
235
1.01
269
0.82
190
1.10
246
0.84
221
0.70
251
0.86
250
0.58
225
0.28
289
0.17
232
0.25
258
0.22
252
0.26
258
0.19
194
NLCA_NET_v2_RVCtwo views0.53
219
0.32
250
0.64
246
0.44
192
0.30
214
0.66
219
0.44
229
1.04
238
0.88
207
0.91
246
0.91
169
0.99
260
0.60
195
0.68
181
0.60
232
0.21
224
0.17
232
0.22
219
0.22
252
0.21
211
0.21
226
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DeepPruner_ROBtwo views0.53
219
0.34
263
0.59
228
0.41
127
0.30
214
0.50
136
0.43
223
1.19
288
0.70
117
0.85
210
1.05
228
0.86
225
0.55
174
0.84
245
0.51
208
0.29
295
0.23
288
0.22
219
0.22
252
0.26
258
0.25
258
StereoDRNet-Refinedtwo views0.58
252
0.32
250
0.54
210
0.46
232
0.30
214
0.96
291
0.40
203
1.00
222
0.94
240
1.12
315
1.08
240
0.96
254
0.67
231
0.90
261
0.89
301
0.17
136
0.13
151
0.22
219
0.21
237
0.20
193
0.19
194
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
SANettwo views1.07
339
0.41
295
1.06
322
0.48
246
0.30
214
1.41
343
0.94
347
1.42
342
3.36
385
1.58
345
2.43
360
2.33
366
1.70
365
1.34
335
1.07
326
0.28
289
0.24
295
0.26
272
0.23
263
0.34
304
0.30
289
NOSS_ROBtwo views0.57
246
0.39
288
0.39
69
0.44
192
0.30
214
0.73
238
0.54
275
1.03
235
1.08
298
0.67
113
0.87
153
0.76
198
0.57
180
0.77
220
0.47
194
0.38
339
0.38
350
0.44
341
0.42
348
0.37
314
0.34
307
SGM-Foresttwo views0.62
265
0.32
250
0.39
69
0.43
177
0.30
214
1.02
301
0.55
279
1.09
255
1.05
282
1.06
303
1.18
271
1.10
290
0.67
231
0.88
254
0.62
235
0.31
304
0.33
341
0.33
317
0.30
311
0.30
282
0.28
276
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
MIF-Stereo (partial)two views0.31
26
0.18
34
0.37
43
0.41
127
0.31
231
0.28
32
0.23
18
0.47
9
0.42
44
0.31
8
0.63
59
0.36
29
0.35
73
0.57
85
0.31
62
0.17
136
0.13
151
0.19
144
0.17
156
0.18
149
0.14
86
CFNet_ucstwo views0.50
202
0.24
170
0.55
214
0.38
61
0.31
231
0.58
178
0.33
109
0.98
217
0.93
233
0.88
230
1.19
275
0.80
213
0.49
143
0.63
144
0.43
163
0.21
224
0.15
195
0.26
272
0.18
174
0.26
258
0.22
239
iinet-ftwo views0.67
272
0.26
202
2.15
375
0.39
80
0.31
231
1.19
328
0.56
284
0.84
170
0.84
182
0.80
177
1.17
269
1.05
279
0.84
292
0.71
192
1.21
337
0.20
210
0.18
243
0.17
82
0.15
91
0.20
193
0.20
213
UDGNettwo views0.48
175
0.77
352
0.50
189
0.48
246
0.31
231
0.41
113
0.34
116
0.70
120
0.92
228
0.65
101
0.60
55
0.58
104
0.43
119
0.63
144
0.41
155
0.32
316
0.15
195
0.66
363
0.19
198
0.36
312
0.21
226
DAStwo views0.51
209
0.25
188
0.60
233
0.48
246
0.31
231
0.58
178
0.41
215
0.83
167
0.97
249
0.89
234
1.12
249
0.70
167
0.75
264
0.82
233
0.43
163
0.17
136
0.13
151
0.18
116
0.15
91
0.20
193
0.18
167
SepStereotwo views0.51
209
0.25
188
0.60
233
0.48
246
0.31
231
0.58
178
0.41
215
0.83
167
0.97
249
0.89
234
1.12
249
0.70
167
0.75
264
0.93
276
0.43
163
0.17
136
0.13
151
0.18
116
0.15
91
0.20
193
0.18
167
GEStereo_RVCtwo views0.55
230
0.29
237
0.63
241
0.49
260
0.31
231
0.70
229
0.54
275
1.22
298
0.92
228
0.82
190
0.85
146
0.85
223
0.63
211
0.90
261
0.65
241
0.24
256
0.16
218
0.19
144
0.16
119
0.21
211
0.22
239
FADNet_RVCtwo views0.55
230
0.37
275
1.17
335
0.44
192
0.31
231
0.56
172
0.34
116
1.06
246
0.88
207
0.67
113
0.90
167
0.61
126
0.65
227
0.93
276
0.70
253
0.21
224
0.18
243
0.26
272
0.23
263
0.31
287
0.28
276
STTStereotwo views0.55
230
0.37
275
0.76
291
0.44
192
0.31
231
0.60
192
0.44
229
0.96
210
0.86
194
0.99
277
0.90
167
0.96
254
0.58
185
0.71
192
0.61
233
0.25
266
0.23
288
0.26
272
0.32
324
0.24
246
0.23
246
SuperBtwo views1.04
334
0.37
275
4.81
390
0.43
177
0.31
231
0.99
297
0.46
234
1.02
231
2.09
367
1.09
311
1.09
244
0.75
192
0.81
282
1.06
299
1.76
355
0.19
193
0.15
195
0.17
82
0.15
91
2.82
397
0.26
262
DISCOtwo views0.70
279
0.26
202
0.68
263
0.44
192
0.31
231
1.14
320
0.51
265
1.23
302
1.23
318
0.81
185
1.05
228
1.50
340
0.85
293
1.82
363
1.03
321
0.19
193
0.15
195
0.18
116
0.16
119
0.24
246
0.23
246
DCREtwo views0.37
77
0.18
34
0.46
141
0.45
213
0.32
242
0.42
116
0.37
158
0.63
59
0.51
60
0.47
46
0.94
177
0.56
91
0.36
82
0.52
57
0.32
70
0.14
31
0.13
151
0.15
40
0.14
70
0.14
45
0.13
57
NINENettwo views0.50
202
0.29
237
0.51
196
0.45
213
0.32
242
0.70
229
0.34
116
1.10
256
0.88
207
0.80
177
0.94
177
0.65
150
0.49
143
0.73
201
0.51
208
0.22
242
0.20
265
0.25
258
0.18
174
0.22
227
0.21
226
AASNettwo views0.53
219
0.25
188
0.52
201
0.49
260
0.32
242
0.74
239
0.40
203
1.50
351
0.86
194
0.86
215
0.92
173
0.64
140
0.59
191
0.59
116
0.79
270
0.23
247
0.19
257
0.20
168
0.16
119
0.21
211
0.19
194
RAFT + AFFtwo views0.53
219
0.29
237
0.75
286
0.51
286
0.32
242
0.63
205
0.60
292
1.00
222
0.91
223
0.78
173
0.87
153
0.83
217
0.58
185
0.80
228
0.47
194
0.17
136
0.20
265
0.23
233
0.22
252
0.18
149
0.18
167
psm_uptwo views0.55
230
0.26
202
0.47
151
0.49
260
0.32
242
0.65
216
0.56
284
1.04
238
0.82
174
0.82
190
0.88
160
1.01
266
0.94
313
0.74
206
0.61
233
0.21
224
0.25
303
0.26
272
0.23
263
0.21
211
0.20
213
DMCA-RVCcopylefttwo views0.51
209
0.30
243
0.59
228
0.50
274
0.32
242
0.54
152
0.38
178
0.86
176
0.68
112
0.94
258
0.86
149
0.91
245
0.68
237
0.70
187
0.59
229
0.23
247
0.18
243
0.31
307
0.23
263
0.26
258
0.19
194
CVANet_RVCtwo views0.57
246
0.33
258
0.44
117
0.47
241
0.32
242
0.67
223
0.61
297
1.05
243
0.93
233
0.85
210
1.04
224
1.01
266
0.73
260
0.83
240
0.52
214
0.29
295
0.19
257
0.27
284
0.25
285
0.31
287
0.21
226
DLCB_ROBtwo views0.58
252
0.28
229
0.47
151
0.49
260
0.32
242
0.77
245
0.50
255
0.99
219
0.92
228
1.04
298
1.14
257
1.21
302
0.69
241
0.88
254
0.69
250
0.20
210
0.20
265
0.22
219
0.22
252
0.21
211
0.18
167
PWC_ROBbinarytwo views0.87
313
0.52
326
1.28
344
0.50
274
0.32
242
0.91
280
0.37
158
1.36
333
1.46
345
1.61
348
2.59
366
1.16
301
1.01
323
1.34
335
1.40
348
0.25
266
0.18
243
0.28
291
0.20
220
0.29
273
0.28
276
HBP-ISPtwo views0.59
259
0.45
307
0.43
107
0.45
213
0.33
251
0.70
229
0.28
50
1.11
261
1.00
265
0.83
202
1.18
271
0.65
150
0.68
237
0.88
254
0.52
214
0.35
332
0.38
350
0.47
346
0.41
347
0.38
318
0.31
295
CIPLGtwo views0.41
126
0.21
100
0.63
241
0.45
213
0.33
251
0.52
143
0.33
109
0.65
70
0.60
83
0.82
190
0.96
188
0.46
65
0.32
57
0.55
67
0.44
175
0.16
104
0.12
98
0.15
40
0.14
70
0.13
20
0.14
86
IPLGR_Ctwo views0.40
116
0.21
100
0.64
246
0.45
213
0.33
251
0.52
143
0.34
116
0.66
78
0.62
85
0.82
190
0.92
173
0.45
59
0.32
57
0.52
57
0.46
190
0.17
136
0.12
98
0.15
40
0.14
70
0.13
20
0.14
86
ACREtwo views0.40
116
0.21
100
0.65
251
0.45
213
0.33
251
0.51
140
0.33
109
0.66
78
0.63
94
0.80
177
0.92
173
0.45
59
0.32
57
0.52
57
0.45
180
0.16
104
0.12
98
0.15
40
0.14
70
0.13
20
0.14
86
delettwo views0.55
230
0.24
170
0.55
214
0.44
192
0.33
251
1.07
310
0.50
255
1.00
222
0.86
194
0.85
210
0.96
188
0.90
243
0.63
211
0.83
240
0.74
263
0.18
164
0.18
243
0.20
168
0.21
237
0.16
104
0.15
102
PS-NSSStwo views0.58
252
0.44
303
0.62
237
0.42
161
0.33
251
0.66
219
0.58
288
1.02
231
0.86
194
0.77
170
1.28
288
0.72
177
0.64
221
0.82
233
0.59
229
0.31
304
0.26
308
0.40
336
0.27
300
0.33
297
0.26
262
NaN_ROBtwo views0.69
277
0.44
303
0.69
269
0.51
286
0.33
251
0.97
292
1.06
356
1.22
298
1.19
312
1.24
330
0.96
188
1.08
287
0.78
276
1.20
318
0.67
246
0.24
256
0.30
322
0.23
233
0.24
276
0.23
236
0.25
258
LL-Strereotwo views0.57
246
0.27
216
0.68
263
0.48
246
0.34
258
0.39
101
0.48
245
0.94
203
0.97
249
0.83
202
0.78
107
1.10
290
1.18
338
1.33
333
0.49
199
0.17
136
0.14
172
0.22
219
0.19
198
0.16
104
0.17
153
fast-acv-fttwo views0.64
267
0.30
243
0.73
279
0.45
213
0.34
258
1.17
325
0.49
251
0.86
176
0.98
253
1.02
289
1.36
298
1.29
310
0.85
293
0.76
213
0.81
275
0.21
224
0.23
288
0.23
233
0.23
263
0.21
211
0.20
213
MMNettwo views0.55
230
0.25
188
0.61
235
0.43
177
0.34
258
1.07
310
0.39
197
0.87
183
0.91
223
0.91
246
0.93
176
0.86
225
0.76
267
0.81
231
0.76
265
0.15
74
0.14
172
0.18
116
0.19
198
0.20
193
0.16
138
FADNet-RVC-Resampletwo views0.56
241
0.33
258
1.16
331
0.49
260
0.34
258
0.71
234
0.43
223
1.01
228
0.93
233
0.82
190
0.87
153
0.74
191
0.67
231
0.73
201
0.45
180
0.18
164
0.18
243
0.26
272
0.27
300
0.26
258
0.27
269
GANettwo views0.70
279
0.37
275
0.55
214
0.51
286
0.34
258
0.94
285
0.96
349
1.08
251
0.94
240
1.04
298
1.98
350
1.13
297
0.88
301
1.12
310
0.66
243
0.25
266
0.26
308
0.27
284
0.22
252
0.31
287
0.22
239
MeshStereopermissivetwo views1.34
355
0.43
299
0.54
210
0.44
192
0.34
258
1.66
358
0.60
292
1.94
370
1.37
335
4.47
396
3.25
375
4.71
387
1.94
373
1.92
366
1.17
334
0.35
332
0.35
345
0.37
328
0.31
318
0.32
292
0.32
299
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
pcwnet_v2two views0.58
252
0.28
229
0.84
300
0.45
213
0.35
264
0.61
193
0.35
129
1.27
315
1.21
315
0.99
277
1.27
286
0.72
177
0.58
185
0.67
173
0.48
197
0.27
283
0.21
272
0.24
247
0.23
263
0.29
273
0.29
282
ADLNettwo views0.55
230
0.27
216
0.51
196
0.44
192
0.35
264
0.78
249
0.46
234
1.08
251
0.86
194
0.99
277
0.98
203
0.92
247
0.63
211
0.69
184
0.81
275
0.22
242
0.16
218
0.22
219
0.22
252
0.21
211
0.21
226
SACVNettwo views0.58
252
0.34
263
0.55
214
0.55
311
0.36
266
0.63
205
0.48
245
1.13
266
0.77
153
1.02
289
1.06
234
1.02
271
0.74
262
0.90
261
0.51
208
0.27
283
0.21
272
0.25
258
0.24
276
0.29
273
0.36
314
XX-Stereotwo views0.37
77
0.17
19
0.45
127
0.55
311
0.36
266
0.38
98
0.20
1
0.60
45
0.30
3
0.46
43
1.30
292
0.73
186
0.26
17
0.56
75
0.26
25
0.16
104
0.11
57
0.17
82
0.16
119
0.14
45
0.10
3
EDNetEfficientorigintwo views9.93
402
1.15
373
175.16
421
0.48
246
0.36
266
1.04
308
0.68
310
1.24
309
2.69
378
3.17
389
2.50
362
2.30
364
2.07
377
1.76
360
2.21
366
0.20
210
0.18
243
0.24
247
0.19
198
0.51
346
0.50
356
DSFCAtwo views0.55
230
0.25
188
0.62
237
0.40
103
0.36
266
0.74
239
0.52
268
1.04
238
0.82
174
1.06
303
0.84
138
0.89
239
0.63
211
0.99
286
0.58
225
0.25
266
0.21
272
0.21
207
0.21
237
0.21
211
0.19
194
ETE_ROBtwo views0.70
279
0.49
313
0.73
279
0.56
314
0.36
266
0.79
252
0.87
342
1.14
272
0.93
233
1.19
322
1.18
271
1.39
329
0.82
286
0.99
286
0.80
272
0.26
276
0.21
272
0.31
307
0.26
295
0.33
297
0.34
307
HHNettwo views0.41
126
0.17
19
0.41
80
0.34
11
0.37
271
0.33
67
0.34
116
0.69
106
0.75
140
0.86
215
1.30
292
0.52
80
0.32
57
0.52
57
0.35
105
0.15
74
0.11
57
0.19
144
0.15
91
0.15
77
0.24
252
Anonymous3two views0.46
158
0.34
263
0.86
306
0.50
274
0.37
271
0.81
260
0.50
255
0.72
129
0.65
106
0.51
53
0.65
64
0.45
59
0.45
130
0.64
151
0.38
141
0.24
256
0.24
295
0.22
219
0.21
237
0.23
236
0.23
246
sAnonymous2two views0.40
116
0.39
288
0.85
301
0.48
246
0.37
271
0.40
102
0.46
234
0.57
31
0.52
63
0.38
19
0.46
22
0.35
24
0.42
112
0.43
24
0.30
56
0.19
193
0.14
172
0.18
116
0.17
156
0.57
357
0.44
341
CroCo_RVCtwo views0.40
116
0.39
288
0.85
301
0.48
246
0.37
271
0.40
102
0.46
234
0.57
31
0.52
63
0.38
19
0.46
22
0.35
24
0.42
112
0.43
24
0.30
56
0.19
193
0.14
172
0.18
116
0.17
156
0.57
357
0.44
341
HGLStereotwo views0.56
241
0.28
229
0.57
223
0.50
274
0.37
271
0.80
255
0.45
231
1.02
231
0.78
159
0.86
215
1.14
257
0.89
239
0.82
286
0.76
213
0.73
260
0.21
224
0.20
265
0.19
144
0.18
174
0.19
181
0.21
226
FAT-Stereotwo views0.73
289
0.33
258
0.75
286
0.49
260
0.37
271
0.71
234
0.59
290
1.36
333
1.30
330
1.03
297
1.40
307
1.59
349
1.15
334
0.87
251
0.86
284
0.28
289
0.28
314
0.28
291
0.23
263
0.28
270
0.38
326
MaskLacGwcNet_RVCtwo views0.67
272
0.81
355
0.73
279
0.53
302
0.37
271
1.40
341
0.53
271
1.04
238
0.79
166
0.88
230
0.94
177
0.95
252
0.53
161
0.93
276
0.58
225
0.39
341
0.30
322
0.57
359
0.31
318
0.53
351
0.30
289
RTSCtwo views0.87
313
0.48
310
1.23
341
0.52
297
0.37
271
1.13
319
0.50
255
1.34
327
1.79
361
1.51
342
1.24
282
1.12
294
0.81
282
1.62
352
2.16
365
0.25
266
0.19
257
0.23
233
0.24
276
0.30
282
0.31
295
whm_ethtwo views0.48
175
0.30
243
0.74
283
0.46
232
0.38
279
0.37
86
0.37
158
0.79
158
0.78
159
0.82
190
1.74
339
0.37
31
0.38
88
0.60
121
0.38
141
0.18
164
0.16
218
0.20
168
0.20
220
0.19
181
0.22
239
SDNRtwo views0.86
312
0.37
275
1.47
360
0.40
103
0.38
279
3.38
389
0.33
109
0.90
193
0.98
253
0.99
277
2.09
354
0.59
117
0.71
255
1.29
329
0.70
253
0.51
357
0.56
371
0.36
324
0.26
295
0.43
331
0.46
346
coex-fttwo views6.43
400
1.51
383
87.33
420
0.49
260
0.38
279
1.34
338
1.21
366
1.16
278
8.09
396
12.12
403
2.79
370
2.77
372
3.31
391
1.16
313
3.15
375
0.24
256
0.23
288
0.27
284
0.24
276
0.45
336
0.37
320
UPFNettwo views0.53
219
0.24
170
0.51
196
0.45
213
0.38
279
0.84
273
0.49
251
0.99
219
0.75
140
0.87
222
0.88
160
0.86
225
0.64
221
0.80
228
0.71
257
0.20
210
0.20
265
0.20
168
0.20
220
0.19
181
0.15
102
aanetorigintwo views0.83
310
0.56
333
1.87
370
0.49
260
0.38
279
0.56
172
0.66
303
0.70
120
1.00
265
2.42
375
2.02
351
1.31
313
1.18
338
0.93
276
1.13
333
0.20
210
0.18
243
0.20
168
0.19
198
0.27
268
0.30
289
sCroCo_RVCtwo views0.35
44
0.28
229
0.69
269
0.51
286
0.39
284
0.41
113
0.31
84
0.49
13
0.45
53
0.31
8
0.48
28
0.38
35
0.32
57
0.46
37
0.32
70
0.21
224
0.22
278
0.19
144
0.19
198
0.21
211
0.20
213
EDNetEfficienttwo views1.46
362
0.80
354
6.12
392
0.47
241
0.39
284
0.69
227
0.83
335
0.90
193
2.77
379
3.50
392
1.96
349
1.66
350
2.03
376
1.26
325
4.18
385
0.21
224
0.18
243
0.21
207
0.20
220
0.41
327
0.39
328
FADNet-RVCtwo views0.60
262
0.53
329
1.14
330
0.46
232
0.39
284
0.61
193
0.39
197
1.12
265
0.87
203
0.70
130
0.84
138
1.04
275
0.55
174
0.94
283
0.69
250
0.26
276
0.25
303
0.28
291
0.28
305
0.31
287
0.31
295
ADCLtwo views1.04
334
0.38
284
1.35
351
0.50
274
0.39
284
1.61
356
0.89
343
1.29
318
1.39
338
1.29
333
1.50
322
1.24
305
1.24
343
1.37
341
4.87
388
0.21
224
0.19
257
0.25
258
0.25
285
0.29
273
0.27
269
DRN-Testtwo views0.66
271
0.32
250
0.66
256
0.50
274
0.39
284
1.15
322
0.61
297
1.49
350
1.01
269
1.12
315
1.08
240
1.06
280
0.69
241
0.77
220
0.94
307
0.23
247
0.17
232
0.26
272
0.25
285
0.25
254
0.21
226
Wz-Net-MNSevtwo views0.76
293
0.40
292
1.34
350
0.50
274
0.40
289
1.44
346
0.83
335
1.15
275
1.16
307
1.25
331
1.20
276
1.13
297
0.81
282
1.16
313
1.00
320
0.22
242
0.19
257
0.24
247
0.23
263
0.28
270
0.26
262
UNettwo views0.54
229
0.26
202
0.66
256
0.44
192
0.40
289
0.99
297
0.41
215
0.98
217
0.75
140
0.83
202
0.89
164
1.04
275
0.72
259
0.73
201
0.62
235
0.19
193
0.14
172
0.20
168
0.17
156
0.20
193
0.17
153
DANettwo views0.71
283
0.45
307
0.91
310
0.59
324
0.40
289
0.81
260
0.40
203
0.97
214
0.84
182
1.20
325
1.22
277
1.33
320
0.88
301
1.16
313
1.24
339
0.27
283
0.23
288
0.31
307
0.25
285
0.35
308
0.32
299
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
FBW_ROBtwo views0.88
315
0.50
317
0.85
301
0.55
311
0.40
289
1.17
325
0.78
331
1.50
351
1.37
335
1.33
336
1.27
286
1.48
338
1.00
322
2.57
382
0.98
316
0.25
266
0.32
335
0.45
342
0.30
311
0.34
304
0.28
276
XPNet_ROBtwo views0.70
279
0.35
267
0.68
263
0.52
297
0.40
289
0.79
252
0.85
341
1.16
278
0.94
240
1.33
336
1.15
262
1.38
328
0.83
290
1.03
296
0.90
303
0.32
316
0.25
303
0.26
272
0.24
276
0.31
287
0.28
276
LALA_ROBtwo views0.74
290
0.43
299
0.69
269
0.54
308
0.40
289
1.01
299
0.95
348
1.21
294
1.07
295
1.22
327
1.12
249
1.56
346
0.79
278
1.04
298
0.86
284
0.33
322
0.22
278
0.35
321
0.30
311
0.35
308
0.31
295
PWCDC_ROBbinarytwo views0.89
317
0.49
313
0.80
298
0.74
357
0.40
289
1.03
304
0.39
197
1.33
325
2.35
374
1.02
289
3.77
383
0.81
215
0.92
307
1.20
318
0.90
303
0.34
328
0.22
278
0.24
247
0.20
220
0.34
304
0.29
282
Wz-Net-LNSevtwo views0.71
283
0.51
320
1.36
355
0.50
274
0.41
296
1.15
322
0.69
314
1.21
294
1.07
295
1.02
289
1.12
249
1.08
287
0.87
298
0.89
259
0.89
301
0.24
256
0.22
278
0.21
207
0.19
198
0.26
258
0.26
262
TRStereotwo views0.37
77
0.27
216
0.59
228
0.47
241
0.41
296
0.29
36
0.30
69
0.84
170
0.59
81
0.52
56
0.41
17
0.52
80
0.26
17
0.73
201
0.27
33
0.17
136
0.12
98
0.19
144
0.19
198
0.13
20
0.11
9
psmorigintwo views0.82
305
0.51
320
2.09
373
0.49
260
0.41
296
0.85
274
0.50
255
1.04
238
0.88
207
1.45
340
1.43
313
1.50
340
1.06
326
1.22
321
0.97
313
0.31
304
0.32
335
0.27
284
0.27
300
0.33
297
0.42
335
DPSNettwo views0.99
328
0.42
297
1.88
371
0.53
302
0.41
296
1.59
355
1.26
371
2.21
376
1.43
341
1.10
313
1.11
247
1.46
334
1.95
374
1.34
335
1.26
341
0.34
328
0.25
303
0.25
258
0.21
237
0.46
339
0.37
320
MDST_ROBtwo views0.91
321
0.27
216
0.85
301
0.63
335
0.41
296
2.53
373
0.71
323
1.60
361
1.13
303
2.83
382
1.73
337
0.97
256
0.69
241
1.61
351
0.73
260
0.25
266
0.22
278
0.32
312
0.28
305
0.25
254
0.24
252
CSANtwo views0.83
310
0.49
313
0.77
295
0.60
329
0.41
296
1.14
320
1.06
356
1.19
288
1.46
345
1.32
334
1.43
313
1.37
327
1.19
340
1.27
327
0.86
284
0.39
341
0.31
332
0.36
324
0.37
333
0.35
308
0.34
307
Wz-Net-TNSevtwo views1.14
343
1.06
372
4.32
389
0.49
260
0.42
302
1.51
350
1.11
360
1.48
348
1.40
340
1.22
327
1.26
285
1.58
348
1.43
354
1.76
360
1.70
352
0.32
316
0.31
332
0.26
272
0.30
311
0.41
327
0.41
334
GwcNetcopylefttwo views0.69
277
0.36
272
1.10
325
0.51
286
0.42
302
1.08
314
0.50
255
1.21
294
1.16
307
1.00
282
1.37
301
1.06
280
0.79
278
0.92
271
0.94
307
0.25
266
0.24
295
0.24
247
0.22
252
0.23
236
0.26
262
ADCPNettwo views1.03
333
0.48
310
2.70
378
0.54
308
0.42
302
1.40
341
0.75
327
1.13
266
1.07
295
1.22
327
1.42
310
1.68
351
1.09
329
1.36
340
3.45
380
0.30
301
0.28
314
0.29
299
0.32
324
0.37
314
0.35
312
GANetREF_RVCpermissivetwo views0.80
301
0.75
351
0.86
306
0.66
344
0.42
302
1.15
322
0.98
350
1.14
272
1.19
312
1.01
287
1.02
216
1.10
290
0.90
303
1.15
312
0.76
265
0.48
352
0.39
354
0.57
359
0.38
336
0.63
361
0.46
346
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
PSMNet_ROBtwo views0.64
267
0.37
275
0.65
251
0.56
314
0.42
302
0.97
292
0.83
335
1.21
294
0.92
228
0.79
175
1.02
216
1.08
287
0.63
211
0.82
233
0.91
305
0.29
295
0.20
265
0.31
307
0.31
318
0.26
258
0.23
246
Anonymous_2two views0.82
305
0.44
303
0.63
241
0.40
103
0.43
307
0.80
255
0.52
268
0.72
129
0.77
153
0.71
136
0.60
55
0.87
230
0.76
267
0.75
210
0.58
225
0.52
358
0.54
370
0.54
357
4.82
405
0.56
355
0.40
331
Anonymoustwo views0.39
104
0.27
216
0.66
256
0.53
302
0.43
307
0.55
157
0.49
251
0.63
59
0.50
59
0.37
16
0.42
18
0.33
16
0.42
112
0.56
75
0.38
141
0.20
210
0.19
257
0.17
82
0.18
174
0.30
282
0.24
252
FINETtwo views0.67
272
0.42
297
1.00
318
0.46
232
0.43
307
0.83
270
0.89
343
1.08
251
1.50
347
0.87
222
1.14
257
0.71
171
0.68
237
0.92
271
0.70
253
0.36
335
0.30
322
0.26
272
0.24
276
0.35
308
0.33
303
edge stereotwo views0.76
293
0.38
284
0.74
283
0.52
297
0.43
307
0.80
255
0.53
271
1.28
317
1.06
289
1.28
332
1.38
306
1.81
353
1.11
331
1.08
304
0.85
283
0.33
322
0.32
335
0.41
337
0.28
305
0.32
292
0.36
314
ADCMidtwo views1.14
343
0.52
326
2.23
376
0.53
302
0.43
307
1.07
310
0.75
327
1.23
302
1.05
282
2.15
369
1.44
315
1.50
340
1.43
354
1.56
348
5.01
389
0.26
276
0.24
295
0.29
299
0.31
318
0.37
314
0.33
303
NVstereo2Dtwo views0.60
262
0.30
243
0.75
286
0.48
246
0.43
307
0.89
279
0.48
245
1.05
243
1.15
306
0.66
112
0.86
149
0.88
235
0.70
251
0.99
286
0.65
241
0.32
316
0.15
195
0.28
291
0.20
220
0.40
321
0.36
314
StereoDRNettwo views0.64
267
0.33
258
0.68
263
0.51
286
0.43
307
1.03
304
0.53
271
1.47
347
0.99
258
1.10
313
0.87
153
1.07
285
0.71
255
0.82
233
0.88
290
0.23
247
0.19
257
0.25
258
0.23
263
0.27
268
0.19
194
MFN_U_SF_RVCtwo views1.09
341
0.59
337
1.97
372
0.67
347
0.44
314
1.93
366
0.60
292
1.85
369
1.36
333
1.61
348
1.54
326
1.95
359
1.37
350
1.64
355
1.73
353
0.40
345
0.37
348
0.45
342
0.48
355
0.44
332
0.44
341
FADNettwo views0.61
264
0.51
320
1.10
325
0.45
213
0.44
314
0.65
216
0.41
215
1.19
288
1.05
282
0.70
130
0.84
138
0.98
259
0.66
228
0.82
233
0.50
200
0.29
295
0.30
322
0.27
284
0.30
311
0.46
339
0.35
312
NCCL2two views0.72
287
0.41
295
0.65
251
0.64
336
0.44
314
0.98
296
1.20
364
1.11
261
1.00
265
0.98
275
0.96
188
1.49
339
0.87
298
0.90
261
0.79
270
0.31
304
0.26
308
0.39
333
0.39
340
0.32
292
0.32
299
WCMA_ROBtwo views1.14
343
0.36
272
0.76
291
0.49
260
0.44
314
1.23
332
0.67
305
1.11
261
1.23
318
2.84
383
3.95
389
3.28
379
1.83
370
1.25
324
0.99
317
0.44
347
0.34
343
0.34
319
0.37
333
0.41
327
0.40
331
AEACVtwo views0.27
5
0.17
19
0.31
13
0.34
11
0.45
318
0.26
17
0.28
50
0.37
1
0.32
7
0.30
7
0.46
22
0.31
7
0.37
85
0.36
5
0.24
6
0.14
31
0.10
9
0.15
40
0.12
29
0.13
20
0.11
9
Wz-Net-SNSevtwo views0.91
321
0.73
349
2.13
374
0.56
314
0.45
318
0.95
288
1.13
361
1.34
327
1.24
320
1.02
289
1.30
292
1.46
334
0.86
295
1.81
362
1.50
349
0.25
266
0.23
288
0.25
258
0.26
295
0.32
292
0.29
282
APVNettwo views0.71
283
0.37
275
0.89
309
0.56
314
0.45
318
1.18
327
0.68
310
1.41
341
0.85
189
0.81
185
1.15
262
1.04
275
0.81
282
1.10
307
1.17
334
0.26
276
0.28
314
0.32
312
0.31
318
0.29
273
0.30
289
Syn2CoExtwo views0.71
283
0.51
320
0.95
312
0.64
336
0.45
318
0.91
280
0.53
271
1.48
348
1.13
303
0.93
255
1.35
297
1.02
271
0.99
320
0.92
271
0.80
272
0.30
301
0.27
312
0.28
291
0.24
276
0.23
236
0.24
252
S-Stereotwo views0.74
290
0.35
267
0.96
314
0.56
314
0.45
318
0.82
268
0.60
292
1.24
309
1.60
356
0.96
266
1.41
309
1.12
294
0.94
313
0.80
228
1.04
324
0.26
276
0.31
332
0.28
291
0.25
285
0.32
292
0.47
350
ADCReftwo views0.80
301
0.43
299
1.32
349
0.50
274
0.45
318
1.07
310
0.51
265
1.07
247
0.98
253
1.17
320
1.42
310
0.87
230
0.91
304
0.85
248
3.19
376
0.18
164
0.16
218
0.23
233
0.23
263
0.22
227
0.21
226
CC-Net-ROBtwo views0.82
305
0.96
366
0.85
301
0.58
321
0.45
318
1.27
335
0.70
319
1.17
283
1.02
272
0.83
202
1.23
281
0.90
243
0.77
271
1.06
299
0.69
250
0.46
349
0.34
343
1.71
377
0.38
336
0.59
360
0.36
314
SHDtwo views0.93
324
0.50
317
1.18
336
0.59
324
0.46
325
0.97
292
0.48
245
1.70
367
2.15
368
1.58
345
1.37
301
1.42
332
1.19
340
1.31
331
1.60
350
0.31
304
0.26
308
0.32
312
0.33
327
0.40
321
0.42
335
GASNettwo views0.67
272
0.72
348
0.96
314
0.70
353
0.48
326
0.62
200
0.47
239
1.08
251
1.03
273
0.94
258
0.82
128
0.93
249
0.83
290
1.33
333
0.80
272
0.31
304
0.22
278
0.29
299
0.28
305
0.44
332
0.24
252
G-Nettwo views0.95
325
0.46
309
1.04
320
0.64
336
0.48
326
2.12
369
0.64
301
1.01
228
0.87
203
1.75
356
2.82
373
1.30
312
1.64
364
1.06
299
0.96
312
0.36
335
0.29
319
0.35
321
0.25
285
0.45
336
0.42
335
FC-DCNNcopylefttwo views1.59
366
0.51
320
0.66
256
0.61
331
0.49
328
1.56
353
0.70
319
1.66
365
1.53
349
4.64
397
4.62
395
5.85
394
3.34
392
1.84
364
1.11
329
0.46
349
0.42
359
0.47
346
0.46
350
0.48
342
0.46
346
MFN_U_SF_DS_RVCtwo views1.02
332
0.57
335
1.51
362
0.67
347
0.50
329
2.57
374
1.66
386
1.20
292
1.43
341
1.38
338
1.57
328
1.33
320
0.92
307
1.64
355
0.88
290
0.37
338
0.39
354
0.46
345
0.60
367
0.41
327
0.40
331
stereogantwo views0.80
301
0.31
248
0.71
276
0.59
324
0.50
329
1.72
362
0.48
245
1.35
330
1.37
335
1.00
282
1.46
320
1.56
346
0.95
316
1.29
329
0.84
279
0.28
289
0.29
319
0.29
299
0.25
285
0.38
318
0.38
326
MSMD_ROBtwo views1.21
350
0.49
313
0.62
237
0.59
324
0.50
329
1.62
357
0.67
305
1.23
302
1.24
320
2.45
376
3.77
383
3.09
376
2.98
389
1.32
332
0.81
275
0.45
348
0.41
357
0.49
352
0.51
362
0.47
341
0.44
341
WZ-Nettwo views1.19
349
0.59
337
4.07
387
0.62
334
0.51
332
1.34
338
1.31
375
1.32
323
1.74
360
1.53
344
1.65
331
1.74
352
1.28
347
2.25
376
2.01
362
0.27
283
0.21
272
0.23
233
0.25
285
0.40
321
0.39
328
ADCStwo views1.51
364
0.61
340
3.42
382
0.59
324
0.51
332
1.27
335
1.08
359
1.59
360
1.81
362
1.91
363
1.66
333
1.51
343
1.42
353
1.94
368
8.60
397
0.33
322
0.32
335
0.33
317
0.36
332
0.44
332
0.42
335
ADCP+two views1.06
337
0.35
267
1.51
362
0.49
260
0.51
332
1.45
347
0.55
279
1.25
312
1.03
273
1.16
319
1.15
262
1.10
290
1.07
328
1.56
348
6.75
395
0.19
193
0.16
218
0.23
233
0.21
237
0.28
270
0.21
226
XQCtwo views0.89
317
0.65
345
1.31
347
0.67
347
0.52
335
1.22
330
0.68
310
1.26
313
1.52
348
1.14
318
1.11
247
1.28
309
1.04
325
1.40
343
1.77
356
0.38
339
0.24
295
0.37
328
0.31
318
0.53
351
0.47
350
BEATNet-Init1two views15.13
405
0.82
358
50.86
419
0.72
356
0.53
336
38.10
416
7.03
403
11.83
406
14.25
403
29.78
417
30.17
417
48.21
420
22.64
413
26.78
414
18.11
405
0.42
346
0.38
350
0.47
346
0.46
350
0.51
346
0.48
352
PA-Nettwo views0.67
272
0.43
299
0.83
299
0.50
274
0.53
336
0.94
285
0.68
310
1.10
256
1.14
305
0.80
177
0.88
160
0.87
230
0.77
271
1.02
294
0.88
290
0.24
256
0.41
357
0.29
299
0.44
349
0.26
258
0.34
307
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
AF-Nettwo views0.81
304
0.39
288
0.68
263
0.64
336
0.54
338
0.91
280
0.51
265
1.61
362
1.31
331
0.96
266
2.02
351
1.46
334
1.26
346
1.11
309
0.99
317
0.32
316
0.24
295
0.39
333
0.27
300
0.30
282
0.25
258
AnyNet_C01two views1.56
365
1.05
371
7.45
395
0.64
336
0.54
338
1.99
367
1.38
378
1.43
344
1.36
333
1.63
351
1.92
347
1.84
354
1.33
349
2.40
378
4.03
382
0.33
322
0.32
335
0.32
312
0.34
329
0.44
332
0.45
345
Nwc_Nettwo views0.78
297
0.38
284
0.73
279
0.60
329
0.55
340
1.05
309
0.55
279
1.67
366
1.05
282
0.88
230
1.86
346
1.40
331
1.09
329
1.10
307
0.87
288
0.30
301
0.25
303
0.36
324
0.38
336
0.29
273
0.29
282
AnyNet_C32two views1.16
347
0.62
343
2.40
377
0.57
319
0.55
340
1.41
343
1.34
376
1.18
286
1.24
320
1.49
341
1.42
310
1.39
329
1.20
342
1.55
346
4.82
387
0.29
295
0.28
314
0.29
299
0.34
329
0.38
318
0.42
335
ELAScopylefttwo views1.63
369
0.61
340
0.95
312
0.68
350
0.55
340
3.01
387
1.55
384
2.39
378
2.33
373
3.64
393
3.89
387
2.75
371
2.90
388
2.15
374
2.27
371
0.52
358
0.45
365
0.50
354
0.48
355
0.54
353
0.52
358
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MSC_U_SF_DS_RVCtwo views1.34
355
0.87
360
1.76
367
0.86
361
0.56
343
4.29
393
1.79
391
1.50
351
1.98
365
1.61
348
1.85
345
1.84
354
1.41
352
1.89
365
1.36
346
0.48
352
0.40
356
0.56
358
0.57
365
0.69
362
0.48
352
MANEtwo views4.13
394
0.51
320
0.64
246
0.66
344
0.56
343
6.89
399
0.99
352
7.55
401
12.04
398
6.68
401
8.57
402
10.69
402
9.45
401
7.59
401
6.39
393
0.49
354
0.43
362
0.48
349
0.98
382
0.49
343
0.48
352
Anonymous Stereotwo views0.75
292
0.54
331
1.78
368
0.57
319
0.56
343
0.62
200
1.25
370
0.96
210
0.99
258
0.96
266
0.95
184
0.83
217
0.58
185
1.27
327
1.21
337
0.31
304
0.30
322
0.31
307
0.33
327
0.33
297
0.36
314
ELAS_RVCcopylefttwo views1.60
367
0.61
340
1.01
319
0.70
353
0.56
343
2.00
368
1.89
393
1.96
371
2.65
377
3.33
391
3.26
376
3.03
373
3.41
393
2.49
380
2.09
364
0.52
358
0.45
365
0.50
354
0.48
355
0.54
353
0.52
358
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
RTStwo views1.98
375
0.96
366
11.36
399
0.65
341
0.57
347
2.77
379
1.40
379
1.39
337
2.26
369
1.89
360
2.56
363
1.32
318
1.25
344
5.20
395
4.05
383
0.31
304
0.22
278
0.29
299
0.29
309
0.40
321
0.37
320
RTSAtwo views1.98
375
0.96
366
11.36
399
0.65
341
0.57
347
2.77
379
1.40
379
1.39
337
2.26
369
1.89
360
2.56
363
1.32
318
1.25
344
5.20
395
4.05
383
0.31
304
0.22
278
0.29
299
0.29
309
0.40
321
0.37
320
RPtwo views0.76
293
0.36
272
0.63
241
0.66
344
0.58
349
0.80
255
0.55
279
1.14
272
1.22
317
0.97
271
1.65
331
1.43
333
1.32
348
1.01
289
0.84
279
0.33
322
0.30
322
0.36
324
0.30
311
0.34
304
0.34
307
ccnettwo views0.82
305
0.57
335
0.75
286
0.54
308
0.59
350
1.09
315
0.66
303
1.38
336
0.94
240
1.12
315
1.44
315
1.29
310
0.92
307
0.95
285
1.24
339
0.49
354
0.42
359
0.50
354
0.47
353
0.51
346
0.46
346
FCDSN-DCtwo views1.39
360
0.56
333
0.65
251
0.74
357
0.59
350
1.38
340
0.63
299
1.35
330
1.39
338
3.26
390
4.50
394
4.61
385
2.63
384
1.58
350
1.03
321
0.46
349
0.42
359
0.48
349
0.47
353
0.50
345
0.50
356
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
DGSMNettwo views0.76
293
0.55
332
1.29
346
0.58
321
0.62
352
0.94
285
0.70
319
1.26
313
1.11
300
0.83
202
1.24
282
1.00
263
0.71
255
1.03
296
0.81
275
0.34
328
0.29
319
0.41
337
0.40
342
0.57
357
0.55
361
PVDtwo views1.28
354
0.67
347
1.28
344
0.74
357
0.62
352
1.50
349
0.84
338
1.99
372
2.96
380
2.18
370
2.36
359
1.85
356
1.95
374
1.92
366
1.94
360
0.39
341
0.36
347
0.49
352
0.37
333
0.51
346
0.64
363
RGCtwo views0.79
300
0.59
337
0.71
276
0.65
341
0.65
354
0.92
284
0.58
288
1.29
318
1.05
282
1.07
306
1.45
318
1.47
337
1.03
324
1.21
320
0.88
290
0.32
316
0.30
322
0.48
349
0.40
342
0.37
314
0.37
320
NCC-stereotwo views0.78
297
0.40
292
0.76
291
0.61
331
0.67
355
0.81
260
0.69
314
1.54
358
1.11
300
0.90
241
1.36
298
1.33
320
1.16
335
1.19
316
0.88
290
0.31
304
0.30
322
0.37
328
0.48
355
0.33
297
0.33
303
Abc-Nettwo views0.78
297
0.40
292
0.76
291
0.61
331
0.67
355
0.81
260
0.69
314
1.54
358
1.11
300
0.90
241
1.36
298
1.33
320
1.16
335
1.19
316
0.88
290
0.31
304
0.30
322
0.37
328
0.48
355
0.33
297
0.33
303
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RYNettwo views0.72
287
0.35
267
0.64
246
0.53
302
0.67
355
1.31
337
0.67
305
1.20
292
1.18
310
1.05
300
0.87
153
1.27
307
0.93
312
0.93
276
1.27
343
0.22
242
0.16
218
0.26
272
0.23
263
0.40
321
0.39
328
PASMtwo views0.90
320
0.64
344
1.69
364
0.69
352
0.69
358
0.78
249
0.84
338
1.03
235
1.26
327
1.19
322
1.15
262
1.31
313
0.98
319
1.24
323
1.03
321
0.52
358
0.56
371
0.59
362
0.66
369
0.56
355
0.54
360
CEStwo views0.28
8
0.14
2
0.23
1
0.30
4
0.70
359
0.37
86
0.27
43
0.48
11
0.46
54
0.34
13
0.48
28
0.27
2
0.22
6
0.39
14
0.23
4
0.13
12
0.11
57
0.12
2
0.08
1
0.13
20
0.17
153
DeepPrunerFtwo views0.89
317
0.52
326
3.43
383
0.68
350
0.81
360
0.72
237
0.72
324
1.22
298
1.99
366
0.93
255
1.01
212
0.87
230
0.86
295
1.08
304
0.95
310
0.34
328
0.28
314
0.43
339
0.39
340
0.30
282
0.32
299
NVStereoNet_ROBtwo views1.24
352
0.90
362
1.13
329
0.86
361
0.88
361
1.11
316
0.99
352
1.42
342
1.53
349
1.59
347
2.48
361
2.24
363
1.53
356
1.96
369
1.30
344
0.76
370
0.70
375
0.78
365
1.00
383
0.71
363
0.88
372
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SAMSARAtwo views1.07
339
0.65
345
1.19
337
1.06
369
0.90
362
1.76
363
1.76
390
1.46
346
1.44
343
1.51
342
1.16
267
2.00
360
1.14
333
1.48
344
1.31
345
0.39
341
0.44
364
0.35
321
0.38
336
0.49
343
0.49
355
MADNet+two views2.23
381
2.43
397
10.85
398
1.22
373
0.91
363
2.76
378
1.40
379
2.12
375
1.67
359
1.32
334
1.74
339
1.86
357
1.74
366
6.25
397
4.41
386
0.65
365
0.64
374
0.58
361
0.54
364
0.80
364
0.76
366
PWCKtwo views1.92
374
1.66
389
3.12
381
1.65
378
0.91
363
2.84
381
2.26
396
2.10
374
2.41
375
2.36
374
2.31
355
2.22
362
1.82
368
3.43
386
2.03
363
1.61
389
0.71
377
1.51
375
0.82
376
1.69
377
0.91
373
MFMNet_retwo views1.14
343
0.97
369
1.19
337
0.99
365
0.95
365
1.25
334
1.22
367
1.39
337
1.55
351
1.69
355
1.67
335
1.21
302
1.53
356
1.12
310
0.99
317
0.87
374
0.75
382
0.79
366
0.75
373
0.90
365
0.94
374
UDGtwo views0.88
315
0.82
358
0.67
260
1.00
367
0.96
366
1.02
301
0.57
287
1.13
266
0.99
258
0.90
241
0.97
202
1.31
313
0.99
320
0.85
248
0.84
279
0.54
362
0.32
335
1.77
378
0.40
342
0.94
367
0.66
364
Consistency-Rafttwo views1.01
329
0.81
355
1.24
342
0.84
360
0.97
367
0.81
260
0.84
338
1.30
321
1.59
353
1.05
300
1.68
336
1.12
294
0.91
304
0.92
271
1.11
329
0.65
365
0.74
378
0.79
366
0.90
378
1.06
372
0.79
369
PDISCO_ROBtwo views0.91
321
0.48
310
1.06
322
0.99
365
0.97
367
1.67
360
0.63
299
1.64
364
1.59
353
1.06
303
1.18
271
1.31
313
0.79
278
1.55
346
0.97
313
0.49
354
0.22
278
0.45
342
0.40
342
0.45
336
0.37
320
SQANettwo views0.82
305
0.74
350
0.67
260
1.13
370
0.98
369
1.11
316
0.47
239
1.07
247
0.83
179
0.91
246
1.05
228
1.03
273
0.74
262
1.01
289
0.64
240
0.61
364
0.24
295
1.03
371
0.35
331
1.18
374
0.58
362
SGM+DAISYtwo views1.35
357
0.94
365
1.25
343
0.96
364
1.00
370
1.52
351
1.02
355
1.34
327
1.21
315
2.64
378
2.65
368
2.44
367
1.56
359
1.64
355
1.26
341
0.97
376
0.95
393
0.90
368
0.90
378
0.94
367
0.96
377
anonymitytwo views0.97
326
0.89
361
1.05
321
0.92
363
1.03
371
0.97
292
0.81
334
1.29
318
0.91
223
1.07
306
0.98
203
1.00
263
0.95
316
1.02
294
0.92
306
0.96
375
0.95
393
0.90
368
0.91
381
0.92
366
0.94
374
SPS-STEREOcopylefttwo views1.25
353
0.93
363
1.06
322
1.04
368
1.03
371
1.41
343
0.91
346
1.51
354
1.19
312
2.09
367
1.83
343
1.94
358
1.39
351
1.62
352
1.39
347
0.97
376
0.94
392
0.90
368
0.89
377
0.96
369
0.96
377
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
otakutwo views1.04
334
0.93
363
0.88
308
1.33
376
1.05
373
1.66
358
0.70
319
1.40
340
1.18
310
1.08
309
1.32
295
1.33
320
0.91
304
1.23
322
0.76
265
0.72
368
0.46
367
1.24
373
0.50
360
1.40
375
0.75
365
WAO-7two views1.90
373
1.20
374
1.35
351
1.27
374
1.06
374
2.84
381
1.56
385
3.23
386
3.06
383
2.23
371
3.33
380
3.17
377
2.28
379
3.12
383
2.21
366
1.02
378
0.91
388
1.06
372
1.03
386
1.04
371
0.97
380
Ntrotwo views1.09
341
0.97
369
0.91
310
1.44
377
1.19
375
1.69
361
0.80
333
1.35
330
1.25
324
1.00
282
1.29
291
1.31
313
0.97
318
1.26
325
0.84
279
0.84
372
0.43
362
1.36
374
0.50
360
1.56
376
0.78
367
DDUNettwo views1.06
337
2.56
400
0.68
263
1.21
372
1.26
376
1.03
304
0.69
314
1.11
261
0.94
240
0.96
266
1.22
277
1.27
307
0.82
286
0.93
276
0.72
259
0.84
372
0.38
350
1.99
381
0.60
367
1.10
373
0.85
371
RainbowNettwo views1.35
357
1.49
381
1.19
337
1.88
383
1.45
377
1.48
348
1.07
358
1.61
362
1.55
351
1.20
325
1.59
329
1.54
344
1.13
332
1.34
335
0.97
313
1.36
386
0.70
375
1.82
379
0.79
375
1.71
378
1.07
382
JetBluetwo views2.78
384
1.26
375
7.04
394
1.16
371
1.48
378
8.00
401
6.02
402
2.60
379
1.92
364
2.12
368
2.64
367
3.34
380
3.05
390
6.49
398
3.39
378
0.78
371
0.76
383
0.75
364
0.76
374
0.97
370
1.18
388
ACVNet-4btwo views1.35
357
1.31
377
1.10
325
1.90
384
1.59
379
1.92
365
0.77
329
1.52
357
1.62
357
1.05
300
1.60
330
2.11
361
0.94
313
1.64
355
0.77
269
1.30
383
0.35
345
2.03
385
0.67
370
1.88
384
0.84
370
ACVNet_2two views1.65
370
1.27
376
1.41
358
1.75
380
1.62
380
2.22
370
1.20
364
2.30
377
2.62
376
1.78
357
2.56
363
3.03
373
1.61
361
1.54
345
1.12
332
1.06
379
0.58
373
1.82
379
0.70
372
1.82
380
0.96
377
ACVNet_1two views1.46
362
1.33
378
1.12
328
1.91
385
1.62
380
1.83
364
0.98
350
2.00
373
1.85
363
1.39
339
1.53
325
2.32
365
1.53
356
1.34
335
1.11
329
1.30
383
0.50
369
2.06
387
0.58
366
1.93
386
0.95
376
WAO-8two views2.92
385
1.55
384
1.35
351
1.79
381
1.63
382
5.23
395
1.22
367
4.58
396
12.56
400
2.84
383
4.07
391
4.83
388
2.72
386
3.49
387
2.25
369
1.27
380
0.91
388
1.99
381
1.15
391
1.86
381
1.15
384
Venustwo views2.92
385
1.55
384
1.35
351
1.79
381
1.63
382
5.23
395
1.22
367
4.58
396
12.56
400
2.84
383
4.06
390
4.83
388
2.72
386
3.49
387
2.25
369
1.27
380
0.91
388
1.99
381
1.15
391
1.86
381
1.15
384
WAO-6two views2.04
378
1.50
382
1.16
331
1.70
379
1.67
384
2.69
375
1.44
382
3.06
383
3.63
388
1.98
364
3.27
377
3.54
383
2.07
377
2.36
377
2.22
368
1.31
385
0.91
388
2.04
386
1.22
393
1.73
379
1.27
390
LVEtwo views2.12
380
1.44
380
1.36
355
1.99
386
1.78
385
2.75
377
1.79
391
2.82
380
3.95
390
1.90
362
4.33
393
3.52
382
1.81
367
2.24
375
1.74
354
1.74
391
0.87
387
2.06
387
1.13
389
1.91
385
1.35
391
DispFullNettwo views1.60
367
2.63
401
2.75
379
2.56
394
1.79
386
1.24
333
0.47
239
1.37
335
1.45
344
1.87
359
1.50
322
1.55
345
2.46
380
2.04
371
1.04
324
0.59
363
0.18
243
2.32
390
0.68
371
2.29
390
1.14
383
Deantwo views1.98
375
1.36
379
1.36
355
2.12
387
1.81
387
2.74
376
1.36
377
3.37
390
3.80
389
2.08
366
3.32
379
3.21
378
1.82
368
1.71
359
1.67
351
1.27
380
0.77
384
1.99
381
0.90
378
1.86
381
1.03
381
IMH-64-1two views1.86
371
1.62
386
1.16
331
2.20
388
1.89
388
2.33
371
1.30
372
2.89
381
2.29
371
1.66
352
2.80
371
2.49
368
1.61
361
2.10
372
1.78
357
1.60
387
0.74
378
2.43
391
1.02
384
2.12
387
1.17
386
IMH-64two views1.86
371
1.62
386
1.16
331
2.20
388
1.89
388
2.33
371
1.30
372
2.89
381
2.29
371
1.66
352
2.80
371
2.49
368
1.61
361
2.10
372
1.78
357
1.60
387
0.74
378
2.43
391
1.02
384
2.12
387
1.17
386
IMHtwo views2.04
378
1.62
386
1.20
340
2.20
388
1.89
388
2.91
386
1.30
372
3.11
384
3.03
381
1.81
358
3.35
381
3.03
373
1.90
371
2.48
379
1.80
359
1.66
390
0.77
384
2.45
393
1.04
387
2.15
389
1.19
389
tttwo views6.20
399
0.20
70
5.89
391
3.55
402
2.07
391
11.26
404
19.21
405
11.74
405
5.46
392
2.69
379
2.04
353
4.87
391
6.25
399
3.70
390
7.09
396
8.32
407
11.17
411
4.93
404
5.41
406
5.74
404
2.37
399
TorneroNettwo views4.53
396
1.89
391
1.48
361
2.55
393
2.27
392
13.78
406
1.69
388
4.84
400
23.73
414
2.89
386
7.70
401
7.06
398
2.69
385
4.26
394
3.42
379
1.84
393
0.77
384
2.68
397
1.13
389
2.42
392
1.47
393
TorneroNet-64two views3.44
388
1.86
390
1.42
359
2.58
395
2.28
393
6.87
398
1.68
387
4.70
398
12.03
397
2.31
373
5.59
399
8.25
399
2.55
383
3.97
392
2.73
373
1.81
392
0.74
378
2.57
395
1.07
388
2.35
391
1.44
392
DPSimNet_ROBtwo views3.58
391
2.45
398
8.57
396
2.53
392
2.37
394
2.88
384
3.77
401
3.14
385
3.23
384
4.71
398
3.86
386
4.68
386
4.87
398
4.07
393
5.62
390
2.33
399
2.33
401
2.47
394
2.52
400
2.51
394
2.64
400
KSHMRtwo views2.57
382
1.93
392
1.69
364
2.63
396
2.42
395
2.86
383
2.07
394
3.27
388
6.50
394
2.49
377
3.36
382
3.41
381
1.92
372
2.49
380
1.94
360
2.13
396
1.40
398
2.79
400
1.50
396
2.73
395
1.77
394
UNDER WATERtwo views3.46
389
2.07
394
3.64
385
3.09
399
2.48
396
3.75
391
2.42
398
3.31
389
13.77
402
2.90
387
2.95
374
5.84
393
3.69
394
3.69
389
3.48
381
2.07
395
1.11
395
2.70
398
1.40
394
2.84
398
1.98
396
UNDER WATER-64two views3.53
390
2.01
393
3.94
386
3.22
401
2.49
397
5.41
397
2.60
399
3.43
391
12.41
399
3.03
388
2.68
369
6.07
396
4.04
395
3.79
391
3.33
377
2.02
394
1.24
397
2.63
396
1.46
395
2.78
396
2.08
398
ktntwo views2.98
387
2.25
395
1.73
366
2.84
397
2.53
398
3.76
392
2.15
395
3.70
392
5.47
393
2.75
380
5.17
398
5.94
395
2.48
381
3.23
384
2.46
372
2.34
400
1.44
399
2.78
399
2.03
399
2.45
393
2.01
397
notakertwo views2.76
383
2.29
396
1.80
369
2.96
398
2.58
399
2.90
385
1.75
389
3.24
387
3.05
382
2.78
381
4.24
392
6.15
397
2.51
382
3.34
385
2.75
374
2.31
398
1.18
396
3.00
401
1.65
397
2.84
398
1.97
395
JetRedtwo views5.27
398
5.84
404
12.81
402
2.36
391
2.83
400
12.23
405
10.50
404
4.46
395
3.60
386
3.86
394
3.83
385
4.85
390
4.18
396
6.78
399
11.96
400
2.17
397
2.96
403
2.18
389
1.97
398
3.38
402
2.68
401
HanzoNettwo views6.76
401
2.45
398
4.22
388
3.19
400
2.94
401
3.62
390
2.28
397
4.79
399
7.20
395
14.00
407
13.19
406
17.49
407
22.30
412
13.25
405
6.19
392
4.20
403
1.93
400
3.10
402
2.56
401
3.35
401
2.88
402
MADNet++two views4.03
392
2.70
402
3.44
384
3.72
403
3.44
402
4.44
394
3.52
400
3.95
394
3.61
387
4.46
395
4.98
397
4.10
384
4.58
397
7.00
400
5.89
391
3.74
401
3.67
404
3.27
403
2.71
402
3.70
403
3.66
404
SPstereotwo views24.26
410
4.19
403
6.66
393
4.29
404
3.79
403
45.68
417
78.09
420
63.52
421
33.36
420
27.50
416
26.65
412
39.53
419
33.55
419
42.77
421
51.02
418
3.90
402
3.72
405
5.95
407
4.66
404
3.15
400
3.30
403
PMLtwo views40.80
421
29.24
414
11.87
401
7.20
405
14.47
404
92.13
421
213.69
422
7.63
402
23.35
413
74.72
421
190.14
422
50.17
421
26.15
414
21.39
409
12.70
401
8.76
408
2.92
402
8.45
408
3.25
403
13.26
407
4.42
405
DGTPSM_ROBtwo views12.07
403
8.00
405
20.99
403
8.93
406
16.78
405
10.67
402
30.87
409
9.01
403
15.16
404
6.50
399
15.41
410
9.04
400
14.85
403
9.25
402
21.67
407
4.57
404
8.57
406
5.08
405
9.28
407
5.90
405
10.95
407
DPSMNet_ROBtwo views12.08
404
8.00
405
21.00
404
8.97
407
16.79
406
10.67
402
30.89
410
9.02
404
15.17
405
6.51
400
15.41
410
9.04
400
14.85
403
9.27
403
21.67
407
4.58
405
8.57
406
5.09
406
9.29
408
5.90
405
10.95
407
DPSM_ROBtwo views17.78
406
18.63
409
24.31
410
20.90
409
19.47
407
25.97
409
36.21
412
21.23
413
16.24
407
13.38
405
14.06
408
19.18
410
16.30
406
20.78
407
25.67
410
9.38
409
9.23
409
9.49
409
9.82
409
13.51
408
11.91
410
DPSMtwo views17.78
406
18.63
409
24.31
410
20.90
409
19.47
407
25.97
409
36.21
412
21.23
413
16.24
407
13.38
405
14.06
408
19.18
410
16.30
406
20.78
407
25.67
410
9.38
409
9.23
409
9.49
409
9.82
409
13.51
408
11.91
410
Anonymous_1two views33.25
412
18.26
408
23.92
406
20.54
408
21.28
409
25.59
408
35.94
411
22.01
415
15.57
406
13.33
404
13.49
407
18.08
408
15.29
405
20.36
406
24.60
409
16.28
414
8.84
408
66.59
418
118.00
418
155.73
421
11.23
409
LRCNet_RVCtwo views21.24
409
31.15
415
21.41
405
28.98
412
23.82
410
3.13
388
0.60
292
20.96
412
1.59
353
25.58
412
28.15
415
21.99
412
14.79
402
21.94
413
16.41
404
28.89
418
14.87
412
33.53
414
31.28
414
29.51
416
26.16
414
HaxPigtwo views31.96
411
37.24
417
34.27
412
24.37
411
24.88
411
18.26
407
19.86
406
20.64
411
28.52
415
35.97
418
38.75
418
25.57
413
28.72
415
33.88
415
34.39
415
35.94
419
38.87
419
37.80
415
40.48
415
39.68
417
41.15
419
MEDIAN_ROBtwo views37.38
418
40.85
422
40.60
415
32.31
413
31.85
412
27.20
411
24.55
407
29.10
416
33.19
419
42.09
420
41.76
420
33.35
414
34.39
420
39.78
417
37.07
416
43.64
421
44.10
421
44.12
417
43.40
417
41.51
419
42.76
421
AVERAGE_ROBtwo views37.58
419
40.13
421
40.15
414
34.81
414
33.82
413
28.55
415
25.10
408
32.02
417
34.06
421
41.28
419
40.66
419
34.46
415
34.81
421
39.18
416
37.57
417
42.78
420
43.44
420
43.82
416
43.03
416
40.47
418
41.51
420
CasAABBNettwo views35.74
413
37.43
418
48.72
417
42.22
415
39.20
414
52.24
418
73.12
419
42.61
418
32.62
417
26.78
413
27.95
413
38.58
416
32.60
416
41.67
418
51.65
420
18.74
415
18.57
417
19.15
412
19.77
412
27.20
410
23.98
412
Selective-RAFT-Errortwo views35.84
414
37.49
419
48.83
418
42.26
416
39.24
415
52.30
419
73.09
418
42.66
419
32.61
416
26.80
414
28.30
416
38.84
418
33.51
418
41.68
419
51.59
419
18.82
416
18.58
418
19.17
413
19.80
413
27.28
411
24.05
413
LSMtwo views4.74
397
0.77
352
10.16
397
0.70
353
56.56
416
1.02
301
1.00
354
1.24
309
1.62
357
2.04
365
2.34
357
1.33
320
1.17
337
1.38
342
1.09
328
0.33
322
0.49
368
0.39
333
0.46
350
0.51
346
10.09
406
DLNR_Zeroshot_testpermissivetwo views20.09
408
36.28
416
38.04
413
169.85
421
61.80
417
0.23
5
0.20
1
13.88
407
0.37
30
0.44
39
0.66
68
0.43
53
0.21
5
0.62
134
0.28
42
5.46
406
0.10
9
0.15
40
0.11
15
72.60
420
0.11
9
xxxxx1two views36.64
415
19.51
411
24.21
407
61.66
418
64.63
418
27.28
412
40.10
414
20.25
408
18.63
410
14.07
408
12.97
403
17.26
404
17.36
408
21.70
410
27.93
412
13.18
411
18.50
414
111.26
419
133.37
419
29.24
413
39.73
416
tt_lltwo views36.64
415
19.51
411
24.21
407
61.66
418
64.63
418
27.28
412
40.10
414
20.25
408
18.63
410
14.07
408
12.97
403
17.26
404
17.36
408
21.70
410
27.93
412
13.18
411
18.50
414
111.26
419
133.37
419
29.24
413
39.73
416
fftwo views36.64
415
19.51
411
24.21
407
61.66
418
64.63
418
27.28
412
40.10
414
20.25
408
18.63
410
14.07
408
12.97
403
17.26
404
17.36
408
21.70
410
27.93
412
13.18
411
18.50
414
111.26
419
133.37
419
29.24
413
39.73
416
LSM0two views38.95
420
37.60
420
48.58
416
43.57
417
91.06
421
52.57
420
72.57
417
43.17
420
32.63
418
26.97
415
27.97
414
38.65
417
32.94
417
41.86
420
51.78
421
18.89
417
18.41
413
19.13
411
19.63
411
27.29
412
33.77
415
test_example2two views176.61
422
205.14
423
198.86
422
188.60
422
190.98
422
152.67
422
170.61
421
94.86
422
123.55
422
178.88
422
179.48
421
158.94
422
141.34
422
192.61
422
198.96
422
203.76
422
236.37
422
164.13
422
173.55
422
218.58
422
160.41
422
ASD4two views8.86
407