This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CAStwo views0.37
62
0.13
1
0.27
7
1.34
390
0.31
229
0.46
132
0.38
172
0.50
11
0.48
57
0.35
16
0.52
41
0.24
1
0.19
3
0.30
1
0.28
29
1.03
391
0.08
1
0.12
2
0.08
1
0.12
2
0.28
282
CEStwo views0.29
10
0.15
2
0.25
1
0.31
4
0.71
371
0.36
79
0.27
43
0.51
12
0.47
55
0.34
14
0.48
29
0.27
2
0.23
8
0.40
15
0.24
2
0.13
9
0.11
40
0.12
2
0.08
1
0.13
14
0.32
301
s12784htwo views0.37
62
0.15
2
0.26
4
0.34
9
0.15
1
0.80
266
0.29
58
0.83
160
0.87
191
0.58
70
0.58
56
0.43
53
0.41
113
0.59
80
0.35
91
0.12
4
0.10
8
0.14
13
0.09
4
0.14
37
0.10
1
LoStwo views0.30
13
0.16
4
0.32
12
0.30
3
0.19
8
0.32
61
0.29
58
0.54
18
0.73
128
0.35
16
0.52
41
0.42
47
0.29
42
0.48
42
0.29
37
0.15
68
0.11
40
0.13
8
0.09
4
0.12
2
0.12
10
CREStereo++_RVCtwo views0.32
27
0.16
4
0.25
1
0.32
6
0.24
78
0.27
26
0.22
11
0.48
8
0.89
205
0.47
47
0.80
125
0.29
4
0.25
13
0.37
6
0.34
84
0.14
18
0.09
2
0.13
8
0.52
377
0.14
37
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TANstereotwo views0.31
24
0.16
4
0.34
13
0.31
4
0.17
2
0.55
167
0.23
20
0.46
6
0.56
68
0.60
73
0.69
81
0.37
34
0.26
18
0.36
5
0.28
29
0.16
100
0.16
213
0.13
8
0.10
10
0.14
37
0.15
79
CREStereotwo views0.28
7
0.16
4
0.25
1
0.28
1
0.17
2
0.38
92
0.25
31
0.52
13
0.76
138
0.43
38
0.51
38
0.32
15
0.28
28
0.39
9
0.27
23
0.16
100
0.11
40
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
IGEV+two views0.25
1
0.17
8
0.35
19
0.40
87
0.23
56
0.24
7
0.23
20
0.56
24
0.24
1
0.29
4
0.36
17
0.30
6
0.22
6
0.33
3
0.29
37
0.14
18
0.10
8
0.14
13
0.10
10
0.13
14
0.14
49
Any-RAFTtwo views0.36
44
0.17
8
0.31
10
0.35
12
0.21
25
0.51
145
0.21
5
0.93
190
0.75
135
0.56
65
0.73
87
0.66
163
0.29
42
0.48
42
0.25
3
0.15
68
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
LoS_RVCtwo views0.28
7
0.17
8
0.29
9
0.33
8
0.32
247
0.43
122
0.34
118
0.42
4
0.34
6
0.33
12
0.51
38
0.29
4
0.38
91
0.37
6
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
265
EGLCR-Stereotwo views0.27
3
0.17
8
0.36
26
0.35
12
0.21
25
0.37
87
0.20
1
0.58
28
0.37
15
0.29
4
0.28
4
0.42
47
0.18
1
0.47
35
0.27
23
0.14
18
0.10
8
0.16
58
0.14
70
0.13
14
0.12
10
test-3two views0.35
38
0.17
8
0.48
116
0.40
87
0.22
30
0.42
118
0.22
11
0.66
57
0.80
154
0.72
135
0.45
22
0.63
140
0.29
42
0.45
26
0.32
65
0.13
9
0.09
2
0.17
86
0.13
50
0.13
14
0.11
3
test_1two views0.35
38
0.17
8
0.48
116
0.40
87
0.22
30
0.42
118
0.22
11
0.66
57
0.80
154
0.70
125
0.45
22
0.63
140
0.29
42
0.45
26
0.32
65
0.13
9
0.09
2
0.17
86
0.13
50
0.13
14
0.11
3
PMTNettwo views0.33
31
0.17
8
0.26
4
0.29
2
0.18
5
0.44
128
0.22
11
0.57
27
0.66
97
0.46
45
0.54
46
0.38
37
0.34
72
0.50
50
0.25
3
0.75
380
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
MIF-Stereotwo views0.27
3
0.18
15
0.40
46
0.40
87
0.28
181
0.30
40
0.28
51
0.40
1
0.33
5
0.30
7
0.46
24
0.27
2
0.25
13
0.48
42
0.35
91
0.17
126
0.13
142
0.14
13
0.12
27
0.14
37
0.13
31
MIM_Stereotwo views0.39
90
0.18
15
0.59
203
0.38
45
0.25
102
0.27
26
0.24
24
0.72
111
0.56
68
0.72
135
1.00
214
0.62
136
0.29
42
0.67
157
0.39
129
0.13
9
0.14
173
0.17
86
0.16
117
0.14
37
0.12
10
AEACVtwo views0.28
7
0.18
15
0.34
13
0.36
27
0.45
326
0.27
26
0.27
43
0.41
2
0.39
22
0.31
8
0.46
24
0.31
8
0.36
80
0.38
8
0.25
3
0.14
18
0.11
40
0.15
42
0.13
50
0.13
14
0.13
31
Selective-IGEVtwo views0.25
1
0.18
15
0.37
28
0.37
35
0.20
18
0.27
26
0.25
31
0.59
30
0.25
2
0.27
2
0.26
1
0.34
23
0.18
1
0.62
118
0.23
1
0.12
4
0.10
8
0.14
13
0.11
16
0.13
14
0.11
3
MC-Stereotwo views0.29
10
0.18
15
0.35
19
0.40
87
0.21
25
0.26
19
0.26
41
0.53
16
0.40
30
0.38
19
0.61
63
0.41
45
0.31
55
0.57
71
0.27
23
0.14
18
0.10
8
0.14
13
0.12
27
0.12
2
0.12
10
RCA-Stereotwo views0.36
44
0.18
15
0.37
28
0.38
45
0.23
56
0.31
52
0.33
110
0.70
94
1.25
329
0.45
41
0.65
71
0.46
66
0.43
121
0.40
15
0.29
37
0.14
18
0.10
8
0.14
13
0.12
27
0.12
2
0.12
10
ffftwo views0.39
90
0.18
15
0.46
92
0.35
12
0.19
8
0.30
40
0.30
70
0.73
124
1.08
290
0.70
125
0.79
115
0.44
56
0.62
201
0.47
35
0.37
108
0.14
18
0.10
8
0.14
13
0.11
16
0.12
2
0.15
79
ADStereo(finetuned)two views0.39
90
0.18
15
0.58
195
0.35
12
0.19
8
0.30
40
0.30
70
0.72
111
0.96
241
0.72
135
0.77
103
0.45
63
0.68
239
0.46
30
0.36
100
0.14
18
0.10
8
0.14
13
0.11
16
0.13
14
0.15
79
DEmStereotwo views0.49
181
0.18
15
0.53
167
0.39
61
0.26
131
0.57
182
0.33
110
0.65
55
0.75
135
0.90
241
1.65
345
0.57
101
1.02
330
0.63
127
0.44
166
0.14
18
0.12
87
0.16
58
0.16
117
0.14
37
0.17
136
DRafttwo views0.49
181
0.18
15
0.50
133
0.38
45
0.25
102
0.57
182
0.39
185
0.67
68
0.86
187
1.02
291
1.75
353
0.50
78
0.79
282
0.65
140
0.42
157
0.14
18
0.11
40
0.16
58
0.16
117
0.14
37
0.17
136
RAFT-RH_RVCtwo views0.57
242
0.18
15
0.44
80
0.38
45
0.23
56
0.56
172
0.24
24
0.61
36
0.73
128
1.18
331
3.90
400
0.55
92
0.40
109
0.67
157
0.38
121
0.14
18
0.11
40
0.20
178
0.15
91
0.12
2
0.14
49
XX-Stereotwo views0.38
78
0.18
15
0.52
160
0.58
330
0.38
285
0.39
97
0.20
1
0.62
38
0.31
3
0.47
47
1.29
302
0.72
190
0.25
13
0.59
80
0.28
29
0.16
100
0.11
40
0.17
86
0.16
117
0.14
37
0.11
3
DCANettwo views0.38
78
0.18
15
0.46
92
0.35
12
0.19
8
0.30
40
0.30
70
0.72
111
0.96
241
0.72
135
0.77
103
0.45
63
0.56
176
0.47
35
0.36
100
0.14
18
0.10
8
0.14
13
0.11
16
0.13
14
0.15
79
csctwo views0.39
90
0.18
15
0.46
92
0.35
12
0.19
8
0.30
40
0.30
70
0.73
124
1.08
290
0.70
125
0.79
115
0.44
56
0.62
201
0.47
35
0.37
108
0.14
18
0.10
8
0.14
13
0.11
16
0.12
2
0.15
79
cscssctwo views0.39
90
0.18
15
0.46
92
0.35
12
0.19
8
0.30
40
0.30
70
0.73
124
1.08
290
0.70
125
0.79
115
0.44
56
0.62
201
0.47
35
0.37
108
0.14
18
0.10
8
0.14
13
0.11
16
0.12
2
0.15
79
111two views0.42
125
0.18
15
0.46
92
0.35
12
0.19
8
0.52
152
0.28
51
0.76
137
1.16
314
0.52
55
0.92
178
0.65
151
0.51
157
0.65
140
0.37
108
0.15
68
0.10
8
0.14
13
0.12
27
0.13
14
0.16
99
RAFT-Stereo + iAFFtwo views0.37
62
0.18
15
0.45
85
0.36
27
0.19
8
0.33
67
0.28
51
0.67
68
0.77
140
0.72
135
0.99
210
0.56
98
0.39
104
0.44
23
0.31
59
0.11
1
0.09
2
0.15
42
0.14
70
0.13
14
0.11
3
CFNet-RSSMtwo views0.35
38
0.18
15
0.47
103
0.39
61
0.22
30
0.35
75
0.23
20
0.78
145
0.86
187
0.67
111
0.54
46
0.56
98
0.28
28
0.49
48
0.28
29
0.14
18
0.10
8
0.14
13
0.12
27
0.13
14
0.12
10
Gwc-CoAtRStwo views0.35
38
0.18
15
0.46
92
0.39
61
0.23
56
0.34
73
0.22
11
0.74
130
0.77
140
0.62
79
0.60
60
0.58
116
0.29
42
0.47
35
0.29
37
0.14
18
0.11
40
0.14
13
0.12
27
0.13
14
0.13
31
StereoIMtwo views0.27
3
0.19
34
0.39
37
0.37
35
0.26
131
0.28
32
0.28
51
0.45
5
0.37
15
0.27
2
0.27
2
0.40
41
0.27
23
0.40
15
0.30
49
0.16
100
0.14
173
0.16
58
0.13
50
0.15
67
0.12
10
IGEV_Zeroshot_testtwo views0.36
44
0.19
34
0.71
253
0.41
106
0.29
200
0.30
40
0.25
31
0.86
167
0.40
30
0.64
96
0.57
54
0.56
98
0.25
13
0.56
67
0.29
37
0.15
68
0.11
40
0.16
58
0.14
70
0.14
37
0.14
49
MSKI-zero shottwo views0.33
31
0.19
34
0.36
26
0.41
106
0.22
30
0.32
61
0.22
11
0.65
55
0.45
48
0.52
55
0.64
69
0.60
128
0.19
3
0.78
218
0.27
23
0.14
18
0.11
40
0.14
13
0.10
10
0.13
14
0.13
31
MIF-Stereo (partial)two views0.32
27
0.19
34
0.41
51
0.41
106
0.32
247
0.29
36
0.24
24
0.49
9
0.44
44
0.31
8
0.63
66
0.37
34
0.36
80
0.60
90
0.32
65
0.17
126
0.13
142
0.19
149
0.17
160
0.18
152
0.15
79
RAFT-Testtwo views0.35
38
0.19
34
0.42
59
0.39
61
0.24
78
0.50
140
0.23
20
0.74
130
0.44
44
0.62
79
0.85
147
0.64
147
0.28
28
0.48
42
0.30
49
0.14
18
0.11
40
0.14
13
0.11
16
0.13
14
0.13
31
4D-IteraStereotwo views0.33
31
0.19
34
0.43
75
0.40
87
0.24
78
0.32
61
0.27
43
0.59
30
0.72
119
0.66
104
0.53
43
0.42
47
0.22
6
0.46
30
0.30
49
0.14
18
0.09
2
0.20
178
0.16
117
0.16
104
0.12
10
DCREtwo views0.38
78
0.19
34
0.47
103
0.45
201
0.33
258
0.45
131
0.40
195
0.66
57
0.53
66
0.49
50
0.95
187
0.57
101
0.39
104
0.53
55
0.32
65
0.14
18
0.13
142
0.15
42
0.14
70
0.14
37
0.15
79
test_4two views0.37
62
0.19
34
0.34
13
0.45
201
0.26
131
0.20
2
0.34
118
0.58
28
0.42
39
0.60
73
1.45
330
0.43
53
0.26
18
0.67
157
0.29
37
0.12
4
0.10
8
0.17
86
0.19
210
0.15
67
0.12
10
GMOStereotwo views0.38
78
0.19
34
0.42
59
0.43
168
0.24
78
0.40
102
0.39
185
0.55
19
0.64
89
0.89
234
0.84
140
0.65
151
0.37
84
0.39
9
0.29
37
0.14
18
0.12
87
0.20
178
0.18
186
0.15
67
0.12
10
error versiontwo views0.38
78
0.19
34
0.42
59
0.43
168
0.24
78
0.40
102
0.39
185
0.55
19
0.64
89
0.89
234
0.84
140
0.65
151
0.37
84
0.39
9
0.29
37
0.14
18
0.12
87
0.20
178
0.18
186
0.15
67
0.12
10
test-vtwo views0.38
78
0.19
34
0.42
59
0.43
168
0.24
78
0.40
102
0.39
185
0.55
19
0.64
89
0.89
234
0.84
140
0.65
151
0.37
84
0.39
9
0.29
37
0.14
18
0.12
87
0.20
178
0.18
186
0.15
67
0.12
10
test_3two views0.37
62
0.19
34
0.50
133
0.45
201
0.24
78
0.47
134
0.36
147
0.69
84
0.84
177
0.66
104
0.46
24
0.68
170
0.25
13
0.45
26
0.32
65
0.12
4
0.10
8
0.18
117
0.16
117
0.15
67
0.12
10
CrosDoStereotwo views0.51
202
0.19
34
0.46
92
0.39
61
0.24
78
0.39
97
1.14
371
0.69
84
0.87
191
0.94
256
1.36
312
0.62
136
0.75
267
0.68
165
0.46
175
0.15
68
0.12
87
0.17
86
0.18
186
0.14
37
0.16
99
HHNettwo views0.42
125
0.19
34
0.43
75
0.35
12
0.38
285
0.33
67
0.33
110
0.71
101
0.78
143
0.87
219
1.30
304
0.52
84
0.36
80
0.53
55
0.37
108
0.16
100
0.11
40
0.19
149
0.15
91
0.15
67
0.25
260
DeepStereo_LLtwo views0.51
202
0.19
34
0.46
92
0.39
61
0.24
78
0.39
97
1.14
371
0.69
84
0.87
191
0.94
256
1.36
312
0.62
136
0.75
267
0.68
165
0.46
175
0.15
68
0.12
87
0.17
86
0.18
186
0.14
37
0.16
99
THIR-Stereotwo views0.51
202
0.19
34
0.47
103
0.39
61
0.23
56
0.74
248
0.64
313
0.68
73
0.88
201
1.03
294
1.40
318
0.71
175
0.75
267
0.64
134
0.43
159
0.16
100
0.11
40
0.17
86
0.18
186
0.15
67
0.17
136
PFNettwo views0.43
137
0.19
34
0.61
209
0.44
189
0.24
78
0.42
118
0.31
89
0.76
137
0.81
163
1.01
287
0.74
98
0.67
167
0.41
113
0.75
194
0.39
129
0.16
100
0.10
8
0.20
178
0.15
91
0.16
104
0.14
49
RAFT-345two views0.41
118
0.19
34
0.42
59
0.39
61
0.23
56
0.32
61
0.25
31
0.62
38
0.56
68
0.74
149
1.77
354
0.44
56
0.35
75
0.67
157
0.37
108
0.14
18
0.11
40
0.18
117
0.14
70
0.14
37
0.13
31
test-2two views0.38
78
0.19
34
0.42
59
0.43
168
0.24
78
0.40
102
0.39
185
0.55
19
0.64
89
0.89
234
0.84
140
0.65
151
0.37
84
0.39
9
0.29
37
0.14
18
0.12
87
0.20
178
0.18
186
0.15
67
0.12
10
R-Stereo Traintwo views0.40
104
0.19
34
0.47
103
0.43
168
0.27
160
0.41
111
0.31
89
0.74
130
0.38
18
0.90
241
1.28
298
0.58
116
0.35
75
0.43
21
0.35
91
0.15
68
0.13
142
0.14
13
0.12
27
0.14
37
0.14
49
RAFT-Stereopermissivetwo views0.40
104
0.19
34
0.47
103
0.43
168
0.27
160
0.41
111
0.31
89
0.74
130
0.38
18
0.90
241
1.28
298
0.58
116
0.35
75
0.43
21
0.35
91
0.15
68
0.13
142
0.14
13
0.12
27
0.14
37
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
CASnettwo views0.30
13
0.20
55
0.34
13
0.42
131
0.17
2
0.25
17
0.24
24
0.53
16
0.56
68
0.54
62
0.54
46
0.39
40
0.24
11
0.41
18
0.26
8
0.15
68
0.10
8
0.22
232
0.18
186
0.18
152
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
DisPMtwo views0.40
104
0.20
55
0.50
133
0.42
131
0.27
160
0.24
7
0.30
70
0.68
73
0.61
84
0.88
227
0.87
157
0.59
125
0.32
61
0.80
222
0.34
84
0.19
193
0.12
87
0.19
149
0.17
160
0.16
104
0.21
211
RAFT_CTSACEtwo views0.46
154
0.20
55
0.48
116
0.46
224
0.27
160
0.34
73
0.39
185
0.62
38
0.74
133
0.78
177
1.44
327
0.86
237
0.38
91
1.09
304
0.27
23
0.13
9
0.13
142
0.18
117
0.16
117
0.16
104
0.12
10
iRaft-Stereo_20wtwo views0.42
125
0.20
55
0.63
218
0.39
61
0.27
160
0.33
67
0.25
31
1.76
379
0.37
15
0.73
142
0.53
43
0.63
140
0.42
118
0.86
241
0.29
37
0.14
18
0.11
40
0.14
13
0.13
50
0.15
67
0.15
79
GLC_STEREOtwo views0.30
13
0.20
55
0.28
8
0.44
189
0.19
8
0.31
52
0.25
31
0.49
9
0.43
42
0.37
18
0.47
28
0.40
41
0.23
8
0.51
52
0.37
108
0.15
68
0.18
249
0.19
149
0.16
117
0.16
104
0.14
49
PFNet+two views0.41
118
0.20
55
0.53
167
0.40
87
0.25
102
0.28
32
0.22
11
0.66
57
0.76
138
0.85
207
0.79
115
0.63
140
0.34
72
0.75
194
0.37
108
0.20
212
0.14
173
0.23
246
0.20
229
0.17
128
0.21
211
AAGNettwo views1.40
370
0.20
55
0.52
160
0.45
201
0.26
131
0.29
36
0.29
58
0.67
68
0.71
117
0.97
276
0.86
151
0.66
163
0.60
195
0.66
148
19.98
420
0.17
126
0.11
40
0.19
149
0.15
91
0.20
202
0.13
31
ASMatchtwo views0.48
172
0.20
55
0.47
103
0.39
61
0.28
181
0.37
87
0.26
41
0.76
137
0.72
119
0.77
166
2.29
369
0.61
130
0.51
157
0.64
134
0.39
129
0.15
68
0.12
87
0.17
86
0.15
91
0.14
37
0.22
226
SST-Stereotwo views0.41
118
0.20
55
0.48
116
0.43
168
0.25
102
0.25
17
0.21
5
0.68
73
0.50
61
1.08
315
0.79
115
0.71
175
0.42
118
0.81
226
0.38
121
0.17
126
0.11
40
0.20
178
0.16
117
0.19
186
0.15
79
RAFT_R40two views0.41
118
0.20
55
0.47
103
0.44
189
0.25
102
0.23
6
0.25
31
0.69
84
0.70
111
0.98
279
0.78
111
0.72
190
0.43
121
0.80
222
0.39
129
0.17
126
0.11
40
0.20
178
0.16
117
0.18
152
0.15
79
GrayStereotwo views0.49
181
0.20
55
0.44
80
0.47
242
0.29
200
0.51
145
0.62
307
0.71
101
0.66
97
1.04
300
1.46
331
0.77
214
0.73
262
0.58
75
0.35
91
0.15
68
0.12
87
0.17
86
0.17
160
0.15
67
0.30
291
IRAFT_RVCtwo views0.43
137
0.20
55
0.52
160
0.45
201
0.24
78
0.26
19
0.51
266
0.76
137
0.78
143
0.77
166
0.80
125
0.73
194
0.50
152
0.74
189
0.39
129
0.18
158
0.10
8
0.21
220
0.17
160
0.17
128
0.15
79
cross-rafttwo views0.34
36
0.20
55
0.38
34
0.45
201
0.24
78
0.32
61
0.35
140
0.77
142
0.42
39
0.62
79
0.77
103
0.58
116
0.27
23
0.46
30
0.31
59
0.12
4
0.10
8
0.15
42
0.13
50
0.15
67
0.12
10
test-1two views0.37
62
0.20
55
0.76
270
0.47
242
0.27
160
0.44
128
0.36
147
0.63
44
0.65
94
0.49
50
0.67
79
0.54
90
0.35
75
0.42
19
0.30
49
0.14
18
0.12
87
0.16
58
0.14
70
0.15
67
0.18
158
GMM-Stereotwo views0.44
143
0.20
55
0.39
37
0.42
131
0.25
102
0.50
140
0.44
233
0.72
111
0.57
72
0.77
166
1.37
315
0.76
209
0.38
91
0.62
118
0.34
84
0.15
68
0.10
8
0.20
178
0.19
210
0.17
128
0.28
282
Prome-Stereotwo views0.46
154
0.20
55
0.37
28
0.45
201
0.26
131
0.40
102
0.42
220
0.69
84
0.49
58
0.96
273
1.84
357
0.58
116
0.64
213
0.63
127
0.32
65
0.15
68
0.11
40
0.16
58
0.14
70
0.17
128
0.30
291
iRaftStereo_RVCtwo views0.33
31
0.20
55
0.40
46
0.40
87
0.23
56
0.31
52
0.29
58
0.70
94
0.55
67
0.49
50
0.66
74
0.37
34
0.23
8
0.47
35
0.33
75
0.14
18
0.11
40
0.19
149
0.17
160
0.16
104
0.13
31
raft+_RVCtwo views0.38
78
0.20
55
0.38
34
0.39
61
0.27
160
0.44
128
0.35
140
0.81
154
0.90
209
0.52
55
0.78
111
0.50
78
0.29
42
0.56
67
0.41
154
0.15
68
0.12
87
0.17
86
0.15
91
0.14
37
0.13
31
raftrobusttwo views0.35
38
0.20
55
0.39
37
0.43
168
0.29
200
0.31
52
0.25
31
0.73
124
0.66
97
0.59
71
0.56
53
0.44
56
0.45
133
0.55
63
0.31
59
0.16
100
0.12
87
0.14
13
0.12
27
0.12
2
0.14
49
AFF-stereotwo views0.39
90
0.20
55
0.42
59
0.37
35
0.22
30
0.27
26
0.31
89
0.67
68
0.72
119
0.66
104
1.12
259
0.75
203
0.38
91
0.57
71
0.35
91
0.11
1
0.09
2
0.16
58
0.16
117
0.14
37
0.12
10
MyStereo8two views0.42
125
0.21
75
0.64
222
0.43
168
0.29
200
0.55
167
0.28
51
0.72
111
0.50
61
0.73
142
1.01
218
0.57
101
0.44
126
0.52
53
0.52
202
0.15
68
0.12
87
0.16
58
0.14
70
0.19
186
0.21
211
AE-Stereotwo views0.36
44
0.21
75
0.47
103
0.49
260
0.31
229
0.50
140
0.34
118
0.72
111
0.73
128
0.34
14
0.55
51
0.52
84
0.28
28
0.48
42
0.31
59
0.13
9
0.13
142
0.18
117
0.16
117
0.15
67
0.14
49
CoDeXtwo views0.48
172
0.21
75
0.53
167
0.43
168
0.25
102
0.74
248
0.38
172
1.36
332
0.82
171
0.84
197
0.96
191
0.63
140
0.57
185
0.63
127
0.40
149
0.17
126
0.13
142
0.17
86
0.15
91
0.16
104
0.15
79
test crocotwo views0.32
27
0.21
75
0.59
203
0.40
87
0.29
200
0.27
26
0.30
70
0.46
6
0.36
12
0.32
11
0.66
74
0.31
8
0.33
66
0.68
165
0.32
65
0.18
158
0.13
142
0.20
178
0.15
91
0.18
152
0.13
31
anonymousdsp2two views0.37
62
0.21
75
0.49
124
0.38
45
0.24
78
0.48
139
0.31
89
0.91
180
0.68
104
0.57
67
0.51
38
0.51
81
0.34
72
0.59
80
0.33
75
0.14
18
0.11
40
0.14
13
0.10
10
0.16
104
0.16
99
anonymousatwo views0.51
202
0.21
75
0.47
103
0.39
61
0.25
102
0.89
291
0.36
147
0.78
145
0.63
85
0.88
227
1.54
338
1.09
304
0.67
231
0.53
55
0.46
175
0.17
126
0.14
173
0.19
149
0.21
246
0.16
104
0.16
99
riskmintwo views0.41
118
0.21
75
0.44
80
0.34
9
0.24
78
0.58
186
0.32
101
0.70
94
0.86
187
0.52
55
0.57
54
0.78
216
0.60
195
0.58
75
0.39
129
0.17
126
0.12
87
0.19
149
0.13
50
0.19
186
0.22
226
IPLGtwo views0.40
104
0.21
75
0.64
222
0.41
106
0.25
102
0.54
161
0.27
43
0.77
142
0.68
104
0.85
207
0.82
133
0.33
20
0.32
61
0.64
134
0.49
194
0.13
9
0.11
40
0.16
58
0.14
70
0.14
37
0.14
49
LCNettwo views0.42
125
0.21
75
0.34
13
0.44
189
0.24
78
0.47
134
0.28
51
0.69
84
0.57
72
0.72
135
1.03
231
0.66
163
0.58
188
0.60
90
0.35
91
0.15
68
0.10
8
0.19
149
0.19
210
0.22
229
0.37
324
STrans-v2two views0.47
163
0.21
75
0.49
124
0.41
106
0.25
102
0.54
161
0.49
260
1.16
265
0.82
171
0.67
111
1.05
237
0.71
175
0.67
231
0.74
189
0.34
84
0.15
68
0.11
40
0.17
86
0.15
91
0.14
37
0.14
49
TransformOpticalFlowtwo views0.46
154
0.21
75
0.49
124
0.42
131
0.24
78
0.36
79
0.46
240
1.04
225
0.84
177
0.67
111
1.14
267
0.73
194
0.56
176
0.78
218
0.33
75
0.15
68
0.10
8
0.17
86
0.15
91
0.14
37
0.15
79
NF-Stereotwo views0.39
90
0.21
75
0.51
141
0.42
131
0.25
102
0.26
19
0.30
70
0.71
101
0.72
119
0.66
104
0.77
103
0.57
101
0.31
55
0.69
171
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.16
104
0.27
273
OCTAStereotwo views0.39
90
0.21
75
0.51
141
0.42
131
0.25
102
0.26
19
0.30
70
0.71
101
0.72
119
0.66
104
0.77
103
0.58
116
0.31
55
0.69
171
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.16
104
0.27
273
PSM-softLosstwo views0.40
104
0.21
75
0.53
167
0.42
131
0.26
131
0.29
36
0.34
118
0.70
94
0.49
58
0.63
86
0.82
133
0.59
125
0.33
66
0.75
194
0.43
159
0.20
212
0.12
87
0.20
178
0.18
186
0.17
128
0.22
226
KMStereotwo views0.40
104
0.21
75
0.53
167
0.42
131
0.26
131
0.29
36
0.34
118
0.70
94
0.49
58
0.63
86
0.82
133
0.59
125
0.33
66
0.75
194
0.43
159
0.20
212
0.12
87
0.20
178
0.18
186
0.17
128
0.22
226
NRIStereotwo views0.37
62
0.21
75
0.49
124
0.42
131
0.23
56
0.33
67
0.25
31
0.68
73
0.59
75
0.65
100
0.63
66
0.55
92
0.37
84
0.67
157
0.40
149
0.16
100
0.12
87
0.18
117
0.15
91
0.17
128
0.15
79
PSM-AADtwo views0.48
172
0.21
75
0.39
37
0.44
189
0.23
56
0.56
172
0.47
245
0.67
68
0.73
128
1.08
315
1.12
259
0.58
116
0.87
306
0.63
127
0.33
75
0.15
68
0.11
40
0.25
270
0.26
306
0.18
152
0.42
342
FTStereotwo views0.56
238
0.21
75
0.39
37
0.42
131
0.25
102
0.39
97
0.73
332
0.69
84
0.45
48
1.09
319
3.23
389
0.69
172
0.71
251
0.55
63
0.34
84
0.15
68
0.13
142
0.19
149
0.17
160
0.15
67
0.32
301
KYRafttwo views0.48
172
0.21
75
0.41
51
0.45
201
0.23
56
0.43
122
0.36
147
0.68
73
0.45
48
0.94
256
1.72
351
0.78
216
0.40
109
0.65
140
0.32
65
0.16
100
0.11
40
0.18
117
0.22
264
0.17
128
0.76
379
RE-Stereotwo views0.39
90
0.21
75
0.51
141
0.42
131
0.25
102
0.26
19
0.30
70
0.71
101
0.72
119
0.66
104
0.77
103
0.57
101
0.31
55
0.70
178
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.16
104
0.27
273
Pruner-Stereotwo views0.39
90
0.21
75
0.51
141
0.41
106
0.25
102
0.22
4
0.24
24
0.71
101
0.59
75
0.90
241
0.75
100
0.67
167
0.30
52
0.64
134
0.39
129
0.19
193
0.12
87
0.20
178
0.17
160
0.17
128
0.19
168
TVStereotwo views0.39
90
0.21
75
0.51
141
0.42
131
0.25
102
0.26
19
0.30
70
0.71
101
0.72
119
0.66
104
0.77
103
0.57
101
0.31
55
0.70
178
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.16
104
0.27
273
EAI-Stereotwo views0.36
44
0.21
75
0.46
92
0.40
87
0.22
30
0.33
67
0.36
147
1.22
288
0.32
4
0.52
55
0.75
100
0.35
27
0.28
28
0.65
140
0.30
49
0.14
18
0.11
40
0.14
13
0.14
70
0.14
37
0.13
31
MyStereo06two views0.40
104
0.22
98
0.65
227
0.42
131
0.29
200
0.43
122
0.48
250
1.05
231
0.43
42
0.64
96
0.54
46
0.78
216
0.27
23
0.53
55
0.31
59
0.14
18
0.13
142
0.18
117
0.17
160
0.17
128
0.17
136
MyStereo05two views0.46
154
0.22
98
0.51
141
0.42
131
0.29
200
0.43
122
0.48
250
0.96
202
1.12
299
0.77
166
0.62
65
0.51
81
0.57
185
0.79
220
0.43
159
0.14
18
0.13
142
0.18
117
0.17
160
0.17
128
0.17
136
ff7two views0.30
13
0.22
98
0.42
59
0.37
35
0.26
131
0.31
52
0.34
118
0.66
57
0.35
7
0.39
22
0.33
10
0.31
8
0.28
28
0.61
96
0.26
8
0.14
18
0.11
40
0.17
86
0.12
27
0.15
67
0.16
99
fffftwo views0.30
13
0.22
98
0.42
59
0.37
35
0.26
131
0.31
52
0.34
118
0.66
57
0.35
7
0.39
22
0.33
10
0.31
8
0.28
28
0.61
96
0.26
8
0.14
18
0.11
40
0.17
86
0.12
27
0.15
67
0.16
99
11ttwo views0.30
13
0.22
98
0.42
59
0.37
35
0.26
131
0.31
52
0.34
118
0.66
57
0.35
7
0.39
22
0.33
10
0.31
8
0.28
28
0.61
96
0.26
8
0.14
18
0.11
40
0.17
86
0.12
27
0.15
67
0.16
99
HHtwo views0.37
62
0.22
98
0.49
124
0.41
106
0.26
131
0.36
79
0.30
70
0.87
168
0.41
35
0.45
41
0.59
58
0.78
216
0.43
121
0.77
209
0.26
8
0.15
68
0.11
40
0.15
42
0.14
70
0.14
37
0.14
49
HanStereotwo views0.37
62
0.22
98
0.49
124
0.41
106
0.26
131
0.36
79
0.30
70
0.87
168
0.41
35
0.45
41
0.59
58
0.78
216
0.43
121
0.77
209
0.26
8
0.15
68
0.11
40
0.15
42
0.14
70
0.14
37
0.14
49
anonymousdsptwo views0.30
13
0.22
98
0.41
51
0.38
45
0.26
131
0.31
52
0.35
140
0.68
73
0.36
12
0.40
30
0.33
10
0.32
15
0.28
28
0.62
118
0.26
8
0.14
18
0.10
8
0.17
86
0.12
27
0.15
67
0.16
99
knoymoustwo views0.37
62
0.22
98
0.34
13
0.32
6
0.22
30
0.38
92
0.29
58
0.63
44
0.65
94
0.69
121
0.69
81
0.60
128
0.40
109
0.61
96
0.36
100
0.17
126
0.11
40
0.20
178
0.12
27
0.18
152
0.19
168
ProNettwo views0.30
13
0.22
98
0.41
51
0.36
27
0.25
102
0.33
67
0.42
220
0.62
38
0.41
35
0.33
12
0.31
6
0.32
15
0.28
28
0.60
90
0.28
29
0.13
9
0.11
40
0.16
58
0.13
50
0.13
14
0.14
49
DCANet-4two views0.38
78
0.22
98
0.58
195
0.35
12
0.19
8
0.30
40
0.30
70
0.69
84
0.97
246
0.70
125
0.79
115
0.40
41
0.46
139
0.46
30
0.37
108
0.14
18
0.10
8
0.14
13
0.11
16
0.12
2
0.15
79
ccc-4two views0.30
13
0.22
98
0.42
59
0.37
35
0.26
131
0.31
52
0.34
118
0.66
57
0.35
7
0.39
22
0.33
10
0.31
8
0.28
28
0.61
96
0.26
8
0.14
18
0.11
40
0.17
86
0.12
27
0.15
67
0.16
99
tttwo views6.21
412
0.22
98
5.88
403
3.55
417
2.07
406
11.25
418
19.19
419
11.84
420
5.47
407
2.71
392
2.18
368
4.87
402
6.25
412
3.71
401
7.09
406
8.31
422
11.17
426
4.91
418
5.39
421
5.72
419
2.42
411
IGEV-Stereopermissivetwo views0.30
13
0.22
98
0.41
51
0.38
45
0.26
131
0.30
40
0.35
140
0.68
73
0.36
12
0.40
30
0.33
10
0.32
15
0.28
28
0.62
118
0.26
8
0.14
18
0.10
8
0.17
86
0.12
27
0.15
67
0.16
99
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
iRaft-Stereo_5wtwo views0.46
154
0.22
98
0.53
167
0.43
168
0.30
219
0.30
40
0.53
276
0.66
57
0.71
117
0.62
79
0.89
163
1.01
278
0.67
231
0.76
202
0.67
248
0.13
9
0.12
87
0.17
86
0.15
91
0.15
67
0.17
136
MIPNettwo views0.39
90
0.22
98
0.66
229
0.40
87
0.25
102
0.53
155
0.29
58
0.78
145
0.74
133
0.68
118
0.60
60
0.40
41
0.48
146
0.45
26
0.39
129
0.14
18
0.11
40
0.16
58
0.13
50
0.14
37
0.14
49
IPLGRtwo views0.40
104
0.22
98
0.70
250
0.40
87
0.22
30
0.51
145
0.29
58
0.78
145
0.78
143
0.80
181
0.77
103
0.44
56
0.41
113
0.48
42
0.40
149
0.14
18
0.12
87
0.16
58
0.14
70
0.16
104
0.14
49
IIG-Stereotwo views0.45
149
0.22
98
0.48
116
0.51
283
0.26
131
0.43
122
0.21
5
0.73
124
0.80
154
0.84
197
0.95
187
0.82
230
0.46
139
0.95
270
0.37
108
0.16
100
0.12
87
0.19
149
0.15
91
0.15
67
0.12
10
DeepStereo_RVCtwo views0.37
62
0.22
98
0.51
141
0.41
106
0.24
78
0.26
19
0.22
11
0.64
54
0.40
30
0.69
121
0.67
79
0.57
101
0.50
152
0.58
75
0.42
157
0.17
126
0.12
87
0.18
117
0.16
117
0.19
186
0.19
168
rafts_anoytwo views0.38
78
0.22
98
0.38
34
0.43
168
0.28
181
0.32
61
0.32
101
0.70
94
0.91
215
0.59
71
0.66
74
0.45
63
0.33
66
0.49
48
0.41
154
0.16
100
0.12
87
0.21
220
0.23
273
0.18
152
0.16
99
SFCPSMtwo views0.48
172
0.22
98
0.59
203
0.41
106
0.27
160
0.85
283
0.36
147
1.39
335
0.79
149
0.81
185
0.85
147
0.54
90
0.50
152
0.60
90
0.39
129
0.18
158
0.14
173
0.18
117
0.20
229
0.17
128
0.16
99
GANet-RSSMtwo views0.49
181
0.22
98
0.42
59
0.39
61
0.26
131
0.58
186
0.41
215
1.12
252
0.82
171
0.73
142
1.02
220
0.88
244
0.75
267
0.67
157
0.48
187
0.22
244
0.16
213
0.18
117
0.19
210
0.18
152
0.18
158
DIP-Stereotwo views0.40
104
0.22
98
0.58
195
0.42
131
0.29
200
0.62
198
0.27
43
0.87
168
0.42
39
0.65
100
0.86
151
0.52
84
0.35
75
0.67
157
0.43
159
0.15
68
0.13
142
0.17
86
0.14
70
0.15
67
0.17
136
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
MyStereo07two views0.33
31
0.23
121
0.37
28
0.43
168
0.29
200
0.40
102
0.48
250
0.78
145
0.38
18
0.38
19
0.34
16
0.32
15
0.30
52
0.63
127
0.28
29
0.14
18
0.13
142
0.19
149
0.17
160
0.18
152
0.17
136
MyStereo04two views0.45
149
0.23
121
0.52
160
0.43
168
0.29
200
0.40
102
0.48
250
1.02
219
1.12
299
0.62
79
0.58
56
0.55
92
0.56
176
0.77
209
0.45
171
0.14
18
0.13
142
0.19
149
0.17
160
0.18
152
0.17
136
11t1two views0.38
78
0.23
121
0.49
124
0.36
27
0.23
56
0.61
194
0.31
89
0.74
130
0.47
55
0.62
79
0.55
51
0.55
92
0.49
150
0.58
75
0.45
171
0.18
158
0.15
192
0.16
58
0.13
50
0.17
128
0.19
168
1111xtwo views0.64
277
0.23
121
0.61
209
0.39
61
0.21
25
0.68
235
0.46
240
1.32
322
1.03
268
0.76
158
1.02
220
0.95
263
0.72
258
1.13
308
2.15
375
0.18
158
0.18
249
0.18
117
0.19
210
0.20
202
0.19
168
Selective-RAFTtwo views0.36
44
0.23
121
0.54
179
0.45
201
0.22
30
0.64
211
0.27
43
0.62
38
0.65
94
0.41
32
0.38
19
0.55
92
0.39
104
0.59
80
0.36
100
0.14
18
0.12
87
0.14
13
0.12
27
0.16
104
0.14
49
CIPLGtwo views0.42
125
0.23
121
0.71
253
0.45
201
0.33
258
0.51
145
0.33
110
0.68
73
0.68
104
0.84
197
0.96
191
0.47
70
0.33
66
0.56
67
0.52
202
0.17
126
0.12
87
0.16
58
0.14
70
0.13
14
0.16
99
IPLGR_Ctwo views0.42
125
0.23
121
0.71
253
0.46
224
0.33
258
0.51
145
0.34
118
0.69
84
0.69
109
0.84
197
0.92
178
0.46
66
0.33
66
0.53
55
0.53
211
0.17
126
0.12
87
0.16
58
0.14
70
0.13
14
0.16
99
ACREtwo views0.42
125
0.23
121
0.73
263
0.45
201
0.33
258
0.50
140
0.33
110
0.68
73
0.70
111
0.82
186
0.92
178
0.46
66
0.32
61
0.53
55
0.52
202
0.17
126
0.12
87
0.15
42
0.14
70
0.13
14
0.16
99
OMP-Stereotwo views0.43
137
0.23
121
0.50
133
0.53
304
0.25
102
0.36
79
0.24
24
0.73
124
0.81
163
0.78
177
0.64
69
0.88
244
0.41
113
0.95
270
0.36
100
0.15
68
0.12
87
0.20
178
0.15
91
0.16
104
0.13
31
CRE-IMPtwo views0.37
62
0.23
121
0.53
167
0.42
131
0.24
78
0.40
102
0.21
5
0.61
36
0.45
48
0.65
100
0.73
87
0.53
88
0.37
84
0.63
127
0.40
149
0.18
158
0.11
40
0.19
149
0.16
117
0.21
211
0.19
168
CroCo-Stereocopylefttwo views0.27
3
0.23
121
0.40
46
0.49
260
0.22
30
0.20
2
0.29
58
0.55
19
0.45
48
0.29
4
0.27
2
0.42
47
0.26
18
0.30
1
0.26
8
0.15
68
0.13
142
0.13
8
0.12
27
0.16
104
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.46
154
0.23
121
0.52
160
0.48
251
0.27
160
0.55
167
0.47
245
0.68
73
0.60
82
0.83
191
0.82
133
1.00
274
0.56
176
0.76
202
0.37
108
0.18
158
0.16
213
0.22
232
0.20
229
0.16
104
0.14
49
RALCasStereoNettwo views0.37
62
0.23
121
0.41
51
0.44
189
0.28
181
0.36
79
0.38
172
0.66
57
0.67
103
0.51
53
0.74
98
0.51
81
0.29
42
0.64
134
0.38
121
0.17
126
0.14
173
0.15
42
0.13
50
0.17
128
0.17
136
222two views1.25
360
0.23
121
0.53
167
0.38
45
0.23
56
0.78
254
0.37
159
1.41
341
0.93
223
0.97
276
1.13
265
0.74
199
0.71
251
0.74
189
14.86
416
0.20
212
0.16
213
0.17
86
0.16
117
0.18
152
0.20
195
test_xeample3two views0.31
24
0.23
121
0.56
186
0.36
27
0.26
131
0.35
75
0.32
101
0.60
32
0.38
18
0.44
40
0.32
9
0.33
20
0.28
28
0.66
148
0.27
23
0.14
18
0.12
87
0.16
58
0.12
27
0.14
37
0.14
49
xxxxtwo views1.07
345
0.23
121
0.53
167
0.38
45
0.22
30
0.83
277
0.36
147
1.41
341
0.95
234
0.75
152
0.99
210
0.97
267
0.64
213
0.70
178
11.37
412
0.20
212
0.17
239
0.18
117
0.17
160
0.19
186
0.20
195
test_xeamplepermissivetwo views1.06
343
0.23
121
0.51
141
0.37
35
0.22
30
0.71
240
0.39
185
1.31
317
0.92
221
0.87
219
1.08
251
0.70
174
0.64
213
0.75
194
11.43
413
0.19
193
0.16
213
0.18
117
0.17
160
0.18
152
0.19
168
FENettwo views0.43
137
0.23
121
0.40
46
0.40
87
0.24
78
0.54
161
0.33
110
0.83
160
0.72
119
0.74
149
0.73
87
0.63
140
0.56
176
0.65
140
0.45
171
0.19
193
0.13
142
0.19
149
0.17
160
0.18
152
0.20
195
HSM-Net_RVCpermissivetwo views0.55
229
0.23
121
0.37
28
0.38
45
0.22
30
0.86
285
0.40
195
1.31
317
0.93
223
0.92
249
1.15
269
1.26
320
0.71
251
0.75
194
0.53
211
0.17
126
0.14
173
0.16
58
0.15
91
0.17
128
0.17
136
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
SMFormertwo views0.53
218
0.24
140
0.67
233
0.35
12
0.20
18
0.63
203
0.34
118
1.26
300
1.06
278
0.85
207
1.02
220
0.71
175
0.66
222
0.96
273
0.60
231
0.19
193
0.16
213
0.18
117
0.17
160
0.19
186
0.20
195
ttatwo views0.53
218
0.24
140
0.67
233
0.35
12
0.20
18
0.63
203
0.34
118
1.26
300
1.06
278
0.85
207
1.02
220
0.71
175
0.66
222
0.96
273
0.60
231
0.19
193
0.16
213
0.18
117
0.17
160
0.15
67
0.16
99
qqq1two views0.51
202
0.24
140
0.67
233
0.35
12
0.20
18
0.63
203
0.34
118
1.26
300
1.06
278
0.85
207
1.02
220
0.71
175
0.66
222
0.96
273
0.36
100
0.19
193
0.16
213
0.14
13
0.12
27
0.15
67
0.16
99
fff1two views0.51
202
0.24
140
0.67
233
0.35
12
0.20
18
0.63
203
0.34
118
1.26
300
1.06
278
0.85
207
1.02
220
0.71
175
0.66
222
0.96
273
0.36
100
0.19
193
0.16
213
0.14
13
0.12
27
0.15
67
0.16
99
IGEVStereo-DCAtwo views0.30
13
0.24
140
0.42
59
0.36
27
0.27
160
0.38
92
0.34
118
0.66
57
0.35
7
0.39
22
0.31
6
0.35
27
0.27
23
0.62
118
0.25
3
0.16
100
0.12
87
0.16
58
0.12
27
0.14
37
0.16
99
rrrtwo views0.31
24
0.24
140
0.56
186
0.36
27
0.27
160
0.38
92
0.31
89
0.56
24
0.44
44
0.39
22
0.31
6
0.35
27
0.27
23
0.62
118
0.25
3
0.16
100
0.12
87
0.16
58
0.13
50
0.14
37
0.14
49
EKT-Stereotwo views0.36
44
0.24
140
0.44
80
0.44
189
0.30
219
0.37
87
0.30
70
0.72
111
0.68
104
0.47
47
0.63
66
0.49
77
0.28
28
0.59
80
0.34
84
0.19
193
0.14
173
0.18
117
0.15
91
0.16
104
0.18
158
TestStereo1two views0.44
143
0.24
140
0.45
85
0.52
297
0.25
102
0.35
75
0.40
195
0.81
154
0.94
230
0.70
125
0.96
191
0.48
73
0.45
133
0.94
265
0.33
75
0.16
100
0.13
142
0.18
117
0.16
117
0.15
67
0.14
49
raft_robusttwo views0.41
118
0.24
140
0.39
37
0.43
168
0.22
30
0.40
102
0.33
110
0.80
152
0.98
250
0.80
181
0.88
160
0.41
45
0.32
61
0.89
250
0.30
49
0.14
18
0.12
87
0.16
58
0.18
186
0.15
67
0.13
31
RAFT+CT+SAtwo views0.40
104
0.24
140
0.40
46
0.53
304
0.27
160
0.28
32
0.45
237
0.79
150
0.81
163
0.51
53
0.90
166
0.42
47
0.39
104
0.81
226
0.33
75
0.15
68
0.11
40
0.18
117
0.18
186
0.15
67
0.15
79
SA-5Ktwo views0.44
143
0.24
140
0.45
85
0.52
297
0.25
102
0.35
75
0.40
195
0.81
154
0.94
230
0.70
125
0.96
191
0.48
73
0.45
133
0.94
265
0.33
75
0.16
100
0.13
142
0.18
117
0.16
117
0.15
67
0.14
49
GwcNet-ADLtwo views0.45
149
0.24
140
0.51
141
0.46
224
0.30
219
0.41
111
0.40
195
0.95
198
0.98
250
0.73
142
0.78
111
0.61
130
0.41
113
0.67
157
0.55
216
0.20
212
0.14
173
0.15
42
0.14
70
0.19
186
0.22
226
Patchmatch Stereo++two views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.21
5
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.61
96
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.31
89
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.59
80
0.38
121
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
ROB_FTStereo_v2two views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.31
89
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.60
90
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
ROB_FTStereotwo views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.20
1
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.60
90
0.38
121
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
HUI-Stereotwo views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.22
11
0.63
44
0.40
30
0.64
96
0.73
87
0.58
116
0.38
91
0.53
55
0.38
121
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
iGMRVCtwo views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.29
58
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.61
96
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
iRAFTtwo views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.21
5
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.61
96
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
RAFT-IKPtwo views0.36
44
0.24
140
0.51
141
0.42
131
0.22
30
0.24
7
0.27
43
0.63
44
0.39
22
0.63
86
0.73
87
0.57
101
0.38
91
0.61
96
0.39
129
0.18
158
0.12
87
0.20
178
0.16
117
0.21
211
0.16
99
RALAANettwo views0.40
104
0.24
140
0.56
186
0.43
168
0.30
219
0.36
79
0.25
31
0.89
174
0.69
109
0.69
121
0.65
71
0.61
130
0.30
52
0.63
127
0.35
91
0.16
100
0.13
142
0.18
117
0.15
91
0.21
211
0.14
49
ac_64two views0.54
223
0.24
140
0.58
195
0.46
224
0.28
181
0.79
260
0.44
233
1.11
251
0.63
85
0.94
256
0.85
147
1.06
293
0.70
246
0.76
202
0.72
258
0.22
244
0.18
249
0.20
178
0.19
210
0.18
152
0.16
99
ACVNettwo views0.47
163
0.24
140
0.39
37
0.40
87
0.28
181
0.58
186
0.40
195
0.91
180
0.81
163
0.67
111
0.96
191
0.79
222
0.66
222
0.65
140
0.71
255
0.18
158
0.15
192
0.16
58
0.15
91
0.18
152
0.15
79
acv_fttwo views0.52
212
0.24
140
0.64
222
0.45
201
0.28
181
0.85
283
0.40
195
0.95
198
0.81
163
1.00
285
0.96
191
0.79
222
0.62
201
0.65
140
0.88
284
0.18
158
0.15
192
0.16
58
0.15
91
0.18
152
0.15
79
cf-rtwo views0.49
181
0.24
140
0.49
124
0.40
87
0.23
56
0.58
186
0.38
172
0.92
188
0.87
191
0.77
166
1.06
243
0.98
269
0.67
231
0.59
80
0.61
235
0.21
227
0.14
173
0.17
86
0.19
210
0.15
67
0.16
99
PSMNet-RSSMtwo views0.50
192
0.24
140
0.41
51
0.43
168
0.26
131
0.51
145
0.40
195
1.16
265
0.79
149
0.75
152
1.07
245
0.87
241
0.69
241
0.66
148
0.52
202
0.24
264
0.16
213
0.23
246
0.26
306
0.20
202
0.20
195
RASNettwo views0.57
242
0.24
140
0.61
209
0.39
61
0.23
56
0.71
240
0.40
195
1.02
219
0.93
223
0.77
166
1.05
237
1.05
289
0.98
328
0.99
286
1.03
318
0.16
100
0.14
173
0.14
13
0.17
160
0.15
67
0.14
49
iResNet_ROBtwo views0.55
229
0.24
140
0.61
209
0.38
45
0.22
30
0.66
222
0.30
70
1.59
367
1.33
343
0.94
256
1.05
237
0.81
228
0.69
241
0.84
237
0.46
175
0.17
126
0.12
87
0.14
13
0.09
4
0.15
67
0.20
195
ACVNet-DCAtwo views0.36
44
0.25
168
0.35
19
0.42
131
0.23
56
0.53
155
0.37
159
0.91
180
0.59
75
0.42
33
0.50
33
0.34
23
0.47
143
0.61
96
0.26
8
0.17
126
0.11
40
0.19
149
0.13
50
0.18
152
0.19
168
xx1two views0.40
104
0.25
168
0.35
19
0.42
131
0.23
56
0.53
155
0.37
159
0.71
101
1.17
317
0.42
33
0.50
33
0.65
151
0.56
176
0.61
96
0.26
8
0.17
126
0.11
40
0.20
178
0.19
210
0.18
152
0.19
168
1test111two views0.37
62
0.25
168
0.35
19
0.42
131
0.23
56
0.53
155
0.37
159
0.91
180
0.59
75
0.42
33
0.50
33
0.34
23
0.47
143
0.59
80
0.48
187
0.17
126
0.11
40
0.19
149
0.13
50
0.18
152
0.19
168
cc1two views0.38
78
0.25
168
0.35
19
0.42
131
0.23
56
0.53
155
0.37
159
0.71
101
1.17
317
0.42
33
0.50
33
0.34
23
0.47
143
0.61
96
0.26
8
0.17
126
0.11
40
0.19
149
0.13
50
0.16
104
0.17
136
tt1two views0.37
62
0.25
168
0.35
19
0.43
168
0.23
56
0.52
152
0.37
159
0.72
111
1.13
305
0.42
33
0.46
24
0.35
27
0.44
126
0.61
96
0.26
8
0.17
126
0.11
40
0.19
149
0.13
50
0.16
104
0.17
136
PCWNet_CMDtwo views0.49
181
0.25
168
0.56
186
0.40
87
0.27
160
0.64
211
0.32
101
0.98
206
0.99
253
0.87
219
1.07
245
0.78
216
0.46
139
0.61
96
0.44
166
0.17
126
0.13
142
0.21
220
0.16
117
0.26
266
0.20
195
CFNet_ucstwo views0.51
202
0.25
168
0.58
195
0.39
61
0.31
229
0.59
192
0.35
140
1.04
225
0.95
234
0.89
234
1.19
282
0.80
226
0.49
150
0.66
148
0.45
171
0.21
227
0.16
213
0.26
284
0.18
186
0.27
275
0.23
245
LL-Strereo2two views0.36
44
0.25
168
0.52
160
0.43
168
0.27
160
0.36
79
0.27
43
0.70
94
0.46
53
0.55
63
0.53
43
0.65
151
0.24
11
0.69
171
0.32
65
0.14
18
0.13
142
0.23
246
0.20
229
0.19
186
0.14
49
CBFPSMtwo views0.61
267
0.25
168
1.41
354
0.39
61
0.27
160
1.10
324
0.67
315
0.83
160
0.84
177
0.82
186
0.81
131
1.33
332
0.85
299
0.72
187
0.86
282
0.16
100
0.15
192
0.15
42
0.17
160
0.17
128
0.23
245
gwcnet-sptwo views0.50
192
0.25
168
0.84
290
0.41
106
0.27
160
0.79
260
0.40
195
0.93
190
0.85
181
0.95
261
0.79
115
0.65
151
0.63
206
0.69
171
0.52
202
0.18
158
0.17
239
0.18
117
0.18
186
0.18
152
0.19
168
scenettwo views0.50
192
0.25
168
0.84
290
0.41
106
0.27
160
0.79
260
0.40
195
0.93
190
0.85
181
0.95
261
0.79
115
0.65
151
0.63
206
0.69
171
0.52
202
0.18
158
0.17
239
0.18
117
0.18
186
0.18
152
0.19
168
ssnettwo views0.50
192
0.25
168
0.84
290
0.41
106
0.27
160
0.79
260
0.40
195
0.93
190
0.85
181
0.95
261
0.79
115
0.65
151
0.63
206
0.69
171
0.52
202
0.18
158
0.17
239
0.18
117
0.18
186
0.18
152
0.19
168
CroCo-Stereo Lap2two views0.29
10
0.25
168
0.44
80
0.50
271
0.30
219
0.19
1
0.31
89
0.52
13
0.41
35
0.25
1
0.28
4
0.46
66
0.31
55
0.39
9
0.30
49
0.15
68
0.15
192
0.16
58
0.13
50
0.17
128
0.16
99
xtwo views0.41
118
0.25
168
0.46
92
0.36
27
0.24
78
0.54
161
0.31
89
0.94
195
0.58
74
0.60
73
0.72
85
0.61
130
0.53
161
0.52
53
0.50
196
0.18
158
0.16
213
0.17
86
0.16
117
0.17
128
0.18
158
IERtwo views0.48
172
0.25
168
0.60
208
0.38
45
0.28
181
0.67
231
0.38
172
0.82
158
0.68
104
0.88
227
0.95
187
0.74
199
0.79
282
0.62
118
0.46
175
0.17
126
0.14
173
0.17
86
0.17
160
0.17
128
0.16
99
test_5two views0.44
143
0.25
168
0.48
116
0.53
304
0.28
181
0.28
32
0.42
220
0.77
142
0.87
191
0.63
86
0.91
172
0.73
194
0.53
161
0.82
231
0.36
100
0.14
18
0.11
40
0.18
117
0.18
186
0.18
152
0.16
99
Sa-1000two views0.49
181
0.25
168
0.45
85
0.46
224
0.25
102
0.64
211
0.34
118
0.85
165
0.95
234
0.85
207
1.51
337
0.55
92
0.44
126
0.94
265
0.31
59
0.16
100
0.12
87
0.21
220
0.20
229
0.15
67
0.14
49
AACVNettwo views0.52
212
0.25
168
0.56
186
0.48
251
0.29
200
0.55
167
0.38
172
0.96
202
0.59
75
0.83
191
1.03
231
1.03
282
0.77
280
0.91
257
0.58
227
0.22
244
0.18
249
0.24
259
0.18
186
0.24
251
0.22
226
CFNet_pseudotwo views0.47
163
0.25
168
0.55
182
0.38
45
0.28
181
0.58
186
0.32
101
0.89
174
0.90
209
0.83
191
1.03
231
0.75
203
0.48
146
0.61
96
0.46
175
0.17
126
0.13
142
0.24
259
0.16
117
0.26
266
0.21
211
GEStwo views0.46
154
0.25
168
0.62
214
0.41
106
0.30
219
0.62
198
0.37
159
1.06
236
0.70
111
0.75
152
0.83
138
0.47
70
0.52
160
0.69
171
0.46
175
0.23
258
0.17
239
0.17
86
0.16
117
0.18
152
0.24
253
ARAFTtwo views0.48
172
0.25
168
0.82
283
0.42
131
0.25
102
0.56
172
0.54
282
0.82
158
0.82
171
0.92
249
0.75
100
0.75
203
0.48
146
0.89
250
0.37
108
0.15
68
0.12
87
0.23
246
0.22
264
0.14
37
0.14
49
delettwo views0.57
242
0.25
168
0.63
218
0.46
224
0.34
268
1.05
321
0.51
266
1.04
225
0.94
230
0.90
241
0.99
210
0.90
251
0.68
239
0.87
243
0.78
266
0.18
158
0.18
249
0.20
178
0.21
246
0.17
128
0.17
136
GwcNet-RSSMtwo views0.51
202
0.25
168
0.51
141
0.41
106
0.24
78
0.56
172
0.41
215
0.97
204
0.96
241
0.75
152
1.17
277
0.89
249
0.66
222
0.66
148
0.74
260
0.22
244
0.15
192
0.19
149
0.21
246
0.17
128
0.16
99
CFNet-ftpermissivetwo views0.50
192
0.25
168
0.39
37
0.41
106
0.26
131
0.66
222
0.37
159
0.91
180
0.87
191
0.67
111
1.00
214
1.05
289
0.70
246
0.68
165
0.57
222
0.23
258
0.16
213
0.24
259
0.21
246
0.24
251
0.19
168
MSMDNettwo views0.49
181
0.25
168
0.56
186
0.40
87
0.27
160
0.64
211
0.32
101
0.99
209
0.99
253
0.87
219
1.07
245
0.79
222
0.46
139
0.61
96
0.44
166
0.17
126
0.13
142
0.20
178
0.16
117
0.25
260
0.20
195
CFNet_RVCtwo views0.50
192
0.25
168
0.39
37
0.41
106
0.26
131
0.66
222
0.37
159
0.91
180
0.87
191
0.67
111
1.00
214
1.05
289
0.70
246
0.68
165
0.57
222
0.23
258
0.16
213
0.24
259
0.21
246
0.24
251
0.19
168
ccs_robtwo views0.47
163
0.25
168
0.55
182
0.38
45
0.28
181
0.58
186
0.32
101
0.89
174
0.90
209
0.83
191
1.02
220
0.75
203
0.48
146
0.61
96
0.46
175
0.17
126
0.12
87
0.24
259
0.16
117
0.26
266
0.21
211
HSMtwo views0.53
218
0.25
168
0.46
92
0.40
87
0.25
102
0.74
248
0.44
233
1.29
314
0.78
143
0.82
186
0.92
178
1.21
316
0.75
267
0.90
255
0.48
187
0.18
158
0.14
173
0.17
86
0.14
70
0.17
128
0.18
158
BUStwo views0.47
163
0.26
196
0.47
103
0.46
224
0.29
200
0.78
254
0.34
118
0.99
209
0.80
154
0.77
166
0.80
125
0.64
147
0.54
165
0.66
148
0.56
218
0.21
227
0.15
192
0.22
232
0.19
210
0.18
152
0.19
168
BSDual-CNNtwo views0.48
172
0.26
196
0.47
103
0.46
224
0.29
200
0.75
251
0.46
240
0.99
209
0.80
154
0.77
166
0.80
125
0.76
209
0.59
192
0.66
148
0.48
187
0.21
227
0.15
192
0.22
232
0.19
210
0.18
152
0.19
168
hknettwo views0.51
202
0.26
196
0.58
195
0.46
224
0.29
200
0.75
251
0.46
240
0.99
209
0.89
205
0.77
166
0.80
125
0.96
266
0.67
231
0.75
194
0.50
196
0.19
193
0.15
192
0.22
232
0.19
210
0.18
152
0.19
168
SAtwo views0.45
149
0.26
196
0.50
133
0.47
242
0.24
78
0.46
132
0.36
147
0.79
150
1.00
257
0.61
77
1.04
234
0.50
78
0.50
152
0.98
282
0.33
75
0.16
100
0.13
142
0.21
220
0.19
210
0.15
67
0.14
49
psmgtwo views0.50
192
0.26
196
0.47
103
0.42
131
0.29
200
0.82
274
0.42
220
1.07
238
0.80
154
0.95
261
0.94
183
0.76
209
0.59
192
0.66
148
0.48
187
0.21
227
0.16
213
0.20
178
0.20
229
0.19
186
0.19
168
DAStwo views0.54
223
0.26
196
0.66
229
0.49
260
0.31
229
0.61
194
0.43
227
0.89
174
1.01
259
0.95
261
1.16
272
0.71
175
0.85
299
0.89
250
0.47
184
0.18
158
0.14
173
0.18
117
0.15
91
0.22
229
0.19
168
SepStereotwo views0.54
223
0.26
196
0.66
229
0.49
260
0.31
229
0.61
194
0.43
227
0.89
174
1.01
259
0.95
261
1.16
272
0.71
175
0.85
299
0.97
280
0.47
184
0.18
158
0.14
173
0.18
117
0.15
91
0.22
229
0.19
168
ADLNet2two views0.57
242
0.26
196
0.71
253
0.48
251
0.31
229
0.83
277
0.51
266
1.10
250
0.99
253
0.85
207
0.99
210
0.99
273
0.70
246
0.79
220
0.78
266
0.21
227
0.17
239
0.18
117
0.18
186
0.22
229
0.22
226
ICVPtwo views0.48
172
0.26
196
0.42
59
0.49
260
0.28
181
0.63
203
0.43
227
1.05
231
0.72
119
0.68
118
0.95
187
0.75
203
0.56
176
0.55
63
0.61
235
0.24
264
0.18
249
0.19
149
0.17
160
0.19
186
0.21
211
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
MMNettwo views0.57
242
0.26
196
0.67
233
0.45
201
0.35
273
1.04
319
0.39
185
0.93
190
0.98
250
0.96
273
0.97
198
0.86
237
0.80
286
0.83
233
0.80
274
0.16
100
0.15
192
0.19
149
0.19
210
0.20
202
0.17
136
UPFNettwo views0.55
229
0.26
196
0.59
203
0.46
224
0.38
285
0.83
277
0.48
250
1.03
224
0.80
154
0.92
249
0.91
172
0.85
233
0.67
231
0.87
243
0.78
266
0.20
212
0.21
280
0.20
178
0.20
229
0.20
202
0.15
79
MLCVtwo views0.49
181
0.26
196
0.73
263
0.38
45
0.18
5
0.64
211
0.33
110
0.84
164
0.89
205
0.96
273
1.12
259
0.72
190
0.45
133
1.00
291
0.59
229
0.14
18
0.10
8
0.14
13
0.11
16
0.14
37
0.14
49
ttttwo views0.56
238
0.27
208
0.49
124
0.39
61
0.25
102
0.65
217
0.42
220
1.24
292
1.08
290
0.76
158
1.10
253
0.63
140
0.51
157
0.95
270
1.03
318
0.25
276
0.22
289
0.22
232
0.21
246
0.25
260
0.25
260
ToySttwo views0.52
212
0.27
208
0.93
307
0.42
131
0.28
181
0.67
231
0.56
289
0.88
173
0.79
149
0.61
77
0.85
147
0.92
260
0.70
246
0.72
187
0.61
235
0.16
100
0.17
239
0.21
220
0.21
246
0.22
229
0.21
211
AASNettwo views0.55
229
0.27
208
0.62
214
0.51
283
0.32
247
0.73
244
0.44
233
1.55
359
0.88
201
0.88
227
0.94
183
0.64
147
0.63
206
0.62
118
0.84
279
0.23
258
0.20
274
0.20
178
0.16
117
0.22
229
0.20
195
GANet-ADLtwo views0.44
143
0.27
208
0.48
116
0.44
189
0.30
219
0.54
161
0.36
147
0.94
195
0.88
201
0.64
96
0.72
85
0.68
170
0.44
126
0.55
63
0.44
166
0.22
244
0.15
192
0.15
42
0.13
50
0.18
152
0.21
211
psm_uptwo views0.57
242
0.27
208
0.52
160
0.50
271
0.33
258
0.65
217
0.60
303
1.07
238
0.84
177
0.87
219
0.91
172
1.00
274
1.06
335
0.80
222
0.66
245
0.22
244
0.25
312
0.26
284
0.23
273
0.22
229
0.21
211
UNettwo views0.55
229
0.27
208
0.72
259
0.45
201
0.41
302
0.97
302
0.40
195
1.01
217
0.80
154
0.87
219
0.90
166
1.03
282
0.75
267
0.76
202
0.67
248
0.19
193
0.15
192
0.20
178
0.17
160
0.21
211
0.18
158
DSFCAtwo views0.57
242
0.27
208
0.71
253
0.41
106
0.36
278
0.78
254
0.53
276
1.08
243
0.85
181
1.08
315
0.84
140
0.90
251
0.66
222
1.05
299
0.63
242
0.26
281
0.22
289
0.21
220
0.21
246
0.22
229
0.20
195
DMCAtwo views0.47
163
0.27
208
0.59
203
0.39
61
0.29
200
0.53
155
0.34
118
0.98
206
0.70
111
0.78
177
0.83
138
0.79
222
0.55
168
0.54
62
0.57
222
0.21
227
0.16
213
0.21
220
0.16
117
0.19
186
0.22
226
UCFNet_RVCtwo views0.50
192
0.27
208
0.37
28
0.40
87
0.27
160
0.66
222
0.42
220
1.18
273
0.86
187
0.70
125
0.89
163
0.91
257
0.60
195
0.62
118
0.48
187
0.24
264
0.18
249
0.28
302
0.27
310
0.25
260
0.24
253
HITNettwo views0.43
137
0.27
208
0.50
133
0.34
9
0.18
5
0.65
217
0.32
101
0.99
209
0.70
111
0.73
142
0.86
151
0.66
163
0.56
176
0.61
96
0.47
184
0.14
18
0.10
8
0.15
42
0.13
50
0.18
152
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DISCOtwo views0.72
289
0.27
208
0.72
259
0.45
201
0.31
229
1.12
329
0.53
276
1.32
322
1.25
329
0.84
197
1.07
245
1.52
357
0.87
306
1.82
371
1.08
330
0.20
212
0.15
192
0.18
117
0.16
117
0.24
251
0.24
253
LE_ROBtwo views4.86
409
0.27
208
9.43
408
0.45
201
0.24
78
1.61
365
0.96
361
2.05
383
17.75
424
16.36
426
4.84
410
5.17
405
19.48
426
2.05
378
15.49
417
0.17
126
0.15
192
0.16
58
0.16
117
0.20
202
0.19
168
DN-CSS_ROBtwo views0.45
149
0.27
208
0.74
267
0.41
106
0.29
200
0.43
122
0.29
58
0.80
152
0.78
143
0.73
142
1.08
251
0.48
73
0.45
133
0.81
226
0.40
149
0.15
68
0.12
87
0.21
220
0.19
210
0.18
152
0.17
136
Former-RAFT_DAM_RVCtwo views0.34
36
0.28
221
0.48
116
0.37
35
0.25
102
0.47
134
0.30
70
0.60
32
0.92
221
0.43
38
0.37
18
0.30
6
0.29
42
0.50
50
0.30
49
0.17
126
0.14
173
0.18
117
0.15
91
0.18
152
0.16
99
mmmtwo views0.47
163
0.28
221
0.51
141
0.39
61
0.25
102
0.61
194
0.38
172
1.00
216
0.60
82
0.77
166
1.07
245
0.65
151
0.53
161
0.61
96
0.49
194
0.18
158
0.15
192
0.23
246
0.20
229
0.21
211
0.20
195
DualNettwo views0.53
218
0.28
221
0.68
240
0.39
61
0.26
131
0.56
172
0.40
195
0.72
111
1.13
305
0.76
158
0.98
201
0.71
175
0.55
168
0.61
96
1.46
352
0.17
126
0.11
40
0.25
270
0.21
246
0.16
104
0.17
136
ffmtwo views0.47
163
0.28
221
0.68
240
0.39
61
0.26
131
0.56
172
0.40
195
0.72
111
1.13
305
0.76
158
0.98
201
0.71
175
0.55
168
0.61
96
0.26
8
0.17
126
0.11
40
0.25
270
0.21
246
0.16
104
0.17
136
ff1two views0.56
238
0.28
221
0.68
240
0.39
61
0.26
131
0.56
172
0.40
195
0.72
111
1.13
305
0.76
158
0.98
201
0.71
175
0.55
168
1.25
323
1.46
352
0.17
126
0.11
40
0.25
270
0.21
246
0.16
104
0.17
136
mmxtwo views0.59
257
0.28
221
0.68
240
0.39
61
0.26
131
0.56
172
0.40
195
1.24
292
1.06
278
0.76
158
0.98
201
0.71
175
0.55
168
1.25
323
1.46
352
0.21
227
0.16
213
0.25
270
0.21
246
0.24
251
0.22
226
xxxcopylefttwo views0.59
257
0.28
221
0.68
240
0.39
61
0.26
131
0.56
172
0.40
195
1.24
292
1.06
278
0.76
158
0.98
201
0.71
175
0.55
168
1.25
323
1.46
352
0.21
227
0.16
213
0.25
270
0.21
246
0.24
251
0.22
226
CASStwo views0.46
154
0.28
221
0.45
85
0.48
251
0.22
30
0.63
203
0.34
118
0.99
209
0.66
97
0.76
158
0.86
151
0.61
130
0.58
188
0.58
75
0.44
166
0.29
305
0.16
213
0.22
232
0.18
186
0.23
243
0.28
282
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
qqqtwo views0.42
125
0.28
221
0.50
133
0.37
35
0.22
30
0.47
134
0.39
185
0.91
180
0.59
75
0.57
67
0.71
84
0.65
151
0.56
176
0.59
80
0.48
187
0.17
126
0.17
239
0.20
178
0.19
210
0.18
152
0.19
168
PSMNet-ADLtwo views0.50
192
0.28
221
0.43
75
0.49
260
0.31
229
0.70
237
0.38
172
0.94
195
0.81
163
0.62
79
0.80
125
0.91
257
0.62
201
0.76
202
0.68
251
0.24
264
0.18
249
0.19
149
0.20
229
0.22
229
0.22
226
DispNOtwo views0.54
223
0.29
231
1.04
323
0.47
242
0.31
229
0.54
161
0.51
266
0.99
209
1.08
290
0.75
152
0.89
163
0.73
194
0.64
213
0.77
209
0.59
229
0.21
227
0.17
239
0.20
178
0.16
117
0.19
186
0.18
158
StereoVisiontwo views0.43
137
0.29
231
0.54
179
0.50
271
0.28
181
0.37
87
0.38
172
0.75
135
0.63
85
0.46
45
1.11
257
0.53
88
0.38
91
0.57
71
0.34
84
0.21
227
0.24
304
0.25
270
0.24
287
0.26
266
0.17
136
LL-Strereotwo views0.58
253
0.29
231
0.83
287
0.48
251
0.35
273
0.39
97
0.48
250
1.04
225
0.99
253
0.87
219
0.79
115
1.08
298
1.15
347
1.35
341
0.51
198
0.18
158
0.15
192
0.22
232
0.19
210
0.17
128
0.21
211
iinet-ftwo views0.69
285
0.29
231
2.34
385
0.41
106
0.31
229
1.16
336
0.58
298
0.87
168
0.85
181
0.86
217
1.17
277
1.04
286
0.83
292
0.76
202
1.26
341
0.21
227
0.18
249
0.17
86
0.16
117
0.21
211
0.21
211
ssnet_v2two views0.61
267
0.29
231
0.69
248
0.45
201
0.30
219
0.93
295
0.62
307
1.20
279
1.03
268
0.97
276
0.81
131
0.98
269
0.67
231
0.84
237
0.97
309
0.26
281
0.23
296
0.23
246
0.24
287
0.20
202
0.21
211
CRFU-Nettwo views0.59
257
0.29
231
0.62
214
0.47
242
0.31
229
1.20
342
0.51
266
1.19
276
0.59
75
1.05
305
1.00
214
1.06
293
0.87
306
0.83
233
0.77
265
0.22
244
0.19
266
0.18
117
0.16
117
0.19
186
0.20
195
CSP-Nettwo views0.57
242
0.29
231
0.55
182
0.42
131
0.29
200
1.20
342
0.49
260
1.29
314
0.75
135
0.98
279
0.97
198
0.88
244
0.69
241
0.85
239
0.66
245
0.27
290
0.18
249
0.17
86
0.17
160
0.18
152
0.19
168
pcwnet_v2two views0.60
264
0.29
231
0.89
303
0.46
224
0.36
278
0.62
198
0.38
172
1.33
325
1.24
327
1.02
291
1.27
297
0.71
175
0.59
192
0.71
183
0.51
198
0.28
298
0.21
280
0.24
259
0.23
273
0.29
284
0.30
291
sCroCo_RVCtwo views0.36
44
0.29
231
0.73
263
0.52
297
0.39
294
0.42
118
0.31
89
0.52
13
0.46
53
0.31
8
0.48
29
0.38
37
0.32
61
0.46
30
0.33
75
0.22
244
0.23
296
0.19
149
0.19
210
0.21
211
0.22
226
Anonymoustwo views0.40
104
0.29
231
0.70
250
0.54
313
0.44
319
0.56
172
0.54
282
0.68
73
0.52
63
0.38
19
0.44
21
0.33
20
0.42
118
0.57
71
0.39
129
0.20
212
0.20
274
0.18
117
0.18
186
0.30
291
0.24
253
ADLNettwo views0.57
242
0.29
231
0.58
195
0.46
224
0.35
273
0.80
266
0.46
240
1.14
260
0.88
201
1.03
294
0.98
201
0.92
260
0.66
222
0.71
183
0.83
278
0.22
244
0.16
213
0.22
232
0.22
264
0.22
229
0.23
245
hitnet-ftcopylefttwo views0.57
242
0.29
231
0.43
75
0.42
131
0.29
200
0.81
271
0.40
195
0.98
206
0.91
215
0.84
197
1.01
218
1.13
310
0.72
258
0.83
233
0.71
255
0.28
298
0.21
280
0.28
302
0.22
264
0.29
284
0.27
273
iResNetv2_ROBtwo views0.55
229
0.29
231
0.86
294
0.39
61
0.25
102
0.67
231
0.37
159
1.21
282
1.02
264
1.02
291
1.10
253
0.89
249
0.79
282
0.74
189
0.43
159
0.19
193
0.13
142
0.15
42
0.11
16
0.19
186
0.16
99
MDST_ROBtwo views0.97
335
0.29
231
1.02
321
0.64
347
0.43
314
2.64
388
0.82
346
1.68
375
1.18
321
2.89
394
1.82
356
0.97
267
0.75
267
1.83
372
0.89
286
0.26
281
0.22
289
0.32
325
0.28
316
0.26
266
0.26
265
DLCB_ROBtwo views0.60
264
0.29
231
0.53
167
0.50
271
0.33
258
0.76
253
0.51
266
1.02
219
0.94
230
1.07
314
1.16
272
1.21
316
0.73
262
0.98
282
0.75
262
0.21
227
0.20
274
0.22
232
0.23
273
0.22
229
0.20
195
Wz-Net-LNSev-Reftwo views0.67
280
0.30
246
1.20
334
0.42
131
0.31
229
1.00
309
0.58
298
1.16
265
1.07
285
1.01
287
1.25
290
1.08
298
0.75
267
1.18
317
1.03
318
0.20
212
0.12
87
0.16
58
0.13
50
0.22
229
0.22
226
NINENettwo views0.52
212
0.30
246
0.55
182
0.46
224
0.33
258
0.78
254
0.34
118
1.18
273
0.91
215
0.84
197
0.97
198
0.64
147
0.54
165
0.74
189
0.56
218
0.23
258
0.20
274
0.25
270
0.18
186
0.22
229
0.22
226
GEStereo_RVCtwo views0.56
238
0.30
246
0.70
250
0.51
283
0.31
229
0.70
237
0.54
282
1.31
317
0.93
223
0.85
207
0.86
151
0.84
231
0.63
206
0.92
259
0.67
248
0.24
264
0.16
213
0.19
149
0.17
160
0.21
211
0.23
245
RAFT + AFFtwo views0.54
223
0.30
246
0.84
290
0.51
283
0.32
247
0.63
203
0.57
291
1.05
231
0.95
234
0.80
181
0.87
157
0.85
233
0.57
185
0.87
243
0.51
198
0.18
158
0.21
280
0.23
246
0.22
264
0.19
186
0.19
168
HGLStereotwo views0.58
253
0.30
246
0.65
227
0.51
283
0.38
285
0.78
254
0.45
237
1.07
238
0.82
171
0.89
234
1.16
272
0.88
244
0.91
315
0.80
222
0.74
260
0.21
227
0.21
280
0.20
178
0.18
186
0.19
186
0.22
226
CFNettwo views0.53
218
0.30
246
0.53
167
0.42
131
0.28
181
0.73
244
0.35
140
1.21
282
1.01
259
0.74
149
1.07
245
0.85
233
0.60
195
0.83
233
0.58
227
0.19
193
0.15
192
0.23
246
0.23
273
0.21
211
0.17
136
SGM_RVCbinarytwo views1.04
342
0.30
246
0.47
103
0.41
106
0.23
56
1.73
373
0.77
338
1.63
371
1.30
339
2.39
387
1.99
363
2.64
383
1.78
378
2.22
385
1.40
349
0.28
298
0.27
323
0.27
292
0.25
298
0.25
260
0.25
260
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
iResNettwo views0.52
212
0.31
253
0.86
294
0.44
189
0.22
30
0.66
222
0.47
245
0.92
188
1.02
264
0.89
234
1.12
259
0.69
172
0.55
168
0.86
241
0.60
231
0.15
68
0.11
40
0.15
42
0.12
27
0.17
128
0.17
136
pmcnntwo views1.27
362
0.31
253
1.14
331
0.41
106
0.23
56
0.97
302
0.71
323
1.23
291
1.32
341
1.83
371
2.34
371
11.25
417
0.89
312
1.04
298
0.96
306
0.15
68
0.12
87
0.12
2
0.10
10
0.15
67
0.16
99
whm_ethtwo views0.49
181
0.32
255
0.79
276
0.47
242
0.38
285
0.37
87
0.37
159
0.83
160
0.83
176
0.82
186
1.73
352
0.36
33
0.39
104
0.61
96
0.38
121
0.19
193
0.17
239
0.20
178
0.20
229
0.20
202
0.25
260
fast-acv-fttwo views0.66
279
0.32
255
0.80
277
0.46
224
0.34
268
1.26
345
0.50
263
0.91
180
1.00
257
1.05
305
1.36
312
1.28
321
0.84
295
0.81
226
0.90
292
0.22
244
0.24
304
0.23
246
0.23
273
0.21
211
0.22
226
TRStereotwo views0.39
90
0.32
255
0.64
222
0.49
260
0.41
302
0.30
40
0.30
70
0.97
204
0.63
85
0.53
61
0.43
20
0.52
84
0.26
18
0.77
209
0.29
37
0.18
158
0.12
87
0.19
149
0.19
210
0.13
14
0.13
31
TestStereotwo views0.39
90
0.32
255
0.42
59
0.45
201
0.20
18
0.41
111
0.38
172
0.69
84
0.66
97
0.56
65
0.78
111
0.48
73
0.43
121
0.59
80
0.37
108
0.18
158
0.13
142
0.20
178
0.15
91
0.23
243
0.14
49
DMCA-RVCcopylefttwo views0.54
223
0.32
255
0.83
287
0.51
283
0.32
247
0.59
192
0.38
172
0.89
174
0.70
111
0.95
261
0.88
160
0.90
251
0.69
241
0.75
194
0.63
242
0.23
258
0.18
249
0.31
320
0.24
287
0.27
275
0.21
211
NVstereo2Dtwo views0.62
273
0.32
255
0.82
283
0.50
271
0.44
319
0.88
288
0.48
250
1.12
252
1.17
317
0.67
111
0.90
166
0.90
251
0.69
241
1.02
295
0.69
252
0.33
328
0.16
213
0.29
310
0.20
229
0.43
340
0.46
356
LMCR-Stereopermissivemany views0.55
229
0.33
261
0.57
193
0.60
334
0.30
219
0.80
266
0.36
147
1.30
316
0.79
149
0.90
241
1.04
234
0.57
101
0.64
213
0.87
243
0.73
259
0.20
212
0.15
192
0.19
149
0.14
70
0.25
260
0.18
158
stereogantwo views0.83
315
0.33
261
0.89
303
0.61
338
0.51
343
1.80
374
0.50
263
1.41
341
1.39
348
1.05
305
1.47
333
1.56
361
1.04
333
1.32
338
0.87
283
0.29
305
0.29
330
0.29
310
0.25
298
0.39
330
0.40
333
NLCA_NET_v2_RVCtwo views0.55
229
0.33
261
0.71
253
0.46
224
0.31
229
0.66
222
0.43
227
1.07
238
0.89
205
0.93
252
0.91
172
0.98
269
0.61
199
0.76
202
0.64
244
0.22
244
0.18
249
0.22
232
0.22
264
0.22
229
0.24
253
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
StereoDRNet-Refinedtwo views0.61
267
0.33
261
0.63
218
0.47
242
0.31
229
0.94
297
0.41
215
1.04
225
0.97
246
1.15
329
1.13
265
1.00
274
0.74
264
0.93
262
0.93
299
0.18
158
0.13
142
0.22
232
0.21
246
0.20
202
0.21
211
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
SGM-Foresttwo views0.65
278
0.33
261
0.43
75
0.44
189
0.30
219
1.01
313
0.54
282
1.13
258
1.09
297
1.11
325
1.21
284
1.10
305
0.76
276
0.99
286
0.71
255
0.32
320
0.33
353
0.33
330
0.30
321
0.30
291
0.28
282
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
FAT-Stereotwo views0.75
299
0.34
266
0.81
282
0.51
283
0.38
285
0.78
254
0.63
310
1.39
335
1.32
341
1.05
305
1.40
318
1.58
362
1.14
345
0.92
259
0.91
295
0.29
305
0.28
328
0.28
302
0.23
273
0.28
282
0.41
338
AdaStereotwo views0.52
212
0.34
266
0.53
167
0.49
260
0.25
102
0.71
240
0.36
147
1.24
292
0.91
215
0.77
166
0.98
201
0.75
203
0.50
152
0.71
183
0.51
198
0.27
290
0.13
142
0.28
302
0.18
186
0.23
243
0.18
158
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
SGM-ForestMtwo views4.73
406
0.34
266
1.05
324
0.46
224
0.28
181
10.26
414
3.48
413
4.52
408
5.16
405
8.68
417
7.48
415
18.87
424
10.80
416
11.26
418
10.01
411
0.32
320
0.34
356
0.32
325
0.32
333
0.29
284
0.30
291
DRN-Testtwo views0.68
283
0.34
266
0.77
273
0.52
297
0.40
297
1.14
332
0.61
305
1.56
363
1.04
272
1.18
331
1.10
253
1.05
289
0.72
258
0.82
231
1.01
313
0.24
264
0.18
249
0.26
284
0.25
298
0.26
266
0.23
245
Anonymous3two views0.47
163
0.35
270
0.91
306
0.50
271
0.38
285
0.81
271
0.55
286
0.76
137
0.66
97
0.52
55
0.65
71
0.44
56
0.45
133
0.66
148
0.39
129
0.25
276
0.25
312
0.22
232
0.21
246
0.23
243
0.24
253
HCRNettwo views0.46
154
0.35
270
0.45
85
0.54
313
0.26
131
0.52
152
0.29
58
0.87
168
0.64
89
0.75
152
0.82
133
0.76
209
0.53
161
0.70
178
0.38
121
0.24
264
0.16
213
0.24
259
0.20
229
0.21
211
0.20
195
FADNet-RVC-Resampletwo views0.58
253
0.35
270
1.34
349
0.50
271
0.34
268
0.73
244
0.43
227
1.09
246
0.96
241
0.83
191
0.87
157
0.76
209
0.66
222
0.77
209
0.52
202
0.19
193
0.18
249
0.26
284
0.27
310
0.28
282
0.29
287
BEATNet_4xtwo views0.49
181
0.35
270
0.72
259
0.38
45
0.20
18
0.65
217
0.36
147
1.08
243
0.78
143
0.78
177
0.88
160
0.73
194
0.64
213
0.71
183
0.60
231
0.16
100
0.12
87
0.16
58
0.15
91
0.24
251
0.18
158
TDLMtwo views0.59
257
0.35
270
0.57
193
0.53
304
0.32
247
0.67
231
0.72
327
1.09
246
1.03
268
0.84
197
1.11
257
0.84
231
0.71
251
0.96
273
0.61
235
0.28
298
0.18
249
0.26
284
0.22
264
0.27
275
0.21
211
CVANet_RVCtwo views0.59
257
0.35
270
0.54
179
0.49
260
0.33
258
0.70
237
0.67
315
1.12
252
0.97
246
0.88
227
1.05
237
1.01
278
0.72
258
0.94
265
0.55
216
0.30
312
0.20
274
0.28
302
0.26
306
0.32
301
0.23
245
AANet_RVCtwo views0.59
257
0.35
270
0.68
240
0.47
242
0.28
181
0.57
182
0.47
245
1.04
225
1.28
334
0.87
219
1.33
306
0.86
237
0.63
206
1.16
314
0.89
286
0.19
193
0.13
142
0.15
42
0.14
70
0.18
152
0.20
195
StereoDRNettwo views0.67
280
0.35
270
0.82
283
0.53
304
0.44
319
1.03
317
0.53
276
1.51
356
1.06
278
1.13
327
0.91
172
1.07
297
0.74
264
0.87
243
0.95
304
0.24
264
0.19
266
0.25
270
0.23
273
0.27
275
0.22
226
SACVNettwo views0.61
267
0.36
278
0.67
233
0.57
325
0.37
280
0.65
217
0.47
245
1.16
265
0.80
154
1.04
300
1.06
243
1.02
280
0.81
289
0.99
286
0.57
222
0.28
298
0.21
280
0.25
270
0.24
287
0.30
291
0.39
327
S-Stereotwo views0.76
302
0.36
278
1.10
326
0.57
325
0.46
334
0.83
277
0.59
301
1.31
317
1.62
367
0.98
279
1.41
320
1.11
307
0.93
319
0.85
239
1.07
328
0.27
290
0.31
342
0.28
302
0.25
298
0.33
305
0.50
363
ADCP+two views1.18
356
0.37
280
3.09
388
0.50
271
0.52
345
1.48
357
0.61
305
1.32
322
1.07
285
1.21
334
1.16
272
1.08
298
1.11
340
1.63
360
7.17
407
0.20
212
0.16
213
0.24
259
0.22
264
0.29
284
0.22
226
RYNettwo views0.76
302
0.37
280
0.74
267
0.54
313
0.67
368
1.35
349
0.68
318
1.28
310
1.21
326
1.10
322
0.90
166
1.31
325
0.94
322
1.01
292
1.30
343
0.22
244
0.16
213
0.27
292
0.23
273
0.43
340
0.45
352
DeepPruner_ROBtwo views0.55
229
0.37
280
0.67
233
0.42
131
0.31
229
0.50
140
0.43
227
1.22
288
0.73
128
0.86
217
1.05
237
0.85
233
0.58
188
0.90
255
0.56
218
0.29
305
0.23
296
0.22
232
0.22
264
0.26
266
0.26
265
CBMVpermissivetwo views0.68
283
0.37
280
0.50
133
0.43
168
0.26
131
1.00
309
0.71
323
1.17
271
1.16
314
1.24
340
1.29
302
1.06
293
0.86
303
0.98
282
0.75
262
0.29
305
0.30
334
0.34
332
0.30
321
0.26
266
0.27
273
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
GMStereopermissivetwo views0.40
104
0.38
284
0.61
209
0.41
106
0.27
160
0.47
134
0.35
140
0.62
38
1.04
272
0.57
67
0.54
46
0.38
37
0.36
80
0.56
67
0.41
154
0.20
212
0.13
142
0.16
58
0.17
160
0.24
251
0.20
195
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
RPtwo views0.80
306
0.38
284
0.73
263
0.67
353
0.59
358
0.82
274
0.57
291
1.21
282
1.28
334
1.03
294
1.68
347
1.45
346
1.49
368
1.08
303
0.90
292
0.36
342
0.31
342
0.37
340
0.30
321
0.36
321
0.36
318
GANettwo views0.74
295
0.38
284
0.63
218
0.54
313
0.35
273
1.01
313
0.95
359
1.15
263
0.95
234
1.09
319
2.00
364
1.14
311
0.92
317
1.29
331
0.75
262
0.25
276
0.27
323
0.27
292
0.23
273
0.32
301
0.24
253
XPNet_ROBtwo views0.73
290
0.38
284
0.80
277
0.53
304
0.40
297
0.80
266
0.83
348
1.21
282
0.96
241
1.37
349
1.17
277
1.37
339
0.87
306
1.14
310
0.99
311
0.33
328
0.25
312
0.27
292
0.24
287
0.31
295
0.29
287
SDNRtwo views0.89
325
0.39
288
1.66
373
0.42
131
0.39
294
3.35
401
0.32
101
0.95
198
1.05
274
1.05
305
2.12
367
0.62
136
0.71
251
1.40
342
0.78
266
0.53
370
0.56
385
0.36
336
0.27
310
0.46
347
0.50
363
APVNettwo views0.73
290
0.39
288
1.01
320
0.58
330
0.45
326
1.16
336
0.68
318
1.47
352
0.87
191
0.84
197
1.15
269
1.04
286
0.84
295
1.14
310
1.18
336
0.27
290
0.28
328
0.32
325
0.31
330
0.29
284
0.32
301
GwcNetcopylefttwo views0.73
290
0.39
288
1.37
351
0.53
304
0.43
314
1.10
324
0.52
273
1.27
305
1.19
322
1.05
305
1.41
320
1.06
293
0.86
303
0.98
282
1.01
313
0.26
281
0.24
304
0.24
259
0.23
273
0.23
243
0.28
282
FADNet_RVCtwo views0.58
253
0.39
288
1.26
338
0.45
201
0.32
247
0.55
167
0.34
118
1.12
252
0.90
209
0.68
118
0.90
166
0.61
130
0.71
251
1.03
297
0.80
274
0.21
227
0.18
249
0.27
292
0.23
273
0.33
305
0.30
291
STTStereotwo views0.57
242
0.39
288
0.87
299
0.45
201
0.32
247
0.62
198
0.45
237
1.01
217
0.87
191
1.01
287
0.91
172
0.95
263
0.58
188
0.77
209
0.66
245
0.25
276
0.24
304
0.27
292
0.33
339
0.25
260
0.26
265
CBMV_ROBtwo views0.62
273
0.39
288
0.41
51
0.41
106
0.28
181
0.86
285
0.28
51
1.06
236
1.02
264
0.95
261
1.33
306
0.81
228
0.84
295
0.94
265
0.56
218
0.37
346
0.37
361
0.43
352
0.40
355
0.33
305
0.32
301
WCMA_ROBtwo views1.22
357
0.39
288
0.93
307
0.51
283
0.45
326
1.44
354
0.79
342
1.20
279
1.30
339
2.99
400
3.94
401
3.30
393
2.17
390
1.42
346
1.31
344
0.46
360
0.35
358
0.35
333
0.37
346
0.41
334
0.42
342
PSMNet_ROBtwo views0.67
280
0.39
288
0.76
270
0.57
325
0.43
314
1.00
309
0.85
352
1.25
298
0.93
223
0.82
186
1.04
234
1.08
298
0.64
213
0.89
250
1.02
317
0.29
305
0.21
280
0.31
320
0.31
330
0.27
275
0.25
260
ddtwo views0.44
143
0.40
296
0.62
214
0.44
189
0.26
131
0.51
145
0.38
172
0.72
111
1.07
285
0.60
73
0.66
74
0.43
53
0.40
109
0.68
165
0.53
211
0.24
264
0.15
192
0.21
220
0.16
117
0.24
251
0.19
168
edge stereotwo views0.79
305
0.40
296
0.82
283
0.52
297
0.44
319
0.83
277
0.58
298
1.34
327
1.08
290
1.30
345
1.38
316
1.79
367
1.13
344
1.15
313
0.92
297
0.34
335
0.32
348
0.42
351
0.28
316
0.33
305
0.39
327
Nwc_Nettwo views0.82
309
0.40
296
0.86
294
0.62
342
0.56
351
1.04
319
0.57
291
1.72
377
1.08
290
0.93
252
1.88
359
1.44
345
1.24
352
1.19
318
0.94
301
0.31
315
0.25
312
0.36
336
0.39
351
0.31
295
0.31
298
NOSS_ROBtwo views0.59
257
0.40
296
0.42
59
0.45
201
0.31
229
0.79
260
0.53
276
1.09
246
1.12
299
0.69
121
0.92
178
0.77
214
0.63
206
0.81
226
0.52
202
0.39
352
0.38
362
0.44
354
0.42
362
0.38
326
0.36
318
sAnonymous2two views0.42
125
0.41
300
0.96
313
0.48
251
0.37
280
0.41
111
0.48
250
0.60
32
0.52
63
0.39
22
0.48
29
0.35
27
0.44
126
0.44
23
0.30
49
0.19
193
0.14
173
0.19
149
0.17
160
0.55
365
0.43
346
CroCo_RVCtwo views0.42
125
0.41
300
0.96
313
0.48
251
0.37
280
0.41
111
0.48
250
0.60
32
0.52
63
0.39
22
0.48
29
0.35
27
0.44
126
0.44
23
0.30
49
0.19
193
0.14
173
0.19
149
0.17
160
0.55
365
0.43
346
SuperBtwo views1.00
340
0.41
300
4.03
396
0.45
201
0.32
247
0.99
308
0.49
260
1.09
246
2.09
381
1.10
322
1.10
253
0.74
199
0.83
292
1.13
308
1.75
364
0.20
212
0.15
192
0.17
86
0.15
91
2.50
406
0.27
273
AF-Nettwo views0.85
321
0.41
300
0.87
299
0.66
351
0.54
349
0.96
301
0.52
273
1.66
373
1.37
345
1.03
294
2.04
366
1.46
347
1.36
358
1.19
318
1.05
325
0.34
335
0.24
304
0.39
346
0.28
316
0.31
295
0.26
265
Wz-Net-MNSevtwo views0.81
308
0.42
304
1.64
370
0.51
283
0.41
302
1.46
355
0.95
359
1.24
292
1.26
332
1.31
346
1.25
290
1.17
313
0.83
292
1.21
322
1.06
326
0.22
244
0.19
266
0.24
259
0.23
273
0.29
284
0.26
265
ADCLtwo views1.10
347
0.42
304
1.57
363
0.51
283
0.41
302
1.71
372
0.92
356
1.36
332
1.45
354
1.33
347
1.56
340
1.22
319
1.26
354
1.45
350
5.27
402
0.22
244
0.19
266
0.25
270
0.25
298
0.29
284
0.29
287
NCC-stereotwo views0.82
309
0.43
306
0.87
299
0.63
344
0.68
369
0.88
288
0.72
327
1.60
369
1.12
299
0.95
261
1.41
320
1.37
339
1.37
360
1.26
326
0.94
301
0.32
320
0.30
334
0.37
340
0.49
372
0.34
311
0.35
315
Abc-Nettwo views0.82
309
0.43
306
0.87
299
0.63
344
0.68
369
0.88
288
0.72
327
1.60
369
1.12
299
0.95
261
1.41
320
1.37
339
1.37
360
1.26
326
0.94
301
0.32
320
0.30
334
0.37
340
0.49
372
0.34
311
0.35
315
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
DPSNettwo views1.08
346
0.44
308
2.64
386
0.54
313
0.42
311
1.59
364
1.25
379
2.39
391
1.50
359
1.13
327
1.12
259
1.51
355
2.19
391
1.44
349
1.51
358
0.35
340
0.25
312
0.25
270
0.21
246
0.49
353
0.39
327
Anonymous_2two views0.84
316
0.45
309
0.66
229
0.41
106
0.45
326
0.82
274
0.53
276
0.81
154
0.81
163
0.73
142
0.61
63
0.91
257
0.76
276
0.77
209
0.61
235
0.51
368
0.55
384
0.54
371
4.92
419
0.54
363
0.42
342
FINETtwo views0.75
299
0.45
309
1.38
352
0.48
251
0.46
334
0.98
306
1.00
363
1.22
288
1.69
371
0.91
248
1.25
290
0.74
199
0.74
264
1.09
304
0.82
277
0.37
346
0.31
342
0.27
292
0.24
287
0.35
317
0.34
312
NCCL2two views0.74
295
0.45
309
0.77
273
0.65
349
0.45
326
0.97
302
1.16
373
1.16
265
1.02
264
1.00
285
0.98
201
1.48
351
0.88
310
0.99
286
0.89
286
0.31
315
0.27
323
0.39
346
0.39
351
0.33
305
0.34
312
SANettwo views1.15
352
0.45
309
1.40
353
0.50
271
0.32
247
1.54
363
1.21
376
1.49
353
3.35
398
1.61
358
2.41
374
2.32
380
1.80
379
1.57
357
1.27
342
0.28
298
0.25
312
0.26
284
0.24
287
0.36
321
0.32
301
MeshStereopermissivetwo views1.38
368
0.45
309
0.58
195
0.45
201
0.35
273
1.63
367
0.60
303
2.07
384
1.43
352
4.49
409
3.32
393
4.67
400
2.08
387
2.08
381
1.32
345
0.36
342
0.36
360
0.37
340
0.32
333
0.32
301
0.34
312
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
GMStereo_Zeroshotpermissivetwo views0.51
202
0.46
314
0.80
277
0.50
271
0.28
181
0.57
182
0.30
70
0.75
135
0.79
149
0.88
227
0.94
183
0.90
251
0.37
84
0.77
209
0.46
175
0.27
290
0.14
173
0.26
284
0.15
91
0.39
330
0.19
168
ADCReftwo views0.84
316
0.46
314
1.60
367
0.52
297
0.45
326
1.08
323
0.52
273
1.13
258
1.03
268
1.22
336
1.43
326
0.87
241
0.93
319
0.91
257
3.35
390
0.19
193
0.16
213
0.23
246
0.23
273
0.23
243
0.22
226
PA-Nettwo views0.70
286
0.46
314
0.96
313
0.51
283
0.53
347
0.94
297
0.73
332
1.14
260
1.15
312
0.83
191
0.90
166
0.88
244
0.76
276
1.19
318
0.96
306
0.25
276
0.41
371
0.29
310
0.44
363
0.27
275
0.39
327
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
PS-NSSStwo views0.60
264
0.46
314
0.68
240
0.43
168
0.34
268
0.66
222
0.57
291
1.05
231
0.91
215
0.80
181
1.28
298
0.72
190
0.67
231
0.89
250
0.61
235
0.32
320
0.26
321
0.40
349
0.27
310
0.35
317
0.29
287
NaN_ROBtwo views0.73
290
0.46
314
0.89
303
0.52
297
0.34
268
0.98
306
1.11
368
1.28
310
1.20
324
1.27
344
0.96
191
1.08
298
0.79
282
1.34
340
0.78
266
0.24
264
0.30
334
0.23
246
0.24
287
0.23
243
0.26
265
LALA_ROBtwo views0.76
302
0.46
314
0.86
294
0.55
319
0.41
302
1.00
309
0.93
358
1.25
298
1.13
305
1.23
338
1.15
269
1.55
359
0.80
286
1.11
307
0.96
306
0.33
328
0.23
296
0.35
333
0.30
321
0.35
317
0.32
301
HBP-ISPtwo views0.61
267
0.47
320
0.45
85
0.46
224
0.33
258
0.79
260
0.29
58
1.15
263
1.05
274
0.85
207
1.18
281
0.67
167
0.71
251
0.92
259
0.57
222
0.37
346
0.38
362
0.47
360
0.41
360
0.39
330
0.32
301
DANettwo views0.74
295
0.47
320
0.98
318
0.60
334
0.41
302
0.92
294
0.41
215
1.02
219
0.87
191
1.22
336
1.22
286
1.33
332
0.88
310
1.26
326
1.37
348
0.27
290
0.24
304
0.31
320
0.25
298
0.37
324
0.36
318
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
G-Nettwo views0.95
332
0.48
322
1.13
329
0.67
353
0.49
338
2.07
380
0.63
310
1.02
219
0.90
209
1.77
369
2.62
381
1.28
321
1.60
371
1.09
304
1.06
326
0.37
346
0.30
334
0.35
333
0.25
298
0.46
347
0.45
352
PDISCO_ROBtwo views0.96
333
0.51
323
1.13
329
1.03
381
1.00
383
1.81
375
0.77
338
1.72
377
1.60
365
1.09
319
1.19
282
1.34
335
0.80
286
1.62
359
1.01
313
0.58
376
0.22
289
0.45
356
0.40
355
0.50
355
0.41
338
MSMD_ROBtwo views1.25
360
0.51
323
0.64
222
0.60
334
0.50
341
1.66
369
0.67
315
1.26
300
1.26
332
2.64
391
3.82
398
3.06
389
3.20
403
1.45
350
0.91
295
0.46
360
0.41
371
0.49
366
0.51
375
0.47
349
0.45
352
CSANtwo views0.88
324
0.52
325
0.93
307
0.61
338
0.42
311
1.19
341
1.11
368
1.27
305
1.48
358
1.37
349
1.44
327
1.37
339
1.30
355
1.46
352
1.01
313
0.39
352
0.31
342
0.36
336
0.37
346
0.35
317
0.36
318
ETE_ROBtwo views0.73
290
0.52
325
0.93
307
0.57
325
0.37
280
0.80
266
0.86
353
1.19
276
0.95
234
1.20
333
1.22
286
1.39
344
0.86
303
1.07
300
0.88
284
0.27
290
0.21
280
0.31
320
0.27
310
0.34
311
0.35
315
dadtwo views0.61
267
0.53
327
0.72
259
0.44
189
0.31
229
0.64
211
0.37
159
0.85
165
1.28
334
1.05
305
1.17
277
1.18
314
0.61
199
0.70
178
0.54
214
0.36
342
0.23
296
0.37
340
0.21
246
0.31
295
0.23
245
XX-TBDtwo views0.32
27
0.53
327
0.26
4
0.53
304
0.21
25
0.38
92
0.24
24
0.41
2
0.77
140
0.55
63
0.70
83
0.31
8
0.26
18
0.33
3
0.28
29
0.16
100
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
psmorigintwo views0.84
316
0.53
327
2.21
383
0.50
271
0.41
302
0.86
285
0.57
291
1.08
243
0.90
209
1.50
354
1.42
324
1.50
353
1.09
338
1.29
331
1.03
318
0.32
320
0.33
353
0.27
292
0.27
310
0.34
311
0.45
352
FADNettwo views0.63
276
0.53
327
1.20
334
0.46
224
0.44
319
0.66
222
0.41
215
1.24
292
1.07
285
0.70
125
0.84
140
0.98
269
0.65
220
0.87
243
0.54
214
0.29
305
0.30
334
0.27
292
0.30
321
0.48
350
0.36
318
ADCPNettwo views1.11
350
0.53
327
3.26
391
0.55
319
0.44
319
1.47
356
0.83
348
1.21
282
1.17
317
1.26
343
1.42
324
1.67
365
1.12
342
1.48
353
3.86
396
0.30
312
0.29
330
0.30
319
0.32
333
0.37
324
0.37
324
FC-DCNNcopylefttwo views1.67
380
0.53
327
0.68
240
0.62
342
0.49
338
1.62
366
0.71
323
1.77
380
1.55
361
4.73
411
4.66
409
5.82
408
3.94
406
2.13
383
1.42
350
0.47
363
0.42
373
0.47
360
0.46
364
0.48
350
0.47
358
Wz-Net-LNSevtwo views0.75
299
0.54
333
1.59
364
0.51
283
0.41
302
1.16
336
0.79
342
1.27
305
1.13
305
1.04
300
1.14
267
1.11
307
0.94
322
0.93
262
1.00
312
0.24
264
0.22
289
0.21
220
0.19
210
0.26
266
0.27
273
SHDtwo views0.98
337
0.54
333
1.30
345
0.63
344
0.50
341
1.14
332
0.50
263
1.80
381
2.20
382
1.66
363
1.39
317
1.47
349
1.21
349
1.40
342
1.80
365
0.32
320
0.27
323
0.32
325
0.34
341
0.41
334
0.44
350
RTSCtwo views0.93
327
0.54
333
1.59
364
0.56
322
0.40
297
1.17
340
0.55
286
1.44
348
1.82
375
1.53
356
1.26
293
1.15
312
0.82
290
1.70
365
2.44
379
0.26
281
0.20
274
0.23
246
0.24
287
0.31
295
0.32
301
MANEtwo views4.73
406
0.54
333
0.77
273
0.69
360
0.60
361
10.35
415
1.67
397
8.68
416
12.66
416
6.90
415
9.43
417
11.59
418
10.59
415
8.26
415
8.41
408
0.51
368
0.45
377
0.48
363
1.02
396
0.50
355
0.50
363
FBW_ROBtwo views0.94
331
0.54
333
1.03
322
0.56
322
0.42
311
1.16
336
0.76
337
1.56
363
1.41
349
1.38
351
1.33
306
1.47
349
1.07
336
2.94
396
1.14
334
0.26
281
0.32
348
0.45
356
0.30
321
0.34
311
0.30
291
PWCDC_ROBbinarytwo views0.93
327
0.54
333
0.97
317
0.78
372
0.41
302
1.03
317
0.42
220
1.39
335
2.34
387
1.04
300
3.73
397
0.80
226
1.12
342
1.29
331
1.04
323
0.37
346
0.22
289
0.24
259
0.20
229
0.36
321
0.31
298
Syn2CoExtwo views0.74
295
0.55
339
1.17
333
0.66
351
0.45
326
0.89
291
0.56
289
1.54
358
1.15
312
0.95
261
1.35
311
1.03
282
1.03
331
0.96
273
0.89
286
0.31
315
0.27
323
0.29
310
0.24
287
0.23
243
0.27
273
DeepPrunerFtwo views0.93
327
0.55
339
3.88
393
0.70
363
0.81
373
0.72
243
0.74
334
1.28
310
1.97
378
0.95
261
1.02
220
0.87
241
0.85
299
1.16
314
1.07
328
0.35
340
0.29
330
0.43
352
0.40
355
0.31
295
0.33
310
FADNet-RVCtwo views0.62
273
0.56
341
1.29
343
0.47
242
0.39
294
0.63
203
0.40
195
1.16
265
0.91
215
0.71
134
0.86
151
1.04
286
0.55
168
0.99
286
0.78
266
0.27
290
0.26
321
0.28
302
0.29
320
0.32
301
0.31
298
FCDSN-DCtwo views1.43
372
0.57
342
0.69
248
0.74
368
0.59
358
1.42
353
0.65
314
1.40
339
1.41
349
3.31
404
4.42
407
4.57
399
3.01
401
1.70
365
1.19
338
0.46
360
0.42
373
0.48
363
0.47
365
0.51
358
0.51
367
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
ADCMidtwo views1.22
357
0.57
342
3.17
390
0.54
313
0.44
319
1.07
322
0.77
338
1.31
317
1.13
305
2.14
382
1.48
334
1.49
352
1.47
367
1.65
362
5.30
403
0.26
281
0.24
304
0.29
310
0.32
333
0.38
326
0.36
318
PWC_ROBbinarytwo views0.92
326
0.57
342
1.64
370
0.53
304
0.33
258
0.93
295
0.39
185
1.42
346
1.51
360
1.66
363
2.57
378
1.18
314
1.11
340
1.50
354
1.54
359
0.26
281
0.18
249
0.28
302
0.20
229
0.30
291
0.32
301
DGSMNettwo views0.80
306
0.58
345
1.42
355
0.61
338
0.65
365
0.94
297
0.75
336
1.35
328
1.16
314
0.88
227
1.26
293
1.00
274
0.75
267
1.07
300
0.89
286
0.36
342
0.31
342
0.41
350
0.40
355
0.60
371
0.59
375
aanetorigintwo views0.85
321
0.58
345
1.98
378
0.50
271
0.40
297
0.66
222
0.70
321
0.72
111
1.01
259
2.44
389
2.00
364
1.32
327
1.25
353
0.96
273
1.16
335
0.20
212
0.19
266
0.20
178
0.20
229
0.27
275
0.33
310
ccnettwo views0.84
316
0.59
347
0.86
294
0.56
322
0.60
361
1.11
328
0.72
327
1.44
348
0.97
246
1.15
329
1.44
327
1.28
321
0.95
324
1.01
292
1.33
346
0.49
365
0.43
375
0.50
368
0.47
365
0.52
361
0.48
360
Anonymous Stereotwo views0.82
309
0.59
347
2.10
381
0.59
332
0.58
356
0.68
235
1.42
389
1.05
231
1.07
285
1.03
294
1.02
220
0.86
237
0.65
220
1.33
339
1.36
347
0.32
320
0.31
342
0.31
320
0.33
339
0.34
311
0.39
327
STTRV1_RVCtwo views0.60
349
0.67
353
0.81
373
1.12
329
0.63
310
1.37
334
1.12
299
0.98
279
1.34
310
1.08
298
0.95
324
1.28
329
0.90
292
0.57
375
0.25
312
0.44
354
0.39
351
0.60
371
0.41
338
MFN_U_SF_DS_RVCtwo views1.06
343
0.61
350
1.82
375
0.69
360
0.51
343
2.62
387
1.69
398
1.28
310
1.44
353
1.39
352
1.56
340
1.34
335
0.91
315
1.68
364
0.95
304
0.38
351
0.39
366
0.46
359
0.61
382
0.41
334
0.43
346
RGCtwo views0.82
309
0.62
351
0.80
277
0.67
353
0.66
367
0.91
293
0.59
301
1.35
328
1.09
297
1.12
326
1.46
331
1.50
353
1.09
338
1.28
329
0.97
309
0.34
335
0.30
334
0.48
363
0.40
355
0.38
326
0.38
326
MFN_U_SF_RVCtwo views1.14
351
0.63
352
2.33
384
0.69
360
0.46
334
2.04
379
0.70
321
1.90
382
1.37
345
1.62
359
1.56
340
1.94
372
1.36
358
1.73
367
1.90
367
0.41
357
0.38
362
0.45
356
0.48
369
0.45
344
0.47
358
WZ-Nettwo views1.29
364
0.64
353
5.42
402
0.64
347
0.52
345
1.37
350
1.29
381
1.41
341
1.77
374
1.56
357
1.69
349
1.74
366
1.41
362
2.50
391
2.16
376
0.28
298
0.21
280
0.23
246
0.25
298
0.39
330
0.41
338
ELAS_RVCcopylefttwo views1.76
382
0.64
353
1.20
334
0.74
368
0.59
358
2.18
382
2.53
410
2.10
386
2.85
393
3.46
405
3.41
396
3.12
390
4.11
407
2.69
394
2.53
384
0.54
373
0.47
380
0.51
370
0.48
369
0.55
365
0.55
372
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views1.77
383
0.64
353
1.10
326
0.72
366
0.58
356
3.37
402
1.76
400
2.54
392
2.57
389
3.77
407
3.96
402
2.83
386
3.44
404
2.34
388
2.73
386
0.53
370
0.47
380
0.50
368
0.48
369
0.55
365
0.55
372
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
SAMSARAtwo views1.15
352
0.69
356
1.44
357
1.09
384
0.93
376
2.10
381
1.87
405
1.64
372
1.47
357
1.64
361
1.21
284
2.06
374
1.14
345
1.61
358
1.50
357
0.39
352
0.45
377
0.36
336
0.38
349
0.50
355
0.51
367
PVDtwo views1.34
367
0.70
357
1.42
355
0.78
372
0.65
365
1.68
370
0.91
354
2.12
387
3.01
394
2.25
384
2.35
373
1.90
371
1.99
385
1.98
377
2.14
374
0.40
356
0.38
362
0.49
366
0.37
346
0.51
358
0.67
376
XQCtwo views0.97
335
0.70
357
1.54
362
0.70
363
0.55
350
1.48
357
0.81
344
1.41
341
1.57
363
1.21
334
1.12
259
1.33
332
1.04
333
1.55
356
2.00
372
0.39
352
0.25
312
0.37
340
0.32
333
0.55
365
0.49
361
ADCStwo views1.60
377
0.70
357
4.02
395
0.61
338
0.53
347
1.31
346
1.11
368
1.71
376
1.86
377
1.97
377
1.68
347
1.51
355
1.46
365
2.07
380
9.20
410
0.34
335
0.32
348
0.33
330
0.36
344
0.45
344
0.46
356
PASMtwo views0.96
333
0.71
360
2.05
380
0.72
366
0.72
372
0.84
282
0.92
356
1.14
260
1.34
344
1.25
341
1.22
286
1.34
335
1.07
336
1.31
336
1.11
331
0.53
370
0.57
386
0.59
375
0.67
383
0.56
370
0.57
374
AnyNet_C32two views1.27
362
0.72
361
3.33
392
0.59
332
0.56
351
1.51
361
1.53
391
1.27
305
1.28
334
1.52
355
1.48
334
1.38
343
1.23
351
1.64
361
5.26
401
0.30
312
0.29
330
0.29
310
0.34
341
0.38
326
0.44
350
SQANettwo views0.87
323
0.76
362
0.76
270
1.16
385
0.99
382
1.10
324
0.51
266
1.12
252
0.85
181
0.93
252
1.05
237
1.03
282
0.76
276
1.07
300
0.70
253
0.79
381
0.25
312
1.04
385
0.36
344
1.56
389
0.70
377
GASNettwo views0.70
286
0.77
363
1.16
332
0.71
365
0.49
338
0.62
198
0.48
250
1.12
252
1.05
274
0.98
279
0.84
140
0.94
262
0.82
290
1.41
345
0.85
281
0.33
328
0.22
289
0.29
310
0.28
316
0.44
343
0.26
265
GANetREF_RVCpermissivetwo views0.82
309
0.77
363
0.95
312
0.68
357
0.43
314
1.15
334
1.06
366
1.19
276
1.20
324
1.03
294
1.02
220
1.10
305
0.89
312
1.20
321
0.78
266
0.49
365
0.39
366
0.58
374
0.39
351
0.69
374
0.49
361
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
Wz-Net-SNSevtwo views0.99
339
0.80
365
3.00
387
0.57
325
0.46
334
0.94
297
1.22
378
1.40
339
1.28
334
1.04
300
1.33
306
1.46
347
0.90
314
2.06
379
1.65
362
0.26
281
0.24
304
0.25
270
0.26
306
0.33
305
0.30
291
UDGNettwo views0.50
192
0.82
366
0.56
186
0.51
283
0.32
247
0.41
111
0.34
118
0.71
101
0.93
223
0.65
100
0.60
60
0.58
116
0.44
126
0.65
140
0.43
159
0.33
328
0.15
192
0.67
377
0.20
229
0.49
353
0.23
245
Consistency-Rafttwo views1.01
341
0.82
366
1.27
341
0.85
374
0.97
380
0.81
271
0.83
348
1.35
328
1.61
366
1.06
313
1.66
346
1.11
307
0.93
319
0.93
262
1.11
331
0.65
378
0.75
394
0.79
379
0.91
392
1.09
386
0.79
380
EDNetEfficienttwo views1.47
374
0.82
366
6.28
404
0.48
251
0.40
297
0.73
244
0.83
348
0.95
198
2.77
392
3.48
406
1.95
361
1.64
364
2.12
388
1.42
346
3.84
395
0.21
227
0.19
266
0.21
220
0.21
246
0.43
340
0.42
342
LSMtwo views4.83
408
0.83
369
11.23
410
0.76
371
56.73
435
1.10
324
1.18
374
1.35
328
1.70
372
2.13
379
2.34
371
1.34
335
1.19
348
1.52
355
1.23
340
0.34
335
0.50
382
0.39
346
0.47
365
0.51
358
9.82
421
MaskLacGwcNet_RVCtwo views0.71
288
0.84
370
0.80
277
0.55
319
0.38
285
1.38
351
0.57
291
1.07
238
0.81
163
0.90
241
0.94
183
0.95
263
0.54
165
1.01
292
0.61
235
0.41
357
0.30
334
0.57
373
0.31
330
0.86
379
0.39
327
AnonymousMtwo views0.42
125
0.86
371
0.31
10
0.35
12
0.23
56
0.30
40
0.37
159
0.56
24
0.44
44
0.72
135
0.50
33
0.47
70
0.29
42
0.42
19
0.35
91
0.16
100
0.12
87
1.51
389
0.32
333
0.12
2
0.11
3
anonymitytwo views0.98
337
0.89
372
1.06
325
0.93
377
1.04
387
0.97
302
0.82
346
1.33
325
0.93
223
1.08
315
0.98
201
1.02
280
0.95
324
1.02
295
0.93
299
0.96
387
0.96
407
0.90
382
0.91
392
0.92
381
0.95
385
MSC_U_SF_DS_RVCtwo views1.38
368
0.91
373
2.11
382
0.89
375
0.57
355
4.27
407
1.79
402
1.55
359
2.00
380
1.64
361
1.85
358
1.83
368
1.44
364
1.89
375
1.49
356
0.49
365
0.40
369
0.56
372
0.58
379
0.75
376
0.52
369
SPS-STEREOcopylefttwo views1.29
364
0.94
374
1.10
326
1.05
383
1.03
386
1.48
357
0.91
354
1.57
365
1.24
327
2.13
379
1.90
360
1.94
372
1.46
365
1.77
368
1.64
361
0.97
388
0.94
406
0.90
382
0.89
391
0.96
383
0.97
386
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
otakutwo views1.10
347
0.96
375
0.96
313
1.37
391
1.06
388
1.65
368
0.72
327
1.46
351
1.19
322
1.10
322
1.32
305
1.32
327
0.95
324
1.29
331
0.81
276
0.89
386
0.46
379
1.24
387
0.50
374
1.86
391
0.89
382
NVStereoNet_ROBtwo views1.31
366
0.96
375
1.33
348
0.90
376
0.92
375
1.15
334
1.05
365
1.49
353
1.62
367
1.63
360
2.51
376
2.31
378
1.62
372
2.16
384
1.42
350
0.81
383
0.73
390
0.79
379
1.02
396
0.73
375
0.97
386
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
MFMNet_retwo views1.17
355
0.99
377
1.31
346
1.02
380
0.95
378
1.32
347
1.32
382
1.44
348
1.58
364
1.72
368
1.70
350
1.21
316
1.57
370
1.16
314
1.04
323
0.88
385
0.76
396
0.79
379
0.75
387
0.90
380
0.94
383
SGM+DAISYtwo views1.52
375
0.99
377
1.61
368
1.01
379
1.02
385
1.86
377
1.19
375
1.49
353
1.38
347
2.96
398
3.00
388
2.79
385
1.94
381
1.88
373
1.62
360
0.98
389
0.97
408
0.91
384
0.91
392
0.94
382
0.99
388
Ntrotwo views1.15
352
1.00
379
1.00
319
1.49
392
1.20
390
1.69
371
0.81
344
1.39
335
1.25
329
1.01
287
1.28
298
1.31
325
1.00
329
1.31
336
0.89
286
1.10
392
0.43
375
1.36
388
0.51
375
1.95
393
0.99
388
CC-Net-ROBtwo views0.84
316
1.01
380
0.93
307
0.60
334
0.45
326
1.25
344
0.71
323
1.20
279
1.05
274
0.84
197
1.24
289
0.90
251
0.78
281
1.14
310
0.70
253
0.48
364
0.34
356
1.71
391
0.38
349
0.78
377
0.40
333
UDGtwo views0.93
327
1.03
381
0.75
269
1.00
378
0.97
380
1.02
315
0.57
291
1.18
273
1.01
259
0.93
252
1.02
220
1.32
327
1.03
331
0.88
249
0.92
297
0.55
374
0.33
353
1.82
393
0.41
360
1.20
387
0.74
378
RTStwo views2.03
387
1.03
381
11.50
411
0.68
357
0.63
363
2.71
389
1.56
393
1.55
359
2.32
385
1.93
374
2.57
378
1.32
327
1.32
356
5.20
408
4.30
397
0.31
315
0.23
296
0.29
310
0.30
321
0.41
334
0.40
333
RTSAtwo views2.03
387
1.03
381
11.50
411
0.68
357
0.63
363
2.71
389
1.56
393
1.55
359
2.32
385
1.93
374
2.57
378
1.32
327
1.32
356
5.20
408
4.30
397
0.31
315
0.23
296
0.29
310
0.30
321
0.41
334
0.40
333
AnyNet_C01two views1.63
378
1.16
384
7.38
406
0.65
349
0.56
351
2.25
383
1.53
391
1.53
357
1.46
356
1.71
367
1.95
361
1.83
368
1.41
362
2.48
389
4.42
399
0.33
328
0.32
348
0.32
325
0.34
341
0.45
344
0.50
363
EDNetEfficientorigintwo views9.96
415
1.17
385
175.17
438
0.49
260
0.37
280
1.13
331
0.74
334
1.27
305
2.70
391
3.16
403
2.49
375
2.28
377
2.15
389
1.88
373
2.27
378
0.21
227
0.19
266
0.25
270
0.20
229
0.54
363
0.53
371
WAO-7two views1.96
384
1.24
386
1.52
359
1.28
389
1.06
388
2.92
397
1.64
396
3.32
399
3.05
396
2.28
385
3.32
393
3.19
392
2.38
394
3.39
398
2.49
383
1.02
390
0.92
402
1.06
386
1.04
398
1.05
385
0.99
388
Wz-Net-TNSevtwo views1.23
359
1.24
386
5.25
401
0.51
283
0.43
314
1.49
360
1.09
367
1.58
366
1.42
351
1.25
341
1.26
293
1.58
362
1.52
369
1.97
376
1.95
368
0.33
328
0.32
348
0.26
284
0.30
321
0.41
334
0.43
346
ACVNet_2two views1.74
381
1.30
388
1.62
369
1.81
395
1.63
395
2.28
384
1.34
384
2.35
390
2.64
390
1.82
370
2.55
377
2.99
387
1.71
376
1.67
363
1.20
339
1.48
396
0.59
387
1.81
392
0.71
385
2.09
396
1.29
396
ACVNet-4btwo views1.43
372
1.34
389
1.28
342
1.95
399
1.60
394
1.93
378
0.77
338
1.59
367
1.64
369
1.05
305
1.60
344
2.10
375
0.92
317
1.79
370
0.84
279
1.76
400
0.35
358
2.03
399
0.67
383
2.16
398
1.18
392
ACVNet_1two views1.55
376
1.36
390
1.35
350
1.96
400
1.63
395
1.83
376
0.96
361
2.09
385
1.85
376
1.43
353
1.54
338
2.31
378
1.68
375
1.42
346
1.18
336
1.76
400
0.51
383
2.05
401
0.59
380
2.24
401
1.30
397
JetBluetwo views3.02
399
1.39
391
7.91
407
1.17
386
1.49
393
8.53
413
7.94
415
2.82
393
1.98
379
2.15
383
2.69
383
3.32
394
3.01
401
6.66
412
3.81
394
0.79
381
0.78
397
0.75
378
0.76
388
1.04
384
1.33
399
Deantwo views2.07
390
1.39
391
1.69
374
2.17
402
1.83
402
2.75
392
1.28
380
3.49
403
3.80
402
2.13
379
3.30
392
3.18
391
1.98
384
1.78
369
1.72
363
1.73
399
0.79
400
1.99
395
0.91
392
2.17
399
1.34
400
LVEtwo views2.20
393
1.47
393
1.44
357
2.06
401
1.80
401
2.79
394
1.77
401
2.96
394
3.94
404
1.95
376
4.29
406
3.47
396
1.97
382
2.48
389
1.85
366
2.06
402
0.88
401
2.06
402
1.13
403
2.17
399
1.53
402
WAO-6two views2.11
391
1.52
394
1.25
337
1.73
394
1.69
399
2.72
391
1.62
395
3.15
397
3.64
399
2.01
378
3.28
391
3.52
397
2.20
392
2.59
392
2.48
382
1.31
395
0.92
402
2.04
400
1.22
407
1.89
392
1.35
401
RainbowNettwo views1.42
371
1.53
395
1.31
346
1.93
398
1.46
392
1.52
362
1.03
364
1.67
374
1.55
361
1.23
338
1.59
343
1.54
358
1.21
349
1.40
342
1.03
318
1.70
398
0.70
389
1.82
393
0.80
389
2.11
397
1.22
393
coex-fttwo views6.50
413
1.57
396
87.99
437
0.49
260
0.38
285
1.41
352
1.21
376
1.21
282
7.96
410
12.14
418
2.78
384
2.74
384
3.83
405
1.30
335
3.19
389
0.24
264
0.23
296
0.27
292
0.24
287
0.48
350
0.40
333
WAO-8two views3.00
397
1.60
397
1.52
359
1.82
396
1.65
397
5.57
409
1.35
385
4.65
410
12.37
414
2.89
394
4.04
403
4.89
403
2.78
397
3.73
402
2.44
379
1.29
393
0.93
404
2.00
396
1.16
405
2.02
394
1.23
394
Venustwo views3.00
397
1.60
397
1.52
359
1.82
396
1.65
397
5.57
409
1.35
385
4.65
410
12.37
414
2.89
394
4.04
403
4.89
403
2.78
397
3.73
402
2.44
379
1.29
393
0.93
404
2.00
396
1.16
405
2.02
394
1.23
394
BEATNet-Init1two views15.65
419
1.62
399
54.26
436
0.75
370
0.56
351
37.03
431
13.39
418
13.20
421
14.59
418
29.41
435
29.29
435
47.69
438
21.87
427
26.91
429
19.58
419
0.43
359
0.39
366
0.47
360
0.47
365
0.52
361
0.52
369
IMH-64-1two views1.96
384
1.64
400
1.26
338
2.26
404
1.91
403
2.30
385
1.35
385
2.99
395
2.29
383
1.70
365
2.79
385
2.47
381
1.66
373
2.33
386
1.95
368
2.07
403
0.74
392
2.44
405
1.04
398
2.40
403
1.59
403
IMH-64two views1.96
384
1.64
400
1.26
338
2.26
404
1.91
403
2.30
385
1.35
385
2.99
395
2.29
383
1.70
365
2.79
385
2.47
381
1.66
373
2.33
386
1.95
368
2.07
403
0.74
392
2.44
405
1.04
398
2.40
403
1.59
403
IMHtwo views2.15
392
1.66
402
1.29
343
2.25
403
1.92
405
2.87
395
1.33
383
3.25
398
3.04
395
1.87
372
3.33
395
3.00
388
2.03
386
2.80
395
1.95
368
2.09
405
0.78
397
2.45
407
1.05
401
2.44
405
1.62
405
PWCKtwo views2.06
389
1.75
403
4.11
397
1.69
393
0.93
376
3.13
400
2.86
412
2.18
388
2.41
388
2.38
386
2.33
370
2.22
376
1.85
380
3.52
400
2.20
377
1.65
397
0.73
390
1.52
390
0.83
390
1.81
390
1.02
391
TorneroNet-64two views3.54
401
1.89
404
1.59
364
2.62
410
2.29
407
6.88
412
1.72
399
4.72
412
11.88
412
2.43
388
5.46
413
8.16
413
2.80
399
4.13
406
3.03
388
2.25
408
0.75
394
2.57
409
1.09
402
2.65
409
1.84
407
TorneroNettwo views4.49
405
1.92
405
1.65
372
2.60
409
2.29
407
14.95
420
1.86
404
4.86
413
19.56
428
3.10
402
7.52
416
7.00
412
2.90
400
4.48
407
3.66
392
2.24
407
0.78
397
2.68
411
1.14
404
2.79
410
1.80
406
KSHMRtwo views2.64
395
1.96
406
1.86
377
2.69
411
2.44
409
2.88
396
2.04
406
3.46
402
6.31
408
2.51
390
3.27
390
3.39
395
1.97
382
2.59
392
2.08
373
2.48
410
1.41
412
2.80
414
1.51
410
2.98
411
2.09
408
UNDER WATER-64two views3.72
403
2.07
407
4.57
399
3.30
416
2.52
412
5.61
411
2.63
411
3.67
405
12.27
413
3.09
401
2.66
382
5.99
410
4.74
410
3.93
405
3.57
391
2.54
411
1.24
411
2.65
410
1.48
409
3.21
414
2.62
413
UNDER WATERtwo views3.63
402
2.12
408
4.11
397
3.17
414
2.51
411
3.77
405
2.45
409
3.53
404
13.66
417
2.98
399
2.92
387
5.75
407
4.13
408
3.85
404
3.75
393
2.84
414
1.11
409
2.71
412
1.41
408
3.26
415
2.50
412
ktntwo views3.02
399
2.27
409
1.85
376
2.89
412
2.54
413
3.72
403
2.14
407
3.79
406
5.33
406
2.82
393
5.09
411
5.95
409
2.54
395
3.34
397
2.58
385
2.65
412
1.44
413
2.78
413
2.03
413
2.61
408
2.10
409
notakertwo views2.87
396
2.31
410
2.01
379
3.03
413
2.60
414
2.94
398
1.82
403
3.43
401
3.06
397
2.89
394
4.21
405
6.15
411
2.71
396
3.42
399
2.90
387
2.67
413
1.18
410
3.00
415
1.67
411
3.13
412
2.26
410
FADEtwo views2.54
411
1.04
382
1.00
383
21.24
432
0.63
373
MADNet+two views2.28
394
2.56
412
10.82
409
1.25
388
0.96
379
2.77
393
1.44
390
2.34
389
1.76
373
1.36
348
1.78
355
1.84
370
1.74
377
6.33
411
4.57
400
0.67
379
0.66
388
0.59
375
0.54
378
0.84
378
0.81
381
HanzoNettwo views6.97
414
2.57
413
4.66
400
3.29
415
2.96
416
3.75
404
2.35
408
5.08
414
7.11
409
14.46
425
13.06
418
17.69
422
22.95
428
13.72
420
6.61
405
4.36
417
1.96
414
3.14
416
2.59
415
3.88
418
3.19
416
DDUNettwo views1.10
347
2.58
414
0.83
287
1.21
387
1.27
391
1.02
315
0.69
320
1.17
271
0.95
234
0.98
279
1.26
293
1.28
321
0.84
295
0.97
280
0.79
273
0.85
384
0.40
369
2.00
396
0.60
381
1.34
388
0.94
383
DispFullNettwo views1.64
379
2.64
415
3.14
389
2.57
407
1.78
400
1.32
347
0.55
286
1.42
346
1.45
354
1.89
373
1.48
334
1.55
359
2.35
393
2.08
381
1.12
333
0.60
377
0.19
266
2.33
404
0.73
386
2.35
402
1.30
397
DPSimNet_ROBtwo views5.19
410
2.71
416
18.56
416
2.59
408
2.49
410
4.25
406
10.93
416
3.33
400
3.93
403
5.02
412
4.52
408
5.74
406
10.18
413
5.44
410
8.79
409
2.40
409
2.47
415
2.48
408
2.54
414
2.56
407
2.87
414
MADNet++two views4.18
404
2.72
417
4.00
394
3.80
418
3.44
417
4.72
408
4.05
414
4.01
407
3.74
400
4.52
410
5.14
412
4.20
398
4.89
411
7.04
414
6.39
404
3.79
415
3.70
418
3.27
417
2.70
416
3.68
417
3.74
418
SPstereotwo views24.33
424
4.45
418
7.15
405
4.44
419
4.17
418
45.69
432
77.93
438
63.66
439
33.40
437
27.58
434
26.62
427
39.42
437
33.37
437
42.68
439
50.66
433
4.01
416
3.77
419
6.06
422
4.73
418
3.17
413
3.55
417
JetRedtwo views5.38
411
6.17
419
12.68
414
2.38
406
2.85
415
12.60
419
11.17
417
4.60
409
3.74
400
3.87
408
3.85
399
4.83
401
4.13
408
6.81
413
12.18
414
2.18
406
2.95
417
2.19
403
1.98
412
3.49
416
3.01
415
DPSMNet_ROBtwo views12.13
418
8.03
420
21.13
418
9.02
423
16.82
422
10.68
416
30.78
425
9.15
418
15.24
420
6.56
414
15.50
426
9.02
415
15.13
418
9.28
417
21.71
422
4.59
420
8.60
421
5.08
420
9.26
422
5.89
422
11.06
422
DGTPSM_ROBtwo views12.12
417
8.03
420
21.12
417
8.97
422
16.81
421
10.68
416
30.77
424
9.14
417
15.23
419
6.55
413
15.49
425
9.02
415
15.13
418
9.26
416
21.71
422
4.58
419
8.60
421
5.07
419
9.26
422
5.88
421
11.06
422
ASD4two views10.37
416
9.12
422
17.90
415
7.49
421
10.02
419
16.90
421
28.93
423
11.05
419
8.53
411
7.42
416
7.41
414
8.91
414
10.32
414
11.44
419
20.38
421
4.52
418
4.58
420
5.68
421
5.04
420
5.72
419
6.02
420
Anonymous_1two views33.12
426
18.23
423
23.86
420
20.53
424
21.18
425
25.45
423
35.84
426
22.44
430
15.68
421
13.41
419
13.70
422
18.00
423
15.15
420
20.31
421
24.47
424
14.56
429
8.84
423
66.24
437
117.79
436
155.41
440
11.40
424
DPSM_ROBtwo views17.80
420
18.60
424
24.24
424
20.89
425
19.49
423
25.83
424
36.10
427
21.62
428
16.41
422
13.46
420
14.26
423
19.11
425
16.15
421
20.74
422
25.59
425
9.37
424
9.23
424
9.47
424
9.81
424
13.47
423
12.09
425
DPSMtwo views17.80
420
18.60
424
24.24
424
20.89
425
19.49
423
25.83
424
36.10
427
21.62
428
16.41
422
13.46
420
14.26
423
19.11
425
16.15
421
20.74
422
25.59
425
9.37
424
9.23
424
9.47
424
9.81
424
13.47
423
12.09
425
xxxxx1two views36.77
432
19.69
426
24.00
421
62.46
437
66.77
437
27.30
427
39.89
429
20.40
423
18.80
425
14.18
422
13.11
419
17.29
419
17.30
423
21.62
425
27.81
427
13.61
426
18.98
434
111.36
438
133.25
437
28.84
432
38.64
434
tt_lltwo views36.77
432
19.69
426
24.00
421
62.46
437
66.77
437
27.30
427
39.89
429
20.40
423
18.80
425
14.18
422
13.11
419
17.29
419
17.30
423
21.62
425
27.81
427
13.61
426
18.98
434
111.36
438
133.25
437
28.84
432
38.64
434
fftwo views36.77
432
19.69
426
24.00
421
62.46
437
66.77
437
27.30
427
39.89
429
20.40
423
18.80
425
14.18
422
13.11
419
17.29
419
17.30
423
21.62
425
27.81
427
13.61
426
18.98
434
111.36
438
133.25
437
28.84
432
38.64
434
PMLtwo views40.49
438
30.31
429
12.46
413
7.19
420
14.30
420
91.44
439
212.44
440
7.73
415
23.24
429
74.44
439
185.05
440
49.81
439
25.78
429
21.34
424
12.84
415
8.71
423
2.93
416
8.43
423
3.24
417
13.77
425
4.45
419
LRCNet_RVCtwo views21.27
423
31.14
430
21.46
419
28.97
428
23.77
426
3.11
399
0.62
307
20.94
426
1.64
369
25.57
427
28.13
428
21.96
427
14.74
417
21.99
428
16.44
418
29.16
436
14.92
427
33.57
433
31.28
432
29.67
435
26.33
432
DLNR_Zeroshot_testpermissivetwo views20.12
422
36.36
431
38.38
427
170.13
440
62.28
436
0.22
4
0.20
1
13.43
422
0.40
30
0.45
41
0.66
74
0.42
47
0.21
5
0.64
134
0.32
65
5.57
421
0.10
8
0.15
42
0.11
16
72.31
439
0.13
31
HaxPigtwo views31.93
425
37.19
432
34.22
426
24.41
427
24.94
427
18.53
422
20.18
420
21.15
427
28.84
430
35.74
436
38.86
436
26.18
428
28.75
430
33.85
430
34.15
430
35.89
437
38.80
437
37.79
434
40.52
433
39.33
436
39.33
437
CasAABBNettwo views35.77
427
37.38
433
48.59
431
42.20
431
39.23
430
51.95
433
72.92
437
43.36
436
33.03
433
26.93
428
28.31
429
38.43
434
32.32
431
41.58
433
51.50
438
18.71
430
18.58
429
19.11
430
19.75
427
27.11
429
24.33
427
Selective-RAFT-Errortwo views35.87
431
37.42
434
48.73
435
42.24
432
39.28
431
52.00
437
72.87
433
43.41
437
32.95
432
26.97
429
28.72
430
38.71
436
33.15
436
41.59
437
51.42
434
18.77
434
18.60
430
19.14
431
19.78
431
27.19
430
24.42
431
MyStereo03two views35.83
428
37.48
435
48.64
432
42.37
433
39.41
432
51.98
434
72.91
434
43.07
433
33.07
434
27.20
431
28.81
432
38.36
431
32.60
432
41.58
433
51.47
435
18.74
431
18.61
431
19.07
426
19.77
428
27.10
426
24.35
428
MyStereo02two views35.83
428
37.48
435
48.64
432
42.37
433
39.41
432
51.98
434
72.91
434
43.07
433
33.07
434
27.20
431
28.81
432
38.36
431
32.60
432
41.58
433
51.47
435
18.74
431
18.61
431
19.07
426
19.77
428
27.10
426
24.35
428
MyStereotwo views35.83
428
37.48
435
48.64
432
42.37
433
39.41
432
51.98
434
72.91
434
43.07
433
33.07
434
27.20
431
28.81
432
38.36
431
32.60
432
41.58
433
51.47
435
18.74
431
18.61
431
19.07
426
19.77
428
27.10
426
24.35
428
LSM0two views38.96
437
37.52
438
48.37
430
43.79
436
91.31
440
52.31
438
72.38
432
43.71
438
32.75
431
27.16
430
28.73
431
38.51
435
32.63
435
41.75
438
51.59
439
18.85
435
18.43
428
19.09
429
19.60
426
27.21
431
33.44
433
AVERAGE_ROBtwo views37.53
436
40.05
439
40.01
428
34.74
430
33.76
429
28.46
430
25.14
422
32.31
432
34.08
439
41.20
437
40.52
437
34.51
430
34.78
439
39.11
431
37.48
432
42.68
438
43.32
438
43.80
435
42.99
434
40.42
437
41.31
438
MEDIAN_ROBtwo views37.35
435
40.72
440
40.37
429
32.26
429
31.80
428
27.29
426
25.02
421
29.47
431
33.43
438
41.99
438
41.60
438
33.48
429
34.37
438
39.66
432
36.94
431
43.49
439
43.96
439
44.07
436
43.35
435
41.32
438
42.43
439
test_example2two views176.82
439
204.75
441
198.54
439
188.58
441
191.23
441
151.28
440
169.77
439
97.63
440
125.81
440
179.94
440
183.74
439
158.20
440
139.14
440
192.16
440
198.12
440
203.48
440
236.37
440
163.71
441
173.22
440
217.79
441
162.95
440