This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CAStwo views0.63
118
0.18
1
0.37
2
2.27
393
0.84
350
0.57
75
0.54
191
0.79
14
0.62
24
0.48
19
0.70
32
0.36
2
0.26
1
0.45
2
0.35
27
2.24
394
0.10
1
0.14
1
0.09
1
0.15
5
1.06
384
CEStwo views0.48
34
0.20
2
0.37
2
0.39
4
1.39
385
0.55
67
0.35
48
0.98
63
0.66
41
0.44
9
0.66
24
0.35
1
0.27
2
0.56
11
0.33
16
0.15
6
0.13
43
0.15
3
0.10
2
0.19
73
1.46
390
s12784htwo views0.52
41
0.20
2
0.38
4
0.41
5
0.19
1
0.96
227
0.34
44
1.17
125
1.25
236
0.81
68
0.90
66
0.63
59
0.50
58
1.45
170
0.42
75
0.14
4
0.12
9
0.17
15
0.11
6
0.18
43
0.11
1
LoStwo views0.40
8
0.21
4
0.44
11
0.37
2
0.22
4
0.50
40
0.40
85
1.00
69
0.94
108
0.48
19
0.66
24
0.48
23
0.40
18
0.60
24
0.37
39
0.18
60
0.14
76
0.16
9
0.11
6
0.14
2
0.14
11
CREStereo++_RVCtwo views0.47
32
0.21
4
0.38
4
0.45
33
0.38
172
0.45
17
0.25
4
0.75
9
1.29
257
0.80
64
1.21
170
0.47
20
0.37
13
0.53
6
0.44
86
0.16
11
0.11
3
0.15
3
0.80
381
0.18
43
0.11
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TANstereotwo views0.44
23
0.21
4
0.44
11
0.41
5
0.21
3
0.65
110
0.26
10
0.79
14
0.83
76
0.93
85
0.98
83
0.51
33
0.46
35
0.54
8
0.35
27
0.18
60
0.24
275
0.16
9
0.13
11
0.16
13
0.26
227
CREStereotwo views0.39
5
0.21
4
0.38
4
0.34
1
0.22
4
0.53
58
0.29
20
0.77
12
1.11
176
0.58
34
0.71
34
0.51
33
0.41
20
0.54
8
0.34
24
0.18
60
0.13
43
0.15
3
0.10
2
0.14
2
0.14
11
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.46
26
0.21
4
0.38
4
0.37
2
0.23
6
0.71
144
0.27
15
0.74
8
1.04
148
0.64
42
0.70
32
0.55
41
0.47
41
0.86
71
0.35
27
1.00
379
0.13
43
0.15
3
0.10
2
0.15
5
0.13
3
IGEV+two views0.40
8
0.22
9
0.51
24
0.52
112
0.29
64
0.45
17
0.25
4
1.65
234
0.46
4
0.37
2
0.57
19
0.46
16
0.45
31
0.50
4
0.38
49
0.19
92
0.12
9
0.16
9
0.13
11
0.16
13
0.15
27
EGLCR-Stereotwo views0.37
3
0.22
9
0.51
24
0.43
8
0.26
20
0.44
16
0.22
2
0.99
65
0.48
5
0.42
5
0.42
2
0.67
69
0.29
3
0.86
71
0.33
16
0.17
32
0.12
9
0.19
51
0.17
76
0.17
25
0.15
27
test_4two views0.53
50
0.22
9
0.56
38
0.54
136
0.32
108
0.64
98
0.39
82
0.80
19
0.62
24
0.92
84
1.87
326
0.68
71
0.42
22
1.16
124
0.37
39
0.15
6
0.13
43
0.20
75
0.22
200
0.20
99
0.15
27
test-3two views0.54
64
0.22
9
0.68
90
0.47
42
0.27
33
0.58
76
0.35
48
0.92
42
1.00
136
1.32
248
0.69
31
0.87
129
0.45
31
1.68
213
0.37
39
0.16
11
0.11
3
0.20
75
0.16
60
0.17
25
0.13
3
test_1two views0.54
64
0.22
9
0.68
90
0.47
42
0.27
33
0.58
76
0.35
48
0.92
42
1.00
136
1.28
223
0.68
28
0.87
129
0.45
31
1.67
208
0.37
39
0.16
11
0.11
3
0.20
75
0.16
60
0.17
25
0.13
3
MIF-Stereotwo views0.36
1
0.23
14
0.59
54
0.48
53
0.36
147
0.40
10
0.32
31
0.53
1
0.49
6
0.54
32
0.55
17
0.36
2
0.31
6
0.58
14
0.51
133
0.20
119
0.15
126
0.17
15
0.15
31
0.19
73
0.15
27
MC-Stereotwo views0.43
15
0.23
14
0.48
15
0.51
96
0.28
52
0.39
9
0.32
31
0.88
33
0.68
45
0.60
40
0.84
56
0.56
43
0.61
108
1.03
100
0.31
5
0.17
32
0.11
3
0.17
15
0.15
31
0.16
13
0.13
3
RCA-Stereotwo views0.50
39
0.23
14
0.58
49
0.48
53
0.33
124
0.55
67
0.45
137
0.97
61
1.38
297
0.68
45
1.05
112
0.63
59
0.80
166
0.59
15
0.32
7
0.17
32
0.12
9
0.17
15
0.14
23
0.16
13
0.14
11
test_3two views0.55
79
0.23
14
0.71
116
0.53
121
0.28
52
0.61
89
0.40
85
0.92
42
1.05
152
1.19
187
0.68
28
0.93
147
0.44
28
1.67
208
0.39
56
0.15
6
0.12
9
0.22
124
0.19
110
0.21
133
0.14
11
DEmStereotwo views0.97
261
0.23
14
0.79
171
0.47
42
0.32
108
1.04
242
0.56
210
0.93
46
0.89
90
1.39
276
2.14
347
1.02
180
2.07
372
5.64
359
0.77
216
0.17
32
0.15
126
0.20
75
0.20
139
0.18
43
0.20
136
111two views0.60
103
0.23
14
0.70
105
0.43
8
0.24
9
0.72
146
0.42
98
1.18
130
1.41
309
0.80
64
1.38
230
1.10
204
0.79
161
0.96
85
0.58
164
0.18
60
0.13
43
0.17
15
0.15
31
0.17
25
0.19
113
MIM_Stereotwo views0.57
92
0.24
20
0.92
217
0.46
36
0.30
81
0.54
61
0.28
18
1.27
154
0.75
57
1.00
103
1.16
157
0.93
147
0.53
67
1.45
170
0.61
175
0.16
11
0.16
157
0.20
75
0.19
110
0.17
25
0.14
11
AEACVtwo views0.37
3
0.24
20
0.52
27
0.47
42
0.51
246
0.37
8
0.38
71
0.65
4
0.53
17
0.42
5
0.56
18
0.46
16
0.60
99
0.53
6
0.30
1
0.16
11
0.13
43
0.18
37
0.15
31
0.17
25
0.14
11
Any-RAFTtwo views0.53
50
0.24
20
0.47
13
0.47
42
0.27
33
1.00
237
0.25
4
1.58
220
1.05
152
0.85
78
0.99
85
1.06
189
0.47
41
0.70
35
0.32
7
0.18
60
0.13
43
0.16
9
0.13
11
0.16
13
0.16
42
4D-IteraStereotwo views0.48
34
0.24
20
0.76
157
0.50
73
0.44
205
0.66
119
0.31
28
0.87
26
1.02
141
1.03
113
0.72
36
0.78
92
0.32
9
0.64
27
0.37
39
0.17
32
0.11
3
0.23
152
0.19
110
0.19
73
0.13
3
Selective-IGEVtwo views0.39
5
0.24
20
0.50
18
0.44
23
0.25
18
0.46
19
0.33
34
1.25
152
0.40
1
0.35
1
0.45
3
0.52
38
0.30
4
1.07
111
0.30
1
0.14
4
0.12
9
0.17
15
0.13
11
0.16
13
0.13
3
ffftwo views0.53
50
0.24
20
0.70
105
0.43
8
0.24
9
0.48
21
0.36
58
1.07
103
1.25
236
1.10
133
1.02
100
0.57
45
1.06
269
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
ADStereo(finetuned)two views0.57
92
0.24
20
1.06
259
0.43
8
0.24
9
0.49
31
0.35
48
1.05
88
1.30
263
1.12
139
1.03
108
0.58
49
1.20
296
0.84
66
0.51
133
0.16
11
0.13
43
0.17
15
0.13
11
0.18
43
0.19
113
CrosDoStereotwo views1.58
340
0.24
20
0.72
120
0.48
53
0.29
64
0.67
123
12.49
417
1.10
110
0.98
124
1.34
259
1.75
311
1.00
171
1.89
361
6.65
375
0.81
228
0.19
92
0.15
126
0.20
75
0.22
200
0.18
43
0.19
113
DeepStereo_LLtwo views1.58
340
0.24
20
0.72
120
0.48
53
0.29
64
0.67
123
12.49
417
1.10
110
0.98
124
1.34
259
1.75
311
1.00
171
1.89
361
6.65
375
0.81
228
0.19
92
0.15
126
0.20
75
0.22
200
0.18
43
0.19
113
DRafttwo views0.80
206
0.24
20
0.70
105
0.45
33
0.30
81
0.97
231
0.53
187
1.05
88
0.97
119
1.78
335
2.02
339
0.80
97
1.74
351
2.73
294
0.72
201
0.17
32
0.14
76
0.20
75
0.20
139
0.18
43
0.21
152
RAFT-RH_RVCtwo views1.03
277
0.24
20
0.67
87
0.49
66
0.28
52
0.81
187
0.33
34
0.83
23
1.08
164
2.05
355
4.65
391
1.04
186
0.57
88
5.98
367
0.50
130
0.18
60
0.13
43
0.26
228
0.20
139
0.16
13
0.17
62
DCANettwo views0.54
64
0.24
20
0.70
105
0.43
8
0.24
9
0.49
31
0.36
58
1.05
88
1.30
263
1.12
139
1.03
108
0.58
49
0.92
214
0.81
61
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.18
43
0.19
113
csctwo views0.53
50
0.24
20
0.70
105
0.43
8
0.24
9
0.48
21
0.36
58
1.07
103
1.25
236
1.10
133
1.02
100
0.57
45
1.06
269
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
cscssctwo views0.53
50
0.24
20
0.70
105
0.43
8
0.24
9
0.48
21
0.36
58
1.07
103
1.25
236
1.10
133
1.02
100
0.57
45
1.06
269
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
CFNet-RSSMtwo views0.54
64
0.24
20
0.70
105
0.48
53
0.28
52
0.60
86
0.27
15
1.49
193
1.14
192
1.06
117
0.93
71
1.08
196
0.54
70
0.70
35
0.35
27
0.16
11
0.12
9
0.17
15
0.15
31
0.16
13
0.14
11
Gwc-CoAtRStwo views0.52
41
0.24
20
0.68
90
0.48
53
0.29
64
0.64
98
0.25
4
1.16
123
1.08
164
1.01
106
1.00
88
1.12
209
0.56
80
0.69
33
0.37
39
0.16
11
0.13
43
0.17
15
0.15
31
0.15
5
0.15
27
StereoIMtwo views0.36
1
0.25
36
0.58
49
0.44
23
0.34
139
0.30
3
0.30
23
0.72
6
0.50
7
0.37
2
0.36
1
0.58
49
0.49
57
0.52
5
0.36
33
0.19
92
0.16
157
0.19
51
0.15
31
0.18
43
0.14
11
MIF-Stereo (partial)two views0.45
25
0.25
36
0.70
105
0.50
73
0.52
254
0.35
5
0.26
10
0.91
41
0.59
22
0.45
13
0.71
34
0.51
33
0.51
60
1.11
117
0.45
94
0.20
119
0.16
157
0.23
152
0.20
139
0.24
193
0.18
80
CASnettwo views0.41
11
0.25
36
0.48
15
0.50
73
0.20
2
0.50
40
0.36
58
0.81
22
0.80
69
0.83
72
0.68
28
0.48
23
0.31
6
0.54
8
0.32
7
0.18
60
0.12
9
0.27
239
0.22
200
0.23
179
0.14
11
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
RAFT-Testtwo views0.54
64
0.25
36
0.64
74
0.47
42
0.30
81
0.97
231
0.27
15
1.24
150
0.81
70
0.96
92
1.12
140
1.28
249
0.48
49
0.71
39
0.36
33
0.17
32
0.13
43
0.17
15
0.14
23
0.16
13
0.16
42
GLC_STEREOtwo views0.39
5
0.25
36
0.41
9
0.54
136
0.23
6
0.48
21
0.30
23
0.73
7
0.58
19
0.52
30
0.73
37
0.51
33
0.31
6
0.64
27
0.42
75
0.17
32
0.20
227
0.23
152
0.19
110
0.21
133
0.17
62
RAFT-345two views0.84
223
0.25
36
0.66
84
0.50
73
0.27
33
0.54
61
0.42
98
0.83
23
1.11
176
1.32
248
2.34
356
0.86
125
0.54
70
5.72
360
0.47
112
0.18
60
0.13
43
0.22
124
0.17
76
0.17
25
0.16
42
cross-rafttwo views0.54
64
0.25
36
0.61
61
0.52
112
0.29
64
0.68
130
0.37
67
1.46
189
0.76
60
1.01
106
1.06
114
1.28
249
0.46
35
0.71
39
0.35
27
0.15
6
0.12
9
0.18
37
0.16
60
0.19
73
0.14
11
GMM-Stereotwo views0.74
180
0.25
36
0.59
54
0.54
136
0.34
139
0.72
146
0.99
321
1.01
74
0.87
83
1.36
264
1.78
314
1.12
209
0.81
169
2.09
258
0.46
107
0.18
60
0.12
9
0.25
208
0.25
242
0.20
99
0.85
374
raftrobusttwo views0.52
41
0.25
36
0.56
38
0.65
261
0.52
254
0.49
31
0.34
44
0.98
63
0.91
99
1.30
236
0.87
61
0.63
59
0.81
169
0.78
53
0.41
67
0.19
92
0.15
126
0.16
9
0.14
23
0.15
5
0.16
42
RAFT-Stereo + iAFFtwo views0.54
64
0.25
36
0.68
90
0.43
8
0.24
9
0.40
10
0.34
44
1.04
82
1.09
170
1.32
248
1.60
284
0.80
97
0.68
129
0.67
32
0.39
56
0.13
1
0.10
1
0.18
37
0.17
76
0.17
25
0.13
3
AFF-stereotwo views0.58
97
0.25
36
0.64
74
0.46
36
0.29
64
0.34
4
0.38
71
1.15
122
1.14
192
1.17
178
1.60
284
1.10
204
0.71
137
0.97
90
0.43
84
0.13
1
0.11
3
0.19
51
0.19
110
0.17
25
0.14
11
MGS-Stereotwo views0.42
12
0.26
47
0.58
49
0.44
23
0.28
52
0.50
40
0.34
44
0.57
2
0.83
76
0.46
14
1.31
204
0.52
38
0.33
10
0.65
31
0.36
33
0.19
92
0.16
157
0.18
37
0.15
31
0.17
25
0.16
42
MSKI-zero shottwo views0.55
79
0.26
47
0.57
46
0.51
96
0.26
20
0.69
134
0.28
18
1.18
130
0.64
28
0.91
82
1.32
210
0.82
105
0.33
10
1.92
242
0.32
7
0.17
32
0.12
9
0.17
15
0.13
11
0.16
13
0.16
42
LoS_RVCtwo views0.42
12
0.26
47
0.40
8
0.44
23
0.82
348
0.51
51
0.44
126
0.64
3
0.41
2
0.44
9
0.78
46
0.44
9
0.47
41
0.56
11
0.36
33
0.13
1
0.12
9
0.14
1
0.10
2
0.13
1
0.84
373
DCREtwo views0.82
214
0.26
47
0.70
105
0.58
184
0.44
205
0.54
61
0.48
158
0.95
53
0.78
64
0.78
59
7.33
404
0.86
125
0.52
62
0.76
50
0.41
67
0.16
11
0.16
157
0.19
51
0.17
76
0.18
43
0.17
62
DCANet-4two views0.54
64
0.26
47
1.07
263
0.42
7
0.24
9
0.48
21
0.36
58
0.99
65
1.30
263
1.10
133
1.02
100
0.56
43
0.75
142
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
tttwo views6.58
409
0.26
47
6.10
396
3.77
414
2.16
393
11.55
416
19.63
420
13.33
421
5.74
405
2.96
385
2.65
366
4.97
396
6.33
410
3.81
322
7.24
392
9.15
421
11.32
428
5.89
421
6.24
420
6.03
418
2.55
405
RAFT_CTSACEtwo views0.63
118
0.26
47
0.88
202
0.55
155
0.51
246
0.71
144
0.44
126
0.80
19
0.97
119
0.97
95
1.84
321
1.18
222
0.68
129
1.47
176
0.36
33
0.16
11
0.15
126
0.21
98
0.20
139
0.20
99
0.14
11
GMOStereotwo views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
279
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
error versiontwo views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
279
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
test-vtwo views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
279
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
HHNettwo views0.62
112
0.26
47
0.63
68
0.43
8
0.45
212
0.50
40
0.58
223
1.07
103
1.01
138
1.25
214
2.23
351
0.70
79
0.61
108
1.07
111
0.47
112
0.20
119
0.13
43
0.23
152
0.19
110
0.19
73
0.30
259
FTStereotwo views0.91
245
0.26
47
0.56
38
0.54
136
0.33
124
0.66
119
1.87
381
1.00
69
0.75
57
1.75
332
4.15
385
1.04
186
1.65
344
1.57
193
0.46
107
0.19
92
0.16
157
0.23
152
0.21
175
0.18
43
0.63
357
ASMatchtwo views0.88
237
0.26
47
0.69
99
0.51
96
0.35
142
0.48
21
0.37
67
1.12
118
0.92
103
1.10
133
3.28
375
0.96
162
0.98
242
4.90
341
0.49
124
0.19
92
0.16
157
0.22
124
0.19
110
0.19
73
0.27
233
PFNettwo views0.91
245
0.26
47
1.10
270
0.63
240
0.32
108
0.64
98
0.56
210
1.17
125
0.99
131
1.47
291
1.08
120
0.98
165
0.69
132
6.62
374
0.54
153
0.20
119
0.12
9
0.24
172
0.19
110
0.20
99
0.17
62
GrayStereotwo views0.82
214
0.26
47
0.58
49
0.63
240
0.37
155
0.76
163
1.86
380
1.11
116
0.87
83
1.99
352
1.89
328
1.08
196
1.82
359
1.39
160
0.48
117
0.19
92
0.14
76
0.19
51
0.21
175
0.18
43
0.39
301
test-2two views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
279
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
test-1two views0.52
41
0.26
47
1.04
255
0.56
167
0.32
108
0.61
89
0.38
71
1.10
110
0.91
99
0.78
59
1.01
93
0.77
89
0.52
62
0.60
24
0.42
75
0.17
32
0.14
76
0.20
75
0.17
76
0.20
99
0.23
185
iRaftStereo_RVCtwo views0.47
32
0.26
47
0.64
74
0.50
73
0.29
64
0.53
58
0.33
34
1.05
88
0.77
62
0.84
74
1.00
88
0.55
41
0.37
13
0.81
61
0.40
60
0.17
32
0.12
9
0.22
124
0.20
139
0.19
73
0.15
27
raft+_RVCtwo views0.53
50
0.26
47
0.54
33
0.60
208
0.47
226
0.54
61
0.54
191
1.27
154
0.99
131
0.76
55
1.03
108
0.70
79
0.56
80
0.93
84
0.47
112
0.18
60
0.14
76
0.19
51
0.18
90
0.18
43
0.15
27
XX-Stereotwo views0.63
118
0.26
47
1.90
351
0.81
331
0.67
306
0.43
14
0.23
3
1.03
78
0.58
19
0.65
43
1.56
276
1.41
270
0.39
15
1.28
134
0.35
27
0.20
119
0.14
76
0.20
75
0.19
110
0.18
43
0.14
11
R-Stereo Traintwo views0.57
92
0.26
47
0.63
68
0.54
136
0.36
147
0.69
134
0.54
191
1.22
144
0.72
53
1.61
319
1.50
264
0.75
85
0.53
67
0.64
27
0.44
86
0.18
60
0.15
126
0.17
15
0.15
31
0.17
25
0.17
62
RAFT-Stereopermissivetwo views0.57
92
0.26
47
0.63
68
0.54
136
0.36
147
0.69
134
0.54
191
1.22
144
0.72
53
1.61
319
1.50
264
0.75
85
0.53
67
0.64
27
0.44
86
0.18
60
0.15
126
0.17
15
0.15
31
0.17
25
0.17
62
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
AE-Stereotwo views0.49
37
0.27
69
0.67
87
0.60
208
0.39
180
0.67
123
0.46
144
1.18
130
1.09
170
0.47
15
0.75
41
0.69
76
0.47
41
0.59
15
0.40
60
0.16
11
0.15
126
0.21
98
0.20
139
0.19
73
0.15
27
ff7two views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
fffftwo views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
11ttwo views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
test crocotwo views0.46
26
0.27
69
1.01
242
0.50
73
0.40
185
0.35
5
0.37
67
0.87
26
0.56
18
0.43
8
0.76
43
0.42
5
0.40
18
1.13
120
0.45
94
0.21
146
0.15
126
0.24
172
0.19
110
0.24
193
0.16
42
anonymousdsp2two views0.53
50
0.27
69
0.74
146
0.48
53
0.29
64
0.76
163
0.47
150
1.61
227
0.82
75
0.77
58
0.77
44
0.75
85
0.47
41
1.03
100
0.40
60
0.18
60
0.13
43
0.18
37
0.13
11
0.19
73
0.18
80
anonymousdsptwo views0.43
15
0.27
69
0.53
29
0.44
23
0.32
108
0.50
40
0.42
98
0.89
34
0.51
14
0.49
22
0.53
10
0.47
20
0.47
41
1.33
143
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
anonymousatwo views0.72
163
0.27
69
0.75
148
0.47
42
0.63
297
1.43
303
0.45
137
1.24
150
0.89
90
1.28
223
1.75
311
1.62
305
1.13
284
0.69
33
0.59
166
0.19
92
0.16
157
0.23
152
0.25
242
0.20
99
0.18
80
riskmintwo views0.56
88
0.27
69
0.60
58
0.43
8
0.31
93
0.83
192
0.42
98
1.14
120
1.04
148
0.73
54
0.75
41
1.11
208
1.01
254
0.81
61
0.51
133
0.20
119
0.14
76
0.24
172
0.15
31
0.24
193
0.25
209
ccc-4two views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
IGEV-Stereopermissivetwo views0.43
15
0.27
69
0.54
33
0.45
33
0.32
108
0.50
40
0.42
98
0.90
40
0.51
14
0.49
22
0.53
10
0.47
20
0.47
41
1.32
141
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
IPLGtwo views0.69
155
0.27
69
0.97
230
0.51
96
0.43
199
0.79
178
0.33
34
1.21
137
1.06
155
1.30
236
1.10
129
0.52
38
0.55
76
3.16
309
0.63
182
0.16
11
0.14
76
0.19
51
0.16
60
0.18
43
0.17
62
IPLGRtwo views0.58
97
0.27
69
1.14
277
0.48
53
0.28
52
0.65
110
0.33
34
1.22
144
1.13
190
1.18
183
1.05
112
0.69
76
0.66
128
0.96
85
0.52
139
0.17
32
0.15
126
0.20
75
0.17
76
0.20
99
0.18
80
PSM-AADtwo views0.79
203
0.27
69
0.53
29
0.55
155
0.28
52
0.77
169
1.24
347
0.99
65
0.91
99
1.66
325
1.57
280
0.81
100
2.19
375
1.65
203
0.44
86
0.19
92
0.14
76
0.38
320
0.32
309
0.21
133
0.70
365
THIR-Stereotwo views1.02
276
0.27
69
0.69
99
0.49
66
0.28
52
0.95
223
1.34
354
1.03
78
0.97
119
1.34
259
1.90
329
1.17
219
1.58
337
6.44
372
0.78
218
0.19
92
0.14
76
0.21
98
0.22
200
0.19
73
0.20
136
Prome-Stereotwo views0.75
187
0.27
69
0.53
29
0.55
155
0.32
108
0.59
80
0.97
317
0.89
34
0.88
87
1.45
288
2.46
362
0.91
138
1.41
321
1.58
195
0.44
86
0.18
60
0.13
43
0.19
51
0.17
76
0.20
99
0.92
375
MyStereo06two views0.61
109
0.28
85
0.95
224
0.56
167
0.46
222
0.61
89
0.73
263
1.78
268
0.67
42
1.03
113
1.12
140
1.13
214
0.56
80
0.78
53
0.41
67
0.17
32
0.16
157
0.23
152
0.20
139
0.22
154
0.20
136
MyStereo05two views0.66
141
0.28
85
1.07
263
0.56
167
0.46
222
0.61
89
0.73
263
1.34
164
1.41
309
1.15
158
0.91
67
0.77
89
0.80
166
1.41
166
0.63
182
0.17
32
0.16
157
0.23
152
0.20
139
0.22
154
0.20
136
11t1two views0.52
41
0.28
85
0.68
90
0.51
96
0.28
52
0.83
192
0.39
82
1.22
144
0.63
26
0.84
74
0.74
39
0.68
71
0.68
129
0.91
78
0.57
161
0.21
146
0.18
197
0.19
51
0.16
60
0.20
99
0.21
152
IGEVStereo-DCAtwo views0.46
26
0.28
85
0.56
38
0.43
8
0.33
124
0.49
31
0.42
98
0.87
26
0.50
7
0.47
15
0.48
6
0.48
23
0.46
35
2.03
253
0.30
1
0.19
92
0.14
76
0.19
51
0.15
31
0.16
13
0.18
80
rrrtwo views0.46
26
0.28
85
0.73
132
0.43
8
0.33
124
0.49
31
0.38
71
0.76
11
0.50
7
0.47
15
0.48
6
0.48
23
0.46
35
2.03
253
0.30
1
0.19
92
0.14
76
0.19
51
0.15
31
0.16
13
0.16
42
Selective-RAFTtwo views0.52
41
0.28
85
0.79
171
0.55
155
0.27
33
0.91
208
0.33
34
0.80
19
0.88
87
0.58
34
0.63
22
0.81
100
0.77
154
1.29
137
0.48
117
0.19
92
0.14
76
0.17
15
0.15
31
0.19
73
0.17
62
ProNettwo views0.43
15
0.28
85
0.58
49
0.43
8
0.30
81
0.56
70
0.52
181
1.00
69
0.58
19
0.44
9
0.49
8
0.43
7
0.43
24
1.28
134
0.36
33
0.15
6
0.13
43
0.19
51
0.16
60
0.17
25
0.16
42
TestStereo1two views0.63
118
0.28
85
0.75
148
0.76
319
0.31
93
0.48
21
0.43
114
1.30
158
1.21
224
0.97
95
1.31
204
0.64
62
0.77
154
1.75
221
0.42
75
0.20
119
0.15
126
0.22
124
0.18
90
0.21
133
0.17
62
DisPMtwo views0.66
141
0.28
85
0.72
120
0.61
220
0.35
142
0.62
95
0.45
137
1.02
75
0.99
131
1.56
312
1.10
129
0.80
97
0.59
97
2.37
279
0.41
67
0.23
192
0.14
76
0.23
152
0.21
175
0.20
99
0.25
209
SA-5Ktwo views0.63
118
0.28
85
0.75
148
0.76
319
0.31
93
0.48
21
0.43
114
1.30
158
1.21
224
0.97
95
1.31
204
0.64
62
0.77
154
1.75
221
0.42
75
0.20
119
0.15
126
0.22
124
0.18
90
0.21
133
0.17
62
MIPNettwo views0.56
88
0.28
85
0.94
221
0.49
66
0.33
124
0.66
119
0.38
71
1.35
166
1.08
164
1.06
117
0.92
69
0.60
54
0.79
161
0.73
45
0.52
139
0.17
32
0.14
76
0.19
51
0.16
60
0.18
43
0.17
62
PFNet+two views0.59
100
0.28
85
0.77
161
0.53
121
0.30
81
0.59
80
0.31
28
0.92
42
1.14
192
1.33
256
1.10
129
0.79
95
0.57
88
1.31
139
0.49
124
0.25
232
0.17
182
0.28
249
0.26
255
0.21
133
0.25
209
LCNettwo views0.72
163
0.28
85
0.52
27
0.55
155
0.31
93
0.69
134
0.54
191
1.00
69
0.88
87
1.19
187
1.34
217
0.97
164
1.34
318
2.56
287
0.45
94
0.18
60
0.13
43
0.21
98
0.25
242
0.27
224
0.73
368
AAGNettwo views1.83
358
0.28
85
0.72
120
0.61
220
0.32
108
0.67
123
0.51
172
0.96
60
0.98
124
1.47
291
1.20
168
1.00
171
1.18
290
2.83
296
22.77
423
0.22
169
0.13
43
0.22
124
0.19
110
0.23
179
0.15
27
STrans-v2two views1.04
280
0.28
85
0.96
228
0.49
66
0.32
108
0.68
130
0.79
276
2.47
377
1.12
180
1.12
139
1.46
254
1.40
267
1.46
327
6.70
379
0.43
84
0.18
60
0.13
43
0.20
75
0.18
90
0.18
43
0.18
80
TransformOpticalFlowtwo views0.96
255
0.28
85
0.89
207
0.52
112
0.31
93
0.66
119
0.54
191
1.75
255
1.12
180
1.09
125
1.44
246
1.37
266
1.01
254
6.70
379
0.42
75
0.19
92
0.12
9
0.20
75
0.19
110
0.18
43
0.19
113
KYRafttwo views0.75
187
0.28
85
0.62
65
0.56
167
0.29
64
0.67
123
0.86
294
0.94
50
0.84
78
1.62
322
2.21
350
1.16
218
1.02
259
1.57
193
0.40
60
0.20
119
0.13
43
0.22
124
0.28
280
0.20
99
1.02
379
SST-Stereotwo views0.83
219
0.28
85
0.72
120
0.59
197
0.31
93
0.72
146
0.26
10
1.09
108
0.86
79
1.47
291
1.10
129
1.00
171
0.87
198
5.73
361
0.45
94
0.22
169
0.13
43
0.23
152
0.19
110
0.23
179
0.18
80
RAFT_R40two views0.83
219
0.28
85
0.73
132
0.59
197
0.31
93
0.69
134
0.44
126
1.10
110
0.95
110
1.47
291
1.10
129
1.00
171
0.85
187
5.53
355
0.46
107
0.22
169
0.13
43
0.23
152
0.20
139
0.23
179
0.18
80
IRAFT_RVCtwo views0.88
237
0.28
85
0.76
157
0.63
240
0.31
93
0.65
110
1.02
326
1.22
144
0.94
108
1.22
199
1.04
111
1.01
178
0.98
242
5.82
362
0.53
147
0.22
169
0.12
9
0.25
208
0.20
139
0.20
99
0.19
113
test_xeample3two views0.42
12
0.28
85
0.69
99
0.43
8
0.33
124
0.56
70
0.38
71
0.79
14
0.45
3
0.53
31
0.46
4
0.44
9
0.44
28
1.38
155
0.31
5
0.18
60
0.14
76
0.19
51
0.15
31
0.17
25
0.16
42
xxxxtwo views1.51
336
0.28
85
0.68
90
0.54
136
0.28
52
1.16
264
0.44
126
2.19
354
1.29
257
1.09
125
1.36
224
1.22
227
0.85
187
1.79
229
15.70
416
0.24
207
0.21
243
0.21
98
0.20
139
0.22
154
0.23
185
test_xeamplepermissivetwo views1.45
332
0.28
85
0.65
78
0.51
96
0.28
52
0.94
219
0.59
230
2.14
341
1.29
257
1.24
210
1.51
266
0.88
132
0.86
195
1.46
172
15.10
413
0.22
169
0.20
227
0.22
124
0.20
139
0.22
154
0.22
167
EAI-Stereotwo views0.65
133
0.28
85
0.69
99
0.53
121
0.27
33
0.60
86
0.40
85
2.28
364
0.64
28
0.71
50
3.18
374
0.57
45
0.43
24
1.06
107
0.41
67
0.18
60
0.13
43
0.17
15
0.17
76
0.17
25
0.17
62
SFCPSMtwo views0.70
157
0.28
85
1.02
248
0.51
96
0.38
172
1.37
293
0.66
248
2.00
317
1.03
144
1.17
178
1.21
170
0.82
105
0.78
159
1.03
100
0.53
147
0.21
146
0.17
182
0.22
124
0.24
231
0.21
133
0.19
113
FENettwo views0.60
103
0.28
85
0.63
68
0.54
136
0.33
124
0.83
192
0.38
71
1.27
154
1.07
160
1.00
103
0.86
58
0.99
170
0.85
187
0.96
85
0.68
191
0.22
169
0.15
126
0.23
152
0.20
139
0.22
154
0.23
185
GANet-RSSMtwo views0.72
163
0.28
85
0.63
68
0.64
249
0.58
278
0.80
183
0.58
223
1.89
291
1.08
164
1.04
116
1.25
182
1.15
217
1.04
262
1.49
178
0.62
178
0.25
232
0.19
210
0.22
124
0.22
200
0.22
154
0.21
152
MyStereo8two views0.65
133
0.29
112
1.00
238
0.58
184
0.49
230
0.91
208
0.35
48
1.18
130
1.31
267
1.16
169
1.27
191
0.90
137
0.64
121
0.72
42
0.95
253
0.18
60
0.14
76
0.20
75
0.18
90
0.22
154
0.26
227
MyStereo07two views0.48
34
0.29
112
0.50
18
0.55
155
0.45
212
0.59
80
0.79
276
1.05
88
0.51
14
0.48
19
0.53
10
0.43
7
0.55
76
1.30
138
0.34
24
0.17
32
0.16
157
0.24
172
0.20
139
0.23
179
0.20
136
MyStereo04two views0.67
150
0.29
112
1.07
263
0.55
155
0.45
212
0.59
80
0.79
276
1.50
197
1.40
306
0.91
82
0.91
67
0.74
83
0.86
195
1.52
181
0.62
178
0.17
32
0.16
157
0.24
172
0.20
139
0.23
179
0.20
136
CoDeXtwo views0.73
177
0.29
112
0.93
219
0.54
136
0.36
147
1.14
257
0.61
235
2.34
369
1.17
207
1.16
169
1.25
182
0.91
138
0.87
198
1.33
143
0.64
185
0.20
119
0.16
157
0.21
98
0.18
90
0.20
99
0.18
80
1111xtwo views1.70
353
0.29
112
0.86
189
0.51
96
0.27
33
1.01
238
0.68
253
2.22
358
1.28
253
1.13
153
1.40
236
1.21
225
1.10
278
5.53
355
15.20
414
0.22
169
0.21
243
0.22
124
0.22
200
0.24
193
0.22
167
knoymoustwo views0.51
40
0.29
112
0.47
13
0.43
8
0.30
81
0.55
67
0.55
204
1.02
75
0.77
62
0.98
99
0.85
57
0.94
150
0.56
80
0.85
68
0.45
94
0.20
119
0.14
76
0.26
228
0.14
23
0.23
179
0.23
185
RAFT+CT+SAtwo views0.58
97
0.29
112
0.60
58
0.66
266
0.37
155
0.42
13
0.55
204
1.27
154
1.03
144
0.70
48
1.22
172
0.60
54
0.70
135
1.64
202
0.41
67
0.18
60
0.13
43
0.22
124
0.22
200
0.21
133
0.18
80
Sa-1000two views0.72
163
0.29
112
0.76
157
0.59
197
0.30
81
0.73
149
0.37
67
1.62
230
1.33
275
1.28
223
2.04
341
0.86
125
0.75
142
1.84
233
0.38
49
0.19
92
0.14
76
0.25
208
0.23
220
0.20
99
0.16
42
iRaft-Stereo_5wtwo views0.85
227
0.29
112
0.91
213
0.53
121
0.43
199
0.49
31
0.68
253
0.99
65
0.87
83
0.79
62
1.34
217
1.46
280
0.91
211
5.11
345
1.11
276
0.17
32
0.14
76
0.22
124
0.18
90
0.20
99
0.20
136
NRIStereotwo views0.60
103
0.29
112
0.69
99
0.53
121
0.28
52
0.63
96
0.33
34
1.08
107
0.87
83
1.14
155
0.87
61
0.91
138
0.59
97
2.24
270
0.49
124
0.20
119
0.14
76
0.21
98
0.19
110
0.21
133
0.17
62
Pruner-Stereotwo views0.62
112
0.29
112
0.70
105
0.61
220
0.31
93
0.63
96
0.43
114
1.17
125
0.99
131
1.53
304
1.08
120
0.95
156
0.55
76
1.35
147
0.51
133
0.23
192
0.14
76
0.24
172
0.21
175
0.21
133
0.23
185
DeepStereo_RVCtwo views0.55
79
0.29
112
0.72
120
0.51
96
0.30
81
0.59
80
0.33
34
1.03
78
0.70
48
1.16
169
0.93
71
0.83
112
0.94
225
0.96
85
0.54
153
0.21
146
0.14
76
0.21
98
0.19
110
0.24
193
0.24
197
rafts_anoytwo views0.52
41
0.29
112
0.59
54
0.59
197
0.50
236
0.53
58
0.40
85
1.11
116
1.03
144
0.84
74
0.83
54
0.68
71
0.54
70
0.72
42
0.51
133
0.19
92
0.14
76
0.24
172
0.26
255
0.21
133
0.18
80
222two views1.61
345
0.29
112
0.67
87
0.56
167
0.29
64
1.06
246
0.42
98
2.17
352
1.31
267
1.31
246
1.52
267
0.92
146
0.94
225
1.76
226
17.65
417
0.24
207
0.20
227
0.21
98
0.19
110
0.22
154
0.23
185
ac_64two views0.82
214
0.29
112
0.81
177
0.71
301
0.60
288
1.05
243
0.54
191
1.99
316
0.92
103
1.18
183
1.06
114
1.99
342
1.08
274
1.94
246
0.97
258
0.27
255
0.22
257
0.24
172
0.23
220
0.22
154
0.19
113
HSM-Net_RVCpermissivetwo views0.87
236
0.29
112
0.53
29
0.53
121
0.30
81
1.15
262
0.55
204
3.57
392
1.28
253
1.53
304
1.74
308
1.68
315
0.93
220
1.49
178
0.77
216
0.22
169
0.17
182
0.19
51
0.18
90
0.20
99
0.19
113
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
SMFormertwo views0.75
187
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.82
233
0.24
207
0.20
227
0.22
124
0.21
175
0.23
179
0.24
197
ttatwo views0.75
187
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.82
233
0.24
207
0.20
227
0.22
124
0.21
175
0.18
43
0.18
80
qqq1two views0.72
163
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.44
86
0.24
207
0.20
227
0.18
37
0.15
31
0.18
43
0.18
80
fff1two views0.72
163
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.44
86
0.24
207
0.20
227
0.18
37
0.15
31
0.18
43
0.18
80
IGEV_Zeroshot_testtwo views0.53
50
0.30
128
0.99
233
0.56
167
0.35
142
0.41
12
0.32
31
1.37
169
0.63
26
1.00
103
1.09
125
0.95
156
0.41
20
0.83
64
0.39
56
0.18
60
0.12
9
0.19
51
0.18
90
0.19
73
0.17
62
EKT-Stereotwo views0.53
50
0.30
128
0.73
132
0.58
184
0.60
288
0.51
51
0.48
158
0.94
50
0.90
94
0.71
50
0.88
63
0.77
89
0.43
24
1.07
111
0.40
60
0.22
169
0.16
157
0.21
98
0.18
90
0.20
99
0.22
167
HHtwo views0.63
118
0.30
128
0.77
161
0.50
73
0.32
108
0.49
31
0.46
144
1.65
234
0.64
28
0.69
46
1.09
125
1.63
307
0.85
187
1.90
240
0.37
39
0.18
60
0.13
43
0.19
51
0.17
76
0.19
73
0.16
42
HanStereotwo views0.63
118
0.30
128
0.77
161
0.50
73
0.32
108
0.49
31
0.46
144
1.65
234
0.64
28
0.69
46
1.09
125
1.63
307
0.85
187
1.90
240
0.37
39
0.18
60
0.13
43
0.19
51
0.17
76
0.19
73
0.16
42
raft_robusttwo views0.68
154
0.30
128
0.64
74
0.52
112
0.26
20
0.54
61
0.35
48
1.33
160
1.24
233
1.16
169
1.07
117
0.60
54
0.54
70
3.58
321
0.37
39
0.18
60
0.14
76
0.20
75
0.22
200
0.20
99
0.16
42
test_5two views0.65
133
0.30
128
0.75
148
0.67
276
0.50
236
0.92
214
0.52
181
1.39
175
1.12
180
0.76
55
1.11
134
1.00
171
0.90
209
1.53
185
0.45
94
0.18
60
0.13
43
0.23
152
0.22
200
0.21
133
0.19
113
SAtwo views0.66
141
0.30
128
0.82
179
0.61
220
0.30
81
0.58
76
0.38
71
1.44
186
1.30
263
0.96
92
1.36
224
0.66
67
0.95
230
1.85
236
0.42
75
0.19
92
0.15
126
0.25
208
0.23
220
0.21
133
0.17
62
Patchmatch Stereo++two views0.55
79
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.29
20
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.37
151
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
NF-Stereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.02
100
0.82
105
0.57
88
5.40
353
0.48
117
0.23
192
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
OCTAStereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.01
93
0.82
105
0.57
88
5.35
348
0.48
117
0.24
207
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
PSM-adaLosstwo views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.41
96
1.04
82
0.64
28
1.12
139
0.96
75
0.82
105
0.61
108
1.06
107
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
ROB_FTStereo_v2two views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.64
98
0.42
98
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.12
119
0.46
107
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
ROB_FTStereotwo views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.64
98
0.25
4
1.05
88
0.64
28
1.12
139
0.95
73
0.82
105
0.61
108
1.15
122
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
HUI-Stereotwo views0.52
41
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.30
23
1.04
82
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
0.79
56
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
RE-Stereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.01
93
0.81
100
0.57
88
5.37
351
0.48
117
0.24
207
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
TVStereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.01
93
0.81
100
0.57
88
5.37
351
0.48
117
0.24
207
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
iGMRVCtwo views0.56
88
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.38
71
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.52
181
0.46
107
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
iRAFTtwo views0.55
79
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.29
20
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.37
151
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
CRE-IMPtwo views0.55
79
0.30
128
0.74
146
0.52
112
0.29
64
0.79
178
0.25
4
1.04
82
0.72
53
1.09
125
0.95
73
0.81
100
0.57
88
1.10
114
0.50
130
0.21
146
0.14
76
0.23
152
0.19
110
0.28
238
0.22
167
RAFTtwo views0.64
128
0.30
128
0.73
132
0.59
197
0.33
124
0.68
130
0.58
223
1.04
82
0.76
60
1.08
120
1.19
165
1.65
312
0.93
220
1.06
107
0.56
159
0.21
146
0.18
197
0.27
239
0.24
231
0.22
154
0.17
62
RAFT-IKPtwo views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.59
80
0.36
58
1.04
82
0.64
28
1.12
139
0.96
75
0.83
112
0.61
108
1.22
128
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
RALCasStereoNettwo views0.54
64
0.30
128
0.66
84
0.59
197
0.51
246
0.61
89
0.52
181
0.94
50
0.93
105
0.70
48
1.01
93
0.78
92
0.44
28
1.33
143
0.47
112
0.20
119
0.16
157
0.18
37
0.16
60
0.20
99
0.19
113
cf-rtwo views0.73
177
0.30
128
0.77
161
0.55
155
0.63
297
0.78
174
0.48
158
1.79
270
1.15
201
1.13
153
1.26
188
1.43
272
0.87
198
1.40
165
0.85
241
0.25
232
0.18
197
0.22
124
0.23
220
0.19
73
0.19
113
PSMNet-RSSMtwo views0.72
163
0.30
128
0.61
61
0.63
240
0.42
194
0.73
149
0.56
210
1.92
301
1.10
174
1.09
125
1.37
226
1.22
227
0.98
242
1.28
134
0.72
201
0.27
255
0.19
210
0.27
239
0.29
291
0.24
193
0.24
197
DIP-Stereotwo views0.62
112
0.30
128
0.83
181
0.48
53
0.36
147
0.95
223
0.33
34
2.37
371
0.67
42
1.25
214
1.00
88
0.68
71
0.51
60
0.91
78
0.61
175
0.18
60
0.15
126
0.21
98
0.17
76
0.19
73
0.19
113
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
RASNettwo views1.12
296
0.30
128
0.91
213
0.66
266
0.77
334
0.97
231
0.57
220
1.37
169
1.35
286
1.02
109
1.34
217
2.11
351
1.43
323
7.09
384
1.39
311
0.19
92
0.17
182
0.17
15
0.19
110
0.18
43
0.16
42
iResNet_ROBtwo views0.77
194
0.30
128
0.99
233
0.57
178
0.36
147
0.83
192
0.36
58
2.33
367
1.58
332
1.27
221
1.30
199
1.25
238
0.84
184
1.65
203
0.79
224
0.20
119
0.14
76
0.17
15
0.12
9
0.18
43
0.27
233
ACVNet-DCAtwo views0.56
88
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
1.42
179
0.78
64
0.58
34
0.79
49
0.48
23
0.88
202
1.46
172
0.32
7
0.20
119
0.12
9
0.25
208
0.15
31
0.22
154
0.21
152
xx1two views0.67
150
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
0.93
46
3.05
386
0.58
34
0.79
49
0.95
156
0.77
154
1.46
172
0.32
7
0.20
119
0.12
9
0.24
172
0.23
220
0.22
154
0.21
152
1test111two views0.54
64
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
1.42
179
0.78
64
0.58
34
0.79
49
0.48
23
0.88
202
0.88
73
0.59
166
0.20
119
0.12
9
0.25
208
0.15
31
0.22
154
0.21
152
cc1two views0.64
128
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
0.93
46
3.05
386
0.58
34
0.79
49
0.48
23
0.88
202
1.46
172
0.32
7
0.20
119
0.12
9
0.25
208
0.15
31
0.19
73
0.19
113
xtwo views0.54
64
0.31
159
0.61
61
0.47
42
0.30
81
0.67
123
0.47
150
1.53
211
0.79
68
0.81
68
0.83
54
0.78
92
0.70
135
0.70
35
0.62
178
0.21
146
0.19
210
0.22
124
0.19
110
0.21
133
0.20
136
IERtwo views0.70
157
0.31
159
1.02
248
0.48
53
0.52
254
1.34
290
0.51
172
1.17
125
0.99
131
1.23
202
1.34
217
1.12
209
1.11
279
0.99
93
0.71
198
0.20
119
0.16
157
0.21
98
0.21
175
0.20
99
0.19
113
iRaft-Stereo_20wtwo views0.65
133
0.31
159
1.00
238
0.47
42
0.34
139
0.73
149
0.30
23
2.96
385
0.70
48
1.15
158
1.14
148
0.76
88
0.65
126
1.11
117
0.38
49
0.17
32
0.13
43
0.18
37
0.16
60
0.19
73
0.18
80
GwcNet-ADLtwo views0.64
128
0.31
159
0.79
171
0.56
167
0.41
191
0.60
86
0.58
223
1.41
177
1.26
241
1.08
120
1.13
145
0.91
138
0.60
99
1.04
105
0.78
218
0.27
255
0.18
197
0.18
37
0.18
90
0.25
204
0.29
247
IIG-Stereotwo views0.96
255
0.31
159
0.72
120
0.88
353
0.33
124
0.61
89
0.26
10
1.19
136
1.03
144
1.69
328
1.37
226
1.46
280
0.75
142
6.96
383
0.51
133
0.19
92
0.14
76
0.23
152
0.18
90
0.20
99
0.14
11
PSM-softLosstwo views0.78
200
0.31
159
0.77
161
0.58
184
0.32
108
0.56
70
0.40
85
1.18
130
0.70
48
1.24
210
1.07
117
0.83
112
0.52
62
5.36
349
0.53
147
0.24
207
0.15
126
0.25
208
0.22
200
0.20
99
0.25
209
KMStereotwo views0.78
200
0.31
159
0.77
161
0.58
184
0.32
108
0.56
70
0.40
85
1.18
130
0.70
48
1.24
210
1.07
117
0.83
112
0.52
62
5.36
349
0.53
147
0.24
207
0.15
126
0.25
208
0.22
200
0.20
99
0.25
209
CroCo-Stereocopylefttwo views0.40
8
0.31
159
0.73
132
0.58
184
0.27
33
0.26
1
0.33
34
0.95
53
0.81
70
0.42
5
0.47
5
0.65
65
0.47
41
0.39
1
0.34
24
0.18
60
0.15
126
0.16
9
0.14
23
0.19
73
0.16
42
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
ACVNettwo views0.63
118
0.31
159
0.54
33
0.54
136
0.36
147
0.80
183
0.46
144
1.37
169
1.07
160
0.93
85
1.30
199
1.08
196
0.85
187
0.80
57
0.94
251
0.21
146
0.19
210
0.21
98
0.18
90
0.22
154
0.18
80
acv_fttwo views0.75
187
0.31
159
0.95
224
0.70
294
0.86
353
1.24
277
0.53
187
1.44
186
1.07
160
1.24
210
1.30
199
1.08
196
0.92
214
0.80
57
1.34
303
0.21
146
0.19
210
0.21
98
0.18
90
0.21
133
0.18
80
tt1two views0.62
112
0.32
173
0.51
24
0.54
136
0.26
20
1.16
264
0.48
158
0.95
53
2.47
374
0.57
33
0.77
44
0.49
30
0.81
169
1.55
189
0.32
7
0.20
119
0.12
9
0.24
172
0.15
31
0.19
73
0.20
136
PCWNet_CMDtwo views0.66
141
0.32
173
0.88
202
0.49
66
0.37
155
0.78
174
0.40
85
1.42
179
1.31
267
1.16
169
1.31
204
1.25
238
0.62
113
0.89
76
0.57
161
0.20
119
0.16
157
0.27
239
0.19
110
0.40
299
0.25
209
BUStwo views0.74
180
0.32
173
0.68
90
0.54
136
0.44
205
2.34
367
0.42
98
2.16
346
0.98
124
1.20
191
1.11
134
1.03
183
0.62
113
0.91
78
0.70
193
0.24
207
0.17
182
0.25
208
0.22
200
0.22
154
0.22
167
BSDual-CNNtwo views0.71
162
0.32
173
0.68
90
0.54
136
0.44
205
1.27
281
0.65
243
2.16
346
0.98
124
1.20
191
1.11
134
1.12
209
0.74
140
0.91
78
0.66
187
0.24
207
0.17
182
0.25
208
0.22
200
0.22
154
0.22
167
hknettwo views0.77
194
0.32
173
0.95
224
0.54
136
0.38
172
1.27
281
0.65
243
2.16
346
1.07
160
1.20
191
1.11
134
1.59
301
0.81
169
1.37
151
0.66
187
0.22
169
0.17
182
0.25
208
0.22
200
0.22
154
0.22
167
psmgtwo views0.72
163
0.32
173
0.68
90
0.50
73
0.44
205
1.48
306
0.75
265
1.94
307
0.98
124
1.21
194
1.33
212
1.12
209
0.74
140
0.91
78
0.66
187
0.24
207
0.19
210
0.25
208
0.25
242
0.23
179
0.22
167
CFNet_pseudotwo views0.66
141
0.32
173
0.86
189
0.48
53
0.39
180
0.70
141
0.40
85
1.33
160
1.22
226
1.16
169
1.34
217
1.24
234
0.64
121
0.98
91
0.59
166
0.21
146
0.16
157
0.33
290
0.19
110
0.36
279
0.25
209
MMNettwo views0.84
223
0.32
173
1.09
267
0.60
208
0.59
285
1.85
343
0.49
165
1.51
202
1.27
248
1.37
266
1.15
154
1.26
242
1.18
290
1.67
208
1.22
287
0.19
92
0.18
197
0.23
152
0.22
200
0.25
204
0.21
152
delettwo views0.85
227
0.32
173
0.95
224
0.65
261
0.66
304
1.64
322
0.84
288
1.75
255
1.35
286
1.32
248
1.30
199
1.30
253
0.88
202
1.68
213
1.10
274
0.21
146
0.21
243
0.24
172
0.24
231
0.21
133
0.21
152
UPFNettwo views0.80
206
0.32
173
0.90
210
0.59
197
0.74
324
1.26
280
0.80
282
1.52
205
1.10
174
1.30
236
1.12
140
1.30
253
0.84
184
1.67
208
1.09
271
0.24
207
0.24
275
0.24
172
0.23
220
0.25
204
0.18
80
GwcNet-RSSMtwo views0.77
194
0.32
173
1.01
242
0.62
232
0.54
260
0.78
174
0.51
172
1.73
249
1.20
219
1.09
125
1.37
226
1.46
280
0.85
187
1.53
185
1.09
271
0.25
232
0.18
197
0.23
152
0.24
231
0.20
99
0.19
113
CFNet-ftpermissivetwo views0.72
163
0.32
173
0.54
33
0.66
266
0.54
260
0.83
192
0.55
204
1.37
169
1.15
201
0.93
85
1.28
195
1.57
297
0.97
238
1.35
147
0.81
228
0.26
246
0.20
227
0.33
290
0.25
242
0.30
252
0.23
185
MSMDNettwo views0.66
141
0.32
173
0.87
199
0.49
66
0.37
155
0.79
178
0.40
85
1.43
185
1.31
267
1.15
158
1.31
204
1.24
234
0.63
118
0.88
73
0.57
161
0.21
146
0.16
157
0.26
228
0.19
110
0.39
295
0.24
197
CFNet_RVCtwo views0.72
163
0.32
173
0.54
33
0.66
266
0.54
260
0.83
192
0.55
204
1.37
169
1.15
201
0.93
85
1.28
195
1.57
297
0.97
238
1.35
147
0.81
228
0.26
246
0.20
227
0.33
290
0.25
242
0.30
252
0.23
185
HSMtwo views1.19
308
0.32
173
0.65
78
0.57
178
0.38
172
1.23
276
0.59
230
2.25
361
1.19
214
1.30
236
1.25
182
1.94
337
1.03
261
9.32
405
0.71
198
0.22
169
0.16
157
0.20
75
0.16
60
0.21
133
0.21
152
DN-CSS_ROBtwo views0.64
128
0.32
173
1.05
256
0.55
155
0.40
185
0.54
61
0.45
137
1.21
137
0.93
105
1.03
113
1.47
255
0.69
76
0.63
118
1.76
226
0.49
124
0.18
60
0.14
76
0.25
208
0.22
200
0.22
154
0.20
136
DualNettwo views1.09
288
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
0.95
53
2.47
374
1.15
158
1.45
248
1.06
189
0.82
173
1.55
189
7.61
394
0.20
119
0.12
9
0.31
270
0.27
263
0.19
73
0.20
136
ffmtwo views0.72
163
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
0.95
53
2.47
374
1.15
158
1.45
248
1.06
189
0.82
173
1.55
189
0.32
7
0.20
119
0.12
9
0.31
270
0.27
263
0.19
73
0.20
136
ff1two views1.37
325
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
0.95
53
2.47
374
1.15
158
1.45
248
1.06
189
0.82
173
7.22
385
7.61
394
0.20
119
0.12
9
0.31
270
0.27
263
0.19
73
0.20
136
mmxtwo views1.39
327
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
2.13
337
1.37
293
1.15
158
1.45
248
1.06
189
0.82
173
7.22
385
7.61
394
0.24
207
0.19
210
0.31
270
0.27
263
0.30
252
0.25
209
xxxcopylefttwo views1.39
327
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
2.13
337
1.37
293
1.15
158
1.45
248
1.06
189
0.82
173
7.22
385
7.61
394
0.24
207
0.19
210
0.31
270
0.27
263
0.30
252
0.25
209
CFNet_ucstwo views0.70
157
0.33
189
0.88
202
0.50
73
0.43
199
0.74
152
0.44
126
1.60
224
1.29
257
1.22
199
1.54
270
1.09
202
0.63
118
0.99
93
0.59
166
0.25
232
0.20
227
0.37
317
0.21
175
0.40
299
0.28
244
LL-Strereo2two views0.52
41
0.33
189
0.69
99
0.52
112
0.37
155
0.70
141
0.30
23
1.13
119
0.67
42
0.94
90
0.78
46
0.91
138
0.42
22
1.05
106
0.42
75
0.17
32
0.16
157
0.29
257
0.25
242
0.21
133
0.16
42
CBFPSMtwo views0.92
247
0.33
189
1.86
350
0.49
66
0.38
172
1.75
330
0.84
288
1.39
175
1.12
180
1.09
125
0.99
85
2.37
361
1.66
348
1.32
141
1.42
320
0.19
92
0.18
197
0.20
75
0.20
139
0.21
133
0.33
279
gwcnet-sptwo views0.74
180
0.33
189
1.44
313
0.57
178
0.45
212
1.40
298
0.54
191
1.50
197
1.14
192
1.30
236
1.02
100
0.94
150
0.82
173
1.39
160
0.76
210
0.21
146
0.21
243
0.22
124
0.21
175
0.22
154
0.22
167
scenettwo views0.74
180
0.33
189
1.44
313
0.57
178
0.45
212
1.40
298
0.54
191
1.50
197
1.14
192
1.30
236
1.02
100
0.94
150
0.82
173
1.39
160
0.76
210
0.21
146
0.21
243
0.22
124
0.21
175
0.22
154
0.22
167
ToySttwo views0.66
141
0.33
189
1.23
287
0.51
96
0.33
124
0.86
201
0.68
253
1.10
110
0.97
119
0.84
74
1.08
120
1.25
238
0.94
225
1.01
97
0.74
205
0.19
92
0.19
210
0.24
172
0.24
231
0.27
224
0.23
185
ssnettwo views0.74
180
0.33
189
1.44
313
0.57
178
0.45
212
1.40
298
0.54
191
1.50
197
1.14
192
1.30
236
1.02
100
0.94
150
0.82
173
1.39
160
0.76
210
0.21
146
0.21
243
0.22
124
0.21
175
0.22
154
0.22
167
CIPLGtwo views0.62
112
0.33
189
0.96
228
0.58
184
0.50
236
0.75
158
0.48
158
1.05
88
0.96
112
1.40
277
1.57
280
0.64
62
0.48
49
0.89
76
0.70
193
0.23
192
0.15
126
0.19
51
0.16
60
0.19
73
0.21
152
IPLGR_Ctwo views0.62
112
0.33
189
0.99
233
0.58
184
0.49
230
0.76
163
0.48
158
1.10
110
0.96
112
1.40
277
1.56
276
0.62
57
0.48
49
0.80
57
0.71
198
0.23
192
0.15
126
0.19
51
0.16
60
0.19
73
0.21
152
ACREtwo views0.61
109
0.33
189
1.01
242
0.58
184
0.49
230
0.75
158
0.47
150
1.06
101
0.95
110
1.37
266
1.55
272
0.62
57
0.46
35
0.83
64
0.70
193
0.23
192
0.15
126
0.19
51
0.16
60
0.18
43
0.21
152
OMP-Stereotwo views0.94
251
0.33
189
0.72
120
0.90
358
0.31
93
0.49
31
0.36
58
1.16
123
1.06
155
1.58
318
1.12
140
1.46
280
0.69
132
6.94
382
0.49
124
0.19
92
0.14
76
0.24
172
0.18
90
0.20
99
0.14
11
ICVPtwo views0.63
118
0.33
189
0.57
46
0.61
220
0.40
185
0.80
183
0.58
223
1.61
227
0.89
90
0.90
80
1.24
178
0.88
132
0.73
138
0.72
42
0.88
245
0.29
273
0.21
243
0.22
124
0.21
175
0.24
193
0.27
233
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
RALAANettwo views0.60
103
0.33
189
0.87
199
0.62
232
0.50
236
0.69
134
0.31
28
1.21
137
1.06
155
1.09
125
1.16
157
0.88
132
0.46
35
1.22
128
0.42
75
0.19
92
0.15
126
0.21
98
0.17
76
0.27
224
0.17
62
ccs_robtwo views0.66
141
0.33
189
0.86
189
0.48
53
0.39
180
0.70
141
0.40
85
1.33
160
1.22
226
1.16
169
1.34
217
1.23
232
0.64
121
0.98
91
0.59
166
0.21
146
0.16
157
0.35
307
0.20
139
0.37
283
0.25
209
ttttwo views0.94
251
0.34
208
0.59
54
0.61
220
0.37
155
0.94
219
0.50
171
2.17
352
1.34
278
1.23
202
1.61
288
0.91
138
0.76
150
1.85
236
3.97
379
0.30
277
0.26
286
0.26
228
0.24
231
0.29
243
0.29
247
StereoVisiontwo views0.65
133
0.34
208
0.86
189
0.59
197
0.40
185
0.50
40
0.41
96
1.09
108
0.93
105
0.71
50
2.50
363
0.82
105
0.57
88
1.03
100
0.49
124
0.25
232
0.28
300
0.29
257
0.28
280
0.36
279
0.20
136
CASStwo views0.65
133
0.34
208
0.72
120
0.56
167
0.27
33
0.78
174
0.42
98
1.59
221
0.86
79
1.30
236
1.25
182
0.87
129
0.84
184
0.84
66
0.54
153
0.35
309
0.19
210
0.26
228
0.21
175
0.28
238
0.42
310
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
CroCo-Stereo Lap2two views0.44
23
0.34
208
0.77
161
0.61
220
0.79
339
0.28
2
0.35
48
0.75
9
0.71
52
0.38
4
0.50
9
0.72
82
0.55
76
0.57
13
0.47
112
0.17
32
0.18
197
0.19
51
0.16
60
0.21
133
0.20
136
qqqtwo views0.57
92
0.34
208
0.71
116
0.47
42
0.27
33
0.64
98
0.62
237
1.42
179
0.78
64
0.80
64
0.92
69
0.95
156
0.77
154
0.88
73
0.59
166
0.21
146
0.20
227
0.24
172
0.23
220
0.22
154
0.21
152
DAStwo views0.84
223
0.34
208
1.03
252
0.64
249
0.69
314
0.77
169
0.63
238
1.54
213
1.20
219
1.79
338
1.55
272
0.95
156
1.04
262
2.83
296
0.60
173
0.21
146
0.16
157
0.25
208
0.18
90
0.27
224
0.22
167
SepStereotwo views0.82
214
0.34
208
1.03
252
0.64
249
0.69
314
0.77
169
0.63
238
1.54
213
1.20
219
1.79
338
1.55
272
0.95
156
1.04
262
2.30
274
0.60
173
0.21
146
0.16
157
0.25
208
0.18
90
0.27
224
0.22
167
ADLNet2two views0.88
237
0.34
208
1.17
281
0.77
322
0.64
299
1.12
255
0.76
268
1.74
253
1.24
233
1.21
194
1.65
297
1.71
318
1.05
266
1.67
208
1.17
283
0.24
207
0.21
243
0.21
98
0.22
200
0.26
212
0.29
247
GEStwo views0.66
141
0.34
208
0.90
210
0.59
197
0.38
172
0.94
219
0.57
220
2.11
336
0.86
79
1.02
109
1.11
134
0.66
67
0.79
161
0.99
93
0.61
175
0.27
255
0.19
210
0.20
75
0.20
139
0.21
133
0.30
259
psm_uptwo views0.77
194
0.34
208
0.70
105
0.66
266
0.58
278
1.05
243
0.92
307
1.52
205
1.12
180
1.26
218
1.16
157
1.31
256
1.23
302
1.20
126
0.81
228
0.25
232
0.29
308
0.31
270
0.27
263
0.27
224
0.25
209
UNettwo views0.83
219
0.34
208
1.31
300
0.58
184
0.74
324
1.58
316
0.49
165
1.41
177
1.04
148
1.21
194
1.08
120
1.54
293
1.12
282
1.65
203
1.09
271
0.23
192
0.17
182
0.25
208
0.20
139
0.25
204
0.22
167
DSFCAtwo views0.93
250
0.34
208
1.06
259
0.52
112
0.65
302
1.55
313
0.93
311
1.49
193
1.19
214
1.56
312
1.15
154
1.50
288
0.96
235
3.07
304
1.02
263
0.30
277
0.26
286
0.25
208
0.25
242
0.28
238
0.24
197
DMCAtwo views0.67
150
0.34
208
0.90
210
0.51
96
0.44
205
0.86
201
0.47
150
1.42
179
1.02
141
1.17
178
1.12
140
1.23
232
0.75
142
0.78
53
0.95
253
0.25
232
0.19
210
0.27
239
0.19
110
0.24
193
0.27
233
MLCVtwo views0.72
163
0.34
208
1.10
270
0.51
96
0.23
6
0.91
208
0.39
82
1.33
160
1.23
229
1.46
290
1.55
272
1.01
178
0.64
121
1.95
247
0.80
227
0.18
60
0.12
9
0.18
37
0.14
23
0.19
73
0.17
62
DISCOtwo views1.03
277
0.34
208
1.11
272
0.69
289
0.45
212
2.07
356
0.84
288
2.13
337
1.50
323
1.15
158
1.33
212
2.40
363
1.07
273
2.60
289
1.51
329
0.23
192
0.18
197
0.22
124
0.20
139
0.31
259
0.27
233
MDST_ROBtwo views1.67
349
0.34
208
1.58
331
0.92
363
0.58
278
4.26
402
1.11
334
2.83
382
1.41
309
4.49
402
2.55
364
1.45
278
0.97
238
7.79
395
1.17
283
0.31
284
0.25
282
0.37
317
0.33
315
0.31
259
0.30
259
mmmtwo views0.63
118
0.35
224
0.72
120
0.51
96
0.30
81
0.86
201
0.54
191
1.59
221
0.86
79
1.07
119
1.38
230
0.79
95
0.75
142
0.91
78
0.58
164
0.22
169
0.18
197
0.29
257
0.25
242
0.25
204
0.23
185
AASNettwo views0.76
193
0.35
224
0.91
213
0.79
325
0.81
346
1.14
257
0.56
210
2.02
324
1.08
164
1.22
199
1.24
178
0.93
147
0.76
150
0.77
52
1.16
281
0.27
255
0.23
266
0.24
172
0.20
139
0.28
238
0.24
197
AACVNettwo views0.86
232
0.35
224
0.79
171
0.82
336
0.39
180
0.76
163
0.49
165
1.61
227
0.81
70
1.08
120
1.33
212
1.30
253
0.93
220
4.34
332
0.74
205
0.25
232
0.21
243
0.28
249
0.22
200
0.29
243
0.25
209
PSMNet-ADLtwo views0.72
163
0.35
224
0.62
65
0.69
289
0.46
222
1.14
257
0.44
126
1.37
169
1.01
138
0.83
72
1.17
160
1.33
258
0.96
235
1.43
167
0.95
253
0.33
294
0.22
257
0.21
98
0.23
220
0.27
224
0.29
247
GANet-ADLtwo views0.60
103
0.35
224
0.72
120
0.64
249
0.40
185
0.68
130
0.51
172
1.49
193
1.12
180
0.95
91
1.08
120
0.91
138
0.57
88
0.76
50
0.55
157
0.26
246
0.18
197
0.18
37
0.16
60
0.23
179
0.25
209
hitnet-ftcopylefttwo views0.79
203
0.35
224
0.57
46
0.58
184
0.42
194
0.96
227
0.46
144
1.47
191
1.33
275
1.19
187
1.22
172
1.81
326
0.98
242
1.66
207
0.94
251
0.33
294
0.28
300
0.34
300
0.27
263
0.35
273
0.31
269
UCFNet_RVCtwo views0.69
155
0.35
224
0.49
17
0.64
249
0.39
180
0.85
200
0.58
223
1.75
255
1.14
192
0.97
95
1.19
165
1.17
219
0.93
220
0.99
93
0.62
178
0.28
265
0.20
227
0.34
300
0.31
303
0.32
264
0.27
233
Former-RAFT_DAM_RVCtwo views0.46
26
0.36
231
0.71
116
0.47
42
0.36
147
0.67
123
0.35
48
0.78
13
1.12
180
0.61
41
0.62
21
0.39
4
0.39
15
0.71
39
0.39
56
0.20
119
0.17
182
0.22
124
0.18
90
0.23
179
0.19
113
ssnet_v2two views0.88
237
0.36
231
1.02
248
0.62
232
0.38
172
1.32
287
0.97
317
2.07
332
1.34
278
1.37
266
1.18
162
1.54
293
0.92
214
1.10
114
1.65
334
0.30
277
0.27
294
0.30
266
0.28
280
0.27
224
0.26
227
ADLNettwo views0.85
227
0.36
231
0.89
207
0.85
345
0.72
319
1.24
277
0.76
268
1.82
277
1.36
289
1.52
303
1.35
223
1.27
246
0.99
250
1.23
130
1.15
280
0.27
255
0.20
227
0.26
228
0.25
242
0.28
238
0.30
259
ARAFTtwo views0.77
194
0.36
231
1.49
326
0.51
96
0.31
93
0.90
206
0.82
286
1.90
294
1.06
155
1.62
322
1.24
178
1.02
180
0.64
121
1.84
233
0.50
130
0.18
60
0.14
76
0.28
249
0.27
263
0.17
25
0.16
42
CFNettwo views0.96
255
0.36
231
1.01
242
0.62
232
0.42
194
0.99
235
0.47
150
1.90
294
1.32
272
0.99
101
1.39
234
1.10
204
0.86
195
5.58
358
0.79
224
0.23
192
0.17
182
0.28
249
0.27
263
0.26
212
0.21
152
SGM_RVCbinarytwo views1.68
351
0.36
231
0.61
61
0.59
197
0.29
64
2.25
363
1.18
343
2.38
372
1.68
339
3.60
392
2.67
367
3.69
384
2.42
381
8.13
398
1.90
345
0.31
284
0.31
318
0.30
266
0.28
280
0.30
252
0.29
247
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
DispNOtwo views1.00
270
0.37
237
1.69
337
0.61
220
0.56
267
0.75
158
0.63
238
1.80
272
1.44
315
1.17
178
1.66
299
1.05
188
1.06
269
5.00
344
0.86
243
0.24
207
0.22
257
0.25
208
0.19
110
0.24
193
0.22
167
NINENettwo views0.77
194
0.37
237
0.78
169
0.62
232
0.51
246
2.34
367
0.42
98
1.83
281
1.04
148
1.14
155
1.23
176
1.03
183
0.62
113
1.24
131
0.70
193
0.28
265
0.23
266
0.31
270
0.21
175
0.26
212
0.25
209
GEStereo_RVCtwo views0.90
242
0.37
237
0.99
233
0.64
249
0.50
236
0.95
223
0.79
276
2.42
374
1.17
207
1.16
169
1.11
134
1.26
242
0.92
214
3.24
310
0.90
248
0.29
273
0.19
210
0.23
152
0.20
139
0.27
224
0.29
247
pcwnet_v2two views0.97
261
0.37
237
4.33
387
0.62
232
0.54
260
0.79
178
0.45
137
2.02
324
1.58
332
1.42
285
1.64
295
1.09
202
0.79
161
1.24
131
0.67
190
0.32
289
0.25
282
0.29
257
0.27
263
0.37
283
0.35
286
iResNetv2_ROBtwo views0.80
206
0.37
237
1.71
339
0.56
167
0.37
155
0.94
219
0.64
241
1.73
249
1.34
278
1.23
202
1.42
239
1.26
242
0.92
214
1.85
236
0.56
159
0.23
192
0.15
126
0.19
51
0.14
23
0.24
193
0.19
113
LE_ROBtwo views8.05
411
0.37
237
23.53
420
0.74
313
0.33
124
2.77
379
2.87
408
3.71
394
27.24
427
25.39
427
8.87
411
8.46
409
26.71
427
6.65
375
21.99
420
0.21
146
0.19
210
0.20
75
0.21
175
0.25
204
0.22
167
CSP-Nettwo views0.97
261
0.38
243
0.83
181
0.53
121
0.41
191
1.63
320
0.77
271
2.00
317
1.05
152
1.25
214
1.20
168
1.33
258
0.83
182
4.93
343
0.85
241
0.32
289
0.22
257
0.20
75
0.20
139
0.23
179
0.25
209
Anonymoustwo views0.53
50
0.38
243
0.91
213
0.66
266
0.73
322
0.65
110
0.59
230
0.95
53
0.73
56
0.47
15
0.58
20
0.42
5
0.60
99
0.80
57
0.53
147
0.24
207
0.23
266
0.21
98
0.21
175
0.41
302
0.29
247
HGLStereotwo views0.85
227
0.38
243
0.94
221
0.80
328
1.03
366
1.17
266
0.58
223
1.52
205
1.20
219
1.19
187
1.62
291
1.13
214
1.20
296
1.80
230
1.06
266
0.24
207
0.24
275
0.24
172
0.21
175
0.23
179
0.27
233
SGM-ForestMtwo views6.52
408
0.38
243
1.26
293
0.63
240
0.35
142
13.59
420
5.32
414
6.32
413
6.70
408
11.14
417
9.18
412
22.51
428
13.93
416
16.89
421
20.07
419
0.36
312
0.37
343
0.36
315
0.35
324
0.36
279
0.34
281
SGM-Foresttwo views1.24
310
0.38
243
0.60
58
0.52
112
0.37
155
1.56
314
1.30
352
1.65
234
1.36
289
2.11
358
1.79
315
1.63
307
0.93
220
7.48
392
0.95
253
0.36
312
0.37
343
0.39
326
0.34
320
0.37
283
0.32
275
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
LL-Strereotwo views1.33
321
0.39
248
1.38
309
0.61
220
0.61
291
0.75
158
0.66
248
1.63
232
1.17
207
1.56
312
1.60
284
2.03
347
2.12
373
9.72
410
0.97
258
0.21
146
0.18
197
0.27
239
0.23
220
0.22
154
0.25
209
CRFU-Nettwo views0.86
232
0.39
248
1.00
238
0.65
261
0.57
270
1.78
337
0.86
294
2.15
343
0.81
70
1.38
271
1.18
162
1.64
310
1.19
293
1.35
147
0.90
248
0.26
246
0.22
257
0.21
98
0.19
110
0.23
179
0.24
197
TestStereotwo views0.64
128
0.39
248
0.71
116
0.51
96
0.27
33
0.56
70
0.42
98
1.03
78
0.91
99
0.80
64
1.00
88
0.68
71
0.52
62
3.25
311
0.45
94
0.22
169
0.15
126
0.24
172
0.18
90
0.27
224
0.16
42
HCRNettwo views0.70
157
0.39
248
0.73
132
0.60
208
0.59
285
0.76
163
0.35
48
1.22
144
1.13
190
1.02
109
0.99
85
1.02
180
0.76
150
2.19
267
0.70
193
0.28
265
0.19
210
0.28
249
0.23
220
0.25
204
0.23
185
Wz-Net-LNSev-Reftwo views0.99
266
0.40
252
1.82
347
0.66
266
0.62
296
2.05
355
0.78
273
1.91
298
1.29
257
1.54
308
1.42
239
1.51
290
1.23
302
1.99
250
1.33
301
0.23
192
0.14
76
0.20
75
0.15
31
0.27
224
0.26
227
sCroCo_RVCtwo views0.49
37
0.40
252
1.02
248
0.65
261
0.60
288
0.52
53
0.40
85
0.83
23
0.61
23
0.44
9
0.74
39
0.49
30
0.50
58
0.63
26
0.48
117
0.26
246
0.27
294
0.23
152
0.22
200
0.29
243
0.25
209
DMCA-RVCcopylefttwo views0.74
180
0.40
252
1.27
296
0.66
266
0.49
230
0.77
169
0.47
150
1.35
166
1.01
138
1.53
304
1.01
93
1.29
252
0.82
173
1.31
139
0.78
218
0.27
255
0.21
243
0.35
307
0.27
263
0.32
264
0.24
197
HITNettwo views0.65
133
0.40
252
0.77
161
0.48
53
0.24
9
1.05
243
0.49
165
1.76
261
1.02
141
1.18
183
1.18
162
0.89
136
0.80
166
0.85
68
0.79
224
0.17
32
0.12
9
0.21
98
0.17
76
0.29
243
0.15
27
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
iResNettwo views0.75
187
0.40
252
1.36
308
0.67
276
0.29
64
0.92
214
0.59
230
1.52
205
1.25
236
1.28
223
1.48
260
0.94
150
0.76
150
1.62
200
0.78
218
0.18
60
0.14
76
0.18
37
0.15
31
0.22
154
0.23
185
DLCB_ROBtwo views0.86
232
0.40
252
0.78
169
0.68
286
0.54
260
1.11
252
0.84
288
1.49
193
1.23
229
1.64
324
1.65
297
1.70
317
0.91
211
1.70
215
1.05
264
0.25
232
0.24
275
0.26
228
0.27
263
0.27
224
0.24
197
FAT-Stereotwo views1.07
283
0.41
258
1.32
303
0.72
304
0.58
278
1.08
249
0.89
299
1.96
310
1.65
336
1.75
332
1.98
335
2.03
347
1.48
330
2.02
252
1.18
286
0.42
332
0.35
336
0.34
300
0.29
291
0.35
273
0.53
339
NVstereo2Dtwo views0.92
247
0.41
258
1.48
324
0.72
304
0.72
319
1.20
273
0.87
296
1.75
255
1.38
297
0.99
101
1.13
145
1.26
242
0.98
242
2.21
269
0.89
246
0.43
337
0.20
227
0.38
320
0.24
231
0.57
346
0.63
357
StereoDRNet-Refinedtwo views0.80
206
0.41
258
0.88
202
0.62
232
0.42
194
1.33
288
0.48
158
1.52
205
1.17
207
1.45
288
1.44
246
1.44
276
0.90
209
1.26
133
1.24
289
0.20
119
0.16
157
0.27
239
0.24
231
0.25
204
0.28
244
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
RAFT + AFFtwo views1.00
270
0.42
261
1.09
267
0.67
276
0.50
236
1.22
275
1.24
347
2.24
360
1.19
214
1.30
236
1.56
276
1.17
219
1.49
332
3.44
318
0.83
235
0.21
146
0.25
282
0.30
266
0.26
255
0.27
224
0.27
233
stereogantwo views1.15
304
0.42
261
1.40
310
0.86
347
0.84
350
2.38
369
0.71
261
1.88
289
1.73
343
1.72
330
1.94
334
2.31
358
1.29
310
2.07
257
1.08
269
0.36
312
0.35
336
0.39
326
0.31
303
0.51
336
0.46
322
pmcnntwo views2.37
378
0.42
261
2.71
378
0.63
240
0.43
199
1.54
312
1.19
344
2.01
321
1.53
328
2.64
375
7.60
405
18.07
420
1.45
326
3.44
318
2.78
364
0.18
60
0.15
126
0.15
3
0.12
9
0.20
99
0.18
80
CVANet_RVCtwo views1.07
283
0.43
264
0.76
157
0.60
208
0.50
236
0.90
206
0.97
317
1.52
205
1.26
241
1.33
256
1.38
230
1.24
234
1.18
290
6.75
381
0.75
208
0.34
302
0.23
266
0.34
300
0.29
291
0.42
307
0.27
233
NLCA_NET_v2_RVCtwo views0.79
203
0.43
264
1.05
256
0.64
249
0.58
278
0.95
223
0.53
187
1.53
211
1.18
211
1.37
266
1.15
154
1.43
272
0.88
202
1.61
199
0.84
238
0.25
232
0.22
257
0.27
239
0.27
263
0.29
243
0.29
247
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AdaStereotwo views0.70
157
0.43
264
0.75
148
0.73
311
0.37
155
0.92
214
0.53
187
1.85
283
1.18
211
1.12
139
1.23
176
1.07
195
0.65
126
0.96
85
0.63
182
0.31
284
0.15
126
0.32
283
0.21
175
0.29
243
0.22
167
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
fast-acv-fttwo views0.94
251
0.44
267
1.40
310
0.58
184
0.51
246
1.77
335
0.69
257
1.36
168
1.42
312
1.29
228
1.86
324
1.74
322
1.25
305
1.52
181
1.38
308
0.26
246
0.28
300
0.28
249
0.28
280
0.27
224
0.26
227
Anonymous3two views0.61
109
0.44
267
1.11
272
0.59
197
0.49
230
0.93
217
0.65
243
0.93
46
0.81
70
0.72
53
0.88
63
0.65
65
0.69
132
1.06
107
0.53
147
0.35
309
0.30
312
0.26
228
0.26
255
0.31
259
0.27
233
TDLMtwo views1.06
281
0.44
267
0.79
171
0.63
240
0.50
236
0.89
204
1.44
359
1.48
192
1.26
241
1.12
139
1.40
236
1.08
196
0.98
242
6.65
375
0.78
218
0.33
294
0.21
243
0.33
290
0.26
255
0.37
283
0.24
197
DRN-Testtwo views1.00
270
0.44
267
1.13
276
0.70
294
0.81
346
1.62
319
0.79
276
2.14
341
1.44
315
1.78
335
1.33
212
1.43
272
1.05
266
2.18
266
1.53
330
0.27
255
0.21
243
0.31
270
0.30
299
0.32
264
0.28
244
CBMV_ROBtwo views0.90
242
0.44
267
0.63
68
0.51
96
0.37
155
1.25
279
0.49
165
1.77
264
1.27
248
1.41
279
2.00
336
1.33
258
1.08
274
2.17
263
0.76
210
0.43
337
0.42
356
0.47
346
0.44
346
0.41
302
0.36
290
CBMVpermissivetwo views0.95
254
0.44
267
0.66
84
0.53
121
0.35
142
1.53
311
1.63
370
1.69
243
1.42
312
2.00
354
1.60
284
1.43
272
1.17
287
1.59
197
0.99
261
0.34
302
0.34
328
0.39
326
0.33
315
0.33
270
0.32
275
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
iinet-ftwo views0.99
266
0.45
273
3.71
386
0.55
155
0.43
199
1.81
338
0.68
253
1.14
120
1.14
192
1.18
183
1.42
239
1.58
300
1.44
324
1.34
146
1.59
333
0.24
207
0.23
266
0.20
75
0.19
110
0.26
212
0.25
209
GMStereopermissivetwo views0.55
79
0.45
273
0.94
221
0.50
73
0.32
108
0.64
98
0.43
114
1.00
69
1.40
306
0.82
71
0.73
37
0.51
33
0.45
31
0.85
68
0.55
157
0.24
207
0.15
126
0.20
75
0.21
175
0.31
259
0.24
197
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
SACVNettwo views0.85
227
0.46
275
0.85
183
0.81
331
0.56
267
0.80
183
0.79
276
1.68
241
1.12
180
1.34
259
1.33
212
1.25
238
0.94
225
2.39
281
0.76
210
0.34
302
0.26
286
0.31
270
0.29
291
0.35
273
0.44
316
LMCR-Stereopermissivemany views0.82
214
0.46
275
0.88
202
0.75
317
0.43
199
1.33
288
0.56
210
2.43
375
0.98
124
1.53
304
1.49
261
0.74
83
1.00
252
1.63
201
0.89
246
0.28
265
0.17
182
0.22
124
0.17
76
0.29
243
0.20
136
S-Stereotwo views1.15
304
0.46
275
2.17
362
0.81
331
0.80
344
1.21
274
1.19
344
1.93
305
2.02
362
1.47
291
2.11
344
1.57
297
1.17
287
2.05
256
1.41
316
0.40
325
0.40
352
0.35
307
0.31
303
0.44
319
0.70
365
NOSS_ROBtwo views1.26
313
0.46
275
0.62
65
0.56
167
0.38
172
1.06
246
0.78
273
1.73
249
1.40
306
1.01
106
1.43
243
1.10
204
0.75
142
10.62
415
0.65
186
0.45
343
0.43
357
0.48
347
0.45
348
0.44
319
0.41
306
whm_ethtwo views0.65
133
0.47
279
1.05
256
0.55
155
0.64
299
0.69
134
0.45
137
1.34
164
1.26
241
1.02
109
1.92
331
0.49
30
0.48
49
0.70
35
0.52
139
0.23
192
0.20
227
0.25
208
0.24
231
0.24
193
0.31
269
FADNet-RVC-Resampletwo views0.84
223
0.47
279
2.10
358
0.61
220
0.45
212
1.07
248
0.61
235
1.59
221
1.20
219
1.08
120
0.98
83
1.03
183
0.98
242
2.17
263
0.72
201
0.23
192
0.22
257
0.30
266
0.32
309
0.35
273
0.34
281
GANettwo views1.36
324
0.47
279
0.86
189
0.67
276
0.45
212
1.34
290
1.73
372
1.64
233
1.24
233
1.49
299
2.38
357
1.55
295
1.20
296
9.30
404
0.93
250
0.30
277
0.31
318
0.33
290
0.28
280
0.39
295
0.30
259
StereoDRNettwo views0.98
265
0.47
279
1.70
338
0.76
319
0.94
361
1.51
309
0.91
305
1.92
301
1.32
272
1.61
319
1.13
145
1.47
285
0.97
238
1.75
221
1.46
325
0.28
265
0.23
266
0.29
257
0.27
263
0.35
273
0.27
233
WCMA_ROBtwo views1.84
359
0.47
279
1.31
300
0.69
289
0.57
270
2.11
358
1.14
338
1.87
287
1.73
343
4.04
396
6.43
399
5.62
399
3.61
395
2.59
288
1.94
347
0.52
356
0.44
360
0.39
326
0.42
342
0.48
328
0.47
325
ddtwo views0.59
100
0.48
284
0.97
230
0.55
155
0.32
108
0.64
98
0.47
150
1.02
75
1.34
278
0.78
59
0.86
58
0.58
49
0.54
70
1.01
97
0.86
243
0.28
265
0.18
197
0.26
228
0.19
110
0.32
264
0.24
197
ADCP+two views1.99
368
0.48
284
7.73
399
0.66
266
0.91
357
2.30
365
1.05
329
1.82
277
1.34
278
1.54
308
1.32
210
1.74
322
1.61
341
2.17
263
13.37
409
0.24
207
0.21
243
0.32
283
0.28
280
0.37
283
0.29
247
DeepPruner_ROBtwo views0.74
180
0.48
284
0.87
199
0.57
178
0.44
205
0.79
178
0.54
191
1.73
249
0.96
112
1.38
271
1.27
191
1.24
234
0.73
138
1.43
167
0.73
204
0.34
302
0.28
300
0.27
239
0.26
255
0.31
259
0.31
269
BEATNet_4xtwo views0.73
177
0.49
287
1.17
281
0.53
121
0.26
20
1.03
240
0.55
204
1.82
277
1.06
155
1.21
194
1.22
172
0.96
162
0.91
211
1.01
97
1.06
266
0.21
146
0.14
76
0.24
172
0.19
110
0.37
283
0.21
152
Nwc_Nettwo views1.09
288
0.49
287
1.33
305
0.89
357
0.80
344
1.49
308
0.66
248
2.19
354
1.27
248
1.32
248
2.26
352
1.96
339
1.54
334
1.92
242
1.34
303
0.40
325
0.30
312
0.43
337
0.45
348
0.38
291
0.37
292
RYNettwo views1.17
307
0.49
287
1.24
290
0.70
294
0.97
365
1.71
326
0.92
307
1.91
298
1.46
318
1.38
271
1.14
148
1.88
327
1.30
314
4.24
328
1.87
342
0.26
246
0.21
243
0.35
307
0.27
263
0.55
343
0.54
340
XPNet_ROBtwo views0.96
255
0.49
287
1.09
267
0.72
304
0.57
270
1.11
252
1.14
338
1.66
239
1.23
229
1.85
344
1.39
234
1.64
310
1.11
279
1.80
230
1.42
320
0.38
320
0.30
312
0.33
290
0.29
291
0.37
283
0.34
281
STTStereotwo views0.78
200
0.50
291
1.22
286
0.64
249
0.54
260
0.89
204
0.54
191
1.44
186
1.11
176
1.38
271
1.09
125
1.27
246
0.85
187
1.43
167
0.83
235
0.29
273
0.27
294
0.33
290
0.39
334
0.32
264
0.30
259
RPtwo views1.09
288
0.50
291
1.12
274
0.90
358
1.04
367
1.11
252
0.84
288
1.80
272
1.62
334
1.55
311
2.00
336
1.90
331
1.78
354
1.84
233
1.25
290
0.52
356
0.36
341
0.48
347
0.36
328
0.45
322
0.43
314
edge stereotwo views1.11
294
0.50
291
1.30
299
0.71
301
0.65
302
1.14
257
0.75
265
1.93
305
1.37
293
1.71
329
1.83
319
2.54
367
1.44
324
2.43
283
1.23
288
0.42
332
0.41
354
0.54
358
0.35
324
0.42
307
0.46
322
SDNRtwo views1.62
346
0.51
294
2.17
362
0.53
121
0.56
267
3.80
396
0.45
137
1.54
213
1.29
257
1.33
256
2.41
360
1.08
196
0.96
235
11.18
416
1.16
281
0.66
372
0.63
384
0.43
337
0.32
309
0.64
357
0.67
362
GwcNetcopylefttwo views1.08
286
0.51
294
2.33
367
0.79
325
1.18
379
1.76
332
0.70
259
1.68
241
1.47
319
1.41
279
1.64
295
1.74
322
1.04
262
2.20
268
1.41
316
0.30
277
0.29
308
0.29
257
0.27
263
0.30
252
0.35
286
FADNet_RVCtwo views0.83
219
0.51
294
1.83
349
0.54
136
0.42
194
1.19
271
0.46
144
1.51
202
1.09
170
0.89
79
1.24
178
0.91
138
0.87
198
2.11
260
1.11
276
0.27
255
0.22
257
0.31
270
0.28
280
0.43
312
0.38
298
AF-Nettwo views1.13
299
0.52
297
1.33
305
0.86
347
0.91
357
1.38
296
0.71
261
2.16
346
1.62
334
1.56
312
2.40
359
1.99
342
1.65
344
1.81
232
1.48
327
0.48
351
0.28
300
0.49
349
0.33
315
0.39
295
0.32
275
AANet_RVCtwo views1.16
306
0.52
297
1.49
326
0.65
261
0.45
212
0.75
158
0.69
257
1.42
179
1.55
331
1.34
259
1.87
326
1.53
292
0.78
159
7.43
390
1.38
308
0.25
232
0.17
182
0.19
51
0.16
60
0.22
154
0.26
227
PSMNet_ROBtwo views0.90
242
0.52
297
1.17
281
0.72
304
0.61
291
1.27
281
1.12
336
1.76
261
1.12
180
1.09
125
1.28
195
1.45
278
0.89
208
1.65
203
1.42
320
0.33
294
0.25
282
0.37
317
0.39
334
0.35
273
0.29
247
APVNettwo views1.06
281
0.53
300
1.42
312
0.84
340
0.79
339
1.92
346
0.82
286
1.90
294
1.08
164
1.08
120
1.43
243
1.56
296
1.13
284
3.07
304
1.58
331
0.31
284
0.34
328
0.42
335
0.36
328
0.36
279
0.37
292
FINETtwo views0.97
261
0.54
301
1.60
332
0.63
240
0.79
339
1.08
249
1.07
331
1.56
218
2.20
368
1.15
158
1.49
261
0.94
150
0.88
202
2.32
275
1.05
264
0.42
332
0.35
336
0.32
283
0.28
280
0.43
312
0.38
298
NCC-stereotwo views1.10
291
0.54
301
1.24
290
0.84
340
0.94
361
1.29
284
0.89
299
2.01
321
1.34
278
1.32
248
1.74
308
1.88
327
1.74
351
2.35
277
1.25
290
0.45
343
0.37
343
0.45
341
0.58
370
0.42
307
0.42
310
Abc-Nettwo views1.10
291
0.54
301
1.24
290
0.84
340
0.94
361
1.29
284
0.89
299
2.01
321
1.34
278
1.32
248
1.74
308
1.88
327
1.74
351
2.35
277
1.25
290
0.45
343
0.37
343
0.45
341
0.58
370
0.42
307
0.42
310
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Anonymous_2two views1.30
317
0.55
304
0.82
179
0.52
112
0.58
278
1.01
238
0.64
241
1.25
152
0.97
119
0.96
92
0.78
46
1.33
258
1.29
310
1.03
100
0.74
205
0.62
368
0.64
385
1.06
384
9.63
421
1.16
382
0.49
332
ADCReftwo views1.35
323
0.55
304
2.37
369
0.72
304
0.77
334
1.94
348
0.78
273
1.91
298
1.27
248
1.57
316
1.59
283
1.36
263
1.41
321
1.54
187
7.53
393
0.23
192
0.20
227
0.32
283
0.30
299
0.29
243
0.29
247
NaN_ROBtwo views1.13
299
0.55
304
1.15
278
0.64
249
0.48
227
1.61
318
2.03
390
1.72
248
1.48
320
2.09
357
1.27
191
1.40
267
1.08
274
3.94
324
1.30
298
0.28
265
0.34
328
0.28
249
0.28
280
0.30
252
0.33
279
sAnonymous2two views0.55
79
0.56
307
1.46
319
0.60
208
0.51
246
0.48
21
0.52
181
0.79
14
0.68
45
0.50
28
0.67
26
0.46
16
0.62
113
0.59
15
0.40
60
0.22
169
0.17
182
0.22
124
0.21
175
0.86
371
0.56
344
CroCo_RVCtwo views0.55
79
0.56
307
1.46
319
0.60
208
0.51
246
0.48
21
0.52
181
0.79
14
0.68
45
0.50
28
0.67
26
0.46
16
0.62
113
0.59
15
0.40
60
0.22
169
0.17
182
0.22
124
0.21
175
0.86
371
0.56
344
NCCL2two views1.00
270
0.56
307
1.06
259
0.75
317
0.57
270
1.31
286
1.72
371
1.77
264
1.36
289
1.50
300
1.17
160
1.91
332
1.17
287
1.54
187
1.29
297
0.35
309
0.31
318
0.45
341
0.44
346
0.40
299
0.40
302
MeshStereopermissivetwo views2.26
374
0.56
307
0.92
217
0.61
220
0.49
230
2.60
375
1.02
326
3.18
388
2.05
364
7.40
415
4.98
395
7.58
405
2.98
390
6.37
371
1.96
348
0.43
337
0.43
357
0.45
341
0.39
334
0.43
312
0.42
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ADCLtwo views1.72
356
0.57
311
3.66
384
0.67
276
0.61
291
2.61
376
1.85
379
1.96
310
1.67
338
1.90
348
1.83
319
2.06
350
1.90
363
2.13
261
9.15
402
0.26
246
0.24
275
0.34
300
0.32
309
0.38
291
0.35
286
PA-Nettwo views1.01
274
0.57
311
1.29
298
0.64
249
0.74
324
1.19
271
0.84
288
1.69
243
1.43
314
1.16
169
1.19
165
1.32
257
1.19
293
3.42
316
1.25
290
0.29
273
0.45
364
0.33
290
0.49
358
0.32
264
0.47
325
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
SANettwo views1.88
361
0.57
311
2.18
364
0.63
240
0.40
185
2.80
381
1.57
367
2.39
373
5.88
406
2.36
367
3.57
379
3.72
385
2.97
389
4.74
337
1.76
338
0.34
302
0.30
312
0.32
283
0.29
291
0.48
328
0.37
292
HBP-ISPtwo views0.96
255
0.58
314
0.72
120
0.61
220
0.46
222
1.64
322
0.76
268
1.86
286
1.28
253
1.30
236
1.53
268
0.86
125
0.94
225
3.27
312
0.69
192
0.45
343
0.44
360
0.54
358
0.48
355
0.47
325
0.40
302
Wz-Net-MNSevtwo views1.11
294
0.58
314
2.23
365
0.66
266
0.71
317
1.95
349
1.46
360
1.98
315
1.45
317
1.79
338
1.43
243
1.49
287
1.33
317
1.97
249
1.42
320
0.27
255
0.23
266
0.28
249
0.28
280
0.34
272
0.31
269
PS-NSSStwo views0.99
266
0.58
314
0.93
219
0.58
184
0.57
270
0.91
208
0.80
282
1.81
276
1.14
192
1.14
155
1.67
302
1.00
171
0.83
182
4.62
336
0.78
218
0.37
316
0.31
318
0.52
352
0.32
309
0.45
322
0.38
298
SuperBtwo views2.53
384
0.59
317
18.45
414
0.69
289
0.50
236
1.87
345
0.88
297
1.67
240
2.39
371
1.50
300
1.42
239
1.14
216
1.15
286
4.28
331
5.07
383
0.24
207
0.19
210
0.22
124
0.19
110
7.86
422
0.34
281
MANEtwo views6.19
406
0.59
317
1.03
252
0.93
364
1.22
382
13.38
419
2.69
404
12.81
420
17.94
423
8.21
416
10.82
415
14.72
418
11.68
414
11.39
417
11.90
408
0.59
365
0.50
373
0.52
352
1.76
407
0.55
343
0.54
340
FC-DCNNcopylefttwo views2.72
391
0.59
317
0.86
189
0.73
311
0.57
270
2.91
382
1.04
328
3.01
386
2.60
379
6.83
411
7.64
406
9.92
412
6.33
410
5.21
346
3.14
369
0.53
362
0.48
369
0.51
351
0.50
361
0.53
340
0.51
337
DPSNettwo views1.69
352
0.59
317
4.33
387
0.70
294
0.57
270
2.02
354
1.62
369
3.35
391
1.78
347
1.48
297
1.38
230
2.17
352
2.84
387
4.77
338
3.66
375
0.48
351
0.31
318
0.29
257
0.25
242
0.64
357
0.48
328
CSANtwo views1.41
330
0.59
317
1.26
293
0.70
294
0.50
236
1.76
332
1.78
374
1.77
264
1.90
356
2.35
365
2.32
354
1.92
335
1.94
365
5.56
357
1.49
328
0.43
337
0.35
336
0.40
331
0.41
340
0.43
312
0.41
306
LALA_ROBtwo views1.01
274
0.59
317
1.16
279
0.67
276
0.51
246
1.63
320
1.26
351
1.69
243
1.38
297
1.81
341
1.37
226
1.94
337
1.02
259
1.58
195
1.38
308
0.37
316
0.27
294
0.43
337
0.37
331
0.43
312
0.37
292
MSMD_ROBtwo views1.99
368
0.59
317
0.89
207
0.70
294
0.61
291
3.95
398
0.94
313
1.80
272
1.79
348
4.41
400
4.43
386
8.17
408
3.66
396
3.40
314
1.33
301
0.52
356
0.48
369
0.54
358
0.58
370
0.53
340
0.50
333
TRStereotwo views0.60
103
0.60
324
0.97
230
0.74
313
0.67
306
0.46
19
0.38
71
1.85
283
0.89
90
0.79
62
0.80
53
0.88
132
0.39
15
1.10
114
0.41
67
0.23
192
0.15
126
0.23
152
0.24
231
0.17
25
0.15
27
GMStereo_Zeroshotpermissivetwo views0.67
150
0.61
325
1.01
242
0.64
249
0.37
155
0.84
199
0.35
48
1.05
88
1.12
180
1.12
139
1.06
114
1.27
246
0.54
70
1.19
125
0.59
166
0.32
289
0.17
182
0.31
270
0.18
90
0.52
338
0.22
167
FADNettwo views0.92
247
0.61
325
1.81
346
0.62
232
0.55
266
0.96
227
0.57
220
1.78
268
1.33
275
0.93
85
1.01
93
1.36
263
1.01
254
2.71
293
0.75
208
0.33
294
0.34
328
0.31
270
0.34
320
0.59
350
0.40
302
DANettwo views1.08
286
0.61
325
1.32
303
0.85
345
0.72
319
1.37
293
0.51
172
1.54
213
1.15
201
1.78
335
1.54
270
2.01
344
1.11
279
2.90
299
2.00
350
0.33
294
0.30
312
0.40
331
0.30
299
0.44
319
0.45
318
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
FBW_ROBtwo views1.71
355
0.62
328
1.45
317
0.67
276
0.61
291
1.81
338
1.08
332
2.52
378
1.70
340
1.77
334
1.73
307
1.98
341
1.25
305
12.57
418
1.84
341
0.34
302
0.37
343
0.56
366
0.38
333
0.45
322
0.43
314
FCDSN-DCtwo views2.32
376
0.63
329
0.81
177
0.84
340
0.75
330
2.23
362
0.94
313
2.09
335
1.80
349
5.45
409
7.72
407
7.77
407
6.93
412
3.39
313
1.80
340
0.52
356
0.48
369
0.52
352
0.51
363
0.57
346
0.58
349
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
G-Nettwo views1.66
348
0.63
329
1.56
329
1.11
377
0.74
324
2.98
385
0.91
305
1.55
217
1.22
226
2.76
379
8.18
410
2.32
359
2.53
384
1.92
242
1.87
342
0.48
351
0.44
360
0.45
341
0.31
303
0.60
354
0.57
348
ETE_ROBtwo views0.96
255
0.64
331
1.16
279
0.69
289
0.48
227
1.14
257
1.13
337
1.77
264
1.19
214
1.91
349
1.45
248
1.73
320
1.05
266
1.60
198
1.14
279
0.32
289
0.26
286
0.38
320
0.34
320
0.39
295
0.41
306
PDISCO_ROBtwo views1.32
320
0.65
332
1.44
313
1.36
381
1.46
387
2.55
373
0.92
307
2.45
376
2.07
365
1.37
266
1.49
261
1.65
312
1.00
252
2.82
295
1.35
306
1.01
380
0.27
294
0.54
358
0.47
353
0.71
366
0.73
368
dadtwo views0.86
232
0.66
333
1.06
259
0.56
167
0.37
155
0.76
163
0.44
126
1.17
125
1.50
323
1.44
286
1.27
191
1.34
262
0.75
142
2.52
286
0.84
238
0.42
332
0.27
294
0.83
376
0.26
255
0.41
302
0.29
247
Wz-Net-LNSevtwo views1.03
277
0.67
334
2.71
378
0.64
249
0.84
350
1.75
330
1.00
323
1.80
272
1.32
272
1.28
223
1.25
182
1.65
312
1.22
300
1.39
160
1.40
312
0.28
265
0.26
286
0.24
172
0.23
220
0.33
270
0.32
275
ccnettwo views1.12
296
0.67
334
1.01
242
0.78
324
0.73
322
1.72
328
0.99
321
1.84
282
1.26
241
1.47
291
1.85
323
1.75
325
1.29
310
1.75
221
1.88
344
0.57
364
0.53
376
0.57
368
0.55
367
0.59
350
0.54
340
FADNet-RVCtwo views0.88
237
0.67
334
1.93
353
0.60
208
0.48
227
0.91
208
0.60
234
1.71
247
1.18
211
0.90
80
0.96
75
1.36
263
0.92
214
2.25
272
1.17
283
0.30
277
0.29
308
0.32
283
0.32
309
0.41
302
0.35
286
STTRV1_RVCtwo views1.58
340
0.68
337
1.96
355
0.88
353
1.12
373
1.57
315
0.90
304
2.25
361
1.75
346
1.29
228
2.02
339
1.40
267
1.22
300
9.77
411
1.31
299
0.81
375
0.33
327
0.54
358
0.49
358
0.73
368
0.52
338
Syn2CoExtwo views1.14
301
0.69
338
1.66
335
0.80
328
0.67
306
1.40
298
0.88
297
2.06
331
1.54
329
1.25
214
1.58
282
1.42
271
1.50
333
4.09
326
1.40
312
0.36
312
0.32
325
0.34
300
0.29
291
0.29
243
0.34
281
psmorigintwo views1.52
337
0.69
338
10.52
407
0.68
286
0.59
285
1.13
256
0.70
259
1.57
219
1.19
214
1.99
352
1.79
315
2.26
355
1.47
329
2.09
258
1.36
307
0.39
323
0.40
352
0.34
300
0.33
315
0.43
312
0.56
344
ADCPNettwo views1.85
360
0.69
338
8.07
400
0.71
301
0.58
278
2.79
380
1.22
346
1.94
307
1.54
329
1.88
345
1.69
303
2.46
366
2.04
369
2.37
279
6.48
388
0.38
320
0.37
343
0.38
320
0.43
344
0.47
325
0.45
318
XX-TBDtwo views0.46
26
0.70
341
0.35
1
0.79
325
0.25
18
0.58
76
0.26
10
0.69
5
1.27
248
0.76
55
1.00
88
0.45
15
0.33
10
0.47
3
0.37
39
0.19
92
0.15
126
0.15
3
0.11
6
0.17
25
0.14
11
SHDtwo views1.31
318
0.71
342
2.34
368
0.86
347
0.75
330
1.77
335
0.65
243
2.22
358
2.50
378
2.40
369
1.71
305
1.91
332
1.60
340
1.93
245
2.37
358
0.38
320
0.31
318
0.38
320
0.40
338
0.48
328
0.50
333
RTSCtwo views1.29
315
0.73
343
2.44
370
0.83
339
0.57
270
1.85
343
0.65
243
1.88
289
2.00
361
2.20
360
1.66
299
1.60
303
1.26
307
2.33
276
3.92
377
0.32
289
0.23
266
0.27
239
0.29
291
0.37
283
0.37
292
ADCMidtwo views1.89
364
0.73
343
5.06
390
0.72
304
0.67
306
2.00
353
1.14
338
1.97
314
1.48
320
2.86
382
1.81
318
2.37
361
2.05
371
2.24
270
10.39
406
0.33
294
0.31
318
0.39
326
0.43
344
0.50
332
0.44
316
DeepPrunerFtwo views1.60
343
0.73
343
5.81
395
0.88
353
1.19
380
0.91
208
0.95
315
2.19
354
5.24
404
1.17
178
1.30
199
1.19
223
1.30
314
4.90
341
1.66
336
0.42
332
0.34
328
0.52
352
0.47
353
0.41
302
0.40
302
ELAS_RVCcopylefttwo views2.48
383
0.74
346
1.90
351
1.05
372
0.92
359
2.76
378
4.01
412
2.76
381
4.11
397
4.69
403
4.63
390
4.62
390
5.96
408
3.97
325
3.96
378
0.63
370
0.53
376
0.56
366
0.52
364
0.64
357
0.63
357
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views2.37
378
0.74
346
1.54
328
0.99
368
0.92
359
4.78
404
2.33
400
3.33
390
3.37
390
5.05
408
4.77
393
3.67
383
4.53
403
3.42
316
4.50
381
0.62
368
0.53
376
0.55
363
0.53
365
0.63
355
0.64
361
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
Anonymous Stereotwo views1.28
314
0.75
348
2.45
371
0.74
313
0.77
334
0.93
217
1.77
373
1.51
202
1.31
267
1.67
326
1.29
198
1.20
224
0.75
142
6.29
370
1.68
337
0.37
316
0.36
341
0.38
320
0.40
338
0.43
312
0.45
318
PWCDC_ROBbinarytwo views1.29
315
0.75
348
1.33
305
1.05
372
0.88
356
1.73
329
0.52
181
1.89
291
3.28
388
1.29
228
4.88
394
1.22
227
1.46
327
1.77
228
1.45
324
0.60
366
0.26
286
0.29
257
0.25
242
0.52
338
0.37
292
DGSMNettwo views1.14
301
0.76
350
2.49
373
0.81
331
0.86
353
1.39
297
1.39
356
2.13
337
1.35
286
1.26
218
1.63
294
1.48
286
0.98
242
1.75
221
1.10
274
0.45
343
0.43
357
0.55
363
0.49
358
0.75
369
0.70
365
PWC_ROBbinarytwo views1.24
310
0.76
350
2.46
372
0.72
304
0.78
337
1.15
262
0.49
165
1.75
255
1.92
357
2.31
362
3.07
372
1.59
301
1.40
320
2.46
284
2.10
354
0.33
294
0.22
257
0.35
307
0.24
231
0.38
291
0.41
306
aanetorigintwo views1.23
309
0.79
352
2.78
380
0.70
294
0.79
339
0.99
235
1.06
330
1.06
101
1.37
293
3.52
391
2.61
365
1.72
319
1.63
342
1.99
250
1.78
339
0.25
232
0.24
275
0.26
228
0.25
242
0.38
291
0.45
318
RGCtwo views1.14
301
0.79
352
1.26
293
0.91
361
0.96
364
1.52
310
0.77
271
1.92
301
1.26
241
1.54
308
1.93
332
2.02
346
1.54
334
2.25
272
1.31
299
0.44
342
0.35
336
0.58
369
0.48
355
0.47
325
0.46
322
MFN_U_SF_RVCtwo views1.52
337
0.84
354
3.42
382
0.87
352
0.66
304
2.56
374
0.95
315
2.36
370
1.70
340
1.98
351
1.86
324
2.45
365
1.79
355
2.95
300
2.58
360
0.52
356
0.48
369
0.55
363
0.59
373
0.59
350
0.61
355
PVDtwo views1.70
353
0.84
354
2.26
366
0.94
366
0.83
349
2.48
371
0.97
317
2.59
380
3.35
389
3.01
388
2.77
368
2.34
360
2.47
383
2.67
292
3.14
369
0.47
350
0.45
364
0.59
370
0.48
355
0.59
350
0.75
370
SAMSARAtwo views1.55
339
0.84
354
2.61
375
1.22
380
1.07
368
2.50
372
1.93
384
2.05
326
1.89
354
2.75
378
1.66
299
2.81
374
1.69
349
3.08
306
1.97
349
0.46
349
0.51
374
0.42
335
0.46
351
0.58
348
0.59
351
GANetREF_RVCpermissivetwo views1.07
283
0.86
357
1.31
300
0.82
336
0.53
257
1.41
302
1.31
353
1.76
261
1.52
326
1.27
221
1.31
204
1.46
280
1.24
304
2.03
253
0.96
257
0.56
363
0.45
364
0.67
371
0.50
361
0.88
373
0.59
351
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
MFN_U_SF_DS_RVCtwo views1.74
357
0.87
358
3.56
383
0.80
328
0.75
330
3.72
393
2.44
403
1.82
277
1.82
351
1.74
331
1.91
330
1.92
335
1.26
307
7.69
394
1.28
296
0.45
343
0.47
368
0.52
352
0.77
379
0.50
332
0.50
333
XQCtwo views1.37
325
0.87
358
2.56
374
0.84
340
0.69
314
1.83
341
0.89
299
2.07
332
1.88
353
1.88
345
1.53
268
1.91
332
1.55
336
2.85
298
3.05
366
0.48
351
0.29
308
0.44
340
0.39
334
0.69
364
0.60
354
SQANettwo views1.31
318
0.88
360
1.08
266
1.83
389
1.44
386
1.44
304
0.75
265
1.74
253
1.09
170
1.32
248
1.26
188
1.28
249
1.01
254
1.50
180
0.83
235
2.50
395
0.34
328
1.47
387
0.55
367
2.32
391
1.57
391
PASMtwo views1.34
322
0.92
361
2.62
376
0.86
347
0.87
355
1.03
240
1.08
332
1.50
197
1.51
325
1.82
342
1.41
238
1.68
315
1.26
307
4.87
340
1.34
303
0.61
367
0.65
387
0.68
372
0.78
380
0.69
364
0.68
364
WZ-Nettwo views1.95
365
0.95
362
10.10
404
0.86
347
0.78
337
1.69
325
1.60
368
2.20
357
1.98
360
2.08
356
1.93
332
2.30
357
1.97
366
5.30
347
3.17
371
0.34
302
0.26
286
0.29
257
0.31
303
0.51
336
0.47
325
GASNettwo views0.99
266
0.97
363
1.72
340
0.98
367
0.68
312
0.83
192
0.67
251
1.60
224
1.28
253
1.31
246
1.22
172
1.22
227
1.21
299
2.41
282
1.41
316
0.43
337
0.26
286
0.36
315
0.34
320
0.55
343
0.31
269
anonymitytwo views1.12
296
0.97
363
1.21
284
1.07
375
1.12
373
1.08
249
0.89
299
1.95
309
1.16
205
1.29
228
1.26
188
1.22
227
1.09
277
1.15
122
1.01
262
1.02
382
1.00
403
0.97
380
0.97
390
0.98
375
0.99
378
Consistency-Rafttwo views1.25
312
0.99
365
1.93
353
1.02
371
1.21
381
0.96
227
1.01
325
1.75
255
1.92
357
1.36
264
2.12
345
1.44
276
1.01
254
1.14
121
1.40
312
0.72
373
0.82
390
0.89
378
0.98
392
1.31
386
0.95
376
ADCStwo views2.25
373
0.99
365
5.55
392
0.81
331
0.74
324
2.19
361
1.80
375
2.27
363
2.14
366
2.80
381
2.13
346
2.40
363
2.03
368
2.64
291
13.69
410
0.41
329
0.39
350
0.40
331
0.45
348
0.58
348
0.56
344
MaskLacGwcNet_RVCtwo views1.10
291
1.02
367
1.00
238
0.82
336
0.67
306
1.93
347
0.93
311
1.62
230
1.11
176
1.15
158
1.25
182
1.50
288
0.79
161
1.96
248
0.76
210
1.89
390
0.34
328
0.79
375
0.36
328
1.25
385
0.83
372
SPS-STEREOcopylefttwo views1.67
349
1.04
368
1.23
287
1.21
379
1.13
376
1.82
340
1.11
334
2.16
346
1.52
326
3.07
390
2.32
354
2.82
375
1.80
356
4.11
327
2.04
351
1.03
383
0.99
402
0.97
380
0.94
388
1.03
379
1.02
379
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
NVStereoNet_ROBtwo views1.88
361
1.07
369
1.45
317
1.07
375
1.17
377
1.47
305
1.48
362
1.89
291
1.93
359
1.94
350
4.67
392
3.08
379
1.80
356
6.51
373
1.65
334
1.06
385
0.86
397
1.08
385
1.32
397
0.93
374
1.26
388
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SGM+DAISYtwo views2.41
381
1.07
369
2.14
361
1.18
378
1.10
370
2.14
360
1.36
355
1.96
310
1.66
337
5.46
410
7.07
402
4.95
395
4.32
402
5.50
354
2.26
357
1.04
384
1.02
405
0.99
382
0.97
390
1.02
378
1.04
381
EDNetEfficienttwo views2.37
378
1.10
371
8.08
401
0.74
313
0.71
317
0.98
234
1.56
365
1.46
189
4.06
396
4.90
405
2.82
369
2.25
354
3.48
394
2.95
300
9.97
403
0.26
246
0.24
275
0.26
228
0.30
299
0.68
363
0.61
355
AnyNet_C32two views1.96
366
1.10
371
5.17
391
0.90
358
1.11
371
2.12
359
2.37
401
1.85
283
1.48
320
2.45
370
1.70
304
2.05
349
1.64
343
2.50
285
10.28
405
0.37
316
0.34
328
0.35
307
0.41
340
0.49
331
0.54
340
LSMtwo views6.33
407
1.10
371
13.19
410
1.41
385
68.17
436
1.64
322
1.90
383
1.92
301
2.46
373
2.99
386
3.11
373
1.88
327
1.80
356
2.61
290
2.06
353
0.41
329
0.58
382
0.50
350
0.57
369
0.64
357
17.66
428
otakutwo views1.60
343
1.11
374
1.21
284
2.20
392
1.56
388
1.97
350
1.24
347
2.07
332
1.36
289
1.44
286
1.62
291
1.73
320
1.19
293
1.73
220
0.98
260
2.89
399
0.57
381
1.74
388
0.60
374
2.78
396
1.94
396
AnonymousMtwo views0.59
100
1.11
374
0.41
9
0.44
23
0.32
108
0.43
14
0.47
150
1.05
88
0.64
28
0.98
99
0.63
22
0.67
69
0.43
24
0.59
15
0.41
67
0.20
119
0.15
126
1.84
391
0.84
383
0.14
2
0.13
3
MFMNet_retwo views1.40
329
1.14
376
1.68
336
1.39
383
1.07
368
1.48
306
1.43
358
1.87
287
1.82
351
2.26
361
2.19
349
1.51
290
1.86
360
1.52
181
1.25
290
0.93
378
0.83
391
0.84
377
0.80
381
0.99
377
1.05
383
Ntrotwo views1.64
347
1.15
377
1.23
287
2.48
397
1.83
390
2.09
357
1.16
341
1.96
310
1.38
297
1.21
194
1.62
291
1.62
305
1.29
310
1.87
239
1.11
276
3.04
400
0.56
380
1.82
390
0.64
375
2.80
397
2.05
397
MSC_U_SF_DS_RVCtwo views2.12
370
1.15
377
3.10
381
1.05
372
0.76
333
5.03
407
2.40
402
2.16
346
2.62
380
1.89
347
2.28
353
2.69
372
1.65
344
9.35
406
2.04
351
0.64
371
0.51
374
0.68
372
0.71
377
1.09
381
0.67
362
UDGNettwo views0.72
163
1.17
379
0.80
176
0.77
322
0.41
191
0.77
169
0.38
71
0.97
61
1.34
278
0.81
68
0.88
63
0.71
81
0.60
99
1.21
127
0.54
153
0.52
356
0.19
210
1.02
383
0.26
255
0.71
366
0.31
269
Wz-Net-SNSevtwo views1.49
333
1.23
380
6.27
397
0.68
286
0.67
306
1.37
293
1.41
357
2.00
317
1.39
301
1.48
297
1.61
288
2.29
356
1.32
316
3.93
323
2.14
355
0.31
284
0.28
300
0.31
270
0.33
315
0.42
307
0.36
290
CC-Net-ROBtwo views1.49
333
1.26
381
1.27
296
0.88
353
0.79
339
1.76
332
1.00
323
1.79
270
1.26
241
1.10
133
1.61
288
1.21
225
0.99
250
8.13
398
0.84
238
1.09
386
0.41
354
2.20
392
0.46
351
1.20
384
0.48
328
RTStwo views2.67
386
1.38
382
15.28
412
0.99
368
1.26
383
3.78
394
1.96
386
2.15
343
2.62
380
2.61
373
2.85
370
2.60
369
1.59
338
6.27
368
5.71
386
0.40
325
0.28
300
0.35
307
0.35
324
0.50
332
0.48
328
RTSAtwo views2.67
386
1.38
382
15.28
412
0.99
368
1.26
383
3.78
394
1.96
386
2.15
343
2.62
380
2.61
373
2.85
370
2.60
369
1.59
338
6.27
368
5.71
386
0.40
325
0.28
300
0.35
307
0.35
324
0.50
332
0.48
328
WAO-7two views2.66
385
1.40
384
1.73
342
1.39
383
1.17
377
3.93
397
1.94
385
4.11
397
3.88
395
2.92
383
5.50
396
4.18
388
3.00
391
7.63
393
3.71
376
1.13
388
1.00
403
1.17
386
1.13
396
1.18
383
1.09
385
ACVNet_2two views2.43
382
1.41
385
2.04
356
2.62
398
2.24
397
2.63
377
1.88
382
3.31
389
3.01
385
2.19
359
3.45
378
4.62
390
2.04
369
4.50
334
1.47
326
2.55
396
0.64
385
2.22
393
0.84
383
2.69
395
2.29
400
ACVNet-4btwo views2.15
371
1.41
385
1.64
333
2.80
399
2.31
400
2.31
366
1.24
347
2.32
366
2.14
366
1.26
218
2.39
358
2.66
371
1.48
330
5.95
366
1.06
266
3.20
404
0.45
364
2.37
396
0.89
385
2.83
400
2.37
401
ACVNet_1two views2.18
372
1.45
387
1.72
340
2.85
401
2.33
401
2.28
364
1.46
360
3.08
387
2.22
369
1.82
342
2.05
342
3.56
382
1.98
367
3.09
307
1.40
312
3.17
401
0.60
383
2.40
400
0.92
387
2.91
403
2.37
401
EDNetEfficientorigintwo views10.57
414
1.47
388
177.42
441
0.67
276
0.53
257
1.58
316
1.16
341
1.90
294
3.37
390
4.71
404
3.38
376
3.10
380
2.69
386
3.13
308
3.58
374
0.25
232
0.23
266
0.33
290
0.27
263
0.83
370
0.81
371
Deantwo views2.91
394
1.53
389
2.07
357
2.96
405
2.51
403
3.15
386
2.14
394
4.75
402
4.41
400
2.76
379
6.10
398
5.53
398
2.37
379
2.97
302
1.92
346
3.18
402
0.85
395
2.51
403
1.04
395
2.88
402
2.47
404
WAO-6two views2.81
392
1.60
390
1.46
319
2.36
396
2.28
399
3.55
391
2.29
399
4.21
398
4.56
401
2.36
367
4.51
387
4.88
394
2.66
385
4.60
335
4.07
380
1.72
389
1.15
409
2.31
395
1.46
403
2.31
390
1.85
394
LVEtwo views3.31
396
1.67
391
1.64
333
2.85
401
2.42
402
3.20
388
2.26
398
4.78
403
5.05
403
2.35
365
6.91
400
6.02
400
2.37
379
9.15
402
2.17
356
3.19
403
1.08
408
2.38
398
1.47
404
2.81
398
2.40
403
RainbowNettwo views1.97
367
1.76
392
1.57
330
2.81
400
2.21
396
1.98
352
1.81
376
2.54
379
1.89
354
1.50
300
1.84
321
1.96
339
1.65
344
2.14
262
1.25
290
3.33
406
0.85
395
2.39
399
0.98
392
2.82
399
2.22
398
AnyNet_C01two views2.26
374
1.78
393
10.22
406
0.93
364
0.74
324
2.92
384
2.20
396
2.29
365
1.80
349
2.53
372
2.41
360
2.71
373
1.73
350
3.41
315
6.72
390
0.41
329
0.39
350
0.40
331
0.42
342
0.67
362
0.63
357
IMH-64-1two views2.70
389
1.79
394
1.46
319
3.26
408
2.66
404
3.23
389
2.10
391
4.08
395
2.75
383
2.34
363
3.81
382
3.06
377
2.22
376
4.25
329
2.59
361
3.75
410
0.84
392
2.75
406
1.35
398
3.15
405
2.60
407
IMH-64two views2.70
389
1.79
394
1.46
319
3.26
408
2.66
404
3.23
389
2.10
391
4.08
395
2.75
383
2.34
363
3.81
382
3.06
377
2.22
376
4.25
329
2.59
361
3.75
410
0.84
392
2.75
406
1.35
398
3.15
405
2.60
407
WAO-8two views4.40
399
1.82
396
1.79
344
2.34
394
2.20
394
9.19
412
1.53
363
6.09
410
16.46
417
3.94
394
7.84
408
7.32
402
3.72
398
9.41
408
3.31
372
2.00
391
1.07
406
2.44
401
1.37
401
2.50
392
1.68
392
Venustwo views4.40
399
1.82
396
1.79
344
2.34
394
2.20
394
9.19
412
1.53
363
6.09
410
16.46
417
3.94
394
7.84
408
7.32
402
3.72
398
9.41
408
3.31
372
2.00
391
1.07
406
2.44
401
1.37
401
2.50
392
1.68
392
IMHtwo views3.21
395
1.85
398
1.48
324
3.25
407
2.69
406
4.07
400
2.02
389
4.41
400
3.80
394
2.72
376
7.11
403
4.75
393
2.92
388
5.92
364
2.55
359
3.85
413
0.88
398
2.78
408
1.36
400
3.19
407
2.59
406
JetBluetwo views3.97
397
2.01
399
10.19
405
1.38
382
2.84
408
10.53
415
9.54
415
3.60
393
2.41
372
2.73
377
3.39
377
4.54
389
4.31
401
7.85
397
6.84
391
0.88
376
0.93
401
0.89
378
0.91
386
1.74
387
1.91
395
TorneroNet-64two views5.30
405
2.03
400
1.74
343
3.43
410
2.81
407
10.09
414
2.12
393
9.10
417
17.12
422
4.96
407
9.27
413
10.72
416
3.70
397
9.20
403
4.55
382
3.31
405
0.84
392
2.88
409
1.55
405
3.49
408
3.04
410
TorneroNettwo views10.70
415
2.03
400
1.82
347
3.43
410
3.01
409
43.83
432
2.22
397
8.87
416
67.47
441
7.17
414
27.36
426
10.68
415
3.85
400
8.67
401
7.65
398
3.59
408
0.88
398
3.04
410
1.57
406
3.71
409
3.17
411
PWCKtwo views2.88
393
2.05
402
5.72
394
2.08
391
1.11
371
3.55
391
3.90
411
2.86
384
3.54
393
3.03
389
3.63
380
3.10
380
2.31
378
8.15
400
3.09
367
2.12
393
0.91
400
1.75
389
0.98
392
2.57
394
1.18
387
KSHMRtwo views8.75
413
2.06
403
2.11
359
3.53
412
3.11
410
4.13
401
2.69
404
5.60
407
61.37
440
3.00
387
55.83
440
4.98
397
2.45
382
4.49
333
2.61
363
3.46
407
1.55
413
3.14
412
1.94
410
3.72
410
3.18
412
Wz-Net-TNSevtwo views1.88
361
2.08
404
7.66
398
0.67
276
0.64
299
2.42
370
1.83
378
2.33
367
1.74
345
1.57
316
1.56
276
2.58
368
1.90
363
4.86
339
3.12
368
0.39
323
0.37
343
0.33
290
0.37
331
0.53
340
0.58
349
coex-fttwo views8.13
412
2.13
405
98.04
440
0.67
276
0.53
257
1.71
326
1.56
365
1.65
234
11.11
412
18.17
426
3.75
381
3.88
386
7.61
413
2.98
303
6.49
389
0.30
277
0.30
312
0.32
283
0.31
303
0.66
361
0.50
333
UNDER WATER-64two views5.27
404
2.32
406
8.78
403
3.93
416
3.54
415
7.61
410
3.03
410
5.84
409
14.19
413
4.04
396
4.04
384
9.39
411
6.26
409
5.93
365
8.48
400
3.60
409
1.51
412
3.13
411
1.88
408
4.29
415
3.61
415
UNDER WATERtwo views5.08
403
2.33
407
5.55
392
3.94
417
3.51
414
5.20
408
2.72
406
5.61
408
16.52
419
3.84
393
4.60
389
9.21
410
5.89
407
5.90
363
8.66
401
3.75
410
1.34
410
3.18
413
1.88
408
4.33
416
3.61
415
ktntwo views4.70
401
2.38
408
2.12
360
3.76
413
3.24
411
4.85
405
2.95
409
5.52
405
7.37
409
4.07
398
19.32
423
7.46
404
3.47
393
7.39
388
2.95
365
4.04
414
1.85
414
3.26
414
2.22
413
3.08
404
2.65
409
notakertwo views3.98
398
2.40
409
2.68
377
3.82
415
3.27
413
3.97
399
2.14
394
4.78
403
3.45
392
4.12
399
6.94
401
7.65
406
3.26
392
7.82
396
5.30
385
4.04
414
1.41
411
3.36
415
2.10
412
3.88
411
3.31
413
UDGtwo views1.41
330
2.65
410
0.99
233
1.44
386
1.64
389
1.34
290
0.80
282
1.60
224
1.23
229
1.23
202
1.71
305
2.01
344
1.34
318
1.47
176
1.41
316
0.90
377
0.54
379
2.29
394
0.75
378
1.84
388
1.04
381
DDUNettwo views1.50
335
2.69
411
1.12
274
1.77
388
1.88
391
1.84
342
0.92
307
1.70
246
1.16
205
1.38
271
1.79
315
1.60
303
1.12
282
1.37
151
1.08
269
1.10
387
0.76
388
2.37
396
0.94
388
2.00
389
1.37
389
DispFullNettwo views2.34
377
2.85
412
3.66
384
3.08
406
2.27
398
1.97
350
0.67
251
2.00
317
1.70
340
2.52
371
2.00
336
2.23
353
5.86
406
3.44
318
1.58
331
1.01
380
0.32
325
2.64
405
1.94
410
2.85
401
2.24
399
MADNet++two views5.01
402
3.14
413
4.91
389
4.55
419
3.94
417
5.20
408
4.41
413
4.40
399
4.13
398
4.95
406
6.08
397
4.74
392
5.37
404
9.40
407
10.67
407
4.65
416
4.15
419
3.97
417
3.34
416
4.09
413
4.08
418
MADNet+two views2.69
388
3.22
414
11.53
409
1.44
386
1.12
373
3.19
387
1.81
376
2.85
383
2.37
370
1.68
327
2.07
343
2.85
376
2.18
374
7.41
389
5.23
384
0.79
374
0.76
388
0.69
374
0.65
376
0.98
375
0.95
376
HanzoNettwo views11.04
416
3.62
415
8.10
402
4.08
418
3.55
416
4.90
406
2.73
407
7.19
414
10.10
410
31.86
436
28.92
428
21.96
427
36.36
429
18.08
422
10.17
404
7.94
420
3.32
417
3.47
416
3.31
415
7.06
421
4.04
417
FADEtwo views26.59
426
4.78
416
20.96
416
1.89
390
1.92
392
2.91
382
2.00
388
5.58
406
5.04
402
2.92
383
2.16
348
4.13
387
14.18
417
10.23
414
8.46
399
188.09
441
2.77
415
123.78
438
127.92
438
1.06
380
1.10
386
DPSimNet_ROBtwo views11.20
417
4.98
417
35.43
428
2.90
404
4.52
418
7.89
411
17.09
419
4.66
401
6.06
407
14.89
422
10.93
416
17.29
419
36.81
431
13.18
419
15.68
415
2.86
398
6.29
421
5.75
420
5.09
418
3.91
412
7.70
421
SPstereotwo views26.54
425
6.08
418
10.71
408
5.55
420
5.68
419
48.14
433
80.43
440
67.31
441
34.39
436
28.70
434
27.52
427
43.76
438
37.60
436
45.04
440
54.41
441
4.92
419
4.89
420
10.74
425
5.88
419
4.46
417
4.57
419
DPSMNet_ROBtwo views13.02
419
8.23
419
21.91
418
9.53
423
18.11
422
11.56
417
32.02
427
10.64
419
16.23
416
7.05
413
19.49
425
10.16
414
16.66
419
9.85
413
22.43
422
4.77
418
8.68
422
5.38
419
10.26
423
6.17
420
11.36
422
DGTPSM_ROBtwo views13.01
418
8.23
419
21.87
417
9.51
422
18.10
421
11.56
417
32.01
426
10.63
418
16.20
415
7.03
412
19.48
424
10.15
413
16.66
419
9.83
412
22.42
421
4.75
417
8.68
422
5.37
418
10.25
422
6.16
419
11.36
422
JetRedtwo views6.91
410
8.80
421
25.96
424
2.85
401
3.25
412
13.98
421
11.87
416
6.25
412
4.28
399
4.45
401
4.56
388
6.69
401
5.46
405
7.46
391
14.05
411
2.59
397
3.31
416
2.59
404
2.29
414
4.20
414
3.36
414
ASD4two views15.85
420
10.99
422
19.63
415
10.21
424
11.70
420
19.24
422
31.10
425
19.35
422
10.68
411
11.14
417
10.18
414
12.59
417
12.64
415
14.74
420
24.83
424
12.93
426
9.94
427
26.83
432
19.40
426
16.23
425
12.70
427
BEATNet-Init1two views26.87
427
13.43
423
70.68
439
0.91
361
0.68
312
57.02
440
21.06
421
32.82
432
32.67
429
52.12
440
53.61
439
66.05
440
49.56
440
48.79
441
34.71
431
0.49
355
0.44
360
0.53
357
0.53
365
0.63
355
0.59
351
Anonymous_1two views43.04
437
18.73
424
24.79
421
21.81
425
46.26
435
27.80
423
37.60
428
28.08
427
16.14
414
14.66
421
14.30
417
20.65
421
17.88
421
21.56
423
25.94
425
117.93
440
8.92
424
100.65
437
126.50
437
158.64
441
12.08
424
DPSM_ROBtwo views19.08
421
19.14
425
25.17
422
22.15
426
20.85
424
28.17
424
37.82
429
26.56
425
16.85
420
14.14
419
14.84
418
21.70
422
18.75
422
21.87
424
26.55
426
10.16
424
9.30
425
10.47
423
10.42
424
14.03
423
12.61
425
DPSMtwo views19.08
421
19.14
425
25.17
422
22.15
426
20.85
424
28.17
424
37.82
429
26.56
425
16.85
420
14.14
419
14.84
418
21.70
422
18.75
422
21.87
424
26.55
426
10.16
424
9.30
425
10.47
423
10.42
424
14.03
423
12.61
425
xxxxx1two views54.10
439
25.67
427
27.13
425
113.43
438
96.96
438
30.69
428
47.44
431
32.38
429
25.60
424
17.75
423
17.27
420
21.81
424
21.02
424
24.43
427
33.82
428
33.37
434
40.54
436
157.71
439
175.86
439
66.16
437
72.93
439
tt_lltwo views54.10
439
25.67
427
27.13
425
113.43
438
96.96
438
30.69
428
47.44
431
32.38
429
25.60
424
17.75
423
17.27
420
21.81
424
21.02
424
24.43
427
33.82
428
33.37
434
40.54
436
157.71
439
175.86
439
66.16
437
72.93
439
fftwo views54.10
439
25.67
427
27.13
425
113.43
438
96.96
438
30.69
428
47.44
431
32.38
429
25.60
424
17.75
423
17.27
420
21.81
424
21.02
424
24.43
427
33.82
428
33.37
434
40.54
436
157.71
439
175.86
439
66.16
437
72.93
439
LRCNet_RVCtwo views22.74
423
32.10
430
21.97
419
29.84
428
26.23
426
4.42
403
0.81
285
22.66
423
2.02
362
26.93
428
29.26
429
23.06
429
15.59
418
23.84
426
18.88
418
31.75
433
19.90
435
34.65
433
32.13
433
30.54
433
28.32
434
PMLtwo views51.67
438
36.25
431
13.28
411
7.46
421
20.81
423
108.69
441
232.22
442
8.72
415
27.82
428
87.01
441
269.67
442
69.67
441
61.95
441
24.76
430
14.20
412
9.74
423
3.40
418
9.62
422
4.70
417
18.74
426
4.72
420
CasAABBNettwo views38.33
428
38.46
432
50.35
433
44.75
436
41.84
430
56.68
437
76.37
435
53.22
438
33.83
431
28.31
429
29.54
430
43.62
437
37.71
437
43.84
437
53.41
436
20.30
427
18.70
430
21.07
429
21.07
428
28.24
430
25.34
429
Selective-RAFT-Errortwo views38.39
432
38.47
433
50.44
437
44.73
432
41.97
434
56.68
437
76.38
436
53.24
439
33.92
432
28.34
430
29.85
431
43.60
436
38.20
438
43.75
433
53.34
435
20.38
431
18.70
430
21.09
430
21.05
427
28.30
431
25.43
433
MyStereo03two views38.34
429
38.50
434
50.41
434
44.74
433
41.86
431
56.65
434
76.38
436
52.99
435
33.93
433
28.39
431
29.99
432
43.54
433
37.42
433
43.82
434
53.53
437
20.31
428
18.71
432
21.06
426
21.08
429
28.23
427
25.35
430
MyStereo02two views38.34
429
38.50
434
50.41
434
44.74
433
41.86
431
56.65
434
76.38
436
52.99
435
33.93
433
28.39
431
29.99
432
43.54
433
37.42
433
43.82
434
53.53
437
20.31
428
18.71
432
21.06
426
21.08
429
28.23
427
25.35
430
MyStereotwo views38.34
429
38.50
434
50.41
434
44.74
433
41.86
431
56.65
434
76.38
436
52.99
435
33.93
433
28.39
431
29.99
432
43.54
433
37.42
433
43.82
434
53.53
437
20.31
428
18.71
432
21.06
426
21.08
429
28.23
427
25.35
430
LSM0two views42.82
436
38.75
437
50.81
438
47.07
437
109.38
441
57.00
439
76.02
434
53.74
440
33.71
430
29.02
435
30.41
435
43.87
439
37.22
432
43.91
438
53.54
440
20.52
432
18.62
429
21.10
431
21.11
432
28.41
432
42.22
435
HaxPigtwo views38.92
433
41.40
438
41.64
429
29.95
429
32.27
427
28.90
426
27.60
422
29.73
428
37.71
437
43.82
437
43.87
436
33.17
430
35.56
428
41.53
431
40.37
433
43.94
437
47.51
440
45.82
434
47.08
435
42.38
434
44.15
437
AVERAGE_ROBtwo views40.43
434
42.37
439
42.73
430
36.96
431
35.58
429
30.50
427
27.61
423
36.71
434
38.39
438
44.91
438
44.36
437
37.45
432
36.70
430
41.88
432
40.35
432
45.43
438
46.81
439
47.11
435
46.35
434
42.51
435
43.87
436
MEDIAN_ROBtwo views42.00
435
44.40
440
44.29
432
35.15
430
34.95
428
31.28
431
29.60
424
35.88
433
40.02
439
47.20
439
46.64
438
37.37
431
38.48
439
44.35
439
42.45
434
48.03
439
49.39
441
49.71
436
49.03
436
45.14
436
46.65
438
DLNR_Zeroshot_testpermissivetwo views23.17
424
48.52
441
43.29
431
176.68
441
78.69
437
0.35
5
0.21
1
23.41
424
0.75
57
0.66
44
0.86
58
0.59
53
0.30
4
1.56
192
0.44
86
9.57
422
0.12
9
0.18
37
0.14
23
76.92
440
0.16
42
test_example2two views192.40
442
210.76
442
206.48
442
199.83
442
204.73
442
172.94
442
183.52
441
133.93
442
133.41
442
191.38
442
196.19
441
187.13
442
178.77
442
205.33
442
208.00
442
222.09
442
238.72
442
186.54
442
190.54
442
227.34
442
170.31
442