This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
DLNR_Zeroshot_testpermissivetwo views23.23
419
48.25
437
43.77
426
177.04
437
78.39
433
0.35
5
0.21
1
23.33
420
0.82
53
0.67
41
0.86
55
0.58
43
0.30
4
1.64
186
0.48
88
10.69
421
0.13
17
0.18
33
0.14
22
76.63
436
0.23
122
EGLCR-Stereotwo views0.41
4
0.24
9
0.59
22
0.45
8
0.27
19
0.54
60
0.22
2
1.23
113
0.56
6
0.44
5
0.43
2
0.68
65
0.29
3
0.89
65
0.34
4
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.18
32
XX-Stereotwo views0.97
246
0.28
43
8.28
384
0.85
329
0.70
308
0.44
15
0.22
2
1.07
50
0.69
25
0.66
39
1.56
271
1.38
262
0.38
14
1.36
134
0.38
28
0.21
120
0.14
58
0.20
70
0.19
102
0.19
59
0.16
13
Any-RAFTtwo views0.55
36
0.27
35
0.49
11
0.50
46
0.27
19
0.98
226
0.25
4
1.71
203
1.08
137
0.90
75
0.99
82
1.13
207
0.46
35
0.74
34
0.35
6
0.19
65
0.13
17
0.17
13
0.13
11
0.16
11
0.19
51
ROB_FTStereotwo views0.56
47
0.33
135
0.82
107
0.52
69
0.27
19
0.62
89
0.25
4
1.14
78
0.74
36
1.13
126
0.96
71
0.82
103
0.60
99
1.18
118
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
SST-Stereotwo views0.85
211
0.30
79
0.81
98
0.63
200
0.31
77
0.70
134
0.25
4
1.16
92
0.95
92
1.47
280
1.11
126
0.99
165
0.86
182
5.69
348
0.53
117
0.23
169
0.13
17
0.23
146
0.19
102
0.23
158
0.19
51
CRE-IMPtwo views0.57
59
0.32
118
0.82
107
0.54
100
0.29
51
0.77
160
0.25
4
1.19
99
0.79
48
1.09
112
0.95
69
0.81
97
0.57
77
1.11
108
0.57
137
0.22
149
0.14
58
0.23
146
0.19
102
0.28
223
0.24
141
CREStereo++_RVCtwo views0.49
25
0.22
3
0.46
8
0.48
29
0.38
154
0.45
16
0.25
4
0.77
4
1.30
235
0.82
61
1.23
169
0.47
20
0.37
13
0.55
5
0.44
61
0.16
7
0.11
2
0.16
8
0.80
377
0.18
34
0.12
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
Gwc-CoAtRStwo views0.55
36
0.27
35
0.73
67
0.49
34
0.30
63
0.63
97
0.25
4
1.38
136
1.12
156
1.05
105
1.02
90
1.10
198
0.55
70
0.72
32
0.44
61
0.17
18
0.14
58
0.17
13
0.15
30
0.16
11
0.17
23
IIG-Stereotwo views0.97
246
0.34
162
0.80
97
0.90
344
0.33
110
0.61
87
0.26
10
1.27
121
1.08
137
1.69
319
1.37
217
1.44
270
0.74
134
6.94
375
0.53
117
0.21
120
0.14
58
0.23
146
0.18
84
0.20
86
0.15
3
TANstereotwo views0.45
11
0.23
6
0.50
13
0.43
5
0.21
2
0.65
109
0.26
10
0.83
10
0.88
65
0.95
83
0.99
82
0.51
32
0.45
28
0.56
6
0.36
16
0.19
65
0.24
261
0.16
8
0.13
11
0.17
20
0.27
193
XX-TBDtwo views0.47
22
0.71
327
0.39
1
0.81
315
0.25
8
0.57
69
0.26
10
0.73
3
1.30
235
0.78
52
1.01
88
0.45
14
0.33
10
0.49
3
0.39
31
0.20
99
0.15
112
0.15
3
0.11
6
0.17
20
0.15
3
PMTNettwo views0.47
22
0.22
3
0.43
5
0.39
2
0.24
6
0.71
136
0.26
10
0.78
5
1.03
123
0.65
38
0.69
27
0.55
38
0.48
43
0.90
68
0.36
16
0.99
375
0.13
17
0.15
3
0.10
1
0.15
4
0.15
3
MIF-Stereo (partial)two views0.48
24
0.28
43
0.83
115
0.51
57
0.53
242
0.39
8
0.27
14
1.03
43
0.64
19
0.47
11
0.71
32
0.51
32
0.51
55
1.13
110
0.47
84
0.20
99
0.16
139
0.23
146
0.20
128
0.24
187
0.20
70
RAFT-Testtwo views0.58
70
0.27
35
0.81
98
0.50
46
0.33
110
0.95
219
0.27
14
1.40
138
0.89
66
1.00
90
1.12
129
1.39
263
0.48
43
0.74
34
0.41
49
0.17
18
0.14
58
0.17
13
0.14
22
0.16
11
0.18
32
CFNet-RSSMtwo views0.57
59
0.25
16
0.76
79
0.49
34
0.28
40
0.59
79
0.27
14
1.89
245
1.17
180
1.09
112
0.95
69
1.06
183
0.53
61
0.74
34
0.41
49
0.17
18
0.13
17
0.17
13
0.15
30
0.16
11
0.16
13
MSKI-zero shottwo views0.56
47
0.30
79
0.61
28
0.55
110
0.28
40
0.68
123
0.28
17
1.25
116
0.68
23
0.92
77
1.33
204
0.81
97
0.33
10
1.94
227
0.36
16
0.18
40
0.13
17
0.17
13
0.13
11
0.16
11
0.19
51
MIM_Stereotwo views0.60
87
0.26
19
1.02
182
0.49
34
0.32
97
0.52
47
0.28
17
1.41
142
0.82
53
1.02
97
1.16
150
0.93
144
0.53
61
1.48
159
0.63
158
0.17
18
0.17
161
0.20
70
0.19
102
0.17
20
0.18
32
Patchmatch Stereo++two views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.63
97
0.28
17
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.40
141
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
iRAFTtwo views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.63
97
0.28
17
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.40
141
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
HUI-Stereotwo views0.54
35
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.29
21
1.14
78
0.74
36
1.13
126
0.96
71
0.82
103
0.60
99
0.83
53
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
CREStereotwo views0.40
3
0.24
9
0.40
2
0.37
1
0.22
4
0.52
47
0.29
21
0.81
6
1.15
171
0.59
31
0.72
33
0.51
32
0.42
19
0.57
8
0.37
25
0.19
65
0.13
17
0.15
3
0.10
1
0.14
1
0.15
3
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
GLC_STEREOtwo views0.41
4
0.27
35
0.43
5
0.55
110
0.24
6
0.47
18
0.30
23
0.81
6
0.64
19
0.53
28
0.74
35
0.50
31
0.31
6
0.65
25
0.45
72
0.18
40
0.20
208
0.23
146
0.19
102
0.21
121
0.21
87
PFNet+two views0.62
92
0.31
104
0.99
174
0.57
140
0.31
77
0.57
69
0.30
23
0.99
35
1.25
211
1.33
228
1.10
119
0.79
89
0.57
77
1.35
133
0.53
117
0.26
224
0.17
161
0.28
245
0.26
244
0.21
121
0.27
193
StereoIMtwo views0.38
1
0.27
35
0.72
57
0.45
8
0.35
137
0.30
3
0.31
25
0.81
6
0.54
3
0.38
2
0.38
1
0.58
43
0.49
53
0.53
4
0.39
31
0.20
99
0.16
139
0.19
47
0.15
30
0.19
59
0.15
3
4D-IteraStereotwo views0.50
29
0.26
19
0.84
124
0.51
57
0.49
221
0.64
105
0.31
25
0.91
19
1.02
120
1.05
105
0.72
33
0.76
82
0.32
9
0.69
29
0.40
44
0.18
40
0.11
2
0.23
146
0.20
128
0.19
59
0.16
13
iRaft-Stereo_20wtwo views0.71
144
0.33
135
1.25
243
0.50
46
0.36
139
0.82
174
0.31
25
3.16
379
0.89
66
1.24
185
1.14
144
0.79
89
0.65
116
1.15
112
0.43
57
0.18
40
0.13
17
0.18
33
0.17
70
0.20
86
0.23
122
RALAANettwo views0.62
92
0.37
204
0.97
170
0.66
230
0.50
225
0.67
120
0.31
25
1.27
121
1.09
144
1.11
115
1.17
152
0.88
126
0.46
35
1.27
126
0.45
72
0.20
99
0.15
112
0.21
93
0.18
84
0.27
208
0.19
51
MIF-Stereotwo views0.38
1
0.24
9
0.67
47
0.49
34
0.36
139
0.40
9
0.32
29
0.55
1
0.55
4
0.55
30
0.55
17
0.36
2
0.31
6
0.59
11
0.52
108
0.21
120
0.15
112
0.17
13
0.15
30
0.19
59
0.17
23
MC-Stereotwo views0.46
19
0.24
9
0.58
18
0.63
200
0.30
63
0.38
7
0.32
29
0.98
30
0.74
36
0.66
39
0.85
54
0.56
40
0.60
99
1.07
97
0.32
2
0.17
18
0.12
5
0.17
13
0.15
30
0.16
11
0.16
13
DeepStereo_RVCtwo views0.57
59
0.31
104
0.78
88
0.53
89
0.30
63
0.57
69
0.32
29
1.11
70
0.80
52
1.17
147
0.94
68
0.83
111
0.93
211
1.01
84
0.61
153
0.23
169
0.14
58
0.21
93
0.19
102
0.24
187
0.26
177
RAFT-RH_RVCtwo views1.04
261
0.26
19
0.76
79
0.53
89
0.29
51
0.80
166
0.32
29
0.85
14
1.12
156
2.04
348
4.63
386
1.03
178
0.57
77
5.93
354
0.52
108
0.20
99
0.13
17
0.26
224
0.20
128
0.16
11
0.19
51
IGEV_Zeroshot_testtwo views0.59
81
0.33
135
1.11
203
0.63
200
0.37
144
0.41
12
0.33
33
1.80
221
0.79
48
1.04
103
1.10
119
1.06
183
0.43
22
0.87
61
0.48
88
0.18
40
0.13
17
0.19
47
0.18
84
0.20
86
0.23
122
Selective-IGEVtwo views0.42
8
0.26
19
0.56
16
0.48
29
0.27
19
0.45
16
0.33
33
1.56
167
0.61
15
0.36
1
0.47
4
0.52
35
0.30
4
1.08
99
0.33
3
0.15
4
0.13
17
0.17
13
0.13
11
0.16
11
0.15
3
IPLGtwo views0.72
149
0.29
61
1.12
206
0.53
89
0.44
197
0.79
165
0.33
33
1.35
131
1.10
147
1.32
223
1.11
126
0.52
35
0.54
68
3.13
297
0.71
181
0.17
18
0.14
58
0.20
70
0.17
70
0.18
34
0.21
87
NRIStereotwo views0.62
92
0.31
104
0.78
88
0.56
122
0.28
40
0.63
97
0.33
33
1.16
92
0.92
76
1.15
141
0.87
57
0.90
134
0.58
92
2.24
259
0.56
134
0.22
149
0.14
58
0.21
93
0.19
102
0.22
140
0.18
32
CroCo-Stereocopylefttwo views0.42
8
0.33
135
0.83
115
0.59
162
0.28
40
0.26
1
0.33
33
1.22
109
0.85
61
0.43
4
0.49
7
0.65
59
0.46
35
0.40
1
0.36
16
0.19
65
0.15
112
0.16
8
0.14
22
0.20
86
0.17
23
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
iRaftStereo_RVCtwo views0.49
25
0.28
43
0.72
57
0.53
89
0.29
51
0.52
47
0.33
33
1.14
78
0.84
58
0.85
67
0.99
82
0.55
38
0.36
12
0.83
53
0.40
44
0.18
40
0.13
17
0.22
120
0.20
128
0.20
86
0.18
32
DIP-Stereotwo views0.64
104
0.32
118
0.91
150
0.49
34
0.36
139
0.91
201
0.33
33
2.51
355
0.77
41
1.25
188
1.00
86
0.68
65
0.51
55
0.92
70
0.65
165
0.19
65
0.15
112
0.21
93
0.17
70
0.19
59
0.22
108
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
MyStereo8two views0.70
138
0.32
118
1.24
241
0.63
200
0.53
242
0.90
199
0.34
40
1.60
179
1.35
251
1.20
169
1.31
195
0.89
132
0.64
112
0.77
40
1.02
247
0.18
40
0.15
112
0.20
70
0.18
84
0.22
140
0.30
229
CEStwo views0.51
31
0.21
2
0.40
2
0.42
4
1.40
378
0.53
51
0.34
40
1.04
45
0.68
23
0.45
9
0.67
23
0.35
1
0.28
2
0.58
10
0.35
6
0.16
7
0.13
17
0.15
3
0.10
1
0.19
59
1.69
386
Selective-RAFTtwo views0.55
36
0.29
61
0.85
130
0.58
150
0.28
40
0.91
201
0.34
40
1.00
36
0.96
96
0.59
31
0.64
20
0.80
91
0.76
140
1.34
132
0.51
102
0.21
120
0.15
112
0.17
13
0.15
30
0.19
59
0.19
51
IPLGRtwo views0.62
92
0.28
43
1.32
253
0.50
46
0.29
51
0.65
109
0.34
40
1.47
152
1.19
185
1.21
175
1.07
108
0.70
72
0.65
116
1.05
91
0.55
127
0.18
40
0.15
112
0.20
70
0.17
70
0.21
121
0.20
70
test-3two views0.56
47
0.24
9
0.82
107
0.50
46
0.29
51
0.57
69
0.34
40
1.09
62
1.03
123
1.33
228
0.69
27
0.87
120
0.45
28
1.68
191
0.39
31
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.16
13
test_1two views0.56
47
0.24
9
0.82
107
0.50
46
0.29
51
0.57
69
0.34
40
1.09
62
1.03
123
1.28
208
0.69
27
0.87
120
0.45
28
1.67
189
0.39
31
0.17
18
0.12
5
0.20
70
0.17
70
0.17
20
0.16
13
s12784htwo views0.55
36
0.22
3
0.49
11
0.43
5
0.19
1
1.00
228
0.34
40
1.40
138
1.30
235
0.84
65
0.93
66
0.63
56
0.52
59
1.48
159
0.47
84
0.15
4
0.12
5
0.17
13
0.11
6
0.19
59
0.13
2
raftrobusttwo views0.55
36
0.27
35
0.63
32
0.68
252
0.69
302
0.50
38
0.34
40
1.08
55
0.97
100
1.32
223
0.88
60
0.62
52
0.80
160
0.82
50
0.44
61
0.20
99
0.16
139
0.16
8
0.14
22
0.15
4
0.18
32
RAFT-Stereo + iAFFtwo views0.56
47
0.28
43
0.81
98
0.45
8
0.25
8
0.40
9
0.34
40
1.12
72
1.13
161
1.35
239
1.58
276
0.80
91
0.67
122
0.71
30
0.43
57
0.14
1
0.11
2
0.18
33
0.17
70
0.18
34
0.16
13
CASnettwo views0.42
8
0.26
19
0.52
15
0.52
69
0.21
2
0.49
28
0.35
49
0.85
14
0.85
61
0.84
65
0.69
27
0.48
24
0.31
6
0.57
8
0.34
4
0.19
65
0.12
5
0.27
233
0.22
186
0.23
158
0.15
3
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
CroCo-Stereo Lap2two views0.46
19
0.37
204
0.87
137
0.62
190
0.79
328
0.28
2
0.35
49
0.81
6
0.73
29
0.39
3
0.54
15
0.71
78
0.54
68
0.60
13
0.48
88
0.18
40
0.18
184
0.19
47
0.16
54
0.21
121
0.21
87
raft_robusttwo views0.71
144
0.32
118
0.75
77
0.54
100
0.28
40
0.54
60
0.35
49
1.54
163
1.24
205
1.18
158
1.07
108
0.73
79
0.53
61
3.65
310
0.40
44
0.19
65
0.16
139
0.20
70
0.22
186
0.21
121
0.19
51
OMP-Stereotwo views0.95
241
0.35
184
0.79
92
0.92
346
0.32
97
0.49
28
0.35
49
1.22
109
1.11
151
1.58
304
1.12
129
1.44
270
0.69
128
6.92
374
0.51
102
0.20
99
0.15
112
0.24
167
0.19
102
0.21
121
0.16
13
RAFT-IKPtwo views0.57
59
0.33
135
0.82
107
0.52
69
0.27
19
0.57
69
0.35
49
1.14
78
0.73
29
1.13
126
0.96
71
0.83
111
0.61
109
1.26
124
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
HCRNettwo views0.72
149
0.40
230
0.86
135
0.61
182
0.57
261
0.75
146
0.35
49
1.39
137
1.21
195
1.11
115
0.99
82
1.01
173
0.76
140
2.18
255
0.73
182
0.28
252
0.19
198
0.28
245
0.23
213
0.25
196
0.26
177
DCANet-4two views0.59
81
0.28
43
1.65
287
0.44
7
0.25
8
0.48
23
0.36
55
1.15
89
1.36
258
1.13
126
1.03
97
0.56
40
0.74
134
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
ffftwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
ADStereo(finetuned)two views0.62
92
0.26
19
1.59
284
0.45
8
0.25
8
0.49
28
0.36
55
1.18
95
1.35
251
1.16
145
1.04
101
0.60
48
1.18
287
0.85
59
0.57
137
0.17
18
0.14
58
0.17
13
0.13
11
0.19
59
0.24
141
DCANettwo views0.58
70
0.26
19
1.15
212
0.45
8
0.25
8
0.49
28
0.36
55
1.18
95
1.35
251
1.15
141
1.04
101
0.60
48
0.91
202
0.84
56
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.19
59
0.25
160
csctwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
cscssctwo views0.58
70
0.26
19
1.15
212
0.46
14
0.25
8
0.48
23
0.36
55
1.20
103
1.28
225
1.13
126
1.03
97
0.59
45
1.04
255
0.77
40
0.58
142
0.17
18
0.14
58
0.17
13
0.13
11
0.15
4
0.24
141
GMStereo_Zeroshotpermissivetwo views0.70
138
0.64
310
1.11
203
0.65
217
0.38
154
0.84
187
0.37
61
1.09
62
1.16
176
1.14
139
1.07
108
1.26
236
0.55
70
1.23
122
0.65
165
0.34
290
0.17
161
0.31
266
0.18
84
0.57
340
0.23
122
test crocotwo views0.49
25
0.29
61
1.23
238
0.51
57
0.40
170
0.35
5
0.37
61
1.04
45
0.62
16
0.44
5
0.76
36
0.42
4
0.41
16
1.17
117
0.46
76
0.23
169
0.15
112
0.24
167
0.19
102
0.25
196
0.18
32
LL-Strereo2two views0.56
47
0.36
188
0.77
82
0.56
122
0.40
170
0.68
123
0.37
61
1.21
107
0.83
56
0.96
84
0.79
43
0.91
137
0.41
16
1.08
99
0.48
88
0.18
40
0.17
161
0.29
253
0.25
233
0.22
140
0.19
51
Sa-1000two views0.76
163
0.30
79
0.92
152
0.62
190
0.31
77
0.78
161
0.37
61
2.00
268
1.38
265
1.30
215
2.04
335
0.86
119
0.74
134
1.87
217
0.40
44
0.19
65
0.14
58
0.25
203
0.24
225
0.21
121
0.19
51
ASMatchtwo views0.89
220
0.29
61
0.72
57
0.56
122
0.36
139
0.47
18
0.37
61
1.16
92
0.95
92
1.11
115
3.26
371
0.95
152
0.96
220
4.88
333
0.53
117
0.20
99
0.16
139
0.22
120
0.19
102
0.20
86
0.30
229
cross-rafttwo views0.56
47
0.26
19
0.65
42
0.55
110
0.31
77
0.66
115
0.37
61
1.68
190
0.82
53
1.06
109
1.07
108
1.25
230
0.45
28
0.74
34
0.39
31
0.15
4
0.13
17
0.19
47
0.16
54
0.19
59
0.17
23
AFF-stereotwo views0.60
87
0.28
43
0.72
57
0.48
29
0.29
51
0.34
4
0.37
61
1.22
109
1.20
189
1.21
175
1.59
280
1.10
198
0.70
130
1.01
84
0.44
61
0.14
1
0.12
5
0.19
47
0.20
128
0.18
34
0.15
3
rrrtwo views0.57
59
0.33
135
2.43
332
0.46
14
0.34
122
0.50
38
0.38
68
0.84
13
0.55
4
0.48
13
0.48
5
0.48
24
0.45
28
2.28
263
0.44
61
0.19
65
0.14
58
0.19
47
0.15
30
0.17
20
0.18
32
AEACVtwo views0.41
4
0.25
16
0.60
24
0.55
110
0.52
237
0.43
13
0.38
68
0.98
30
0.63
17
0.44
5
0.56
18
0.46
15
0.59
95
0.56
6
0.31
1
0.17
18
0.13
17
0.18
33
0.16
54
0.17
20
0.17
23
SAtwo views0.69
136
0.31
104
0.97
170
0.64
211
0.30
63
0.56
67
0.38
68
1.84
230
1.35
251
0.99
86
1.37
217
0.69
69
0.94
213
1.88
223
0.43
57
0.20
99
0.16
139
0.25
203
0.23
213
0.22
140
0.19
51
UDGNettwo views0.75
158
1.23
370
0.99
174
0.82
319
0.42
187
0.76
151
0.38
68
0.98
30
1.37
263
0.83
62
0.88
60
0.70
72
0.60
99
1.25
123
0.57
137
0.57
358
0.19
198
1.03
379
0.26
244
0.79
365
0.35
267
TRStereotwo views0.67
118
0.71
327
1.06
191
0.77
307
0.68
299
0.53
51
0.38
68
2.52
356
0.96
96
0.81
59
0.84
52
0.87
120
0.39
15
1.16
114
0.46
76
0.24
187
0.17
161
0.23
146
0.24
225
0.18
34
0.20
70
iGMRVCtwo views0.58
70
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.38
68
1.14
78
0.73
29
1.13
126
0.97
78
0.82
103
0.59
95
1.54
168
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
test-1two views0.56
47
0.28
43
1.13
207
0.58
150
0.34
122
0.60
83
0.38
68
1.56
167
0.98
103
0.80
55
1.02
90
0.83
111
0.52
59
0.64
24
0.46
76
0.17
18
0.16
139
0.20
70
0.17
70
0.20
86
0.26
177
test_xeample3two views0.57
59
0.33
135
3.11
349
0.46
14
0.34
122
0.55
64
0.38
68
0.86
17
0.49
2
0.54
29
0.46
3
0.44
7
0.44
26
1.49
165
0.45
72
0.18
40
0.14
58
0.19
47
0.15
30
0.17
20
0.18
32
iResNet_ROBtwo views0.82
193
0.36
188
1.13
207
0.60
169
0.37
144
0.91
201
0.38
68
2.41
338
1.61
324
1.35
239
1.35
212
1.25
230
0.97
227
1.75
200
0.88
214
0.21
120
0.14
58
0.17
13
0.12
9
0.19
59
0.30
229
test_4two views0.55
36
0.23
6
0.67
47
0.56
122
0.32
97
0.71
136
0.39
77
0.83
10
0.72
28
0.93
80
1.87
321
0.70
72
0.41
16
1.21
121
0.39
31
0.16
7
0.13
17
0.21
93
0.23
213
0.20
86
0.18
32
MLCVtwo views0.77
168
0.39
225
1.31
251
0.55
110
0.25
8
0.91
201
0.39
77
1.48
154
1.28
225
1.49
287
1.54
263
1.02
175
0.68
125
2.12
251
0.93
228
0.19
65
0.13
17
0.19
47
0.14
22
0.19
59
0.22
108
LoStwo views0.41
4
0.23
6
0.46
8
0.39
2
0.23
5
0.48
23
0.40
79
1.12
72
0.94
88
0.50
19
0.66
21
0.49
28
0.42
19
0.63
23
0.39
31
0.19
65
0.14
58
0.16
8
0.11
6
0.14
1
0.15
3
MIPNettwo views0.60
87
0.31
104
1.07
195
0.51
57
0.34
122
0.68
123
0.40
79
1.67
189
1.14
167
1.11
115
0.93
66
0.60
48
0.78
149
0.77
40
0.58
142
0.18
40
0.14
58
0.19
47
0.16
54
0.18
34
0.21
87
test_3two views0.57
59
0.24
9
0.87
137
0.55
110
0.30
63
0.60
83
0.40
79
1.07
50
1.08
137
1.20
169
0.68
24
0.92
142
0.43
22
1.68
191
0.40
44
0.16
7
0.13
17
0.22
120
0.19
102
0.21
121
0.17
23
PSM-softLosstwo views0.80
183
0.33
135
0.89
142
0.63
200
0.32
97
0.55
64
0.40
79
1.26
117
0.78
42
1.25
188
1.07
108
0.83
111
0.51
55
5.33
340
0.61
153
0.25
207
0.15
112
0.25
203
0.22
186
0.20
86
0.26
177
KMStereotwo views0.80
183
0.33
135
0.89
142
0.63
200
0.32
97
0.55
64
0.40
79
1.26
117
0.78
42
1.25
188
1.07
108
0.83
111
0.51
55
5.33
340
0.61
153
0.25
207
0.15
112
0.25
203
0.22
186
0.20
86
0.26
177
rafts_anoytwo views0.55
36
0.32
118
0.66
44
0.72
279
0.61
278
0.53
51
0.40
79
1.24
114
1.06
133
0.85
67
0.83
51
0.67
63
0.53
61
0.77
40
0.55
127
0.20
99
0.15
112
0.25
203
0.26
244
0.22
140
0.21
87
sCroCo_RVCtwo views0.51
31
0.43
245
1.15
212
0.66
230
0.60
273
0.52
47
0.40
79
0.93
20
0.64
19
0.45
9
0.76
36
0.49
28
0.49
53
0.65
25
0.49
97
0.27
241
0.28
291
0.23
146
0.22
186
0.29
233
0.28
204
FENettwo views0.62
92
0.30
79
0.68
49
0.57
140
0.33
110
0.82
174
0.40
79
1.41
142
1.12
156
1.03
101
0.87
57
0.98
160
0.84
170
1.00
82
0.70
178
0.23
169
0.16
139
0.23
146
0.20
128
0.22
140
0.24
141
11t1two views0.57
59
0.30
79
0.84
124
0.54
100
0.30
63
0.83
180
0.41
87
1.34
130
0.79
48
0.88
73
0.82
50
0.70
72
0.70
130
0.96
78
0.67
170
0.21
120
0.21
221
0.20
70
0.16
54
0.21
121
0.26
177
StereoVisiontwo views0.67
118
0.37
204
1.02
182
0.60
169
0.41
180
0.50
38
0.41
87
1.32
129
0.96
96
0.73
47
2.48
359
0.82
103
0.57
77
1.06
95
0.50
100
0.26
224
0.28
291
0.29
253
0.28
267
0.37
276
0.22
108
PSM-adaLosstwo views0.56
47
0.33
135
0.81
98
0.52
69
0.27
19
0.63
97
0.41
87
1.14
78
0.73
29
1.13
126
0.96
71
0.82
103
0.60
99
1.09
103
0.52
108
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
RAFT-345two views0.86
213
0.26
19
0.73
67
0.53
89
0.28
40
0.53
51
0.41
87
0.85
14
1.31
242
1.33
228
2.32
350
0.85
118
0.53
61
5.69
348
0.48
88
0.19
65
0.14
58
0.22
120
0.17
70
0.17
20
0.17
23
ff7two views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
IGEVStereo-DCAtwo views0.49
25
0.33
135
0.64
37
0.46
14
0.34
122
0.50
38
0.42
91
0.93
20
0.59
7
0.48
13
0.48
5
0.48
24
0.45
28
2.28
263
0.44
61
0.19
65
0.14
58
0.19
47
0.15
30
0.17
20
0.21
87
fffftwo views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
11ttwo views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
PCWNet_CMDtwo views0.68
127
0.34
162
0.93
153
0.51
57
0.38
154
0.80
166
0.42
91
1.51
155
1.34
248
1.17
147
1.31
195
1.23
225
0.65
116
0.94
71
0.62
156
0.21
120
0.17
161
0.27
233
0.19
102
0.43
300
0.28
204
anonymousdsptwo views0.45
11
0.30
79
0.60
24
0.48
29
0.34
122
0.49
28
0.42
91
0.97
26
0.60
12
0.51
26
0.53
9
0.46
15
0.47
41
1.36
134
0.35
6
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
ccc-4two views0.45
11
0.30
79
0.64
37
0.47
24
0.33
110
0.49
28
0.42
91
0.93
20
0.59
7
0.50
19
0.53
9
0.44
7
0.48
43
1.41
143
0.36
16
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
BUStwo views0.78
170
0.34
162
0.77
82
0.55
110
0.45
200
2.30
359
0.42
91
2.65
363
1.04
129
1.25
188
1.12
129
1.02
175
0.70
130
0.94
71
0.75
187
0.25
207
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
NINENettwo views0.81
191
0.40
230
0.89
142
0.65
217
0.53
242
2.30
359
0.42
91
2.12
290
1.13
161
1.20
169
1.27
184
1.02
175
0.70
130
1.26
124
0.75
187
0.29
264
0.24
261
0.31
266
0.21
164
0.27
208
0.26
177
IGEV-Stereopermissivetwo views0.45
11
0.30
79
0.60
24
0.48
29
0.34
122
0.49
28
0.42
91
0.98
30
0.60
12
0.51
26
0.53
9
0.46
15
0.47
41
1.36
134
0.35
6
0.18
40
0.13
17
0.21
93
0.15
30
0.18
34
0.21
87
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
ROB_FTStereo_v2two views0.57
59
0.33
135
0.81
98
0.52
69
0.27
19
0.62
89
0.42
91
1.14
78
0.73
29
1.13
126
0.97
78
0.82
103
0.60
99
1.15
112
0.53
117
0.23
169
0.14
58
0.24
167
0.20
128
0.27
208
0.20
70
Pruner-Stereotwo views0.64
104
0.31
104
0.79
92
0.66
230
0.31
77
0.61
87
0.42
91
1.22
109
1.09
144
1.53
293
1.09
117
0.94
149
0.55
70
1.37
137
0.56
134
0.25
207
0.14
58
0.24
167
0.21
164
0.21
121
0.25
160
CFNet_pseudotwo views0.68
127
0.34
162
0.93
153
0.50
46
0.39
161
0.72
139
0.42
91
1.44
145
1.25
211
1.17
147
1.35
212
1.22
221
0.66
120
1.04
88
0.64
161
0.21
120
0.17
161
0.33
286
0.19
102
0.39
286
0.28
204
111two views0.66
110
0.27
35
1.15
212
0.46
14
0.25
8
0.72
139
0.42
91
1.57
170
1.44
290
0.83
62
1.39
223
1.10
198
0.80
160
0.97
79
0.65
165
0.20
99
0.14
58
0.18
33
0.15
30
0.18
34
0.28
204
MSMDNettwo views0.68
127
0.34
162
0.93
153
0.52
69
0.38
154
0.80
166
0.42
91
1.52
157
1.35
251
1.17
147
1.31
195
1.23
225
0.65
116
0.94
71
0.62
156
0.21
120
0.17
161
0.26
224
0.19
102
0.41
294
0.28
204
ccs_robtwo views0.68
127
0.34
162
0.93
153
0.50
46
0.39
161
0.72
139
0.42
91
1.43
144
1.25
211
1.17
147
1.34
207
1.22
221
0.66
120
1.04
88
0.64
161
0.21
120
0.17
161
0.35
300
0.20
128
0.40
290
0.29
216
SMFormertwo views0.79
178
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.99
240
0.24
187
0.22
231
0.22
120
0.21
164
0.23
158
0.27
193
ttatwo views0.79
178
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.99
240
0.24
187
0.22
231
0.22
120
0.21
164
0.19
59
0.22
108
qqq1two views0.76
163
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.48
88
0.24
187
0.22
231
0.18
33
0.15
30
0.19
59
0.22
108
fff1two views0.76
163
0.32
118
0.95
162
0.49
34
0.27
19
0.83
180
0.43
107
2.16
301
1.45
295
1.27
203
1.50
253
0.98
160
0.96
220
1.87
217
0.48
88
0.24
187
0.22
231
0.18
33
0.15
30
0.19
59
0.22
108
LoS_RVCtwo views0.45
11
0.29
61
0.48
10
0.49
34
0.83
337
0.51
43
0.43
107
0.65
2
0.44
1
0.47
11
0.78
41
0.44
7
0.60
99
0.59
11
0.37
25
0.14
1
0.12
5
0.14
1
0.10
1
0.14
1
1.08
375
CASStwo views0.67
118
0.36
188
0.84
124
0.57
140
0.28
40
0.82
174
0.43
107
1.62
184
0.92
76
1.39
252
1.28
189
0.87
120
0.84
170
0.88
63
0.59
148
0.36
305
0.19
198
0.26
224
0.22
186
0.29
233
0.43
299
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
TestStereo1two views0.66
110
0.29
61
0.95
162
0.82
319
0.32
97
0.47
18
0.43
107
1.52
157
1.22
201
0.99
86
1.32
200
0.65
59
0.76
140
1.78
204
0.44
61
0.20
99
0.16
139
0.22
120
0.19
102
0.21
121
0.20
70
SA-5Ktwo views0.66
110
0.29
61
0.95
162
0.82
319
0.32
97
0.47
18
0.43
107
1.52
157
1.22
201
0.99
86
1.32
200
0.65
59
0.76
140
1.78
204
0.44
61
0.20
99
0.16
139
0.22
120
0.19
102
0.21
121
0.20
70
GMOStereotwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
271
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
error versiontwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
271
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
test-vtwo views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
271
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
NF-Stereotwo views0.82
193
0.33
135
0.83
115
0.65
217
0.31
77
0.63
97
0.43
107
1.35
131
0.93
83
1.30
215
1.02
90
0.81
97
0.57
77
5.37
344
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.30
229
RAFT_R40two views0.84
206
0.30
79
0.83
115
0.63
200
0.31
77
0.66
115
0.43
107
1.15
89
0.99
110
1.47
280
1.10
119
1.00
169
0.84
170
5.44
345
0.53
117
0.23
169
0.13
17
0.23
146
0.20
128
0.23
158
0.19
51
test-2two views0.55
36
0.28
43
0.72
57
0.52
69
0.30
63
0.53
51
0.43
107
1.02
37
0.98
103
1.44
271
1.14
144
0.88
126
0.57
77
0.62
18
0.39
31
0.16
7
0.14
58
0.24
167
0.22
186
0.20
86
0.18
32
222two views1.67
334
0.31
104
0.93
153
0.59
162
0.31
77
1.05
236
0.43
107
2.39
335
1.47
301
1.37
245
1.55
266
0.94
149
0.94
213
1.98
233
17.76
412
0.24
187
0.22
231
0.21
93
0.20
128
0.22
140
0.26
177
xxxxtwo views1.61
330
0.32
118
0.98
172
0.58
150
0.31
77
1.15
254
0.43
107
2.43
341
1.41
279
1.17
147
1.40
228
1.21
217
0.86
182
1.94
227
16.68
411
0.24
187
0.24
261
0.21
93
0.20
128
0.23
158
0.27
193
GMStereopermissivetwo views0.58
70
0.50
270
1.09
198
0.52
69
0.32
97
0.80
166
0.43
107
1.02
37
1.41
279
0.89
74
0.77
39
0.52
35
0.46
35
0.89
65
0.56
134
0.25
207
0.16
139
0.20
70
0.22
186
0.31
248
0.27
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
riskmintwo views0.62
92
0.29
61
0.73
67
0.50
46
0.34
122
0.86
191
0.44
124
1.74
208
1.07
134
0.76
51
0.76
36
1.19
214
1.01
242
0.84
56
0.60
150
0.20
99
0.16
139
0.24
167
0.16
54
0.24
187
0.29
216
RCA-Stereotwo views0.52
33
0.26
19
0.66
44
0.49
34
0.33
110
0.54
60
0.44
124
1.20
103
1.41
279
0.69
42
1.06
106
0.63
56
0.79
154
0.62
18
0.35
6
0.17
18
0.12
5
0.17
13
0.14
22
0.16
11
0.16
13
DisPMtwo views0.68
127
0.30
79
0.85
130
0.66
230
0.35
137
0.60
83
0.44
124
1.10
68
1.10
147
1.56
300
1.10
119
0.80
91
0.58
92
2.37
271
0.46
76
0.25
207
0.14
58
0.23
146
0.21
164
0.20
86
0.26
177
RAFT_CTSACEtwo views0.66
110
0.29
61
1.14
210
0.57
140
0.51
234
0.68
123
0.44
124
0.88
18
0.98
103
1.03
101
1.83
314
1.23
225
0.67
122
1.48
159
0.38
28
0.16
7
0.16
139
0.21
93
0.20
128
0.20
86
0.17
23
OCTAStereotwo views0.82
193
0.33
135
0.83
115
0.65
217
0.31
77
0.62
89
0.44
124
1.35
131
0.93
83
1.30
215
1.02
90
0.81
97
0.57
77
5.32
339
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.30
229
RE-Stereotwo views0.82
193
0.33
135
0.84
124
0.65
217
0.31
77
0.63
97
0.44
124
1.35
131
0.93
83
1.30
215
1.02
90
0.80
91
0.57
77
5.34
342
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.31
238
TVStereotwo views0.82
193
0.33
135
0.84
124
0.65
217
0.31
77
0.63
97
0.44
124
1.35
131
0.93
83
1.30
215
1.02
90
0.80
91
0.57
77
5.34
342
0.55
127
0.26
224
0.14
58
0.24
167
0.20
128
0.20
86
0.31
238
TestStereotwo views0.65
108
0.42
241
0.83
115
0.52
69
0.27
19
0.57
69
0.44
124
1.07
50
0.92
76
0.85
67
1.01
88
0.68
65
0.56
75
3.22
301
0.47
84
0.23
169
0.15
112
0.24
167
0.18
84
0.28
223
0.18
32
whm_ethtwo views0.69
136
0.51
274
1.32
253
0.56
122
0.64
285
0.67
120
0.45
132
1.59
177
1.33
246
1.02
97
1.92
327
0.48
24
0.48
43
0.71
30
0.53
117
0.24
187
0.20
208
0.25
203
0.24
225
0.25
196
0.35
267
HHtwo views0.68
127
0.33
135
0.83
115
0.53
89
0.34
122
0.92
208
0.45
132
1.79
217
0.74
36
0.71
43
1.13
139
1.60
296
0.83
168
1.95
230
0.39
31
0.18
40
0.14
58
0.19
47
0.17
70
0.19
59
0.19
51
HanStereotwo views0.68
127
0.33
135
0.83
115
0.53
89
0.34
122
0.92
208
0.45
132
1.79
217
0.74
36
0.71
43
1.13
139
1.60
296
0.83
168
1.95
230
0.39
31
0.18
40
0.14
58
0.19
47
0.17
70
0.19
59
0.19
51
SDNRtwo views1.66
333
0.55
286
2.36
331
0.56
122
0.58
263
3.79
391
0.45
132
1.78
214
1.40
276
1.38
250
2.45
357
1.13
207
0.96
220
11.03
412
1.31
277
0.67
366
0.64
379
0.43
332
0.32
302
0.71
360
0.76
361
dadtwo views0.90
227
0.73
333
1.28
247
0.59
162
0.39
161
0.83
180
0.45
132
1.24
114
1.54
313
1.52
290
1.28
189
1.36
257
0.86
182
2.54
277
0.91
221
0.43
325
0.27
287
0.82
372
0.26
244
0.44
310
0.34
259
DN-CSS_ROBtwo views0.67
118
0.36
188
1.36
258
0.59
162
0.41
180
0.54
60
0.45
132
1.30
127
0.95
92
1.05
105
1.47
243
0.69
69
0.64
112
1.80
211
0.60
150
0.19
65
0.15
112
0.25
203
0.23
213
0.22
140
0.23
122
AE-Stereotwo views0.58
70
0.29
61
0.81
98
0.62
190
0.41
180
0.69
131
0.46
138
2.49
352
1.25
211
0.49
16
0.77
39
0.69
69
0.46
35
0.61
14
0.42
54
0.17
18
0.16
139
0.21
93
0.20
128
0.19
59
0.18
32
CFNet_ucstwo views0.73
152
0.34
162
0.94
159
0.53
89
0.44
197
0.76
151
0.46
138
1.73
207
1.34
248
1.24
185
1.54
263
1.08
196
0.64
112
1.05
91
0.64
161
0.26
224
0.20
208
0.37
312
0.22
186
0.42
298
0.30
229
anonymousdsp2two views0.58
70
0.29
61
0.93
153
0.51
57
0.30
63
0.75
146
0.46
138
1.95
258
0.87
64
0.81
59
0.78
41
0.76
82
0.48
43
1.10
105
0.45
72
0.19
65
0.14
58
0.18
33
0.13
11
0.20
86
0.22
108
xtwo views0.59
81
0.34
162
0.79
92
0.51
57
0.32
97
0.69
131
0.46
138
1.64
185
0.97
100
0.86
71
0.86
55
0.83
111
0.74
134
0.75
38
0.70
178
0.21
120
0.22
231
0.22
120
0.20
128
0.21
121
0.24
141
ddtwo views0.62
92
0.51
274
1.17
226
0.56
122
0.33
110
0.74
144
0.46
138
1.03
43
1.40
276
0.80
55
0.87
57
0.60
48
0.57
77
1.02
86
0.86
210
0.28
252
0.18
184
0.26
224
0.19
102
0.35
267
0.27
193
PSMNet-ADLtwo views0.75
158
0.36
188
0.69
53
0.71
274
0.47
213
1.13
248
0.46
138
1.47
152
1.07
134
0.85
67
1.18
154
1.31
248
0.94
213
1.56
169
1.06
250
0.34
290
0.22
231
0.22
120
0.23
213
0.27
208
0.36
270
AnonymousMtwo views0.63
101
1.14
364
0.43
5
0.46
14
0.32
97
0.43
13
0.46
138
1.27
121
0.78
42
1.00
90
0.66
21
0.68
65
0.45
28
0.61
14
0.46
76
0.21
120
0.16
139
1.84
387
0.98
384
0.15
4
0.15
3
DMCAtwo views0.71
144
0.36
188
1.17
226
0.53
89
0.45
200
0.84
187
0.46
138
1.52
157
1.09
144
1.20
169
1.12
129
1.21
217
0.74
134
0.87
61
1.09
252
0.25
207
0.20
208
0.27
233
0.19
102
0.24
187
0.29
216
FADNet_RVCtwo views0.88
218
0.56
289
2.15
321
0.57
140
0.43
190
1.17
264
0.46
138
1.68
190
1.12
156
0.91
76
1.24
173
0.91
137
0.94
213
2.22
257
1.20
262
0.28
252
0.22
231
0.32
278
0.28
267
0.46
316
0.42
295
anonymousatwo views0.78
170
0.30
79
0.85
130
0.51
57
0.96
355
1.41
295
0.47
147
1.61
181
0.94
88
1.33
228
1.77
305
1.66
304
1.11
271
0.72
32
0.63
158
0.19
65
0.18
184
0.23
146
0.25
233
0.20
86
0.22
108
ACREtwo views0.66
110
0.37
204
1.27
246
0.60
169
0.50
225
0.74
144
0.47
147
1.26
117
1.10
147
1.40
258
1.56
271
0.62
52
0.46
35
0.88
63
0.78
193
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
ACVNettwo views0.66
110
0.33
135
0.74
72
0.55
110
0.37
144
0.80
166
0.47
147
1.46
149
1.11
151
1.01
93
1.31
195
1.07
186
0.91
202
0.82
50
1.09
252
0.22
149
0.19
198
0.21
93
0.18
84
0.23
158
0.19
51
hitnet-ftcopylefttwo views0.84
206
0.38
221
0.75
77
0.59
162
0.44
197
0.99
227
0.47
147
1.61
181
1.38
265
1.21
175
1.22
165
1.82
322
0.99
233
1.87
217
1.09
252
0.33
283
0.29
299
0.34
294
0.27
258
0.36
271
0.33
252
tt1two views0.65
108
0.34
162
0.65
42
0.60
169
0.27
19
1.14
251
0.48
151
1.08
55
2.62
370
0.59
31
0.79
43
0.49
28
0.80
160
1.57
171
0.35
6
0.21
120
0.13
17
0.25
203
0.16
54
0.20
86
0.23
122
EKT-Stereotwo views0.56
47
0.33
135
0.84
124
0.61
182
0.64
285
0.51
43
0.48
151
1.14
78
0.95
92
0.74
48
0.89
62
0.77
86
0.42
19
1.18
118
0.42
54
0.23
169
0.17
161
0.21
93
0.18
84
0.20
86
0.26
177
CIPLGtwo views0.67
118
0.37
204
1.17
226
0.60
169
0.51
234
0.75
146
0.48
151
1.26
117
1.11
151
1.43
268
1.58
276
0.64
58
0.48
43
0.94
71
0.78
193
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
IPLGR_Ctwo views0.67
118
0.38
221
1.20
232
0.60
169
0.50
225
0.75
146
0.48
151
1.28
125
1.13
161
1.42
264
1.57
275
0.62
52
0.48
43
0.85
59
0.80
202
0.24
187
0.15
112
0.19
47
0.16
54
0.19
59
0.29
216
MMNettwo views0.89
220
0.35
184
1.44
264
0.64
211
0.59
269
1.83
336
0.48
151
1.70
202
1.38
265
1.45
277
1.19
157
1.25
230
1.16
277
1.77
202
1.27
275
0.20
99
0.19
198
0.23
146
0.22
186
0.25
196
0.24
141
DMCA-RVCcopylefttwo views0.83
202
0.46
254
2.19
324
0.68
252
0.49
221
0.84
187
0.48
151
1.44
145
1.07
134
1.56
300
1.04
101
1.29
244
0.86
182
1.49
165
0.92
225
0.27
241
0.22
231
0.35
300
0.28
267
0.32
256
0.28
204
HITNettwo views0.71
144
0.42
241
1.07
195
0.52
69
0.25
8
1.05
236
0.48
151
2.12
290
1.08
137
1.21
175
1.23
169
0.91
137
0.84
170
0.90
68
0.91
221
0.17
18
0.12
5
0.21
93
0.17
70
0.29
233
0.18
32
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
CBMV_ROBtwo views0.99
251
0.46
254
0.68
49
0.53
89
0.39
161
1.40
293
0.48
151
2.09
286
1.30
235
1.53
293
2.29
349
1.36
257
1.23
291
2.46
272
1.04
249
0.44
333
0.42
352
0.47
342
0.44
341
0.41
294
0.39
282
AACVNettwo views0.90
227
0.40
230
0.98
172
0.86
332
0.40
170
0.80
166
0.49
159
1.81
224
0.86
63
1.11
115
1.34
207
1.32
252
0.99
233
4.23
319
0.86
210
0.26
224
0.22
231
0.28
245
0.22
186
0.30
243
0.28
204
pcwnet_v2two views0.91
232
0.39
225
2.74
341
0.64
211
0.55
253
0.81
173
0.49
159
2.19
311
1.63
325
1.44
271
1.64
287
1.09
197
0.79
154
1.31
127
0.70
178
0.32
280
0.25
274
0.29
253
0.27
258
0.37
276
0.37
273
UNettwo views0.86
213
0.36
188
1.52
276
0.62
190
0.74
313
1.56
309
0.49
159
1.55
165
1.12
156
1.28
208
1.10
119
1.52
286
1.10
269
1.69
195
1.14
257
0.24
187
0.18
184
0.25
203
0.21
164
0.25
196
0.25
160
CFNettwo views0.99
251
0.40
230
1.23
238
0.65
217
0.43
190
1.03
232
0.49
159
2.01
269
1.35
251
1.02
97
1.39
223
1.10
198
0.86
182
5.47
346
0.89
216
0.24
187
0.18
184
0.28
245
0.27
258
0.27
208
0.22
108
StereoDRNet-Refinedtwo views0.84
206
0.43
245
1.01
180
0.66
230
0.43
190
1.32
279
0.49
159
1.64
185
1.24
205
1.53
293
1.45
239
1.49
280
0.97
227
1.32
130
1.31
277
0.21
120
0.17
161
0.27
233
0.25
233
0.25
196
0.34
259
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
AAGNettwo views1.84
347
0.30
79
0.79
92
0.66
230
0.32
97
0.65
109
0.50
164
1.02
37
1.01
117
1.47
280
1.21
163
0.99
165
1.16
277
2.76
288
22.69
418
0.24
187
0.13
17
0.22
120
0.20
128
0.24
187
0.16
13
ACVNet-DCAtwo views0.59
81
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.58
172
0.91
71
0.60
34
0.80
46
0.47
20
0.87
188
1.48
159
0.35
6
0.21
120
0.13
17
0.25
203
0.15
30
0.23
158
0.25
160
xx1two views0.70
138
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.07
50
3.23
382
0.60
34
0.80
46
0.95
152
0.79
154
1.48
159
0.35
6
0.21
120
0.13
17
0.24
167
0.23
213
0.23
158
0.25
160
1test111two views0.58
70
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.58
172
0.91
71
0.60
34
0.80
46
0.47
20
0.87
188
0.99
80
0.67
170
0.21
120
0.13
17
0.25
203
0.15
30
0.23
158
0.25
160
cc1two views0.68
127
0.34
162
0.63
32
0.60
169
0.27
19
1.16
257
0.51
165
1.07
50
3.23
382
0.60
34
0.80
46
0.47
20
0.87
188
1.48
159
0.35
6
0.21
120
0.13
17
0.25
203
0.15
30
0.19
59
0.23
122
test_5two views0.70
138
0.32
118
0.99
174
0.69
262
0.50
225
0.89
196
0.51
165
1.88
243
1.14
167
0.78
52
1.13
139
1.04
179
0.89
197
1.59
177
0.46
76
0.19
65
0.14
58
0.23
146
0.22
186
0.22
140
0.20
70
GANet-ADLtwo views0.63
101
0.38
221
0.82
107
0.67
243
0.41
180
0.68
123
0.51
165
1.64
185
1.16
176
0.98
85
1.10
119
0.90
134
0.58
92
0.81
48
0.63
158
0.27
241
0.18
184
0.18
33
0.16
54
0.23
158
0.27
193
RALCasStereoNettwo views0.58
70
0.34
162
0.77
82
0.65
217
0.64
285
0.64
105
0.51
165
1.06
49
0.99
110
0.71
43
1.06
106
0.77
86
0.44
26
1.38
138
0.52
108
0.20
99
0.18
184
0.18
33
0.16
54
0.20
86
0.22
108
cf-rtwo views0.79
178
0.32
118
1.06
191
0.57
140
0.64
285
0.78
161
0.51
165
2.04
276
1.22
201
1.20
169
1.27
184
1.53
287
0.91
202
1.47
157
0.94
233
0.25
207
0.19
198
0.22
120
0.23
213
0.19
59
0.21
87
ProNettwo views0.46
19
0.30
79
0.69
53
0.46
14
0.32
97
0.57
69
0.52
173
1.15
89
0.67
22
0.44
5
0.50
8
0.44
7
0.43
22
1.31
127
0.38
28
0.16
7
0.15
112
0.19
47
0.16
54
0.18
34
0.18
32
DRafttwo views0.81
191
0.26
19
0.77
82
0.47
24
0.31
77
0.95
219
0.52
173
1.13
76
0.99
110
1.78
328
2.01
333
0.80
91
1.71
342
2.64
281
0.74
184
0.19
65
0.14
58
0.20
70
0.20
128
0.18
34
0.24
141
R-Stereo Traintwo views0.60
87
0.30
79
0.72
57
0.57
140
0.37
144
0.68
123
0.52
173
1.45
147
0.78
42
1.61
309
1.50
253
0.76
82
0.53
61
0.67
27
0.51
102
0.19
65
0.16
139
0.18
33
0.15
30
0.18
34
0.19
51
RAFT-Stereopermissivetwo views0.60
87
0.30
79
0.72
57
0.57
140
0.37
144
0.68
123
0.52
173
1.45
147
0.78
42
1.61
309
1.50
253
0.76
82
0.53
61
0.67
27
0.51
102
0.19
65
0.16
139
0.18
33
0.15
30
0.18
34
0.19
51
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
DANettwo views1.16
281
0.64
310
1.52
276
0.88
335
0.74
313
1.52
304
0.52
173
1.68
190
1.21
195
1.81
329
1.55
266
2.02
340
1.11
271
3.30
305
2.28
342
0.34
290
0.31
308
0.40
326
0.30
293
0.46
316
0.54
324
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
NLCA_NET_v2_RVCtwo views0.84
206
0.46
254
1.40
263
0.69
262
0.61
278
0.95
219
0.52
173
1.68
190
1.21
195
1.39
252
1.15
149
1.42
266
0.88
195
1.78
204
0.93
228
0.26
224
0.23
253
0.27
233
0.27
258
0.30
243
0.39
282
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CAStwo views0.66
110
0.19
1
0.41
4
2.31
389
0.86
342
0.56
67
0.53
179
0.83
10
0.63
17
0.49
16
0.70
31
0.36
2
0.26
1
0.47
2
0.37
25
2.33
390
0.10
1
0.14
1
0.10
1
0.17
20
1.31
381
gwcnet-sptwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
245
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
scenettwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
245
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
DCREtwo views0.85
211
0.28
43
0.76
79
0.60
169
0.49
221
0.59
79
0.53
179
1.04
45
0.92
76
0.80
55
7.34
399
0.87
120
0.57
77
0.78
47
0.43
57
0.16
7
0.17
161
0.19
47
0.17
70
0.18
34
0.22
108
ssnettwo views0.80
183
0.37
204
1.94
304
0.62
190
0.45
200
1.38
288
0.53
179
1.68
190
1.20
189
1.37
245
1.08
114
0.93
144
0.82
165
1.45
153
0.79
197
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
LCNettwo views0.73
152
0.30
79
0.58
18
0.58
150
0.31
77
0.68
123
0.53
179
1.09
62
0.94
88
1.19
163
1.34
207
0.96
156
1.32
306
2.50
274
0.46
76
0.19
65
0.13
17
0.21
93
0.25
233
0.28
223
0.69
355
raft+_RVCtwo views0.56
47
0.29
61
0.61
28
0.65
217
0.56
257
0.53
51
0.53
179
1.40
138
1.02
120
0.78
52
1.04
101
0.70
72
0.55
70
1.00
82
0.49
97
0.18
40
0.16
139
0.19
47
0.19
102
0.18
34
0.17
23
ac_64two views0.86
213
0.32
118
1.02
182
0.74
292
0.60
273
1.04
233
0.53
179
2.20
314
0.99
110
1.23
181
1.11
126
1.96
334
1.06
261
2.01
238
1.01
245
0.30
269
0.22
231
0.24
167
0.23
213
0.22
140
0.22
108
PWC_ROBbinarytwo views1.39
309
0.93
352
4.07
364
0.77
307
0.83
337
1.16
257
0.53
179
1.87
238
2.01
353
2.36
358
3.06
369
1.65
303
1.60
330
2.65
283
2.29
344
0.34
290
0.23
253
0.36
310
0.25
233
0.39
286
0.49
311
knoymoustwo views0.53
34
0.32
118
0.51
14
0.46
14
0.30
63
0.57
69
0.54
188
1.10
68
0.78
42
0.99
86
0.84
52
0.95
152
0.57
77
0.89
65
0.51
102
0.21
120
0.14
58
0.26
224
0.14
22
0.23
158
0.25
160
TransformOpticalFlowtwo views0.97
246
0.30
79
0.96
169
0.54
100
0.31
77
0.65
109
0.54
188
1.87
238
1.19
185
1.12
123
1.44
236
1.34
255
0.98
230
6.68
371
0.44
61
0.19
65
0.12
5
0.21
93
0.19
102
0.18
34
0.23
122
sAnonymous2two views0.59
81
0.61
301
1.82
296
0.61
182
0.52
237
0.51
43
0.54
188
0.97
26
0.70
26
0.50
19
0.68
24
0.46
15
0.63
110
0.61
14
0.41
49
0.22
149
0.17
161
0.23
146
0.21
164
0.85
366
0.56
332
CroCo_RVCtwo views0.59
81
0.61
301
1.82
296
0.61
182
0.52
237
0.51
43
0.54
188
0.97
26
0.70
26
0.50
19
0.68
24
0.46
15
0.63
110
0.61
14
0.41
49
0.22
149
0.17
161
0.23
146
0.21
164
0.85
366
0.56
332
CFNet-ftpermissivetwo views0.78
170
0.36
188
0.74
72
0.67
243
0.56
257
0.86
191
0.54
188
1.46
149
1.17
180
1.01
93
1.28
189
1.68
308
1.03
249
1.57
171
0.95
235
0.27
241
0.21
221
0.33
286
0.26
244
0.31
248
0.26
177
CFNet_RVCtwo views0.78
170
0.36
188
0.74
72
0.67
243
0.56
257
0.86
191
0.54
188
1.46
149
1.17
180
1.01
93
1.28
189
1.68
308
1.03
249
1.57
171
0.95
235
0.27
241
0.21
221
0.33
286
0.26
244
0.31
248
0.26
177
DeepPruner_ROBtwo views0.79
178
0.55
286
1.14
210
0.61
182
0.46
207
0.78
161
0.54
188
1.83
229
1.00
114
1.42
264
1.27
184
1.23
225
0.77
144
1.56
169
0.89
216
0.35
298
0.28
291
0.27
233
0.26
244
0.32
256
0.34
259
IERtwo views0.74
155
0.33
135
1.25
243
0.50
46
0.53
242
1.32
279
0.55
195
1.31
128
1.08
137
1.30
215
1.34
207
1.11
203
1.10
269
1.05
91
0.81
204
0.20
99
0.17
161
0.21
93
0.21
164
0.20
86
0.21
87
RAFT+CT+SAtwo views0.63
101
0.30
79
0.73
67
0.69
262
0.37
144
0.40
9
0.55
195
1.93
254
1.04
129
0.72
46
1.23
169
0.62
52
0.69
128
1.69
195
0.42
54
0.19
65
0.13
17
0.22
120
0.22
186
0.21
121
0.19
51
DEmStereotwo views0.98
249
0.25
16
0.85
130
0.49
34
0.33
110
1.02
231
0.55
195
0.97
26
0.93
83
1.41
260
2.13
340
1.01
173
2.01
357
5.62
347
0.78
193
0.19
65
0.15
112
0.20
70
0.20
128
0.18
34
0.25
160
PFNettwo views0.92
235
0.28
43
1.20
232
0.68
252
0.32
97
0.62
89
0.55
195
1.27
121
1.01
117
1.47
280
1.09
117
0.97
159
0.68
125
6.58
368
0.59
148
0.21
120
0.13
17
0.24
167
0.19
102
0.20
86
0.20
70
LMCR-Stereopermissivemany views0.87
216
0.50
270
0.99
174
0.80
312
0.43
190
1.32
279
0.55
195
2.79
373
1.03
123
1.55
299
1.49
246
0.74
80
1.01
242
1.76
201
0.99
240
0.30
269
0.17
161
0.22
120
0.18
84
0.31
248
0.22
108
BEATNet_4xtwo views0.82
193
0.54
283
2.02
311
0.56
122
0.28
40
1.04
233
0.55
195
2.14
295
1.13
161
1.24
185
1.26
177
1.00
169
0.94
213
1.13
110
1.23
270
0.21
120
0.14
58
0.24
167
0.20
128
0.37
276
0.23
122
ICVPtwo views0.66
110
0.35
184
0.71
56
0.63
200
0.41
180
0.85
190
0.56
201
1.78
214
0.96
96
0.92
77
1.24
173
0.88
126
0.75
139
0.76
39
0.93
228
0.31
273
0.22
231
0.22
120
0.21
164
0.24
187
0.28
204
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
STTStereotwo views0.82
193
0.53
280
1.53
279
0.68
252
0.56
257
0.88
195
0.56
201
1.57
170
1.14
167
1.39
252
1.10
119
1.26
236
0.84
170
1.49
165
0.90
219
0.29
264
0.28
291
0.33
286
0.40
331
0.33
261
0.37
273
AdaStereotwo views0.74
155
0.48
262
0.86
135
0.75
299
0.38
154
0.94
213
0.56
201
2.05
280
1.24
205
1.15
141
1.22
165
1.07
186
0.67
122
1.05
91
0.73
182
0.33
283
0.16
139
0.32
278
0.22
186
0.29
233
0.23
122
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
ttttwo views1.26
301
0.36
188
0.79
92
0.65
217
0.42
187
0.94
213
0.57
204
2.33
332
1.38
265
1.25
188
1.65
288
0.92
142
0.78
149
2.64
281
8.73
389
0.30
269
0.28
291
0.26
224
0.25
233
0.29
233
0.32
246
HHNettwo views0.64
104
0.28
43
0.69
53
0.45
8
0.46
207
0.50
38
0.57
204
1.13
76
1.03
123
1.26
198
2.21
345
0.70
72
0.59
95
1.10
105
0.51
102
0.21
120
0.13
17
0.23
146
0.19
102
0.20
86
0.31
238
RAFTtwo views0.67
118
0.32
118
0.83
115
0.63
200
0.34
122
0.69
131
0.57
204
1.14
78
0.84
58
1.12
123
1.20
158
1.75
319
0.92
210
1.09
103
0.60
150
0.22
149
0.19
198
0.27
233
0.24
225
0.22
140
0.23
122
GEStwo views0.70
138
0.37
204
1.05
188
0.62
190
0.38
154
0.94
213
0.57
204
2.37
334
0.92
76
1.05
105
1.12
129
0.67
63
0.77
144
1.02
86
0.65
165
0.28
252
0.20
208
0.20
70
0.20
128
0.22
140
0.31
238
acv_fttwo views0.78
170
0.33
135
1.10
201
0.73
286
0.86
342
1.23
272
0.57
204
1.65
188
1.11
151
1.31
221
1.31
195
1.07
186
0.91
202
0.82
50
1.35
284
0.22
149
0.19
198
0.21
93
0.18
84
0.22
140
0.19
51
HGLStereotwo views0.89
220
0.42
241
1.15
212
0.82
319
1.03
359
1.16
257
0.57
204
1.68
190
1.28
225
1.26
198
1.62
282
1.13
207
1.31
304
1.85
213
1.11
256
0.25
207
0.24
261
0.24
167
0.22
186
0.24
187
0.29
216
FADNettwo views0.98
249
0.64
310
2.57
336
0.66
230
0.55
253
0.95
219
0.57
204
1.91
249
1.38
265
0.94
81
1.02
90
1.36
257
1.00
239
2.69
284
0.97
239
0.34
290
0.34
323
0.31
266
0.34
316
0.61
349
0.42
295
mmmtwo views0.68
127
0.37
204
0.91
150
0.54
100
0.34
122
0.86
191
0.58
211
1.72
206
1.02
120
1.13
126
1.41
231
0.83
111
0.78
149
0.95
77
0.67
170
0.22
149
0.20
208
0.29
253
0.26
244
0.27
208
0.27
193
test_xeamplepermissivetwo views1.55
325
0.31
104
0.94
159
0.54
100
0.31
77
0.94
213
0.58
211
2.40
337
1.40
276
1.29
212
1.55
266
0.89
132
0.88
195
1.72
197
15.94
409
0.22
149
0.22
231
0.22
120
0.21
164
0.23
158
0.25
160
PSMNet-RSSMtwo views0.78
170
0.32
118
0.89
142
0.65
217
0.43
190
0.73
142
0.58
211
2.14
295
1.19
185
1.18
158
1.38
221
1.31
248
1.07
263
1.43
150
0.82
205
0.28
252
0.21
221
0.27
233
0.29
282
0.25
196
0.26
177
PWCDC_ROBbinarytwo views1.39
309
0.91
350
2.10
317
1.08
364
0.92
346
1.72
321
0.58
211
2.03
274
3.30
384
1.32
223
4.87
389
1.21
217
1.71
342
1.98
233
1.75
325
0.65
364
0.26
279
0.29
253
0.25
233
0.56
338
0.41
289
DualNettwo views1.46
317
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
370
1.19
163
1.49
246
1.07
186
0.85
175
1.57
171
13.82
402
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
ffmtwo views0.79
178
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
370
1.19
163
1.49
246
1.07
186
0.85
175
1.57
171
0.35
6
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
ff1two views1.88
348
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
1.08
55
2.62
370
1.19
163
1.49
246
1.07
186
0.85
175
9.88
405
13.82
402
0.21
120
0.13
17
0.31
266
0.28
267
0.20
86
0.23
122
mmxtwo views1.89
351
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
2.32
327
1.41
279
1.19
163
1.49
246
1.07
186
0.85
175
9.88
405
13.82
402
0.25
207
0.21
221
0.31
266
0.28
267
0.32
256
0.29
216
xxxcopylefttwo views1.89
351
0.36
188
1.51
271
0.56
122
0.40
170
0.76
151
0.59
215
2.32
327
1.41
279
1.19
163
1.49
246
1.07
186
0.85
175
9.88
405
13.82
402
0.25
207
0.21
221
0.31
266
0.28
267
0.32
256
0.29
216
AASNettwo views0.80
183
0.39
225
1.16
225
0.84
327
0.80
330
1.14
251
0.59
215
2.12
290
1.21
195
1.26
198
1.26
177
0.93
144
0.77
144
0.84
56
1.23
270
0.28
252
0.24
261
0.24
167
0.20
128
0.28
223
0.27
193
GwcNet-ADLtwo views0.67
118
0.33
135
0.90
147
0.58
150
0.41
180
0.60
83
0.59
215
1.55
165
1.28
225
1.11
115
1.13
139
0.90
134
0.59
95
1.11
108
0.91
221
0.28
252
0.18
184
0.18
33
0.18
84
0.25
196
0.33
252
FADNet-RVCtwo views0.96
245
0.72
330
2.96
345
0.64
211
0.49
221
0.90
199
0.59
215
1.85
236
1.27
221
0.92
77
0.97
78
1.36
257
0.90
200
2.36
268
1.31
277
0.30
269
0.29
299
0.32
278
0.32
302
0.42
298
0.37
273
CoDeXtwo views0.78
170
0.31
104
1.04
186
0.56
122
0.37
144
1.13
248
0.60
223
2.77
370
1.29
233
1.17
147
1.26
177
0.91
137
0.87
188
1.42
148
0.74
184
0.21
120
0.16
139
0.21
93
0.18
84
0.21
121
0.21
87
FADNet-RVC-Resampletwo views0.91
232
0.51
274
2.92
344
0.64
211
0.46
207
1.07
241
0.60
223
1.76
211
1.24
205
1.10
114
0.98
81
1.06
183
0.98
230
2.17
254
0.95
235
0.24
187
0.22
231
0.30
262
0.32
302
0.36
271
0.40
286
RASNettwo views1.16
281
0.34
162
1.11
203
0.73
286
0.86
342
1.00
228
0.60
223
1.56
167
1.43
288
1.07
110
1.37
217
2.08
347
1.44
320
7.00
376
1.56
306
0.20
99
0.17
161
0.17
13
0.19
102
0.19
59
0.19
51
HSM-Net_RVCpermissivetwo views0.91
232
0.31
104
0.60
24
0.54
100
0.31
77
1.15
254
0.60
223
3.76
386
1.30
235
1.57
303
1.75
302
1.67
306
1.01
242
1.61
184
0.90
219
0.23
169
0.17
161
0.19
47
0.18
84
0.20
86
0.22
108
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
qqqtwo views0.62
92
0.36
188
0.88
139
0.50
46
0.28
40
0.64
105
0.62
227
1.58
172
0.91
71
0.83
62
0.96
71
0.95
152
0.79
154
0.99
80
0.67
170
0.21
120
0.23
253
0.24
167
0.23
213
0.23
158
0.25
160
DAStwo views0.89
220
0.37
204
1.20
232
0.66
230
0.69
302
0.82
174
0.62
227
1.79
217
1.26
217
1.93
340
1.55
266
0.96
156
1.17
280
2.72
286
0.69
175
0.22
149
0.16
139
0.25
203
0.18
84
0.29
233
0.24
141
SepStereotwo views0.87
216
0.37
204
1.20
232
0.66
230
0.69
302
0.82
174
0.62
227
1.79
217
1.26
217
1.93
340
1.55
266
0.96
156
1.17
280
2.34
266
0.69
175
0.22
149
0.16
139
0.25
203
0.18
84
0.29
233
0.24
141
GANet-RSSMtwo views0.78
170
0.31
104
0.90
147
0.67
243
0.58
263
0.80
166
0.62
227
2.04
276
1.15
171
1.11
115
1.27
184
1.26
236
1.18
287
1.68
191
0.74
184
0.26
224
0.21
221
0.22
120
0.22
186
0.23
158
0.23
122
GwcNet-RSSMtwo views0.83
202
0.34
162
1.29
250
0.65
217
0.55
253
0.78
161
0.62
227
1.89
245
1.27
221
1.18
158
1.39
223
1.56
292
0.91
202
1.60
182
1.22
267
0.26
224
0.20
208
0.23
146
0.24
225
0.21
121
0.21
87
HSMtwo views1.22
292
0.34
162
0.81
98
0.61
182
0.39
161
1.22
270
0.63
232
2.45
343
1.25
211
1.32
223
1.26
177
1.91
324
1.08
264
9.21
396
0.75
187
0.23
169
0.17
161
0.20
70
0.16
54
0.22
140
0.24
141
SFCPSMtwo views0.74
155
0.30
79
1.06
191
0.52
69
0.39
161
1.36
287
0.64
233
2.42
339
1.11
151
1.18
158
1.21
163
0.81
97
0.78
149
1.08
99
0.57
137
0.22
149
0.17
161
0.22
120
0.24
225
0.23
158
0.21
87
iResNettwo views0.80
183
0.45
251
1.47
267
0.72
279
0.31
77
0.96
224
0.64
233
1.80
221
1.28
225
1.31
221
1.48
245
0.94
149
0.78
149
1.77
202
0.99
240
0.19
65
0.14
58
0.18
33
0.15
30
0.22
140
0.27
193
LL-Strereotwo views1.42
313
0.44
250
2.02
311
0.62
190
1.07
361
0.73
142
0.65
235
2.02
270
1.21
195
1.60
308
1.62
282
2.02
340
2.10
363
9.67
400
1.07
251
0.22
149
0.20
208
0.27
233
0.24
225
0.23
158
0.33
252
Anonymous_2two views1.37
307
0.56
289
0.94
159
0.57
140
0.62
282
1.04
233
0.65
235
1.82
227
1.01
117
1.00
90
0.79
43
1.42
266
1.27
298
1.06
95
0.83
206
0.62
361
0.67
381
1.05
380
9.88
417
1.09
376
0.55
330
BSDual-CNNtwo views0.75
158
0.34
162
0.77
82
0.55
110
0.45
200
1.25
274
0.66
237
2.65
363
1.04
129
1.25
188
1.12
129
1.11
203
0.77
144
0.94
71
0.76
190
0.25
207
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
hknettwo views0.82
193
0.34
162
1.15
212
0.55
110
0.39
161
1.25
274
0.66
237
2.65
363
1.10
147
1.25
188
1.12
129
1.58
295
0.85
175
1.41
143
0.79
197
0.23
169
0.18
184
0.25
203
0.22
186
0.23
158
0.24
141
GASNettwo views1.13
277
1.10
362
3.29
354
1.00
360
0.68
299
0.82
174
0.67
239
1.85
236
1.38
265
1.39
252
1.25
175
1.25
230
1.20
289
2.72
286
1.62
312
0.46
337
0.26
279
0.36
310
0.34
316
0.55
337
0.33
252
iResNetv2_ROBtwo views0.88
218
0.43
245
2.62
340
0.60
169
0.38
154
0.94
213
0.67
239
1.88
243
1.38
265
1.27
203
1.45
239
1.26
236
1.05
260
1.92
225
0.64
161
0.24
187
0.15
112
0.19
47
0.14
22
0.24
187
0.21
87
iRaft-Stereo_5wtwo views0.89
220
0.31
104
1.04
186
0.56
122
0.47
213
0.47
18
0.68
241
1.19
99
1.08
137
0.80
55
1.35
212
1.46
275
0.90
200
5.11
336
1.16
259
0.18
40
0.15
112
0.22
120
0.19
102
0.21
121
0.24
141
Anonymoustwo views0.56
47
0.41
239
1.05
188
0.67
243
0.73
309
0.65
109
0.68
241
1.12
72
0.79
48
0.48
13
0.60
19
0.42
4
0.60
99
0.81
48
0.55
127
0.26
224
0.24
261
0.21
93
0.21
164
0.41
294
0.30
229
SHDtwo views1.42
313
0.81
340
2.79
343
0.98
358
0.92
346
1.97
344
0.68
241
2.43
341
2.55
367
2.54
366
1.72
299
2.01
339
1.62
331
2.14
252
2.70
351
0.40
317
0.33
321
0.39
320
0.40
331
0.48
321
0.54
324
UCFNet_RVCtwo views0.72
149
0.37
204
0.59
22
0.66
230
0.41
180
0.89
196
0.68
241
1.78
214
1.15
171
1.01
93
1.20
158
1.22
221
0.95
218
1.07
97
0.66
169
0.28
252
0.21
221
0.34
294
0.31
297
0.33
261
0.29
216
1111xtwo views1.96
354
0.32
118
1.54
280
0.54
100
0.30
63
1.00
228
0.69
245
2.47
348
1.33
246
1.21
175
1.44
236
1.21
217
1.11
271
8.49
391
16.14
410
0.22
149
0.23
253
0.22
120
0.23
213
0.25
196
0.26
177
fast-acv-fttwo views1.00
254
0.48
262
1.85
300
0.61
182
0.52
237
1.77
330
0.69
245
1.52
157
1.47
301
1.34
235
1.85
318
1.73
314
1.24
294
1.62
185
1.56
306
0.27
241
0.28
291
0.28
245
0.28
267
0.28
223
0.31
238
Anonymous3two views0.64
104
0.47
259
1.31
251
0.59
162
0.50
225
0.93
211
0.69
245
1.11
70
0.83
56
0.74
48
0.89
62
0.65
59
0.68
125
1.08
99
0.54
126
0.40
317
0.31
308
0.26
224
0.26
244
0.31
248
0.30
229
GwcNetcopylefttwo views1.26
301
0.63
307
5.13
372
0.81
315
1.15
370
1.73
324
0.69
245
1.84
230
1.53
311
1.51
288
1.71
298
1.72
312
1.09
266
2.20
256
1.61
310
0.31
273
0.30
303
0.29
253
0.27
258
0.30
243
0.41
289
RTSCtwo views1.43
316
0.89
345
3.62
359
0.94
354
0.64
285
1.85
337
0.69
245
2.20
314
2.04
355
2.22
354
1.70
296
1.67
306
1.27
298
2.53
276
4.48
370
0.33
283
0.25
274
0.27
233
0.29
282
0.38
282
0.40
286
AANet_RVCtwo views1.22
292
0.60
296
1.94
304
0.69
262
0.46
207
0.75
146
0.69
245
1.51
155
1.57
319
1.36
244
1.90
324
1.51
284
0.87
188
7.23
378
1.89
331
0.26
224
0.19
198
0.19
47
0.16
54
0.23
158
0.37
273
iinet-ftwo views1.04
261
0.50
270
4.24
366
0.58
150
0.43
190
1.78
333
0.70
251
1.29
126
1.16
176
1.25
188
1.42
232
1.57
294
1.42
317
1.47
157
1.70
322
0.26
224
0.23
253
0.20
70
0.20
128
0.26
206
0.26
177
Nwc_Nettwo views1.19
287
0.53
280
2.34
330
0.92
346
0.81
334
1.49
301
0.70
251
2.28
325
1.32
244
1.41
260
2.27
347
2.03
343
1.76
346
2.05
245
1.46
296
0.43
325
0.30
303
0.43
332
0.46
346
0.39
286
0.40
286
MyStereo06two views0.67
118
0.29
61
1.06
191
0.58
150
0.48
215
0.62
89
0.72
253
2.26
319
0.89
66
1.07
110
1.12
129
1.22
221
0.56
75
0.83
53
0.47
84
0.17
18
0.17
161
0.24
167
0.21
164
0.23
158
0.23
122
MyStereo05two views0.70
138
0.29
61
1.22
236
0.58
150
0.48
215
0.62
89
0.72
253
1.52
157
1.54
313
1.17
147
0.91
64
0.77
86
0.79
154
1.45
153
0.68
174
0.17
18
0.17
161
0.24
167
0.21
164
0.23
158
0.23
122
stereogantwo views1.22
292
0.45
251
2.03
313
0.87
333
0.85
341
2.52
364
0.72
253
1.98
263
1.78
338
1.92
338
1.94
328
2.31
355
1.42
317
2.10
249
1.14
257
0.38
308
0.36
332
0.39
320
0.32
302
0.52
328
0.49
311
psmgtwo views0.75
158
0.34
162
0.77
82
0.52
69
0.45
200
1.46
300
0.73
256
2.15
299
1.04
129
1.25
188
1.33
204
1.11
203
0.77
144
0.94
71
0.76
190
0.25
207
0.20
208
0.25
203
0.26
244
0.23
158
0.24
141
AF-Nettwo views1.23
296
0.56
289
2.31
329
0.88
335
0.93
349
1.41
295
0.73
256
2.27
323
1.71
331
1.76
327
2.42
355
2.00
337
1.70
340
1.98
233
1.62
312
0.50
349
0.29
299
0.49
345
0.33
311
0.40
290
0.34
259
ADLNet2two views0.92
235
0.37
204
1.25
243
0.80
312
0.65
291
1.12
247
0.75
258
1.95
258
1.42
287
1.26
198
1.67
291
1.68
308
1.04
255
1.80
211
1.23
270
0.25
207
0.22
231
0.21
93
0.22
186
0.27
208
0.31
238
ADLNettwo views0.89
220
0.39
225
1.09
198
0.88
335
0.73
309
1.24
273
0.75
258
2.02
270
1.41
279
1.58
304
1.37
217
1.26
236
1.00
239
1.31
127
1.18
260
0.28
252
0.21
221
0.26
224
0.26
244
0.29
233
0.36
270
CSP-Nettwo views1.00
254
0.41
239
0.99
174
0.56
122
0.43
190
1.62
316
0.76
260
2.16
301
1.16
176
1.33
228
1.22
165
1.32
252
0.89
197
4.67
330
0.93
228
0.35
298
0.24
261
0.20
70
0.20
128
0.23
158
0.30
229
HBP-ISPtwo views1.00
254
0.60
296
0.85
130
0.64
211
0.48
215
1.63
317
0.77
261
2.24
318
1.30
235
1.33
228
1.53
262
0.87
120
0.99
233
3.26
303
0.76
190
0.46
337
0.44
354
0.54
353
0.48
350
0.48
321
0.42
295
ADCReftwo views1.50
321
0.61
301
3.83
361
0.76
305
0.77
322
1.91
341
0.77
261
2.16
301
1.34
248
1.63
313
1.59
280
1.35
256
1.40
315
1.79
209
8.32
388
0.25
207
0.21
221
0.32
278
0.31
297
0.31
248
0.32
246
NOSS_ROBtwo views1.29
305
0.49
267
0.68
49
0.60
169
0.40
170
1.09
244
0.77
261
1.94
255
1.44
290
1.04
103
1.46
241
1.10
198
0.81
164
10.57
411
0.78
193
0.46
337
0.43
353
0.48
343
0.45
344
0.45
312
0.43
299
MyStereo07two views0.50
29
0.30
79
0.58
18
0.58
150
0.48
215
0.59
79
0.78
264
1.19
99
0.60
12
0.49
16
0.54
15
0.43
6
0.55
70
1.32
130
0.36
16
0.18
40
0.18
184
0.24
167
0.21
164
0.23
158
0.23
122
MyStereo04two views0.71
144
0.30
79
1.28
247
0.58
150
0.48
215
0.59
79
0.78
264
1.74
208
1.49
306
0.94
81
0.91
64
0.74
80
0.86
182
1.59
177
0.69
175
0.18
40
0.18
184
0.24
167
0.21
164
0.23
158
0.23
122
Wz-Net-LNSev-Reftwo views1.09
272
0.46
254
2.61
339
0.71
274
0.65
291
2.00
347
0.78
264
2.07
283
1.47
301
1.62
311
1.47
243
1.53
287
1.29
300
2.10
249
1.65
318
0.24
187
0.14
58
0.20
70
0.16
54
0.28
223
0.28
204
SACVNettwo views0.89
220
0.51
274
1.08
197
0.83
323
0.58
263
0.83
180
0.78
264
1.84
230
1.17
180
1.39
252
1.33
204
1.25
230
1.01
242
2.31
265
0.92
225
0.35
298
0.26
279
0.31
266
0.29
282
0.35
267
0.48
310
STrans-v2two views1.06
265
0.31
104
1.02
182
0.52
69
0.33
110
0.67
120
0.78
264
2.66
366
1.26
217
1.15
141
1.46
241
1.37
261
1.40
315
6.68
371
0.46
76
0.19
65
0.13
17
0.21
93
0.18
84
0.18
34
0.21
87
GEStereo_RVCtwo views0.93
240
0.40
230
1.15
212
0.67
243
0.50
225
0.95
219
0.78
264
2.73
368
1.21
195
1.20
169
1.12
129
1.25
230
0.91
202
3.21
300
0.95
235
0.31
273
0.20
208
0.23
146
0.20
128
0.28
223
0.31
238
UPFNettwo views0.84
206
0.34
162
1.09
198
0.62
190
0.74
313
1.25
274
0.78
264
1.69
199
1.20
189
1.39
252
1.13
139
1.30
246
0.87
188
1.73
198
1.22
267
0.24
187
0.26
279
0.24
167
0.23
213
0.26
206
0.20
70
DRN-Testtwo views1.07
269
0.49
267
1.95
308
0.75
299
0.81
334
1.61
314
0.78
264
2.26
319
1.53
311
1.84
332
1.35
212
1.42
266
1.04
255
2.26
261
1.61
310
0.28
252
0.23
253
0.31
266
0.30
293
0.33
261
0.33
252
UDGtwo views1.47
318
2.69
405
1.13
207
1.45
380
1.65
384
1.34
285
0.79
272
1.75
210
1.27
221
1.29
212
1.74
301
1.99
336
1.39
314
1.66
188
1.51
302
0.91
373
0.55
373
2.30
390
0.76
374
1.99
383
1.20
380
psmorigintwo views1.69
338
0.74
335
13.13
399
0.70
271
0.60
273
1.16
257
0.79
272
1.69
199
1.25
211
2.07
350
1.77
305
2.23
348
1.51
326
2.14
252
1.45
294
0.39
315
0.41
347
0.34
294
0.33
311
0.45
312
0.63
347
PS-NSSStwo views1.02
258
0.62
306
1.17
226
0.61
182
0.58
263
0.91
201
0.79
272
2.02
270
1.19
185
1.17
147
1.68
293
1.00
169
0.85
175
4.43
324
0.86
210
0.38
308
0.31
308
0.52
348
0.32
302
0.52
328
0.45
304
RGCtwo views1.22
292
0.82
341
1.71
289
0.95
356
0.98
358
1.53
306
0.80
275
2.18
309
1.35
251
1.69
319
1.94
328
2.03
343
1.66
337
2.36
268
1.50
300
0.46
337
0.36
332
0.59
365
0.48
350
0.49
324
0.49
311
SQANettwo views1.38
308
0.95
353
1.37
261
1.89
385
1.47
382
1.44
299
0.81
276
1.89
245
1.13
161
1.34
235
1.26
177
1.28
242
1.02
247
1.64
186
0.91
221
2.55
391
0.35
328
1.47
383
0.56
363
2.48
387
1.74
387
ToySttwo views0.73
152
0.35
184
1.64
286
0.54
100
0.37
144
0.92
208
0.81
276
1.21
107
1.03
123
0.86
71
1.12
129
1.31
248
1.01
242
1.04
88
0.88
214
0.19
65
0.20
208
0.24
167
0.24
225
0.27
208
0.28
204
ARAFTtwo views0.82
193
0.40
230
1.77
292
0.53
89
0.31
77
0.89
196
0.81
276
2.32
327
1.08
137
1.66
316
1.25
175
1.04
179
0.64
112
1.91
224
0.52
108
0.20
99
0.15
112
0.28
245
0.27
258
0.17
20
0.18
32
delettwo views0.90
227
0.34
162
1.15
212
0.69
262
0.66
294
1.63
317
0.81
276
1.95
258
1.49
306
1.42
264
1.38
221
1.29
244
0.91
202
1.78
204
1.18
260
0.22
149
0.22
231
0.24
167
0.25
233
0.22
140
0.24
141
APVNettwo views1.11
275
0.59
295
1.95
308
0.87
333
0.77
322
1.90
340
0.82
280
2.03
274
1.15
171
1.14
139
1.43
234
1.55
290
1.12
275
3.03
294
1.62
312
0.32
280
0.34
323
0.42
331
0.36
322
0.36
271
0.41
289
KYRafttwo views0.77
168
0.29
61
0.68
49
0.59
162
0.29
51
0.66
115
0.83
281
1.05
48
0.89
66
1.63
313
2.22
346
1.15
211
0.99
233
1.59
177
0.41
49
0.21
120
0.14
58
0.22
120
0.28
267
0.21
121
1.01
371
DLCB_ROBtwo views0.92
235
0.43
245
0.95
162
0.71
274
0.55
253
1.11
245
0.83
281
1.61
181
1.32
244
1.67
317
1.66
289
1.70
311
0.93
211
1.96
232
1.34
282
0.26
224
0.25
274
0.27
233
0.28
267
0.28
223
0.28
204
CRFU-Nettwo views0.90
227
0.42
241
1.10
201
0.69
262
0.59
269
1.76
328
0.84
283
2.33
332
0.92
76
1.45
277
1.20
158
1.62
298
1.25
295
1.38
138
0.94
233
0.28
252
0.23
253
0.22
120
0.19
102
0.24
187
0.27
193
LRCNet_RVCtwo views22.79
418
32.09
426
22.06
413
29.83
424
26.15
422
4.40
398
0.84
283
22.64
418
2.10
357
26.93
424
29.25
424
23.03
424
15.56
414
23.91
422
18.92
413
32.00
429
20.04
431
34.68
429
32.13
429
30.66
429
28.52
429
edge stereotwo views1.15
280
0.54
283
1.50
270
0.73
286
0.66
294
1.18
266
0.84
283
2.13
294
1.41
279
1.73
322
1.84
315
2.53
363
1.46
321
2.46
272
1.35
284
0.43
325
0.41
347
0.54
353
0.36
322
0.43
300
0.50
314
DISCOtwo views1.06
265
0.37
204
1.19
231
0.73
286
0.46
207
2.04
350
0.84
283
2.26
319
1.54
313
1.25
188
1.36
216
2.38
358
1.08
264
2.60
280
1.62
312
0.24
187
0.19
198
0.22
120
0.20
128
0.32
256
0.29
216
DispFullNettwo views2.39
370
2.89
408
3.74
360
3.09
401
2.27
394
2.04
350
0.84
283
2.19
311
1.73
333
2.54
366
1.98
331
2.23
348
5.83
400
3.44
308
1.84
330
1.03
377
0.33
321
2.65
401
1.97
405
2.87
392
2.34
394
RPtwo views1.17
283
0.54
283
1.48
268
0.93
351
1.05
360
1.14
251
0.85
288
1.99
267
1.70
329
1.72
321
2.07
337
1.91
324
1.93
355
2.00
237
1.37
287
0.55
356
0.37
336
0.48
343
0.37
326
0.46
316
0.46
309
SuperBtwo views2.50
373
0.72
330
18.07
409
0.72
279
0.53
242
1.85
337
0.86
289
1.80
221
2.40
364
1.54
296
1.42
232
1.13
207
1.17
280
4.18
318
4.80
373
0.25
207
0.20
208
0.23
146
0.19
102
7.64
417
0.38
279
NVstereo2Dtwo views0.99
251
0.45
251
2.21
325
0.79
311
0.75
316
1.20
268
0.86
289
1.98
263
1.41
279
1.02
97
1.18
154
1.31
248
0.97
227
2.25
260
0.93
228
0.45
336
0.22
231
0.39
320
0.25
233
0.59
343
0.68
353
CBFPSMtwo views0.95
241
0.37
204
2.10
317
0.51
57
0.39
161
1.73
324
0.87
291
1.59
177
1.13
161
1.11
115
1.00
86
2.34
356
1.64
336
1.42
148
1.44
293
0.19
65
0.18
184
0.20
70
0.20
128
0.22
140
0.36
270
Syn2CoExtwo views1.23
296
0.80
337
3.07
348
0.83
323
0.68
299
1.39
291
0.87
291
2.23
316
1.57
319
1.28
208
1.58
276
1.42
266
1.57
329
3.79
315
1.48
299
0.36
305
0.32
318
0.34
294
0.30
293
0.30
243
0.41
289
G-Nettwo views1.71
339
0.67
320
2.09
316
1.14
370
0.75
316
2.96
378
0.89
293
1.58
172
1.30
235
2.76
371
8.12
405
2.29
353
2.51
376
1.94
227
2.23
341
0.49
345
0.45
356
0.45
336
0.31
297
0.62
350
0.59
340
anonymitytwo views1.14
278
0.98
355
1.24
241
1.09
365
1.13
366
1.08
242
0.90
294
2.02
270
1.23
204
1.32
223
1.27
184
1.27
241
1.09
266
1.16
114
1.03
248
1.02
376
1.01
399
0.97
376
0.97
383
0.98
371
1.01
371
STTRV1_RVCtwo views1.60
329
0.69
323
2.04
314
0.88
335
1.12
363
1.58
311
0.90
294
2.42
339
1.78
338
1.29
212
2.02
334
1.40
264
1.22
290
9.72
401
1.35
284
0.86
371
0.34
323
0.54
353
0.49
353
0.75
362
0.54
324
StereoDRNettwo views1.05
264
0.53
280
2.21
325
0.80
312
0.93
349
1.50
302
0.90
294
2.06
281
1.44
290
1.68
318
1.20
158
1.48
278
0.99
233
1.86
216
1.60
309
0.29
264
0.24
261
0.29
253
0.28
267
0.35
267
0.33
252
DDUNettwo views1.56
326
2.70
406
1.35
256
1.79
383
1.88
386
1.82
335
0.91
297
1.84
230
1.20
189
1.40
258
1.79
307
1.62
298
1.17
280
1.59
177
1.22
267
1.11
381
0.76
384
2.38
393
0.94
381
2.12
384
1.53
385
PA-Nettwo views1.14
278
0.63
307
2.12
319
0.67
243
0.75
316
1.19
267
0.91
297
1.91
249
1.46
300
1.18
158
1.23
169
1.33
254
1.17
280
4.31
322
1.41
290
0.29
264
0.46
360
0.33
286
0.50
355
0.33
261
0.57
335
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
psm_uptwo views0.83
202
0.37
204
0.88
139
0.68
252
0.59
269
1.05
236
0.92
299
1.68
190
1.17
180
1.41
260
1.22
165
1.30
246
1.31
304
1.39
140
0.89
216
0.27
241
0.30
303
0.31
266
0.27
258
0.28
223
0.28
204
FAT-Stereotwo views1.10
273
0.43
245
1.46
266
0.74
292
0.60
273
1.13
248
0.92
299
2.06
281
1.71
331
1.75
323
2.00
332
2.02
340
1.47
323
2.02
240
1.26
274
0.44
333
0.36
332
0.34
294
0.29
282
0.36
271
0.57
335
MaskLacGwcNet_RVCtwo views1.17
283
1.06
358
1.28
247
0.88
335
0.69
302
1.92
342
0.92
299
1.71
203
1.14
167
1.17
147
1.26
177
1.49
280
0.80
160
2.04
241
0.86
210
2.02
386
0.34
323
0.79
371
0.36
322
1.38
382
1.33
383
DSFCAtwo views0.95
241
0.38
221
1.23
238
0.55
110
0.66
294
1.50
302
0.93
302
1.58
172
1.24
205
1.59
307
1.16
150
1.48
278
0.95
218
2.96
293
1.20
262
0.31
273
0.28
291
0.25
203
0.26
244
0.29
233
0.26
177
MSMD_ROBtwo views2.08
358
0.61
301
1.15
212
0.71
274
0.62
282
4.00
393
0.93
302
1.94
255
1.79
340
4.71
399
4.60
385
8.14
403
3.87
393
3.75
314
1.65
318
0.54
353
0.48
363
0.55
358
0.58
365
0.53
333
0.52
321
Prome-Stereotwo views0.76
163
0.29
61
0.57
17
0.58
150
0.33
110
0.58
78
0.94
304
0.98
30
0.92
76
1.46
279
2.45
357
0.91
137
1.38
312
1.60
182
0.44
61
0.19
65
0.13
17
0.19
47
0.18
84
0.20
86
0.87
368
NCC-stereotwo views1.20
289
0.60
296
1.84
298
0.88
335
0.95
353
1.32
279
0.94
304
2.14
295
1.36
258
1.43
268
1.79
307
1.93
328
2.13
367
2.54
277
1.41
290
0.49
345
0.38
339
0.45
336
0.59
367
0.43
300
0.45
304
Abc-Nettwo views1.20
289
0.60
296
1.84
298
0.88
335
0.95
353
1.32
279
0.94
304
2.14
295
1.36
258
1.43
268
1.79
307
1.93
328
2.13
367
2.54
277
1.41
290
0.49
345
0.38
339
0.45
336
0.59
367
0.43
300
0.45
304
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
RYNettwo views1.24
299
0.52
278
1.57
283
0.73
286
0.97
356
1.74
326
0.95
307
2.09
286
1.54
313
1.44
271
1.18
154
1.94
332
1.29
300
4.57
327
1.93
332
0.27
241
0.23
253
0.35
300
0.27
258
0.57
340
0.59
340
ssnet_v2two views0.92
235
0.39
225
1.22
236
0.66
230
0.39
161
1.31
278
0.96
308
2.32
327
1.45
295
1.48
285
1.17
152
1.53
287
0.91
202
1.16
114
1.71
324
0.31
273
0.27
287
0.30
262
0.29
282
0.28
223
0.29
216
GMM-Stereotwo views0.75
158
0.27
35
0.66
44
0.56
122
0.34
122
0.71
136
0.97
309
1.09
62
0.91
71
1.37
245
1.79
307
1.11
203
0.79
154
2.08
247
0.48
88
0.19
65
0.12
5
0.25
203
0.25
233
0.21
121
0.78
362
FCDSN-DCtwo views2.47
372
0.65
316
1.00
179
0.85
329
0.75
316
2.26
358
0.97
309
2.31
326
1.83
343
5.52
405
7.65
402
7.72
402
7.70
406
4.43
324
2.64
350
0.52
351
0.48
363
0.52
348
0.52
358
0.57
340
0.59
340
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
DeepPrunerFtwo views1.68
336
0.82
341
6.82
378
0.94
354
1.20
374
0.91
201
0.97
309
2.50
353
5.19
400
1.22
180
1.30
194
1.18
213
1.29
300
4.96
335
1.75
325
0.43
325
0.35
328
0.52
348
0.48
350
0.43
300
0.42
295
CC-Net-ROBtwo views1.53
323
1.31
375
1.68
288
0.92
346
0.80
330
1.75
327
0.99
312
2.04
276
1.27
221
1.12
123
1.62
282
1.20
216
0.98
230
7.82
384
0.92
225
1.15
384
0.41
347
2.20
388
0.46
346
1.37
381
0.56
332
MeshStereopermissivetwo views2.36
368
0.60
296
1.05
188
0.63
200
0.51
234
2.58
366
0.99
312
3.46
383
2.21
361
7.38
409
5.06
391
7.50
399
3.10
382
7.02
377
2.54
349
0.44
333
0.44
354
0.45
336
0.40
331
0.43
300
0.45
304
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
Consistency-Rafttwo views1.27
304
1.01
357
2.17
322
1.04
362
1.20
374
0.96
224
1.00
314
1.84
230
1.95
350
1.38
250
2.11
339
1.44
270
1.03
249
1.18
118
1.40
289
0.73
369
0.83
385
0.89
374
0.99
386
1.33
380
0.95
370
IRAFT_RVCtwo views0.90
227
0.30
79
0.89
142
0.67
243
0.31
77
0.64
105
1.00
314
1.40
138
0.97
100
1.23
181
1.04
101
1.00
169
0.96
220
5.77
351
0.57
137
0.24
187
0.13
17
0.25
203
0.21
164
0.20
86
0.21
87
CVANet_RVCtwo views1.10
273
0.49
267
1.15
212
0.65
217
0.54
249
0.93
211
1.00
314
1.69
199
1.36
258
1.42
264
1.39
223
1.24
229
1.17
280
6.22
360
0.80
202
0.35
298
0.24
261
0.35
300
0.30
293
0.44
310
0.32
246
ADCP+two views2.12
361
0.56
289
10.01
391
0.68
252
0.91
345
2.25
357
1.04
317
1.92
253
1.50
308
1.58
304
1.34
207
1.73
314
1.62
331
2.27
262
13.20
399
0.25
207
0.22
231
0.32
278
0.29
282
0.38
282
0.34
259
aanetorigintwo views1.26
301
0.85
344
3.00
346
0.72
279
0.80
330
1.08
242
1.05
318
1.12
72
1.39
274
3.53
387
2.60
360
1.72
312
1.73
344
1.98
233
1.77
328
0.26
224
0.24
261
0.26
224
0.25
233
0.38
282
0.51
319
FC-DCNNcopylefttwo views2.88
384
0.61
301
1.15
212
0.75
299
0.57
261
2.85
375
1.05
318
3.44
382
2.64
374
6.93
406
7.63
401
9.86
408
7.02
405
5.76
350
4.31
368
0.54
353
0.48
363
0.51
347
0.50
355
0.53
333
0.52
321
FBW_ROBtwo views1.78
341
0.66
317
1.90
303
0.72
279
0.66
294
1.79
334
1.07
320
2.79
373
1.77
335
1.84
332
1.79
307
1.98
335
1.37
311
12.42
414
2.22
340
0.36
305
0.38
339
0.57
362
0.39
329
0.46
316
0.51
319
PDISCO_ROBtwo views1.41
311
0.73
333
2.04
314
1.40
376
1.46
381
2.83
373
1.07
320
2.64
362
2.11
358
1.41
260
1.50
253
1.73
314
0.99
233
2.83
291
1.46
296
1.03
377
0.27
287
0.54
353
0.47
348
0.77
363
0.84
367
MFN_U_SF_RVCtwo views1.62
332
0.96
354
4.36
368
0.92
346
0.69
302
2.62
368
1.10
322
2.50
353
1.74
334
1.99
346
1.86
320
2.45
361
1.78
348
3.08
296
2.84
353
0.54
353
0.50
368
0.56
360
0.60
369
0.60
346
0.67
350
SPS-STEREOcopylefttwo views1.78
341
1.09
361
1.52
276
1.22
373
1.14
368
1.87
339
1.11
323
2.27
323
1.70
329
3.17
385
2.39
353
2.84
371
1.93
355
4.41
323
2.93
354
1.04
379
0.99
398
0.97
376
0.94
381
1.03
374
1.05
373
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ETE_ROBtwo views1.01
257
0.69
323
1.49
269
0.72
279
0.50
225
1.15
254
1.12
324
1.91
249
1.24
205
1.94
342
1.50
253
1.73
314
1.06
261
1.78
204
1.33
281
0.33
283
0.26
279
0.38
316
0.34
316
0.40
290
0.44
302
PSMNet_ROBtwo views0.95
241
0.57
294
1.45
265
0.75
299
0.64
285
1.28
277
1.12
324
1.84
230
1.15
171
1.16
145
1.29
193
1.44
270
0.89
197
1.74
199
1.70
322
0.33
283
0.25
274
0.37
312
0.39
329
0.36
271
0.32
246
Wz-Net-LNSevtwo views1.17
283
0.72
330
4.71
370
0.66
230
0.84
340
1.72
321
1.13
326
1.97
262
1.43
288
1.34
235
1.32
200
1.66
304
1.30
303
1.44
152
1.51
302
0.29
264
0.26
279
0.24
167
0.23
213
0.33
261
0.35
267
ccnettwo views1.19
287
0.71
327
1.36
258
0.81
315
0.75
316
1.72
321
1.13
326
1.98
263
1.31
242
1.52
290
1.84
315
1.75
319
1.36
310
2.01
238
2.04
335
0.57
358
0.54
371
0.57
362
0.56
363
0.60
346
0.60
343
XPNet_ROBtwo views1.02
258
0.56
289
1.33
255
0.75
299
0.58
263
1.11
245
1.13
326
1.77
212
1.29
233
1.88
335
1.43
234
1.63
301
1.13
276
2.04
241
1.69
320
0.40
317
0.31
308
0.33
286
0.29
282
0.37
276
0.37
273
Ntrotwo views1.72
340
1.21
369
1.62
285
2.54
393
1.86
385
2.09
353
1.14
329
2.08
284
1.38
265
1.23
181
1.62
282
1.62
298
1.33
307
2.04
241
1.21
266
3.09
395
0.56
374
1.82
386
0.65
371
2.97
396
2.25
393
PVDtwo views1.82
345
0.91
350
3.02
347
1.03
361
0.94
352
2.61
367
1.14
329
2.78
372
3.40
386
3.08
383
2.75
362
2.39
360
2.49
375
2.81
289
3.66
363
0.48
343
0.49
367
0.59
365
0.49
353
0.60
346
0.81
365
ADCMidtwo views2.11
360
0.90
346
8.39
386
0.75
299
0.69
302
1.98
345
1.14
329
2.18
309
1.67
328
2.85
373
1.85
318
2.35
357
2.02
359
2.35
267
10.58
397
0.34
290
0.32
318
0.39
320
0.44
341
0.51
327
0.53
323
pmcnntwo views2.84
381
0.46
254
5.19
373
0.68
252
0.42
187
1.55
307
1.16
332
2.32
327
1.60
323
2.72
369
7.49
400
17.96
415
1.48
324
6.04
357
6.64
382
0.18
40
0.15
112
0.15
3
0.12
9
0.20
86
0.20
70
S-Stereotwo views1.17
283
0.48
262
2.25
328
0.83
323
0.81
334
1.22
270
1.17
333
2.12
290
2.08
356
1.47
280
2.13
340
1.55
290
1.16
277
2.09
248
1.46
296
0.42
324
0.40
346
0.35
300
0.32
302
0.45
312
0.73
357
XQCtwo views1.51
322
0.98
355
3.20
350
0.92
346
0.76
321
2.01
348
1.17
333
2.53
357
1.99
352
2.01
347
1.54
263
2.00
337
1.54
327
3.16
298
3.46
361
0.49
345
0.31
308
0.45
336
0.40
331
0.71
360
0.62
345
PSM-AADtwo views0.80
183
0.29
61
0.58
18
0.58
150
0.29
51
0.76
151
1.19
335
1.08
55
0.94
88
1.65
315
1.58
276
0.81
97
2.12
366
1.67
189
0.44
61
0.19
65
0.14
58
0.38
316
0.32
302
0.22
140
0.68
353
PASMtwo views1.48
320
1.08
359
3.96
363
0.93
351
0.93
349
1.17
264
1.19
335
1.77
212
1.65
326
1.90
336
1.52
261
1.75
319
1.42
317
4.54
326
1.52
304
0.64
363
0.68
383
0.69
369
0.79
376
0.70
358
0.74
358
EDNetEfficientorigintwo views10.59
410
1.52
381
177.33
437
0.68
252
0.54
249
1.66
319
1.20
337
1.94
255
3.39
385
4.69
398
3.37
372
3.08
375
2.79
380
3.25
302
3.63
362
0.26
224
0.24
261
0.33
286
0.28
267
0.85
366
0.87
368
ACVNet-4btwo views3.05
386
1.42
376
18.09
410
2.85
395
2.33
396
2.32
362
1.22
338
2.47
348
2.21
361
1.26
198
2.36
352
2.64
367
1.46
321
6.32
364
1.23
270
3.29
398
0.45
356
2.37
392
1.02
389
3.03
397
2.61
398
RAFT + AFFtwo views1.07
269
0.47
259
1.36
258
0.68
252
0.50
225
1.20
268
1.22
338
2.58
360
1.26
217
1.33
228
1.56
271
1.19
214
1.49
325
3.89
317
1.01
245
0.22
149
0.26
279
0.30
262
0.27
258
0.29
233
0.32
246
otakutwo views1.67
334
1.18
366
1.56
281
2.27
388
1.59
383
1.98
345
1.23
340
2.23
316
1.37
263
1.48
285
1.63
286
1.73
314
1.23
291
1.85
213
1.09
252
2.96
394
0.58
377
1.74
384
0.61
370
2.94
393
2.15
391
MDST_ROBtwo views1.88
348
0.40
230
1.71
289
0.93
351
0.60
273
4.27
397
1.23
340
3.99
389
1.44
290
4.61
397
2.63
361
1.44
270
1.03
249
9.78
402
1.62
312
0.33
283
0.26
279
0.37
312
0.33
311
0.31
248
0.34
259
LALA_ROBtwo views1.06
265
0.66
317
1.37
261
0.70
271
0.53
242
1.61
314
1.25
342
1.81
224
1.48
305
1.82
331
1.40
228
1.93
328
1.03
249
1.68
191
1.69
320
0.38
308
0.28
291
0.43
332
0.37
326
0.43
300
0.38
279
SGM_RVCbinarytwo views1.88
348
0.40
230
0.90
147
0.63
200
0.30
63
2.81
372
1.26
343
2.73
368
1.81
342
4.09
389
2.85
365
3.88
382
3.19
383
8.42
390
2.44
347
0.33
283
0.31
308
0.30
262
0.28
267
0.31
248
0.31
238
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SGM-Foresttwo views1.29
305
0.40
230
0.74
72
0.54
100
0.37
144
1.55
307
1.26
343
1.82
227
1.39
274
2.22
354
1.81
313
1.64
302
1.02
247
7.65
383
1.20
262
0.39
315
0.37
336
0.39
320
0.34
316
0.37
276
0.34
259
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
THIR-Stereotwo views1.02
258
0.29
61
0.73
67
0.51
57
0.29
51
0.94
213
1.31
345
1.08
55
0.98
103
1.35
239
1.91
326
1.16
212
1.54
327
6.37
366
0.79
197
0.20
99
0.14
58
0.21
93
0.22
186
0.19
59
0.25
160
DGSMNettwo views1.24
299
0.84
343
3.20
350
0.91
345
0.92
346
1.39
291
1.34
346
2.46
347
1.44
290
1.34
235
1.66
289
1.50
282
1.03
249
1.85
213
1.30
276
0.48
343
0.48
363
0.55
358
0.51
357
0.78
364
0.79
363
GANetREF_RVCpermissivetwo views1.11
275
0.90
346
1.56
281
0.88
335
0.53
242
1.41
295
1.35
347
1.91
249
1.54
313
1.28
208
1.32
200
1.46
275
1.23
291
2.04
241
1.00
244
0.57
358
0.45
356
0.67
367
0.52
358
0.91
369
0.62
345
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ADCPNettwo views1.97
355
0.78
336
9.38
390
0.74
292
0.61
278
2.73
370
1.36
348
2.11
289
1.66
327
1.92
338
1.70
296
2.45
361
2.07
361
2.50
274
6.84
383
0.38
308
0.38
339
0.38
316
0.43
339
0.47
320
0.50
314
FINETtwo views1.54
324
0.67
320
7.28
380
0.76
305
0.97
356
1.42
298
1.38
349
2.80
375
3.12
381
1.23
181
1.68
293
1.04
179
1.11
271
3.35
306
1.78
329
0.43
325
0.37
336
0.32
278
0.29
282
0.43
300
0.41
289
TDLMtwo views1.08
271
0.50
270
1.01
180
0.69
262
0.54
249
0.91
201
1.40
350
1.60
179
1.36
258
1.17
147
1.40
228
1.07
186
1.00
239
6.19
358
0.85
209
0.34
290
0.22
231
0.35
300
0.26
244
0.38
282
0.29
216
ACVNet_1two views3.08
387
1.48
380
17.70
406
2.90
398
2.35
397
2.30
359
1.43
351
3.16
379
2.26
363
1.91
337
2.05
336
3.51
378
2.32
371
3.71
313
1.58
308
3.25
397
0.66
380
2.40
396
1.06
390
3.07
398
2.59
397
Wz-Net-MNSevtwo views1.21
291
0.66
317
3.44
356
0.69
262
0.73
309
1.93
343
1.44
352
2.16
301
1.59
321
1.85
334
1.49
246
1.50
282
1.34
308
2.05
245
1.54
305
0.27
241
0.24
261
0.28
245
0.28
267
0.35
267
0.32
246
Wz-Net-SNSevtwo views1.68
336
1.45
377
8.71
388
0.71
274
0.67
298
1.35
286
1.51
353
2.15
299
1.47
301
1.51
288
1.68
293
2.27
351
1.38
312
4.23
319
2.36
346
0.32
280
0.29
299
0.31
266
0.33
311
0.43
300
0.39
282
MFMNet_retwo views1.47
318
1.20
368
2.50
334
1.46
381
1.08
362
1.58
311
1.51
353
1.96
261
1.87
345
2.31
357
2.20
344
1.51
284
1.88
353
1.57
171
1.34
282
0.94
374
0.83
385
0.84
373
0.80
377
1.00
372
1.06
374
NVStereoNet_ROBtwo views2.17
364
1.18
366
3.51
357
1.14
370
1.26
377
1.57
310
1.51
353
2.19
311
2.11
358
2.04
348
4.80
387
3.17
377
2.11
365
7.97
386
2.10
336
1.12
382
0.94
395
1.10
381
1.34
393
0.95
370
1.31
381
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
EDNetEfficienttwo views2.40
371
1.14
364
8.59
387
0.77
307
0.73
309
1.06
239
1.53
356
1.54
163
4.06
392
4.87
400
2.81
363
2.23
348
3.53
389
3.04
295
9.65
394
0.27
241
0.24
261
0.27
233
0.31
297
0.70
358
0.67
350
CBMVpermissivetwo views1.04
261
0.48
262
0.88
139
0.56
122
0.36
139
1.52
304
1.55
357
1.87
238
1.59
321
2.11
351
1.67
291
1.46
275
1.35
309
1.92
225
1.31
277
0.35
298
0.35
328
0.39
320
0.33
311
0.34
266
0.34
259
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
WCMA_ROBtwo views2.05
356
0.55
286
1.77
292
0.74
292
0.61
278
2.24
356
1.56
358
2.17
308
1.79
340
4.16
393
6.36
395
5.66
394
4.66
397
3.19
299
2.77
352
0.55
356
0.45
356
0.40
326
0.43
339
0.48
321
0.50
314
coex-fttwo views8.35
407
2.39
399
100.24
436
0.68
252
0.54
249
1.77
330
1.57
359
1.71
203
11.00
406
18.91
421
3.76
377
3.85
381
8.23
407
3.29
304
6.58
381
0.31
273
0.31
308
0.32
278
0.31
297
0.69
357
0.57
335
WZ-Nettwo views2.14
362
1.08
359
11.68
398
0.89
343
0.78
326
1.76
328
1.59
360
2.39
335
2.03
354
2.11
351
1.95
330
2.30
354
2.28
370
5.94
355
3.86
366
0.35
298
0.27
287
0.29
253
0.32
302
0.52
328
0.50
314
DPSNettwo views1.91
353
0.64
310
5.95
374
0.73
286
0.59
269
2.04
350
1.61
361
3.84
387
1.96
351
1.54
296
1.39
223
2.27
351
3.32
386
4.95
334
4.79
371
0.50
349
0.31
308
0.29
253
0.26
244
0.67
355
0.54
324
GANettwo views1.41
311
0.52
278
1.18
230
0.74
292
0.48
215
1.40
293
1.69
362
1.87
238
1.28
225
1.56
300
2.39
353
1.56
292
1.25
295
9.13
394
1.20
262
0.31
273
0.32
318
0.34
294
0.29
282
0.40
290
0.33
252
NCCL2two views1.06
265
0.64
310
1.35
256
0.78
310
0.58
263
1.32
279
1.69
362
1.89
245
1.38
265
1.52
290
1.20
158
1.91
324
1.17
280
1.79
209
1.50
300
0.35
298
0.31
308
0.45
336
0.44
341
0.41
294
0.45
304
WAO-8two views4.57
395
2.01
392
2.58
337
2.37
390
2.21
390
9.75
406
1.71
364
6.04
406
16.34
411
4.11
390
7.69
403
7.41
397
3.85
391
10.02
408
3.85
364
2.05
387
1.09
402
2.44
397
1.39
394
2.56
388
1.86
388
Venustwo views4.57
395
2.01
392
2.58
337
2.37
390
2.21
390
9.75
406
1.71
364
6.04
406
16.34
411
4.11
390
7.69
403
7.41
397
3.85
391
10.02
408
3.85
364
2.05
387
1.09
402
2.44
397
1.39
394
2.56
388
1.86
388
EAI-Stereotwo views0.76
163
0.31
104
0.74
72
0.55
110
0.28
40
0.70
134
1.72
366
2.57
359
0.90
70
0.75
50
3.03
368
0.57
42
0.43
22
1.10
105
0.49
97
0.19
65
0.14
58
0.17
13
0.18
84
0.17
20
0.21
87
CSANtwo views1.61
330
0.67
320
3.24
353
0.74
292
0.52
237
1.77
330
1.74
367
1.98
263
1.94
349
2.47
365
2.33
351
1.93
328
2.04
360
6.45
367
1.95
334
0.43
325
0.36
332
0.41
330
0.42
336
0.43
300
0.44
302
SANettwo views2.26
366
0.70
325
6.94
379
0.69
262
0.46
207
2.76
371
1.76
368
2.61
361
5.84
402
2.45
362
3.52
375
3.71
379
3.38
388
5.90
352
2.14
338
0.34
290
0.31
308
0.32
278
0.29
282
0.54
335
0.43
299
ADCLtwo views1.82
345
0.70
325
4.57
369
0.70
271
0.63
284
2.56
365
1.77
369
2.08
284
1.77
335
1.95
344
1.89
322
2.04
345
1.88
353
2.36
268
9.55
393
0.27
241
0.25
274
0.35
300
0.32
302
0.39
286
0.39
282
RainbowNettwo views2.06
357
1.86
388
1.97
310
2.86
396
2.25
392
2.03
349
1.79
370
2.77
370
1.92
347
1.54
296
1.84
315
1.95
333
1.73
344
2.23
258
1.38
288
3.40
401
0.86
390
2.39
395
1.00
387
2.94
393
2.42
395
GrayStereotwo views0.83
202
0.28
43
0.62
31
0.66
230
0.37
144
0.76
151
1.79
370
1.19
99
0.91
71
1.98
345
1.89
322
1.07
186
1.76
346
1.43
150
0.50
100
0.20
99
0.15
112
0.19
47
0.21
164
0.18
34
0.41
289
ADCStwo views2.35
367
1.26
371
6.54
377
0.85
329
0.77
322
2.18
354
1.79
370
2.47
348
2.20
360
2.80
372
2.14
342
2.38
358
2.09
362
2.81
289
13.83
406
0.43
325
0.41
347
0.40
326
0.45
344
0.59
343
0.67
350
FTStereotwo views0.92
235
0.28
43
0.61
28
0.57
140
0.34
122
0.65
109
1.80
373
1.09
62
0.84
58
1.75
323
4.13
381
1.04
179
1.62
331
1.59
177
0.48
88
0.21
120
0.17
161
0.23
146
0.22
186
0.19
59
0.58
338
Wz-Net-TNSevtwo views2.10
359
2.71
407
9.30
389
0.72
279
0.65
291
2.41
363
1.81
374
2.45
343
1.77
335
1.62
311
1.56
271
2.56
364
2.01
357
5.30
338
4.46
369
0.41
320
0.38
339
0.33
286
0.37
326
0.54
335
0.64
348
ACVNet_2two views2.86
382
1.47
379
8.28
384
2.68
394
2.26
393
2.70
369
1.84
375
3.41
381
3.04
380
2.27
356
3.42
374
4.58
386
2.10
363
5.91
353
1.62
312
2.58
392
0.67
381
2.22
389
0.85
379
2.79
390
2.47
396
Anonymous Stereotwo views1.42
313
0.90
346
3.93
362
0.81
315
0.83
337
1.06
239
1.90
376
1.81
224
1.52
309
1.75
323
1.44
236
1.28
242
0.87
188
5.94
355
1.94
333
0.38
308
0.39
344
0.38
316
0.41
335
0.45
312
0.50
314
IMHtwo views3.35
389
1.95
391
1.86
301
3.30
402
2.72
402
4.03
395
2.00
377
4.58
396
3.83
390
2.87
374
6.99
398
4.69
387
3.21
384
6.77
373
2.97
355
3.91
408
0.89
392
2.78
404
1.40
398
3.36
403
2.93
403
MADNet+two views2.80
378
3.38
410
11.57
397
1.50
382
1.21
376
3.18
381
2.00
377
3.52
385
2.61
369
1.81
329
2.09
338
2.83
370
2.18
369
7.55
382
5.44
377
0.84
370
0.83
385
0.71
370
0.66
372
1.05
375
1.08
375
NaN_ROBtwo views1.23
296
0.63
307
1.76
291
0.67
243
0.50
225
1.59
313
2.00
377
1.87
238
1.52
309
2.14
353
1.26
177
1.40
264
1.09
266
4.60
328
1.75
325
0.28
252
0.34
323
0.28
245
0.29
282
0.30
243
0.37
273
WAO-7two views2.78
377
1.54
382
2.18
323
1.41
379
1.19
373
3.92
392
2.01
380
4.19
391
3.89
391
2.98
379
5.47
392
4.18
384
3.28
385
8.24
389
4.27
367
1.13
383
1.01
399
1.18
382
1.13
392
1.19
379
1.13
379
FADEtwo views26.94
422
6.16
412
20.86
412
1.90
386
1.95
387
2.92
376
2.01
380
5.55
402
5.12
399
2.92
378
2.17
343
4.13
383
14.15
412
10.56
410
10.39
395
193.84
437
2.80
411
122.45
434
126.70
434
1.14
377
1.11
377
IMH-64-1two views2.82
379
1.87
389
1.77
292
3.31
403
2.69
400
3.22
382
2.07
382
4.25
392
2.77
378
2.46
363
3.78
378
3.05
373
2.34
372
4.67
330
3.00
356
3.84
405
0.84
388
2.75
402
1.39
394
3.34
401
2.93
403
IMH-64two views2.82
379
1.87
389
1.77
292
3.31
403
2.69
400
3.22
382
2.07
382
4.25
392
2.77
378
2.46
363
3.78
378
3.05
373
2.34
372
4.67
330
3.00
356
3.84
405
0.84
388
2.75
402
1.39
394
3.34
401
2.93
403
LSMtwo views6.55
402
1.26
371
15.64
404
1.79
383
68.74
432
1.67
320
2.08
384
2.26
319
2.59
368
3.13
384
3.08
370
1.90
323
1.81
349
2.89
292
2.16
339
0.43
325
0.59
378
0.50
346
0.58
365
0.64
351
17.24
423
Deantwo views3.77
391
1.65
385
17.87
407
3.01
400
2.54
399
3.15
380
2.10
385
4.80
397
4.42
394
2.89
375
6.03
393
5.45
393
2.55
378
3.40
307
2.13
337
3.22
396
0.89
392
2.51
399
1.07
391
3.07
398
2.65
401
TorneroNet-64two views5.41
398
2.10
395
2.43
332
3.49
406
2.83
403
9.90
408
2.13
386
8.87
412
16.79
416
5.39
404
9.18
407
10.68
412
3.92
394
9.55
399
5.11
374
3.36
400
0.86
390
2.88
405
1.62
401
3.76
404
3.37
406
RTStwo views2.76
375
1.55
383
15.40
401
1.13
367
1.42
379
3.75
389
2.21
387
2.45
343
2.72
376
2.91
376
2.85
365
2.58
365
1.62
331
6.28
362
5.80
378
0.41
320
0.30
303
0.35
300
0.35
320
0.52
328
0.54
324
RTSAtwo views2.76
375
1.55
383
15.40
401
1.13
367
1.42
379
3.75
389
2.21
387
2.45
343
2.72
376
2.91
376
2.85
365
2.58
365
1.62
331
6.28
362
5.80
378
0.41
320
0.30
303
0.35
300
0.35
320
0.52
328
0.54
324
notakertwo views4.29
393
2.42
401
5.06
371
3.89
411
3.29
409
4.00
393
2.25
389
4.93
399
3.47
387
4.21
395
6.79
396
7.67
401
3.37
387
9.25
397
6.47
380
4.09
410
1.42
407
3.35
411
2.13
408
4.11
408
3.54
408
LVEtwo views3.40
390
1.80
387
2.21
325
2.90
398
2.44
398
3.27
384
2.25
389
4.80
397
5.06
398
2.43
360
6.79
396
5.99
395
2.64
379
9.20
395
2.28
342
3.30
399
1.11
404
2.38
393
1.48
400
2.95
395
2.62
399
TorneroNettwo views10.72
411
2.09
394
2.76
342
3.48
405
3.03
405
44.72
428
2.31
391
8.62
411
67.06
437
7.45
410
23.21
421
10.59
411
4.28
396
9.03
392
9.00
390
3.67
403
0.91
394
3.04
406
1.63
402
3.92
406
3.55
409
SAMSARAtwo views1.80
343
0.90
346
3.37
355
1.28
375
1.13
366
3.71
387
2.33
392
2.53
357
1.93
348
3.17
385
1.73
300
2.99
372
1.68
339
3.53
309
2.46
348
0.47
341
0.54
371
0.43
332
0.47
348
0.59
343
0.64
348
AnyNet_C32two views2.14
362
1.45
377
7.38
381
0.95
356
1.12
363
2.23
355
2.34
393
2.10
288
1.54
313
2.44
361
1.79
307
2.04
345
1.66
337
2.69
284
10.48
396
0.38
308
0.35
328
0.35
300
0.42
336
0.50
325
0.60
343
WAO-6two views2.98
385
1.67
386
1.88
302
2.38
392
2.30
395
3.53
385
2.37
394
4.38
394
4.64
397
2.42
359
4.50
382
4.85
389
2.99
381
5.22
337
5.37
376
1.77
385
1.16
405
2.31
391
1.47
399
2.42
386
1.99
390
AnyNet_C01two views2.38
369
2.21
397
10.17
392
0.99
359
0.79
328
3.12
379
2.37
394
2.69
367
1.89
346
2.58
368
2.44
356
2.70
369
1.86
352
3.65
310
7.12
384
0.41
320
0.41
347
0.40
326
0.42
336
0.68
356
0.79
363
MSC_U_SF_DS_RVCtwo views2.22
365
1.29
374
4.14
365
1.10
366
0.78
326
5.00
400
2.38
396
2.47
348
2.67
375
1.94
342
2.28
348
2.66
368
1.70
340
9.10
393
2.29
344
0.68
368
0.52
369
0.68
368
0.71
373
1.17
378
0.81
365
MFN_U_SF_DS_RVCtwo views1.80
343
1.11
363
4.33
367
0.84
327
0.77
322
3.70
386
2.41
397
2.04
276
1.85
344
1.75
323
1.90
324
1.92
327
1.25
295
7.33
379
1.45
294
0.47
341
0.47
361
0.53
352
0.77
375
0.50
325
0.55
330
ELAScopylefttwo views2.67
374
0.80
337
2.13
320
1.13
367
1.15
370
6.25
404
2.56
398
3.50
384
3.68
389
5.36
403
4.92
390
3.79
380
5.56
399
3.65
310
5.22
375
0.66
365
0.57
375
0.56
360
0.54
361
0.65
353
0.75
360
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
KSHMRtwo views8.76
409
2.14
396
3.59
358
3.60
408
3.13
406
4.15
396
2.67
399
5.61
404
58.90
436
3.04
381
55.71
436
4.94
390
2.54
377
4.61
329
3.05
358
3.49
402
1.57
409
3.14
407
1.98
406
3.84
405
3.49
407
UNDER WATERtwo views5.68
400
2.46
403
15.52
403
3.98
413
3.53
410
5.15
401
2.74
400
5.58
403
16.41
414
4.00
388
4.56
383
9.12
406
6.43
403
6.22
360
9.11
391
3.85
407
1.35
406
3.18
409
1.98
406
4.51
411
3.84
412
HanzoNettwo views11.92
412
5.12
411
17.18
405
4.19
414
3.59
412
5.16
402
2.82
401
7.41
409
9.96
405
33.31
432
27.60
423
22.25
422
37.31
427
18.18
417
13.57
401
8.13
416
3.44
414
3.50
412
3.44
412
7.77
418
4.52
414
ktntwo views4.56
394
2.41
400
2.54
335
3.79
410
3.25
407
4.81
399
2.91
402
5.52
401
7.36
403
4.12
392
14.55
413
7.54
400
3.70
390
7.84
385
3.35
359
4.06
409
1.86
410
3.26
410
2.22
409
3.27
400
2.86
402
UNDER WATER-64two views5.84
401
2.48
404
17.93
408
3.97
412
3.58
411
7.70
405
3.03
403
5.72
405
14.13
408
4.18
394
4.00
380
9.27
407
6.80
404
6.20
359
9.22
392
3.67
403
1.52
408
3.14
407
1.95
404
4.43
410
3.83
411
LE_ROBtwo views8.35
407
0.47
259
27.42
423
0.83
323
0.34
122
2.84
374
3.36
404
4.03
390
27.04
423
25.20
423
8.72
406
8.55
405
27.35
423
7.37
380
22.13
415
0.22
149
0.20
208
0.20
70
0.21
164
0.25
196
0.25
160
PWCKtwo views3.24
388
2.37
398
10.86
394
2.14
387
1.14
368
3.71
387
4.19
405
3.02
378
3.55
388
3.05
382
3.63
376
3.09
376
2.35
374
8.16
388
3.41
360
2.17
389
0.96
396
1.77
385
1.01
388
2.84
391
1.40
384
ELAS_RVCcopylefttwo views2.87
383
0.80
337
3.22
352
1.16
372
1.12
363
2.92
376
5.33
406
2.98
377
4.18
393
5.04
401
4.82
388
4.71
388
8.23
407
4.25
321
4.79
371
0.67
366
0.57
375
0.57
362
0.53
360
0.66
354
0.74
358
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MADNet++two views5.41
398
3.18
409
6.43
376
4.66
415
3.95
413
6.15
403
6.75
407
4.51
395
4.51
396
5.06
402
6.27
394
4.96
391
6.14
401
9.39
398
11.70
398
4.71
411
4.19
415
3.97
413
3.33
411
4.08
407
4.25
413
JetBluetwo views4.18
392
2.45
402
10.42
393
1.40
376
2.89
404
10.68
410
10.68
408
3.91
388
2.52
365
2.74
370
3.39
373
4.50
385
4.27
395
7.97
386
7.67
387
0.89
372
0.97
397
0.89
374
0.92
380
2.26
385
2.21
392
CrosDoStereotwo views1.56
326
0.26
19
0.78
88
0.51
57
0.29
51
0.66
115
11.86
409
1.18
95
1.00
114
1.35
239
1.76
303
0.99
165
1.83
350
6.64
369
0.83
206
0.19
65
0.15
112
0.20
70
0.22
186
0.18
34
0.25
160
DeepStereo_LLtwo views1.56
326
0.26
19
0.78
88
0.51
57
0.29
51
0.66
115
11.86
409
1.18
95
1.00
114
1.35
239
1.76
303
0.99
165
1.83
350
6.64
369
0.83
206
0.19
65
0.15
112
0.20
70
0.22
186
0.18
34
0.25
160
JetRedtwo views7.02
404
8.94
416
25.72
419
2.89
397
3.27
408
14.25
414
12.27
411
6.69
408
4.45
395
4.46
396
4.56
383
6.65
396
5.43
398
7.46
381
14.41
408
2.60
393
3.31
412
2.61
400
2.30
410
4.34
409
3.79
410
MANEtwo views7.50
405
0.64
310
7.97
382
1.40
376
2.10
388
16.86
416
12.56
412
12.91
416
17.51
419
8.50
411
11.60
409
14.66
414
13.33
409
12.02
413
13.28
400
0.62
361
0.52
369
0.52
348
1.90
403
0.56
338
0.58
338
SGM-ForestMtwo views7.81
406
0.48
262
11.02
395
0.74
292
0.40
170
16.83
415
12.72
413
7.91
410
8.13
404
11.53
413
10.25
408
22.44
423
14.01
411
17.02
416
20.52
414
0.38
308
0.39
344
0.37
312
0.36
322
0.37
276
0.38
279
SGM+DAISYtwo views5.38
397
1.28
373
8.24
383
1.27
374
1.16
372
10.62
409
16.01
414
2.93
376
2.53
366
8.64
412
13.03
411
8.26
404
13.38
410
6.34
365
7.59
386
1.07
380
1.05
401
1.00
378
0.98
384
1.02
373
1.12
378
tttwo views6.61
403
0.28
43
6.10
375
3.77
409
2.17
389
11.53
411
19.61
415
13.53
417
5.81
401
3.00
380
2.82
364
4.97
392
6.33
402
3.83
316
7.23
385
9.13
417
11.32
422
5.87
416
6.22
415
6.01
414
2.63
400
BEATNet-Init1two views27.39
423
21.01
422
73.65
435
1.07
363
0.80
330
56.07
430
22.82
416
33.14
428
31.71
425
51.78
436
52.93
435
65.63
436
48.54
435
48.75
437
36.36
427
0.52
351
0.47
361
0.54
353
0.54
361
0.64
351
0.72
356
AVERAGE_ROBtwo views40.42
430
42.30
435
42.61
425
36.91
427
35.54
425
30.42
423
27.59
417
37.45
430
38.45
434
44.87
434
44.27
433
37.55
428
36.69
425
41.82
428
40.25
428
45.36
434
46.73
435
47.09
431
46.32
430
42.47
431
43.74
432
HaxPigtwo views39.02
429
41.39
434
41.59
424
30.10
425
32.36
423
29.49
422
27.65
418
30.56
424
37.94
433
43.75
433
43.81
432
33.42
426
35.69
424
41.51
427
40.33
429
43.91
433
47.48
436
45.87
430
47.14
431
42.29
430
44.06
433
MEDIAN_ROBtwo views42.01
431
44.30
436
44.14
427
35.08
426
34.90
424
31.33
427
29.90
419
36.77
429
40.11
435
47.14
435
46.55
434
37.49
427
38.50
434
44.30
435
42.32
430
47.93
435
49.31
437
49.68
432
49.00
432
44.98
432
46.46
434
ASD4two views17.95
415
11.38
418
20.07
411
11.32
420
12.21
415
21.39
417
31.23
420
22.73
419
12.78
407
12.19
414
12.67
410
13.79
413
14.32
413
20.13
418
25.17
420
18.93
422
15.37
423
28.00
428
22.52
428
17.63
421
15.21
422
DGTPSM_ROBtwo views13.06
413
8.27
414
22.29
414
9.53
418
18.14
416
11.53
411
31.97
421
10.82
414
16.25
409
7.14
407
19.39
419
10.12
409
16.69
415
9.85
403
22.49
416
4.77
412
8.72
417
5.37
414
10.24
418
6.15
415
11.56
417
DPSMNet_ROBtwo views13.08
414
8.28
415
22.32
415
9.54
419
18.15
417
11.53
411
31.98
422
10.83
415
16.27
410
7.17
408
19.40
420
10.12
409
16.69
415
9.87
404
22.50
417
4.78
413
8.72
417
5.38
415
10.25
419
6.16
416
11.59
418
Anonymous_1two views42.79
432
18.71
419
24.75
416
21.81
421
45.16
431
27.68
419
37.52
423
28.64
423
16.34
411
14.72
417
14.53
412
20.60
416
17.82
417
21.52
419
25.88
421
113.45
436
8.91
419
100.63
433
126.37
433
158.50
437
12.31
419
DPSM_ROBtwo views19.12
416
19.13
420
25.13
417
22.15
422
20.86
420
28.06
420
37.75
424
27.18
421
16.95
417
14.25
415
15.07
414
21.66
417
18.69
418
21.83
420
26.51
422
10.15
419
9.30
420
10.45
419
10.41
420
14.00
419
12.85
420
DPSMtwo views19.12
416
19.13
420
25.13
417
22.15
422
20.86
420
28.06
420
37.75
424
27.18
421
16.95
417
14.25
415
15.07
414
21.66
417
18.69
418
21.83
420
26.51
422
10.15
419
9.30
420
10.45
419
10.41
420
14.00
419
12.85
420
xxxxx1two views54.34
435
26.72
423
27.03
420
114.14
434
99.00
434
30.68
424
47.19
426
32.52
425
26.09
420
17.85
418
17.48
416
21.86
419
20.92
420
24.38
423
33.78
424
34.73
430
41.33
432
157.67
435
175.68
435
65.82
433
71.99
435
tt_lltwo views54.34
435
26.72
423
27.03
420
114.14
434
99.00
434
30.68
424
47.19
426
32.52
425
26.09
420
17.85
418
17.48
416
21.86
419
20.92
420
24.38
423
33.78
424
34.73
430
41.33
432
157.67
435
175.68
435
65.82
433
71.99
435
fftwo views54.34
435
26.72
423
27.03
420
114.14
434
99.00
434
30.68
424
47.19
426
32.52
425
26.09
420
17.85
418
17.48
416
21.86
419
20.92
420
24.38
423
33.78
424
34.73
430
41.33
432
157.67
435
175.68
435
65.82
433
71.99
435
LSM0two views42.92
433
38.72
433
50.66
433
47.49
433
110.18
437
56.77
436
75.87
429
54.87
436
33.74
426
29.48
431
31.12
431
43.77
435
37.12
426
43.85
434
53.44
436
20.50
428
18.67
425
21.05
426
21.07
427
28.37
428
41.73
431
CasAABBNettwo views38.42
424
38.42
428
50.26
428
44.76
429
41.87
426
56.47
434
76.22
430
54.44
434
33.92
427
28.53
425
30.36
427
43.53
433
37.59
432
43.77
433
53.32
432
20.27
423
18.70
426
21.03
425
21.04
423
28.19
423
25.79
424
MyStereo03two views38.45
425
38.46
430
50.33
429
44.93
430
42.03
428
56.44
431
76.24
431
54.16
431
34.06
429
28.68
427
30.42
428
43.46
429
37.33
428
43.76
430
53.43
433
20.29
424
18.73
428
21.02
422
21.05
424
28.19
423
25.91
426
MyStereo02two views38.45
425
38.46
430
50.33
429
44.93
430
42.03
428
56.44
431
76.24
431
54.16
431
34.06
429
28.68
427
30.42
428
43.46
429
37.33
428
43.76
430
53.43
433
20.29
424
18.73
428
21.02
422
21.05
424
28.19
423
25.91
426
MyStereotwo views38.45
425
38.46
430
50.33
429
44.93
430
42.03
428
56.44
431
76.24
431
54.16
431
34.06
429
28.68
427
30.42
428
43.46
429
37.33
428
43.76
430
53.43
433
20.29
424
18.73
428
21.02
422
21.05
424
28.19
423
25.91
426
Selective-RAFT-Errortwo views38.47
428
38.44
429
50.38
432
44.74
428
42.01
427
56.47
434
76.24
431
54.44
434
34.02
428
28.59
426
30.30
426
43.51
432
38.10
433
43.69
429
53.24
431
20.36
427
18.72
427
21.05
426
21.02
422
28.25
427
25.87
425
DPSimNet_ROBtwo views24.77
420
9.69
417
61.46
434
3.56
407
19.46
418
25.95
418
77.56
435
5.09
400
16.60
415
21.50
422
29.82
425
25.12
425
85.69
437
13.37
415
23.07
419
7.23
415
17.79
424
8.55
417
7.57
416
4.57
413
31.84
430
SPstereotwo views26.71
421
6.90
413
11.42
396
5.86
416
6.44
414
48.17
429
80.34
436
67.41
437
34.42
432
28.80
430
27.49
422
43.68
434
37.53
431
44.96
436
54.23
437
5.06
414
4.92
416
10.92
421
6.03
414
4.54
412
5.00
416
test_example2two views192.91
438
210.59
438
206.44
438
199.86
438
204.90
438
172.02
438
182.95
437
138.34
438
134.89
438
193.14
438
200.54
437
186.77
438
177.82
438
204.95
438
207.57
438
221.83
438
238.70
438
186.02
438
190.07
438
226.94
438
173.78
438
PMLtwo views51.64
434
37.49
427
14.31
400
7.45
417
20.27
419
107.80
437
231.34
438
8.94
413
27.70
424
86.74
437
268.93
438
69.03
437
61.09
436
24.71
426
14.36
407
9.71
418
3.40
413
9.60
418
4.67
413
20.46
422
4.76
415