This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
GrayStereotwo views0.71
230
0.27
1
2.40
112
0.89
345
0.23
108
0.62
181
1.40
389
0.67
86
0.70
177
0.72
280
0.77
289
0.55
163
3.03
395
0.60
106
0.28
41
0.10
47
0.08
38
0.10
46
0.21
268
0.12
25
0.37
160
AEACVtwo views0.89
304
0.29
2
1.84
17
2.50
403
1.68
394
0.53
65
0.21
29
1.01
289
0.42
9
0.68
261
0.31
25
0.22
8
0.39
145
1.63
266
0.25
23
0.09
11
2.60
407
0.09
13
0.54
370
0.23
186
2.27
399
PSM-AADtwo views0.67
210
0.29
2
2.41
116
0.37
166
0.23
108
0.86
312
1.15
375
0.62
70
0.66
123
0.64
235
0.71
267
0.67
218
2.90
394
0.65
121
0.32
77
0.10
47
0.08
38
0.17
274
0.15
194
0.14
51
0.34
147
EAI-Stereotwo views1.16
346
0.29
2
1.94
33
0.55
284
0.97
355
1.96
384
7.94
412
1.34
365
1.03
340
1.01
334
1.48
360
0.51
142
0.66
285
0.65
121
1.42
309
0.09
11
0.23
235
0.09
13
0.53
369
0.13
35
0.49
228
GLC_STEREOtwo views0.31
1
0.30
5
1.80
10
0.29
45
0.12
3
0.41
13
0.20
20
0.39
2
0.42
9
0.26
14
0.31
25
0.25
22
0.19
7
0.36
23
0.26
32
0.09
11
0.11
124
0.12
134
0.10
70
0.13
35
0.15
30
SST-Stereotwo views0.56
110
0.30
5
2.44
133
0.71
329
0.55
285
0.62
181
0.65
327
0.57
53
0.67
135
0.59
188
0.53
125
0.51
142
0.59
265
1.57
256
0.31
69
0.12
142
0.07
6
0.12
134
0.10
70
0.17
90
0.11
9
CAStwo views0.39
15
0.31
7
1.79
9
0.81
341
0.34
208
0.51
45
0.23
57
0.49
14
0.42
9
0.23
6
0.31
25
0.20
2
0.17
1
0.30
2
0.25
23
0.77
373
0.06
1
0.07
1
0.05
1
0.10
10
0.41
187
anonymousdsp2two views0.88
297
0.31
7
1.96
37
1.06
359
1.56
390
0.57
104
0.22
38
0.84
168
0.98
333
1.20
353
0.37
41
0.65
209
0.26
48
1.19
207
0.46
138
0.10
47
2.40
406
0.10
46
0.13
158
0.19
132
2.96
405
EGLCR-Stereotwo views0.90
307
0.31
7
1.90
26
1.60
383
0.95
351
1.14
351
0.42
251
0.85
178
0.43
13
1.74
381
0.21
1
0.27
35
0.17
1
1.56
252
0.30
55
0.10
47
2.60
407
0.10
46
0.09
37
0.10
10
3.10
407
RAFT_R40two views0.55
102
0.31
7
2.44
133
0.57
297
0.42
257
0.62
181
0.52
291
0.58
55
0.66
123
0.56
151
0.54
139
0.54
155
0.50
227
1.56
252
0.53
164
0.11
110
0.07
6
0.12
134
0.10
70
0.16
69
0.10
4
CRE-IMPtwo views0.46
45
0.31
7
2.40
112
0.53
277
0.17
37
0.79
295
0.68
335
0.54
39
0.66
123
0.47
63
0.43
63
0.44
106
0.26
48
0.43
44
0.33
86
0.12
142
0.07
6
0.12
134
0.09
37
0.17
90
0.23
84
R-Stereo Traintwo views0.42
22
0.31
7
2.51
173
0.30
59
0.18
47
0.56
85
0.25
98
0.82
151
0.41
5
0.57
163
0.67
234
0.33
55
0.24
26
0.34
15
0.33
86
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
RAFT-Stereopermissivetwo views0.42
22
0.31
7
2.51
173
0.30
59
0.18
47
0.56
85
0.25
98
0.82
151
0.41
5
0.57
163
0.67
234
0.33
55
0.24
26
0.34
15
0.33
86
0.10
47
0.08
38
0.09
13
0.07
12
0.09
5
0.18
56
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
AE-Stereotwo views0.71
230
0.32
14
2.44
133
0.44
236
0.50
273
0.58
111
0.23
57
1.08
333
0.67
135
0.67
255
0.51
115
0.47
127
0.24
26
0.63
113
0.32
77
0.09
11
2.15
398
0.11
92
0.45
357
0.22
172
2.01
380
CEStwo views0.33
4
0.32
14
1.46
2
0.25
5
0.50
273
0.40
12
0.20
20
0.48
11
0.48
27
0.22
3
0.29
17
0.26
28
0.19
7
0.35
21
0.22
4
0.09
11
0.07
6
0.08
3
0.05
1
0.16
69
0.54
245
riskmintwo views0.96
318
0.32
14
2.07
53
1.72
390
1.61
393
1.62
372
0.57
307
1.45
371
0.55
59
0.73
281
0.89
313
0.92
310
0.45
202
1.16
203
0.60
181
0.11
110
1.30
367
0.12
134
1.38
404
0.14
51
1.51
368
DCANet-4two views0.43
25
0.32
14
2.31
93
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.55
141
0.48
88
0.28
37
0.37
127
0.40
34
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
196
tttwo views4.94
407
0.32
14
4.22
379
2.29
402
1.58
391
10.19
414
16.94
417
9.44
415
5.03
402
1.69
380
1.33
355
4.68
401
5.02
405
3.38
392
5.91
404
6.15
413
9.47
420
2.80
410
3.16
412
3.54
410
1.58
370
BUStwo views0.45
40
0.32
14
1.58
3
0.31
73
0.22
86
0.91
324
0.23
57
1.05
315
0.67
135
0.64
235
0.53
125
0.65
209
0.32
106
0.48
58
0.34
94
0.13
184
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
BSDual-CNNtwo views0.48
55
0.32
14
1.58
3
0.31
73
0.22
86
0.76
276
0.32
189
1.05
315
0.67
135
0.64
235
0.53
125
0.63
199
0.38
134
0.48
58
0.97
257
0.13
184
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
psmgtwo views0.48
55
0.32
14
1.58
3
0.28
33
0.22
86
0.75
272
0.35
216
0.94
241
0.67
135
0.61
204
0.59
181
0.63
199
0.38
134
0.48
58
0.97
257
0.13
184
0.11
124
0.13
190
0.13
158
0.14
51
0.15
30
FTStereotwo views0.79
264
0.32
14
2.83
277
0.70
327
0.21
77
0.73
265
1.75
394
0.61
67
0.60
80
1.07
339
1.62
365
1.28
362
2.11
386
0.75
150
0.30
55
0.19
287
0.08
38
0.12
134
0.11
108
0.12
25
0.39
175
Any-RAFTtwo views0.42
22
0.33
23
1.89
25
0.28
33
0.21
77
0.69
249
0.21
29
0.83
161
0.60
80
0.45
51
0.43
63
0.62
195
0.30
97
0.48
58
0.24
15
0.11
110
0.40
277
0.08
3
0.06
6
0.10
10
0.16
43
NF-Stereotwo views0.53
91
0.33
23
2.55
188
0.55
284
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.44
239
0.78
231
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
OCTAStereotwo views0.53
91
0.33
23
2.54
181
0.56
293
0.16
20
0.61
159
0.42
251
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.79
234
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
RE-Stereotwo views0.53
91
0.33
23
2.54
181
0.56
293
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.77
227
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
TVStereotwo views0.53
91
0.33
23
2.54
181
0.56
293
0.16
20
0.61
159
0.43
258
0.70
98
0.70
177
0.50
99
0.47
82
0.37
66
0.26
48
1.43
235
0.77
227
0.12
142
0.07
6
0.12
134
0.10
70
0.13
35
0.17
49
GMM-Stereotwo views0.53
91
0.33
23
2.89
286
0.53
277
0.24
117
0.77
286
0.46
273
0.62
70
0.65
116
0.58
169
0.73
272
0.47
127
0.43
186
0.68
131
0.29
50
0.10
47
0.06
1
0.13
190
0.13
158
0.14
51
0.44
208
ICVPtwo views0.48
55
0.33
23
2.37
102
0.34
127
0.22
86
0.60
141
0.55
300
0.79
132
0.53
51
0.45
51
0.60
188
0.49
135
0.36
122
0.55
91
0.46
138
0.16
246
0.16
191
0.14
219
0.11
108
0.16
69
0.32
137
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
CASStwo views0.43
25
0.34
30
2.01
42
0.33
110
0.17
37
0.54
72
0.24
79
0.71
104
0.52
45
0.62
216
0.55
148
0.40
81
0.41
162
0.43
44
0.33
86
0.17
265
0.10
103
0.14
219
0.11
108
0.18
109
0.23
84
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
knoymoustwo views0.37
11
0.34
30
1.83
14
0.25
5
0.18
47
0.45
17
0.24
79
0.60
65
0.40
4
0.42
37
0.39
50
0.54
155
0.25
40
0.41
40
0.29
50
0.12
142
0.08
38
0.12
134
0.07
12
0.13
35
0.20
68
PSM-softLosstwo views0.52
82
0.34
30
2.47
161
0.55
284
0.17
37
0.61
159
0.39
240
0.64
78
0.67
135
0.52
118
0.48
88
0.39
73
0.25
40
1.46
240
0.77
227
0.13
184
0.08
38
0.13
190
0.12
138
0.12
25
0.15
30
KMStereotwo views0.52
82
0.34
30
2.47
161
0.55
284
0.17
37
0.61
159
0.39
240
0.64
78
0.67
135
0.52
118
0.48
88
0.39
73
0.25
40
1.46
240
0.77
227
0.13
184
0.08
38
0.13
190
0.12
138
0.12
25
0.15
30
NRIStereotwo views0.50
70
0.34
30
2.44
133
0.52
273
0.16
20
0.94
330
0.73
342
0.52
27
0.65
116
0.48
65
0.40
58
0.59
181
0.29
87
0.78
157
0.33
86
0.11
110
0.13
152
0.11
92
0.09
37
0.22
172
0.25
97
cross-rafttwo views0.47
48
0.34
30
2.17
71
0.70
327
0.84
341
0.50
43
0.35
216
0.74
108
0.43
13
0.44
49
0.45
75
0.63
199
0.25
40
0.37
24
0.27
36
0.08
1
0.14
165
0.10
46
0.23
275
0.11
17
0.27
107
s12784htwo views0.41
18
0.34
30
2.17
71
0.24
4
0.11
1
0.64
206
0.24
79
0.85
178
0.70
177
0.45
51
0.54
139
0.28
37
0.27
61
0.51
74
0.27
36
0.11
110
0.06
1
0.09
13
0.06
6
0.16
69
0.14
24
LoStwo views0.34
5
0.35
37
1.88
23
0.25
5
0.13
5
0.53
65
0.20
20
0.50
23
0.53
51
0.26
14
0.28
15
0.37
66
0.24
26
0.40
34
0.25
23
0.10
47
0.08
38
0.08
3
0.06
6
0.15
60
0.10
4
KYRafttwo views0.52
82
0.35
37
2.40
112
0.34
127
0.21
77
0.75
272
0.43
258
0.62
70
0.63
103
0.64
235
0.92
316
0.53
150
0.72
297
0.60
106
0.26
32
0.10
47
0.07
6
0.12
134
0.14
176
0.13
35
0.54
245
CREStereotwo views0.31
1
0.35
37
1.66
6
0.19
1
0.13
5
0.55
81
0.17
5
0.50
23
0.50
35
0.28
18
0.34
33
0.24
19
0.21
15
0.34
15
0.23
14
0.11
110
0.07
6
0.08
3
0.05
1
0.10
10
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
Patchmatch Stereo++two views0.43
25
0.36
40
2.44
133
0.48
253
0.17
37
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.56
94
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.43
25
0.36
40
2.44
133
0.48
253
0.18
47
0.61
159
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.49
68
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
ROB_FTStereo_v2two views0.43
25
0.36
40
2.44
133
0.49
264
0.17
37
0.61
159
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.44
106
0.28
71
0.48
58
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
ROB_FTStereotwo views0.43
25
0.36
40
2.44
133
0.48
253
0.18
47
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.51
74
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
HUI-Stereotwo views0.43
25
0.36
40
2.45
149
0.48
253
0.18
47
0.61
159
0.27
124
0.53
30
0.61
83
0.48
65
0.43
63
0.44
106
0.28
71
0.47
50
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
iGMRVCtwo views0.43
25
0.36
40
2.44
133
0.48
253
0.18
47
0.61
159
0.27
124
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.57
97
0.31
69
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
iRAFTtwo views0.43
25
0.36
40
2.44
133
0.48
253
0.17
37
0.61
159
0.26
110
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.56
94
0.30
55
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
RAFT-IKPtwo views0.43
25
0.36
40
2.44
133
0.48
253
0.16
20
0.60
141
0.28
132
0.53
30
0.61
83
0.48
65
0.43
63
0.43
91
0.28
71
0.51
74
0.31
69
0.12
142
0.08
38
0.12
134
0.10
70
0.17
90
0.13
12
Prome-Stereotwo views0.53
91
0.36
40
2.39
110
0.60
299
0.23
108
0.63
194
0.41
245
0.66
83
0.67
135
0.59
188
1.02
333
0.43
91
0.71
296
0.61
109
0.34
94
0.10
47
0.07
6
0.10
46
0.09
37
0.13
35
0.44
208
CFNet-RSSMtwo views0.44
37
0.36
40
2.38
104
0.28
33
0.43
258
0.53
65
0.20
20
0.86
190
0.52
45
0.44
49
0.36
37
0.53
150
0.26
48
0.40
34
0.27
36
0.09
11
0.08
38
0.09
13
0.38
345
0.10
10
0.22
76
MC-Stereotwo views0.58
125
0.37
50
2.00
40
0.88
344
0.64
314
0.54
72
0.19
12
0.46
9
0.39
3
0.58
169
0.39
50
0.27
35
0.27
61
0.71
140
0.32
77
0.09
11
1.20
353
0.09
13
0.16
211
0.22
172
1.92
378
DeepStereo_RVCtwo views0.47
48
0.37
50
2.19
74
0.55
284
0.18
47
0.60
141
0.58
309
0.52
27
0.62
92
0.49
81
0.45
75
0.39
73
0.85
321
0.47
50
0.34
94
0.12
142
0.08
38
0.11
92
0.09
37
0.15
60
0.19
60
RAFT-345two views0.56
110
0.37
50
2.68
238
0.40
210
0.34
208
0.58
111
0.41
245
0.49
14
0.70
177
0.51
110
0.99
329
0.43
91
0.28
71
1.56
252
0.81
240
0.10
47
0.07
6
0.11
92
0.09
37
0.11
17
0.09
2
CREStereo++_RVCtwo views0.38
13
0.37
50
2.47
161
0.25
5
0.16
20
0.54
72
0.15
1
0.42
4
0.57
66
0.37
25
0.52
122
0.24
19
0.19
7
0.31
3
0.27
36
0.09
11
0.06
1
0.08
3
0.30
308
0.09
5
0.22
76
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
Gwc-CoAtRStwo views0.41
18
0.37
50
2.06
52
0.28
33
0.41
247
0.48
32
0.19
12
0.64
78
0.49
29
0.45
51
0.39
50
0.57
174
0.26
48
0.37
24
0.28
41
0.09
11
0.19
208
0.09
13
0.31
313
0.11
17
0.25
97
LoS_RVCtwo views0.34
5
0.38
55
1.96
37
0.27
21
0.35
216
0.43
15
0.22
38
0.43
5
0.34
1
0.24
9
0.34
33
0.23
13
0.28
71
0.34
15
0.22
4
0.08
1
0.07
6
0.07
1
0.05
1
0.10
10
0.35
153
RCA-Stereotwo views0.45
40
0.38
55
1.80
10
0.27
21
0.25
123
0.58
111
0.23
57
0.84
168
0.66
123
0.42
37
0.44
74
0.28
37
0.35
120
0.31
3
0.21
1
0.09
11
1.01
338
0.09
13
0.07
12
0.21
158
0.53
242
Pruner-Stereotwo views0.55
102
0.38
55
2.49
169
1.78
392
0.19
63
0.63
194
0.45
268
0.59
62
0.67
135
0.61
204
0.48
88
0.41
86
0.25
40
0.49
68
0.99
265
0.13
184
0.07
6
0.12
134
0.10
70
0.13
35
0.14
24
PMTNettwo views0.35
7
0.38
55
1.75
8
0.21
2
0.14
8
0.57
104
0.24
79
0.48
11
0.44
16
0.28
18
0.32
31
0.26
28
0.24
26
0.41
40
0.24
15
0.42
355
0.07
6
0.08
3
0.05
1
0.18
109
0.15
30
IGEV_Zeroshot_testtwo views0.91
309
0.39
59
3.80
364
0.42
222
1.95
398
0.56
85
0.64
324
0.84
168
0.55
59
1.45
372
0.53
125
0.79
273
0.42
173
0.57
97
1.13
280
0.10
47
0.49
290
0.10
46
0.34
334
0.19
132
2.97
406
hknettwo views0.53
91
0.39
59
2.04
49
0.31
73
0.24
117
0.76
276
0.32
189
1.05
315
0.71
189
0.64
235
0.53
125
0.79
273
0.40
151
0.84
167
0.78
231
0.12
142
0.10
103
0.14
219
0.12
138
0.13
35
0.15
30
sCroCo_RVCtwo views0.37
11
0.39
59
2.38
104
0.35
142
0.27
148
0.31
5
0.22
38
0.49
14
0.48
27
0.23
6
0.34
33
0.25
22
0.24
26
0.35
21
0.25
23
0.15
232
0.17
198
0.12
134
0.11
108
0.15
60
0.15
30
SFCPSMtwo views0.48
55
0.39
59
2.30
91
0.28
33
0.27
148
0.70
252
0.32
189
1.00
281
0.69
167
0.50
99
0.52
122
0.43
91
0.36
122
0.53
85
0.44
130
0.12
142
0.09
81
0.12
134
0.16
211
0.18
109
0.23
84
CASnettwo views0.32
3
0.40
63
1.80
10
0.28
33
0.11
1
0.47
29
0.19
12
0.45
7
0.47
24
0.39
30
0.31
25
0.23
13
0.17
1
0.31
3
0.21
1
0.11
110
0.06
1
0.15
244
0.12
138
0.16
69
0.08
1
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
NINENettwo views0.54
98
0.40
63
2.19
74
0.55
284
0.26
137
0.91
324
0.23
57
1.05
315
0.77
237
0.54
130
0.57
170
0.65
209
0.32
106
1.22
209
0.34
94
0.16
246
0.13
152
0.16
260
0.11
108
0.16
69
0.14
24
AAGNettwo views0.92
310
0.40
63
2.53
177
0.60
299
1.01
361
0.62
181
0.45
268
0.52
27
0.68
159
0.58
169
0.53
125
0.50
139
0.72
297
1.22
209
7.32
408
0.12
142
0.07
6
0.12
134
0.10
70
0.16
69
0.10
4
DEmStereotwo views0.69
221
0.40
63
2.42
120
0.42
222
0.18
47
0.66
233
0.88
355
0.54
39
0.64
109
0.60
197
1.00
330
0.45
118
1.24
353
1.53
248
2.21
350
0.10
47
0.08
38
0.10
46
0.10
70
0.11
17
0.14
24
HSM-Net_RVCpermissivetwo views0.70
226
0.40
63
2.45
149
0.27
21
0.19
63
0.68
246
0.30
169
1.29
361
0.73
199
0.73
281
0.70
254
0.77
267
0.45
202
3.73
398
0.46
138
0.13
184
0.09
81
0.10
46
0.09
37
0.13
35
0.32
137
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
RAFT-Testtwo views0.56
110
0.41
68
2.01
42
0.90
347
1.07
366
0.65
220
0.37
226
0.83
161
0.65
116
0.49
81
0.49
101
0.93
315
0.24
26
0.52
78
0.30
55
0.10
47
0.38
271
0.09
13
0.38
345
0.11
17
0.19
60
DisPMtwo views0.48
55
0.41
68
2.54
181
0.61
305
0.18
47
0.59
129
0.62
322
0.54
39
0.67
135
0.61
204
0.53
125
0.38
71
0.26
48
0.76
152
0.31
69
0.13
184
0.07
6
0.12
134
0.11
108
0.12
25
0.15
30
Selective-IGEVtwo views0.57
117
0.42
70
1.87
22
1.67
387
1.33
380
0.36
10
0.20
20
0.61
67
0.71
189
0.22
3
0.31
25
0.22
8
0.19
7
0.52
78
0.36
103
0.09
11
0.97
335
0.09
13
0.15
194
0.20
149
0.85
311
CRFU-Nettwo views0.58
125
0.42
70
1.90
26
0.49
264
0.27
148
0.83
305
0.35
216
0.94
241
0.54
54
0.65
247
0.60
188
0.78
271
1.34
354
1.00
181
0.51
159
0.17
265
0.14
165
0.17
274
0.10
70
0.19
132
0.20
68
iRaft-Stereo_20wtwo views1.50
369
0.42
70
4.81
391
2.24
401
2.09
401
1.36
358
1.27
382
1.38
367
0.94
319
2.07
384
0.42
61
0.85
295
0.69
293
0.87
170
1.37
306
0.10
47
4.04
412
0.09
13
0.40
349
0.17
90
4.53
412
DAStwo views0.61
153
0.42
70
1.85
19
0.34
127
0.34
208
0.52
60
0.42
251
0.89
211
0.80
256
0.85
314
0.69
241
0.57
174
0.51
231
2.38
348
0.57
175
0.13
184
0.09
81
0.12
134
0.09
37
0.18
109
0.37
160
SepStereotwo views0.57
117
0.42
70
1.85
19
0.34
127
0.34
208
0.52
60
0.42
251
0.89
211
0.80
256
0.85
314
0.69
241
0.57
174
0.51
231
1.55
250
0.57
175
0.13
184
0.09
81
0.12
134
0.09
37
0.18
109
0.37
160
PFNettwo views0.62
166
0.42
70
2.69
244
0.43
232
0.55
285
0.62
181
0.27
124
0.64
78
0.72
196
0.61
204
0.56
160
0.45
118
0.33
111
1.86
305
1.12
279
0.28
339
0.09
81
0.12
134
0.16
211
0.26
222
0.27
107
test-3two views0.58
125
0.43
76
2.44
133
0.52
273
0.59
295
0.46
20
0.23
57
0.77
118
0.49
29
0.52
118
0.29
17
0.44
106
0.22
18
0.59
101
0.97
257
0.08
1
1.27
362
0.10
46
0.35
336
0.29
251
0.62
264
test_1two views0.58
125
0.43
76
2.44
133
0.52
273
0.59
295
0.46
20
0.23
57
0.77
118
0.49
29
0.51
110
0.29
17
0.44
106
0.22
18
0.59
101
0.97
257
0.08
1
1.27
362
0.10
46
0.35
336
0.29
251
0.63
268
PFNet+two views0.50
70
0.43
76
2.54
181
0.49
264
0.18
47
0.58
111
0.76
344
0.54
39
0.72
196
0.56
151
0.48
88
0.39
73
0.26
48
0.94
178
0.33
86
0.14
214
0.09
81
0.14
219
0.13
158
0.12
25
0.16
43
LCNettwo views0.58
125
0.43
76
2.42
120
0.91
349
0.22
86
0.95
332
0.29
157
0.62
70
0.64
109
0.52
118
0.55
148
0.41
86
0.75
308
0.84
167
0.27
36
0.10
47
0.07
6
0.12
134
0.18
232
0.97
378
0.40
180
GMStereo_Zeroshotpermissivetwo views0.44
37
0.44
80
1.84
17
0.44
236
0.20
68
0.52
60
0.19
12
0.60
65
0.54
54
0.58
169
0.59
181
0.63
199
0.29
87
0.59
101
0.34
94
0.16
246
0.09
81
0.16
260
0.09
37
0.26
222
0.26
102
MSKI-zero shottwo views0.70
226
0.44
80
2.62
211
1.47
377
0.75
328
0.56
85
0.20
20
0.80
137
0.45
17
0.60
197
0.52
122
0.44
106
0.17
1
0.70
134
0.26
32
0.09
11
2.87
410
0.09
13
0.32
318
0.14
51
0.50
230
test_3two views0.59
140
0.44
80
2.44
133
0.53
277
0.59
295
0.48
32
0.30
169
0.79
132
0.52
45
0.51
110
0.30
20
0.45
118
0.22
18
0.59
101
0.97
257
0.08
1
1.25
358
0.11
92
0.35
336
0.30
257
0.62
264
Anonymoustwo views0.41
18
0.44
80
2.55
188
0.35
142
0.32
193
0.38
11
0.34
207
0.57
53
0.41
5
0.25
11
0.30
20
0.23
13
0.29
87
0.38
26
0.28
41
0.15
232
0.13
152
0.11
92
0.12
138
0.24
192
0.30
127
AdaStereotwo views0.48
55
0.44
80
2.18
73
0.36
156
0.20
68
0.59
129
0.29
157
0.97
264
0.74
216
0.52
118
0.55
148
0.61
190
0.33
111
0.52
78
0.44
130
0.18
276
0.08
38
0.17
274
0.11
108
0.18
109
0.24
93
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
PSMNet-ADLtwo views0.56
110
0.47
85
2.03
46
0.35
142
0.22
86
0.67
240
0.27
124
0.77
118
0.58
72
0.43
43
0.53
125
0.70
247
0.45
202
1.89
310
0.64
195
0.16
246
0.13
152
0.11
92
0.13
158
0.15
60
0.51
234
ASMatchtwo views0.61
153
0.47
85
2.72
251
0.91
349
0.36
222
0.56
85
0.24
79
0.54
39
0.67
135
0.48
65
1.20
346
0.47
127
0.65
279
1.33
225
0.93
254
0.10
47
0.08
38
0.11
92
0.11
108
0.10
10
0.17
49
DRafttwo views0.65
190
0.47
85
2.38
104
0.25
5
0.17
37
0.64
206
0.65
327
0.56
48
0.57
66
0.67
255
0.98
326
0.38
71
0.99
339
1.42
234
2.06
339
0.11
110
0.14
165
0.10
46
0.14
176
0.18
109
0.21
72
Selective-RAFTtwo views0.46
45
0.48
88
1.88
23
0.32
90
0.16
20
0.61
159
0.19
12
0.66
83
0.62
92
0.28
18
0.30
20
0.41
86
0.33
111
0.51
74
0.32
77
0.11
110
1.09
347
0.09
13
0.35
336
0.19
132
0.37
160
11t1two views0.60
146
0.49
89
2.19
74
0.35
142
0.58
294
0.48
32
0.21
29
0.72
105
0.73
199
0.49
81
0.47
82
0.35
62
0.34
118
0.61
109
0.71
214
0.12
142
1.26
361
0.10
46
0.29
302
0.16
69
1.22
348
Anonymous_2two views1.36
359
0.49
89
2.03
46
1.71
389
1.58
391
2.49
396
0.58
309
1.59
378
2.31
389
0.77
293
0.88
311
1.03
337
0.58
262
1.20
208
0.66
203
0.32
346
1.38
371
1.42
399
3.87
413
0.78
373
1.56
369
CrosDoStereotwo views0.96
318
0.49
89
2.66
226
0.27
21
0.33
199
0.54
72
3.69
403
0.77
118
0.66
123
0.70
269
1.39
357
0.53
150
1.47
364
1.77
287
3.02
374
0.10
47
0.08
38
0.11
92
0.11
108
0.22
172
0.30
127
DeepStereo_LLtwo views0.96
318
0.49
89
2.66
226
0.27
21
0.33
199
0.54
72
3.69
403
0.77
118
0.66
123
0.70
269
1.39
357
0.53
150
1.47
364
1.77
287
3.02
374
0.10
47
0.08
38
0.11
92
0.11
108
0.22
172
0.30
127
AnonymousMtwo views0.45
40
0.49
89
1.83
14
0.29
45
0.15
13
0.53
65
0.22
38
0.64
78
0.66
123
0.47
63
0.33
32
0.30
42
0.25
40
0.49
68
0.29
50
0.12
142
0.27
254
0.71
377
0.37
342
0.12
25
0.41
187
Anonymous3two views0.47
48
0.49
89
2.61
207
0.33
110
0.25
123
0.72
262
0.32
189
0.80
137
0.60
80
0.36
23
0.41
59
0.33
55
0.29
87
0.46
48
0.30
55
0.19
287
0.18
204
0.13
190
0.13
158
0.18
109
0.22
76
PCWNet_CMDtwo views0.48
55
0.50
95
2.23
81
0.27
21
0.20
68
0.56
85
0.22
38
0.78
125
0.67
135
0.49
81
0.55
148
0.68
230
0.56
250
0.48
58
0.32
77
0.11
110
0.10
103
0.14
219
0.10
70
0.19
132
0.43
196
CFNet_pseudotwo views0.47
48
0.50
95
2.19
74
0.26
15
0.20
68
0.56
85
0.22
38
0.80
137
0.62
92
0.50
99
0.56
160
0.68
230
0.47
217
0.53
85
0.33
86
0.11
110
0.10
103
0.15
244
0.10
70
0.18
109
0.33
140
DIP-Stereotwo views0.43
25
0.50
95
2.21
79
0.27
21
0.18
47
0.63
194
0.17
5
0.94
241
0.58
72
0.49
81
0.48
88
0.30
42
0.30
97
0.40
34
0.31
69
0.10
47
0.08
38
0.10
46
0.08
27
0.15
60
0.33
140
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
MSMDNettwo views0.48
55
0.50
95
2.23
81
0.27
21
0.20
68
0.56
85
0.22
38
0.78
125
0.67
135
0.49
81
0.55
148
0.68
230
0.56
250
0.48
58
0.32
77
0.11
110
0.10
103
0.13
190
0.10
70
0.18
109
0.43
196
ccs_robtwo views0.47
48
0.50
95
2.19
74
0.26
15
0.20
68
0.56
85
0.22
38
0.80
137
0.62
92
0.50
99
0.56
160
0.68
230
0.47
217
0.53
85
0.33
86
0.11
110
0.10
103
0.16
260
0.10
70
0.18
109
0.33
140
ttttwo views0.89
304
0.51
100
2.51
173
0.36
156
0.31
182
0.61
159
0.28
132
1.07
330
0.92
312
0.56
151
0.77
289
0.55
163
0.37
127
2.27
338
3.51
382
0.16
246
1.21
356
0.13
190
0.31
313
0.18
109
1.26
350
CoDeXtwo views0.54
98
0.52
101
2.25
83
0.30
59
0.26
137
0.61
159
0.32
189
1.03
301
0.73
199
0.49
81
0.56
160
0.52
149
0.40
151
1.59
263
0.38
112
0.12
142
0.09
81
0.11
92
0.10
70
0.15
60
0.22
76
HHtwo views0.79
264
0.52
101
2.72
251
1.45
375
0.80
337
0.91
324
0.23
57
0.76
112
0.76
229
0.64
235
0.55
148
0.87
301
0.41
162
0.94
178
0.45
134
0.09
11
1.20
353
0.10
46
0.09
37
0.16
69
2.16
387
HanStereotwo views0.79
264
0.52
101
2.72
251
1.45
375
0.80
337
0.91
324
0.23
57
0.76
112
0.76
229
0.64
235
0.55
148
0.87
301
0.41
162
0.94
178
0.45
134
0.09
11
1.20
353
0.10
46
0.09
37
0.16
69
2.16
387
mmmtwo views0.66
207
0.53
104
1.83
14
0.38
184
0.86
342
0.49
37
0.27
124
0.82
151
0.83
274
0.59
188
0.69
241
0.47
127
0.38
134
0.81
165
0.73
219
0.12
142
1.37
370
0.14
219
0.45
357
0.18
109
1.35
359
MDST_ROBtwo views1.28
352
0.53
104
3.84
367
0.55
284
0.45
262
4.06
404
0.60
315
1.36
366
0.89
305
2.18
389
1.17
344
0.98
326
0.72
297
4.28
401
2.12
343
0.20
295
0.16
191
0.19
295
0.17
224
0.20
149
0.84
307
SMFormertwo views0.64
185
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
288
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.86
249
0.13
184
1.01
338
0.11
92
0.26
288
0.17
90
0.84
307
ttatwo views0.63
178
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
288
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.86
249
0.13
184
1.01
338
0.11
92
0.26
288
0.19
132
0.59
257
qqq1two views0.62
166
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
288
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.64
195
0.13
184
1.01
338
0.09
13
0.24
277
0.19
132
0.59
257
fff1two views0.62
166
0.54
106
1.92
29
0.32
90
0.16
20
0.46
20
0.24
79
0.94
241
0.85
288
0.58
169
0.70
254
0.51
142
0.41
162
1.89
310
0.64
195
0.13
184
1.01
338
0.09
13
0.24
277
0.19
132
0.59
257
test-1two views0.61
153
0.54
106
2.09
56
0.31
73
1.37
382
0.51
45
0.28
132
0.83
161
0.50
35
0.42
37
0.55
148
0.54
155
0.24
26
0.38
26
1.25
295
0.10
47
1.08
346
0.10
46
0.17
224
0.11
17
0.77
296
pcwnet_v2two views0.65
190
0.54
106
4.29
384
0.33
110
0.27
148
0.60
141
0.25
98
1.02
295
0.92
312
0.61
204
0.69
241
0.62
195
0.54
243
0.67
127
0.38
112
0.18
276
0.15
179
0.15
244
0.14
176
0.21
158
0.49
228
GEStwo views0.49
66
0.54
106
2.37
102
0.31
73
0.19
63
0.61
159
0.30
169
0.93
236
0.52
45
0.49
81
0.53
125
0.40
81
0.43
186
0.59
101
0.67
205
0.16
246
0.11
124
0.12
134
0.10
70
0.20
149
0.30
127
EKT-Stereotwo views1.56
375
0.55
113
2.60
203
2.54
404
19.66
419
0.55
81
0.22
38
0.76
112
0.51
40
0.40
32
0.36
37
0.43
91
0.27
61
0.74
149
0.42
121
0.13
184
0.17
198
0.11
92
0.16
211
0.20
149
0.50
230
CFNet_ucstwo views0.50
70
0.55
113
2.28
87
0.27
21
0.22
86
0.58
111
0.23
57
0.90
219
0.69
167
0.54
130
0.64
218
0.68
230
0.44
194
0.55
91
0.34
94
0.14
214
0.12
139
0.16
260
0.11
108
0.19
132
0.38
168
GANet-ADLtwo views0.48
55
0.56
115
2.51
173
0.34
127
0.20
68
0.58
111
0.25
98
0.80
137
0.57
66
0.43
43
0.61
196
0.56
170
0.31
101
0.44
47
0.44
130
0.14
214
0.11
124
0.10
46
0.09
37
0.22
172
0.38
168
XX-Stereotwo views0.98
323
0.57
116
4.45
388
1.64
385
5.33
410
0.55
81
0.16
3
0.96
257
0.43
13
0.45
51
0.65
225
0.85
295
0.19
7
0.79
158
0.26
32
0.11
110
0.80
328
0.10
46
0.32
318
0.17
90
0.78
299
NVstereo2Dtwo views0.63
178
0.57
116
2.29
89
0.37
166
0.35
216
0.69
249
0.49
284
0.96
257
0.88
300
0.49
81
0.54
139
0.72
250
0.46
209
1.98
320
0.50
156
0.19
287
0.20
220
0.18
290
0.16
211
0.28
243
0.34
147
ff7two views0.65
190
0.58
118
2.09
56
0.39
197
0.60
300
0.56
85
0.23
57
0.49
14
0.62
92
1.00
330
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
389
0.10
46
0.18
232
0.24
192
2.22
394
fffftwo views0.65
190
0.58
118
2.09
56
0.39
197
0.60
300
0.56
85
0.23
57
0.49
14
0.62
92
1.00
330
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
389
0.10
46
0.18
232
0.24
192
2.22
394
11ttwo views0.65
190
0.58
118
2.09
56
0.39
197
0.60
300
0.56
85
0.23
57
0.49
14
0.62
92
1.00
330
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
389
0.10
46
0.18
232
0.24
192
2.22
394
ccc-4two views0.65
190
0.58
118
2.09
56
0.39
197
0.60
300
0.56
85
0.23
57
0.49
14
0.62
92
1.00
330
0.24
6
0.20
2
0.24
26
0.71
140
0.24
15
0.09
11
2.09
389
0.10
46
0.18
232
0.24
192
2.22
394
UNettwo views0.56
110
0.58
118
2.81
273
0.32
90
0.33
199
0.74
270
0.27
124
0.86
190
0.67
135
0.55
141
0.55
148
0.72
250
0.55
248
0.79
158
0.58
177
0.12
142
0.09
81
0.13
190
0.11
108
0.20
149
0.19
60
FENettwo views0.48
55
0.58
118
2.46
156
0.33
110
0.18
47
0.58
111
0.22
38
0.83
161
0.64
109
0.49
81
0.42
61
0.55
163
0.38
134
0.52
78
0.51
159
0.12
142
0.09
81
0.12
134
0.11
108
0.17
90
0.31
135
anonymousdsptwo views0.86
290
0.59
124
2.65
222
1.33
369
1.25
377
0.56
85
0.23
57
0.54
39
0.71
189
1.13
343
0.25
11
0.22
8
0.24
26
1.24
213
0.24
15
0.09
11
2.34
404
0.10
46
0.18
232
0.25
207
3.12
408
anonymousatwo views0.74
243
0.60
125
2.58
196
0.96
353
1.33
380
0.61
159
0.26
110
0.69
91
0.56
63
0.55
141
0.84
299
0.82
285
0.46
209
0.56
94
0.61
186
0.10
47
1.11
349
0.12
134
0.98
396
0.14
51
0.97
329
ProNettwo views0.46
45
0.60
125
1.85
19
0.35
142
0.67
318
0.49
37
0.25
98
0.53
30
0.57
66
0.21
1
0.24
6
0.22
8
0.20
14
0.52
78
0.22
4
0.09
11
0.47
286
0.10
46
0.09
37
0.23
186
1.33
356
IGEV-Stereopermissivetwo views0.86
290
0.60
125
2.65
222
1.35
371
1.25
377
0.56
85
0.23
57
0.54
39
0.71
189
1.14
344
0.25
11
0.22
8
0.24
26
1.24
213
0.24
15
0.09
11
2.34
404
0.10
46
0.18
232
0.25
207
3.13
409
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
222two views1.02
328
0.60
125
1.95
34
0.29
45
0.51
275
0.62
181
0.24
79
1.09
335
0.86
294
0.64
235
0.67
234
0.47
127
0.42
173
1.86
305
6.73
406
0.13
184
1.21
356
0.11
92
0.32
318
0.17
90
1.44
365
FAT-Stereotwo views0.72
238
0.60
125
2.86
283
0.37
166
0.29
163
0.64
206
0.55
300
1.01
289
0.91
310
0.76
291
0.94
318
0.93
315
0.79
313
1.82
298
0.60
181
0.19
287
0.19
208
0.17
274
0.16
211
0.23
186
0.47
218
CSP-Nettwo views0.55
102
0.61
130
1.81
13
0.30
59
0.23
108
0.77
286
0.35
216
0.90
219
0.62
92
0.62
216
0.60
188
0.65
209
0.42
173
1.76
284
0.47
141
0.17
265
0.12
139
0.10
46
0.10
70
0.21
158
0.16
43
TransformOpticalFlowtwo views0.65
190
0.61
130
2.67
233
0.45
243
0.26
137
0.62
181
0.28
132
0.88
205
0.76
229
0.76
291
0.74
275
0.90
309
0.84
318
1.82
298
0.80
236
0.10
47
0.07
6
0.11
92
0.09
37
0.12
25
0.19
60
ccnettwo views0.77
259
0.61
130
2.01
42
0.40
210
0.46
269
1.05
341
0.59
312
1.02
295
0.74
216
0.90
320
0.97
323
0.82
285
0.89
328
1.68
276
1.16
284
0.32
346
0.26
248
0.32
347
0.28
298
0.35
291
0.47
218
StereoDRNet-Refinedtwo views0.55
102
0.61
130
2.07
53
0.34
127
0.21
77
0.68
246
0.26
110
0.87
197
0.73
199
0.70
269
0.69
241
0.74
257
0.45
202
1.10
192
0.62
189
0.12
142
0.09
81
0.14
219
0.14
176
0.27
233
0.24
93
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
xtwo views0.65
190
0.62
134
2.12
63
0.36
156
0.61
307
0.48
32
0.24
79
0.80
137
0.89
305
0.50
99
0.56
160
0.44
106
0.36
122
0.62
112
0.80
236
0.11
110
1.44
375
0.11
92
0.39
348
0.16
69
1.34
358
STrans-v2two views0.69
221
0.62
134
2.66
226
0.28
33
0.23
108
0.57
104
0.32
189
1.01
289
0.77
237
0.92
323
0.84
299
0.88
305
0.92
333
1.81
295
1.19
287
0.10
47
0.07
6
0.10
46
0.09
37
0.12
25
0.30
127
qqqtwo views0.65
190
0.63
136
2.10
62
0.30
59
0.64
314
0.46
20
0.27
124
0.81
144
0.83
274
0.48
65
0.56
160
0.46
122
0.37
127
1.03
185
0.75
222
0.11
110
1.41
374
0.12
134
0.41
353
0.16
69
1.18
340
DISCOtwo views0.61
153
0.63
136
1.98
39
0.46
246
0.34
208
0.84
310
0.35
216
0.88
205
0.81
263
0.61
204
0.64
218
1.06
345
0.53
241
1.11
196
0.83
245
0.13
184
0.10
103
0.11
92
0.10
70
0.26
222
0.37
160
IPLGRtwo views0.58
125
0.64
138
3.12
312
0.37
166
0.18
47
0.62
181
0.54
296
1.06
327
0.69
167
0.73
281
0.46
77
0.50
139
0.44
194
1.12
198
0.31
69
0.10
47
0.08
38
0.11
92
0.09
37
0.21
158
0.20
68
xxxxtwo views0.97
321
0.64
138
2.14
67
0.30
59
0.67
318
0.64
206
0.24
79
1.09
335
0.91
310
0.57
163
0.65
225
0.58
178
0.39
145
1.57
256
5.49
403
0.13
184
1.38
371
0.11
92
0.32
318
0.17
90
1.41
363
test_xeamplepermissivetwo views0.98
323
0.65
140
2.12
63
0.29
45
0.67
318
0.60
141
0.28
132
1.08
333
0.85
288
0.62
216
0.70
254
0.44
106
0.41
162
1.95
318
5.45
402
0.12
142
1.33
369
0.11
92
0.31
313
0.18
109
1.42
364
MIF-Stereotwo views0.36
10
0.66
141
2.43
125
0.28
33
0.24
117
0.30
4
0.18
10
0.35
1
0.36
2
0.26
14
0.37
41
0.18
1
0.18
6
0.33
14
0.30
55
0.11
110
0.08
38
0.09
13
0.08
27
0.25
207
0.09
2
DualNettwo views0.97
321
0.67
142
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
326
0.54
130
0.74
275
0.67
218
0.40
151
0.64
117
3.86
388
0.10
47
2.16
399
0.15
244
0.33
328
0.25
207
2.19
389
ffmtwo views0.78
261
0.67
142
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
326
0.54
130
0.74
275
0.67
218
0.40
151
0.64
117
0.22
4
0.10
47
2.16
399
0.15
244
0.33
328
0.25
207
2.19
389
ff1two views1.07
337
0.67
142
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
0.85
178
0.96
326
0.54
130
0.74
275
0.67
218
0.40
151
2.75
376
3.86
388
0.10
47
2.16
399
0.15
244
0.33
328
0.25
207
2.19
389
mmxtwo views0.99
325
0.67
142
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
1.05
315
0.92
312
0.54
130
0.74
275
0.67
218
0.40
151
2.75
376
3.86
388
0.13
184
1.25
358
0.15
244
0.33
328
0.19
132
1.28
353
xxxcopylefttwo views0.99
325
0.67
142
3.39
333
0.32
90
0.22
86
0.58
111
0.28
132
1.05
315
0.92
312
0.54
130
0.74
275
0.67
218
0.40
151
2.75
376
3.86
388
0.13
184
1.25
358
0.15
244
0.33
328
0.19
132
1.28
353
HHNettwo views0.63
178
0.67
142
3.10
310
0.37
166
0.25
123
0.64
206
0.60
315
0.70
98
0.67
135
0.55
141
1.12
343
0.32
51
0.60
270
0.43
44
1.75
325
0.16
246
0.08
38
0.12
134
0.10
70
0.18
109
0.22
76
UPFNettwo views0.51
80
0.67
142
2.04
49
0.34
127
0.33
199
0.65
220
0.37
226
0.88
205
0.65
116
0.60
197
0.53
125
0.61
190
0.41
162
0.77
153
0.55
171
0.13
184
0.13
152
0.13
190
0.13
158
0.20
149
0.16
43
MyStereo07two views0.56
110
0.68
149
2.42
120
0.30
59
0.41
247
0.61
159
0.31
179
0.58
55
0.72
196
1.17
347
0.26
14
0.20
2
0.27
61
1.28
220
0.28
41
0.09
11
0.59
305
0.12
134
0.21
268
0.16
69
0.48
222
MyStereo04two views0.57
117
0.68
149
2.66
226
0.30
59
0.41
247
0.61
159
0.31
179
0.88
205
0.80
256
0.48
65
0.37
41
0.54
155
0.42
173
0.61
109
0.71
214
0.09
11
0.59
305
0.12
134
0.21
268
0.16
69
0.48
222
anonymitytwo views0.86
290
0.68
149
1.44
1
0.64
312
0.83
339
0.67
240
0.52
291
0.98
270
0.73
199
0.96
327
0.70
254
0.81
282
0.86
323
1.10
192
1.34
300
0.64
368
0.72
325
0.58
370
1.44
405
0.60
357
0.91
318
stereogantwo views0.74
243
0.68
149
2.82
275
0.40
210
0.40
242
1.05
341
0.42
251
0.99
275
0.96
326
0.78
301
0.86
307
1.15
358
0.73
300
1.57
256
0.56
173
0.20
295
0.19
208
0.20
305
0.16
211
0.37
302
0.34
147
DANettwo views0.85
287
0.68
149
2.41
116
1.18
367
0.48
271
0.77
286
1.23
381
0.93
236
1.53
376
0.90
320
0.72
270
0.97
325
0.57
255
1.86
305
1.05
272
0.18
276
0.16
191
0.19
295
0.16
211
0.26
222
0.67
277
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
TANstereotwo views0.39
15
0.70
154
2.48
166
0.23
3
0.12
3
0.54
72
0.16
3
0.41
3
0.47
24
0.45
51
0.51
115
0.26
28
0.22
18
0.34
15
0.21
1
0.10
47
0.10
103
0.08
3
0.07
12
0.09
5
0.18
56
G-Nettwo views1.02
328
0.70
154
3.23
316
0.60
299
0.66
317
2.00
388
0.71
339
0.78
125
0.70
177
1.14
344
2.53
386
1.29
364
1.01
341
1.47
242
1.74
324
0.25
329
0.24
238
0.24
325
0.26
288
0.37
302
0.40
180
MIF-Stereo (partial)two views0.41
18
0.71
156
2.67
233
0.27
21
0.24
117
0.32
6
0.17
5
0.56
48
0.46
18
0.26
14
0.37
41
0.25
22
0.26
48
0.46
48
0.35
101
0.11
110
0.08
38
0.12
134
0.10
70
0.21
158
0.15
30
gwcnet-sptwo views0.52
82
0.71
156
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
scenettwo views0.52
82
0.71
156
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
ssnettwo views0.52
82
0.71
156
2.66
226
0.32
90
0.22
86
0.66
233
0.31
179
0.84
168
0.69
167
0.61
204
0.49
101
0.46
122
0.43
186
0.77
153
0.48
144
0.12
142
0.11
124
0.11
92
0.11
108
0.19
132
0.19
60
CroCo-Stereocopylefttwo views0.35
7
0.71
156
1.67
7
0.32
90
0.17
37
0.19
1
0.21
29
0.79
132
0.54
54
0.22
3
0.25
11
0.55
163
0.22
18
0.28
1
0.28
41
0.10
47
0.08
38
0.08
3
0.07
12
0.12
25
0.10
4
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MyStereo06two views0.70
226
0.72
161
3.51
347
0.31
73
0.25
123
0.60
141
0.30
169
0.90
219
0.67
135
1.48
375
0.53
125
0.84
290
0.57
255
0.60
106
1.11
278
0.09
11
0.55
298
0.12
134
0.20
257
0.16
69
0.56
252
MyStereo05two views0.57
117
0.72
161
2.72
251
0.31
73
0.25
123
0.60
141
0.30
169
0.87
197
0.82
268
0.54
130
0.37
41
0.53
150
0.42
173
0.63
113
0.73
219
0.09
11
0.55
298
0.12
134
0.20
257
0.16
69
0.56
252
DPSNettwo views1.02
328
0.72
161
2.84
279
0.60
299
0.39
236
1.08
346
0.75
343
1.41
369
1.14
355
0.74
287
0.69
241
1.05
344
1.67
372
2.09
330
2.22
351
0.27
336
0.61
307
0.20
305
0.50
365
0.48
343
1.03
332
ACVNet-DCAtwo views0.67
210
0.73
164
2.43
125
0.67
320
0.52
277
0.76
276
0.24
79
0.81
144
0.83
274
0.77
293
0.39
50
0.25
22
0.38
134
0.70
134
0.22
4
0.10
47
2.13
394
0.11
92
0.09
37
0.16
69
1.18
340
xx1two views0.71
230
0.73
164
2.43
125
0.67
320
0.52
277
0.76
276
0.24
79
0.85
178
1.05
344
0.77
293
0.39
50
0.46
122
0.37
127
0.70
134
0.22
4
0.10
47
2.13
394
0.12
134
0.41
353
0.16
69
1.18
340
1test111two views0.72
238
0.73
164
2.43
125
0.67
320
0.52
277
0.76
276
0.24
79
0.81
144
0.83
274
0.77
293
0.39
50
0.25
22
0.38
134
1.03
185
0.75
222
0.10
47
2.13
394
0.11
92
0.09
37
0.16
69
1.18
340
cc1two views0.74
243
0.73
164
2.43
125
0.67
320
0.52
277
0.76
276
0.24
79
0.85
178
1.05
344
0.77
293
0.39
50
0.25
22
0.38
134
0.70
134
0.22
4
0.10
47
2.13
394
0.11
92
0.09
37
0.25
207
2.20
393
tt1two views0.74
243
0.73
164
2.34
98
0.67
320
0.63
310
0.75
272
0.24
79
0.85
178
0.96
326
0.81
305
0.38
47
0.26
28
0.35
120
0.64
117
0.22
4
0.10
47
2.16
399
0.11
92
0.09
37
0.25
207
2.19
389
test crocotwo views0.43
25
0.73
164
2.80
269
0.28
33
0.19
63
0.33
7
0.21
29
0.63
76
0.50
35
0.24
9
0.38
47
0.24
19
0.25
40
0.48
58
0.32
77
0.12
142
0.08
38
0.13
190
0.09
37
0.43
331
0.13
12
IERtwo views0.49
66
0.73
164
2.12
63
0.27
21
0.25
123
0.65
220
0.27
124
0.76
112
0.59
76
0.56
151
0.59
181
0.60
188
0.53
241
0.64
117
0.44
130
0.12
142
0.09
81
0.11
92
0.11
108
0.18
109
0.15
30
RAFT-RH_RVCtwo views0.65
190
0.73
164
2.78
266
0.39
197
0.29
163
0.60
141
0.18
10
0.45
7
0.63
103
0.75
289
1.89
370
0.47
127
0.29
87
1.59
263
1.21
289
0.15
232
0.07
6
0.13
190
0.13
158
0.11
17
0.10
4
S-Stereotwo views0.82
272
0.73
164
3.79
363
0.40
210
0.37
228
0.70
252
0.69
337
1.00
281
1.03
340
0.63
225
0.92
316
0.82
285
0.59
265
2.35
344
0.71
214
0.18
276
0.22
230
0.17
274
0.18
232
0.30
257
0.67
277
IGEVStereo-DCAtwo views0.74
243
0.74
173
2.09
56
0.76
332
0.77
333
0.45
17
0.23
57
0.49
14
0.62
92
0.71
278
0.22
2
0.30
42
0.28
71
1.29
221
1.53
316
0.10
47
1.50
376
0.10
46
0.18
232
0.24
192
2.22
394
rrrtwo views0.84
279
0.74
173
3.40
338
0.76
332
0.77
333
0.45
17
0.28
132
1.23
358
0.84
286
0.71
278
0.22
2
0.30
42
0.28
71
1.29
221
1.53
316
0.10
47
1.50
376
0.10
46
0.29
302
0.24
192
1.75
375
IRAFT_RVCtwo views0.59
140
0.74
173
2.42
120
0.47
252
0.21
77
0.59
129
0.42
251
0.68
89
0.73
199
0.54
130
0.50
113
0.49
135
0.51
231
1.57
256
1.00
267
0.11
110
0.25
245
0.13
190
0.10
70
0.15
60
0.14
24
edge stereotwo views0.84
279
0.74
173
3.42
342
0.38
184
1.21
375
0.63
194
0.41
245
0.98
270
0.83
274
0.81
305
0.88
311
1.14
356
0.73
300
2.16
334
0.89
251
0.22
308
0.20
220
0.26
332
0.18
232
0.38
308
0.43
196
HCRNettwo views0.50
70
0.75
177
2.08
55
0.39
197
0.29
163
0.58
111
0.22
38
0.79
132
0.67
135
0.49
81
0.49
101
0.48
133
0.37
127
1.13
199
0.40
115
0.15
232
0.10
103
0.15
244
0.13
158
0.21
158
0.19
60
test_xeample3two views0.86
290
0.75
177
3.36
328
0.65
314
0.76
331
0.49
37
0.33
202
1.21
357
0.80
256
0.61
204
0.23
5
0.30
42
0.29
87
1.17
205
1.57
318
0.10
47
1.79
382
0.10
46
0.40
349
0.25
207
2.09
383
CBMV_ROBtwo views0.88
297
0.75
177
2.73
256
0.36
156
0.22
86
0.76
276
0.47
277
1.05
315
0.81
263
1.06
338
1.04
337
0.88
305
1.36
357
2.17
335
2.03
336
0.23
316
0.24
238
0.27
333
0.25
282
0.27
233
0.73
293
DGSMNettwo views2.93
398
0.77
180
3.44
343
3.58
410
4.25
408
2.53
397
6.86
411
1.03
301
0.88
300
0.58
169
1.85
369
0.79
273
0.62
274
1.63
266
1.46
311
4.62
410
4.98
413
5.15
415
4.71
414
4.52
413
4.37
411
ac_64two views0.63
178
0.77
180
2.71
249
0.37
166
0.34
208
0.64
206
0.30
169
0.86
190
0.67
135
0.58
169
0.53
125
0.88
305
0.48
223
1.84
301
0.71
214
0.15
232
0.12
139
0.12
134
0.12
138
0.21
158
0.25
97
DSFCAtwo views0.62
166
0.77
180
1.95
34
0.29
45
0.29
163
0.79
295
0.86
352
0.81
144
0.73
199
0.73
281
0.66
231
0.67
218
0.57
255
1.17
205
1.03
270
0.16
246
0.15
179
0.13
190
0.14
176
0.19
132
0.28
113
GwcNet-ADLtwo views0.54
98
0.78
183
2.85
281
0.31
73
0.20
68
0.58
111
0.29
157
0.93
236
0.67
135
0.48
65
0.47
82
0.56
170
0.33
111
0.48
58
0.80
236
0.13
184
0.12
139
0.09
13
0.09
37
0.14
51
0.40
180
EDNetEfficienttwo views1.29
353
0.78
183
4.27
381
0.65
314
1.03
363
0.94
330
1.38
387
0.87
197
1.75
383
2.33
395
1.32
354
1.04
341
2.21
388
1.59
263
4.07
393
0.16
246
0.19
208
0.15
244
0.27
296
0.38
308
0.40
180
1111xtwo views1.06
335
0.79
185
3.29
324
0.33
110
0.60
300
0.64
206
0.33
202
1.10
338
0.92
312
0.59
188
0.69
241
0.59
181
0.47
217
2.64
366
4.61
398
0.12
142
1.38
371
0.11
92
0.49
363
0.18
109
1.30
355
DRN-Testtwo views0.71
230
0.79
185
2.83
277
0.40
210
0.44
259
0.80
298
0.41
245
1.07
330
0.83
274
0.82
309
0.64
218
0.68
230
0.57
255
1.78
290
0.79
234
0.16
246
0.13
152
0.17
274
0.16
211
0.24
192
0.51
234
DCREtwo views0.76
255
0.80
187
2.31
93
1.05
358
1.18
373
0.63
194
0.26
110
1.03
301
0.59
76
0.52
118
2.12
375
0.44
106
0.27
61
0.41
40
0.53
164
0.09
11
1.02
343
0.10
46
0.32
318
0.16
69
1.47
367
test_4two views0.47
48
0.80
187
2.15
68
0.36
156
0.29
163
0.59
129
0.28
132
0.50
23
0.42
9
0.43
43
0.76
285
0.39
73
0.22
18
0.73
146
0.49
153
0.08
1
0.18
204
0.11
92
0.15
194
0.29
251
0.27
107
DMCAtwo views0.50
70
0.83
189
1.95
34
0.32
90
0.24
117
0.59
129
0.26
110
0.81
144
0.68
159
0.59
188
0.49
101
0.56
170
0.36
122
0.65
121
0.65
200
0.14
214
0.10
103
0.14
219
0.10
70
0.19
132
0.29
119
iRaftStereo_RVCtwo views0.47
48
0.84
190
1.91
28
0.29
45
0.15
13
0.53
65
0.20
20
0.58
55
0.50
35
0.37
25
0.43
63
0.42
90
0.23
24
0.38
26
0.28
41
0.09
11
0.70
322
0.12
134
0.11
108
0.43
331
0.77
296
delettwo views0.60
146
0.84
190
2.45
149
0.33
110
0.35
216
0.73
265
0.46
273
0.89
211
0.80
256
0.58
169
0.62
203
0.67
218
0.51
231
1.14
201
0.64
195
0.12
142
0.12
139
0.13
190
0.14
176
0.22
172
0.29
119
THIR-Stereotwo views0.88
297
0.85
192
2.33
97
0.26
15
0.16
20
0.59
129
2.69
399
0.62
70
0.54
54
0.62
216
1.61
364
0.96
323
1.77
377
1.67
273
2.20
349
0.10
47
0.08
38
0.14
219
0.11
108
0.16
69
0.21
72
FC-DCNNcopylefttwo views1.60
378
0.85
192
3.44
343
0.46
246
0.39
236
1.96
384
0.66
329
1.72
382
1.70
381
2.75
402
2.91
397
4.20
397
3.15
397
2.72
372
2.66
365
0.30
343
0.26
248
0.31
345
0.30
308
0.33
274
0.91
318
whm_ethtwo views0.51
80
0.86
194
2.79
267
0.31
73
0.31
182
0.49
37
0.24
79
0.78
125
0.75
221
0.48
65
0.86
307
0.26
28
0.26
48
0.38
26
0.29
50
0.13
184
0.11
124
0.13
190
0.12
138
0.14
51
0.44
208
OMP-Stereotwo views0.64
185
0.87
195
2.38
104
0.56
293
0.37
228
0.60
141
0.26
110
0.75
110
0.71
189
0.65
247
0.60
188
0.68
230
0.32
106
2.07
325
1.18
285
0.11
110
0.08
38
0.12
134
0.09
37
0.17
90
0.28
113
IIG-Stereotwo views0.65
190
0.87
195
2.32
95
0.55
284
0.23
108
0.62
181
0.21
29
0.78
125
0.71
189
0.64
235
0.69
241
0.69
241
0.38
134
2.07
325
1.37
306
0.11
110
0.08
38
0.11
92
0.09
37
0.15
60
0.27
107
ACVNettwo views0.54
98
0.87
195
2.45
149
0.28
33
0.22
86
0.59
129
0.36
223
0.69
91
0.73
199
0.49
81
0.59
181
0.69
241
0.42
173
0.47
50
0.70
210
0.11
110
0.10
103
0.10
46
0.09
37
0.36
296
0.39
175
acv_fttwo views0.57
117
0.87
195
2.45
149
0.33
110
0.41
247
0.63
194
0.29
157
0.86
190
0.73
199
0.64
235
0.59
181
0.69
241
0.45
202
0.47
50
0.68
207
0.11
110
0.10
103
0.10
46
0.09
37
0.43
331
0.39
175
ToySttwo views0.67
210
0.88
199
2.61
207
0.39
197
0.73
326
0.61
159
0.38
234
0.78
125
0.73
199
0.43
43
0.70
254
0.72
250
0.45
202
0.66
124
0.62
189
0.14
214
0.63
311
0.13
190
0.33
328
0.24
192
1.18
340
TestStereotwo views0.49
66
0.88
199
2.38
104
0.30
59
0.16
20
0.43
15
0.25
98
0.55
47
0.46
18
0.38
28
0.46
77
0.34
59
0.28
71
1.96
319
0.28
41
0.11
110
0.08
38
0.12
134
0.09
37
0.15
60
0.13
12
sAnonymous2two views0.45
40
0.88
199
2.97
296
0.31
73
0.25
123
0.34
8
0.28
132
0.56
48
0.49
29
0.25
11
0.30
20
0.23
13
0.29
87
0.31
3
0.22
4
0.12
142
0.09
81
0.12
134
0.13
158
0.38
308
0.43
196
CroCo_RVCtwo views0.45
40
0.88
199
2.97
296
0.31
73
0.25
123
0.34
8
0.28
132
0.56
48
0.49
29
0.25
11
0.30
20
0.23
13
0.29
87
0.31
3
0.22
4
0.12
142
0.09
81
0.12
134
0.13
158
0.38
308
0.43
196
ELAS_RVCcopylefttwo views1.51
372
0.88
199
3.36
328
0.63
309
0.56
287
1.53
366
2.73
400
1.53
374
1.76
384
2.26
393
2.21
381
2.10
380
3.07
396
2.08
328
2.52
360
0.42
355
0.42
279
0.42
362
0.37
342
0.51
347
0.84
307
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
StereoIMtwo views0.35
7
0.89
204
2.15
68
0.25
5
0.29
163
0.29
3
0.17
5
0.47
10
0.41
5
0.21
1
0.22
2
0.28
37
0.21
15
0.32
13
0.31
69
0.10
47
0.09
81
0.10
46
0.08
27
0.11
17
0.12
10
GMOStereotwo views0.58
125
0.89
204
2.46
156
0.29
45
0.99
356
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
378
0.13
190
0.11
108
0.34
280
0.42
191
error versiontwo views0.58
125
0.89
204
2.46
156
0.29
45
0.99
356
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
378
0.13
190
0.11
108
0.34
280
0.42
191
test-vtwo views0.58
125
0.89
204
2.46
156
0.29
45
0.99
356
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
378
0.13
190
0.11
108
0.34
280
0.42
191
test-2two views0.58
125
0.89
204
2.46
156
0.29
45
0.99
356
0.51
45
0.32
189
0.58
55
0.46
18
0.58
169
0.48
88
0.54
155
0.27
61
0.31
3
0.25
23
0.09
11
1.64
378
0.13
190
0.11
108
0.34
280
0.42
191
ffftwo views0.50
70
0.90
209
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
279
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
196
csctwo views0.50
70
0.90
209
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
279
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
196
cscssctwo views0.50
70
0.90
209
2.63
212
0.25
5
0.15
13
0.51
45
0.22
38
0.85
178
0.82
268
0.55
141
0.48
88
0.31
47
0.65
279
0.39
30
0.37
106
0.10
47
0.07
6
0.09
13
0.07
12
0.08
1
0.43
196
CroCo-Stereo Lap2two views0.38
13
0.91
212
2.02
45
0.33
110
0.38
234
0.23
2
0.21
29
0.63
76
0.51
40
0.23
6
0.28
15
0.29
41
0.23
24
0.34
15
0.28
41
0.10
47
0.09
81
0.10
46
0.08
27
0.22
172
0.15
30
ADStereo(finetuned)two views0.50
70
0.91
212
2.43
125
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.56
151
0.49
101
0.32
51
0.75
308
0.40
34
0.40
115
0.10
47
0.07
6
0.09
13
0.07
12
0.13
35
0.45
213
DCANettwo views0.49
66
0.91
212
2.63
212
0.26
15
0.14
8
0.51
45
0.22
38
0.84
168
0.78
240
0.56
151
0.49
101
0.32
51
0.41
162
0.39
30
0.41
117
0.10
47
0.07
6
0.09
13
0.07
12
0.14
51
0.45
213
psmorigintwo views1.41
362
0.91
212
13.83
416
0.37
166
0.30
174
0.63
194
0.37
226
0.80
137
0.64
109
0.98
328
0.87
309
1.16
360
0.78
311
3.95
399
1.09
276
0.19
287
0.22
230
0.17
274
0.19
248
0.25
207
0.47
218
RYNettwo views0.77
259
0.91
212
2.36
100
0.37
166
0.41
247
0.88
318
0.44
264
0.99
275
0.88
300
0.65
247
0.54
139
0.92
310
0.61
272
2.70
371
1.23
293
0.15
232
0.14
165
0.17
274
0.14
176
0.27
233
0.55
251
MIM_Stereotwo views0.55
102
0.92
217
2.65
222
0.32
90
1.09
368
0.51
45
0.19
12
0.67
86
0.52
45
0.48
65
0.54
139
0.43
91
0.27
61
0.57
97
0.30
55
0.08
1
0.17
198
0.11
92
0.10
70
0.28
243
0.80
303
MMNettwo views0.55
102
0.92
217
2.03
46
0.34
127
0.27
148
0.79
295
0.28
132
0.86
190
0.79
249
0.62
216
0.58
176
0.59
181
0.56
250
0.80
162
0.61
186
0.11
110
0.11
124
0.12
134
0.11
108
0.21
158
0.22
76
HSMtwo views0.67
210
0.92
217
2.29
89
0.30
59
0.29
163
0.65
220
0.29
157
0.98
270
0.67
135
0.59
188
0.58
176
1.39
367
0.65
279
2.56
359
0.45
134
0.11
110
0.09
81
0.10
46
0.08
27
0.18
109
0.24
93
ELAScopylefttwo views1.52
373
0.92
217
2.91
289
0.62
307
0.57
290
3.13
399
2.21
398
1.67
380
1.58
379
2.42
396
2.43
384
1.87
377
2.49
391
1.85
303
2.70
367
0.42
355
0.43
282
0.41
360
0.40
349
0.51
347
0.85
311
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
STTStereotwo views0.58
125
0.95
221
2.95
294
0.37
166
0.31
182
0.62
181
0.32
189
0.81
144
0.63
103
0.61
204
0.55
148
0.67
218
0.43
186
0.87
170
0.48
144
0.16
246
0.16
191
0.17
274
0.20
257
0.17
90
0.25
97
DLCB_ROBtwo views0.61
153
0.96
222
2.00
40
0.37
166
0.25
123
0.65
220
0.37
226
0.86
190
0.76
229
0.73
281
0.70
254
0.84
290
0.47
217
1.57
256
0.72
218
0.13
184
0.13
152
0.14
219
0.14
176
0.18
109
0.33
140
ssnet_v2two views0.64
185
0.99
223
2.67
233
0.33
110
0.22
86
0.72
262
0.45
268
1.00
281
0.80
256
0.66
253
0.54
139
0.81
282
0.48
223
0.91
175
1.08
275
0.16
246
0.14
165
0.14
219
0.14
176
0.33
274
0.31
135
LMCR-Stereopermissivemany views0.61
153
1.00
224
2.60
203
0.42
222
0.22
86
0.74
270
0.31
179
1.06
327
0.70
177
0.62
216
0.64
218
0.40
81
0.52
238
0.84
167
1.27
297
0.20
295
0.09
81
0.12
134
0.09
37
0.26
222
0.16
43
PASMtwo views0.82
272
1.00
224
2.68
238
0.52
273
0.48
271
0.65
220
0.59
312
0.83
161
0.89
305
0.82
309
0.73
272
0.89
308
0.68
289
2.39
349
0.73
219
0.35
351
0.37
267
0.36
353
0.41
353
0.45
336
0.51
234
CBMVpermissivetwo views0.86
290
1.00
224
2.82
275
0.35
142
0.21
77
0.78
291
0.78
346
1.05
315
0.87
296
0.90
320
0.74
275
0.87
301
1.89
381
1.67
273
1.38
308
0.19
287
0.20
220
0.21
309
0.19
248
0.28
243
0.84
307
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
RPtwo views0.74
243
1.01
227
2.48
166
0.44
236
0.45
262
0.66
233
0.45
268
0.95
254
0.87
296
0.70
269
0.95
321
0.99
329
0.82
315
1.55
250
0.82
243
0.26
333
0.19
208
0.23
320
0.20
257
0.34
280
0.38
168
TRStereotwo views0.89
304
1.02
228
2.91
289
4.59
411
0.31
182
0.93
328
0.23
57
1.93
389
0.66
123
0.37
25
0.54
139
0.48
133
0.40
151
0.67
127
0.29
50
0.13
184
0.37
267
0.11
92
0.48
361
0.13
35
1.21
346
ADLNettwo views0.68
215
1.02
228
2.68
238
0.35
142
0.34
208
0.67
240
0.34
207
0.95
254
0.79
249
0.70
269
0.62
203
0.80
279
0.46
209
1.77
287
0.69
209
0.15
232
0.12
139
0.14
219
0.14
176
0.31
265
0.54
245
psm_uptwo views0.65
190
1.02
228
2.53
177
0.36
156
0.31
182
0.64
206
0.38
234
0.96
257
0.73
199
0.63
225
0.57
170
0.68
230
0.57
255
1.90
315
0.52
161
0.17
265
0.15
179
0.16
260
0.15
194
0.27
233
0.22
76
aanetorigintwo views0.81
269
1.03
231
2.64
221
0.44
236
0.44
259
0.59
129
1.00
365
0.59
62
0.70
177
1.54
377
1.22
348
0.82
285
1.08
346
1.06
187
1.07
274
0.18
276
0.15
179
0.17
274
0.21
268
0.53
351
0.65
274
NOSS_ROBtwo views0.75
252
1.03
231
2.27
85
0.68
325
0.26
137
0.68
246
0.30
169
0.99
275
0.82
268
0.59
188
0.58
176
0.77
267
0.39
145
2.75
376
0.48
144
0.25
329
0.24
238
0.28
335
0.26
288
0.29
251
1.07
335
MSMD_ROBtwo views1.41
362
1.03
231
2.75
260
0.41
219
0.32
193
2.00
388
0.61
320
0.96
257
1.43
370
2.97
403
2.63
390
4.76
402
2.04
385
2.44
354
1.78
328
0.30
343
0.26
248
0.32
347
0.32
318
0.32
270
0.63
268
XX-TBDtwo views0.40
17
1.04
234
2.49
169
0.35
142
0.13
5
0.51
45
0.17
5
0.44
6
0.52
45
0.38
28
0.51
115
0.23
13
0.19
7
0.31
3
0.25
23
0.10
47
0.07
6
0.08
3
0.06
6
0.09
5
0.18
56
RASNettwo views0.69
221
1.05
235
2.59
198
0.37
166
0.47
270
0.66
233
0.33
202
0.82
151
0.76
229
0.51
110
0.65
225
0.93
315
0.62
274
2.20
336
0.80
236
0.14
214
0.09
81
0.09
13
0.11
108
0.18
109
0.37
160
DeepPruner_ROBtwo views0.58
125
1.06
236
2.68
238
0.30
59
0.26
137
0.63
194
0.31
179
0.83
161
0.51
40
0.62
216
0.56
160
0.65
209
0.39
145
1.06
187
0.56
173
0.19
287
0.14
165
0.14
219
0.14
176
0.24
192
0.33
140
Sa-1000two views0.61
153
1.07
237
2.71
249
0.32
90
0.61
307
0.61
159
0.31
179
1.00
281
0.76
229
0.53
126
0.83
297
0.43
91
0.33
111
0.69
133
0.30
55
0.10
47
0.52
295
0.13
190
0.28
298
0.29
251
0.29
119
MIPNettwo views0.88
297
1.07
237
2.85
281
0.61
305
0.18
47
1.46
363
1.37
385
1.65
379
0.78
240
1.93
383
0.85
302
0.75
261
1.66
371
0.87
170
0.34
94
0.10
47
0.08
38
0.11
92
0.32
318
0.27
233
0.26
102
SGM_RVCbinarytwo views2.11
389
1.07
237
2.87
284
0.98
355
0.92
348
2.72
398
1.88
397
1.91
388
12.27
410
2.09
385
1.99
373
2.47
385
2.24
389
2.87
381
2.03
336
0.54
364
0.47
286
0.42
362
0.47
360
0.74
367
1.22
348
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SACVNettwo views0.68
215
1.08
240
2.58
196
0.38
184
0.28
158
0.65
220
0.37
226
0.91
226
0.65
116
0.67
255
0.62
203
0.69
241
0.47
217
2.07
325
0.65
200
0.18
276
0.14
165
0.16
260
0.15
194
0.39
315
0.41
187
IPLGtwo views0.74
243
1.09
241
2.87
284
0.36
156
0.21
77
1.63
373
0.60
315
1.39
368
0.63
103
1.39
367
0.51
115
0.40
81
0.86
323
1.40
231
0.37
106
0.09
11
0.07
6
0.14
219
0.12
138
0.34
280
0.23
84
GwcNetcopylefttwo views0.76
255
1.09
241
3.68
358
0.38
184
0.45
262
0.81
302
0.45
268
0.91
226
0.89
305
0.63
225
0.77
289
0.82
285
0.51
231
1.64
269
0.85
247
0.17
265
0.16
191
0.15
244
0.15
194
0.33
274
0.34
147
hitnet-ftcopylefttwo views0.73
240
1.09
241
2.59
198
0.28
33
0.22
86
0.71
256
0.36
223
0.89
211
0.67
135
0.58
169
0.83
297
1.03
337
0.94
336
2.31
341
0.70
210
0.23
316
0.14
165
0.41
360
0.13
158
0.24
192
0.28
113
iResNettwo views0.59
140
1.09
241
2.54
181
0.44
236
0.18
47
0.65
220
0.29
157
0.89
211
0.75
221
0.59
188
0.64
218
0.43
91
0.39
145
0.73
146
1.24
294
0.11
110
0.08
38
0.09
13
0.08
27
0.21
158
0.40
180
ETE_ROBtwo views0.68
215
1.09
241
2.32
95
0.38
184
0.26
137
0.69
249
0.51
287
1.49
373
0.75
221
0.81
305
0.71
267
0.85
295
0.51
231
1.39
229
0.70
210
0.17
265
0.14
165
0.19
295
0.16
211
0.24
192
0.35
153
RGCtwo views0.78
261
1.10
246
2.55
188
0.45
243
0.45
262
0.73
265
0.40
243
1.00
281
0.75
221
0.75
289
1.04
337
1.02
336
0.73
300
1.74
281
1.15
282
0.24
323
0.19
208
0.28
335
0.26
288
0.31
265
0.38
168
Nwc_Nettwo views0.75
252
1.10
246
2.96
295
0.42
222
0.39
236
0.77
286
0.39
240
1.06
327
0.73
199
0.65
247
1.00
330
0.99
329
0.74
304
1.43
235
0.99
265
0.24
323
0.15
179
0.23
320
0.26
288
0.27
233
0.30
127
APVNettwo views0.76
255
1.11
248
3.23
316
0.39
197
0.36
222
0.85
311
0.44
264
0.96
257
0.73
199
0.58
169
0.69
241
0.76
265
0.56
250
2.29
340
0.82
243
0.17
265
0.18
204
0.24
325
0.19
248
0.35
291
0.27
107
XPNet_ROBtwo views0.68
215
1.11
248
2.28
87
0.38
184
0.27
148
0.67
240
0.47
277
0.94
241
0.75
221
0.80
304
0.71
267
0.81
282
0.54
243
1.72
278
0.84
246
0.22
308
0.16
191
0.16
260
0.15
194
0.25
207
0.45
213
StereoVisiontwo views0.52
82
1.12
250
2.70
248
0.34
127
0.32
193
0.47
29
0.26
110
0.73
106
0.61
83
0.33
22
0.89
313
0.45
118
0.26
48
0.52
78
0.39
114
0.14
214
0.15
179
0.16
260
0.15
194
0.22
172
0.14
24
FCDSN-DCtwo views1.45
366
1.12
250
3.30
325
0.48
253
0.41
247
1.13
350
0.60
315
1.17
352
1.28
364
2.25
392
2.85
394
3.65
394
3.34
399
2.58
361
2.44
358
0.31
345
0.26
248
0.31
345
0.30
308
0.37
302
0.78
299
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
AACVNettwo views0.61
153
1.13
252
2.47
161
0.37
166
0.21
77
0.57
104
0.25
98
0.75
110
0.55
59
0.56
151
0.60
188
0.66
216
0.44
194
2.11
331
0.49
153
0.14
214
0.11
124
0.14
219
0.11
108
0.35
291
0.23
84
SAtwo views0.61
153
1.14
253
2.79
267
0.32
90
0.63
310
0.57
104
0.30
169
0.97
264
0.78
240
0.43
43
0.63
211
0.39
73
0.46
209
0.70
134
0.31
69
0.10
47
0.44
283
0.13
190
0.32
318
0.31
265
0.51
234
raftrobusttwo views0.52
82
1.14
253
2.15
68
0.33
110
0.99
356
0.53
65
0.21
29
0.59
62
0.50
35
0.53
126
0.36
37
0.31
47
0.33
111
0.47
50
0.42
121
0.10
47
0.55
298
0.09
13
0.08
27
0.22
172
0.46
216
GANet-RSSMtwo views0.63
178
1.14
253
2.67
233
0.38
184
0.26
137
0.59
129
0.29
157
0.81
144
0.56
63
0.50
99
0.57
170
0.67
218
0.50
227
1.91
316
0.50
156
0.14
214
0.10
103
0.24
325
0.12
138
0.36
296
0.28
113
AF-Nettwo views0.76
255
1.14
253
2.74
258
0.42
222
0.41
247
0.70
252
0.41
245
1.07
330
0.94
319
0.73
281
1.05
339
1.04
341
0.86
323
1.23
211
1.00
267
0.23
316
0.15
179
0.25
330
0.18
232
0.32
270
0.35
153
SHDtwo views0.84
279
1.14
253
2.54
181
0.80
339
0.52
277
0.76
276
0.34
207
1.16
349
1.29
365
1.11
341
0.85
302
0.98
326
0.74
304
1.25
216
1.48
312
0.22
308
0.37
267
0.20
305
0.27
296
0.36
296
0.41
187
LALA_ROBtwo views0.68
215
1.14
253
2.50
172
0.37
166
0.29
163
0.78
291
0.55
300
0.99
275
0.84
286
0.82
309
0.68
237
0.93
315
0.50
227
1.01
182
0.89
251
0.21
303
0.15
179
0.21
309
0.18
232
0.26
222
0.30
127
Wz-Net-LNSev-Reftwo views0.65
190
1.15
259
2.40
112
0.33
110
0.30
174
0.83
305
0.40
243
0.94
241
0.82
268
0.67
255
0.76
285
0.68
230
0.58
262
1.13
199
1.25
295
0.14
214
0.08
38
0.10
46
0.08
27
0.18
109
0.28
113
NLCA_NET_v2_RVCtwo views0.62
166
1.15
259
3.11
311
0.39
197
0.37
228
0.60
141
0.28
132
0.87
197
0.64
109
0.63
225
0.56
160
0.71
249
0.45
202
1.08
190
0.52
161
0.15
232
0.12
139
0.14
219
0.15
194
0.18
109
0.25
97
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
MyStereo8two views0.73
240
1.16
261
2.89
286
0.53
277
0.34
208
0.71
256
0.20
20
1.87
386
0.59
76
0.53
126
0.66
231
0.50
139
0.33
111
1.27
219
0.62
189
0.10
47
1.19
352
0.10
46
0.21
268
0.21
158
0.61
262
RAFT_CTSACEtwo views0.58
125
1.16
261
2.76
263
0.36
156
0.29
163
0.54
72
0.29
157
0.69
91
0.51
40
0.51
110
0.75
282
0.67
218
0.37
127
0.63
113
0.47
141
0.08
1
0.49
290
0.11
92
0.10
70
0.41
327
0.32
137
CFNet-ftpermissivetwo views0.60
146
1.16
261
2.45
149
0.29
45
0.30
174
0.64
206
0.28
132
0.69
91
0.57
66
0.49
81
0.57
170
0.79
273
0.44
194
1.48
243
0.62
189
0.15
232
0.10
103
0.28
335
0.14
176
0.21
158
0.29
119
BEATNet_4xtwo views0.57
117
1.16
261
2.56
192
0.35
142
0.16
20
0.56
85
0.25
98
0.91
226
0.64
109
0.55
141
0.53
125
0.59
181
0.43
186
0.67
127
0.76
225
0.12
142
0.09
81
0.12
134
0.09
37
0.23
186
0.58
254
CFNet_RVCtwo views0.60
146
1.16
261
2.45
149
0.29
45
0.30
174
0.64
206
0.28
132
0.69
91
0.57
66
0.49
81
0.57
170
0.79
273
0.44
194
1.48
243
0.62
189
0.15
232
0.10
103
0.28
335
0.14
176
0.21
158
0.29
119
UCFNet_RVCtwo views0.55
102
1.16
261
2.48
166
0.31
73
0.27
148
0.65
220
0.28
132
0.76
112
0.58
72
0.51
110
0.53
125
0.67
218
0.42
173
0.91
175
0.45
134
0.16
246
0.11
124
0.17
274
0.17
224
0.20
149
0.23
84
iinet-ftwo views0.62
166
1.18
267
2.55
188
0.33
110
0.25
123
0.82
304
0.34
207
0.87
197
0.69
167
0.56
151
0.64
218
0.73
255
0.67
287
0.80
162
0.81
240
0.14
214
0.13
152
0.11
92
0.10
70
0.44
334
0.26
102
raft+_RVCtwo views0.62
166
1.18
267
2.43
125
0.36
156
2.08
400
0.52
60
0.25
98
0.66
83
0.54
54
0.36
23
0.46
77
0.32
51
0.28
71
0.49
68
0.43
127
0.10
47
0.91
333
0.10
46
0.09
37
0.22
172
0.70
289
CVANet_RVCtwo views0.82
272
1.18
267
3.98
370
0.40
210
0.28
158
0.63
194
0.43
258
0.90
219
0.78
240
1.14
344
0.69
241
0.68
230
0.52
238
2.62
364
0.48
144
0.20
295
0.13
152
0.22
313
0.37
342
0.37
302
0.48
222
GEStereo_RVCtwo views0.61
153
1.19
270
2.61
207
0.48
253
0.25
123
0.63
194
0.37
226
1.05
315
0.79
249
0.55
141
0.55
148
0.59
181
0.44
194
1.10
192
0.48
144
0.16
246
0.11
124
0.12
134
0.11
108
0.27
233
0.43
196
PSMNet-RSSMtwo views0.61
153
1.19
270
2.43
125
0.33
110
0.25
123
0.59
129
0.28
132
0.88
205
0.65
116
0.54
130
0.62
203
0.69
241
0.46
209
1.67
273
0.50
156
0.15
232
0.10
103
0.14
219
0.16
211
0.20
149
0.28
113
HGLStereotwo views0.61
153
1.20
272
2.59
198
0.36
156
0.40
242
0.65
220
0.30
169
0.87
197
0.67
135
0.60
197
0.70
254
0.69
241
0.56
250
1.07
189
0.59
179
0.14
214
0.13
152
0.13
190
0.12
138
0.23
186
0.23
84
GANettwo views0.92
310
1.20
272
2.68
238
0.45
243
0.27
148
0.76
276
0.66
329
0.94
241
0.77
237
0.79
302
1.17
344
0.84
290
0.91
330
2.72
372
1.76
326
0.18
276
0.42
279
0.44
365
0.20
257
0.33
274
0.94
321
TestStereo1two views0.59
140
1.21
274
2.63
212
0.40
210
0.60
300
0.56
85
0.34
207
0.82
151
0.73
199
0.45
51
0.63
211
0.36
63
0.42
173
0.66
124
0.42
121
0.10
47
0.32
259
0.12
134
0.10
70
0.34
280
0.52
239
SA-5Ktwo views0.59
140
1.21
274
2.63
212
0.40
210
0.60
300
0.56
85
0.34
207
0.82
151
0.73
199
0.45
51
0.63
211
0.36
63
0.42
173
0.66
124
0.42
121
0.10
47
0.32
259
0.12
134
0.10
70
0.34
280
0.52
239
Consistency-Rafttwo views0.92
310
1.21
274
3.50
346
0.98
355
0.63
310
0.77
286
0.54
296
1.02
295
1.01
338
0.62
216
1.03
335
0.65
209
1.04
343
0.81
165
1.36
304
0.45
360
0.47
286
0.51
368
0.59
376
0.65
363
0.47
218
PVDtwo views1.05
334
1.21
274
2.36
100
0.84
342
0.91
347
1.04
339
0.64
324
1.32
364
1.68
380
1.43
371
1.41
359
1.14
356
1.15
350
1.49
245
1.77
327
0.27
336
0.65
313
0.28
335
0.35
336
0.40
321
0.73
293
WCMA_ROBtwo views1.29
353
1.21
274
3.13
313
0.65
314
0.36
222
1.20
357
0.78
346
1.00
281
0.98
333
1.78
382
2.62
389
3.08
391
2.01
384
1.86
305
2.35
356
0.38
352
0.38
271
0.32
347
0.32
318
0.31
265
1.06
334
ADLNet2two views0.73
240
1.22
279
3.28
322
0.34
127
0.36
222
0.65
220
0.37
226
0.94
241
0.87
296
0.57
163
0.65
225
0.92
310
0.48
223
2.05
323
0.60
181
0.13
184
0.11
124
0.11
92
0.11
108
0.37
302
0.38
168
NCC-stereotwo views0.88
297
1.22
279
2.97
296
0.60
299
0.45
262
1.88
382
0.48
279
1.04
307
0.75
221
0.70
269
0.85
302
0.93
315
0.84
318
1.81
295
1.51
314
0.28
339
0.19
208
0.23
320
0.31
313
0.27
233
0.35
153
Abc-Nettwo views0.88
297
1.22
279
2.97
296
0.60
299
0.45
262
1.88
382
0.48
279
1.04
307
0.75
221
0.70
269
0.85
302
0.93
315
0.84
318
1.81
295
1.51
314
0.28
339
0.19
208
0.23
320
0.31
313
0.27
233
0.35
153
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
ADCLtwo views1.07
337
1.22
279
2.80
269
0.40
210
0.33
199
1.50
365
1.87
396
0.97
264
1.04
343
1.26
361
1.28
350
0.99
329
1.41
361
1.36
228
3.51
382
0.17
265
0.14
165
0.22
313
0.21
268
0.32
270
0.43
196
FBW_ROBtwo views0.94
316
1.23
283
2.35
99
0.46
246
0.32
193
0.87
316
0.46
273
1.15
346
0.97
332
0.83
312
0.78
293
1.01
333
0.64
278
3.65
397
1.65
319
0.27
336
0.24
238
0.40
358
0.26
288
0.32
270
0.88
315
fast-acv-fttwo views0.67
210
1.24
284
3.26
320
0.39
197
0.30
174
0.80
298
0.48
279
0.74
108
0.76
229
0.60
197
0.78
293
0.76
265
0.60
270
0.70
134
0.78
231
0.16
246
0.15
179
0.18
290
0.17
224
0.38
308
0.24
93
raft_robusttwo views0.68
215
1.24
284
2.42
120
0.30
59
0.57
290
0.53
65
0.25
98
0.95
254
0.79
249
0.49
81
0.46
77
1.12
354
0.74
304
1.50
246
0.61
186
0.09
11
0.62
310
0.10
46
0.30
308
0.26
222
0.30
127
StereoDRNettwo views0.71
230
1.24
284
2.56
192
0.42
222
0.45
262
0.73
265
0.46
273
0.98
270
0.81
263
0.77
293
0.56
160
0.74
257
0.48
223
1.69
277
0.91
253
0.15
232
0.14
165
0.15
244
0.15
194
0.26
222
0.51
234
RAFT+CT+SAtwo views0.60
146
1.25
287
2.49
169
0.38
184
0.75
328
0.55
81
0.34
207
0.83
161
0.68
159
0.39
30
0.55
148
0.44
106
0.29
87
0.75
150
0.28
41
0.09
11
0.24
238
0.11
92
0.51
366
0.30
257
0.74
295
test_5two views0.61
153
1.25
287
2.76
263
0.39
197
0.64
314
0.58
111
0.35
216
0.85
178
0.66
123
0.49
81
0.56
160
0.55
163
0.40
151
0.79
158
0.32
77
0.10
47
0.19
208
0.12
134
0.12
138
0.33
274
0.85
311
pmcnntwo views1.44
364
1.25
287
3.57
353
0.74
330
1.42
384
0.72
262
0.56
304
1.04
307
1.06
346
1.03
335
2.89
396
6.01
406
0.75
308
2.54
358
3.60
384
0.14
214
0.11
124
0.08
3
0.06
6
0.34
280
0.81
305
EDNetEfficientorigintwo views8.19
411
1.27
290
145.54
435
0.51
272
0.96
352
0.75
272
0.49
284
0.86
190
1.57
378
2.12
387
1.49
361
1.28
362
1.35
355
1.84
301
2.15
346
0.14
214
0.13
152
0.17
274
0.18
232
0.39
315
0.64
273
cf-rtwo views0.62
166
1.27
290
2.99
301
0.34
127
0.28
158
0.60
141
0.28
132
0.82
151
0.70
177
0.55
141
0.61
196
0.77
267
0.41
162
1.32
224
0.52
161
0.13
184
0.09
81
0.11
92
0.12
138
0.22
172
0.27
107
TDLMtwo views0.83
276
1.28
292
2.38
104
0.46
246
0.26
137
0.66
233
0.55
300
0.87
197
0.80
256
2.54
398
0.62
203
0.61
190
0.51
231
2.68
370
0.67
205
0.20
295
0.11
124
0.35
352
0.15
194
0.33
274
0.48
222
HITNettwo views0.55
102
1.28
292
2.73
256
0.35
142
0.14
8
0.56
85
0.23
57
0.89
211
0.62
92
0.52
118
0.51
115
0.49
135
0.38
134
0.52
78
0.60
181
0.09
11
0.07
6
0.10
46
0.08
27
0.25
207
0.61
262
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
4D-IteraStereotwo views0.62
166
1.29
294
3.04
305
0.27
21
0.30
174
0.46
20
0.26
110
0.54
39
0.51
40
0.41
33
0.31
25
0.39
73
0.19
7
0.53
85
0.65
200
0.09
11
0.47
286
0.12
134
0.11
108
0.21
158
2.14
386
Wz-Net-LNSevtwo views0.66
207
1.30
295
2.81
273
0.35
142
0.37
228
0.80
298
0.48
279
0.91
226
0.87
296
0.63
225
0.70
254
0.80
279
0.59
265
0.67
127
0.68
207
0.15
232
0.14
165
0.12
134
0.12
138
0.24
192
0.38
168
DMCA-RVCcopylefttwo views0.70
226
1.30
295
3.59
355
0.37
166
0.89
345
0.57
104
0.31
179
0.73
106
0.59
76
0.69
266
0.54
139
0.59
181
0.57
255
1.25
216
0.66
203
0.16
246
0.38
271
0.20
305
0.15
194
0.22
172
0.23
84
ddtwo views0.48
55
1.32
297
2.41
116
0.31
73
0.17
37
0.58
111
0.26
110
0.50
23
0.71
189
0.42
37
0.41
59
0.34
59
0.28
71
0.47
50
0.41
117
0.18
276
0.10
103
0.13
190
0.12
138
0.22
172
0.16
43
GMStereopermissivetwo views0.44
37
1.32
297
2.65
222
0.28
33
0.16
20
0.42
14
0.22
38
0.48
11
0.63
103
0.41
33
0.36
37
0.26
28
0.25
40
0.41
40
0.30
55
0.14
214
0.08
38
0.10
46
0.12
138
0.17
90
0.13
12
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
XQCtwo views0.84
279
1.32
297
2.61
207
0.78
337
0.44
259
0.89
320
0.53
293
1.16
349
1.07
347
0.85
314
0.69
241
0.92
310
0.73
300
1.40
231
1.44
310
0.24
323
0.35
265
0.23
320
0.26
288
0.45
336
0.39
175
NCCL2two views0.71
230
1.32
297
2.30
91
0.44
236
0.31
182
0.71
256
0.67
333
0.89
211
0.69
167
0.70
269
0.61
196
0.85
295
0.54
243
1.58
262
0.70
210
0.20
295
0.17
198
0.66
374
0.25
282
0.26
222
0.38
168
rafts_anoytwo views0.60
146
1.33
301
2.59
198
0.53
277
1.09
368
0.49
37
0.25
98
0.67
86
0.53
51
0.41
33
0.38
47
0.33
55
0.30
97
0.68
131
0.41
117
0.10
47
1.13
350
0.13
190
0.15
194
0.20
149
0.29
119
DeepPrunerFtwo views0.92
310
1.33
301
3.41
339
0.46
246
0.51
275
0.64
206
0.49
284
1.16
349
2.62
393
0.65
247
0.61
196
0.65
209
0.62
274
2.23
337
1.31
298
0.23
316
0.19
208
0.30
344
0.28
298
0.39
315
0.34
147
CBFPSMtwo views0.62
166
1.34
303
2.12
63
0.30
59
0.23
108
0.71
256
0.38
234
0.77
118
0.68
159
0.51
110
0.49
101
1.03
337
0.82
315
0.63
113
1.35
302
0.11
110
0.12
139
0.10
46
0.10
70
0.19
132
0.37
160
RALCasStereoNettwo views0.65
190
1.34
303
2.56
192
0.43
232
0.96
352
0.50
43
0.26
110
0.62
70
0.56
63
0.43
43
0.49
101
0.36
63
0.28
71
0.72
145
0.53
164
0.10
47
1.18
351
0.09
13
0.08
27
0.27
233
1.27
351
MeshStereopermissivetwo views1.29
353
1.34
303
3.04
305
0.35
142
0.28
158
1.10
348
0.69
337
1.42
370
1.07
347
2.71
401
2.43
384
2.95
387
1.50
367
2.92
382
2.03
336
0.23
316
0.22
230
0.22
313
0.19
248
0.50
345
0.69
286
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
iRaft-Stereo_5wtwo views0.65
190
1.35
306
2.21
79
0.30
59
0.63
310
0.49
37
0.28
132
0.78
125
0.64
109
0.41
33
0.61
196
0.62
195
0.46
209
1.79
292
0.48
144
0.10
47
0.25
245
0.11
92
0.12
138
0.40
321
0.94
321
dadtwo views0.58
125
1.35
306
2.39
110
0.31
73
0.20
68
0.62
181
0.26
110
0.56
48
0.79
249
0.66
253
0.64
218
0.64
205
0.36
122
0.87
170
0.48
144
0.28
339
0.15
179
0.40
358
0.18
232
0.24
192
0.22
76
RAFTtwo views0.62
166
1.35
306
2.26
84
0.62
307
0.53
282
0.47
29
0.35
216
0.70
98
0.58
72
0.50
99
0.50
113
0.79
273
0.40
151
0.49
68
0.36
103
0.11
110
0.79
327
0.14
219
0.13
158
0.52
350
0.72
292
SAMSARAtwo views1.11
342
1.35
306
2.60
203
1.34
370
0.77
333
1.67
375
1.41
391
1.47
372
0.99
336
1.54
377
0.89
313
1.44
369
0.90
329
1.88
309
1.71
320
0.25
329
0.55
298
0.22
313
0.34
334
0.39
315
0.50
230
LL-Strereo2two views0.62
166
1.36
310
2.47
161
1.37
372
0.96
352
0.54
72
0.28
132
0.61
67
0.49
29
0.42
37
0.34
33
0.44
106
0.21
15
0.57
97
0.53
164
0.11
110
0.26
248
0.16
260
0.14
176
0.18
109
0.98
331
UDGNettwo views0.50
70
1.36
310
2.44
133
0.37
166
0.19
63
0.58
111
0.23
57
0.49
14
0.69
167
0.42
37
0.39
50
0.34
59
0.29
87
0.55
91
0.32
77
0.25
329
0.10
103
0.37
355
0.19
248
0.30
257
0.17
49
PA-Nettwo views0.93
315
1.36
310
4.14
375
0.64
312
0.41
247
0.70
252
0.53
293
0.91
226
0.88
300
0.53
126
0.60
188
0.70
247
0.54
243
2.40
350
2.57
364
0.17
265
0.28
256
0.19
295
0.28
298
0.25
207
0.48
222
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
RALAANettwo views0.52
82
1.37
313
2.63
212
0.33
110
0.23
108
0.48
32
0.19
12
0.69
91
0.55
59
0.49
81
0.46
77
0.39
73
0.31
101
0.53
85
0.53
164
0.10
47
0.33
263
0.11
92
0.17
224
0.29
251
0.13
12
ADCPNettwo views1.07
337
1.37
313
4.54
390
0.38
184
0.68
321
1.36
358
0.64
324
0.93
236
0.83
274
0.79
302
0.82
295
1.08
348
1.18
352
1.30
223
2.68
366
0.21
303
0.69
319
0.21
309
0.95
394
0.30
257
0.54
245
PS-NSSStwo views0.69
221
1.37
313
2.44
133
0.31
73
0.32
193
0.64
206
0.34
207
1.04
307
0.74
216
0.56
151
0.75
282
0.51
142
0.42
173
2.41
352
0.54
169
0.24
323
0.17
198
0.27
333
0.18
232
0.30
257
0.23
84
GwcNet-RSSMtwo views0.64
185
1.38
316
2.69
244
0.33
110
0.26
137
0.60
141
0.32
189
0.84
168
0.73
199
0.56
151
0.65
225
0.72
250
0.42
173
1.78
290
0.60
181
0.14
214
0.10
103
0.12
134
0.13
158
0.26
222
0.26
102
RTSCtwo views0.84
279
1.40
317
2.67
233
0.50
269
0.40
242
0.83
305
0.33
202
1.11
341
1.14
355
0.93
326
0.82
295
0.84
290
0.58
262
1.34
226
1.82
330
0.18
276
0.49
290
0.14
219
0.30
308
0.46
340
0.42
191
111two views0.57
117
1.41
318
2.63
212
0.25
5
0.15
13
0.59
129
0.26
110
0.90
219
0.83
274
0.50
99
0.54
139
0.57
174
0.38
134
0.54
90
0.41
117
0.10
47
0.07
6
0.09
13
0.07
12
0.24
192
0.81
305
MaskLacGwcNet_RVCtwo views0.84
279
1.41
318
2.80
269
0.94
351
0.35
216
0.89
320
0.41
245
0.89
211
0.66
123
0.57
163
0.63
211
0.75
261
0.38
134
2.37
345
0.55
171
1.16
388
0.31
258
0.36
353
0.21
268
0.59
356
0.63
268
MLCVtwo views0.59
140
1.41
318
2.41
116
0.31
73
0.15
13
0.60
141
0.23
57
0.77
118
0.63
103
0.67
255
0.66
231
0.55
163
0.37
127
1.16
203
1.09
276
0.10
47
0.07
6
0.09
13
0.07
12
0.21
158
0.29
119
PWC_ROBbinarytwo views0.81
269
1.41
318
2.60
203
0.41
219
0.40
242
0.63
194
0.31
179
1.04
307
0.99
336
0.92
323
1.29
351
0.78
271
0.68
289
1.65
272
1.50
313
0.19
287
0.12
139
0.18
290
0.13
158
0.51
347
0.54
245
Wz-Net-MNSevtwo views0.74
243
1.42
322
2.75
260
0.38
184
0.33
199
0.90
323
0.61
320
0.98
270
0.94
319
0.77
293
0.75
282
0.75
261
0.66
285
1.39
229
0.76
225
0.17
265
0.13
152
0.14
219
0.14
176
0.28
243
0.48
222
LSMtwo views3.40
401
1.42
322
5.81
402
9.98
416
30.74
429
0.86
312
1.14
373
0.99
275
1.26
362
1.40
369
2.18
378
0.93
315
0.85
321
1.76
284
1.03
270
0.22
308
0.35
265
0.24
325
0.29
302
0.40
321
6.21
414
PSMNet_ROBtwo views0.75
252
1.42
322
2.93
291
0.39
197
0.32
193
0.73
265
0.56
304
0.90
219
0.74
216
0.56
151
0.60
188
0.75
261
0.47
217
2.00
321
1.31
298
0.18
276
0.13
152
0.19
295
0.20
257
0.26
222
0.40
180
Syn2CoExtwo views0.78
261
1.43
325
3.54
351
0.44
236
0.31
182
0.64
206
0.43
258
1.04
307
0.83
274
0.64
235
0.77
289
0.74
257
0.74
304
1.91
316
0.64
195
0.20
295
0.17
198
0.19
295
0.15
194
0.30
257
0.59
257
GANetREF_RVCpermissivetwo views0.81
269
1.44
326
3.04
305
0.49
264
0.27
148
0.83
305
0.63
323
1.03
301
0.92
312
0.63
225
0.61
196
0.72
250
0.59
265
2.40
350
0.58
177
0.33
348
0.25
245
0.37
355
0.25
282
0.41
327
0.36
159
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ADCReftwo views0.88
297
1.45
327
2.68
238
0.38
184
0.35
216
0.95
332
0.51
287
0.92
233
0.81
263
0.89
318
0.84
299
0.61
190
1.35
355
1.26
218
3.38
379
0.14
214
0.12
139
0.17
274
0.19
248
0.28
243
0.34
147
CFNettwo views0.65
190
1.45
327
2.27
85
0.34
127
0.25
123
0.64
206
0.23
57
0.93
236
0.79
249
0.48
65
0.59
181
0.58
178
0.40
151
2.28
339
0.63
194
0.13
184
0.09
81
0.15
244
0.14
176
0.34
280
0.26
102
AANet_RVCtwo views0.79
264
1.46
329
2.72
251
0.34
127
0.25
123
0.59
129
0.32
189
0.88
205
0.83
274
0.62
216
0.95
321
0.80
279
0.43
186
2.46
355
1.72
322
0.38
352
0.26
248
0.10
46
0.09
37
0.25
207
0.43
196
NaN_ROBtwo views1.25
350
1.46
329
3.84
367
0.54
283
0.56
287
1.12
349
0.99
361
1.05
315
1.03
340
1.10
340
0.87
309
0.77
267
1.07
345
5.85
406
2.98
372
0.16
246
0.23
235
0.16
260
0.24
277
0.28
243
0.66
275
PDISCO_ROBtwo views0.84
279
1.46
329
2.84
279
0.65
314
0.59
295
1.17
354
0.48
279
1.19
354
1.08
349
0.67
255
0.72
270
1.00
332
0.61
272
1.24
213
1.05
272
0.38
352
0.18
204
0.28
335
0.24
277
0.58
355
0.44
208
RAFT-Stereo + iAFFtwo views0.58
125
1.48
332
2.53
177
0.29
45
0.78
336
0.52
60
0.20
20
0.68
89
0.66
123
0.51
110
0.61
196
0.40
81
0.32
106
0.40
34
0.43
127
0.08
1
0.63
311
0.09
13
0.09
37
0.37
302
0.58
254
AASNettwo views0.66
207
1.49
333
2.97
296
0.37
166
0.33
199
0.65
220
0.30
169
1.00
281
0.78
240
0.56
151
0.60
188
0.55
163
0.39
145
0.88
174
0.96
256
0.15
232
0.12
139
0.13
190
0.11
108
0.45
336
0.35
153
AFF-stereotwo views0.57
117
1.51
334
2.59
198
0.33
110
0.23
108
0.51
45
0.21
29
0.69
91
0.68
159
0.49
81
0.63
211
0.49
135
0.34
118
0.50
73
0.37
106
0.08
1
0.54
296
0.10
46
0.10
70
0.40
321
0.60
261
FADNet_RVCtwo views0.87
296
1.51
334
2.90
288
0.31
73
0.24
117
0.71
256
0.25
98
1.00
281
0.65
116
0.45
51
0.57
170
0.61
190
0.44
194
1.53
248
0.75
222
0.94
378
0.97
335
0.28
335
1.00
397
0.89
375
1.36
361
FADNet-RVC-Resampletwo views0.74
243
1.54
336
3.81
365
0.38
184
0.29
163
0.62
181
0.38
234
0.91
226
0.67
135
0.52
118
0.51
115
0.63
199
0.44
194
1.56
252
0.59
179
0.24
323
0.32
259
0.22
313
0.19
248
0.30
257
0.71
291
ACREtwo views0.63
178
1.55
337
3.41
339
0.76
332
0.28
158
0.60
141
0.56
304
0.82
151
0.68
159
0.57
163
0.62
203
0.43
91
0.30
97
0.47
50
0.42
121
0.12
142
0.19
208
0.13
190
0.14
176
0.36
296
0.20
68
HBP-ISPtwo views0.82
272
1.57
338
3.28
322
0.50
269
0.27
148
0.86
312
0.54
296
1.09
335
0.78
240
0.81
305
0.70
254
0.68
230
1.00
340
2.02
322
0.47
141
0.24
323
0.24
238
0.29
343
0.25
282
0.28
243
0.52
239
UDGtwo views0.86
290
1.57
338
2.80
269
0.68
325
0.59
295
0.78
291
0.38
234
0.97
264
0.74
216
0.63
225
0.70
254
1.01
333
0.68
289
1.02
183
1.22
292
0.45
360
0.34
264
0.89
381
0.51
366
0.73
366
0.58
254
CC-Net-ROBtwo views0.95
317
1.57
338
2.93
291
0.90
347
0.39
236
0.87
316
0.44
264
1.12
343
0.83
274
0.59
188
0.69
241
0.64
205
0.50
227
2.73
374
0.93
254
0.97
381
0.40
277
0.87
380
0.29
302
0.61
360
0.66
275
Anonymous Stereotwo views0.83
276
1.57
338
3.56
352
0.46
246
0.39
236
0.63
194
0.84
351
0.92
233
0.83
274
0.68
261
0.68
237
0.64
205
0.42
173
2.42
353
1.02
269
0.23
316
0.23
235
0.19
295
0.20
257
0.31
265
0.40
180
PWCDC_ROBbinarytwo views0.83
276
1.57
338
2.63
212
0.48
253
0.37
228
0.78
291
0.29
157
1.04
307
1.36
369
0.63
225
2.05
374
0.64
205
0.70
295
1.10
192
1.20
288
0.33
348
0.14
165
0.15
244
0.12
138
0.63
361
0.46
216
CIPLGtwo views0.63
178
1.59
343
3.16
314
0.79
338
0.31
182
0.62
181
0.57
307
0.82
151
0.68
159
0.58
169
0.63
211
0.43
91
0.31
101
0.48
58
0.42
121
0.12
142
0.20
220
0.13
190
0.13
158
0.36
296
0.21
72
RTStwo views1.29
353
1.59
343
6.48
405
0.63
309
0.57
290
1.59
370
0.90
357
1.15
346
1.44
371
1.20
353
1.31
352
1.10
352
0.87
326
2.67
368
2.27
354
0.21
303
0.38
271
0.19
295
0.20
257
0.46
340
0.68
282
RTSAtwo views1.29
353
1.59
343
6.48
405
0.63
309
0.57
290
1.59
370
0.90
357
1.15
346
1.44
371
1.20
353
1.31
352
1.10
352
0.87
326
2.67
368
2.27
354
0.21
303
0.38
271
0.19
295
0.20
257
0.46
340
0.68
282
iResNet_ROBtwo views0.60
146
1.59
343
2.04
49
0.32
90
0.21
77
0.60
141
0.22
38
0.99
275
0.85
288
0.61
204
0.63
211
0.58
178
0.42
173
1.08
190
0.98
263
0.11
110
0.08
38
0.09
13
0.06
6
0.23
186
0.33
140
FADNettwo views0.71
230
1.60
347
2.53
177
0.33
110
0.30
174
0.67
240
0.29
157
0.92
233
0.75
221
0.45
51
0.49
101
0.66
216
0.57
255
1.85
303
0.85
247
0.46
362
0.20
220
0.17
274
0.20
257
0.60
357
0.37
160
SuperBtwo views1.19
347
1.62
348
5.29
398
0.37
166
0.26
137
0.81
302
0.87
353
0.94
241
1.19
360
0.68
261
0.68
237
0.63
199
1.37
358
1.73
279
3.30
376
0.16
246
0.12
139
0.17
274
0.16
211
2.74
407
0.63
268
NVStereoNet_ROBtwo views1.45
366
1.62
348
3.59
355
1.09
360
0.70
324
0.86
312
0.67
333
1.19
354
1.51
375
1.20
353
4.05
402
1.61
373
1.94
382
2.97
384
2.07
340
0.67
370
0.69
319
0.55
369
0.70
380
0.57
354
0.67
277
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
DDUNettwo views0.90
307
1.63
350
2.77
265
0.77
335
0.69
322
0.83
305
0.44
264
0.90
219
0.70
177
0.68
261
0.76
285
0.92
310
0.54
243
1.14
201
1.35
302
0.61
367
0.37
267
0.96
383
0.52
368
0.77
371
0.67
277
DN-CSS_ROBtwo views0.56
110
1.64
351
2.75
260
0.42
222
0.22
86
0.57
104
0.19
12
0.79
132
0.66
123
0.46
61
0.62
203
0.41
86
0.32
106
0.73
146
0.49
153
0.12
142
0.08
38
0.14
219
0.13
158
0.38
308
0.17
49
FADNet-RVCtwo views0.69
221
1.65
352
2.74
258
0.35
142
0.26
137
0.60
141
0.29
157
0.91
226
0.67
135
0.46
61
0.51
115
0.62
195
0.46
209
1.75
282
0.81
240
0.17
265
0.20
220
0.17
274
0.18
232
0.60
357
0.39
175
SPS-STEREOcopylefttwo views1.22
349
1.65
352
3.41
339
0.66
318
0.69
322
1.01
337
0.68
335
1.10
338
0.96
326
1.40
369
1.25
349
1.46
370
1.08
346
2.05
323
2.24
352
0.66
369
0.61
307
0.58
370
0.57
374
0.66
364
1.65
373
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
IPLGR_Ctwo views0.64
185
1.66
354
3.36
328
0.80
339
0.31
182
0.60
141
0.60
315
0.82
151
0.69
167
0.58
169
0.62
203
0.44
106
0.31
101
0.47
50
0.43
127
0.12
142
0.22
230
0.13
190
0.15
194
0.35
291
0.21
72
ADCP+two views1.03
332
1.68
355
3.83
366
0.35
142
0.39
236
1.05
341
0.79
348
0.94
241
0.86
294
0.69
266
0.68
237
0.85
295
1.53
370
1.02
183
4.56
397
0.13
184
0.12
139
0.16
260
0.15
194
0.28
243
0.44
208
ARAFTtwo views0.65
190
1.69
356
3.34
327
0.29
45
0.16
20
0.65
220
0.36
223
0.96
257
0.73
199
0.63
225
0.49
101
0.56
170
0.31
101
1.23
211
0.35
101
0.11
110
0.08
38
0.14
219
0.13
158
0.38
308
0.50
230
LL-Strereotwo views0.85
287
1.73
357
3.06
309
0.37
166
0.61
307
0.54
72
0.33
202
1.01
289
0.76
229
0.69
266
0.58
176
0.85
295
0.78
311
2.65
367
0.54
169
0.14
214
0.58
304
0.14
219
0.12
138
0.42
329
1.05
333
RAFT + AFFtwo views0.79
264
1.73
357
2.99
301
0.34
127
0.35
216
0.67
240
0.51
287
1.05
315
0.79
249
0.54
130
0.58
176
0.59
181
0.81
314
1.80
293
1.21
289
0.13
184
0.27
254
0.15
244
0.14
176
0.45
336
0.69
286
MFMNet_retwo views1.01
327
1.73
357
3.04
305
0.85
343
0.76
331
0.93
328
0.81
349
1.02
295
1.10
350
1.05
336
1.06
340
0.84
290
0.96
337
0.93
177
0.97
257
0.68
371
0.61
307
0.63
373
0.60
378
0.77
371
0.80
303
CSANtwo views1.38
360
1.74
360
4.12
374
0.53
277
0.38
234
1.06
344
1.15
375
1.29
361
1.12
353
1.19
348
1.90
371
1.04
341
1.44
362
5.92
407
2.82
370
0.26
333
0.22
230
0.24
325
0.25
282
0.35
291
0.54
245
AnyNet_C32two views1.08
340
1.76
361
3.01
303
0.50
269
0.54
283
1.17
354
1.16
377
0.97
264
0.95
324
1.11
341
0.98
326
0.87
301
0.93
335
1.57
256
4.11
394
0.22
308
0.20
220
0.25
330
0.25
282
0.40
321
0.68
282
SANettwo views1.35
358
1.80
362
4.39
386
0.41
219
0.29
163
1.72
377
0.89
356
1.17
352
2.47
391
1.22
357
1.82
368
1.72
375
1.70
374
2.57
360
3.30
376
0.18
276
0.16
191
0.16
260
0.15
194
0.34
280
0.62
264
ADCMidtwo views1.06
335
1.82
363
3.53
350
0.39
197
0.36
222
0.99
335
0.58
309
1.01
289
0.94
319
1.23
359
1.02
333
1.01
333
1.01
341
1.11
196
4.04
392
0.22
308
0.19
208
0.42
362
0.32
318
0.42
329
0.53
242
Wz-Net-SNSevtwo views0.85
287
1.83
364
3.36
328
0.42
222
0.31
182
0.71
256
0.66
329
1.04
307
0.94
319
0.68
261
0.85
302
0.96
323
0.62
274
1.75
282
1.14
281
0.16
246
0.15
179
0.16
260
0.17
224
0.39
315
0.63
268
WZ-Nettwo views1.04
333
1.83
364
4.20
378
0.42
222
0.36
222
0.88
318
0.71
339
1.05
315
1.11
352
0.84
313
0.94
318
1.06
345
1.17
351
2.37
345
2.24
352
0.20
295
0.14
165
0.15
244
0.16
211
0.36
296
0.53
242
WAO-6two views1.69
380
1.87
366
3.21
315
1.15
366
1.01
361
2.29
392
1.06
369
1.85
385
2.84
397
1.30
364
2.59
388
2.19
382
1.67
372
2.62
364
2.52
360
0.96
380
0.68
316
1.19
390
0.84
388
1.13
379
0.95
324
AnyNet_C01two views1.20
348
1.89
367
4.25
380
0.55
284
0.54
283
1.57
368
1.39
388
1.10
338
1.13
354
1.19
348
1.34
356
1.15
358
1.11
348
1.73
279
2.89
371
0.26
333
0.24
238
0.28
335
0.24
277
0.50
345
0.68
282
iResNetv2_ROBtwo views0.71
230
1.90
368
3.48
345
0.43
232
0.22
86
0.60
141
0.29
157
0.96
257
0.78
240
0.60
197
0.65
225
0.60
188
0.46
209
0.80
162
1.21
289
0.12
142
0.08
38
0.10
46
0.07
12
0.44
334
0.33
140
SQANettwo views0.92
310
1.96
369
3.23
316
0.77
335
0.83
339
0.76
276
0.38
234
0.87
197
0.68
159
0.64
235
0.69
241
0.73
255
0.52
238
1.35
227
1.36
304
0.80
374
0.30
257
0.60
372
0.29
302
0.93
376
0.70
289
FINETtwo views1.92
384
1.96
369
4.49
389
1.62
384
1.39
383
3.51
402
4.39
406
2.89
399
2.58
392
1.39
367
1.98
372
1.35
366
2.12
387
1.64
269
2.12
343
0.84
376
1.03
344
0.18
290
0.29
302
0.54
352
2.12
385
IMH-64-1two views1.50
369
1.98
371
2.69
244
1.39
373
1.12
370
1.39
361
1.19
379
1.80
383
1.47
373
1.19
348
2.20
379
1.53
371
1.51
368
2.12
332
1.98
333
1.34
393
0.68
316
1.28
393
0.70
380
1.37
390
1.12
337
IMH-64two views1.50
369
1.98
371
2.69
244
1.39
373
1.12
370
1.39
361
1.19
379
1.80
383
1.47
373
1.19
348
2.20
379
1.53
371
1.51
368
2.12
332
1.98
333
1.34
393
0.68
316
1.28
393
0.70
380
1.37
390
1.12
337
coex-fttwo views6.14
409
1.98
371
60.80
433
0.34
127
0.30
174
0.80
298
1.17
378
0.76
112
4.34
401
19.82
421
2.15
377
1.61
373
8.77
411
1.82
298
10.36
413
0.44
359
2.05
388
0.18
290
0.19
248
0.39
315
4.61
413
GASNettwo views0.84
279
1.98
371
4.07
373
0.48
253
0.33
199
0.58
111
0.34
207
0.97
264
0.81
263
0.60
197
0.59
181
0.74
257
0.55
248
2.08
328
1.18
285
0.22
308
0.15
179
0.19
295
0.17
224
0.55
353
0.29
119
MFN_U_SF_DS_RVCtwo views1.08
340
2.01
375
2.56
192
0.49
264
0.40
242
1.49
364
0.96
360
1.02
295
0.95
324
0.85
314
0.94
318
1.06
345
0.59
265
2.92
382
1.15
282
0.43
358
0.74
326
0.32
347
0.55
371
0.74
367
1.35
359
ADCStwo views1.14
344
2.02
376
3.36
328
0.43
232
0.37
228
0.96
334
0.81
349
1.12
343
1.17
359
1.25
360
0.98
326
1.08
348
0.92
333
1.41
233
4.97
400
0.23
316
0.21
228
0.22
313
0.23
275
0.40
321
0.67
277
MANEtwo views3.51
402
2.03
377
3.88
369
1.89
397
2.01
399
5.98
409
4.72
407
5.87
411
7.13
408
3.80
406
5.10
407
6.11
407
5.34
406
4.39
402
5.05
401
1.07
384
1.28
364
0.50
367
0.85
389
0.76
370
2.36
401
WAO-7two views1.58
377
2.04
378
3.25
319
0.94
351
0.75
328
1.75
378
1.13
372
1.87
386
1.97
387
1.46
374
2.53
386
1.98
379
1.75
375
3.13
386
2.48
359
0.69
372
0.67
315
0.94
382
0.74
385
0.80
374
0.77
296
MSC_U_SF_DS_RVCtwo views1.40
361
2.04
378
3.02
304
0.58
298
0.41
247
2.15
391
1.00
365
1.31
363
1.29
365
1.05
336
1.10
342
1.29
364
0.91
330
3.07
385
1.34
300
1.65
400
0.84
330
0.68
376
0.88
391
1.55
395
1.91
377
JetBluetwo views1.89
383
2.09
380
4.16
376
0.74
330
1.23
376
4.52
408
3.86
405
1.68
381
1.26
362
1.28
363
1.54
362
2.36
384
1.86
380
3.35
391
3.37
378
0.54
364
0.49
290
0.48
366
0.49
363
1.39
392
1.21
346
otakutwo views1.15
345
2.10
381
3.51
347
0.98
355
0.74
327
1.02
338
0.59
312
1.03
301
0.89
305
0.70
269
1.60
363
0.98
326
0.65
279
1.63
266
1.80
329
0.99
382
0.46
284
0.73
378
0.40
349
1.30
388
0.88
315
Ntrotwo views1.11
342
2.10
381
3.52
349
0.97
354
0.87
344
1.06
344
0.54
296
1.02
295
0.93
318
0.63
225
0.76
285
0.93
315
0.67
287
1.76
284
1.71
320
1.03
383
0.46
284
0.76
379
0.41
353
1.29
386
0.86
314
SGM+DAISYtwo views2.67
392
2.14
383
4.28
383
1.92
398
2.11
402
4.36
407
5.22
409
3.17
400
3.00
398
3.24
405
3.81
401
3.03
389
3.61
400
2.53
357
3.79
386
1.15
387
1.29
365
0.66
374
0.71
383
0.95
377
2.44
402
MADNet++two views2.94
399
2.17
384
3.27
321
2.55
405
2.28
403
3.29
401
3.37
401
2.76
397
2.67
395
3.10
404
3.20
398
2.78
386
3.25
398
4.11
400
4.68
399
2.72
407
2.27
403
3.03
411
2.43
409
2.34
405
2.59
403
ACVNet-4btwo views2.00
386
2.19
385
4.85
392
1.09
360
0.86
342
1.15
352
0.53
293
1.11
341
1.15
357
0.65
247
1.09
341
1.97
378
0.69
293
2.31
341
9.78
412
5.73
412
0.42
279
1.03
387
0.55
371
1.89
398
0.92
320
MADNet+two views1.44
364
2.19
385
6.00
403
0.89
345
0.70
324
1.58
369
1.11
370
1.56
377
1.30
367
0.89
318
1.03
335
1.25
361
1.12
349
3.29
389
2.80
368
0.48
363
0.57
302
0.39
357
0.36
341
0.63
361
0.69
286
ACVNet_2two views1.54
374
2.20
387
4.42
387
1.10
362
0.93
350
1.37
360
0.87
353
1.53
374
1.71
382
1.22
357
1.72
366
2.12
381
1.06
344
2.58
361
1.93
332
0.94
378
0.54
296
1.00
385
0.56
373
2.11
402
0.96
326
RainbowNettwo views1.27
351
2.22
388
3.58
354
1.14
365
0.92
348
1.08
346
0.76
344
1.19
354
1.15
357
0.77
293
0.97
323
1.08
348
0.83
317
1.64
269
1.72
322
1.20
390
1.30
367
1.01
386
0.58
375
1.23
383
0.97
329
TorneroNet-64two views2.74
393
2.23
389
4.18
377
1.48
378
1.20
374
3.88
403
1.01
367
3.48
407
6.61
407
2.62
400
4.55
405
4.20
397
3.84
402
3.39
393
3.40
380
1.23
391
0.66
314
1.39
398
0.80
387
3.42
409
1.27
351
UNDER WATERtwo views2.84
395
2.25
390
5.25
397
1.84
395
1.45
386
2.36
394
1.44
392
3.23
402
6.51
406
2.61
399
2.73
393
5.69
404
5.64
407
3.14
387
4.18
395
1.48
396
0.81
329
1.60
404
1.07
398
1.91
399
1.67
374
DispFullNettwo views1.69
380
2.25
390
5.23
396
1.53
381
8.78
411
0.89
320
0.37
226
1.03
301
0.98
333
1.37
365
1.00
330
1.13
355
1.97
383
1.51
247
0.98
263
0.55
366
0.32
259
1.19
390
0.64
379
1.16
381
0.88
315
Wz-Net-TNSevtwo views1.02
328
2.26
392
3.69
359
0.38
184
0.31
182
1.00
336
0.71
339
1.12
343
1.02
339
0.74
287
0.73
272
1.09
351
0.91
330
2.46
355
2.15
346
0.21
303
0.20
220
0.16
260
0.20
257
0.48
343
0.62
264
ACVNet_1two views1.47
368
2.27
393
4.92
393
1.11
363
0.89
345
1.19
356
0.66
329
1.28
360
1.19
360
0.98
328
0.97
323
3.06
390
1.48
366
2.37
345
1.82
330
1.08
385
0.49
290
1.03
387
0.48
361
1.20
382
0.95
324
UNDER WATER-64two views2.59
391
2.28
394
5.63
400
1.85
396
1.45
386
3.28
400
1.60
393
2.62
395
5.57
403
2.09
385
2.12
375
4.10
396
4.21
403
2.74
375
3.64
385
1.49
397
0.86
331
1.58
403
1.09
400
1.91
399
1.62
372
TorneroNettwo views5.60
408
2.30
395
3.98
370
1.49
380
1.26
379
14.47
416
1.11
370
4.85
409
20.66
425
10.12
410
16.30
417
11.78
415
7.35
409
3.41
394
4.38
396
1.36
395
0.70
322
1.46
400
0.87
390
2.73
406
1.33
356
Deantwo views1.92
384
2.31
396
5.03
395
1.31
368
1.08
367
1.55
367
0.99
361
1.98
391
2.33
390
1.51
376
4.15
403
4.23
400
1.39
360
2.31
341
2.10
341
1.18
389
0.69
319
1.18
389
0.75
386
1.30
388
1.07
335
PWCKtwo views1.62
379
2.32
397
4.27
381
1.11
363
0.56
287
1.81
380
1.84
395
1.55
376
1.54
377
1.45
372
1.81
367
1.82
376
1.38
359
3.34
390
2.14
345
1.09
386
0.57
302
0.98
384
0.59
376
1.50
394
0.79
301
notakertwo views2.77
394
2.35
398
4.02
372
2.61
406
1.44
385
1.77
379
1.14
373
2.77
398
1.81
385
2.30
394
11.41
412
3.95
395
4.70
404
3.24
388
3.01
373
1.58
399
0.88
332
1.71
406
1.08
399
2.10
401
1.44
365
KSHMRtwo views4.19
404
2.37
399
6.24
404
1.73
391
1.48
388
1.97
386
1.29
383
3.18
401
17.06
420
2.15
388
15.74
415
9.09
410
1.75
375
8.33
411
2.37
357
1.55
398
1.29
365
1.70
405
1.23
402
1.75
397
1.60
371
LE_ROBtwo views4.55
406
2.43
400
9.94
408
2.79
408
4.03
407
2.40
395
3.54
402
2.72
396
11.04
409
11.64
414
4.69
406
5.25
403
10.74
412
4.52
404
9.73
411
0.82
375
0.70
322
1.34
396
0.97
395
0.74
367
0.94
321
IMHtwo views2.14
390
2.46
401
3.60
357
1.70
388
1.13
372
1.65
374
0.93
359
2.13
392
1.93
386
1.37
365
2.64
391
2.19
382
1.82
379
5.77
405
2.18
348
5.70
411
1.05
345
1.31
395
0.72
384
1.39
392
1.13
339
ktntwo views4.44
405
2.47
402
3.70
360
1.82
394
1.49
389
2.11
390
1.40
389
2.30
393
12.56
411
11.36
413
16.25
416
11.30
414
3.77
401
4.41
403
3.47
381
1.86
402
0.99
337
1.74
407
1.21
401
3.28
408
1.39
362
WAO-8two views2.91
396
2.55
403
3.77
361
1.93
399
1.04
364
4.08
405
0.99
361
3.25
403
6.09
404
2.20
390
3.34
399
3.33
392
2.64
392
11.73
413
2.52
360
2.12
404
1.92
385
1.55
401
0.93
392
1.27
384
0.96
326
Venustwo views2.91
396
2.55
403
3.77
361
1.93
399
1.04
364
4.08
405
0.99
361
3.25
403
6.09
404
2.20
390
3.34
399
3.33
392
2.64
392
11.73
413
2.52
360
2.12
404
1.92
385
1.55
401
0.93
392
1.27
384
0.96
326
MFN_U_SF_RVCtwo views1.57
376
2.56
405
3.30
325
0.66
318
0.41
247
1.15
352
0.51
287
1.27
359
1.35
368
1.61
379
1.20
346
1.43
368
0.97
338
1.80
293
2.10
341
1.88
403
1.79
382
1.97
408
2.14
407
1.61
396
1.76
376
LVEtwo views2.10
388
2.61
406
4.30
385
1.79
393
1.81
397
1.68
376
1.04
368
2.35
394
2.78
396
1.27
362
2.87
395
4.21
399
1.46
363
2.83
380
2.02
335
2.87
408
0.92
334
1.19
390
1.47
406
1.29
386
1.18
340
SGM-ForestMtwo views3.67
403
2.70
407
5.34
399
1.65
386
1.72
395
6.02
410
5.08
408
4.10
408
3.47
399
4.59
407
4.21
404
9.81
411
5.79
408
6.44
408
6.97
407
0.88
377
1.09
347
0.33
351
0.45
357
0.68
365
2.10
384
SDNRtwo views2.06
387
2.93
408
2.94
293
1.55
382
5.13
409
1.98
387
0.24
79
1.95
390
2.62
393
0.92
323
2.71
392
5.76
405
0.68
289
3.61
396
3.84
387
0.33
348
0.38
271
0.22
313
0.17
224
1.13
379
2.04
382
SPstereotwo views16.55
419
3.18
409
4.92
393
2.73
407
2.77
404
29.67
426
52.00
427
39.41
434
29.70
434
21.94
430
21.64
424
27.45
432
23.83
426
27.92
434
26.10
428
2.44
406
2.60
407
4.96
413
3.11
411
2.27
403
2.32
400
HanzoNettwo views7.85
410
3.30
410
5.75
401
7.47
414
3.97
406
2.34
393
1.37
385
3.47
405
4.02
400
13.30
415
10.49
408
10.86
412
16.67
418
8.50
412
10.51
414
10.80
419
9.84
421
5.83
416
13.69
419
7.24
415
7.51
415
JetRedtwo views3.37
400
4.96
411
10.08
409
1.48
378
1.73
396
7.63
411
5.47
410
3.47
405
2.20
388
2.42
396
2.40
383
2.98
388
2.35
390
3.52
395
6.60
405
1.33
392
1.90
384
1.38
397
1.23
402
2.30
404
2.02
381
DGTPSM_ROBtwo views8.97
412
5.94
412
13.01
414
5.95
413
11.34
413
8.54
412
24.06
418
6.47
412
13.52
412
5.19
408
11.52
413
6.18
408
11.04
413
7.02
409
13.92
415
4.47
409
7.66
414
3.90
412
7.43
417
4.34
412
7.98
416
DPSMNet_ROBtwo views9.58
413
5.96
413
13.98
417
8.88
415
11.87
414
8.54
412
24.08
419
6.48
413
13.67
415
5.35
409
11.53
414
6.31
409
11.04
413
7.69
410
14.09
416
7.61
418
8.23
416
5.03
414
7.75
418
5.24
414
8.36
417
SGM-Foresttwo views1.84
382
7.91
414
10.36
410
0.42
222
0.33
199
1.04
339
1.29
383
1.01
289
0.88
300
1.19
348
2.30
382
1.03
337
1.79
378
2.60
363
2.81
369
0.22
308
0.21
228
0.21
309
0.19
248
0.25
207
0.79
301
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
Anonymous_1two views22.76
421
11.11
415
11.93
411
12.73
417
26.05
428
19.39
421
27.77
423
14.18
417
13.64
414
14.92
416
10.66
409
11.26
413
11.24
415
12.48
417
14.45
417
37.82
434
7.87
415
34.92
431
63.61
431
87.51
434
11.75
420
DPSM_ROBtwo views12.32
414
11.13
416
12.31
412
12.90
418
12.80
416
19.81
423
28.13
424
14.50
418
14.31
417
10.62
411
11.34
410
12.03
416
11.89
416
13.08
418
15.22
418
7.09
415
8.31
417
6.47
418
7.32
415
8.69
416
8.43
418
DPSMtwo views12.32
414
11.13
416
12.31
412
12.90
418
12.80
416
19.81
423
28.13
424
14.50
418
14.31
417
10.62
411
11.34
410
12.03
416
11.89
416
13.08
418
15.22
418
7.09
415
8.31
417
6.47
418
7.32
415
8.69
416
8.43
418
BEATNet-Init1two views12.32
414
12.82
418
28.66
430
3.22
409
3.71
405
21.59
425
11.42
413
14.54
420
13.73
416
20.24
422
20.16
422
26.14
430
19.85
420
19.08
424
15.33
420
1.81
401
1.93
387
2.05
409
2.48
410
4.25
411
3.41
410
PMLtwo views22.99
422
17.34
419
8.24
407
5.48
412
9.84
412
50.35
434
102.65
434
5.84
410
13.52
412
37.08
434
104.84
434
30.61
434
23.20
425
12.09
415
7.96
409
6.27
414
2.12
393
6.31
417
2.42
408
10.67
418
2.95
404
LRCNet_RVCtwo views13.78
418
19.34
420
13.01
414
19.47
421
12.67
415
1.85
381
0.42
251
12.28
416
1.10
350
15.76
417
18.69
421
12.52
418
8.65
410
12.22
416
9.64
410
22.29
426
8.38
419
25.92
428
24.06
428
19.72
426
17.59
423
DLNR_Zeroshot_testpermissivetwo views13.74
417
20.06
421
23.92
422
121.50
435
35.20
430
0.46
20
0.15
1
7.96
414
0.47
24
0.29
21
0.37
41
0.26
28
0.17
1
0.79
158
0.36
103
7.16
417
2.95
411
0.09
13
0.38
345
50.40
433
1.95
379
xxxxx1two views29.05
432
20.74
422
14.05
418
50.10
431
40.25
431
19.01
418
26.60
420
21.83
424
20.22
422
16.52
418
17.56
418
18.33
419
21.41
421
16.11
421
20.77
423
23.48
427
26.77
430
66.36
432
78.56
432
30.19
429
32.23
432
tt_lltwo views29.05
432
20.74
422
14.05
418
50.10
431
40.25
431
19.01
418
26.60
420
21.83
424
20.22
422
16.52
418
17.56
418
18.33
419
21.41
421
16.11
421
20.77
423
23.48
427
26.77
430
66.36
432
78.56
432
30.19
429
32.23
432
fftwo views29.05
432
20.74
422
14.05
418
50.10
431
40.25
431
19.01
418
26.60
420
21.83
424
20.22
422
16.52
418
17.56
418
18.33
419
21.41
421
16.11
421
20.77
423
23.48
427
26.77
430
66.36
432
78.56
432
30.19
429
32.23
432
CasAABBNettwo views24.76
425
22.38
425
24.44
423
26.05
425
25.75
423
39.79
428
56.76
430
29.10
431
28.88
428
21.22
424
22.69
426
24.21
427
23.99
431
26.23
427
30.62
430
14.22
420
16.71
423
13.03
420
14.75
422
17.49
422
16.97
421
HaxPigtwo views19.88
420
22.39
426
22.30
421
17.98
420
17.98
418
12.06
415
12.06
414
16.25
421
15.97
419
21.05
423
21.41
423
18.85
422
18.35
419
20.07
425
19.64
422
23.57
430
23.19
429
24.07
427
23.71
427
22.95
427
23.72
429
MyStereo03two views24.90
427
22.40
427
24.90
425
26.19
427
25.93
425
39.80
429
56.77
431
29.00
428
28.95
430
21.51
427
22.81
428
24.16
424
23.92
427
26.26
428
30.65
431
14.24
421
17.13
425
13.03
420
14.76
424
17.48
419
18.00
424
MyStereo02two views24.90
427
22.40
427
24.90
425
26.19
427
25.93
425
39.80
429
56.77
431
29.00
428
28.95
430
21.51
427
22.81
428
24.16
424
23.92
427
26.26
428
30.65
431
14.24
421
17.13
425
13.03
420
14.76
424
17.48
419
18.00
424
MyStereotwo views24.90
427
22.40
427
24.90
425
26.19
427
25.93
425
39.80
429
56.77
431
29.00
428
28.95
430
21.51
427
22.81
428
24.16
424
23.92
427
26.26
428
30.65
431
14.24
421
17.13
425
13.03
420
14.76
424
17.48
419
18.00
424
Selective-RAFT-Errortwo views24.83
426
22.44
430
24.80
424
26.10
426
25.82
424
39.85
432
56.72
429
29.21
433
29.03
433
21.29
426
22.80
427
24.25
428
24.07
432
26.28
431
30.60
429
14.24
421
16.85
424
13.04
424
14.75
422
17.53
423
17.02
422
LSM0two views26.57
430
22.53
431
25.76
428
30.62
430
52.30
434
39.86
433
56.49
428
29.18
432
28.76
427
21.26
425
22.46
425
24.42
429
23.97
430
26.42
432
30.66
434
14.29
425
16.56
422
13.06
425
14.65
421
17.62
424
20.52
427
DPSimNet_ROBtwo views24.35
424
23.81
432
31.38
432
25.93
424
22.83
421
31.30
427
34.38
426
20.78
423
28.92
429
27.39
432
22.99
431
28.29
433
35.76
434
15.47
420
17.82
421
24.28
431
17.90
428
22.23
426
14.12
420
19.38
425
22.12
428
MEDIAN_ROBtwo views23.95
423
26.96
433
26.29
429
22.14
422
22.09
420
16.18
417
14.23
415
20.47
422
20.09
421
25.43
431
25.22
432
22.96
423
22.54
424
24.33
426
23.18
426
28.15
432
27.16
433
28.60
429
27.73
429
27.59
428
27.58
430
AVERAGE_ROBtwo views26.91
431
30.28
434
29.18
431
25.78
423
25.30
422
19.49
422
15.38
416
23.70
427
23.02
426
28.38
433
27.78
433
26.23
431
25.76
433
26.95
433
25.55
427
31.27
433
30.02
434
31.76
430
30.80
430
30.88
432
30.77
431
test_example2two views115.17
435
122.38
435
93.45
434
115.38
434
123.53
435
101.24
435
113.11
435
54.67
435
99.94
435
135.50
435
136.43
435
85.67
435
85.40
435
110.44
435
104.91
435
152.17
435
205.21
435
99.17
435
114.27
435
138.55
435
112.04
435