This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CREStereotwo views0.28
1
0.30
71
1.33
20
0.19
1
0.13
5
0.55
88
0.17
5
0.48
23
0.46
50
0.27
29
0.33
34
0.24
20
0.21
15
0.31
16
0.21
22
0.11
124
0.07
11
0.08
3
0.05
1
0.10
11
0.07
3
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.31
12
0.35
98
1.30
17
0.20
2
0.14
12
0.57
114
0.25
98
0.46
12
0.42
28
0.27
29
0.32
31
0.27
37
0.24
30
0.39
50
0.23
33
0.43
360
0.07
11
0.08
3
0.05
1
0.18
147
0.07
3
LoStwo views0.31
12
0.30
71
1.52
46
0.23
3
0.13
5
0.54
78
0.20
22
0.48
23
0.49
68
0.25
19
0.28
17
0.37
67
0.24
30
0.38
47
0.23
33
0.10
78
0.08
58
0.08
3
0.05
1
0.15
83
0.07
3
CEStwo views0.30
8
0.27
42
1.09
3
0.23
3
0.50
336
0.40
15
0.20
22
0.46
12
0.44
37
0.22
5
0.28
17
0.26
31
0.19
9
0.33
26
0.21
22
0.09
17
0.07
11
0.08
3
0.05
1
0.15
83
0.49
359
s12784htwo views0.36
38
0.28
62
1.58
52
0.23
3
0.11
1
0.62
194
0.24
83
0.79
190
0.64
188
0.44
79
0.52
135
0.28
40
0.26
53
0.50
104
0.24
47
0.11
124
0.06
1
0.09
20
0.06
7
0.16
109
0.06
1
TANstereotwo views0.33
19
0.49
155
1.75
91
0.23
3
0.12
3
0.54
78
0.16
3
0.40
3
0.45
47
0.45
86
0.51
128
0.26
31
0.22
19
0.29
11
0.20
19
0.10
78
0.10
140
0.08
3
0.06
7
0.08
1
0.11
37
StereoIMtwo views0.29
4
0.54
172
1.44
34
0.24
7
0.29
207
0.29
3
0.16
3
0.45
11
0.37
9
0.19
1
0.21
2
0.28
40
0.22
19
0.30
14
0.29
86
0.10
78
0.09
112
0.10
48
0.08
29
0.11
22
0.11
37
knoymoustwo views0.34
26
0.25
32
1.75
91
0.24
7
0.18
83
0.45
19
0.24
83
0.57
65
0.38
10
0.41
65
0.39
59
0.55
166
0.25
41
0.38
47
0.23
33
0.11
124
0.08
58
0.12
136
0.07
13
0.13
51
0.12
63
ffftwo views0.43
85
0.77
247
1.95
182
0.24
7
0.13
5
0.51
56
0.22
44
0.77
164
0.75
279
0.54
170
0.47
89
0.31
47
0.65
288
0.36
36
0.34
131
0.09
17
0.07
11
0.08
3
0.07
13
0.08
1
0.22
224
DRafttwo views0.62
244
0.38
110
1.76
95
0.24
7
0.16
37
0.64
221
0.66
332
0.53
48
0.53
99
0.67
286
0.99
331
0.38
73
1.00
344
1.44
239
2.10
362
0.10
78
0.14
225
0.10
48
0.14
204
0.18
147
0.21
214
CREStereo++_RVCtwo views0.33
19
0.29
66
1.74
85
0.24
7
0.16
37
0.54
78
0.15
1
0.40
3
0.55
110
0.37
47
0.51
128
0.24
20
0.19
9
0.27
1
0.26
56
0.09
17
0.06
1
0.08
3
0.30
333
0.08
1
0.06
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
csctwo views0.43
85
0.77
247
1.95
182
0.24
7
0.13
5
0.51
56
0.22
44
0.77
164
0.75
279
0.54
170
0.47
89
0.31
47
0.65
288
0.36
36
0.34
131
0.09
17
0.07
11
0.08
3
0.07
13
0.08
1
0.22
224
cscssctwo views0.43
85
0.77
247
1.95
182
0.24
7
0.13
5
0.51
56
0.22
44
0.77
164
0.75
279
0.54
170
0.47
89
0.31
47
0.65
288
0.36
36
0.34
131
0.09
17
0.07
11
0.08
3
0.07
13
0.08
1
0.22
224
111two views0.48
136
1.09
338
1.95
182
0.24
7
0.13
5
0.59
145
0.26
114
0.83
208
0.78
298
0.48
113
0.52
135
0.56
175
0.38
139
0.49
99
0.38
147
0.09
17
0.07
11
0.09
20
0.07
13
0.23
204
0.35
319
ff7two views0.32
14
0.52
164
1.38
26
0.25
15
0.16
37
0.56
97
0.23
60
0.46
12
0.41
23
0.24
11
0.23
5
0.20
2
0.23
24
0.48
90
0.19
3
0.09
17
0.08
58
0.10
48
0.18
264
0.23
204
0.22
224
fffftwo views0.32
14
0.52
164
1.38
26
0.25
15
0.16
37
0.56
97
0.23
60
0.46
12
0.41
23
0.24
11
0.23
5
0.20
2
0.23
24
0.48
90
0.19
3
0.09
17
0.08
58
0.10
48
0.18
264
0.23
204
0.22
224
11ttwo views0.32
14
0.52
164
1.38
26
0.25
15
0.16
37
0.56
97
0.23
60
0.46
12
0.41
23
0.24
11
0.23
5
0.20
2
0.23
24
0.48
90
0.19
3
0.09
17
0.08
58
0.10
48
0.18
264
0.23
204
0.22
224
LoS_RVCtwo views0.29
4
0.33
85
1.19
9
0.25
15
0.34
258
0.43
17
0.22
44
0.42
5
0.32
2
0.22
5
0.33
34
0.23
13
0.24
30
0.31
16
0.21
22
0.07
1
0.07
11
0.07
1
0.05
1
0.10
11
0.31
302
anonymousdsptwo views0.34
26
0.53
169
1.47
38
0.25
15
0.16
37
0.56
97
0.23
60
0.49
27
0.40
19
0.25
19
0.24
11
0.22
8
0.24
30
0.55
124
0.19
3
0.09
17
0.11
172
0.10
48
0.18
264
0.24
219
0.29
287
ProNettwo views0.30
8
0.54
172
1.29
15
0.25
15
0.15
24
0.47
33
0.25
98
0.48
23
0.39
15
0.21
2
0.23
5
0.22
8
0.20
14
0.44
67
0.19
3
0.08
4
0.08
58
0.10
48
0.08
29
0.23
204
0.12
63
DCANet-4two views0.40
63
0.27
42
2.21
239
0.25
15
0.14
12
0.51
56
0.22
44
0.77
164
0.72
249
0.54
170
0.47
89
0.28
40
0.37
134
0.37
43
0.34
131
0.09
17
0.07
11
0.08
3
0.07
13
0.08
1
0.22
224
ccc-4two views0.32
14
0.52
164
1.38
26
0.25
15
0.16
37
0.56
97
0.23
60
0.46
12
0.41
23
0.24
11
0.23
5
0.20
2
0.23
24
0.48
90
0.19
3
0.09
17
0.08
58
0.10
48
0.18
264
0.23
204
0.22
224
ADStereo(finetuned)two views0.45
109
0.77
247
2.12
222
0.25
15
0.14
12
0.51
56
0.22
44
0.77
164
0.72
249
0.54
170
0.48
101
0.31
47
0.76
315
0.37
43
0.38
147
0.09
17
0.07
11
0.09
20
0.07
13
0.13
51
0.23
242
IGEV-Stereopermissivetwo views0.34
26
0.54
172
1.47
38
0.25
15
0.16
37
0.56
97
0.23
60
0.49
27
0.40
19
0.25
19
0.24
11
0.22
8
0.24
30
0.54
120
0.19
3
0.09
17
0.10
140
0.10
48
0.18
264
0.24
219
0.29
287
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
CrosDoStereotwo views0.94
339
0.37
105
2.53
297
0.25
15
0.32
241
0.54
78
3.76
410
0.72
122
0.60
142
0.70
297
1.40
359
0.53
159
1.49
374
1.78
292
3.09
379
0.10
78
0.08
58
0.11
92
0.11
124
0.21
184
0.11
37
DeepStereo_LLtwo views0.94
339
0.37
105
2.53
297
0.25
15
0.32
241
0.54
78
3.76
410
0.72
122
0.60
142
0.70
297
1.40
359
0.53
159
1.49
374
1.78
292
3.09
379
0.10
78
0.08
58
0.11
92
0.11
124
0.21
184
0.11
37
THIR-Stereotwo views0.86
329
0.62
194
2.13
224
0.25
15
0.16
37
0.58
129
2.74
406
0.59
74
0.51
78
0.62
254
1.62
366
0.97
332
1.80
385
1.69
280
2.25
367
0.10
78
0.08
58
0.14
219
0.11
124
0.15
83
0.11
37
AnonymousMtwo views0.37
41
0.44
137
1.50
43
0.25
15
0.15
24
0.52
69
0.23
60
0.60
81
0.42
28
0.42
69
0.32
31
0.30
45
0.25
41
0.34
30
0.23
33
0.11
124
0.09
112
0.71
378
0.36
355
0.12
32
0.07
3
CFNet_pseudotwo views0.45
109
0.46
144
2.23
246
0.25
15
0.19
96
0.56
97
0.21
32
0.77
164
0.60
142
0.49
124
0.56
172
0.69
244
0.47
220
0.52
111
0.31
107
0.11
124
0.10
140
0.15
245
0.10
75
0.17
128
0.14
107
DCANettwo views0.42
79
0.77
247
1.95
182
0.25
15
0.14
12
0.51
56
0.22
44
0.77
164
0.72
249
0.54
170
0.48
101
0.31
47
0.41
171
0.36
36
0.39
154
0.09
17
0.07
11
0.09
20
0.07
13
0.13
51
0.23
242
MIF-Stereo (partial)two views0.34
26
0.41
122
1.93
175
0.26
31
0.24
158
0.32
6
0.17
5
0.53
48
0.42
28
0.25
19
0.37
45
0.25
26
0.26
53
0.44
67
0.31
107
0.11
124
0.08
58
0.12
136
0.10
75
0.19
164
0.14
107
PCWNet_CMDtwo views0.46
119
0.45
142
2.28
253
0.26
31
0.20
106
0.55
88
0.21
32
0.75
145
0.64
188
0.48
113
0.55
161
0.68
237
0.57
261
0.46
80
0.30
97
0.11
124
0.10
140
0.14
219
0.10
75
0.18
147
0.14
107
CFNet_ucstwo views0.48
136
0.50
161
2.32
257
0.26
31
0.22
134
0.57
114
0.22
44
0.85
222
0.65
200
0.53
159
0.64
236
0.68
237
0.44
203
0.54
120
0.31
107
0.13
199
0.12
197
0.16
260
0.11
124
0.19
164
0.17
170
RCA-Stereotwo views0.34
26
0.32
80
1.30
17
0.26
31
0.14
12
0.58
129
0.23
60
0.78
178
0.62
172
0.40
59
0.44
81
0.28
40
0.35
122
0.29
11
0.20
19
0.09
17
0.10
140
0.09
20
0.07
13
0.19
164
0.08
10
IERtwo views0.43
85
0.38
110
1.69
70
0.26
31
0.25
170
0.66
238
0.26
114
0.71
117
0.55
110
0.54
170
0.59
186
0.60
196
0.53
244
0.52
111
0.39
154
0.11
124
0.08
58
0.11
92
0.11
124
0.14
69
0.11
37
MSMDNettwo views0.46
119
0.44
137
2.28
253
0.26
31
0.20
106
0.55
88
0.21
32
0.75
145
0.64
188
0.48
113
0.55
161
0.68
237
0.56
256
0.46
80
0.30
97
0.11
124
0.10
140
0.13
190
0.10
75
0.18
147
0.15
137
HSM-Net_RVCpermissivetwo views0.67
265
0.34
92
2.23
246
0.26
31
0.19
96
0.67
243
0.29
167
1.26
372
0.69
223
0.72
304
0.70
275
0.78
283
0.42
186
3.77
399
0.41
165
0.13
199
0.09
112
0.10
48
0.09
44
0.12
32
0.11
37
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
ccs_robtwo views0.45
109
0.46
144
2.22
242
0.26
31
0.19
96
0.56
97
0.21
32
0.77
164
0.60
142
0.49
124
0.56
172
0.69
244
0.47
220
0.52
111
0.31
107
0.11
124
0.09
112
0.16
260
0.10
75
0.17
128
0.14
107
IGEVStereo-DCAtwo views0.33
19
0.34
92
1.38
26
0.27
39
0.16
37
0.45
19
0.23
60
0.46
12
0.41
23
0.24
11
0.21
2
0.26
31
0.25
41
0.64
145
0.52
210
0.09
17
0.07
11
0.10
48
0.18
264
0.16
109
0.22
224
rrrtwo views0.46
119
0.34
92
3.08
359
0.27
39
0.16
37
0.45
19
0.28
147
1.09
357
0.51
78
0.24
11
0.21
2
0.26
31
0.25
41
0.64
145
0.52
210
0.09
17
0.07
11
0.10
48
0.29
328
0.16
109
0.25
258
test crocotwo views0.37
41
0.47
152
2.15
230
0.27
39
0.19
96
0.33
7
0.20
22
0.58
69
0.46
50
0.23
10
0.37
45
0.23
13
0.25
41
0.45
74
0.28
73
0.11
124
0.08
58
0.13
190
0.09
44
0.42
338
0.12
63
MSKI-zero shottwo views0.46
119
0.38
110
2.47
288
0.27
39
0.43
315
0.56
97
0.20
22
0.77
164
0.43
35
0.60
236
0.51
128
0.44
116
0.17
1
0.68
156
0.21
22
0.09
17
0.29
342
0.09
20
0.32
340
0.14
69
0.10
27
MIF-Stereotwo views0.30
8
0.36
103
1.68
68
0.27
39
0.24
158
0.29
3
0.18
11
0.33
1
0.34
3
0.26
26
0.37
45
0.18
1
0.18
6
0.31
16
0.27
64
0.10
78
0.08
58
0.08
3
0.07
13
0.25
230
0.08
10
Any-RAFTtwo views0.38
46
0.25
32
1.89
161
0.27
39
0.17
61
0.68
254
0.21
32
0.78
178
0.53
99
0.43
74
0.43
71
0.54
163
0.30
98
0.41
56
0.20
19
0.10
78
0.12
197
0.08
3
0.06
7
0.10
11
0.09
16
RAFT-Testtwo views0.44
94
0.38
110
2.01
197
0.27
39
0.44
316
0.64
221
0.37
235
0.72
122
0.57
121
0.45
86
0.48
101
0.65
216
0.24
30
0.35
32
0.29
86
0.09
17
0.11
172
0.09
20
0.38
358
0.10
11
0.11
37
4D-IteraStereotwo views0.44
94
0.96
307
2.63
311
0.27
39
0.30
217
0.45
19
0.25
98
0.52
43
0.50
74
0.40
59
0.31
28
0.40
85
0.19
9
0.35
32
0.32
117
0.09
17
0.06
1
0.12
136
0.11
124
0.19
164
0.30
295
Selective-IGEVtwo views0.29
4
0.23
21
1.28
14
0.27
39
0.30
217
0.35
10
0.20
22
0.56
62
0.38
10
0.21
2
0.30
25
0.22
8
0.18
6
0.37
43
0.18
1
0.07
1
0.06
1
0.08
3
0.15
224
0.16
109
0.29
287
iRaft-Stereo_5wtwo views0.54
195
1.01
327
2.08
214
0.27
39
0.21
113
0.49
44
0.28
147
0.73
130
0.58
131
0.40
59
0.61
205
0.62
202
0.46
215
1.78
292
0.47
192
0.09
17
0.07
11
0.11
92
0.10
75
0.39
328
0.12
63
psmgtwo views0.41
66
0.27
42
1.13
4
0.27
39
0.21
113
0.75
284
0.36
228
0.90
256
0.61
156
0.59
228
0.59
186
0.63
205
0.37
134
0.43
62
0.38
147
0.13
199
0.10
140
0.13
190
0.12
154
0.13
51
0.11
37
STrans-v2two views0.67
265
0.56
182
2.64
313
0.27
39
0.23
145
0.57
114
0.33
212
0.96
298
0.69
223
0.92
340
0.85
308
0.89
314
0.93
337
1.83
302
1.21
320
0.09
17
0.07
11
0.10
48
0.09
44
0.11
22
0.12
63
test_xeamplepermissivetwo views0.72
289
0.21
9
1.36
23
0.27
39
0.17
61
0.59
145
0.28
147
1.01
336
0.70
232
0.55
184
0.67
250
0.44
116
0.39
153
1.88
314
5.17
403
0.12
171
0.10
140
0.11
92
0.10
75
0.13
51
0.15
137
GMStereopermissivetwo views0.38
46
0.99
321
1.91
169
0.27
39
0.16
37
0.39
14
0.23
60
0.47
20
0.62
172
0.38
52
0.34
38
0.25
26
0.25
41
0.39
50
0.29
86
0.14
227
0.08
58
0.10
48
0.12
154
0.15
83
0.11
37
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
CFNet-RSSMtwo views0.41
66
0.32
80
2.20
238
0.27
39
0.44
316
0.52
69
0.19
13
0.76
154
0.48
64
0.43
74
0.36
42
0.54
163
0.26
53
0.33
26
0.25
53
0.09
17
0.08
58
0.09
20
0.38
358
0.10
11
0.09
16
SFCPSMtwo views0.46
119
0.24
29
2.35
265
0.27
39
0.27
194
0.70
262
0.32
204
0.96
298
0.63
181
0.49
124
0.52
135
0.43
105
0.36
126
0.52
111
0.43
175
0.12
171
0.09
112
0.12
136
0.16
239
0.16
109
0.12
63
Gwc-CoAtRStwo views0.38
46
0.33
85
1.92
172
0.27
39
0.41
308
0.48
39
0.19
13
0.59
74
0.46
50
0.43
74
0.39
59
0.57
181
0.26
53
0.32
20
0.26
56
0.09
17
0.09
112
0.09
20
0.31
337
0.11
22
0.09
16
DIP-Stereotwo views0.37
41
0.34
92
1.50
43
0.27
39
0.18
83
0.63
210
0.17
5
0.92
274
0.53
99
0.49
124
0.48
101
0.30
45
0.30
98
0.39
50
0.30
97
0.10
78
0.08
58
0.10
48
0.08
29
0.15
83
0.12
63
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
CASnettwo views0.28
1
0.31
77
1.20
10
0.28
57
0.11
1
0.47
33
0.19
13
0.44
8
0.44
37
0.38
52
0.31
28
0.23
13
0.17
1
0.29
11
0.19
3
0.10
78
0.06
1
0.15
245
0.12
154
0.16
109
0.07
3
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
AEACVtwo views0.33
19
0.24
29
1.44
34
0.28
57
0.35
268
0.47
33
0.21
32
0.43
6
0.28
1
0.26
26
0.25
14
0.22
8
0.38
139
0.30
14
0.18
1
0.09
17
0.35
352
0.09
20
0.36
355
0.23
204
0.25
258
anonymousdsp2two views0.34
26
0.24
29
1.16
7
0.28
57
0.15
24
0.57
114
0.23
60
0.79
190
0.47
63
0.38
52
0.37
45
0.40
85
0.25
41
0.47
86
0.21
22
0.09
17
0.07
11
0.10
48
0.13
179
0.19
164
0.27
275
CBFPSMtwo views0.56
213
0.91
290
1.82
137
0.28
57
0.23
145
0.71
264
0.37
235
0.72
122
0.64
188
0.50
131
0.49
118
1.03
342
0.83
322
0.62
140
1.35
328
0.10
78
0.12
197
0.10
48
0.10
75
0.18
147
0.19
195
qqqtwo views0.38
46
0.21
9
1.34
22
0.28
57
0.15
24
0.45
19
0.26
114
0.76
154
0.52
83
0.39
57
0.41
66
0.46
131
0.36
126
0.96
198
0.30
97
0.11
124
0.14
225
0.12
136
0.12
154
0.12
32
0.14
107
raft_robusttwo views0.55
207
0.84
273
1.73
81
0.28
57
0.54
345
0.53
75
0.25
98
0.88
244
0.75
279
0.48
113
0.46
86
0.76
278
0.75
314
1.46
244
0.27
64
0.09
17
0.10
140
0.10
48
0.30
333
0.26
244
0.16
159
GLC_STEREOtwo views0.28
1
0.27
42
1.36
23
0.28
57
0.12
3
0.41
16
0.20
22
0.37
2
0.38
10
0.26
26
0.30
25
0.25
26
0.19
9
0.33
26
0.24
47
0.09
17
0.11
172
0.12
136
0.10
75
0.13
51
0.09
16
GMOStereotwo views0.41
66
0.62
194
1.78
107
0.28
57
0.36
275
0.51
56
0.31
183
0.53
48
0.44
37
0.57
203
0.48
101
0.41
89
0.27
67
0.28
3
0.23
33
0.08
4
0.38
358
0.13
190
0.11
124
0.34
294
0.11
37
error versiontwo views0.41
66
0.62
194
1.78
107
0.28
57
0.36
275
0.51
56
0.31
183
0.53
48
0.44
37
0.57
203
0.48
101
0.41
89
0.27
67
0.28
3
0.23
33
0.08
4
0.38
358
0.13
190
0.11
124
0.34
294
0.11
37
test-vtwo views0.41
66
0.62
194
1.78
107
0.28
57
0.36
275
0.51
56
0.31
183
0.53
48
0.44
37
0.57
203
0.48
101
0.41
89
0.27
67
0.28
3
0.23
33
0.08
4
0.38
358
0.13
190
0.11
124
0.34
294
0.11
37
test-2two views0.41
66
0.62
194
1.78
107
0.28
57
0.36
275
0.51
56
0.31
183
0.53
48
0.44
37
0.57
203
0.48
101
0.41
89
0.27
67
0.28
3
0.23
33
0.08
4
0.38
358
0.13
190
0.11
124
0.34
294
0.11
37
iRaftStereo_RVCtwo views0.37
41
0.53
169
1.41
31
0.28
57
0.15
24
0.52
69
0.20
22
0.54
58
0.46
50
0.37
47
0.43
71
0.41
89
0.23
24
0.36
36
0.26
56
0.09
17
0.15
246
0.12
136
0.11
124
0.41
334
0.37
334
222two views0.78
313
0.23
21
1.23
11
0.28
57
0.18
83
0.62
194
0.24
83
1.02
339
0.70
232
0.58
215
0.66
247
0.46
131
0.42
186
1.80
298
6.53
408
0.13
199
0.10
140
0.11
92
0.10
75
0.12
32
0.17
170
xxxxtwo views0.70
279
0.21
9
1.33
20
0.28
57
0.18
83
0.63
210
0.24
83
1.02
339
0.69
223
0.50
131
0.62
210
0.58
188
0.38
139
1.47
251
5.21
404
0.13
199
0.12
197
0.11
92
0.10
75
0.12
32
0.15
137
ARAFTtwo views0.60
232
1.23
357
3.10
361
0.28
57
0.16
37
0.64
221
0.36
228
0.90
256
0.67
213
0.61
243
0.49
118
0.55
166
0.31
106
1.24
229
0.32
117
0.10
78
0.08
58
0.14
219
0.13
179
0.37
314
0.21
214
RAFT-Stereo + iAFFtwo views0.42
79
0.86
278
1.78
107
0.28
57
0.17
61
0.52
69
0.20
22
0.62
87
0.61
156
0.50
131
0.61
205
0.39
77
0.32
109
0.35
32
0.30
97
0.07
1
0.10
140
0.09
20
0.09
44
0.35
302
0.10
27
ACVNettwo views0.45
109
0.44
137
1.79
125
0.28
57
0.21
113
0.59
145
0.36
228
0.66
97
0.68
215
0.45
86
0.59
186
0.69
244
0.40
160
0.44
67
0.55
219
0.11
124
0.09
112
0.10
48
0.09
44
0.34
294
0.10
27
hitnet-ftcopylefttwo views0.67
265
0.80
259
1.90
164
0.28
57
0.22
134
0.69
257
0.36
228
0.85
222
0.65
200
0.56
193
0.84
304
1.03
342
0.95
342
2.32
345
0.55
219
0.23
321
0.14
225
0.41
363
0.13
179
0.24
219
0.17
170
CFNet-ftpermissivetwo views0.51
176
0.76
239
1.79
125
0.28
57
0.30
217
0.63
210
0.28
147
0.66
97
0.55
110
0.45
86
0.57
177
0.74
269
0.41
171
1.46
244
0.42
167
0.14
227
0.10
140
0.28
339
0.13
179
0.18
147
0.14
107
DSFCAtwo views0.54
195
0.35
98
1.41
31
0.28
57
0.28
202
0.79
303
0.88
360
0.76
154
0.70
232
0.72
304
0.66
247
0.67
231
0.57
261
1.17
221
0.63
244
0.16
258
0.14
225
0.13
190
0.14
204
0.16
109
0.13
94
CFNet_RVCtwo views0.51
176
0.76
239
1.79
125
0.28
57
0.30
217
0.63
210
0.28
147
0.66
97
0.55
110
0.45
86
0.57
177
0.74
269
0.41
171
1.46
244
0.42
167
0.14
227
0.10
140
0.28
339
0.13
179
0.18
147
0.14
107
MyStereo07two views0.34
26
0.40
119
1.46
36
0.29
78
0.23
145
0.60
154
0.31
183
0.53
48
0.42
28
0.25
19
0.25
14
0.20
2
0.26
53
0.57
127
0.19
3
0.09
17
0.18
278
0.12
136
0.11
124
0.16
109
0.19
195
MyStereo04two views0.48
136
0.40
119
2.65
315
0.29
78
0.23
145
0.60
154
0.31
183
0.83
208
0.75
279
0.47
94
0.36
42
0.53
159
0.42
186
0.53
117
0.39
154
0.09
17
0.18
278
0.12
136
0.11
124
0.16
109
0.19
195
CoDeXtwo views0.52
185
0.43
131
2.25
249
0.29
78
0.26
183
0.61
174
0.32
204
0.99
320
0.68
215
0.48
113
0.55
161
0.52
157
0.40
160
1.60
268
0.35
138
0.12
171
0.09
112
0.11
92
0.10
75
0.13
51
0.12
63
ToySttwo views0.44
94
0.61
191
1.89
161
0.29
78
0.18
83
0.55
88
0.35
222
0.67
106
0.53
99
0.39
57
0.50
124
0.59
190
0.43
196
0.51
107
0.49
200
0.10
78
0.12
197
0.13
190
0.16
239
0.24
219
0.19
195
anonymousatwo views0.48
136
0.46
144
2.44
283
0.29
78
0.34
258
0.61
174
0.25
98
0.66
97
0.54
106
0.53
159
0.77
295
0.73
263
0.46
215
0.33
26
0.31
107
0.10
78
0.09
112
0.12
136
0.29
328
0.10
11
0.19
195
test_4two views0.40
63
0.37
105
2.01
197
0.29
78
0.21
113
0.50
50
0.28
147
0.47
20
0.39
15
0.42
69
0.76
292
0.38
73
0.22
19
0.52
111
0.33
127
0.08
4
0.07
11
0.11
92
0.15
224
0.28
257
0.07
3
CSP-Nettwo views0.50
162
0.39
117
1.25
12
0.29
78
0.23
145
0.77
294
0.35
222
0.86
230
0.57
121
0.59
228
0.59
186
0.65
216
0.40
160
1.77
291
0.44
179
0.16
258
0.11
172
0.10
48
0.10
75
0.20
176
0.14
107
dadtwo views0.51
176
1.01
327
1.74
85
0.29
78
0.19
96
0.60
154
0.26
114
0.52
43
0.75
279
0.63
263
0.63
220
0.63
205
0.33
112
0.85
191
0.47
192
0.27
341
0.15
246
0.40
362
0.18
264
0.22
196
0.14
107
TestStereotwo views0.45
109
0.54
172
2.11
219
0.29
78
0.16
37
0.43
17
0.24
83
0.54
58
0.45
47
0.37
47
0.46
86
0.34
60
0.27
67
1.98
321
0.27
64
0.11
124
0.08
58
0.12
136
0.09
44
0.14
69
0.08
10
R-Stereo Traintwo views0.36
38
0.21
9
1.70
74
0.29
78
0.18
83
0.55
88
0.26
114
0.78
178
0.36
6
0.57
203
0.67
250
0.33
56
0.24
30
0.32
20
0.23
33
0.10
78
0.08
58
0.09
20
0.07
13
0.09
7
0.12
63
RAFT-Stereopermissivetwo views0.36
38
0.21
9
1.70
74
0.29
78
0.18
83
0.55
88
0.26
114
0.78
178
0.36
6
0.57
203
0.67
250
0.33
56
0.24
30
0.32
20
0.23
33
0.10
78
0.08
58
0.09
20
0.07
13
0.09
7
0.12
63
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
DeepPruner_ROBtwo views0.50
162
0.70
223
1.94
179
0.29
78
0.26
183
0.63
210
0.31
183
0.80
192
0.48
64
0.61
243
0.55
161
0.66
221
0.38
139
0.98
200
0.40
159
0.19
292
0.14
225
0.14
219
0.14
204
0.23
204
0.17
170
MLCVtwo views0.48
136
0.89
287
1.85
142
0.29
78
0.14
12
0.59
145
0.23
60
0.72
122
0.59
138
0.66
282
0.66
247
0.55
166
0.36
126
1.03
206
0.49
200
0.09
17
0.06
1
0.09
20
0.07
13
0.19
164
0.11
37
SMFormertwo views0.50
162
0.46
144
1.60
55
0.30
91
0.15
24
0.45
19
0.24
83
0.90
256
0.72
249
0.56
193
0.64
236
0.51
151
0.41
171
1.87
309
0.49
200
0.13
199
0.10
140
0.11
92
0.10
75
0.15
83
0.16
159
ttatwo views0.50
162
0.46
144
1.60
55
0.30
91
0.15
24
0.45
19
0.24
83
0.90
256
0.72
249
0.56
193
0.64
236
0.51
151
0.41
171
1.87
309
0.49
200
0.13
199
0.10
140
0.11
92
0.10
75
0.14
69
0.11
37
qqq1two views0.48
136
0.46
144
1.60
55
0.30
91
0.15
24
0.45
19
0.24
83
0.90
256
0.72
249
0.56
193
0.64
236
0.51
151
0.41
171
1.87
309
0.23
33
0.13
199
0.10
140
0.09
20
0.08
29
0.14
69
0.11
37
fff1two views0.48
136
0.46
144
1.60
55
0.30
91
0.15
24
0.45
19
0.24
83
0.90
256
0.72
249
0.56
193
0.64
236
0.51
151
0.41
171
1.87
309
0.23
33
0.13
199
0.10
140
0.09
20
0.08
29
0.14
69
0.11
37
MyStereo06two views0.54
195
0.41
122
2.68
318
0.30
91
0.23
145
0.60
154
0.30
173
0.81
196
0.44
37
0.84
331
0.52
135
0.78
283
0.58
265
0.48
90
1.10
310
0.09
17
0.17
270
0.12
136
0.10
75
0.16
109
0.20
208
MyStereo05two views0.49
153
0.41
122
2.72
324
0.30
91
0.23
145
0.60
154
0.30
173
0.82
202
0.77
293
0.52
150
0.37
45
0.51
151
0.42
186
0.52
111
0.38
147
0.09
17
0.17
270
0.12
136
0.10
75
0.16
109
0.20
208
DualNettwo views0.64
250
0.23
21
2.01
197
0.30
91
0.21
113
0.57
114
0.26
114
0.74
135
0.88
326
0.53
159
0.63
220
0.66
221
0.39
153
0.63
142
3.43
389
0.10
78
0.24
318
0.15
245
0.13
179
0.25
230
0.36
327
ffmtwo views0.47
132
0.23
21
2.01
197
0.30
91
0.21
113
0.57
114
0.26
114
0.74
135
0.88
326
0.53
159
0.63
220
0.66
221
0.39
153
0.63
142
0.19
3
0.10
78
0.24
318
0.15
245
0.13
179
0.25
230
0.36
327
ff1two views0.73
297
0.23
21
2.01
197
0.30
91
0.21
113
0.57
114
0.26
114
0.74
135
0.88
326
0.53
159
0.63
220
0.66
221
0.39
153
2.52
365
3.43
389
0.10
78
0.24
318
0.15
245
0.13
179
0.25
230
0.36
327
mmxtwo views0.72
289
0.23
21
2.01
197
0.30
91
0.21
113
0.57
114
0.26
114
0.99
320
0.76
289
0.53
159
0.63
220
0.66
221
0.39
153
2.52
365
3.43
389
0.13
199
0.10
140
0.15
245
0.13
179
0.15
83
0.15
137
whm_ethtwo views0.45
109
0.73
232
2.23
246
0.30
91
0.31
233
0.49
44
0.24
83
0.73
130
0.69
223
0.47
94
0.87
311
0.26
31
0.26
53
0.36
36
0.28
73
0.12
171
0.11
172
0.13
190
0.12
154
0.14
69
0.26
267
xxxcopylefttwo views0.72
289
0.23
21
2.01
197
0.30
91
0.21
113
0.57
114
0.26
114
0.99
320
0.76
289
0.53
159
0.63
220
0.66
221
0.39
153
2.52
365
3.43
389
0.13
199
0.10
140
0.15
245
0.13
179
0.15
83
0.15
137
EGLCR-Stereotwo views0.29
4
0.27
42
0.97
1
0.30
91
0.19
96
0.56
97
0.17
5
0.68
109
0.36
6
0.30
33
0.18
1
0.27
37
0.17
1
0.38
47
0.19
3
0.09
17
0.07
11
0.10
48
0.08
29
0.10
11
0.35
319
DCREtwo views0.50
162
0.63
201
2.13
224
0.30
91
0.23
145
0.45
19
0.24
83
0.59
74
0.53
99
0.50
131
2.10
377
0.42
102
0.26
53
0.35
32
0.23
33
0.09
17
0.14
225
0.10
48
0.32
340
0.16
109
0.15
137
BUStwo views0.41
66
0.27
42
1.13
4
0.30
91
0.21
113
0.91
333
0.23
60
1.00
328
0.61
156
0.63
263
0.53
143
0.66
221
0.30
98
0.43
62
0.32
117
0.13
199
0.10
140
0.14
219
0.12
154
0.12
32
0.11
37
BSDual-CNNtwo views0.41
66
0.27
42
1.13
4
0.30
91
0.21
113
0.76
286
0.31
183
1.00
328
0.61
156
0.63
263
0.53
143
0.63
205
0.37
134
0.43
62
0.38
147
0.13
199
0.10
140
0.14
219
0.12
154
0.12
32
0.11
37
hknettwo views0.47
132
0.29
66
1.70
74
0.30
91
0.24
158
0.76
286
0.31
183
1.00
328
0.64
188
0.63
263
0.53
143
0.80
289
0.38
139
0.77
180
0.37
142
0.11
124
0.10
140
0.14
219
0.12
154
0.12
32
0.11
37
cross-rafttwo views0.40
63
0.27
42
2.22
242
0.30
91
0.17
61
0.49
44
0.35
222
0.71
117
0.39
15
0.43
74
0.45
82
0.64
213
0.25
41
0.32
20
0.25
53
0.08
4
0.08
58
0.09
20
0.23
303
0.11
22
0.14
107
test-1two views0.44
94
0.48
153
1.69
70
0.30
91
0.27
194
0.50
50
0.28
147
0.80
192
0.43
35
0.40
59
0.54
153
0.41
89
0.24
30
0.31
16
1.16
316
0.09
17
0.20
297
0.10
48
0.17
254
0.11
22
0.26
267
RALCasStereoNettwo views0.45
109
0.88
284
1.85
142
0.30
91
0.26
183
0.49
44
0.26
114
0.58
69
0.51
78
0.36
43
0.48
101
0.36
66
0.28
77
0.55
124
0.34
131
0.10
78
0.53
376
0.09
20
0.08
29
0.25
230
0.34
317
GEStwo views0.44
94
0.28
62
1.88
157
0.30
91
0.18
83
0.61
174
0.30
173
0.88
244
0.46
50
0.47
94
0.52
135
0.39
77
0.42
186
0.58
129
0.67
253
0.15
241
0.11
172
0.12
136
0.10
75
0.15
83
0.17
170
FADNet_RVCtwo views0.81
323
1.14
344
2.42
277
0.30
91
0.24
158
0.71
264
0.24
83
0.95
294
0.61
156
0.44
79
0.56
172
0.59
190
0.42
186
1.52
255
0.68
256
0.94
383
0.96
400
0.28
339
1.00
399
0.90
379
1.36
401
UCFNet_RVCtwo views0.48
136
0.82
268
1.85
142
0.30
91
0.27
194
0.64
221
0.26
114
0.74
135
0.55
110
0.48
113
0.53
143
0.63
205
0.41
171
0.88
194
0.38
147
0.15
241
0.10
140
0.17
276
0.17
254
0.18
147
0.15
137
PS-NSSStwo views0.63
247
1.00
323
1.81
132
0.30
91
0.31
233
0.63
210
0.34
216
0.98
309
0.69
223
0.54
170
0.74
287
0.51
151
0.41
171
2.43
358
0.48
195
0.24
328
0.17
270
0.27
335
0.18
264
0.27
251
0.21
214
HSMtwo views0.62
244
0.76
239
1.72
80
0.30
91
0.29
207
0.64
221
0.28
147
0.94
283
0.62
172
0.58
215
0.57
177
1.40
370
0.64
286
2.59
369
0.42
167
0.11
124
0.08
58
0.10
48
0.08
29
0.14
69
0.11
37
1111xtwo views0.74
300
0.21
9
1.93
175
0.31
116
0.17
61
0.63
210
0.32
204
1.03
346
0.74
267
0.52
150
0.62
210
0.57
181
0.47
220
2.38
350
4.25
398
0.12
171
0.14
225
0.11
92
0.12
154
0.12
32
0.14
107
MIM_Stereotwo views0.41
66
0.60
187
1.88
157
0.31
116
0.21
113
0.50
50
0.19
13
0.64
91
0.44
37
0.43
74
0.53
143
0.43
105
0.27
67
0.51
107
0.28
73
0.08
4
0.14
225
0.11
92
0.10
75
0.26
244
0.26
267
iinet-ftwo views0.57
219
0.93
297
2.27
252
0.31
116
0.25
170
0.83
316
0.33
212
0.81
196
0.65
200
0.54
170
0.63
220
0.73
263
0.67
294
0.73
171
0.67
253
0.13
199
0.13
211
0.11
92
0.10
75
0.43
339
0.16
159
gwcnet-sptwo views0.49
153
0.43
131
2.54
303
0.31
116
0.22
134
0.67
243
0.31
183
0.78
178
0.65
200
0.58
215
0.47
89
0.46
131
0.43
196
0.76
176
0.46
183
0.11
124
0.11
172
0.11
92
0.11
124
0.15
83
0.14
107
scenettwo views0.49
153
0.43
131
2.54
303
0.31
116
0.22
134
0.67
243
0.31
183
0.78
178
0.65
200
0.58
215
0.47
89
0.46
131
0.43
196
0.76
176
0.46
183
0.11
124
0.11
172
0.11
92
0.11
124
0.15
83
0.14
107
Selective-RAFTtwo views0.35
34
0.26
41
1.48
41
0.31
116
0.15
24
0.61
174
0.19
13
0.60
81
0.54
106
0.28
31
0.29
20
0.40
85
0.33
112
0.50
104
0.27
64
0.10
78
0.07
11
0.09
20
0.35
349
0.19
164
0.08
10
MC-Stereotwo views0.32
14
0.31
77
1.46
36
0.31
116
0.15
24
0.53
75
0.19
13
0.44
8
0.35
4
0.36
43
0.38
52
0.27
37
0.27
67
0.42
59
0.19
3
0.09
17
0.13
211
0.09
20
0.16
239
0.20
176
0.13
94
ssnettwo views0.49
153
0.43
131
2.54
303
0.31
116
0.22
134
0.67
243
0.31
183
0.78
178
0.65
200
0.58
215
0.47
89
0.46
131
0.43
196
0.76
176
0.46
183
0.11
124
0.11
172
0.11
92
0.11
124
0.15
83
0.14
107
Sa-1000two views0.51
176
0.72
229
1.90
164
0.31
116
0.60
358
0.60
154
0.31
183
0.94
283
0.71
241
0.52
150
0.83
301
0.42
102
0.33
112
0.68
156
0.28
73
0.10
78
0.09
112
0.13
190
0.29
328
0.29
260
0.10
27
SAtwo views0.50
162
0.75
238
1.95
182
0.31
116
0.61
359
0.57
114
0.31
183
0.91
266
0.73
263
0.42
69
0.62
210
0.38
73
0.47
220
0.68
156
0.29
86
0.09
17
0.09
112
0.13
190
0.32
340
0.30
269
0.10
27
ddtwo views0.42
79
0.96
307
1.77
103
0.31
116
0.17
61
0.57
114
0.26
114
0.49
27
0.68
215
0.41
65
0.40
62
0.34
60
0.27
67
0.45
74
0.40
159
0.17
272
0.10
140
0.13
190
0.12
154
0.21
184
0.12
63
GwcNet-ADLtwo views0.50
162
0.74
236
2.90
346
0.31
116
0.20
106
0.58
129
0.29
167
0.87
239
0.64
188
0.47
94
0.47
89
0.56
175
0.33
112
0.46
80
0.46
183
0.13
199
0.12
197
0.09
20
0.09
44
0.14
69
0.21
214
CroCo-Stereocopylefttwo views0.30
8
0.45
142
1.08
2
0.31
116
0.17
61
0.19
1
0.21
32
0.73
130
0.50
74
0.21
2
0.24
11
0.55
166
0.22
19
0.27
1
0.26
56
0.09
17
0.08
58
0.08
3
0.07
13
0.12
32
0.09
16
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
sAnonymous2two views0.38
46
0.62
194
2.15
230
0.31
116
0.24
158
0.34
8
0.27
137
0.53
48
0.46
50
0.24
11
0.29
20
0.23
13
0.28
77
0.28
3
0.22
30
0.12
171
0.09
112
0.11
92
0.13
179
0.38
320
0.35
319
CroCo_RVCtwo views0.38
46
0.62
194
2.15
230
0.31
116
0.24
158
0.34
8
0.27
137
0.53
48
0.46
50
0.24
11
0.29
20
0.23
13
0.28
77
0.28
3
0.22
30
0.12
171
0.09
112
0.11
92
0.13
179
0.38
320
0.35
319
AFF-stereotwo views0.44
94
0.96
307
1.78
107
0.31
116
0.15
24
0.50
50
0.21
32
0.64
91
0.63
181
0.47
94
0.64
236
0.49
145
0.34
120
0.46
80
0.31
107
0.08
4
0.09
112
0.10
48
0.10
75
0.37
314
0.10
27
delettwo views0.52
185
0.54
172
1.62
60
0.31
116
0.35
268
0.74
278
0.46
279
0.85
222
0.74
267
0.55
184
0.60
198
0.67
231
0.50
235
1.12
215
0.57
229
0.11
124
0.11
172
0.13
190
0.14
204
0.16
109
0.12
63
UNettwo views0.54
195
0.44
137
2.83
337
0.31
116
0.33
252
0.74
278
0.27
137
0.82
202
0.61
156
0.53
159
0.54
153
0.72
259
0.54
247
0.78
184
0.56
226
0.11
124
0.09
112
0.13
190
0.11
124
0.14
69
0.12
63
PSMNet-RSSMtwo views0.53
190
0.82
268
1.78
107
0.31
116
0.25
170
0.58
129
0.28
147
0.84
218
0.60
142
0.50
131
0.61
205
0.67
231
0.43
196
1.68
278
0.42
167
0.15
241
0.10
140
0.14
219
0.16
239
0.15
83
0.13
94
DMCAtwo views0.41
66
0.52
164
1.26
13
0.31
116
0.24
158
0.59
145
0.26
114
0.77
164
0.63
181
0.58
215
0.48
101
0.57
181
0.35
122
0.40
54
0.50
205
0.14
227
0.10
140
0.14
219
0.10
75
0.15
83
0.15
137
iResNet_ROBtwo views0.50
162
1.15
348
1.73
81
0.31
116
0.21
113
0.58
129
0.22
44
0.95
294
0.82
311
0.58
215
0.62
210
0.57
181
0.39
153
0.84
189
0.40
159
0.11
124
0.08
58
0.09
20
0.06
7
0.21
184
0.13
94
MyStereo8two views0.54
195
0.80
259
2.76
330
0.32
137
0.33
252
0.71
264
0.20
22
0.87
239
0.57
121
0.51
143
0.59
186
0.50
148
0.33
112
0.68
156
0.55
219
0.10
78
0.29
342
0.10
48
0.13
179
0.21
184
0.34
317
IGEV_Zeroshot_testtwo views0.53
190
0.33
85
2.91
347
0.32
137
0.18
83
0.54
78
0.21
32
0.72
122
0.42
28
0.81
324
0.51
128
0.71
257
0.41
171
0.48
90
1.13
312
0.09
17
0.15
246
0.10
48
0.35
349
0.19
164
0.09
16
CASStwo views0.39
59
0.30
71
1.61
59
0.32
137
0.17
61
0.53
75
0.24
83
0.70
115
0.49
68
0.59
228
0.54
153
0.40
85
0.40
160
0.41
56
0.30
97
0.17
272
0.10
140
0.14
219
0.11
124
0.18
147
0.17
170
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
riskmintwo views0.37
41
0.22
17
1.74
85
0.32
137
0.20
106
0.48
39
0.20
22
0.66
97
0.46
50
0.36
43
0.34
38
0.69
244
0.45
207
0.39
50
0.27
64
0.11
124
0.08
58
0.12
136
0.08
29
0.13
51
0.16
159
ssnet_v2two views0.55
207
0.60
187
1.86
150
0.32
137
0.22
134
0.72
270
0.44
270
0.94
283
0.74
267
0.63
263
0.54
153
0.81
292
0.47
220
0.77
180
0.70
258
0.16
258
0.14
225
0.14
219
0.14
204
0.30
269
0.30
295
CroCo-Stereo Lap2two views0.33
19
0.61
191
1.47
38
0.32
137
0.38
292
0.23
2
0.22
44
0.58
69
0.46
50
0.22
5
0.27
16
0.29
44
0.23
24
0.32
20
0.26
56
0.09
17
0.09
112
0.10
48
0.08
29
0.21
184
0.14
107
Wz-Net-LNSev-Reftwo views0.57
219
0.87
281
2.11
219
0.32
137
0.30
217
0.84
318
0.40
247
0.88
244
0.72
249
0.65
279
0.73
285
0.66
221
0.57
261
0.93
195
0.71
260
0.13
199
0.07
11
0.10
48
0.08
29
0.15
83
0.14
107
rafts_anoytwo views0.43
85
0.89
287
1.96
191
0.32
137
0.30
217
0.48
39
0.24
83
0.62
87
0.49
68
0.37
47
0.38
52
0.33
56
0.30
98
0.51
107
0.34
131
0.10
78
0.39
364
0.13
190
0.15
224
0.17
128
0.15
137
raftrobusttwo views0.38
46
0.68
217
1.54
47
0.32
137
0.46
330
0.52
69
0.21
32
0.56
62
0.42
28
0.52
150
0.35
41
0.31
47
0.33
112
0.37
43
0.30
97
0.10
78
0.11
172
0.08
3
0.07
13
0.21
184
0.19
195
pcwnet_v2two views0.64
250
0.49
155
4.41
397
0.32
137
0.27
194
0.60
154
0.25
98
0.97
305
0.88
326
0.59
228
0.70
275
0.63
205
0.55
252
0.66
154
0.37
142
0.17
272
0.15
246
0.15
245
0.14
204
0.21
184
0.23
242
RALAANettwo views0.43
85
0.98
318
1.90
164
0.32
137
0.23
145
0.48
39
0.19
13
0.67
106
0.53
99
0.48
113
0.45
82
0.39
77
0.30
98
0.48
90
0.37
142
0.10
78
0.08
58
0.11
92
0.14
204
0.27
251
0.10
27
FENettwo views0.44
94
0.30
71
2.42
277
0.32
137
0.17
61
0.58
129
0.22
44
0.77
164
0.59
138
0.47
94
0.42
69
0.55
166
0.38
139
0.49
99
0.47
192
0.12
171
0.09
112
0.12
136
0.11
124
0.13
51
0.16
159
acv_fttwo views0.48
136
0.44
137
1.76
95
0.32
137
0.41
308
0.63
210
0.28
147
0.81
196
0.68
215
0.61
243
0.59
186
0.69
244
0.45
207
0.44
67
0.63
244
0.11
124
0.09
112
0.10
48
0.09
44
0.41
334
0.10
27
GwcNet-RSSMtwo views0.57
219
0.94
299
2.13
224
0.32
137
0.25
170
0.60
154
0.30
173
0.80
192
0.66
210
0.52
150
0.64
236
0.71
257
0.40
160
1.79
296
0.50
205
0.13
199
0.09
112
0.12
136
0.12
154
0.21
184
0.15
137
FADNettwo views0.64
250
1.22
356
2.06
207
0.32
137
0.30
217
0.66
238
0.29
167
0.88
244
0.72
249
0.44
79
0.48
101
0.66
221
0.57
261
1.84
307
0.45
182
0.46
365
0.20
297
0.17
276
0.19
282
0.59
362
0.24
249
11t1two views0.33
19
0.19
2
1.41
31
0.33
152
0.16
37
0.48
39
0.21
32
0.67
106
0.48
64
0.40
59
0.34
38
0.32
53
0.33
112
0.42
59
0.27
64
0.11
124
0.12
197
0.10
48
0.08
29
0.13
51
0.14
107
StereoVisiontwo views0.45
109
0.72
229
1.94
179
0.33
152
0.32
241
0.47
33
0.26
114
0.68
109
0.57
121
0.32
40
0.89
316
0.45
123
0.27
67
0.49
99
0.36
140
0.13
199
0.15
246
0.16
260
0.15
224
0.19
164
0.13
94
SDNRtwo views1.22
364
0.80
259
2.71
322
0.33
152
1.48
401
1.98
392
0.23
60
1.93
393
2.44
394
0.89
337
2.52
387
1.36
368
0.51
237
3.65
397
1.93
352
0.30
348
0.31
346
0.22
314
0.16
239
0.33
287
0.36
327
Anonymous_2two views0.74
300
0.32
80
1.65
62
0.33
152
0.30
217
0.67
243
0.32
204
0.69
111
0.46
50
0.48
113
0.41
66
0.84
299
0.58
265
0.51
107
0.40
159
0.32
351
0.38
358
1.43
400
3.69
414
0.80
376
0.27
275
xtwo views0.35
34
0.20
4
1.36
23
0.33
152
0.17
61
0.47
33
0.24
83
0.75
145
0.54
106
0.40
59
0.40
62
0.42
102
0.34
120
0.45
74
0.32
117
0.11
124
0.14
225
0.11
92
0.09
44
0.12
32
0.14
107
DAStwo views0.56
213
0.35
98
1.55
49
0.33
152
0.34
258
0.50
50
0.42
256
0.83
208
0.74
267
0.83
329
0.68
258
0.56
175
0.48
227
2.40
354
0.46
183
0.12
171
0.08
58
0.12
136
0.09
44
0.18
147
0.15
137
SepStereotwo views0.52
185
0.35
98
1.55
49
0.33
152
0.34
258
0.50
50
0.42
256
0.83
208
0.74
267
0.83
329
0.68
258
0.56
175
0.48
227
1.56
259
0.46
183
0.12
171
0.08
58
0.12
136
0.09
44
0.18
147
0.15
137
GANet-ADLtwo views0.44
94
0.41
122
2.31
256
0.33
152
0.20
106
0.57
114
0.25
98
0.75
145
0.54
106
0.42
69
0.59
186
0.56
175
0.30
98
0.40
54
0.38
147
0.14
227
0.11
172
0.09
20
0.08
29
0.22
196
0.17
170
ADLNet2two views0.68
271
0.84
273
3.19
371
0.33
152
0.36
275
0.64
221
0.37
235
0.89
250
0.79
303
0.54
170
0.65
245
0.93
322
0.48
227
2.07
329
0.56
226
0.13
199
0.11
172
0.11
92
0.11
124
0.33
287
0.18
187
KYRafttwo views0.48
136
0.29
66
1.75
91
0.33
152
0.21
113
0.75
284
0.44
270
0.58
69
0.57
121
0.64
272
0.93
322
0.53
159
0.72
305
0.60
137
0.24
47
0.10
78
0.07
11
0.12
136
0.14
204
0.12
32
0.54
361
ICVPtwo views0.46
119
0.29
66
2.41
275
0.33
152
0.22
134
0.59
145
0.55
306
0.75
145
0.50
74
0.44
79
0.60
198
0.49
145
0.35
122
0.53
117
0.37
142
0.16
258
0.16
260
0.14
219
0.11
124
0.15
83
0.15
137
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
Anonymous3two views0.42
79
0.35
98
2.09
215
0.33
152
0.24
158
0.72
270
0.31
183
0.74
135
0.55
110
0.35
41
0.40
62
0.33
56
0.29
90
0.44
67
0.28
73
0.18
282
0.18
278
0.13
190
0.13
179
0.17
128
0.17
170
MMNettwo views0.50
162
0.48
153
1.93
175
0.33
152
0.27
194
0.79
303
0.28
147
0.81
196
0.74
267
0.60
236
0.56
172
0.59
190
0.55
252
0.79
185
0.59
236
0.10
78
0.09
112
0.12
136
0.11
124
0.13
51
0.14
107
UPFNettwo views0.46
119
0.28
62
1.73
81
0.33
152
0.32
241
0.65
233
0.38
241
0.83
208
0.59
138
0.57
203
0.52
135
0.61
198
0.40
160
0.75
173
0.52
210
0.13
199
0.12
197
0.13
190
0.12
154
0.15
83
0.11
37
cf-rtwo views0.53
190
0.81
264
2.15
230
0.33
152
0.28
202
0.60
154
0.28
147
0.78
178
0.64
188
0.51
143
0.60
198
0.75
274
0.40
160
1.32
231
0.43
175
0.13
199
0.09
112
0.11
92
0.12
154
0.15
83
0.14
107
FADNet-RVCtwo views0.61
240
1.26
361
2.12
222
0.33
152
0.26
183
0.59
145
0.29
167
0.86
230
0.62
172
0.45
86
0.50
124
0.62
202
0.46
215
1.73
285
0.55
219
0.17
272
0.20
297
0.17
276
0.18
264
0.59
362
0.28
281
BEATNet_4xtwo views0.47
132
0.73
232
1.91
169
0.33
152
0.15
24
0.56
97
0.25
98
0.85
222
0.58
131
0.54
170
0.51
128
0.57
181
0.42
186
0.57
127
0.61
240
0.11
124
0.08
58
0.12
136
0.09
44
0.20
176
0.16
159
CFNettwo views0.58
224
0.96
307
1.78
107
0.33
152
0.25
170
0.63
210
0.22
44
0.88
244
0.75
279
0.46
93
0.59
186
0.58
188
0.40
160
2.29
343
0.48
195
0.12
171
0.09
112
0.15
245
0.14
204
0.30
269
0.15
137
AANet_RVCtwo views0.68
271
1.00
323
2.09
215
0.33
152
0.25
170
0.58
129
0.32
204
0.81
196
0.80
306
0.61
243
0.94
323
0.80
289
0.41
171
2.46
361
1.02
304
0.36
357
0.14
225
0.10
48
0.09
44
0.23
204
0.22
224
HITNettwo views0.46
119
0.92
291
2.09
215
0.33
152
0.14
12
0.55
88
0.22
44
0.83
208
0.56
118
0.51
143
0.49
118
0.48
143
0.37
134
0.48
90
0.54
218
0.09
17
0.06
1
0.10
48
0.08
29
0.23
204
0.09
16
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
StereoDRNet-Refinedtwo views0.50
162
0.41
122
1.50
43
0.33
152
0.21
113
0.68
254
0.26
114
0.81
196
0.68
215
0.67
286
0.68
258
0.73
263
0.42
186
1.10
212
0.59
236
0.11
124
0.08
58
0.14
219
0.14
204
0.25
230
0.21
214
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
CBMV_ROBtwo views0.76
305
0.42
128
2.68
318
0.33
152
0.22
134
0.74
278
0.47
287
0.96
298
0.76
289
1.04
350
0.96
326
0.88
312
0.93
337
2.06
328
1.19
317
0.22
318
0.24
318
0.27
335
0.25
312
0.25
230
0.28
281
CBMVpermissivetwo views0.71
286
0.76
239
2.64
313
0.33
152
0.20
106
0.78
299
0.79
353
0.98
309
0.78
298
0.85
334
0.71
279
0.86
306
1.10
354
1.46
244
0.62
242
0.18
282
0.20
297
0.21
312
0.19
282
0.25
230
0.33
313
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
ttttwo views0.66
262
0.22
17
1.68
68
0.34
175
0.24
158
0.60
154
0.26
114
1.00
328
0.77
293
0.55
184
0.67
250
0.54
163
0.36
126
2.14
335
3.03
378
0.16
258
0.13
211
0.13
190
0.12
154
0.15
83
0.17
170
coex-fttwo views5.95
410
1.67
383
60.57
435
0.34
175
0.30
217
0.77
294
0.69
339
0.74
135
4.41
402
19.22
422
2.15
379
1.62
376
7.97
411
1.81
301
8.96
411
0.44
361
2.08
410
0.18
293
0.19
282
0.38
320
4.62
414
Wz-Net-LNSevtwo views0.59
228
0.96
307
2.47
288
0.34
175
0.37
287
0.79
303
0.44
270
0.86
230
0.77
293
0.61
243
0.67
250
0.79
287
0.56
256
0.64
145
0.62
242
0.15
241
0.14
225
0.12
136
0.12
154
0.18
147
0.19
195
test-3two views0.43
85
0.20
4
1.70
74
0.34
175
0.32
241
0.45
19
0.23
60
0.71
117
0.46
50
0.51
143
0.29
20
0.45
123
0.21
15
0.59
132
0.98
293
0.08
4
0.07
11
0.10
48
0.35
349
0.29
260
0.28
281
test_1two views0.43
85
0.20
4
1.70
74
0.34
175
0.32
241
0.45
19
0.23
60
0.71
117
0.46
50
0.50
131
0.29
20
0.45
123
0.21
15
0.59
132
0.98
293
0.08
4
0.07
11
0.10
48
0.35
349
0.29
260
0.29
287
RAFTtwo views0.45
109
0.92
291
1.59
53
0.34
175
0.19
96
0.46
31
0.35
222
0.65
95
0.49
68
0.49
124
0.49
118
0.70
254
0.40
160
0.47
86
0.32
117
0.11
124
0.16
260
0.14
219
0.13
179
0.51
354
0.13
94
raft+_RVCtwo views0.44
94
0.67
215
1.85
142
0.34
175
0.71
366
0.51
56
0.25
98
0.64
91
0.51
78
0.35
41
0.45
82
0.32
53
0.28
77
0.43
62
0.32
117
0.09
17
0.19
288
0.10
48
0.09
44
0.20
176
0.40
344
XX-TBDtwo views0.34
26
0.77
247
1.75
91
0.34
175
0.13
5
0.51
56
0.17
5
0.43
6
0.50
74
0.37
47
0.49
118
0.23
13
0.18
6
0.28
3
0.24
47
0.10
78
0.07
11
0.08
3
0.06
7
0.09
7
0.07
3
sCroCo_RVCtwo views0.33
19
0.32
80
1.89
161
0.34
175
0.27
194
0.30
5
0.22
44
0.48
23
0.44
37
0.22
5
0.33
34
0.25
26
0.25
41
0.32
20
0.24
47
0.14
227
0.16
260
0.12
136
0.12
154
0.15
83
0.13
94
Anonymoustwo views0.35
34
0.32
80
1.87
155
0.34
175
0.31
233
0.37
11
0.31
183
0.54
58
0.40
19
0.25
19
0.28
17
0.23
13
0.29
90
0.36
36
0.27
64
0.14
227
0.13
211
0.11
92
0.12
154
0.24
219
0.20
208
RAFT + AFFtwo views0.64
250
1.20
354
1.95
182
0.34
175
0.33
252
0.67
243
0.52
297
0.99
320
0.74
267
0.53
159
0.58
183
0.57
181
0.80
319
1.76
289
0.51
208
0.12
171
0.27
339
0.15
245
0.14
204
0.43
339
0.29
287
ADCP+two views0.94
339
1.12
340
3.14
365
0.34
175
0.39
294
1.06
348
0.79
353
0.89
250
0.80
306
0.66
282
0.67
250
0.85
302
1.55
377
0.93
195
4.55
400
0.13
199
0.11
172
0.16
260
0.15
224
0.26
244
0.25
258
AdaStereotwo views0.44
94
0.38
110
1.79
125
0.34
175
0.20
106
0.57
114
0.28
147
0.92
274
0.69
223
0.52
150
0.55
161
0.61
198
0.33
112
0.48
90
0.39
154
0.17
272
0.08
58
0.17
276
0.11
124
0.18
147
0.12
63
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
MeshStereopermissivetwo views1.21
361
1.15
348
3.01
355
0.34
175
0.28
202
1.10
354
0.69
339
1.35
375
1.01
348
2.71
402
2.41
386
2.96
390
1.45
373
2.80
382
1.40
333
0.22
318
0.22
310
0.22
314
0.19
282
0.50
352
0.26
267
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ACVNet-DCAtwo views0.42
79
0.64
203
2.07
209
0.35
189
0.14
12
0.76
286
0.25
98
0.76
154
0.52
83
0.31
34
0.38
52
0.24
20
0.38
139
0.69
162
0.19
3
0.10
78
0.24
318
0.11
92
0.09
44
0.12
32
0.14
107
xx1two views0.46
119
0.64
203
2.07
209
0.35
189
0.14
12
0.76
286
0.25
98
0.74
135
1.01
348
0.31
34
0.38
52
0.46
131
0.36
126
0.69
162
0.19
3
0.10
78
0.24
318
0.12
136
0.12
154
0.12
32
0.14
107
1test111two views0.44
94
0.64
203
2.07
209
0.35
189
0.14
12
0.76
286
0.25
98
0.76
154
0.52
83
0.31
34
0.38
52
0.24
20
0.38
139
0.96
198
0.30
97
0.10
78
0.24
318
0.11
92
0.09
44
0.12
32
0.14
107
cc1two views0.47
132
0.64
203
2.07
209
0.35
189
0.14
12
0.76
286
0.25
98
0.74
135
1.01
348
0.31
34
0.38
52
0.24
20
0.38
139
0.69
162
0.19
3
0.10
78
0.24
318
0.11
92
0.09
44
0.25
230
0.40
344
mmmtwo views0.38
46
0.21
9
1.18
8
0.35
189
0.17
61
0.49
44
0.26
114
0.78
178
0.52
83
0.50
131
0.57
177
0.41
89
0.37
134
0.71
168
0.31
107
0.11
124
0.13
211
0.14
219
0.13
179
0.15
83
0.14
107
tt1two views0.44
94
0.64
203
1.83
139
0.35
189
0.14
12
0.76
286
0.25
98
0.74
135
0.88
326
0.31
34
0.37
45
0.25
26
0.35
122
0.63
142
0.19
3
0.10
78
0.24
318
0.11
92
0.09
44
0.25
230
0.36
327
HBP-ISPtwo views0.76
305
1.30
364
3.19
371
0.35
189
0.26
183
0.85
322
0.54
303
1.03
346
0.72
249
0.80
319
0.69
265
0.68
237
0.83
322
2.04
327
0.44
179
0.23
321
0.24
318
0.29
346
0.25
312
0.28
257
0.24
249
RAFT_CTSACEtwo views0.46
119
0.76
239
2.07
209
0.35
189
0.30
217
0.54
78
0.30
173
0.61
83
0.48
64
0.49
124
0.76
292
0.55
166
0.36
126
0.58
129
0.22
30
0.08
4
0.13
211
0.11
92
0.10
75
0.41
334
0.08
10
UDGNettwo views0.44
94
1.02
330
1.74
85
0.35
189
0.19
96
0.58
129
0.23
60
0.49
27
0.66
210
0.41
65
0.38
52
0.34
60
0.29
90
0.53
117
0.30
97
0.24
328
0.10
140
0.37
359
0.19
282
0.27
251
0.15
137
IPLGtwo views0.69
275
0.84
273
2.43
281
0.35
189
0.21
113
1.65
379
0.61
324
1.36
376
0.58
131
1.39
377
0.51
128
0.37
67
0.87
330
1.41
237
0.36
140
0.09
17
0.07
11
0.14
219
0.12
154
0.32
281
0.11
37
PSMNet-ADLtwo views0.51
176
0.38
110
1.65
62
0.35
189
0.21
113
0.67
243
0.26
114
0.74
135
0.55
110
0.42
69
0.52
135
0.70
254
0.45
207
1.91
317
0.57
229
0.15
241
0.13
211
0.11
92
0.13
179
0.15
83
0.20
208
ADLNettwo views0.60
232
0.71
225
1.95
182
0.35
189
0.34
258
0.67
243
0.34
216
0.90
256
0.74
267
0.68
292
0.62
210
0.80
289
0.45
207
1.78
292
0.64
247
0.14
227
0.11
172
0.14
219
0.14
204
0.29
260
0.21
214
FINETtwo views0.65
258
0.95
305
3.06
358
0.35
189
0.40
301
0.58
129
0.48
290
0.92
274
1.10
359
0.57
203
0.68
258
0.47
137
0.44
203
1.15
220
0.60
238
0.23
321
0.21
305
0.17
276
0.15
224
0.26
244
0.25
258
psm_uptwo views0.57
219
0.61
191
1.83
139
0.35
189
0.30
217
0.64
221
0.37
235
0.90
256
0.68
215
0.59
228
0.55
161
0.68
237
0.54
247
1.91
317
0.46
183
0.16
258
0.15
246
0.16
260
0.15
224
0.23
204
0.13
94
HGLStereotwo views0.54
195
0.69
220
2.00
196
0.35
189
0.40
301
0.66
238
0.30
173
0.83
208
0.62
172
0.57
203
0.69
265
0.69
244
0.54
247
1.07
209
0.55
219
0.13
199
0.13
211
0.13
190
0.11
124
0.19
164
0.17
170
RASNettwo views0.61
240
0.68
217
2.03
205
0.35
189
0.46
330
0.65
233
0.28
147
0.78
178
0.70
232
0.48
113
0.64
236
0.93
322
0.61
277
2.21
339
0.73
267
0.12
171
0.09
112
0.09
20
0.10
75
0.14
69
0.11
37
RYNettwo views0.70
279
0.56
182
2.25
249
0.35
189
0.41
308
0.86
324
0.43
262
0.94
283
0.82
311
0.62
254
0.53
143
0.91
317
0.60
270
2.70
376
1.00
299
0.14
227
0.11
172
0.16
260
0.14
204
0.25
230
0.27
275
NVstereo2Dtwo views0.58
224
0.40
119
2.03
205
0.35
189
0.35
268
0.69
257
0.39
245
0.91
266
0.80
306
0.47
94
0.53
143
0.67
231
0.46
215
1.99
324
0.48
195
0.19
292
0.11
172
0.17
276
0.13
179
0.25
230
0.25
258
LL-Strereotwo views0.72
289
1.29
363
2.49
292
0.36
207
0.45
324
0.55
88
0.32
204
0.93
279
0.71
241
0.67
286
0.58
183
0.85
302
0.79
318
2.67
374
0.46
183
0.10
78
0.18
278
0.14
219
0.12
154
0.40
332
0.42
350
Wz-Net-TNSevtwo views0.91
335
1.73
389
3.08
359
0.36
207
0.31
233
1.00
344
0.71
343
1.06
352
0.97
342
0.71
301
0.72
283
1.09
353
0.87
330
2.42
356
1.59
341
0.20
301
0.20
297
0.16
260
0.20
292
0.44
346
0.35
319
Wz-Net-MNSevtwo views0.65
258
0.97
315
2.19
237
0.36
207
0.33
252
0.90
331
0.60
321
0.92
274
0.81
310
0.75
310
0.72
283
0.73
263
0.65
288
1.39
236
0.71
260
0.16
258
0.13
211
0.14
219
0.14
204
0.24
219
0.18
187
IPLGRtwo views0.54
195
0.56
182
2.68
318
0.36
207
0.18
83
0.62
194
0.54
303
1.02
339
0.64
188
0.73
308
0.46
86
0.47
137
0.45
207
1.12
215
0.29
86
0.09
17
0.08
58
0.11
92
0.09
44
0.19
164
0.12
63
AACVNettwo views0.54
195
0.78
255
1.73
81
0.36
207
0.21
113
0.57
114
0.25
98
0.71
117
0.51
78
0.55
184
0.59
186
0.64
213
0.41
171
2.13
334
0.41
165
0.14
227
0.11
172
0.14
219
0.11
124
0.33
287
0.15
137
test_3two views0.44
94
0.20
4
1.70
74
0.36
207
0.32
241
0.47
33
0.30
173
0.73
130
0.49
68
0.50
131
0.30
25
0.45
123
0.22
19
0.59
132
0.98
293
0.08
4
0.10
140
0.11
92
0.35
349
0.29
260
0.28
281
HHNettwo views0.60
232
0.65
209
2.60
310
0.36
207
0.25
170
0.64
221
0.61
324
0.64
91
0.62
172
0.55
184
1.13
347
0.32
53
0.60
270
0.42
59
1.79
349
0.15
241
0.07
11
0.12
136
0.10
75
0.18
147
0.15
137
RAFT-RH_RVCtwo views0.61
240
0.50
161
2.33
260
0.36
207
0.29
207
0.60
154
0.18
11
0.44
8
0.58
131
0.76
313
1.91
373
0.47
137
0.29
90
1.60
268
1.23
322
0.14
227
0.07
11
0.13
190
0.13
179
0.10
11
0.09
16
GwcNetcopylefttwo views0.69
275
0.71
225
3.12
364
0.36
207
0.45
324
0.81
311
0.44
270
0.86
230
0.84
317
0.60
236
0.74
287
0.82
295
0.49
232
1.65
274
0.66
250
0.16
258
0.15
246
0.15
245
0.15
224
0.31
277
0.24
249
ac_64two views0.55
207
0.46
144
1.92
172
0.36
207
0.34
258
0.63
210
0.31
183
0.82
202
0.61
156
0.55
184
0.51
128
0.89
314
0.48
227
1.83
302
0.55
219
0.14
227
0.11
172
0.12
136
0.12
154
0.18
147
0.12
63
GANet-RSSMtwo views0.55
207
0.73
232
1.90
164
0.36
207
0.26
183
0.59
145
0.27
137
0.78
178
0.52
83
0.47
94
0.57
177
0.63
205
0.45
207
1.92
319
0.43
175
0.14
227
0.10
140
0.25
331
0.11
124
0.34
294
0.14
107
FAT-Stereotwo views0.70
279
0.54
172
2.88
339
0.36
207
0.29
207
0.62
194
0.54
303
0.97
305
0.87
323
0.76
313
0.92
319
0.94
326
0.80
319
1.84
307
0.57
229
0.18
282
0.19
288
0.17
276
0.16
239
0.22
196
0.25
258
DMCA-RVCcopylefttwo views0.62
244
0.96
307
2.63
311
0.36
207
0.90
377
0.56
97
0.31
183
0.69
111
0.57
121
0.68
292
0.52
135
0.59
190
0.56
256
1.23
226
0.53
214
0.16
258
0.38
358
0.20
306
0.15
224
0.20
176
0.15
137
STTStereotwo views0.51
176
0.69
220
2.14
229
0.36
207
0.30
217
0.61
174
0.32
204
0.77
164
0.60
142
0.60
236
0.54
153
0.67
231
0.43
196
0.86
192
0.42
167
0.16
258
0.15
246
0.17
276
0.20
292
0.16
109
0.15
137
SuperBtwo views1.15
356
1.14
344
5.43
405
0.36
207
0.26
183
0.81
311
0.89
361
0.88
244
1.17
364
0.67
286
0.68
258
0.63
205
1.39
370
1.74
287
3.37
387
0.15
241
0.12
197
0.17
276
0.16
239
2.80
409
0.25
258
CVANet_RVCtwo views0.65
258
0.80
259
2.13
224
0.36
207
0.26
183
0.62
194
0.42
256
0.84
218
0.72
249
0.69
294
0.68
258
0.68
237
0.52
242
2.64
371
0.42
167
0.19
292
0.12
197
0.22
314
0.17
254
0.37
314
0.15
137
DLCB_ROBtwo views0.54
195
0.55
180
1.49
42
0.36
207
0.25
170
0.65
233
0.36
228
0.80
192
0.70
232
0.72
304
0.69
265
0.83
297
0.46
215
1.53
256
0.60
238
0.13
199
0.12
197
0.14
219
0.14
204
0.14
69
0.13
94
LALA_ROBtwo views0.60
232
0.76
239
1.69
70
0.36
207
0.29
207
0.79
303
0.55
306
0.94
283
0.77
293
0.81
324
0.67
250
0.94
326
0.49
232
0.99
201
0.73
267
0.21
305
0.15
246
0.20
306
0.18
264
0.23
204
0.21
214
RAFT+CT+SAtwo views0.50
162
0.86
278
1.82
137
0.37
225
0.75
368
0.54
78
0.34
216
0.77
164
0.63
181
0.38
52
0.55
161
0.34
60
0.29
90
0.68
156
0.27
64
0.09
17
0.07
11
0.11
92
0.51
371
0.29
260
0.41
349
test_5two views0.51
176
0.87
281
1.99
194
0.37
225
0.65
361
0.58
129
0.35
222
0.78
178
0.62
172
0.48
113
0.55
161
0.45
123
0.40
160
0.72
170
0.30
97
0.09
17
0.07
11
0.12
136
0.12
154
0.33
287
0.38
337
AASNettwo views0.56
213
1.03
331
2.34
262
0.37
225
0.33
252
0.65
233
0.29
167
0.96
298
0.73
263
0.54
170
0.60
198
0.55
166
0.38
139
0.59
132
0.58
234
0.14
227
0.12
197
0.13
190
0.10
75
0.43
339
0.24
249
SACVNettwo views0.60
232
0.74
236
1.90
164
0.37
225
0.28
202
0.64
221
0.37
235
0.86
230
0.61
156
0.65
279
0.62
210
0.69
244
0.44
203
2.08
330
0.42
167
0.18
282
0.14
225
0.16
260
0.15
224
0.38
320
0.24
249
PSM-AADtwo views0.63
247
0.22
17
1.77
103
0.37
225
0.23
145
0.86
324
1.17
381
0.59
74
0.60
142
0.64
272
0.71
279
0.68
237
2.93
397
0.65
152
0.31
107
0.09
17
0.07
11
0.17
276
0.15
224
0.13
51
0.33
313
test_xeample3two views0.46
119
0.34
92
2.99
354
0.37
225
0.16
37
0.49
44
0.33
212
1.06
352
0.44
37
0.25
19
0.23
5
0.24
20
0.25
41
0.49
99
0.56
226
0.09
17
0.07
11
0.10
48
0.40
361
0.17
128
0.26
267
psmorigintwo views1.36
372
0.60
187
13.80
418
0.37
225
0.29
207
0.62
194
0.33
212
0.77
164
0.61
156
0.96
345
0.88
314
1.17
362
0.73
308
4.00
400
0.86
286
0.19
292
0.22
310
0.17
276
0.18
264
0.24
219
0.29
287
FADNet-RVC-Resampletwo views0.67
265
1.16
352
3.16
367
0.37
225
0.29
207
0.62
194
0.38
241
0.86
230
0.63
181
0.51
143
0.50
124
0.57
181
0.45
207
1.57
261
0.49
200
0.24
328
0.32
350
0.23
320
0.19
282
0.27
251
0.62
368
edge stereotwo views0.81
323
0.73
232
3.30
377
0.37
225
1.21
393
0.62
194
0.39
245
0.93
279
0.79
303
0.80
319
0.88
314
1.14
359
0.71
302
2.18
337
0.71
260
0.21
305
0.20
297
0.26
334
0.18
264
0.38
320
0.26
267
ADCReftwo views0.80
317
0.96
307
2.29
255
0.37
225
0.35
268
0.96
338
0.51
294
0.87
239
0.75
279
0.88
335
0.83
301
0.61
198
1.36
367
1.02
204
3.27
384
0.13
199
0.11
172
0.17
276
0.19
282
0.25
230
0.21
214
ADCPNettwo views0.99
343
0.99
321
3.93
391
0.37
225
0.68
363
1.36
365
0.62
328
0.87
239
0.76
289
0.78
317
0.81
299
1.08
351
1.18
357
1.14
218
2.49
372
0.21
305
0.69
390
0.21
312
0.95
397
0.29
260
0.37
334
TDLMtwo views0.67
265
0.92
291
1.76
95
0.37
225
0.24
158
0.66
238
0.56
311
0.82
202
0.74
267
1.16
358
0.62
210
0.61
198
0.48
227
2.70
376
0.50
205
0.20
301
0.11
172
0.35
353
0.14
204
0.32
281
0.16
159
XPNet_ROBtwo views0.61
240
0.72
229
1.66
66
0.37
225
0.27
194
0.67
243
0.47
287
0.89
250
0.71
241
0.78
317
0.70
275
0.81
292
0.53
244
1.70
281
0.76
271
0.21
305
0.16
260
0.16
260
0.15
224
0.20
176
0.21
214
ETE_ROBtwo views0.60
232
0.71
225
1.55
49
0.37
225
0.25
170
0.69
257
0.51
294
1.47
379
0.70
232
0.80
319
0.69
265
0.85
302
0.49
232
1.36
235
0.58
234
0.16
258
0.13
211
0.19
298
0.16
239
0.21
184
0.23
242
fast-acv-fttwo views0.63
247
0.88
284
3.10
361
0.38
239
0.30
217
0.79
303
0.48
290
0.69
111
0.72
249
0.58
215
0.78
296
0.76
278
0.60
270
0.67
155
0.73
267
0.15
241
0.15
246
0.18
293
0.17
254
0.37
314
0.16
159
RAFT-345two views0.53
190
0.30
71
2.34
262
0.38
239
0.34
258
0.58
129
0.42
256
0.47
20
0.61
156
0.51
143
1.00
333
0.43
105
0.28
77
1.57
261
0.82
283
0.10
78
0.07
11
0.11
92
0.09
44
0.10
11
0.08
10
HCRNettwo views0.46
119
0.49
155
1.65
62
0.38
239
0.29
207
0.58
129
0.22
44
0.75
145
0.62
172
0.47
94
0.49
118
0.48
143
0.36
126
1.12
215
0.37
142
0.15
241
0.10
140
0.15
245
0.13
179
0.17
128
0.17
170
APVNettwo views0.70
279
0.67
215
2.71
322
0.38
239
0.36
275
0.85
322
0.43
262
0.91
266
0.68
215
0.55
184
0.69
265
0.75
274
0.55
252
2.31
344
0.78
275
0.17
272
0.17
270
0.24
326
0.19
282
0.33
287
0.23
242
ADCMidtwo views0.96
342
1.32
368
2.74
328
0.38
239
0.35
268
0.99
341
0.58
317
0.94
283
0.86
320
1.23
366
1.01
334
1.01
338
1.00
344
1.05
208
3.97
393
0.21
305
0.19
288
0.42
364
0.32
340
0.40
332
0.29
287
NLCA_NET_v2_RVCtwo views0.55
207
0.92
291
2.36
268
0.38
239
0.37
287
0.60
154
0.28
147
0.82
202
0.62
172
0.62
254
0.55
161
0.72
259
0.45
207
1.00
202
0.43
175
0.15
241
0.11
172
0.14
219
0.14
204
0.15
83
0.16
159
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
SANettwo views1.20
360
1.21
355
3.33
380
0.38
239
0.27
194
1.73
383
0.85
358
1.10
358
2.49
396
1.16
358
1.83
371
1.72
377
1.50
376
2.37
347
2.84
376
0.18
282
0.16
260
0.16
260
0.15
224
0.32
281
0.32
306
PSMNet_ROBtwo views0.66
262
1.01
327
2.33
260
0.38
239
0.31
233
0.72
270
0.55
306
0.86
230
0.69
223
0.54
170
0.60
198
0.75
274
0.47
220
2.00
325
0.82
283
0.17
272
0.13
211
0.19
298
0.19
282
0.24
219
0.27
275
TestStereo1two views0.49
153
0.81
264
1.85
142
0.39
247
0.57
351
0.56
97
0.34
216
0.75
145
0.69
223
0.44
79
0.63
220
0.35
64
0.42
186
0.64
145
0.29
86
0.10
78
0.08
58
0.12
136
0.10
75
0.33
287
0.26
267
SA-5Ktwo views0.49
153
0.81
264
1.85
142
0.39
247
0.57
351
0.56
97
0.34
216
0.75
145
0.69
223
0.44
79
0.63
220
0.35
64
0.42
186
0.64
145
0.29
86
0.10
78
0.08
58
0.12
136
0.10
75
0.33
287
0.26
267
S-Stereotwo views0.80
317
0.69
220
3.89
388
0.39
247
0.37
287
0.69
257
0.70
342
0.94
283
0.98
345
0.62
254
0.91
318
0.83
297
0.60
270
2.37
347
0.66
250
0.18
282
0.21
305
0.17
276
0.18
264
0.30
269
0.35
319
stereogantwo views0.69
275
0.51
163
2.44
283
0.39
247
0.39
294
1.01
345
0.41
253
0.94
283
0.92
337
0.73
308
0.85
308
1.15
360
0.69
298
1.57
261
0.53
214
0.19
292
0.18
278
0.20
306
0.16
239
0.36
307
0.24
249
ADCLtwo views0.99
343
0.79
257
2.43
281
0.39
247
0.32
241
1.50
371
1.90
399
0.92
274
0.97
342
1.26
370
1.27
352
1.00
337
1.42
372
1.14
218
3.31
385
0.17
272
0.14
225
0.22
314
0.21
297
0.30
269
0.22
224
DRN-Testtwo views0.64
250
0.43
131
2.44
283
0.39
247
0.44
316
0.80
310
0.41
253
1.02
339
0.78
298
0.80
319
0.63
220
0.69
244
0.56
256
1.79
296
0.69
257
0.15
241
0.12
197
0.17
276
0.16
239
0.18
147
0.17
170
DN-CSS_ROBtwo views0.48
136
1.23
357
1.99
194
0.39
247
0.22
134
0.56
97
0.19
13
0.75
145
0.61
156
0.45
86
0.62
210
0.41
89
0.31
106
0.70
166
0.32
117
0.11
124
0.08
58
0.14
219
0.13
179
0.36
307
0.12
63
MSMD_ROBtwo views1.34
370
0.96
307
2.38
270
0.39
247
0.32
241
1.96
389
0.62
328
0.91
266
1.43
376
2.94
405
2.60
390
4.77
405
1.95
387
2.43
358
1.33
327
0.29
346
0.26
334
0.32
350
0.32
340
0.30
269
0.30
295
PWC_ROBbinarytwo views0.70
279
0.94
299
1.88
157
0.39
247
0.39
294
0.62
194
0.30
173
0.98
309
0.94
338
0.91
339
1.29
354
0.77
280
0.62
282
1.62
272
1.03
306
0.18
282
0.11
172
0.18
293
0.13
179
0.51
354
0.22
224
Wz-Net-SNSevtwo views0.76
305
1.32
368
3.11
363
0.40
256
0.31
233
0.71
264
0.60
321
0.98
309
0.87
323
0.67
286
0.83
301
0.96
329
0.60
270
1.67
277
0.97
292
0.16
258
0.15
246
0.16
260
0.17
254
0.36
307
0.24
249
LMCR-Stereopermissivemany views0.52
185
0.71
225
2.39
272
0.40
256
0.21
113
0.74
278
0.31
183
1.02
339
0.64
188
0.61
243
0.63
220
0.39
77
0.51
237
0.62
140
0.42
167
0.19
292
0.09
112
0.12
136
0.09
44
0.23
204
0.12
63
ccnettwo views0.71
286
0.41
122
1.59
53
0.40
256
0.45
324
1.06
348
0.55
306
0.98
309
0.71
241
0.88
335
0.97
328
0.82
295
0.88
333
1.68
278
0.94
289
0.32
351
0.26
334
0.32
350
0.27
322
0.34
294
0.30
295
RTSCtwo views0.72
289
1.00
323
2.22
242
0.40
256
0.29
207
0.82
314
0.31
183
0.96
298
1.10
359
0.92
340
0.81
299
0.78
283
0.58
265
1.23
226
1.55
340
0.18
282
0.17
270
0.14
219
0.17
254
0.43
339
0.30
295
GANettwo views0.75
302
0.84
273
2.01
197
0.40
256
0.25
170
0.74
278
0.66
332
0.87
239
0.73
263
0.71
301
1.07
343
0.84
299
0.59
268
2.71
378
1.15
315
0.17
272
0.16
260
0.44
366
0.16
239
0.31
277
0.20
208
iResNetv2_ROBtwo views0.59
228
1.43
373
2.96
349
0.40
256
0.22
134
0.58
129
0.28
147
0.91
266
0.73
263
0.57
203
0.63
220
0.60
196
0.41
171
0.74
172
0.35
138
0.11
124
0.08
58
0.10
48
0.07
13
0.43
339
0.17
170
GMStereo_Zeroshotpermissivetwo views0.41
66
0.36
103
1.54
47
0.41
262
0.19
96
0.52
69
0.19
13
0.59
74
0.52
83
0.57
203
0.59
186
0.63
205
0.29
90
0.58
129
0.33
127
0.15
241
0.09
112
0.16
260
0.09
44
0.24
219
0.12
63
WZ-Nettwo views0.92
337
1.31
365
3.76
385
0.41
262
0.36
275
0.86
324
0.71
343
1.00
328
1.06
355
0.82
328
0.92
319
1.06
349
1.05
349
2.16
336
1.61
342
0.19
292
0.13
211
0.15
245
0.16
239
0.32
281
0.28
281
PFNettwo views0.60
232
0.33
85
2.47
288
0.41
262
0.55
348
0.62
194
0.27
137
0.61
83
0.63
181
0.61
243
0.56
172
0.45
123
0.32
109
1.88
314
1.14
313
0.28
345
0.09
112
0.12
136
0.16
239
0.26
244
0.20
208
AF-Nettwo views0.69
275
0.92
291
2.21
239
0.41
262
0.40
301
0.68
254
0.40
247
1.02
339
0.86
320
0.69
294
1.03
338
1.04
345
0.84
325
1.19
222
0.78
275
0.22
318
0.14
225
0.25
331
0.17
254
0.30
269
0.18
187
Nwc_Nettwo views0.68
271
0.83
271
2.53
297
0.41
262
0.39
294
0.77
294
0.38
241
1.01
336
0.70
232
0.60
236
0.99
331
0.98
333
0.68
297
1.41
237
0.63
244
0.23
321
0.15
246
0.23
320
0.25
312
0.23
204
0.18
187
StereoDRNettwo views0.64
250
0.88
284
2.35
265
0.41
262
0.45
324
0.73
275
0.47
287
0.94
283
0.74
267
0.75
310
0.54
153
0.74
269
0.47
220
1.70
281
0.72
264
0.15
241
0.14
225
0.15
245
0.14
204
0.20
176
0.19
195
iResNettwo views0.51
176
0.76
239
2.59
308
0.41
262
0.17
61
0.64
221
0.27
137
0.82
202
0.70
232
0.57
203
0.64
236
0.43
105
0.36
126
0.70
166
0.52
210
0.10
78
0.07
11
0.09
20
0.08
29
0.21
184
0.13
94
SGM-Foresttwo views1.04
350
0.42
128
3.59
384
0.41
262
0.32
241
1.05
347
1.32
387
0.94
283
0.83
315
1.16
358
2.23
383
1.03
342
1.39
370
2.49
363
2.35
369
0.21
305
0.21
305
0.20
306
0.19
282
0.23
204
0.32
306
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
TRStereotwo views0.53
190
0.76
239
2.38
270
0.42
270
0.29
207
0.69
257
0.23
60
1.81
390
0.55
110
0.36
43
0.32
31
0.47
137
0.40
160
0.46
80
0.25
53
0.12
171
0.11
172
0.11
92
0.41
364
0.13
51
0.32
306
DEmStereotwo views0.68
271
0.31
77
2.25
249
0.42
270
0.17
61
0.66
238
0.89
361
0.51
33
0.59
138
0.60
236
1.01
334
0.45
123
1.26
359
1.54
257
2.26
368
0.10
78
0.08
58
0.10
48
0.10
75
0.10
11
0.11
37
ADCStwo views1.05
351
1.36
372
2.98
353
0.42
270
0.36
275
0.96
338
0.81
357
1.06
352
1.12
361
1.25
367
0.97
328
1.08
351
0.90
335
1.25
230
4.86
402
0.21
305
0.21
305
0.22
314
0.23
303
0.36
307
0.38
337
STTRV1_RVCtwo views0.80
317
0.55
180
2.89
342
0.42
270
0.49
335
0.79
303
0.44
270
1.15
365
0.82
311
0.62
254
0.89
316
0.72
259
0.63
285
2.69
375
0.64
247
0.48
366
0.64
382
0.27
335
0.24
305
0.35
302
0.27
275
Anonymous Stereotwo views0.70
279
1.08
337
2.47
288
0.42
270
0.36
275
0.60
154
0.78
352
0.83
208
0.75
279
0.65
279
0.63
220
0.62
202
0.38
139
2.43
358
0.78
275
0.19
292
0.18
278
0.19
298
0.20
292
0.30
269
0.23
242
AE-Stereotwo views0.42
79
0.29
66
1.65
62
0.43
275
0.47
332
0.56
97
0.23
60
0.86
230
0.46
50
0.31
34
0.41
66
0.43
105
0.24
30
0.34
30
0.24
47
0.09
17
0.48
374
0.11
92
0.45
366
0.22
196
0.19
195
Syn2CoExtwo views0.70
279
1.07
336
2.74
328
0.43
275
0.30
217
0.64
221
0.42
256
0.99
320
0.78
298
0.62
254
0.78
296
0.74
269
0.72
305
1.92
319
0.61
240
0.20
301
0.17
270
0.19
298
0.15
224
0.29
260
0.22
224
aanetorigintwo views0.77
309
0.80
259
2.59
308
0.43
275
0.44
316
0.58
129
1.01
371
0.57
65
0.68
215
1.53
382
1.23
350
0.81
292
1.08
352
1.07
209
1.07
308
0.18
282
0.15
246
0.17
276
0.21
297
0.54
359
0.30
295
RPtwo views0.67
265
0.82
268
1.94
179
0.43
275
0.44
316
0.65
233
0.45
277
0.89
250
0.82
311
0.66
282
0.92
319
0.99
336
0.76
315
1.55
258
0.66
250
0.25
333
0.18
278
0.23
320
0.20
292
0.31
277
0.22
224
NCCL2two views0.65
258
0.94
299
1.96
191
0.43
275
0.30
217
0.71
264
0.68
337
0.84
218
0.65
200
0.70
297
0.60
198
0.86
306
0.54
247
1.56
259
0.57
229
0.20
301
0.16
260
0.67
376
0.25
312
0.22
196
0.24
249
LL-Strereo2two views0.41
66
0.90
289
1.83
139
0.44
280
0.24
158
0.54
78
0.27
137
0.58
69
0.45
47
0.41
65
0.33
34
0.44
116
0.21
15
0.44
67
0.34
131
0.09
17
0.08
58
0.16
260
0.14
204
0.17
128
0.17
170
Patchmatch Stereo++two views0.39
59
0.27
42
1.78
107
0.44
280
0.16
37
0.61
174
0.27
137
0.51
33
0.52
83
0.47
94
0.43
71
0.43
105
0.28
77
0.54
120
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
TransformOpticalFlowtwo views0.64
250
0.56
182
2.66
316
0.44
280
0.26
183
0.62
194
0.28
147
0.83
208
0.71
241
0.76
313
0.74
287
0.91
317
0.85
326
1.83
302
0.81
282
0.10
78
0.07
11
0.11
92
0.09
44
0.11
22
0.12
63
PSM-adaLosstwo views0.38
46
0.27
42
1.78
107
0.44
280
0.17
61
0.60
154
0.29
167
0.51
33
0.52
83
0.47
94
0.43
71
0.44
116
0.28
77
0.47
86
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
ROB_FTStereo_v2two views0.38
46
0.27
42
1.78
107
0.44
280
0.17
61
0.61
174
0.28
147
0.51
33
0.52
83
0.47
94
0.43
71
0.44
116
0.28
77
0.47
86
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
ROB_FTStereotwo views0.38
46
0.27
42
1.78
107
0.44
280
0.17
61
0.61
174
0.26
114
0.51
33
0.52
83
0.47
94
0.43
71
0.43
105
0.28
77
0.49
99
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
HUI-Stereotwo views0.38
46
0.27
42
1.79
125
0.44
280
0.17
61
0.61
174
0.28
147
0.51
33
0.52
83
0.47
94
0.43
71
0.44
116
0.28
77
0.45
74
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
iGMRVCtwo views0.39
59
0.27
42
1.78
107
0.44
280
0.17
61
0.61
174
0.27
137
0.51
33
0.52
83
0.47
94
0.43
71
0.44
116
0.28
77
0.55
124
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
iRAFTtwo views0.39
59
0.27
42
1.78
107
0.44
280
0.16
37
0.61
174
0.27
137
0.51
33
0.52
83
0.47
94
0.43
71
0.43
105
0.28
77
0.54
120
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
RAFT-IKPtwo views0.38
46
0.27
42
1.79
125
0.44
280
0.16
37
0.60
154
0.28
147
0.51
33
0.52
83
0.47
94
0.43
71
0.43
105
0.28
77
0.50
104
0.28
73
0.12
171
0.08
58
0.12
136
0.10
75
0.17
128
0.12
63
RGCtwo views0.71
286
0.97
315
2.18
236
0.44
280
0.44
316
0.73
275
0.40
247
0.94
283
0.71
241
0.71
301
1.04
341
1.01
338
0.71
302
1.74
287
0.70
258
0.23
321
0.18
278
0.28
339
0.26
318
0.29
260
0.27
275
FC-DCNNcopylefttwo views1.49
381
0.59
186
2.88
339
0.44
280
0.39
294
1.97
391
0.66
332
1.67
387
1.70
385
2.72
403
2.89
396
4.22
400
2.97
399
2.55
368
2.19
364
0.29
346
0.26
334
0.31
348
0.30
333
0.32
281
0.39
340
FBW_ROBtwo views0.83
325
0.77
247
1.77
103
0.44
280
0.30
217
0.87
328
0.46
279
1.10
358
0.91
334
0.81
324
0.75
290
1.01
338
0.61
277
3.66
398
1.23
322
0.26
336
0.23
315
0.36
355
0.25
312
0.27
251
0.62
368
iRaft-Stereo_20wtwo views0.58
224
0.39
117
1.96
191
0.45
293
0.32
241
0.92
335
0.57
315
1.14
362
0.56
118
0.81
324
0.40
62
0.55
166
0.69
298
0.65
152
1.04
307
0.09
17
0.16
260
0.09
20
0.36
355
0.17
128
0.25
258
SHDtwo views0.72
289
0.77
247
2.36
268
0.45
293
0.40
301
0.71
264
0.32
204
1.02
339
1.25
369
1.07
351
0.84
304
0.90
316
0.73
308
1.09
211
0.98
293
0.21
305
0.18
278
0.20
306
0.21
297
0.32
281
0.31
302
DeepPrunerFtwo views0.86
329
0.86
278
2.91
347
0.45
293
0.50
336
0.64
221
0.48
290
1.14
362
2.64
397
0.63
263
0.61
205
0.65
216
0.62
282
2.21
339
1.31
325
0.23
321
0.19
288
0.30
347
0.28
325
0.36
307
0.25
258
DISCOtwo views0.57
219
0.34
92
1.87
155
0.45
293
0.34
258
0.84
318
0.35
222
0.84
218
0.78
298
0.59
228
0.63
220
1.06
349
0.53
244
1.10
212
0.82
283
0.12
171
0.09
112
0.11
92
0.10
75
0.22
196
0.18
187
CRFU-Nettwo views0.56
213
0.38
110
1.86
150
0.46
297
0.26
183
0.82
314
0.36
228
0.90
256
0.49
68
0.62
254
0.59
186
0.78
283
1.35
366
1.00
202
0.48
195
0.15
241
0.14
225
0.17
276
0.10
75
0.19
164
0.14
107
PFNet+two views0.45
109
0.37
105
1.86
150
0.46
297
0.18
83
0.58
129
0.77
351
0.52
43
0.64
188
0.56
193
0.48
101
0.39
77
0.26
53
0.93
195
0.32
117
0.13
199
0.09
112
0.14
219
0.13
179
0.12
32
0.15
137
IRAFT_RVCtwo views0.54
195
0.53
169
1.78
107
0.46
297
0.21
113
0.58
129
0.43
262
0.65
95
0.66
210
0.54
170
0.50
124
0.49
145
0.51
237
1.58
265
1.01
303
0.11
124
0.25
332
0.13
190
0.10
75
0.15
83
0.13
94
XQCtwo views0.73
297
0.98
318
2.39
272
0.46
297
0.35
268
0.81
311
0.46
279
1.00
328
1.00
346
0.80
319
0.69
265
0.88
312
0.74
313
1.32
231
1.20
318
0.24
328
0.16
260
0.23
320
0.20
292
0.41
334
0.33
313
NOSS_ROBtwo views0.64
250
0.65
209
1.62
60
0.46
297
0.25
170
0.67
243
0.30
173
0.93
279
0.77
293
0.59
228
0.57
177
0.77
280
0.38
139
2.78
380
0.44
179
0.23
321
0.24
318
0.28
339
0.26
318
0.27
251
0.39
340
GASNettwo views0.73
297
1.47
375
3.04
356
0.47
302
0.33
252
0.57
114
0.34
216
0.91
266
0.75
279
0.58
215
0.58
183
0.74
269
0.55
252
2.03
326
0.65
249
0.21
305
0.15
246
0.19
298
0.17
254
0.51
354
0.28
281
NRIStereotwo views0.46
119
0.25
32
1.77
103
0.47
302
0.16
37
0.95
337
0.74
347
0.51
33
0.56
118
0.48
113
0.39
59
0.59
190
0.29
90
0.77
180
0.32
117
0.11
124
0.13
211
0.11
92
0.09
44
0.21
184
0.24
249
GEStereo_RVCtwo views0.54
195
0.87
281
1.95
182
0.47
302
0.25
170
0.62
194
0.37
235
1.00
328
0.74
267
0.53
159
0.54
153
0.59
190
0.44
203
1.10
212
0.46
183
0.15
241
0.11
172
0.12
136
0.10
75
0.26
244
0.19
195
FCDSN-DCtwo views1.29
367
0.54
172
2.50
294
0.47
302
0.41
308
1.12
355
0.60
321
1.10
358
1.27
371
2.23
395
2.87
395
3.67
397
3.12
401
2.39
353
1.69
344
0.30
348
0.26
334
0.31
348
0.30
333
0.35
302
0.38
337
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_DS_RVCtwo views1.01
348
1.67
383
2.32
257
0.47
302
0.39
294
1.47
368
0.95
364
0.95
294
0.91
334
0.84
331
0.94
323
1.05
347
0.60
270
2.95
385
0.72
264
0.41
359
0.72
394
0.32
350
0.55
374
0.74
371
1.22
398
GANetREF_RVCpermissivetwo views0.75
302
1.15
348
2.46
286
0.47
302
0.26
183
0.83
316
0.61
324
0.97
305
0.89
331
0.62
254
0.61
205
0.72
259
0.59
268
2.42
356
0.55
219
0.32
351
0.25
332
0.36
355
0.24
305
0.39
328
0.31
302
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
PASMtwo views0.72
289
0.68
217
1.91
169
0.47
302
0.44
316
0.60
154
0.51
294
0.76
154
0.80
306
0.77
316
0.67
250
0.87
308
0.61
277
2.40
354
0.67
253
0.32
351
0.35
352
0.36
355
0.41
364
0.45
347
0.39
340
PWCDC_ROBbinarytwo views0.72
289
1.06
334
2.09
215
0.47
302
0.36
275
0.78
299
0.26
114
0.98
309
1.34
373
0.61
243
2.07
375
0.64
213
0.61
277
0.83
187
0.71
260
0.31
350
0.14
225
0.15
245
0.12
154
0.60
365
0.21
214
CRE-IMPtwo views0.41
66
0.22
17
1.76
95
0.48
310
0.17
61
0.79
303
0.69
339
0.52
43
0.52
83
0.47
94
0.42
69
0.45
123
0.26
53
0.41
56
0.31
107
0.11
124
0.07
11
0.12
136
0.09
44
0.17
128
0.23
242
XX-Stereotwo views0.55
207
0.54
172
3.50
382
0.48
310
0.39
294
0.54
78
0.17
5
0.89
250
0.40
19
0.44
79
0.65
245
0.85
302
0.19
9
0.77
180
0.21
22
0.10
78
0.14
225
0.10
48
0.32
340
0.17
128
0.14
107
DeepStereo_RVCtwo views0.44
94
0.28
62
1.92
172
0.49
312
0.17
61
0.60
154
0.59
319
0.50
31
0.52
83
0.49
124
0.45
82
0.39
77
0.86
329
0.45
74
0.33
127
0.11
124
0.08
58
0.11
92
0.09
44
0.15
83
0.19
195
AnyNet_C32two views1.00
346
1.33
370
2.53
297
0.49
312
0.54
345
1.15
359
1.14
379
0.91
266
0.89
331
1.11
354
0.95
325
0.87
308
0.93
337
1.50
253
4.07
395
0.21
305
0.20
297
0.25
331
0.24
305
0.38
320
0.33
313
HHtwo views0.49
153
0.49
155
2.78
334
0.50
314
0.41
308
0.38
12
0.23
60
0.72
122
0.38
10
0.63
263
0.48
101
0.87
308
0.41
171
0.64
145
0.21
22
0.09
17
0.17
270
0.10
48
0.09
44
0.16
109
0.12
63
HanStereotwo views0.49
153
0.49
155
2.78
334
0.50
314
0.41
308
0.38
12
0.23
60
0.72
122
0.38
10
0.63
263
0.48
101
0.87
308
0.41
171
0.64
145
0.21
22
0.09
17
0.17
270
0.10
48
0.09
44
0.16
109
0.12
63
RAFT_R40two views0.50
162
0.21
9
1.76
95
0.50
314
0.40
301
0.61
174
0.53
300
0.56
62
0.60
142
0.56
193
0.54
153
0.55
166
0.51
237
1.57
261
0.53
214
0.11
124
0.07
11
0.12
136
0.10
75
0.16
109
0.09
16
PSM-softLosstwo views0.48
136
0.27
42
1.85
142
0.51
317
0.17
61
0.61
174
0.40
247
0.61
83
0.57
121
0.52
150
0.48
101
0.39
77
0.25
41
1.46
244
0.77
273
0.12
171
0.08
58
0.13
190
0.12
154
0.12
32
0.14
107
KMStereotwo views0.48
136
0.27
42
1.85
142
0.51
317
0.17
61
0.61
174
0.40
247
0.61
83
0.57
121
0.52
150
0.48
101
0.39
77
0.25
41
1.46
244
0.77
273
0.12
171
0.08
58
0.13
190
0.12
154
0.12
32
0.14
107
EDNetEfficientorigintwo views8.18
412
0.98
318
145.96
437
0.51
317
0.89
376
0.72
270
0.48
290
0.85
222
1.56
382
2.12
389
1.49
362
1.29
364
1.31
363
1.83
302
2.13
363
0.13
199
0.12
197
0.17
276
0.18
264
0.39
328
0.45
354
CSANtwo views1.25
365
1.12
340
3.04
356
0.51
317
0.37
287
1.06
348
1.15
380
1.22
368
1.08
357
1.17
363
1.91
373
1.04
345
1.31
363
5.96
408
2.43
371
0.26
336
0.22
310
0.24
326
0.24
305
0.31
277
0.30
295
NF-Stereotwo views0.48
136
0.25
32
1.81
132
0.52
321
0.16
37
0.61
174
0.44
270
0.66
97
0.61
156
0.50
131
0.47
89
0.37
67
0.26
53
1.45
243
0.79
280
0.11
124
0.07
11
0.12
136
0.10
75
0.13
51
0.16
159
OCTAStereotwo views0.48
136
0.25
32
1.81
132
0.52
321
0.16
37
0.61
174
0.43
262
0.66
97
0.61
156
0.50
131
0.47
89
0.37
67
0.26
53
1.44
239
0.80
281
0.11
124
0.07
11
0.12
136
0.10
75
0.13
51
0.17
170
RE-Stereotwo views0.48
136
0.25
32
1.81
132
0.52
321
0.16
37
0.61
174
0.43
262
0.66
97
0.60
142
0.50
131
0.47
89
0.37
67
0.26
53
1.44
239
0.78
275
0.11
124
0.07
11
0.12
136
0.10
75
0.13
51
0.17
170
TVStereotwo views0.48
136
0.25
32
1.81
132
0.52
321
0.16
37
0.61
174
0.43
262
0.66
97
0.60
142
0.50
131
0.47
89
0.37
67
0.26
53
1.44
239
0.78
275
0.11
124
0.07
11
0.12
136
0.10
75
0.13
51
0.17
170
RTStwo views1.21
361
1.31
365
6.39
407
0.52
321
0.51
341
1.61
375
0.79
353
1.03
346
1.37
374
1.13
355
1.30
355
1.10
355
0.85
326
2.65
372
2.08
359
0.21
305
0.24
318
0.18
293
0.18
264
0.43
339
0.32
306
RTSAtwo views1.21
361
1.31
365
6.39
407
0.52
321
0.51
341
1.61
375
0.79
353
1.03
346
1.37
374
1.13
355
1.30
355
1.10
355
0.85
326
2.65
372
2.08
359
0.21
305
0.24
318
0.18
293
0.18
264
0.43
339
0.32
306
PVDtwo views0.90
334
0.85
277
2.15
230
0.53
327
0.50
336
0.99
341
0.56
311
1.15
365
1.64
383
1.41
378
1.41
361
1.11
357
1.13
356
1.35
234
1.31
325
0.26
336
0.28
341
0.28
339
0.26
318
0.37
314
0.49
359
NaN_ROBtwo views1.14
354
0.94
299
2.96
349
0.53
327
0.56
350
1.13
357
0.99
367
0.98
309
1.00
346
1.09
353
0.87
311
0.77
280
1.06
351
5.90
407
2.72
373
0.16
258
0.23
315
0.16
260
0.24
305
0.22
196
0.36
327
ELAScopylefttwo views1.39
375
0.79
257
2.86
338
0.53
327
0.50
336
2.81
402
2.20
401
1.61
386
1.50
379
2.28
397
2.35
384
1.82
378
2.13
389
1.73
285
2.22
365
0.35
355
0.37
356
0.35
353
0.35
349
0.49
350
0.47
356
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
AAGNettwo views0.88
332
0.33
85
1.79
125
0.54
330
0.98
381
0.62
194
0.46
279
0.50
31
0.60
142
0.58
215
0.53
143
0.50
148
0.73
308
1.23
226
7.48
409
0.11
124
0.07
11
0.12
136
0.10
75
0.14
69
0.09
16
IIG-Stereotwo views0.59
228
0.65
209
1.74
85
0.54
330
0.23
145
0.61
174
0.21
32
0.73
130
0.65
200
0.64
272
0.69
265
0.69
244
0.38
139
2.09
332
1.39
331
0.11
124
0.07
11
0.11
92
0.09
44
0.15
83
0.09
16
GMM-Stereotwo views0.50
162
0.23
21
2.41
275
0.54
330
0.24
158
0.77
294
0.46
279
0.59
74
0.57
121
0.58
215
0.73
285
0.47
137
0.43
196
0.68
156
0.27
64
0.10
78
0.06
1
0.13
190
0.13
179
0.14
69
0.44
353
EAI-Stereotwo views0.78
313
0.25
32
1.67
67
0.54
330
0.59
354
1.95
388
2.05
400
1.11
361
0.64
188
0.95
344
1.49
362
0.50
148
0.67
294
0.59
132
1.44
335
0.09
17
0.19
288
0.09
20
0.49
369
0.13
51
0.22
224
AnyNet_C01two views1.14
354
1.49
376
4.23
396
0.54
330
0.53
343
1.51
372
1.37
389
1.04
350
1.07
356
1.17
363
1.33
357
1.15
360
1.08
352
1.61
271
2.74
374
0.25
333
0.22
310
0.28
339
0.24
305
0.48
348
0.40
344
MDST_ROBtwo views1.17
359
0.42
128
3.87
387
0.54
330
0.44
316
4.11
408
0.58
317
1.31
374
0.84
317
2.12
389
1.12
346
0.98
333
0.71
302
4.24
403
0.99
298
0.16
258
0.14
225
0.19
298
0.17
254
0.18
147
0.35
319
NINENettwo views0.50
162
0.33
85
1.69
70
0.55
336
0.25
170
0.91
333
0.23
60
0.98
309
0.71
241
0.53
159
0.55
161
0.66
221
0.30
98
1.22
225
0.32
117
0.15
241
0.13
211
0.16
260
0.11
124
0.16
109
0.13
94
ELAS_RVCcopylefttwo views1.37
374
0.78
255
3.21
373
0.55
336
0.50
336
1.49
370
2.48
404
1.48
380
1.71
386
2.13
392
2.09
376
2.07
382
2.56
395
1.90
316
2.02
356
0.35
355
0.36
354
0.37
359
0.34
347
0.49
350
0.47
356
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
OMP-Stereotwo views0.59
228
0.65
209
1.74
85
0.56
338
0.37
287
0.60
154
0.26
114
0.70
115
0.65
200
0.66
282
0.60
198
0.69
244
0.32
109
2.09
332
1.20
318
0.10
78
0.07
11
0.12
136
0.09
44
0.17
128
0.10
27
MSC_U_SF_DS_RVCtwo views1.34
370
1.70
387
2.50
294
0.56
338
0.40
301
2.15
395
0.99
367
1.24
370
1.26
370
1.02
347
1.10
345
1.29
364
0.88
333
3.10
389
1.08
309
1.66
401
0.83
396
0.68
377
0.88
394
1.57
396
1.80
408
DisPMtwo views0.43
85
0.33
85
1.78
107
0.57
340
0.18
83
0.59
145
0.63
330
0.53
48
0.61
156
0.60
236
0.53
143
0.38
73
0.26
53
0.75
173
0.29
86
0.12
171
0.07
11
0.12
136
0.11
124
0.11
22
0.14
107
G-Nettwo views0.99
343
0.64
203
2.76
330
0.57
340
0.67
362
2.03
393
0.72
346
0.76
154
0.67
213
1.14
357
2.56
389
1.30
367
1.02
346
1.48
252
1.74
347
0.25
333
0.24
318
0.24
326
0.26
318
0.37
314
0.31
302
DPSNettwo views0.86
329
0.60
187
2.34
262
0.58
342
0.36
275
1.07
353
0.75
348
1.30
373
1.05
352
0.70
297
0.68
258
0.94
326
1.29
360
2.08
330
1.82
350
0.26
336
0.23
315
0.16
260
0.17
254
0.48
348
0.40
344
NVStereoNet_ROBtwo views1.16
358
0.95
305
2.54
303
0.58
342
0.55
348
0.78
299
0.63
330
1.00
328
1.08
357
1.03
348
4.07
404
1.48
373
1.22
358
2.88
384
1.27
324
0.50
367
0.46
368
0.54
370
0.62
382
0.50
352
0.63
370
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
WCMA_ROBtwo views1.12
353
0.83
271
2.66
316
0.58
342
0.34
258
1.17
361
0.71
343
0.93
279
0.94
338
1.74
385
2.63
392
3.09
393
1.71
383
1.70
281
1.84
351
0.26
336
0.21
305
0.20
306
0.21
297
0.28
257
0.43
351
anonymitytwo views0.80
317
0.66
214
1.29
15
0.59
345
0.75
368
0.67
243
0.52
297
0.95
294
0.71
241
0.94
342
0.70
275
0.67
231
0.87
330
0.71
168
1.35
328
0.64
373
0.62
381
0.58
371
1.44
406
0.60
365
0.65
371
NCC-stereotwo views0.79
315
0.94
299
2.42
277
0.59
345
0.45
324
1.90
386
0.46
279
0.99
320
0.72
249
0.64
272
0.84
304
0.91
317
0.73
308
1.80
298
1.00
299
0.27
341
0.19
288
0.23
320
0.31
337
0.24
219
0.22
224
Abc-Nettwo views0.79
315
0.94
299
2.42
277
0.59
345
0.45
324
1.90
386
0.46
279
0.99
320
0.72
249
0.64
272
0.84
304
0.91
317
0.73
308
1.80
298
1.00
299
0.27
341
0.19
288
0.23
320
0.31
337
0.24
219
0.22
224
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Prome-Stereotwo views0.49
153
0.30
71
1.76
95
0.60
348
0.23
145
0.63
210
0.42
256
0.62
87
0.60
142
0.59
228
1.03
338
0.43
105
0.72
305
0.60
137
0.33
127
0.09
17
0.07
11
0.10
48
0.09
44
0.11
22
0.43
351
MIPNettwo views0.83
325
0.81
264
2.40
274
0.61
349
0.18
83
1.48
369
1.39
391
1.60
385
0.74
267
1.94
387
0.85
308
0.73
263
1.68
381
0.87
193
0.31
107
0.09
17
0.08
58
0.11
92
0.32
340
0.25
230
0.12
63
SST-Stereotwo views0.52
185
0.20
4
1.76
95
0.62
350
0.53
343
0.62
194
0.66
332
0.55
61
0.61
156
0.58
215
0.53
143
0.52
157
0.60
270
1.59
267
0.29
86
0.11
124
0.07
11
0.12
136
0.10
75
0.16
109
0.10
27
PA-Nettwo views0.84
327
1.00
323
3.49
381
0.63
351
0.40
301
0.70
262
0.52
297
0.86
230
0.84
317
0.52
150
0.59
186
0.70
254
0.54
247
2.35
346
2.23
366
0.17
272
0.27
339
0.19
298
0.28
325
0.22
196
0.36
327
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
EDNetEfficienttwo views1.27
366
0.70
223
4.05
393
0.64
352
0.98
381
0.94
336
1.40
392
0.85
222
1.75
387
2.34
398
1.33
357
1.05
347
2.21
391
1.58
265
4.15
396
0.15
241
0.19
288
0.14
219
0.27
322
0.38
320
0.32
306
PDISCO_ROBtwo views0.75
302
1.06
334
2.11
219
0.64
352
0.59
354
1.13
357
0.43
262
1.14
362
1.05
352
0.64
272
0.71
279
0.96
329
0.61
277
1.21
223
0.76
271
0.37
358
0.18
278
0.27
335
0.24
305
0.56
361
0.32
306
MFN_U_SF_RVCtwo views1.55
383
2.39
410
3.16
367
0.65
354
0.41
308
1.12
355
0.46
279
1.23
369
1.33
372
1.61
383
1.20
348
1.43
371
0.98
343
1.76
289
1.97
353
1.90
404
1.80
405
1.98
409
2.15
408
1.63
397
1.77
407
SPS-STEREOcopylefttwo views1.07
352
1.13
343
2.88
339
0.65
354
0.69
364
0.99
341
0.68
337
1.05
351
0.87
323
1.36
373
1.23
350
1.46
372
0.94
340
1.87
309
1.72
346
0.66
374
0.61
380
0.58
371
0.57
377
0.65
367
0.77
378
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
UDGtwo views0.77
309
1.23
357
2.15
230
0.67
356
0.59
354
0.78
299
0.38
241
0.90
256
0.70
232
0.61
243
0.69
265
1.01
338
0.67
294
1.02
204
0.73
267
0.45
363
0.34
351
0.87
381
0.51
371
0.67
369
0.46
355
SGM-ForestMtwo views2.98
402
1.70
387
3.52
383
0.67
356
0.47
332
5.18
411
3.36
408
3.30
407
2.86
400
4.44
408
3.79
403
9.80
413
5.50
409
6.29
409
6.52
407
0.27
341
0.36
354
0.24
326
0.27
322
0.38
320
0.58
366
FTStereotwo views0.76
305
0.18
1
2.35
265
0.71
358
0.21
113
0.73
275
1.79
398
0.57
65
0.53
99
1.07
351
1.63
367
1.29
364
2.13
389
0.75
173
0.29
86
0.19
292
0.08
58
0.12
136
0.11
124
0.11
22
0.40
344
JetBluetwo views1.78
386
1.63
379
3.92
389
0.73
359
1.21
393
4.38
409
3.35
407
1.59
384
1.20
366
1.26
370
1.52
364
2.37
386
1.88
386
3.23
391
3.00
377
0.53
368
0.47
371
0.48
368
0.49
369
1.29
391
0.97
388
pmcnntwo views1.32
368
1.05
333
2.77
332
0.74
360
1.43
396
0.72
270
0.56
311
0.96
298
0.91
334
0.99
346
2.92
398
6.01
409
0.70
300
2.38
350
3.32
386
0.13
199
0.10
140
0.08
3
0.06
7
0.34
294
0.22
224
SQANettwo views0.80
317
1.58
378
2.53
297
0.76
361
0.83
372
0.76
286
0.36
228
0.83
208
0.64
188
0.63
263
0.69
265
0.73
263
0.51
237
1.21
223
0.53
214
0.77
379
0.29
342
0.59
373
0.29
328
0.86
378
0.61
367
DDUNettwo views0.77
309
1.12
340
1.88
157
0.76
361
0.69
364
0.84
318
0.43
262
0.85
222
0.65
200
0.67
286
0.75
290
0.91
317
0.52
242
1.03
206
0.57
229
0.54
370
0.37
356
0.95
384
0.52
373
0.71
370
0.57
364
ACREtwo views0.56
213
1.14
344
2.77
332
0.76
361
0.28
202
0.60
154
0.56
311
0.76
154
0.58
131
0.55
184
0.62
210
0.41
89
0.29
90
0.44
67
0.39
154
0.11
124
0.19
288
0.13
190
0.14
204
0.36
307
0.18
187
CAStwo views0.35
34
0.25
32
1.30
17
0.79
364
0.34
258
0.51
56
0.23
60
0.46
12
0.39
15
0.22
5
0.31
28
0.20
2
0.17
1
0.28
3
0.23
33
0.73
378
0.06
1
0.07
1
0.05
1
0.09
7
0.37
334
CIPLGtwo views0.56
213
1.19
353
2.46
286
0.80
365
0.31
233
0.61
174
0.57
315
0.76
154
0.57
121
0.56
193
0.63
220
0.41
89
0.30
98
0.45
74
0.40
159
0.11
124
0.20
297
0.13
190
0.13
179
0.35
302
0.19
195
IPLGR_Ctwo views0.58
224
1.25
360
2.72
324
0.80
365
0.31
233
0.60
154
0.61
324
0.76
154
0.58
131
0.56
193
0.62
210
0.41
89
0.31
106
0.43
62
0.40
159
0.11
124
0.22
310
0.13
190
0.15
224
0.35
302
0.19
195
SAMSARAtwo views0.91
335
0.97
315
2.22
242
0.80
365
0.58
353
1.32
363
1.31
386
1.01
336
0.94
338
1.36
373
0.87
311
1.38
369
0.90
335
1.72
284
1.02
304
0.24
328
0.30
345
0.22
314
0.25
312
0.36
307
0.35
319
MADNet+two views1.36
372
1.93
400
5.95
406
0.81
368
0.59
354
1.57
374
1.09
375
1.39
378
1.22
367
0.84
331
1.01
334
1.25
363
1.12
355
3.19
390
2.36
370
0.45
363
0.47
371
0.38
361
0.34
347
0.59
362
0.57
364
MFMNet_retwo views0.92
337
1.28
362
2.53
297
0.82
369
0.76
371
0.90
331
0.75
348
0.98
309
1.04
351
1.03
348
1.05
342
0.84
299
0.94
340
0.83
187
0.72
264
0.68
375
0.60
379
0.63
374
0.60
381
0.77
374
0.74
374
SGM+DAISYtwo views1.83
388
1.43
373
3.81
386
0.87
370
1.01
384
2.38
399
2.53
405
1.36
376
1.75
387
2.92
404
3.22
400
2.65
388
2.93
397
2.22
342
3.10
381
0.72
377
0.69
390
0.63
374
0.62
382
0.77
374
0.98
389
CC-Net-ROBtwo views0.85
328
1.15
348
2.13
224
0.88
371
0.38
292
0.88
329
0.44
270
1.06
352
0.79
303
0.58
215
0.69
265
0.65
216
0.50
235
2.74
379
0.51
208
0.93
382
0.39
364
0.87
381
0.29
328
0.54
359
0.54
361
GrayStereotwo views0.66
262
0.19
2
1.76
95
0.90
372
0.23
145
0.62
194
1.42
395
0.62
87
0.60
142
0.72
304
0.78
296
0.56
175
3.07
400
0.60
137
0.26
56
0.09
17
0.08
58
0.10
48
0.21
297
0.11
22
0.18
187
ASMatchtwo views0.60
232
0.43
131
2.58
307
0.91
373
0.36
275
0.56
97
0.25
98
0.52
43
0.61
156
0.47
94
1.21
349
0.47
137
0.66
292
1.34
233
0.94
289
0.10
78
0.08
58
0.11
92
0.11
124
0.10
11
0.16
159
LCNettwo views0.54
195
0.37
105
1.78
107
0.92
374
0.22
134
0.96
338
0.30
173
0.59
74
0.58
131
0.51
143
0.55
161
0.41
89
0.76
315
0.84
189
0.26
56
0.09
17
0.06
1
0.12
136
0.18
264
0.98
380
0.39
340
WAO-7two views1.48
380
1.63
379
2.49
292
0.93
375
0.75
368
1.72
382
1.10
376
1.84
392
1.96
391
1.43
379
2.54
388
1.97
380
1.61
380
3.06
387
2.08
359
0.69
376
0.66
384
0.94
383
0.74
388
0.80
376
0.69
373
MaskLacGwcNet_RVCtwo views0.77
309
1.04
332
2.06
207
0.94
376
0.35
268
0.89
330
0.40
247
0.85
222
0.63
181
0.55
184
0.63
220
0.75
274
0.38
139
2.38
350
0.48
195
1.10
389
0.31
346
0.36
355
0.21
297
0.53
358
0.55
363
otakutwo views1.03
349
1.68
385
2.72
324
0.95
377
0.73
367
1.03
346
0.59
319
0.99
320
0.86
320
0.69
294
1.61
365
0.98
333
0.64
286
1.46
244
1.14
313
0.95
384
0.46
368
0.72
379
0.40
361
1.24
389
0.78
379
Ntrotwo views1.00
346
1.68
385
2.80
336
0.95
377
0.85
373
1.06
348
0.53
300
0.98
309
0.90
333
0.62
254
0.76
292
0.93
322
0.66
292
1.66
275
0.98
293
0.99
386
0.45
367
0.75
380
0.40
361
1.19
385
0.75
376
SGM_RVCbinarytwo views1.89
389
0.92
291
2.50
294
0.96
379
0.93
380
1.63
377
1.37
389
1.52
383
12.43
411
1.85
386
1.69
368
2.40
387
1.74
384
2.81
383
1.71
345
0.53
368
0.47
371
0.42
364
0.47
367
0.74
371
0.74
374
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
Consistency-Rafttwo views0.88
332
0.93
297
3.23
375
0.99
380
0.64
360
0.77
294
0.55
306
0.98
309
0.97
342
0.61
243
1.03
338
0.65
216
1.05
349
0.79
185
1.38
330
0.44
361
0.46
368
0.51
369
0.58
379
0.65
367
0.47
356
MANEtwo views2.90
401
1.14
344
2.96
349
1.03
381
1.01
384
5.01
410
2.45
403
5.36
411
6.88
409
3.58
407
4.76
408
5.99
408
4.99
406
4.23
402
4.61
401
0.56
372
0.67
385
0.44
366
0.78
390
0.51
354
1.03
394
ACVNet-4btwo views1.93
390
1.85
394
4.10
394
1.07
382
0.86
374
1.15
359
0.53
300
1.06
352
1.12
361
0.64
272
1.09
344
1.99
381
0.70
300
2.20
338
9.86
414
5.62
413
0.41
366
1.03
388
0.55
374
1.86
402
0.85
382
ACVNet_2two views1.42
378
1.81
391
3.23
375
1.08
383
0.92
379
1.32
363
0.85
358
1.49
381
1.69
384
1.19
365
1.73
369
2.13
383
1.03
347
2.50
364
1.40
333
0.91
381
0.53
376
1.00
386
0.55
374
2.11
404
0.85
382
ACVNet_1two views1.33
369
1.91
398
4.03
392
1.09
384
0.88
375
1.19
362
0.66
332
1.24
370
1.17
364
0.94
342
0.96
326
3.09
393
1.04
348
2.37
347
1.11
311
1.04
387
0.48
374
1.03
388
0.48
368
1.12
382
0.83
381
PWCKtwo views1.49
381
1.90
397
3.22
374
1.09
384
0.54
345
1.71
381
1.73
397
1.49
381
1.53
380
1.44
380
1.80
370
1.82
378
1.30
362
3.34
393
1.76
348
1.07
388
0.56
378
0.97
385
0.58
379
1.38
395
0.65
371
RainbowNettwo views1.15
356
1.78
390
2.72
324
1.12
386
0.91
378
1.06
348
0.76
350
1.16
367
1.13
363
0.75
310
0.97
328
1.09
353
0.80
319
1.60
268
1.21
320
1.17
391
1.26
403
1.01
387
0.57
377
1.13
383
0.88
386
WAO-6two views1.58
384
1.54
377
2.32
257
1.14
387
1.00
383
2.30
397
1.03
372
1.82
391
2.85
399
1.25
367
2.61
391
2.20
384
1.56
378
2.47
362
1.99
355
0.95
384
0.67
385
1.19
393
0.83
392
1.08
381
0.88
386
DANettwo views0.80
317
0.65
209
2.21
239
1.19
388
0.48
334
0.74
278
1.25
384
0.89
250
1.53
380
0.89
337
0.71
279
0.96
329
0.56
256
1.83
302
0.96
291
0.18
282
0.16
260
0.19
298
0.16
239
0.26
244
0.29
287
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
Deantwo views1.79
387
1.83
392
3.92
389
1.29
389
1.07
388
1.55
373
1.00
370
1.95
394
2.33
393
1.47
381
4.19
405
4.26
403
1.33
365
2.21
339
1.48
337
1.14
390
0.68
389
1.18
390
0.74
388
1.24
389
0.98
389
IMH-64-1two views1.39
375
1.64
381
1.86
150
1.36
390
1.11
389
1.39
366
1.19
382
1.76
388
1.45
377
1.16
358
2.21
381
1.53
374
1.38
368
1.98
321
1.52
338
1.29
393
0.67
385
1.27
394
0.69
385
1.29
391
0.98
389
IMH-64two views1.39
375
1.64
381
1.86
150
1.36
390
1.11
389
1.39
366
1.19
382
1.76
388
1.45
377
1.16
358
2.21
381
1.53
374
1.38
368
1.98
321
1.52
338
1.29
393
0.67
385
1.27
394
0.69
385
1.29
391
0.98
389
JetRedtwo views3.29
403
4.93
414
10.17
411
1.45
392
1.72
404
7.44
412
5.05
412
3.06
402
2.12
392
2.41
399
2.39
385
2.99
391
2.37
392
3.51
396
6.44
406
1.32
396
1.90
409
1.37
398
1.23
405
2.21
406
1.76
406
TorneroNet-64two views2.65
394
1.83
392
3.30
377
1.46
393
1.20
392
3.89
405
0.99
367
3.51
409
6.71
408
2.56
400
4.60
406
4.22
400
3.85
404
3.33
392
3.14
382
1.19
392
0.65
383
1.39
399
0.79
391
3.31
411
1.15
396
TorneroNettwo views5.50
409
1.92
399
3.16
367
1.47
394
1.25
395
14.07
417
1.06
374
4.90
410
20.99
428
10.17
411
16.48
420
11.88
417
6.93
410
3.34
393
4.20
397
1.30
395
0.69
390
1.45
401
0.86
393
2.61
408
1.20
397
DispFullNettwo views1.67
385
2.10
403
5.22
402
1.53
395
8.90
413
0.86
324
0.31
183
0.96
298
0.96
341
1.37
376
1.01
334
1.13
358
1.98
388
1.51
254
0.91
288
0.54
370
0.31
346
1.18
390
0.63
384
1.13
383
0.80
380
IMHtwo views2.02
392
2.15
408
2.69
321
1.68
396
1.12
391
1.66
380
0.92
363
2.10
395
1.92
390
1.32
372
2.66
393
2.21
385
1.69
382
5.78
406
1.68
343
5.54
412
0.96
400
1.31
396
0.71
387
1.32
394
0.99
393
LVEtwo views1.96
391
2.17
409
3.14
365
1.68
396
1.80
405
1.63
377
1.03
372
2.34
397
2.81
398
1.25
367
2.89
396
4.24
402
1.29
360
2.79
381
1.44
335
2.85
409
0.91
399
1.18
390
1.46
407
1.23
388
1.10
395
KSHMRtwo views4.10
405
1.97
401
5.27
403
1.71
398
1.47
400
1.96
389
1.28
385
3.19
403
17.33
422
2.12
389
15.91
418
9.18
412
1.57
379
8.42
412
1.98
354
1.52
399
1.26
403
1.67
406
1.19
403
1.67
399
1.40
402
Pruner-Stereotwo views0.51
176
0.27
42
1.78
107
1.79
399
0.19
96
0.62
194
0.45
277
0.57
65
0.60
142
0.61
243
0.48
101
0.41
89
0.24
30
0.46
80
1.00
299
0.12
171
0.07
11
0.12
136
0.10
75
0.12
32
0.13
94
ktntwo views4.35
406
2.10
403
2.89
342
1.80
400
1.49
402
2.13
394
1.41
394
2.26
396
12.72
412
11.41
414
16.43
419
11.15
415
3.75
402
4.36
404
3.18
383
1.82
403
0.98
402
1.73
408
1.21
404
2.97
410
1.27
399
UNDER WATERtwo views2.74
396
1.85
394
4.54
398
1.81
401
1.44
398
2.34
398
1.40
392
3.24
404
6.60
407
2.60
401
2.76
394
5.75
407
5.24
408
3.02
386
4.01
394
1.45
397
0.81
395
1.59
405
1.06
400
1.80
400
1.51
404
UNDER WATER-64two views2.47
393
1.89
396
4.86
400
1.82
402
1.44
398
3.18
404
1.57
396
2.62
398
5.64
404
2.05
388
2.13
378
4.13
399
3.76
403
2.62
370
3.42
388
1.47
398
0.85
397
1.57
404
1.07
401
1.82
401
1.49
403
WAO-8two views2.80
398
2.14
406
2.89
342
1.91
403
1.04
386
3.98
406
0.96
365
3.26
405
6.17
405
2.15
393
3.37
401
3.31
395
2.41
393
11.84
414
2.03
357
2.05
405
1.86
407
1.54
402
0.92
395
1.22
386
0.87
384
Venustwo views2.80
398
2.14
406
2.89
342
1.91
403
1.04
386
3.98
406
0.96
365
3.26
405
6.17
405
2.15
393
3.37
401
3.31
395
2.41
393
11.84
414
2.03
357
2.05
405
1.86
407
1.54
402
0.92
395
1.22
386
0.87
384
FADEtwo views3.00
413
2.11
405
2.94
408
3.05
392
94.83
437
35.90
437
65.83
434
66.18
434
1.66
398
tttwo views4.93
408
0.27
42
4.20
395
2.29
406
1.58
403
10.20
415
16.97
418
9.42
416
5.02
403
1.67
384
1.28
353
4.68
404
5.03
407
3.37
395
5.92
405
6.16
414
9.47
421
2.82
411
3.18
413
3.60
412
1.53
405
MADNet++two views2.79
397
2.11
405
2.97
352
2.49
407
2.28
406
2.95
403
2.31
402
2.67
399
2.47
395
3.03
406
3.13
399
2.70
389
2.92
396
4.10
401
4.48
399
2.68
408
2.24
412
3.04
412
2.44
410
2.37
407
2.34
410
EKT-Stereotwo views1.47
379
0.49
155
1.93
175
2.57
408
19.31
423
0.55
88
0.22
44
0.69
111
0.42
28
0.38
52
0.36
42
0.43
105
0.27
67
0.69
162
0.26
56
0.12
171
0.14
225
0.11
92
0.16
239
0.20
176
0.15
137
notakertwo views2.66
395
2.07
402
3.31
379
2.61
409
1.43
396
1.76
384
1.11
377
2.76
401
1.79
389
2.26
396
11.53
415
3.96
398
4.29
405
3.09
388
2.76
375
1.55
400
0.88
398
1.70
407
1.07
401
2.00
403
1.35
400
SPstereotwo views16.50
420
2.87
412
4.74
399
2.64
410
2.53
407
29.48
429
52.22
429
39.30
436
29.70
436
21.90
431
21.75
427
27.53
436
23.84
431
28.05
436
26.36
430
2.38
407
2.58
413
4.92
414
3.03
412
2.19
405
2.05
409
LE_ROBtwo views4.43
407
1.35
371
9.38
410
2.79
411
3.93
410
2.43
400
3.46
409
2.68
400
11.19
410
11.66
415
4.73
407
5.26
406
10.46
413
4.50
405
9.49
412
0.82
380
0.69
390
1.34
397
0.98
398
0.75
373
0.76
377
BEATNet-Init1two views12.10
415
11.19
417
27.29
433
2.99
412
3.51
409
21.84
427
11.10
414
14.34
420
13.83
417
20.34
423
20.33
425
26.35
435
20.03
422
19.06
425
14.80
420
1.74
402
1.81
406
2.05
410
2.49
411
3.69
413
3.12
412
DGSMNettwo views2.89
400
0.63
201
3.18
370
3.43
413
4.17
412
2.57
401
6.98
413
0.97
305
0.83
315
0.56
193
1.86
372
0.79
287
0.62
282
1.64
273
1.39
331
4.61
411
5.01
414
5.17
416
4.71
415
4.44
415
4.19
413
PMLtwo views23.15
425
16.83
421
7.78
409
5.49
414
9.93
414
51.13
436
104.50
436
5.76
412
13.62
415
37.30
436
105.93
436
30.86
437
23.50
427
12.07
416
7.87
410
6.30
415
2.12
411
6.32
418
2.43
409
10.44
420
2.90
411
DGTPSM_ROBtwo views8.89
413
5.62
415
12.25
413
5.92
415
11.32
415
8.54
413
24.18
420
6.40
413
13.49
413
5.15
409
11.46
413
6.19
410
10.92
414
7.00
410
13.72
416
4.47
410
7.65
415
3.92
413
7.45
418
4.38
414
7.87
417
HanzoNettwo views7.64
411
2.86
411
5.05
401
7.01
416
3.97
411
2.18
396
1.34
388
3.37
408
4.05
401
13.17
416
10.58
409
10.73
414
16.52
420
8.45
413
10.51
415
10.48
420
9.72
422
5.59
417
13.46
421
6.84
417
6.83
416
DPSMNet_ROBtwo views9.48
414
5.64
416
13.01
417
8.82
417
11.82
416
8.54
413
24.20
421
6.41
414
13.65
416
5.32
410
11.47
414
6.33
411
10.92
414
7.69
411
13.89
417
7.25
419
8.19
417
5.06
415
7.78
419
5.31
416
8.26
418
LSMtwo views3.31
404
1.11
339
5.29
404
9.40
418
30.65
432
0.84
318
1.12
378
0.91
266
1.22
367
1.36
373
2.19
380
0.93
322
0.83
322
1.66
275
0.90
287
0.21
305
0.31
346
0.24
326
0.28
325
0.39
328
6.33
415
Anonymous_1two views22.91
424
11.20
418
12.13
412
12.75
419
26.28
431
19.43
422
27.92
425
14.08
419
13.61
414
14.96
417
10.58
409
11.26
416
11.19
416
12.55
418
14.57
419
38.28
436
7.88
416
34.96
433
63.99
433
89.57
437
10.94
421
DPSM_ROBtwo views12.34
416
11.21
419
12.51
414
12.91
420
12.80
418
19.84
424
28.28
426
14.38
421
14.28
418
10.58
412
11.26
411
12.03
418
11.85
417
13.15
420
15.34
421
7.11
417
8.31
418
6.50
419
7.35
416
8.84
418
8.31
419
DPSMtwo views12.34
416
11.21
419
12.51
414
12.91
420
12.80
418
19.84
424
28.28
426
14.38
421
14.28
418
10.58
412
11.26
411
12.03
418
11.85
417
13.15
420
15.34
421
7.11
417
8.31
418
6.50
419
7.35
416
8.84
418
8.31
419
DPSimNet_ROBtwo views17.97
421
20.20
428
24.98
426
17.62
422
15.92
420
21.53
426
21.00
419
13.70
418
15.61
420
23.89
432
14.69
417
22.87
426
24.58
435
12.70
419
14.56
418
18.48
427
12.91
423
20.21
427
12.05
420
17.76
421
14.17
422
HaxPigtwo views19.86
422
22.40
429
22.34
423
17.95
423
17.95
422
11.77
416
11.89
415
16.02
423
15.89
421
21.10
424
21.41
426
18.74
424
18.39
421
20.08
426
19.69
424
23.63
433
23.22
431
24.06
428
23.69
429
23.00
429
23.95
431
LRCNet_RVCtwo views13.74
419
19.30
422
12.75
416
19.46
424
12.69
417
1.86
385
0.41
253
12.33
417
1.05
352
15.77
418
18.83
424
12.62
420
8.70
412
12.21
417
9.62
413
22.22
429
8.37
420
25.85
429
24.01
430
19.32
428
17.44
428
MEDIAN_ROBtwo views23.96
426
27.05
436
26.39
432
22.16
425
22.13
424
16.12
418
13.97
416
20.24
424
20.05
424
25.50
434
25.31
434
22.96
427
22.63
426
24.39
428
23.24
428
28.20
434
27.23
435
28.62
431
27.75
431
27.50
431
27.76
432
ASD4two views21.52
423
19.65
423
22.13
422
22.45
426
16.42
421
23.29
428
30.71
428
33.06
435
17.47
423
24.18
433
14.11
416
21.71
425
15.88
419
21.06
427
18.11
423
19.78
428
17.78
430
26.52
430
20.33
428
27.03
430
18.73
429
AVERAGE_ROBtwo views26.93
433
30.34
437
29.27
434
25.82
427
25.34
425
19.48
423
15.17
417
23.55
428
23.00
429
28.45
435
27.87
435
26.25
434
25.86
436
26.96
435
25.55
429
31.30
435
30.07
436
31.76
432
30.81
432
30.79
435
30.93
433
MyStereo03two views24.83
428
22.55
431
25.13
427
26.08
428
25.72
426
39.87
431
57.07
433
28.77
429
28.85
432
21.33
428
22.66
431
24.16
428
23.82
428
26.32
429
30.89
434
14.27
422
16.73
427
13.09
421
14.82
424
17.77
422
16.71
423
MyStereo02two views24.83
428
22.55
431
25.13
427
26.08
428
25.72
426
39.87
431
57.07
433
28.77
429
28.85
432
21.33
428
22.66
431
24.16
428
23.82
428
26.32
429
30.89
434
14.27
422
16.73
427
13.09
421
14.82
424
17.77
422
16.71
423
MyStereotwo views24.83
428
22.55
431
25.13
427
26.08
428
25.72
426
39.87
431
57.07
433
28.77
429
28.85
432
21.33
428
22.66
431
24.16
428
23.82
428
26.32
429
30.89
434
14.27
422
16.73
427
13.09
421
14.82
424
17.77
422
16.71
423
CasAABBNettwo views24.81
427
22.53
430
24.83
425
26.08
428
25.74
429
39.86
430
57.06
432
28.87
432
28.83
431
21.16
426
22.54
429
24.22
431
23.89
433
26.38
432
30.87
432
14.25
421
16.71
425
13.09
421
14.81
423
17.78
425
16.71
423
Selective-RAFT-Errortwo views24.87
431
22.59
434
25.14
430
26.13
432
25.82
430
39.93
434
57.03
431
28.97
433
28.95
435
21.21
427
22.65
430
24.25
432
23.98
434
26.43
433
30.83
431
14.27
422
16.71
425
13.10
425
14.82
424
17.82
426
16.76
427
LSM0two views26.58
432
22.63
435
25.88
431
30.13
433
52.21
437
39.94
435
56.74
430
28.97
433
28.72
430
21.14
425
22.26
428
24.43
433
23.88
432
26.54
434
30.87
432
14.32
426
16.55
424
13.12
426
14.71
422
17.92
427
20.60
430
xxxxx1two views28.96
434
20.11
425
14.07
419
49.74
434
39.15
434
18.98
419
26.64
422
21.94
425
20.21
425
16.45
419
17.48
421
18.36
421
21.56
423
16.21
422
20.88
425
23.07
430
26.55
432
66.40
435
78.70
435
30.27
432
32.51
434
tt_lltwo views28.96
434
20.11
425
14.07
419
49.74
434
39.15
434
18.98
419
26.64
422
21.94
425
20.21
425
16.45
419
17.48
421
18.36
421
21.56
423
16.21
422
20.88
425
23.07
430
26.55
432
66.40
435
78.70
435
30.27
432
32.51
434
fftwo views28.96
434
20.11
425
14.07
419
49.74
434
39.15
434
18.98
419
26.64
422
21.94
425
20.21
425
16.45
419
17.48
421
18.36
421
21.56
423
16.21
422
20.88
425
23.07
430
26.55
432
66.40
435
78.70
435
30.27
432
32.51
434
test_example2two views115.39
437
123.23
438
94.57
436
115.52
437
123.55
438
101.63
437
114.33
437
53.41
437
99.48
437
134.90
437
135.05
437
85.83
438
85.11
437
111.32
437
106.15
437
152.55
438
205.26
438
99.78
438
114.96
438
140.96
438
110.20
437
DLNR_Zeroshot_testpermissivetwo views13.43
418
19.94
424
23.55
424
121.61
438
35.03
433
0.46
31
0.15
1
8.02
415
0.35
4
0.28
31
0.37
45
0.26
31
0.17
1
0.76
176
0.29
86
6.42
416
0.26
334
0.09
20
0.38
358
50.13
436
0.18
187