This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CAStwo views0.63
118
0.18
1
0.37
2
2.27
391
0.84
350
0.57
75
0.54
191
0.79
14
0.62
24
0.48
19
0.70
32
0.36
2
0.26
1
0.45
2
0.35
27
2.24
393
0.10
1
0.14
1
0.09
1
0.15
5
1.06
383
CEStwo views0.48
34
0.20
2
0.37
2
0.39
4
1.39
384
0.55
67
0.35
48
0.98
63
0.66
41
0.44
9
0.66
24
0.35
1
0.27
2
0.56
11
0.33
16
0.15
6
0.13
43
0.15
3
0.10
2
0.19
73
1.46
388
s12784htwo views0.52
41
0.20
2
0.38
4
0.41
5
0.19
1
0.96
227
0.34
44
1.17
125
1.25
236
0.81
68
0.90
66
0.63
59
0.50
58
1.45
170
0.42
75
0.14
4
0.12
9
0.17
15
0.11
6
0.18
43
0.11
1
LoStwo views0.40
8
0.21
4
0.44
11
0.37
2
0.22
4
0.50
40
0.40
85
1.00
69
0.94
108
0.48
19
0.66
24
0.48
23
0.40
18
0.60
24
0.37
39
0.18
60
0.14
76
0.16
9
0.11
6
0.14
2
0.14
11
CREStereo++_RVCtwo views0.47
32
0.21
4
0.38
4
0.45
33
0.38
172
0.45
17
0.25
4
0.75
9
1.29
257
0.80
64
1.21
170
0.47
20
0.37
13
0.53
6
0.44
86
0.16
11
0.11
3
0.15
3
0.80
380
0.18
43
0.11
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
TANstereotwo views0.44
23
0.21
4
0.44
11
0.41
5
0.21
3
0.65
110
0.26
10
0.79
14
0.83
76
0.93
85
0.98
83
0.51
33
0.46
35
0.54
8
0.35
27
0.18
60
0.24
275
0.16
9
0.13
11
0.16
13
0.26
227
CREStereotwo views0.39
5
0.21
4
0.38
4
0.34
1
0.22
4
0.53
58
0.29
20
0.77
12
1.11
176
0.58
34
0.71
34
0.51
33
0.41
20
0.54
8
0.34
24
0.18
60
0.13
43
0.15
3
0.10
2
0.14
2
0.14
11
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PMTNettwo views0.46
26
0.21
4
0.38
4
0.37
2
0.23
6
0.71
144
0.27
15
0.74
8
1.04
148
0.64
42
0.70
32
0.55
41
0.47
41
0.86
71
0.35
27
1.00
378
0.13
43
0.15
3
0.10
2
0.15
5
0.13
3
IGEV+two views0.40
8
0.22
9
0.51
24
0.52
112
0.29
64
0.45
17
0.25
4
1.65
234
0.46
4
0.37
2
0.57
19
0.46
16
0.45
31
0.50
4
0.38
49
0.19
92
0.12
9
0.16
9
0.13
11
0.16
13
0.15
27
EGLCR-Stereotwo views0.37
3
0.22
9
0.51
24
0.43
8
0.26
20
0.44
16
0.22
2
0.99
65
0.48
5
0.42
5
0.42
2
0.67
69
0.29
3
0.86
71
0.33
16
0.17
32
0.12
9
0.19
51
0.17
76
0.17
25
0.15
27
test_4two views0.53
50
0.22
9
0.56
38
0.54
136
0.32
108
0.64
98
0.39
82
0.80
19
0.62
24
0.92
84
1.87
326
0.68
71
0.42
22
1.16
124
0.37
39
0.15
6
0.13
43
0.20
75
0.22
200
0.20
99
0.15
27
test-3two views0.54
64
0.22
9
0.68
90
0.47
42
0.27
33
0.58
76
0.35
48
0.92
42
1.00
136
1.32
247
0.69
31
0.87
129
0.45
31
1.68
213
0.37
39
0.16
11
0.11
3
0.20
75
0.16
60
0.17
25
0.13
3
test_1two views0.54
64
0.22
9
0.68
90
0.47
42
0.27
33
0.58
76
0.35
48
0.92
42
1.00
136
1.28
223
0.68
28
0.87
129
0.45
31
1.67
208
0.37
39
0.16
11
0.11
3
0.20
75
0.16
60
0.17
25
0.13
3
MIF-Stereotwo views0.36
1
0.23
14
0.59
54
0.48
53
0.36
147
0.40
10
0.32
31
0.53
1
0.49
6
0.54
32
0.55
17
0.36
2
0.31
6
0.58
14
0.51
133
0.20
119
0.15
126
0.17
15
0.15
31
0.19
73
0.15
27
MC-Stereotwo views0.43
15
0.23
14
0.48
15
0.51
96
0.28
52
0.39
9
0.32
31
0.88
33
0.68
45
0.60
40
0.84
56
0.56
43
0.61
108
1.03
100
0.31
5
0.17
32
0.11
3
0.17
15
0.15
31
0.16
13
0.13
3
RCA-Stereotwo views0.50
39
0.23
14
0.58
49
0.48
53
0.33
124
0.55
67
0.45
137
0.97
61
1.38
297
0.68
45
1.05
112
0.63
59
0.80
166
0.59
15
0.32
7
0.17
32
0.12
9
0.17
15
0.14
23
0.16
13
0.14
11
test_3two views0.55
79
0.23
14
0.71
116
0.53
121
0.28
52
0.61
89
0.40
85
0.92
42
1.05
152
1.19
187
0.68
28
0.93
147
0.44
28
1.67
208
0.39
56
0.15
6
0.12
9
0.22
124
0.19
110
0.21
133
0.14
11
DEmStereotwo views0.97
261
0.23
14
0.79
171
0.47
42
0.32
108
1.04
242
0.56
210
0.93
46
0.89
90
1.39
275
2.14
346
1.02
180
2.07
371
5.64
359
0.77
216
0.17
32
0.15
126
0.20
75
0.20
139
0.18
43
0.20
136
111two views0.60
103
0.23
14
0.70
105
0.43
8
0.24
9
0.72
146
0.42
98
1.18
130
1.41
309
0.80
64
1.38
230
1.10
204
0.79
161
0.96
85
0.58
164
0.18
60
0.13
43
0.17
15
0.15
31
0.17
25
0.19
113
MIM_Stereotwo views0.57
92
0.24
20
0.92
217
0.46
36
0.30
81
0.54
61
0.28
18
1.27
154
0.75
57
1.00
103
1.16
157
0.93
147
0.53
67
1.45
170
0.61
175
0.16
11
0.16
157
0.20
75
0.19
110
0.17
25
0.14
11
AEACVtwo views0.37
3
0.24
20
0.52
27
0.47
42
0.51
246
0.37
8
0.38
71
0.65
4
0.53
17
0.42
5
0.56
18
0.46
16
0.60
99
0.53
6
0.30
1
0.16
11
0.13
43
0.18
37
0.15
31
0.17
25
0.14
11
Any-RAFTtwo views0.53
50
0.24
20
0.47
13
0.47
42
0.27
33
1.00
237
0.25
4
1.58
220
1.05
152
0.85
78
0.99
85
1.06
189
0.47
41
0.70
35
0.32
7
0.18
60
0.13
43
0.16
9
0.13
11
0.16
13
0.16
42
4D-IteraStereotwo views0.48
34
0.24
20
0.76
157
0.50
73
0.44
205
0.66
119
0.31
28
0.87
26
1.02
141
1.03
113
0.72
36
0.78
92
0.32
9
0.64
27
0.37
39
0.17
32
0.11
3
0.23
152
0.19
110
0.19
73
0.13
3
Selective-IGEVtwo views0.39
5
0.24
20
0.50
18
0.44
23
0.25
18
0.46
19
0.33
34
1.25
152
0.40
1
0.35
1
0.45
3
0.52
38
0.30
4
1.07
111
0.30
1
0.14
4
0.12
9
0.17
15
0.13
11
0.16
13
0.13
3
ffftwo views0.53
50
0.24
20
0.70
105
0.43
8
0.24
9
0.48
21
0.36
58
1.07
103
1.25
236
1.10
133
1.02
100
0.57
45
1.06
269
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
ADStereo(finetuned)two views0.57
92
0.24
20
1.06
259
0.43
8
0.24
9
0.49
31
0.35
48
1.05
88
1.30
263
1.12
139
1.03
108
0.58
49
1.20
296
0.84
66
0.51
133
0.16
11
0.13
43
0.17
15
0.13
11
0.18
43
0.19
113
CrosDoStereotwo views1.58
340
0.24
20
0.72
120
0.48
53
0.29
64
0.67
123
12.49
415
1.10
110
0.98
124
1.34
258
1.75
311
1.00
171
1.89
360
6.65
375
0.81
228
0.19
92
0.15
126
0.20
75
0.22
200
0.18
43
0.19
113
DeepStereo_LLtwo views1.58
340
0.24
20
0.72
120
0.48
53
0.29
64
0.67
123
12.49
415
1.10
110
0.98
124
1.34
258
1.75
311
1.00
171
1.89
360
6.65
375
0.81
228
0.19
92
0.15
126
0.20
75
0.22
200
0.18
43
0.19
113
DRafttwo views0.80
206
0.24
20
0.70
105
0.45
33
0.30
81
0.97
231
0.53
187
1.05
88
0.97
119
1.78
334
2.02
339
0.80
97
1.74
350
2.73
294
0.72
201
0.17
32
0.14
76
0.20
75
0.20
139
0.18
43
0.21
152
RAFT-RH_RVCtwo views1.03
277
0.24
20
0.67
87
0.49
66
0.28
52
0.81
187
0.33
34
0.83
23
1.08
164
2.05
354
4.65
389
1.04
186
0.57
88
5.98
367
0.50
130
0.18
60
0.13
43
0.26
228
0.20
139
0.16
13
0.17
62
DCANettwo views0.54
64
0.24
20
0.70
105
0.43
8
0.24
9
0.49
31
0.36
58
1.05
88
1.30
263
1.12
139
1.03
108
0.58
49
0.92
214
0.81
61
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.18
43
0.19
113
csctwo views0.53
50
0.24
20
0.70
105
0.43
8
0.24
9
0.48
21
0.36
58
1.07
103
1.25
236
1.10
133
1.02
100
0.57
45
1.06
269
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
cscssctwo views0.53
50
0.24
20
0.70
105
0.43
8
0.24
9
0.48
21
0.36
58
1.07
103
1.25
236
1.10
133
1.02
100
0.57
45
1.06
269
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
CFNet-RSSMtwo views0.54
64
0.24
20
0.70
105
0.48
53
0.28
52
0.60
86
0.27
15
1.49
193
1.14
192
1.06
117
0.93
71
1.08
196
0.54
70
0.70
35
0.35
27
0.16
11
0.12
9
0.17
15
0.15
31
0.16
13
0.14
11
Gwc-CoAtRStwo views0.52
41
0.24
20
0.68
90
0.48
53
0.29
64
0.64
98
0.25
4
1.16
123
1.08
164
1.01
106
1.00
88
1.12
209
0.56
80
0.69
33
0.37
39
0.16
11
0.13
43
0.17
15
0.15
31
0.15
5
0.15
27
StereoIMtwo views0.36
1
0.25
36
0.58
49
0.44
23
0.34
139
0.30
3
0.30
23
0.72
6
0.50
7
0.37
2
0.36
1
0.58
49
0.49
57
0.52
5
0.36
33
0.19
92
0.16
157
0.19
51
0.15
31
0.18
43
0.14
11
MIF-Stereo (partial)two views0.45
25
0.25
36
0.70
105
0.50
73
0.52
254
0.35
5
0.26
10
0.91
41
0.59
22
0.45
13
0.71
34
0.51
33
0.51
60
1.11
117
0.45
94
0.20
119
0.16
157
0.23
152
0.20
139
0.24
193
0.18
80
CASnettwo views0.41
11
0.25
36
0.48
15
0.50
73
0.20
2
0.50
40
0.36
58
0.81
22
0.80
69
0.83
72
0.68
28
0.48
23
0.31
6
0.54
8
0.32
7
0.18
60
0.12
9
0.27
239
0.22
200
0.23
179
0.14
11
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
RAFT-Testtwo views0.54
64
0.25
36
0.64
74
0.47
42
0.30
81
0.97
231
0.27
15
1.24
150
0.81
70
0.96
92
1.12
140
1.28
249
0.48
49
0.71
39
0.36
33
0.17
32
0.13
43
0.17
15
0.14
23
0.16
13
0.16
42
GLC_STEREOtwo views0.39
5
0.25
36
0.41
9
0.54
136
0.23
6
0.48
21
0.30
23
0.73
7
0.58
19
0.52
30
0.73
37
0.51
33
0.31
6
0.64
27
0.42
75
0.17
32
0.20
227
0.23
152
0.19
110
0.21
133
0.17
62
RAFT-345two views0.84
223
0.25
36
0.66
84
0.50
73
0.27
33
0.54
61
0.42
98
0.83
23
1.11
176
1.32
247
2.34
354
0.86
125
0.54
70
5.72
360
0.47
112
0.18
60
0.13
43
0.22
124
0.17
76
0.17
25
0.16
42
cross-rafttwo views0.54
64
0.25
36
0.61
61
0.52
112
0.29
64
0.68
130
0.37
67
1.46
189
0.76
60
1.01
106
1.06
114
1.28
249
0.46
35
0.71
39
0.35
27
0.15
6
0.12
9
0.18
37
0.16
60
0.19
73
0.14
11
GMM-Stereotwo views0.74
180
0.25
36
0.59
54
0.54
136
0.34
139
0.72
146
0.99
320
1.01
74
0.87
83
1.36
263
1.78
314
1.12
209
0.81
169
2.09
258
0.46
107
0.18
60
0.12
9
0.25
208
0.25
242
0.20
99
0.85
373
raftrobusttwo views0.52
41
0.25
36
0.56
38
0.65
261
0.52
254
0.49
31
0.34
44
0.98
63
0.91
99
1.30
235
0.87
61
0.63
59
0.81
169
0.78
53
0.41
67
0.19
92
0.15
126
0.16
9
0.14
23
0.15
5
0.16
42
RAFT-Stereo + iAFFtwo views0.54
64
0.25
36
0.68
90
0.43
8
0.24
9
0.40
10
0.34
44
1.04
82
1.09
170
1.32
247
1.60
284
0.80
97
0.68
129
0.67
32
0.39
56
0.13
1
0.10
1
0.18
37
0.17
76
0.17
25
0.13
3
AFF-stereotwo views0.58
97
0.25
36
0.64
74
0.46
36
0.29
64
0.34
4
0.38
71
1.15
122
1.14
192
1.17
178
1.60
284
1.10
204
0.71
137
0.97
90
0.43
84
0.13
1
0.11
3
0.19
51
0.19
110
0.17
25
0.14
11
MGS-Stereotwo views0.42
12
0.26
47
0.58
49
0.44
23
0.28
52
0.50
40
0.34
44
0.57
2
0.83
76
0.46
14
1.31
204
0.52
38
0.33
10
0.65
31
0.36
33
0.19
92
0.16
157
0.18
37
0.15
31
0.17
25
0.16
42
MSKI-zero shottwo views0.55
79
0.26
47
0.57
46
0.51
96
0.26
20
0.69
134
0.28
18
1.18
130
0.64
28
0.91
82
1.32
210
0.82
105
0.33
10
1.92
242
0.32
7
0.17
32
0.12
9
0.17
15
0.13
11
0.16
13
0.16
42
LoS_RVCtwo views0.42
12
0.26
47
0.40
8
0.44
23
0.82
348
0.51
51
0.44
126
0.64
3
0.41
2
0.44
9
0.78
46
0.44
9
0.47
41
0.56
11
0.36
33
0.13
1
0.12
9
0.14
1
0.10
2
0.13
1
0.84
372
DCREtwo views0.82
214
0.26
47
0.70
105
0.58
184
0.44
205
0.54
61
0.48
158
0.95
53
0.78
64
0.78
59
7.33
402
0.86
125
0.52
62
0.76
50
0.41
67
0.16
11
0.16
157
0.19
51
0.17
76
0.18
43
0.17
62
DCANet-4two views0.54
64
0.26
47
1.07
263
0.42
7
0.24
9
0.48
21
0.36
58
0.99
65
1.30
263
1.10
133
1.02
100
0.56
43
0.75
142
0.73
45
0.52
139
0.16
11
0.13
43
0.17
15
0.13
11
0.15
5
0.19
113
tttwo views6.58
408
0.26
47
6.10
395
3.77
412
2.16
391
11.55
414
19.63
418
13.33
419
5.74
403
2.96
383
2.65
364
4.97
394
6.33
409
3.81
322
7.24
391
9.15
420
11.32
425
5.89
420
6.24
419
6.03
416
2.55
403
RAFT_CTSACEtwo views0.63
118
0.26
47
0.88
202
0.55
155
0.51
246
0.71
144
0.44
126
0.80
19
0.97
119
0.97
95
1.84
321
1.18
222
0.68
129
1.47
176
0.36
33
0.16
11
0.15
126
0.21
98
0.20
139
0.20
99
0.14
11
GMOStereotwo views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
278
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
error versiontwo views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
278
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
test-vtwo views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
278
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
HHNettwo views0.62
112
0.26
47
0.63
68
0.43
8
0.45
212
0.50
40
0.58
223
1.07
103
1.01
138
1.25
214
2.23
349
0.70
79
0.61
108
1.07
111
0.47
112
0.20
119
0.13
43
0.23
152
0.19
110
0.19
73
0.30
259
FTStereotwo views0.91
245
0.26
47
0.56
38
0.54
136
0.33
124
0.66
119
1.87
380
1.00
69
0.75
57
1.75
331
4.15
383
1.04
186
1.65
343
1.57
193
0.46
107
0.19
92
0.16
157
0.23
152
0.21
175
0.18
43
0.63
356
ASMatchtwo views0.88
237
0.26
47
0.69
99
0.51
96
0.35
142
0.48
21
0.37
67
1.12
118
0.92
103
1.10
133
3.28
373
0.96
162
0.98
242
4.90
341
0.49
124
0.19
92
0.16
157
0.22
124
0.19
110
0.19
73
0.27
233
PFNettwo views0.91
245
0.26
47
1.10
270
0.63
240
0.32
108
0.64
98
0.56
210
1.17
125
0.99
131
1.47
290
1.08
120
0.98
165
0.69
132
6.62
374
0.54
153
0.20
119
0.12
9
0.24
172
0.19
110
0.20
99
0.17
62
GrayStereotwo views0.82
214
0.26
47
0.58
49
0.63
240
0.37
155
0.76
163
1.86
379
1.11
116
0.87
83
1.99
351
1.89
328
1.08
196
1.82
358
1.39
160
0.48
117
0.19
92
0.14
76
0.19
51
0.21
175
0.18
43
0.39
301
test-2two views0.53
50
0.26
47
0.65
78
0.50
73
0.29
64
0.52
53
0.43
114
0.89
34
0.96
112
1.41
278
1.14
148
0.85
121
0.56
80
0.59
15
0.38
49
0.16
11
0.14
76
0.24
172
0.21
175
0.20
99
0.15
27
test-1two views0.52
41
0.26
47
1.04
255
0.56
167
0.32
108
0.61
89
0.38
71
1.10
110
0.91
99
0.78
59
1.01
93
0.77
89
0.52
62
0.60
24
0.42
75
0.17
32
0.14
76
0.20
75
0.17
76
0.20
99
0.23
185
iRaftStereo_RVCtwo views0.47
32
0.26
47
0.64
74
0.50
73
0.29
64
0.53
58
0.33
34
1.05
88
0.77
62
0.84
74
1.00
88
0.55
41
0.37
13
0.81
61
0.40
60
0.17
32
0.12
9
0.22
124
0.20
139
0.19
73
0.15
27
raft+_RVCtwo views0.53
50
0.26
47
0.54
33
0.60
208
0.47
226
0.54
61
0.54
191
1.27
154
0.99
131
0.76
55
1.03
108
0.70
79
0.56
80
0.93
84
0.47
112
0.18
60
0.14
76
0.19
51
0.18
90
0.18
43
0.15
27
XX-Stereotwo views0.63
118
0.26
47
1.90
351
0.81
331
0.67
306
0.43
14
0.23
3
1.03
78
0.58
19
0.65
43
1.56
276
1.41
269
0.39
15
1.28
134
0.35
27
0.20
119
0.14
76
0.20
75
0.19
110
0.18
43
0.14
11
R-Stereo Traintwo views0.57
92
0.26
47
0.63
68
0.54
136
0.36
147
0.69
134
0.54
191
1.22
144
0.72
53
1.61
318
1.50
264
0.75
85
0.53
67
0.64
27
0.44
86
0.18
60
0.15
126
0.17
15
0.15
31
0.17
25
0.17
62
RAFT-Stereopermissivetwo views0.57
92
0.26
47
0.63
68
0.54
136
0.36
147
0.69
134
0.54
191
1.22
144
0.72
53
1.61
318
1.50
264
0.75
85
0.53
67
0.64
27
0.44
86
0.18
60
0.15
126
0.17
15
0.15
31
0.17
25
0.17
62
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
AE-Stereotwo views0.49
37
0.27
69
0.67
87
0.60
208
0.39
180
0.67
123
0.46
144
1.18
130
1.09
170
0.47
15
0.75
41
0.69
76
0.47
41
0.59
15
0.40
60
0.16
11
0.15
126
0.21
98
0.20
139
0.19
73
0.15
27
ff7two views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
fffftwo views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
11ttwo views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
test crocotwo views0.46
26
0.27
69
1.01
242
0.50
73
0.40
185
0.35
5
0.37
67
0.87
26
0.56
18
0.43
8
0.76
43
0.42
5
0.40
18
1.13
120
0.45
94
0.21
146
0.15
126
0.24
172
0.19
110
0.24
193
0.16
42
anonymousdsp2two views0.53
50
0.27
69
0.74
146
0.48
53
0.29
64
0.76
163
0.47
150
1.61
227
0.82
75
0.77
58
0.77
44
0.75
85
0.47
41
1.03
100
0.40
60
0.18
60
0.13
43
0.18
37
0.13
11
0.19
73
0.18
80
anonymousdsptwo views0.43
15
0.27
69
0.53
29
0.44
23
0.32
108
0.50
40
0.42
98
0.89
34
0.51
14
0.49
22
0.53
10
0.47
20
0.47
41
1.33
143
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
anonymousatwo views0.72
163
0.27
69
0.75
148
0.47
42
0.63
297
1.43
303
0.45
137
1.24
150
0.89
90
1.28
223
1.75
311
1.62
304
1.13
284
0.69
33
0.59
166
0.19
92
0.16
157
0.23
152
0.25
242
0.20
99
0.18
80
riskmintwo views0.56
88
0.27
69
0.60
58
0.43
8
0.31
93
0.83
192
0.42
98
1.14
120
1.04
148
0.73
54
0.75
41
1.11
208
1.01
254
0.81
61
0.51
133
0.20
119
0.14
76
0.24
172
0.15
31
0.24
193
0.25
209
ccc-4two views0.43
15
0.27
69
0.56
38
0.44
23
0.33
124
0.50
40
0.42
98
0.87
26
0.50
7
0.49
22
0.53
10
0.44
9
0.48
49
1.38
155
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
IGEV-Stereopermissivetwo views0.43
15
0.27
69
0.54
33
0.45
33
0.32
108
0.50
40
0.42
98
0.90
40
0.51
14
0.49
22
0.53
10
0.47
20
0.47
41
1.32
141
0.33
16
0.17
32
0.12
9
0.21
98
0.15
31
0.18
43
0.18
80
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
IPLGtwo views0.69
155
0.27
69
0.97
230
0.51
96
0.43
199
0.79
178
0.33
34
1.21
137
1.06
155
1.30
235
1.10
129
0.52
38
0.55
76
3.16
309
0.63
182
0.16
11
0.14
76
0.19
51
0.16
60
0.18
43
0.17
62
IPLGRtwo views0.58
97
0.27
69
1.14
277
0.48
53
0.28
52
0.65
110
0.33
34
1.22
144
1.13
190
1.18
183
1.05
112
0.69
76
0.66
128
0.96
85
0.52
139
0.17
32
0.15
126
0.20
75
0.17
76
0.20
99
0.18
80
PSM-AADtwo views0.79
203
0.27
69
0.53
29
0.55
155
0.28
52
0.77
169
1.24
346
0.99
65
0.91
99
1.66
324
1.57
280
0.81
100
2.19
374
1.65
203
0.44
86
0.19
92
0.14
76
0.38
320
0.32
309
0.21
133
0.70
364
THIR-Stereotwo views1.02
276
0.27
69
0.69
99
0.49
66
0.28
52
0.95
223
1.34
353
1.03
78
0.97
119
1.34
258
1.90
329
1.17
219
1.58
336
6.44
372
0.78
218
0.19
92
0.14
76
0.21
98
0.22
200
0.19
73
0.20
136
Prome-Stereotwo views0.75
187
0.27
69
0.53
29
0.55
155
0.32
108
0.59
80
0.97
316
0.89
34
0.88
87
1.45
287
2.46
360
0.91
138
1.41
320
1.58
195
0.44
86
0.18
60
0.13
43
0.19
51
0.17
76
0.20
99
0.92
374
MyStereo06two views0.61
109
0.28
85
0.95
224
0.56
167
0.46
222
0.61
89
0.73
263
1.78
268
0.67
42
1.03
113
1.12
140
1.13
214
0.56
80
0.78
53
0.41
67
0.17
32
0.16
157
0.23
152
0.20
139
0.22
154
0.20
136
MyStereo05two views0.66
141
0.28
85
1.07
263
0.56
167
0.46
222
0.61
89
0.73
263
1.34
164
1.41
309
1.15
158
0.91
67
0.77
89
0.80
166
1.41
166
0.63
182
0.17
32
0.16
157
0.23
152
0.20
139
0.22
154
0.20
136
11t1two views0.52
41
0.28
85
0.68
90
0.51
96
0.28
52
0.83
192
0.39
82
1.22
144
0.63
26
0.84
74
0.74
39
0.68
71
0.68
129
0.91
78
0.57
161
0.21
146
0.18
197
0.19
51
0.16
60
0.20
99
0.21
152
IGEVStereo-DCAtwo views0.46
26
0.28
85
0.56
38
0.43
8
0.33
124
0.49
31
0.42
98
0.87
26
0.50
7
0.47
15
0.48
6
0.48
23
0.46
35
2.03
253
0.30
1
0.19
92
0.14
76
0.19
51
0.15
31
0.16
13
0.18
80
rrrtwo views0.46
26
0.28
85
0.73
132
0.43
8
0.33
124
0.49
31
0.38
71
0.76
11
0.50
7
0.47
15
0.48
6
0.48
23
0.46
35
2.03
253
0.30
1
0.19
92
0.14
76
0.19
51
0.15
31
0.16
13
0.16
42
Selective-RAFTtwo views0.52
41
0.28
85
0.79
171
0.55
155
0.27
33
0.91
208
0.33
34
0.80
19
0.88
87
0.58
34
0.63
22
0.81
100
0.77
154
1.29
137
0.48
117
0.19
92
0.14
76
0.17
15
0.15
31
0.19
73
0.17
62
ProNettwo views0.43
15
0.28
85
0.58
49
0.43
8
0.30
81
0.56
70
0.52
181
1.00
69
0.58
19
0.44
9
0.49
8
0.43
7
0.43
24
1.28
134
0.36
33
0.15
6
0.13
43
0.19
51
0.16
60
0.17
25
0.16
42
TestStereo1two views0.63
118
0.28
85
0.75
148
0.76
319
0.31
93
0.48
21
0.43
114
1.30
158
1.21
224
0.97
95
1.31
204
0.64
62
0.77
154
1.75
221
0.42
75
0.20
119
0.15
126
0.22
124
0.18
90
0.21
133
0.17
62
DisPMtwo views0.66
141
0.28
85
0.72
120
0.61
220
0.35
142
0.62
95
0.45
137
1.02
75
0.99
131
1.56
311
1.10
129
0.80
97
0.59
97
2.37
279
0.41
67
0.23
192
0.14
76
0.23
152
0.21
175
0.20
99
0.25
209
SA-5Ktwo views0.63
118
0.28
85
0.75
148
0.76
319
0.31
93
0.48
21
0.43
114
1.30
158
1.21
224
0.97
95
1.31
204
0.64
62
0.77
154
1.75
221
0.42
75
0.20
119
0.15
126
0.22
124
0.18
90
0.21
133
0.17
62
MIPNettwo views0.56
88
0.28
85
0.94
221
0.49
66
0.33
124
0.66
119
0.38
71
1.35
166
1.08
164
1.06
117
0.92
69
0.60
54
0.79
161
0.73
45
0.52
139
0.17
32
0.14
76
0.19
51
0.16
60
0.18
43
0.17
62
PFNet+two views0.59
100
0.28
85
0.77
161
0.53
121
0.30
81
0.59
80
0.31
28
0.92
42
1.14
192
1.33
255
1.10
129
0.79
95
0.57
88
1.31
139
0.49
124
0.25
232
0.17
182
0.28
249
0.26
255
0.21
133
0.25
209
LCNettwo views0.72
163
0.28
85
0.52
27
0.55
155
0.31
93
0.69
134
0.54
191
1.00
69
0.88
87
1.19
187
1.34
217
0.97
164
1.34
317
2.56
287
0.45
94
0.18
60
0.13
43
0.21
98
0.25
242
0.27
224
0.73
367
AAGNettwo views1.83
357
0.28
85
0.72
120
0.61
220
0.32
108
0.67
123
0.51
172
0.96
60
0.98
124
1.47
290
1.20
168
1.00
171
1.18
290
2.83
296
22.77
421
0.22
169
0.13
43
0.22
124
0.19
110
0.23
179
0.15
27
STrans-v2two views1.04
280
0.28
85
0.96
228
0.49
66
0.32
108
0.68
130
0.79
276
2.47
376
1.12
180
1.12
139
1.46
254
1.40
267
1.46
326
6.70
379
0.43
84
0.18
60
0.13
43
0.20
75
0.18
90
0.18
43
0.18
80
TransformOpticalFlowtwo views0.96
255
0.28
85
0.89
207
0.52
112
0.31
93
0.66
119
0.54
191
1.75
255
1.12
180
1.09
125
1.44
246
1.37
266
1.01
254
6.70
379
0.42
75
0.19
92
0.12
9
0.20
75
0.19
110
0.18
43
0.19
113
KYRafttwo views0.75
187
0.28
85
0.62
65
0.56
167
0.29
64
0.67
123
0.86
294
0.94
50
0.84
78
1.62
321
2.21
348
1.16
218
1.02
259
1.57
193
0.40
60
0.20
119
0.13
43
0.22
124
0.28
280
0.20
99
1.02
378
SST-Stereotwo views0.83
219
0.28
85
0.72
120
0.59
197
0.31
93
0.72
146
0.26
10
1.09
108
0.86
79
1.47
290
1.10
129
1.00
171
0.87
198
5.73
361
0.45
94
0.22
169
0.13
43
0.23
152
0.19
110
0.23
179
0.18
80
RAFT_R40two views0.83
219
0.28
85
0.73
132
0.59
197
0.31
93
0.69
134
0.44
126
1.10
110
0.95
110
1.47
290
1.10
129
1.00
171
0.85
187
5.53
355
0.46
107
0.22
169
0.13
43
0.23
152
0.20
139
0.23
179
0.18
80
IRAFT_RVCtwo views0.88
237
0.28
85
0.76
157
0.63
240
0.31
93
0.65
110
1.02
325
1.22
144
0.94
108
1.22
199
1.04
111
1.01
178
0.98
242
5.82
362
0.53
147
0.22
169
0.12
9
0.25
208
0.20
139
0.20
99
0.19
113
test_xeample3two views0.42
12
0.28
85
0.69
99
0.43
8
0.33
124
0.56
70
0.38
71
0.79
14
0.45
3
0.53
31
0.46
4
0.44
9
0.44
28
1.38
155
0.31
5
0.18
60
0.14
76
0.19
51
0.15
31
0.17
25
0.16
42
xxxxtwo views1.51
336
0.28
85
0.68
90
0.54
136
0.28
52
1.16
264
0.44
126
2.19
354
1.29
257
1.09
125
1.36
224
1.22
227
0.85
187
1.79
229
15.70
414
0.24
207
0.21
243
0.21
98
0.20
139
0.22
154
0.23
185
test_xeamplepermissivetwo views1.45
332
0.28
85
0.65
78
0.51
96
0.28
52
0.94
219
0.59
230
2.14
341
1.29
257
1.24
210
1.51
266
0.88
132
0.86
195
1.46
172
15.10
411
0.22
169
0.20
227
0.22
124
0.20
139
0.22
154
0.22
167
EAI-Stereotwo views0.65
133
0.28
85
0.69
99
0.53
121
0.27
33
0.60
86
0.40
85
2.28
363
0.64
28
0.71
50
3.18
372
0.57
45
0.43
24
1.06
107
0.41
67
0.18
60
0.13
43
0.17
15
0.17
76
0.17
25
0.17
62
SFCPSMtwo views0.70
157
0.28
85
1.02
248
0.51
96
0.38
172
1.37
293
0.66
248
2.00
317
1.03
144
1.17
178
1.21
170
0.82
105
0.78
159
1.03
100
0.53
147
0.21
146
0.17
182
0.22
124
0.24
231
0.21
133
0.19
113
FENettwo views0.60
103
0.28
85
0.63
68
0.54
136
0.33
124
0.83
192
0.38
71
1.27
154
1.07
160
1.00
103
0.86
58
0.99
170
0.85
187
0.96
85
0.68
191
0.22
169
0.15
126
0.23
152
0.20
139
0.22
154
0.23
185
GANet-RSSMtwo views0.72
163
0.28
85
0.63
68
0.64
249
0.58
278
0.80
183
0.58
223
1.89
291
1.08
164
1.04
116
1.25
182
1.15
217
1.04
262
1.49
178
0.62
178
0.25
232
0.19
210
0.22
124
0.22
200
0.22
154
0.21
152
MyStereo8two views0.65
133
0.29
112
1.00
238
0.58
184
0.49
230
0.91
208
0.35
48
1.18
130
1.31
267
1.16
169
1.27
191
0.90
137
0.64
121
0.72
42
0.95
253
0.18
60
0.14
76
0.20
75
0.18
90
0.22
154
0.26
227
MyStereo07two views0.48
34
0.29
112
0.50
18
0.55
155
0.45
212
0.59
80
0.79
276
1.05
88
0.51
14
0.48
19
0.53
10
0.43
7
0.55
76
1.30
138
0.34
24
0.17
32
0.16
157
0.24
172
0.20
139
0.23
179
0.20
136
MyStereo04two views0.67
150
0.29
112
1.07
263
0.55
155
0.45
212
0.59
80
0.79
276
1.50
197
1.40
306
0.91
82
0.91
67
0.74
83
0.86
195
1.52
181
0.62
178
0.17
32
0.16
157
0.24
172
0.20
139
0.23
179
0.20
136
CoDeXtwo views0.73
177
0.29
112
0.93
219
0.54
136
0.36
147
1.14
257
0.61
235
2.34
368
1.17
207
1.16
169
1.25
182
0.91
138
0.87
198
1.33
143
0.64
185
0.20
119
0.16
157
0.21
98
0.18
90
0.20
99
0.18
80
1111xtwo views1.70
352
0.29
112
0.86
189
0.51
96
0.27
33
1.01
238
0.68
253
2.22
358
1.28
253
1.13
153
1.40
236
1.21
225
1.10
278
5.53
355
15.20
412
0.22
169
0.21
243
0.22
124
0.22
200
0.24
193
0.22
167
knoymoustwo views0.51
40
0.29
112
0.47
13
0.43
8
0.30
81
0.55
67
0.55
204
1.02
75
0.77
62
0.98
99
0.85
57
0.94
150
0.56
80
0.85
68
0.45
94
0.20
119
0.14
76
0.26
228
0.14
23
0.23
179
0.23
185
RAFT+CT+SAtwo views0.58
97
0.29
112
0.60
58
0.66
266
0.37
155
0.42
13
0.55
204
1.27
154
1.03
144
0.70
48
1.22
172
0.60
54
0.70
135
1.64
202
0.41
67
0.18
60
0.13
43
0.22
124
0.22
200
0.21
133
0.18
80
Sa-1000two views0.72
163
0.29
112
0.76
157
0.59
197
0.30
81
0.73
149
0.37
67
1.62
230
1.33
275
1.28
223
2.04
340
0.86
125
0.75
142
1.84
233
0.38
49
0.19
92
0.14
76
0.25
208
0.23
220
0.20
99
0.16
42
iRaft-Stereo_5wtwo views0.85
227
0.29
112
0.91
213
0.53
121
0.43
199
0.49
31
0.68
253
0.99
65
0.87
83
0.79
62
1.34
217
1.46
279
0.91
211
5.11
345
1.11
276
0.17
32
0.14
76
0.22
124
0.18
90
0.20
99
0.20
136
NRIStereotwo views0.60
103
0.29
112
0.69
99
0.53
121
0.28
52
0.63
96
0.33
34
1.08
107
0.87
83
1.14
155
0.87
61
0.91
138
0.59
97
2.24
270
0.49
124
0.20
119
0.14
76
0.21
98
0.19
110
0.21
133
0.17
62
Pruner-Stereotwo views0.62
112
0.29
112
0.70
105
0.61
220
0.31
93
0.63
96
0.43
114
1.17
125
0.99
131
1.53
303
1.08
120
0.95
156
0.55
76
1.35
147
0.51
133
0.23
192
0.14
76
0.24
172
0.21
175
0.21
133
0.23
185
DeepStereo_RVCtwo views0.55
79
0.29
112
0.72
120
0.51
96
0.30
81
0.59
80
0.33
34
1.03
78
0.70
48
1.16
169
0.93
71
0.83
112
0.94
225
0.96
85
0.54
153
0.21
146
0.14
76
0.21
98
0.19
110
0.24
193
0.24
197
rafts_anoytwo views0.52
41
0.29
112
0.59
54
0.59
197
0.50
236
0.53
58
0.40
85
1.11
116
1.03
144
0.84
74
0.83
54
0.68
71
0.54
70
0.72
42
0.51
133
0.19
92
0.14
76
0.24
172
0.26
255
0.21
133
0.18
80
222two views1.61
344
0.29
112
0.67
87
0.56
167
0.29
64
1.06
246
0.42
98
2.17
352
1.31
267
1.31
245
1.52
267
0.92
146
0.94
225
1.76
226
17.65
415
0.24
207
0.20
227
0.21
98
0.19
110
0.22
154
0.23
185
ac_64two views0.82
214
0.29
112
0.81
177
0.71
301
0.60
288
1.05
243
0.54
191
1.99
316
0.92
103
1.18
183
1.06
114
1.99
341
1.08
274
1.94
246
0.97
258
0.27
255
0.22
257
0.24
172
0.23
220
0.22
154
0.19
113
HSM-Net_RVCpermissivetwo views0.87
236
0.29
112
0.53
29
0.53
121
0.30
81
1.15
262
0.55
204
3.57
391
1.28
253
1.53
303
1.74
308
1.68
314
0.93
220
1.49
178
0.77
216
0.22
169
0.17
182
0.19
51
0.18
90
0.20
99
0.19
113
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
SMFormertwo views0.75
187
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.82
233
0.24
207
0.20
227
0.22
124
0.21
175
0.23
179
0.24
197
ttatwo views0.75
187
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.82
233
0.24
207
0.20
227
0.22
124
0.21
175
0.18
43
0.18
80
qqq1two views0.72
163
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.44
86
0.24
207
0.20
227
0.18
37
0.15
31
0.18
43
0.18
80
fff1two views0.72
163
0.30
128
0.86
189
0.46
36
0.26
20
0.82
188
0.43
114
2.05
326
1.39
301
1.23
202
1.47
255
0.98
165
0.95
230
1.71
216
0.44
86
0.24
207
0.20
227
0.18
37
0.15
31
0.18
43
0.18
80
IGEV_Zeroshot_testtwo views0.53
50
0.30
128
0.99
233
0.56
167
0.35
142
0.41
12
0.32
31
1.37
169
0.63
26
1.00
103
1.09
125
0.95
156
0.41
20
0.83
64
0.39
56
0.18
60
0.12
9
0.19
51
0.18
90
0.19
73
0.17
62
EKT-Stereotwo views0.53
50
0.30
128
0.73
132
0.58
184
0.60
288
0.51
51
0.48
158
0.94
50
0.90
94
0.71
50
0.88
63
0.77
89
0.43
24
1.07
111
0.40
60
0.22
169
0.16
157
0.21
98
0.18
90
0.20
99
0.22
167
HHtwo views0.63
118
0.30
128
0.77
161
0.50
73
0.32
108
0.49
31
0.46
144
1.65
234
0.64
28
0.69
46
1.09
125
1.63
306
0.85
187
1.90
240
0.37
39
0.18
60
0.13
43
0.19
51
0.17
76
0.19
73
0.16
42
HanStereotwo views0.63
118
0.30
128
0.77
161
0.50
73
0.32
108
0.49
31
0.46
144
1.65
234
0.64
28
0.69
46
1.09
125
1.63
306
0.85
187
1.90
240
0.37
39
0.18
60
0.13
43
0.19
51
0.17
76
0.19
73
0.16
42
raft_robusttwo views0.68
154
0.30
128
0.64
74
0.52
112
0.26
20
0.54
61
0.35
48
1.33
160
1.24
233
1.16
169
1.07
117
0.60
54
0.54
70
3.58
321
0.37
39
0.18
60
0.14
76
0.20
75
0.22
200
0.20
99
0.16
42
test_5two views0.65
133
0.30
128
0.75
148
0.67
276
0.50
236
0.92
214
0.52
181
1.39
175
1.12
180
0.76
55
1.11
134
1.00
171
0.90
209
1.53
185
0.45
94
0.18
60
0.13
43
0.23
152
0.22
200
0.21
133
0.19
113
SAtwo views0.66
141
0.30
128
0.82
179
0.61
220
0.30
81
0.58
76
0.38
71
1.44
186
1.30
263
0.96
92
1.36
224
0.66
67
0.95
230
1.85
236
0.42
75
0.19
92
0.15
126
0.25
208
0.23
220
0.21
133
0.17
62
Patchmatch Stereo++two views0.55
79
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.29
20
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.37
151
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
NF-Stereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.02
100
0.82
105
0.57
88
5.40
353
0.48
117
0.23
192
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
OCTAStereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.01
93
0.82
105
0.57
88
5.35
348
0.48
117
0.24
207
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
PSM-adaLosstwo views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.41
96
1.04
82
0.64
28
1.12
139
0.96
75
0.82
105
0.61
108
1.06
107
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
ROB_FTStereo_v2two views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.64
98
0.42
98
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.12
119
0.46
107
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
ROB_FTStereotwo views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.64
98
0.25
4
1.05
88
0.64
28
1.12
139
0.95
73
0.82
105
0.61
108
1.15
122
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
HUI-Stereotwo views0.52
41
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.30
23
1.04
82
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
0.79
56
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
RE-Stereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.01
93
0.81
100
0.57
88
5.37
351
0.48
117
0.24
207
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
TVStereotwo views0.80
206
0.30
128
0.75
148
0.60
208
0.31
93
0.64
98
0.44
126
1.21
137
0.90
94
1.29
228
1.01
93
0.81
100
0.57
88
5.37
351
0.48
117
0.24
207
0.14
76
0.24
172
0.20
139
0.20
99
0.30
259
iGMRVCtwo views0.56
88
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.38
71
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.52
181
0.46
107
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
iRAFTtwo views0.55
79
0.30
128
0.73
132
0.50
73
0.27
33
0.65
110
0.29
20
1.05
88
0.64
28
1.12
139
0.96
75
0.83
112
0.60
99
1.37
151
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
CRE-IMPtwo views0.55
79
0.30
128
0.74
146
0.52
112
0.29
64
0.79
178
0.25
4
1.04
82
0.72
53
1.09
125
0.95
73
0.81
100
0.57
88
1.10
114
0.50
130
0.21
146
0.14
76
0.23
152
0.19
110
0.28
238
0.22
167
RAFTtwo views0.64
128
0.30
128
0.73
132
0.59
197
0.33
124
0.68
130
0.58
223
1.04
82
0.76
60
1.08
120
1.19
165
1.65
311
0.93
220
1.06
107
0.56
159
0.21
146
0.18
197
0.27
239
0.24
231
0.22
154
0.17
62
RAFT-IKPtwo views0.54
64
0.30
128
0.73
132
0.50
73
0.27
33
0.59
80
0.36
58
1.04
82
0.64
28
1.12
139
0.96
75
0.83
112
0.61
108
1.22
128
0.45
94
0.22
169
0.14
76
0.24
172
0.20
139
0.26
212
0.18
80
RALCasStereoNettwo views0.54
64
0.30
128
0.66
84
0.59
197
0.51
246
0.61
89
0.52
181
0.94
50
0.93
105
0.70
48
1.01
93
0.78
92
0.44
28
1.33
143
0.47
112
0.20
119
0.16
157
0.18
37
0.16
60
0.20
99
0.19
113
cf-rtwo views0.73
177
0.30
128
0.77
161
0.55
155
0.63
297
0.78
174
0.48
158
1.79
270
1.15
201
1.13
153
1.26
188
1.43
271
0.87
198
1.40
165
0.85
241
0.25
232
0.18
197
0.22
124
0.23
220
0.19
73
0.19
113
PSMNet-RSSMtwo views0.72
163
0.30
128
0.61
61
0.63
240
0.42
194
0.73
149
0.56
210
1.92
301
1.10
174
1.09
125
1.37
226
1.22
227
0.98
242
1.28
134
0.72
201
0.27
255
0.19
210
0.27
239
0.29
291
0.24
193
0.24
197
DIP-Stereotwo views0.62
112
0.30
128
0.83
181
0.48
53
0.36
147
0.95
223
0.33
34
2.37
370
0.67
42
1.25
214
1.00
88
0.68
71
0.51
60
0.91
78
0.61
175
0.18
60
0.15
126
0.21
98
0.17
76
0.19
73
0.19
113
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
RASNettwo views1.12
296
0.30
128
0.91
213
0.66
266
0.77
334
0.97
231
0.57
220
1.37
169
1.35
286
1.02
109
1.34
217
2.11
350
1.43
322
7.09
384
1.39
310
0.19
92
0.17
182
0.17
15
0.19
110
0.18
43
0.16
42
iResNet_ROBtwo views0.77
194
0.30
128
0.99
233
0.57
178
0.36
147
0.83
192
0.36
58
2.33
366
1.58
332
1.27
221
1.30
199
1.25
238
0.84
184
1.65
203
0.79
224
0.20
119
0.14
76
0.17
15
0.12
9
0.18
43
0.27
233
ACVNet-DCAtwo views0.56
88
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
1.42
179
0.78
64
0.58
34
0.79
49
0.48
23
0.88
202
1.46
172
0.32
7
0.20
119
0.12
9
0.25
208
0.15
31
0.22
154
0.21
152
xx1two views0.67
150
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
0.93
46
3.05
385
0.58
34
0.79
49
0.95
156
0.77
154
1.46
172
0.32
7
0.20
119
0.12
9
0.24
172
0.23
220
0.22
154
0.21
152
1test111two views0.54
64
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
1.42
179
0.78
64
0.58
34
0.79
49
0.48
23
0.88
202
0.88
73
0.59
166
0.20
119
0.12
9
0.25
208
0.15
31
0.22
154
0.21
152
cc1two views0.64
128
0.31
159
0.50
18
0.54
136
0.26
20
1.18
267
0.51
172
0.93
46
3.05
385
0.58
34
0.79
49
0.48
23
0.88
202
1.46
172
0.32
7
0.20
119
0.12
9
0.25
208
0.15
31
0.19
73
0.19
113
xtwo views0.54
64
0.31
159
0.61
61
0.47
42
0.30
81
0.67
123
0.47
150
1.53
211
0.79
68
0.81
68
0.83
54
0.78
92
0.70
135
0.70
35
0.62
178
0.21
146
0.19
210
0.22
124
0.19
110
0.21
133
0.20
136
IERtwo views0.70
157
0.31
159
1.02
248
0.48
53
0.52
254
1.34
290
0.51
172
1.17
125
0.99
131
1.23
202
1.34
217
1.12
209
1.11
279
0.99
93
0.71
198
0.20
119
0.16
157
0.21
98
0.21
175
0.20
99
0.19
113
iRaft-Stereo_20wtwo views0.65
133
0.31
159
1.00
238
0.47
42
0.34
139
0.73
149
0.30
23
2.96
384
0.70
48
1.15
158
1.14
148
0.76
88
0.65
126
1.11
117
0.38
49
0.17
32
0.13
43
0.18
37
0.16
60
0.19
73
0.18
80
GwcNet-ADLtwo views0.64
128
0.31
159
0.79
171
0.56
167
0.41
191
0.60
86
0.58
223
1.41
177
1.26
241
1.08
120
1.13
145
0.91
138
0.60
99
1.04
105
0.78
218
0.27
255
0.18
197
0.18
37
0.18
90
0.25
204
0.29
247
IIG-Stereotwo views0.96
255
0.31
159
0.72
120
0.88
353
0.33
124
0.61
89
0.26
10
1.19
136
1.03
144
1.69
327
1.37
226
1.46
279
0.75
142
6.96
383
0.51
133
0.19
92
0.14
76
0.23
152
0.18
90
0.20
99
0.14
11
PSM-softLosstwo views0.78
200
0.31
159
0.77
161
0.58
184
0.32
108
0.56
70
0.40
85
1.18
130
0.70
48
1.24
210
1.07
117
0.83
112
0.52
62
5.36
349
0.53
147
0.24
207
0.15
126
0.25
208
0.22
200
0.20
99
0.25
209
KMStereotwo views0.78
200
0.31
159
0.77
161
0.58
184
0.32
108
0.56
70
0.40
85
1.18
130
0.70
48
1.24
210
1.07
117
0.83
112
0.52
62
5.36
349
0.53
147
0.24
207
0.15
126
0.25
208
0.22
200
0.20
99
0.25
209
CroCo-Stereocopylefttwo views0.40
8
0.31
159
0.73
132
0.58
184
0.27
33
0.26
1
0.33
34
0.95
53
0.81
70
0.42
5
0.47
5
0.65
65
0.47
41
0.39
1
0.34
24
0.18
60
0.15
126
0.16
9
0.14
23
0.19
73
0.16
42
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
ACVNettwo views0.63
118
0.31
159
0.54
33
0.54
136
0.36
147
0.80
183
0.46
144
1.37
169
1.07
160
0.93
85
1.30
199
1.08
196
0.85
187
0.80
57
0.94
251
0.21
146
0.19
210
0.21
98
0.18
90
0.22
154
0.18
80
acv_fttwo views0.75
187
0.31
159
0.95
224
0.70
294
0.86
353
1.24
277
0.53
187
1.44
186
1.07
160
1.24
210
1.30
199
1.08
196
0.92
214
0.80
57
1.34
302
0.21
146
0.19
210
0.21
98
0.18
90
0.21
133
0.18
80
tt1two views0.62
112
0.32
173
0.51
24
0.54
136
0.26
20
1.16
264
0.48
158
0.95
53
2.47
373
0.57
33
0.77
44
0.49
30
0.81
169
1.55
189
0.32
7
0.20
119
0.12
9
0.24
172
0.15
31
0.19
73
0.20
136
PCWNet_CMDtwo views0.66
141
0.32
173
0.88
202
0.49
66
0.37
155
0.78
174
0.40
85
1.42
179
1.31
267
1.16
169
1.31
204
1.25
238
0.62
113
0.89
76
0.57
161
0.20
119
0.16
157
0.27
239
0.19
110
0.40
299
0.25
209
BUStwo views0.74
180
0.32
173
0.68
90
0.54
136
0.44
205
2.34
366
0.42
98
2.16
346
0.98
124
1.20
191
1.11
134
1.03
183
0.62
113
0.91
78
0.70
193
0.24
207
0.17
182
0.25
208
0.22
200
0.22
154
0.22
167
BSDual-CNNtwo views0.71
162
0.32
173
0.68
90
0.54
136
0.44
205
1.27
281
0.65
243
2.16
346
0.98
124
1.20
191
1.11
134
1.12
209
0.74
140
0.91
78
0.66
187
0.24
207
0.17
182
0.25
208
0.22
200
0.22
154
0.22
167
hknettwo views0.77
194
0.32
173
0.95
224
0.54
136
0.38
172
1.27
281
0.65
243
2.16
346
1.07
160
1.20
191
1.11
134
1.59
300
0.81
169
1.37
151
0.66
187
0.22
169
0.17
182
0.25
208
0.22
200
0.22
154
0.22
167
psmgtwo views0.72
163
0.32
173
0.68
90
0.50
73
0.44
205
1.48
306
0.75
265
1.94
307
0.98
124
1.21
194
1.33
212
1.12
209
0.74
140
0.91
78
0.66
187
0.24
207
0.19
210
0.25
208
0.25
242
0.23
179
0.22
167
CFNet_pseudotwo views0.66
141
0.32
173
0.86
189
0.48
53
0.39
180
0.70
141
0.40
85
1.33
160
1.22
226
1.16
169
1.34
217
1.24
234
0.64
121
0.98
91
0.59
166
0.21
146
0.16
157
0.33
290
0.19
110
0.36
279
0.25
209
MMNettwo views0.84
223
0.32
173
1.09
267
0.60
208
0.59
285
1.85
342
0.49
165
1.51
202
1.27
248
1.37
265
1.15
154
1.26
242
1.18
290
1.67
208
1.22
287
0.19
92
0.18
197
0.23
152
0.22
200
0.25
204
0.21
152
delettwo views0.85
227
0.32
173
0.95
224
0.65
261
0.66
304
1.64
321
0.84
288
1.75
255
1.35
286
1.32
247
1.30
199
1.30
253
0.88
202
1.68
213
1.10
274
0.21
146
0.21
243
0.24
172
0.24
231
0.21
133
0.21
152
UPFNettwo views0.80
206
0.32
173
0.90
210
0.59
197
0.74
324
1.26
280
0.80
282
1.52
205
1.10
174
1.30
235
1.12
140
1.30
253
0.84
184
1.67
208
1.09
271
0.24
207
0.24
275
0.24
172
0.23
220
0.25
204
0.18
80
GwcNet-RSSMtwo views0.77
194
0.32
173
1.01
242
0.62
232
0.54
260
0.78
174
0.51
172
1.73
249
1.20
219
1.09
125
1.37
226
1.46
279
0.85
187
1.53
185
1.09
271
0.25
232
0.18
197
0.23
152
0.24
231
0.20
99
0.19
113
CFNet-ftpermissivetwo views0.72
163
0.32
173
0.54
33
0.66
266
0.54
260
0.83
192
0.55
204
1.37
169
1.15
201
0.93
85
1.28
195
1.57
296
0.97
238
1.35
147
0.81
228
0.26
246
0.20
227
0.33
290
0.25
242
0.30
252
0.23
185
MSMDNettwo views0.66
141
0.32
173
0.87
199
0.49
66
0.37
155
0.79
178
0.40
85
1.43
185
1.31
267
1.15
158
1.31
204
1.24
234
0.63
118
0.88
73
0.57
161
0.21
146
0.16
157
0.26
228
0.19
110
0.39
295
0.24
197
CFNet_RVCtwo views0.72
163
0.32
173
0.54
33
0.66
266
0.54
260
0.83
192
0.55
204
1.37
169
1.15
201
0.93
85
1.28
195
1.57
296
0.97
238
1.35
147
0.81
228
0.26
246
0.20
227
0.33
290
0.25
242
0.30
252
0.23
185
HSMtwo views1.19
308
0.32
173
0.65
78
0.57
178
0.38
172
1.23
276
0.59
230
2.25
361
1.19
214
1.30
235
1.25
182
1.94
336
1.03
261
9.32
405
0.71
198
0.22
169
0.16
157
0.20
75
0.16
60
0.21
133
0.21
152
DN-CSS_ROBtwo views0.64
128
0.32
173
1.05
256
0.55
155
0.40
185
0.54
61
0.45
137
1.21
137
0.93
105
1.03
113
1.47
255
0.69
76
0.63
118
1.76
226
0.49
124
0.18
60
0.14
76
0.25
208
0.22
200
0.22
154
0.20
136
DualNettwo views1.09
288
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
0.95
53
2.47
373
1.15
158
1.45
248
1.06
189
0.82
173
1.55
189
7.61
393
0.20
119
0.12
9
0.31
270
0.27
263
0.19
73
0.20
136
ffmtwo views0.72
163
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
0.95
53
2.47
373
1.15
158
1.45
248
1.06
189
0.82
173
1.55
189
0.32
7
0.20
119
0.12
9
0.31
270
0.27
263
0.19
73
0.20
136
ff1two views1.37
325
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
0.95
53
2.47
373
1.15
158
1.45
248
1.06
189
0.82
173
7.22
385
7.61
393
0.20
119
0.12
9
0.31
270
0.27
263
0.19
73
0.20
136
mmxtwo views1.39
327
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
2.13
337
1.37
293
1.15
158
1.45
248
1.06
189
0.82
173
7.22
385
7.61
393
0.24
207
0.19
210
0.31
270
0.27
263
0.30
252
0.25
209
xxxcopylefttwo views1.39
327
0.33
189
0.85
183
0.53
121
0.37
155
0.74
152
0.56
210
2.13
337
1.37
293
1.15
158
1.45
248
1.06
189
0.82
173
7.22
385
7.61
393
0.24
207
0.19
210
0.31
270
0.27
263
0.30
252
0.25
209
CFNet_ucstwo views0.70
157
0.33
189
0.88
202
0.50
73
0.43
199
0.74
152
0.44
126
1.60
224
1.29
257
1.22
199
1.54
270
1.09
202
0.63
118
0.99
93
0.59
166
0.25
232
0.20
227
0.37
317
0.21
175
0.40
299
0.28
244
LL-Strereo2two views0.52
41
0.33
189
0.69
99
0.52
112
0.37
155
0.70
141
0.30
23
1.13
119
0.67
42
0.94
90
0.78
46
0.91
138
0.42
22
1.05
106
0.42
75
0.17
32
0.16
157
0.29
257
0.25
242
0.21
133
0.16
42
CBFPSMtwo views0.92
247
0.33
189
1.86
350
0.49
66
0.38
172
1.75
329
0.84
288
1.39
175
1.12
180
1.09
125
0.99
85
2.37
360
1.66
347
1.32
141
1.42
319
0.19
92
0.18
197
0.20
75
0.20
139
0.21
133
0.33
279
gwcnet-sptwo views0.74
180
0.33
189
1.44
313
0.57
178
0.45
212
1.40
298
0.54
191
1.50
197
1.14
192
1.30
235
1.02
100
0.94
150
0.82
173
1.39
160
0.76
210
0.21
146
0.21
243
0.22
124
0.21
175
0.22
154
0.22
167
scenettwo views0.74
180
0.33
189
1.44
313
0.57
178
0.45
212
1.40
298
0.54
191
1.50
197
1.14
192
1.30
235
1.02
100
0.94
150
0.82
173
1.39
160
0.76
210
0.21
146
0.21
243
0.22
124
0.21
175
0.22
154
0.22
167
ToySttwo views0.66
141
0.33
189
1.23
287
0.51
96
0.33
124
0.86
201
0.68
253
1.10
110
0.97
119
0.84
74
1.08
120
1.25
238
0.94
225
1.01
97
0.74
205
0.19
92
0.19
210
0.24
172
0.24
231
0.27
224
0.23
185
ssnettwo views0.74
180
0.33
189
1.44
313
0.57
178
0.45
212
1.40
298
0.54
191
1.50
197
1.14
192
1.30
235
1.02
100
0.94
150
0.82
173
1.39
160
0.76
210
0.21
146
0.21
243
0.22
124
0.21
175
0.22
154
0.22
167
CIPLGtwo views0.62
112
0.33
189
0.96
228
0.58
184
0.50
236
0.75
158
0.48
158
1.05
88
0.96
112
1.40
276
1.57
280
0.64
62
0.48
49
0.89
76
0.70
193
0.23
192
0.15
126
0.19
51
0.16
60
0.19
73
0.21
152
IPLGR_Ctwo views0.62
112
0.33
189
0.99
233
0.58
184
0.49
230
0.76
163
0.48
158
1.10
110
0.96
112
1.40
276
1.56
276
0.62
57
0.48
49
0.80
57
0.71
198
0.23
192
0.15
126
0.19
51
0.16
60
0.19
73
0.21
152
ACREtwo views0.61
109
0.33
189
1.01
242
0.58
184
0.49
230
0.75
158
0.47
150
1.06
101
0.95
110
1.37
265
1.55
272
0.62
57
0.46
35
0.83
64
0.70
193
0.23
192
0.15
126
0.19
51
0.16
60
0.18
43
0.21
152
OMP-Stereotwo views0.94
251
0.33
189
0.72
120
0.90
357
0.31
93
0.49
31
0.36
58
1.16
123
1.06
155
1.58
317
1.12
140
1.46
279
0.69
132
6.94
382
0.49
124
0.19
92
0.14
76
0.24
172
0.18
90
0.20
99
0.14
11
ICVPtwo views0.63
118
0.33
189
0.57
46
0.61
220
0.40
185
0.80
183
0.58
223
1.61
227
0.89
90
0.90
80
1.24
178
0.88
132
0.73
138
0.72
42
0.88
245
0.29
273
0.21
243
0.22
124
0.21
175
0.24
193
0.27
233
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
RALAANettwo views0.60
103
0.33
189
0.87
199
0.62
232
0.50
236
0.69
134
0.31
28
1.21
137
1.06
155
1.09
125
1.16
157
0.88
132
0.46
35
1.22
128
0.42
75
0.19
92
0.15
126
0.21
98
0.17
76
0.27
224
0.17
62
ccs_robtwo views0.66
141
0.33
189
0.86
189
0.48
53
0.39
180
0.70
141
0.40
85
1.33
160
1.22
226
1.16
169
1.34
217
1.23
232
0.64
121
0.98
91
0.59
166
0.21
146
0.16
157
0.35
307
0.20
139
0.37
283
0.25
209
ttttwo views0.94
251
0.34
208
0.59
54
0.61
220
0.37
155
0.94
219
0.50
171
2.17
352
1.34
278
1.23
202
1.61
288
0.91
138
0.76
150
1.85
236
3.97
378
0.30
277
0.26
286
0.26
228
0.24
231
0.29
243
0.29
247
StereoVisiontwo views0.65
133
0.34
208
0.86
189
0.59
197
0.40
185
0.50
40
0.41
96
1.09
108
0.93
105
0.71
50
2.50
361
0.82
105
0.57
88
1.03
100
0.49
124
0.25
232
0.28
300
0.29
257
0.28
280
0.36
279
0.20
136
CASStwo views0.65
133
0.34
208
0.72
120
0.56
167
0.27
33
0.78
174
0.42
98
1.59
221
0.86
79
1.30
235
1.25
182
0.87
129
0.84
184
0.84
66
0.54
153
0.35
309
0.19
210
0.26
228
0.21
175
0.28
238
0.42
310
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
CroCo-Stereo Lap2two views0.44
23
0.34
208
0.77
161
0.61
220
0.79
339
0.28
2
0.35
48
0.75
9
0.71
52
0.38
4
0.50
9
0.72
82
0.55
76
0.57
13
0.47
112
0.17
32
0.18
197
0.19
51
0.16
60
0.21
133
0.20
136
qqqtwo views0.57
92
0.34
208
0.71
116
0.47
42
0.27
33
0.64
98
0.62
237
1.42
179
0.78
64
0.80
64
0.92
69
0.95
156
0.77
154
0.88
73
0.59
166
0.21
146
0.20
227
0.24
172
0.23
220
0.22
154
0.21
152
DAStwo views0.84
223
0.34
208
1.03
252
0.64
249
0.69
314
0.77
169
0.63
238
1.54
213
1.20
219
1.79
337
1.55
272
0.95
156
1.04
262
2.83
296
0.60
173
0.21
146
0.16
157
0.25
208
0.18
90
0.27
224
0.22
167
SepStereotwo views0.82
214
0.34
208
1.03
252
0.64
249
0.69
314
0.77
169
0.63
238
1.54
213
1.20
219
1.79
337
1.55
272
0.95
156
1.04
262
2.30
274
0.60
173
0.21
146
0.16
157
0.25
208
0.18
90
0.27
224
0.22
167
ADLNet2two views0.88
237
0.34
208
1.17
281
0.77
322
0.64
299
1.12
255
0.76
268
1.74
253
1.24
233
1.21
194
1.65
297
1.71
317
1.05
266
1.67
208
1.17
283
0.24
207
0.21
243
0.21
98
0.22
200
0.26
212
0.29
247
GEStwo views0.66
141
0.34
208
0.90
210
0.59
197
0.38
172
0.94
219
0.57
220
2.11
336
0.86
79
1.02
109
1.11
134
0.66
67
0.79
161
0.99
93
0.61
175
0.27
255
0.19
210
0.20
75
0.20
139
0.21
133
0.30
259
psm_uptwo views0.77
194
0.34
208
0.70
105
0.66
266
0.58
278
1.05
243
0.92
306
1.52
205
1.12
180
1.26
218
1.16
157
1.31
256
1.23
301
1.20
126
0.81
228
0.25
232
0.29
308
0.31
270
0.27
263
0.27
224
0.25
209
UNettwo views0.83
219
0.34
208
1.31
300
0.58
184
0.74
324
1.58
315
0.49
165
1.41
177
1.04
148
1.21
194
1.08
120
1.54
292
1.12
282
1.65
203
1.09
271
0.23
192
0.17
182
0.25
208
0.20
139
0.25
204
0.22
167
DSFCAtwo views0.93
250
0.34
208
1.06
259
0.52
112
0.65
302
1.55
313
0.93
310
1.49
193
1.19
214
1.56
311
1.15
154
1.50
287
0.96
235
3.07
304
1.02
263
0.30
277
0.26
286
0.25
208
0.25
242
0.28
238
0.24
197
DMCAtwo views0.67
150
0.34
208
0.90
210
0.51
96
0.44
205
0.86
201
0.47
150
1.42
179
1.02
141
1.17
178
1.12
140
1.23
232
0.75
142
0.78
53
0.95
253
0.25
232
0.19
210
0.27
239
0.19
110
0.24
193
0.27
233
MLCVtwo views0.72
163
0.34
208
1.10
270
0.51
96
0.23
6
0.91
208
0.39
82
1.33
160
1.23
229
1.46
289
1.55
272
1.01
178
0.64
121
1.95
247
0.80
227
0.18
60
0.12
9
0.18
37
0.14
23
0.19
73
0.17
62
DISCOtwo views1.03
277
0.34
208
1.11
272
0.69
289
0.45
212
2.07
355
0.84
288
2.13
337
1.50
323
1.15
158
1.33
212
2.40
362
1.07
273
2.60
289
1.51
328
0.23
192
0.18
197
0.22
124
0.20
139
0.31
259
0.27
233
MDST_ROBtwo views1.67
348
0.34
208
1.58
331
0.92
362
0.58
278
4.26
400
1.11
333
2.83
381
1.41
309
4.49
400
2.55
362
1.45
277
0.97
238
7.79
395
1.17
283
0.31
284
0.25
282
0.37
317
0.33
315
0.31
259
0.30
259
mmmtwo views0.63
118
0.35
224
0.72
120
0.51
96
0.30
81
0.86
201
0.54
191
1.59
221
0.86
79
1.07
119
1.38
230
0.79
95
0.75
142
0.91
78
0.58
164
0.22
169
0.18
197
0.29
257
0.25
242
0.25
204
0.23
185
AASNettwo views0.76
193
0.35
224
0.91
213
0.79
325
0.81
346
1.14
257
0.56
210
2.02
324
1.08
164
1.22
199
1.24
178
0.93
147
0.76
150
0.77
52
1.16
281
0.27
255
0.23
266
0.24
172
0.20
139
0.28
238
0.24
197
AACVNettwo views0.86
232
0.35
224
0.79
171
0.82
336
0.39
180
0.76
163
0.49
165
1.61
227
0.81
70
1.08
120
1.33
212
1.30
253
0.93
220
4.34
332
0.74
205
0.25
232
0.21
243
0.28
249
0.22
200
0.29
243
0.25
209
PSMNet-ADLtwo views0.72
163
0.35
224
0.62
65
0.69
289
0.46
222
1.14
257
0.44
126
1.37
169
1.01
138
0.83
72
1.17
160
1.33
258
0.96
235
1.43
167
0.95
253
0.33
294
0.22
257
0.21
98
0.23
220
0.27
224
0.29
247
GANet-ADLtwo views0.60
103
0.35
224
0.72
120
0.64
249
0.40
185
0.68
130
0.51
172
1.49
193
1.12
180
0.95
91
1.08
120
0.91
138
0.57
88
0.76
50
0.55
157
0.26
246
0.18
197
0.18
37
0.16
60
0.23
179
0.25
209
hitnet-ftcopylefttwo views0.79
203
0.35
224
0.57
46
0.58
184
0.42
194
0.96
227
0.46
144
1.47
191
1.33
275
1.19
187
1.22
172
1.81
325
0.98
242
1.66
207
0.94
251
0.33
294
0.28
300
0.34
300
0.27
263
0.35
273
0.31
269
UCFNet_RVCtwo views0.69
155
0.35
224
0.49
17
0.64
249
0.39
180
0.85
200
0.58
223
1.75
255
1.14
192
0.97
95
1.19
165
1.17
219
0.93
220
0.99
93
0.62
178
0.28
265
0.20
227
0.34
300
0.31
303
0.32
264
0.27
233
Former-RAFT_DAM_RVCtwo views0.46
26
0.36
231
0.71
116
0.47
42
0.36
147
0.67
123
0.35
48
0.78
13
1.12
180
0.61
41
0.62
21
0.39
4
0.39
15
0.71
39
0.39
56
0.20
119
0.17
182
0.22
124
0.18
90
0.23
179
0.19
113
ssnet_v2two views0.88
237
0.36
231
1.02
248
0.62
232
0.38
172
1.32
287
0.97
316
2.07
332
1.34
278
1.37
265
1.18
162
1.54
292
0.92
214
1.10
114
1.65
333
0.30
277
0.27
294
0.30
266
0.28
280
0.27
224
0.26
227
ADLNettwo views0.85
227
0.36
231
0.89
207
0.85
345
0.72
319
1.24
277
0.76
268
1.82
277
1.36
289
1.52
302
1.35
223
1.27
246
0.99
250
1.23
130
1.15
280
0.27
255
0.20
227
0.26
228
0.25
242
0.28
238
0.30
259
ARAFTtwo views0.77
194
0.36
231
1.49
326
0.51
96
0.31
93
0.90
206
0.82
286
1.90
294
1.06
155
1.62
321
1.24
178
1.02
180
0.64
121
1.84
233
0.50
130
0.18
60
0.14
76
0.28
249
0.27
263
0.17
25
0.16
42
CFNettwo views0.96
255
0.36
231
1.01
242
0.62
232
0.42
194
0.99
235
0.47
150
1.90
294
1.32
272
0.99
101
1.39
234
1.10
204
0.86
195
5.58
358
0.79
224
0.23
192
0.17
182
0.28
249
0.27
263
0.26
212
0.21
152
SGM_RVCbinarytwo views1.68
350
0.36
231
0.61
61
0.59
197
0.29
64
2.25
362
1.18
342
2.38
371
1.68
339
3.60
390
2.67
365
3.69
383
2.42
380
8.13
398
1.90
344
0.31
284
0.31
318
0.30
266
0.28
280
0.30
252
0.29
247
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
DispNOtwo views1.00
270
0.37
237
1.69
337
0.61
220
0.56
267
0.75
158
0.63
238
1.80
272
1.44
315
1.17
178
1.66
299
1.05
188
1.06
269
5.00
344
0.86
243
0.24
207
0.22
257
0.25
208
0.19
110
0.24
193
0.22
167
NINENettwo views0.77
194
0.37
237
0.78
169
0.62
232
0.51
246
2.34
366
0.42
98
1.83
281
1.04
148
1.14
155
1.23
176
1.03
183
0.62
113
1.24
131
0.70
193
0.28
265
0.23
266
0.31
270
0.21
175
0.26
212
0.25
209
GEStereo_RVCtwo views0.90
242
0.37
237
0.99
233
0.64
249
0.50
236
0.95
223
0.79
276
2.42
373
1.17
207
1.16
169
1.11
134
1.26
242
0.92
214
3.24
310
0.90
248
0.29
273
0.19
210
0.23
152
0.20
139
0.27
224
0.29
247
pcwnet_v2two views0.97
261
0.37
237
4.33
386
0.62
232
0.54
260
0.79
178
0.45
137
2.02
324
1.58
332
1.42
284
1.64
295
1.09
202
0.79
161
1.24
131
0.67
190
0.32
289
0.25
282
0.29
257
0.27
263
0.37
283
0.35
286
iResNetv2_ROBtwo views0.80
206
0.37
237
1.71
339
0.56
167
0.37
155
0.94
219
0.64
241
1.73
249
1.34
278
1.23
202
1.42
239
1.26
242
0.92
214
1.85
236
0.56
159
0.23
192
0.15
126
0.19
51
0.14
23
0.24
193
0.19
113
LE_ROBtwo views8.05
410
0.37
237
23.53
417
0.74
313
0.33
124
2.77
378
2.87
406
3.71
393
27.24
424
25.39
424
8.87
409
8.46
407
26.71
424
6.65
375
21.99
418
0.21
146
0.19
210
0.20
75
0.21
175
0.25
204
0.22
167
CSP-Nettwo views0.97
261
0.38
243
0.83
181
0.53
121
0.41
191
1.63
319
0.77
271
2.00
317
1.05
152
1.25
214
1.20
168
1.33
258
0.83
182
4.93
343
0.85
241
0.32
289
0.22
257
0.20
75
0.20
139
0.23
179
0.25
209
Anonymoustwo views0.53
50
0.38
243
0.91
213
0.66
266
0.73
322
0.65
110
0.59
230
0.95
53
0.73
56
0.47
15
0.58
20
0.42
5
0.60
99
0.80
57
0.53
147
0.24
207
0.23
266
0.21
98
0.21
175
0.41
302
0.29
247
HGLStereotwo views0.85
227
0.38
243
0.94
221
0.80
328
1.03
366
1.17
266
0.58
223
1.52
205
1.20
219
1.19
187
1.62
291
1.13
214
1.20
296
1.80
230
1.06
266
0.24
207
0.24
275
0.24
172
0.21
175
0.23
179
0.27
233
SGM-ForestMtwo views6.52
407
0.38
243
1.26
293
0.63
240
0.35
142
13.59
418
5.32
412
6.32
411
6.70
406
11.14
415
9.18
410
22.51
425
13.93
414
16.89
418
20.07
417
0.36
312
0.37
342
0.36
315
0.35
324
0.36
279
0.34
281
SGM-Foresttwo views1.24
310
0.38
243
0.60
58
0.52
112
0.37
155
1.56
314
1.30
351
1.65
234
1.36
289
2.11
357
1.79
315
1.63
306
0.93
220
7.48
392
0.95
253
0.36
312
0.37
342
0.39
326
0.34
320
0.37
283
0.32
275
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
LL-Strereotwo views1.33
321
0.39
248
1.38
309
0.61
220
0.61
291
0.75
158
0.66
248
1.63
232
1.17
207
1.56
311
1.60
284
2.03
346
2.12
372
9.72
410
0.97
258
0.21
146
0.18
197
0.27
239
0.23
220
0.22
154
0.25
209
CRFU-Nettwo views0.86
232
0.39
248
1.00
238
0.65
261
0.57
270
1.78
336
0.86
294
2.15
343
0.81
70
1.38
270
1.18
162
1.64
309
1.19
293
1.35
147
0.90
248
0.26
246
0.22
257
0.21
98
0.19
110
0.23
179
0.24
197
TestStereotwo views0.64
128
0.39
248
0.71
116
0.51
96
0.27
33
0.56
70
0.42
98
1.03
78
0.91
99
0.80
64
1.00
88
0.68
71
0.52
62
3.25
311
0.45
94
0.22
169
0.15
126
0.24
172
0.18
90
0.27
224
0.16
42
HCRNettwo views0.70
157
0.39
248
0.73
132
0.60
208
0.59
285
0.76
163
0.35
48
1.22
144
1.13
190
1.02
109
0.99
85
1.02
180
0.76
150
2.19
267
0.70
193
0.28
265
0.19
210
0.28
249
0.23
220
0.25
204
0.23
185
Wz-Net-LNSev-Reftwo views0.99
266
0.40
252
1.82
347
0.66
266
0.62
296
2.05
354
0.78
273
1.91
298
1.29
257
1.54
307
1.42
239
1.51
289
1.23
301
1.99
250
1.33
300
0.23
192
0.14
76
0.20
75
0.15
31
0.27
224
0.26
227
sCroCo_RVCtwo views0.49
37
0.40
252
1.02
248
0.65
261
0.60
288
0.52
53
0.40
85
0.83
23
0.61
23
0.44
9
0.74
39
0.49
30
0.50
58
0.63
26
0.48
117
0.26
246
0.27
294
0.23
152
0.22
200
0.29
243
0.25
209
DMCA-RVCcopylefttwo views0.74
180
0.40
252
1.27
296
0.66
266
0.49
230
0.77
169
0.47
150
1.35
166
1.01
138
1.53
303
1.01
93
1.29
252
0.82
173
1.31
139
0.78
218
0.27
255
0.21
243
0.35
307
0.27
263
0.32
264
0.24
197
HITNettwo views0.65
133
0.40
252
0.77
161
0.48
53
0.24
9
1.05
243
0.49
165
1.76
261
1.02
141
1.18
183
1.18
162
0.89
136
0.80
166
0.85
68
0.79
224
0.17
32
0.12
9
0.21
98
0.17
76
0.29
243
0.15
27
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
iResNettwo views0.75
187
0.40
252
1.36
308
0.67
276
0.29
64
0.92
214
0.59
230
1.52
205
1.25
236
1.28
223
1.48
260
0.94
150
0.76
150
1.62
200
0.78
218
0.18
60
0.14
76
0.18
37
0.15
31
0.22
154
0.23
185
DLCB_ROBtwo views0.86
232
0.40
252
0.78
169
0.68
286
0.54
260
1.11
252
0.84
288
1.49
193
1.23
229
1.64
323
1.65
297
1.70
316
0.91
211
1.70
215
1.05
264
0.25
232
0.24
275
0.26
228
0.27
263
0.27
224
0.24
197
FAT-Stereotwo views1.07
283
0.41
258
1.32
303
0.72
304
0.58
278
1.08
249
0.89
299
1.96
310
1.65
336
1.75
331
1.98
335
2.03
346
1.48
329
2.02
252
1.18
286
0.42
332
0.35
335
0.34
300
0.29
291
0.35
273
0.53
338
NVstereo2Dtwo views0.92
247
0.41
258
1.48
324
0.72
304
0.72
319
1.20
273
0.87
296
1.75
255
1.38
297
0.99
101
1.13
145
1.26
242
0.98
242
2.21
269
0.89
246
0.43
337
0.20
227
0.38
320
0.24
231
0.57
346
0.63
356
StereoDRNet-Refinedtwo views0.80
206
0.41
258
0.88
202
0.62
232
0.42
194
1.33
288
0.48
158
1.52
205
1.17
207
1.45
287
1.44
246
1.44
275
0.90
209
1.26
133
1.24
289
0.20
119
0.16
157
0.27
239
0.24
231
0.25
204
0.28
244
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
RAFT + AFFtwo views1.00
270
0.42
261
1.09
267
0.67
276
0.50
236
1.22
275
1.24
346
2.24
360
1.19
214
1.30
235
1.56
276
1.17
219
1.49
331
3.44
318
0.83
235
0.21
146
0.25
282
0.30
266
0.26
255
0.27
224
0.27
233
stereogantwo views1.15
304
0.42
261
1.40
310
0.86
347
0.84
350
2.38
368
0.71
261
1.88
289
1.73
343
1.72
329
1.94
334
2.31
357
1.29
309
2.07
257
1.08
269
0.36
312
0.35
335
0.39
326
0.31
303
0.51
336
0.46
322
pmcnntwo views2.37
377
0.42
261
2.71
377
0.63
240
0.43
199
1.54
312
1.19
343
2.01
321
1.53
328
2.64
374
7.60
403
18.07
417
1.45
325
3.44
318
2.78
363
0.18
60
0.15
126
0.15
3
0.12
9
0.20
99
0.18
80
CVANet_RVCtwo views1.07
283
0.43
264
0.76
157
0.60
208
0.50
236
0.90
206
0.97
316
1.52
205
1.26
241
1.33
255
1.38
230
1.24
234
1.18
290
6.75
381
0.75
208
0.34
302
0.23
266
0.34
300
0.29
291
0.42
307
0.27
233
NLCA_NET_v2_RVCtwo views0.79
203
0.43
264
1.05
256
0.64
249
0.58
278
0.95
223
0.53
187
1.53
211
1.18
211
1.37
265
1.15
154
1.43
271
0.88
202
1.61
199
0.84
238
0.25
232
0.22
257
0.27
239
0.27
263
0.29
243
0.29
247
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AdaStereotwo views0.70
157
0.43
264
0.75
148
0.73
311
0.37
155
0.92
214
0.53
187
1.85
283
1.18
211
1.12
139
1.23
176
1.07
195
0.65
126
0.96
85
0.63
182
0.31
284
0.15
126
0.32
283
0.21
175
0.29
243
0.22
167
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
fast-acv-fttwo views0.94
251
0.44
267
1.40
310
0.58
184
0.51
246
1.77
334
0.69
257
1.36
168
1.42
312
1.29
228
1.86
324
1.74
321
1.25
304
1.52
181
1.38
307
0.26
246
0.28
300
0.28
249
0.28
280
0.27
224
0.26
227
Anonymous3two views0.61
109
0.44
267
1.11
272
0.59
197
0.49
230
0.93
217
0.65
243
0.93
46
0.81
70
0.72
53
0.88
63
0.65
65
0.69
132
1.06
107
0.53
147
0.35
309
0.30
312
0.26
228
0.26
255
0.31
259
0.27
233
TDLMtwo views1.06
281
0.44
267
0.79
171
0.63
240
0.50
236
0.89
204
1.44
358
1.48
192
1.26
241
1.12
139
1.40
236
1.08
196
0.98
242
6.65
375
0.78
218
0.33
294
0.21
243
0.33
290
0.26
255
0.37
283
0.24
197
DRN-Testtwo views1.00
270
0.44
267
1.13
276
0.70
294
0.81
346
1.62
318
0.79
276
2.14
341
1.44
315
1.78
334
1.33
212
1.43
271
1.05
266
2.18
266
1.53
329
0.27
255
0.21
243
0.31
270
0.30
299
0.32
264
0.28
244
CBMV_ROBtwo views0.90
242
0.44
267
0.63
68
0.51
96
0.37
155
1.25
279
0.49
165
1.77
264
1.27
248
1.41
278
2.00
336
1.33
258
1.08
274
2.17
263
0.76
210
0.43
337
0.42
355
0.47
346
0.44
346
0.41
302
0.36
290
CBMVpermissivetwo views0.95
254
0.44
267
0.66
84
0.53
121
0.35
142
1.53
311
1.63
369
1.69
243
1.42
312
2.00
353
1.60
284
1.43
271
1.17
287
1.59
197
0.99
261
0.34
302
0.34
327
0.39
326
0.33
315
0.33
270
0.32
275
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
iinet-ftwo views0.99
266
0.45
273
3.71
385
0.55
155
0.43
199
1.81
337
0.68
253
1.14
120
1.14
192
1.18
183
1.42
239
1.58
299
1.44
323
1.34
146
1.59
332
0.24
207
0.23
266
0.20
75
0.19
110
0.26
212
0.25
209
GMStereopermissivetwo views0.55
79
0.45
273
0.94
221
0.50
73
0.32
108
0.64
98
0.43
114
1.00
69
1.40
306
0.82
71
0.73
37
0.51
33
0.45
31
0.85
68
0.55
157
0.24
207
0.15
126
0.20
75
0.21
175
0.31
259
0.24
197
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
SACVNettwo views0.85
227
0.46
275
0.85
183
0.81
331
0.56
267
0.80
183
0.79
276
1.68
241
1.12
180
1.34
258
1.33
212
1.25
238
0.94
225
2.39
281
0.76
210
0.34
302
0.26
286
0.31
270
0.29
291
0.35
273
0.44
316
LMCR-Stereopermissivemany views0.82
214
0.46
275
0.88
202
0.75
317
0.43
199
1.33
288
0.56
210
2.43
374
0.98
124
1.53
303
1.49
261
0.74
83
1.00
252
1.63
201
0.89
246
0.28
265
0.17
182
0.22
124
0.17
76
0.29
243
0.20
136
S-Stereotwo views1.15
304
0.46
275
2.17
361
0.81
331
0.80
344
1.21
274
1.19
343
1.93
305
2.02
361
1.47
290
2.11
343
1.57
296
1.17
287
2.05
256
1.41
315
0.40
325
0.40
351
0.35
307
0.31
303
0.44
319
0.70
364
NOSS_ROBtwo views1.26
313
0.46
275
0.62
65
0.56
167
0.38
172
1.06
246
0.78
273
1.73
249
1.40
306
1.01
106
1.43
243
1.10
204
0.75
142
10.62
413
0.65
186
0.45
343
0.43
356
0.48
347
0.45
348
0.44
319
0.41
306
whm_ethtwo views0.65
133
0.47
279
1.05
256
0.55
155
0.64
299
0.69
134
0.45
137
1.34
164
1.26
241
1.02
109
1.92
331
0.49
30
0.48
49
0.70
35
0.52
139
0.23
192
0.20
227
0.25
208
0.24
231
0.24
193
0.31
269
FADNet-RVC-Resampletwo views0.84
223
0.47
279
2.10
357
0.61
220
0.45
212
1.07
248
0.61
235
1.59
221
1.20
219
1.08
120
0.98
83
1.03
183
0.98
242
2.17
263
0.72
201
0.23
192
0.22
257
0.30
266
0.32
309
0.35
273
0.34
281
GANettwo views1.36
324
0.47
279
0.86
189
0.67
276
0.45
212
1.34
290
1.73
371
1.64
233
1.24
233
1.49
298
2.38
355
1.55
294
1.20
296
9.30
404
0.93
250
0.30
277
0.31
318
0.33
290
0.28
280
0.39
295
0.30
259
StereoDRNettwo views0.98
265
0.47
279
1.70
338
0.76
319
0.94
361
1.51
309
0.91
304
1.92
301
1.32
272
1.61
318
1.13
145
1.47
284
0.97
238
1.75
221
1.46
324
0.28
265
0.23
266
0.29
257
0.27
263
0.35
273
0.27
233
WCMA_ROBtwo views1.84
358
0.47
279
1.31
300
0.69
289
0.57
270
2.11
357
1.14
337
1.87
287
1.73
343
4.04
394
6.43
397
5.62
397
3.61
394
2.59
288
1.94
346
0.52
356
0.44
359
0.39
326
0.42
342
0.48
328
0.47
325
ddtwo views0.59
100
0.48
284
0.97
230
0.55
155
0.32
108
0.64
98
0.47
150
1.02
75
1.34
278
0.78
59
0.86
58
0.58
49
0.54
70
1.01
97
0.86
243
0.28
265
0.18
197
0.26
228
0.19
110
0.32
264
0.24
197
ADCP+two views1.99
367
0.48
284
7.73
398
0.66
266
0.91
357
2.30
364
1.05
328
1.82
277
1.34
278
1.54
307
1.32
210
1.74
321
1.61
340
2.17
263
13.37
407
0.24
207
0.21
243
0.32
283
0.28
280
0.37
283
0.29
247
DeepPruner_ROBtwo views0.74
180
0.48
284
0.87
199
0.57
178
0.44
205
0.79
178
0.54
191
1.73
249
0.96
112
1.38
270
1.27
191
1.24
234
0.73
138
1.43
167
0.73
204
0.34
302
0.28
300
0.27
239
0.26
255
0.31
259
0.31
269
BEATNet_4xtwo views0.73
177
0.49
287
1.17
281
0.53
121
0.26
20
1.03
240
0.55
204
1.82
277
1.06
155
1.21
194
1.22
172
0.96
162
0.91
211
1.01
97
1.06
266
0.21
146
0.14
76
0.24
172
0.19
110
0.37
283
0.21
152
Nwc_Nettwo views1.09
288
0.49
287
1.33
305
0.89
356
0.80
344
1.49
308
0.66
248
2.19
354
1.27
248
1.32
247
2.26
350
1.96
338
1.54
333
1.92
242
1.34
302
0.40
325
0.30
312
0.43
337
0.45
348
0.38
291
0.37
292
RYNettwo views1.17
307
0.49
287
1.24
290
0.70
294
0.97
365
1.71
325
0.92
306
1.91
298
1.46
318
1.38
270
1.14
148
1.88
326
1.30
313
4.24
328
1.87
341
0.26
246
0.21
243
0.35
307
0.27
263
0.55
343
0.54
339
XPNet_ROBtwo views0.96
255
0.49
287
1.09
267
0.72
304
0.57
270
1.11
252
1.14
337
1.66
239
1.23
229
1.85
343
1.39
234
1.64
309
1.11
279
1.80
230
1.42
319
0.38
320
0.30
312
0.33
290
0.29
291
0.37
283
0.34
281
STTStereotwo views0.78
200
0.50
291
1.22
286
0.64
249
0.54
260
0.89
204
0.54
191
1.44
186
1.11
176
1.38
270
1.09
125
1.27
246
0.85
187
1.43
167
0.83
235
0.29
273
0.27
294
0.33
290
0.39
334
0.32
264
0.30
259
RPtwo views1.09
288
0.50
291
1.12
274
0.90
357
1.04
367
1.11
252
0.84
288
1.80
272
1.62
334
1.55
310
2.00
336
1.90
330
1.78
353
1.84
233
1.25
290
0.52
356
0.36
340
0.48
347
0.36
328
0.45
322
0.43
314
edge stereotwo views1.11
294
0.50
291
1.30
299
0.71
301
0.65
302
1.14
257
0.75
265
1.93
305
1.37
293
1.71
328
1.83
319
2.54
366
1.44
323
2.43
283
1.23
288
0.42
332
0.41
353
0.54
358
0.35
324
0.42
307
0.46
322
SDNRtwo views1.62
345
0.51
294
2.17
361
0.53
121
0.56
267
3.80
394
0.45
137
1.54
213
1.29
257
1.33
255
2.41
358
1.08
196
0.96
235
11.18
414
1.16
281
0.66
372
0.63
383
0.43
337
0.32
309
0.64
357
0.67
361
GwcNetcopylefttwo views1.08
286
0.51
294
2.33
366
0.79
325
1.18
378
1.76
331
0.70
259
1.68
241
1.47
319
1.41
278
1.64
295
1.74
321
1.04
262
2.20
268
1.41
315
0.30
277
0.29
308
0.29
257
0.27
263
0.30
252
0.35
286
FADNet_RVCtwo views0.83
219
0.51
294
1.83
349
0.54
136
0.42
194
1.19
271
0.46
144
1.51
202
1.09
170
0.89
79
1.24
178
0.91
138
0.87
198
2.11
260
1.11
276
0.27
255
0.22
257
0.31
270
0.28
280
0.43
312
0.38
298
AF-Nettwo views1.13
299
0.52
297
1.33
305
0.86
347
0.91
357
1.38
296
0.71
261
2.16
346
1.62
334
1.56
311
2.40
357
1.99
341
1.65
343
1.81
232
1.48
326
0.48
351
0.28
300
0.49
349
0.33
315
0.39
295
0.32
275
AANet_RVCtwo views1.16
306
0.52
297
1.49
326
0.65
261
0.45
212
0.75
158
0.69
257
1.42
179
1.55
331
1.34
258
1.87
326
1.53
291
0.78
159
7.43
390
1.38
307
0.25
232
0.17
182
0.19
51
0.16
60
0.22
154
0.26
227
PSMNet_ROBtwo views0.90
242
0.52
297
1.17
281
0.72
304
0.61
291
1.27
281
1.12
335
1.76
261
1.12
180
1.09
125
1.28
195
1.45
277
0.89
208
1.65
203
1.42
319
0.33
294
0.25
282
0.37
317
0.39
334
0.35
273
0.29
247
APVNettwo views1.06
281
0.53
300
1.42
312
0.84
340
0.79
339
1.92
345
0.82
286
1.90
294
1.08
164
1.08
120
1.43
243
1.56
295
1.13
284
3.07
304
1.58
330
0.31
284
0.34
327
0.42
335
0.36
328
0.36
279
0.37
292
FINETtwo views0.97
261
0.54
301
1.60
332
0.63
240
0.79
339
1.08
249
1.07
330
1.56
218
2.20
367
1.15
158
1.49
261
0.94
150
0.88
202
2.32
275
1.05
264
0.42
332
0.35
335
0.32
283
0.28
280
0.43
312
0.38
298
NCC-stereotwo views1.10
291
0.54
301
1.24
290
0.84
340
0.94
361
1.29
284
0.89
299
2.01
321
1.34
278
1.32
247
1.74
308
1.88
326
1.74
350
2.35
277
1.25
290
0.45
343
0.37
342
0.45
341
0.58
369
0.42
307
0.42
310
Abc-Nettwo views1.10
291
0.54
301
1.24
290
0.84
340
0.94
361
1.29
284
0.89
299
2.01
321
1.34
278
1.32
247
1.74
308
1.88
326
1.74
350
2.35
277
1.25
290
0.45
343
0.37
342
0.45
341
0.58
369
0.42
307
0.42
310
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Anonymous_2two views1.30
317
0.55
304
0.82
179
0.52
112
0.58
278
1.01
238
0.64
241
1.25
152
0.97
119
0.96
92
0.78
46
1.33
258
1.29
309
1.03
100
0.74
205
0.62
368
0.64
384
1.06
383
9.63
420
1.16
380
0.49
332
ADCReftwo views1.35
323
0.55
304
2.37
368
0.72
304
0.77
334
1.94
347
0.78
273
1.91
298
1.27
248
1.57
315
1.59
283
1.36
263
1.41
320
1.54
187
7.53
392
0.23
192
0.20
227
0.32
283
0.30
299
0.29
243
0.29
247
NaN_ROBtwo views1.13
299
0.55
304
1.15
278
0.64
249
0.48
227
1.61
317
2.03
388
1.72
248
1.48
320
2.09
356
1.27
191
1.40
267
1.08
274
3.94
324
1.30
298
0.28
265
0.34
327
0.28
249
0.28
280
0.30
252
0.33
279
sAnonymous2two views0.55
79
0.56
307
1.46
319
0.60
208
0.51
246
0.48
21
0.52
181
0.79
14
0.68
45
0.50
28
0.67
26
0.46
16
0.62
113
0.59
15
0.40
60
0.22
169
0.17
182
0.22
124
0.21
175
0.86
370
0.56
343
CroCo_RVCtwo views0.55
79
0.56
307
1.46
319
0.60
208
0.51
246
0.48
21
0.52
181
0.79
14
0.68
45
0.50
28
0.67
26
0.46
16
0.62
113
0.59
15
0.40
60
0.22
169
0.17
182
0.22
124
0.21
175
0.86
370
0.56
343
NCCL2two views1.00
270
0.56
307
1.06
259
0.75
317
0.57
270
1.31
286
1.72
370
1.77
264
1.36
289
1.50
299
1.17
160
1.91
331
1.17
287
1.54
187
1.29
297
0.35
309
0.31
318
0.45
341
0.44
346
0.40
299
0.40
302
MeshStereopermissivetwo views2.26
373
0.56
307
0.92
217
0.61
220
0.49
230
2.60
374
1.02
325
3.18
387
2.05
363
7.40
413
4.98
393
7.58
403
2.98
389
6.37
371
1.96
347
0.43
337
0.43
356
0.45
341
0.39
334
0.43
312
0.42
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ADCLtwo views1.72
355
0.57
311
3.66
383
0.67
276
0.61
291
2.61
375
1.85
378
1.96
310
1.67
338
1.90
347
1.83
319
2.06
349
1.90
362
2.13
261
9.15
400
0.26
246
0.24
275
0.34
300
0.32
309
0.38
291
0.35
286
PA-Nettwo views1.01
274
0.57
311
1.29
298
0.64
249
0.74
324
1.19
271
0.84
288
1.69
243
1.43
314
1.16
169
1.19
165
1.32
257
1.19
293
3.42
316
1.25
290
0.29
273
0.45
363
0.33
290
0.49
358
0.32
264
0.47
325
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
SANettwo views1.88
360
0.57
311
2.18
363
0.63
240
0.40
185
2.80
380
1.57
366
2.39
372
5.88
404
2.36
366
3.57
377
3.72
384
2.97
388
4.74
337
1.76
337
0.34
302
0.30
312
0.32
283
0.29
291
0.48
328
0.37
292
HBP-ISPtwo views0.96
255
0.58
314
0.72
120
0.61
220
0.46
222
1.64
321
0.76
268
1.86
286
1.28
253
1.30
235
1.53
268
0.86
125
0.94
225
3.27
312
0.69
192
0.45
343
0.44
359
0.54
358
0.48
355
0.47
325
0.40
302
Wz-Net-MNSevtwo views1.11
294
0.58
314
2.23
364
0.66
266
0.71
317
1.95
348
1.46
359
1.98
315
1.45
317
1.79
337
1.43
243
1.49
286
1.33
316
1.97
249
1.42
319
0.27
255
0.23
266
0.28
249
0.28
280
0.34
272
0.31
269
PS-NSSStwo views0.99
266
0.58
314
0.93
219
0.58
184
0.57
270
0.91
208
0.80
282
1.81
276
1.14
192
1.14
155
1.67
302
1.00
171
0.83
182
4.62
336
0.78
218
0.37
316
0.31
318
0.52
352
0.32
309
0.45
322
0.38
298
SuperBtwo views2.53
383
0.59
317
18.45
413
0.69
289
0.50
236
1.87
344
0.88
297
1.67
240
2.39
370
1.50
299
1.42
239
1.14
216
1.15
286
4.28
331
5.07
382
0.24
207
0.19
210
0.22
124
0.19
110
7.86
420
0.34
281
MANEtwo views6.19
405
0.59
317
1.03
252
0.93
363
1.22
381
13.38
417
2.69
402
12.81
418
17.94
420
8.21
414
10.82
412
14.72
415
11.68
413
11.39
415
11.90
406
0.59
365
0.50
372
0.52
352
1.76
406
0.55
343
0.54
339
FC-DCNNcopylefttwo views2.72
390
0.59
317
0.86
189
0.73
311
0.57
270
2.91
381
1.04
327
3.01
385
2.60
378
6.83
409
7.64
404
9.92
410
6.33
409
5.21
346
3.14
368
0.53
362
0.48
368
0.51
351
0.50
360
0.53
340
0.51
337
DPSNettwo views1.69
351
0.59
317
4.33
386
0.70
294
0.57
270
2.02
353
1.62
368
3.35
390
1.78
346
1.48
296
1.38
230
2.17
351
2.84
386
4.77
338
3.66
374
0.48
351
0.31
318
0.29
257
0.25
242
0.64
357
0.48
328
CSANtwo views1.41
330
0.59
317
1.26
293
0.70
294
0.50
236
1.76
331
1.78
373
1.77
264
1.90
355
2.35
364
2.32
352
1.92
334
1.94
364
5.56
357
1.49
327
0.43
337
0.35
335
0.40
331
0.41
340
0.43
312
0.41
306
LALA_ROBtwo views1.01
274
0.59
317
1.16
279
0.67
276
0.51
246
1.63
319
1.26
350
1.69
243
1.38
297
1.81
340
1.37
226
1.94
336
1.02
259
1.58
195
1.38
307
0.37
316
0.27
294
0.43
337
0.37
331
0.43
312
0.37
292
MSMD_ROBtwo views1.99
367
0.59
317
0.89
207
0.70
294
0.61
291
3.95
396
0.94
312
1.80
272
1.79
347
4.41
398
4.43
384
8.17
406
3.66
395
3.40
314
1.33
300
0.52
356
0.48
368
0.54
358
0.58
369
0.53
340
0.50
333
TRStereotwo views0.60
103
0.60
324
0.97
230
0.74
313
0.67
306
0.46
19
0.38
71
1.85
283
0.89
90
0.79
62
0.80
53
0.88
132
0.39
15
1.10
114
0.41
67
0.23
192
0.15
126
0.23
152
0.24
231
0.17
25
0.15
27
GMStereo_Zeroshotpermissivetwo views0.67
150
0.61
325
1.01
242
0.64
249
0.37
155
0.84
199
0.35
48
1.05
88
1.12
180
1.12
139
1.06
114
1.27
246
0.54
70
1.19
125
0.59
166
0.32
289
0.17
182
0.31
270
0.18
90
0.52
338
0.22
167
FADNettwo views0.92
247
0.61
325
1.81
346
0.62
232
0.55
266
0.96
227
0.57
220
1.78
268
1.33
275
0.93
85
1.01
93
1.36
263
1.01
254
2.71
293
0.75
208
0.33
294
0.34
327
0.31
270
0.34
320
0.59
350
0.40
302
DANettwo views1.08
286
0.61
325
1.32
303
0.85
345
0.72
319
1.37
293
0.51
172
1.54
213
1.15
201
1.78
334
1.54
270
2.01
343
1.11
279
2.90
299
2.00
349
0.33
294
0.30
312
0.40
331
0.30
299
0.44
319
0.45
318
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
FBW_ROBtwo views1.71
354
0.62
328
1.45
317
0.67
276
0.61
291
1.81
337
1.08
331
2.52
377
1.70
340
1.77
333
1.73
307
1.98
340
1.25
304
12.57
416
1.84
340
0.34
302
0.37
342
0.56
365
0.38
333
0.45
322
0.43
314
FCDSN-DCtwo views2.32
375
0.63
329
0.81
177
0.84
340
0.75
330
2.23
361
0.94
312
2.09
335
1.80
348
5.45
407
7.72
405
7.77
405
6.93
411
3.39
313
1.80
339
0.52
356
0.48
368
0.52
352
0.51
362
0.57
346
0.58
348
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
G-Nettwo views1.66
347
0.63
329
1.56
329
1.11
376
0.74
324
2.98
383
0.91
304
1.55
217
1.22
226
2.76
378
8.18
408
2.32
358
2.53
383
1.92
242
1.87
341
0.48
351
0.44
359
0.45
341
0.31
303
0.60
354
0.57
347
ETE_ROBtwo views0.96
255
0.64
331
1.16
279
0.69
289
0.48
227
1.14
257
1.13
336
1.77
264
1.19
214
1.91
348
1.45
248
1.73
319
1.05
266
1.60
198
1.14
279
0.32
289
0.26
286
0.38
320
0.34
320
0.39
295
0.41
306
PDISCO_ROBtwo views1.32
320
0.65
332
1.44
313
1.36
380
1.46
386
2.55
372
0.92
306
2.45
375
2.07
364
1.37
265
1.49
261
1.65
311
1.00
252
2.82
295
1.35
305
1.01
379
0.27
294
0.54
358
0.47
353
0.71
366
0.73
367
dadtwo views0.86
232
0.66
333
1.06
259
0.56
167
0.37
155
0.76
163
0.44
126
1.17
125
1.50
323
1.44
285
1.27
191
1.34
262
0.75
142
2.52
286
0.84
238
0.42
332
0.27
294
0.83
375
0.26
255
0.41
302
0.29
247
Wz-Net-LNSevtwo views1.03
277
0.67
334
2.71
377
0.64
249
0.84
350
1.75
329
1.00
322
1.80
272
1.32
272
1.28
223
1.25
182
1.65
311
1.22
300
1.39
160
1.40
311
0.28
265
0.26
286
0.24
172
0.23
220
0.33
270
0.32
275
ccnettwo views1.12
296
0.67
334
1.01
242
0.78
324
0.73
322
1.72
327
0.99
320
1.84
282
1.26
241
1.47
290
1.85
323
1.75
324
1.29
309
1.75
221
1.88
343
0.57
364
0.53
375
0.57
367
0.55
366
0.59
350
0.54
339
FADNet-RVCtwo views0.88
237
0.67
334
1.93
353
0.60
208
0.48
227
0.91
208
0.60
234
1.71
247
1.18
211
0.90
80
0.96
75
1.36
263
0.92
214
2.25
272
1.17
283
0.30
277
0.29
308
0.32
283
0.32
309
0.41
302
0.35
286
Syn2CoExtwo views1.14
301
0.69
337
1.66
335
0.80
328
0.67
306
1.40
298
0.88
297
2.06
331
1.54
329
1.25
214
1.58
282
1.42
270
1.50
332
4.09
326
1.40
311
0.36
312
0.32
325
0.34
300
0.29
291
0.29
243
0.34
281
psmorigintwo views1.52
337
0.69
337
10.52
406
0.68
286
0.59
285
1.13
256
0.70
259
1.57
219
1.19
214
1.99
351
1.79
315
2.26
354
1.47
328
2.09
258
1.36
306
0.39
323
0.40
351
0.34
300
0.33
315
0.43
312
0.56
343
ADCPNettwo views1.85
359
0.69
337
8.07
399
0.71
301
0.58
278
2.79
379
1.22
345
1.94
307
1.54
329
1.88
344
1.69
303
2.46
365
2.04
368
2.37
279
6.48
387
0.38
320
0.37
342
0.38
320
0.43
344
0.47
325
0.45
318
XX-TBDtwo views0.46
26
0.70
340
0.35
1
0.79
325
0.25
18
0.58
76
0.26
10
0.69
5
1.27
248
0.76
55
1.00
88
0.45
15
0.33
10
0.47
3
0.37
39
0.19
92
0.15
126
0.15
3
0.11
6
0.17
25
0.14
11
SHDtwo views1.31
318
0.71
341
2.34
367
0.86
347
0.75
330
1.77
334
0.65
243
2.22
358
2.50
377
2.40
368
1.71
305
1.91
331
1.60
339
1.93
245
2.37
357
0.38
320
0.31
318
0.38
320
0.40
338
0.48
328
0.50
333
RTSCtwo views1.29
315
0.73
342
2.44
369
0.83
339
0.57
270
1.85
342
0.65
243
1.88
289
2.00
360
2.20
359
1.66
299
1.60
302
1.26
306
2.33
276
3.92
376
0.32
289
0.23
266
0.27
239
0.29
291
0.37
283
0.37
292
ADCMidtwo views1.89
363
0.73
342
5.06
389
0.72
304
0.67
306
2.00
352
1.14
337
1.97
314
1.48
320
2.86
381
1.81
318
2.37
360
2.05
370
2.24
270
10.39
404
0.33
294
0.31
318
0.39
326
0.43
344
0.50
332
0.44
316
DeepPrunerFtwo views1.60
342
0.73
342
5.81
394
0.88
353
1.19
379
0.91
208
0.95
314
2.19
354
5.24
402
1.17
178
1.30
199
1.19
223
1.30
313
4.90
341
1.66
335
0.42
332
0.34
327
0.52
352
0.47
353
0.41
302
0.40
302
ELAS_RVCcopylefttwo views2.48
382
0.74
345
1.90
351
1.05
371
0.92
359
2.76
377
4.01
410
2.76
380
4.11
396
4.69
401
4.63
388
4.62
388
5.96
407
3.97
325
3.96
377
0.63
370
0.53
375
0.56
365
0.52
363
0.64
357
0.63
356
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views2.37
377
0.74
345
1.54
328
0.99
367
0.92
359
4.78
402
2.33
398
3.33
389
3.37
389
5.05
406
4.77
391
3.67
382
4.53
402
3.42
316
4.50
380
0.62
368
0.53
375
0.55
362
0.53
364
0.63
355
0.64
360
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
Anonymous Stereotwo views1.28
314
0.75
347
2.45
370
0.74
313
0.77
334
0.93
217
1.77
372
1.51
202
1.31
267
1.67
325
1.29
198
1.20
224
0.75
142
6.29
370
1.68
336
0.37
316
0.36
340
0.38
320
0.40
338
0.43
312
0.45
318
PWCDC_ROBbinarytwo views1.29
315
0.75
347
1.33
305
1.05
371
0.88
356
1.73
328
0.52
181
1.89
291
3.28
387
1.29
228
4.88
392
1.22
227
1.46
326
1.77
228
1.45
323
0.60
366
0.26
286
0.29
257
0.25
242
0.52
338
0.37
292
DGSMNettwo views1.14
301
0.76
349
2.49
372
0.81
331
0.86
353
1.39
297
1.39
355
2.13
337
1.35
286
1.26
218
1.63
294
1.48
285
0.98
242
1.75
221
1.10
274
0.45
343
0.43
356
0.55
362
0.49
358
0.75
368
0.70
364
PWC_ROBbinarytwo views1.24
310
0.76
349
2.46
371
0.72
304
0.78
337
1.15
262
0.49
165
1.75
255
1.92
356
2.31
361
3.07
370
1.59
300
1.40
319
2.46
284
2.10
353
0.33
294
0.22
257
0.35
307
0.24
231
0.38
291
0.41
306
aanetorigintwo views1.23
309
0.79
351
2.78
379
0.70
294
0.79
339
0.99
235
1.06
329
1.06
101
1.37
293
3.52
389
2.61
363
1.72
318
1.63
341
1.99
250
1.78
338
0.25
232
0.24
275
0.26
228
0.25
242
0.38
291
0.45
318
RGCtwo views1.14
301
0.79
351
1.26
293
0.91
360
0.96
364
1.52
310
0.77
271
1.92
301
1.26
241
1.54
307
1.93
332
2.02
345
1.54
333
2.25
272
1.31
299
0.44
342
0.35
335
0.58
368
0.48
355
0.47
325
0.46
322
MFN_U_SF_RVCtwo views1.52
337
0.84
353
3.42
381
0.87
352
0.66
304
2.56
373
0.95
314
2.36
369
1.70
340
1.98
350
1.86
324
2.45
364
1.79
354
2.95
300
2.58
359
0.52
356
0.48
368
0.55
362
0.59
372
0.59
350
0.61
354
PVDtwo views1.70
352
0.84
353
2.26
365
0.94
365
0.83
349
2.48
370
0.97
316
2.59
379
3.35
388
3.01
386
2.77
366
2.34
359
2.47
382
2.67
292
3.14
368
0.47
350
0.45
363
0.59
369
0.48
355
0.59
350
0.75
369
SAMSARAtwo views1.55
339
0.84
353
2.61
374
1.22
379
1.07
368
2.50
371
1.93
383
2.05
326
1.89
353
2.75
377
1.66
299
2.81
373
1.69
348
3.08
306
1.97
348
0.46
349
0.51
373
0.42
335
0.46
351
0.58
348
0.59
350
GANetREF_RVCpermissivetwo views1.07
283
0.86
356
1.31
300
0.82
336
0.53
257
1.41
302
1.31
352
1.76
261
1.52
326
1.27
221
1.31
204
1.46
279
1.24
303
2.03
253
0.96
257
0.56
363
0.45
363
0.67
370
0.50
360
0.88
372
0.59
350
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
MFN_U_SF_DS_RVCtwo views1.74
356
0.87
357
3.56
382
0.80
328
0.75
330
3.72
391
2.44
401
1.82
277
1.82
350
1.74
330
1.91
330
1.92
334
1.26
306
7.69
394
1.28
296
0.45
343
0.47
367
0.52
352
0.77
378
0.50
332
0.50
333
XQCtwo views1.37
325
0.87
357
2.56
373
0.84
340
0.69
314
1.83
340
0.89
299
2.07
332
1.88
352
1.88
344
1.53
268
1.91
331
1.55
335
2.85
298
3.05
365
0.48
351
0.29
308
0.44
340
0.39
334
0.69
364
0.60
353
SQANettwo views1.31
318
0.88
359
1.08
266
1.83
388
1.44
385
1.44
304
0.75
265
1.74
253
1.09
170
1.32
247
1.26
188
1.28
249
1.01
254
1.50
180
0.83
235
2.50
394
0.34
327
1.47
386
0.55
366
2.32
389
1.57
389
PASMtwo views1.34
322
0.92
360
2.62
375
0.86
347
0.87
355
1.03
240
1.08
331
1.50
197
1.51
325
1.82
341
1.41
238
1.68
314
1.26
306
4.87
340
1.34
302
0.61
367
0.65
386
0.68
371
0.78
379
0.69
364
0.68
363
WZ-Nettwo views1.95
364
0.95
361
10.10
403
0.86
347
0.78
337
1.69
324
1.60
367
2.20
357
1.98
359
2.08
355
1.93
332
2.30
356
1.97
365
5.30
347
3.17
370
0.34
302
0.26
286
0.29
257
0.31
303
0.51
336
0.47
325
GASNettwo views0.99
266
0.97
362
1.72
340
0.98
366
0.68
312
0.83
192
0.67
251
1.60
224
1.28
253
1.31
245
1.22
172
1.22
227
1.21
299
2.41
282
1.41
315
0.43
337
0.26
286
0.36
315
0.34
320
0.55
343
0.31
269
anonymitytwo views1.12
296
0.97
362
1.21
284
1.07
374
1.12
373
1.08
249
0.89
299
1.95
309
1.16
205
1.29
228
1.26
188
1.22
227
1.09
277
1.15
122
1.01
262
1.02
381
1.00
402
0.97
379
0.97
389
0.98
374
0.99
377
Consistency-Rafttwo views1.25
312
0.99
364
1.93
353
1.02
370
1.21
380
0.96
227
1.01
324
1.75
255
1.92
356
1.36
263
2.12
344
1.44
275
1.01
254
1.14
121
1.40
311
0.72
373
0.82
389
0.89
377
0.98
391
1.31
384
0.95
375
ADCStwo views2.25
372
0.99
364
5.55
391
0.81
331
0.74
324
2.19
360
1.80
374
2.27
362
2.14
365
2.80
380
2.13
345
2.40
362
2.03
367
2.64
291
13.69
408
0.41
329
0.39
349
0.40
331
0.45
348
0.58
348
0.56
343
MaskLacGwcNet_RVCtwo views1.10
291
1.02
366
1.00
238
0.82
336
0.67
306
1.93
346
0.93
310
1.62
230
1.11
176
1.15
158
1.25
182
1.50
287
0.79
161
1.96
248
0.76
210
1.89
389
0.34
327
0.79
374
0.36
328
1.25
383
0.83
371
SPS-STEREOcopylefttwo views1.67
348
1.04
367
1.23
287
1.21
378
1.13
375
1.82
339
1.11
333
2.16
346
1.52
326
3.07
388
2.32
352
2.82
374
1.80
355
4.11
327
2.04
350
1.03
382
0.99
401
0.97
379
0.94
387
1.03
378
1.02
378
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
NVStereoNet_ROBtwo views1.88
360
1.07
368
1.45
317
1.07
374
1.17
376
1.47
305
1.48
361
1.89
291
1.93
358
1.94
349
4.67
390
3.08
378
1.80
355
6.51
373
1.65
333
1.06
384
0.86
396
1.08
384
1.32
396
0.93
373
1.26
386
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SGM+DAISYtwo views2.41
380
1.07
368
2.14
360
1.18
377
1.10
370
2.14
359
1.36
354
1.96
310
1.66
337
5.46
408
7.07
400
4.95
393
4.32
401
5.50
354
2.26
356
1.04
383
1.02
404
0.99
381
0.97
389
1.02
377
1.04
380
EDNetEfficienttwo views2.37
377
1.10
370
8.08
400
0.74
313
0.71
317
0.98
234
1.56
364
1.46
189
4.06
395
4.90
403
2.82
367
2.25
353
3.48
393
2.95
300
9.97
401
0.26
246
0.24
275
0.26
228
0.30
299
0.68
363
0.61
354
AnyNet_C32two views1.96
365
1.10
370
5.17
390
0.90
357
1.11
371
2.12
358
2.37
399
1.85
283
1.48
320
2.45
369
1.70
304
2.05
348
1.64
342
2.50
285
10.28
403
0.37
316
0.34
327
0.35
307
0.41
340
0.49
331
0.54
339
LSMtwo views6.33
406
1.10
370
13.19
409
1.41
384
68.17
433
1.64
321
1.90
382
1.92
301
2.46
372
2.99
384
3.11
371
1.88
326
1.80
355
2.61
290
2.06
352
0.41
329
0.58
381
0.50
350
0.57
368
0.64
357
17.66
425
otakutwo views1.60
342
1.11
373
1.21
284
2.20
390
1.56
387
1.97
349
1.24
346
2.07
332
1.36
289
1.44
285
1.62
291
1.73
319
1.19
293
1.73
220
0.98
260
2.89
398
0.57
380
1.74
387
0.60
373
2.78
394
1.94
394
AnonymousMtwo views0.59
100
1.11
373
0.41
9
0.44
23
0.32
108
0.43
14
0.47
150
1.05
88
0.64
28
0.98
99
0.63
22
0.67
69
0.43
24
0.59
15
0.41
67
0.20
119
0.15
126
1.84
390
0.84
382
0.14
2
0.13
3
MFMNet_retwo views1.40
329
1.14
375
1.68
336
1.39
382
1.07
368
1.48
306
1.43
357
1.87
287
1.82
350
2.26
360
2.19
347
1.51
289
1.86
359
1.52
181
1.25
290
0.93
377
0.83
390
0.84
376
0.80
380
0.99
376
1.05
382
Ntrotwo views1.64
346
1.15
376
1.23
287
2.48
395
1.83
389
2.09
356
1.16
340
1.96
310
1.38
297
1.21
194
1.62
291
1.62
304
1.29
309
1.87
239
1.11
276
3.04
399
0.56
379
1.82
389
0.64
374
2.80
395
2.05
395
MSC_U_SF_DS_RVCtwo views2.12
369
1.15
376
3.10
380
1.05
371
0.76
333
5.03
405
2.40
400
2.16
346
2.62
379
1.89
346
2.28
351
2.69
371
1.65
343
9.35
406
2.04
350
0.64
371
0.51
373
0.68
371
0.71
376
1.09
379
0.67
361
UDGNettwo views0.72
163
1.17
378
0.80
176
0.77
322
0.41
191
0.77
169
0.38
71
0.97
61
1.34
278
0.81
68
0.88
63
0.71
81
0.60
99
1.21
127
0.54
153
0.52
356
0.19
210
1.02
382
0.26
255
0.71
366
0.31
269
Wz-Net-SNSevtwo views1.49
333
1.23
379
6.27
396
0.68
286
0.67
306
1.37
293
1.41
356
2.00
317
1.39
301
1.48
296
1.61
288
2.29
355
1.32
315
3.93
323
2.14
354
0.31
284
0.28
300
0.31
270
0.33
315
0.42
307
0.36
290
CC-Net-ROBtwo views1.49
333
1.26
380
1.27
296
0.88
353
0.79
339
1.76
331
1.00
322
1.79
270
1.26
241
1.10
133
1.61
288
1.21
225
0.99
250
8.13
398
0.84
238
1.09
385
0.41
353
2.20
391
0.46
351
1.20
382
0.48
328
RTStwo views2.67
385
1.38
381
15.28
411
0.99
367
1.26
382
3.78
392
1.96
385
2.15
343
2.62
379
2.61
372
2.85
368
2.60
368
1.59
337
6.27
368
5.71
385
0.40
325
0.28
300
0.35
307
0.35
324
0.50
332
0.48
328
RTSAtwo views2.67
385
1.38
381
15.28
411
0.99
367
1.26
382
3.78
392
1.96
385
2.15
343
2.62
379
2.61
372
2.85
368
2.60
368
1.59
337
6.27
368
5.71
385
0.40
325
0.28
300
0.35
307
0.35
324
0.50
332
0.48
328
WAO-7two views2.66
384
1.40
383
1.73
342
1.39
382
1.17
376
3.93
395
1.94
384
4.11
396
3.88
394
2.92
382
5.50
394
4.18
386
3.00
390
7.63
393
3.71
375
1.13
387
1.00
402
1.17
385
1.13
395
1.18
381
1.09
384
ACVNet_2two views2.43
381
1.41
384
2.04
355
2.62
396
2.24
395
2.63
376
1.88
381
3.31
388
3.01
384
2.19
358
3.45
376
4.62
388
2.04
368
4.50
334
1.47
325
2.55
395
0.64
384
2.22
392
0.84
382
2.69
393
2.29
398
ACVNet-4btwo views2.15
370
1.41
384
1.64
333
2.80
397
2.31
398
2.31
365
1.24
346
2.32
365
2.14
365
1.26
218
2.39
356
2.66
370
1.48
329
5.95
366
1.06
266
3.20
403
0.45
363
2.37
395
0.89
384
2.83
398
2.37
399
ACVNet_1two views2.18
371
1.45
386
1.72
340
2.85
399
2.33
399
2.28
363
1.46
359
3.08
386
2.22
368
1.82
341
2.05
341
3.56
381
1.98
366
3.09
307
1.40
311
3.17
400
0.60
382
2.40
399
0.92
386
2.91
401
2.37
399
EDNetEfficientorigintwo views10.57
413
1.47
387
177.42
438
0.67
276
0.53
257
1.58
315
1.16
340
1.90
294
3.37
389
4.71
402
3.38
374
3.10
379
2.69
385
3.13
308
3.58
373
0.25
232
0.23
266
0.33
290
0.27
263
0.83
369
0.81
370
Deantwo views2.91
393
1.53
388
2.07
356
2.96
403
2.51
401
3.15
384
2.14
392
4.75
401
4.41
399
2.76
378
6.10
396
5.53
396
2.37
378
2.97
302
1.92
345
3.18
401
0.85
394
2.51
402
1.04
394
2.88
400
2.47
402
WAO-6two views2.81
391
1.60
389
1.46
319
2.36
394
2.28
397
3.55
389
2.29
397
4.21
397
4.56
400
2.36
366
4.51
385
4.88
392
2.66
384
4.60
335
4.07
379
1.72
388
1.15
408
2.31
394
1.46
402
2.31
388
1.85
392
LVEtwo views3.31
395
1.67
390
1.64
333
2.85
399
2.42
400
3.20
386
2.26
396
4.78
402
5.05
401
2.35
364
6.91
398
6.02
398
2.37
378
9.15
402
2.17
355
3.19
402
1.08
407
2.38
397
1.47
403
2.81
396
2.40
401
RainbowNettwo views1.97
366
1.76
391
1.57
330
2.81
398
2.21
394
1.98
351
1.81
375
2.54
378
1.89
353
1.50
299
1.84
321
1.96
338
1.65
343
2.14
262
1.25
290
3.33
405
0.85
394
2.39
398
0.98
391
2.82
397
2.22
396
AnyNet_C01two views2.26
373
1.78
392
10.22
405
0.93
363
0.74
324
2.92
382
2.20
394
2.29
364
1.80
348
2.53
371
2.41
358
2.71
372
1.73
349
3.41
315
6.72
389
0.41
329
0.39
349
0.40
331
0.42
342
0.67
362
0.63
356
IMH-64-1two views2.70
388
1.79
393
1.46
319
3.26
406
2.66
402
3.23
387
2.10
389
4.08
394
2.75
382
2.34
362
3.81
380
3.06
376
2.22
375
4.25
329
2.59
360
3.75
409
0.84
391
2.75
405
1.35
397
3.15
403
2.60
405
IMH-64two views2.70
388
1.79
393
1.46
319
3.26
406
2.66
402
3.23
387
2.10
389
4.08
394
2.75
382
2.34
362
3.81
380
3.06
376
2.22
375
4.25
329
2.59
360
3.75
409
0.84
391
2.75
405
1.35
397
3.15
403
2.60
405
WAO-8two views4.40
398
1.82
395
1.79
344
2.34
392
2.20
392
9.19
410
1.53
362
6.09
408
16.46
414
3.94
392
7.84
406
7.32
400
3.72
397
9.41
408
3.31
371
2.00
390
1.07
405
2.44
400
1.37
400
2.50
390
1.68
390
Venustwo views4.40
398
1.82
395
1.79
344
2.34
392
2.20
392
9.19
410
1.53
362
6.09
408
16.46
414
3.94
392
7.84
406
7.32
400
3.72
397
9.41
408
3.31
371
2.00
390
1.07
405
2.44
400
1.37
400
2.50
390
1.68
390
IMHtwo views3.21
394
1.85
397
1.48
324
3.25
405
2.69
404
4.07
398
2.02
387
4.41
399
3.80
393
2.72
375
7.11
401
4.75
391
2.92
387
5.92
364
2.55
358
3.85
412
0.88
397
2.78
407
1.36
399
3.19
405
2.59
404
JetBluetwo views3.97
396
2.01
398
10.19
404
1.38
381
2.84
406
10.53
413
9.54
413
3.60
392
2.41
371
2.73
376
3.39
375
4.54
387
4.31
400
7.85
397
6.84
390
0.88
375
0.93
400
0.89
377
0.91
385
1.74
385
1.91
393
TorneroNet-64two views5.30
404
2.03
399
1.74
343
3.43
408
2.81
405
10.09
412
2.12
391
9.10
415
17.12
419
4.96
405
9.27
411
10.72
414
3.70
396
9.20
403
4.55
381
3.31
404
0.84
391
2.88
408
1.55
404
3.49
406
3.04
408
TorneroNettwo views10.70
414
2.03
399
1.82
347
3.43
408
3.01
407
43.83
429
2.22
395
8.87
414
67.47
438
7.17
412
27.36
423
10.68
413
3.85
399
8.67
401
7.65
397
3.59
407
0.88
397
3.04
409
1.57
405
3.71
407
3.17
409
PWCKtwo views2.88
392
2.05
401
5.72
393
2.08
389
1.11
371
3.55
389
3.90
409
2.86
383
3.54
392
3.03
387
3.63
378
3.10
379
2.31
377
8.15
400
3.09
366
2.12
392
0.91
399
1.75
388
0.98
391
2.57
392
1.18
385
KSHMRtwo views8.75
412
2.06
402
2.11
358
3.53
410
3.11
408
4.13
399
2.69
402
5.60
405
61.37
437
3.00
385
55.83
437
4.98
395
2.45
381
4.49
333
2.61
362
3.46
406
1.55
412
3.14
411
1.94
409
3.72
408
3.18
410
Wz-Net-TNSevtwo views1.88
360
2.08
403
7.66
397
0.67
276
0.64
299
2.42
369
1.83
377
2.33
366
1.74
345
1.57
315
1.56
276
2.58
367
1.90
362
4.86
339
3.12
367
0.39
323
0.37
342
0.33
290
0.37
331
0.53
340
0.58
348
coex-fttwo views8.13
411
2.13
404
98.04
437
0.67
276
0.53
257
1.71
325
1.56
364
1.65
234
11.11
409
18.17
423
3.75
379
3.88
385
7.61
412
2.98
303
6.49
388
0.30
277
0.30
312
0.32
283
0.31
303
0.66
361
0.50
333
UNDER WATER-64two views5.27
403
2.32
405
8.78
402
3.93
414
3.54
413
7.61
408
3.03
408
5.84
407
14.19
410
4.04
394
4.04
382
9.39
409
6.26
408
5.93
365
8.48
398
3.60
408
1.51
411
3.13
410
1.88
407
4.29
413
3.61
413
UNDER WATERtwo views5.08
402
2.33
406
5.55
391
3.94
415
3.51
412
5.20
406
2.72
404
5.61
406
16.52
416
3.84
391
4.60
387
9.21
408
5.89
406
5.90
363
8.66
399
3.75
409
1.34
409
3.18
412
1.88
407
4.33
414
3.61
413
ktntwo views4.70
400
2.38
407
2.12
359
3.76
411
3.24
409
4.85
403
2.95
407
5.52
404
7.37
407
4.07
396
19.32
420
7.46
402
3.47
392
7.39
388
2.95
364
4.04
413
1.85
413
3.26
413
2.22
412
3.08
402
2.65
407
notakertwo views3.98
397
2.40
408
2.68
376
3.82
413
3.27
411
3.97
397
2.14
392
4.78
402
3.45
391
4.12
397
6.94
399
7.65
404
3.26
391
7.82
396
5.30
384
4.04
413
1.41
410
3.36
414
2.10
411
3.88
409
3.31
411
UDGtwo views1.41
330
2.65
409
0.99
233
1.44
385
1.64
388
1.34
290
0.80
282
1.60
224
1.23
229
1.23
202
1.71
305
2.01
343
1.34
317
1.47
176
1.41
315
0.90
376
0.54
378
2.29
393
0.75
377
1.84
386
1.04
380
DDUNettwo views1.50
335
2.69
410
1.12
274
1.77
387
1.88
390
1.84
341
0.92
306
1.70
246
1.16
205
1.38
270
1.79
315
1.60
302
1.12
282
1.37
151
1.08
269
1.10
386
0.76
387
2.37
395
0.94
387
2.00
387
1.37
387
DispFullNettwo views2.34
376
2.85
411
3.66
383
3.08
404
2.27
396
1.97
349
0.67
251
2.00
317
1.70
340
2.52
370
2.00
336
2.23
352
5.86
405
3.44
318
1.58
330
1.01
379
0.32
325
2.64
404
1.94
409
2.85
399
2.24
397
MADNet++two views5.01
401
3.14
412
4.91
388
4.55
417
3.94
415
5.20
406
4.41
411
4.40
398
4.13
397
4.95
404
6.08
395
4.74
390
5.37
403
9.40
407
10.67
405
4.65
415
4.15
417
3.97
416
3.34
415
4.09
411
4.08
416
MADNet+two views2.69
387
3.22
413
11.53
408
1.44
385
1.12
373
3.19
385
1.81
375
2.85
382
2.37
369
1.68
326
2.07
342
2.85
375
2.18
373
7.41
389
5.23
383
0.79
374
0.76
387
0.69
373
0.65
375
0.98
374
0.95
375
HanzoNettwo views11.04
415
3.62
414
8.10
401
4.08
416
3.55
414
4.90
404
2.73
405
7.19
412
10.10
408
31.86
433
28.92
425
21.96
424
36.36
426
18.08
419
10.17
402
7.94
419
3.32
415
3.47
415
3.31
414
7.06
419
4.04
415
DPSimNet_ROBtwo views11.20
416
4.98
415
35.43
425
2.90
402
4.52
416
7.89
409
17.09
417
4.66
400
6.06
405
14.89
419
10.93
413
17.29
416
36.81
428
13.18
417
15.68
413
2.86
397
6.29
419
5.75
419
5.09
417
3.91
410
7.70
419
SPstereotwo views26.54
423
6.08
416
10.71
407
5.55
418
5.68
417
48.14
430
80.43
437
67.31
438
34.39
433
28.70
431
27.52
424
43.76
435
37.60
433
45.04
437
54.41
438
4.92
418
4.89
418
10.74
424
5.88
418
4.46
415
4.57
417
DPSMNet_ROBtwo views13.02
418
8.23
417
21.91
415
9.53
421
18.11
419
11.56
415
32.02
424
10.64
417
16.23
413
7.05
411
19.49
422
10.16
412
16.66
416
9.85
412
22.43
420
4.77
417
8.68
420
5.38
418
10.26
422
6.17
418
11.36
420
DGTPSM_ROBtwo views13.01
417
8.23
417
21.87
414
9.51
420
18.10
418
11.56
415
32.01
423
10.63
416
16.20
412
7.03
410
19.48
421
10.15
411
16.66
416
9.83
411
22.42
419
4.75
416
8.68
420
5.37
417
10.25
421
6.16
417
11.36
420
JetRedtwo views6.91
409
8.80
419
25.96
421
2.85
399
3.25
410
13.98
419
11.87
414
6.25
410
4.28
398
4.45
399
4.56
386
6.69
399
5.46
404
7.46
391
14.05
409
2.59
396
3.31
414
2.59
403
2.29
413
4.20
412
3.36
412
ASD4two views10.99
420
BEATNet-Init1two views26.87
424
13.43
421
70.68
436
0.91
360
0.68
312
57.02
437
21.06
419
32.82
429
32.67
426
52.12
437
53.61
436
66.05
437
49.56
437
48.79
438
34.71
428
0.49
355
0.44
359
0.53
357
0.53
364
0.63
355
0.59
350
Anonymous_1two views43.04
434
18.73
422
24.79
418
21.81
422
46.26
432
27.80
420
37.60
425
28.08
424
16.14
411
14.66
418
14.30
414
20.65
418
17.88
418
21.56
420
25.94
422
117.93
438
8.92
422
100.65
435
126.50
435
158.64
438
12.08
422
DPSM_ROBtwo views19.08
419
19.14
423
25.17
419
22.15
423
20.85
421
28.17
421
37.82
426
26.56
422
16.85
417
14.14
416
14.84
415
21.70
419
18.75
419
21.87
421
26.55
423
10.16
423
9.30
423
10.47
422
10.42
423
14.03
421
12.61
423
DPSMtwo views19.08
419
19.14
423
25.17
419
22.15
423
20.85
421
28.17
421
37.82
426
26.56
422
16.85
417
14.14
416
14.84
415
21.70
419
18.75
419
21.87
421
26.55
423
10.16
423
9.30
423
10.47
422
10.42
423
14.03
421
12.61
423
xxxxx1two views54.10
436
25.67
425
27.13
422
113.43
435
96.96
435
30.69
425
47.44
428
32.38
426
25.60
421
17.75
420
17.27
417
21.81
421
21.02
421
24.43
424
33.82
425
33.37
432
40.54
433
157.71
436
175.86
436
66.16
434
72.93
436
tt_lltwo views54.10
436
25.67
425
27.13
422
113.43
435
96.96
435
30.69
425
47.44
428
32.38
426
25.60
421
17.75
420
17.27
417
21.81
421
21.02
421
24.43
424
33.82
425
33.37
432
40.54
433
157.71
436
175.86
436
66.16
434
72.93
436
fftwo views54.10
436
25.67
425
27.13
422
113.43
435
96.96
435
30.69
425
47.44
428
32.38
426
25.60
421
17.75
420
17.27
417
21.81
421
21.02
421
24.43
424
33.82
425
33.37
432
40.54
433
157.71
436
175.86
436
66.16
434
72.93
436
LRCNet_RVCtwo views22.74
421
32.10
428
21.97
416
29.84
425
26.23
423
4.42
401
0.81
285
22.66
420
2.02
361
26.93
425
29.26
426
23.06
426
15.59
415
23.84
423
18.88
416
31.75
431
19.90
432
34.65
431
32.13
431
30.54
430
28.32
431
PMLtwo views51.67
435
36.25
429
13.28
410
7.46
419
20.81
420
108.69
438
232.22
439
8.72
413
27.82
425
87.01
438
269.67
439
69.67
438
61.95
438
24.76
427
14.20
410
9.74
422
3.40
416
9.62
421
4.70
416
18.74
423
4.72
418
CasAABBNettwo views38.33
425
38.46
430
50.35
430
44.75
433
41.84
427
56.68
434
76.37
432
53.22
435
33.83
428
28.31
426
29.54
427
43.62
434
37.71
434
43.84
434
53.41
433
20.30
425
18.70
427
21.07
428
21.07
426
28.24
427
25.34
426
Selective-RAFT-Errortwo views38.39
429
38.47
431
50.44
434
44.73
429
41.97
431
56.68
434
76.38
433
53.24
436
33.92
429
28.34
427
29.85
428
43.60
433
38.20
435
43.75
430
53.34
432
20.38
429
18.70
427
21.09
429
21.05
425
28.30
428
25.43
430
MyStereo03two views38.34
426
38.50
432
50.41
431
44.74
430
41.86
428
56.65
431
76.38
433
52.99
432
33.93
430
28.39
428
29.99
429
43.54
430
37.42
430
43.82
431
53.53
434
20.31
426
18.71
429
21.06
425
21.08
427
28.23
424
25.35
427
MyStereo02two views38.34
426
38.50
432
50.41
431
44.74
430
41.86
428
56.65
431
76.38
433
52.99
432
33.93
430
28.39
428
29.99
429
43.54
430
37.42
430
43.82
431
53.53
434
20.31
426
18.71
429
21.06
425
21.08
427
28.23
424
25.35
427
MyStereotwo views38.34
426
38.50
432
50.41
431
44.74
430
41.86
428
56.65
431
76.38
433
52.99
432
33.93
430
28.39
428
29.99
429
43.54
430
37.42
430
43.82
431
53.53
434
20.31
426
18.71
429
21.06
425
21.08
427
28.23
424
25.35
427
LSM0two views42.82
433
38.75
435
50.81
435
47.07
434
109.38
438
57.00
436
76.02
431
53.74
437
33.71
427
29.02
432
30.41
432
43.87
436
37.22
429
43.91
435
53.54
437
20.52
430
18.62
426
21.10
430
21.11
430
28.41
429
42.22
432
HaxPigtwo views38.92
430
41.40
436
41.64
426
29.95
426
32.27
424
28.90
423
27.60
420
29.73
425
37.71
434
43.82
434
43.87
433
33.17
427
35.56
425
41.53
428
40.37
430
43.94
435
47.51
437
45.82
432
47.08
433
42.38
431
44.15
434
AVERAGE_ROBtwo views40.43
431
42.37
437
42.73
427
36.96
428
35.58
426
30.50
424
27.61
421
36.71
431
38.39
435
44.91
435
44.36
434
37.45
429
36.70
427
41.88
429
40.35
429
45.43
436
46.81
436
47.11
433
46.35
432
42.51
432
43.87
433
MEDIAN_ROBtwo views42.00
432
44.40
438
44.29
429
35.15
427
34.95
425
31.28
428
29.60
422
35.88
430
40.02
436
47.20
436
46.64
435
37.37
428
38.48
436
44.35
436
42.45
431
48.03
437
49.39
438
49.71
434
49.03
434
45.14
433
46.65
435
DLNR_Zeroshot_testpermissivetwo views23.17
422
48.52
439
43.29
428
176.68
438
78.69
434
0.35
5
0.21
1
23.41
421
0.75
57
0.66
44
0.86
58
0.59
53
0.30
4
1.56
192
0.44
86
9.57
421
0.12
9
0.18
37
0.14
23
76.92
437
0.16
42
test_example2two views192.40
439
210.76
440
206.48
439
199.83
439
204.73
439
172.94
439
183.52
438
133.93
439
133.41
439
191.38
439
196.19
438
187.13
439
178.77
439
205.33
439
208.00
439
222.09
439
238.72
439
186.54
439
190.54
439
227.34
439
170.31
439