This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted by
NLCSMtwo views0.18
5
0.03
1
0.01
2
0.00
1
0.01
4
0.05
84
0.07
90
0.00
1
0.00
1
0.05
78
0.00
1
0.17
16
0.00
1
0.00
1
0.64
3
0.62
9
0.12
16
0.06
18
0.32
27
0.19
35
0.59
51
1.69
31
0.00
1
0.00
1
0.01
5
0.00
1
0.15
21
0.00
1
GEAStereotwo views0.39
37
0.07
25
0.33
66
0.03
30
0.03
20
0.16
143
0.01
13
0.04
40
0.01
4
0.00
1
0.00
1
0.25
50
0.01
5
0.24
168
2.28
52
1.61
83
0.16
29
0.18
55
0.73
49
0.65
148
0.40
35
2.72
63
0.18
141
0.05
28
0.19
89
0.00
1
0.21
31
0.00
1
GSStereotwo views0.43
45
0.12
43
0.35
81
0.02
17
0.02
11
0.20
166
0.01
13
0.01
3
1.23
211
0.00
1
0.05
94
0.22
44
0.03
18
0.00
1
2.12
45
1.64
91
0.50
98
0.26
75
0.50
39
0.46
93
0.51
48
2.87
70
0.15
130
0.02
10
0.18
85
0.05
50
0.10
13
0.00
1
GS-Stereotwo views0.15
130
0.02
10
0.18
85
0.05
50
0.10
13
0.00
1
gasm-ftwo views0.39
37
0.07
25
0.33
66
0.03
30
0.03
20
0.16
143
0.01
13
0.04
40
0.01
4
0.00
1
0.00
1
0.25
50
0.01
5
0.24
168
2.28
52
1.61
83
0.16
29
0.18
55
0.73
49
0.65
148
0.40
35
2.72
63
0.18
141
0.05
28
0.19
89
0.00
1
0.21
31
0.00
1
MonStereotwo views0.21
11
0.04
5
0.01
2
0.01
5
0.01
4
0.00
1
0.00
1
0.01
3
0.03
25
0.00
1
0.00
1
0.10
9
0.05
33
0.01
28
1.63
25
1.32
57
0.09
8
0.15
44
0.36
33
0.31
62
0.30
27
1.05
17
0.00
1
0.00
1
0.00
1
0.02
29
0.23
34
0.00
1
AdaDepthtwo views0.32
27
0.24
69
0.07
23
0.02
17
0.01
4
0.16
143
0.01
13
0.02
15
0.05
41
0.00
1
0.00
1
0.20
33
0.01
5
0.01
28
1.96
37
1.94
116
0.09
8
0.09
27
1.21
71
0.40
81
0.46
42
1.21
21
0.00
1
0.01
3
0.00
1
0.04
45
0.31
41
0.00
1
GASTEREOtwo views0.42
42
0.08
29
0.34
73
0.03
30
0.02
11
0.14
127
0.01
13
0.03
28
0.02
14
0.00
1
0.00
1
0.19
25
0.14
79
0.01
28
2.48
66
2.05
132
0.22
44
0.17
51
0.17
15
0.63
140
0.19
10
2.96
72
0.30
186
0.35
126
0.04
31
0.71
132
0.15
21
0.00
1
MSCFtwo views0.41
41
0.08
29
0.34
73
0.03
30
0.03
20
0.14
127
0.01
13
0.03
28
0.02
14
0.00
1
0.00
1
0.19
25
0.14
79
0.01
28
2.43
63
2.03
125
0.22
44
0.10
31
0.17
15
0.67
154
0.22
14
3.03
79
0.08
103
0.35
126
0.04
31
0.72
133
0.11
17
0.00
1
111111two views0.34
29
0.03
1
0.08
27
0.01
5
0.03
20
0.10
109
0.00
1
0.01
3
0.01
4
0.00
1
0.01
82
0.18
17
0.05
33
0.01
28
1.98
38
1.34
59
0.11
12
0.15
44
0.59
44
0.56
126
0.34
32
3.31
96
0.26
168
0.02
10
0.02
12
0.05
50
0.04
2
0.00
1
MLG-Stereo_test1two views0.20
8
0.05
11
0.01
2
0.01
5
0.01
4
0.17
154
0.01
13
0.02
15
0.02
14
0.00
1
0.00
1
0.02
1
0.05
33
0.00
1
1.42
18
1.28
51
0.03
1
0.05
14
0.33
29
0.24
46
0.23
17
1.27
24
0.00
1
0.01
3
0.02
12
0.01
11
0.07
7
0.00
1
MLG-Stereotwo views0.18
5
0.06
18
0.01
2
0.01
5
0.01
4
0.17
154
0.01
13
0.02
15
0.02
14
0.00
1
0.00
1
0.08
5
0.05
33
0.00
1
1.48
21
1.35
60
0.05
3
0.05
14
0.33
29
0.23
43
0.22
14
0.63
9
0.00
1
0.01
3
0.02
12
0.01
11
0.07
7
0.00
1
LG-Stereotwo views0.31
26
0.05
11
0.02
8
0.02
17
0.07
46
0.13
121
0.01
13
0.03
28
0.10
77
0.00
1
0.87
168
0.44
87
0.01
5
0.00
1
2.07
42
1.46
71
0.11
12
0.16
48
0.67
47
0.47
94
0.31
30
1.19
20
0.04
69
0.02
10
0.05
39
0.10
67
0.07
7
0.00
1
MM-Stereo_test2two views0.33
28
0.05
11
0.07
23
0.01
5
0.02
11
0.02
43
0.00
1
0.02
15
0.02
14
0.00
1
0.00
1
0.18
17
0.02
13
0.00
1
1.77
33
1.68
96
0.21
42
0.08
24
0.19
18
0.58
129
0.29
25
3.05
84
0.18
141
0.09
45
0.08
51
0.19
81
0.12
18
0.00
1
MM-Stereo_test1two views0.26
20
0.06
18
0.08
27
0.00
1
0.01
4
0.02
43
0.00
1
0.01
3
0.00
1
0.00
1
0.00
1
0.18
17
0.03
18
0.15
144
1.33
15
1.35
60
0.18
36
0.17
51
0.19
18
0.37
76
0.10
3
2.34
56
0.19
148
0.06
33
0.04
31
0.08
61
0.12
18
0.00
1
GREAT-IGEVtwo views0.49
50
0.07
25
0.29
58
0.02
17
0.02
11
0.14
127
0.00
1
0.03
28
1.58
225
0.00
1
0.00
1
0.19
25
0.07
49
0.00
1
2.22
49
2.07
137
0.16
29
0.26
75
0.25
22
0.80
168
0.33
31
2.96
72
0.25
166
0.79
206
0.02
12
0.00
1
0.71
60
0.00
1
CoSvtwo views0.10
2
0.12
43
0.21
41
0.02
17
0.02
11
0.01
14
0.00
1
0.02
15
0.02
14
0.00
1
0.00
1
0.15
13
0.01
5
0.00
1
0.69
4
0.74
14
0.14
23
0.06
18
0.09
6
0.03
3
0.06
1
0.13
3
0.00
1
0.03
22
0.02
12
0.00
1
0.10
13
0.00
1
AIO-test2two views0.25
19
0.09
33
0.02
8
0.01
5
0.09
52
0.04
73
0.01
13
0.01
3
0.00
1
0.00
1
0.00
1
0.08
5
0.04
26
0.00
1
1.71
28
1.44
69
0.15
25
0.04
9
0.03
2
0.33
67
0.10
3
2.30
54
0.06
80
0.16
80
0.05
39
0.01
11
0.10
13
0.00
1
AIO-test1two views0.30
25
0.04
5
0.03
15
0.02
17
0.08
50
0.04
73
0.00
1
0.01
3
0.03
25
0.00
1
0.00
1
0.02
1
0.04
26
0.00
1
2.02
40
1.69
97
0.15
25
0.02
4
0.24
21
0.55
125
0.20
11
2.67
62
0.00
1
0.02
10
0.02
12
0.01
11
0.09
11
0.00
1
GIP-stereotwo views0.42
42
0.06
18
0.14
35
0.02
17
0.05
31
0.16
143
0.02
35
0.06
52
0.03
25
0.00
1
0.25
129
0.32
62
0.05
33
0.01
28
3.07
81
1.67
94
0.15
25
0.05
14
0.31
26
0.71
157
0.49
45
3.30
95
0.06
80
0.04
25
0.03
25
0.09
64
0.33
44
0.00
1
IGEV-Stereo++two views0.40
40
0.03
1
0.10
31
0.03
30
0.03
20
0.10
109
0.01
13
0.01
3
0.03
25
0.00
1
0.15
115
0.18
17
0.03
18
0.01
28
1.95
36
1.30
53
0.05
3
0.29
83
0.81
53
0.51
108
0.25
22
3.15
90
0.27
174
0.03
22
0.02
12
0.01
11
1.39
77
0.00
1
IGEV-Stereo+two views0.62
68
1.03
204
0.04
19
0.11
75
0.14
63
0.14
127
0.03
51
0.10
62
0.11
81
0.02
69
2.00
196
0.32
62
0.30
127
0.02
53
1.86
35
1.97
119
0.16
29
0.31
89
1.71
93
0.60
134
1.02
77
3.85
119
0.29
178
0.06
33
0.03
25
0.21
85
0.20
27
0.00
1
AIO-Stereopermissivetwo views0.34
29
0.05
11
0.34
73
0.01
5
0.03
20
0.13
121
0.00
1
0.01
3
0.02
14
0.00
1
0.00
1
0.19
25
0.05
33
0.00
1
1.68
26
1.06
30
0.49
97
0.08
24
1.56
88
0.76
164
0.22
14
2.17
49
0.11
118
0.01
3
0.01
5
0.02
29
0.20
27
0.00
1
RSM++two views0.23
17
0.06
18
0.35
81
0.02
17
0.02
11
0.11
112
0.00
1
0.01
3
0.02
14
0.00
1
0.00
1
0.19
25
0.08
54
0.00
1
0.88
7
0.61
8
0.18
36
0.04
9
0.13
11
0.57
128
0.23
17
2.20
50
0.14
125
0.09
45
0.03
25
0.01
11
0.23
34
0.00
1
RSMtwo views0.22
15
0.06
18
0.35
81
0.02
17
0.03
20
0.12
115
0.01
13
0.01
3
0.02
14
0.00
1
0.00
1
0.18
17
0.05
33
0.00
1
0.73
6
0.58
6
0.18
36
0.04
9
0.18
17
0.51
108
0.24
20
2.12
47
0.09
110
0.08
42
0.02
12
0.18
79
0.16
25
0.00
1
MoCha-V2two views0.36
35
0.06
18
0.31
60
0.01
5
0.05
31
0.09
104
0.01
13
0.02
15
0.01
4
0.00
1
0.00
1
0.19
25
0.18
98
0.00
1
2.33
58
1.63
88
0.18
36
0.19
60
0.15
12
0.99
183
0.28
24
3.01
76
0.00
1
0.02
10
0.01
5
0.07
60
0.03
1
0.00
1
StereoVisiontwo views0.13
3
0.11
37
0.03
15
0.04
39
0.04
29
0.00
1
0.03
51
0.04
40
0.03
25
0.03
72
0.00
1
0.19
25
0.02
13
0.02
53
1.02
11
0.79
18
0.13
22
0.02
4
0.30
24
0.04
6
0.21
13
0.19
4
0.00
1
0.06
33
0.04
31
0.00
1
0.12
18
0.00
1
AEACVtwo views0.55
60
0.71
168
0.34
73
0.04
39
0.05
31
0.10
109
0.02
35
0.02
15
0.03
25
0.00
1
0.00
1
0.20
33
0.13
76
0.05
92
2.71
72
2.52
159
0.12
16
0.64
154
1.33
79
0.95
181
0.81
64
3.06
85
0.32
191
0.09
45
0.02
12
0.20
84
0.41
51
0.00
1
ProNettwo views0.22
15
0.03
1
0.09
29
0.01
5
0.00
1
0.12
115
0.75
198
0.01
3
0.01
4
0.00
1
0.00
1
0.05
3
0.00
1
0.22
166
1.31
14
1.03
26
0.22
44
0.01
2
0.09
6
0.12
23
0.24
20
1.33
27
0.03
59
0.01
3
0.07
48
0.00
1
0.05
4
0.00
1
CroCo-Stereo Lap2two views0.18
5
0.11
37
0.04
19
0.05
46
0.06
38
0.00
1
0.01
13
0.03
28
0.05
41
0.24
107
0.00
1
0.16
15
0.06
48
0.01
28
1.29
13
1.05
28
0.06
6
0.04
9
0.06
3
0.05
8
0.40
35
0.86
14
0.00
1
0.04
25
0.04
31
0.01
11
0.05
4
0.00
1
CroCo-Stereocopylefttwo views0.21
11
0.09
33
0.03
15
0.05
46
0.07
46
0.00
1
0.00
1
0.04
40
0.05
41
0.00
1
0.00
1
0.09
8
0.07
49
0.00
1
1.51
22
1.11
32
0.17
35
0.08
24
0.76
51
0.05
8
0.40
35
0.85
13
0.00
1
0.04
25
0.04
31
0.01
11
0.08
10
0.00
1
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.28
21
0.04
5
0.31
60
0.02
17
0.00
1
0.12
115
0.12
122
0.93
121
0.01
4
0.69
142
0.00
1
0.18
17
0.00
1
0.01
28
2.07
42
1.23
42
0.23
48
0.00
1
0.06
3
0.21
41
0.15
8
0.60
7
0.00
1
0.06
33
0.03
25
0.01
11
0.34
46
0.00
1
OmniDepthpermissivetwo views0.07
1
0.05
11
0.02
8
0.03
30
0.05
31
0.00
1
0.00
1
0.02
15
0.01
4
0.00
1
0.00
1
0.11
11
0.00
1
0.00
1
0.56
2
0.45
2
0.04
2
0.01
2
0.16
13
0.03
3
0.23
17
0.05
1
0.00
1
0.01
3
0.01
5
0.01
11
0.15
21
0.01
33
Tongfan Guan, Jiaxin Guo, Chen Wang, Yun-Hui Liu: OmniDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment. ICCV 2025 Highlight
MLG-Stereo_test3two views0.48
47
0.06
18
0.33
66
0.12
78
0.16
70
0.17
154
0.02
35
0.07
53
0.04
34
1.13
170
0.00
1
0.23
48
0.08
54
0.01
28
1.98
38
1.62
86
0.11
12
0.19
60
1.38
82
0.29
59
0.76
58
3.35
97
0.02
48
0.10
50
0.06
45
0.03
37
0.74
61
0.01
33
MLG-Stereo_test2two views0.35
33
0.14
48
0.04
19
0.01
5
0.06
38
0.18
159
0.02
35
0.02
15
0.03
25
0.00
1
0.63
161
0.18
17
0.01
5
0.00
1
1.83
34
1.31
55
0.06
6
0.20
62
1.35
81
0.38
77
0.41
39
2.30
54
0.16
134
0.05
28
0.06
45
0.01
11
0.09
11
0.01
33
LG-G_1two views0.51
53
0.28
79
0.33
66
0.18
83
0.22
97
0.16
143
0.02
35
0.05
47
0.07
56
0.01
63
0.58
153
0.20
33
0.24
116
0.03
67
2.30
56
1.80
103
0.27
58
0.37
97
0.82
54
0.47
94
0.91
71
3.77
112
0.01
22
0.12
59
0.11
67
0.03
37
0.34
46
0.01
33
LG-Gtwo views0.51
53
0.28
79
0.33
66
0.18
83
0.22
97
0.16
143
0.02
35
0.05
47
0.07
56
0.01
63
0.58
153
0.20
33
0.24
116
0.03
67
2.30
56
1.80
103
0.27
58
0.37
97
0.82
54
0.47
94
0.91
71
3.77
112
0.01
22
0.12
59
0.11
67
0.03
37
0.34
46
0.01
33
LGtest1two views0.53
58
0.07
25
0.34
73
0.03
30
0.14
63
0.16
143
0.03
51
0.08
57
0.14
91
0.04
75
0.84
167
0.21
43
0.15
83
0.00
1
2.36
60
2.07
137
0.21
42
0.46
130
0.87
59
0.41
83
0.76
58
4.21
129
0.05
72
0.12
59
0.12
70
0.04
45
0.27
40
0.01
33
AIO_rvctwo views0.61
66
0.30
84
0.36
88
0.03
30
0.02
11
0.14
127
0.30
162
0.02
15
0.05
41
0.00
1
0.00
1
0.19
25
0.09
60
0.06
101
3.14
85
2.93
176
0.18
36
0.51
137
2.38
111
0.52
111
0.69
54
3.61
106
0.46
214
0.02
10
0.13
72
0.04
45
0.20
27
0.01
33
HUFtwo views0.83
90
0.15
49
0.62
135
0.03
30
0.12
60
0.16
143
0.17
139
0.32
87
0.05
41
0.00
1
0.00
1
0.22
44
0.26
120
0.00
1
4.05
129
4.06
238
0.48
93
0.57
148
3.07
146
0.65
148
1.72
125
3.80
115
0.38
197
0.88
215
0.14
79
0.04
45
0.38
50
0.01
33
AIO_testtwo views0.66
71
0.53
132
0.44
108
0.04
39
0.02
11
0.14
127
0.42
177
0.12
66
0.04
34
0.00
1
0.00
1
0.20
33
0.10
67
0.03
67
3.07
81
3.04
181
0.25
53
0.32
91
1.33
79
0.44
88
1.28
90
3.68
108
0.44
210
0.02
10
0.18
85
0.43
113
1.11
70
0.01
33
Occ-Gtwo views0.48
47
0.11
37
0.24
49
0.04
39
0.11
57
0.16
143
0.04
63
0.04
40
0.02
14
0.00
1
0.25
129
0.15
13
0.02
13
0.00
1
3.08
83
1.56
80
0.11
12
0.34
94
1.04
63
0.48
100
0.85
69
3.04
83
0.23
158
0.07
38
0.04
31
0.02
29
0.83
64
0.01
33
anonymousdsptwo views0.56
61
0.10
35
0.36
88
0.24
102
0.07
46
0.09
104
0.01
13
0.04
40
0.05
41
0.00
1
2.27
201
0.22
44
0.20
102
0.00
1
2.28
52
1.41
67
0.28
61
0.17
51
0.52
40
0.67
154
0.56
49
3.56
104
0.31
187
0.07
38
0.02
12
0.01
11
1.65
85
0.01
33
RAFT + AFFtwo views0.48
47
0.05
11
0.01
2
0.22
91
0.03
20
0.04
73
0.14
130
0.03
28
0.03
25
0.00
1
0.00
1
0.32
62
0.03
18
0.07
107
4.66
153
0.97
22
0.56
111
0.09
27
2.34
110
0.04
6
0.69
54
1.96
40
0.02
48
0.22
97
0.15
80
0.12
71
0.24
37
0.01
33
DFGA-Nettwo views0.52
56
0.32
87
0.09
29
0.23
98
0.05
31
0.01
14
0.02
35
0.55
109
0.05
41
1.27
182
0.00
1
0.20
33
0.05
33
0.03
67
1.75
30
1.26
45
0.37
77
0.09
27
1.05
64
0.07
12
0.77
60
2.14
48
0.00
1
0.21
95
0.02
12
0.00
1
3.39
141
0.02
45
RAStereotwo views0.29
22
0.18
57
0.05
22
0.06
49
0.11
57
0.00
1
0.02
35
0.03
28
0.04
34
0.94
159
0.00
1
0.26
54
0.02
13
0.01
28
1.70
27
1.19
41
0.09
8
0.13
35
0.30
24
0.03
3
0.80
62
1.45
30
0.00
1
0.14
70
0.05
39
0.01
11
0.20
27
0.02
45
anonymousdsp2two views1.03
111
0.29
81
0.37
94
0.23
98
0.09
52
0.03
66
0.04
63
1.33
133
0.08
64
0.02
69
2.28
204
0.33
66
0.18
98
0.27
178
2.59
67
2.50
158
0.44
88
0.56
147
3.69
164
1.14
192
1.68
117
5.57
178
0.24
162
0.50
162
0.41
119
0.15
74
2.74
114
0.02
45
test_5two views0.76
83
0.61
147
0.21
41
0.02
17
0.02
11
0.11
112
0.01
13
2.75
214
0.05
41
0.00
1
4.29
237
0.49
96
0.44
150
0.00
1
1.73
29
1.27
50
0.22
44
0.14
41
1.14
68
0.09
18
0.46
42
3.08
87
0.01
22
0.19
87
0.09
55
0.00
1
2.97
120
0.02
45
MMNettwo views0.34
29
0.21
59
0.07
23
0.05
46
0.06
38
0.00
1
0.12
122
0.03
28
0.04
34
0.22
105
0.00
1
0.36
67
0.02
13
0.05
92
2.17
47
0.69
13
0.33
69
0.15
44
0.34
32
0.07
12
0.34
32
0.60
7
0.06
80
0.10
50
0.03
25
0.05
50
2.93
118
0.02
45
delettwo views0.21
11
0.08
29
0.24
49
0.06
49
0.05
31
0.02
43
0.04
63
0.02
15
0.05
41
0.34
117
0.00
1
0.20
33
0.04
26
0.02
53
1.45
20
0.53
4
0.23
48
0.07
20
0.12
10
0.06
10
0.15
8
0.38
6
0.01
22
0.06
33
0.01
5
0.01
11
1.50
82
0.02
45
Utwo views0.23
17
0.13
46
0.03
15
0.06
49
0.07
46
0.00
1
0.01
13
0.05
47
0.04
34
0.00
1
0.00
1
0.25
50
0.07
49
0.00
1
1.58
23
1.23
42
0.05
3
0.13
35
0.52
40
0.08
16
0.50
46
1.03
16
0.01
22
0.10
50
0.08
51
0.02
29
0.06
6
0.03
51
UniTT-Stereotwo views0.45
46
0.30
84
0.37
94
0.08
68
0.19
80
0.01
14
0.02
35
0.10
62
0.09
72
0.00
1
0.00
1
0.49
96
0.09
60
0.05
92
2.28
52
1.53
78
0.28
61
0.43
123
1.84
99
0.14
28
1.17
84
1.99
43
0.01
22
0.23
100
0.16
83
0.10
67
0.26
39
0.03
51
AASNettwo views0.20
8
0.45
120
0.24
49
0.09
72
0.09
52
0.00
1
0.08
97
0.05
47
0.05
41
0.26
108
0.00
1
0.18
17
0.04
26
0.01
28
1.13
12
0.68
12
0.12
16
0.04
9
0.09
6
0.16
30
0.29
25
0.77
11
0.01
22
0.07
38
0.00
1
0.02
29
0.49
54
0.03
51
HCRNettwo views0.49
50
0.39
110
0.36
88
0.29
125
0.12
60
0.01
14
0.06
85
0.03
28
0.01
4
1.48
196
0.00
1
0.20
33
0.05
33
0.01
28
2.61
69
0.78
17
0.42
86
0.07
20
0.32
27
0.12
23
0.37
34
2.22
51
0.02
48
0.02
10
0.02
12
0.02
29
3.33
137
0.03
51
MaDis-Stereotwo views0.39
37
0.23
64
0.35
81
0.07
61
0.15
66
0.02
43
0.04
63
0.08
57
0.07
56
1.22
180
0.00
1
0.23
48
0.03
18
0.02
53
1.62
24
1.29
52
0.14
23
0.29
83
1.62
89
0.12
23
0.84
68
1.37
28
0.01
22
0.18
86
0.20
92
0.16
77
0.17
26
0.04
55
TESTrafttwo views1.00
107
0.95
194
0.32
64
0.06
49
0.17
71
0.01
14
0.03
51
1.49
140
0.07
56
0.78
148
0.00
1
0.46
91
0.64
182
0.19
154
4.75
160
2.06
135
0.26
56
0.20
62
2.78
134
0.36
75
1.26
88
4.60
151
0.07
97
0.17
82
0.11
67
1.53
163
3.70
155
0.04
55
RAFT_CTSACEtwo views0.74
82
0.81
181
0.44
108
0.25
106
0.08
50
0.15
139
0.03
51
1.99
163
0.06
52
0.00
1
0.11
104
0.47
93
0.46
157
0.01
28
2.74
73
1.26
45
0.29
67
0.16
48
0.77
52
0.13
27
0.79
61
4.54
148
0.01
22
0.15
74
0.25
101
0.01
11
3.88
170
0.04
55
iRaftStereo_RVCtwo views0.35
33
0.21
59
0.33
66
0.22
91
0.15
66
0.02
43
0.02
35
0.05
47
0.08
64
0.00
1
0.00
1
0.28
56
0.11
71
0.03
67
1.35
16
0.98
23
0.35
73
0.07
20
0.49
38
0.17
32
1.05
80
2.96
72
0.00
1
0.05
28
0.09
55
0.01
11
0.23
34
0.04
55
GMStereopermissivetwo views0.56
61
0.94
193
0.07
23
0.25
106
0.06
38
0.01
14
0.02
35
0.15
69
0.07
56
0.00
1
0.00
1
0.41
81
0.01
5
0.01
28
2.04
41
1.15
37
0.34
71
0.18
55
2.72
131
0.11
20
1.52
101
2.04
44
0.00
1
0.08
42
0.20
92
0.03
37
2.65
111
0.04
55
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
TestStereo1two views0.93
101
0.98
200
0.22
44
0.07
61
0.18
74
0.01
14
0.04
63
1.07
125
0.08
64
0.11
86
0.00
1
0.39
77
0.56
173
0.12
137
4.92
167
2.03
125
0.28
61
0.22
67
2.98
141
0.20
36
1.56
105
3.94
121
0.01
22
0.15
74
0.10
62
1.19
153
3.74
157
0.05
60
RAFT+CT+SAtwo views0.77
84
0.83
183
0.24
49
0.15
80
0.05
31
0.01
14
0.02
35
2.46
193
0.09
72
0.11
86
0.00
1
0.89
147
0.40
144
0.01
28
1.42
18
1.63
88
0.18
36
0.21
66
2.39
113
0.27
55
0.93
73
4.66
154
0.01
22
0.20
91
0.13
72
0.02
29
3.33
137
0.05
60
SA-5Ktwo views0.93
101
0.98
200
0.22
44
0.07
61
0.18
74
0.01
14
0.04
63
1.07
125
0.08
64
0.11
86
0.00
1
0.39
77
0.56
173
0.12
137
4.92
167
2.03
125
0.28
61
0.22
67
2.98
141
0.20
36
1.56
105
3.94
121
0.01
22
0.15
74
0.10
62
1.19
153
3.74
157
0.05
60
UPFNettwo views0.52
56
0.31
86
0.76
154
0.22
91
0.28
118
0.02
43
0.05
76
0.09
61
0.08
64
0.38
123
0.00
1
0.38
74
0.03
18
0.24
168
3.16
87
1.04
27
0.34
71
0.14
41
0.59
44
0.34
70
0.44
40
1.09
18
0.01
22
0.30
116
0.05
39
0.01
11
3.54
147
0.05
60
MM-Stereo_test3two views0.21
11
0.04
5
0.02
8
0.00
1
0.01
4
0.02
43
0.00
1
0.01
3
0.01
4
0.00
1
0.00
1
0.14
12
0.03
18
0.05
92
0.99
10
0.77
16
0.16
29
0.17
51
0.16
13
0.26
53
0.06
1
2.10
46
0.18
141
0.02
10
0.01
5
0.06
55
0.47
53
0.06
64
DEFOM-Stereotwo views0.34
29
0.19
58
0.23
47
0.01
5
0.06
38
0.12
115
0.01
13
0.03
28
0.03
25
0.00
1
0.00
1
0.20
33
0.03
18
0.00
1
2.15
46
1.48
74
0.10
11
0.13
35
0.33
29
0.11
20
0.45
41
0.93
15
0.00
1
0.02
10
0.07
48
0.03
37
2.36
104
0.06
64
DEFOM-Stereo_RVCtwo views0.70
77
0.11
37
0.32
64
0.06
49
0.20
89
0.09
104
0.02
35
0.13
68
0.23
124
0.03
72
0.04
90
0.48
94
0.15
83
0.01
28
3.26
95
2.49
156
0.31
68
0.44
126
1.92
101
0.48
100
1.70
119
4.79
160
0.16
134
0.12
59
0.09
55
0.16
77
0.90
66
0.07
66
LG-Stereo_L2two views0.54
59
0.34
99
0.02
8
0.04
39
0.24
104
0.18
159
0.03
51
0.07
53
0.07
56
0.00
1
0.59
157
0.43
86
0.35
133
0.04
85
2.83
76
2.03
125
0.26
56
0.18
55
1.09
65
0.38
77
0.82
67
3.54
103
0.04
69
0.09
45
0.34
111
0.06
55
0.31
41
0.08
67
LG-Stereo_L1two views0.51
53
0.26
75
0.02
8
0.04
39
0.24
104
0.15
139
0.03
51
0.07
53
0.07
56
0.00
1
0.60
158
0.37
71
0.35
133
0.03
67
2.59
67
2.00
122
0.23
48
0.18
55
1.31
78
0.40
81
0.75
56
3.23
93
0.04
69
0.09
45
0.35
113
0.04
45
0.21
31
0.08
67
IGEV-BASED-STEREO-two views0.71
80
0.58
142
0.33
66
0.08
68
0.18
74
0.19
163
0.04
63
0.12
66
0.18
108
0.04
75
0.51
149
0.50
100
0.41
147
0.02
53
2.44
65
2.27
147
0.33
69
0.54
143
1.14
68
0.44
88
2.08
136
4.84
161
0.09
110
0.12
59
0.10
62
0.15
74
1.37
76
0.08
67
VIP-Stereotwo views0.29
22
0.12
43
0.34
73
0.01
5
0.03
20
0.04
73
0.01
13
0.02
15
0.02
14
0.00
1
0.00
1
0.22
44
0.05
33
0.00
1
1.37
17
1.12
33
0.15
25
0.13
35
0.28
23
0.27
55
0.50
46
2.49
59
0.00
1
0.13
67
0.08
51
0.01
11
0.24
37
0.09
70
TANstereotwo views1.73
159
1.38
222
0.72
147
0.26
111
0.35
140
0.62
198
0.07
90
0.52
106
0.46
150
0.27
109
1.08
177
0.36
67
0.20
102
1.04
251
3.37
98
2.99
178
0.99
159
1.69
245
9.06
223
3.49
264
3.58
179
4.48
145
3.34
282
0.28
109
0.05
39
0.67
128
5.35
225
0.09
70
XX-TBDtwo views1.73
159
1.38
222
0.72
147
0.26
111
0.35
140
0.62
198
0.07
90
0.52
106
0.46
150
0.27
109
1.08
177
0.36
67
0.20
102
1.04
251
3.37
98
2.99
178
0.99
159
1.69
245
9.06
223
3.49
264
3.58
179
4.48
145
3.34
282
0.28
109
0.05
39
0.67
128
5.35
225
0.09
70
plaintwo views0.56
61
0.39
110
0.44
108
0.17
81
0.41
159
0.01
14
0.01
13
0.74
115
0.08
64
0.01
63
0.00
1
0.74
130
0.14
79
0.04
85
2.91
78
1.93
114
0.25
53
0.44
126
1.02
62
0.16
30
1.65
114
2.50
60
0.01
22
0.41
144
0.21
96
0.06
55
0.36
49
0.10
73
SAtwo views1.07
116
0.91
191
0.46
122
0.21
89
0.25
113
0.01
14
0.02
35
2.68
205
0.14
91
0.14
95
0.00
1
0.59
106
0.38
142
0.34
191
3.59
105
2.03
125
0.45
89
0.51
137
3.47
160
0.32
64
1.40
93
3.72
110
0.01
22
0.38
140
0.44
122
1.60
166
4.79
212
0.10
73
GMOStereotwo views1.19
124
0.17
53
0.68
140
0.34
142
0.31
124
0.13
121
0.31
164
2.36
178
0.15
98
0.00
1
0.17
119
0.60
110
0.45
153
0.02
53
3.83
117
3.83
228
0.54
104
0.70
165
2.41
115
0.64
142
1.71
121
6.50
204
0.01
22
0.34
119
1.38
177
0.25
88
4.07
181
0.10
73
error versiontwo views1.19
124
0.17
53
0.68
140
0.34
142
0.31
124
0.13
121
0.31
164
2.36
178
0.15
98
0.00
1
0.17
119
0.60
110
0.45
153
0.02
53
3.83
117
3.83
228
0.54
104
0.70
165
2.41
115
0.64
142
1.71
121
6.50
204
0.01
22
0.34
119
1.38
177
0.25
88
4.07
181
0.10
73
test-vtwo views1.19
124
0.17
53
0.68
140
0.34
142
0.31
124
0.13
121
0.31
164
2.36
178
0.15
98
0.00
1
0.17
119
0.60
110
0.45
153
0.02
53
3.83
117
3.83
228
0.54
104
0.70
165
2.41
115
0.64
142
1.71
121
6.50
204
0.01
22
0.34
119
1.38
177
0.25
88
4.07
181
0.10
73
test-2two views1.19
124
0.17
53
0.68
140
0.34
142
0.31
124
0.13
121
0.31
164
2.36
178
0.15
98
0.00
1
0.17
119
0.60
110
0.45
153
0.02
53
3.83
117
3.83
228
0.54
104
0.70
165
2.41
115
0.64
142
1.71
121
6.50
204
0.01
22
0.34
119
1.38
177
0.25
88
4.07
181
0.10
73
AFF-stereotwo views0.88
97
0.32
87
0.50
125
0.35
149
0.20
89
0.11
112
0.37
173
0.41
94
0.11
81
1.15
173
0.00
1
0.66
124
0.07
49
0.02
53
4.33
138
1.39
66
0.40
81
0.90
193
3.49
161
0.26
53
1.61
112
2.83
69
0.02
48
0.22
97
0.49
124
0.18
79
3.16
126
0.10
73
IPLGtwo views1.33
139
0.40
113
0.76
154
0.29
125
0.28
118
0.01
14
0.09
105
2.25
175
0.31
136
0.40
126
0.28
131
0.37
71
0.74
195
0.31
189
5.67
193
1.89
110
1.26
189
0.95
200
2.86
137
0.47
94
1.18
85
6.06
193
0.06
80
0.66
188
0.63
139
3.73
207
3.86
169
0.11
80
IPLGR_Ctwo views1.02
110
0.24
69
0.77
156
0.31
131
0.36
142
0.04
73
0.35
171
0.20
72
0.47
153
0.07
80
0.12
108
1.26
163
0.09
60
0.41
210
4.52
145
1.63
88
0.81
136
0.45
128
2.10
105
0.32
64
2.41
146
4.67
155
0.07
97
0.75
199
1.04
161
0.28
93
3.80
162
0.11
80
ACREtwo views1.04
112
0.24
69
0.80
160
0.33
138
0.36
142
0.04
73
0.34
169
0.21
73
0.48
154
0.08
84
0.14
113
1.30
165
0.09
60
0.45
215
4.77
162
1.62
86
0.82
139
0.43
123
2.08
104
0.33
67
2.40
145
4.72
157
0.06
80
0.74
198
1.10
163
0.28
93
3.80
162
0.11
80
CIPLGtwo views1.04
112
0.23
64
0.82
162
0.32
136
0.36
142
0.04
73
0.34
169
0.21
73
0.50
156
0.07
80
0.11
104
1.24
160
0.08
54
0.42
212
4.82
165
1.65
92
0.85
144
0.39
106
2.02
103
0.32
64
2.35
142
4.69
156
0.05
72
0.75
199
1.10
163
0.35
109
3.79
161
0.12
83
RYNettwo views0.61
66
0.04
5
0.00
1
0.02
17
0.04
29
0.00
1
0.01
13
0.03
28
0.04
34
0.07
80
0.00
1
0.07
4
0.12
73
0.00
1
4.57
147
0.66
11
0.12
16
0.99
205
0.37
34
0.02
2
0.25
22
0.10
2
0.05
72
0.03
22
0.08
51
7.32
250
1.40
78
0.12
83
TestStereotwo views0.64
70
0.64
156
0.54
131
0.22
91
0.11
57
0.01
14
0.03
51
1.87
158
0.23
124
0.30
112
0.00
1
0.37
71
0.08
54
0.01
28
1.75
30
0.93
21
0.45
89
0.23
72
2.92
138
0.12
23
1.51
100
1.70
32
0.05
72
0.11
57
0.21
96
0.46
114
2.24
102
0.13
85
ARAFTtwo views0.80
86
0.22
62
0.31
60
0.31
131
0.12
60
0.01
14
0.02
35
0.24
81
0.09
72
1.28
183
0.00
1
0.53
104
0.04
26
0.09
120
3.18
88
1.99
120
0.51
101
0.34
94
2.69
130
0.14
28
1.96
135
2.75
65
0.02
48
0.20
91
0.80
151
0.03
37
3.53
146
0.13
85
S2M2_Ltwo views0.98
106
0.15
49
1.98
227
0.27
119
0.17
71
0.00
1
0.04
63
0.24
81
0.31
136
2.13
216
0.00
1
0.45
89
0.15
83
0.01
28
4.10
132
2.25
145
0.54
104
0.47
133
1.29
75
0.24
46
2.31
140
2.52
61
0.05
72
0.15
74
0.17
84
2.66
189
3.69
154
0.15
87
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
DMCAtwo views0.36
35
0.36
105
0.19
39
0.17
81
0.09
52
0.02
43
0.05
76
0.02
15
0.05
41
0.58
137
0.00
1
0.39
77
0.05
33
0.01
28
2.07
42
0.98
23
0.54
104
0.12
33
0.23
20
0.10
19
0.46
42
1.38
29
0.01
22
0.22
97
0.03
25
0.08
61
1.30
72
0.15
87
RAFT-Stereo + iAFFtwo views1.00
107
0.33
95
0.75
153
0.38
159
0.42
163
0.14
127
0.43
181
0.97
123
0.13
89
1.32
188
0.00
1
0.65
123
0.09
60
0.03
67
4.73
156
1.46
71
0.50
98
0.13
35
3.58
162
0.49
102
1.60
109
4.02
125
0.02
48
0.42
147
0.52
126
0.38
112
3.38
140
0.17
89
Pointernettwo views0.13
3
0.04
5
0.01
2
0.00
1
0.00
1
0.07
100
0.18
143
0.00
1
0.01
4
0.00
1
0.07
98
0.10
9
0.01
5
0.01
28
0.89
8
0.57
5
0.12
16
0.02
4
0.09
6
0.06
10
0.11
5
0.83
12
0.00
1
0.02
10
0.01
5
0.00
1
0.04
2
0.18
90
AE-Stereotwo views1.73
159
0.32
87
2.11
232
0.34
142
0.37
147
0.05
84
0.43
181
0.44
99
0.32
139
0.04
75
0.00
1
3.48
198
0.44
150
0.07
107
4.68
155
3.77
225
1.11
173
0.92
195
4.18
173
1.16
197
3.77
186
7.03
220
0.18
141
1.06
225
3.29
231
2.09
178
4.84
213
0.18
90
MIM_Stereotwo views0.83
90
0.15
49
0.44
108
0.34
142
0.24
104
0.12
115
0.08
97
2.02
164
0.08
64
0.00
1
0.24
127
0.31
61
0.10
67
0.03
67
3.34
96
2.91
175
0.24
51
0.67
161
2.62
127
0.89
175
1.44
97
3.49
100
0.06
80
0.26
104
0.20
92
0.24
87
1.72
87
0.18
90
SGD-Stereotwo views0.57
64
0.11
37
0.26
55
0.02
17
0.06
38
0.02
43
0.04
63
0.04
40
0.07
56
0.00
1
0.00
1
0.40
80
0.09
60
0.01
28
5.50
183
2.06
135
0.45
89
0.28
81
0.54
42
0.23
43
1.49
99
2.89
71
0.02
48
0.08
42
0.09
55
0.06
55
0.31
41
0.22
93
GANettwo views0.63
69
0.72
170
0.73
150
0.46
173
0.40
157
1.37
223
0.41
176
0.45
100
0.06
52
0.21
101
2.81
222
2.16
182
0.28
124
0.47
219
0.89
8
0.62
9
0.74
130
0.38
102
0.38
35
0.07
12
0.30
27
1.98
42
0.14
125
0.13
67
0.20
92
0.03
37
0.52
55
0.22
93
CASnettwo views0.96
105
0.54
134
0.54
131
0.24
102
0.36
142
0.05
84
0.26
160
0.52
106
0.18
108
0.06
79
0.06
95
0.70
127
0.36
137
0.01
28
4.36
140
1.50
75
0.66
123
0.40
107
2.56
123
0.34
70
3.82
187
4.34
134
0.03
59
0.35
126
1.67
190
0.11
70
1.72
87
0.23
95
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MGS-Stereotwo views0.68
74
0.97
199
0.65
138
0.25
106
0.18
74
0.01
14
0.05
76
0.07
53
0.14
91
0.00
1
0.00
1
0.30
58
0.15
83
0.03
67
5.25
176
1.01
25
0.41
84
0.26
75
1.09
65
0.44
88
1.38
92
2.76
66
0.03
59
0.27
107
0.34
111
0.25
88
1.72
87
0.24
96
NVstereo2Dtwo views0.93
101
0.48
125
0.17
36
0.24
102
0.42
163
0.41
188
0.08
97
1.64
143
0.59
166
0.87
154
1.05
175
0.42
84
0.21
106
0.08
116
5.64
188
2.38
154
0.82
139
0.59
150
1.71
93
0.24
46
1.26
88
2.48
58
0.06
80
0.47
158
1.31
171
0.29
95
1.04
68
0.24
96
S2M2_XLtwo views0.50
52
0.13
46
0.39
98
0.04
39
0.15
66
0.00
1
0.05
76
0.25
83
0.37
141
0.00
1
0.00
1
0.32
62
0.51
166
0.00
1
2.74
73
1.75
100
0.28
61
0.46
130
0.48
37
0.20
36
1.60
109
3.03
79
0.08
103
0.16
80
0.09
55
0.09
64
0.15
21
0.25
98
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
test_4two views0.84
94
0.11
37
0.61
134
0.30
129
0.20
89
0.08
101
0.30
162
0.10
62
0.10
77
0.03
72
0.61
159
0.79
136
0.16
90
0.18
153
3.62
106
3.39
201
0.24
51
0.43
123
1.98
102
0.30
61
1.21
86
3.26
94
0.09
110
0.21
95
0.23
99
0.33
106
3.56
148
0.25
98
IERtwo views0.69
76
0.46
122
0.29
58
0.30
129
0.18
74
0.01
14
0.09
105
0.42
95
0.11
81
1.07
166
0.07
98
1.62
175
0.05
33
0.20
159
3.15
86
1.25
44
0.40
81
0.16
48
0.82
54
0.44
88
0.57
50
2.22
51
0.21
150
0.34
119
0.09
55
1.03
147
2.96
119
0.28
100
MIPNettwo views1.76
163
0.72
170
0.87
167
0.32
136
0.55
175
0.01
14
0.08
97
1.77
150
0.38
142
2.09
214
0.92
171
0.44
87
0.76
197
0.27
178
5.64
188
2.03
125
1.52
207
0.93
197
3.87
168
1.34
205
1.41
95
6.39
202
0.07
97
1.05
224
2.65
211
7.16
246
3.90
171
0.29
101
LL-Strereo2two views0.81
88
0.27
76
0.35
81
0.09
72
0.14
63
0.17
154
0.08
97
2.21
173
0.19
111
0.00
1
0.00
1
0.26
54
0.05
33
0.20
159
2.27
51
2.72
168
0.12
16
0.15
44
2.40
114
0.52
111
1.77
127
5.39
174
0.06
80
0.17
82
0.43
121
0.12
71
1.55
84
0.31
102
GLC_STEREOtwo views0.93
101
0.48
125
0.65
138
0.25
106
0.33
136
0.03
66
0.11
120
2.37
184
0.20
112
0.16
98
0.04
90
0.38
74
0.15
83
0.02
53
3.66
107
2.05
132
0.67
124
0.25
73
2.56
123
0.42
87
2.90
156
3.06
85
0.09
110
0.19
87
0.09
55
0.10
67
3.70
155
0.31
102
Former-RAFT_DAM_RVCtwo views0.83
90
0.08
29
0.36
88
0.18
83
0.21
95
0.01
14
0.06
85
1.75
148
0.21
122
0.14
95
0.15
115
0.45
89
0.16
90
0.03
67
4.05
129
1.87
107
0.36
75
0.42
119
1.67
91
0.17
32
1.76
126
4.52
147
0.02
48
0.11
57
0.38
118
2.70
190
0.33
44
0.33
104
EGLCR-Stereotwo views1.68
157
0.23
64
2.17
234
0.08
68
0.28
118
0.09
104
0.09
105
0.50
104
1.17
210
0.11
86
2.55
214
0.62
119
0.67
184
0.03
67
4.24
135
3.69
224
1.12
174
1.22
226
4.58
179
0.59
132
4.19
195
7.51
236
0.24
162
0.68
191
1.05
162
0.64
127
6.73
249
0.33
104
4D-IteraStereotwo views1.14
119
0.34
99
1.40
198
0.29
125
0.38
151
0.05
84
0.09
105
2.11
172
0.11
81
0.00
1
0.19
124
0.52
103
0.22
108
0.24
168
3.76
113
3.57
214
0.28
61
0.38
102
2.95
140
0.49
102
3.35
173
5.63
180
0.12
121
0.41
144
0.10
62
0.29
95
3.09
123
0.34
106
ADLNettwo views0.79
85
0.95
194
0.12
34
0.22
91
0.28
118
0.09
104
0.05
76
1.25
131
0.10
77
0.32
115
0.06
95
2.48
187
0.08
54
0.20
159
3.48
101
1.14
36
0.48
93
0.11
32
0.60
46
0.23
43
0.60
52
3.03
79
0.01
22
0.10
50
0.91
153
0.83
139
3.15
125
0.34
106
raft+_RVCtwo views0.80
86
0.41
115
0.45
120
0.34
142
0.24
104
0.03
66
0.08
97
2.24
174
0.09
72
0.07
80
0.00
1
0.42
84
0.08
54
0.02
53
3.49
102
3.16
188
0.48
93
0.12
33
2.60
126
0.82
169
0.94
74
3.69
109
0.03
59
0.20
91
0.35
113
0.14
73
0.69
57
0.35
108
raftrobusttwo views1.17
122
0.44
118
0.99
176
0.41
164
0.37
147
0.04
73
0.12
122
2.45
192
0.14
91
0.51
133
0.00
1
0.72
128
0.24
116
0.09
120
4.74
157
4.01
237
0.39
80
0.35
96
5.19
187
0.34
70
1.89
130
4.58
150
0.21
150
0.28
109
1.21
169
0.47
115
1.09
69
0.35
108
G2L-Stereotwo views0.70
77
0.35
103
0.24
49
0.37
154
0.64
184
0.02
43
0.07
90
0.17
70
0.08
64
0.51
133
0.10
102
0.28
56
0.49
162
0.45
215
3.38
100
1.05
28
0.27
58
0.20
62
1.46
84
0.28
57
1.54
102
1.85
36
0.07
97
0.12
59
0.28
108
0.78
137
3.56
148
0.38
110
YMNettwo views0.67
72
0.38
109
0.02
8
0.20
86
0.25
113
0.33
185
2.67
243
0.36
89
0.06
52
1.09
167
0.00
1
0.41
81
2.95
241
0.01
28
2.43
63
2.05
132
0.61
118
0.46
130
0.54
42
0.25
50
0.30
27
1.29
25
0.00
1
0.10
50
0.37
115
0.05
50
0.62
56
0.38
110
MIF-Stereo (partial)two views0.58
65
0.39
110
0.42
103
0.07
61
0.22
97
0.02
43
0.03
51
0.08
57
0.11
81
0.01
63
0.01
82
0.50
100
0.12
73
0.03
67
2.35
59
1.69
97
0.25
53
0.60
152
0.91
60
0.11
20
1.40
93
2.26
53
0.01
22
0.34
119
0.12
70
0.29
95
2.91
117
0.38
110
Sa-1000two views1.45
148
0.32
87
0.53
130
0.28
123
0.26
115
0.01
14
0.04
63
2.73
209
0.11
81
0.01
63
0.01
82
0.59
106
0.49
162
0.56
230
6.07
208
2.10
139
0.92
155
0.88
189
4.60
180
0.59
132
1.56
105
6.38
201
0.01
22
0.64
184
2.25
201
1.72
172
5.00
216
0.38
110
TDLMtwo views0.20
8
0.10
35
0.21
41
0.08
68
0.23
101
0.02
43
0.04
63
0.19
71
0.04
34
0.02
69
0.10
102
0.67
125
0.05
33
0.10
125
0.43
1
0.28
1
0.35
73
0.20
62
0.02
1
0.01
1
0.12
6
1.22
22
0.05
72
0.01
3
0.00
1
0.02
29
0.41
51
0.41
114
HITNettwo views0.68
74
0.16
52
0.11
33
0.07
61
0.10
56
0.01
14
0.03
51
1.72
146
0.79
185
0.11
86
0.00
1
0.77
135
0.28
124
0.12
137
2.69
70
1.17
38
0.45
89
0.14
41
0.72
48
0.25
50
1.61
112
2.80
68
0.01
22
0.17
82
0.04
31
0.15
74
3.40
142
0.41
114
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DISCOtwo views0.90
99
0.96
198
0.36
88
0.06
49
0.36
142
0.63
200
0.54
191
0.23
76
0.32
139
1.72
202
0.58
153
0.41
81
0.29
126
0.04
85
2.98
80
1.47
73
1.02
164
0.31
89
3.32
155
0.56
126
1.01
76
3.01
76
0.13
122
0.33
118
0.13
72
0.33
106
2.81
115
0.43
116
DSFCAtwo views0.83
90
0.44
118
0.51
129
0.29
125
0.59
181
0.05
84
0.61
195
0.23
76
0.55
162
0.49
131
0.58
153
0.48
94
0.11
71
0.04
85
2.83
76
1.42
68
0.78
133
0.72
171
1.15
70
0.65
148
1.24
87
3.01
76
0.21
150
0.53
168
0.55
130
0.83
139
3.19
128
0.46
117
HGLStereotwo views0.70
77
0.34
99
0.41
101
0.23
98
0.31
124
0.02
43
0.17
139
0.08
57
0.13
89
1.20
179
0.69
164
0.25
50
0.15
83
0.09
120
2.36
60
1.50
75
0.57
113
0.29
83
1.25
72
0.24
46
1.13
83
3.16
91
0.08
103
0.34
119
0.18
85
0.19
81
3.13
124
0.47
118
coex_refinementtwo views0.87
96
1.07
208
0.62
135
0.25
106
0.72
189
0.03
66
0.20
151
0.27
84
1.03
203
0.10
85
1.11
180
0.87
144
0.18
98
0.15
144
4.26
136
1.07
31
0.59
114
0.13
35
2.44
119
0.52
111
1.02
77
1.12
19
0.23
158
0.17
82
0.67
142
0.96
144
3.20
129
0.48
119
LoStwo views1.97
180
0.23
64
0.39
98
0.23
98
0.18
74
0.02
43
0.09
105
15.67
300
0.89
192
3.41
256
0.87
168
0.98
150
0.83
207
0.20
159
3.66
107
3.84
232
1.36
199
0.90
193
3.25
148
0.74
160
5.14
217
4.30
133
0.24
162
0.41
144
2.64
210
0.80
138
1.36
74
0.50
120
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
DMCA-RVCcopylefttwo views0.82
89
0.43
117
0.50
125
0.31
131
0.59
181
0.15
139
1.13
207
0.29
86
1.52
222
1.29
185
0.34
137
0.64
120
0.14
79
0.17
150
3.74
111
1.26
45
0.80
134
0.51
137
0.97
61
0.51
108
0.87
70
1.93
38
0.26
168
0.40
143
0.13
72
0.08
61
2.70
112
0.50
120
GCAP-BATtwo views1.76
163
0.61
147
0.44
108
0.26
111
0.19
80
0.02
43
0.09
105
2.40
186
0.20
112
0.00
1
0.00
1
4.42
209
0.22
108
0.40
202
3.21
89
3.62
215
13.36
294
0.40
107
3.28
149
0.53
114
5.75
229
4.47
139
0.29
178
0.35
126
0.25
101
0.31
98
1.84
91
0.53
122
test_for_modeltwo views1.76
163
0.61
147
0.44
108
0.26
111
0.19
80
0.02
43
0.09
105
2.40
186
0.20
112
0.00
1
0.00
1
4.42
209
0.22
108
0.40
202
3.21
89
3.62
215
13.36
294
0.40
107
3.28
149
0.53
114
5.75
229
4.47
139
0.29
178
0.35
126
0.25
101
0.31
98
1.84
91
0.53
122
testlalala2two views1.76
163
0.61
147
0.44
108
0.26
111
0.19
80
0.02
43
0.09
105
2.40
186
0.20
112
0.00
1
0.00
1
4.42
209
0.22
108
0.40
202
3.21
89
3.62
215
13.36
294
0.40
107
3.28
149
0.53
114
5.75
229
4.47
139
0.29
178
0.35
126
0.25
101
0.31
98
1.84
91
0.53
122
testlalalatwo views1.76
163
0.61
147
0.44
108
0.26
111
0.19
80
0.02
43
0.09
105
2.40
186
0.20
112
0.00
1
0.00
1
4.42
209
0.22
108
0.40
202
3.21
89
3.62
215
13.36
294
0.40
107
3.28
149
0.53
114
5.75
229
4.47
139
0.29
178
0.35
126
0.25
101
0.31
98
1.84
91
0.53
122
testlalala_basetwo views1.76
163
0.61
147
0.44
108
0.26
111
0.19
80
0.02
43
0.09
105
2.40
186
0.20
112
0.00
1
0.00
1
4.42
209
0.22
108
0.40
202
3.21
89
3.62
215
13.36
294
0.40
107
3.28
149
0.53
114
5.75
229
4.47
139
0.29
178
0.35
126
0.25
101
0.31
98
1.84
91
0.53
122
GCAP-Stereotwo views1.76
163
0.61
147
0.44
108
0.26
111
0.19
80
0.02
43
0.09
105
2.40
186
0.20
112
0.00
1
0.00
1
4.42
209
0.22
108
0.40
202
3.21
89
3.62
215
13.36
294
0.40
107
3.28
149
0.53
114
5.75
229
4.47
139
0.29
178
0.35
126
0.25
101
0.31
98
1.84
91
0.53
122
RALAANettwo views1.21
131
0.40
113
0.56
133
0.37
154
0.31
124
0.20
166
0.15
133
1.87
158
0.20
112
0.51
133
0.01
82
0.49
96
0.26
120
0.07
107
3.97
124
2.32
149
0.48
93
0.73
173
3.41
156
1.09
188
3.06
163
5.24
172
0.02
48
0.50
162
0.74
144
1.14
150
4.11
189
0.54
128
iinet-ftwo views1.66
156
1.28
219
0.38
96
0.81
198
0.15
66
0.24
176
0.13
126
0.42
95
0.21
122
1.91
208
3.98
233
0.30
58
0.27
122
0.07
107
6.30
216
2.65
166
0.43
87
0.30
86
8.10
215
1.14
192
2.10
138
6.32
199
0.26
168
0.52
167
1.42
182
0.21
85
4.26
194
0.60
129
UNettwo views0.67
72
0.32
87
0.47
123
0.27
119
0.23
101
0.03
66
0.15
133
0.55
109
0.14
91
1.13
170
0.00
1
0.61
116
0.17
96
0.15
144
2.26
50
1.51
77
0.50
98
0.22
67
1.51
87
0.25
50
0.75
56
1.79
35
0.18
141
0.60
178
0.07
48
0.32
105
3.43
144
0.61
130
PDISCO_ROBtwo views1.24
134
0.57
140
0.10
31
0.66
190
0.32
134
0.01
14
0.57
193
0.78
117
0.49
155
1.25
181
0.94
173
0.36
67
0.32
128
0.19
154
3.99
126
2.19
142
0.98
158
1.44
235
2.38
111
0.62
137
2.92
157
4.93
165
0.18
141
0.64
184
1.52
187
0.53
121
3.95
178
0.62
131
MyStereo04two views2.45
193
0.72
170
1.28
191
0.73
195
0.84
199
0.04
73
0.16
135
2.58
199
0.98
196
3.09
241
0.72
165
1.71
178
0.16
90
0.07
107
5.25
176
3.37
199
0.81
136
1.04
208
10.31
242
2.51
248
5.56
226
5.11
169
1.16
259
0.94
220
3.03
222
8.41
256
4.87
214
0.64
132
LMCR-Stereopermissivemany views1.14
119
0.56
136
0.72
147
0.31
131
0.31
124
0.14
127
0.06
85
1.38
135
0.28
133
0.33
116
0.12
108
0.86
142
0.20
102
0.26
174
3.99
126
2.00
122
1.20
180
0.37
97
6.02
192
1.76
220
2.41
146
3.82
116
0.07
97
0.55
174
0.52
126
0.51
120
1.50
82
0.67
133
iResNetv2_ROBtwo views1.40
145
0.83
183
0.41
101
1.30
216
0.37
147
0.05
84
0.14
130
3.17
233
0.20
112
1.97
211
0.28
131
2.49
188
0.40
144
0.06
101
3.78
114
1.57
81
1.08
172
0.22
67
6.10
194
0.67
154
3.61
181
2.04
44
0.26
168
0.83
212
0.62
138
0.54
122
4.07
181
0.71
134
IPLGRtwo views2.02
182
0.67
161
0.81
161
0.38
159
0.47
169
0.01
14
0.08
97
1.39
136
0.28
133
2.32
219
2.30
207
0.46
91
0.79
201
0.20
159
6.88
225
1.99
120
1.44
201
1.35
232
5.56
190
1.85
223
2.94
158
6.20
197
0.06
80
1.13
228
3.39
234
6.80
242
3.93
174
0.75
135
CREStereo++_RVCtwo views1.20
128
0.23
64
1.65
212
0.28
123
0.43
165
0.01
14
0.17
139
2.02
164
0.26
131
0.61
138
0.08
100
0.50
100
0.15
83
0.05
92
3.91
122
2.85
174
0.95
157
0.50
136
2.77
133
0.31
62
3.04
162
3.84
118
0.13
122
0.14
70
1.10
163
1.31
158
4.38
199
0.77
136
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
DLCB_ROBtwo views1.13
118
0.77
174
0.73
150
0.44
170
0.51
171
0.22
171
0.42
177
0.49
103
0.28
133
0.84
151
0.50
147
1.31
166
0.85
209
0.11
130
2.70
71
1.54
79
1.12
174
0.27
79
0.82
54
0.22
42
1.70
119
3.50
101
0.48
220
0.44
156
4.83
252
2.48
187
2.14
99
0.79
137
AANet_RVCtwo views0.29
22
0.05
11
0.28
57
0.06
49
0.21
95
0.00
1
0.24
157
0.03
28
0.17
104
0.34
117
0.01
82
0.08
5
0.04
26
0.01
28
2.17
47
0.58
6
0.16
29
0.07
20
0.44
36
0.20
36
0.13
7
0.33
5
0.03
59
0.07
38
0.02
12
0.06
55
1.15
71
0.86
138
test-3two views1.89
174
1.05
205
1.54
206
0.41
164
0.38
151
0.14
127
0.19
148
2.73
209
0.17
104
0.35
121
0.42
144
4.22
205
0.35
133
0.03
67
5.92
201
3.44
207
0.64
121
0.66
157
9.08
226
0.54
124
3.27
169
8.02
252
0.08
103
0.82
210
0.74
144
1.01
145
3.94
176
0.87
139
test_1two views1.89
174
1.07
208
1.54
206
0.41
164
0.38
151
0.14
127
0.19
148
2.73
209
0.17
104
0.31
114
0.40
142
4.23
207
0.35
133
0.03
67
5.96
204
3.44
207
0.64
121
0.65
155
9.10
227
0.53
114
3.29
170
8.03
253
0.08
103
0.82
210
0.74
144
1.01
145
3.94
176
0.89
140
CREStereotwo views1.20
128
0.33
95
0.95
175
0.24
102
0.19
80
0.01
14
0.06
85
2.65
203
0.54
158
0.64
140
1.05
175
0.72
128
0.59
177
0.07
107
3.92
123
3.45
209
0.86
149
0.42
119
2.19
107
0.72
158
3.10
164
3.56
104
0.10
115
0.29
112
1.20
168
1.09
149
2.54
108
0.90
141
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
APVNettwo views1.38
143
1.06
206
0.27
56
0.33
138
0.37
147
0.28
183
0.50
187
0.39
92
0.42
147
0.93
157
0.42
144
0.85
140
0.19
101
0.15
144
4.81
163
3.10
187
1.87
219
0.94
198
4.74
183
0.89
175
2.23
139
5.90
185
0.05
72
1.23
231
0.19
89
0.48
116
3.80
162
0.91
142
DeepPruner_ROBtwo views1.92
177
0.41
115
0.92
170
0.51
181
0.67
185
0.53
196
2.45
238
1.72
146
0.84
189
1.37
193
2.27
201
0.75
132
0.55
171
0.12
137
8.56
244
2.33
150
1.28
190
1.20
223
2.67
129
0.58
129
6.00
239
4.19
128
0.75
247
0.44
156
0.66
141
6.01
235
3.18
127
0.91
142
trnettwo views1.17
122
0.32
87
0.93
173
0.22
91
0.19
80
0.01
14
0.08
97
2.54
196
0.38
142
0.63
139
0.99
174
0.76
133
0.58
176
0.06
101
3.83
117
3.16
188
0.91
152
0.55
145
2.21
109
0.76
164
2.97
159
3.47
99
0.06
80
0.29
112
1.28
170
1.05
148
2.55
109
0.92
144
FSDtwo views0.70
166
0.22
44
0.07
61
0.29
122
0.01
14
0.04
63
0.32
87
0.25
129
0.54
136
0.13
111
0.04
85
2.39
62
2.70
167
1.46
84
0.76
164
0.19
87
0.56
132
0.31
98
0.69
57
0.93
145
LoS_RVCtwo views1.27
135
1.54
226
0.85
164
0.06
49
0.55
175
0.01
14
0.13
126
0.23
76
0.73
178
1.70
200
0.22
125
0.64
120
0.69
188
0.11
130
3.79
115
3.07
182
0.75
131
1.99
258
3.69
164
0.64
142
4.98
212
4.94
166
0.22
156
0.10
50
0.37
115
0.50
118
0.82
62
0.93
145
tt_lltwo views1.27
135
1.54
226
0.85
164
0.06
49
0.55
175
0.01
14
0.13
126
0.23
76
0.73
178
1.70
200
0.22
125
0.64
120
0.69
188
0.11
130
3.79
115
3.07
182
0.75
131
1.99
258
3.69
164
0.64
142
4.98
212
4.94
166
0.22
156
0.10
50
0.37
115
0.50
118
0.82
62
0.93
145
test_3two views1.92
177
1.16
215
1.42
199
0.44
170
0.39
156
0.14
127
0.20
151
2.79
216
0.17
104
0.38
123
0.41
143
4.32
208
0.36
137
0.03
67
6.25
212
3.34
197
0.68
125
0.67
161
9.18
228
0.53
114
3.20
166
7.85
247
0.06
80
0.80
208
0.95
156
1.27
156
3.85
168
0.94
148
raft_robusttwo views1.38
143
0.73
173
0.63
137
0.27
119
0.23
101
0.01
14
0.05
76
3.04
226
0.24
127
1.16
174
0.02
88
0.61
116
0.67
184
0.07
107
3.67
109
2.22
144
0.80
134
0.66
157
5.14
186
0.33
67
3.43
176
6.40
203
0.01
22
0.37
138
1.19
167
1.48
161
2.86
116
0.96
149
rafts_anoytwo views0.92
100
0.33
95
0.86
166
0.37
154
0.24
104
0.05
84
0.07
90
2.48
195
0.14
91
0.01
63
0.00
1
0.20
33
0.04
26
0.02
53
3.97
124
3.08
184
0.56
111
0.40
107
2.20
108
0.34
70
1.65
114
3.86
120
0.02
48
0.27
107
0.99
159
0.73
135
0.87
65
0.98
150
HSMtwo views1.20
128
0.35
103
1.10
187
0.59
186
0.56
179
0.05
84
0.09
105
2.87
220
0.31
136
0.13
93
0.53
150
0.76
133
0.13
76
0.05
92
5.24
175
1.26
45
0.85
144
0.30
86
3.45
159
0.50
106
2.38
144
3.35
97
0.10
115
0.55
174
0.74
144
0.86
142
4.16
190
1.08
151
UDGNettwo views2.73
200
1.17
216
0.42
103
10.90
281
5.53
272
8.65
277
3.60
258
1.70
145
0.27
132
0.22
105
0.12
108
0.80
137
0.12
73
9.72
300
4.00
128
1.35
60
0.73
129
0.54
143
3.02
145
0.60
134
2.78
151
6.16
196
3.41
284
0.29
112
1.70
191
1.69
171
3.06
122
1.10
152
CVANet_RVCtwo views0.42
42
0.29
81
0.82
162
0.60
187
0.31
124
0.18
159
0.03
51
1.58
142
0.25
129
0.12
92
0.28
131
0.84
138
0.05
33
0.11
130
0.69
4
0.46
3
0.36
75
0.25
73
0.08
5
0.08
16
0.20
11
1.95
39
0.02
48
0.05
28
0.06
45
0.03
37
0.70
59
1.10
152
sCroCo_RVCtwo views1.89
174
0.25
74
0.34
73
0.06
49
0.20
89
0.16
143
0.04
63
0.81
118
1.73
235
1.94
210
0.44
146
1.12
153
0.88
214
0.12
137
4.48
143
5.29
260
2.26
229
1.77
248
5.32
189
2.13
237
5.92
237
7.47
233
0.10
115
0.37
138
0.60
135
1.61
167
4.41
201
1.14
154
iResNet_ROBtwo views1.22
133
0.71
168
0.44
108
0.45
172
0.34
138
0.04
73
0.16
135
3.05
227
0.12
88
1.32
188
0.00
1
0.93
148
0.34
131
0.05
92
4.57
147
1.86
106
0.81
136
0.48
134
6.00
191
0.34
70
1.95
133
1.30
26
0.31
187
0.91
217
0.33
110
0.95
143
3.93
174
1.14
154
RALCasStereoNettwo views1.00
107
0.37
108
1.07
184
0.37
154
0.32
134
0.06
98
0.20
151
2.08
170
0.15
98
1.01
162
0.04
90
0.61
116
0.16
90
0.03
67
3.74
111
3.43
205
0.41
84
0.26
75
1.40
83
0.75
162
1.44
97
4.55
149
0.03
59
0.26
104
0.78
148
1.36
159
0.91
67
1.22
156
RASNettwo views0.86
95
0.32
87
0.77
156
0.46
173
0.31
124
0.18
159
0.10
118
0.95
122
0.14
91
1.11
168
0.09
101
0.53
104
0.44
150
0.35
196
1.76
32
1.87
107
0.59
114
0.22
67
1.13
67
0.07
12
1.42
96
3.94
121
0.17
139
0.53
168
0.46
123
0.37
111
3.64
153
1.29
157
psm_uptwo views1.28
137
0.67
161
1.09
186
0.41
164
0.89
200
0.04
73
0.31
164
2.38
185
1.16
209
0.77
145
0.00
1
1.36
167
0.10
67
0.44
213
4.59
150
1.35
60
0.83
141
0.45
128
4.14
172
0.47
94
1.60
109
2.76
66
0.01
22
0.73
196
1.16
166
1.54
164
3.84
165
1.40
158
castereotwo views1.45
148
0.34
99
1.03
181
0.07
61
0.29
122
0.21
170
0.09
105
0.37
90
0.51
157
0.13
93
0.18
123
1.13
154
0.49
162
0.07
107
4.85
166
3.77
225
1.05
168
0.65
155
4.71
182
0.63
140
5.11
216
6.83
216
0.14
125
0.24
101
1.55
188
1.98
177
1.31
73
1.43
159
DeepPrunerFtwo views2.93
207
1.75
234
0.35
81
3.49
251
9.49
288
1.73
232
4.02
260
0.70
114
3.19
255
0.69
142
1.51
187
0.60
110
0.34
131
0.14
143
7.97
238
3.53
212
1.21
182
0.76
177
4.64
181
0.73
159
2.31
140
4.11
127
0.65
237
0.58
176
15.77
296
3.70
206
3.75
159
1.43
159
CFNettwo views0.72
81
0.50
130
0.71
146
0.48
176
0.45
167
0.06
98
0.27
161
0.58
111
0.09
72
0.65
141
0.04
90
0.84
138
0.10
67
0.05
92
2.80
75
0.75
15
0.60
117
0.09
27
0.84
58
0.41
83
1.10
82
1.22
22
0.03
59
0.13
67
0.58
133
1.14
150
3.44
145
1.47
161
BEATNet_4xtwo views1.65
155
0.58
142
0.35
81
0.20
86
0.38
151
0.15
139
0.46
184
1.78
151
1.70
234
0.40
126
0.50
147
1.13
154
0.62
181
0.65
233
6.09
209
3.02
180
2.14
226
1.81
249
1.48
86
0.79
167
5.22
218
7.76
243
0.08
103
1.07
226
0.32
109
0.48
116
3.92
173
1.49
162
zero-FEtwo views4.46
240
2.02
238
0.20
40
18.26
289
2.74
253
20.82
295
6.55
274
1.82
153
0.71
176
1.31
186
3.02
223
10.50
253
3.67
248
0.45
215
4.35
139
3.50
210
1.30
193
1.59
241
13.37
257
1.37
207
5.58
227
7.41
230
0.31
187
0.54
172
0.79
150
2.41
184
4.46
203
1.50
163
DN-CSS_ROBtwo views1.68
157
0.57
140
1.42
199
0.83
199
0.73
190
0.05
84
0.22
156
2.83
218
0.40
145
1.50
197
3.57
230
1.02
151
0.43
149
0.09
120
4.11
133
1.61
83
1.34
196
0.84
184
8.83
220
0.39
80
4.42
203
3.67
107
0.09
110
1.02
222
0.13
72
0.55
123
3.24
132
1.52
164
MLCVtwo views2.73
200
0.66
160
0.90
169
2.64
243
1.41
224
1.10
216
1.01
204
3.58
246
0.61
167
3.69
262
4.23
236
5.51
227
3.78
249
0.11
130
5.65
190
2.01
124
1.68
211
0.87
187
10.28
241
1.26
199
3.32
172
5.13
171
0.34
192
2.60
257
2.68
215
3.08
193
4.10
188
1.55
165
FCDSN-DCtwo views1.87
172
0.93
192
2.12
233
1.84
229
1.62
228
1.35
222
1.17
208
0.74
115
0.46
150
1.19
178
0.30
134
2.02
181
0.48
160
0.28
183
5.91
200
2.18
141
2.34
231
2.10
263
1.30
76
0.47
94
2.99
160
5.42
175
0.57
225
3.93
270
2.22
200
3.45
198
1.45
80
1.56
166
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
EKT-Stereotwo views3.12
212
0.79
177
2.25
236
0.51
181
0.38
151
0.57
197
1.87
229
3.36
238
1.32
214
2.03
212
5.99
253
1.48
169
0.75
196
0.44
213
7.79
235
6.14
272
1.47
204
3.22
278
8.95
222
2.82
258
6.93
260
8.34
265
0.17
139
0.49
160
4.41
245
4.95
222
5.40
228
1.57
167
ICVPtwo views1.55
151
0.24
69
1.65
212
0.43
168
0.45
167
0.50
193
0.38
175
1.26
132
0.64
171
1.77
204
1.20
182
0.88
145
1.63
231
0.25
173
4.46
142
2.81
173
1.49
205
1.01
206
2.50
121
1.15
196
2.70
149
5.75
182
0.14
125
0.63
181
0.72
143
2.31
182
3.35
139
1.59
168
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
PSMNet-ADLtwo views3.55
226
0.87
186
1.70
216
1.71
225
2.00
241
1.21
218
0.69
196
2.55
198
1.91
239
4.36
278
7.71
273
4.22
205
7.85
261
0.10
125
7.75
234
5.27
258
2.09
225
0.89
191
11.92
253
2.07
232
4.52
204
6.13
195
0.70
242
0.67
190
2.07
198
4.52
219
8.78
267
1.62
169
CFNet_pseudotwo views1.04
112
0.55
135
0.68
140
0.46
173
0.53
172
0.05
84
0.02
35
0.61
113
0.10
77
0.91
156
0.11
104
0.88
145
0.56
173
0.52
228
5.81
198
1.84
105
0.55
110
0.37
97
2.85
136
0.41
83
1.09
81
3.10
89
0.59
230
0.29
112
0.61
136
0.63
126
2.23
101
1.75
170
PS-NSSStwo views1.79
171
3.17
263
0.42
103
3.20
247
0.92
204
2.08
236
1.19
210
0.39
92
0.16
103
0.38
123
0.00
1
11.59
257
1.18
223
0.50
225
5.15
172
0.89
19
0.71
128
0.28
81
4.31
176
0.17
32
0.97
75
0.64
10
2.37
272
0.19
87
1.58
189
0.76
136
3.28
134
1.77
171
PWCDC_ROBbinarytwo views3.09
210
0.52
131
0.24
49
0.38
159
0.92
204
0.25
178
0.37
173
1.16
128
8.67
286
0.14
95
2.36
209
0.85
140
32.24
305
0.72
239
6.25
212
3.40
203
2.00
221
0.94
198
2.65
128
1.03
187
3.63
182
9.35
281
0.27
174
0.68
191
0.55
130
0.69
130
1.44
79
1.79
172
castereo++two views1.41
146
0.49
128
0.42
103
0.06
49
0.24
104
0.24
176
0.12
122
0.43
97
0.43
148
0.20
100
0.16
117
1.25
161
0.42
148
0.06
101
4.22
134
3.67
221
1.03
165
0.55
145
2.93
139
0.66
152
4.66
209
6.57
209
0.31
187
0.25
102
1.42
182
1.63
168
3.77
160
1.84
173
Anonymous3two views3.42
219
0.60
145
0.93
173
0.09
72
1.35
217
0.50
193
0.03
51
3.46
242
1.28
212
1.11
168
0.80
166
10.89
255
1.36
228
0.45
215
8.96
247
6.97
291
3.85
250
3.08
276
11.46
249
2.32
244
7.35
263
12.18
302
0.38
197
0.51
165
1.75
192
3.57
200
5.30
223
1.85
174
DDF-Stereotwo views3.26
216
2.02
238
0.23
47
11.87
283
0.54
174
14.65
287
0.80
200
1.81
152
0.62
168
1.13
170
1.57
189
9.30
248
3.23
242
0.39
200
4.06
131
3.79
227
1.23
188
0.88
189
7.24
203
1.02
186
4.54
205
6.58
210
0.29
178
0.54
172
0.78
148
2.46
185
4.48
205
1.87
175
CAStwo views0.89
98
0.22
62
0.39
98
0.21
89
0.24
104
0.03
66
0.36
172
0.23
76
0.62
168
1.28
183
0.16
117
0.38
74
0.84
208
0.12
137
3.10
84
1.87
107
0.94
156
0.75
176
1.30
76
0.58
129
2.82
155
3.00
75
0.03
59
0.12
59
0.13
72
0.72
133
1.80
90
1.89
176
ddtwo views1.06
115
0.48
125
0.31
60
1.86
231
0.06
38
0.26
180
0.16
135
0.47
102
0.06
52
0.11
86
0.01
82
2.18
183
0.07
49
0.20
159
4.43
141
1.13
35
1.19
179
0.38
102
6.03
193
0.38
77
0.67
53
1.85
36
0.14
125
0.32
117
0.63
139
0.09
64
3.27
133
1.90
177
gcap-zeroshottwo views3.56
228
0.56
136
4.08
260
1.72
226
0.53
172
1.55
227
1.78
227
3.23
236
0.64
171
2.75
227
6.71
261
6.50
237
0.68
187
0.48
221
6.48
219
6.49
280
1.21
182
1.11
216
16.59
263
2.54
249
5.24
219
8.27
260
1.30
262
0.79
206
3.27
230
5.01
223
4.56
207
1.94
178
RPtwo views1.55
151
1.14
213
2.48
243
0.89
200
1.23
211
0.43
189
2.08
234
1.86
157
1.63
229
0.29
111
2.10
197
2.43
186
0.13
76
0.49
224
5.11
171
1.26
45
0.83
141
0.05
14
1.74
96
0.49
102
1.04
79
4.92
163
0.16
134
0.76
201
0.49
124
1.14
150
4.64
210
1.98
179
NLCA_NET_v2_RVCtwo views1.21
131
0.81
181
0.50
125
0.22
91
0.48
170
0.03
66
1.73
225
1.18
129
2.43
247
2.04
213
0.11
104
0.74
130
0.09
60
0.55
229
6.88
225
1.12
33
0.38
78
0.30
86
1.67
91
0.28
57
0.80
62
1.75
34
0.15
130
0.25
102
0.13
72
3.23
195
2.70
112
2.04
180
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CFNet_RVCtwo views1.14
119
0.65
157
0.92
170
0.35
149
0.40
157
0.14
127
0.13
126
0.11
65
0.18
108
0.86
153
1.15
181
0.67
125
0.17
96
0.08
116
6.26
214
1.31
55
0.70
126
0.40
107
1.62
89
0.29
59
1.93
132
3.03
79
0.06
80
0.43
153
0.95
156
1.90
175
3.91
172
2.07
181
DDUNettwo views13.01
285
20.50
301
4.63
263
37.04
303
24.81
302
34.87
306
32.65
304
1.85
154
1.66
232
1.47
195
3.83
232
13.22
262
4.08
252
83.62
315
6.26
214
2.41
155
8.99
285
3.82
281
18.78
268
4.54
272
7.88
270
7.25
223
16.92
305
0.99
221
1.50
185
0.70
131
4.90
215
2.09
182
UDGtwo views13.28
288
21.47
302
5.08
269
37.13
304
29.51
305
32.00
302
40.03
307
2.62
202
1.78
236
2.40
220
5.74
251
12.64
259
4.23
253
74.90
312
7.47
231
2.61
165
9.44
286
3.24
279
19.57
274
5.01
277
8.74
281
7.28
224
12.84
302
1.84
246
1.35
175
2.91
192
4.53
206
2.12
183
CEStwo views1.32
138
0.24
69
0.36
88
0.14
79
0.22
97
0.05
84
0.19
148
5.29
272
0.76
182
0.42
128
0.61
159
0.86
142
0.85
209
0.26
174
4.28
137
3.41
204
1.21
182
1.06
211
1.85
100
1.16
197
4.19
195
3.75
111
0.15
130
0.12
59
0.23
99
0.34
108
1.47
81
2.15
184
GEStwo views1.73
159
0.33
95
0.48
124
0.58
185
0.43
165
0.28
183
0.51
188
2.03
168
0.90
193
1.18
177
0.55
151
0.49
96
0.23
115
0.02
53
8.51
243
2.72
168
1.06
170
0.76
177
9.71
234
1.71
217
3.36
174
4.34
134
0.23
158
0.83
212
0.42
120
0.35
109
2.56
110
2.21
185
AACVNettwo views1.07
116
0.61
147
0.44
108
0.65
189
0.80
194
0.12
115
0.17
139
0.37
90
0.20
112
0.17
99
0.14
113
0.60
110
0.24
116
0.26
174
4.81
163
2.04
131
0.61
118
0.40
107
1.72
95
0.41
83
1.80
128
3.08
87
0.40
199
0.20
91
0.52
126
1.51
162
4.20
192
2.32
186
sAnonymous2two views1.64
153
0.27
76
0.18
37
0.11
75
0.20
89
0.49
191
0.05
76
1.85
154
0.98
196
0.21
101
0.39
139
1.21
156
0.85
209
0.08
116
4.74
157
3.93
234
1.35
197
1.22
226
7.85
209
0.83
172
4.15
193
5.99
187
0.03
59
0.42
147
0.15
80
2.19
180
2.36
104
2.37
187
CroCo_RVCtwo views1.64
153
0.27
76
0.18
37
0.11
75
0.20
89
0.49
191
0.05
76
1.85
154
0.98
196
0.21
101
0.39
139
1.21
156
0.85
209
0.08
116
4.74
157
3.93
234
1.35
197
1.22
226
7.85
209
0.83
172
4.15
193
5.99
187
0.03
59
0.42
147
0.15
80
2.19
180
2.36
104
2.37
187
AF-Nettwo views1.33
139
0.56
136
1.00
177
0.36
152
0.81
196
1.01
212
2.56
240
2.36
178
1.15
207
0.48
129
0.65
162
3.84
200
0.16
90
0.30
186
3.50
103
1.17
38
0.52
102
0.02
4
1.74
96
0.53
114
0.81
64
4.34
134
0.06
80
0.14
70
0.93
154
0.61
124
3.84
165
2.40
189
Nwc_Nettwo views1.33
139
0.56
136
1.00
177
0.36
152
0.81
196
1.01
212
2.56
240
2.36
178
1.15
207
0.48
129
0.65
162
3.84
200
0.16
90
0.30
186
3.50
103
1.17
38
0.52
102
0.02
4
1.74
96
0.53
114
0.81
64
4.34
134
0.06
80
0.14
70
0.93
154
0.61
124
3.84
165
2.40
189
SACVNettwo views1.77
170
0.88
187
1.11
188
0.67
191
1.41
224
0.84
205
0.94
201
2.65
203
0.54
158
1.31
186
0.02
88
0.95
149
0.40
144
0.39
200
6.01
207
2.36
152
1.71
213
0.42
119
4.84
184
0.82
169
3.03
161
6.05
192
0.11
118
0.73
196
1.33
174
1.66
170
4.02
179
2.55
191
FADNet-RVC-Resampletwo views1.87
172
0.69
163
1.01
179
0.50
180
0.67
185
0.19
163
1.39
219
1.43
137
0.87
191
0.94
159
0.92
171
5.52
228
0.52
168
1.00
248
7.45
230
1.91
113
1.44
201
1.98
257
3.91
169
1.13
191
1.92
131
4.61
153
0.23
158
1.54
240
0.58
133
3.08
193
2.12
98
3.05
192
MSMDNettwo views2.61
196
0.70
166
1.72
218
0.38
159
0.62
183
0.23
172
0.18
143
3.09
229
0.67
174
1.02
163
2.22
200
1.22
159
2.43
239
0.35
196
5.26
178
6.79
287
1.36
199
0.58
149
10.46
244
3.11
260
6.34
247
7.92
248
0.41
203
0.76
201
2.48
206
3.98
212
3.04
121
3.06
193
FADNet-RVCtwo views2.02
182
0.32
87
0.74
152
0.33
138
1.23
211
0.05
84
3.02
250
0.60
112
0.24
127
1.02
163
0.31
135
6.30
235
0.33
129
0.34
191
10.06
257
2.10
139
0.84
143
0.81
182
6.91
201
1.97
226
2.36
143
3.78
114
0.20
149
0.61
179
1.94
197
1.65
169
3.28
134
3.13
194
DLNR_Zeroshot_testpermissivetwo views23.08
303
78.93
339
7.15
286
99.97
339
0.34
138
0.16
143
98.90
339
3.23
236
0.54
158
3.12
242
2.31
208
6.01
233
0.92
217
21.35
305
96.48
339
100.00
343
25.46
315
22.19
326
22.79
283
2.43
246
9.32
286
9.14
277
0.06
80
0.65
187
2.36
205
3.89
211
2.16
100
3.20
195
iResNettwo views4.46
240
0.88
187
0.92
170
2.61
242
2.85
254
4.95
259
1.38
216
4.97
266
1.33
215
3.66
261
3.45
228
12.37
258
16.29
283
0.06
101
9.09
249
3.33
196
2.53
237
1.85
252
16.79
265
2.68
254
4.65
208
4.29
132
0.25
166
4.69
279
1.88
196
4.19
213
5.32
224
3.22
196
UCFNet_RVCtwo views1.41
146
2.75
256
0.68
140
0.60
187
0.80
194
0.26
180
0.16
135
0.28
85
0.23
124
0.93
157
0.37
138
2.60
189
1.05
221
0.07
107
6.13
210
1.33
58
0.70
126
0.52
140
2.48
120
0.62
137
1.87
129
3.20
92
1.04
254
0.35
126
1.83
194
1.96
176
2.11
97
3.29
197
PMTNettwo views1.51
150
0.60
145
1.30
194
0.27
119
0.26
115
0.02
43
0.18
143
0.51
105
0.56
163
0.71
144
0.33
136
0.59
106
0.48
160
0.09
120
6.84
223
3.43
205
0.91
152
0.38
102
6.13
196
0.44
88
4.00
191
3.52
102
0.13
122
0.15
74
3.04
223
1.29
157
1.36
74
3.30
198
FINETtwo views2.25
188
0.61
147
1.06
183
0.48
176
0.55
175
0.75
204
0.98
203
1.18
129
1.87
237
0.30
112
3.46
229
1.25
161
2.35
237
0.80
241
14.13
284
2.94
177
1.14
177
0.42
119
2.74
132
1.28
201
2.71
150
4.08
126
0.43
207
1.24
232
3.04
223
5.74
232
1.70
86
3.42
199
stereogantwo views2.15
187
2.03
241
1.44
202
1.52
221
2.14
245
1.79
233
1.07
206
1.88
160
1.10
205
1.33
190
1.43
184
5.96
232
0.51
166
0.34
191
5.92
201
1.93
114
1.03
165
0.41
118
4.12
171
0.95
181
1.69
118
6.00
189
0.26
168
0.81
209
0.61
136
1.42
160
6.77
250
3.73
200
GANet-ADLtwo views2.63
197
0.65
157
2.25
236
1.16
212
1.13
208
1.61
229
0.77
199
1.97
162
1.02
202
3.19
246
3.22
224
1.48
169
0.33
129
0.03
67
6.00
206
4.08
239
2.52
236
0.78
180
7.88
211
2.05
231
3.56
178
6.68
213
0.27
174
0.86
214
1.51
186
6.92
244
5.25
222
3.84
201
NOSS_ROBtwo views3.47
222
3.88
271
0.50
125
2.22
240
1.85
234
2.58
243
0.05
76
2.70
207
1.59
226
3.61
259
1.69
193
2.61
191
3.90
251
1.01
249
9.33
251
5.76
265
3.02
243
1.87
254
2.83
135
1.09
188
5.42
223
6.93
217
0.46
214
3.37
266
3.09
227
10.15
271
8.01
264
4.05
202
RAFT-Testtwo views3.05
209
0.69
163
1.82
222
1.09
211
0.81
196
0.25
178
0.43
181
3.13
231
0.76
182
1.06
165
6.42
259
1.03
152
0.91
216
0.35
196
5.61
187
6.66
285
1.32
195
0.61
153
10.76
246
1.74
219
6.54
252
7.48
234
0.56
223
0.59
177
2.76
217
10.02
268
4.56
207
4.35
203
STTStereotwo views1.36
142
0.86
185
0.78
159
0.40
163
0.33
136
0.08
101
1.20
211
0.43
97
1.52
222
1.38
194
0.24
127
2.01
180
0.27
122
0.38
199
9.23
250
1.30
53
0.40
81
0.33
92
1.27
74
0.20
36
1.56
105
1.97
41
0.16
134
0.15
74
0.10
62
1.81
173
3.62
152
4.69
204
XPNet_ROBtwo views3.41
218
2.62
253
1.58
210
0.80
197
1.56
226
1.24
221
0.96
202
0.89
120
1.54
224
1.17
175
3.26
225
26.85
283
0.38
142
0.40
202
6.47
218
2.54
161
3.57
248
0.89
191
3.41
156
1.26
199
3.53
177
7.67
240
0.87
251
0.64
184
0.96
158
2.39
183
9.98
272
4.70
205
cross-rafttwo views2.64
198
0.79
177
1.76
219
0.43
168
0.89
200
0.23
172
0.18
143
3.08
228
0.70
175
0.77
145
2.13
198
1.21
156
0.69
188
0.41
210
5.43
181
5.90
267
1.22
187
0.59
150
10.82
247
1.85
223
6.50
248
8.26
258
0.45
212
0.63
181
2.66
212
4.41
216
4.46
203
4.88
206
NCC-stereotwo views2.13
185
1.68
232
1.46
203
1.00
205
1.37
218
0.89
208
2.88
247
2.59
200
2.86
253
0.34
117
2.72
219
2.40
184
1.41
229
0.27
178
5.18
173
1.38
64
0.85
144
0.98
201
2.99
143
1.01
184
1.54
102
4.72
157
0.43
207
0.53
168
2.61
208
4.44
217
4.09
186
4.93
207
Abc-Nettwo views2.13
185
1.68
232
1.46
203
1.00
205
1.37
218
0.89
208
2.88
247
2.59
200
2.86
253
0.34
117
2.72
219
2.40
184
1.41
229
0.27
178
5.18
173
1.38
64
0.85
144
0.98
201
2.99
143
1.01
184
1.54
102
4.72
157
0.43
207
0.53
168
2.61
208
4.44
217
4.09
186
4.93
207
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Reg-Stereo(zero)two views2.80
203
0.36
105
3.11
250
0.48
176
1.28
213
0.20
166
0.51
188
3.74
249
0.75
180
3.00
238
8.88
283
2.97
195
0.80
202
1.33
260
4.64
151
3.67
221
2.18
227
0.52
140
7.33
206
1.68
214
4.34
199
7.15
221
0.64
234
0.36
136
1.32
172
3.29
196
6.08
237
5.10
209
HItwo views2.80
203
0.36
105
3.11
250
0.48
176
1.28
213
0.20
166
0.51
188
3.74
249
0.75
180
3.00
238
8.88
283
2.97
195
0.80
202
1.33
260
4.64
151
3.67
221
2.18
227
0.52
140
7.33
206
1.68
214
4.34
199
7.15
221
0.64
234
0.36
136
1.32
172
3.29
196
6.08
237
5.10
209
pcwnet_v2two views1.99
181
0.65
157
0.87
167
0.77
196
1.17
209
0.72
201
0.24
157
1.75
148
0.66
173
3.33
248
1.75
195
1.49
171
1.91
234
1.68
270
6.75
221
2.30
148
1.12
174
0.69
164
4.33
177
0.50
106
2.08
136
4.26
131
1.07
256
0.77
204
1.43
184
2.18
179
4.16
190
5.20
211
CASStwo views2.93
207
1.06
206
2.39
239
2.21
239
1.17
209
0.52
195
2.81
245
2.79
216
1.05
204
1.80
206
3.40
226
1.68
176
0.59
177
0.05
92
4.51
144
3.20
191
5.58
270
1.31
231
9.56
232
1.64
213
7.26
261
7.98
250
0.05
72
0.66
188
3.62
239
2.70
190
4.35
196
5.22
212
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
FADNettwo views2.26
189
0.45
120
0.77
156
0.54
184
1.08
207
0.02
43
3.28
253
0.88
119
0.38
142
0.80
149
0.57
152
2.60
189
0.50
165
0.67
235
9.91
256
1.94
116
0.91
152
1.08
213
9.92
237
1.76
220
2.78
151
4.21
129
0.11
118
0.47
158
2.92
220
3.57
200
3.57
150
5.35
213
R-Stereo Traintwo views2.40
191
1.12
211
1.98
227
1.00
205
0.24
104
0.05
84
0.07
90
2.02
164
1.01
200
1.35
191
2.47
211
1.55
172
0.47
158
0.19
154
5.66
191
4.74
245
1.71
213
1.04
208
7.24
203
1.14
192
5.08
214
7.81
244
0.06
80
0.42
147
2.90
218
4.55
220
3.22
130
5.57
214
RAFT-Stereopermissivetwo views2.40
191
1.12
211
1.98
227
1.00
205
0.24
104
0.05
84
0.07
90
2.02
164
1.01
200
1.35
191
2.47
211
1.55
172
0.47
158
0.19
154
5.66
191
4.74
245
1.71
213
1.04
208
7.24
203
1.14
192
5.08
214
7.81
244
0.06
80
0.42
147
2.90
218
4.55
220
3.22
130
5.57
214
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
DCVSM-stereotwo views5.54
254
0.78
175
3.12
252
3.47
250
1.28
213
7.98
273
1.05
205
4.59
262
2.29
245
5.25
287
7.93
277
23.24
278
12.85
276
0.71
238
9.52
254
4.20
240
2.06
224
1.36
234
16.58
262
3.56
267
5.30
221
5.91
186
2.46
273
3.65
268
2.66
212
6.64
240
5.48
229
5.70
216
ACV-stereotwo views8.68
271
5.35
280
4.89
266
8.31
273
1.79
230
11.62
283
4.37
262
3.80
251
6.01
276
5.33
288
7.17
267
6.07
234
26.41
294
1.30
259
11.88
269
10.16
311
6.25
274
2.60
271
51.34
317
14.45
306
9.06
283
8.91
274
1.00
252
2.60
257
2.32
202
8.54
261
7.07
253
5.71
217
GANetREF_RVCpermissivetwo views2.72
199
1.88
236
1.03
181
2.10
236
1.40
222
1.09
215
0.21
154
4.74
263
1.62
228
3.74
263
0.06
95
10.56
254
0.82
206
0.10
125
4.53
146
1.59
82
1.29
191
0.98
201
6.76
199
0.75
162
3.12
165
2.45
57
0.21
150
1.71
242
4.31
243
3.74
208
7.02
252
5.71
217
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
DAStwo views4.65
244
0.98
200
1.28
191
1.99
234
1.39
220
1.39
224
1.58
221
3.52
244
4.17
266
3.33
248
6.18
256
12.75
260
6.50
256
0.10
125
8.31
240
4.81
250
4.46
260
2.26
266
10.21
238
5.35
280
6.51
250
7.66
238
0.57
225
4.84
281
4.63
247
7.17
247
7.79
261
5.90
219
SepStereotwo views4.65
244
0.98
200
1.28
191
1.99
234
1.39
220
1.39
224
1.58
221
3.52
244
4.17
266
3.33
248
6.18
256
12.75
260
6.50
256
0.10
125
8.31
240
4.81
250
4.46
260
2.26
266
10.21
238
5.35
280
6.51
250
7.66
238
0.57
225
4.84
281
4.63
247
7.17
247
7.79
261
5.90
219
TRStereotwo views3.75
231
3.07
260
7.59
287
0.37
154
0.17
71
7.92
272
0.24
157
2.99
224
0.91
194
2.72
226
1.68
192
5.88
231
0.65
183
0.15
144
5.57
186
5.35
262
0.86
149
0.80
181
7.01
202
1.31
203
4.10
192
7.50
235
0.34
192
0.43
153
2.67
214
12.33
280
12.84
282
5.90
219
HBP-ISPtwo views4.03
233
3.61
266
4.65
264
4.90
260
2.67
251
3.96
255
0.21
154
4.13
257
1.33
215
3.40
254
4.53
239
5.06
219
0.59
177
1.99
275
8.66
246
8.18
302
1.95
220
1.49
237
3.09
147
1.55
210
5.74
228
9.32
280
0.67
239
2.28
252
3.06
225
5.01
223
10.99
276
5.93
222
FADNet_RVCtwo views4.48
242
2.12
247
1.42
199
3.57
253
3.69
260
1.20
217
2.37
237
2.30
177
1.42
220
1.77
204
4.48
238
9.79
250
6.84
259
1.84
274
12.73
276
3.36
198
3.55
247
4.20
285
17.52
266
3.76
268
5.93
238
8.26
258
0.72
244
1.64
241
1.78
193
3.63
204
5.12
217
5.99
223
HSM-Net_RVCpermissivetwo views3.23
215
1.35
221
1.70
216
2.82
245
2.07
243
0.73
202
0.46
184
3.48
243
1.14
206
3.44
257
5.99
253
8.07
243
3.38
245
0.27
178
5.71
196
2.35
151
1.54
208
0.27
79
3.44
158
1.35
206
4.35
201
6.00
189
0.70
242
3.05
262
4.68
250
6.45
238
6.23
241
6.18
224
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
EAI-Stereotwo views3.47
222
1.08
210
3.31
254
1.01
209
2.20
247
0.86
206
2.15
235
3.02
225
2.01
241
0.21
101
6.99
264
3.36
197
0.71
191
0.17
150
8.65
245
6.60
283
1.21
182
1.15
219
10.39
243
1.82
222
4.60
206
8.03
253
0.69
240
1.76
244
2.14
199
5.97
234
7.35
257
6.22
225
HHtwo views3.49
224
0.47
123
5.11
271
0.68
192
0.69
187
0.93
210
1.38
216
3.19
234
0.82
186
2.81
228
2.29
205
5.39
224
0.81
204
0.34
191
5.69
194
7.67
300
0.99
159
1.08
213
9.91
235
2.70
255
7.76
267
8.27
260
0.57
225
0.93
218
3.44
235
8.42
258
5.63
233
6.30
226
HanStereotwo views3.49
224
0.47
123
5.11
271
0.68
192
0.69
187
0.93
210
1.38
216
3.19
234
0.82
186
2.81
228
2.29
205
5.39
224
0.81
204
0.34
191
5.69
194
7.67
300
0.99
159
1.08
213
9.91
235
2.70
255
7.76
267
8.27
260
0.57
225
0.93
218
3.44
235
8.42
258
5.63
233
6.30
226
XQCtwo views5.77
257
3.33
264
2.00
230
3.49
251
4.00
264
3.75
254
3.56
255
6.60
279
3.33
258
2.89
234
5.57
248
6.45
236
8.10
263
1.78
272
12.28
272
5.97
268
4.03
256
1.85
252
11.48
250
3.98
270
6.63
255
9.37
282
0.62
231
2.51
255
9.28
281
15.19
291
11.40
279
6.32
228
GEStereo_RVCtwo views2.49
195
0.90
189
1.02
180
1.03
210
0.74
191
1.57
228
1.21
212
2.68
205
0.58
165
0.77
145
0.39
139
2.62
192
0.36
137
0.11
130
4.94
169
4.65
243
2.05
222
2.17
264
9.07
225
2.10
236
3.74
185
9.71
284
0.55
222
1.49
236
0.81
152
0.84
141
4.45
202
6.73
229
NCCL2two views2.48
194
2.35
251
1.52
205
1.33
218
1.96
240
0.23
172
1.25
215
1.33
133
1.30
213
1.63
199
2.57
216
1.38
168
0.55
171
0.40
202
7.49
233
2.59
163
1.77
218
0.67
161
2.58
125
0.83
172
3.36
174
6.56
208
1.66
266
1.53
239
4.71
251
4.33
214
4.24
193
6.90
230
IGEV_Zeroshot_testtwo views4.05
234
0.80
179
8.10
291
6.86
267
0.41
159
2.27
241
1.89
230
3.90
253
1.41
218
2.09
214
8.67
281
4.78
217
1.00
218
0.23
167
5.53
184
6.82
290
1.05
168
0.73
173
9.30
231
1.98
228
7.38
264
8.89
272
0.47
216
0.72
194
5.72
263
5.34
228
5.93
235
7.12
231
IGEV-FEtwo views4.06
235
0.80
179
8.10
291
6.86
267
0.41
159
2.26
240
1.89
230
3.90
253
1.41
218
2.17
217
8.65
279
4.81
218
1.00
218
0.24
168
5.53
184
6.81
289
1.03
165
0.73
173
9.29
229
1.98
228
7.41
265
8.89
272
0.47
216
0.72
194
5.74
264
5.34
228
5.94
236
7.13
232
RGCtwo views2.76
202
2.10
246
5.00
268
1.68
223
1.94
237
1.93
234
1.23
213
2.03
168
1.49
221
0.88
155
4.67
241
2.77
193
2.63
240
0.70
237
5.76
197
1.89
110
1.20
180
0.48
134
4.42
178
1.33
204
2.66
148
6.08
194
0.21
150
1.11
227
2.55
207
5.20
225
5.35
225
7.17
233
ccs_robtwo views4.98
248
1.51
224
2.53
244
2.16
237
0.89
200
3.24
249
1.79
228
4.91
265
1.34
217
4.26
275
15.64
307
28.82
284
10.34
270
0.50
225
6.81
222
5.55
263
2.39
233
1.57
239
6.45
198
2.16
238
6.28
246
6.95
218
0.40
199
2.33
253
1.38
177
2.46
185
4.37
197
7.31
234
MSKI-zero shottwo views3.55
226
0.69
163
1.78
221
0.20
86
0.41
159
0.19
163
0.14
130
3.13
231
0.94
195
0.80
149
6.42
259
3.89
202
0.60
180
0.03
67
5.84
199
6.80
288
1.44
201
1.01
206
11.77
251
2.28
241
6.56
254
8.63
267
0.24
162
0.71
193
4.66
249
11.34
276
7.75
260
7.55
235
LALA_ROBtwo views4.53
243
4.80
276
1.68
214
1.27
215
2.16
246
2.28
242
1.42
220
1.88
160
2.60
251
2.71
225
5.56
247
33.12
288
0.72
193
0.88
244
10.88
264
2.59
163
3.47
246
1.83
251
4.21
174
2.04
230
4.39
202
7.30
226
0.41
203
1.52
237
2.35
204
3.60
203
8.94
268
7.68
236
SGM-Foresttwo views3.19
213
2.07
243
0.45
120
6.33
264
2.00
241
2.67
244
0.10
118
1.46
138
0.76
182
2.49
222
0.91
170
6.65
239
6.47
255
0.48
221
6.84
223
3.08
184
0.85
144
0.33
92
3.65
163
0.62
137
2.81
154
5.69
181
0.84
250
1.18
229
3.88
240
3.84
210
11.86
280
7.73
237
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
DDVStwo views5.69
256
1.54
226
2.40
240
1.70
224
2.85
254
2.20
238
1.17
208
5.90
276
4.00
265
4.08
270
18.83
313
25.64
281
8.12
264
1.56
267
8.35
242
7.04
292
2.73
239
2.05
261
11.37
248
4.73
273
6.54
252
8.98
276
0.34
192
1.71
242
1.84
195
3.53
199
6.53
245
7.90
238
ETE_ROBtwo views5.10
251
4.12
272
1.76
219
1.25
214
2.22
248
2.82
245
2.07
233
1.56
141
4.21
268
1.88
207
5.58
249
37.59
296
0.86
213
1.44
265
10.38
260
2.80
172
4.20
258
0.98
201
5.24
188
1.97
226
4.87
211
7.58
237
0.77
249
1.38
234
2.34
203
3.79
209
15.93
291
8.21
239
Any-RAFTtwo views2.91
206
0.59
144
3.81
258
0.35
149
0.57
180
0.02
43
0.11
120
2.92
221
0.63
170
0.50
132
3.78
231
3.92
203
0.36
137
0.16
149
6.57
220
3.98
236
0.87
151
0.87
187
8.59
217
0.61
136
5.45
224
6.20
197
0.42
206
0.49
160
5.12
257
9.91
267
3.30
136
8.42
240
CC-Net-ROBtwo views5.62
255
8.62
288
1.87
223
23.08
293
6.72
281
15.74
289
8.55
284
0.45
100
0.82
186
1.55
198
0.00
1
24.53
279
3.35
244
3.39
284
5.49
182
0.89
19
2.73
239
1.76
247
12.04
254
0.82
169
1.32
91
1.73
33
9.22
296
0.42
147
3.22
229
2.53
188
2.45
107
8.44
241
GwcNet-ADLtwo views3.44
220
3.11
262
3.40
255
3.24
248
2.51
250
0.88
207
0.42
177
2.96
222
0.71
176
3.80
267
7.12
266
7.96
242
1.21
224
0.20
159
4.76
161
4.86
252
2.42
234
0.72
171
8.04
214
2.75
257
3.31
171
5.54
176
0.28
177
1.76
244
2.68
215
5.24
226
4.37
197
8.53
242
model_zeroshottwo views3.58
229
0.49
128
2.22
235
1.96
232
0.99
206
0.34
186
0.18
143
2.98
223
0.43
148
2.44
221
5.28
244
4.75
216
0.54
170
0.17
150
8.97
248
6.14
272
1.71
213
1.15
219
15.06
260
1.29
202
5.77
235
7.73
242
0.26
168
0.43
153
5.63
261
5.85
233
5.24
220
8.66
243
test-1two views3.29
217
0.29
81
1.96
226
0.33
138
0.26
115
0.23
172
0.42
177
3.11
230
0.84
189
3.35
252
3.99
234
5.66
230
0.78
199
0.19
154
6.33
217
6.00
269
1.70
212
1.62
242
10.71
245
1.73
218
5.37
222
9.64
283
0.07
97
0.76
201
3.30
232
6.12
237
5.48
229
8.68
244
anonymitytwo views4.07
236
0.78
175
6.15
281
1.49
220
0.74
191
0.48
190
0.49
186
3.72
248
1.65
230
2.70
224
20.70
318
3.99
204
0.88
214
0.28
183
5.31
179
6.26
276
1.14
177
0.71
169
7.91
212
1.58
211
4.27
198
8.17
257
0.41
203
0.61
179
4.86
254
9.60
266
5.48
229
9.41
245
XX-Stereotwo views3.82
232
0.53
132
2.00
230
1.20
213
0.31
124
0.38
187
0.57
193
1.46
138
0.40
145
2.50
223
7.33
269
5.11
221
1.04
220
0.11
130
7.05
228
6.53
281
1.29
191
0.81
182
7.44
208
0.89
175
4.26
197
5.80
183
0.45
212
0.39
142
27.22
308
3.57
200
5.16
219
9.43
246
SFCPSMtwo views5.84
258
2.89
258
1.36
197
1.97
233
1.59
227
1.65
230
0.56
192
2.54
196
4.75
271
3.16
243
7.74
274
15.48
267
23.57
291
1.24
256
11.21
265
4.79
249
2.53
237
1.55
238
22.65
282
7.42
287
4.60
206
6.67
212
0.69
240
2.33
253
4.62
246
4.35
215
6.18
240
9.49
247
FC-DCNNcopylefttwo views4.43
239
4.58
274
5.93
278
9.82
279
4.79
269
8.76
278
4.48
265
4.47
259
1.65
230
2.91
236
2.13
198
6.53
238
2.41
238
0.30
186
4.57
147
2.52
159
2.76
242
1.21
224
3.98
170
0.89
175
3.66
183
4.91
162
0.73
246
4.23
274
8.24
274
6.03
236
7.69
258
9.53
248
dadtwo views4.27
238
0.90
189
0.38
96
10.18
280
1.67
229
1.51
226
12.20
290
12.33
291
0.11
81
3.40
254
0.00
1
1.94
179
3.49
246
0.26
174
6.16
211
1.44
69
1.74
217
0.71
169
14.06
259
0.66
152
3.23
167
4.00
124
0.21
150
1.02
222
6.09
267
0.19
81
17.62
294
9.71
249
PA-Nettwo views2.07
184
0.95
194
1.62
211
0.31
131
2.13
244
0.17
154
0.70
197
0.21
73
1.90
238
0.84
151
1.44
185
0.30
58
0.21
106
0.84
242
7.47
231
1.66
93
0.38
78
0.37
97
1.25
72
0.74
160
1.66
116
4.96
168
0.64
234
0.51
165
1.03
160
11.53
278
2.31
103
9.73
250
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
RTSCtwo views3.11
211
0.95
194
1.93
225
0.51
181
0.89
200
1.05
214
2.90
249
1.64
143
1.98
240
2.28
218
2.71
218
1.60
174
1.14
222
1.24
256
11.23
266
4.78
248
4.92
268
2.00
260
8.11
216
1.61
212
4.78
210
6.97
219
0.34
192
1.52
237
1.35
175
1.21
155
4.60
209
9.80
251
ADCReftwo views3.22
214
2.76
257
1.07
184
0.70
194
2.26
249
2.09
237
2.76
244
1.00
124
5.91
275
1.91
208
1.10
179
1.28
164
0.78
199
1.43
264
8.09
239
3.52
211
1.51
206
1.18
221
8.68
218
2.26
240
3.23
167
6.00
189
1.89
268
1.20
230
3.12
228
7.80
253
3.41
143
10.10
252
ADCP+two views3.65
230
2.02
238
2.68
246
1.32
217
1.94
237
1.22
219
4.40
263
1.11
127
9.44
289
1.76
203
5.45
246
9.05
246
0.37
141
0.98
247
6.99
227
2.36
152
0.61
118
0.92
195
6.14
197
0.94
180
2.80
153
5.58
179
0.36
196
0.63
181
3.00
221
12.42
281
3.57
150
10.51
253
FC-DCNN v2copylefttwo views4.85
247
4.85
277
6.16
282
11.18
282
5.04
270
9.41
279
4.33
261
5.45
273
2.13
243
2.92
237
2.41
210
6.96
240
3.28
243
0.29
185
4.66
153
2.49
156
2.73
239
1.13
218
4.30
175
0.89
175
3.66
183
4.92
163
0.72
244
4.22
273
9.66
284
6.86
243
9.29
269
10.92
254
ADCLtwo views4.20
237
3.62
267
2.45
241
1.72
226
1.80
231
3.15
248
4.53
266
2.29
176
13.19
296
2.81
228
4.88
243
2.96
194
0.72
193
1.36
263
7.16
229
2.76
171
2.35
232
2.20
265
6.83
200
2.31
243
6.19
243
6.77
215
1.40
263
1.47
235
6.63
271
6.49
239
4.40
200
11.08
255
s12784htwo views2.36
190
2.32
250
2.69
247
1.64
222
0.77
193
0.08
101
0.06
85
2.09
171
0.54
158
1.17
175
0.13
111
1.69
177
0.67
184
0.04
85
3.36
97
3.26
193
1.00
163
0.40
107
3.79
167
0.49
102
5.47
225
4.44
138
0.16
134
0.38
140
3.34
233
5.45
230
7.07
253
11.25
256
LG-Stereo_Zeroshottwo views2.83
205
1.26
218
0.34
73
1.44
219
2.86
256
4.15
256
1.24
214
2.76
215
0.98
196
6.41
293
3.42
227
7.88
241
0.71
191
0.04
85
3.70
110
3.23
192
0.59
114
0.66
157
5.00
185
1.09
188
3.83
189
6.59
211
0.08
103
0.26
104
0.53
129
1.83
174
4.26
194
11.30
257
AIO-Stereo-zeroshotpermissivetwo views4.98
248
1.32
220
8.08
290
2.22
240
1.40
222
5.53
260
2.05
232
3.43
241
3.32
257
3.75
264
12.29
296
5.33
223
1.84
232
0.33
190
5.97
205
7.09
293
1.62
209
1.81
249
10.22
240
2.59
251
6.85
257
8.81
269
0.47
216
2.00
249
5.18
258
13.24
286
6.40
244
11.37
258
SHDtwo views5.09
250
1.15
214
3.12
252
1.80
228
1.94
237
1.71
231
2.82
246
5.09
269
4.76
272
2.82
231
5.39
245
5.07
220
9.79
269
0.87
243
11.37
268
6.33
279
4.71
264
2.67
273
13.97
258
3.50
266
7.31
262
8.29
264
0.44
210
3.88
269
5.02
256
7.49
251
4.03
180
12.20
259
AnonymousMtwo views1.93
179
0.21
59
0.42
103
0.06
49
0.06
38
0.26
180
0.01
13
2.70
207
0.56
163
0.36
122
2.56
215
0.59
106
0.53
169
0.50
225
2.91
78
3.30
195
1.21
182
1.06
211
2.18
106
1.68
214
3.82
187
5.56
177
0.40
199
0.50
162
0.21
96
1.57
165
6.55
246
12.23
260
AIO-Stereo-zeroshot1permissivetwo views6.35
263
1.86
235
7.76
288
2.86
246
2.71
252
7.05
268
3.15
251
3.93
255
4.88
274
4.54
279
11.42
293
5.15
222
2.03
235
0.06
101
10.49
262
8.30
303
2.05
222
1.28
230
37.56
301
2.22
239
6.07
241
9.22
278
0.40
199
0.89
216
4.29
242
12.82
284
6.10
239
12.31
261
iRaft-Stereo_20wtwo views4.82
246
1.53
225
8.41
294
7.63
270
1.90
235
3.40
251
1.71
224
3.40
240
2.25
244
3.58
258
9.41
289
3.70
199
1.31
225
0.48
221
5.41
180
5.85
266
1.31
194
0.85
185
9.58
233
1.92
225
5.27
220
7.69
241
0.65
237
0.77
204
4.40
244
14.15
288
11.18
277
12.46
262
DGSMNettwo views12.26
284
4.87
278
8.31
293
6.01
263
6.04
276
7.30
270
6.59
275
7.90
281
4.51
270
11.38
306
32.66
326
17.48
271
8.74
265
4.36
289
14.01
283
14.50
319
17.26
304
9.25
307
41.69
308
11.54
302
21.38
323
24.41
325
4.74
289
7.56
299
5.44
259
11.45
277
8.55
266
13.11
263
CBMV_ROBtwo views7.04
265
2.92
259
2.91
248
8.40
274
6.54
280
5.80
262
3.57
256
5.09
269
2.49
248
3.84
269
4.70
242
21.33
276
14.76
281
0.47
219
10.48
261
3.84
232
3.13
244
1.58
240
12.20
255
8.81
293
6.17
242
5.80
183
0.47
216
3.14
264
9.16
280
15.50
293
13.69
285
13.29
264
CSANtwo views5.32
252
2.66
254
1.69
215
3.30
249
3.85
262
2.05
235
2.31
236
5.00
268
4.86
273
3.78
266
2.69
217
17.88
272
11.82
274
1.17
255
10.17
258
1.96
118
2.51
235
1.35
232
6.12
195
2.50
247
3.97
190
4.60
151
0.56
223
2.97
261
6.49
269
16.18
294
7.96
263
13.30
265
NaN_ROBtwo views3.44
220
1.18
217
1.20
190
0.92
202
3.15
258
0.73
202
1.61
223
3.36
238
2.57
250
0.98
161
1.25
183
21.11
275
0.77
198
1.26
258
5.06
170
1.79
102
1.06
170
0.76
177
2.52
122
1.44
208
1.95
133
3.82
116
0.52
221
1.30
233
4.05
241
10.09
270
4.78
211
13.66
266
MFN_U_SF_DS_RVCtwo views7.94
270
3.78
269
1.17
189
9.35
277
4.27
266
8.06
274
8.52
283
11.24
289
8.55
285
4.88
285
4.04
235
17.24
270
9.50
268
6.06
294
14.53
292
3.53
212
2.28
230
1.12
217
19.59
275
2.56
250
8.24
274
9.72
285
3.14
280
2.11
250
11.98
289
14.76
289
10.14
273
14.15
267
AnyNet_C32two views6.34
262
2.03
241
2.98
249
1.85
230
2.88
257
3.58
252
6.75
276
4.57
261
12.25
293
3.05
240
7.04
265
4.71
215
1.88
233
2.57
278
14.38
290
6.24
275
6.31
275
4.36
288
12.98
256
3.18
261
11.94
297
11.62
299
1.98
269
4.21
272
6.60
270
10.55
272
6.27
242
14.36
268
ITSA-stereotwo views5.42
253
2.29
249
1.89
224
8.97
276
3.88
263
1.23
220
2.54
239
4.47
259
3.35
261
4.35
277
7.59
270
10.18
251
12.92
277
3.00
279
7.80
236
5.16
255
3.85
250
1.88
255
8.77
219
2.09
235
6.00
239
7.39
227
1.42
264
3.60
267
4.84
253
7.18
249
5.13
218
14.47
269
MaskLacGwcNet_RVCtwo views8.85
274
1.66
231
6.09
280
4.62
259
3.79
261
3.05
247
6.94
277
3.69
247
3.58
262
4.74
283
10.17
291
65.85
325
12.11
275
7.99
298
7.88
237
5.27
258
4.63
262
5.31
290
18.89
271
2.67
253
8.70
278
10.19
290
1.05
255
4.09
271
5.01
255
9.52
265
6.30
243
15.16
270
ADCPNettwo views7.46
266
2.07
243
4.11
261
2.81
244
6.39
277
3.36
250
8.24
281
5.53
274
7.83
283
3.76
265
7.86
275
5.53
229
14.04
279
3.15
282
13.54
281
6.64
284
4.80
265
2.06
262
18.97
272
5.05
278
8.54
276
10.30
292
2.99
277
2.59
256
9.61
283
17.77
296
7.74
259
16.22
271
ADCMidtwo views7.46
266
4.47
273
5.08
269
2.16
237
4.40
267
5.87
263
8.05
280
9.24
283
12.39
294
3.16
243
7.69
272
10.20
252
10.41
271
3.13
281
12.60
275
5.58
264
5.05
269
2.83
275
19.52
273
4.27
271
8.70
278
10.59
294
5.48
290
2.86
259
5.69
262
10.08
269
5.48
229
16.37
272
ACVNet_1two views28.17
311
43.81
313
17.24
310
67.32
322
49.50
318
66.04
326
82.98
332
16.42
303
8.08
284
11.43
307
7.19
268
34.00
291
27.09
296
93.81
325
14.92
295
2.21
143
17.82
306
6.77
302
36.07
299
11.39
301
10.56
292
7.42
231
59.65
321
6.11
291
20.40
304
15.24
292
10.18
275
16.93
273
MSC_U_SF_DS_RVCtwo views11.75
282
10.45
291
6.25
283
17.50
287
6.77
282
8.15
275
11.44
289
18.23
305
23.22
316
11.11
304
4.62
240
15.32
266
6.08
254
10.68
302
16.27
301
6.19
274
3.94
253
5.52
291
39.73
305
7.74
290
9.53
288
12.33
303
7.02
292
7.63
300
14.72
295
12.91
285
6.89
251
16.97
274
FAT-Stereotwo views7.68
269
2.26
248
8.90
296
7.33
269
12.67
295
6.25
265
3.58
257
7.41
280
3.60
263
5.82
289
12.39
297
18.45
273
9.06
266
1.35
262
12.36
273
6.54
282
3.93
252
4.03
284
15.97
261
6.36
283
7.78
269
9.24
279
0.76
248
5.29
289
3.49
237
6.98
245
8.20
265
17.22
275
S-Stereotwo views9.64
275
2.07
243
4.59
262
8.70
275
8.72
285
12.93
286
19.52
297
5.25
271
6.14
278
6.12
292
20.39
317
29.19
285
7.43
260
0.64
232
14.26
287
7.63
299
4.01
255
5.81
295
18.32
267
6.45
285
7.46
266
9.84
286
12.36
301
7.40
298
3.61
238
6.74
241
7.10
255
17.56
276
PSMNet_ROBtwo views32.72
314
49.56
321
17.71
312
65.01
320
47.98
315
61.81
316
62.32
313
19.85
310
21.78
315
27.64
323
25.28
322
42.80
303
43.52
317
83.58
314
21.88
316
4.36
241
19.43
308
6.46
300
43.95
310
16.36
309
13.14
302
11.66
300
58.31
318
14.57
318
31.67
312
24.32
312
29.94
309
18.64
277
ACVNet-4btwo views27.62
309
43.15
311
14.04
305
69.86
327
48.10
316
70.20
329
77.34
327
10.63
288
9.55
290
15.00
315
1.55
188
59.33
318
11.37
273
93.44
324
12.94
278
2.57
162
15.66
302
5.69
294
33.68
295
14.13
304
9.17
285
7.28
224
59.49
320
4.60
277
12.85
292
9.43
264
15.52
290
19.12
278
ADCStwo views10.79
276
5.73
281
4.98
267
4.16
257
6.39
277
6.60
266
6.53
273
10.15
287
15.87
302
4.18
273
7.59
270
13.56
263
18.31
284
4.53
290
14.24
286
11.99
316
10.80
288
7.09
303
25.37
287
9.28
296
16.45
314
16.31
318
2.97
276
7.03
297
10.05
287
20.56
303
11.21
278
19.51
279
AMNettwo views6.93
264
3.82
270
2.53
244
4.00
255
5.78
274
6.99
267
3.24
252
2.46
193
2.51
249
3.39
253
6.36
258
9.40
249
2.06
236
7.30
295
5.92
201
9.99
309
13.66
300
7.81
304
8.03
213
7.76
291
11.45
294
8.81
269
2.81
275
4.73
280
5.75
265
7.80
253
13.20
283
19.55
280
SQANettwo views19.01
293
32.39
308
7.05
285
58.51
309
34.20
306
58.54
312
40.35
308
4.32
258
1.69
233
4.85
284
1.45
186
32.05
287
6.71
258
57.82
309
11.24
267
1.77
101
6.68
278
1.66
243
31.16
291
2.08
234
8.23
273
7.99
251
54.11
314
2.11
250
5.60
260
10.88
274
10.17
274
19.67
281
MFN_U_SF_RVCtwo views11.03
277
6.12
284
3.70
257
9.72
278
5.50
271
12.91
285
11.38
288
12.61
293
7.46
282
12.18
310
14.75
303
23.19
277
14.11
280
9.33
299
18.32
305
5.16
255
4.41
259
3.43
280
39.06
304
6.67
286
10.28
289
11.18
296
1.45
265
6.88
296
9.80
285
8.50
260
9.76
270
19.96
282
otakutwo views22.42
301
43.20
312
9.38
297
63.06
315
42.07
312
64.13
321
51.05
309
6.07
278
4.42
269
10.13
302
1.74
194
33.95
290
10.96
272
66.92
311
12.03
271
1.89
110
8.57
283
1.66
243
38.00
302
7.96
292
8.85
282
8.28
263
54.71
315
2.95
260
9.04
278
9.25
263
14.25
288
20.70
283
AnyNet_C01two views13.13
287
6.35
285
5.48
274
6.38
265
6.46
279
5.73
261
10.15
286
12.79
296
16.56
303
5.83
290
9.31
287
26.51
282
19.60
286
5.31
293
17.84
303
13.62
317
17.55
305
15.56
321
35.24
297
11.09
300
19.28
319
17.31
320
7.05
293
7.85
302
13.46
293
10.79
273
9.89
271
21.58
284
RTStwo views6.13
259
1.54
226
1.31
195
0.94
203
1.83
232
4.15
256
5.45
268
2.74
212
3.33
258
2.85
232
1.61
190
8.52
244
1.31
225
1.13
253
14.79
293
6.12
270
7.56
280
2.52
269
18.82
269
3.48
262
6.23
244
8.15
255
1.11
257
1.90
247
8.24
274
21.58
307
6.64
247
21.79
285
RTSAtwo views6.13
259
1.54
226
1.31
195
0.94
203
1.83
232
4.15
256
5.45
268
2.74
212
3.33
258
2.85
232
1.61
190
8.52
244
1.31
225
1.13
253
14.79
293
6.12
270
7.56
280
2.52
269
18.82
269
3.48
262
6.23
244
8.15
255
1.11
257
1.90
247
8.24
274
21.58
307
6.64
247
21.79
285
FBW_ROBtwo views8.77
273
9.60
289
5.96
279
20.47
292
9.29
287
12.71
284
9.20
285
4.97
266
1.59
226
3.30
247
6.98
263
15.27
265
3.59
247
7.76
297
10.34
259
1.71
99
3.43
245
0.86
186
34.07
296
2.29
242
6.89
258
6.34
200
9.32
297
8.81
304
5.75
265
8.41
256
5.24
220
22.62
287
SANettwo views11.19
280
4.59
275
6.27
284
5.98
262
6.03
275
9.51
280
3.52
254
15.63
298
13.49
297
2.90
235
8.65
279
59.91
319
26.52
295
3.01
280
14.30
288
3.26
193
7.32
279
3.86
283
11.91
252
3.94
269
6.50
248
7.39
227
2.61
274
7.75
301
12.68
291
17.80
297
13.93
286
22.99
288
RainbowNettwo views28.72
312
46.67
315
19.30
314
69.82
326
47.14
314
68.90
328
70.63
322
10.00
285
3.26
256
17.63
317
2.27
201
46.57
307
29.74
300
91.67
320
17.86
304
3.37
199
12.50
293
5.59
292
44.74
311
17.11
311
10.33
290
8.87
271
58.90
319
5.15
287
14.30
294
12.58
282
17.44
293
23.01
289
Ntrotwo views23.84
306
41.67
310
11.59
300
63.69
318
43.73
313
62.95
319
57.60
312
8.47
282
6.35
279
11.89
309
2.51
213
35.10
293
7.96
262
75.67
313
12.59
274
1.67
94
9.55
287
2.68
274
39.05
303
9.79
298
8.70
278
8.40
266
55.40
316
3.24
265
11.18
288
15.16
290
14.07
287
23.09
290
G-Nettwo views11.11
279
4.89
279
9.62
298
4.05
256
4.71
268
7.69
271
2.56
240
10.07
286
15.27
300
5.01
286
15.52
306
47.57
311
9.25
267
0.66
234
11.93
270
8.70
305
5.83
271
4.33
287
24.55
286
15.55
308
8.38
275
9.97
288
3.01
278
5.25
288
6.16
268
13.40
287
22.59
299
23.59
291
PWC_ROBbinarytwo views7.58
268
2.00
237
5.48
274
0.90
201
1.32
216
2.25
239
5.46
270
2.83
218
16.84
304
3.83
268
8.10
278
5.42
226
39.62
312
1.01
249
9.69
255
5.15
254
6.62
276
4.25
286
16.71
264
4.76
275
8.56
277
10.40
293
0.63
232
4.96
284
3.07
226
3.69
205
7.15
256
24.07
292
MDST_ROBtwo views11.38
281
16.72
298
3.53
256
29.03
297
10.09
291
21.13
296
6.30
272
6.03
277
2.39
246
3.16
243
5.82
252
11.55
256
29.02
299
0.67
235
15.26
299
3.18
190
1.65
210
0.66
157
8.85
221
2.07
232
5.87
236
6.71
214
2.26
270
3.08
263
28.29
310
22.14
309
37.48
318
24.36
293
LVEtwo views40.69
323
49.32
320
32.19
326
74.37
333
65.31
330
65.52
323
78.53
328
29.09
323
24.11
317
37.95
329
38.44
328
39.09
300
50.88
324
95.16
336
18.50
307
6.31
278
25.93
316
13.65
318
54.80
323
26.51
325
16.26
312
15.81
317
69.49
333
26.57
325
44.82
328
33.95
328
41.51
322
24.49
294
DPSNettwo views15.27
291
3.38
265
2.28
238
7.89
272
8.28
284
10.58
282
4.44
264
5.86
275
8.70
287
4.26
275
6.00
255
72.12
330
28.20
298
4.69
291
15.14
298
10.42
312
11.48
291
8.27
305
58.42
328
9.38
297
12.12
299
11.31
297
17.29
306
11.11
309
20.16
303
20.85
306
14.99
289
24.68
295
SPS-STEREOcopylefttwo views20.98
299
14.87
295
11.99
301
19.90
291
20.87
297
18.85
293
10.39
287
16.04
302
19.39
310
19.65
319
21.64
320
33.32
289
37.38
310
7.51
296
19.34
311
17.18
323
26.65
318
16.12
323
32.93
293
23.87
320
31.45
331
25.37
329
13.83
303
14.33
317
17.76
299
19.97
301
29.60
307
26.21
296
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
LRCNet_RVCtwo views60.98
333
74.62
338
47.06
335
94.31
338
95.29
339
91.20
339
85.70
336
54.57
333
35.63
318
98.62
339
74.21
338
91.97
340
68.08
337
96.82
339
39.31
328
18.45
325
70.27
336
52.85
336
94.58
338
64.63
338
32.99
333
24.53
327
94.81
338
53.78
338
19.71
301
12.68
283
33.49
312
26.36
297
pmcnntwo views8.69
272
3.07
260
2.45
241
6.53
266
5.75
273
7.18
269
4.96
267
4.79
264
2.03
242
4.24
274
12.14
295
19.36
274
21.49
289
0.91
245
9.48
252
6.75
286
6.67
277
4.39
289
22.61
281
5.09
279
10.91
293
7.84
246
4.51
288
5.07
286
6.90
273
5.26
227
17.73
295
26.48
298
SGM-ForestMtwo views13.51
289
15.62
296
5.25
273
19.43
290
9.27
286
19.59
294
12.46
291
12.78
295
8.97
288
3.34
251
9.27
286
36.07
295
25.37
293
2.03
276
16.48
302
3.39
201
4.90
267
1.21
224
22.28
279
2.96
259
6.90
259
5.25
173
1.83
267
4.68
278
27.51
309
25.27
313
34.85
316
27.72
299
edge stereotwo views11.93
283
6.96
286
11.28
299
14.49
284
12.53
294
16.91
290
13.06
292
12.62
294
7.43
281
6.06
291
15.07
304
38.54
298
18.86
285
1.55
266
12.90
277
7.43
296
6.14
272
3.10
277
25.46
288
4.74
274
8.16
272
10.22
291
4.20
286
4.35
275
9.83
286
8.13
255
13.68
284
28.51
300
CBMVpermissivetwo views6.33
261
3.75
268
1.57
209
3.96
254
3.58
259
2.97
246
1.75
226
3.89
252
2.67
252
4.14
271
2.72
219
14.42
264
3.85
250
0.73
240
10.81
263
6.26
276
4.67
263
2.29
268
9.29
229
1.51
209
8.03
271
7.42
231
0.63
232
6.58
295
6.79
272
7.57
252
20.00
297
28.98
301
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
MonStereo1two views31.37
313
44.05
314
18.10
313
63.40
316
51.01
324
58.41
311
67.37
316
18.80
307
19.56
311
11.72
308
19.29
314
63.23
324
45.03
318
93.02
323
14.99
297
4.67
244
19.74
309
9.74
310
41.29
307
14.22
305
12.85
301
11.31
297
61.91
327
4.55
276
12.64
290
11.07
275
25.06
302
29.83
302
SGM_RVCbinarytwo views11.04
278
10.51
292
3.94
259
16.88
286
9.65
290
15.55
288
8.47
282
9.54
284
6.09
277
4.15
272
7.87
276
25.06
280
19.78
288
0.97
246
9.49
253
2.25
145
3.81
249
1.26
229
21.86
278
2.34
245
6.63
255
5.12
170
2.33
271
4.85
283
18.97
300
16.47
295
33.79
313
30.47
303
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SGM+DAISYtwo views22.46
302
16.23
297
12.74
302
23.16
294
22.67
298
25.12
298
20.00
298
18.50
306
14.48
299
18.58
318
22.04
321
30.49
286
41.59
313
13.05
304
22.51
317
16.54
320
26.00
317
12.93
315
35.92
298
22.37
318
28.02
329
25.12
328
21.26
307
13.77
315
20.04
302
18.46
299
33.94
314
30.81
304
STTRV1_RVCtwo views2.66
254
1.55
208
5.84
261
1.90
235
6.01
264
3.60
258
4.11
256
3.93
264
4.64
281
6.71
261
16.96
269
21.63
290
1.68
270
5.04
253
18.60
307
1.18
221
12.74
303
19.16
318
5.05
285
9.07
279
12.15
279
12.79
281
31.40
305
Deantwo views44.25
325
52.28
324
33.23
327
77.10
334
64.97
329
79.61
338
83.94
334
43.21
327
43.41
324
35.28
328
25.28
322
61.70
321
57.88
333
95.07
335
21.16
315
4.55
242
29.50
323
12.92
314
64.62
331
29.22
328
11.94
297
10.07
289
59.70
322
23.01
322
50.00
331
39.42
331
53.45
332
32.13
306
MeshStereopermissivetwo views13.92
290
10.29
290
5.80
277
24.32
296
15.33
296
17.65
292
7.76
279
12.34
292
7.38
280
4.65
282
9.09
285
38.22
297
30.61
302
0.62
231
14.44
291
7.42
295
4.05
257
2.65
272
19.82
276
2.63
252
14.32
308
9.90
287
1.27
260
6.42
293
22.75
305
19.43
300
33.41
311
33.14
307
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
DispFullNettwo views27.09
308
40.76
309
20.37
315
53.27
308
39.67
310
45.72
309
56.25
311
14.00
297
12.78
295
14.18
312
10.07
290
43.95
305
34.00
307
86.26
316
13.33
279
13.62
317
31.37
326
16.57
324
52.58
319
15.02
307
15.98
311
12.66
306
15.43
304
6.52
294
8.73
277
8.65
262
16.24
292
33.48
308
LSM0two views23.31
304
6.07
283
4.80
265
15.07
285
10.87
292
17.08
291
14.50
293
23.84
314
15.74
301
14.73
314
18.40
312
35.77
294
35.06
308
1.58
268
76.98
336
85.81
337
14.68
301
5.68
293
56.53
326
17.15
312
23.95
326
21.89
323
4.26
287
8.21
303
17.36
298
20.39
302
29.27
306
33.71
309
ACVNet_2two views33.32
316
48.24
317
22.45
317
67.72
325
50.69
323
65.88
324
85.41
335
28.48
320
14.03
298
14.63
313
9.36
288
52.16
315
31.94
304
91.62
319
13.62
282
2.72
168
21.29
310
5.84
296
51.78
318
16.52
310
10.41
291
7.93
249
58.06
317
13.93
316
36.96
323
18.42
298
25.58
303
33.95
310
PVDtwo views13.07
286
5.77
282
8.84
295
7.67
271
7.35
283
10.40
281
7.28
278
21.12
312
19.70
312
3.65
260
8.76
282
16.32
268
27.90
297
3.25
283
14.97
296
8.92
307
11.32
289
6.23
299
25.56
289
7.56
288
12.68
300
14.11
312
1.29
261
6.16
292
16.97
297
25.32
314
18.21
296
35.51
311
MADNet+two views20.34
295
8.33
287
14.90
308
18.17
288
11.98
293
8.55
276
19.20
295
28.96
322
17.96
307
12.55
311
11.63
294
34.32
292
30.36
301
10.57
301
26.85
320
16.66
321
27.39
320
10.40
312
40.88
306
18.27
313
19.91
321
15.53
316
9.97
300
19.40
320
35.72
318
22.38
310
21.31
298
37.09
312
MFMNet_retwo views16.81
292
13.74
294
7.85
289
23.81
295
9.51
289
34.14
305
18.04
294
12.31
290
19.02
309
10.33
303
12.96
298
38.69
299
15.16
282
1.61
269
18.46
306
10.89
314
28.67
322
12.10
313
31.52
292
10.43
299
18.75
317
11.05
295
8.52
295
9.85
305
9.47
282
5.57
231
24.17
300
37.24
313
WAO-7two views28.15
310
31.17
307
25.54
319
33.41
299
34.99
307
22.62
297
28.62
303
47.75
331
47.89
329
29.08
324
39.82
330
41.47
302
41.79
314
12.75
303
36.14
327
18.16
324
17.03
303
8.88
306
47.38
312
21.69
317
11.73
295
12.95
309
3.79
285
33.81
330
23.20
306
26.44
317
24.41
301
37.61
314
STStereotwo views20.61
297
24.96
304
17.24
310
39.82
305
27.48
304
32.58
303
22.87
301
19.77
309
17.77
306
8.05
297
19.67
315
46.38
306
37.96
311
2.15
277
18.66
308
4.75
247
4.82
266
1.95
256
33.25
294
6.38
284
9.07
284
8.67
268
3.28
281
10.68
307
31.80
313
27.62
319
40.75
320
38.09
315
IMH-64-1two views35.05
317
48.99
318
25.77
321
61.80
311
50.28
321
62.71
317
68.79
317
27.80
317
35.88
319
10.10
300
14.48
301
46.82
308
41.96
315
94.04
326
19.93
312
7.49
297
22.67
311
9.35
308
48.46
313
21.14
315
14.12
306
12.56
304
59.91
323
12.21
311
41.64
324
20.57
304
27.79
304
39.03
316
IMH-64two views35.05
317
48.99
318
25.77
321
61.80
311
50.28
321
62.71
317
68.79
317
27.80
317
35.88
319
10.10
300
14.48
301
46.82
308
41.96
315
94.04
326
19.93
312
7.49
297
22.67
311
9.35
308
48.46
313
21.14
315
14.12
306
12.56
304
59.91
323
12.21
311
41.64
324
20.57
304
27.79
304
39.03
316
PWCKtwo views39.46
321
63.60
330
25.26
318
73.87
332
41.94
311
61.54
315
51.88
310
54.42
332
37.36
321
26.43
322
38.00
327
62.72
323
47.31
320
27.64
307
24.07
319
10.09
310
32.07
327
12.97
316
84.14
337
29.01
327
25.42
327
16.79
319
48.17
313
30.69
329
35.86
320
32.01
323
32.05
310
40.21
318
ELAS_RVCcopylefttwo views20.43
296
19.80
300
14.61
307
33.93
300
22.90
299
33.71
304
20.10
299
15.64
299
12.18
292
8.45
298
19.69
316
54.25
317
33.97
306
4.07
286
13.47
280
5.30
261
11.89
292
6.49
301
21.52
277
8.87
294
14.06
305
14.69
314
9.63
299
11.88
310
32.34
314
25.79
315
41.56
324
40.71
319
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views36.38
319
50.15
322
26.16
323
62.16
314
50.12
320
63.98
320
68.96
319
28.54
321
38.29
322
11.29
305
14.14
299
50.26
313
54.45
331
94.09
328
20.59
314
7.40
294
23.63
313
10.28
311
49.17
315
22.78
319
13.74
304
11.88
301
59.95
325
13.42
314
41.71
326
23.99
311
29.69
308
41.45
320
WAO-6two views37.66
320
47.81
316
21.43
316
60.52
310
52.73
325
58.92
313
64.84
314
27.98
319
43.38
323
33.02
327
17.53
309
43.36
304
50.95
325
89.65
317
33.50
323
18.63
327
24.84
314
13.57
317
42.17
309
25.77
322
21.16
322
19.52
321
35.00
309
18.52
319
43.20
327
29.62
321
37.17
317
41.96
321
ELAScopylefttwo views20.62
298
22.76
303
14.59
306
35.29
302
24.88
303
31.90
301
20.66
300
17.34
304
17.05
305
7.97
296
18.32
311
48.39
312
31.67
303
4.13
287
14.30
288
5.24
257
11.47
290
6.10
298
23.02
284
7.62
289
13.14
302
14.53
313
9.46
298
10.75
308
34.52
316
27.84
320
41.52
323
42.31
322
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views50.99
328
64.58
332
35.58
328
71.22
330
67.03
331
71.52
331
79.74
330
46.10
330
64.92
334
43.57
332
60.04
334
61.27
320
52.88
329
94.30
329
52.11
332
32.30
331
36.01
329
25.62
328
66.68
333
41.75
333
26.51
328
26.69
331
69.04
332
40.16
333
27.04
307
32.57
325
39.45
319
47.99
323
JetBluetwo views33.16
315
30.03
306
36.86
331
39.95
306
35.04
308
44.19
308
36.23
306
30.47
325
47.01
328
15.01
316
10.48
292
79.96
336
19.64
287
25.82
306
18.89
310
17.14
322
40.11
331
25.93
329
36.94
300
25.94
323
32.23
332
26.39
330
31.84
308
27.47
326
31.63
311
33.13
326
48.81
329
48.30
324
BEATNet-Init1two views25.27
307
27.76
305
13.76
304
44.57
307
24.32
300
38.91
307
25.10
302
19.51
308
20.03
313
9.35
299
16.15
308
47.35
310
48.89
323
4.71
292
23.55
318
11.00
315
8.78
284
5.84
296
49.88
316
20.70
314
15.01
309
14.94
315
7.37
294
12.57
313
35.78
319
26.22
316
60.85
337
49.36
325
MANEtwo views21.44
300
17.36
299
16.07
309
34.52
301
24.54
301
25.94
299
19.26
296
20.13
311
18.43
308
6.42
294
15.25
305
40.88
301
36.30
309
4.35
288
18.72
309
10.55
313
8.23
282
29.63
331
23.68
285
4.94
276
11.81
296
8.91
274
3.02
279
10.18
306
36.19
321
32.24
324
51.66
331
49.72
326
TorneroNettwo views40.95
324
54.80
325
28.35
324
67.47
324
50.00
319
66.00
325
71.75
323
26.53
315
45.69
326
24.20
321
21.34
319
68.12
326
53.25
330
94.92
332
27.93
322
9.57
308
26.82
319
16.87
325
54.27
322
24.50
321
16.26
312
13.93
311
62.31
328
23.32
323
36.59
322
27.14
318
43.07
325
50.69
327
KSHMRtwo views57.18
332
74.32
337
54.88
336
81.85
337
71.02
333
78.52
337
83.49
333
67.32
338
55.52
333
57.05
336
55.43
333
62.46
322
47.47
321
94.95
333
62.89
334
43.86
334
41.02
332
36.71
333
65.14
332
47.71
334
30.88
330
22.80
324
66.24
331
55.80
339
49.31
330
33.72
327
50.52
330
52.93
328
LE_ROBtwo views23.34
305
10.93
293
12.86
303
32.65
298
38.35
309
31.72
300
33.97
305
23.50
313
21.06
314
7.08
295
17.87
310
51.83
314
51.55
328
1.81
273
14.20
285
3.08
184
3.94
253
1.47
236
30.65
290
8.98
295
9.43
287
7.39
227
6.89
291
25.95
324
35.31
317
39.95
332
53.69
333
54.00
329
TorneroNet-64two views40.02
322
51.18
323
25.58
320
64.09
319
48.50
317
64.50
322
69.74
320
27.58
316
44.28
325
21.06
320
14.38
300
70.42
329
57.53
332
94.84
330
27.09
321
8.83
306
28.00
321
16.10
322
54.90
324
26.42
324
15.26
310
13.34
310
61.86
326
22.65
321
33.51
315
30.60
322
34.09
315
54.24
330
DPSimNet_ROBtwo views56.83
326
60.12
337
63.44
317
74.40
337
61.08
314
66.03
315
29.26
324
91.88
339
80.83
337
53.70
332
74.56
332
48.76
322
90.67
318
61.12
333
47.44
335
43.29
334
68.79
334
60.06
337
52.83
336
61.42
335
45.69
312
46.03
335
63.34
337
56.49
334
56.41
331
WAO-8two views45.52
326
56.99
327
36.84
329
70.78
329
61.58
326
72.65
332
72.88
324
44.15
328
50.34
330
32.51
325
26.24
324
68.22
327
50.98
326
91.91
321
34.40
324
19.25
328
31.26
324
14.25
319
53.00
320
37.84
331
18.64
315
12.91
307
45.23
310
27.94
327
54.23
334
39.08
329
48.02
327
56.81
332
Venustwo views45.52
326
56.99
327
36.84
329
70.77
328
61.58
326
72.65
332
72.88
324
44.15
328
50.34
330
32.51
325
26.24
324
68.22
327
50.98
326
91.91
321
34.40
324
19.25
328
31.26
324
14.25
319
53.00
320
37.84
331
18.64
315
12.91
307
45.23
310
27.94
327
54.23
334
39.08
329
48.02
327
56.81
332
ktntwo views53.49
330
64.55
331
32.09
325
67.37
323
73.02
336
67.18
327
79.08
329
39.47
326
71.03
336
45.61
334
66.57
336
53.73
316
46.66
319
95.58
337
51.51
331
35.27
332
42.24
333
32.53
332
61.67
329
36.66
330
34.35
334
37.51
333
63.57
329
39.21
331
45.92
329
42.82
333
58.10
335
61.01
334
JetRedtwo views63.04
335
70.59
335
68.87
338
66.96
321
63.46
328
70.43
330
74.93
326
66.45
337
66.78
335
41.63
331
39.08
329
81.30
337
13.47
278
63.11
310
65.97
335
66.70
336
65.90
335
75.66
339
63.14
330
54.09
336
78.41
337
73.67
336
73.25
336
49.49
336
56.43
337
64.32
338
66.29
338
61.81
335
MADNet++two views76.55
336
72.12
336
82.72
339
61.81
313
81.28
338
58.20
310
69.82
321
68.60
339
78.83
338
85.65
338
92.58
339
79.76
335
85.27
338
36.74
308
81.31
337
89.87
338
87.51
337
69.64
337
82.22
336
90.64
339
91.37
338
93.20
338
65.06
330
90.12
340
59.87
338
75.77
339
74.46
339
62.48
336
HanzoNettwo views61.45
334
69.33
334
44.96
333
71.45
331
72.16
335
72.71
334
79.94
331
60.19
334
75.71
337
45.02
333
73.92
337
75.04
334
64.67
336
96.72
338
48.25
330
40.02
333
53.74
334
47.73
335
76.16
335
51.62
335
46.98
335
46.48
334
73.13
335
39.85
332
55.14
336
52.31
335
60.69
336
65.16
337
UNDER WATERtwo views53.46
329
66.50
333
44.48
332
77.89
335
68.28
332
75.27
335
86.28
337
62.01
335
51.94
332
41.57
330
48.61
331
74.76
333
58.64
334
94.91
331
40.27
329
19.59
330
35.94
328
25.36
327
57.83
327
30.24
329
22.42
325
21.82
322
69.76
334
49.60
337
53.54
333
52.17
334
44.57
326
69.15
338
UNDER WATER-64two views54.23
331
63.34
329
46.02
334
79.36
336
71.42
334
76.64
336
88.13
338
66.12
336
46.96
327
52.07
335
60.69
335
73.21
331
59.22
335
94.98
334
35.82
326
18.58
326
36.56
330
27.05
330
54.96
325
27.40
326
22.29
324
24.45
326
75.67
337
44.51
334
51.17
332
56.84
336
41.43
321
69.34
339
SAMSARAtwo views20.09
294
2.60
252
5.52
276
4.28
258
4.10
265
3.59
253
5.57
271
15.80
301
10.05
291
4.59
280
5.59
250
9.22
247
24.85
292
3.88
285
16.25
300
8.47
304
6.17
273
3.82
281
22.29
280
5.87
282
19.35
320
26.82
332
1.02
253
5.45
290
80.31
339
91.77
340
78.09
340
77.23
340
AVERAGE_ROBtwo views98.96
339
100.00
343
99.80
343
100.00
340
100.00
341
100.00
343
100.00
343
100.00
344
100.00
343
100.00
342
100.00
345
100.00
345
100.00
343
100.00
342
99.80
342
99.85
342
100.00
343
100.00
344
100.00
343
100.00
345
98.20
342
99.54
341
100.00
341
100.00
344
93.40
342
93.83
342
94.40
343
93.22
341
MEDIAN_ROBtwo views97.62
338
99.11
340
98.47
341
100.00
340
99.99
340
100.00
343
100.00
343
99.48
342
98.33
340
100.00
342
99.95
343
98.03
341
96.13
339
99.95
341
99.43
340
98.46
340
98.58
339
98.67
340
99.88
341
97.97
340
93.64
340
96.55
340
100.00
341
97.27
341
87.22
340
92.69
341
89.89
341
95.94
342
HaxPigtwo views99.00
340
100.00
343
98.99
342
100.00
340
100.00
341
99.99
342
100.00
343
99.99
343
99.89
342
100.00
342
99.98
344
100.00
345
99.94
342
100.00
342
99.61
341
99.46
341
99.97
342
99.58
341
99.99
342
99.99
342
97.37
341
96.43
339
99.99
340
99.98
343
89.52
341
99.53
343
94.23
342
98.48
343
PMLtwo views96.12
337
100.00
343
83.16
340
100.00
340
100.00
341
100.00
343
99.20
342
100.00
344
99.01
341
100.00
342
96.16
340
99.92
344
100.00
343
98.52
340
94.60
338
91.70
339
91.21
338
74.14
338
100.00
343
98.06
341
92.87
339
86.59
337
97.59
339
98.11
342
94.46
343
99.98
344
100.00
344
99.92
344
FlowAnythingtwo views100.00
345
100.00
343
100.00
344
100.00
340
100.00
341
100.00
343
100.00
343
100.00
344
100.00
343
100.00
342
100.00
345
100.00
345
100.00
343
100.00
342
100.00
345
100.00
343
100.00
343
100.00
344
100.00
343
100.00
345
100.00
345
100.00
344
100.00
341
100.00
344
100.00
344
100.00
345
100.00
344
100.00
345
CasAABBNettwo views100.00
345
100.00
343
100.00
344
100.00
340
100.00
341
100.00
343
100.00
343
100.00
344
100.00
343
100.00
342
100.00
345
100.00
345
100.00
343
100.00
342
100.00
345
100.00
343
100.00
343
100.00
344
100.00
343
100.00
345
100.00
345
100.00
344
100.00
341
100.00
344
100.00
344
100.00
345
100.00
344
100.00
345
DPSMNet_ROBtwo views99.54
342
99.78
342
100.00
344
100.00
340
100.00
341
100.00
343
100.00
343
99.19
340
100.00
343
99.32
340
99.65
341
91.68
339
99.16
341
100.00
342
99.94
343
100.00
343
99.83
341
99.99
342
99.59
340
99.99
342
99.77
343
99.66
342
100.00
341
100.00
344
100.00
344
100.00
345
100.00
344
100.00
345
DGTPSM_ROBtwo views99.53
341
99.77
341
100.00
344
100.00
340
100.00
341
100.00
343
100.00
343
99.19
340
100.00
343
99.32
340
99.66
342
91.63
338
99.15
340
100.00
342
99.94
343
100.00
343
99.82
340
99.99
342
99.51
339
99.99
342
99.77
343
99.66
342
100.00
341
100.00
344
100.00
344
100.00
345
100.00
344
100.00
345
DPSM_ROBtwo views99.91
343
100.00
343
100.00
344
100.00
340
100.00
341
98.90
340
98.96
340
100.00
344
100.00
343
100.00
342
100.00
345
99.76
342
100.00
343
100.00
342
100.00
345
100.00
343
100.00
343
100.00
344
100.00
343
100.00
345
100.00
345
100.00
344
100.00
341
100.00
344
100.00
344
100.00
345
100.00
344
100.00
345
DPSMtwo views99.91
343
100.00
343
100.00
344
100.00
340
100.00
341
98.90
340
98.96
340
100.00
344
100.00
343
100.00
342
100.00
345
99.76
342
100.00
343
100.00
342
100.00
345
100.00
343
100.00
343
100.00
344
100.00
343
100.00
345
100.00
345
100.00
344
100.00
341
100.00
344
100.00
344
100.00
345
100.00
344
100.00
345