This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
MM-Stereo_test3two views0.09
1
0.08
11
0.04
1
0.06
12
0.04
2
0.05
4
0.03
5
0.10
28
0.07
17
0.07
15
0.04
7
0.09
4
0.04
2
0.04
1
0.23
1
0.30
29
0.12
14
0.07
2
0.12
5
0.20
72
0.11
3
0.11
4
0.05
17
0.04
3
0.07
1
0.08
8
0.16
28
0.07
9
CoSvtwo views0.09
1
0.11
23
0.07
14
0.05
6
0.04
2
0.09
14
0.04
18
0.08
14
0.06
6
0.06
8
0.03
3
0.08
2
0.04
2
0.04
1
0.29
4
0.30
29
0.11
5
0.07
2
0.13
8
0.06
1
0.12
7
0.09
2
0.03
1
0.04
3
0.11
25
0.07
4
0.10
5
0.06
3
Pointernettwo views0.09
1
0.06
1
0.06
9
0.04
1
0.03
1
0.07
9
0.31
189
0.06
3
0.04
1
0.05
3
0.06
13
0.08
2
0.04
2
0.04
1
0.25
2
0.33
42
0.09
1
0.06
1
0.09
1
0.16
49
0.09
1
0.09
2
0.03
1
0.04
3
0.07
1
0.06
1
0.13
15
0.08
19
MLG-Stereotwo views0.10
4
0.07
5
0.04
1
0.04
1
0.05
8
0.28
163
0.02
1
0.06
3
0.06
6
0.07
15
0.03
3
0.09
4
0.05
6
0.06
11
0.38
7
0.35
52
0.11
5
0.09
9
0.12
5
0.06
1
0.16
17
0.15
12
0.03
1
0.03
1
0.07
1
0.06
1
0.11
7
0.07
9
AIO-test2two views0.10
4
0.06
1
0.04
1
0.04
1
0.08
30
0.08
11
0.05
29
0.06
3
0.07
17
0.05
3
0.08
23
0.10
7
0.05
6
0.04
1
0.58
31
0.15
1
0.09
1
0.07
2
0.09
1
0.13
36
0.11
3
0.19
24
0.03
1
0.08
31
0.09
12
0.07
4
0.06
1
0.06
3
ProNettwo views0.10
4
0.07
5
0.09
22
0.06
12
0.04
2
0.10
18
0.32
192
0.07
8
0.04
1
0.04
2
0.11
43
0.07
1
0.03
1
0.20
112
0.33
5
0.21
4
0.11
5
0.08
5
0.11
3
0.07
5
0.10
2
0.08
1
0.08
39
0.05
10
0.10
16
0.06
1
0.10
5
0.06
3
MLG-Stereo_test1two views0.11
7
0.06
1
0.04
1
0.04
1
0.05
8
0.36
210
0.03
5
0.06
3
0.06
6
0.07
15
0.04
7
0.09
4
0.05
6
0.06
11
0.38
7
0.33
42
0.12
14
0.09
9
0.13
8
0.06
1
0.17
20
0.18
21
0.03
1
0.03
1
0.07
1
0.07
4
0.12
13
0.07
9
MM-Stereo_test1two views0.11
7
0.11
23
0.07
14
0.06
12
0.04
2
0.05
4
0.02
1
0.08
14
0.06
6
0.07
15
0.03
3
0.10
7
0.04
2
0.04
1
0.39
10
0.25
12
0.12
14
0.08
5
0.13
8
0.21
88
0.13
8
0.15
12
0.05
17
0.04
3
0.08
6
0.34
160
0.13
15
0.07
9
AIO-test1two views0.11
7
0.06
1
0.06
9
0.04
1
0.07
21
0.08
11
0.03
5
0.09
24
0.08
26
0.08
20
0.07
17
0.10
7
0.05
6
0.06
11
0.42
11
0.22
6
0.10
3
0.08
5
0.11
3
0.20
72
0.11
3
0.47
58
0.04
8
0.04
3
0.07
1
0.07
4
0.07
2
0.06
3
AIO-Stereopermissivetwo views0.11
7
0.09
13
0.09
22
0.08
28
0.06
13
0.12
44
0.03
5
0.05
1
0.05
4
0.05
3
0.06
13
0.12
15
0.05
6
0.05
8
0.46
15
0.34
49
0.22
53
0.10
16
0.21
37
0.12
26
0.13
8
0.12
6
0.04
8
0.05
10
0.08
6
0.10
18
0.13
15
0.06
3
RSMtwo views0.11
7
0.09
13
0.09
22
0.07
20
0.06
13
0.14
58
0.03
5
0.05
1
0.05
4
0.05
3
0.07
17
0.13
21
0.06
16
0.04
1
0.51
21
0.26
16
0.10
3
0.10
16
0.14
16
0.11
19
0.17
20
0.13
9
0.04
8
0.06
18
0.09
12
0.11
22
0.13
15
0.07
9
RSM++two views0.12
12
0.10
20
0.09
22
0.08
28
0.07
21
0.10
18
0.04
18
0.08
14
0.07
17
0.06
8
0.07
17
0.13
21
0.07
25
0.04
1
0.50
18
0.26
16
0.12
14
0.11
23
0.14
16
0.11
19
0.20
30
0.14
10
0.06
25
0.10
45
0.11
25
0.09
13
0.13
15
0.08
19
CroCo-Stereo Lap2two views0.12
12
0.07
5
0.05
6
0.05
6
0.06
13
0.04
1
0.03
5
0.08
14
0.06
6
0.11
32
0.03
3
0.12
15
0.06
16
0.08
21
0.59
32
0.36
59
0.11
5
0.10
16
0.12
5
0.07
5
0.25
40
0.17
18
0.04
8
0.07
25
0.11
25
0.11
22
0.11
7
0.08
19
CroCo-Stereocopylefttwo views0.12
12
0.07
5
0.04
1
0.05
6
0.05
8
0.04
1
0.02
1
0.08
14
0.06
6
0.06
8
0.02
1
0.10
7
0.06
16
0.07
17
0.85
111
0.38
67
0.11
5
0.09
9
0.16
23
0.06
1
0.22
34
0.18
21
0.04
8
0.05
10
0.10
16
0.09
13
0.11
7
0.07
9
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
111111two views0.13
15
0.08
11
0.06
9
0.06
12
0.07
21
0.10
18
0.03
5
0.06
3
0.07
17
0.03
1
0.06
13
0.14
29
0.06
16
0.10
31
0.50
18
0.25
12
0.11
5
0.09
9
0.15
21
0.07
5
0.37
73
0.60
80
0.05
17
0.05
10
0.08
6
0.08
8
0.09
4
0.05
1
LG-Stereotwo views0.13
15
0.07
5
0.05
6
0.06
12
0.06
13
0.21
117
0.03
5
0.09
24
0.08
26
0.09
23
0.32
166
0.16
34
0.05
6
0.06
11
0.67
51
0.31
33
0.11
5
0.09
9
0.18
31
0.08
8
0.14
10
0.12
6
0.03
1
0.04
3
0.08
6
0.12
28
0.11
7
0.07
9
StereoVisiontwo views0.13
15
0.10
20
0.07
14
0.06
12
0.07
21
0.07
9
0.07
48
0.10
28
0.13
59
0.09
23
0.07
17
0.16
34
0.07
25
0.11
36
0.56
25
0.29
25
0.14
25
0.13
28
0.17
25
0.09
10
0.18
25
0.15
12
0.04
8
0.08
31
0.15
46
0.13
38
0.19
44
0.15
44
TDLMtwo views0.13
15
0.14
38
0.13
60
0.10
39
0.12
54
0.11
29
0.10
75
0.14
39
0.10
39
0.09
23
0.16
78
0.17
39
0.10
42
0.09
26
0.28
3
0.19
3
0.15
28
0.14
33
0.13
8
0.10
15
0.15
13
0.11
4
0.09
50
0.10
45
0.11
25
0.10
18
0.15
24
0.15
44
AdaDepthtwo views0.14
19
0.11
23
0.07
14
0.07
20
0.08
30
0.17
87
0.05
29
0.08
14
0.08
26
0.06
8
0.08
23
0.10
7
0.06
16
0.11
36
0.57
27
0.37
64
0.14
25
0.12
27
0.22
39
0.17
52
0.15
13
0.21
27
0.04
8
0.06
18
0.10
16
0.11
22
0.17
32
0.11
32
MLG-Stereo_test2two views0.14
19
0.12
28
0.06
9
0.05
6
0.06
13
0.31
177
0.03
5
0.09
24
0.07
17
0.09
23
0.22
108
0.12
15
0.05
6
0.07
17
0.60
34
0.39
72
0.15
28
0.13
28
0.21
37
0.10
15
0.21
32
0.21
27
0.05
17
0.04
3
0.10
16
0.08
8
0.15
24
0.10
28
DEFOM-Stereotwo views0.14
19
0.12
28
0.09
22
0.08
28
0.08
30
0.11
29
0.04
18
0.10
28
0.07
17
0.08
20
0.10
34
0.12
15
0.06
16
0.07
17
0.51
21
0.29
25
0.17
36
0.14
33
0.17
25
0.10
15
0.32
58
0.16
16
0.08
39
0.07
25
0.12
30
0.13
38
0.25
63
0.13
37
Utwo views0.14
19
0.09
13
0.05
6
0.05
6
0.06
13
0.04
1
0.02
1
0.09
24
0.06
6
0.09
23
0.02
1
0.12
15
0.10
42
0.07
17
0.77
76
0.44
97
0.15
28
0.11
23
0.15
21
0.09
10
0.27
46
0.26
34
0.03
1
0.06
18
0.13
32
0.10
18
0.11
7
0.09
25
RAFTtwo views0.14
19
0.07
5
0.10
35
0.08
28
0.04
2
0.24
141
0.28
183
0.19
51
0.07
17
0.13
36
0.08
23
0.13
21
0.06
16
0.11
36
0.44
14
0.17
2
0.12
14
0.08
5
0.14
16
0.21
88
0.16
17
0.18
21
0.04
8
0.05
10
0.15
46
0.15
44
0.21
50
0.16
48
GIP-stereotwo views0.15
24
0.12
28
0.09
22
0.07
20
0.06
13
0.23
133
0.10
75
0.07
8
0.06
6
0.08
20
0.09
30
0.11
13
0.05
6
0.13
46
0.60
34
0.26
16
0.13
21
0.11
23
0.19
32
0.31
139
0.17
20
0.60
80
0.05
17
0.06
18
0.10
16
0.12
28
0.16
28
0.07
9
IGEV-Stereo++two views0.15
24
0.10
20
0.06
9
0.07
20
0.07
21
0.09
14
0.03
5
0.07
8
0.07
17
0.06
8
0.09
30
0.15
31
0.07
25
0.14
56
0.48
16
0.26
16
0.11
5
0.10
16
0.17
25
0.09
10
0.15
13
1.09
150
0.05
17
0.05
10
0.08
6
0.09
13
0.18
36
0.08
19
Occ-Gtwo views0.15
24
0.13
34
0.10
35
0.09
35
0.08
30
0.12
44
0.04
18
0.08
14
0.06
6
0.05
3
0.10
34
0.10
7
0.06
16
0.06
11
0.49
17
0.31
33
0.13
21
0.13
28
0.84
195
0.09
10
0.21
32
0.20
26
0.06
25
0.07
25
0.10
16
0.08
8
0.18
36
0.09
25
MoCha-V2two views0.15
24
0.09
13
0.09
22
0.06
12
0.07
21
0.16
77
0.04
18
0.07
8
0.04
1
0.06
8
0.08
23
0.12
15
0.16
78
0.05
8
0.79
80
0.24
10
0.11
5
0.09
9
0.13
8
0.21
88
0.16
17
0.76
105
0.04
8
0.05
10
0.09
12
0.09
13
0.08
3
0.05
1
delettwo views0.15
24
0.14
38
0.12
49
0.12
54
0.12
54
0.13
49
0.09
64
0.12
33
0.09
30
0.15
41
0.11
43
0.16
34
0.09
36
0.11
36
0.57
27
0.23
9
0.16
31
0.13
28
0.13
8
0.12
26
0.17
20
0.29
36
0.09
50
0.10
45
0.13
32
0.12
28
0.20
47
0.13
37
RAStereotwo views0.16
29
0.12
28
0.08
18
0.06
12
0.08
30
0.06
6
0.04
18
0.10
28
0.07
17
0.20
56
0.04
7
0.14
29
0.06
16
0.09
26
0.96
133
0.35
52
0.18
39
0.13
28
0.20
34
0.08
8
0.46
92
0.23
32
0.05
17
0.06
18
0.13
32
0.11
22
0.12
13
0.11
32
iRaftStereo_RVCtwo views0.16
29
0.15
40
0.11
40
0.10
39
0.10
40
0.09
14
0.05
29
0.17
45
0.09
30
0.15
41
0.15
68
0.18
43
0.09
36
0.18
101
0.38
7
0.28
23
0.20
47
0.14
33
0.19
32
0.12
26
0.34
65
0.30
38
0.07
33
0.09
38
0.14
39
0.12
28
0.18
36
0.13
37
AANet_RVCtwo views0.16
29
0.13
34
0.13
60
0.10
39
0.15
82
0.08
11
0.13
112
0.14
39
0.15
75
0.13
36
0.13
55
0.13
21
0.11
48
0.10
31
0.42
11
0.24
10
0.16
31
0.16
44
0.20
34
0.15
45
0.15
13
0.17
18
0.11
77
0.11
54
0.16
56
0.17
50
0.22
54
0.24
92
MM-Stereo_test2two views0.17
32
0.13
34
0.08
18
0.07
20
0.05
8
0.06
6
0.03
5
0.08
14
0.06
6
0.09
23
0.04
7
0.11
13
0.05
6
0.05
8
0.50
18
0.40
78
0.12
14
0.10
16
0.13
8
0.27
115
0.18
25
0.64
89
0.06
25
0.05
10
0.09
12
0.84
253
0.11
7
0.08
19
GREAT-IGEVtwo views0.17
32
0.09
13
0.08
18
0.05
6
0.04
2
0.24
141
0.03
5
0.08
14
0.10
39
0.06
8
0.06
13
0.15
31
0.05
6
0.06
11
0.84
101
0.30
29
0.12
14
0.09
9
0.13
8
0.12
26
0.11
3
1.21
172
0.06
25
0.12
59
0.08
6
0.08
8
0.17
32
0.06
3
GASTEREOtwo views0.18
34
0.09
13
0.09
22
0.08
28
0.05
8
0.30
173
0.04
18
0.07
8
0.08
26
0.10
29
0.05
11
0.13
21
0.08
29
0.08
21
0.70
59
0.36
59
0.13
21
0.10
16
0.14
16
0.11
19
0.14
10
1.06
146
0.12
89
0.06
18
0.10
16
0.29
135
0.15
24
0.07
9
MSCFtwo views0.18
34
0.09
13
0.09
22
0.08
28
0.06
13
0.30
173
0.03
5
0.07
8
0.09
30
0.10
29
0.05
11
0.13
21
0.08
29
0.09
26
0.72
65
0.35
52
0.13
21
0.10
16
0.14
16
0.12
26
0.14
10
1.03
142
0.11
77
0.06
18
0.10
16
0.36
171
0.14
21
0.07
9
DFGA-Nettwo views0.18
34
0.17
51
0.10
35
0.13
64
0.08
30
0.10
18
0.08
54
0.19
51
0.10
39
0.28
87
0.11
43
0.18
43
0.09
36
0.13
46
0.68
56
0.27
20
0.20
47
0.15
39
0.28
58
0.12
26
0.22
34
0.17
18
0.08
39
0.12
59
0.15
46
0.12
28
0.35
93
0.14
42
CVANet_RVCtwo views0.18
34
0.18
61
0.18
111
0.20
135
0.15
82
0.17
87
0.13
112
0.23
68
0.11
46
0.14
39
0.22
108
0.20
51
0.12
58
0.48
240
0.35
6
0.21
4
0.17
36
0.16
44
0.16
23
0.13
36
0.18
25
0.15
12
0.10
59
0.12
59
0.14
39
0.12
28
0.19
44
0.16
48
MaDis-Stereotwo views0.19
38
0.16
47
0.11
40
0.07
20
0.10
40
0.06
6
0.06
38
0.12
33
0.10
39
0.19
53
0.08
23
0.19
46
0.08
29
0.14
56
0.52
23
0.39
72
0.24
65
0.18
56
0.30
62
0.12
26
0.46
92
0.36
44
0.07
33
0.10
45
0.19
77
0.23
84
0.20
47
0.25
98
GANettwo views0.19
38
0.17
51
0.16
92
0.16
94
0.16
94
0.21
117
0.14
122
0.20
57
0.13
59
0.15
41
0.20
95
0.37
148
0.10
42
0.14
56
0.42
11
0.22
6
0.40
165
0.20
68
0.17
25
0.11
19
0.22
34
0.14
10
0.12
89
0.12
59
0.15
46
0.13
38
0.20
47
0.17
58
AASNettwo views0.20
40
0.17
51
0.13
60
0.14
77
0.15
82
0.15
66
0.13
112
0.17
45
0.09
30
0.15
41
0.15
68
0.16
34
0.09
36
0.14
56
1.03
142
0.22
6
0.18
39
0.16
44
0.17
25
0.14
42
0.17
20
0.76
105
0.10
59
0.11
54
0.15
46
0.13
38
0.17
32
0.12
34
LG-Stereo_L2two views0.21
41
0.16
47
0.09
22
0.07
20
0.11
46
0.23
133
0.04
18
0.19
51
0.12
52
0.26
78
0.23
113
0.25
73
0.11
48
0.17
82
0.63
41
0.52
141
0.24
65
0.16
44
0.29
60
0.25
110
0.40
79
0.44
51
0.07
33
0.08
31
0.15
46
0.12
28
0.16
28
0.16
48
LG-Stereo_L1two views0.21
41
0.16
47
0.09
22
0.07
20
0.11
46
0.24
141
0.04
18
0.19
51
0.12
52
0.27
82
0.23
113
0.23
62
0.11
48
0.17
82
0.60
34
0.53
145
0.24
65
0.16
44
0.33
74
0.27
115
0.40
79
0.44
51
0.06
25
0.08
31
0.15
46
0.11
22
0.17
32
0.16
48
LGtest1two views0.21
41
0.15
40
0.12
49
0.10
39
0.14
69
0.35
203
0.05
29
0.14
39
0.13
59
0.12
35
0.34
175
0.16
34
0.13
64
0.10
31
0.74
66
0.48
122
0.23
56
0.23
97
0.25
43
0.20
72
0.29
50
0.44
51
0.08
39
0.10
45
0.14
39
0.12
28
0.18
36
0.15
44
plaintwo views0.21
41
0.20
88
0.12
49
0.11
48
0.14
69
0.10
18
0.06
38
0.22
63
0.11
46
0.23
60
0.08
23
0.22
59
0.11
48
0.17
82
0.66
47
0.45
108
0.25
73
0.20
68
0.26
48
0.12
26
0.46
92
0.42
49
0.07
33
0.14
92
0.17
61
0.17
50
0.19
44
0.21
77
RAFT_CTSACEtwo views0.21
41
0.20
88
0.13
60
0.12
54
0.10
40
0.14
58
0.08
54
0.24
76
0.10
39
0.26
78
0.10
34
0.21
54
0.18
96
0.11
36
0.57
27
0.35
52
0.19
45
0.14
33
0.26
48
0.18
58
0.31
56
0.70
95
0.08
39
0.10
45
0.27
125
0.17
50
0.33
81
0.16
48
test_5two views0.22
46
0.19
73
0.11
40
0.11
48
0.07
21
0.21
117
0.07
48
0.32
131
0.10
39
0.17
48
0.21
100
0.24
65
0.21
118
0.08
21
0.97
136
0.46
115
0.16
31
0.15
39
0.26
48
0.11
19
0.23
38
0.46
57
0.06
25
0.12
59
0.16
56
0.17
50
0.33
81
0.20
68
AFF-stereotwo views0.22
46
0.19
73
0.15
84
0.14
77
0.12
54
0.14
58
0.06
38
0.24
76
0.13
59
0.29
94
0.12
49
0.24
65
0.10
42
0.08
21
0.60
34
0.38
67
0.18
39
0.19
61
0.48
112
0.12
26
0.28
47
0.56
67
0.08
39
0.10
45
0.19
77
0.18
64
0.43
146
0.16
48
LG-G_1two views0.23
48
0.15
40
0.11
40
0.12
54
0.15
82
0.24
141
0.06
38
0.13
35
0.09
30
0.11
32
0.18
80
0.17
39
0.11
48
0.15
67
0.70
59
0.44
97
0.21
50
0.19
61
0.26
48
0.17
52
0.32
58
1.48
209
0.06
25
0.09
38
0.13
32
0.12
28
0.18
36
0.16
48
LG-Gtwo views0.23
48
0.15
40
0.11
40
0.12
54
0.15
82
0.24
141
0.06
38
0.13
35
0.09
30
0.11
32
0.18
80
0.17
39
0.11
48
0.15
67
0.70
59
0.44
97
0.21
50
0.19
61
0.26
48
0.17
52
0.32
58
1.48
209
0.06
25
0.09
38
0.13
32
0.12
28
0.18
36
0.16
48
MIF-Stereo (partial)two views0.23
48
0.20
88
0.12
49
0.10
39
0.12
54
0.10
18
0.07
48
0.17
45
0.14
67
0.18
51
0.10
34
0.20
51
0.11
48
0.17
82
1.11
158
0.44
97
0.25
73
0.21
77
0.26
48
0.13
36
0.49
102
0.32
39
0.08
39
0.14
92
0.17
61
0.17
50
0.38
114
0.20
68
anonymousdsptwo views0.23
48
0.12
28
0.11
40
0.12
54
0.10
40
0.12
44
0.06
38
0.16
42
0.09
30
0.15
41
0.79
237
0.15
31
0.07
25
0.10
31
0.84
101
0.30
29
0.18
39
0.14
33
0.22
39
0.24
108
0.25
40
1.12
158
0.17
155
0.09
38
0.12
30
0.09
13
0.23
56
0.10
28
GMStereopermissivetwo views0.23
48
0.24
153
0.13
60
0.19
125
0.17
113
0.19
103
0.14
122
0.29
100
0.16
82
0.23
60
0.19
92
0.32
127
0.16
78
0.13
46
0.53
24
0.27
20
0.28
96
0.19
61
0.43
105
0.20
72
0.30
54
0.19
24
0.12
89
0.15
100
0.24
100
0.19
69
0.39
118
0.20
68
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UniTT-Stereotwo views0.24
53
0.15
40
0.11
40
0.09
35
0.11
46
0.09
14
0.05
29
0.16
42
0.11
46
0.21
57
0.09
30
0.19
46
0.15
74
0.27
149
1.23
164
0.46
115
0.23
56
0.18
56
0.63
165
0.13
36
0.53
118
0.37
45
0.10
59
0.12
59
0.17
61
0.23
84
0.15
24
0.17
58
MMNettwo views0.24
53
0.15
40
0.12
49
0.13
64
0.13
64
0.13
49
0.10
75
0.16
42
0.12
52
0.13
36
0.14
65
0.19
46
0.09
36
0.18
101
2.14
208
0.25
12
0.18
39
0.16
44
0.20
34
0.14
42
0.20
30
0.37
45
0.10
59
0.12
59
0.15
46
0.15
44
0.28
73
0.16
48
MLG-Stereo_test3two views0.25
55
0.11
23
0.09
22
0.11
48
0.14
69
0.14
58
0.05
29
0.11
32
0.09
30
0.17
48
0.10
34
0.19
46
0.08
29
0.09
26
0.66
47
0.38
67
0.17
36
0.15
39
2.15
261
0.11
19
0.29
50
0.75
103
0.05
17
0.08
31
0.11
25
0.10
18
0.18
36
0.12
34
AEACVtwo views0.25
55
0.17
51
0.11
40
0.09
35
0.07
21
0.15
66
0.04
18
0.08
14
0.06
6
0.07
15
0.07
17
0.13
21
0.08
29
0.12
45
1.39
176
0.79
205
0.16
31
0.14
33
0.25
43
0.19
65
0.24
39
1.00
137
0.10
59
0.07
25
0.10
16
0.95
262
0.14
21
0.08
19
RAFT+CT+SAtwo views0.25
55
0.21
99
0.13
60
0.13
64
0.09
36
0.10
18
0.08
54
0.32
131
0.13
59
0.24
67
0.10
34
0.26
80
0.21
118
0.09
26
0.98
137
0.58
155
0.18
39
0.16
44
0.40
96
0.14
42
0.33
63
0.72
99
0.07
33
0.12
59
0.19
77
0.17
50
0.32
76
0.20
68
RAFT-Stereo + iAFFtwo views0.25
55
0.20
88
0.18
111
0.15
84
0.17
113
0.13
49
0.10
75
0.29
100
0.15
75
0.33
136
0.15
68
0.31
120
0.22
123
0.14
56
0.66
47
0.37
64
0.22
53
0.15
39
0.50
126
0.16
49
0.32
58
0.59
77
0.10
59
0.13
80
0.24
100
0.19
69
0.47
160
0.20
68
UPFNettwo views0.25
55
0.18
61
0.19
122
0.17
108
0.18
122
0.19
103
0.14
122
0.22
63
0.16
82
0.23
60
0.18
80
0.21
54
0.13
64
0.26
143
1.51
179
0.28
23
0.23
56
0.21
77
0.25
43
0.18
58
0.22
34
0.35
42
0.13
109
0.15
100
0.18
68
0.18
64
0.39
118
0.18
62
MIM_Stereotwo views0.26
60
0.18
61
0.14
78
0.15
84
0.14
69
0.24
141
0.07
48
0.27
86
0.11
46
0.24
67
0.12
49
0.20
51
0.12
58
0.17
82
0.85
111
0.44
97
0.24
65
0.19
61
0.54
141
0.20
72
0.46
92
0.70
95
0.08
39
0.12
59
0.17
61
0.29
135
0.34
90
0.16
48
TESTrafttwo views0.26
60
0.21
99
0.13
60
0.11
48
0.11
46
0.10
18
0.09
64
0.24
76
0.15
75
0.24
67
0.12
49
0.28
91
0.23
130
0.15
67
1.11
158
0.42
85
0.23
56
0.17
51
0.49
120
0.18
58
0.34
65
0.50
61
0.09
50
0.12
59
0.22
90
0.25
113
0.48
163
0.23
87
raft+_RVCtwo views0.26
60
0.19
73
0.15
84
0.15
84
0.15
82
0.13
49
0.14
122
0.30
107
0.14
67
0.28
87
0.18
80
0.22
59
0.11
48
0.19
104
0.62
39
0.43
93
0.23
56
0.17
51
0.41
97
0.28
120
0.45
91
0.95
128
0.09
50
0.11
54
0.20
84
0.18
64
0.25
63
0.20
68
DMCAtwo views0.26
60
0.17
51
0.16
92
0.13
64
0.14
69
0.13
49
0.11
82
0.18
50
0.15
75
0.19
53
0.18
80
0.28
91
0.12
58
0.15
67
1.79
189
0.60
160
0.32
125
0.46
233
0.24
41
0.15
45
0.26
43
0.21
27
0.13
109
0.12
59
0.17
61
0.17
50
0.21
50
0.17
58
IGEV-BASED-STEREO-two views0.27
64
0.18
61
0.11
40
0.12
54
0.11
46
0.35
203
0.05
29
0.23
68
0.14
67
0.30
101
0.21
100
0.24
65
0.35
195
0.13
46
0.76
75
0.60
160
0.27
85
0.28
136
0.32
71
0.33
144
0.61
136
0.60
80
0.09
50
0.08
31
0.14
39
0.38
178
0.24
59
0.14
42
TestStereo1two views0.27
64
0.22
116
0.12
49
0.12
54
0.12
54
0.11
29
0.09
64
0.24
76
0.15
75
0.24
67
0.12
49
0.34
137
0.23
130
0.14
56
1.09
151
0.44
97
0.24
65
0.17
51
0.51
129
0.15
45
0.35
70
0.79
111
0.08
39
0.12
59
0.22
90
0.24
96
0.49
165
0.23
87
SA-5Ktwo views0.27
64
0.22
116
0.12
49
0.12
54
0.12
54
0.11
29
0.09
64
0.24
76
0.15
75
0.24
67
0.12
49
0.34
137
0.23
130
0.14
56
1.09
151
0.44
97
0.24
65
0.17
51
0.51
129
0.15
45
0.35
70
0.79
111
0.08
39
0.12
59
0.22
90
0.24
96
0.49
165
0.23
87
ARAFTtwo views0.27
64
0.17
51
0.12
49
0.15
84
0.12
54
0.12
44
0.06
38
0.20
57
0.13
59
0.36
161
0.15
68
0.29
101
0.11
48
0.27
149
0.88
123
0.39
72
0.27
85
0.24
108
0.52
137
0.13
36
0.50
108
0.90
122
0.09
50
0.11
54
0.21
86
0.14
42
0.38
114
0.18
62
LL-Strereo2two views0.28
68
0.17
51
0.14
78
0.12
54
0.11
46
0.10
18
0.06
38
0.29
100
0.16
82
0.30
101
0.14
65
0.22
59
0.11
48
0.34
194
0.56
25
0.42
85
0.23
56
0.17
51
0.39
91
0.17
52
0.70
149
1.53
221
0.10
59
0.11
54
0.24
100
0.17
50
0.25
63
0.17
58
rafts_anoytwo views0.28
68
0.23
138
0.18
111
0.17
108
0.19
131
0.15
66
0.11
82
0.34
146
0.14
67
0.26
78
0.21
100
0.25
73
0.14
67
0.22
116
0.65
45
0.40
78
0.34
137
0.24
108
0.48
112
0.33
144
0.52
116
0.76
105
0.11
77
0.16
116
0.24
100
0.23
84
0.24
59
0.26
105
TestStereotwo views0.28
68
0.25
165
0.20
136
0.21
143
0.15
82
0.21
117
0.13
112
0.35
157
0.18
109
0.38
178
0.18
80
0.33
131
0.16
78
0.13
46
1.02
141
0.27
20
0.34
137
0.18
56
0.42
99
0.18
58
0.46
92
0.35
42
0.13
109
0.17
127
0.27
125
0.22
76
0.34
90
0.26
105
FINETtwo views0.28
68
0.21
99
0.21
151
0.21
143
0.17
113
0.17
87
0.18
151
0.23
68
0.19
117
0.23
60
0.48
202
0.28
91
0.17
87
0.17
82
0.57
27
0.33
42
0.25
73
0.18
56
0.38
90
0.17
52
0.30
54
0.22
31
0.15
138
0.17
127
0.42
206
0.96
263
0.27
70
0.21
77
DEFOM-Stereo_RVCtwo views0.29
72
0.18
61
0.12
49
0.11
48
0.12
54
0.10
18
0.05
29
0.23
68
0.14
67
0.30
101
0.13
55
0.27
86
0.17
87
0.11
36
1.00
139
0.40
78
0.29
105
0.30
149
0.36
84
0.34
150
0.56
124
1.17
167
0.17
155
0.10
45
0.15
46
0.48
213
0.23
56
0.22
80
Former-RAFT_DAM_RVCtwo views0.29
72
0.16
47
0.16
92
0.15
84
0.13
64
0.14
58
0.08
54
0.29
100
0.23
150
0.28
87
0.29
152
0.26
80
0.17
87
0.17
82
0.79
80
0.54
146
0.27
85
0.24
108
0.32
71
0.20
72
0.42
86
1.19
169
0.10
59
0.13
80
0.23
93
0.33
156
0.21
50
0.28
113
RASNettwo views0.29
72
0.21
99
0.21
151
0.19
125
0.18
122
0.18
96
0.14
122
0.31
117
0.18
109
0.32
128
0.20
95
0.26
80
0.18
96
0.17
82
0.86
114
0.66
176
0.25
73
0.19
61
0.26
48
0.16
49
0.65
142
0.61
83
0.11
77
0.21
172
0.21
86
0.22
76
0.45
153
0.30
123
CFNettwo views0.29
72
0.23
138
0.19
122
0.25
171
0.22
161
0.19
103
0.15
134
0.30
107
0.17
100
0.28
87
0.23
113
0.37
148
0.19
107
0.22
116
1.38
175
0.25
12
0.26
80
0.21
77
0.27
57
0.19
65
0.31
56
0.45
55
0.12
89
0.17
127
0.28
134
0.24
96
0.37
108
0.31
131
anonymousdsp2two views0.30
76
0.20
88
0.16
92
0.14
77
0.13
64
0.15
66
0.11
82
0.28
95
0.12
52
0.25
75
1.08
260
0.24
65
0.12
58
0.15
67
0.71
63
0.42
85
0.25
73
0.20
68
0.45
110
0.38
169
0.41
83
0.96
130
0.10
59
0.13
80
0.20
84
0.17
50
0.43
146
0.18
62
SAtwo views0.30
76
0.21
99
0.14
78
0.14
77
0.14
69
0.15
66
0.07
48
0.35
157
0.16
82
0.31
115
0.12
49
0.41
171
0.14
67
0.20
112
0.74
66
0.56
152
0.27
85
0.30
149
0.58
155
0.21
88
0.49
102
0.88
120
0.08
39
0.15
100
0.27
125
0.28
124
0.56
188
0.26
105
RALCasStereoNettwo views0.30
76
0.24
153
0.19
122
0.20
135
0.19
131
0.15
66
0.17
146
0.33
140
0.14
67
0.30
101
0.20
95
0.27
86
0.15
74
0.26
143
0.65
45
0.61
164
0.31
120
0.23
97
0.34
79
0.29
124
0.58
130
1.04
144
0.11
77
0.16
116
0.25
109
0.25
113
0.24
59
0.26
105
RALAANettwo views0.30
76
0.22
116
0.19
122
0.17
108
0.17
113
0.16
77
0.11
82
0.28
95
0.16
82
0.24
67
0.21
100
0.24
65
0.18
96
0.30
172
0.63
41
0.39
72
0.28
96
0.25
115
0.56
143
0.29
124
0.76
154
1.03
142
0.11
77
0.17
127
0.23
93
0.24
96
0.41
126
0.23
87
UNettwo views0.30
76
0.21
99
0.19
122
0.19
125
0.20
138
0.21
117
0.15
134
0.27
86
0.17
100
0.29
94
0.21
100
0.25
73
0.18
96
0.59
258
1.64
184
0.31
33
0.27
85
0.22
85
0.30
62
0.21
88
0.34
65
0.25
33
0.15
138
0.19
151
0.21
86
0.24
96
0.44
149
0.26
105
HGLStereotwo views0.30
76
0.23
138
0.19
122
0.18
118
0.23
167
0.18
96
0.13
112
0.23
68
0.16
82
0.31
115
0.31
159
0.21
54
0.14
67
0.22
116
1.81
191
0.35
52
0.37
150
0.24
108
0.29
60
0.20
72
0.41
83
0.39
47
0.14
122
0.16
116
0.23
93
0.23
84
0.32
76
0.22
80
PDISCO_ROBtwo views0.30
76
0.23
138
0.20
136
0.22
153
0.20
138
0.17
87
0.18
151
0.24
76
0.19
117
0.29
94
0.27
138
0.23
62
0.18
96
0.17
82
0.71
63
0.45
108
0.27
85
0.33
169
0.39
91
0.25
110
0.47
99
0.62
85
0.13
109
0.18
140
0.31
157
0.29
135
0.54
182
0.29
117
IGEV-Stereo+two views0.31
83
0.72
275
0.08
18
0.12
54
0.10
40
0.34
198
0.04
18
0.20
57
0.12
52
0.30
101
0.59
214
0.21
54
0.38
209
0.13
46
0.64
43
0.51
136
0.19
45
0.19
61
0.30
62
0.34
150
0.51
111
0.56
67
0.13
109
0.07
25
0.13
32
1.20
273
0.14
21
0.12
34
CASnettwo views0.31
83
0.22
116
0.14
78
0.15
84
0.17
113
0.17
87
0.08
54
0.30
107
0.18
109
0.34
139
0.21
100
0.38
151
0.28
160
0.13
46
0.75
73
0.44
97
0.32
125
0.26
121
0.43
105
0.34
150
1.11
186
0.69
94
0.11
77
0.14
92
0.25
109
0.17
50
0.33
81
0.25
98
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
GLC_STEREOtwo views0.31
83
0.23
138
0.24
172
0.20
135
0.20
138
0.18
96
0.14
122
0.38
184
0.16
82
0.34
139
0.25
122
0.29
101
0.16
78
0.17
82
0.68
56
0.52
141
0.37
150
0.27
125
0.42
99
0.37
161
0.90
165
0.42
49
0.13
109
0.15
100
0.24
100
0.18
64
0.48
163
0.25
98
AACVNettwo views0.31
83
0.26
182
0.21
151
0.27
183
0.28
194
0.25
150
0.18
151
0.30
107
0.20
127
0.31
115
0.30
157
0.29
101
0.18
96
0.36
203
0.62
39
0.43
93
0.31
120
0.26
121
0.37
86
0.25
110
0.42
86
0.62
85
0.20
182
0.20
161
0.29
140
0.31
146
0.42
137
0.37
162
raftrobusttwo views0.31
83
0.20
88
0.20
136
0.18
118
0.18
122
0.12
44
0.09
64
0.35
157
0.15
75
0.34
139
0.21
100
0.27
86
0.14
67
0.39
219
0.70
59
0.54
146
0.27
85
0.21
77
0.75
183
0.19
65
0.59
132
1.07
148
0.19
174
0.14
92
0.26
116
0.24
96
0.27
70
0.24
92
HITNettwo views0.31
83
0.18
61
0.15
84
0.17
108
0.15
82
0.14
58
0.10
75
0.29
100
0.19
117
0.30
101
0.20
95
0.28
91
0.18
96
0.29
166
1.30
167
0.42
85
0.27
85
0.20
68
0.37
86
0.17
52
0.64
141
0.99
135
0.12
89
0.15
100
0.19
77
0.19
69
0.39
118
0.26
105
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DISCOtwo views0.32
89
0.24
153
0.17
103
0.19
125
0.21
146
0.23
133
0.27
179
0.21
61
0.21
136
0.36
161
0.25
122
0.24
65
0.16
78
0.19
104
1.86
195
0.35
52
0.29
105
0.22
85
0.42
99
0.22
98
0.28
47
0.56
67
0.14
122
0.16
116
0.23
93
0.23
84
0.40
124
0.24
92
4D-IteraStereotwo views0.33
90
0.18
61
0.21
151
0.16
94
0.16
94
0.11
29
0.08
54
0.33
140
0.17
100
0.33
136
0.18
80
0.27
86
0.13
64
0.33
190
0.80
83
0.66
176
0.26
80
0.30
149
0.49
120
0.36
155
0.82
160
1.41
199
0.10
59
0.15
100
0.19
77
0.21
75
0.41
126
0.19
65
Sa-1000two views0.33
90
0.21
99
0.14
78
0.15
84
0.16
94
0.15
66
0.08
54
0.36
174
0.17
100
0.31
115
0.15
68
0.41
171
0.18
96
0.25
138
0.82
98
0.48
122
0.32
125
0.33
169
0.65
168
0.19
65
0.65
142
1.11
156
0.09
50
0.17
127
0.33
164
0.29
135
0.51
173
0.27
111
LMCR-Stereopermissivemany views0.33
90
0.23
138
0.19
122
0.19
125
0.18
122
0.20
111
0.13
112
0.30
107
0.19
117
0.29
94
0.23
113
0.33
131
0.29
162
0.40
223
0.67
51
0.45
108
0.39
160
0.28
136
0.53
140
0.38
169
0.51
111
0.96
130
0.14
122
0.19
151
0.25
109
0.24
96
0.33
81
0.31
131
DSFCAtwo views0.33
90
0.25
165
0.21
151
0.20
135
0.26
183
0.22
129
0.27
179
0.23
68
0.21
136
0.22
58
0.27
138
0.25
73
0.15
74
0.14
56
1.43
178
0.64
172
0.28
96
0.27
125
0.31
68
0.21
88
0.39
77
0.52
63
0.18
166
0.19
151
0.28
134
0.28
124
0.54
182
0.45
182
NLCA_NET_v2_RVCtwo views0.33
90
0.26
182
0.24
172
0.23
156
0.29
196
0.21
117
0.35
205
0.28
95
0.52
250
0.37
168
0.25
122
0.35
141
0.17
87
0.29
166
1.32
168
0.32
41
0.25
73
0.21
77
0.35
81
0.23
102
0.29
50
0.62
85
0.16
147
0.18
140
0.23
93
0.42
192
0.32
76
0.32
137
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DLCB_ROBtwo views0.33
90
0.25
165
0.24
172
0.22
153
0.23
167
0.20
111
0.19
158
0.27
86
0.22
141
0.31
115
0.34
175
0.34
137
0.25
142
0.33
190
0.84
101
0.33
42
0.30
115
0.28
136
0.30
62
0.21
88
0.52
116
0.72
99
0.20
182
0.21
172
0.47
221
0.36
171
0.38
114
0.46
184
G2L-Stereotwo views0.34
96
0.22
116
0.16
92
0.18
118
0.22
161
0.16
77
0.14
122
0.27
86
0.16
82
0.30
101
0.25
122
0.26
80
0.22
123
0.30
172
2.53
222
0.31
33
0.27
85
0.20
68
0.33
74
0.18
58
0.40
79
0.54
64
0.16
147
0.15
100
0.24
100
0.26
118
0.41
126
0.24
92
AIO_rvctwo views0.34
96
0.17
51
0.12
49
0.10
39
0.09
36
0.38
215
0.11
82
0.17
45
0.11
46
0.15
41
0.07
17
0.17
39
0.10
42
0.14
56
1.81
191
1.13
244
0.16
31
0.45
229
0.34
79
0.11
19
0.26
43
2.17
286
0.17
155
0.07
25
0.14
39
0.16
46
0.16
28
0.10
28
CAStwo views0.34
96
0.20
88
0.13
60
0.15
84
0.15
82
0.13
49
0.15
134
0.23
68
0.23
150
0.37
168
0.27
138
0.28
91
0.30
170
0.53
247
0.74
66
0.69
182
0.38
155
0.37
197
0.35
81
0.36
155
0.72
153
1.09
150
0.11
77
0.13
80
0.24
100
0.25
113
0.28
73
0.34
147
CIPLGtwo views0.34
96
0.19
73
0.19
122
0.16
94
0.16
94
0.16
77
0.24
166
0.32
131
0.26
171
0.30
101
0.31
159
0.31
120
0.16
78
0.38
213
0.86
114
0.40
78
0.34
137
0.20
68
0.50
126
0.20
72
0.49
102
1.39
195
0.11
77
0.15
100
0.53
232
0.17
50
0.57
192
0.20
68
IPLGR_Ctwo views0.34
96
0.19
73
0.19
122
0.16
94
0.16
94
0.16
77
0.25
175
0.32
131
0.26
171
0.30
101
0.32
166
0.30
113
0.17
87
0.37
207
0.79
80
0.40
78
0.33
133
0.20
68
0.51
129
0.19
65
0.49
102
1.39
195
0.12
89
0.15
100
0.50
228
0.17
50
0.58
196
0.20
68
GMOStereotwo views0.34
96
0.19
73
0.15
84
0.16
94
0.16
94
0.32
184
0.12
92
0.35
157
0.17
100
0.35
147
0.15
68
0.29
101
0.22
123
0.17
82
0.81
85
0.49
124
0.29
105
0.33
169
0.51
129
0.37
161
0.56
124
1.49
212
0.10
59
0.13
80
0.30
148
0.24
96
0.41
126
0.22
80
error versiontwo views0.34
96
0.19
73
0.15
84
0.16
94
0.16
94
0.32
184
0.12
92
0.35
157
0.17
100
0.35
147
0.15
68
0.29
101
0.22
123
0.17
82
0.81
85
0.49
124
0.29
105
0.33
169
0.51
129
0.37
161
0.56
124
1.49
212
0.10
59
0.13
80
0.30
148
0.24
96
0.41
126
0.22
80
test-vtwo views0.34
96
0.19
73
0.15
84
0.16
94
0.16
94
0.32
184
0.12
92
0.35
157
0.17
100
0.35
147
0.15
68
0.29
101
0.22
123
0.17
82
0.81
85
0.49
124
0.29
105
0.33
169
0.51
129
0.37
161
0.56
124
1.49
212
0.10
59
0.13
80
0.30
148
0.24
96
0.41
126
0.22
80
test-2two views0.34
96
0.19
73
0.15
84
0.16
94
0.16
94
0.32
184
0.12
92
0.35
157
0.17
100
0.35
147
0.15
68
0.29
101
0.22
123
0.17
82
0.81
85
0.49
124
0.29
105
0.33
169
0.51
129
0.37
161
0.56
124
1.49
212
0.10
59
0.13
80
0.30
148
0.24
96
0.41
126
0.22
80
HCRNettwo views0.34
96
0.24
153
0.13
60
0.26
181
0.11
46
0.18
96
0.13
112
0.20
57
0.09
30
0.54
223
0.20
95
0.29
101
0.10
42
0.13
46
3.96
256
0.29
25
0.21
50
0.15
39
0.25
43
0.13
36
0.25
40
0.40
48
0.13
109
0.10
45
0.13
32
0.14
42
0.36
104
0.15
44
iResNet_ROBtwo views0.34
96
0.23
138
0.20
136
0.22
153
0.19
131
0.21
117
0.16
140
0.49
236
0.18
109
0.36
161
0.24
118
0.27
86
0.29
162
0.22
116
1.33
169
0.45
108
0.30
115
0.24
108
0.64
167
0.18
58
0.68
145
0.55
66
0.14
122
0.21
172
0.26
116
0.25
113
0.49
165
0.30
123
S2M2_XLtwo views0.35
107
0.15
40
0.16
92
0.10
39
0.12
54
0.13
49
0.12
92
0.29
100
0.19
117
0.27
82
0.13
55
0.36
143
0.34
189
0.13
46
1.05
147
0.79
205
0.48
208
0.44
227
0.28
58
0.20
72
1.53
243
1.16
164
0.13
109
0.12
59
0.18
68
0.16
46
0.23
56
0.25
98
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
trnettwo views0.35
107
0.23
138
0.19
122
0.17
108
0.20
138
0.14
58
0.08
54
0.35
157
0.20
127
0.35
147
0.21
100
0.38
151
0.31
172
0.14
56
0.78
77
0.76
201
0.40
165
0.30
149
0.43
105
0.52
214
0.98
174
0.80
113
0.12
89
0.15
100
0.25
109
0.24
96
0.37
108
0.32
137
iinet-ftwo views0.35
107
0.23
138
0.17
103
0.20
135
0.14
69
0.21
117
0.17
146
0.22
63
0.16
82
0.38
178
0.39
186
0.26
80
0.23
130
0.17
82
1.84
194
0.49
124
0.27
85
0.21
77
0.66
171
0.34
150
0.46
92
0.83
115
0.15
138
0.14
92
0.26
116
0.19
69
0.45
153
0.25
98
IERtwo views0.35
107
0.19
73
0.16
92
0.17
108
0.16
94
0.17
87
0.12
92
0.23
68
0.14
67
0.28
87
0.25
122
0.31
120
0.14
67
0.23
124
3.85
255
0.29
25
0.25
73
0.20
68
0.24
41
0.20
72
0.28
47
0.21
27
0.18
166
0.14
92
0.19
77
0.24
96
0.38
114
0.25
98
ACREtwo views0.35
107
0.19
73
0.18
111
0.16
94
0.16
94
0.16
77
0.24
166
0.32
131
0.25
163
0.30
101
0.43
191
0.31
120
0.17
87
0.38
213
0.81
85
0.40
78
0.34
137
0.20
68
0.51
129
0.20
72
0.50
108
1.39
195
0.12
89
0.15
100
0.51
230
0.17
50
0.57
192
0.20
68
psm_uptwo views0.35
107
0.26
182
0.27
197
0.28
191
0.25
176
0.27
158
0.18
151
0.35
157
0.32
204
0.29
94
0.24
118
0.30
113
0.25
142
0.50
244
0.93
126
0.34
49
0.34
137
0.31
159
0.62
161
0.36
155
0.43
88
0.50
61
0.16
147
0.27
202
0.33
164
0.34
160
0.39
118
0.34
147
CFNet_RVCtwo views0.35
107
0.26
182
0.23
166
0.25
171
0.24
173
0.24
141
0.16
140
0.27
86
0.19
117
0.30
101
0.29
152
0.31
120
0.17
87
0.33
190
0.75
73
0.46
115
0.51
217
0.24
108
0.81
188
0.21
88
0.58
130
0.70
95
0.18
166
0.34
220
0.30
148
0.31
146
0.42
137
0.34
147
DN-CSS_ROBtwo views0.35
107
0.22
116
0.24
172
0.23
156
0.26
183
0.15
66
0.12
92
0.42
206
0.19
117
0.39
183
0.41
189
0.34
137
0.26
151
0.32
186
0.67
51
0.42
85
0.30
115
0.23
97
0.92
203
0.21
88
0.80
158
0.68
93
0.15
138
0.27
202
0.24
100
0.22
76
0.41
126
0.30
123
MGS-Stereotwo views0.36
115
0.22
116
0.14
78
0.13
64
0.13
64
0.11
29
0.10
75
0.21
61
0.12
52
0.18
51
0.13
55
0.21
54
0.16
78
0.13
46
4.38
262
0.33
42
0.26
80
0.22
85
0.31
68
0.18
58
0.38
75
0.70
95
0.11
77
0.13
80
0.19
77
0.17
50
0.26
68
0.21
77
SGD-Stereotwo views0.37
116
0.13
34
0.10
35
0.09
35
0.09
36
0.11
29
0.05
29
0.13
35
0.12
52
0.14
39
0.08
23
0.28
91
0.15
74
0.10
31
4.91
267
0.59
159
0.29
105
0.18
56
0.37
86
0.33
144
0.47
99
0.33
40
0.10
59
0.09
38
0.14
39
0.16
46
0.22
54
0.19
65
LoS_RVCtwo views0.37
116
0.25
165
0.20
136
0.10
39
0.17
113
0.13
49
0.09
64
0.24
76
0.25
163
0.38
178
0.25
122
0.36
143
0.34
189
0.22
116
0.81
85
0.78
203
0.41
171
0.42
222
0.56
143
0.27
115
0.97
171
1.33
185
0.14
122
0.15
100
0.28
134
0.22
76
0.25
63
0.29
117
tt_lltwo views0.37
116
0.25
165
0.20
136
0.10
39
0.17
113
0.13
49
0.09
64
0.24
76
0.25
163
0.38
178
0.25
122
0.36
143
0.34
189
0.22
116
0.81
85
0.78
203
0.41
171
0.42
222
0.56
143
0.27
115
0.97
171
1.33
185
0.14
122
0.15
100
0.28
134
0.22
76
0.25
63
0.29
117
ddtwo views0.37
116
0.25
165
0.15
84
0.44
241
0.16
94
0.32
184
0.19
158
0.28
95
0.13
59
0.29
94
0.14
65
0.44
181
0.14
67
0.15
67
2.86
229
0.38
67
0.36
146
0.22
85
0.52
137
0.34
150
0.32
58
0.28
35
0.17
155
0.29
212
0.27
125
0.20
73
0.40
124
0.32
137
STTStereotwo views0.37
116
0.28
200
0.28
202
0.24
165
0.27
193
0.22
129
0.33
199
0.25
85
0.36
217
0.29
94
0.27
138
0.33
131
0.20
117
0.27
149
2.32
216
0.31
33
0.26
80
0.25
115
0.30
62
0.20
72
0.34
65
0.66
92
0.31
231
0.18
140
0.25
109
0.31
146
0.35
93
0.41
173
test_4two views0.38
121
0.17
51
0.16
92
0.14
77
0.13
64
0.11
29
0.38
214
0.24
76
0.14
67
0.31
115
0.11
43
0.24
65
0.12
58
0.34
194
0.91
124
0.70
191
0.24
65
0.29
143
0.37
86
0.29
124
0.51
111
1.32
184
0.09
50
0.12
59
0.27
125
0.91
257
0.91
247
0.87
232
SACVNettwo views0.38
121
0.30
208
0.26
190
0.28
191
0.29
196
0.26
153
0.34
204
0.37
182
0.29
188
0.35
147
0.27
138
0.29
101
0.25
142
0.38
213
0.59
32
0.43
93
0.36
146
0.29
143
0.56
143
0.29
124
0.68
145
1.21
172
0.19
174
0.25
196
0.37
189
0.35
164
0.45
153
0.38
167
sAnonymous2two views0.38
121
0.21
99
0.17
103
0.16
94
0.16
94
0.21
117
0.15
134
0.38
184
0.26
171
0.28
87
0.26
134
0.30
113
0.32
181
0.16
76
0.67
51
0.61
164
0.40
165
0.36
191
0.81
188
0.39
175
1.05
179
1.29
181
0.14
122
0.19
151
0.29
140
0.35
164
0.33
81
0.35
157
CroCo_RVCtwo views0.38
121
0.21
99
0.17
103
0.16
94
0.16
94
0.21
117
0.15
134
0.38
184
0.26
171
0.28
87
0.26
134
0.30
113
0.32
181
0.16
76
0.67
51
0.61
164
0.40
165
0.36
191
0.81
188
0.39
175
1.05
179
1.29
181
0.14
122
0.19
151
0.29
140
0.35
164
0.33
81
0.35
157
CREStereotwo views0.38
121
0.22
116
0.20
136
0.17
108
0.16
94
0.15
66
0.08
54
0.36
174
0.24
155
0.36
161
0.27
138
0.39
156
0.39
214
0.16
76
0.92
125
0.97
226
0.46
197
0.27
125
0.43
105
0.52
214
1.15
192
1.04
144
0.13
109
0.16
116
0.25
109
0.24
96
0.37
108
0.31
131
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNet-RVCtwo views0.38
121
0.25
165
0.26
190
0.27
183
0.26
183
0.21
117
0.42
223
0.33
140
0.24
155
0.34
139
0.26
134
0.42
174
0.28
160
0.27
149
0.95
131
0.42
85
0.39
160
0.27
125
0.73
181
0.41
181
0.63
140
0.86
119
0.21
186
0.27
202
0.34
167
0.33
156
0.33
81
0.42
176
AF-Nettwo views0.38
121
0.25
165
0.25
185
0.25
171
0.30
201
0.28
163
0.41
221
0.36
174
0.30
193
0.25
75
0.32
166
0.39
156
0.21
118
0.23
124
2.08
206
0.31
33
0.23
56
0.22
85
0.39
91
0.22
98
0.53
118
0.78
109
0.21
186
0.19
151
0.26
116
0.27
121
0.42
137
0.33
142
Nwc_Nettwo views0.38
121
0.25
165
0.25
185
0.25
171
0.30
201
0.28
163
0.41
221
0.36
174
0.30
193
0.25
75
0.32
166
0.39
156
0.21
118
0.23
124
2.08
206
0.31
33
0.23
56
0.22
85
0.39
91
0.22
98
0.53
118
0.78
109
0.21
186
0.19
151
0.26
116
0.27
121
0.42
137
0.33
142
S2M2_Ltwo views0.39
129
0.22
116
0.24
172
0.17
108
0.15
82
0.19
103
0.13
112
0.28
95
0.20
127
0.40
186
0.11
43
0.33
131
0.25
142
0.21
114
1.09
151
0.71
194
0.42
179
0.44
227
0.31
68
0.37
161
1.34
221
1.30
183
0.17
155
0.14
92
0.21
86
0.22
76
0.59
201
0.29
117
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
raft_robusttwo views0.39
129
0.22
116
0.16
92
0.20
135
0.16
94
0.16
77
0.11
82
0.42
206
0.18
109
0.42
193
0.15
68
0.33
131
0.24
135
0.27
149
1.23
164
0.80
209
0.31
120
0.33
169
0.91
200
0.36
155
0.71
152
1.21
172
0.11
77
0.20
161
0.30
148
0.30
143
0.36
104
0.30
123
UDGNettwo views0.39
129
0.29
203
0.21
151
0.55
253
0.44
248
0.50
244
0.42
223
0.31
117
0.20
127
0.27
82
0.28
149
0.28
91
0.12
58
0.70
267
0.66
47
0.44
97
0.29
105
0.25
115
0.60
158
0.24
108
0.61
136
0.98
133
0.39
244
0.15
100
0.34
167
0.27
121
0.42
137
0.29
117
APVNettwo views0.39
129
0.27
190
0.20
136
0.24
165
0.26
183
0.27
158
0.24
166
0.31
117
0.22
141
0.26
78
0.31
159
0.29
101
0.17
87
0.27
149
1.75
188
0.50
130
0.45
191
0.35
186
0.66
171
0.32
141
0.51
111
0.97
132
0.16
147
0.25
196
0.28
134
0.24
96
0.44
149
0.30
123
FADNettwo views0.39
129
0.27
190
0.23
166
0.29
197
0.26
183
0.25
150
0.39
219
0.36
174
0.24
155
0.35
147
0.34
175
0.36
143
0.27
153
0.27
149
0.93
126
0.39
72
0.31
120
0.34
181
0.68
176
0.43
188
0.60
133
0.90
122
0.19
174
0.22
180
0.38
194
0.42
192
0.37
108
0.44
178
UCFNet_RVCtwo views0.39
129
0.36
229
0.26
190
0.29
197
0.31
205
0.26
153
0.19
158
0.30
107
0.23
150
0.35
147
0.27
138
0.45
187
0.25
142
0.34
194
0.82
98
0.45
108
0.30
115
0.25
115
0.96
208
0.23
102
0.69
147
0.75
103
0.45
254
0.21
172
0.35
174
0.31
146
0.35
93
0.45
182
HSMtwo views0.39
129
0.24
153
0.23
166
0.26
181
0.25
176
0.20
111
0.18
151
0.41
196
0.20
127
0.32
128
0.30
157
0.39
156
0.24
135
0.22
116
2.57
224
0.39
72
0.33
133
0.22
85
0.49
120
0.30
131
0.70
149
0.47
58
0.14
122
0.20
161
0.29
140
0.31
146
0.44
149
0.33
142
coex_refinementtwo views0.40
136
0.25
165
0.18
111
0.19
125
0.21
146
0.20
111
0.14
122
0.27
86
0.26
171
0.27
82
0.27
138
0.28
91
0.14
67
0.25
138
3.44
248
0.47
118
0.28
96
0.21
77
0.62
161
0.19
65
0.56
124
0.54
64
0.15
138
0.17
127
0.26
116
0.25
113
0.42
137
0.33
142
BEATNet_4xtwo views0.40
136
0.23
138
0.19
122
0.20
135
0.19
131
0.16
77
0.14
122
0.31
117
0.27
181
0.35
147
0.22
108
0.32
127
0.23
130
0.29
166
1.51
179
0.58
155
0.52
222
0.51
253
0.49
120
0.22
98
0.91
167
1.44
203
0.14
122
0.23
185
0.23
93
0.23
84
0.42
137
0.31
131
CEStwo views0.41
138
0.19
73
0.16
92
0.14
77
0.18
122
0.16
77
0.10
75
0.54
249
0.25
163
0.30
101
0.34
175
0.40
164
0.38
209
0.47
236
1.33
169
0.79
205
0.52
222
0.48
240
0.33
74
0.42
186
1.04
176
1.15
163
0.14
122
0.13
80
0.26
116
0.22
76
0.28
73
0.34
147
DMCA-RVCcopylefttwo views0.41
138
0.21
99
0.22
160
0.32
208
0.28
194
0.18
96
0.45
228
0.34
146
0.30
193
0.32
128
1.09
261
0.31
120
0.16
78
0.30
172
2.90
232
0.35
52
0.26
80
0.25
115
0.26
48
0.30
131
0.38
75
0.34
41
0.16
147
0.28
206
0.35
174
0.20
73
0.36
104
0.27
111
castereotwo views0.42
140
0.20
88
0.19
122
0.16
94
0.16
94
0.27
158
0.09
64
0.29
100
0.21
136
0.33
136
0.22
108
0.40
164
0.37
208
0.19
104
0.81
85
0.77
202
0.45
191
0.34
181
0.57
151
0.43
188
1.52
238
1.45
205
0.13
109
0.15
100
0.27
125
0.59
230
0.52
176
0.31
131
RAFT + AFFtwo views0.42
140
0.12
28
0.09
22
0.13
64
0.07
21
0.11
29
0.06
38
0.17
45
0.10
39
0.19
53
0.10
34
0.28
91
0.08
29
0.11
36
7.47
300
0.33
42
0.20
47
0.11
23
0.33
74
0.10
15
0.39
77
0.16
16
0.07
33
0.09
38
0.16
56
0.11
22
0.13
15
0.09
25
PMTNettwo views0.42
140
0.24
153
0.21
151
0.18
118
0.17
113
0.14
58
0.32
192
0.31
117
0.24
155
0.37
168
0.25
122
0.38
151
0.38
209
0.17
82
1.19
163
1.08
238
0.45
191
0.27
125
0.56
143
0.43
188
1.15
192
1.08
149
0.13
109
0.14
92
0.40
202
0.26
118
0.32
76
0.37
162
castereo++two views0.43
143
0.19
73
0.17
103
0.19
125
0.15
82
0.44
236
0.08
54
0.30
107
0.20
127
0.34
139
0.18
80
0.45
187
0.35
195
0.15
67
0.78
77
0.73
196
0.43
185
0.32
163
0.57
151
0.43
188
1.42
224
1.35
190
0.22
193
0.16
116
0.24
100
0.33
156
1.16
267
0.33
142
MyStereo04two views0.43
143
0.28
200
0.26
190
0.23
156
0.24
173
0.18
96
0.14
122
0.38
184
0.28
186
0.59
233
0.28
149
0.39
156
0.18
96
0.36
203
1.03
142
0.61
164
0.35
144
0.27
125
1.20
229
0.43
188
1.04
176
0.77
108
0.38
241
0.26
198
0.37
189
0.39
180
0.55
186
0.30
123
TANstereotwo views0.43
143
0.22
116
0.18
111
0.21
143
0.21
146
0.22
129
0.11
82
0.27
86
0.22
141
0.32
128
0.25
122
0.25
73
0.25
142
0.24
131
1.37
173
0.81
211
0.43
185
0.41
219
0.67
173
0.39
175
1.08
182
1.16
164
0.48
261
0.16
116
0.17
61
0.23
84
0.99
255
0.24
92
XX-TBDtwo views0.43
143
0.22
116
0.18
111
0.21
143
0.21
146
0.22
129
0.11
82
0.27
86
0.22
141
0.32
128
0.25
122
0.25
73
0.25
142
0.24
131
1.37
173
0.81
211
0.43
185
0.41
219
0.67
173
0.39
175
1.08
182
1.16
164
0.48
261
0.16
116
0.17
61
0.23
84
0.99
255
0.24
92
stereogantwo views0.43
143
0.33
219
0.30
207
0.33
211
0.37
235
0.35
203
0.30
187
0.35
157
0.32
204
0.30
101
0.31
159
0.46
195
0.30
170
0.27
149
1.62
183
0.41
84
0.30
115
0.25
115
0.44
109
0.29
124
0.37
73
1.61
230
0.23
195
0.24
191
0.29
140
0.31
146
0.57
192
0.39
170
PS-NSSStwo views0.43
143
0.38
243
0.25
185
0.42
234
0.30
201
0.35
203
0.32
192
0.34
146
0.20
127
0.36
161
0.24
118
0.74
238
0.24
135
0.40
223
1.98
200
0.34
49
0.33
133
0.23
97
0.55
142
0.20
72
0.41
83
0.57
70
0.52
264
0.20
161
0.31
157
0.31
146
0.87
241
0.37
162
AE-Stereotwo views0.44
149
0.22
116
0.24
172
0.23
156
0.24
173
0.18
96
0.16
140
0.30
107
0.21
136
0.34
139
0.16
78
0.44
181
0.27
153
0.21
114
0.94
129
0.81
211
0.41
171
0.32
163
0.52
137
0.55
217
1.07
181
1.71
240
0.12
89
0.21
172
0.34
167
0.89
256
0.46
158
0.28
113
ICVPtwo views0.44
149
0.24
153
0.30
207
0.25
171
0.23
167
0.26
153
0.18
151
0.31
117
0.25
163
0.37
168
0.31
159
0.33
131
0.29
162
0.25
138
0.64
43
0.61
164
0.50
213
0.78
292
0.59
157
0.44
199
0.99
175
1.82
248
0.33
237
0.24
191
0.30
148
0.35
164
0.37
108
0.34
147
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
CREStereo++_RVCtwo views0.45
151
0.22
116
0.20
136
0.17
108
0.20
138
0.15
66
0.11
82
0.34
146
0.19
117
0.35
147
0.19
92
0.32
127
0.31
172
0.16
76
1.29
166
0.81
211
0.38
155
0.27
125
0.56
143
0.36
155
1.08
182
1.26
177
0.13
109
0.15
100
0.26
116
0.22
76
2.29
307
0.31
131
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
FADNet-RVC-Resampletwo views0.45
151
0.30
208
0.59
273
0.28
191
0.45
250
0.21
117
0.24
166
0.39
190
0.32
204
0.44
198
0.31
159
0.43
177
0.44
224
0.43
229
1.18
160
0.51
136
0.37
150
0.43
225
0.60
158
0.64
240
0.49
102
1.02
141
0.30
225
0.37
230
0.31
157
0.39
180
0.33
81
0.41
173
RPtwo views0.45
151
0.29
203
0.33
220
0.30
199
0.31
205
0.28
163
0.35
205
0.34
146
0.33
210
0.23
60
0.36
183
0.36
143
0.26
151
0.24
131
3.81
253
0.31
33
0.28
96
0.22
85
0.33
74
0.23
102
0.26
43
0.85
118
0.19
174
0.22
180
0.29
140
0.29
135
0.52
176
0.36
161
YMNettwo views0.46
154
0.20
88
0.12
49
0.16
94
0.15
82
0.32
184
0.87
268
0.19
51
0.16
82
0.27
82
0.11
43
0.24
65
0.36
197
0.15
67
5.11
272
0.66
176
0.23
56
0.22
85
0.26
48
0.21
88
0.19
28
0.29
36
0.09
50
0.13
80
0.74
258
0.16
46
0.66
213
0.19
65
GCAP-BATtwo views0.46
154
0.21
99
0.13
60
0.13
64
0.14
69
0.11
29
0.12
92
0.31
117
0.16
82
0.31
115
0.13
55
0.45
187
0.19
107
0.28
157
0.84
101
0.69
182
3.42
312
0.23
97
0.48
112
0.30
131
1.24
204
0.57
70
0.12
89
0.12
59
0.18
68
0.28
124
0.35
93
0.79
217
test_for_modeltwo views0.46
154
0.21
99
0.13
60
0.13
64
0.14
69
0.11
29
0.12
92
0.31
117
0.16
82
0.31
115
0.13
55
0.45
187
0.19
107
0.28
157
0.84
101
0.69
182
3.42
312
0.23
97
0.48
112
0.30
131
1.24
204
0.57
70
0.12
89
0.12
59
0.18
68
0.28
124
0.35
93
0.79
217
testlalala2two views0.46
154
0.21
99
0.13
60
0.13
64
0.14
69
0.11
29
0.12
92
0.31
117
0.16
82
0.31
115
0.13
55
0.45
187
0.19
107
0.28
157
0.84
101
0.69
182
3.42
312
0.23
97
0.48
112
0.30
131
1.24
204
0.57
70
0.12
89
0.12
59
0.18
68
0.28
124
0.35
93
0.79
217
testlalalatwo views0.46
154
0.21
99
0.13
60
0.13
64
0.14
69
0.11
29
0.12
92
0.31
117
0.16
82
0.31
115
0.13
55
0.45
187
0.19
107
0.28
157
0.84
101
0.69
182
3.42
312
0.23
97
0.48
112
0.30
131
1.24
204
0.57
70
0.12
89
0.12
59
0.18
68
0.28
124
0.35
93
0.79
217
testlalala_basetwo views0.46
154
0.21
99
0.13
60
0.13
64
0.14
69
0.11
29
0.12
92
0.31
117
0.16
82
0.31
115
0.13
55
0.45
187
0.19
107
0.28
157
0.84
101
0.69
182
3.42
312
0.23
97
0.48
112
0.30
131
1.24
204
0.57
70
0.12
89
0.12
59
0.18
68
0.28
124
0.35
93
0.79
217
GCAP-Stereotwo views0.46
154
0.21
99
0.13
60
0.13
64
0.14
69
0.11
29
0.12
92
0.31
117
0.16
82
0.31
115
0.13
55
0.45
187
0.19
107
0.28
157
0.84
101
0.69
182
3.42
312
0.23
97
0.48
112
0.30
131
1.24
204
0.57
70
0.12
89
0.12
59
0.18
68
0.28
124
0.35
93
0.79
217
LoStwo views0.46
154
0.23
138
0.17
103
0.19
125
0.19
131
0.19
103
0.12
92
0.77
271
0.26
171
0.50
212
0.45
194
0.53
211
0.47
230
0.23
124
1.06
149
0.85
219
0.56
237
0.43
225
0.62
161
0.41
181
1.28
215
1.41
199
0.15
138
0.16
116
0.35
174
0.28
124
0.33
81
0.35
157
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
sCroCo_RVCtwo views0.46
154
0.20
88
0.16
92
0.15
84
0.16
94
0.20
111
0.12
92
0.32
131
0.32
204
0.35
147
0.24
118
0.43
177
0.45
228
0.15
67
0.83
100
1.10
242
0.47
202
0.40
217
0.67
173
0.43
188
1.55
247
1.85
250
0.14
122
0.22
180
0.30
148
0.30
143
0.49
165
0.32
137
iResNetv2_ROBtwo views0.46
154
0.24
153
0.17
103
0.27
183
0.21
146
0.23
133
0.14
122
0.49
236
0.19
117
0.37
168
0.29
152
0.37
148
0.27
153
0.26
143
3.28
246
0.42
85
0.28
96
0.22
85
0.85
197
0.23
102
1.22
202
0.59
77
0.16
147
0.26
198
0.27
125
0.24
96
0.57
192
0.28
113
test-3two views0.47
164
0.22
116
0.20
136
0.18
118
0.21
146
0.19
103
0.12
92
0.41
196
0.16
82
0.35
147
0.18
80
0.42
174
0.19
107
0.19
104
1.04
145
0.66
176
0.32
125
0.30
149
1.28
243
0.44
199
1.13
189
1.75
245
0.10
59
0.17
127
0.45
217
0.23
84
0.56
188
1.21
255
test_1two views0.47
164
0.22
116
0.20
136
0.18
118
0.21
146
0.19
103
0.12
92
0.41
196
0.16
82
0.34
139
0.18
80
0.42
174
0.19
107
0.19
104
1.04
145
0.66
176
0.32
125
0.30
149
1.28
243
0.44
199
1.13
189
1.75
245
0.10
59
0.17
127
0.45
217
0.23
84
0.56
188
1.22
256
test_3two views0.47
164
0.22
116
0.20
136
0.18
118
0.21
146
0.19
103
0.12
92
0.41
196
0.18
109
0.36
161
0.18
80
0.44
181
0.21
118
0.19
104
1.03
142
0.64
172
0.32
125
0.31
159
1.28
243
0.44
199
1.12
187
1.74
242
0.10
59
0.18
140
0.47
221
0.28
124
0.59
201
1.22
256
GEStereo_RVCtwo views0.47
164
0.27
190
0.34
224
0.27
183
0.26
183
0.31
177
0.53
239
0.41
196
0.24
155
0.35
147
0.27
138
0.40
164
0.24
135
0.30
172
0.81
85
0.74
198
0.49
212
0.37
197
0.91
200
0.38
169
0.90
165
1.80
247
0.21
186
0.34
220
0.31
157
0.30
143
0.51
173
0.48
189
CFNet_pseudotwo views0.47
164
0.23
138
0.23
166
0.27
183
0.25
176
0.23
133
0.17
146
0.31
117
0.19
117
0.37
168
0.29
152
0.38
151
0.27
153
0.23
124
4.35
261
0.44
97
0.28
96
0.23
97
1.00
209
0.19
65
0.46
92
0.59
77
0.40
247
0.18
140
0.27
125
0.28
124
0.36
104
0.35
157
NCC-stereotwo views0.47
164
0.33
219
0.30
207
0.31
205
0.33
213
0.31
177
0.38
214
0.41
196
0.40
223
0.24
67
0.38
184
0.39
156
0.36
197
0.28
157
3.13
240
0.36
59
0.29
105
0.32
163
0.42
99
0.43
188
0.44
89
0.84
116
0.28
216
0.23
185
0.36
183
0.44
203
0.45
153
0.44
178
Abc-Nettwo views0.47
164
0.33
219
0.30
207
0.31
205
0.33
213
0.31
177
0.38
214
0.41
196
0.40
223
0.24
67
0.38
184
0.39
156
0.36
197
0.28
157
3.13
240
0.36
59
0.29
105
0.32
163
0.42
99
0.43
188
0.44
89
0.84
116
0.28
216
0.23
185
0.36
183
0.44
203
0.45
153
0.44
178
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
AIO_testtwo views0.48
171
0.19
73
0.13
60
0.14
77
0.10
40
0.38
215
0.28
183
0.19
51
0.13
59
0.17
48
0.10
34
0.18
43
0.09
36
0.11
36
2.64
225
2.40
306
0.22
53
0.22
85
0.32
71
0.12
26
0.29
50
2.50
306
0.15
138
0.08
31
0.16
56
1.42
281
0.21
50
0.10
28
XPNet_ROBtwo views0.48
171
0.40
246
0.29
205
0.27
183
0.32
209
0.31
177
0.28
183
0.27
86
0.32
204
0.32
128
0.43
191
1.12
257
0.24
135
0.32
186
1.68
185
0.51
136
0.66
248
0.29
143
0.41
97
0.33
144
0.69
147
1.26
177
0.26
206
0.26
198
0.30
148
0.35
164
0.75
231
0.44
178
RYNettwo views0.49
173
0.11
23
0.10
35
0.08
28
0.09
36
0.10
18
0.06
38
0.13
35
0.18
109
0.10
29
0.10
34
0.13
21
0.08
29
0.08
21
9.58
315
0.37
64
0.14
25
0.22
85
0.17
25
0.09
10
0.19
28
0.12
6
0.15
138
0.09
38
0.14
39
0.33
156
0.24
59
0.13
37
HUFtwo views0.50
174
0.17
51
0.13
60
0.11
48
0.12
54
0.40
225
0.11
82
0.22
63
0.11
46
0.22
58
0.09
30
0.19
46
0.19
107
0.11
36
3.00
236
2.86
315
0.70
253
0.49
244
0.61
160
0.20
72
0.53
118
1.85
250
0.28
216
0.18
140
0.15
46
0.18
64
0.18
36
0.13
37
GANetREF_RVCpermissivetwo views0.50
174
0.40
246
0.38
237
0.38
227
0.35
228
0.35
203
0.32
192
0.51
242
0.42
230
0.48
209
0.27
138
0.71
235
0.44
224
0.29
166
1.10
156
0.45
108
1.07
271
0.33
169
0.62
161
0.36
155
0.86
163
0.64
89
0.30
225
0.39
237
0.44
215
0.40
188
0.64
210
0.50
195
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
CASStwo views0.51
176
0.27
190
0.27
197
0.32
208
0.26
183
0.29
171
0.67
259
0.40
194
0.30
193
0.47
206
0.52
207
0.47
200
0.36
197
0.16
76
0.74
66
0.67
181
0.71
254
0.46
233
0.78
186
0.28
120
1.67
254
1.48
209
0.17
155
0.20
161
0.42
206
0.34
160
0.53
180
0.46
184
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
RGCtwo views0.51
176
0.36
229
0.46
254
0.35
219
0.36
233
0.40
225
0.30
187
0.37
182
0.39
220
0.32
128
0.45
194
0.40
164
0.42
222
0.35
200
2.99
235
0.36
59
0.32
125
0.28
136
0.47
111
0.33
144
0.61
136
1.00
137
0.24
199
0.28
206
0.38
194
0.46
208
0.52
176
0.53
200
PA-Nettwo views0.52
178
0.36
229
0.36
231
0.25
171
0.37
235
0.26
153
0.32
192
0.33
140
0.36
217
0.30
101
0.26
134
0.30
113
0.31
172
0.47
236
2.30
213
0.51
136
0.24
65
0.28
136
0.30
62
0.29
124
0.34
65
0.90
122
0.60
270
0.26
198
0.32
162
0.72
244
0.32
76
2.29
281
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
DeepPruner_ROBtwo views0.52
178
0.25
165
0.25
185
0.25
171
0.26
183
0.23
133
0.65
257
0.32
131
0.25
163
0.37
168
0.39
186
0.29
101
0.25
142
0.31
182
3.43
247
0.72
195
0.34
137
0.29
143
0.49
120
0.23
102
1.30
217
1.20
170
0.23
195
0.23
185
0.29
140
0.42
192
0.46
158
0.29
117
ADLNettwo views0.53
180
0.26
182
0.18
111
0.21
143
0.21
146
0.23
133
0.19
158
0.30
107
0.17
100
0.23
60
0.22
108
0.62
223
0.18
96
0.48
240
6.87
292
0.38
67
0.28
96
0.21
77
0.25
43
0.20
72
0.33
63
0.90
122
0.18
166
0.13
80
0.25
109
0.26
118
0.34
90
0.23
87
MLCVtwo views0.53
180
0.25
165
0.24
172
0.36
221
0.32
209
0.30
173
0.22
163
0.46
229
0.47
242
0.53
220
0.80
239
0.51
208
0.40
216
0.26
143
0.94
129
1.44
268
0.41
171
0.30
149
1.26
237
0.27
115
1.16
197
1.23
176
0.23
195
0.35
227
0.33
164
0.35
164
0.49
165
0.34
147
s12784htwo views0.54
182
0.28
200
0.26
190
0.30
199
0.23
167
0.17
87
0.12
92
0.36
174
0.24
155
0.38
178
0.23
113
0.40
164
0.38
209
0.16
76
1.09
151
1.11
243
0.47
202
0.27
125
0.71
179
0.37
161
1.49
232
1.46
206
0.12
89
0.17
127
0.39
198
0.32
154
2.18
303
0.88
234
GEStwo views0.54
182
0.23
138
0.19
122
0.21
143
0.22
161
0.26
153
0.18
151
0.34
146
0.31
199
0.36
161
0.28
149
0.30
113
0.22
123
0.22
116
2.69
227
0.58
155
0.37
150
0.28
136
1.14
224
0.32
141
1.08
182
0.88
120
0.18
166
0.24
191
0.26
116
0.23
84
0.58
196
2.34
282
R-Stereo Traintwo views0.54
182
0.24
153
0.24
172
0.24
165
0.18
122
0.24
141
0.09
64
0.34
146
0.30
193
0.52
217
0.66
222
0.44
181
0.32
181
0.55
252
0.74
66
1.07
235
0.58
240
0.52
257
1.27
240
0.64
240
1.51
236
1.89
254
0.14
122
0.20
161
0.35
174
0.42
192
0.35
93
0.47
187
RAFT-Stereopermissivetwo views0.54
182
0.24
153
0.24
172
0.24
165
0.18
122
0.24
141
0.09
64
0.34
146
0.30
193
0.52
217
0.66
222
0.44
181
0.32
181
0.55
252
0.74
66
1.07
235
0.58
240
0.52
257
1.27
240
0.64
240
1.51
236
1.89
254
0.14
122
0.20
161
0.35
174
0.42
192
0.35
93
0.47
187
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
NCCL2two views0.55
186
0.35
224
0.31
215
0.30
199
0.40
241
0.25
150
0.24
166
0.35
157
0.31
199
0.41
191
0.33
172
0.35
141
0.24
135
0.53
247
4.10
257
0.47
118
0.40
165
0.31
159
0.39
91
0.31
139
0.70
149
0.99
135
0.41
249
0.32
217
0.45
217
0.45
205
0.75
231
0.51
197
PWCDC_ROBbinarytwo views0.55
186
0.18
61
0.19
122
0.17
108
0.26
183
0.16
77
0.19
158
0.22
63
0.54
254
0.16
47
0.43
191
0.25
73
1.12
265
0.45
231
5.47
275
0.50
130
0.31
120
0.28
136
0.36
84
0.26
114
0.60
133
1.14
162
0.25
202
0.28
206
0.18
68
0.29
135
0.26
68
0.32
137
cross-rafttwo views0.56
188
0.25
165
0.22
160
0.21
143
0.20
138
0.39
222
0.15
134
0.44
218
0.26
171
0.48
209
0.35
181
0.43
177
0.31
172
0.24
131
0.86
114
1.35
260
0.41
171
0.34
181
1.31
248
0.78
258
1.98
279
1.89
254
0.16
147
0.18
140
0.47
221
0.46
208
0.42
137
0.68
214
Anonymous3two views0.57
189
0.29
203
0.22
160
0.21
143
0.25
176
0.27
158
0.22
163
0.51
242
0.35
213
0.37
168
0.27
138
0.76
241
0.54
233
0.47
236
1.18
160
1.93
293
0.51
217
0.47
235
0.94
205
0.58
225
1.27
213
1.69
236
0.19
174
0.21
172
0.36
183
0.39
180
0.54
182
0.37
162
Any-RAFTtwo views0.58
190
0.22
116
0.32
218
0.23
156
0.21
146
0.20
111
0.14
122
0.42
206
0.25
163
0.40
186
1.16
264
0.49
204
0.32
181
0.37
207
0.87
121
0.85
219
0.67
249
0.38
210
1.20
229
0.41
181
2.25
297
1.67
234
0.18
166
0.17
127
0.43
211
0.49
216
0.44
149
0.84
229
dadtwo views0.58
190
0.29
203
0.20
136
0.65
268
0.32
209
0.37
211
0.94
271
0.59
254
0.18
109
0.44
198
0.18
80
0.49
204
0.42
222
0.17
82
3.83
254
0.50
130
0.41
171
0.27
125
0.77
185
0.32
141
0.49
102
0.45
55
0.19
174
0.34
220
0.57
242
0.24
96
1.23
269
0.84
229
HHtwo views0.60
192
0.18
61
0.35
228
0.23
156
0.21
146
0.28
163
0.24
166
0.42
206
0.26
171
0.74
276
0.25
122
0.46
195
0.36
197
0.24
131
0.81
85
1.44
268
0.38
155
0.37
197
1.21
231
0.64
240
2.13
286
1.97
265
0.27
210
0.20
161
0.59
247
0.41
189
0.83
238
0.63
209
HanStereotwo views0.60
192
0.18
61
0.35
228
0.23
156
0.21
146
0.28
163
0.24
166
0.42
206
0.26
171
0.74
276
0.25
122
0.46
195
0.36
197
0.24
131
0.81
85
1.44
268
0.38
155
0.37
197
1.21
231
0.64
240
2.13
286
1.97
265
0.27
210
0.20
161
0.59
247
0.41
189
0.83
238
0.63
209
EGLCR-Stereotwo views0.60
192
0.22
116
0.22
160
0.15
84
0.18
122
0.23
133
0.09
64
0.32
131
0.22
141
0.32
128
0.19
92
0.38
151
0.27
153
0.14
56
0.81
85
0.74
198
0.39
160
0.37
197
0.72
180
0.28
120
1.20
201
2.19
289
0.12
89
0.68
287
0.23
93
1.54
286
3.67
320
0.34
147
GANet-ADLtwo views0.60
192
0.27
190
0.26
190
0.28
191
0.29
196
0.32
184
0.25
175
0.35
157
0.27
181
0.61
240
1.04
259
0.41
171
0.29
162
0.30
172
1.87
196
1.08
238
0.51
217
0.37
197
1.17
227
0.85
269
1.27
213
1.88
253
0.19
174
0.23
185
0.32
162
0.37
175
0.58
196
0.46
184
AnonymousMtwo views0.60
192
0.18
61
0.13
60
0.13
64
0.11
46
0.31
177
0.07
48
0.35
157
0.23
150
0.31
115
0.42
190
0.28
91
0.31
172
0.37
207
1.34
172
0.89
223
0.44
189
0.33
169
0.42
99
0.57
221
0.97
171
1.20
170
0.17
155
0.34
220
0.16
56
0.82
251
2.20
305
3.23
299
ETE_ROBtwo views0.60
192
0.48
257
0.30
207
0.36
221
0.36
233
0.39
222
0.32
192
0.33
140
0.49
247
0.40
186
0.61
216
1.32
265
0.29
162
0.40
223
2.38
218
0.50
130
0.95
264
0.34
181
0.65
168
0.41
181
0.96
170
1.18
168
0.28
216
0.31
215
0.39
198
0.45
205
0.73
228
0.52
199
LG-Stereo_Zeroshottwo views0.62
198
1.03
284
0.18
111
0.89
277
0.50
257
0.74
271
0.26
177
0.39
190
0.22
141
0.92
295
0.69
227
1.06
255
0.44
224
0.32
186
0.86
114
0.99
229
0.48
208
0.31
159
0.56
143
0.38
169
1.49
232
1.87
252
0.12
89
0.16
116
0.27
125
0.29
135
0.52
176
0.80
225
CC-Net-ROBtwo views0.62
198
0.60
271
0.40
241
0.81
273
0.59
265
0.75
272
0.57
241
0.43
213
0.31
199
0.47
206
0.32
166
1.38
267
0.73
252
0.62
262
0.60
34
0.33
42
0.42
179
0.32
163
2.70
271
0.28
120
0.50
108
0.61
83
0.98
288
0.28
206
0.39
198
0.37
175
0.39
118
0.54
201
iResNettwo views0.62
198
0.26
182
0.26
190
0.36
221
0.38
238
0.42
230
0.27
179
0.46
229
0.31
199
0.56
224
0.73
232
0.68
233
0.73
252
0.17
82
1.73
187
1.72
286
0.39
160
0.37
197
1.52
254
0.57
221
1.58
249
0.98
133
0.20
182
0.46
249
0.34
167
0.39
180
0.59
201
0.40
172
LALA_ROBtwo views0.62
198
0.52
261
0.32
218
0.33
211
0.35
228
0.40
225
0.31
189
0.34
146
0.40
223
0.46
203
0.61
216
1.27
261
0.29
162
0.39
219
3.75
252
0.45
108
0.51
217
0.38
210
0.57
151
0.40
179
0.82
160
1.11
156
0.24
199
0.31
215
0.36
183
0.43
198
0.81
237
0.51
197
MSMDNettwo views0.63
202
0.24
153
0.22
160
0.19
125
0.20
138
0.38
215
0.17
146
0.43
213
0.24
155
0.60
237
0.33
172
0.40
164
1.53
276
0.50
244
0.85
111
1.50
273
0.42
179
0.35
186
1.26
237
0.67
248
1.90
272
2.18
287
0.17
155
0.18
140
0.58
244
0.53
222
0.39
118
0.58
203
NVstereo2Dtwo views0.63
202
0.25
165
0.20
136
0.28
191
0.25
176
0.34
198
0.35
205
0.30
107
0.22
141
0.39
183
0.33
172
0.26
80
0.16
78
0.42
228
9.29
313
0.43
93
0.32
125
0.27
125
0.35
81
0.20
72
0.35
70
0.44
51
0.30
225
0.21
172
0.31
157
0.23
84
0.27
70
0.25
98
AMNettwo views0.63
202
0.59
270
0.56
266
0.59
260
0.59
265
0.64
263
0.58
244
0.45
222
0.53
252
0.51
214
0.69
227
0.75
239
0.40
216
0.87
273
0.68
56
0.86
221
0.71
254
0.66
279
0.63
165
0.62
235
0.76
154
0.62
85
0.38
241
0.59
276
0.57
242
0.69
240
0.70
221
0.75
216
RAFT-Testtwo views0.64
205
0.24
153
0.22
160
0.25
171
0.21
146
0.45
240
0.17
146
0.45
222
0.26
171
0.66
256
0.80
239
0.40
164
0.39
214
0.36
203
1.01
140
1.49
272
0.41
171
0.34
181
1.29
246
0.61
231
1.90
272
1.84
249
0.17
155
0.18
140
0.54
235
0.93
259
0.41
126
1.26
258
RTSCtwo views0.65
206
0.25
165
0.27
197
0.24
165
0.26
183
0.28
163
0.42
223
0.35
157
0.33
210
0.43
194
0.47
199
0.30
113
0.27
153
0.29
166
7.17
296
0.50
130
0.48
208
0.30
149
0.75
183
0.33
144
0.78
157
0.93
127
0.17
155
0.30
214
0.28
134
0.31
146
0.49
165
0.59
205
DAStwo views0.67
207
0.27
190
0.24
172
0.38
227
0.33
213
0.34
198
0.33
199
0.51
242
0.46
236
0.61
240
0.94
254
0.78
243
0.67
247
0.19
104
0.96
133
1.83
288
0.55
230
0.47
235
1.12
221
0.61
231
2.11
282
1.69
236
0.27
210
0.44
246
0.43
211
0.43
198
0.62
207
0.48
189
SepStereotwo views0.67
207
0.27
190
0.24
172
0.38
227
0.33
213
0.34
198
0.33
199
0.51
242
0.46
236
0.61
240
0.94
254
0.78
243
0.67
247
0.19
104
0.96
133
1.83
288
0.55
230
0.47
235
1.12
221
0.61
231
2.11
282
1.69
236
0.27
210
0.44
246
0.43
211
0.43
198
0.62
207
0.48
189
pcwnet_v2two views0.69
209
0.27
190
0.31
215
0.31
205
0.33
213
0.29
171
0.24
166
0.34
146
0.25
163
0.50
212
0.40
188
1.66
280
0.40
216
0.31
182
5.73
281
0.60
160
0.36
146
0.30
149
1.08
218
0.23
102
0.82
160
0.90
122
0.57
267
0.22
180
0.35
174
0.36
171
0.51
173
0.87
232
PWC_ROBbinarytwo views0.69
209
0.37
235
0.41
245
0.30
199
0.35
228
0.34
198
0.50
235
0.39
190
0.69
268
0.45
202
0.80
239
0.54
213
1.20
267
0.29
166
2.36
217
1.23
250
0.63
246
0.53
260
1.01
210
0.46
206
1.15
192
1.40
198
0.26
206
0.49
254
0.38
194
0.37
175
0.68
217
0.97
237
MSKI-zero shottwo views0.70
211
0.21
99
0.21
151
0.20
135
0.19
131
0.43
234
0.16
140
0.42
206
0.29
188
0.44
198
1.16
264
0.48
202
0.36
197
0.17
82
1.60
182
1.42
265
0.47
202
0.37
197
1.37
250
0.95
283
1.79
267
2.06
271
0.22
193
0.19
151
0.53
232
1.21
274
0.72
223
1.17
254
Reg-Stereo(zero)two views0.71
212
0.22
116
0.30
207
0.21
143
0.22
161
0.32
184
0.36
211
0.77
271
0.44
231
0.65
252
1.65
290
0.54
213
0.36
197
1.01
275
0.86
114
1.42
265
0.50
213
0.26
121
1.07
216
0.60
229
1.15
192
2.16
284
0.28
216
0.17
127
0.55
238
0.93
259
1.09
261
1.15
250
HItwo views0.71
212
0.22
116
0.30
207
0.21
143
0.22
161
0.32
184
0.36
211
0.77
271
0.44
231
0.65
252
1.65
290
0.54
213
0.36
197
1.01
275
0.86
114
1.42
265
0.50
213
0.26
121
1.07
216
0.60
229
1.15
192
2.16
284
0.28
216
0.17
127
0.55
238
0.93
259
1.09
261
1.15
250
IPLGtwo views0.72
214
0.20
88
0.18
111
0.16
94
0.17
113
0.15
66
0.13
112
0.35
157
0.22
141
0.35
147
1.18
267
0.29
101
0.24
135
0.54
250
9.17
311
0.54
146
0.35
144
0.29
143
0.56
143
0.37
161
0.54
123
1.38
193
0.11
77
0.57
271
0.35
174
0.29
135
0.67
216
0.22
80
GwcNet-ADLtwo views0.72
214
0.35
224
0.37
235
0.41
233
0.34
223
0.32
184
0.27
179
0.40
194
0.27
181
0.61
240
1.53
283
0.63
227
0.41
220
0.33
190
3.69
251
1.34
259
0.50
213
0.56
268
0.91
200
0.87
272
1.18
199
1.60
228
0.24
199
0.27
202
0.36
183
0.48
213
0.47
160
0.66
213
SHDtwo views0.72
214
0.30
208
0.42
249
0.35
219
0.34
223
0.33
197
0.45
228
0.49
236
0.44
231
0.53
220
0.63
218
0.47
200
0.64
242
0.34
194
6.15
285
0.52
141
0.47
202
0.37
197
0.94
205
0.45
203
0.88
164
1.12
158
0.25
202
0.42
242
0.47
221
0.47
212
0.50
171
0.63
209
DDUNettwo views0.75
217
0.91
279
0.42
249
1.24
284
1.03
288
1.19
283
1.16
282
0.35
157
0.35
213
0.37
168
0.45
194
0.64
229
0.32
181
1.77
290
2.89
230
0.44
97
0.71
254
0.48
240
0.87
198
0.59
227
0.53
118
0.64
89
0.85
285
0.28
206
0.34
167
0.34
160
0.61
205
0.39
170
IPLGRtwo views0.76
218
0.26
182
0.21
151
0.23
156
0.23
167
0.17
87
0.12
92
0.33
140
0.20
127
0.41
191
1.59
285
0.32
127
0.31
172
0.53
247
9.00
309
0.62
169
0.41
171
0.38
210
0.65
168
0.47
207
0.76
154
1.41
199
0.12
89
0.24
191
0.35
174
0.39
180
0.63
209
0.28
113
MIPNettwo views0.77
219
0.23
138
0.18
111
0.24
165
0.22
161
0.17
87
0.13
112
0.34
146
0.70
269
0.40
186
2.24
303
0.31
120
0.29
162
0.57
256
5.70
279
1.03
231
0.45
191
0.33
169
0.82
192
0.56
219
0.62
139
1.53
221
0.12
89
0.92
302
0.91
272
0.39
180
1.12
266
0.30
123
PSMNet-ADLtwo views0.77
219
0.29
203
0.30
207
0.33
211
0.32
209
0.32
184
0.37
213
0.55
250
0.35
213
0.71
269
1.43
280
0.56
217
1.01
259
2.47
303
1.18
160
2.02
297
1.58
288
0.41
219
1.06
215
0.50
211
1.25
211
1.44
203
0.35
240
0.24
191
0.35
174
0.41
189
0.65
211
0.34
147
IGEV_Zeroshot_testtwo views0.78
221
0.25
165
0.47
256
0.58
259
0.25
176
0.61
260
0.63
252
0.48
233
0.28
186
0.67
259
1.32
275
0.66
231
0.41
220
0.31
182
0.87
121
1.36
261
0.39
160
0.36
191
1.13
223
0.76
257
1.57
248
2.29
296
0.20
182
0.20
161
0.84
270
0.84
253
2.28
306
1.09
245
DeepPrunerFtwo views0.79
222
0.36
229
0.20
136
0.53
248
1.05
290
0.38
215
0.52
236
0.32
131
0.92
282
0.23
60
0.32
166
0.23
62
0.17
87
0.26
143
5.65
278
0.50
130
0.28
96
0.24
108
0.50
126
0.25
110
0.40
79
0.47
58
0.21
186
0.19
151
5.96
323
0.50
218
0.47
160
0.30
123
XQCtwo views0.80
223
0.47
256
0.40
241
0.50
246
0.46
251
0.50
244
0.57
241
0.56
252
0.48
244
0.58
229
0.63
218
0.58
220
0.81
256
0.45
231
6.95
294
0.73
196
0.45
191
0.36
191
0.84
195
0.42
186
0.81
159
1.06
146
0.33
237
0.42
242
0.53
232
0.61
233
0.69
218
0.50
195
RTStwo views0.80
223
0.32
214
0.28
202
0.30
199
0.33
213
0.44
236
0.59
247
0.41
196
0.46
236
0.43
194
0.34
175
0.51
208
0.34
189
0.30
172
7.29
297
0.70
191
0.55
230
0.36
191
1.02
211
0.45
203
0.93
168
1.01
139
0.25
202
0.37
230
0.54
235
1.72
292
0.58
196
0.79
217
RTSAtwo views0.80
223
0.32
214
0.28
202
0.30
199
0.33
213
0.44
236
0.59
247
0.41
196
0.46
236
0.43
194
0.34
175
0.51
208
0.34
189
0.30
172
7.29
297
0.70
191
0.55
230
0.36
191
1.02
211
0.45
203
0.93
168
1.01
139
0.25
202
0.37
230
0.54
235
1.72
292
0.58
196
0.79
217
model_zeroshottwo views0.81
226
0.22
116
0.23
166
0.34
216
0.21
146
0.45
240
0.16
140
0.43
213
0.23
150
0.59
233
1.10
262
0.50
207
0.31
172
0.26
143
2.66
226
1.04
234
0.42
179
0.35
186
1.40
252
0.52
214
1.90
272
1.60
228
0.15
138
0.20
161
2.65
310
1.52
285
0.79
236
1.54
271
NOSS_ROBtwo views0.81
226
0.36
229
0.27
197
0.37
225
0.35
228
0.37
211
0.29
186
0.87
278
0.39
220
0.71
269
0.93
253
0.99
252
0.60
239
1.26
285
2.02
201
2.44
308
0.57
238
0.58
271
0.68
176
0.43
188
2.16
290
2.47
304
0.32
236
0.47
252
0.42
206
0.43
198
0.72
223
0.42
176
NaN_ROBtwo views0.82
228
0.41
250
0.41
245
0.36
221
0.49
253
0.42
230
0.44
227
0.45
222
1.33
298
0.40
186
0.67
225
0.89
251
0.31
172
0.47
236
5.25
273
0.55
150
0.34
137
0.53
260
0.49
120
0.63
237
0.60
133
0.95
128
0.28
216
0.49
254
0.78
266
1.57
287
0.98
252
1.71
275
test-1two views0.83
229
0.18
61
0.23
166
0.19
125
0.19
131
0.57
258
0.58
244
0.44
218
0.29
188
0.72
273
5.41
314
0.54
213
0.40
216
0.59
258
0.98
137
1.32
256
0.45
191
0.48
240
1.14
224
0.96
285
1.90
272
2.36
300
0.14
122
0.21
172
0.39
198
0.46
208
0.61
205
0.63
209
MFN_U_SF_DS_RVCtwo views0.83
229
0.54
266
0.35
228
0.63
265
0.46
251
0.56
255
1.02
274
0.65
261
0.60
259
0.57
226
0.47
199
0.82
249
1.21
268
1.11
282
2.25
211
0.60
160
0.36
146
0.33
169
1.25
235
0.40
179
1.94
277
1.62
231
0.47
258
0.39
237
0.76
261
0.81
249
0.75
231
1.49
269
FCDSN-DCtwo views0.84
231
0.37
235
0.67
278
0.40
232
0.40
241
0.35
203
0.89
269
0.39
190
0.31
199
0.46
203
0.35
181
0.44
181
0.31
172
0.38
213
8.90
306
0.84
218
0.47
202
0.48
240
0.73
181
0.38
169
1.12
187
1.58
225
0.30
225
0.57
271
0.37
189
0.42
192
0.42
137
0.37
162
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet_RVCtwo views0.85
232
0.35
224
1.01
294
0.44
241
0.63
271
0.27
158
0.63
252
0.43
213
0.46
236
0.48
209
0.50
204
0.65
230
0.54
233
0.58
257
3.52
249
0.82
216
0.52
222
1.02
306
1.68
257
0.71
251
1.59
251
1.50
216
0.45
254
0.59
276
0.56
240
0.43
198
1.89
296
0.62
208
AIO-Stereo-zeroshotpermissivetwo views0.86
233
0.37
235
0.57
267
0.34
216
0.29
196
0.54
252
0.69
261
0.45
222
0.72
271
0.64
251
1.75
295
0.59
221
0.64
242
0.23
124
0.93
126
1.53
277
0.44
189
0.40
217
1.27
240
1.04
291
1.62
252
2.22
292
0.18
166
0.38
235
0.83
269
0.48
213
2.98
314
1.10
246
UDGtwo views0.91
234
0.94
281
0.44
252
1.22
283
1.16
292
1.14
282
1.35
285
0.38
184
0.36
217
0.43
194
0.55
210
0.62
223
0.33
187
1.60
288
5.73
281
0.80
209
0.75
257
0.45
229
0.94
205
0.65
246
1.13
189
1.10
153
0.64
273
0.32
217
0.36
183
0.39
180
0.53
180
0.38
167
HSM-Net_RVCpermissivetwo views0.94
235
0.26
182
0.27
197
0.43
236
0.31
205
0.28
163
0.23
165
0.48
233
0.29
188
0.58
229
0.98
257
11.38
322
0.46
229
0.24
131
1.33
169
0.65
175
0.47
202
0.30
149
0.57
151
0.57
221
1.31
218
1.26
177
0.27
210
0.44
246
0.43
211
0.45
205
0.54
182
0.48
189
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
ITSA-stereotwo views0.96
236
0.36
229
0.34
224
0.55
253
0.41
244
0.32
184
0.64
255
0.52
248
0.47
242
0.71
269
1.48
281
0.67
232
0.62
240
0.35
200
3.07
239
1.67
284
0.52
222
0.56
268
1.10
219
0.87
272
1.33
219
1.89
254
0.52
264
0.51
259
0.50
228
1.05
268
3.15
318
1.80
277
iRaft-Stereo_20wtwo views0.96
236
0.31
212
0.58
272
0.57
257
0.34
223
0.51
247
0.58
244
0.44
218
0.32
204
0.90
293
1.59
285
0.56
217
0.49
232
0.37
207
2.05
204
1.22
249
0.42
179
0.52
257
1.04
213
0.82
265
1.52
238
2.14
280
0.27
210
0.38
235
1.04
279
3.39
314
2.04
299
1.45
267
FC-DCNNcopylefttwo views0.96
236
0.50
258
0.92
288
0.79
272
0.52
259
0.73
270
1.10
277
0.77
271
0.52
250
0.62
246
0.65
220
0.72
236
0.62
240
0.38
213
3.13
240
0.83
217
0.94
263
0.50
249
1.19
228
0.43
188
1.52
238
1.33
185
0.31
231
0.52
261
1.01
278
0.92
258
1.51
281
2.93
298
PVDtwo views0.98
239
0.54
266
0.59
273
0.60
262
0.56
262
0.66
268
0.63
252
0.91
284
0.87
280
0.57
226
0.85
244
0.80
246
1.03
260
0.59
258
6.60
289
0.64
172
0.69
252
0.55
264
1.16
226
0.63
237
1.22
202
1.27
180
0.39
244
0.53
263
0.75
260
0.88
255
0.85
240
1.07
242
MFMNet_retwo views0.98
239
0.78
278
0.71
281
0.83
274
0.72
276
0.97
277
0.83
266
0.75
268
0.86
276
0.69
263
0.79
237
1.30
264
0.83
257
0.68
265
2.27
212
1.16
246
1.03
268
0.80
295
1.61
255
0.85
269
2.25
297
1.12
158
0.65
275
0.71
289
0.66
253
0.66
238
0.98
252
0.99
240
ADCP+two views0.99
241
0.33
219
0.34
224
0.25
171
0.34
223
0.35
203
0.49
234
0.31
117
0.66
265
0.59
233
0.48
202
0.75
239
0.18
96
0.30
172
9.27
312
0.47
118
0.27
85
0.27
125
0.78
186
0.80
261
0.51
111
0.72
99
0.18
166
0.18
140
0.69
255
2.01
299
1.44
278
3.81
307
FC-DCNN v2copylefttwo views1.01
242
0.52
261
1.01
294
0.85
275
0.53
260
0.77
273
1.07
276
0.83
276
0.65
263
0.61
240
0.65
220
0.72
236
0.79
254
0.37
207
3.26
244
0.81
211
0.95
264
0.47
235
1.22
233
0.41
181
1.52
238
1.34
188
0.31
231
0.51
259
1.30
289
1.29
278
1.86
295
2.78
290
CSANtwo views1.01
242
0.52
261
0.48
259
0.47
245
0.49
253
0.38
215
0.48
232
0.49
236
2.50
316
0.69
263
2.01
298
1.44
269
0.69
249
0.60
261
4.20
259
0.56
152
0.46
197
0.47
235
0.82
192
2.20
318
1.16
197
1.10
153
0.31
231
0.53
263
1.68
298
1.02
267
0.72
223
0.81
226
ADCReftwo views1.02
244
0.34
223
0.38
237
0.23
156
0.35
228
0.32
184
0.40
220
0.36
174
0.86
276
0.39
183
0.31
159
0.39
156
0.25
142
0.28
157
9.75
317
0.63
171
0.33
133
0.32
163
0.81
188
0.56
219
0.47
99
0.72
99
0.47
258
0.34
220
1.00
276
1.09
269
0.99
255
5.10
315
FBW_ROBtwo views1.04
245
0.64
274
0.57
267
0.87
276
0.87
284
0.68
269
0.98
272
0.45
222
0.34
212
0.53
220
0.75
234
1.03
254
1.27
271
1.90
292
6.09
284
0.42
85
0.60
243
0.33
169
2.46
266
0.49
210
1.49
232
1.10
153
1.23
291
0.56
267
0.44
215
0.53
222
0.55
186
0.82
227
SAMSARAtwo views1.05
246
0.40
246
0.57
267
0.44
241
0.43
247
0.43
234
0.62
250
0.74
267
0.61
261
0.60
237
0.72
230
0.59
221
1.65
278
0.46
234
6.43
288
0.74
198
0.53
227
0.50
249
1.24
234
0.55
217
1.24
204
1.37
191
0.28
216
0.56
267
1.63
296
1.74
294
1.65
288
1.61
274
CBMVpermissivetwo views1.06
247
0.38
243
0.33
220
0.42
234
0.39
240
0.39
222
0.31
189
0.87
278
0.40
223
0.65
252
0.86
246
1.47
271
1.22
270
1.02
277
1.89
197
2.41
307
0.67
249
0.51
253
1.66
256
0.78
258
1.69
257
2.20
290
0.31
231
0.52
261
0.47
221
0.49
216
1.04
259
5.23
316
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
gcap-zeroshottwo views1.09
248
0.23
138
0.33
220
0.59
260
0.20
138
0.40
225
0.35
205
0.45
222
0.24
155
0.74
276
1.21
270
0.63
227
0.34
189
0.25
138
0.80
83
1.71
285
3.94
320
0.29
143
9.06
306
0.81
262
1.52
238
1.94
262
1.39
294
0.18
140
0.58
244
0.39
180
0.41
126
0.41
173
ADCLtwo views1.10
249
0.44
255
0.36
231
0.33
211
0.33
213
0.38
215
0.47
230
0.38
184
1.23
294
0.60
237
0.47
199
0.43
177
0.27
153
0.32
186
7.84
303
0.57
154
0.38
155
0.55
264
0.68
176
0.69
249
0.65
142
0.81
114
0.29
224
0.36
228
1.73
300
1.85
297
1.77
291
5.47
317
ccs_robtwo views1.11
250
0.35
224
0.33
220
0.43
236
0.29
196
0.44
236
0.38
214
0.59
254
0.35
213
1.97
315
5.99
315
5.59
314
0.59
236
0.45
231
1.05
147
1.28
252
0.52
222
0.39
214
1.76
260
0.87
272
1.76
263
2.05
270
0.26
206
0.43
245
0.34
167
0.36
171
0.50
171
0.56
202
pmcnntwo views1.11
250
0.42
253
0.41
245
0.57
257
0.59
265
0.54
252
1.41
286
0.71
265
0.48
244
0.61
240
1.28
273
1.51
273
2.96
295
1.04
278
1.42
177
2.33
305
0.81
259
0.96
300
1.74
259
1.09
295
2.41
302
1.74
242
0.82
284
0.50
257
0.48
227
0.69
240
1.09
261
1.28
261
DCVSM-stereotwo views1.12
252
0.31
212
0.36
231
0.43
236
0.33
213
0.52
251
0.35
205
0.68
263
0.39
220
0.66
256
1.41
279
1.60
275
0.79
254
0.39
219
0.81
85
1.02
230
0.48
208
0.37
197
12.56
317
0.92
282
1.54
245
1.37
191
0.41
249
0.49
254
0.41
203
0.51
219
0.65
211
0.61
207
FAT-Stereotwo views1.13
253
0.37
235
0.57
267
0.56
256
0.63
271
0.50
244
0.52
236
0.75
268
0.44
231
0.79
284
2.82
306
1.45
270
1.95
280
0.49
243
2.78
228
2.52
311
0.57
238
0.60
273
2.42
265
1.17
299
2.12
285
2.13
279
0.74
282
0.58
274
0.41
203
0.56
226
0.72
223
1.27
260
ADCMidtwo views1.14
254
0.50
258
0.55
265
0.39
231
0.59
265
0.56
255
0.77
265
0.59
254
0.76
274
0.47
206
0.71
229
0.70
234
0.71
251
0.39
219
8.21
304
1.09
240
0.51
217
0.45
229
1.73
258
0.51
213
1.04
176
1.21
172
0.59
269
0.40
239
0.58
244
1.47
284
1.24
271
4.18
311
EAI-Stereotwo views1.15
255
0.27
190
0.37
235
0.54
249
0.30
201
8.38
327
0.76
263
0.45
222
0.63
262
0.34
139
0.88
249
0.46
195
0.33
187
0.25
138
1.83
193
1.17
247
0.40
165
0.65
276
2.53
269
0.73
253
1.47
228
1.71
240
0.23
195
0.46
249
1.08
284
1.64
291
1.45
280
1.79
276
TRStereotwo views1.21
256
0.32
214
0.47
256
0.25
171
0.18
122
0.64
263
0.26
177
0.44
218
0.20
127
0.70
268
0.57
211
0.80
246
0.29
162
0.23
124
1.08
150
1.85
290
0.37
150
0.35
186
1.05
214
0.88
278
1.36
222
1.89
254
0.17
155
0.16
116
0.67
254
16.20
333
0.88
243
0.49
194
EKT-Stereotwo views1.22
257
0.27
190
0.24
172
0.28
191
0.25
176
0.31
177
0.54
240
0.43
213
0.29
188
0.44
198
0.57
211
0.49
204
0.44
224
0.31
182
13.29
329
2.18
302
0.54
228
0.53
260
1.26
237
1.02
289
5.16
322
2.03
269
0.14
122
0.19
151
0.42
206
0.35
164
0.56
188
0.34
147
MADNet+two views1.22
257
0.60
271
0.77
284
0.77
270
0.74
277
0.61
260
1.01
273
0.94
287
0.74
272
0.78
283
0.68
226
1.18
258
1.07
263
0.68
265
7.48
301
1.39
262
1.12
273
0.65
276
1.33
249
0.91
280
2.13
286
1.51
218
0.66
276
0.97
305
1.05
281
0.83
252
0.92
248
1.39
263
HBP-ISPtwo views1.24
259
0.38
243
0.50
260
0.52
247
0.41
244
0.45
240
0.33
199
0.55
250
0.40
223
0.76
281
1.30
274
0.48
202
0.48
231
1.92
293
9.87
321
3.68
322
0.55
230
0.66
279
0.82
192
0.95
283
2.11
282
2.96
314
0.30
225
0.46
249
0.47
221
0.52
220
0.94
250
0.60
206
MSC_U_SF_DS_RVCtwo views1.26
260
2.34
309
0.85
285
1.48
288
0.80
283
1.00
278
1.15
281
0.76
270
0.94
283
1.33
306
0.54
209
1.54
274
1.67
279
2.00
294
2.30
213
0.97
226
1.08
272
1.05
307
3.01
276
1.06
294
1.37
223
1.51
218
1.22
290
0.67
286
0.76
261
0.65
236
0.59
201
1.40
264
AnyNet_C32two views1.27
261
0.41
250
0.36
231
0.37
225
0.40
241
0.48
243
0.62
250
0.47
231
1.23
294
0.56
224
0.89
251
0.53
211
0.36
197
0.40
223
10.27
323
1.27
251
0.55
230
0.54
263
0.88
199
0.63
237
1.28
215
1.52
220
0.34
239
0.50
257
1.09
285
2.40
304
1.34
274
4.67
313
SQANettwo views1.31
262
1.35
289
0.53
261
3.10
304
1.03
288
1.89
291
1.49
288
0.50
241
0.40
223
0.51
214
0.46
197
1.19
259
0.55
235
1.57
287
2.53
222
0.49
124
1.24
280
0.37
197
6.38
294
0.61
231
1.71
258
1.74
242
2.52
302
0.37
230
0.46
220
0.57
227
0.66
213
1.26
258
CBMV_ROBtwo views1.31
262
0.37
235
0.39
240
0.60
262
0.49
253
0.57
258
0.47
230
0.95
289
0.40
223
0.81
286
1.38
278
3.04
297
2.55
289
0.48
240
5.00
270
1.30
253
0.89
261
0.49
244
2.24
263
0.73
253
1.72
260
1.95
263
0.45
254
0.40
239
0.97
274
2.27
303
1.56
282
2.91
297
G-Nettwo views1.35
264
0.55
268
0.65
277
0.43
236
0.49
253
0.56
255
0.48
232
0.89
281
1.35
299
0.67
259
1.22
271
3.00
296
1.21
268
0.36
203
4.11
258
1.64
283
0.61
244
0.76
289
1.37
250
1.35
303
1.63
253
1.89
254
0.39
244
0.61
279
0.80
267
3.07
312
1.57
283
4.68
314
ADCStwo views1.39
265
0.51
260
0.47
256
0.45
244
0.55
261
0.51
247
0.64
255
0.68
263
1.05
285
0.57
226
0.72
230
0.80
246
2.34
286
0.51
246
9.94
322
2.13
300
0.76
258
0.62
275
1.30
247
0.62
235
1.80
268
1.62
231
0.43
252
0.56
267
0.76
261
2.09
301
1.59
285
3.47
302
DPSNettwo views1.40
266
0.43
254
0.38
237
0.54
249
0.61
270
0.65
266
0.57
241
0.51
242
0.67
266
0.46
203
0.87
248
3.54
302
1.62
277
1.43
286
2.52
221
2.12
299
0.99
266
0.99
304
7.37
300
1.69
309
2.21
294
2.98
315
0.95
287
0.74
290
0.76
261
0.76
246
0.75
231
0.82
227
otakutwo views1.43
267
2.19
305
0.62
276
3.33
306
1.22
294
2.22
304
1.77
292
0.56
252
0.53
252
0.59
233
0.53
208
1.29
263
0.69
249
2.06
297
1.09
151
0.51
136
1.25
281
0.39
214
6.35
293
0.59
227
1.91
276
1.95
263
3.16
309
0.48
253
0.56
240
0.57
227
0.74
230
1.36
262
S-Stereotwo views1.43
267
0.40
246
0.43
251
0.60
262
0.58
264
0.64
263
1.10
277
0.61
258
0.57
256
0.69
263
4.10
312
1.62
278
0.65
244
0.46
234
4.54
263
2.87
316
0.55
230
0.65
276
4.87
289
4.90
324
1.26
212
2.26
294
0.99
289
0.61
279
0.41
203
0.53
222
0.66
213
0.97
237
RainbowNettwo views1.44
269
1.50
292
0.85
285
2.41
301
1.41
301
1.97
294
2.14
297
0.65
261
0.57
256
0.74
276
0.46
197
1.61
276
1.05
261
2.78
306
1.90
198
1.30
253
1.21
278
0.51
253
3.15
279
1.74
310
1.75
262
1.97
265
3.07
307
0.61
279
0.65
252
0.69
240
0.88
243
1.43
265
SANettwo views1.44
269
0.57
269
0.54
262
0.55
253
0.60
269
0.65
266
0.76
263
0.94
287
5.50
322
0.52
217
2.23
302
4.15
309
2.61
290
0.65
264
5.29
274
0.52
141
1.21
278
0.56
268
0.93
204
0.83
266
1.54
245
1.38
193
0.47
258
0.62
283
0.74
258
1.16
271
0.88
243
2.41
285
SGM-ForestMtwo views1.49
271
1.99
303
1.26
307
1.18
281
0.67
275
1.50
287
1.71
291
1.32
301
0.94
283
0.74
276
1.03
258
2.90
295
2.23
283
0.55
252
1.68
185
0.62
169
1.34
283
0.49
244
2.81
274
0.58
225
1.33
219
1.12
158
0.57
267
0.56
267
2.12
306
2.46
305
3.00
315
3.53
304
SPS-STEREOcopylefttwo views1.49
271
0.72
275
0.69
279
0.90
278
0.75
278
0.82
276
0.74
262
0.83
276
0.76
274
0.85
290
1.62
287
1.42
268
1.09
264
0.70
267
1.97
199
2.32
304
1.04
269
0.97
302
10.95
314
1.01
288
2.60
306
2.45
303
0.64
273
0.76
293
0.81
268
0.79
248
1.11
265
0.96
236
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
AnyNet_C01two views1.52
273
0.60
271
0.54
262
0.63
265
0.56
262
0.51
247
1.16
282
0.89
281
1.30
297
0.68
261
0.88
249
1.27
261
1.30
274
0.54
250
11.26
325
2.64
313
1.16
274
1.01
305
1.42
253
0.75
255
1.67
254
1.92
261
0.60
270
0.62
283
1.33
290
0.97
265
1.63
287
3.28
300
ADCPNettwo views1.59
274
0.37
235
0.74
283
0.43
236
0.76
279
0.42
230
1.45
287
0.90
283
0.70
269
0.76
281
1.68
293
0.76
241
3.19
298
0.76
270
8.96
308
1.92
292
0.54
228
0.37
197
4.76
287
1.03
290
1.19
200
1.09
150
0.94
286
0.40
239
1.06
282
1.36
279
0.93
249
5.53
319
anonymitytwo views1.60
275
0.25
165
0.41
245
0.27
183
0.23
167
0.51
247
0.16
140
0.49
236
0.27
181
0.63
248
23.10
334
0.57
219
0.59
236
0.37
207
0.78
77
1.33
257
0.46
197
0.35
186
1.10
219
0.48
209
1.47
228
2.07
275
0.21
186
0.33
219
1.11
287
1.60
289
3.07
316
1.08
244
Ntrotwo views1.62
276
3.84
318
0.69
279
2.63
302
1.29
295
2.25
306
2.87
307
0.61
258
0.56
255
0.62
246
0.50
204
1.32
265
0.66
246
2.02
296
3.24
243
0.47
118
1.35
285
0.42
222
6.77
295
0.64
240
2.20
292
2.08
276
3.05
306
0.55
266
0.60
249
0.69
240
0.73
228
1.16
253
ACVNet_1two views1.67
277
1.63
295
0.96
290
4.28
309
1.59
306
2.19
303
3.55
310
0.73
266
0.57
256
0.63
248
0.58
213
1.49
272
0.97
258
5.05
323
1.52
181
0.54
146
2.24
301
0.55
264
4.77
288
0.57
221
2.20
292
1.58
225
3.26
312
0.65
285
0.70
256
0.64
235
0.69
218
0.89
235
DDVStwo views1.78
278
0.35
224
0.40
241
0.33
211
0.38
238
0.37
211
0.33
199
2.41
319
0.46
236
0.68
261
17.02
331
2.44
293
0.65
244
0.81
272
2.50
220
1.31
255
0.61
244
0.49
244
6.21
292
0.84
267
2.90
312
2.24
293
0.26
206
0.34
220
0.34
167
0.60
232
2.18
303
0.71
215
Deantwo views1.78
278
1.76
298
1.00
292
5.98
320
1.87
315
2.22
304
2.59
304
1.07
294
1.14
289
0.98
299
0.82
242
1.85
284
2.08
282
2.18
299
2.05
204
1.07
235
2.05
299
0.70
285
2.78
273
0.97
286
2.14
289
1.89
254
2.92
304
0.93
303
1.41
291
1.11
270
1.39
276
1.14
249
MFN_U_SF_RVCtwo views1.81
280
2.41
310
1.86
319
2.14
299
1.76
312
1.92
292
2.34
303
1.56
309
1.47
305
3.68
321
3.76
310
1.21
260
1.27
271
1.71
289
3.52
249
2.14
301
1.01
267
0.92
299
3.46
282
0.99
287
1.73
261
1.56
224
0.77
283
2.30
324
0.76
261
0.81
249
0.70
221
0.98
239
ACVNet_2two views1.92
281
1.61
294
1.00
292
5.61
317
1.57
304
2.05
296
2.23
298
0.87
278
0.68
267
0.71
269
0.74
233
1.61
276
1.15
266
2.00
294
2.43
219
0.69
182
2.79
306
0.51
253
12.02
316
0.71
251
1.81
269
1.68
235
2.66
303
0.79
296
1.09
285
0.74
245
0.95
251
1.11
247
WAO-6two views1.95
282
1.28
288
0.85
285
2.04
297
1.34
298
1.69
289
2.05
295
1.04
292
1.24
296
0.91
294
0.86
246
1.85
284
2.71
291
2.30
301
9.05
310
1.14
245
2.89
307
0.69
284
3.16
280
0.85
269
2.21
294
2.27
295
1.29
292
0.87
298
1.64
297
2.07
300
1.72
290
2.69
289
SGM-Foresttwo views1.95
282
0.37
235
0.25
185
0.54
249
0.44
248
0.40
225
0.24
166
0.59
254
0.75
273
0.72
273
0.66
222
0.99
252
2.05
281
0.34
194
5.58
277
1.88
291
0.46
197
0.39
214
23.75
328
0.29
124
2.17
291
1.62
231
0.40
247
0.29
212
1.04
279
0.59
230
1.80
292
4.01
309
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
WAO-7two views1.96
284
1.09
286
1.32
309
5.02
312
0.99
287
1.02
281
1.64
289
1.16
296
1.46
304
2.58
319
2.14
301
2.11
290
2.83
294
1.20
284
6.00
283
1.03
231
1.68
291
0.70
285
7.59
301
0.87
272
1.71
258
1.97
265
0.38
241
1.05
308
0.98
275
1.45
282
1.10
264
1.84
278
IMH-64-1two views1.98
285
1.48
290
1.04
299
1.97
293
1.55
302
2.06
297
2.27
300
1.02
290
1.16
290
0.58
229
0.75
234
1.89
286
2.78
292
2.77
304
9.78
318
1.51
275
1.19
276
0.66
279
3.01
276
0.81
262
1.48
230
2.06
271
3.25
310
0.74
290
1.59
294
1.25
276
2.09
300
2.83
293
IMH-64two views1.98
285
1.48
290
1.04
299
1.97
293
1.55
302
2.06
297
2.27
300
1.02
290
1.16
290
0.58
229
0.75
234
1.89
286
2.78
292
2.77
304
9.78
318
1.51
275
1.19
276
0.66
279
3.01
276
0.81
262
1.48
230
2.06
271
3.25
310
0.74
290
1.59
294
1.25
276
2.09
300
2.83
293
edge stereotwo views1.98
285
0.52
261
1.03
298
0.72
269
0.63
271
0.79
274
0.83
266
0.93
286
1.45
302
3.71
322
1.22
271
2.08
289
4.38
304
1.06
279
2.14
208
2.51
310
0.64
247
0.55
264
7.27
299
7.84
326
1.43
226
5.56
325
2.02
299
0.53
263
0.61
250
0.55
225
0.87
241
1.48
268
SFCPSMtwo views2.02
288
0.37
235
0.29
205
0.38
227
0.33
213
0.38
215
0.38
214
0.42
206
0.48
244
0.63
248
1.10
262
1.09
256
4.92
306
0.35
200
1.80
190
1.39
262
0.59
242
0.50
249
31.93
334
0.84
267
1.50
235
1.59
227
0.30
225
0.37
230
0.42
206
0.52
220
0.69
218
1.01
241
MeshStereopermissivetwo views2.03
289
0.72
275
0.61
275
1.20
282
0.79
282
1.01
280
0.66
258
1.54
308
1.35
299
0.92
295
2.10
300
4.00
306
3.06
296
0.71
269
9.66
316
2.82
314
1.05
270
0.76
289
4.73
286
0.75
255
3.34
316
3.73
321
0.48
261
0.58
274
1.79
301
1.18
272
2.41
309
2.78
290
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAScopylefttwo views2.27
290
1.03
284
1.10
304
1.38
287
1.13
291
1.45
285
1.10
277
1.38
304
1.09
288
0.94
297
7.66
318
3.71
304
3.10
297
1.11
282
6.64
290
1.56
278
1.42
287
1.43
314
2.52
268
0.69
249
2.33
300
3.03
316
0.69
279
0.82
297
3.50
316
4.32
320
2.52
310
3.70
306
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MDST_ROBtwo views2.36
291
4.67
323
0.44
252
3.47
307
0.77
281
2.09
300
0.52
236
1.45
306
0.44
231
0.69
263
0.96
256
0.78
243
9.65
315
0.30
172
8.31
305
0.79
205
0.46
197
0.37
197
3.22
281
0.38
169
1.95
278
2.12
278
0.46
257
0.36
228
4.26
320
2.58
306
6.75
324
5.48
318
ELAS_RVCcopylefttwo views2.37
292
0.95
283
1.21
306
1.26
285
0.98
286
1.99
295
1.12
280
1.45
306
0.86
276
0.99
300
7.87
319
3.60
303
8.50
312
1.07
280
6.31
287
1.59
281
1.34
283
1.44
315
2.57
270
0.79
260
2.43
303
3.03
316
0.71
280
0.88
299
3.51
317
3.72
317
1.69
289
2.07
279
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views2.50
293
1.51
293
1.05
302
1.99
296
1.58
305
2.09
300
2.32
302
1.04
292
1.19
293
0.84
289
1.34
276
2.02
288
8.04
311
8.79
331
6.91
293
1.41
264
1.37
286
0.67
283
5.94
291
1.10
297
1.45
227
2.32
299
4.37
322
0.77
294
1.86
302
1.41
280
1.57
283
2.46
286
PWCKtwo views2.53
294
1.63
295
1.01
294
1.98
295
1.29
295
2.08
299
2.10
296
1.37
303
1.44
301
1.41
309
1.79
296
5.07
311
2.34
286
1.08
281
3.26
244
0.91
224
1.71
293
0.77
291
22.70
326
1.31
302
2.44
304
1.46
206
1.41
295
0.98
306
1.69
299
1.61
290
1.40
277
2.14
280
SGM_RVCbinarytwo views2.55
295
0.93
280
1.05
302
0.97
279
0.76
279
1.00
278
0.93
270
7.37
327
1.18
292
1.01
302
1.64
288
2.39
292
9.36
314
0.62
262
2.02
201
1.33
257
1.60
289
0.80
295
7.94
302
1.42
304
1.67
254
1.69
236
0.67
277
0.94
304
2.66
311
2.65
309
4.83
321
9.43
325
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SGM+DAISYtwo views2.56
296
0.94
281
0.92
288
1.06
280
0.97
285
1.24
284
1.04
275
1.31
300
1.76
308
1.12
304
2.01
298
2.59
294
3.35
301
0.87
273
6.30
286
3.19
318
1.16
274
1.11
309
6.92
297
1.55
307
2.89
311
2.90
311
0.67
277
1.23
316
3.89
318
4.14
319
5.13
322
8.82
324
AIO-Stereo-zeroshot1permissivetwo views2.63
297
0.30
208
0.54
262
0.34
216
0.37
235
0.63
262
0.68
260
0.48
233
1.07
286
0.69
263
1.55
284
0.62
223
0.59
236
0.18
101
0.86
114
1.75
287
0.42
179
0.50
249
49.64
337
1.04
291
1.53
243
2.14
280
0.19
174
0.28
206
0.72
257
1.86
298
0.98
252
1.07
242
LVEtwo views2.66
298
1.99
303
1.02
297
12.01
326
1.75
311
3.85
315
11.87
329
0.91
284
0.89
281
1.03
303
0.91
252
1.62
278
2.23
283
2.46
302
2.96
233
1.03
231
1.74
294
0.82
297
8.43
305
0.87
272
1.84
271
2.20
290
3.10
308
0.99
307
1.45
292
0.96
263
1.23
269
1.54
271
JetBluetwo views2.73
299
1.92
301
1.56
316
2.34
300
1.82
314
2.66
309
2.78
306
1.44
305
1.45
302
0.81
286
0.82
242
4.05
307
1.44
275
2.08
298
9.39
314
2.60
312
1.69
292
1.33
312
2.15
261
1.21
301
3.25
315
3.66
320
1.90
298
1.08
311
2.76
314
5.03
321
2.31
308
10.12
326
DGSMNettwo views2.89
300
1.85
299
1.04
299
1.35
286
0.50
257
1.94
293
0.59
247
2.82
320
1.53
306
3.95
323
15.60
328
1.84
283
3.19
298
4.88
322
2.89
230
2.87
316
3.06
309
1.91
317
4.57
285
2.02
317
4.46
320
3.48
318
1.64
297
2.11
322
0.88
271
3.46
315
1.04
259
2.62
288
MADNet++two views2.98
301
1.95
302
2.23
321
1.73
292
2.39
316
1.68
288
2.24
299
2.26
315
2.69
317
2.34
318
2.78
305
3.30
300
3.34
300
2.86
307
4.22
260
4.20
323
2.65
304
2.14
319
3.69
283
3.00
320
4.95
321
7.04
327
1.44
296
2.60
325
1.93
303
5.78
322
2.76
312
2.35
283
WAO-8two views3.09
302
2.55
311
1.41
310
5.78
318
1.73
308
2.51
307
3.26
308
1.28
298
1.93
311
5.67
326
8.70
323
3.06
298
6.18
308
4.38
317
3.04
237
1.97
295
1.78
295
0.75
287
9.44
308
1.54
305
1.76
263
2.31
297
2.46
300
1.07
309
2.29
307
1.80
295
1.83
293
2.83
293
Venustwo views3.09
302
2.55
311
1.41
310
5.78
318
1.73
308
2.51
307
3.26
308
1.28
298
1.93
311
5.67
326
8.70
323
3.06
298
6.18
308
4.38
317
3.04
237
1.97
295
1.78
295
0.75
287
9.44
308
1.54
305
1.76
263
2.31
297
2.46
300
1.07
309
2.29
307
1.80
295
1.83
293
2.83
293
UNDER WATER-64two views3.14
304
2.61
313
1.56
316
4.95
311
2.92
319
3.47
312
4.38
313
2.32
316
1.63
307
1.37
307
1.36
277
5.08
312
4.79
305
3.47
311
7.48
301
2.02
297
3.68
318
1.11
309
3.99
284
1.95
314
2.87
310
2.92
313
5.01
325
1.40
317
1.99
305
3.99
318
2.15
302
4.42
312
ACVNet-4btwo views3.25
305
6.98
325
0.72
282
12.08
327
1.33
297
4.39
318
9.77
326
0.61
258
0.60
259
0.66
256
3.91
311
5.47
313
11.63
318
2.24
300
0.74
66
0.55
150
2.39
303
0.49
244
10.57
313
0.87
272
2.24
296
2.88
310
2.92
304
0.61
279
0.61
250
0.58
229
0.72
223
1.15
250
MANEtwo views3.30
306
1.71
297
1.93
320
1.49
289
1.37
300
1.77
290
2.02
293
1.90
311
2.39
315
0.87
291
1.68
293
3.71
304
4.07
302
0.78
271
7.43
299
3.40
319
1.81
298
6.10
326
2.99
275
1.05
293
2.09
281
2.38
301
0.61
272
1.76
321
5.46
322
6.93
325
8.52
325
12.82
328
STStereotwo views3.38
307
1.14
287
1.69
318
7.09
323
1.35
299
7.29
326
2.62
305
2.11
313
2.34
314
0.95
298
2.86
307
5.97
315
6.28
310
0.38
213
11.54
326
2.20
303
0.93
262
0.89
298
11.21
315
0.90
279
1.58
249
1.46
206
0.55
266
1.58
318
3.31
315
3.09
313
3.08
317
6.91
321
DispFullNettwo views3.41
308
2.89
317
1.54
314
1.52
290
1.71
307
1.49
286
1.66
290
1.26
297
2.27
313
2.07
316
1.94
297
15.55
325
4.16
303
1.77
290
5.50
276
4.82
325
2.33
302
0.96
300
23.18
327
4.57
321
2.36
301
2.47
304
0.73
281
0.57
271
1.23
288
0.62
234
1.37
275
1.51
270
TorneroNet-64two views3.44
309
2.19
305
2.33
322
7.00
322
1.73
308
3.02
310
4.22
312
1.95
312
3.75
319
0.82
288
3.10
308
4.11
308
12.63
321
3.76
312
6.96
295
1.63
282
3.11
310
0.79
293
7.96
303
1.98
316
2.65
307
2.69
308
3.37
313
0.90
301
2.67
312
2.65
309
1.21
268
3.65
305
notakertwo views3.52
310
2.84
316
1.55
315
5.08
313
6.69
328
3.97
316
4.03
311
1.33
302
3.34
318
1.17
305
3.34
309
6.77
316
11.07
317
5.35
325
4.78
265
1.20
248
3.25
311
0.97
302
10.40
312
2.75
319
2.90
312
2.14
280
3.69
316
1.16
313
1.00
276
1.21
274
1.44
278
1.57
273
PSMNet_ROBtwo views3.52
310
1.88
300
0.99
291
1.71
291
1.19
293
2.12
302
2.02
293
0.79
275
0.86
276
8.42
331
19.75
333
12.43
323
2.32
285
7.26
330
2.04
203
0.69
182
1.30
282
1.37
313
9.12
307
0.91
280
2.05
280
1.34
188
8.71
331
0.77
294
1.06
282
1.46
283
1.32
273
1.13
248
JetRedtwo views3.85
312
2.71
315
3.02
323
2.08
298
2.45
317
3.41
311
4.64
314
2.34
318
1.83
309
1.88
313
1.20
268
3.35
301
1.28
273
3.27
309
9.82
320
3.50
320
4.08
322
3.88
323
2.41
264
1.82
312
5.48
324
4.79
323
3.60
315
1.67
320
4.20
319
11.19
330
5.32
323
8.78
323
UNDER WATERtwo views4.11
313
2.66
314
1.51
313
4.92
310
5.25
322
3.49
313
7.24
323
2.33
317
1.84
310
1.65
312
1.20
268
5.04
310
21.14
326
5.09
324
4.93
269
2.44
308
3.86
319
1.09
308
8.36
304
1.97
315
3.80
319
2.73
309
5.04
326
2.11
322
1.96
304
3.54
316
1.91
297
3.93
308
XX-Stereotwo views4.69
314
0.19
73
0.24
172
0.27
183
0.16
94
0.42
230
0.32
192
0.35
157
0.21
136
0.73
275
1.64
288
0.46
195
0.38
209
0.30
172
0.95
131
1.09
240
0.43
185
0.38
210
1.25
235
0.47
207
1.42
224
1.54
223
0.21
186
0.17
127
110.85
339
0.46
208
1.00
258
0.84
229
LSM0two views4.83
315
0.52
261
0.57
267
0.78
271
0.66
274
0.81
275
1.26
284
1.10
295
1.08
287
0.88
292
1.65
290
1.82
282
2.45
288
0.40
223
38.07
338
52.94
338
0.87
260
0.61
274
5.33
290
1.09
295
2.57
305
3.54
319
0.43
252
0.69
288
0.94
273
2.15
302
1.61
286
5.62
320
KSHMRtwo views5.12
316
2.29
307
1.47
312
20.10
331
3.65
320
5.24
322
9.39
325
1.58
310
6.86
324
1.38
308
1.49
282
2.35
291
27.00
336
4.39
319
4.91
267
1.96
294
1.66
290
1.12
311
15.45
321
1.19
300
2.92
314
2.14
280
4.07
319
1.21
315
7.00
325
2.72
311
1.95
298
2.80
292
zero-FEtwo views5.34
317
0.32
214
0.17
103
27.02
335
1.78
313
37.04
339
12.26
330
0.36
174
0.65
263
2.17
317
1.17
266
25.79
333
4.97
307
0.43
229
2.31
215
0.87
222
2.76
305
2.15
320
2.47
267
0.43
188
14.67
330
2.09
277
0.16
147
0.23
185
0.29
140
1.00
266
0.41
126
0.34
147
TorneroNettwo views5.38
318
2.29
307
1.20
305
17.70
330
6.11
327
4.86
320
6.44
321
2.12
314
4.67
321
1.56
310
7.04
316
11.27
320
24.96
330
4.04
313
5.06
271
1.56
278
3.02
308
0.79
293
14.79
320
1.88
313
2.79
309
2.59
307
3.47
314
0.89
300
6.89
324
2.63
308
1.30
272
3.48
303
ACV-stereotwo views5.83
319
11.12
328
0.40
241
0.64
267
0.34
223
6.32
323
4.79
315
4.59
323
0.50
248
0.65
252
0.85
244
1.68
281
8.74
313
4.63
320
8.94
307
3.51
321
0.67
249
0.58
271
83.85
338
1.15
298
3.70
318
6.30
326
0.42
251
0.42
242
0.38
194
0.78
247
0.76
235
0.58
203
ktntwo views6.56
320
5.17
324
14.71
333
5.30
314
4.74
321
9.67
328
6.68
322
7.48
328
12.97
332
1.88
313
2.35
304
27.30
334
21.86
327
4.31
315
5.72
280
1.50
273
4.02
321
1.83
316
15.82
322
4.59
322
2.65
307
2.06
271
3.99
318
1.18
314
2.40
309
1.57
287
2.89
313
2.50
287
MaskLacGwcNet_RVCtwo views7.88
321
4.50
322
1.31
308
2.75
303
2.71
318
5.17
321
7.48
324
5.91
324
8.23
325
1.63
311
10.81
326
75.58
338
10.28
316
4.33
316
2.18
210
1.44
268
7.17
326
8.31
327
6.88
296
1.67
308
3.57
317
2.90
311
1.30
293
1.13
312
4.31
321
6.17
324
20.85
334
4.05
310
LE_ROBtwo views7.96
322
3.98
319
5.96
327
6.32
321
20.03
334
4.31
317
17.09
332
6.33
325
9.23
327
1.00
301
4.87
313
16.05
326
22.60
328
3.45
310
2.97
234
0.95
225
2.14
300
1.91
317
13.13
318
5.86
325
2.32
299
2.18
287
9.68
332
5.18
327
10.55
328
9.20
327
10.65
327
17.10
332
DGTPSM_ROBtwo views9.57
323
4.02
320
11.10
328
3.15
305
5.69
323
3.62
314
5.37
318
3.67
321
9.11
326
3.26
320
7.88
320
9.79
319
14.19
323
4.73
321
13.10
328
11.13
329
5.27
323
11.44
330
7.09
298
10.27
328
6.42
327
15.33
330
4.54
323
9.05
329
10.05
326
27.51
334
11.07
328
30.63
334
DPSMNet_ROBtwo views11.01
324
4.36
321
11.20
329
3.81
308
5.73
324
4.71
319
5.45
319
3.67
321
9.75
328
4.35
324
13.56
327
11.30
321
26.82
335
5.44
328
13.51
330
12.50
330
6.62
325
12.38
331
14.62
319
10.30
329
7.11
328
16.01
331
4.56
324
9.06
330
11.07
329
27.51
334
11.13
329
30.63
334
HanzoNettwo views11.30
325
14.06
330
16.74
334
13.89
329
9.10
330
15.60
332
21.20
335
11.16
333
12.45
331
6.15
328
7.25
317
20.77
329
27.41
337
28.53
337
4.84
266
9.79
328
14.66
332
2.80
321
24.65
329
12.81
333
5.39
323
4.27
322
8.60
330
1.63
319
2.70
313
2.61
307
2.55
311
3.43
301
DLNR_Zeroshot_testpermissivetwo views11.48
326
37.23
339
0.46
254
54.89
339
0.21
146
0.37
211
49.84
339
0.47
231
0.22
141
0.80
285
0.59
214
0.62
223
0.36
197
3.08
308
63.85
339
73.41
339
9.38
327
5.61
325
2.77
272
0.65
246
1.83
270
1.41
199
0.13
109
0.22
180
0.37
189
0.38
178
0.43
146
0.48
189
BEATNet-Init1two views11.60
327
15.45
331
5.36
326
21.04
332
10.14
331
20.37
333
13.59
331
8.80
331
6.63
323
4.42
325
10.00
325
14.23
324
19.35
324
4.04
313
10.43
324
9.21
327
6.50
324
5.00
324
32.12
335
14.67
334
8.25
329
7.49
328
5.66
327
5.23
328
12.24
330
7.07
326
21.30
335
14.66
329
LRCNet_RVCtwo views12.77
328
18.28
334
5.31
325
23.03
333
20.03
334
22.79
335
18.73
334
10.19
332
4.29
320
21.40
336
17.07
332
21.90
330
12.67
322
27.64
336
4.72
264
1.57
280
13.91
331
9.09
328
27.19
331
10.23
327
5.66
325
2.42
302
25.54
334
13.38
333
1.45
292
0.65
236
3.23
319
2.39
284
DPSM_ROBtwo views13.84
329
8.97
326
13.58
331
5.45
315
6.10
325
7.18
324
5.27
316
8.45
329
11.05
329
6.78
329
8.04
321
8.60
317
12.52
319
5.36
326
16.95
331
14.18
331
11.50
329
14.64
332
9.74
310
12.04
330
17.24
331
19.94
334
4.24
320
11.13
331
27.83
335
35.96
336
31.24
336
39.61
336
DPSMtwo views13.84
329
8.97
326
13.58
331
5.45
315
6.10
325
7.18
324
5.27
316
8.45
329
11.05
329
6.78
329
8.04
321
8.60
317
12.52
319
5.36
326
16.95
331
14.18
331
11.50
329
14.64
332
9.74
310
12.04
330
17.24
331
19.94
334
4.24
320
11.13
331
27.83
335
35.96
336
31.24
336
39.61
336
PMLtwo views14.72
331
11.16
329
4.09
324
13.72
328
8.87
329
13.75
329
6.38
320
7.25
326
36.05
339
10.34
332
59.29
339
46.05
337
52.59
338
6.65
329
6.70
291
4.81
324
10.30
328
3.77
322
21.46
325
4.87
323
5.83
326
5.51
324
3.98
317
4.24
326
15.02
334
6.06
323
20.81
333
7.86
322
DPSimNet_ROBtwo views19.60
332
30.02
337
12.51
330
29.96
337
26.66
337
21.35
334
18.10
333
23.34
337
23.91
336
14.59
335
30.41
337
25.17
332
25.12
331
12.92
334
12.40
327
9.18
326
23.72
335
11.03
329
37.61
336
12.43
332
24.99
335
8.77
329
13.55
333
15.98
334
13.56
331
10.45
328
19.73
332
21.73
333
HaxPigtwo views22.03
333
23.76
335
21.73
335
25.29
334
25.48
336
24.76
336
26.73
336
22.91
336
21.16
333
29.02
337
26.42
335
24.60
331
19.57
325
25.83
335
24.34
333
21.24
333
25.03
336
26.17
334
24.65
329
23.00
335
18.72
333
16.12
332
29.01
335
21.22
336
10.44
327
12.85
331
9.65
326
15.02
330
MEDIAN_ROBtwo views25.69
334
28.81
336
26.20
336
29.88
336
29.43
338
29.00
337
30.34
337
27.00
338
24.64
337
34.12
338
30.21
336
29.31
335
23.43
329
29.48
338
26.63
334
23.36
334
29.99
337
29.41
336
29.88
332
27.28
338
23.55
334
19.50
333
31.94
336
23.91
339
14.08
333
13.72
332
13.09
331
15.43
331
AVERAGE_ROBtwo views27.45
335
31.37
338
28.57
339
32.97
338
32.12
339
32.15
338
33.40
338
29.93
339
27.60
338
35.93
339
32.13
338
32.22
336
25.90
334
32.99
339
28.90
335
25.88
335
31.46
338
30.17
338
31.78
333
29.24
339
25.48
336
21.56
336
34.85
337
27.16
340
14.02
332
10.69
329
11.65
330
11.07
327
CasAABBNettwo views27.80
336
18.03
332
27.32
337
10.90
324
12.21
332
14.33
330
10.52
327
16.96
334
22.28
334
13.77
333
16.14
329
17.40
328
25.40
333
10.69
332
34.10
337
28.35
336
23.05
333
29.43
337
19.46
323
24.14
336
34.48
337
39.80
337
8.47
328
22.42
337
56.04
338
72.44
338
62.78
338
79.64
338
FlowAnythingtwo views27.85
337
18.03
332
27.34
338
10.94
325
12.29
333
14.36
331
10.56
328
17.06
335
22.31
335
13.81
334
16.29
330
17.36
327
25.24
332
10.81
333
34.02
336
28.46
337
23.06
334
29.40
335
19.47
324
24.22
337
34.52
338
40.11
338
8.49
329
22.48
338
56.03
337
72.70
339
62.83
339
79.78
339
FSDtwo views0.32
214
0.31
215
0.32
208
0.31
205
0.30
173
0.35
205
0.41
196
0.27
181
0.37
168
0.29
152
0.34
194
1.10
156
0.97
226
0.58
155
0.50
211
0.34
220
0.37
189
0.32
154
0.37
108
0.38
167
ASD4two views18.37
335
STTRV1_RVCtwo views0.41
250
0.34
224
0.54
249
0.41
244
0.55
254
0.43
226
0.51
242
0.50
248
0.51
214
0.50
204
0.85
250
1.05
261
0.55
252
0.84
101
0.58
155
1.80
297
0.45
229
1.77
311
1.77
266
1.50
216
0.59
276
0.52
231
0.67
239
0.89
246
1.44
266