This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
20
0.07
6
0.16
11
0.06
1
0.05
4
0.17
5
0.18
5
0.22
10
0.19
16
0.19
7
0.12
6
0.21
11
0.12
5
0.06
4
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
14
0.12
26
0.11
6
0.14
24
0.16
11
0.07
7
0.06
10
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
2
0.13
6
0.06
4
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
19
0.04
1
0.17
31
0.13
30
0.15
20
0.16
32
0.19
26
0.08
14
0.09
31
0.18
10
0.22
14
0.19
3
0.16
7
0.15
1
0.14
13
0.17
2
0.14
7
0.08
14
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
Utwo views0.15
15
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
26
0.06
2
0.15
20
0.04
2
0.17
18
0.07
7
0.05
4
0.22
20
0.28
36
0.26
28
0.23
34
0.27
33
0.17
26
0.28
31
0.19
22
0.06
4
0.08
7
0.26
37
0.23
44
0.23
13
0.20
32
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
19
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
25
0.26
29
0.20
5
0.18
12
0.20
10
0.11
2
0.24
20
0.15
9
0.05
1
0.06
1
0.22
31
0.20
25
0.23
13
0.15
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MLG-Stereo_test2two views0.16
22
0.12
10
0.10
17
0.10
14
0.08
14
0.09
11
0.05
6
0.18
33
0.11
18
0.20
37
0.07
6
0.23
32
0.08
14
0.08
25
0.19
11
0.23
17
0.30
36
0.25
38
0.31
38
0.18
31
0.28
31
0.17
12
0.09
26
0.08
7
0.20
26
0.16
11
0.29
31
0.21
34
LG-Stereotwo views0.15
15
0.11
8
0.08
4
0.09
12
0.11
27
0.11
19
0.05
6
0.15
21
0.11
18
0.19
35
0.12
20
0.26
37
0.09
22
0.06
10
0.19
11
0.20
8
0.23
16
0.16
7
0.18
4
0.14
13
0.23
14
0.20
26
0.05
1
0.08
7
0.17
13
0.18
20
0.24
17
0.15
13
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
34
0.14
35
0.15
20
0.06
3
0.13
6
0.06
1
0.07
17
0.15
1
0.15
1
0.23
16
0.15
4
0.21
12
0.12
6
0.18
5
0.18
17
0.08
14
0.08
7
0.15
4
0.11
1
0.28
28
0.15
13
MM-Stereo_test2two views0.15
15
0.19
30
0.11
22
0.16
38
0.11
27
0.08
7
0.05
6
0.14
19
0.11
18
0.20
37
0.08
10
0.12
4
0.08
14
0.09
31
0.20
14
0.22
14
0.25
24
0.20
19
0.20
10
0.18
31
0.25
23
0.21
31
0.10
33
0.10
19
0.16
8
0.16
11
0.21
9
0.16
20
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
21
0.11
18
0.16
27
0.07
6
0.15
9
0.06
1
0.07
17
0.17
5
0.18
5
0.23
16
0.17
10
0.22
16
0.14
13
0.20
8
0.14
7
0.08
14
0.08
7
0.16
8
0.13
5
0.25
19
0.15
13
GREAT-IGEVtwo views0.15
15
0.15
18
0.11
22
0.08
8
0.06
4
0.08
7
0.05
6
0.16
26
0.10
14
0.12
10
0.13
21
0.25
36
0.09
22
0.08
25
0.22
20
0.25
22
0.24
23
0.16
7
0.23
20
0.13
10
0.18
5
0.16
10
0.09
26
0.10
19
0.15
4
0.16
11
0.31
37
0.13
9
IGEV-Stereo++two views0.16
22
0.24
43
0.09
14
0.13
24
0.13
31
0.10
16
0.05
6
0.15
21
0.13
30
0.12
10
0.16
32
0.16
11
0.11
32
0.07
17
0.21
18
0.22
14
0.22
10
0.18
12
0.21
12
0.16
21
0.22
13
0.27
50
0.09
26
0.08
7
0.17
13
0.18
20
0.25
19
0.18
27
CroCo-Stereo Lap2two views0.14
12
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
8
0.06
2
0.22
43
0.07
6
0.16
11
0.07
7
0.04
1
0.20
14
0.26
29
0.22
10
0.19
16
0.26
32
0.11
2
0.28
31
0.16
10
0.06
4
0.08
7
0.22
31
0.23
44
0.20
7
0.16
20
RAFTtwo views0.17
27
0.13
11
0.10
17
0.16
38
0.07
7
0.21
58
0.05
6
0.25
40
0.12
26
0.14
15
0.15
27
0.16
11
0.10
27
0.05
4
0.21
18
0.20
8
0.23
16
0.15
4
0.28
34
0.13
10
0.21
11
0.17
12
0.07
11
0.10
19
0.26
37
0.24
47
0.33
40
0.23
37
VIP-Stereotwo views0.22
38
0.20
34
0.19
54
0.14
29
0.11
27
0.13
29
0.06
15
0.29
46
0.19
51
0.19
35
0.28
75
0.28
41
0.11
32
0.12
44
0.27
38
0.28
36
0.37
53
0.26
41
0.33
42
0.21
47
0.34
43
0.21
31
0.11
41
0.15
43
0.24
35
0.22
35
0.25
19
0.30
52
OmniDepthtwo views0.13
5
0.13
11
0.09
14
0.11
17
0.08
14
0.11
19
0.06
15
0.11
2
0.10
14
0.11
6
0.06
3
0.31
45
0.07
7
0.06
10
0.17
5
0.17
3
0.15
1
0.15
4
0.17
3
0.11
2
0.16
1
0.17
12
0.05
1
0.08
7
0.18
17
0.17
19
0.22
12
0.15
13
111111two views0.13
5
0.16
21
0.08
4
0.12
20
0.10
22
0.07
3
0.06
15
0.12
8
0.12
26
0.07
1
0.10
16
0.15
9
0.09
22
0.05
4
0.19
11
0.21
11
0.22
10
0.18
12
0.19
7
0.13
10
0.23
14
0.18
17
0.10
33
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
27
0.09
11
0.17
18
0.06
1
0.05
4
0.16
3
0.18
5
0.22
10
0.19
16
0.22
16
0.12
6
0.23
14
0.11
1
0.06
4
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
RAStereotwo views0.19
35
0.16
21
0.10
17
0.08
8
0.07
7
0.09
11
0.06
15
0.21
36
0.09
10
0.45
77
0.09
11
0.26
37
0.08
14
0.07
17
0.25
28
0.26
29
0.28
33
0.25
38
0.33
42
0.15
18
0.35
47
0.18
17
0.08
14
0.10
19
0.28
46
0.23
44
0.25
19
0.24
40
AIO-Stereopermissivetwo views0.15
15
0.17
25
0.12
26
0.17
44
0.10
22
0.12
25
0.06
15
0.11
2
0.08
7
0.10
4
0.14
24
0.12
4
0.09
22
0.08
25
0.20
14
0.21
11
0.20
5
0.20
19
0.21
12
0.17
26
0.23
14
0.20
26
0.07
11
0.11
29
0.17
13
0.16
11
0.23
13
0.12
5
RSMtwo views0.15
15
0.16
21
0.12
26
0.14
29
0.09
18
0.14
31
0.06
15
0.10
1
0.08
7
0.09
3
0.15
27
0.14
8
0.10
27
0.07
17
0.22
20
0.25
22
0.21
8
0.20
19
0.18
4
0.17
26
0.25
23
0.18
17
0.08
14
0.10
19
0.16
8
0.16
11
0.27
26
0.15
13
GASTEREOtwo views0.16
22
0.16
21
0.10
17
0.14
29
0.10
22
0.11
19
0.07
22
0.12
8
0.15
40
0.14
15
0.09
11
0.18
24
0.11
32
0.06
10
0.24
25
0.24
21
0.23
16
0.20
19
0.23
20
0.16
21
0.23
14
0.23
42
0.11
41
0.10
19
0.19
20
0.22
35
0.28
28
0.14
10
MSCFtwo views0.16
22
0.15
18
0.09
14
0.14
29
0.09
18
0.11
19
0.07
22
0.11
2
0.15
40
0.14
15
0.09
11
0.17
18
0.11
32
0.06
10
0.25
28
0.23
17
0.23
16
0.20
19
0.23
20
0.15
18
0.24
20
0.21
31
0.11
41
0.10
19
0.19
20
0.22
35
0.27
26
0.15
13
LG-Stereo_L2two views0.26
46
0.31
60
0.17
47
0.13
24
0.13
31
0.14
31
0.07
22
0.42
64
0.20
55
0.48
89
0.22
55
0.40
69
0.14
44
0.17
67
0.30
50
0.37
68
0.39
62
0.28
46
0.40
53
0.19
38
0.45
76
0.35
66
0.09
26
0.14
40
0.30
55
0.22
35
0.33
40
0.33
61
CoSvtwo views0.13
5
0.17
25
0.08
4
0.08
8
0.07
7
0.17
44
0.07
22
0.15
21
0.10
14
0.13
13
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
8
0.21
8
0.12
2
0.22
16
0.12
6
0.20
8
0.11
1
0.06
4
0.07
4
0.22
31
0.15
10
0.19
5
0.11
1
GIP-stereotwo views0.17
27
0.21
36
0.13
29
0.15
34
0.09
18
0.09
11
0.07
22
0.12
8
0.09
10
0.16
27
0.13
21
0.16
11
0.08
14
0.15
56
0.27
38
0.25
22
0.25
24
0.21
27
0.24
26
0.19
38
0.27
27
0.20
26
0.07
11
0.11
29
0.20
26
0.22
35
0.35
47
0.17
24
Occ-Gtwo views0.18
30
0.26
48
0.15
37
0.17
44
0.14
39
0.15
37
0.07
22
0.12
8
0.11
18
0.11
6
0.22
55
0.20
29
0.09
22
0.10
36
0.28
43
0.28
36
0.25
24
0.22
31
0.29
36
0.19
38
0.26
25
0.19
22
0.10
33
0.15
43
0.19
20
0.18
20
0.29
31
0.17
24
IGEV-Stereo+two views0.27
50
0.25
46
0.14
34
0.22
61
0.14
39
0.13
29
0.07
22
0.36
52
0.20
55
0.55
131
0.23
58
0.38
65
0.14
44
0.16
63
0.26
36
0.35
58
0.40
65
0.35
81
0.48
69
0.24
60
0.44
72
0.51
141
0.12
46
0.13
37
0.28
46
0.20
25
0.34
44
0.23
37
RSM++two views0.17
27
0.18
28
0.13
29
0.17
44
0.10
22
0.14
31
0.07
22
0.13
14
0.13
30
0.12
10
0.14
24
0.17
18
0.11
32
0.08
25
0.25
28
0.27
35
0.25
24
0.21
27
0.23
20
0.18
31
0.26
25
0.21
31
0.08
14
0.10
19
0.20
26
0.18
20
0.29
31
0.18
27
AEACVtwo views0.19
35
0.31
60
0.14
34
0.17
44
0.13
31
0.12
25
0.07
22
0.15
21
0.07
6
0.16
27
0.15
27
0.18
24
0.11
32
0.11
40
0.25
28
0.25
22
0.32
38
0.23
34
0.35
47
0.18
31
0.27
27
0.22
39
0.11
41
0.11
29
0.20
26
0.22
35
0.25
19
0.18
27
MonStereotwo views0.15
15
0.14
17
0.13
29
0.12
20
0.12
30
0.10
16
0.08
31
0.11
2
0.11
18
0.14
15
0.13
21
0.17
18
0.11
32
0.07
17
0.20
14
0.23
17
0.23
16
0.17
10
0.21
12
0.15
18
0.19
7
0.18
17
0.08
14
0.08
7
0.22
31
0.18
20
0.23
13
0.24
40
LG-Stereo_L1two views0.27
50
0.30
58
0.17
47
0.13
24
0.13
31
0.15
37
0.08
31
0.42
64
0.21
59
0.49
98
0.20
47
0.39
68
0.15
50
0.15
56
0.30
50
0.38
71
0.39
62
0.29
54
0.40
53
0.18
31
0.47
90
0.35
66
0.08
14
0.14
40
0.30
55
0.21
31
0.37
51
0.36
69
SGD-Stereotwo views0.29
59
0.24
43
0.17
47
0.16
38
0.15
47
0.22
64
0.08
31
0.29
46
0.22
62
0.29
49
0.15
27
0.45
90
0.20
70
0.10
36
0.71
169
0.45
110
0.46
80
0.27
43
0.47
66
0.22
51
0.41
58
0.36
70
0.19
103
0.19
60
0.28
46
0.32
71
0.46
66
0.40
80
DEFOM-Stereotwo views0.21
37
0.19
30
0.12
26
0.18
49
0.13
31
0.20
56
0.08
31
0.19
34
0.14
35
0.16
27
0.23
58
0.21
30
0.10
27
0.12
44
0.27
38
0.29
42
0.34
45
0.28
46
0.32
39
0.22
51
0.32
37
0.21
31
0.12
46
0.11
29
0.26
37
0.22
35
0.47
68
0.29
50
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
31
0.13
14
0.06
2
0.11
6
0.09
11
0.10
2
0.07
7
0.06
10
0.16
3
0.16
2
0.19
3
0.11
1
0.18
4
0.09
1
0.17
2
0.11
1
0.08
14
0.07
4
0.14
2
0.12
2
0.24
17
0.12
5
IGEV-BASED-STEREO-two views0.30
63
0.24
43
0.17
47
0.23
74
0.19
61
0.18
48
0.08
31
0.49
84
0.25
83
0.54
124
0.21
51
0.32
47
0.17
57
0.17
67
0.29
44
0.39
75
0.45
75
0.36
85
0.50
73
0.26
73
0.56
137
0.49
129
0.13
54
0.13
37
0.31
65
0.26
53
0.45
64
0.30
52
MaDis-Stereotwo views0.26
46
0.20
34
0.16
42
0.10
14
0.10
22
0.10
16
0.08
31
0.24
39
0.14
35
0.36
57
0.16
32
0.36
61
0.12
40
0.08
25
0.33
58
0.35
58
0.39
62
0.35
81
0.53
89
0.20
44
0.40
56
0.26
47
0.13
54
0.15
43
0.39
95
0.39
99
0.40
58
0.49
100
StereoVisiontwo views0.18
30
0.13
11
0.11
22
0.09
12
0.14
39
0.16
39
0.08
31
0.17
31
0.17
42
0.15
20
0.15
27
0.16
11
0.10
27
0.06
10
0.25
28
0.26
29
0.27
29
0.22
31
0.22
16
0.16
21
0.23
14
0.17
12
0.06
4
0.13
37
0.28
46
0.29
59
0.38
52
0.28
48
GEAStereotwo views0.18
30
0.22
37
0.15
37
0.19
51
0.14
39
0.14
31
0.09
39
0.16
26
0.13
30
0.15
20
0.11
17
0.23
32
0.08
14
0.09
31
0.25
28
0.25
22
0.27
29
0.21
27
0.23
20
0.17
26
0.34
43
0.22
39
0.10
33
0.12
35
0.19
20
0.21
31
0.30
34
0.19
30
GSStereotwo views0.16
22
0.18
28
0.13
29
0.13
24
0.13
31
0.12
25
0.09
39
0.12
8
0.10
14
0.16
27
0.11
17
0.22
31
0.08
14
0.05
4
0.22
20
0.25
22
0.28
33
0.20
19
0.25
28
0.16
21
0.32
37
0.19
22
0.08
14
0.10
19
0.18
17
0.16
11
0.25
19
0.16
20
gasm-ftwo views0.18
30
0.22
37
0.15
37
0.19
51
0.14
39
0.14
31
0.09
39
0.16
26
0.13
30
0.15
20
0.11
17
0.23
32
0.08
14
0.09
31
0.25
28
0.25
22
0.27
29
0.21
27
0.23
20
0.17
26
0.34
43
0.22
39
0.10
33
0.12
35
0.19
20
0.21
31
0.30
34
0.19
30
AdaDepthtwo views0.18
30
0.19
30
0.10
17
0.12
20
0.14
39
0.12
25
0.09
39
0.16
26
0.14
35
0.14
15
0.17
36
0.19
26
0.10
27
0.08
25
0.26
36
0.29
42
0.28
33
0.23
34
0.25
28
0.16
21
0.24
20
0.20
26
0.09
26
0.11
29
0.19
20
0.20
25
0.32
38
0.25
42
MLG-Stereo_test3two views0.23
39
0.17
25
0.13
29
0.14
29
0.17
54
0.16
39
0.09
39
0.21
36
0.12
26
0.21
40
0.18
38
0.35
53
0.11
32
0.15
56
0.29
44
0.26
29
0.33
41
0.28
46
0.63
126
0.18
31
0.40
56
0.41
88
0.11
41
0.15
43
0.21
30
0.21
31
0.33
40
0.27
46
LGtest1two views0.26
46
0.19
30
0.20
61
0.16
38
0.18
58
0.16
39
0.09
39
0.28
43
0.17
42
0.22
43
0.27
72
0.29
42
0.13
43
0.14
52
0.30
50
0.31
51
0.38
57
0.33
68
0.49
71
0.25
66
0.41
58
0.41
88
0.13
54
0.16
52
0.30
55
0.24
47
0.39
54
0.31
55
MoCha-V2two views0.14
12
0.15
18
0.11
22
0.12
20
0.09
18
0.11
19
0.09
39
0.13
14
0.08
7
0.13
13
0.18
38
0.17
18
0.07
7
0.07
17
0.17
5
0.23
17
0.20
5
0.20
19
0.25
28
0.14
13
0.29
35
0.17
12
0.08
14
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
UniTT-Stereotwo views0.28
55
0.27
50
0.15
37
0.15
34
0.13
31
0.17
44
0.09
39
0.35
51
0.19
51
0.49
98
0.21
51
0.41
76
0.18
61
0.14
52
0.40
70
0.39
75
0.42
70
0.34
72
0.56
104
0.25
66
0.43
66
0.24
44
0.13
54
0.19
60
0.31
65
0.41
104
0.30
34
0.37
70
iRaftStereo_RVCtwo views0.26
46
0.27
50
0.16
42
0.13
24
0.14
39
0.18
48
0.09
39
0.44
69
0.14
35
0.36
57
0.36
102
0.32
47
0.16
54
0.13
48
0.29
44
0.29
42
0.38
57
0.28
46
0.34
46
0.22
51
0.41
58
0.38
76
0.12
46
0.17
54
0.27
42
0.29
59
0.42
60
0.27
46
DEFOM-Stereo_RVCtwo views0.33
75
0.36
80
0.20
61
0.23
74
0.20
67
0.17
44
0.10
48
0.48
82
0.23
67
0.55
131
0.32
89
0.40
69
0.19
67
0.15
56
0.48
96
0.36
64
0.47
90
0.33
68
0.51
76
0.27
76
0.50
104
0.42
95
0.16
68
0.18
57
0.30
55
0.31
66
0.48
71
0.53
117
plaintwo views0.31
68
0.43
118
0.20
61
0.20
57
0.16
52
0.20
56
0.10
48
0.41
60
0.18
46
0.48
89
0.19
42
0.34
52
0.17
57
0.10
36
0.41
76
0.44
99
0.45
75
0.40
108
0.55
98
0.24
60
0.41
58
0.34
64
0.14
62
0.21
67
0.32
70
0.33
76
0.39
54
0.48
98
anonymousdsptwo views0.25
42
0.23
41
0.19
54
0.16
38
0.14
39
0.18
48
0.10
48
0.37
55
0.19
51
0.32
54
0.22
55
0.32
47
0.12
40
0.14
52
0.29
44
0.32
54
0.32
38
0.28
46
0.39
51
0.22
51
0.46
83
0.31
58
0.12
46
0.15
43
0.26
37
0.20
25
0.52
86
0.20
32
AIO_rvctwo views0.25
42
0.34
67
0.16
42
0.19
51
0.15
47
0.18
48
0.11
51
0.39
57
0.22
62
0.30
51
0.16
32
0.32
47
0.12
40
0.18
70
0.27
38
0.26
29
0.33
41
0.22
31
0.38
50
0.20
44
0.42
64
0.44
108
0.13
54
0.14
40
0.28
46
0.22
35
0.33
40
0.21
34
HUFtwo views0.29
59
0.34
67
0.20
61
0.22
61
0.21
70
0.19
53
0.11
51
0.51
87
0.22
62
0.42
66
0.18
38
0.35
53
0.22
82
0.19
77
0.30
50
0.32
54
0.38
57
0.26
41
0.52
81
0.25
66
0.52
120
0.43
102
0.16
68
0.18
57
0.30
55
0.22
35
0.38
52
0.29
50
MIF-Stereo (partial)two views0.30
63
0.44
124
0.18
52
0.16
38
0.16
52
0.21
58
0.11
51
0.37
55
0.22
62
0.37
60
0.24
63
0.32
47
0.17
57
0.13
48
0.39
68
0.45
110
0.46
80
0.38
94
0.42
60
0.25
66
0.43
66
0.35
66
0.18
95
0.21
67
0.35
85
0.32
71
0.50
74
0.44
91
test_4two views0.34
77
0.33
64
0.27
101
0.21
58
0.18
58
0.16
39
0.11
51
0.59
124
0.26
93
0.58
156
0.25
66
0.50
108
0.20
70
0.19
77
0.33
58
0.40
79
0.45
75
0.34
72
0.41
56
0.29
84
0.45
76
0.41
88
0.16
68
0.24
102
0.38
92
0.40
103
0.59
111
0.42
87
AFF-stereotwo views0.30
63
0.34
67
0.26
99
0.18
49
0.17
54
0.33
118
0.11
51
0.50
85
0.23
67
0.46
80
0.28
75
0.40
69
0.16
54
0.12
44
0.27
38
0.35
58
0.37
53
0.25
38
0.57
108
0.23
56
0.38
52
0.25
45
0.17
83
0.17
54
0.37
88
0.37
92
0.48
71
0.32
58
LG-G_1two views0.25
42
0.22
37
0.19
54
0.23
74
0.22
72
0.22
64
0.12
56
0.28
43
0.11
18
0.21
40
0.20
47
0.35
53
0.14
44
0.18
70
0.31
54
0.30
47
0.35
49
0.32
60
0.51
76
0.24
60
0.39
54
0.26
47
0.10
33
0.15
43
0.27
42
0.24
47
0.36
49
0.34
63
LG-Gtwo views0.25
42
0.22
37
0.19
54
0.23
74
0.22
72
0.22
64
0.12
56
0.28
43
0.11
18
0.21
40
0.20
47
0.35
53
0.14
44
0.18
70
0.31
54
0.30
47
0.35
49
0.32
60
0.51
76
0.24
60
0.39
54
0.26
47
0.10
33
0.15
43
0.27
42
0.24
47
0.36
49
0.34
63
CEStwo views0.46
125
0.35
77
0.30
112
0.27
93
0.27
108
0.29
101
0.12
56
1.05
272
0.27
99
0.54
124
0.66
201
0.53
117
0.25
96
0.23
113
0.62
135
0.65
209
0.58
157
0.37
90
0.54
95
0.34
105
0.84
209
0.53
149
0.23
152
0.23
93
0.56
153
0.44
111
0.57
96
0.69
166
ProNettwo views0.14
12
0.13
11
0.14
34
0.11
17
0.07
7
0.14
31
0.12
56
0.13
14
0.06
2
0.08
2
0.24
63
0.09
1
0.06
1
0.07
17
0.22
20
0.21
11
0.22
10
0.18
12
0.19
7
0.14
13
0.20
8
0.11
1
0.12
46
0.11
29
0.16
8
0.13
5
0.17
4
0.12
5
GCAP-BATtwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
test_for_modeltwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalala2two views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalalatwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalala_basetwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
GCAP-Stereotwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
LL-Strereo2two views0.34
77
0.29
54
0.21
74
0.24
78
0.19
61
0.17
44
0.13
60
0.63
158
0.26
93
0.58
156
0.23
58
0.44
86
0.22
82
0.14
52
0.41
76
0.41
83
0.47
90
0.35
81
0.73
151
0.31
93
0.47
90
0.36
70
0.21
128
0.20
65
0.32
70
0.34
80
0.51
75
0.35
66
CAStwo views0.38
84
0.45
132
0.25
96
0.29
101
0.29
120
0.23
76
0.13
60
0.41
60
0.27
99
0.41
64
0.54
166
0.35
53
0.35
170
0.21
94
0.52
102
0.38
71
0.50
103
0.34
72
0.52
81
0.26
73
0.43
66
0.41
88
0.19
103
0.23
93
0.51
134
0.52
145
0.62
118
0.77
185
test_5two views0.29
59
0.39
95
0.16
42
0.22
61
0.15
47
0.21
58
0.13
60
0.54
98
0.20
55
0.38
62
0.19
42
0.44
86
0.34
163
0.10
36
0.43
84
0.38
71
0.33
41
0.32
60
0.33
42
0.20
44
0.32
37
0.35
66
0.09
26
0.21
67
0.28
46
0.30
62
0.51
75
0.32
58
SAtwo views0.42
99
0.47
151
0.21
74
0.25
84
0.23
78
0.31
108
0.13
60
0.64
165
0.32
148
0.61
171
0.26
69
0.54
119
0.21
78
0.16
63
0.63
139
0.47
130
0.52
118
0.41
113
0.60
120
0.29
84
0.46
83
0.61
166
0.15
64
0.27
122
0.45
110
0.58
158
0.96
211
0.47
96
RAFT-Stereo + iAFFtwo views0.35
80
0.41
106
0.32
120
0.24
78
0.19
61
0.28
98
0.13
60
0.58
117
0.24
77
0.46
80
0.35
101
0.49
102
0.19
67
0.15
56
0.34
61
0.35
58
0.41
68
0.28
46
0.65
131
0.28
79
0.44
72
0.33
61
0.19
103
0.22
81
0.51
134
0.37
92
0.58
104
0.44
91
RAFT + AFFtwo views0.27
50
0.26
48
0.17
47
0.21
58
0.13
31
0.19
53
0.13
60
0.41
60
0.18
46
0.44
75
0.19
42
0.42
78
0.14
44
0.09
31
0.86
200
0.29
42
0.41
68
0.20
19
0.55
98
0.23
56
0.47
90
0.21
31
0.12
46
0.15
43
0.28
46
0.20
25
0.21
9
0.17
24
RYNettwo views0.27
50
0.23
41
0.18
52
0.15
34
0.17
54
0.19
53
0.13
60
0.25
40
0.31
140
0.17
33
0.20
47
0.19
26
0.14
44
0.13
48
0.80
182
0.28
36
0.27
29
0.41
113
0.28
34
0.19
38
0.27
27
0.21
31
0.29
184
0.18
57
0.27
42
0.76
190
0.34
44
0.23
37
AIO_testtwo views0.27
50
0.39
95
0.19
54
0.29
101
0.19
61
0.18
48
0.14
73
0.42
64
0.23
67
0.33
55
0.19
42
0.37
63
0.18
61
0.18
70
0.25
28
0.29
42
0.34
45
0.24
37
0.39
51
0.21
47
0.49
100
0.46
117
0.13
54
0.15
43
0.30
55
0.28
57
0.41
59
0.21
34
trnettwo views0.44
115
0.51
187
0.40
157
0.34
125
0.26
98
0.27
91
0.14
73
0.62
144
0.30
122
0.60
167
0.36
102
0.73
175
0.33
151
0.24
124
0.56
108
0.57
181
0.58
157
0.34
72
0.52
81
0.31
93
0.57
147
0.42
95
0.17
83
0.30
141
0.54
145
0.48
132
0.65
129
0.69
166
MIM_Stereotwo views0.32
70
0.40
102
0.25
96
0.28
96
0.20
67
0.27
91
0.14
73
0.45
75
0.18
46
0.48
89
0.25
66
0.42
78
0.18
61
0.16
63
0.36
62
0.42
87
0.44
72
0.36
85
0.47
66
0.28
79
0.47
90
0.36
70
0.12
46
0.23
93
0.29
54
0.27
54
0.47
68
0.33
61
CASnettwo views0.40
90
0.52
196
0.23
88
0.27
93
0.27
108
0.30
107
0.14
73
0.62
144
0.29
113
0.61
171
0.44
128
0.64
154
0.28
111
0.23
113
0.55
105
0.36
64
0.45
75
0.31
59
0.73
151
0.27
76
0.63
162
0.39
82
0.21
128
0.24
102
0.42
102
0.32
71
0.61
115
0.56
128
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
EGLCR-Stereotwo views0.47
127
0.49
167
0.41
166
0.29
101
0.30
127
0.44
163
0.14
73
0.57
113
0.26
93
0.57
144
0.27
72
0.58
134
0.23
88
0.21
94
0.36
62
0.47
130
0.53
127
0.45
141
0.75
158
0.32
97
0.69
183
0.93
220
0.19
103
0.24
102
0.48
119
0.49
137
1.30
259
0.70
172
ARAFTtwo views0.34
77
0.38
90
0.23
88
0.26
88
0.21
70
0.27
91
0.14
73
0.44
69
0.24
77
0.50
100
0.30
84
0.41
76
0.16
54
0.15
56
0.67
155
0.42
87
0.50
103
0.47
159
0.51
76
0.23
56
0.53
127
0.32
60
0.16
68
0.19
60
0.43
104
0.30
62
0.52
86
0.37
70
DFGA-Nettwo views0.28
55
0.37
82
0.16
42
0.26
88
0.15
47
0.22
64
0.15
79
0.40
58
0.21
59
0.41
64
0.24
63
0.31
45
0.17
57
0.13
48
0.42
82
0.39
75
0.38
57
0.30
57
0.42
60
0.21
47
0.36
51
0.29
54
0.13
54
0.21
67
0.31
65
0.27
54
0.51
75
0.28
48
MGS-Stereotwo views0.37
82
0.46
144
0.21
74
0.22
61
0.19
61
0.22
64
0.15
79
0.45
75
0.17
42
0.36
57
0.26
69
0.29
42
0.19
67
0.23
113
1.37
262
0.40
79
0.52
118
0.45
141
0.55
98
0.33
99
0.50
104
0.41
88
0.21
128
0.22
81
0.33
74
0.30
62
0.47
68
0.45
93
4D-IteraStereotwo views0.40
90
0.28
53
0.33
123
0.35
135
0.24
86
0.24
81
0.15
79
0.63
158
0.28
106
0.61
171
0.39
117
0.51
113
0.22
82
0.22
100
0.48
96
0.43
94
0.49
98
0.43
126
0.66
133
0.34
105
0.63
162
0.70
190
0.14
62
0.22
81
0.39
95
0.47
127
0.63
121
0.39
75
TestStereo1two views0.38
84
0.49
167
0.19
54
0.22
61
0.23
78
0.23
76
0.15
79
0.55
105
0.30
122
0.52
112
0.21
51
0.35
53
0.39
185
0.11
40
0.80
182
0.50
147
0.46
80
0.32
60
0.53
89
0.25
66
0.52
120
0.67
183
0.15
64
0.22
81
0.37
88
0.42
105
0.60
112
0.39
75
RAFT+CT+SAtwo views0.32
70
0.46
144
0.20
61
0.26
88
0.18
58
0.22
64
0.15
79
0.58
117
0.23
67
0.52
112
0.17
36
0.46
92
0.33
151
0.12
44
0.33
58
0.43
94
0.36
51
0.30
57
0.45
64
0.23
56
0.45
76
0.49
129
0.09
26
0.22
81
0.32
70
0.31
66
0.53
90
0.35
66
SA-5Ktwo views0.38
84
0.49
167
0.19
54
0.22
61
0.23
78
0.23
76
0.15
79
0.55
105
0.30
122
0.52
112
0.21
51
0.35
53
0.39
185
0.11
40
0.80
182
0.50
147
0.46
80
0.32
60
0.53
89
0.25
66
0.52
120
0.67
183
0.15
64
0.22
81
0.37
88
0.42
105
0.60
112
0.39
75
Sa-1000two views0.48
131
0.47
151
0.21
74
0.26
88
0.26
98
0.31
108
0.15
79
0.65
172
0.36
168
0.63
187
0.33
96
0.50
108
0.26
99
0.30
173
0.94
221
0.49
143
0.59
171
0.45
141
0.90
176
0.32
97
0.52
120
0.75
198
0.17
83
0.27
122
0.72
198
0.53
147
1.00
223
0.49
100
AnonymousMtwo views0.79
216
0.34
67
0.20
61
0.24
78
0.22
72
0.21
58
0.15
79
0.58
117
0.21
59
0.57
144
0.39
117
0.45
90
0.15
50
0.19
77
0.56
108
0.54
172
0.54
129
0.40
108
0.53
89
0.30
88
0.65
170
0.54
151
0.20
119
0.22
81
0.30
55
0.39
99
1.31
260
11.04
326
CREStereotwo views0.44
115
0.51
187
0.40
157
0.34
125
0.26
98
0.28
98
0.15
79
0.61
137
0.30
122
0.58
156
0.36
102
0.72
172
0.33
151
0.24
124
0.59
119
0.59
189
0.59
171
0.34
72
0.52
81
0.31
93
0.59
155
0.42
95
0.18
95
0.30
141
0.54
145
0.48
132
0.64
125
0.69
166
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
Former-RAFT_DAM_RVCtwo views0.41
94
0.33
64
0.29
108
0.29
101
0.24
86
0.26
86
0.16
88
0.55
105
0.40
188
0.55
131
0.49
142
0.49
102
0.27
106
0.23
113
0.58
115
0.45
110
0.51
114
0.40
108
0.50
73
0.36
124
0.46
83
0.50
134
0.16
68
0.23
93
0.49
127
0.75
187
0.44
63
0.56
128
LoS_RVCtwo views0.42
99
0.45
132
0.43
174
0.19
51
0.25
88
0.24
81
0.16
88
0.44
69
0.28
106
0.51
105
0.48
137
0.42
78
0.31
136
0.22
100
0.60
125
0.45
110
0.46
80
0.41
113
0.71
147
0.30
88
0.67
177
0.51
141
0.19
103
0.32
154
0.61
169
0.44
111
0.58
104
0.61
142
tt_lltwo views0.42
99
0.45
132
0.43
174
0.19
51
0.25
88
0.24
81
0.16
88
0.44
69
0.28
106
0.51
105
0.48
137
0.42
78
0.31
136
0.22
100
0.60
125
0.45
110
0.46
80
0.41
113
0.71
147
0.30
88
0.67
177
0.51
141
0.19
103
0.32
154
0.61
169
0.44
111
0.58
104
0.61
142
TESTrafttwo views0.37
82
0.46
144
0.21
74
0.21
58
0.23
78
0.21
58
0.16
88
0.54
98
0.31
140
0.51
105
0.23
58
0.36
61
0.36
175
0.11
40
0.85
198
0.48
136
0.45
75
0.32
60
0.48
69
0.24
60
0.46
83
0.65
175
0.12
46
0.23
93
0.37
88
0.43
107
0.57
96
0.39
75
delettwo views0.24
40
0.25
46
0.22
83
0.24
78
0.20
67
0.28
98
0.16
88
0.21
36
0.18
46
0.23
45
0.26
69
0.26
37
0.15
50
0.25
140
0.32
57
0.28
36
0.31
37
0.27
43
0.24
26
0.24
60
0.31
36
0.20
26
0.16
68
0.19
60
0.28
46
0.25
51
0.32
38
0.31
55
AANet_RVCtwo views0.28
55
0.27
50
0.23
88
0.19
51
0.28
113
0.16
39
0.16
88
0.29
46
0.30
122
0.20
37
0.27
72
0.24
35
0.21
78
0.19
77
0.45
86
0.36
64
0.33
41
0.34
72
0.29
36
0.29
84
0.27
27
0.27
50
0.22
142
0.21
67
0.34
75
0.33
76
0.42
60
0.52
113
castereo++two views0.44
115
0.35
77
0.33
123
0.43
167
0.23
78
0.21
58
0.17
94
0.59
124
0.30
122
0.63
187
0.37
108
0.73
175
0.22
82
0.22
100
0.44
85
0.53
164
0.58
157
0.41
113
0.66
133
0.34
105
0.81
203
0.69
188
0.20
119
0.28
128
0.48
119
0.56
157
0.76
162
0.48
98
castereotwo views0.47
127
0.36
80
0.35
131
0.34
125
0.26
98
0.26
86
0.17
94
0.56
111
0.29
113
0.60
167
0.45
131
0.68
162
0.22
82
0.20
88
0.52
102
0.58
186
0.61
186
0.39
96
0.92
178
0.36
124
0.96
228
0.76
201
0.19
103
0.24
102
0.54
145
0.64
167
0.57
96
0.58
132
anonymousdsp2two views0.38
84
0.46
144
0.30
112
0.25
84
0.23
78
0.32
111
0.18
96
0.58
117
0.23
67
0.47
83
0.38
111
0.48
98
0.23
88
0.18
70
0.40
70
0.39
75
0.44
72
0.33
68
0.88
174
0.31
93
0.48
96
0.52
146
0.17
83
0.23
93
0.41
101
0.33
76
0.61
115
0.42
87
RAFT_CTSACEtwo views0.30
63
0.37
82
0.15
37
0.15
34
0.15
47
0.25
84
0.18
96
0.53
93
0.20
55
0.55
131
0.18
38
0.44
86
0.29
113
0.16
63
0.29
44
0.30
47
0.37
53
0.27
43
0.37
49
0.18
31
0.38
52
0.45
112
0.10
33
0.17
54
0.30
55
0.31
66
0.60
112
0.26
45
IPLGR_Ctwo views0.42
99
0.47
151
0.23
88
0.31
115
0.22
72
0.32
111
0.18
96
0.63
158
0.23
67
0.55
131
0.50
147
0.61
144
0.31
136
0.41
212
0.87
206
0.45
110
0.52
118
0.37
90
0.55
98
0.38
134
0.56
137
0.46
117
0.19
103
0.24
102
0.44
106
0.33
76
0.58
104
0.40
80
ACREtwo views0.42
99
0.47
151
0.22
83
0.32
117
0.22
72
0.33
118
0.18
96
0.63
158
0.23
67
0.55
131
0.50
147
0.61
144
0.30
123
0.41
212
0.91
212
0.45
110
0.52
118
0.36
85
0.55
98
0.38
134
0.57
147
0.44
108
0.19
103
0.23
93
0.44
106
0.32
71
0.58
104
0.39
75
raft+_RVCtwo views0.35
80
0.34
67
0.26
99
0.25
84
0.23
78
0.25
84
0.18
96
0.54
98
0.26
93
0.52
112
0.43
125
0.46
92
0.23
88
0.18
70
0.42
82
0.38
71
0.43
71
0.34
72
0.61
124
0.26
73
0.43
66
0.38
76
0.13
54
0.20
65
0.39
95
0.39
99
0.58
104
0.42
87
raftrobusttwo views0.43
112
0.33
64
0.36
137
0.28
96
0.28
113
0.27
91
0.18
96
0.64
165
0.25
83
0.63
187
0.53
160
0.51
113
0.25
96
0.22
100
0.63
139
0.48
136
0.51
114
0.41
113
0.96
185
0.38
134
0.53
127
0.46
117
0.20
119
0.24
102
0.57
154
0.54
150
0.54
91
0.52
113
HCRNettwo views0.32
70
0.38
90
0.20
61
0.39
147
0.17
54
0.29
101
0.18
96
0.40
58
0.18
46
0.80
259
0.40
120
0.49
102
0.18
61
0.22
100
0.38
65
0.30
47
0.38
57
0.29
54
0.40
53
0.19
38
0.33
41
0.23
42
0.19
103
0.16
52
0.26
37
0.31
66
0.51
75
0.31
55
MMNettwo views0.29
59
0.29
54
0.22
83
0.26
88
0.26
98
0.26
86
0.18
96
0.33
50
0.23
67
0.24
46
0.28
75
0.35
53
0.15
50
0.32
187
0.39
68
0.31
51
0.36
51
0.34
72
0.41
56
0.27
76
0.32
37
0.21
31
0.17
83
0.23
93
0.32
70
0.30
62
0.46
66
0.32
58
R-Stereo Traintwo views0.66
179
0.55
206
0.43
174
0.48
178
0.36
154
0.50
183
0.18
96
0.62
144
0.31
140
0.68
221
0.62
189
0.72
172
0.34
163
0.25
140
0.69
160
0.89
245
0.66
207
0.51
186
2.12
237
0.46
174
0.94
224
1.49
262
0.22
142
0.36
183
0.71
195
0.96
227
0.77
164
1.10
222
RAFT-Stereopermissivetwo views0.66
179
0.55
206
0.43
174
0.48
178
0.36
154
0.50
183
0.18
96
0.62
144
0.31
140
0.68
221
0.62
189
0.72
172
0.34
163
0.25
140
0.69
160
0.89
245
0.66
207
0.51
186
2.12
237
0.46
174
0.94
224
1.49
262
0.22
142
0.36
183
0.71
195
0.96
227
0.77
164
1.10
222
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
TDLMtwo views0.24
40
0.29
54
0.22
83
0.22
61
0.27
108
0.23
76
0.18
96
0.26
42
0.19
51
0.18
34
0.38
111
0.29
42
0.21
78
0.15
56
0.24
25
0.28
36
0.32
38
0.28
46
0.25
28
0.21
47
0.28
31
0.19
22
0.16
68
0.21
67
0.24
35
0.20
25
0.28
28
0.25
42
CIPLGtwo views0.42
99
0.47
151
0.24
94
0.32
117
0.22
72
0.32
111
0.19
107
0.63
158
0.24
77
0.55
131
0.50
147
0.60
143
0.30
123
0.41
212
0.93
217
0.44
99
0.52
118
0.37
90
0.56
104
0.38
134
0.56
137
0.45
112
0.19
103
0.24
102
0.44
106
0.31
66
0.57
96
0.38
74
GMOStereotwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
error versiontwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
test-vtwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
test-2two views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
CREStereo++_RVCtwo views0.43
112
0.42
113
0.39
152
0.30
109
0.33
137
0.27
91
0.19
107
0.57
113
0.31
140
0.58
156
0.36
102
0.58
134
0.56
224
0.23
113
0.48
96
0.50
147
0.61
186
0.34
72
0.52
81
0.30
88
0.56
137
0.42
95
0.16
68
0.29
133
0.49
127
0.44
111
0.79
170
0.69
166
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
HITNettwo views0.38
84
0.37
82
0.28
103
0.34
125
0.29
120
0.26
86
0.19
107
0.58
117
0.32
148
0.57
144
0.45
131
0.55
125
0.30
123
0.22
100
0.51
100
0.35
58
0.44
72
0.39
96
0.41
56
0.29
84
0.41
58
0.38
76
0.20
119
0.25
113
0.39
95
0.37
92
0.70
147
0.52
113
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
LoStwo views0.55
152
0.44
124
0.29
108
0.36
140
0.37
161
0.40
149
0.20
114
1.37
289
0.31
140
0.86
271
0.78
227
0.68
162
0.37
179
0.24
124
0.58
115
0.72
222
0.59
171
0.40
108
0.75
158
0.35
122
1.03
235
0.65
175
0.21
128
0.24
102
0.79
222
0.64
167
0.64
125
0.68
164
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
S2M2_XLtwo views0.33
75
0.30
58
0.30
112
0.17
44
0.19
61
0.23
76
0.21
115
0.53
93
0.26
93
0.47
83
0.25
66
0.48
98
0.18
61
0.22
100
0.38
65
0.36
64
0.54
129
0.29
54
0.41
56
0.28
79
0.50
104
0.31
58
0.21
128
0.21
67
0.34
75
0.32
71
0.45
64
0.51
111
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
raft_robusttwo views0.49
134
0.44
124
0.24
94
0.38
144
0.29
120
0.32
111
0.21
115
0.73
213
0.35
164
0.69
229
0.34
98
0.57
129
0.31
136
0.24
124
0.59
119
0.53
164
0.54
129
0.46
153
0.98
186
0.37
130
0.69
183
0.94
221
0.20
119
0.28
128
0.55
149
0.69
172
0.69
141
0.60
140
IPLGtwo views0.47
127
0.45
132
0.32
120
0.28
96
0.27
108
0.32
111
0.21
115
0.63
158
0.22
62
0.51
105
0.38
111
0.56
127
0.29
113
0.31
180
1.64
277
0.44
99
0.56
144
0.48
165
0.56
104
0.41
156
0.45
76
0.75
198
0.18
95
0.28
128
0.45
110
0.59
159
0.65
129
0.51
111
test_3two views0.56
159
0.38
90
0.36
137
0.34
125
0.33
137
0.33
118
0.21
115
0.68
186
0.29
113
0.65
199
0.33
96
0.92
212
0.35
170
0.21
94
0.60
125
0.44
99
0.56
144
0.45
141
2.68
260
0.39
148
0.55
132
1.35
251
0.15
64
0.32
154
0.51
134
0.47
127
0.67
136
0.50
109
TANstereotwo views0.55
152
0.41
106
0.35
131
0.40
153
0.39
169
0.45
168
0.21
115
0.52
89
0.30
122
0.54
124
0.37
108
0.38
65
0.38
182
0.41
212
0.84
194
0.73
226
0.66
207
0.78
272
1.10
193
0.89
270
0.62
159
0.54
151
0.93
285
0.32
154
0.34
75
0.45
117
0.99
218
0.53
117
XX-TBDtwo views0.55
152
0.41
106
0.35
131
0.40
153
0.39
169
0.45
168
0.21
115
0.52
89
0.30
122
0.54
124
0.37
108
0.38
65
0.38
182
0.41
212
0.84
194
0.73
226
0.66
207
0.78
272
1.10
193
0.89
270
0.62
159
0.54
151
0.93
285
0.32
154
0.34
75
0.45
117
0.99
218
0.53
117
coex_refinementtwo views0.45
120
0.43
118
0.33
123
0.35
135
0.35
150
0.44
163
0.22
121
0.55
105
0.50
213
0.50
100
0.60
177
0.54
119
0.27
106
0.28
163
0.58
115
0.45
110
0.50
103
0.44
131
0.54
95
0.33
99
0.45
76
0.39
82
0.28
179
0.31
149
0.52
138
0.53
147
0.67
136
0.78
188
S2M2_Ltwo views0.40
90
0.42
113
0.41
166
0.24
78
0.27
108
0.35
131
0.22
121
0.51
87
0.24
77
0.61
171
0.23
58
0.43
83
0.21
78
0.31
180
0.59
119
0.49
143
0.55
138
0.36
85
0.53
89
0.34
105
0.55
132
0.38
76
0.28
179
0.27
122
0.42
102
0.43
107
0.63
121
0.66
155
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
G2L-Stereotwo views0.42
99
0.39
95
0.28
103
0.35
135
0.40
174
0.34
125
0.22
121
0.54
98
0.34
158
0.52
112
0.61
184
0.50
108
0.38
182
0.26
151
0.61
130
0.44
99
0.50
103
0.40
108
0.46
65
0.33
99
0.43
66
0.39
82
0.28
179
0.27
122
0.49
127
0.54
150
0.69
141
0.49
100
test-3two views0.55
152
0.37
82
0.37
141
0.34
125
0.33
137
0.33
118
0.22
121
0.65
172
0.27
99
0.61
171
0.34
98
0.90
210
0.31
136
0.21
94
0.60
125
0.44
99
0.55
138
0.42
121
2.59
258
0.38
134
0.56
137
1.37
253
0.16
68
0.29
133
0.48
119
0.38
96
0.69
141
0.54
124
test_1two views0.55
152
0.37
82
0.37
141
0.34
125
0.33
137
0.33
118
0.22
121
0.66
176
0.27
99
0.62
181
0.34
98
0.90
210
0.31
136
0.21
94
0.61
130
0.44
99
0.55
138
0.42
121
2.58
257
0.38
134
0.56
137
1.38
255
0.16
68
0.29
133
0.48
119
0.38
96
0.69
141
0.54
124
rafts_anoytwo views0.41
94
0.51
187
0.35
131
0.29
101
0.30
127
0.33
118
0.22
121
0.59
124
0.25
83
0.51
105
0.50
147
0.48
98
0.23
88
0.17
67
0.57
111
0.46
119
0.51
114
0.50
179
0.58
112
0.34
105
0.50
104
0.43
102
0.19
103
0.28
128
0.50
131
0.47
127
0.52
86
0.53
117
sCroCo_RVCtwo views0.58
165
0.42
113
0.29
108
0.28
96
0.29
120
0.39
143
0.22
121
0.60
130
0.41
193
0.53
123
0.43
125
0.48
98
0.50
212
0.24
124
0.75
174
0.99
267
0.75
235
0.63
233
1.02
188
0.56
203
1.10
243
1.36
252
0.28
179
0.39
193
0.63
178
0.63
164
0.93
204
0.64
152
PMTNettwo views0.48
131
0.48
164
0.43
174
0.31
115
0.30
127
0.27
91
0.22
121
0.54
98
0.29
113
0.57
144
0.39
117
0.59
139
0.23
88
0.23
113
0.64
145
0.59
189
0.57
153
0.37
90
1.17
199
0.33
99
0.67
177
0.40
85
0.20
119
0.21
67
0.79
222
0.59
159
0.65
129
0.92
203
DMCAtwo views0.32
70
0.31
60
0.30
112
0.24
78
0.25
88
0.27
91
0.22
121
0.36
52
0.33
153
0.31
52
0.40
120
0.40
69
0.23
88
0.25
140
0.41
76
0.37
68
0.40
65
0.39
96
0.36
48
0.28
79
0.41
58
0.27
50
0.25
163
0.25
113
0.31
65
0.35
81
0.39
54
0.37
70
DN-CSS_ROBtwo views0.52
142
0.43
118
0.46
187
0.41
158
0.40
174
0.34
125
0.22
121
0.69
193
0.34
158
0.59
161
0.79
228
0.66
158
0.47
207
0.24
124
0.63
139
0.40
79
0.58
157
0.43
126
1.74
224
0.38
134
0.63
162
0.38
76
0.31
192
0.47
221
0.53
141
0.43
107
0.66
135
0.54
124
IPLGRtwo views0.57
163
0.55
206
0.37
141
0.43
167
0.38
167
0.36
134
0.23
131
0.62
144
0.30
122
0.56
140
0.68
211
0.61
144
0.32
145
0.29
170
1.73
283
0.47
130
0.56
144
0.56
211
1.09
191
0.54
193
0.53
127
0.81
209
0.20
119
0.32
154
0.71
195
0.97
232
0.73
155
0.57
130
HGLStereotwo views0.43
112
0.43
118
0.37
141
0.34
125
0.37
161
0.39
143
0.23
131
0.48
82
0.31
140
0.47
83
0.72
218
0.42
78
0.29
113
0.32
187
0.51
100
0.49
143
0.55
138
0.50
179
0.55
98
0.39
148
0.51
110
0.43
102
0.22
142
0.33
168
0.51
134
0.51
143
0.57
96
0.45
93
CVANet_RVCtwo views0.31
68
0.40
102
0.30
112
0.40
153
0.29
120
0.37
136
0.23
131
0.41
60
0.23
67
0.31
52
0.49
142
0.37
63
0.26
99
0.19
77
0.29
44
0.33
57
0.34
45
0.32
60
0.32
39
0.25
66
0.34
43
0.25
45
0.18
95
0.25
113
0.30
55
0.25
51
0.34
44
0.30
52
IERtwo views0.41
94
0.37
82
0.31
117
0.30
109
0.28
113
0.35
131
0.24
134
0.47
80
0.28
106
0.44
75
0.59
174
0.77
190
0.29
113
0.35
198
0.63
139
0.42
87
0.47
90
0.42
121
0.44
63
0.34
105
0.42
64
0.36
70
0.28
179
0.26
119
0.40
99
0.47
127
0.52
86
0.52
113
LMCR-Stereopermissivemany views0.50
135
0.46
144
0.33
123
0.32
117
0.33
137
0.42
157
0.24
134
0.57
113
0.37
178
0.55
131
0.46
135
0.65
157
0.40
188
0.26
151
0.69
160
0.49
143
0.62
192
0.49
173
1.11
195
0.57
208
0.66
173
0.64
173
0.25
163
0.32
154
0.48
119
0.49
137
0.63
121
0.65
154
s12784htwo views0.62
174
0.68
239
0.47
191
0.65
223
0.44
188
0.34
125
0.24
134
0.61
137
0.31
140
0.60
167
0.44
128
0.81
194
0.55
222
0.25
140
0.62
135
0.50
147
0.62
192
0.38
94
0.74
157
0.36
124
1.26
252
0.47
122
0.18
95
0.30
141
0.70
192
0.74
183
1.39
268
2.07
264
RALCasStereoNettwo views0.42
99
0.50
182
0.35
131
0.35
135
0.30
127
0.31
108
0.24
134
0.60
130
0.25
83
0.56
140
0.49
142
0.58
134
0.26
99
0.18
70
0.57
111
0.46
119
0.54
129
0.49
173
0.51
76
0.34
105
0.51
110
0.41
88
0.21
128
0.31
149
0.53
141
0.49
137
0.48
71
0.58
132
RALAANettwo views0.41
94
0.41
106
0.37
141
0.28
96
0.28
113
0.33
118
0.24
134
0.54
98
0.27
99
0.48
89
0.48
137
0.43
83
0.25
96
0.20
88
0.57
111
0.41
83
0.49
98
0.50
179
0.71
147
0.40
153
0.52
120
0.46
117
0.21
128
0.29
133
0.46
114
0.45
117
0.70
147
0.47
96
YMNettwo views0.30
63
0.31
60
0.23
88
0.27
93
0.23
78
0.26
86
0.25
139
0.36
52
0.37
178
0.25
47
0.19
42
0.40
69
0.27
106
0.29
170
0.38
65
0.47
130
0.37
53
0.28
46
0.43
62
0.19
38
0.35
47
0.33
61
0.16
68
0.19
60
0.36
86
0.29
59
0.39
54
0.35
66
iinet-ftwo views0.52
142
0.43
118
0.36
137
0.34
125
0.25
88
0.47
175
0.25
139
0.43
67
0.27
99
0.52
112
0.94
245
0.61
144
0.44
201
0.25
140
1.06
240
0.57
181
0.52
118
0.39
96
1.51
213
0.50
181
0.58
151
0.75
198
0.26
172
0.25
113
0.52
138
0.38
96
0.76
162
0.53
117
MIPNettwo views0.51
138
0.51
187
0.33
123
0.32
117
0.30
127
0.37
136
0.25
139
0.62
144
0.24
77
0.50
100
0.52
156
0.61
144
0.41
191
0.30
173
1.01
236
0.51
154
0.59
171
0.50
179
0.76
161
0.47
178
0.44
72
0.85
212
0.20
119
0.26
119
0.66
184
0.98
233
0.71
151
0.61
142
AASNettwo views0.28
55
0.34
67
0.22
83
0.25
84
0.26
98
0.34
125
0.25
139
0.32
49
0.17
42
0.29
49
0.36
102
0.26
37
0.18
61
0.24
124
0.36
62
0.31
51
0.34
45
0.32
60
0.32
39
0.28
79
0.35
47
0.28
53
0.17
83
0.22
81
0.30
55
0.28
57
0.35
47
0.25
42
MyStereo04two views0.68
187
0.52
196
0.57
217
0.44
172
0.37
161
0.35
131
0.26
143
0.68
186
0.45
205
0.62
181
0.45
131
0.68
162
0.34
163
0.25
140
1.00
233
0.68
215
0.56
144
0.53
197
3.39
274
0.56
203
0.92
217
0.64
173
0.27
176
0.41
199
0.77
217
0.92
219
0.96
211
0.66
155
TestStereotwo views0.45
120
0.51
187
0.38
150
0.42
162
0.30
127
0.44
163
0.26
143
0.71
202
0.28
106
0.76
249
0.32
89
0.64
154
0.32
145
0.24
124
0.47
89
0.35
58
0.54
129
0.33
68
0.78
163
0.38
134
0.63
162
0.42
95
0.24
160
0.30
141
0.53
141
0.43
107
0.75
159
0.55
127
model_zeroshottwo views0.80
219
0.46
144
0.42
169
0.42
162
0.39
169
0.43
160
0.27
145
0.72
209
0.36
168
0.64
194
0.66
201
0.97
218
0.29
113
0.24
124
1.05
238
0.92
250
0.69
221
0.54
203
3.03
269
0.73
255
1.21
249
1.20
244
0.22
142
0.38
191
0.84
236
1.14
257
1.08
230
2.21
270
Any-RAFTtwo views0.69
188
0.47
151
0.85
258
0.53
195
0.40
174
0.38
141
0.27
145
0.64
165
0.32
148
0.57
144
0.76
225
0.86
207
0.24
95
0.22
100
0.57
111
0.76
229
0.60
178
0.45
141
2.19
239
0.45
169
1.20
248
0.71
191
0.22
142
0.31
149
0.99
258
1.24
265
0.73
155
1.65
253
cross-rafttwo views0.73
195
0.56
211
0.46
187
0.43
167
0.33
137
0.40
149
0.27
145
0.73
213
0.33
153
0.65
199
0.60
177
0.74
178
0.30
123
0.23
113
0.76
175
0.96
258
0.63
197
0.48
165
2.91
267
0.59
215
1.81
276
1.31
250
0.22
142
0.32
154
0.82
230
0.94
223
0.93
204
1.01
212
BEATNet_4xtwo views0.53
145
0.40
102
0.34
129
0.39
147
0.36
154
0.32
111
0.27
145
0.64
165
0.41
193
0.66
209
0.45
131
0.62
152
0.39
185
0.24
124
0.83
190
0.63
196
0.58
157
0.58
221
0.57
108
0.36
124
0.90
216
1.52
265
0.25
163
0.36
183
0.46
114
0.44
111
0.77
164
0.60
140
RASNettwo views0.42
99
0.45
132
0.43
174
0.33
123
0.33
137
0.37
136
0.27
145
0.58
117
0.34
158
0.47
83
0.43
125
0.49
102
0.33
151
0.25
140
0.41
76
0.41
83
0.48
95
0.39
96
0.47
66
0.30
88
0.49
100
0.40
85
0.19
103
0.44
211
0.40
99
0.46
125
0.75
159
0.63
150
AE-Stereotwo views0.54
150
0.48
164
0.44
182
0.50
183
0.35
150
0.36
134
0.28
150
0.55
105
0.29
113
0.64
194
0.31
87
0.89
209
0.31
136
0.24
124
0.55
105
0.65
209
0.68
215
0.52
193
0.87
173
0.53
187
0.72
189
0.81
209
0.21
128
0.47
221
0.79
222
0.69
172
0.94
206
0.62
146
GLC_STEREOtwo views0.47
127
0.51
187
0.40
157
0.38
144
0.37
161
0.37
136
0.28
150
0.64
165
0.29
113
0.62
181
0.53
160
0.55
125
0.28
111
0.30
173
0.49
99
0.48
136
0.66
207
0.41
113
0.65
131
0.41
156
0.70
186
0.60
161
0.23
152
0.30
141
0.47
116
0.36
84
0.84
186
0.53
117
XX-Stereotwo views9.49
330
0.38
90
0.36
137
0.63
218
0.28
113
0.54
197
0.28
150
0.69
193
0.28
106
0.69
229
6.24
325
1.00
220
0.29
113
0.23
113
0.70
165
1.08
277
0.60
178
0.52
193
1.58
218
0.53
187
0.76
196
0.65
175
0.18
95
0.26
119
233.61
349
0.88
212
1.01
224
1.90
261
GMStereopermissivetwo views0.41
94
0.48
164
0.25
96
0.32
117
0.32
136
0.37
136
0.28
150
0.59
124
0.30
122
0.45
77
0.36
102
0.61
144
0.31
136
0.24
124
0.45
86
0.41
83
0.54
129
0.35
81
0.73
151
0.39
148
0.51
110
0.33
61
0.23
152
0.28
128
0.48
119
0.36
84
0.68
138
0.41
82
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UNettwo views0.44
115
0.42
113
0.40
157
0.37
141
0.36
154
0.41
151
0.28
150
0.57
113
0.35
164
0.50
100
0.49
142
0.47
95
0.34
163
0.37
204
0.53
104
0.43
94
0.54
129
0.46
153
0.56
104
0.39
148
0.47
90
0.44
108
0.27
176
0.34
172
0.44
106
0.48
132
0.58
104
0.57
130
iResNetv2_ROBtwo views0.52
142
0.45
132
0.32
120
0.48
178
0.39
169
0.48
177
0.28
150
0.64
165
0.34
158
0.52
112
0.66
201
0.70
168
0.55
222
0.28
163
0.67
155
0.47
130
0.50
103
0.46
153
1.12
196
0.45
169
0.57
147
0.47
122
0.29
184
0.40
196
0.55
149
0.51
143
0.81
174
0.58
132
PDISCO_ROBtwo views0.48
131
0.40
102
0.39
152
0.38
144
0.34
146
0.39
143
0.28
150
0.50
85
0.35
164
0.37
60
0.52
156
0.49
102
0.35
170
0.31
180
0.63
139
0.58
186
0.54
129
0.68
251
0.59
113
0.44
167
0.62
159
0.67
183
0.24
160
0.34
172
0.54
145
0.53
147
0.85
188
0.58
132
gcap-zeroshottwo views1.75
272
0.44
124
0.89
262
0.59
208
0.36
154
0.55
199
0.29
157
0.74
218
0.29
113
0.74
242
0.76
225
1.18
240
0.33
151
0.24
124
0.78
176
0.97
260
0.61
186
0.53
197
29.80
331
0.80
260
1.04
236
1.45
258
0.23
152
0.34
172
0.75
210
0.99
235
0.96
211
0.75
182
RAFT-Testtwo views0.72
194
0.50
182
0.46
187
0.52
192
0.34
146
0.41
151
0.29
157
0.73
213
0.30
122
0.62
181
0.72
218
0.68
162
0.31
136
0.22
100
0.71
169
1.03
272
0.62
192
0.50
179
2.89
266
0.66
242
1.72
270
1.14
239
0.23
152
0.29
133
0.80
226
0.96
227
0.95
208
0.91
202
ddtwo views0.50
135
0.51
187
0.28
103
0.91
252
0.31
135
0.65
223
0.29
157
0.59
124
0.23
67
0.54
124
0.30
84
0.75
179
0.27
106
0.26
151
0.84
194
0.46
119
0.70
223
0.39
96
1.05
189
0.38
134
0.48
96
0.43
102
0.23
152
0.30
141
0.53
141
0.39
99
0.74
157
0.58
132
sAnonymous2two views0.58
165
0.41
106
0.31
117
0.29
101
0.29
120
0.45
168
0.29
157
0.71
202
0.41
193
0.48
89
0.53
160
0.51
113
0.43
196
0.23
113
0.86
200
0.84
240
0.70
223
0.67
245
1.34
206
0.60
220
0.83
206
0.98
224
0.30
187
0.35
176
0.62
174
0.72
180
0.72
152
0.73
179
CroCo_RVCtwo views0.58
165
0.41
106
0.31
117
0.29
101
0.29
120
0.45
168
0.29
157
0.71
202
0.41
193
0.48
89
0.53
160
0.51
113
0.43
196
0.23
113
0.86
200
0.84
240
0.70
223
0.67
245
1.34
206
0.60
220
0.83
206
0.98
224
0.30
187
0.35
176
0.62
174
0.72
180
0.72
152
0.73
179
UPFNettwo views0.38
84
0.34
67
0.34
129
0.32
117
0.33
137
0.39
143
0.29
157
0.47
80
0.33
153
0.43
68
0.41
122
0.40
69
0.30
123
0.34
192
0.61
130
0.40
79
0.46
80
0.41
113
0.52
81
0.35
122
0.35
47
0.34
64
0.25
163
0.27
122
0.38
92
0.35
81
0.55
92
0.37
70
GANettwo views0.32
70
0.29
54
0.27
101
0.34
125
0.33
137
0.38
141
0.29
157
0.44
69
0.24
77
0.35
56
0.30
84
0.46
92
0.22
82
0.21
94
0.31
54
0.32
54
0.40
65
0.43
126
0.33
42
0.22
51
0.33
41
0.29
54
0.22
142
0.24
102
0.31
65
0.27
54
0.42
60
0.34
63
anonymitytwo views3.27
303
0.41
106
1.09
281
0.58
205
0.41
180
0.47
175
0.30
164
0.79
235
0.33
153
0.61
171
69.49
346
0.85
203
0.30
123
0.24
124
0.59
119
1.02
271
0.60
178
0.43
126
1.35
208
0.60
220
0.73
192
1.82
278
0.24
160
0.29
133
1.00
261
1.24
265
1.08
230
1.47
243
CFNettwo views0.45
120
0.44
124
0.33
123
0.48
178
0.40
174
0.39
143
0.30
164
0.53
93
0.32
148
0.48
89
0.50
147
0.68
162
0.40
188
0.30
173
0.56
108
0.37
68
0.48
95
0.43
126
0.52
81
0.33
99
0.46
83
0.30
57
0.23
152
0.31
149
0.61
169
0.52
145
0.69
141
0.71
174
MSKI-zero shottwo views0.84
220
0.49
167
0.43
174
0.41
158
0.35
150
0.46
174
0.32
166
0.76
226
0.30
122
0.65
199
0.92
244
0.83
200
0.32
145
0.22
100
0.62
135
1.08
277
0.64
200
0.47
159
3.14
272
0.61
229
2.23
283
1.58
267
0.20
119
0.38
191
0.96
253
1.47
283
1.24
253
1.60
249
CFNet_RVCtwo views0.51
138
0.51
187
0.47
191
0.50
183
0.48
199
0.48
177
0.32
166
0.53
93
0.37
178
0.51
105
0.65
198
0.57
129
0.34
163
0.30
173
0.69
160
0.44
99
0.52
118
0.47
159
0.57
108
0.42
162
0.56
137
0.49
129
0.27
176
0.35
176
0.65
183
0.74
183
0.80
171
0.75
182
iResNet_ROBtwo views0.50
135
0.49
167
0.42
169
0.42
162
0.30
127
0.42
157
0.32
166
0.60
130
0.33
153
0.52
112
0.59
174
0.47
95
0.56
224
0.25
140
0.81
185
0.46
119
0.57
153
0.49
173
1.19
200
0.36
124
0.48
96
0.36
70
0.25
163
0.37
188
0.57
154
0.54
150
0.75
159
0.61
142
MSMDNettwo views0.73
195
0.52
196
0.48
194
0.35
135
0.34
146
0.45
168
0.33
169
0.69
193
0.30
122
0.63
187
0.60
177
0.71
170
0.35
170
0.23
113
0.78
176
1.05
274
0.63
197
0.50
179
2.88
265
0.81
264
1.59
265
1.80
277
0.23
152
0.29
133
0.74
205
0.89
214
0.85
188
0.76
184
CFNet_pseudotwo views0.51
138
0.44
124
0.43
174
0.54
198
0.43
186
0.53
193
0.34
170
0.62
144
0.36
168
0.61
171
0.64
193
0.57
129
0.52
217
0.35
198
0.90
211
0.50
147
0.50
103
0.47
159
0.67
137
0.36
124
0.47
90
0.42
95
0.26
172
0.33
168
0.57
154
0.60
162
0.68
138
0.73
179
DSFCAtwo views0.45
120
0.50
182
0.40
157
0.40
153
0.37
161
0.44
163
0.34
170
0.46
78
0.39
186
0.40
63
0.57
171
0.49
102
0.29
113
0.24
124
0.61
130
0.44
99
0.49
98
0.49
173
0.64
127
0.39
148
0.50
104
0.51
141
0.33
199
0.35
176
0.49
127
0.50
141
0.57
96
0.58
132
Reg-Stereo(zero)two views0.78
214
0.47
151
0.56
215
0.39
147
0.28
113
0.41
151
0.35
172
0.75
222
0.36
168
0.62
181
6.09
321
0.78
191
0.32
145
0.27
160
0.41
76
0.63
196
0.58
157
0.45
141
1.51
213
0.42
162
0.65
170
0.62
167
0.21
128
0.32
154
0.55
149
0.78
194
1.26
255
1.09
218
HItwo views0.78
214
0.47
151
0.56
215
0.39
147
0.28
113
0.41
151
0.35
172
0.75
222
0.36
168
0.62
181
6.09
321
0.78
191
0.32
145
0.27
160
0.41
76
0.63
196
0.58
157
0.45
141
1.51
213
0.42
162
0.65
170
0.62
167
0.21
128
0.32
154
0.55
149
0.78
194
1.26
255
1.09
218
FINETtwo views0.40
90
0.38
90
0.39
152
0.43
167
0.30
127
0.34
125
0.35
172
0.44
69
0.36
168
0.47
83
0.32
89
0.47
95
0.30
123
0.28
163
0.66
149
0.50
147
0.48
95
0.36
85
0.60
120
0.33
99
0.46
83
0.37
75
0.30
187
0.30
141
0.43
104
0.35
81
0.56
94
0.42
87
psm_uptwo views0.56
159
0.51
187
0.53
207
0.56
202
0.45
189
0.58
206
0.35
172
0.71
202
0.66
239
0.55
131
0.53
160
0.59
139
0.50
212
0.40
209
0.63
139
0.50
147
0.59
171
0.49
173
0.84
171
0.46
174
0.51
110
0.45
112
0.31
192
0.51
229
0.70
192
0.78
194
0.80
171
0.67
159
ICVPtwo views0.58
165
0.49
167
0.67
241
0.50
183
0.48
199
0.52
189
0.36
176
0.60
130
0.45
205
0.61
171
0.58
173
0.61
144
0.56
224
0.30
173
0.67
155
0.64
202
0.58
157
0.51
186
0.72
150
0.51
184
0.58
151
0.74
197
0.59
262
0.47
221
0.60
168
0.75
187
0.74
157
0.72
176
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
PWCDC_ROBbinarytwo views0.67
182
0.35
77
0.39
152
0.29
101
0.43
186
0.34
125
0.36
176
0.43
67
1.25
282
0.27
48
0.72
218
0.44
86
2.38
288
0.57
260
1.11
246
0.76
229
0.56
144
0.56
211
0.64
127
0.55
198
0.63
162
2.08
282
0.46
228
0.40
196
0.36
86
0.63
164
0.51
75
0.67
159
AACVNettwo views0.55
152
0.47
151
0.40
157
0.58
205
0.61
226
0.53
193
0.37
178
0.61
137
0.40
188
0.59
161
0.64
193
0.58
134
0.33
151
0.36
200
0.69
160
0.54
172
0.58
157
0.54
203
0.69
144
0.52
186
0.54
130
0.52
146
0.36
206
0.44
211
0.59
165
0.69
172
0.82
177
0.83
193
test-1two views0.84
220
0.34
67
0.50
200
0.37
141
0.40
174
0.60
209
0.37
178
0.73
213
0.38
183
0.68
221
0.71
213
1.08
231
0.40
188
0.25
140
0.79
180
0.91
249
0.63
197
0.58
221
2.22
241
0.58
211
1.17
247
3.78
307
0.22
142
0.36
183
0.81
227
1.15
258
1.10
235
1.59
248
GEStwo views0.59
171
0.52
196
0.37
141
0.39
147
0.40
174
0.53
193
0.37
178
0.59
124
0.40
188
0.56
140
0.60
177
0.50
108
0.30
123
0.41
212
0.98
229
0.63
196
0.67
213
0.55
209
2.28
242
0.56
203
0.70
186
0.56
156
0.31
192
0.42
202
0.48
119
0.48
132
0.65
129
0.68
164
HSM-Net_RVCpermissivetwo views0.75
201
0.53
202
0.60
225
0.77
240
0.62
232
0.61
213
0.37
178
0.76
226
0.49
212
0.74
242
1.71
285
1.32
246
0.80
246
0.36
200
0.72
172
0.55
174
0.64
200
0.53
197
0.78
163
0.53
187
0.67
177
0.89
218
0.43
224
0.64
251
0.94
249
1.09
251
1.07
229
1.04
215
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
DeepPruner_ROBtwo views0.59
171
0.44
124
0.54
211
0.52
192
0.54
213
0.49
179
0.37
178
0.61
137
0.46
209
0.60
167
0.70
212
0.61
144
0.51
216
0.32
187
1.06
240
0.58
186
0.62
192
0.59
226
0.66
133
0.47
178
0.97
231
0.72
195
0.36
206
0.44
211
0.61
169
1.00
237
0.72
152
0.58
132
HSMtwo views0.54
150
0.49
167
0.47
191
0.48
178
0.47
196
0.41
151
0.37
178
0.71
202
0.37
178
0.61
171
0.65
198
0.59
139
0.48
210
0.31
180
0.70
165
0.48
136
0.64
200
0.47
159
0.75
158
0.48
180
0.63
162
0.49
129
0.26
172
0.42
202
0.62
174
0.72
180
0.87
195
0.67
159
UCFNet_RVCtwo views0.56
159
0.78
250
0.45
186
0.59
208
0.55
216
0.52
189
0.39
184
0.58
117
0.40
188
0.59
161
0.60
177
0.82
196
0.45
202
0.32
187
0.70
165
0.42
87
0.50
103
0.50
179
0.67
137
0.45
169
0.56
137
0.47
122
0.38
213
0.41
199
0.77
217
0.71
177
0.65
129
0.86
197
DLCB_ROBtwo views0.53
145
0.50
182
0.48
194
0.41
158
0.45
189
0.43
160
0.39
184
0.55
105
0.45
205
0.57
144
0.61
184
0.70
168
0.52
217
0.41
212
0.60
125
0.47
130
0.57
153
0.48
165
0.52
81
0.43
166
0.55
132
0.47
122
0.38
213
0.42
202
0.96
253
0.79
198
0.70
147
0.62
146
ADLNettwo views0.46
125
0.53
202
0.37
141
0.41
158
0.41
180
0.44
163
0.40
186
0.54
98
0.35
164
0.45
77
0.53
160
0.76
187
0.36
175
0.62
266
0.58
115
0.42
87
0.49
98
0.42
121
0.50
73
0.37
130
0.43
66
0.44
108
0.34
201
0.25
113
0.47
116
0.55
153
0.57
96
0.45
93
FADNet-RVC-Resampletwo views0.57
163
0.52
196
0.42
169
0.46
175
0.39
169
0.41
151
0.40
186
0.72
209
0.42
200
0.68
221
0.51
153
1.04
229
0.43
196
0.43
225
0.96
226
0.48
136
0.56
144
0.61
231
0.85
172
0.55
198
0.52
120
0.63
169
0.34
201
0.60
245
0.58
158
0.71
177
0.55
92
0.77
185
DMCA-RVCcopylefttwo views0.44
115
0.37
82
0.35
131
0.33
123
0.37
161
0.32
111
0.41
188
0.46
78
0.52
216
0.43
68
0.48
137
0.68
162
0.33
151
0.29
170
0.65
148
0.46
119
0.47
90
0.44
131
0.49
71
0.38
134
0.49
100
0.48
128
0.29
184
0.32
154
0.38
92
0.37
92
0.57
96
0.62
146
HHtwo views0.84
220
0.34
67
0.99
269
0.42
162
0.36
154
0.51
186
0.42
189
0.69
193
0.34
158
0.65
199
0.38
111
1.03
225
0.26
99
0.28
163
0.66
149
1.37
302
0.61
186
0.53
197
2.39
248
0.60
220
3.55
310
1.64
269
0.25
163
0.33
168
0.83
232
1.05
247
1.09
232
1.12
225
HanStereotwo views0.84
220
0.34
67
0.99
269
0.42
162
0.36
154
0.51
186
0.42
189
0.69
193
0.34
158
0.65
199
0.38
111
1.03
225
0.26
99
0.28
163
0.66
149
1.37
302
0.61
186
0.53
197
2.39
248
0.60
220
3.55
310
1.64
269
0.25
163
0.33
168
0.83
232
1.05
247
1.09
232
1.12
225
MLCVtwo views0.70
191
0.49
167
0.53
207
0.73
235
0.50
204
0.65
223
0.43
191
0.81
242
0.41
193
0.71
235
0.88
240
1.01
223
0.81
247
0.28
163
0.92
215
0.43
94
0.65
204
0.52
193
2.47
252
0.45
169
0.55
132
0.72
195
0.39
217
0.54
235
0.69
189
0.80
199
0.83
184
0.72
176
DISCOtwo views0.45
120
0.44
124
0.29
108
0.40
153
0.38
167
0.49
179
0.43
191
0.45
75
0.43
204
0.50
100
0.57
171
0.40
69
0.29
113
0.30
173
0.61
130
0.43
94
0.55
138
0.46
153
0.69
144
0.41
156
0.48
96
0.43
102
0.26
172
0.32
154
0.47
116
0.50
141
0.62
118
0.50
109
NCCL2two views0.69
188
0.73
246
0.66
238
0.57
204
0.56
217
0.51
186
0.45
193
0.70
199
0.57
227
0.68
221
0.71
213
0.66
158
0.48
210
0.39
206
0.93
217
0.72
222
0.65
204
0.57
216
0.76
161
0.57
208
0.74
194
0.88
216
0.49
236
0.60
245
0.98
255
0.95
224
0.85
188
1.16
229
SGM-Foresttwo views0.73
195
0.71
243
0.40
157
1.13
265
0.64
233
0.74
240
0.45
193
0.68
186
0.39
186
0.61
171
0.44
128
1.16
238
1.06
254
0.49
236
0.86
200
0.61
194
0.55
138
0.46
153
0.68
139
0.44
167
0.61
157
0.49
129
0.45
226
0.44
211
0.90
242
0.86
207
1.95
294
1.47
243
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
iRaft-Stereo_20wtwo views1.06
244
0.49
167
1.34
297
1.18
270
0.46
192
0.78
245
0.46
195
0.76
226
0.37
178
0.74
242
6.16
324
0.84
202
0.29
113
0.26
151
0.81
185
0.97
260
0.59
171
0.44
131
1.72
223
0.61
229
1.04
236
1.56
266
0.21
128
0.25
113
0.92
245
1.31
274
1.45
276
2.71
282
GANet-ADLtwo views0.70
191
0.59
218
0.52
205
0.60
211
0.57
220
0.61
213
0.46
195
0.68
186
0.52
216
0.65
199
0.67
208
0.76
187
0.43
196
0.39
206
1.08
243
0.79
237
0.68
215
0.52
193
1.84
229
0.64
239
0.66
173
0.86
214
0.42
223
0.43
205
0.70
192
0.87
210
0.97
214
0.89
201
pcwnet_v2two views0.62
174
0.46
144
0.50
200
0.62
216
0.49
203
0.61
213
0.46
195
0.66
176
0.45
205
0.65
199
0.79
228
0.64
154
0.86
250
0.53
249
1.15
250
0.55
174
0.59
171
0.51
186
0.83
168
0.41
156
0.55
132
0.47
122
0.34
201
0.43
205
0.75
210
0.76
190
0.85
188
0.95
204
TRStereotwo views0.75
201
0.83
261
1.19
284
0.56
202
0.34
146
1.42
283
0.48
198
0.68
186
0.28
106
0.65
199
0.46
135
1.10
234
0.27
106
0.22
100
0.70
165
0.85
242
0.57
153
0.48
165
1.85
230
0.50
181
0.73
192
0.87
215
0.18
95
0.27
122
0.78
219
1.22
264
1.78
290
1.09
218
NaN_ROBtwo views0.73
195
0.59
218
0.61
227
0.64
220
0.78
259
0.53
193
0.48
198
0.87
251
0.63
235
0.73
241
0.61
184
1.96
265
0.62
233
0.45
230
0.84
194
0.55
174
0.56
144
0.54
203
0.73
151
0.55
198
0.52
120
0.51
141
0.38
213
0.64
251
0.83
232
1.11
254
0.94
206
1.64
252
CBMVpermissivetwo views1.15
249
0.84
265
0.60
225
0.85
245
0.76
258
0.73
236
0.48
198
0.87
251
0.80
251
0.81
262
0.61
184
2.86
277
0.81
247
0.52
246
1.31
259
1.17
289
0.91
260
0.74
263
2.40
250
0.66
242
1.57
264
0.76
201
0.48
234
1.06
290
0.99
258
1.09
251
2.25
298
4.25
304
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
LG-Stereo_Zeroshottwo views0.66
179
0.37
82
0.23
88
0.51
189
0.74
255
0.89
253
0.49
201
0.62
144
0.26
93
1.60
318
0.31
87
2.57
271
0.26
99
0.22
100
0.46
88
0.48
136
0.58
157
0.45
141
0.93
179
0.37
130
0.63
162
0.71
191
0.19
103
0.23
93
0.58
158
0.49
137
0.89
197
1.91
262
Anonymous3two views0.79
216
0.59
218
0.42
169
0.37
141
0.42
183
0.57
203
0.50
202
0.80
237
0.64
236
0.68
221
0.49
142
1.48
251
0.54
220
0.31
180
1.53
271
1.42
308
0.88
256
0.82
277
1.45
211
0.69
251
1.31
255
1.30
249
0.40
218
0.40
196
0.74
205
0.86
207
1.03
227
0.71
174
GEStereo_RVCtwo views0.71
193
0.59
218
0.40
157
0.54
198
0.50
204
0.61
213
0.51
203
0.71
202
0.41
193
0.59
161
0.51
153
0.76
187
0.46
205
0.39
206
0.96
226
0.92
250
0.78
238
0.75
265
1.94
232
0.62
233
0.80
201
1.37
253
0.31
192
0.52
231
0.61
169
0.63
164
0.86
193
1.12
225
FADNet_RVCtwo views0.92
228
0.69
240
0.55
214
0.88
248
0.75
257
0.54
197
0.51
203
0.77
231
0.54
220
0.70
232
0.96
248
1.36
248
1.06
254
0.54
250
1.85
289
0.64
202
0.80
243
0.90
281
3.34
273
0.76
256
1.00
233
1.13
237
0.37
211
0.60
245
0.66
184
0.87
210
0.97
214
1.14
228
NOSS_ROBtwo views0.76
205
0.84
265
0.50
200
0.72
233
0.61
226
0.75
241
0.52
205
0.80
237
0.54
220
0.70
232
0.62
189
0.62
152
0.86
250
0.62
266
1.14
249
1.10
280
0.78
238
0.69
254
0.73
151
0.60
220
0.88
212
0.67
183
0.50
240
0.71
257
0.86
239
0.95
224
1.38
267
0.85
195
FSDtwo views0.53
202
0.53
207
0.53
195
0.53
209
0.52
189
0.53
206
0.75
222
0.40
188
0.80
259
0.59
174
0.55
253
0.62
135
0.64
202
0.66
133
0.55
198
0.52
231
0.68
188
0.62
163
0.69
141
0.70
172
CASStwo views0.79
216
0.55
206
0.53
207
0.65
223
0.54
213
0.59
207
0.53
206
0.78
234
0.52
216
0.71
235
0.75
224
0.67
160
0.47
207
0.28
163
0.83
190
0.67
212
0.98
268
0.56
211
1.60
220
0.58
211
2.74
291
1.44
256
0.38
213
0.35
176
0.84
236
0.81
201
0.90
198
1.02
213
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
GwcNet-ADLtwo views0.97
239
0.83
261
0.81
254
0.91
252
0.68
240
0.70
232
0.53
206
0.77
231
0.50
213
0.72
238
5.46
317
1.20
241
0.65
238
0.46
232
0.81
185
0.95
255
0.72
231
0.56
211
1.26
204
0.71
253
0.67
177
0.78
206
0.59
262
0.56
238
0.79
222
0.98
233
0.85
188
1.75
257
APVNettwo views0.56
159
0.47
151
0.38
150
0.46
175
0.50
204
0.57
203
0.53
206
0.60
130
0.42
200
0.46
80
0.65
198
0.50
108
0.30
123
0.36
200
0.74
173
0.71
221
0.71
229
0.64
237
0.95
183
0.53
187
0.57
147
0.77
203
0.34
201
0.46
218
0.59
165
0.46
125
0.82
177
0.58
132
AF-Nettwo views0.53
145
0.49
167
0.44
182
0.50
183
0.53
209
0.61
213
0.54
210
0.61
137
0.55
224
0.43
68
0.66
201
0.85
203
0.42
192
0.40
209
0.64
145
0.46
119
0.46
80
0.44
131
0.60
120
0.40
153
0.45
76
0.45
112
0.41
220
0.39
193
0.50
131
0.55
153
0.81
174
0.69
166
Nwc_Nettwo views0.53
145
0.49
167
0.44
182
0.50
183
0.53
209
0.61
213
0.54
210
0.61
137
0.55
224
0.43
68
0.66
201
0.85
203
0.42
192
0.40
209
0.64
145
0.46
119
0.46
80
0.44
131
0.60
120
0.40
153
0.45
76
0.45
112
0.41
220
0.39
193
0.50
131
0.55
153
0.81
174
0.69
166
DeepPrunerFtwo views1.22
252
0.49
167
0.39
152
0.58
205
2.86
315
0.49
179
0.55
212
0.52
89
0.58
230
0.43
68
0.67
208
0.43
83
0.32
145
0.42
222
1.64
277
0.75
228
0.58
157
0.46
153
0.93
179
0.46
174
0.61
157
0.53
149
0.40
218
0.35
176
15.32
338
0.82
204
0.65
129
0.62
146
iResNettwo views0.92
228
0.56
211
0.62
228
0.72
233
0.68
240
0.96
256
0.55
212
0.95
258
0.57
227
0.67
218
0.82
238
1.41
250
1.51
272
0.31
180
1.49
270
0.66
211
0.75
235
0.67
245
4.08
280
0.68
248
0.72
189
0.63
169
0.41
220
0.83
273
0.72
198
0.91
218
1.02
225
0.87
199
HBP-ISPtwo views1.60
265
0.86
267
0.90
263
0.98
258
0.69
242
0.85
248
0.56
214
0.89
255
0.48
211
0.82
265
0.79
228
0.97
218
0.36
175
0.69
275
11.97
335
5.83
331
0.70
223
0.67
245
0.70
146
0.62
233
1.05
238
5.90
323
0.50
240
0.62
248
0.82
230
1.01
240
2.01
296
1.06
216
FADNet-RVCtwo views0.58
165
0.50
182
0.37
141
0.51
189
0.42
183
0.39
143
0.56
214
0.68
186
0.36
168
0.64
194
0.50
147
1.13
237
0.45
202
0.34
192
0.91
212
0.53
164
0.54
129
0.45
141
1.20
202
0.51
184
0.54
130
0.52
146
0.33
199
0.51
229
0.57
154
0.75
187
0.64
125
0.81
191
RTSCtwo views0.73
195
0.49
167
0.46
187
0.47
177
0.51
207
0.55
199
0.56
214
0.67
179
0.68
240
0.54
124
0.79
228
0.57
129
0.57
228
0.41
212
1.92
291
0.77
231
0.96
267
0.58
221
1.36
209
0.56
203
0.85
211
1.11
234
0.31
192
0.53
234
0.58
158
0.65
169
0.95
208
1.26
236
RGCtwo views0.76
205
0.72
244
0.99
269
0.70
230
0.71
249
0.76
244
0.57
217
0.74
218
0.74
246
0.56
140
0.96
248
0.83
200
0.85
249
0.56
255
0.93
217
0.60
191
0.62
192
0.56
211
0.93
179
0.61
229
0.66
173
0.71
191
0.51
248
0.56
238
0.81
227
1.01
240
0.99
218
1.19
232
PSMNet-ADLtwo views0.96
237
0.62
228
0.66
238
0.67
226
0.70
248
0.66
226
0.58
218
0.74
218
0.60
231
0.85
270
5.03
314
0.95
217
1.26
265
0.45
230
0.89
209
1.03
272
0.68
215
0.54
203
2.03
235
0.68
248
0.84
209
0.79
208
0.54
255
0.47
221
0.73
203
0.95
224
1.32
261
0.63
150
DDVStwo views2.32
282
0.70
241
0.82
256
0.70
230
0.74
255
0.73
236
0.59
219
1.09
277
0.88
259
0.80
259
34.26
342
3.93
295
1.16
261
0.52
246
1.09
245
1.35
299
0.73
232
0.65
241
1.95
233
0.95
273
1.67
269
2.27
286
0.48
234
0.56
238
0.69
189
0.84
206
1.21
248
1.35
239
DAStwo views0.95
234
0.61
225
0.48
194
0.78
242
0.61
226
0.68
229
0.59
219
0.84
248
0.93
266
0.65
199
1.58
279
1.66
260
1.06
254
0.34
192
0.95
223
0.92
250
0.92
262
0.73
261
1.77
225
1.03
281
1.73
271
1.11
234
0.47
229
0.92
279
0.93
246
1.00
237
1.39
268
0.96
205
SepStereotwo views0.95
234
0.61
225
0.48
194
0.78
242
0.61
226
0.68
229
0.59
219
0.84
248
0.93
266
0.65
199
1.58
279
1.66
260
1.06
254
0.34
192
0.95
223
0.92
250
0.92
262
0.73
261
1.77
225
1.03
281
1.73
271
1.11
234
0.47
229
0.92
279
0.93
246
1.00
237
1.39
268
0.96
205
STTStereotwo views0.53
145
0.56
211
0.54
211
0.44
172
0.52
208
0.43
160
0.59
219
0.52
89
0.46
209
0.47
83
0.55
168
0.71
170
0.42
192
0.56
255
0.87
206
0.44
99
0.49
98
0.51
186
0.54
95
0.37
130
0.51
110
0.40
85
0.32
197
0.35
176
0.52
138
0.66
170
0.68
138
0.99
210
SACVNettwo views0.62
174
0.53
202
0.51
204
0.55
201
0.57
220
0.52
189
0.60
223
0.69
193
0.56
226
0.67
218
0.54
166
0.59
139
0.37
179
0.41
212
0.71
169
0.60
191
0.64
200
0.57
216
0.95
183
0.64
239
0.67
177
0.78
206
0.36
206
0.47
221
0.75
210
0.77
193
0.84
186
0.84
194
EAI-Stereotwo views0.75
201
0.49
167
0.50
200
0.51
189
0.46
192
0.56
202
0.60
223
0.73
213
0.32
148
0.63
187
0.72
218
0.82
196
0.26
99
0.24
124
1.05
238
0.96
258
0.60
178
0.49
173
3.00
268
0.62
233
0.82
204
1.13
237
0.19
103
0.31
149
0.78
219
0.70
176
1.55
280
1.17
230
FCDSN-DCtwo views0.69
188
0.61
225
0.62
228
0.66
225
0.61
226
0.59
207
0.60
223
0.68
186
0.42
200
0.75
246
0.42
124
0.57
129
0.36
175
0.50
240
2.43
316
0.67
212
0.80
243
0.76
268
0.64
127
0.56
203
0.70
186
0.60
161
0.47
229
0.83
273
0.66
184
0.74
183
0.61
115
0.67
159
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
GANetREF_RVCpermissivetwo views0.77
213
0.74
247
0.68
243
0.76
239
0.65
234
0.69
231
0.60
223
0.99
265
0.73
243
0.93
276
0.52
156
1.33
247
0.72
243
0.44
228
0.85
198
0.57
181
0.67
213
0.63
233
1.13
197
0.61
229
0.77
197
0.63
169
0.59
262
0.71
257
0.89
241
0.90
216
1.15
238
0.99
210
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ETE_ROBtwo views0.87
225
0.90
268
0.58
219
0.67
226
0.69
242
0.85
248
0.60
223
0.66
176
0.89
262
0.64
194
1.09
257
2.63
274
0.54
220
0.54
250
1.00
233
0.72
222
0.91
260
0.63
233
0.99
187
0.66
242
0.88
212
1.08
232
0.50
240
0.59
243
0.78
219
0.92
219
1.48
278
1.17
230
SHDtwo views0.97
239
0.56
211
0.73
247
0.75
236
0.69
242
0.66
226
0.61
228
0.99
265
0.94
269
0.77
251
1.00
251
0.94
213
1.29
267
0.54
250
2.21
304
0.98
263
0.95
265
0.70
255
2.01
234
0.80
260
1.12
244
1.71
273
0.47
229
0.77
269
0.91
243
1.01
240
0.91
199
1.22
235
CSANtwo views0.93
231
0.83
261
0.75
249
0.86
246
0.82
260
0.73
236
0.61
228
0.97
264
0.94
269
0.94
280
0.73
223
1.96
265
1.56
273
0.49
236
0.98
229
0.63
196
0.74
233
0.66
243
1.09
191
0.71
253
0.78
198
0.63
169
0.53
251
0.76
266
0.98
255
1.49
287
1.21
248
1.63
251
XPNet_ROBtwo views0.74
200
0.77
248
0.57
217
0.54
198
0.61
226
0.63
219
0.61
228
0.53
93
0.65
237
0.58
156
0.81
233
2.35
270
0.46
205
0.43
225
0.79
180
0.63
196
0.85
250
0.57
216
0.83
168
0.55
198
0.72
189
1.09
233
0.45
226
0.49
228
0.63
178
0.74
183
1.39
268
0.86
197
NLCA_NET_v2_RVCtwo views0.51
138
0.52
196
0.48
194
0.43
167
0.57
220
0.42
157
0.62
231
0.56
111
0.62
234
0.52
112
0.51
153
0.67
160
0.34
163
0.58
263
0.78
176
0.42
87
0.47
90
0.42
121
0.57
108
0.38
134
0.46
83
0.42
95
0.30
187
0.32
154
0.48
119
0.76
190
0.62
118
0.64
152
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
SFCPSMtwo views3.03
299
0.82
259
0.63
232
0.77
240
0.69
242
0.72
235
0.63
232
0.83
246
0.98
272
0.71
235
2.00
292
2.57
271
3.49
296
0.56
255
1.16
251
0.93
254
0.74
233
0.64
237
54.48
343
1.19
293
0.88
212
0.91
219
0.55
257
0.55
237
0.94
249
0.93
222
1.11
236
1.39
240
PS-NSSStwo views0.60
173
0.81
256
0.44
182
0.89
249
0.54
213
0.71
234
0.63
232
0.64
165
0.38
183
0.64
194
0.41
122
1.52
255
0.47
207
0.41
212
0.59
119
0.42
87
0.52
118
0.45
141
0.94
182
0.42
162
0.44
72
0.29
54
0.36
206
0.34
172
0.63
178
0.69
172
0.70
147
0.80
189
ITSA-stereotwo views1.12
247
0.72
244
0.59
220
1.20
272
0.84
262
0.64
222
0.64
234
0.95
258
0.78
249
0.84
268
2.54
297
1.39
249
1.23
263
0.81
283
1.20
253
1.01
269
0.83
248
0.67
245
1.56
217
0.62
233
1.08
242
1.46
259
0.56
259
0.71
257
0.95
251
1.27
270
0.99
218
4.08
302
RPtwo views0.58
165
0.57
216
0.72
246
0.62
216
0.56
217
0.57
203
0.64
234
0.63
158
0.61
232
0.42
66
0.81
233
0.78
191
0.53
219
0.43
225
0.68
158
0.48
136
0.53
127
0.44
131
0.64
127
0.45
169
0.51
110
0.54
151
0.37
211
0.44
211
0.62
174
0.59
159
0.83
184
0.77
185
stereogantwo views0.67
182
0.67
237
0.62
228
0.68
229
0.73
251
0.75
241
0.64
234
0.70
199
0.57
227
0.51
105
0.64
193
1.08
231
0.62
233
0.44
228
0.83
190
0.55
174
0.56
144
0.51
186
0.91
177
0.59
215
0.59
155
0.69
188
0.47
229
0.46
218
0.59
165
0.67
171
1.16
241
0.87
199
PA-Nettwo views0.64
177
0.67
237
0.66
238
0.50
183
0.66
239
0.50
183
0.64
234
0.65
172
0.73
243
0.54
124
0.52
156
0.58
134
0.58
230
0.59
265
0.93
217
0.57
181
0.46
80
0.54
203
0.61
124
0.54
193
0.49
100
0.66
178
0.36
206
0.52
231
0.64
181
1.24
265
0.64
125
1.32
238
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NVstereo2Dtwo views0.55
152
0.47
151
0.40
157
0.52
192
0.48
199
0.66
226
0.64
234
0.60
130
0.38
183
0.48
89
0.61
184
0.53
117
0.30
123
0.63
268
1.53
271
0.61
194
0.58
157
0.55
209
0.53
89
0.41
156
0.50
104
0.38
76
0.54
255
0.43
205
0.64
181
0.48
132
0.56
94
0.53
117
IGEV-FEtwo views0.94
232
0.47
151
1.24
289
1.15
267
0.46
192
0.60
209
0.65
239
0.81
242
0.36
168
0.67
218
1.75
286
0.94
213
0.30
123
0.26
151
0.66
149
1.14
284
0.60
178
0.48
165
2.55
254
0.63
237
2.19
281
2.33
287
0.21
128
0.37
188
1.00
261
1.03
245
1.17
243
1.48
245
IGEV_Zeroshot_testtwo views0.95
234
0.47
151
1.24
289
1.15
267
0.46
192
0.60
209
0.65
239
0.81
242
0.36
168
0.66
209
1.86
290
0.94
213
0.30
123
0.26
151
0.66
149
1.14
284
0.60
178
0.48
165
2.56
255
0.63
237
2.23
283
2.36
288
0.21
128
0.37
188
1.00
261
1.03
245
1.17
243
1.48
245
FADNettwo views0.65
178
0.55
206
0.41
166
0.53
195
0.42
183
0.49
179
0.65
239
0.74
218
0.42
200
0.66
209
0.64
193
0.81
194
0.50
212
0.36
200
1.17
252
0.51
154
0.51
114
0.53
197
1.61
221
0.53
187
0.69
183
0.59
157
0.35
205
0.41
199
0.72
198
0.88
212
0.78
169
1.06
216
AIO-Stereo-zeroshotpermissivetwo views1.21
251
0.49
167
1.28
294
0.75
236
0.41
180
1.04
263
0.67
242
0.77
231
0.52
216
0.78
255
5.67
320
1.03
225
0.35
170
0.26
151
0.86
200
1.39
306
0.68
215
0.70
255
2.61
259
0.64
239
2.89
295
2.21
284
0.19
103
0.43
205
1.03
267
1.15
258
1.35
264
2.41
276
LALA_ROBtwo views0.86
224
0.97
275
0.67
241
0.63
218
0.69
242
0.83
247
0.67
242
0.70
199
0.80
251
0.68
221
1.10
259
2.61
273
0.58
230
0.51
242
1.11
246
0.67
212
0.86
251
0.72
258
0.89
175
0.67
246
0.80
201
1.00
227
0.49
236
0.59
243
0.73
203
0.92
219
1.16
241
1.10
222
ADCReftwo views1.01
241
0.65
232
0.48
194
0.39
147
0.47
196
0.65
223
0.68
244
0.61
137
1.08
275
0.52
112
0.64
193
0.75
179
0.43
196
0.38
205
1.56
273
0.72
222
0.61
186
0.59
226
1.53
216
0.58
211
0.66
173
0.71
191
0.50
240
0.43
205
0.75
210
1.25
268
0.82
177
8.96
324
NCC-stereotwo views0.67
182
0.63
229
0.59
220
0.64
220
0.65
234
0.63
219
0.69
245
0.67
179
0.74
246
0.43
68
0.81
233
0.82
196
0.70
241
0.47
233
0.82
188
0.53
164
0.58
157
0.64
237
0.80
165
0.54
193
0.56
137
0.60
161
0.53
251
0.45
216
0.75
210
0.96
227
0.92
202
0.98
208
Abc-Nettwo views0.67
182
0.63
229
0.59
220
0.64
220
0.65
234
0.63
219
0.69
245
0.67
179
0.74
246
0.43
68
0.81
233
0.82
196
0.70
241
0.47
233
0.82
188
0.53
164
0.58
157
0.64
237
0.80
165
0.54
193
0.56
137
0.60
161
0.53
251
0.45
216
0.75
210
0.96
227
0.92
202
0.98
208
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
DDF-Stereotwo views2.07
280
0.43
118
0.28
103
10.45
329
0.48
199
14.62
338
0.70
247
0.72
209
0.29
113
0.66
209
0.48
137
17.48
333
0.59
232
0.26
151
0.55
105
0.56
180
0.60
178
0.45
141
1.27
205
0.38
134
0.83
206
0.77
203
0.25
163
0.24
102
0.45
110
0.45
117
0.91
199
0.67
159
DCVSM-stereotwo views1.13
248
0.66
235
0.79
252
0.89
249
0.65
234
1.15
270
0.73
248
0.95
258
0.82
255
1.04
286
4.18
308
3.75
293
1.45
270
0.49
236
0.83
190
0.86
243
0.69
221
0.60
229
2.08
236
0.87
269
1.06
240
0.77
203
0.84
279
0.72
260
0.74
205
0.89
214
0.98
217
1.09
218
EKT-Stereotwo views0.75
201
0.64
231
0.54
211
0.59
208
0.47
196
0.60
209
0.73
248
0.71
202
0.29
113
0.63
187
0.66
201
0.73
175
0.30
123
0.26
151
0.86
200
1.22
294
0.68
215
0.76
268
1.46
212
0.60
220
1.75
273
1.74
275
0.21
128
0.32
154
0.93
246
0.81
201
1.06
228
0.72
176
CBMV_ROBtwo views1.71
271
0.79
252
0.65
237
1.35
278
1.07
277
1.01
259
0.74
250
1.01
269
0.54
220
0.72
238
0.81
233
9.80
325
5.90
309
0.57
260
1.42
264
0.69
216
0.80
243
0.58
221
5.38
286
1.22
294
0.95
227
0.55
155
0.53
251
0.62
248
1.22
277
1.45
282
2.72
314
2.94
286
G-Nettwo views1.86
274
1.00
278
1.28
294
0.89
249
0.93
267
1.10
267
0.77
251
1.63
300
2.07
306
0.99
283
2.89
300
7.30
316
1.67
277
0.55
253
1.45
265
1.75
316
1.04
271
0.93
286
2.87
264
2.72
327
1.89
277
1.47
260
0.80
276
1.02
289
1.06
268
1.71
294
2.82
315
5.60
311
SANettwo views1.61
266
0.91
271
1.10
282
1.04
261
1.05
275
1.25
277
0.77
251
1.76
307
1.81
300
0.77
251
1.24
263
6.63
310
5.08
303
0.83
284
1.56
273
0.77
231
1.24
282
0.90
281
1.58
218
0.82
265
1.05
238
1.00
227
0.90
282
1.27
303
1.32
286
1.93
298
1.88
292
3.10
291
AIO-Stereo-zeroshot1permissivetwo views5.67
316
0.56
211
1.25
291
0.75
236
0.69
242
1.17
271
0.81
253
0.82
245
0.80
251
0.81
262
4.78
311
1.00
220
0.37
179
0.27
160
1.13
248
1.54
311
0.70
223
0.60
229
124.50
346
0.54
193
1.43
260
2.64
292
0.22
142
0.36
183
0.91
243
1.13
256
1.13
237
2.18
268
FC-DCNN v2copylefttwo views0.94
232
0.98
276
1.28
294
1.47
284
0.95
269
1.33
280
0.82
254
1.05
272
0.80
251
0.87
272
0.66
201
1.11
236
0.67
240
0.56
255
0.91
212
0.69
216
0.81
246
0.68
251
0.83
168
0.59
215
0.78
198
0.59
157
0.50
240
0.78
271
1.25
283
1.09
251
1.35
264
1.89
259
FC-DCNNcopylefttwo views0.88
226
0.96
273
1.23
288
1.36
280
0.93
267
1.26
278
0.82
254
0.91
256
0.78
249
0.87
272
0.63
192
1.08
231
0.42
192
0.56
255
0.88
208
0.69
216
0.81
246
0.68
251
0.81
167
0.59
215
0.78
198
0.59
157
0.50
240
0.77
269
1.11
272
0.99
235
1.21
248
1.57
247
ccs_robtwo views1.25
253
0.79
252
0.64
234
0.86
246
0.60
225
0.89
253
0.83
256
0.99
265
0.51
215
0.77
251
6.27
326
5.90
306
1.10
258
0.51
242
1.08
243
1.10
280
0.68
215
0.66
243
1.15
198
0.70
252
1.56
263
1.66
271
0.50
240
0.54
235
0.69
189
0.78
194
0.86
193
1.20
233
ADCP+two views0.92
228
0.59
218
0.62
228
0.44
172
0.45
189
0.55
199
0.85
257
0.65
172
1.81
300
0.48
89
1.10
259
1.62
259
0.33
151
0.42
222
1.03
237
0.52
162
0.52
118
0.48
165
1.19
200
0.38
134
0.58
151
0.60
161
0.32
197
0.30
141
0.66
184
3.45
323
0.77
164
4.14
303
STTRV1_RVCtwo views0.81
256
0.64
234
1.04
261
0.73
251
1.03
261
0.85
257
0.91
256
0.92
264
0.93
276
0.95
247
1.72
263
2.23
283
0.86
287
1.46
268
0.78
234
1.37
284
0.72
258
1.97
317
1.59
265
1.23
245
0.97
283
1.07
269
1.11
254
1.75
289
3.40
295
XQCtwo views1.03
243
0.90
268
0.71
245
0.91
252
0.92
266
0.92
255
0.86
259
1.06
275
0.90
263
0.84
268
1.11
262
1.03
225
1.30
269
0.71
277
2.04
294
0.95
255
0.87
252
0.67
245
1.64
222
0.78
258
1.00
233
1.67
272
0.62
265
0.73
261
1.09
271
1.47
283
1.26
255
0.97
207
FAT-Stereotwo views1.57
264
0.78
250
1.44
299
1.10
263
1.32
289
1.05
264
0.87
260
1.28
282
0.86
257
1.21
296
5.46
317
3.07
282
1.28
266
0.66
271
1.73
283
1.34
296
0.89
258
0.94
287
1.83
228
1.08
284
2.02
278
3.90
308
0.71
268
0.98
285
0.86
239
1.21
263
1.42
274
3.03
289
RTStwo views1.09
245
0.59
218
0.59
220
0.60
211
0.58
223
0.96
256
0.90
261
0.80
237
0.88
259
0.59
161
0.71
213
1.28
244
0.62
233
0.51
242
2.04
294
0.98
263
1.19
278
0.77
270
2.33
245
0.85
267
0.96
228
1.16
240
0.49
236
0.65
253
1.23
278
4.43
326
1.15
238
1.45
241
RTSAtwo views1.09
245
0.59
218
0.59
220
0.60
211
0.58
223
0.96
256
0.90
261
0.80
237
0.88
259
0.59
161
0.71
213
1.28
244
0.62
233
0.51
242
2.04
294
0.98
263
1.19
278
0.77
270
2.33
245
0.85
267
0.96
228
1.16
240
0.49
236
0.65
253
1.23
278
4.43
326
1.15
238
1.45
241
UDGNettwo views0.67
182
0.66
235
0.42
169
1.35
278
1.02
274
1.21
274
0.91
263
0.60
130
0.41
193
0.52
112
0.60
177
0.56
127
0.23
88
1.19
296
0.66
149
0.45
110
0.56
144
0.51
186
0.73
151
0.53
187
0.64
169
0.67
183
0.79
274
0.29
133
0.72
198
0.55
153
0.63
121
0.66
155
ADCLtwo views1.27
254
0.82
259
0.64
234
0.60
211
0.53
209
0.73
236
0.91
263
0.75
222
2.78
319
0.68
221
1.01
252
0.86
207
0.50
212
0.50
240
1.27
256
0.64
202
0.66
207
0.57
216
1.20
202
0.60
220
0.98
232
0.88
216
0.50
240
0.47
221
1.60
297
1.50
288
0.88
196
11.30
327
SAMSARAtwo views1.50
260
0.79
252
1.00
273
0.93
255
0.88
264
0.86
251
0.93
265
1.57
298
1.25
282
0.96
281
1.09
257
1.27
242
2.59
291
0.83
284
2.58
318
1.19
292
1.04
271
0.91
284
2.56
255
0.99
279
1.77
275
2.23
285
0.56
259
0.98
285
2.63
308
2.81
313
2.62
311
2.56
280
DPSNettwo views2.61
288
0.83
261
0.77
251
1.21
273
1.24
285
1.34
281
0.93
265
1.08
276
1.49
293
0.78
255
0.86
239
6.91
312
3.85
297
0.58
263
4.58
326
2.54
323
1.43
288
1.24
305
14.95
322
1.34
299
4.83
324
8.01
329
1.75
303
1.40
308
1.47
292
1.95
300
1.60
284
1.66
254
pmcnntwo views1.66
268
0.80
255
0.52
205
1.19
271
1.01
271
1.21
274
0.93
265
0.96
263
0.54
220
0.74
242
2.66
299
3.98
297
5.06
302
0.31
180
1.65
279
1.40
307
1.20
280
0.91
284
3.99
278
0.95
273
4.45
320
1.02
229
0.90
282
0.90
278
1.07
269
1.01
240
2.43
305
3.03
289
ACV-stereotwo views8.39
327
1.01
279
0.97
267
1.29
276
0.73
251
1.48
285
0.95
268
0.88
254
1.10
277
1.07
287
1.33
271
1.06
230
23.12
329
0.52
246
4.00
324
3.78
326
1.05
273
0.79
274
168.94
347
1.91
316
3.64
312
1.44
256
0.72
269
0.74
264
0.74
205
0.90
216
1.43
275
1.03
214
AMNettwo views1.02
242
0.98
276
0.95
265
0.98
258
1.01
271
1.03
261
0.96
269
0.87
251
0.93
266
0.97
282
1.02
253
1.10
234
0.74
244
1.06
294
0.99
232
1.09
279
1.17
277
1.04
293
1.08
190
1.05
283
1.13
245
1.04
230
0.82
278
0.98
285
1.01
264
1.07
249
1.20
247
1.27
237
PWC_ROBbinarytwo views1.18
250
0.70
241
1.06
277
0.60
211
0.71
249
0.70
232
0.98
270
0.83
246
1.55
295
0.76
249
1.40
274
1.00
220
2.46
290
0.57
260
2.17
302
0.99
267
1.15
276
0.90
281
2.37
247
0.95
273
1.63
267
2.05
281
0.44
225
0.98
285
0.81
227
0.80
199
1.24
253
2.15
267
MDST_ROBtwo views3.33
304
2.32
302
0.75
249
3.90
313
1.47
294
2.61
297
1.00
271
1.12
279
0.72
242
0.78
255
0.67
208
1.54
256
25.37
331
0.34
192
2.11
300
0.53
164
0.65
204
0.48
165
3.69
275
0.58
211
0.88
212
0.59
157
0.58
261
0.68
255
7.85
333
3.03
317
17.15
338
8.63
323
DGSMNettwo views2.66
291
0.96
273
1.36
298
1.03
260
0.99
270
1.12
269
1.05
272
1.36
288
0.94
269
2.15
327
13.54
338
1.71
262
1.85
278
0.93
291
2.50
317
3.85
328
5.34
320
1.61
320
5.07
284
1.68
313
7.04
329
8.02
330
0.96
288
1.19
301
1.01
264
1.33
277
1.40
272
1.88
258
PVDtwo views1.47
259
1.04
280
1.44
299
1.10
263
1.09
280
1.19
272
1.07
273
1.91
311
2.05
305
0.79
258
1.49
277
1.54
256
1.91
280
0.89
289
2.26
308
1.35
299
1.39
285
1.09
298
2.41
251
1.14
289
1.51
262
1.98
280
0.79
274
1.08
293
1.49
294
1.82
296
1.67
285
2.10
265
ADCStwo views1.88
275
1.06
281
0.98
268
0.93
255
1.10
281
1.09
266
1.14
274
1.27
280
2.49
313
0.89
274
1.36
272
1.51
253
2.92
295
0.86
287
3.30
321
2.26
322
1.46
289
1.26
307
3.10
271
1.29
298
2.48
287
2.88
294
0.80
276
1.10
294
1.33
288
4.48
328
1.41
273
6.08
314
AnyNet_C32two views1.64
267
0.65
232
0.74
248
0.67
226
0.73
251
0.86
251
1.14
274
0.95
258
3.12
322
0.75
246
1.53
278
0.94
213
0.64
237
0.67
273
1.83
288
1.11
282
1.06
275
0.95
288
1.78
227
0.76
256
1.76
274
1.71
273
0.66
267
0.85
276
1.13
274
2.68
312
1.17
243
13.55
329
MeshStereopermissivetwo views3.62
306
1.54
294
1.05
275
2.64
293
1.72
296
2.05
294
1.15
276
2.40
317
1.41
290
0.90
275
6.48
327
9.56
323
7.42
314
0.49
236
11.75
333
1.94
320
0.87
252
0.74
263
8.79
304
0.80
260
8.36
330
8.07
331
0.73
271
1.07
291
3.39
318
2.15
306
5.22
330
4.99
307
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
SPS-STEREOcopylefttwo views1.93
277
1.27
290
1.21
286
1.60
287
1.34
290
1.44
284
1.17
277
1.66
301
1.36
289
1.38
306
3.67
306
3.02
281
1.29
267
1.05
293
1.85
289
1.83
318
1.58
290
1.37
315
8.86
306
1.34
299
3.07
301
1.47
260
1.27
296
1.37
305
1.42
291
1.28
271
2.02
297
1.89
259
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
SGM_RVCbinarytwo views2.81
295
1.46
293
0.85
258
1.76
289
1.28
286
1.68
291
1.19
278
1.56
297
1.14
278
0.82
265
1.70
284
7.09
313
2.67
294
0.42
222
0.92
215
0.57
181
0.75
235
0.57
216
11.20
315
0.66
242
0.94
224
0.46
117
0.51
248
0.84
275
1.97
305
1.64
292
5.04
329
26.13
337
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
CC-Net-ROBtwo views0.96
237
1.18
286
0.70
244
1.56
285
1.06
276
1.63
289
1.20
279
0.79
235
0.61
232
0.81
262
0.56
169
3.07
282
0.57
228
0.85
286
0.68
158
0.44
99
0.71
229
0.63
233
1.40
210
0.57
208
0.58
151
0.43
102
1.91
304
0.46
218
0.83
232
0.83
205
0.77
164
1.20
233
zero-FEtwo views9.08
329
0.42
113
0.28
103
61.19
347
0.56
217
106.36
348
1.24
280
0.72
209
0.30
122
0.66
209
0.56
169
61.54
345
0.66
239
0.25
140
0.59
119
0.53
164
0.60
178
0.47
159
2.54
253
0.38
134
1.35
258
0.96
222
0.25
163
0.24
102
0.45
110
0.44
111
0.91
199
0.66
155
MaskLacGwcNet_RVCtwo views8.29
325
0.65
232
1.07
279
0.94
257
0.83
261
0.81
246
1.27
281
0.85
250
0.73
243
0.93
276
6.13
323
180.62
347
2.17
282
1.33
300
1.22
254
1.01
269
0.93
264
1.06
295
6.32
296
0.79
259
3.32
308
3.77
306
0.55
257
0.76
266
0.95
251
1.34
279
1.19
246
2.42
277
MFMNet_retwo views1.51
261
1.18
286
1.12
283
1.29
276
1.16
282
1.63
289
1.32
282
1.30
285
1.63
296
1.14
292
1.38
273
2.64
275
1.63
276
0.90
290
2.27
309
1.35
299
1.58
290
1.32
313
3.69
275
1.24
296
2.10
279
1.26
248
1.16
290
1.24
302
1.11
272
1.02
244
1.59
282
1.60
249
ADCMidtwo views1.56
263
0.92
272
0.99
269
0.70
230
0.86
263
1.05
264
1.37
283
1.29
283
1.77
299
0.75
246
1.75
286
1.27
242
1.48
271
0.69
275
2.18
303
1.07
276
0.98
268
0.79
274
2.74
262
0.80
260
1.31
255
1.74
275
1.06
289
0.70
256
1.01
264
1.53
289
1.02
225
10.33
325
edge stereotwo views1.82
273
1.16
285
2.22
312
1.46
283
1.28
286
1.58
287
1.38
284
1.67
304
1.30
284
1.20
295
3.42
305
4.33
300
2.26
286
0.80
282
1.41
263
1.46
309
1.05
273
0.83
280
5.42
287
0.97
276
1.34
257
3.76
305
0.95
287
0.88
277
1.26
284
1.20
261
1.70
287
2.91
285
S-Stereotwo views1.54
262
0.81
256
0.83
257
1.15
267
1.16
282
1.29
279
1.56
285
1.02
270
1.09
276
1.25
299
4.20
309
4.10
298
1.10
258
0.66
271
2.16
301
1.63
313
0.90
259
1.05
294
2.20
240
1.10
286
1.26
252
3.12
299
1.31
299
1.17
300
0.84
236
1.18
260
1.21
248
2.18
268
ADCPNettwo views2.08
281
0.77
248
0.87
260
0.83
244
1.21
284
0.85
248
1.59
286
1.02
270
1.35
287
0.83
267
1.97
291
1.01
223
7.76
315
0.75
280
2.35
313
1.16
288
0.95
265
0.71
257
4.05
279
0.97
276
1.30
254
1.61
268
0.72
269
0.76
266
1.52
295
1.96
301
1.21
248
16.04
332
FBW_ROBtwo views1.34
256
1.42
292
1.08
280
2.01
291
1.42
292
1.37
282
1.63
287
0.99
265
0.70
241
0.72
238
1.02
253
2.05
268
0.91
252
1.47
301
1.24
255
0.60
191
0.88
256
0.65
241
6.08
293
0.59
215
1.06
240
0.81
209
1.48
301
1.12
296
0.99
258
1.20
261
0.99
218
1.66
254
SGM+DAISYtwo views3.81
307
1.38
291
1.26
292
1.80
290
1.47
294
1.93
293
1.71
288
1.47
293
1.33
285
1.34
305
6.67
329
9.59
324
12.99
323
1.20
297
1.73
283
1.47
310
1.42
287
1.24
305
11.11
314
1.37
301
3.07
301
2.13
283
1.27
296
1.42
311
1.69
298
1.26
269
2.90
316
26.50
338
WAO-7two views2.72
294
1.83
296
2.89
323
7.39
323
1.73
297
1.76
292
1.82
289
2.07
312
2.65
315
2.21
328
5.39
316
4.58
302
5.72
308
1.23
298
2.07
298
1.27
295
1.69
294
1.22
304
7.70
300
1.51
303
1.64
268
3.07
298
0.84
279
1.65
318
1.83
301
2.48
310
1.97
295
3.27
293
LSM0two views8.30
326
1.08
283
0.95
265
1.66
288
1.42
292
1.59
288
1.96
290
2.27
315
2.36
309
1.66
319
3.94
307
4.10
298
6.30
313
0.63
268
62.38
347
74.74
347
1.69
294
1.06
295
12.18
316
2.23
320
4.96
325
9.29
333
0.92
284
1.29
304
1.95
304
2.97
316
3.66
324
14.83
331
ELAS_RVCcopylefttwo views3.22
301
2.01
297
1.85
307
2.66
294
2.07
299
5.08
325
2.06
291
2.41
318
1.89
302
1.74
322
4.78
311
8.00
317
8.02
316
0.74
279
2.38
314
0.81
238
1.75
296
1.14
303
3.97
277
1.27
297
4.64
323
7.61
327
1.26
292
1.74
321
6.58
330
3.21
319
3.39
319
3.80
299
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MFN_U_SF_RVCtwo views1.68
270
1.06
281
0.88
261
1.25
274
1.01
271
1.53
286
2.07
292
1.38
290
1.17
279
1.51
312
2.95
301
2.00
267
1.57
274
2.05
304
2.38
314
0.98
263
0.87
252
0.82
277
6.78
297
1.11
288
2.21
282
2.38
289
0.65
266
1.11
295
1.23
278
1.33
277
1.28
258
1.69
256
ELAScopylefttwo views3.38
305
2.19
299
1.79
305
2.99
300
2.37
303
3.32
302
2.09
293
2.60
321
2.85
320
1.28
301
4.85
313
8.61
319
8.02
316
0.76
281
2.90
319
0.81
238
1.80
297
1.10
299
4.19
281
1.10
286
4.53
321
7.86
328
1.26
292
1.63
316
7.08
331
4.79
329
3.66
324
4.87
306
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MFN_U_SF_DS_RVCtwo views1.33
255
0.90
268
0.63
232
1.27
275
0.90
265
1.21
274
2.21
294
1.27
280
1.18
280
1.00
284
0.91
243
1.80
264
1.16
261
1.07
295
1.48
269
0.77
231
0.70
223
0.58
221
2.75
263
0.67
246
1.39
259
2.93
296
0.85
281
0.73
261
1.47
292
1.68
293
1.33
262
2.96
287
MADNet+two views1.96
278
1.18
286
1.26
292
1.45
282
1.28
286
1.10
267
2.21
294
1.88
309
1.41
290
1.33
304
1.32
269
2.29
269
2.23
283
1.25
299
4.58
326
1.87
319
2.55
311
1.13
302
2.73
261
1.63
311
3.69
313
3.33
302
1.26
292
2.09
327
1.93
302
1.47
283
1.59
282
2.77
283
dadtwo views0.89
227
0.57
216
0.37
141
1.42
281
0.65
234
0.75
241
2.23
296
1.43
291
0.36
168
0.93
276
0.38
111
0.85
203
0.76
245
0.32
187
0.97
228
0.52
162
0.78
238
0.45
141
1.87
231
0.41
156
0.74
194
0.41
88
0.30
187
0.47
221
1.15
276
0.47
127
2.64
312
1.96
263
DDUNettwo views1.38
258
2.18
298
0.79
252
2.67
295
2.43
305
2.57
296
2.52
297
0.80
237
0.84
256
0.63
187
0.94
245
1.57
258
0.45
202
2.65
310
0.94
221
0.78
234
1.99
301
0.75
265
2.31
243
0.91
272
1.16
246
0.97
223
2.71
308
0.56
238
0.72
198
0.71
177
0.97
214
0.85
195
UDGtwo views1.35
257
2.24
300
0.81
254
2.58
292
2.45
306
2.48
295
2.57
298
0.76
226
0.86
257
0.77
251
1.08
256
1.51
253
0.56
224
2.59
306
1.06
240
0.69
216
1.89
299
0.80
276
2.31
243
0.97
276
1.24
251
0.98
224
1.43
300
0.62
248
0.74
205
0.81
201
0.95
208
0.81
191
AnyNet_C01two views2.06
279
1.08
283
1.06
277
1.14
266
1.08
278
1.01
259
2.69
299
1.69
305
2.66
316
1.21
296
1.67
283
2.90
279
2.60
292
0.95
292
3.65
322
4.02
329
2.09
303
2.21
329
3.08
270
1.56
308
3.30
307
2.89
295
1.26
292
1.15
298
1.80
300
1.43
281
1.51
279
3.90
300
SQANettwo views1.90
276
2.70
305
1.03
274
3.09
302
2.17
300
3.29
301
2.70
300
0.95
258
0.65
237
1.00
284
0.71
213
2.69
276
1.10
258
2.30
305
0.78
176
0.55
174
1.02
270
0.72
258
9.92
310
0.68
248
2.11
280
1.25
246
3.28
309
0.58
242
0.98
255
1.31
274
1.33
262
2.34
272
DispFullNettwo views4.17
308
3.20
317
4.34
331
2.72
296
2.46
307
2.92
298
2.70
300
2.79
326
1.90
303
4.51
337
6.62
328
8.91
321
4.83
300
2.59
306
2.00
293
8.18
334
3.24
316
1.98
323
24.96
328
2.93
329
3.99
315
3.36
303
1.71
302
1.15
298
1.36
289
1.32
276
2.36
304
3.65
298
MANEtwo views7.31
320
2.64
304
4.48
332
3.30
307
3.10
321
3.94
316
2.83
302
5.37
334
6.88
330
1.11
288
5.64
319
8.81
320
11.02
319
0.67
273
3.83
323
3.83
327
1.32
283
18.03
339
8.61
302
0.84
266
4.22
316
1.16
240
0.74
272
1.79
325
13.65
337
18.61
338
22.89
340
38.18
345
SGM-ForestMtwo views2.61
288
4.20
327
0.93
264
2.78
297
1.37
291
3.57
307
2.93
303
2.59
320
1.51
294
0.70
232
1.32
269
7.25
314
5.36
306
0.47
233
0.89
209
0.53
164
0.79
242
0.54
203
7.58
299
0.60
220
0.82
204
0.47
122
0.51
248
0.80
272
4.97
325
3.66
324
7.05
333
6.30
315
WAO-6two views2.71
292
2.26
301
1.57
302
3.00
301
2.25
301
3.01
299
3.02
304
1.77
308
2.35
308
1.52
314
1.62
281
3.94
296
5.12
304
2.64
309
2.22
305
1.38
304
2.65
312
1.36
314
4.86
283
1.54
307
2.76
293
4.79
314
2.70
307
1.73
320
2.71
310
2.59
311
2.68
313
5.02
308
otakutwo views2.33
285
3.05
315
1.19
284
3.36
309
2.37
303
3.56
306
3.08
305
1.05
272
0.98
272
1.13
289
0.80
232
2.88
278
1.62
275
2.59
306
0.95
223
0.64
202
1.23
281
0.75
265
13.16
318
1.09
285
2.47
286
2.63
291
4.75
319
0.75
265
1.13
274
1.38
280
1.69
286
2.52
279
MSC_U_SF_DS_RVCtwo views1.67
269
1.25
289
1.05
275
1.56
285
1.08
278
1.20
273
3.18
306
1.50
294
2.10
307
1.30
303
0.98
250
1.50
252
1.04
253
1.66
302
1.71
280
1.18
290
0.84
249
1.01
290
6.24
294
1.15
292
1.43
260
3.23
301
1.19
291
1.14
297
1.52
295
1.29
272
1.09
232
2.78
284
Ntrotwo views2.32
282
3.40
323
1.53
301
3.55
310
2.52
308
3.71
312
3.36
307
1.11
278
1.05
274
1.16
293
0.90
242
2.93
280
1.24
264
2.72
312
1.00
233
0.64
202
1.40
286
0.82
277
10.96
313
1.14
289
2.72
290
3.19
300
4.26
315
0.73
261
1.24
281
1.59
291
1.56
281
2.31
271
STStereotwo views5.29
313
2.47
303
5.20
333
5.20
319
2.80
314
4.72
322
3.42
308
6.23
335
6.52
329
1.51
312
7.61
331
9.53
322
14.86
326
0.63
268
4.09
325
0.64
202
0.87
252
0.62
232
36.67
335
1.02
280
1.23
250
1.05
231
0.78
273
1.63
316
3.46
319
2.43
309
3.53
320
14.15
330
ACVNet_2two views3.17
300
2.98
312
2.25
313
4.72
318
2.88
316
3.50
303
3.48
309
1.58
299
1.33
285
1.29
302
1.10
259
3.22
285
2.45
289
2.67
311
1.29
257
0.86
243
7.26
324
1.02
291
22.14
326
1.37
301
3.22
304
1.25
246
4.24
313
1.37
305
1.93
302
1.92
297
1.83
291
2.36
273
RainbowNettwo views2.32
282
2.93
311
1.87
308
3.34
308
2.57
309
3.50
303
3.49
310
1.29
283
0.92
264
1.53
315
0.89
241
3.18
284
2.31
287
2.94
313
1.30
258
0.90
247
1.61
293
1.00
289
5.61
288
1.51
303
2.82
294
4.18
310
4.25
314
0.97
283
1.32
286
1.58
290
1.71
288
3.00
288
PSMNet_ROBtwo views2.71
292
3.39
322
1.92
309
2.87
299
2.04
298
4.01
317
3.50
311
1.46
292
1.41
290
1.59
317
3.34
302
3.52
289
4.97
301
4.50
325
1.61
276
0.95
255
1.87
298
1.06
295
8.62
303
1.63
311
2.32
285
1.51
264
5.43
329
1.37
305
1.98
306
1.94
299
1.91
293
2.39
275
MADNet++two views5.64
315
3.51
324
3.77
330
2.84
298
4.62
329
3.02
300
3.65
312
4.36
329
5.03
328
4.18
336
5.07
315
6.45
309
5.92
310
6.18
333
7.04
329
6.82
332
4.71
319
4.00
333
8.03
301
5.83
333
9.92
334
16.38
338
2.32
305
4.34
336
3.95
324
11.38
335
4.93
328
4.01
301
Deantwo views2.84
296
3.23
318
1.81
306
6.04
321
3.38
325
3.63
309
3.67
313
1.88
309
1.97
304
1.47
309
1.30
267
3.69
292
4.10
299
2.97
314
1.45
265
0.97
260
2.41
309
1.29
308
5.94
290
1.74
314
3.20
303
4.23
311
4.79
321
1.55
313
2.65
309
2.27
307
2.56
309
2.64
281
ACVNet-4btwo views2.35
286
2.75
308
1.60
303
3.13
303
2.29
302
3.52
305
3.67
313
1.35
287
1.35
287
1.27
300
0.72
218
3.26
286
2.62
293
3.04
316
0.98
229
0.78
234
2.13
304
1.02
291
9.04
307
1.23
295
2.74
291
3.39
304
4.08
312
0.92
279
1.24
281
1.29
272
1.46
277
2.48
278
MonStereo1two views2.61
288
2.91
310
1.70
304
3.94
314
3.77
326
3.57
307
3.72
315
1.55
296
1.64
297
1.43
308
1.63
282
4.85
303
5.63
307
2.99
315
1.35
261
0.90
247
1.99
301
1.31
310
5.93
289
1.75
315
2.96
297
1.93
279
4.83
322
0.93
282
1.31
285
1.08
250
2.49
308
2.38
274
ACVNet_1two views2.47
287
3.23
318
2.35
314
4.40
317
2.93
319
3.77
314
3.96
316
1.34
286
1.18
280
1.21
296
1.02
253
3.31
288
2.07
281
3.09
318
1.31
259
0.70
220
2.26
308
1.10
299
9.52
308
1.14
289
3.45
309
1.18
243
4.50
318
1.07
291
1.39
290
1.75
295
1.36
266
2.10
265
IMH-64-1two views2.92
297
2.70
305
2.36
315
3.23
304
2.71
311
3.70
310
4.05
317
1.66
301
2.48
311
1.13
289
1.26
265
3.60
290
6.29
311
3.59
319
2.28
310
1.15
286
2.20
305
1.31
310
6.02
291
1.52
305
3.03
299
5.48
317
4.83
322
1.40
308
2.83
312
2.02
302
2.34
301
3.64
296
IMH-64two views2.92
297
2.70
305
2.36
315
3.23
304
2.71
311
3.70
310
4.05
317
1.66
301
2.48
311
1.13
289
1.26
265
3.60
290
6.29
311
3.59
319
2.28
310
1.15
286
2.20
305
1.31
310
6.02
291
1.52
305
3.03
299
5.48
317
4.83
322
1.40
308
2.83
312
2.02
302
2.34
301
3.64
296
IMHtwo views3.24
302
2.76
309
2.37
317
3.26
306
2.74
313
3.73
313
4.10
319
1.72
306
2.58
314
1.17
294
1.24
263
3.92
294
10.58
318
6.80
334
1.57
275
1.11
282
2.25
307
1.30
309
6.28
295
1.56
308
2.97
298
4.14
309
4.90
325
1.45
312
3.01
316
2.36
308
2.47
307
5.19
310
PWCKtwo views5.04
312
3.03
313
2.21
311
3.61
311
2.60
310
4.41
321
5.09
320
2.45
319
2.76
318
3.31
333
4.34
310
10.15
328
5.13
305
1.74
303
1.99
292
1.38
304
2.41
309
1.45
317
51.59
342
2.35
322
3.70
314
2.69
293
2.65
306
1.78
324
2.97
315
3.21
319
2.43
305
4.77
305
KSHMRtwo views8.16
324
4.16
326
2.96
324
25.39
337
3.92
327
5.08
325
5.53
321
2.62
322
2.40
310
2.23
329
2.26
294
4.37
301
77.17
346
5.23
328
2.24
306
1.71
314
2.79
315
1.98
323
31.04
332
2.02
318
4.59
322
5.35
315
7.54
336
1.89
326
3.30
317
2.91
315
3.01
317
6.51
317
WAO-8two views4.25
309
3.34
320
2.80
320
10.32
327
2.92
317
4.17
318
5.89
322
2.66
324
4.45
326
1.69
320
3.41
303
5.94
307
11.31
320
5.29
329
1.71
280
1.34
296
2.69
313
1.51
318
10.78
311
2.48
324
2.63
288
4.50
312
3.44
310
1.58
314
5.12
326
3.31
321
3.60
321
5.76
312
Venustwo views4.25
309
3.34
320
2.80
320
10.32
327
2.92
317
4.17
318
5.89
322
2.66
324
4.45
326
1.69
320
3.41
303
5.94
307
11.31
320
5.29
329
1.71
280
1.34
296
2.69
313
1.51
318
10.78
311
2.48
324
2.63
288
4.50
312
3.44
310
1.58
314
5.12
326
3.31
321
3.60
321
5.76
312
TorneroNettwo views8.11
323
4.28
328
2.58
319
27.50
339
3.31
324
5.00
324
6.00
324
2.62
322
10.13
334
1.49
311
2.57
298
11.07
330
68.61
345
4.25
323
1.77
287
1.18
290
5.78
321
1.62
321
23.67
327
2.83
328
4.30
317
5.47
316
5.37
328
1.65
318
3.72
321
3.14
318
2.59
310
6.36
316
notakertwo views5.52
314
5.55
333
3.76
329
13.97
333
5.34
331
5.44
329
7.16
325
2.36
316
2.68
317
2.06
326
1.80
288
12.90
332
23.86
330
3.98
322
2.04
294
1.73
315
3.45
318
2.12
326
17.08
324
2.15
319
6.10
328
5.87
321
6.15
333
2.12
328
1.79
299
2.08
305
2.31
300
3.29
294
TorneroNet-64two views6.02
317
4.60
329
2.53
318
15.58
334
3.29
323
4.87
323
7.75
326
2.23
314
10.02
332
1.42
307
1.31
268
7.26
315
29.23
335
4.36
324
2.09
299
1.21
293
8.22
325
1.70
322
17.35
325
2.62
326
4.31
318
5.68
319
5.20
327
1.76
322
3.58
320
3.76
325
2.29
299
8.34
322
JetBluetwo views6.09
318
3.85
325
3.31
328
5.99
320
4.13
328
6.22
331
7.94
327
3.42
327
2.89
321
1.47
309
1.46
275
8.10
318
1.90
279
5.39
331
11.86
334
3.22
325
3.30
317
2.99
330
5.32
285
2.40
323
9.74
333
10.03
336
4.93
326
2.18
329
7.39
332
17.16
337
3.72
326
24.15
335
UNDER WATERtwo views7.55
321
4.74
330
3.06
325
10.46
330
5.92
333
6.35
332
8.05
328
4.32
328
3.69
325
1.97
325
2.14
293
10.53
329
62.60
344
4.83
326
2.25
307
1.59
312
12.22
335
2.08
325
9.67
309
3.97
330
5.27
326
6.65
324
8.86
339
2.65
333
3.82
322
5.62
330
3.62
323
7.03
319
DPSMNet_ROBtwo views12.40
332
5.97
335
17.46
341
4.21
316
7.87
335
5.15
327
8.18
329
4.56
330
11.65
337
4.54
339
8.87
334
5.17
305
22.69
328
13.00
339
14.98
338
14.62
339
6.90
323
15.82
338
14.07
321
12.05
338
9.09
332
21.75
340
5.68
331
11.54
340
11.87
336
31.03
345
12.99
337
33.06
341
DGTPSM_ROBtwo views12.12
331
5.96
334
17.45
340
4.20
315
7.86
334
5.15
327
8.18
329
4.56
330
11.64
336
4.52
338
8.72
333
5.01
304
17.08
327
12.98
338
14.91
337
14.58
338
6.85
322
15.76
337
12.78
317
12.05
338
9.07
331
21.74
339
5.67
330
11.54
340
11.84
335
31.02
344
12.98
336
33.06
341
UNDER WATER-64two views6.11
319
5.20
331
3.13
326
12.20
331
5.77
332
6.55
333
8.53
331
4.74
333
3.45
324
2.30
331
2.36
295
12.04
331
12.47
322
5.08
327
3.02
320
1.81
317
12.11
334
2.17
327
8.81
305
4.17
332
5.75
327
7.27
326
8.74
338
2.61
332
3.86
323
8.63
332
4.32
327
7.86
321
DPSM_ROBtwo views18.32
335
16.26
337
21.94
342
9.42
325
8.75
336
13.61
336
9.11
332
10.90
338
15.09
338
8.45
340
8.95
335
10.12
326
13.19
324
16.42
340
19.79
340
19.11
340
18.35
338
20.45
340
13.82
319
14.88
340
26.56
341
27.45
341
6.49
334
14.39
343
31.57
344
38.83
346
36.85
345
43.86
346
DPSMtwo views18.32
335
16.26
337
21.94
342
9.42
325
8.75
336
13.61
336
9.11
332
10.90
338
15.09
338
8.45
340
8.95
335
10.12
326
13.19
324
16.42
340
19.79
340
19.11
340
18.35
338
20.45
340
13.82
319
14.88
340
26.56
341
27.45
341
6.49
334
14.39
343
31.57
344
38.83
346
36.85
345
43.86
346
JetRedtwo views7.85
322
5.29
332
6.07
335
3.75
312
5.00
330
6.95
334
10.20
334
4.64
332
3.42
323
2.92
332
2.39
296
6.71
311
2.25
285
7.15
335
10.26
331
7.34
333
8.59
326
7.11
334
4.82
282
4.08
331
10.76
337
9.27
332
7.85
337
3.34
334
10.96
334
24.25
341
11.90
335
24.57
336
ktntwo views8.45
328
3.18
316
2.84
322
6.37
322
3.26
322
4.31
320
10.28
335
2.15
313
10.13
334
2.27
330
1.83
289
42.17
341
55.84
342
3.93
321
2.34
312
2.09
321
9.85
327
2.17
327
33.98
333
2.24
321
3.24
305
3.03
297
4.78
320
2.25
330
2.59
307
2.81
313
3.18
318
5.04
309
PMLtwo views30.82
341
20.91
339
7.15
338
29.65
340
20.81
343
29.11
341
10.50
336
10.87
337
88.32
348
20.03
344
154.19
348
98.60
346
119.55
347
10.53
337
9.19
330
8.69
335
16.72
337
7.27
335
34.57
334
7.35
336
12.77
338
10.86
337
5.72
332
6.17
337
33.11
346
12.83
336
34.30
344
12.33
328
LVEtwo views4.33
311
3.03
313
2.00
310
27.23
338
3.06
320
3.83
315
12.07
337
1.53
295
1.64
297
1.85
324
1.48
276
3.30
287
3.91
298
3.06
317
1.45
265
1.05
274
1.95
300
1.38
316
15.68
323
1.62
310
3.25
306
5.86
320
4.42
317
1.76
322
2.87
314
2.06
304
2.34
301
3.25
292
CasAABBNettwo views36.73
342
32.73
343
44.18
347
18.81
335
17.45
341
27.29
340
18.12
338
21.69
343
30.40
342
17.52
342
18.08
339
20.27
335
26.53
333
32.96
342
38.28
343
37.42
342
36.82
342
41.12
344
27.47
330
29.86
343
53.56
347
55.70
346
12.93
340
28.91
346
63.44
348
78.07
348
73.93
348
88.05
348
FlowAnythingtwo views36.80
343
32.68
342
44.29
348
18.93
336
17.69
342
27.11
339
18.38
339
21.83
345
30.48
343
17.53
343
18.21
340
20.29
336
26.54
334
33.31
343
37.97
342
37.86
343
36.82
342
40.93
343
27.35
329
30.03
344
53.34
346
55.72
347
12.99
341
29.50
347
63.36
347
78.25
349
73.99
349
88.17
349
LRCNet_RVCtwo views21.34
339
28.92
340
11.37
339
31.78
341
29.09
344
34.25
342
27.43
340
21.71
344
10.07
333
29.63
345
30.60
341
32.06
337
25.81
332
33.87
344
11.15
332
2.97
324
25.27
341
21.35
342
44.05
339
20.83
342
14.27
339
5.87
321
36.69
344
27.43
345
2.76
311
1.47
283
8.68
334
6.79
318
DPSimNet_ROBtwo views18.93
337
32.01
341
5.97
334
12.40
332
11.35
339
6.13
330
28.07
341
15.03
341
35.64
344
3.96
335
78.33
347
18.15
334
35.00
336
5.44
332
12.19
336
10.36
336
13.57
336
3.64
332
87.52
345
6.87
335
14.36
340
9.97
334
4.40
316
7.14
338
5.17
328
9.85
333
5.93
332
32.56
340
BEATNet-Init1two views22.01
340
36.32
344
3.23
327
54.74
346
11.23
338
52.95
347
28.72
342
9.47
336
8.51
331
1.57
316
10.45
337
33.05
338
48.98
340
0.71
277
16.97
339
11.50
337
1.60
292
1.11
301
77.80
344
35.27
345
9.94
335
9.98
335
1.27
296
2.30
331
27.41
340
11.09
334
52.85
347
35.36
343
HanzoNettwo views19.12
338
15.23
336
6.99
337
35.06
342
14.35
340
40.77
343
42.46
343
17.81
342
22.51
340
3.55
334
8.29
332
41.30
340
56.30
343
43.04
346
5.72
328
4.37
330
37.83
344
3.30
331
49.59
341
8.93
337
10.30
336
6.85
325
14.15
342
3.46
335
5.94
329
5.80
331
5.29
331
7.13
320
LE_ROBtwo views17.44
333
1.82
295
6.12
336
9.40
324
53.85
348
8.01
335
46.26
344
11.27
340
28.12
341
1.80
323
7.03
330
38.62
339
49.53
341
0.34
192
1.76
286
0.55
174
0.78
238
0.59
226
36.68
336
6.72
334
2.92
296
0.85
212
29.06
343
12.10
342
26.35
339
25.49
342
27.84
343
37.03
344
HaxPigtwo views41.43
344
43.85
345
40.81
344
44.90
343
47.49
346
44.66
344
46.30
345
46.31
346
45.63
346
49.00
346
49.30
343
47.24
342
43.73
338
42.64
345
40.44
345
39.13
345
48.37
345
51.07
345
43.33
337
42.25
346
42.88
343
36.52
343
50.75
346
43.02
349
27.54
341
19.97
339
20.68
339
20.75
334
AVERAGE_ROBtwo views41.98
345
44.82
346
42.27
345
45.98
344
46.88
345
45.60
345
46.56
346
47.04
347
43.89
345
49.19
347
49.91
344
47.25
343
43.00
337
49.19
347
40.14
344
38.38
344
49.01
346
51.31
346
43.98
338
42.43
347
43.31
344
38.64
344
49.42
345
42.83
348
28.65
342
20.44
340
23.41
341
19.88
333
MEDIAN_ROBtwo views44.95
346
47.36
347
44.12
346
48.52
345
49.78
347
48.21
346
49.25
347
49.72
348
46.35
347
52.53
348
53.59
345
50.59
344
45.49
339
49.36
348
43.27
346
41.36
346
51.85
347
54.40
347
47.03
340
45.93
348
45.78
345
40.06
345
52.67
347
45.67
350
31.00
343
26.54
343
25.33
342
27.95
339
DLNR_Zeroshot_testpermissivetwo views17.86
334
67.45
348
1.21
286
81.91
348
0.35
150
0.45
168
74.74
348
0.76
226
0.27
99
0.69
229
0.60
177
1.16
238
0.29
113
8.20
336
84.48
348
102.07
348
23.88
340
15.14
336
7.31
298
0.50
181
4.38
319
2.51
290
0.18
95
0.43
205
0.76
216
0.86
207
0.80
171
0.80
189
GS-Stereotwo views0.08
14
0.10
19
0.18
17
0.16
11
0.25
19
0.16
20
ASD4two views8.34
339