This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort by
AIO-test2two views0.11
1
0.07
1
0.07
2
0.06
1
0.05
2
0.07
3
0.04
1
0.13
14
0.12
26
0.11
6
0.14
24
0.16
11
0.07
7
0.06
10
0.15
1
0.17
3
0.15
1
0.13
3
0.16
2
0.11
2
0.17
2
0.13
6
0.06
4
0.08
7
0.11
1
0.14
7
0.10
1
0.11
1
AIO-test1two views0.13
5
0.09
3
0.08
4
0.06
1
0.07
7
0.11
19
0.04
1
0.17
31
0.13
30
0.15
20
0.16
32
0.19
26
0.08
14
0.09
31
0.18
10
0.22
14
0.19
3
0.16
7
0.15
1
0.14
13
0.17
2
0.14
7
0.08
14
0.07
4
0.14
2
0.14
7
0.13
2
0.12
5
Pointernettwo views0.11
1
0.09
3
0.06
1
0.07
5
0.06
4
0.09
11
0.08
31
0.13
14
0.06
2
0.11
6
0.09
11
0.10
2
0.07
7
0.06
10
0.16
3
0.16
2
0.19
3
0.11
1
0.18
4
0.09
1
0.17
2
0.11
1
0.08
14
0.07
4
0.14
2
0.12
2
0.24
17
0.12
5
MLG-Stereo_test1two views0.12
3
0.08
2
0.07
2
0.07
5
0.07
7
0.07
3
0.06
15
0.11
2
0.09
10
0.16
27
0.09
11
0.17
18
0.06
1
0.05
4
0.16
3
0.18
5
0.22
10
0.19
16
0.22
16
0.12
6
0.23
14
0.11
1
0.06
4
0.06
1
0.15
4
0.12
2
0.21
9
0.14
10
MLG-Stereotwo views0.12
3
0.10
6
0.08
4
0.06
1
0.08
14
0.06
1
0.04
1
0.11
2
0.09
10
0.15
20
0.07
6
0.16
11
0.06
1
0.05
4
0.17
5
0.18
5
0.22
10
0.19
16
0.19
7
0.12
6
0.21
11
0.12
5
0.06
4
0.06
1
0.15
4
0.12
2
0.20
7
0.14
10
MM-Stereo_test3two views0.13
5
0.13
11
0.08
4
0.10
14
0.07
7
0.07
3
0.05
6
0.19
34
0.14
35
0.15
20
0.06
3
0.13
6
0.06
1
0.07
17
0.15
1
0.15
1
0.23
16
0.15
4
0.21
12
0.12
6
0.18
5
0.18
17
0.08
14
0.08
7
0.15
4
0.11
1
0.28
28
0.15
13
GREAT-IGEVtwo views0.15
15
0.15
18
0.11
22
0.08
8
0.06
4
0.08
7
0.05
6
0.16
26
0.10
14
0.12
10
0.13
21
0.25
36
0.09
22
0.08
25
0.22
20
0.25
22
0.24
23
0.16
7
0.23
20
0.13
10
0.18
5
0.16
10
0.09
26
0.10
19
0.15
4
0.16
11
0.31
37
0.13
9
111111two views0.13
5
0.16
21
0.08
4
0.12
20
0.10
22
0.07
3
0.06
15
0.12
8
0.12
26
0.07
1
0.10
16
0.15
9
0.09
22
0.05
4
0.19
11
0.21
11
0.22
10
0.18
12
0.19
7
0.13
10
0.23
14
0.18
17
0.10
33
0.08
7
0.16
8
0.14
7
0.19
5
0.11
1
MM-Stereo_test2two views0.15
15
0.19
30
0.11
22
0.16
38
0.11
27
0.08
7
0.05
6
0.14
19
0.11
18
0.20
37
0.08
10
0.12
4
0.08
14
0.09
31
0.20
14
0.22
14
0.25
24
0.20
19
0.20
10
0.18
31
0.25
23
0.21
31
0.10
33
0.10
19
0.16
8
0.16
11
0.21
9
0.16
20
MM-Stereo_test1two views0.13
5
0.13
11
0.08
4
0.11
17
0.06
4
0.08
7
0.05
6
0.15
21
0.11
18
0.16
27
0.07
6
0.15
9
0.06
1
0.07
17
0.17
5
0.18
5
0.23
16
0.17
10
0.22
16
0.14
13
0.20
8
0.14
7
0.08
14
0.08
7
0.16
8
0.13
5
0.25
19
0.15
13
RSMtwo views0.15
15
0.16
21
0.12
26
0.14
29
0.09
18
0.14
31
0.06
15
0.10
1
0.08
7
0.09
3
0.15
27
0.14
8
0.10
27
0.07
17
0.22
20
0.25
22
0.21
8
0.20
19
0.18
4
0.17
26
0.25
23
0.18
17
0.08
14
0.10
19
0.16
8
0.16
11
0.27
26
0.15
13
ProNettwo views0.14
12
0.13
11
0.14
34
0.11
17
0.07
7
0.14
31
0.12
56
0.13
14
0.06
2
0.08
2
0.24
63
0.09
1
0.06
1
0.07
17
0.22
20
0.21
11
0.22
10
0.18
12
0.19
7
0.14
13
0.20
8
0.11
1
0.12
46
0.11
29
0.16
8
0.13
5
0.17
4
0.12
5
LG-Stereotwo views0.15
15
0.11
8
0.08
4
0.09
12
0.11
27
0.11
19
0.05
6
0.15
21
0.11
18
0.19
35
0.12
20
0.26
37
0.09
22
0.06
10
0.19
11
0.20
8
0.23
16
0.16
7
0.18
4
0.14
13
0.23
14
0.20
26
0.05
1
0.08
7
0.17
13
0.18
20
0.24
17
0.15
13
IGEV-Stereo++two views0.16
22
0.24
43
0.09
14
0.13
24
0.13
31
0.10
16
0.05
6
0.15
21
0.13
30
0.12
10
0.16
32
0.16
11
0.11
32
0.07
17
0.21
18
0.22
14
0.22
10
0.18
12
0.21
12
0.16
21
0.22
13
0.27
50
0.09
26
0.08
7
0.17
13
0.18
20
0.25
19
0.18
27
AIO-Stereopermissivetwo views0.15
15
0.17
25
0.12
26
0.17
44
0.10
22
0.12
25
0.06
15
0.11
2
0.08
7
0.10
4
0.14
24
0.12
4
0.09
22
0.08
25
0.20
14
0.21
11
0.20
5
0.20
19
0.21
12
0.17
26
0.23
14
0.20
26
0.07
11
0.11
29
0.17
13
0.16
11
0.23
13
0.12
5
MoCha-V2two views0.14
12
0.15
18
0.11
22
0.12
20
0.09
18
0.11
19
0.09
39
0.13
14
0.08
7
0.13
13
0.18
38
0.17
18
0.07
7
0.07
17
0.17
5
0.23
17
0.20
5
0.20
19
0.25
28
0.14
13
0.29
35
0.17
12
0.08
14
0.08
7
0.17
13
0.16
11
0.15
3
0.11
1
OmniDepthtwo views0.13
5
0.13
11
0.09
14
0.11
17
0.08
14
0.11
19
0.06
15
0.11
2
0.10
14
0.11
6
0.06
3
0.31
45
0.07
7
0.06
10
0.17
5
0.17
3
0.15
1
0.15
4
0.17
3
0.11
2
0.16
1
0.17
12
0.05
1
0.08
7
0.18
17
0.17
19
0.22
12
0.15
13
GSStereotwo views0.16
22
0.18
28
0.13
29
0.13
24
0.13
31
0.12
25
0.09
39
0.12
8
0.10
14
0.16
27
0.11
17
0.22
31
0.08
14
0.05
4
0.22
20
0.25
22
0.28
33
0.20
19
0.25
28
0.16
21
0.32
37
0.19
22
0.08
14
0.10
19
0.18
17
0.16
11
0.25
19
0.16
20
GS-Stereotwo views0.08
14
0.10
19
0.18
17
0.16
11
0.25
19
0.16
20
GEAStereotwo views0.18
30
0.22
37
0.15
37
0.19
51
0.14
39
0.14
31
0.09
39
0.16
26
0.13
30
0.15
20
0.11
17
0.23
32
0.08
14
0.09
31
0.25
28
0.25
22
0.27
29
0.21
27
0.23
20
0.17
26
0.34
43
0.22
39
0.10
33
0.12
35
0.19
20
0.21
31
0.30
34
0.19
30
gasm-ftwo views0.18
30
0.22
37
0.15
37
0.19
51
0.14
39
0.14
31
0.09
39
0.16
26
0.13
30
0.15
20
0.11
17
0.23
32
0.08
14
0.09
31
0.25
28
0.25
22
0.27
29
0.21
27
0.23
20
0.17
26
0.34
43
0.22
39
0.10
33
0.12
35
0.19
20
0.21
31
0.30
34
0.19
30
AdaDepthtwo views0.18
30
0.19
30
0.10
17
0.12
20
0.14
39
0.12
25
0.09
39
0.16
26
0.14
35
0.14
15
0.17
36
0.19
26
0.10
27
0.08
25
0.26
36
0.29
42
0.28
33
0.23
34
0.25
28
0.16
21
0.24
20
0.20
26
0.09
26
0.11
29
0.19
20
0.20
25
0.32
38
0.25
42
GASTEREOtwo views0.16
22
0.16
21
0.10
17
0.14
29
0.10
22
0.11
19
0.07
22
0.12
8
0.15
40
0.14
15
0.09
11
0.18
24
0.11
32
0.06
10
0.24
25
0.24
21
0.23
16
0.20
19
0.23
20
0.16
21
0.23
14
0.23
42
0.11
41
0.10
19
0.19
20
0.22
35
0.28
28
0.14
10
MSCFtwo views0.16
22
0.15
18
0.09
14
0.14
29
0.09
18
0.11
19
0.07
22
0.11
2
0.15
40
0.14
15
0.09
11
0.17
18
0.11
32
0.06
10
0.25
28
0.23
17
0.23
16
0.20
19
0.23
20
0.15
18
0.24
20
0.21
31
0.11
41
0.10
19
0.19
20
0.22
35
0.27
26
0.15
13
Occ-Gtwo views0.18
30
0.26
48
0.15
37
0.17
44
0.14
39
0.15
37
0.07
22
0.12
8
0.11
18
0.11
6
0.22
55
0.20
29
0.09
22
0.10
36
0.28
43
0.28
36
0.25
24
0.22
31
0.29
36
0.19
38
0.26
25
0.19
22
0.10
33
0.15
43
0.19
20
0.18
20
0.29
31
0.17
24
MLG-Stereo_test2two views0.16
22
0.12
10
0.10
17
0.10
14
0.08
14
0.09
11
0.05
6
0.18
33
0.11
18
0.20
37
0.07
6
0.23
32
0.08
14
0.08
25
0.19
11
0.23
17
0.30
36
0.25
38
0.31
38
0.18
31
0.28
31
0.17
12
0.09
26
0.08
7
0.20
26
0.16
11
0.29
31
0.21
34
GIP-stereotwo views0.17
27
0.21
36
0.13
29
0.15
34
0.09
18
0.09
11
0.07
22
0.12
8
0.09
10
0.16
27
0.13
21
0.16
11
0.08
14
0.15
56
0.27
38
0.25
22
0.25
24
0.21
27
0.24
26
0.19
38
0.27
27
0.20
26
0.07
11
0.11
29
0.20
26
0.22
35
0.35
47
0.17
24
RSM++two views0.17
27
0.18
28
0.13
29
0.17
44
0.10
22
0.14
31
0.07
22
0.13
14
0.13
30
0.12
10
0.14
24
0.17
18
0.11
32
0.08
25
0.25
28
0.27
35
0.25
24
0.21
27
0.23
20
0.18
31
0.26
25
0.21
31
0.08
14
0.10
19
0.20
26
0.18
20
0.29
31
0.18
27
AEACVtwo views0.19
35
0.31
60
0.14
34
0.17
44
0.13
31
0.12
25
0.07
22
0.15
21
0.07
6
0.16
27
0.15
27
0.18
24
0.11
32
0.11
40
0.25
28
0.25
22
0.32
38
0.23
34
0.35
47
0.18
31
0.27
27
0.22
39
0.11
41
0.11
29
0.20
26
0.22
35
0.25
19
0.18
27
MLG-Stereo_test3two views0.23
39
0.17
25
0.13
29
0.14
29
0.17
54
0.16
39
0.09
39
0.21
36
0.12
26
0.21
40
0.18
38
0.35
53
0.11
32
0.15
56
0.29
44
0.26
29
0.33
41
0.28
46
0.63
126
0.18
31
0.40
56
0.41
88
0.11
41
0.15
43
0.21
30
0.21
31
0.33
40
0.27
46
MonStereotwo views0.15
15
0.14
17
0.13
29
0.12
20
0.12
30
0.10
16
0.08
31
0.11
2
0.11
18
0.14
15
0.13
21
0.17
18
0.11
32
0.07
17
0.20
14
0.23
17
0.23
16
0.17
10
0.21
12
0.15
18
0.19
7
0.18
17
0.08
14
0.08
7
0.22
31
0.18
20
0.23
13
0.24
40
CoSvtwo views0.13
5
0.17
25
0.08
4
0.08
8
0.07
7
0.17
44
0.07
22
0.15
21
0.10
14
0.13
13
0.06
3
0.10
2
0.07
7
0.04
1
0.17
5
0.20
8
0.21
8
0.12
2
0.22
16
0.12
6
0.20
8
0.11
1
0.06
4
0.07
4
0.22
31
0.15
10
0.19
5
0.11
1
CroCo-Stereo Lap2two views0.14
12
0.10
6
0.08
4
0.08
8
0.08
14
0.08
7
0.05
6
0.12
8
0.06
2
0.22
43
0.07
6
0.16
11
0.07
7
0.04
1
0.20
14
0.26
29
0.22
10
0.19
16
0.26
32
0.11
2
0.28
31
0.16
10
0.06
4
0.08
7
0.22
31
0.23
44
0.20
7
0.16
20
CroCo-Stereocopylefttwo views0.13
5
0.09
3
0.08
4
0.07
5
0.04
1
0.06
1
0.04
1
0.14
19
0.05
1
0.10
4
0.03
1
0.13
6
0.06
1
0.04
1
0.24
25
0.26
29
0.20
5
0.18
12
0.20
10
0.11
2
0.24
20
0.15
9
0.05
1
0.06
1
0.22
31
0.20
25
0.23
13
0.15
13
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
VIP-Stereotwo views0.22
38
0.20
34
0.19
54
0.14
29
0.11
27
0.13
29
0.06
15
0.29
46
0.19
51
0.19
35
0.28
75
0.28
41
0.11
32
0.12
44
0.27
38
0.28
36
0.37
53
0.26
41
0.33
42
0.21
47
0.34
43
0.21
31
0.11
41
0.15
43
0.24
35
0.22
35
0.25
19
0.30
52
TDLMtwo views0.24
40
0.29
54
0.22
83
0.22
61
0.27
108
0.23
76
0.18
96
0.26
42
0.19
51
0.18
34
0.38
111
0.29
42
0.21
78
0.15
56
0.24
25
0.28
36
0.32
38
0.28
46
0.25
28
0.21
47
0.28
31
0.19
22
0.16
68
0.21
67
0.24
35
0.20
25
0.28
28
0.25
42
DEFOM-Stereotwo views0.21
37
0.19
30
0.12
26
0.18
49
0.13
31
0.20
56
0.08
31
0.19
34
0.14
35
0.16
27
0.23
58
0.21
30
0.10
27
0.12
44
0.27
38
0.29
42
0.34
45
0.28
46
0.32
39
0.22
51
0.32
37
0.21
31
0.12
46
0.11
29
0.26
37
0.22
35
0.47
68
0.29
50
Utwo views0.15
15
0.11
8
0.08
4
0.06
1
0.05
2
0.09
11
0.04
1
0.16
26
0.06
2
0.15
20
0.04
2
0.17
18
0.07
7
0.05
4
0.22
20
0.28
36
0.26
28
0.23
34
0.27
33
0.17
26
0.28
31
0.19
22
0.06
4
0.08
7
0.26
37
0.23
44
0.23
13
0.20
32
anonymousdsptwo views0.25
42
0.23
41
0.19
54
0.16
38
0.14
39
0.18
48
0.10
48
0.37
55
0.19
51
0.32
54
0.22
55
0.32
47
0.12
40
0.14
52
0.29
44
0.32
54
0.32
38
0.28
46
0.39
51
0.22
51
0.46
83
0.31
58
0.12
46
0.15
43
0.26
37
0.20
25
0.52
86
0.20
32
RAFTtwo views0.17
27
0.13
11
0.10
17
0.16
38
0.07
7
0.21
58
0.05
6
0.25
40
0.12
26
0.14
15
0.15
27
0.16
11
0.10
27
0.05
4
0.21
18
0.20
8
0.23
16
0.15
4
0.28
34
0.13
10
0.21
11
0.17
12
0.07
11
0.10
19
0.26
37
0.24
47
0.33
40
0.23
37
HCRNettwo views0.32
70
0.38
90
0.20
61
0.39
147
0.17
54
0.29
101
0.18
96
0.40
58
0.18
46
0.80
259
0.40
120
0.49
102
0.18
61
0.22
100
0.38
65
0.30
47
0.38
57
0.29
54
0.40
53
0.19
38
0.33
41
0.23
42
0.19
103
0.16
52
0.26
37
0.31
66
0.51
75
0.31
55
LG-G_1two views0.25
42
0.22
37
0.19
54
0.23
74
0.22
72
0.22
64
0.12
56
0.28
43
0.11
18
0.21
40
0.20
47
0.35
53
0.14
44
0.18
70
0.31
54
0.30
47
0.35
49
0.32
60
0.51
76
0.24
60
0.39
54
0.26
47
0.10
33
0.15
43
0.27
42
0.24
47
0.36
49
0.34
63
LG-Gtwo views0.25
42
0.22
37
0.19
54
0.23
74
0.22
72
0.22
64
0.12
56
0.28
43
0.11
18
0.21
40
0.20
47
0.35
53
0.14
44
0.18
70
0.31
54
0.30
47
0.35
49
0.32
60
0.51
76
0.24
60
0.39
54
0.26
47
0.10
33
0.15
43
0.27
42
0.24
47
0.36
49
0.34
63
iRaftStereo_RVCtwo views0.26
46
0.27
50
0.16
42
0.13
24
0.14
39
0.18
48
0.09
39
0.44
69
0.14
35
0.36
57
0.36
102
0.32
47
0.16
54
0.13
48
0.29
44
0.29
42
0.38
57
0.28
46
0.34
46
0.22
51
0.41
58
0.38
76
0.12
46
0.17
54
0.27
42
0.29
59
0.42
60
0.27
46
RYNettwo views0.27
50
0.23
41
0.18
52
0.15
34
0.17
54
0.19
53
0.13
60
0.25
40
0.31
140
0.17
33
0.20
47
0.19
26
0.14
44
0.13
48
0.80
182
0.28
36
0.27
29
0.41
113
0.28
34
0.19
38
0.27
27
0.21
31
0.29
184
0.18
57
0.27
42
0.76
190
0.34
44
0.23
37
SGD-Stereotwo views0.29
59
0.24
43
0.17
47
0.16
38
0.15
47
0.22
64
0.08
31
0.29
46
0.22
62
0.29
49
0.15
27
0.45
90
0.20
70
0.10
36
0.71
169
0.45
110
0.46
80
0.27
43
0.47
66
0.22
51
0.41
58
0.36
70
0.19
103
0.19
60
0.28
46
0.32
71
0.46
66
0.40
80
AIO_rvctwo views0.25
42
0.34
67
0.16
42
0.19
51
0.15
47
0.18
48
0.11
51
0.39
57
0.22
62
0.30
51
0.16
32
0.32
47
0.12
40
0.18
70
0.27
38
0.26
29
0.33
41
0.22
31
0.38
50
0.20
44
0.42
64
0.44
108
0.13
54
0.14
40
0.28
46
0.22
35
0.33
40
0.21
34
RAStereotwo views0.19
35
0.16
21
0.10
17
0.08
8
0.07
7
0.09
11
0.06
15
0.21
36
0.09
10
0.45
77
0.09
11
0.26
37
0.08
14
0.07
17
0.25
28
0.26
29
0.28
33
0.25
38
0.33
42
0.15
18
0.35
47
0.18
17
0.08
14
0.10
19
0.28
46
0.23
44
0.25
19
0.24
40
IGEV-Stereo+two views0.27
50
0.25
46
0.14
34
0.22
61
0.14
39
0.13
29
0.07
22
0.36
52
0.20
55
0.55
131
0.23
58
0.38
65
0.14
44
0.16
63
0.26
36
0.35
58
0.40
65
0.35
81
0.48
69
0.24
60
0.44
72
0.51
141
0.12
46
0.13
37
0.28
46
0.20
25
0.34
44
0.23
37
StereoVisiontwo views0.18
30
0.13
11
0.11
22
0.09
12
0.14
39
0.16
39
0.08
31
0.17
31
0.17
42
0.15
20
0.15
27
0.16
11
0.10
27
0.06
10
0.25
28
0.26
29
0.27
29
0.22
31
0.22
16
0.16
21
0.23
14
0.17
12
0.06
4
0.13
37
0.28
46
0.29
59
0.38
52
0.28
48
test_5two views0.29
59
0.39
95
0.16
42
0.22
61
0.15
47
0.21
58
0.13
60
0.54
98
0.20
55
0.38
62
0.19
42
0.44
86
0.34
163
0.10
36
0.43
84
0.38
71
0.33
41
0.32
60
0.33
42
0.20
44
0.32
37
0.35
66
0.09
26
0.21
67
0.28
46
0.30
62
0.51
75
0.32
58
RAFT + AFFtwo views0.27
50
0.26
48
0.17
47
0.21
58
0.13
31
0.19
53
0.13
60
0.41
60
0.18
46
0.44
75
0.19
42
0.42
78
0.14
44
0.09
31
0.86
200
0.29
42
0.41
68
0.20
19
0.55
98
0.23
56
0.47
90
0.21
31
0.12
46
0.15
43
0.28
46
0.20
25
0.21
9
0.17
24
delettwo views0.24
40
0.25
46
0.22
83
0.24
78
0.20
67
0.28
98
0.16
88
0.21
36
0.18
46
0.23
45
0.26
69
0.26
37
0.15
50
0.25
140
0.32
57
0.28
36
0.31
37
0.27
43
0.24
26
0.24
60
0.31
36
0.20
26
0.16
68
0.19
60
0.28
46
0.25
51
0.32
38
0.31
55
MIM_Stereotwo views0.32
70
0.40
102
0.25
96
0.28
96
0.20
67
0.27
91
0.14
73
0.45
75
0.18
46
0.48
89
0.25
66
0.42
78
0.18
61
0.16
63
0.36
62
0.42
87
0.44
72
0.36
85
0.47
66
0.28
79
0.47
90
0.36
70
0.12
46
0.23
93
0.29
54
0.27
54
0.47
68
0.33
61
LG-Stereo_L2two views0.26
46
0.31
60
0.17
47
0.13
24
0.13
31
0.14
31
0.07
22
0.42
64
0.20
55
0.48
89
0.22
55
0.40
69
0.14
44
0.17
67
0.30
50
0.37
68
0.39
62
0.28
46
0.40
53
0.19
38
0.45
76
0.35
66
0.09
26
0.14
40
0.30
55
0.22
35
0.33
40
0.33
61
LG-Stereo_L1two views0.27
50
0.30
58
0.17
47
0.13
24
0.13
31
0.15
37
0.08
31
0.42
64
0.21
59
0.49
98
0.20
47
0.39
68
0.15
50
0.15
56
0.30
50
0.38
71
0.39
62
0.29
54
0.40
53
0.18
31
0.47
90
0.35
66
0.08
14
0.14
40
0.30
55
0.21
31
0.37
51
0.36
69
LGtest1two views0.26
46
0.19
30
0.20
61
0.16
38
0.18
58
0.16
39
0.09
39
0.28
43
0.17
42
0.22
43
0.27
72
0.29
42
0.13
43
0.14
52
0.30
50
0.31
51
0.38
57
0.33
68
0.49
71
0.25
66
0.41
58
0.41
88
0.13
54
0.16
52
0.30
55
0.24
47
0.39
54
0.31
55
DEFOM-Stereo_RVCtwo views0.33
75
0.36
80
0.20
61
0.23
74
0.20
67
0.17
44
0.10
48
0.48
82
0.23
67
0.55
131
0.32
89
0.40
69
0.19
67
0.15
56
0.48
96
0.36
64
0.47
90
0.33
68
0.51
76
0.27
76
0.50
104
0.42
95
0.16
68
0.18
57
0.30
55
0.31
66
0.48
71
0.53
117
HUFtwo views0.29
59
0.34
67
0.20
61
0.22
61
0.21
70
0.19
53
0.11
51
0.51
87
0.22
62
0.42
66
0.18
38
0.35
53
0.22
82
0.19
77
0.30
50
0.32
54
0.38
57
0.26
41
0.52
81
0.25
66
0.52
120
0.43
102
0.16
68
0.18
57
0.30
55
0.22
35
0.38
52
0.29
50
AIO_testtwo views0.27
50
0.39
95
0.19
54
0.29
101
0.19
61
0.18
48
0.14
73
0.42
64
0.23
67
0.33
55
0.19
42
0.37
63
0.18
61
0.18
70
0.25
28
0.29
42
0.34
45
0.24
37
0.39
51
0.21
47
0.49
100
0.46
117
0.13
54
0.15
43
0.30
55
0.28
57
0.41
59
0.21
34
RAFT_CTSACEtwo views0.30
63
0.37
82
0.15
37
0.15
34
0.15
47
0.25
84
0.18
96
0.53
93
0.20
55
0.55
131
0.18
38
0.44
86
0.29
113
0.16
63
0.29
44
0.30
47
0.37
53
0.27
43
0.37
49
0.18
31
0.38
52
0.45
112
0.10
33
0.17
54
0.30
55
0.31
66
0.60
112
0.26
45
AASNettwo views0.28
55
0.34
67
0.22
83
0.25
84
0.26
98
0.34
125
0.25
139
0.32
49
0.17
42
0.29
49
0.36
102
0.26
37
0.18
61
0.24
124
0.36
62
0.31
51
0.34
45
0.32
60
0.32
39
0.28
79
0.35
47
0.28
53
0.17
83
0.22
81
0.30
55
0.28
57
0.35
47
0.25
42
AnonymousMtwo views0.79
216
0.34
67
0.20
61
0.24
78
0.22
72
0.21
58
0.15
79
0.58
117
0.21
59
0.57
144
0.39
117
0.45
90
0.15
50
0.19
77
0.56
108
0.54
172
0.54
129
0.40
108
0.53
89
0.30
88
0.65
170
0.54
151
0.20
119
0.22
81
0.30
55
0.39
99
1.31
260
11.04
326
CVANet_RVCtwo views0.31
68
0.40
102
0.30
112
0.40
153
0.29
120
0.37
136
0.23
131
0.41
60
0.23
67
0.31
52
0.49
142
0.37
63
0.26
99
0.19
77
0.29
44
0.33
57
0.34
45
0.32
60
0.32
39
0.25
66
0.34
43
0.25
45
0.18
95
0.25
113
0.30
55
0.25
51
0.34
44
0.30
52
DFGA-Nettwo views0.28
55
0.37
82
0.16
42
0.26
88
0.15
47
0.22
64
0.15
79
0.40
58
0.21
59
0.41
64
0.24
63
0.31
45
0.17
57
0.13
48
0.42
82
0.39
75
0.38
57
0.30
57
0.42
60
0.21
47
0.36
51
0.29
54
0.13
54
0.21
67
0.31
65
0.27
54
0.51
75
0.28
48
IGEV-BASED-STEREO-two views0.30
63
0.24
43
0.17
47
0.23
74
0.19
61
0.18
48
0.08
31
0.49
84
0.25
83
0.54
124
0.21
51
0.32
47
0.17
57
0.17
67
0.29
44
0.39
75
0.45
75
0.36
85
0.50
73
0.26
73
0.56
137
0.49
129
0.13
54
0.13
37
0.31
65
0.26
53
0.45
64
0.30
52
UniTT-Stereotwo views0.28
55
0.27
50
0.15
37
0.15
34
0.13
31
0.17
44
0.09
39
0.35
51
0.19
51
0.49
98
0.21
51
0.41
76
0.18
61
0.14
52
0.40
70
0.39
75
0.42
70
0.34
72
0.56
104
0.25
66
0.43
66
0.24
44
0.13
54
0.19
60
0.31
65
0.41
104
0.30
34
0.37
70
DMCAtwo views0.32
70
0.31
60
0.30
112
0.24
78
0.25
88
0.27
91
0.22
121
0.36
52
0.33
153
0.31
52
0.40
120
0.40
69
0.23
88
0.25
140
0.41
76
0.37
68
0.40
65
0.39
96
0.36
48
0.28
79
0.41
58
0.27
50
0.25
163
0.25
113
0.31
65
0.35
81
0.39
54
0.37
70
GANettwo views0.32
70
0.29
54
0.27
101
0.34
125
0.33
137
0.38
141
0.29
157
0.44
69
0.24
77
0.35
56
0.30
84
0.46
92
0.22
82
0.21
94
0.31
54
0.32
54
0.40
65
0.43
126
0.33
42
0.22
51
0.33
41
0.29
54
0.22
142
0.24
102
0.31
65
0.27
54
0.42
60
0.34
63
plaintwo views0.31
68
0.43
118
0.20
61
0.20
57
0.16
52
0.20
56
0.10
48
0.41
60
0.18
46
0.48
89
0.19
42
0.34
52
0.17
57
0.10
36
0.41
76
0.44
99
0.45
75
0.40
108
0.55
98
0.24
60
0.41
58
0.34
64
0.14
62
0.21
67
0.32
70
0.33
76
0.39
54
0.48
98
LL-Strereo2two views0.34
77
0.29
54
0.21
74
0.24
78
0.19
61
0.17
44
0.13
60
0.63
158
0.26
93
0.58
156
0.23
58
0.44
86
0.22
82
0.14
52
0.41
76
0.41
83
0.47
90
0.35
81
0.73
151
0.31
93
0.47
90
0.36
70
0.21
128
0.20
65
0.32
70
0.34
80
0.51
75
0.35
66
RAFT+CT+SAtwo views0.32
70
0.46
144
0.20
61
0.26
88
0.18
58
0.22
64
0.15
79
0.58
117
0.23
67
0.52
112
0.17
36
0.46
92
0.33
151
0.12
44
0.33
58
0.43
94
0.36
51
0.30
57
0.45
64
0.23
56
0.45
76
0.49
129
0.09
26
0.22
81
0.32
70
0.31
66
0.53
90
0.35
66
MMNettwo views0.29
59
0.29
54
0.22
83
0.26
88
0.26
98
0.26
86
0.18
96
0.33
50
0.23
67
0.24
46
0.28
75
0.35
53
0.15
50
0.32
187
0.39
68
0.31
51
0.36
51
0.34
72
0.41
56
0.27
76
0.32
37
0.21
31
0.17
83
0.23
93
0.32
70
0.30
62
0.46
66
0.32
58
MGS-Stereotwo views0.37
82
0.46
144
0.21
74
0.22
61
0.19
61
0.22
64
0.15
79
0.45
75
0.17
42
0.36
57
0.26
69
0.29
42
0.19
67
0.23
113
1.37
262
0.40
79
0.52
118
0.45
141
0.55
98
0.33
99
0.50
104
0.41
88
0.21
128
0.22
81
0.33
74
0.30
62
0.47
68
0.45
93
S2M2_XLtwo views0.33
75
0.30
58
0.30
112
0.17
44
0.19
61
0.23
76
0.21
115
0.53
93
0.26
93
0.47
83
0.25
66
0.48
98
0.18
61
0.22
100
0.38
65
0.36
64
0.54
129
0.29
54
0.41
56
0.28
79
0.50
104
0.31
58
0.21
128
0.21
67
0.34
75
0.32
71
0.45
64
0.51
111
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
GCAP-BATtwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
test_for_modeltwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalala2two views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalalatwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
testlalala_basetwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
GCAP-Stereotwo views0.76
205
0.45
132
0.20
61
0.22
61
0.25
88
0.22
64
0.13
60
0.62
144
0.25
83
0.57
144
0.29
78
0.75
179
0.20
70
0.19
77
0.47
89
0.51
154
10.38
328
0.39
96
0.59
113
0.34
105
0.93
218
0.50
134
0.17
83
0.21
67
0.34
75
0.36
84
0.51
75
0.49
100
TANstereotwo views0.55
152
0.41
106
0.35
131
0.40
153
0.39
169
0.45
168
0.21
115
0.52
89
0.30
122
0.54
124
0.37
108
0.38
65
0.38
182
0.41
212
0.84
194
0.73
226
0.66
207
0.78
272
1.10
193
0.89
270
0.62
159
0.54
151
0.93
285
0.32
154
0.34
75
0.45
117
0.99
218
0.53
117
XX-TBDtwo views0.55
152
0.41
106
0.35
131
0.40
153
0.39
169
0.45
168
0.21
115
0.52
89
0.30
122
0.54
124
0.37
108
0.38
65
0.38
182
0.41
212
0.84
194
0.73
226
0.66
207
0.78
272
1.10
193
0.89
270
0.62
159
0.54
151
0.93
285
0.32
154
0.34
75
0.45
117
0.99
218
0.53
117
AANet_RVCtwo views0.28
55
0.27
50
0.23
88
0.19
51
0.28
113
0.16
39
0.16
88
0.29
46
0.30
122
0.20
37
0.27
72
0.24
35
0.21
78
0.19
77
0.45
86
0.36
64
0.33
41
0.34
72
0.29
36
0.29
84
0.27
27
0.27
50
0.22
142
0.21
67
0.34
75
0.33
76
0.42
60
0.52
113
MIF-Stereo (partial)two views0.30
63
0.44
124
0.18
52
0.16
38
0.16
52
0.21
58
0.11
51
0.37
55
0.22
62
0.37
60
0.24
63
0.32
47
0.17
57
0.13
48
0.39
68
0.45
110
0.46
80
0.38
94
0.42
60
0.25
66
0.43
66
0.35
66
0.18
95
0.21
67
0.35
85
0.32
71
0.50
74
0.44
91
YMNettwo views0.30
63
0.31
60
0.23
88
0.27
93
0.23
78
0.26
86
0.25
139
0.36
52
0.37
178
0.25
47
0.19
42
0.40
69
0.27
106
0.29
170
0.38
65
0.47
130
0.37
53
0.28
46
0.43
62
0.19
38
0.35
47
0.33
61
0.16
68
0.19
60
0.36
86
0.29
59
0.39
54
0.35
66
PWCDC_ROBbinarytwo views0.67
182
0.35
77
0.39
152
0.29
101
0.43
186
0.34
125
0.36
176
0.43
67
1.25
282
0.27
48
0.72
218
0.44
86
2.38
288
0.57
260
1.11
246
0.76
229
0.56
144
0.56
211
0.64
127
0.55
198
0.63
162
2.08
282
0.46
228
0.40
196
0.36
86
0.63
164
0.51
75
0.67
159
TestStereo1two views0.38
84
0.49
167
0.19
54
0.22
61
0.23
78
0.23
76
0.15
79
0.55
105
0.30
122
0.52
112
0.21
51
0.35
53
0.39
185
0.11
40
0.80
182
0.50
147
0.46
80
0.32
60
0.53
89
0.25
66
0.52
120
0.67
183
0.15
64
0.22
81
0.37
88
0.42
105
0.60
112
0.39
75
TESTrafttwo views0.37
82
0.46
144
0.21
74
0.21
58
0.23
78
0.21
58
0.16
88
0.54
98
0.31
140
0.51
105
0.23
58
0.36
61
0.36
175
0.11
40
0.85
198
0.48
136
0.45
75
0.32
60
0.48
69
0.24
60
0.46
83
0.65
175
0.12
46
0.23
93
0.37
88
0.43
107
0.57
96
0.39
75
SA-5Ktwo views0.38
84
0.49
167
0.19
54
0.22
61
0.23
78
0.23
76
0.15
79
0.55
105
0.30
122
0.52
112
0.21
51
0.35
53
0.39
185
0.11
40
0.80
182
0.50
147
0.46
80
0.32
60
0.53
89
0.25
66
0.52
120
0.67
183
0.15
64
0.22
81
0.37
88
0.42
105
0.60
112
0.39
75
AFF-stereotwo views0.30
63
0.34
67
0.26
99
0.18
49
0.17
54
0.33
118
0.11
51
0.50
85
0.23
67
0.46
80
0.28
75
0.40
69
0.16
54
0.12
44
0.27
38
0.35
58
0.37
53
0.25
38
0.57
108
0.23
56
0.38
52
0.25
45
0.17
83
0.17
54
0.37
88
0.37
92
0.48
71
0.32
58
test_4two views0.34
77
0.33
64
0.27
101
0.21
58
0.18
58
0.16
39
0.11
51
0.59
124
0.26
93
0.58
156
0.25
66
0.50
108
0.20
70
0.19
77
0.33
58
0.40
79
0.45
75
0.34
72
0.41
56
0.29
84
0.45
76
0.41
88
0.16
68
0.24
102
0.38
92
0.40
103
0.59
111
0.42
87
UPFNettwo views0.38
84
0.34
67
0.34
129
0.32
117
0.33
137
0.39
143
0.29
157
0.47
80
0.33
153
0.43
68
0.41
122
0.40
69
0.30
123
0.34
192
0.61
130
0.40
79
0.46
80
0.41
113
0.52
81
0.35
122
0.35
47
0.34
64
0.25
163
0.27
122
0.38
92
0.35
81
0.55
92
0.37
70
DMCA-RVCcopylefttwo views0.44
115
0.37
82
0.35
131
0.33
123
0.37
161
0.32
111
0.41
188
0.46
78
0.52
216
0.43
68
0.48
137
0.68
162
0.33
151
0.29
170
0.65
148
0.46
119
0.47
90
0.44
131
0.49
71
0.38
134
0.49
100
0.48
128
0.29
184
0.32
154
0.38
92
0.37
92
0.57
96
0.62
146
MaDis-Stereotwo views0.26
46
0.20
34
0.16
42
0.10
14
0.10
22
0.10
16
0.08
31
0.24
39
0.14
35
0.36
57
0.16
32
0.36
61
0.12
40
0.08
25
0.33
58
0.35
58
0.39
62
0.35
81
0.53
89
0.20
44
0.40
56
0.26
47
0.13
54
0.15
43
0.39
95
0.39
99
0.40
58
0.49
100
4D-IteraStereotwo views0.40
90
0.28
53
0.33
123
0.35
135
0.24
86
0.24
81
0.15
79
0.63
158
0.28
106
0.61
171
0.39
117
0.51
113
0.22
82
0.22
100
0.48
96
0.43
94
0.49
98
0.43
126
0.66
133
0.34
105
0.63
162
0.70
190
0.14
62
0.22
81
0.39
95
0.47
127
0.63
121
0.39
75
raft+_RVCtwo views0.35
80
0.34
67
0.26
99
0.25
84
0.23
78
0.25
84
0.18
96
0.54
98
0.26
93
0.52
112
0.43
125
0.46
92
0.23
88
0.18
70
0.42
82
0.38
71
0.43
71
0.34
72
0.61
124
0.26
73
0.43
66
0.38
76
0.13
54
0.20
65
0.39
95
0.39
99
0.58
104
0.42
87
HITNettwo views0.38
84
0.37
82
0.28
103
0.34
125
0.29
120
0.26
86
0.19
107
0.58
117
0.32
148
0.57
144
0.45
131
0.55
125
0.30
123
0.22
100
0.51
100
0.35
58
0.44
72
0.39
96
0.41
56
0.29
84
0.41
58
0.38
76
0.20
119
0.25
113
0.39
95
0.37
92
0.70
147
0.52
113
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
IERtwo views0.41
94
0.37
82
0.31
117
0.30
109
0.28
113
0.35
131
0.24
134
0.47
80
0.28
106
0.44
75
0.59
174
0.77
190
0.29
113
0.35
198
0.63
139
0.42
87
0.47
90
0.42
121
0.44
63
0.34
105
0.42
64
0.36
70
0.28
179
0.26
119
0.40
99
0.47
127
0.52
86
0.52
113
RASNettwo views0.42
99
0.45
132
0.43
174
0.33
123
0.33
137
0.37
136
0.27
145
0.58
117
0.34
158
0.47
83
0.43
125
0.49
102
0.33
151
0.25
140
0.41
76
0.41
83
0.48
95
0.39
96
0.47
66
0.30
88
0.49
100
0.40
85
0.19
103
0.44
211
0.40
99
0.46
125
0.75
159
0.63
150
anonymousdsp2two views0.38
84
0.46
144
0.30
112
0.25
84
0.23
78
0.32
111
0.18
96
0.58
117
0.23
67
0.47
83
0.38
111
0.48
98
0.23
88
0.18
70
0.40
70
0.39
75
0.44
72
0.33
68
0.88
174
0.31
93
0.48
96
0.52
146
0.17
83
0.23
93
0.41
101
0.33
76
0.61
115
0.42
87
S2M2_Ltwo views0.40
90
0.42
113
0.41
166
0.24
78
0.27
108
0.35
131
0.22
121
0.51
87
0.24
77
0.61
171
0.23
58
0.43
83
0.21
78
0.31
180
0.59
119
0.49
143
0.55
138
0.36
85
0.53
89
0.34
105
0.55
132
0.38
76
0.28
179
0.27
122
0.42
102
0.43
107
0.63
121
0.66
155
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
CASnettwo views0.40
90
0.52
196
0.23
88
0.27
93
0.27
108
0.30
107
0.14
73
0.62
144
0.29
113
0.61
171
0.44
128
0.64
154
0.28
111
0.23
113
0.55
105
0.36
64
0.45
75
0.31
59
0.73
151
0.27
76
0.63
162
0.39
82
0.21
128
0.24
102
0.42
102
0.32
71
0.61
115
0.56
128
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
ARAFTtwo views0.34
77
0.38
90
0.23
88
0.26
88
0.21
70
0.27
91
0.14
73
0.44
69
0.24
77
0.50
100
0.30
84
0.41
76
0.16
54
0.15
56
0.67
155
0.42
87
0.50
103
0.47
159
0.51
76
0.23
56
0.53
127
0.32
60
0.16
68
0.19
60
0.43
104
0.30
62
0.52
86
0.37
70
FINETtwo views0.40
90
0.38
90
0.39
152
0.43
167
0.30
127
0.34
125
0.35
172
0.44
69
0.36
168
0.47
83
0.32
89
0.47
95
0.30
123
0.28
163
0.66
149
0.50
147
0.48
95
0.36
85
0.60
120
0.33
99
0.46
83
0.37
75
0.30
187
0.30
141
0.43
104
0.35
81
0.56
94
0.42
87
CIPLGtwo views0.42
99
0.47
151
0.24
94
0.32
117
0.22
72
0.32
111
0.19
107
0.63
158
0.24
77
0.55
131
0.50
147
0.60
143
0.30
123
0.41
212
0.93
217
0.44
99
0.52
118
0.37
90
0.56
104
0.38
134
0.56
137
0.45
112
0.19
103
0.24
102
0.44
106
0.31
66
0.57
96
0.38
74
IPLGR_Ctwo views0.42
99
0.47
151
0.23
88
0.31
115
0.22
72
0.32
111
0.18
96
0.63
158
0.23
67
0.55
131
0.50
147
0.61
144
0.31
136
0.41
212
0.87
206
0.45
110
0.52
118
0.37
90
0.55
98
0.38
134
0.56
137
0.46
117
0.19
103
0.24
102
0.44
106
0.33
76
0.58
104
0.40
80
ACREtwo views0.42
99
0.47
151
0.22
83
0.32
117
0.22
72
0.33
118
0.18
96
0.63
158
0.23
67
0.55
131
0.50
147
0.61
144
0.30
123
0.41
212
0.91
212
0.45
110
0.52
118
0.36
85
0.55
98
0.38
134
0.57
147
0.44
108
0.19
103
0.23
93
0.44
106
0.32
71
0.58
104
0.39
75
UNettwo views0.44
115
0.42
113
0.40
157
0.37
141
0.36
154
0.41
151
0.28
150
0.57
113
0.35
164
0.50
100
0.49
142
0.47
95
0.34
163
0.37
204
0.53
104
0.43
94
0.54
129
0.46
153
0.56
104
0.39
148
0.47
90
0.44
108
0.27
176
0.34
172
0.44
106
0.48
132
0.58
104
0.57
130
DDF-Stereotwo views2.07
280
0.43
118
0.28
103
10.45
329
0.48
199
14.62
338
0.70
247
0.72
209
0.29
113
0.66
209
0.48
137
17.48
333
0.59
232
0.26
151
0.55
105
0.56
180
0.60
178
0.45
141
1.27
205
0.38
134
0.83
206
0.77
203
0.25
163
0.24
102
0.45
110
0.45
117
0.91
199
0.67
159
zero-FEtwo views9.08
329
0.42
113
0.28
103
61.19
347
0.56
217
106.36
348
1.24
280
0.72
209
0.30
122
0.66
209
0.56
169
61.54
345
0.66
239
0.25
140
0.59
119
0.53
164
0.60
178
0.47
159
2.54
253
0.38
134
1.35
258
0.96
222
0.25
163
0.24
102
0.45
110
0.44
111
0.91
199
0.66
155
SAtwo views0.42
99
0.47
151
0.21
74
0.25
84
0.23
78
0.31
108
0.13
60
0.64
165
0.32
148
0.61
171
0.26
69
0.54
119
0.21
78
0.16
63
0.63
139
0.47
130
0.52
118
0.41
113
0.60
120
0.29
84
0.46
83
0.61
166
0.15
64
0.27
122
0.45
110
0.58
158
0.96
211
0.47
96
IPLGtwo views0.47
127
0.45
132
0.32
120
0.28
96
0.27
108
0.32
111
0.21
115
0.63
158
0.22
62
0.51
105
0.38
111
0.56
127
0.29
113
0.31
180
1.64
277
0.44
99
0.56
144
0.48
165
0.56
104
0.41
156
0.45
76
0.75
198
0.18
95
0.28
128
0.45
110
0.59
159
0.65
129
0.51
111
RALAANettwo views0.41
94
0.41
106
0.37
141
0.28
96
0.28
113
0.33
118
0.24
134
0.54
98
0.27
99
0.48
89
0.48
137
0.43
83
0.25
96
0.20
88
0.57
111
0.41
83
0.49
98
0.50
179
0.71
147
0.40
153
0.52
120
0.46
117
0.21
128
0.29
133
0.46
114
0.45
117
0.70
147
0.47
96
BEATNet_4xtwo views0.53
145
0.40
102
0.34
129
0.39
147
0.36
154
0.32
111
0.27
145
0.64
165
0.41
193
0.66
209
0.45
131
0.62
152
0.39
185
0.24
124
0.83
190
0.63
196
0.58
157
0.58
221
0.57
108
0.36
124
0.90
216
1.52
265
0.25
163
0.36
183
0.46
114
0.44
111
0.77
164
0.60
140
GLC_STEREOtwo views0.47
127
0.51
187
0.40
157
0.38
144
0.37
161
0.37
136
0.28
150
0.64
165
0.29
113
0.62
181
0.53
160
0.55
125
0.28
111
0.30
173
0.49
99
0.48
136
0.66
207
0.41
113
0.65
131
0.41
156
0.70
186
0.60
161
0.23
152
0.30
141
0.47
116
0.36
84
0.84
186
0.53
117
ADLNettwo views0.46
125
0.53
202
0.37
141
0.41
158
0.41
180
0.44
163
0.40
186
0.54
98
0.35
164
0.45
77
0.53
160
0.76
187
0.36
175
0.62
266
0.58
115
0.42
87
0.49
98
0.42
121
0.50
73
0.37
130
0.43
66
0.44
108
0.34
201
0.25
113
0.47
116
0.55
153
0.57
96
0.45
93
DISCOtwo views0.45
120
0.44
124
0.29
108
0.40
153
0.38
167
0.49
179
0.43
191
0.45
75
0.43
204
0.50
100
0.57
171
0.40
69
0.29
113
0.30
173
0.61
130
0.43
94
0.55
138
0.46
153
0.69
144
0.41
156
0.48
96
0.43
102
0.26
172
0.32
154
0.47
116
0.50
141
0.62
118
0.50
109
castereo++two views0.44
115
0.35
77
0.33
123
0.43
167
0.23
78
0.21
58
0.17
94
0.59
124
0.30
122
0.63
187
0.37
108
0.73
175
0.22
82
0.22
100
0.44
85
0.53
164
0.58
157
0.41
113
0.66
133
0.34
105
0.81
203
0.69
188
0.20
119
0.28
128
0.48
119
0.56
157
0.76
162
0.48
98
EGLCR-Stereotwo views0.47
127
0.49
167
0.41
166
0.29
101
0.30
127
0.44
163
0.14
73
0.57
113
0.26
93
0.57
144
0.27
72
0.58
134
0.23
88
0.21
94
0.36
62
0.47
130
0.53
127
0.45
141
0.75
158
0.32
97
0.69
183
0.93
220
0.19
103
0.24
102
0.48
119
0.49
137
1.30
259
0.70
172
test-3two views0.55
152
0.37
82
0.37
141
0.34
125
0.33
137
0.33
118
0.22
121
0.65
172
0.27
99
0.61
171
0.34
98
0.90
210
0.31
136
0.21
94
0.60
125
0.44
99
0.55
138
0.42
121
2.59
258
0.38
134
0.56
137
1.37
253
0.16
68
0.29
133
0.48
119
0.38
96
0.69
141
0.54
124
test_1two views0.55
152
0.37
82
0.37
141
0.34
125
0.33
137
0.33
118
0.22
121
0.66
176
0.27
99
0.62
181
0.34
98
0.90
210
0.31
136
0.21
94
0.61
130
0.44
99
0.55
138
0.42
121
2.58
257
0.38
134
0.56
137
1.38
255
0.16
68
0.29
133
0.48
119
0.38
96
0.69
141
0.54
124
LMCR-Stereopermissivemany views0.50
135
0.46
144
0.33
123
0.32
117
0.33
137
0.42
157
0.24
134
0.57
113
0.37
178
0.55
131
0.46
135
0.65
157
0.40
188
0.26
151
0.69
160
0.49
143
0.62
192
0.49
173
1.11
195
0.57
208
0.66
173
0.64
173
0.25
163
0.32
154
0.48
119
0.49
137
0.63
121
0.65
154
GEStwo views0.59
171
0.52
196
0.37
141
0.39
147
0.40
174
0.53
193
0.37
178
0.59
124
0.40
188
0.56
140
0.60
177
0.50
108
0.30
123
0.41
212
0.98
229
0.63
196
0.67
213
0.55
209
2.28
242
0.56
203
0.70
186
0.56
156
0.31
192
0.42
202
0.48
119
0.48
132
0.65
129
0.68
164
GMStereopermissivetwo views0.41
94
0.48
164
0.25
96
0.32
117
0.32
136
0.37
136
0.28
150
0.59
124
0.30
122
0.45
77
0.36
102
0.61
144
0.31
136
0.24
124
0.45
86
0.41
83
0.54
129
0.35
81
0.73
151
0.39
148
0.51
110
0.33
61
0.23
152
0.28
128
0.48
119
0.36
84
0.68
138
0.41
82
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
NLCA_NET_v2_RVCtwo views0.51
138
0.52
196
0.48
194
0.43
167
0.57
220
0.42
157
0.62
231
0.56
111
0.62
234
0.52
112
0.51
153
0.67
160
0.34
163
0.58
263
0.78
176
0.42
87
0.47
90
0.42
121
0.57
108
0.38
134
0.46
83
0.42
95
0.30
187
0.32
154
0.48
119
0.76
190
0.62
118
0.64
152
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
G2L-Stereotwo views0.42
99
0.39
95
0.28
103
0.35
135
0.40
174
0.34
125
0.22
121
0.54
98
0.34
158
0.52
112
0.61
184
0.50
108
0.38
182
0.26
151
0.61
130
0.44
99
0.50
103
0.40
108
0.46
65
0.33
99
0.43
66
0.39
82
0.28
179
0.27
122
0.49
127
0.54
150
0.69
141
0.49
100
Former-RAFT_DAM_RVCtwo views0.41
94
0.33
64
0.29
108
0.29
101
0.24
86
0.26
86
0.16
88
0.55
105
0.40
188
0.55
131
0.49
142
0.49
102
0.27
106
0.23
113
0.58
115
0.45
110
0.51
114
0.40
108
0.50
73
0.36
124
0.46
83
0.50
134
0.16
68
0.23
93
0.49
127
0.75
187
0.44
63
0.56
128
CREStereo++_RVCtwo views0.43
112
0.42
113
0.39
152
0.30
109
0.33
137
0.27
91
0.19
107
0.57
113
0.31
140
0.58
156
0.36
102
0.58
134
0.56
224
0.23
113
0.48
96
0.50
147
0.61
186
0.34
72
0.52
81
0.30
88
0.56
137
0.42
95
0.16
68
0.29
133
0.49
127
0.44
111
0.79
170
0.69
166
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
DSFCAtwo views0.45
120
0.50
182
0.40
157
0.40
153
0.37
161
0.44
163
0.34
170
0.46
78
0.39
186
0.40
63
0.57
171
0.49
102
0.29
113
0.24
124
0.61
130
0.44
99
0.49
98
0.49
173
0.64
127
0.39
148
0.50
104
0.51
141
0.33
199
0.35
176
0.49
127
0.50
141
0.57
96
0.58
132
rafts_anoytwo views0.41
94
0.51
187
0.35
131
0.29
101
0.30
127
0.33
118
0.22
121
0.59
124
0.25
83
0.51
105
0.50
147
0.48
98
0.23
88
0.17
67
0.57
111
0.46
119
0.51
114
0.50
179
0.58
112
0.34
105
0.50
104
0.43
102
0.19
103
0.28
128
0.50
131
0.47
127
0.52
86
0.53
117
AF-Nettwo views0.53
145
0.49
167
0.44
182
0.50
183
0.53
209
0.61
213
0.54
210
0.61
137
0.55
224
0.43
68
0.66
201
0.85
203
0.42
192
0.40
209
0.64
145
0.46
119
0.46
80
0.44
131
0.60
120
0.40
153
0.45
76
0.45
112
0.41
220
0.39
193
0.50
131
0.55
153
0.81
174
0.69
166
Nwc_Nettwo views0.53
145
0.49
167
0.44
182
0.50
183
0.53
209
0.61
213
0.54
210
0.61
137
0.55
224
0.43
68
0.66
201
0.85
203
0.42
192
0.40
209
0.64
145
0.46
119
0.46
80
0.44
131
0.60
120
0.40
153
0.45
76
0.45
112
0.41
220
0.39
193
0.50
131
0.55
153
0.81
174
0.69
166
CAStwo views0.38
84
0.45
132
0.25
96
0.29
101
0.29
120
0.23
76
0.13
60
0.41
60
0.27
99
0.41
64
0.54
166
0.35
53
0.35
170
0.21
94
0.52
102
0.38
71
0.50
103
0.34
72
0.52
81
0.26
73
0.43
66
0.41
88
0.19
103
0.23
93
0.51
134
0.52
145
0.62
118
0.77
185
test_3two views0.56
159
0.38
90
0.36
137
0.34
125
0.33
137
0.33
118
0.21
115
0.68
186
0.29
113
0.65
199
0.33
96
0.92
212
0.35
170
0.21
94
0.60
125
0.44
99
0.56
144
0.45
141
2.68
260
0.39
148
0.55
132
1.35
251
0.15
64
0.32
154
0.51
134
0.47
127
0.67
136
0.50
109
RAFT-Stereo + iAFFtwo views0.35
80
0.41
106
0.32
120
0.24
78
0.19
61
0.28
98
0.13
60
0.58
117
0.24
77
0.46
80
0.35
101
0.49
102
0.19
67
0.15
56
0.34
61
0.35
58
0.41
68
0.28
46
0.65
131
0.28
79
0.44
72
0.33
61
0.19
103
0.22
81
0.51
134
0.37
92
0.58
104
0.44
91
HGLStereotwo views0.43
112
0.43
118
0.37
141
0.34
125
0.37
161
0.39
143
0.23
131
0.48
82
0.31
140
0.47
83
0.72
218
0.42
78
0.29
113
0.32
187
0.51
100
0.49
143
0.55
138
0.50
179
0.55
98
0.39
148
0.51
110
0.43
102
0.22
142
0.33
168
0.51
134
0.51
143
0.57
96
0.45
93
coex_refinementtwo views0.45
120
0.43
118
0.33
123
0.35
135
0.35
150
0.44
163
0.22
121
0.55
105
0.50
213
0.50
100
0.60
177
0.54
119
0.27
106
0.28
163
0.58
115
0.45
110
0.50
103
0.44
131
0.54
95
0.33
99
0.45
76
0.39
82
0.28
179
0.31
149
0.52
138
0.53
147
0.67
136
0.78
188
iinet-ftwo views0.52
142
0.43
118
0.36
137
0.34
125
0.25
88
0.47
175
0.25
139
0.43
67
0.27
99
0.52
112
0.94
245
0.61
144
0.44
201
0.25
140
1.06
240
0.57
181
0.52
118
0.39
96
1.51
213
0.50
181
0.58
151
0.75
198
0.26
172
0.25
113
0.52
138
0.38
96
0.76
162
0.53
117
STTStereotwo views0.53
145
0.56
211
0.54
211
0.44
172
0.52
208
0.43
160
0.59
219
0.52
89
0.46
209
0.47
83
0.55
168
0.71
170
0.42
192
0.56
255
0.87
206
0.44
99
0.49
98
0.51
186
0.54
95
0.37
130
0.51
110
0.40
85
0.32
197
0.35
176
0.52
138
0.66
170
0.68
138
0.99
210
ddtwo views0.50
135
0.51
187
0.28
103
0.91
252
0.31
135
0.65
223
0.29
157
0.59
124
0.23
67
0.54
124
0.30
84
0.75
179
0.27
106
0.26
151
0.84
194
0.46
119
0.70
223
0.39
96
1.05
189
0.38
134
0.48
96
0.43
102
0.23
152
0.30
141
0.53
141
0.39
99
0.74
157
0.58
132
TestStereotwo views0.45
120
0.51
187
0.38
150
0.42
162
0.30
127
0.44
163
0.26
143
0.71
202
0.28
106
0.76
249
0.32
89
0.64
154
0.32
145
0.24
124
0.47
89
0.35
58
0.54
129
0.33
68
0.78
163
0.38
134
0.63
162
0.42
95
0.24
160
0.30
141
0.53
141
0.43
107
0.75
159
0.55
127
RALCasStereoNettwo views0.42
99
0.50
182
0.35
131
0.35
135
0.30
127
0.31
108
0.24
134
0.60
130
0.25
83
0.56
140
0.49
142
0.58
134
0.26
99
0.18
70
0.57
111
0.46
119
0.54
129
0.49
173
0.51
76
0.34
105
0.51
110
0.41
88
0.21
128
0.31
149
0.53
141
0.49
137
0.48
71
0.58
132
DN-CSS_ROBtwo views0.52
142
0.43
118
0.46
187
0.41
158
0.40
174
0.34
125
0.22
121
0.69
193
0.34
158
0.59
161
0.79
228
0.66
158
0.47
207
0.24
124
0.63
139
0.40
79
0.58
157
0.43
126
1.74
224
0.38
134
0.63
162
0.38
76
0.31
192
0.47
221
0.53
141
0.43
107
0.66
135
0.54
124
castereotwo views0.47
127
0.36
80
0.35
131
0.34
125
0.26
98
0.26
86
0.17
94
0.56
111
0.29
113
0.60
167
0.45
131
0.68
162
0.22
82
0.20
88
0.52
102
0.58
186
0.61
186
0.39
96
0.92
178
0.36
124
0.96
228
0.76
201
0.19
103
0.24
102
0.54
145
0.64
167
0.57
96
0.58
132
trnettwo views0.44
115
0.51
187
0.40
157
0.34
125
0.26
98
0.27
91
0.14
73
0.62
144
0.30
122
0.60
167
0.36
102
0.73
175
0.33
151
0.24
124
0.56
108
0.57
181
0.58
157
0.34
72
0.52
81
0.31
93
0.57
147
0.42
95
0.17
83
0.30
141
0.54
145
0.48
132
0.65
129
0.69
166
CREStereotwo views0.44
115
0.51
187
0.40
157
0.34
125
0.26
98
0.28
98
0.15
79
0.61
137
0.30
122
0.58
156
0.36
102
0.72
172
0.33
151
0.24
124
0.59
119
0.59
189
0.59
171
0.34
72
0.52
81
0.31
93
0.59
155
0.42
95
0.18
95
0.30
141
0.54
145
0.48
132
0.64
125
0.69
166
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
PDISCO_ROBtwo views0.48
131
0.40
102
0.39
152
0.38
144
0.34
146
0.39
143
0.28
150
0.50
85
0.35
164
0.37
60
0.52
156
0.49
102
0.35
170
0.31
180
0.63
139
0.58
186
0.54
129
0.68
251
0.59
113
0.44
167
0.62
159
0.67
183
0.24
160
0.34
172
0.54
145
0.53
147
0.85
188
0.58
132
Reg-Stereo(zero)two views0.78
214
0.47
151
0.56
215
0.39
147
0.28
113
0.41
151
0.35
172
0.75
222
0.36
168
0.62
181
6.09
321
0.78
191
0.32
145
0.27
160
0.41
76
0.63
196
0.58
157
0.45
141
1.51
213
0.42
162
0.65
170
0.62
167
0.21
128
0.32
154
0.55
149
0.78
194
1.26
255
1.09
218
HItwo views0.78
214
0.47
151
0.56
215
0.39
147
0.28
113
0.41
151
0.35
172
0.75
222
0.36
168
0.62
181
6.09
321
0.78
191
0.32
145
0.27
160
0.41
76
0.63
196
0.58
157
0.45
141
1.51
213
0.42
162
0.65
170
0.62
167
0.21
128
0.32
154
0.55
149
0.78
194
1.26
255
1.09
218
raft_robusttwo views0.49
134
0.44
124
0.24
94
0.38
144
0.29
120
0.32
111
0.21
115
0.73
213
0.35
164
0.69
229
0.34
98
0.57
129
0.31
136
0.24
124
0.59
119
0.53
164
0.54
129
0.46
153
0.98
186
0.37
130
0.69
183
0.94
221
0.20
119
0.28
128
0.55
149
0.69
172
0.69
141
0.60
140
iResNetv2_ROBtwo views0.52
142
0.45
132
0.32
120
0.48
178
0.39
169
0.48
177
0.28
150
0.64
165
0.34
158
0.52
112
0.66
201
0.70
168
0.55
222
0.28
163
0.67
155
0.47
130
0.50
103
0.46
153
1.12
196
0.45
169
0.57
147
0.47
122
0.29
184
0.40
196
0.55
149
0.51
143
0.81
174
0.58
132
CEStwo views0.46
125
0.35
77
0.30
112
0.27
93
0.27
108
0.29
101
0.12
56
1.05
272
0.27
99
0.54
124
0.66
201
0.53
117
0.25
96
0.23
113
0.62
135
0.65
209
0.58
157
0.37
90
0.54
95
0.34
105
0.84
209
0.53
149
0.23
152
0.23
93
0.56
153
0.44
111
0.57
96
0.69
166
raftrobusttwo views0.43
112
0.33
64
0.36
137
0.28
96
0.28
113
0.27
91
0.18
96
0.64
165
0.25
83
0.63
187
0.53
160
0.51
113
0.25
96
0.22
100
0.63
139
0.48
136
0.51
114
0.41
113
0.96
185
0.38
134
0.53
127
0.46
117
0.20
119
0.24
102
0.57
154
0.54
150
0.54
91
0.52
113
CFNet_pseudotwo views0.51
138
0.44
124
0.43
174
0.54
198
0.43
186
0.53
193
0.34
170
0.62
144
0.36
168
0.61
171
0.64
193
0.57
129
0.52
217
0.35
198
0.90
211
0.50
147
0.50
103
0.47
159
0.67
137
0.36
124
0.47
90
0.42
95
0.26
172
0.33
168
0.57
154
0.60
162
0.68
138
0.73
179
FADNet-RVCtwo views0.58
165
0.50
182
0.37
141
0.51
189
0.42
183
0.39
143
0.56
214
0.68
186
0.36
168
0.64
194
0.50
147
1.13
237
0.45
202
0.34
192
0.91
212
0.53
164
0.54
129
0.45
141
1.20
202
0.51
184
0.54
130
0.52
146
0.33
199
0.51
229
0.57
154
0.75
187
0.64
125
0.81
191
iResNet_ROBtwo views0.50
135
0.49
167
0.42
169
0.42
162
0.30
127
0.42
157
0.32
166
0.60
130
0.33
153
0.52
112
0.59
174
0.47
95
0.56
224
0.25
140
0.81
185
0.46
119
0.57
153
0.49
173
1.19
200
0.36
124
0.48
96
0.36
70
0.25
163
0.37
188
0.57
154
0.54
150
0.75
159
0.61
142
LG-Stereo_Zeroshottwo views0.66
179
0.37
82
0.23
88
0.51
189
0.74
255
0.89
253
0.49
201
0.62
144
0.26
93
1.60
318
0.31
87
2.57
271
0.26
99
0.22
100
0.46
88
0.48
136
0.58
157
0.45
141
0.93
179
0.37
130
0.63
162
0.71
191
0.19
103
0.23
93
0.58
158
0.49
137
0.89
197
1.91
262
GMOStereotwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
error versiontwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
test-vtwo views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
test-2two views0.42
99
0.39
95
0.21
74
0.30
109
0.26
98
0.29
101
0.19
107
0.67
179
0.30
122
0.66
209
0.32
89
0.54
119
0.33
151
0.20
88
0.40
70
0.46
119
0.50
103
0.44
131
0.68
139
0.34
105
0.51
110
0.66
178
0.16
68
0.22
81
0.58
158
0.45
117
0.82
177
0.41
82
FADNet-RVC-Resampletwo views0.57
163
0.52
196
0.42
169
0.46
175
0.39
169
0.41
151
0.40
186
0.72
209
0.42
200
0.68
221
0.51
153
1.04
229
0.43
196
0.43
225
0.96
226
0.48
136
0.56
144
0.61
231
0.85
172
0.55
198
0.52
120
0.63
169
0.34
201
0.60
245
0.58
158
0.71
177
0.55
92
0.77
185
RTSCtwo views0.73
195
0.49
167
0.46
187
0.47
177
0.51
207
0.55
199
0.56
214
0.67
179
0.68
240
0.54
124
0.79
228
0.57
129
0.57
228
0.41
212
1.92
291
0.77
231
0.96
267
0.58
221
1.36
209
0.56
203
0.85
211
1.11
234
0.31
192
0.53
234
0.58
158
0.65
169
0.95
208
1.26
236
AACVNettwo views0.55
152
0.47
151
0.40
157
0.58
205
0.61
226
0.53
193
0.37
178
0.61
137
0.40
188
0.59
161
0.64
193
0.58
134
0.33
151
0.36
200
0.69
160
0.54
172
0.58
157
0.54
203
0.69
144
0.52
186
0.54
130
0.52
146
0.36
206
0.44
211
0.59
165
0.69
172
0.82
177
0.83
193
APVNettwo views0.56
159
0.47
151
0.38
150
0.46
175
0.50
204
0.57
203
0.53
206
0.60
130
0.42
200
0.46
80
0.65
198
0.50
108
0.30
123
0.36
200
0.74
173
0.71
221
0.71
229
0.64
237
0.95
183
0.53
187
0.57
147
0.77
203
0.34
201
0.46
218
0.59
165
0.46
125
0.82
177
0.58
132
stereogantwo views0.67
182
0.67
237
0.62
228
0.68
229
0.73
251
0.75
241
0.64
234
0.70
199
0.57
227
0.51
105
0.64
193
1.08
231
0.62
233
0.44
228
0.83
190
0.55
174
0.56
144
0.51
186
0.91
177
0.59
215
0.59
155
0.69
188
0.47
229
0.46
218
0.59
165
0.67
171
1.16
241
0.87
199
ICVPtwo views0.58
165
0.49
167
0.67
241
0.50
183
0.48
199
0.52
189
0.36
176
0.60
130
0.45
205
0.61
171
0.58
173
0.61
144
0.56
224
0.30
173
0.67
155
0.64
202
0.58
157
0.51
186
0.72
150
0.51
184
0.58
151
0.74
197
0.59
262
0.47
221
0.60
168
0.75
187
0.74
157
0.72
176
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
LoS_RVCtwo views0.42
99
0.45
132
0.43
174
0.19
51
0.25
88
0.24
81
0.16
88
0.44
69
0.28
106
0.51
105
0.48
137
0.42
78
0.31
136
0.22
100
0.60
125
0.45
110
0.46
80
0.41
113
0.71
147
0.30
88
0.67
177
0.51
141
0.19
103
0.32
154
0.61
169
0.44
111
0.58
104
0.61
142
tt_lltwo views0.42
99
0.45
132
0.43
174
0.19
51
0.25
88
0.24
81
0.16
88
0.44
69
0.28
106
0.51
105
0.48
137
0.42
78
0.31
136
0.22
100
0.60
125
0.45
110
0.46
80
0.41
113
0.71
147
0.30
88
0.67
177
0.51
141
0.19
103
0.32
154
0.61
169
0.44
111
0.58
104
0.61
142
GEStereo_RVCtwo views0.71
193
0.59
218
0.40
157
0.54
198
0.50
204
0.61
213
0.51
203
0.71
202
0.41
193
0.59
161
0.51
153
0.76
187
0.46
205
0.39
206
0.96
226
0.92
250
0.78
238
0.75
265
1.94
232
0.62
233
0.80
201
1.37
253
0.31
192
0.52
231
0.61
169
0.63
164
0.86
193
1.12
225
CFNettwo views0.45
120
0.44
124
0.33
123
0.48
178
0.40
174
0.39
143
0.30
164
0.53
93
0.32
148
0.48
89
0.50
147
0.68
162
0.40
188
0.30
173
0.56
108
0.37
68
0.48
95
0.43
126
0.52
81
0.33
99
0.46
83
0.30
57
0.23
152
0.31
149
0.61
169
0.52
145
0.69
141
0.71
174
DeepPruner_ROBtwo views0.59
171
0.44
124
0.54
211
0.52
192
0.54
213
0.49
179
0.37
178
0.61
137
0.46
209
0.60
167
0.70
212
0.61
144
0.51
216
0.32
187
1.06
240
0.58
186
0.62
192
0.59
226
0.66
133
0.47
178
0.97
231
0.72
195
0.36
206
0.44
211
0.61
169
1.00
237
0.72
152
0.58
132
sAnonymous2two views0.58
165
0.41
106
0.31
117
0.29
101
0.29
120
0.45
168
0.29
157
0.71
202
0.41
193
0.48
89
0.53
160
0.51
113
0.43
196
0.23
113
0.86
200
0.84
240
0.70
223
0.67
245
1.34
206
0.60
220
0.83
206
0.98
224
0.30
187
0.35
176
0.62
174
0.72
180
0.72
152
0.73
179
CroCo_RVCtwo views0.58
165
0.41
106
0.31
117
0.29
101
0.29
120
0.45
168
0.29
157
0.71
202
0.41
193
0.48
89
0.53
160
0.51
113
0.43
196
0.23
113
0.86
200
0.84
240
0.70
223
0.67
245
1.34
206
0.60
220
0.83
206
0.98
224
0.30
187
0.35
176
0.62
174
0.72
180
0.72
152
0.73
179
RPtwo views0.58
165
0.57
216
0.72
246
0.62
216
0.56
217
0.57
203
0.64
234
0.63
158
0.61
232
0.42
66
0.81
233
0.78
191
0.53
219
0.43
225
0.68
158
0.48
136
0.53
127
0.44
131
0.64
127
0.45
169
0.51
110
0.54
151
0.37
211
0.44
211
0.62
174
0.59
159
0.83
184
0.77
185
HSMtwo views0.54
150
0.49
167
0.47
191
0.48
178
0.47
196
0.41
151
0.37
178
0.71
202
0.37
178
0.61
171
0.65
198
0.59
139
0.48
210
0.31
180
0.70
165
0.48
136
0.64
200
0.47
159
0.75
158
0.48
180
0.63
162
0.49
129
0.26
172
0.42
202
0.62
174
0.72
180
0.87
195
0.67
159
sCroCo_RVCtwo views0.58
165
0.42
113
0.29
108
0.28
96
0.29
120
0.39
143
0.22
121
0.60
130
0.41
193
0.53
123
0.43
125
0.48
98
0.50
212
0.24
124
0.75
174
0.99
267
0.75
235
0.63
233
1.02
188
0.56
203
1.10
243
1.36
252
0.28
179
0.39
193
0.63
178
0.63
164
0.93
204
0.64
152
PS-NSSStwo views0.60
173
0.81
256
0.44
182
0.89
249
0.54
213
0.71
234
0.63
232
0.64
165
0.38
183
0.64
194
0.41
122
1.52
255
0.47
207
0.41
212
0.59
119
0.42
87
0.52
118
0.45
141
0.94
182
0.42
162
0.44
72
0.29
54
0.36
206
0.34
172
0.63
178
0.69
172
0.70
147
0.80
189
XPNet_ROBtwo views0.74
200
0.77
248
0.57
217
0.54
198
0.61
226
0.63
219
0.61
228
0.53
93
0.65
237
0.58
156
0.81
233
2.35
270
0.46
205
0.43
225
0.79
180
0.63
196
0.85
250
0.57
216
0.83
168
0.55
198
0.72
189
1.09
233
0.45
226
0.49
228
0.63
178
0.74
183
1.39
268
0.86
197
PA-Nettwo views0.64
177
0.67
237
0.66
238
0.50
183
0.66
239
0.50
183
0.64
234
0.65
172
0.73
243
0.54
124
0.52
156
0.58
134
0.58
230
0.59
265
0.93
217
0.57
181
0.46
80
0.54
203
0.61
124
0.54
193
0.49
100
0.66
178
0.36
206
0.52
231
0.64
181
1.24
265
0.64
125
1.32
238
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NVstereo2Dtwo views0.55
152
0.47
151
0.40
157
0.52
192
0.48
199
0.66
226
0.64
234
0.60
130
0.38
183
0.48
89
0.61
184
0.53
117
0.30
123
0.63
268
1.53
271
0.61
194
0.58
157
0.55
209
0.53
89
0.41
156
0.50
104
0.38
76
0.54
255
0.43
205
0.64
181
0.48
132
0.56
94
0.53
117
CFNet_RVCtwo views0.51
138
0.51
187
0.47
191
0.50
183
0.48
199
0.48
177
0.32
166
0.53
93
0.37
178
0.51
105
0.65
198
0.57
129
0.34
163
0.30
173
0.69
160
0.44
99
0.52
118
0.47
159
0.57
108
0.42
162
0.56
137
0.49
129
0.27
176
0.35
176
0.65
183
0.74
183
0.80
171
0.75
182
MIPNettwo views0.51
138
0.51
187
0.33
123
0.32
117
0.30
127
0.37
136
0.25
139
0.62
144
0.24
77
0.50
100
0.52
156
0.61
144
0.41
191
0.30
173
1.01
236
0.51
154
0.59
171
0.50
179
0.76
161
0.47
178
0.44
72
0.85
212
0.20
119
0.26
119
0.66
184
0.98
233
0.71
151
0.61
142
FCDSN-DCtwo views0.69
188
0.61
225
0.62
228
0.66
225
0.61
226
0.59
207
0.60
223
0.68
186
0.42
200
0.75
246
0.42
124
0.57
129
0.36
175
0.50
240
2.43
316
0.67
212
0.80
243
0.76
268
0.64
127
0.56
203
0.70
186
0.60
161
0.47
229
0.83
273
0.66
184
0.74
183
0.61
115
0.67
159
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FADNet_RVCtwo views0.92
228
0.69
240
0.55
214
0.88
248
0.75
257
0.54
197
0.51
203
0.77
231
0.54
220
0.70
232
0.96
248
1.36
248
1.06
254
0.54
250
1.85
289
0.64
202
0.80
243
0.90
281
3.34
273
0.76
256
1.00
233
1.13
237
0.37
211
0.60
245
0.66
184
0.87
210
0.97
214
1.14
228
ADCP+two views0.92
228
0.59
218
0.62
228
0.44
172
0.45
189
0.55
199
0.85
257
0.65
172
1.81
300
0.48
89
1.10
259
1.62
259
0.33
151
0.42
222
1.03
237
0.52
162
0.52
118
0.48
165
1.19
200
0.38
134
0.58
151
0.60
161
0.32
197
0.30
141
0.66
184
3.45
323
0.77
164
4.14
303
FSDtwo views0.53
202
0.53
207
0.53
195
0.53
209
0.52
189
0.53
206
0.75
222
0.40
188
0.80
259
0.59
174
0.55
253
0.62
135
0.64
202
0.66
133
0.55
198
0.52
231
0.68
188
0.62
163
0.69
141
0.70
172
DDVStwo views2.32
282
0.70
241
0.82
256
0.70
230
0.74
255
0.73
236
0.59
219
1.09
277
0.88
259
0.80
259
34.26
342
3.93
295
1.16
261
0.52
246
1.09
245
1.35
299
0.73
232
0.65
241
1.95
233
0.95
273
1.67
269
2.27
286
0.48
234
0.56
238
0.69
189
0.84
206
1.21
248
1.35
239
ccs_robtwo views1.25
253
0.79
252
0.64
234
0.86
246
0.60
225
0.89
253
0.83
256
0.99
265
0.51
215
0.77
251
6.27
326
5.90
306
1.10
258
0.51
242
1.08
243
1.10
280
0.68
215
0.66
243
1.15
198
0.70
252
1.56
263
1.66
271
0.50
240
0.54
235
0.69
189
0.78
194
0.86
193
1.20
233
MLCVtwo views0.70
191
0.49
167
0.53
207
0.73
235
0.50
204
0.65
223
0.43
191
0.81
242
0.41
193
0.71
235
0.88
240
1.01
223
0.81
247
0.28
163
0.92
215
0.43
94
0.65
204
0.52
193
2.47
252
0.45
169
0.55
132
0.72
195
0.39
217
0.54
235
0.69
189
0.80
199
0.83
184
0.72
176
GANet-ADLtwo views0.70
191
0.59
218
0.52
205
0.60
211
0.57
220
0.61
213
0.46
195
0.68
186
0.52
216
0.65
199
0.67
208
0.76
187
0.43
196
0.39
206
1.08
243
0.79
237
0.68
215
0.52
193
1.84
229
0.64
239
0.66
173
0.86
214
0.42
223
0.43
205
0.70
192
0.87
210
0.97
214
0.89
201
s12784htwo views0.62
174
0.68
239
0.47
191
0.65
223
0.44
188
0.34
125
0.24
134
0.61
137
0.31
140
0.60
167
0.44
128
0.81
194
0.55
222
0.25
140
0.62
135
0.50
147
0.62
192
0.38
94
0.74
157
0.36
124
1.26
252
0.47
122
0.18
95
0.30
141
0.70
192
0.74
183
1.39
268
2.07
264
psm_uptwo views0.56
159
0.51
187
0.53
207
0.56
202
0.45
189
0.58
206
0.35
172
0.71
202
0.66
239
0.55
131
0.53
160
0.59
139
0.50
212
0.40
209
0.63
139
0.50
147
0.59
171
0.49
173
0.84
171
0.46
174
0.51
110
0.45
112
0.31
192
0.51
229
0.70
192
0.78
194
0.80
171
0.67
159
IPLGRtwo views0.57
163
0.55
206
0.37
141
0.43
167
0.38
167
0.36
134
0.23
131
0.62
144
0.30
122
0.56
140
0.68
211
0.61
144
0.32
145
0.29
170
1.73
283
0.47
130
0.56
144
0.56
211
1.09
191
0.54
193
0.53
127
0.81
209
0.20
119
0.32
154
0.71
195
0.97
232
0.73
155
0.57
130
R-Stereo Traintwo views0.66
179
0.55
206
0.43
174
0.48
178
0.36
154
0.50
183
0.18
96
0.62
144
0.31
140
0.68
221
0.62
189
0.72
172
0.34
163
0.25
140
0.69
160
0.89
245
0.66
207
0.51
186
2.12
237
0.46
174
0.94
224
1.49
262
0.22
142
0.36
183
0.71
195
0.96
227
0.77
164
1.10
222
RAFT-Stereopermissivetwo views0.66
179
0.55
206
0.43
174
0.48
178
0.36
154
0.50
183
0.18
96
0.62
144
0.31
140
0.68
221
0.62
189
0.72
172
0.34
163
0.25
140
0.69
160
0.89
245
0.66
207
0.51
186
2.12
237
0.46
174
0.94
224
1.49
262
0.22
142
0.36
183
0.71
195
0.96
227
0.77
164
1.10
222
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
Sa-1000two views0.48
131
0.47
151
0.21
74
0.26
88
0.26
98
0.31
108
0.15
79
0.65
172
0.36
168
0.63
187
0.33
96
0.50
108
0.26
99
0.30
173
0.94
221
0.49
143
0.59
171
0.45
141
0.90
176
0.32
97
0.52
120
0.75
198
0.17
83
0.27
122
0.72
198
0.53
147
1.00
223
0.49
100
UDGNettwo views0.67
182
0.66
235
0.42
169
1.35
278
1.02
274
1.21
274
0.91
263
0.60
130
0.41
193
0.52
112
0.60
177
0.56
127
0.23
88
1.19
296
0.66
149
0.45
110
0.56
144
0.51
186
0.73
151
0.53
187
0.64
169
0.67
183
0.79
274
0.29
133
0.72
198
0.55
153
0.63
121
0.66
155
DDUNettwo views1.38
258
2.18
298
0.79
252
2.67
295
2.43
305
2.57
296
2.52
297
0.80
237
0.84
256
0.63
187
0.94
245
1.57
258
0.45
202
2.65
310
0.94
221
0.78
234
1.99
301
0.75
265
2.31
243
0.91
272
1.16
246
0.97
223
2.71
308
0.56
238
0.72
198
0.71
177
0.97
214
0.85
195
FADNettwo views0.65
178
0.55
206
0.41
166
0.53
195
0.42
183
0.49
179
0.65
239
0.74
218
0.42
200
0.66
209
0.64
193
0.81
194
0.50
212
0.36
200
1.17
252
0.51
154
0.51
114
0.53
197
1.61
221
0.53
187
0.69
183
0.59
157
0.35
205
0.41
199
0.72
198
0.88
212
0.78
169
1.06
216
iResNettwo views0.92
228
0.56
211
0.62
228
0.72
233
0.68
240
0.96
256
0.55
212
0.95
258
0.57
227
0.67
218
0.82
238
1.41
250
1.51
272
0.31
180
1.49
270
0.66
211
0.75
235
0.67
245
4.08
280
0.68
248
0.72
189
0.63
169
0.41
220
0.83
273
0.72
198
0.91
218
1.02
225
0.87
199
PSMNet-ADLtwo views0.96
237
0.62
228
0.66
238
0.67
226
0.70
248
0.66
226
0.58
218
0.74
218
0.60
231
0.85
270
5.03
314
0.95
217
1.26
265
0.45
230
0.89
209
1.03
272
0.68
215
0.54
203
2.03
235
0.68
248
0.84
209
0.79
208
0.54
255
0.47
221
0.73
203
0.95
224
1.32
261
0.63
150
LALA_ROBtwo views0.86
224
0.97
275
0.67
241
0.63
218
0.69
242
0.83
247
0.67
242
0.70
199
0.80
251
0.68
221
1.10
259
2.61
273
0.58
230
0.51
242
1.11
246
0.67
212
0.86
251
0.72
258
0.89
175
0.67
246
0.80
201
1.00
227
0.49
236
0.59
243
0.73
203
0.92
219
1.16
241
1.10
222
DCVSM-stereotwo views1.13
248
0.66
235
0.79
252
0.89
249
0.65
234
1.15
270
0.73
248
0.95
258
0.82
255
1.04
286
4.18
308
3.75
293
1.45
270
0.49
236
0.83
190
0.86
243
0.69
221
0.60
229
2.08
236
0.87
269
1.06
240
0.77
203
0.84
279
0.72
260
0.74
205
0.89
214
0.98
217
1.09
218
ACV-stereotwo views8.39
327
1.01
279
0.97
267
1.29
276
0.73
251
1.48
285
0.95
268
0.88
254
1.10
277
1.07
287
1.33
271
1.06
230
23.12
329
0.52
246
4.00
324
3.78
326
1.05
273
0.79
274
168.94
347
1.91
316
3.64
312
1.44
256
0.72
269
0.74
264
0.74
205
0.90
216
1.43
275
1.03
214
UDGtwo views1.35
257
2.24
300
0.81
254
2.58
292
2.45
306
2.48
295
2.57
298
0.76
226
0.86
257
0.77
251
1.08
256
1.51
253
0.56
224
2.59
306
1.06
240
0.69
216
1.89
299
0.80
276
2.31
243
0.97
276
1.24
251
0.98
224
1.43
300
0.62
248
0.74
205
0.81
201
0.95
208
0.81
191
Anonymous3two views0.79
216
0.59
218
0.42
169
0.37
141
0.42
183
0.57
203
0.50
202
0.80
237
0.64
236
0.68
221
0.49
142
1.48
251
0.54
220
0.31
180
1.53
271
1.42
308
0.88
256
0.82
277
1.45
211
0.69
251
1.31
255
1.30
249
0.40
218
0.40
196
0.74
205
0.86
207
1.03
227
0.71
174
MSMDNettwo views0.73
195
0.52
196
0.48
194
0.35
135
0.34
146
0.45
168
0.33
169
0.69
193
0.30
122
0.63
187
0.60
177
0.71
170
0.35
170
0.23
113
0.78
176
1.05
274
0.63
197
0.50
179
2.88
265
0.81
264
1.59
265
1.80
277
0.23
152
0.29
133
0.74
205
0.89
214
0.85
188
0.76
184
gcap-zeroshottwo views1.75
272
0.44
124
0.89
262
0.59
208
0.36
154
0.55
199
0.29
157
0.74
218
0.29
113
0.74
242
0.76
225
1.18
240
0.33
151
0.24
124
0.78
176
0.97
260
0.61
186
0.53
197
29.80
331
0.80
260
1.04
236
1.45
258
0.23
152
0.34
172
0.75
210
0.99
235
0.96
211
0.75
182
SACVNettwo views0.62
174
0.53
202
0.51
204
0.55
201
0.57
220
0.52
189
0.60
223
0.69
193
0.56
226
0.67
218
0.54
166
0.59
139
0.37
179
0.41
212
0.71
169
0.60
191
0.64
200
0.57
216
0.95
183
0.64
239
0.67
177
0.78
206
0.36
206
0.47
221
0.75
210
0.77
193
0.84
186
0.84
194
pcwnet_v2two views0.62
174
0.46
144
0.50
200
0.62
216
0.49
203
0.61
213
0.46
195
0.66
176
0.45
205
0.65
199
0.79
228
0.64
154
0.86
250
0.53
249
1.15
250
0.55
174
0.59
171
0.51
186
0.83
168
0.41
156
0.55
132
0.47
122
0.34
201
0.43
205
0.75
210
0.76
190
0.85
188
0.95
204
NCC-stereotwo views0.67
182
0.63
229
0.59
220
0.64
220
0.65
234
0.63
219
0.69
245
0.67
179
0.74
246
0.43
68
0.81
233
0.82
196
0.70
241
0.47
233
0.82
188
0.53
164
0.58
157
0.64
237
0.80
165
0.54
193
0.56
137
0.60
161
0.53
251
0.45
216
0.75
210
0.96
227
0.92
202
0.98
208
Abc-Nettwo views0.67
182
0.63
229
0.59
220
0.64
220
0.65
234
0.63
219
0.69
245
0.67
179
0.74
246
0.43
68
0.81
233
0.82
196
0.70
241
0.47
233
0.82
188
0.53
164
0.58
157
0.64
237
0.80
165
0.54
193
0.56
137
0.60
161
0.53
251
0.45
216
0.75
210
0.96
227
0.92
202
0.98
208
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
ADCReftwo views1.01
241
0.65
232
0.48
194
0.39
147
0.47
196
0.65
223
0.68
244
0.61
137
1.08
275
0.52
112
0.64
193
0.75
179
0.43
196
0.38
205
1.56
273
0.72
222
0.61
186
0.59
226
1.53
216
0.58
211
0.66
173
0.71
191
0.50
240
0.43
205
0.75
210
1.25
268
0.82
177
8.96
324
DLNR_Zeroshot_testpermissivetwo views17.86
334
67.45
348
1.21
286
81.91
348
0.35
150
0.45
168
74.74
348
0.76
226
0.27
99
0.69
229
0.60
177
1.16
238
0.29
113
8.20
336
84.48
348
102.07
348
23.88
340
15.14
336
7.31
298
0.50
181
4.38
319
2.51
290
0.18
95
0.43
205
0.76
216
0.86
207
0.80
171
0.80
189
MyStereo04two views0.68
187
0.52
196
0.57
217
0.44
172
0.37
161
0.35
131
0.26
143
0.68
186
0.45
205
0.62
181
0.45
131
0.68
162
0.34
163
0.25
140
1.00
233
0.68
215
0.56
144
0.53
197
3.39
274
0.56
203
0.92
217
0.64
173
0.27
176
0.41
199
0.77
217
0.92
219
0.96
211
0.66
155
UCFNet_RVCtwo views0.56
159
0.78
250
0.45
186
0.59
208
0.55
216
0.52
189
0.39
184
0.58
117
0.40
188
0.59
161
0.60
177
0.82
196
0.45
202
0.32
187
0.70
165
0.42
87
0.50
103
0.50
179
0.67
137
0.45
169
0.56
137
0.47
122
0.38
213
0.41
199
0.77
217
0.71
177
0.65
129
0.86
197
TRStereotwo views0.75
201
0.83
261
1.19
284
0.56
202
0.34
146
1.42
283
0.48
198
0.68
186
0.28
106
0.65
199
0.46
135
1.10
234
0.27
106
0.22
100
0.70
165
0.85
242
0.57
153
0.48
165
1.85
230
0.50
181
0.73
192
0.87
215
0.18
95
0.27
122
0.78
219
1.22
264
1.78
290
1.09
218
EAI-Stereotwo views0.75
201
0.49
167
0.50
200
0.51
189
0.46
192
0.56
202
0.60
223
0.73
213
0.32
148
0.63
187
0.72
218
0.82
196
0.26
99
0.24
124
1.05
238
0.96
258
0.60
178
0.49
173
3.00
268
0.62
233
0.82
204
1.13
237
0.19
103
0.31
149
0.78
219
0.70
176
1.55
280
1.17
230
ETE_ROBtwo views0.87
225
0.90
268
0.58
219
0.67
226
0.69
242
0.85
248
0.60
223
0.66
176
0.89
262
0.64
194
1.09
257
2.63
274
0.54
220
0.54
250
1.00
233
0.72
222
0.91
260
0.63
233
0.99
187
0.66
242
0.88
212
1.08
232
0.50
240
0.59
243
0.78
219
0.92
219
1.48
278
1.17
230
AE-Stereotwo views0.54
150
0.48
164
0.44
182
0.50
183
0.35
150
0.36
134
0.28
150
0.55
105
0.29
113
0.64
194
0.31
87
0.89
209
0.31
136
0.24
124
0.55
105
0.65
209
0.68
215
0.52
193
0.87
173
0.53
187
0.72
189
0.81
209
0.21
128
0.47
221
0.79
222
0.69
172
0.94
206
0.62
146
LoStwo views0.55
152
0.44
124
0.29
108
0.36
140
0.37
161
0.40
149
0.20
114
1.37
289
0.31
140
0.86
271
0.78
227
0.68
162
0.37
179
0.24
124
0.58
115
0.72
222
0.59
171
0.40
108
0.75
158
0.35
122
1.03
235
0.65
175
0.21
128
0.24
102
0.79
222
0.64
167
0.64
125
0.68
164
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
GwcNet-ADLtwo views0.97
239
0.83
261
0.81
254
0.91
252
0.68
240
0.70
232
0.53
206
0.77
231
0.50
213
0.72
238
5.46
317
1.20
241
0.65
238
0.46
232
0.81
185
0.95
255
0.72
231
0.56
211
1.26
204
0.71
253
0.67
177
0.78
206
0.59
262
0.56
238
0.79
222
0.98
233
0.85
188
1.75
257
PMTNettwo views0.48
131
0.48
164
0.43
174
0.31
115
0.30
127
0.27
91
0.22
121
0.54
98
0.29
113
0.57
144
0.39
117
0.59
139
0.23
88
0.23
113
0.64
145
0.59
189
0.57
153
0.37
90
1.17
199
0.33
99
0.67
177
0.40
85
0.20
119
0.21
67
0.79
222
0.59
159
0.65
129
0.92
203
RAFT-Testtwo views0.72
194
0.50
182
0.46
187
0.52
192
0.34
146
0.41
151
0.29
157
0.73
213
0.30
122
0.62
181
0.72
218
0.68
162
0.31
136
0.22
100
0.71
169
1.03
272
0.62
192
0.50
179
2.89
266
0.66
242
1.72
270
1.14
239
0.23
152
0.29
133
0.80
226
0.96
227
0.95
208
0.91
202
test-1two views0.84
220
0.34
67
0.50
200
0.37
141
0.40
174
0.60
209
0.37
178
0.73
213
0.38
183
0.68
221
0.71
213
1.08
231
0.40
188
0.25
140
0.79
180
0.91
249
0.63
197
0.58
221
2.22
241
0.58
211
1.17
247
3.78
307
0.22
142
0.36
183
0.81
227
1.15
258
1.10
235
1.59
248
RGCtwo views0.76
205
0.72
244
0.99
269
0.70
230
0.71
249
0.76
244
0.57
217
0.74
218
0.74
246
0.56
140
0.96
248
0.83
200
0.85
249
0.56
255
0.93
217
0.60
191
0.62
192
0.56
211
0.93
179
0.61
229
0.66
173
0.71
191
0.51
248
0.56
238
0.81
227
1.01
240
0.99
218
1.19
232
PWC_ROBbinarytwo views1.18
250
0.70
241
1.06
277
0.60
211
0.71
249
0.70
232
0.98
270
0.83
246
1.55
295
0.76
249
1.40
274
1.00
220
2.46
290
0.57
260
2.17
302
0.99
267
1.15
276
0.90
281
2.37
247
0.95
273
1.63
267
2.05
281
0.44
225
0.98
285
0.81
227
0.80
199
1.24
253
2.15
267
HBP-ISPtwo views1.60
265
0.86
267
0.90
263
0.98
258
0.69
242
0.85
248
0.56
214
0.89
255
0.48
211
0.82
265
0.79
228
0.97
218
0.36
175
0.69
275
11.97
335
5.83
331
0.70
223
0.67
245
0.70
146
0.62
233
1.05
238
5.90
323
0.50
240
0.62
248
0.82
230
1.01
240
2.01
296
1.06
216
cross-rafttwo views0.73
195
0.56
211
0.46
187
0.43
167
0.33
137
0.40
149
0.27
145
0.73
213
0.33
153
0.65
199
0.60
177
0.74
178
0.30
123
0.23
113
0.76
175
0.96
258
0.63
197
0.48
165
2.91
267
0.59
215
1.81
276
1.31
250
0.22
142
0.32
154
0.82
230
0.94
223
0.93
204
1.01
212
HHtwo views0.84
220
0.34
67
0.99
269
0.42
162
0.36
154
0.51
186
0.42
189
0.69
193
0.34
158
0.65
199
0.38
111
1.03
225
0.26
99
0.28
163
0.66
149
1.37
302
0.61
186
0.53
197
2.39
248
0.60
220
3.55
310
1.64
269
0.25
163
0.33
168
0.83
232
1.05
247
1.09
232
1.12
225
HanStereotwo views0.84
220
0.34
67
0.99
269
0.42
162
0.36
154
0.51
186
0.42
189
0.69
193
0.34
158
0.65
199
0.38
111
1.03
225
0.26
99
0.28
163
0.66
149
1.37
302
0.61
186
0.53
197
2.39
248
0.60
220
3.55
310
1.64
269
0.25
163
0.33
168
0.83
232
1.05
247
1.09
232
1.12
225
CC-Net-ROBtwo views0.96
237
1.18
286
0.70
244
1.56
285
1.06
276
1.63
289
1.20
279
0.79
235
0.61
232
0.81
262
0.56
169
3.07
282
0.57
228
0.85
286
0.68
158
0.44
99
0.71
229
0.63
233
1.40
210
0.57
208
0.58
151
0.43
102
1.91
304
0.46
218
0.83
232
0.83
205
0.77
164
1.20
233
NaN_ROBtwo views0.73
195
0.59
218
0.61
227
0.64
220
0.78
259
0.53
193
0.48
198
0.87
251
0.63
235
0.73
241
0.61
184
1.96
265
0.62
233
0.45
230
0.84
194
0.55
174
0.56
144
0.54
203
0.73
151
0.55
198
0.52
120
0.51
141
0.38
213
0.64
251
0.83
232
1.11
254
0.94
206
1.64
252
model_zeroshottwo views0.80
219
0.46
144
0.42
169
0.42
162
0.39
169
0.43
160
0.27
145
0.72
209
0.36
168
0.64
194
0.66
201
0.97
218
0.29
113
0.24
124
1.05
238
0.92
250
0.69
221
0.54
203
3.03
269
0.73
255
1.21
249
1.20
244
0.22
142
0.38
191
0.84
236
1.14
257
1.08
230
2.21
270
CASStwo views0.79
216
0.55
206
0.53
207
0.65
223
0.54
213
0.59
207
0.53
206
0.78
234
0.52
216
0.71
235
0.75
224
0.67
160
0.47
207
0.28
163
0.83
190
0.67
212
0.98
268
0.56
211
1.60
220
0.58
211
2.74
291
1.44
256
0.38
213
0.35
176
0.84
236
0.81
201
0.90
198
1.02
213
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
S-Stereotwo views1.54
262
0.81
256
0.83
257
1.15
267
1.16
282
1.29
279
1.56
285
1.02
270
1.09
276
1.25
299
4.20
309
4.10
298
1.10
258
0.66
271
2.16
301
1.63
313
0.90
259
1.05
294
2.20
240
1.10
286
1.26
252
3.12
299
1.31
299
1.17
300
0.84
236
1.18
260
1.21
248
2.18
268
FAT-Stereotwo views1.57
264
0.78
250
1.44
299
1.10
263
1.32
289
1.05
264
0.87
260
1.28
282
0.86
257
1.21
296
5.46
317
3.07
282
1.28
266
0.66
271
1.73
283
1.34
296
0.89
258
0.94
287
1.83
228
1.08
284
2.02
278
3.90
308
0.71
268
0.98
285
0.86
239
1.21
263
1.42
274
3.03
289
NOSS_ROBtwo views0.76
205
0.84
265
0.50
200
0.72
233
0.61
226
0.75
241
0.52
205
0.80
237
0.54
220
0.70
232
0.62
189
0.62
152
0.86
250
0.62
266
1.14
249
1.10
280
0.78
238
0.69
254
0.73
151
0.60
220
0.88
212
0.67
183
0.50
240
0.71
257
0.86
239
0.95
224
1.38
267
0.85
195
GANetREF_RVCpermissivetwo views0.77
213
0.74
247
0.68
243
0.76
239
0.65
234
0.69
231
0.60
223
0.99
265
0.73
243
0.93
276
0.52
156
1.33
247
0.72
243
0.44
228
0.85
198
0.57
181
0.67
213
0.63
233
1.13
197
0.61
229
0.77
197
0.63
169
0.59
262
0.71
257
0.89
241
0.90
216
1.15
238
0.99
210
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
SGM-Foresttwo views0.73
195
0.71
243
0.40
157
1.13
265
0.64
233
0.74
240
0.45
193
0.68
186
0.39
186
0.61
171
0.44
128
1.16
238
1.06
254
0.49
236
0.86
200
0.61
194
0.55
138
0.46
153
0.68
139
0.44
167
0.61
157
0.49
129
0.45
226
0.44
211
0.90
242
0.86
207
1.95
294
1.47
243
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
AIO-Stereo-zeroshot1permissivetwo views5.67
316
0.56
211
1.25
291
0.75
236
0.69
242
1.17
271
0.81
253
0.82
245
0.80
251
0.81
262
4.78
311
1.00
220
0.37
179
0.27
160
1.13
248
1.54
311
0.70
223
0.60
229
124.50
346
0.54
193
1.43
260
2.64
292
0.22
142
0.36
183
0.91
243
1.13
256
1.13
237
2.18
268
SHDtwo views0.97
239
0.56
211
0.73
247
0.75
236
0.69
242
0.66
226
0.61
228
0.99
265
0.94
269
0.77
251
1.00
251
0.94
213
1.29
267
0.54
250
2.21
304
0.98
263
0.95
265
0.70
255
2.01
234
0.80
260
1.12
244
1.71
273
0.47
229
0.77
269
0.91
243
1.01
240
0.91
199
1.22
235
iRaft-Stereo_20wtwo views1.06
244
0.49
167
1.34
297
1.18
270
0.46
192
0.78
245
0.46
195
0.76
226
0.37
178
0.74
242
6.16
324
0.84
202
0.29
113
0.26
151
0.81
185
0.97
260
0.59
171
0.44
131
1.72
223
0.61
229
1.04
236
1.56
266
0.21
128
0.25
113
0.92
245
1.31
274
1.45
276
2.71
282
EKT-Stereotwo views0.75
201
0.64
231
0.54
211
0.59
208
0.47
196
0.60
209
0.73
248
0.71
202
0.29
113
0.63
187
0.66
201
0.73
175
0.30
123
0.26
151
0.86
200
1.22
294
0.68
215
0.76
268
1.46
212
0.60
220
1.75
273
1.74
275
0.21
128
0.32
154
0.93
246
0.81
201
1.06
228
0.72
176
DAStwo views0.95
234
0.61
225
0.48
194
0.78
242
0.61
226
0.68
229
0.59
219
0.84
248
0.93
266
0.65
199
1.58
279
1.66
260
1.06
254
0.34
192
0.95
223
0.92
250
0.92
262
0.73
261
1.77
225
1.03
281
1.73
271
1.11
234
0.47
229
0.92
279
0.93
246
1.00
237
1.39
268
0.96
205
SepStereotwo views0.95
234
0.61
225
0.48
194
0.78
242
0.61
226
0.68
229
0.59
219
0.84
248
0.93
266
0.65
199
1.58
279
1.66
260
1.06
254
0.34
192
0.95
223
0.92
250
0.92
262
0.73
261
1.77
225
1.03
281
1.73
271
1.11
234
0.47
229
0.92
279
0.93
246
1.00
237
1.39
268
0.96
205
SFCPSMtwo views3.03
299
0.82
259
0.63
232
0.77
240
0.69
242
0.72
235
0.63
232
0.83
246
0.98
272
0.71
235
2.00
292
2.57
271
3.49
296
0.56
255
1.16
251
0.93
254
0.74
233
0.64
237
54.48
343
1.19
293
0.88
212
0.91
219
0.55
257
0.55
237
0.94
249
0.93
222
1.11
236
1.39
240
HSM-Net_RVCpermissivetwo views0.75
201
0.53
202
0.60
225
0.77
240
0.62
232
0.61
213
0.37
178
0.76
226
0.49
212
0.74
242
1.71
285
1.32
246
0.80
246
0.36
200
0.72
172
0.55
174
0.64
200
0.53
197
0.78
163
0.53
187
0.67
177
0.89
218
0.43
224
0.64
251
0.94
249
1.09
251
1.07
229
1.04
215
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
ITSA-stereotwo views1.12
247
0.72
244
0.59
220
1.20
272
0.84
262
0.64
222
0.64
234
0.95
258
0.78
249
0.84
268
2.54
297
1.39
249
1.23
263
0.81
283
1.20
253
1.01
269
0.83
248
0.67
245
1.56
217
0.62
233
1.08
242
1.46
259
0.56
259
0.71
257
0.95
251
1.27
270
0.99
218
4.08
302
MaskLacGwcNet_RVCtwo views8.29
325
0.65
232
1.07
279
0.94
257
0.83
261
0.81
246
1.27
281
0.85
250
0.73
243
0.93
276
6.13
323
180.62
347
2.17
282
1.33
300
1.22
254
1.01
269
0.93
264
1.06
295
6.32
296
0.79
259
3.32
308
3.77
306
0.55
257
0.76
266
0.95
251
1.34
279
1.19
246
2.42
277
MSKI-zero shottwo views0.84
220
0.49
167
0.43
174
0.41
158
0.35
150
0.46
174
0.32
166
0.76
226
0.30
122
0.65
199
0.92
244
0.83
200
0.32
145
0.22
100
0.62
135
1.08
277
0.64
200
0.47
159
3.14
272
0.61
229
2.23
283
1.58
267
0.20
119
0.38
191
0.96
253
1.47
283
1.24
253
1.60
249
DLCB_ROBtwo views0.53
145
0.50
182
0.48
194
0.41
158
0.45
189
0.43
160
0.39
184
0.55
105
0.45
205
0.57
144
0.61
184
0.70
168
0.52
217
0.41
212
0.60
125
0.47
130
0.57
153
0.48
165
0.52
81
0.43
166
0.55
132
0.47
122
0.38
213
0.42
202
0.96
253
0.79
198
0.70
147
0.62
146
SQANettwo views1.90
276
2.70
305
1.03
274
3.09
302
2.17
300
3.29
301
2.70
300
0.95
258
0.65
237
1.00
284
0.71
213
2.69
276
1.10
258
2.30
305
0.78
176
0.55
174
1.02
270
0.72
258
9.92
310
0.68
248
2.11
280
1.25
246
3.28
309
0.58
242
0.98
255
1.31
274
1.33
262
2.34
272
NCCL2two views0.69
188
0.73
246
0.66
238
0.57
204
0.56
217
0.51
186
0.45
193
0.70
199
0.57
227
0.68
221
0.71
213
0.66
158
0.48
210
0.39
206
0.93
217
0.72
222
0.65
204
0.57
216
0.76
161
0.57
208
0.74
194
0.88
216
0.49
236
0.60
245
0.98
255
0.95
224
0.85
188
1.16
229
CSANtwo views0.93
231
0.83
261
0.75
249
0.86
246
0.82
260
0.73
236
0.61
228
0.97
264
0.94
269
0.94
280
0.73
223
1.96
265
1.56
273
0.49
236
0.98
229
0.63
196
0.74
233
0.66
243
1.09
191
0.71
253
0.78
198
0.63
169
0.53
251
0.76
266
0.98
255
1.49
287
1.21
248
1.63
251
Any-RAFTtwo views0.69
188
0.47
151
0.85
258
0.53
195
0.40
174
0.38
141
0.27
145
0.64
165
0.32
148
0.57
144
0.76
225
0.86
207
0.24
95
0.22
100
0.57
111
0.76
229
0.60
178
0.45
141
2.19
239
0.45
169
1.20
248
0.71
191
0.22
142
0.31
149
0.99
258
1.24
265
0.73
155
1.65
253
FBW_ROBtwo views1.34
256
1.42
292
1.08
280
2.01
291
1.42
292
1.37
282
1.63
287
0.99
265
0.70
241
0.72
238
1.02
253
2.05
268
0.91
252
1.47
301
1.24
255
0.60
191
0.88
256
0.65
241
6.08
293
0.59
215
1.06
240
0.81
209
1.48
301
1.12
296
0.99
258
1.20
261
0.99
218
1.66
254
CBMVpermissivetwo views1.15
249
0.84
265
0.60
225
0.85
245
0.76
258
0.73
236
0.48
198
0.87
251
0.80
251
0.81
262
0.61
184
2.86
277
0.81
247
0.52
246
1.31
259
1.17
289
0.91
260
0.74
263
2.40
250
0.66
242
1.57
264
0.76
201
0.48
234
1.06
290
0.99
258
1.09
251
2.25
298
4.25
304
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
IGEV-FEtwo views0.94
232
0.47
151
1.24
289
1.15
267
0.46
192
0.60
209
0.65
239
0.81
242
0.36
168
0.67
218
1.75
286
0.94
213
0.30
123
0.26
151
0.66
149
1.14
284
0.60
178
0.48
165
2.55
254
0.63
237
2.19
281
2.33
287
0.21
128
0.37
188
1.00
261
1.03
245
1.17
243
1.48
245
IGEV_Zeroshot_testtwo views0.95
234
0.47
151
1.24
289
1.15
267
0.46
192
0.60
209
0.65
239
0.81
242
0.36
168
0.66
209
1.86
290
0.94
213
0.30
123
0.26
151
0.66
149
1.14
284
0.60
178
0.48
165
2.56
255
0.63
237
2.23
283
2.36
288
0.21
128
0.37
188
1.00
261
1.03
245
1.17
243
1.48
245
anonymitytwo views3.27
303
0.41
106
1.09
281
0.58
205
0.41
180
0.47
175
0.30
164
0.79
235
0.33
153
0.61
171
69.49
346
0.85
203
0.30
123
0.24
124
0.59
119
1.02
271
0.60
178
0.43
126
1.35
208
0.60
220
0.73
192
1.82
278
0.24
160
0.29
133
1.00
261
1.24
265
1.08
230
1.47
243
DGSMNettwo views2.66
291
0.96
273
1.36
298
1.03
260
0.99
270
1.12
269
1.05
272
1.36
288
0.94
269
2.15
327
13.54
338
1.71
262
1.85
278
0.93
291
2.50
317
3.85
328
5.34
320
1.61
320
5.07
284
1.68
313
7.04
329
8.02
330
0.96
288
1.19
301
1.01
264
1.33
277
1.40
272
1.88
258
ADCMidtwo views1.56
263
0.92
272
0.99
269
0.70
230
0.86
263
1.05
264
1.37
283
1.29
283
1.77
299
0.75
246
1.75
286
1.27
242
1.48
271
0.69
275
2.18
303
1.07
276
0.98
268
0.79
274
2.74
262
0.80
260
1.31
255
1.74
275
1.06
289
0.70
256
1.01
264
1.53
289
1.02
225
10.33
325
AMNettwo views1.02
242
0.98
276
0.95
265
0.98
258
1.01
271
1.03
261
0.96
269
0.87
251
0.93
266
0.97
282
1.02
253
1.10
234
0.74
244
1.06
294
0.99
232
1.09
279
1.17
277
1.04
293
1.08
190
1.05
283
1.13
245
1.04
230
0.82
278
0.98
285
1.01
264
1.07
249
1.20
247
1.27
237
AIO-Stereo-zeroshotpermissivetwo views1.21
251
0.49
167
1.28
294
0.75
236
0.41
180
1.04
263
0.67
242
0.77
231
0.52
216
0.78
255
5.67
320
1.03
225
0.35
170
0.26
151
0.86
200
1.39
306
0.68
215
0.70
255
2.61
259
0.64
239
2.89
295
2.21
284
0.19
103
0.43
205
1.03
267
1.15
258
1.35
264
2.41
276
G-Nettwo views1.86
274
1.00
278
1.28
294
0.89
249
0.93
267
1.10
267
0.77
251
1.63
300
2.07
306
0.99
283
2.89
300
7.30
316
1.67
277
0.55
253
1.45
265
1.75
316
1.04
271
0.93
286
2.87
264
2.72
327
1.89
277
1.47
260
0.80
276
1.02
289
1.06
268
1.71
294
2.82
315
5.60
311
STTRV1_RVCtwo views0.81
256
0.64
234
1.04
261
0.73
251
1.03
261
0.85
257
0.91
256
0.92
264
0.93
276
0.95
247
1.72
263
2.23
283
0.86
287
1.46
268
0.78
234
1.37
284
0.72
258
1.97
317
1.59
265
1.23
245
0.97
283
1.07
269
1.11
254
1.75
289
3.40
295
pmcnntwo views1.66
268
0.80
255
0.52
205
1.19
271
1.01
271
1.21
274
0.93
265
0.96
263
0.54
220
0.74
242
2.66
299
3.98
297
5.06
302
0.31
180
1.65
279
1.40
307
1.20
280
0.91
284
3.99
278
0.95
273
4.45
320
1.02
229
0.90
282
0.90
278
1.07
269
1.01
240
2.43
305
3.03
289
XQCtwo views1.03
243
0.90
268
0.71
245
0.91
252
0.92
266
0.92
255
0.86
259
1.06
275
0.90
263
0.84
268
1.11
262
1.03
225
1.30
269
0.71
277
2.04
294
0.95
255
0.87
252
0.67
245
1.64
222
0.78
258
1.00
233
1.67
272
0.62
265
0.73
261
1.09
271
1.47
283
1.26
255
0.97
207
FC-DCNNcopylefttwo views0.88
226
0.96
273
1.23
288
1.36
280
0.93
267
1.26
278
0.82
254
0.91
256
0.78
249
0.87
272
0.63
192
1.08
231
0.42
192
0.56
255
0.88
208
0.69
216
0.81
246
0.68
251
0.81
167
0.59
215
0.78
198
0.59
157
0.50
240
0.77
269
1.11
272
0.99
235
1.21
248
1.57
247
MFMNet_retwo views1.51
261
1.18
286
1.12
283
1.29
276
1.16
282
1.63
289
1.32
282
1.30
285
1.63
296
1.14
292
1.38
273
2.64
275
1.63
276
0.90
290
2.27
309
1.35
299
1.58
290
1.32
313
3.69
275
1.24
296
2.10
279
1.26
248
1.16
290
1.24
302
1.11
272
1.02
244
1.59
282
1.60
249
otakutwo views2.33
285
3.05
315
1.19
284
3.36
309
2.37
303
3.56
306
3.08
305
1.05
272
0.98
272
1.13
289
0.80
232
2.88
278
1.62
275
2.59
306
0.95
223
0.64
202
1.23
281
0.75
265
13.16
318
1.09
285
2.47
286
2.63
291
4.75
319
0.75
265
1.13
274
1.38
280
1.69
286
2.52
279
AnyNet_C32two views1.64
267
0.65
232
0.74
248
0.67
226
0.73
251
0.86
251
1.14
274
0.95
258
3.12
322
0.75
246
1.53
278
0.94
213
0.64
237
0.67
273
1.83
288
1.11
282
1.06
275
0.95
288
1.78
227
0.76
256
1.76
274
1.71
273
0.66
267
0.85
276
1.13
274
2.68
312
1.17
243
13.55
329
dadtwo views0.89
227
0.57
216
0.37
141
1.42
281
0.65
234
0.75
241
2.23
296
1.43
291
0.36
168
0.93
276
0.38
111
0.85
203
0.76
245
0.32
187
0.97
228
0.52
162
0.78
238
0.45
141
1.87
231
0.41
156
0.74
194
0.41
88
0.30
187
0.47
221
1.15
276
0.47
127
2.64
312
1.96
263
CBMV_ROBtwo views1.71
271
0.79
252
0.65
237
1.35
278
1.07
277
1.01
259
0.74
250
1.01
269
0.54
220
0.72
238
0.81
233
9.80
325
5.90
309
0.57
260
1.42
264
0.69
216
0.80
243
0.58
221
5.38
286
1.22
294
0.95
227
0.55
155
0.53
251
0.62
248
1.22
277
1.45
282
2.72
314
2.94
286
MFN_U_SF_RVCtwo views1.68
270
1.06
281
0.88
261
1.25
274
1.01
271
1.53
286
2.07
292
1.38
290
1.17
279
1.51
312
2.95
301
2.00
267
1.57
274
2.05
304
2.38
314
0.98
263
0.87
252
0.82
277
6.78
297
1.11
288
2.21
282
2.38
289
0.65
266
1.11
295
1.23
278
1.33
277
1.28
258
1.69
256
RTStwo views1.09
245
0.59
218
0.59
220
0.60
211
0.58
223
0.96
256
0.90
261
0.80
237
0.88
259
0.59
161
0.71
213
1.28
244
0.62
233
0.51
242
2.04
294
0.98
263
1.19
278
0.77
270
2.33
245
0.85
267
0.96
228
1.16
240
0.49
236
0.65
253
1.23
278
4.43
326
1.15
238
1.45
241
RTSAtwo views1.09
245
0.59
218
0.59
220
0.60
211
0.58
223
0.96
256
0.90
261
0.80
237
0.88
259
0.59
161
0.71
213
1.28
244
0.62
233
0.51
242
2.04
294
0.98
263
1.19
278
0.77
270
2.33
245
0.85
267
0.96
228
1.16
240
0.49
236
0.65
253
1.23
278
4.43
326
1.15
238
1.45
241
Ntrotwo views2.32
282
3.40
323
1.53
301
3.55
310
2.52
308
3.71
312
3.36
307
1.11
278
1.05
274
1.16
293
0.90
242
2.93
280
1.24
264
2.72
312
1.00
233
0.64
202
1.40
286
0.82
277
10.96
313
1.14
289
2.72
290
3.19
300
4.26
315
0.73
261
1.24
281
1.59
291
1.56
281
2.31
271
ACVNet-4btwo views2.35
286
2.75
308
1.60
303
3.13
303
2.29
302
3.52
305
3.67
313
1.35
287
1.35
287
1.27
300
0.72
218
3.26
286
2.62
293
3.04
316
0.98
229
0.78
234
2.13
304
1.02
291
9.04
307
1.23
295
2.74
291
3.39
304
4.08
312
0.92
279
1.24
281
1.29
272
1.46
277
2.48
278
FC-DCNN v2copylefttwo views0.94
232
0.98
276
1.28
294
1.47
284
0.95
269
1.33
280
0.82
254
1.05
272
0.80
251
0.87
272
0.66
201
1.11
236
0.67
240
0.56
255
0.91
212
0.69
216
0.81
246
0.68
251
0.83
168
0.59
215
0.78
198
0.59
157
0.50
240
0.78
271
1.25
283
1.09
251
1.35
264
1.89
259
edge stereotwo views1.82
273
1.16
285
2.22
312
1.46
283
1.28
286
1.58
287
1.38
284
1.67
304
1.30
284
1.20
295
3.42
305
4.33
300
2.26
286
0.80
282
1.41
263
1.46
309
1.05
273
0.83
280
5.42
287
0.97
276
1.34
257
3.76
305
0.95
287
0.88
277
1.26
284
1.20
261
1.70
287
2.91
285
MonStereo1two views2.61
288
2.91
310
1.70
304
3.94
314
3.77
326
3.57
307
3.72
315
1.55
296
1.64
297
1.43
308
1.63
282
4.85
303
5.63
307
2.99
315
1.35
261
0.90
247
1.99
301
1.31
310
5.93
289
1.75
315
2.96
297
1.93
279
4.83
322
0.93
282
1.31
285
1.08
250
2.49
308
2.38
274
RainbowNettwo views2.32
282
2.93
311
1.87
308
3.34
308
2.57
309
3.50
303
3.49
310
1.29
283
0.92
264
1.53
315
0.89
241
3.18
284
2.31
287
2.94
313
1.30
258
0.90
247
1.61
293
1.00
289
5.61
288
1.51
303
2.82
294
4.18
310
4.25
314
0.97
283
1.32
286
1.58
290
1.71
288
3.00
288
SANettwo views1.61
266
0.91
271
1.10
282
1.04
261
1.05
275
1.25
277
0.77
251
1.76
307
1.81
300
0.77
251
1.24
263
6.63
310
5.08
303
0.83
284
1.56
273
0.77
231
1.24
282
0.90
281
1.58
218
0.82
265
1.05
238
1.00
227
0.90
282
1.27
303
1.32
286
1.93
298
1.88
292
3.10
291
ADCStwo views1.88
275
1.06
281
0.98
268
0.93
255
1.10
281
1.09
266
1.14
274
1.27
280
2.49
313
0.89
274
1.36
272
1.51
253
2.92
295
0.86
287
3.30
321
2.26
322
1.46
289
1.26
307
3.10
271
1.29
298
2.48
287
2.88
294
0.80
276
1.10
294
1.33
288
4.48
328
1.41
273
6.08
314
DispFullNettwo views4.17
308
3.20
317
4.34
331
2.72
296
2.46
307
2.92
298
2.70
300
2.79
326
1.90
303
4.51
337
6.62
328
8.91
321
4.83
300
2.59
306
2.00
293
8.18
334
3.24
316
1.98
323
24.96
328
2.93
329
3.99
315
3.36
303
1.71
302
1.15
298
1.36
289
1.32
276
2.36
304
3.65
298
ACVNet_1two views2.47
287
3.23
318
2.35
314
4.40
317
2.93
319
3.77
314
3.96
316
1.34
286
1.18
280
1.21
296
1.02
253
3.31
288
2.07
281
3.09
318
1.31
259
0.70
220
2.26
308
1.10
299
9.52
308
1.14
289
3.45
309
1.18
243
4.50
318
1.07
291
1.39
290
1.75
295
1.36
266
2.10
265
SPS-STEREOcopylefttwo views1.93
277
1.27
290
1.21
286
1.60
287
1.34
290
1.44
284
1.17
277
1.66
301
1.36
289
1.38
306
3.67
306
3.02
281
1.29
267
1.05
293
1.85
289
1.83
318
1.58
290
1.37
315
8.86
306
1.34
299
3.07
301
1.47
260
1.27
296
1.37
305
1.42
291
1.28
271
2.02
297
1.89
259
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
MFN_U_SF_DS_RVCtwo views1.33
255
0.90
268
0.63
232
1.27
275
0.90
265
1.21
274
2.21
294
1.27
280
1.18
280
1.00
284
0.91
243
1.80
264
1.16
261
1.07
295
1.48
269
0.77
231
0.70
223
0.58
221
2.75
263
0.67
246
1.39
259
2.93
296
0.85
281
0.73
261
1.47
292
1.68
293
1.33
262
2.96
287
DPSNettwo views2.61
288
0.83
261
0.77
251
1.21
273
1.24
285
1.34
281
0.93
265
1.08
276
1.49
293
0.78
255
0.86
239
6.91
312
3.85
297
0.58
263
4.58
326
2.54
323
1.43
288
1.24
305
14.95
322
1.34
299
4.83
324
8.01
329
1.75
303
1.40
308
1.47
292
1.95
300
1.60
284
1.66
254
PVDtwo views1.47
259
1.04
280
1.44
299
1.10
263
1.09
280
1.19
272
1.07
273
1.91
311
2.05
305
0.79
258
1.49
277
1.54
256
1.91
280
0.89
289
2.26
308
1.35
299
1.39
285
1.09
298
2.41
251
1.14
289
1.51
262
1.98
280
0.79
274
1.08
293
1.49
294
1.82
296
1.67
285
2.10
265
MSC_U_SF_DS_RVCtwo views1.67
269
1.25
289
1.05
275
1.56
285
1.08
278
1.20
273
3.18
306
1.50
294
2.10
307
1.30
303
0.98
250
1.50
252
1.04
253
1.66
302
1.71
280
1.18
290
0.84
249
1.01
290
6.24
294
1.15
292
1.43
260
3.23
301
1.19
291
1.14
297
1.52
295
1.29
272
1.09
232
2.78
284
ADCPNettwo views2.08
281
0.77
248
0.87
260
0.83
244
1.21
284
0.85
248
1.59
286
1.02
270
1.35
287
0.83
267
1.97
291
1.01
223
7.76
315
0.75
280
2.35
313
1.16
288
0.95
265
0.71
257
4.05
279
0.97
276
1.30
254
1.61
268
0.72
269
0.76
266
1.52
295
1.96
301
1.21
248
16.04
332
ADCLtwo views1.27
254
0.82
259
0.64
234
0.60
211
0.53
209
0.73
236
0.91
263
0.75
222
2.78
319
0.68
221
1.01
252
0.86
207
0.50
212
0.50
240
1.27
256
0.64
202
0.66
207
0.57
216
1.20
202
0.60
220
0.98
232
0.88
216
0.50
240
0.47
221
1.60
297
1.50
288
0.88
196
11.30
327
SGM+DAISYtwo views3.81
307
1.38
291
1.26
292
1.80
290
1.47
294
1.93
293
1.71
288
1.47
293
1.33
285
1.34
305
6.67
329
9.59
324
12.99
323
1.20
297
1.73
283
1.47
310
1.42
287
1.24
305
11.11
314
1.37
301
3.07
301
2.13
283
1.27
296
1.42
311
1.69
298
1.26
269
2.90
316
26.50
338
notakertwo views5.52
314
5.55
333
3.76
329
13.97
333
5.34
331
5.44
329
7.16
325
2.36
316
2.68
317
2.06
326
1.80
288
12.90
332
23.86
330
3.98
322
2.04
294
1.73
315
3.45
318
2.12
326
17.08
324
2.15
319
6.10
328
5.87
321
6.15
333
2.12
328
1.79
299
2.08
305
2.31
300
3.29
294
AnyNet_C01two views2.06
279
1.08
283
1.06
277
1.14
266
1.08
278
1.01
259
2.69
299
1.69
305
2.66
316
1.21
296
1.67
283
2.90
279
2.60
292
0.95
292
3.65
322
4.02
329
2.09
303
2.21
329
3.08
270
1.56
308
3.30
307
2.89
295
1.26
292
1.15
298
1.80
300
1.43
281
1.51
279
3.90
300
WAO-7two views2.72
294
1.83
296
2.89
323
7.39
323
1.73
297
1.76
292
1.82
289
2.07
312
2.65
315
2.21
328
5.39
316
4.58
302
5.72
308
1.23
298
2.07
298
1.27
295
1.69
294
1.22
304
7.70
300
1.51
303
1.64
268
3.07
298
0.84
279
1.65
318
1.83
301
2.48
310
1.97
295
3.27
293
ACVNet_2two views3.17
300
2.98
312
2.25
313
4.72
318
2.88
316
3.50
303
3.48
309
1.58
299
1.33
285
1.29
302
1.10
259
3.22
285
2.45
289
2.67
311
1.29
257
0.86
243
7.26
324
1.02
291
22.14
326
1.37
301
3.22
304
1.25
246
4.24
313
1.37
305
1.93
302
1.92
297
1.83
291
2.36
273
MADNet+two views1.96
278
1.18
286
1.26
292
1.45
282
1.28
286
1.10
267
2.21
294
1.88
309
1.41
290
1.33
304
1.32
269
2.29
269
2.23
283
1.25
299
4.58
326
1.87
319
2.55
311
1.13
302
2.73
261
1.63
311
3.69
313
3.33
302
1.26
292
2.09
327
1.93
302
1.47
283
1.59
282
2.77
283
LSM0two views8.30
326
1.08
283
0.95
265
1.66
288
1.42
292
1.59
288
1.96
290
2.27
315
2.36
309
1.66
319
3.94
307
4.10
298
6.30
313
0.63
268
62.38
347
74.74
347
1.69
294
1.06
295
12.18
316
2.23
320
4.96
325
9.29
333
0.92
284
1.29
304
1.95
304
2.97
316
3.66
324
14.83
331
SGM_RVCbinarytwo views2.81
295
1.46
293
0.85
258
1.76
289
1.28
286
1.68
291
1.19
278
1.56
297
1.14
278
0.82
265
1.70
284
7.09
313
2.67
294
0.42
222
0.92
215
0.57
181
0.75
235
0.57
216
11.20
315
0.66
242
0.94
224
0.46
117
0.51
248
0.84
275
1.97
305
1.64
292
5.04
329
26.13
337
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
PSMNet_ROBtwo views2.71
292
3.39
322
1.92
309
2.87
299
2.04
298
4.01
317
3.50
311
1.46
292
1.41
290
1.59
317
3.34
302
3.52
289
4.97
301
4.50
325
1.61
276
0.95
255
1.87
298
1.06
295
8.62
303
1.63
311
2.32
285
1.51
264
5.43
329
1.37
305
1.98
306
1.94
299
1.91
293
2.39
275
ktntwo views8.45
328
3.18
316
2.84
322
6.37
322
3.26
322
4.31
320
10.28
335
2.15
313
10.13
334
2.27
330
1.83
289
42.17
341
55.84
342
3.93
321
2.34
312
2.09
321
9.85
327
2.17
327
33.98
333
2.24
321
3.24
305
3.03
297
4.78
320
2.25
330
2.59
307
2.81
313
3.18
318
5.04
309
SAMSARAtwo views1.50
260
0.79
252
1.00
273
0.93
255
0.88
264
0.86
251
0.93
265
1.57
298
1.25
282
0.96
281
1.09
257
1.27
242
2.59
291
0.83
284
2.58
318
1.19
292
1.04
271
0.91
284
2.56
255
0.99
279
1.77
275
2.23
285
0.56
259
0.98
285
2.63
308
2.81
313
2.62
311
2.56
280
Deantwo views2.84
296
3.23
318
1.81
306
6.04
321
3.38
325
3.63
309
3.67
313
1.88
309
1.97
304
1.47
309
1.30
267
3.69
292
4.10
299
2.97
314
1.45
265
0.97
260
2.41
309
1.29
308
5.94
290
1.74
314
3.20
303
4.23
311
4.79
321
1.55
313
2.65
309
2.27
307
2.56
309
2.64
281
WAO-6two views2.71
292
2.26
301
1.57
302
3.00
301
2.25
301
3.01
299
3.02
304
1.77
308
2.35
308
1.52
314
1.62
281
3.94
296
5.12
304
2.64
309
2.22
305
1.38
304
2.65
312
1.36
314
4.86
283
1.54
307
2.76
293
4.79
314
2.70
307
1.73
320
2.71
310
2.59
311
2.68
313
5.02
308
LRCNet_RVCtwo views21.34
339
28.92
340
11.37
339
31.78
341
29.09
344
34.25
342
27.43
340
21.71
344
10.07
333
29.63
345
30.60
341
32.06
337
25.81
332
33.87
344
11.15
332
2.97
324
25.27
341
21.35
342
44.05
339
20.83
342
14.27
339
5.87
321
36.69
344
27.43
345
2.76
311
1.47
283
8.68
334
6.79
318
IMH-64-1two views2.92
297
2.70
305
2.36
315
3.23
304
2.71
311
3.70
310
4.05
317
1.66
301
2.48
311
1.13
289
1.26
265
3.60
290
6.29
311
3.59
319
2.28
310
1.15
286
2.20
305
1.31
310
6.02
291
1.52
305
3.03
299
5.48
317
4.83
322
1.40
308
2.83
312
2.02
302
2.34
301
3.64
296
IMH-64two views2.92
297
2.70
305
2.36
315
3.23
304
2.71
311
3.70
310
4.05
317
1.66
301
2.48
311
1.13
289
1.26
265
3.60
290
6.29
311
3.59
319
2.28
310
1.15
286
2.20
305
1.31
310
6.02
291
1.52
305
3.03
299
5.48
317
4.83
322
1.40
308
2.83
312
2.02
302
2.34
301
3.64
296
LVEtwo views4.33
311
3.03
313
2.00
310
27.23
338
3.06
320
3.83
315
12.07
337
1.53
295
1.64
297
1.85
324
1.48
276
3.30
287
3.91
298
3.06
317
1.45
265
1.05
274
1.95
300
1.38
316
15.68
323
1.62
310
3.25
306
5.86
320
4.42
317
1.76
322
2.87
314
2.06
304
2.34
301
3.25
292
PWCKtwo views5.04
312
3.03
313
2.21
311
3.61
311
2.60
310
4.41
321
5.09
320
2.45
319
2.76
318
3.31
333
4.34
310
10.15
328
5.13
305
1.74
303
1.99
292
1.38
304
2.41
309
1.45
317
51.59
342
2.35
322
3.70
314
2.69
293
2.65
306
1.78
324
2.97
315
3.21
319
2.43
305
4.77
305
IMHtwo views3.24
302
2.76
309
2.37
317
3.26
306
2.74
313
3.73
313
4.10
319
1.72
306
2.58
314
1.17
294
1.24
263
3.92
294
10.58
318
6.80
334
1.57
275
1.11
282
2.25
307
1.30
309
6.28
295
1.56
308
2.97
298
4.14
309
4.90
325
1.45
312
3.01
316
2.36
308
2.47
307
5.19
310
KSHMRtwo views8.16
324
4.16
326
2.96
324
25.39
337
3.92
327
5.08
325
5.53
321
2.62
322
2.40
310
2.23
329
2.26
294
4.37
301
77.17
346
5.23
328
2.24
306
1.71
314
2.79
315
1.98
323
31.04
332
2.02
318
4.59
322
5.35
315
7.54
336
1.89
326
3.30
317
2.91
315
3.01
317
6.51
317
MeshStereopermissivetwo views3.62
306
1.54
294
1.05
275
2.64
293
1.72
296
2.05
294
1.15
276
2.40
317
1.41
290
0.90
275
6.48
327
9.56
323
7.42
314
0.49
236
11.75
333
1.94
320
0.87
252
0.74
263
8.79
304
0.80
260
8.36
330
8.07
331
0.73
271
1.07
291
3.39
318
2.15
306
5.22
330
4.99
307
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
STStereotwo views5.29
313
2.47
303
5.20
333
5.20
319
2.80
314
4.72
322
3.42
308
6.23
335
6.52
329
1.51
312
7.61
331
9.53
322
14.86
326
0.63
268
4.09
325
0.64
202
0.87
252
0.62
232
36.67
335
1.02
280
1.23
250
1.05
231
0.78
273
1.63
316
3.46
319
2.43
309
3.53
320
14.15
330
TorneroNet-64two views6.02
317
4.60
329
2.53
318
15.58
334
3.29
323
4.87
323
7.75
326
2.23
314
10.02
332
1.42
307
1.31
268
7.26
315
29.23
335
4.36
324
2.09
299
1.21
293
8.22
325
1.70
322
17.35
325
2.62
326
4.31
318
5.68
319
5.20
327
1.76
322
3.58
320
3.76
325
2.29
299
8.34
322
TorneroNettwo views8.11
323
4.28
328
2.58
319
27.50
339
3.31
324
5.00
324
6.00
324
2.62
322
10.13
334
1.49
311
2.57
298
11.07
330
68.61
345
4.25
323
1.77
287
1.18
290
5.78
321
1.62
321
23.67
327
2.83
328
4.30
317
5.47
316
5.37
328
1.65
318
3.72
321
3.14
318
2.59
310
6.36
316
UNDER WATERtwo views7.55
321
4.74
330
3.06
325
10.46
330
5.92
333
6.35
332
8.05
328
4.32
328
3.69
325
1.97
325
2.14
293
10.53
329
62.60
344
4.83
326
2.25
307
1.59
312
12.22
335
2.08
325
9.67
309
3.97
330
5.27
326
6.65
324
8.86
339
2.65
333
3.82
322
5.62
330
3.62
323
7.03
319
UNDER WATER-64two views6.11
319
5.20
331
3.13
326
12.20
331
5.77
332
6.55
333
8.53
331
4.74
333
3.45
324
2.30
331
2.36
295
12.04
331
12.47
322
5.08
327
3.02
320
1.81
317
12.11
334
2.17
327
8.81
305
4.17
332
5.75
327
7.27
326
8.74
338
2.61
332
3.86
323
8.63
332
4.32
327
7.86
321
MADNet++two views5.64
315
3.51
324
3.77
330
2.84
298
4.62
329
3.02
300
3.65
312
4.36
329
5.03
328
4.18
336
5.07
315
6.45
309
5.92
310
6.18
333
7.04
329
6.82
332
4.71
319
4.00
333
8.03
301
5.83
333
9.92
334
16.38
338
2.32
305
4.34
336
3.95
324
11.38
335
4.93
328
4.01
301
SGM-ForestMtwo views2.61
288
4.20
327
0.93
264
2.78
297
1.37
291
3.57
307
2.93
303
2.59
320
1.51
294
0.70
232
1.32
269
7.25
314
5.36
306
0.47
233
0.89
209
0.53
164
0.79
242
0.54
203
7.58
299
0.60
220
0.82
204
0.47
122
0.51
248
0.80
272
4.97
325
3.66
324
7.05
333
6.30
315
WAO-8two views4.25
309
3.34
320
2.80
320
10.32
327
2.92
317
4.17
318
5.89
322
2.66
324
4.45
326
1.69
320
3.41
303
5.94
307
11.31
320
5.29
329
1.71
280
1.34
296
2.69
313
1.51
318
10.78
311
2.48
324
2.63
288
4.50
312
3.44
310
1.58
314
5.12
326
3.31
321
3.60
321
5.76
312
Venustwo views4.25
309
3.34
320
2.80
320
10.32
327
2.92
317
4.17
318
5.89
322
2.66
324
4.45
326
1.69
320
3.41
303
5.94
307
11.31
320
5.29
329
1.71
280
1.34
296
2.69
313
1.51
318
10.78
311
2.48
324
2.63
288
4.50
312
3.44
310
1.58
314
5.12
326
3.31
321
3.60
321
5.76
312
DPSimNet_ROBtwo views18.93
337
32.01
341
5.97
334
12.40
332
11.35
339
6.13
330
28.07
341
15.03
341
35.64
344
3.96
335
78.33
347
18.15
334
35.00
336
5.44
332
12.19
336
10.36
336
13.57
336
3.64
332
87.52
345
6.87
335
14.36
340
9.97
334
4.40
316
7.14
338
5.17
328
9.85
333
5.93
332
32.56
340
HanzoNettwo views19.12
338
15.23
336
6.99
337
35.06
342
14.35
340
40.77
343
42.46
343
17.81
342
22.51
340
3.55
334
8.29
332
41.30
340
56.30
343
43.04
346
5.72
328
4.37
330
37.83
344
3.30
331
49.59
341
8.93
337
10.30
336
6.85
325
14.15
342
3.46
335
5.94
329
5.80
331
5.29
331
7.13
320
ELAS_RVCcopylefttwo views3.22
301
2.01
297
1.85
307
2.66
294
2.07
299
5.08
325
2.06
291
2.41
318
1.89
302
1.74
322
4.78
311
8.00
317
8.02
316
0.74
279
2.38
314
0.81
238
1.75
296
1.14
303
3.97
277
1.27
297
4.64
323
7.61
327
1.26
292
1.74
321
6.58
330
3.21
319
3.39
319
3.80
299
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views3.38
305
2.19
299
1.79
305
2.99
300
2.37
303
3.32
302
2.09
293
2.60
321
2.85
320
1.28
301
4.85
313
8.61
319
8.02
316
0.76
281
2.90
319
0.81
238
1.80
297
1.10
299
4.19
281
1.10
286
4.53
321
7.86
328
1.26
292
1.63
316
7.08
331
4.79
329
3.66
324
4.87
306
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views6.09
318
3.85
325
3.31
328
5.99
320
4.13
328
6.22
331
7.94
327
3.42
327
2.89
321
1.47
309
1.46
275
8.10
318
1.90
279
5.39
331
11.86
334
3.22
325
3.30
317
2.99
330
5.32
285
2.40
323
9.74
333
10.03
336
4.93
326
2.18
329
7.39
332
17.16
337
3.72
326
24.15
335
MDST_ROBtwo views3.33
304
2.32
302
0.75
249
3.90
313
1.47
294
2.61
297
1.00
271
1.12
279
0.72
242
0.78
255
0.67
208
1.54
256
25.37
331
0.34
192
2.11
300
0.53
164
0.65
204
0.48
165
3.69
275
0.58
211
0.88
212
0.59
157
0.58
261
0.68
255
7.85
333
3.03
317
17.15
338
8.63
323
JetRedtwo views7.85
322
5.29
332
6.07
335
3.75
312
5.00
330
6.95
334
10.20
334
4.64
332
3.42
323
2.92
332
2.39
296
6.71
311
2.25
285
7.15
335
10.26
331
7.34
333
8.59
326
7.11
334
4.82
282
4.08
331
10.76
337
9.27
332
7.85
337
3.34
334
10.96
334
24.25
341
11.90
335
24.57
336
DGTPSM_ROBtwo views12.12
331
5.96
334
17.45
340
4.20
315
7.86
334
5.15
327
8.18
329
4.56
330
11.64
336
4.52
338
8.72
333
5.01
304
17.08
327
12.98
338
14.91
337
14.58
338
6.85
322
15.76
337
12.78
317
12.05
338
9.07
331
21.74
339
5.67
330
11.54
340
11.84
335
31.02
344
12.98
336
33.06
341
DPSMNet_ROBtwo views12.40
332
5.97
335
17.46
341
4.21
316
7.87
335
5.15
327
8.18
329
4.56
330
11.65
337
4.54
339
8.87
334
5.17
305
22.69
328
13.00
339
14.98
338
14.62
339
6.90
323
15.82
338
14.07
321
12.05
338
9.09
332
21.75
340
5.68
331
11.54
340
11.87
336
31.03
345
12.99
337
33.06
341
MANEtwo views7.31
320
2.64
304
4.48
332
3.30
307
3.10
321
3.94
316
2.83
302
5.37
334
6.88
330
1.11
288
5.64
319
8.81
320
11.02
319
0.67
273
3.83
323
3.83
327
1.32
283
18.03
339
8.61
302
0.84
266
4.22
316
1.16
240
0.74
272
1.79
325
13.65
337
18.61
338
22.89
340
38.18
345
DeepPrunerFtwo views1.22
252
0.49
167
0.39
152
0.58
205
2.86
315
0.49
179
0.55
212
0.52
89
0.58
230
0.43
68
0.67
208
0.43
83
0.32
145
0.42
222
1.64
277
0.75
228
0.58
157
0.46
153
0.93
179
0.46
174
0.61
157
0.53
149
0.40
218
0.35
176
15.32
338
0.82
204
0.65
129
0.62
146
LE_ROBtwo views17.44
333
1.82
295
6.12
336
9.40
324
53.85
348
8.01
335
46.26
344
11.27
340
28.12
341
1.80
323
7.03
330
38.62
339
49.53
341
0.34
192
1.76
286
0.55
174
0.78
238
0.59
226
36.68
336
6.72
334
2.92
296
0.85
212
29.06
343
12.10
342
26.35
339
25.49
342
27.84
343
37.03
344
BEATNet-Init1two views22.01
340
36.32
344
3.23
327
54.74
346
11.23
338
52.95
347
28.72
342
9.47
336
8.51
331
1.57
316
10.45
337
33.05
338
48.98
340
0.71
277
16.97
339
11.50
337
1.60
292
1.11
301
77.80
344
35.27
345
9.94
335
9.98
335
1.27
296
2.30
331
27.41
340
11.09
334
52.85
347
35.36
343
HaxPigtwo views41.43
344
43.85
345
40.81
344
44.90
343
47.49
346
44.66
344
46.30
345
46.31
346
45.63
346
49.00
346
49.30
343
47.24
342
43.73
338
42.64
345
40.44
345
39.13
345
48.37
345
51.07
345
43.33
337
42.25
346
42.88
343
36.52
343
50.75
346
43.02
349
27.54
341
19.97
339
20.68
339
20.75
334
AVERAGE_ROBtwo views41.98
345
44.82
346
42.27
345
45.98
344
46.88
345
45.60
345
46.56
346
47.04
347
43.89
345
49.19
347
49.91
344
47.25
343
43.00
337
49.19
347
40.14
344
38.38
344
49.01
346
51.31
346
43.98
338
42.43
347
43.31
344
38.64
344
49.42
345
42.83
348
28.65
342
20.44
340
23.41
341
19.88
333
MEDIAN_ROBtwo views44.95
346
47.36
347
44.12
346
48.52
345
49.78
347
48.21
346
49.25
347
49.72
348
46.35
347
52.53
348
53.59
345
50.59
344
45.49
339
49.36
348
43.27
346
41.36
346
51.85
347
54.40
347
47.03
340
45.93
348
45.78
345
40.06
345
52.67
347
45.67
350
31.00
343
26.54
343
25.33
342
27.95
339
DPSM_ROBtwo views18.32
335
16.26
337
21.94
342
9.42
325
8.75
336
13.61
336
9.11
332
10.90
338
15.09
338
8.45
340
8.95
335
10.12
326
13.19
324
16.42
340
19.79
340
19.11
340
18.35
338
20.45
340
13.82
319
14.88
340
26.56
341
27.45
341
6.49
334
14.39
343
31.57
344
38.83
346
36.85
345
43.86
346
DPSMtwo views18.32
335
16.26
337
21.94
342
9.42
325
8.75
336
13.61
336
9.11
332
10.90
338
15.09
338
8.45
340
8.95
335
10.12
326
13.19
324
16.42
340
19.79
340
19.11
340
18.35
338
20.45
340
13.82
319
14.88
340
26.56
341
27.45
341
6.49
334
14.39
343
31.57
344
38.83
346
36.85
345
43.86
346
PMLtwo views30.82
341
20.91
339
7.15
338
29.65
340
20.81
343
29.11
341
10.50
336
10.87
337
88.32
348
20.03
344
154.19
348
98.60
346
119.55
347
10.53
337
9.19
330
8.69
335
16.72
337
7.27
335
34.57
334
7.35
336
12.77
338
10.86
337
5.72
332
6.17
337
33.11
346
12.83
336
34.30
344
12.33
328
FlowAnythingtwo views36.80
343
32.68
342
44.29
348
18.93
336
17.69
342
27.11
339
18.38
339
21.83
345
30.48
343
17.53
343
18.21
340
20.29
336
26.54
334
33.31
343
37.97
342
37.86
343
36.82
342
40.93
343
27.35
329
30.03
344
53.34
346
55.72
347
12.99
341
29.50
347
63.36
347
78.25
349
73.99
349
88.17
349
CasAABBNettwo views36.73
342
32.73
343
44.18
347
18.81
335
17.45
341
27.29
340
18.12
338
21.69
343
30.40
342
17.52
342
18.08
339
20.27
335
26.53
333
32.96
342
38.28
343
37.42
342
36.82
342
41.12
344
27.47
330
29.86
343
53.56
347
55.70
346
12.93
340
28.91
346
63.44
348
78.07
348
73.93
348
88.05
348
XX-Stereotwo views9.49
330
0.38
90
0.36
137
0.63
218
0.28
113
0.54
197
0.28
150
0.69
193
0.28
106
0.69
229
6.24
325
1.00
220
0.29
113
0.23
113
0.70
165
1.08
277
0.60
178
0.52
193
1.58
218
0.53
187
0.76
196
0.65
175
0.18
95
0.26
119
233.61
349
0.88
212
1.01
224
1.90
261
ASD4two views8.34
339