This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.21
1
0.16
1
0.11
1
0.09
1
0.11
2
0.16
5
0.12
20
0.23
7
0.15
12
0.18
8
0.19
18
0.42
31
0.14
7
0.12
3
0.34
1
0.42
2
0.32
1
0.25
3
0.30
1
0.18
1
0.29
1
0.32
8
0.11
2
0.15
14
0.20
1
0.20
1
0.23
1
0.19
2
Pointernettwo views0.24
2
0.21
4
0.14
2
0.14
9
0.12
3
0.19
14
0.16
36
0.28
11
0.10
1
0.17
7
0.14
13
0.23
3
0.14
7
0.12
3
0.47
4
0.42
2
0.37
6
0.23
1
0.35
2
0.19
2
0.35
4
0.25
3
0.14
7
0.14
13
0.23
2
0.21
4
0.67
31
0.22
6
MLG-Stereotwo views0.25
3
0.25
8
0.14
2
0.11
2
0.20
21
0.12
2
0.07
3
0.21
4
0.12
3
0.19
9
0.11
6
0.29
11
0.10
1
0.21
30
0.61
11
0.65
19
0.36
4
0.35
15
0.44
16
0.23
8
0.35
4
0.32
8
0.11
2
0.09
1
0.26
5
0.22
5
0.48
10
0.25
15
AIO-test1two views0.25
3
0.19
2
0.14
2
0.12
6
0.14
8
0.18
11
0.15
34
0.33
19
0.16
15
0.25
17
0.24
27
0.35
19
0.14
7
0.19
22
0.56
10
0.59
11
0.35
2
0.30
8
0.35
2
0.27
13
0.33
2
0.31
6
0.13
6
0.13
7
0.23
2
0.23
7
0.31
2
0.18
1
MLG-Stereo_test1two views0.26
5
0.22
5
0.14
2
0.13
7
0.22
26
0.11
1
0.08
5
0.22
6
0.12
3
0.20
10
0.12
8
0.33
16
0.11
2
0.21
30
0.66
14
0.64
17
0.37
6
0.35
15
0.50
20
0.22
6
0.39
8
0.30
5
0.12
4
0.10
2
0.26
5
0.22
5
0.53
14
0.27
19
CoSvtwo views0.26
5
0.38
20
0.20
16
0.18
15
0.14
8
0.35
55
0.09
10
0.38
27
0.16
15
0.20
10
0.08
3
0.28
9
0.14
7
0.09
1
0.47
4
0.59
11
0.42
16
0.23
1
0.39
10
0.19
2
0.40
10
0.23
2
0.10
1
0.13
7
0.40
29
0.25
11
0.36
4
0.24
9
MM-Stereo_test3two views0.27
7
0.36
17
0.14
2
0.25
23
0.15
11
0.15
3
0.08
5
0.48
36
0.18
25
0.25
17
0.10
4
0.41
30
0.12
4
0.11
2
0.36
2
0.40
1
0.42
16
0.26
4
0.37
8
0.25
11
0.33
2
0.25
3
0.24
30
0.12
4
0.29
10
0.20
1
0.77
45
0.23
7
LG-Stereotwo views0.28
8
0.26
9
0.17
11
0.17
14
0.16
14
0.23
23
0.13
26
0.30
13
0.15
12
0.23
13
0.19
18
0.52
41
0.14
7
0.18
19
0.55
8
0.58
9
0.39
11
0.30
8
0.54
24
0.22
6
0.44
14
0.31
6
0.12
4
0.12
4
0.28
8
0.24
9
0.46
9
0.24
9
MM-Stereo_test1two views0.29
9
0.69
58
0.15
7
0.23
19
0.14
8
0.16
5
0.07
3
0.37
26
0.14
6
0.27
21
0.11
6
0.43
32
0.11
2
0.12
3
0.45
3
0.48
5
0.45
23
0.32
10
0.42
12
0.27
13
0.35
4
0.35
11
0.23
27
0.13
7
0.31
13
0.23
7
0.63
27
0.24
9
RSMtwo views0.30
10
0.30
13
0.22
23
0.32
43
0.15
11
0.21
17
0.10
14
0.17
1
0.16
15
0.14
2
0.26
30
0.22
2
0.19
25
0.14
7
0.64
13
0.60
13
0.39
11
0.37
20
0.35
2
0.33
23
0.46
17
0.54
24
0.19
20
0.16
16
0.30
12
0.26
16
0.58
18
0.24
9
MoCha-V2two views0.30
10
0.31
14
0.23
26
0.21
16
0.17
17
0.17
10
0.14
30
0.23
7
0.11
2
0.26
20
0.28
34
0.32
15
0.16
15
0.19
22
0.62
12
0.61
15
0.39
11
0.38
22
0.35
2
0.42
42
0.61
32
0.51
22
0.15
8
0.16
16
0.35
18
0.26
16
0.34
3
0.19
2
ProNettwo views0.30
10
0.27
10
0.31
35
0.26
25
0.15
11
0.27
33
0.27
73
0.38
27
0.13
5
0.15
4
0.49
74
0.29
11
0.13
5
0.16
13
0.73
17
0.49
6
0.43
18
0.32
10
0.35
2
0.27
13
0.38
7
0.22
1
0.38
56
0.22
32
0.32
14
0.20
1
0.38
5
0.27
19
111111two views0.31
13
0.37
18
0.19
13
0.25
23
0.29
38
0.22
22
0.09
10
0.19
3
0.16
15
0.10
1
0.17
15
0.27
5
0.17
19
0.18
19
0.79
20
0.56
8
0.46
27
0.28
6
0.76
46
0.24
10
0.53
25
0.61
33
0.21
22
0.11
3
0.25
4
0.25
11
0.41
7
0.19
2
AIO-Stereopermissivetwo views0.31
13
0.33
15
0.22
23
0.35
49
0.16
14
0.20
16
0.10
14
0.17
1
0.14
6
0.14
2
0.20
22
0.21
1
0.16
15
0.14
7
0.55
8
0.55
7
0.41
14
0.39
25
1.18
81
0.36
28
0.39
8
0.43
16
0.17
11
0.16
16
0.32
14
0.24
9
0.61
23
0.19
2
GREAT-IGEVtwo views0.32
15
0.37
18
0.21
21
0.15
10
0.12
3
0.16
5
0.09
10
0.30
13
0.16
15
0.33
27
0.18
16
0.44
33
0.19
25
0.20
27
0.74
18
0.61
15
0.45
23
0.29
7
0.42
12
0.28
17
0.43
12
0.52
23
0.21
22
0.17
21
0.27
7
0.25
11
0.88
50
0.23
7
RSM++two views0.33
16
0.33
15
0.23
26
0.36
54
0.20
21
0.24
26
0.10
14
0.21
4
0.16
15
0.16
5
0.26
30
0.26
4
0.19
25
0.16
13
0.83
22
0.65
19
0.41
14
0.38
22
0.50
20
0.39
32
0.50
20
0.59
30
0.25
33
0.16
16
0.41
31
0.26
16
0.54
15
0.30
26
CroCo-Stereo Lap2two views0.33
16
0.22
5
0.15
7
0.11
2
0.12
3
0.16
5
0.08
5
0.35
24
0.15
12
0.47
41
0.10
4
0.31
14
0.14
7
0.14
7
1.26
36
1.00
55
0.36
4
0.36
19
0.44
16
0.20
4
0.53
25
0.55
25
0.17
11
0.13
7
0.39
28
0.35
36
0.40
6
0.27
19
StereoVisiontwo views0.34
18
0.27
10
0.21
21
0.13
7
0.18
18
0.21
17
0.14
30
0.30
13
0.23
35
0.35
30
0.18
16
0.34
18
0.17
19
0.16
13
0.98
24
0.78
33
0.44
20
0.35
15
0.43
15
0.23
8
0.40
10
0.48
17
0.16
9
0.21
30
0.40
29
0.40
45
0.71
35
0.37
32
MM-Stereo_test2two views0.35
19
0.78
104
0.22
23
0.30
38
0.21
25
0.18
11
0.11
17
0.33
19
0.16
15
0.36
31
0.15
14
0.39
25
0.15
14
0.17
17
0.69
15
0.66
21
0.43
18
0.39
25
0.41
11
0.37
29
0.50
20
0.85
56
0.24
30
0.16
16
0.35
18
0.25
11
0.54
15
0.25
15
CroCo-Stereocopylefttwo views0.35
19
0.20
3
0.15
7
0.11
2
0.10
1
0.18
11
0.06
1
0.33
19
0.14
6
0.31
26
0.05
1
0.36
21
0.13
5
0.15
11
1.64
51
1.05
62
0.35
2
0.37
20
0.45
18
0.20
4
0.62
35
0.79
50
0.16
9
0.13
7
0.38
24
0.31
25
0.45
8
0.26
18
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.35
19
0.22
5
0.19
13
0.27
28
0.13
6
0.30
40
0.08
5
0.97
113
0.18
25
0.92
141
0.19
18
0.27
5
0.16
15
0.18
19
0.51
6
0.47
4
0.38
9
0.26
4
0.54
24
0.25
11
0.43
12
0.34
10
0.19
20
0.15
14
0.38
24
0.34
34
0.90
51
0.27
19
IGEV-Stereo++two views0.36
22
0.40
23
0.20
16
0.22
18
0.25
30
0.21
17
0.09
10
0.25
10
0.17
22
0.20
10
0.34
46
0.29
11
0.20
31
0.19
22
0.78
19
0.60
13
0.44
20
0.33
12
0.75
43
0.34
25
0.53
25
0.64
37
0.22
24
0.13
7
0.28
8
0.27
20
1.09
69
0.28
23
MSCFtwo views0.37
23
0.41
25
0.20
16
0.34
45
0.19
20
0.23
23
0.14
30
0.30
13
0.20
30
0.67
71
0.13
11
0.27
5
0.17
19
0.14
7
1.02
25
0.77
32
0.37
6
0.34
14
0.36
7
0.28
17
0.45
16
0.50
21
0.22
24
0.20
27
0.35
18
0.90
129
0.70
33
0.25
15
GIP-stereotwo views0.37
23
0.56
37
0.32
37
0.29
34
0.23
28
0.21
17
0.11
17
0.24
9
0.17
22
0.30
24
0.19
18
0.38
23
0.18
23
0.21
30
1.05
27
0.64
17
0.46
27
0.39
25
0.42
12
0.41
38
0.52
24
0.82
53
0.17
11
0.17
21
0.35
18
0.31
25
0.76
42
0.24
9
GASTEREOtwo views0.38
25
0.42
27
0.20
16
0.34
45
0.18
18
0.24
26
0.14
30
0.30
13
0.19
29
0.73
86
0.12
8
0.28
9
0.17
19
0.13
6
1.05
27
0.74
29
0.38
9
0.33
12
0.37
8
0.30
20
0.44
14
0.56
27
0.23
27
0.20
27
0.35
18
0.87
122
0.73
39
0.24
9
MLG-Stereo_test2two views0.39
26
0.54
35
0.17
11
0.16
12
0.24
29
0.15
3
0.08
5
0.33
19
0.14
6
0.24
15
0.13
11
0.39
25
0.14
7
0.17
17
1.52
45
0.76
31
0.45
23
0.44
34
1.04
67
0.42
42
0.48
19
0.48
17
0.18
17
0.12
4
0.34
16
0.25
11
0.66
29
0.38
33
AdaDepthtwo views0.41
27
0.41
25
0.20
16
0.24
20
0.28
37
0.23
23
0.16
36
0.32
18
0.20
30
0.23
13
0.29
35
0.27
5
0.21
32
0.23
36
0.97
23
1.09
74
0.49
31
0.41
30
1.08
73
0.34
25
0.54
29
0.59
30
0.18
17
0.21
30
0.29
10
0.28
21
0.75
41
0.43
37
Utwo views0.41
27
0.28
12
0.16
10
0.11
2
0.13
6
0.16
5
0.06
1
0.45
35
0.14
6
0.49
42
0.07
2
0.36
21
0.16
15
0.20
27
1.71
57
1.14
84
0.44
20
0.41
30
0.59
30
0.32
21
0.66
39
0.92
63
0.17
11
0.17
21
0.50
51
0.36
38
0.49
11
0.35
30
Occ-Gtwo views0.43
29
0.59
41
0.29
31
0.34
45
0.31
44
0.26
32
0.12
20
0.38
27
0.18
25
0.16
5
0.32
40
0.33
16
0.24
36
0.16
13
1.16
30
0.84
36
0.45
23
0.39
25
0.71
37
0.32
21
0.87
67
0.78
49
0.22
24
0.19
26
0.36
23
0.26
16
0.94
57
0.31
27
AEACVtwo views0.43
29
0.94
172
0.30
32
0.29
34
0.20
21
0.27
33
0.12
20
0.28
11
0.14
6
0.24
15
0.23
26
0.35
19
0.21
32
0.20
27
1.24
35
0.83
35
0.57
48
0.38
22
0.78
49
0.45
52
0.81
59
0.73
44
0.24
30
0.18
25
0.34
16
0.31
25
0.61
23
0.28
23
DEFOM-Stereotwo views0.45
31
0.55
36
0.28
30
0.26
25
0.30
40
0.32
44
0.13
26
0.35
24
0.17
22
0.25
17
0.32
40
0.38
23
0.19
25
0.22
34
1.10
29
0.73
27
0.59
54
0.52
47
0.51
23
0.44
50
0.73
48
0.69
40
0.42
72
0.28
42
0.44
35
0.32
31
1.28
82
0.46
42
RAStereotwo views0.46
32
0.38
20
0.19
13
0.15
10
0.16
14
0.19
14
0.11
17
0.44
33
0.18
25
0.99
151
0.12
8
0.45
34
0.18
23
0.15
11
1.85
78
1.10
77
0.52
35
0.47
37
0.68
35
0.27
13
0.77
52
0.80
52
0.27
34
0.17
21
0.47
44
0.34
34
0.51
12
0.41
36
TDLMtwo views0.49
33
0.59
41
0.60
99
0.39
70
0.48
96
0.46
87
0.43
133
0.72
63
0.35
63
0.30
24
0.65
111
0.76
101
0.41
71
0.35
79
0.54
7
0.58
9
0.55
41
0.49
40
0.50
20
0.43
45
0.50
20
0.39
13
0.41
66
0.39
74
0.38
24
0.31
25
0.61
23
0.66
81
anonymousdsptwo views0.50
34
0.38
20
0.36
44
0.28
30
0.32
46
0.28
35
0.15
34
0.56
41
0.26
38
0.42
35
0.33
44
0.53
44
0.19
25
0.27
43
1.47
40
0.87
38
0.54
39
0.52
47
0.62
31
0.48
58
0.71
43
1.04
73
0.36
50
0.30
44
0.46
38
0.29
23
1.13
74
0.33
28
iRaftStereo_RVCtwo views0.51
35
0.56
37
0.40
52
0.28
30
0.31
44
0.32
44
0.19
47
0.68
60
0.25
37
0.46
40
0.57
95
0.58
49
0.29
42
0.25
39
1.17
33
0.89
40
0.56
45
0.45
35
0.72
38
0.41
38
0.97
78
0.79
50
0.35
45
0.34
56
0.44
35
0.41
50
0.76
42
0.48
44
delettwo views0.51
35
0.58
39
0.47
72
0.35
49
0.50
108
0.50
103
0.30
81
0.49
37
0.29
49
0.56
47
0.44
66
0.45
34
0.34
50
0.48
150
1.16
30
0.68
23
0.55
41
0.46
36
0.47
19
0.41
38
0.58
30
0.39
13
0.39
58
0.41
81
0.48
47
0.36
38
1.09
69
0.50
48
MLG-Stereo_test3two views0.52
37
0.48
31
0.27
29
0.29
34
0.38
67
0.24
26
0.12
20
0.34
23
0.20
30
1.12
163
0.30
37
0.54
45
0.19
25
0.31
61
1.85
78
0.92
42
0.52
35
0.52
47
1.17
79
0.39
32
0.70
41
0.75
46
0.18
17
0.24
37
0.38
24
0.31
25
0.90
51
0.44
39
AIO_rvctwo views0.53
38
0.71
71
0.38
48
0.34
45
0.22
26
0.34
51
0.16
36
0.57
42
0.28
47
0.38
32
0.22
24
0.56
46
0.24
36
0.27
43
1.96
93
1.04
59
0.48
30
0.40
29
1.28
87
0.47
57
0.79
58
0.95
69
0.39
58
0.22
32
0.46
38
0.28
21
0.72
36
0.33
28
AASNettwo views0.53
38
0.74
81
0.46
70
0.35
49
0.61
135
0.51
108
0.42
130
0.65
56
0.26
38
0.41
34
0.50
76
0.39
25
0.31
47
0.41
109
1.02
25
0.69
24
0.53
38
0.60
70
0.67
33
0.51
61
0.60
31
0.87
58
0.41
66
0.41
81
0.50
51
0.40
45
0.70
33
0.45
41
LG-G_1two views0.54
40
0.70
64
0.32
37
0.36
54
0.39
69
0.32
44
0.16
36
0.41
30
0.21
33
0.29
22
0.34
46
0.50
36
0.35
56
0.32
64
2.09
113
1.07
66
0.51
33
0.58
66
0.75
43
0.59
87
0.78
55
1.24
86
0.17
11
0.22
32
0.46
38
0.39
43
0.60
20
0.48
44
LG-Gtwo views0.54
40
0.70
64
0.32
37
0.36
54
0.39
69
0.32
44
0.16
36
0.41
30
0.21
33
0.29
22
0.34
46
0.50
36
0.35
56
0.32
64
2.09
113
1.07
66
0.51
33
0.58
66
0.75
43
0.59
87
0.78
55
1.24
86
0.17
11
0.22
32
0.46
38
0.39
43
0.60
20
0.48
44
AANet_RVCtwo views0.54
40
0.45
29
0.40
52
0.33
44
0.61
135
0.28
35
0.31
85
0.61
47
0.58
140
0.44
37
0.41
61
0.39
25
0.48
86
0.33
69
1.16
30
0.79
34
0.55
41
0.53
56
0.56
28
0.52
65
0.46
17
0.49
19
0.34
42
0.38
67
0.57
67
0.57
74
1.05
66
0.97
133
LGtest1two views0.57
43
0.81
116
0.46
70
0.26
25
0.30
40
0.28
35
0.12
20
0.43
32
0.26
38
0.34
29
0.56
92
0.50
36
0.30
46
0.28
47
2.04
106
1.24
102
0.57
48
0.65
94
0.74
41
0.46
56
0.72
45
1.41
96
0.29
35
0.30
44
0.54
60
0.35
36
0.65
28
0.52
52
MaDis-Stereotwo views0.57
43
0.47
30
0.30
32
0.16
12
0.26
34
0.21
17
0.17
43
0.44
33
0.32
56
1.08
161
0.22
24
0.51
40
0.22
35
0.19
22
1.83
75
1.19
94
0.62
57
0.59
69
1.09
75
0.45
52
0.81
59
0.94
65
0.37
54
0.25
39
0.63
78
0.67
89
0.60
20
0.82
106
LG-Stereo_L2two views0.58
45
0.69
58
0.43
62
0.28
30
0.35
60
0.24
26
0.13
26
0.62
52
0.26
38
0.70
75
0.39
58
0.71
85
0.34
50
0.28
47
1.83
75
1.32
113
0.57
48
0.51
45
0.96
60
0.41
38
0.74
50
1.06
75
0.32
38
0.27
40
0.52
57
0.38
41
0.62
26
0.64
75
LG-Stereo_L1two views0.58
45
0.69
58
0.41
56
0.24
20
0.35
60
0.25
30
0.12
20
0.62
52
0.27
45
0.72
81
0.32
40
0.69
77
0.34
50
0.29
50
1.82
72
1.36
119
0.57
48
0.52
47
1.14
78
0.42
42
0.70
41
1.11
78
0.29
35
0.30
44
0.51
54
0.33
32
0.66
29
0.65
79
AIO_testtwo views0.59
47
0.77
100
0.45
65
0.44
86
0.25
30
0.35
55
0.20
51
0.61
47
0.27
45
0.43
36
0.30
37
0.57
47
0.28
41
0.29
50
2.01
99
1.46
145
0.49
31
0.42
32
0.86
52
0.49
60
1.02
85
1.01
71
0.40
62
0.24
37
0.47
44
0.49
59
1.00
62
0.35
30
MMNettwo views0.59
47
0.58
39
0.44
63
0.38
59
0.55
122
0.42
76
0.29
79
0.60
45
0.40
76
0.38
32
0.55
91
0.63
60
0.32
48
0.51
162
1.51
44
0.75
30
0.72
84
0.58
66
0.76
46
0.55
74
0.62
35
0.41
15
0.40
62
0.52
126
0.51
54
0.49
59
1.49
101
0.50
48
IGEV-Stereo+two views0.60
49
1.04
208
0.24
28
0.49
95
0.32
46
0.29
38
0.13
26
0.51
38
0.26
38
0.79
108
0.94
168
0.57
47
0.26
38
0.28
47
1.64
51
1.19
94
0.59
54
0.61
75
1.19
82
0.43
45
0.90
74
1.17
81
0.48
100
0.20
27
0.41
31
0.31
25
0.56
17
0.40
35
UniTT-Stereotwo views0.60
49
0.44
28
0.32
37
0.21
16
0.25
30
0.34
51
0.17
43
0.61
47
0.31
52
0.75
90
0.27
32
0.62
59
0.34
50
0.21
30
1.77
67
1.44
138
0.57
48
0.61
75
1.53
104
0.44
50
0.91
75
1.14
80
0.37
54
0.29
43
0.50
51
0.54
69
0.52
13
0.58
59
CVANet_RVCtwo views0.60
49
0.67
53
0.81
138
0.81
179
0.53
118
0.66
156
0.55
157
1.15
132
0.39
69
0.44
37
0.79
147
0.80
110
0.44
81
0.43
124
0.69
15
0.67
22
0.55
41
0.53
56
0.55
27
0.57
79
0.63
37
0.57
28
0.40
62
0.41
81
0.46
38
0.40
45
0.72
36
0.55
53
DMCAtwo views0.63
52
0.73
78
0.63
103
0.40
71
0.49
99
0.52
111
0.33
100
0.59
44
0.52
116
0.80
112
0.63
108
0.70
81
0.40
68
0.47
144
1.48
41
0.92
42
0.69
72
0.67
100
0.67
33
0.51
61
0.67
40
0.59
30
0.48
100
0.45
96
0.48
47
0.52
67
1.04
65
0.62
70
RAFT_CTSACEtwo views0.64
53
0.94
172
0.31
35
0.37
57
0.34
56
0.33
48
0.23
57
1.23
143
0.26
38
0.64
65
0.29
35
0.71
85
0.57
113
0.34
74
1.57
49
1.07
66
0.52
35
0.43
33
0.72
38
0.33
23
0.85
64
1.72
104
0.42
72
0.30
44
0.46
38
0.41
50
1.58
113
0.39
34
GANettwo views0.64
53
0.67
53
0.63
103
0.57
120
0.58
126
0.95
201
0.55
157
0.78
76
0.46
93
0.57
50
0.61
102
1.83
212
0.36
60
0.41
109
0.81
21
0.69
24
0.76
97
0.73
120
0.58
29
0.40
36
0.53
25
0.49
19
0.47
97
0.48
112
0.56
66
0.41
50
0.83
47
0.69
84
DFGA-Nettwo views0.65
55
0.64
44
0.36
44
0.51
102
0.33
53
0.43
78
0.29
79
0.88
102
0.34
60
2.05
222
0.38
56
0.52
41
0.29
42
0.22
34
1.35
37
1.07
66
0.76
97
0.49
40
0.96
60
0.35
27
0.71
43
0.71
42
0.36
50
0.41
81
0.57
67
0.38
41
1.81
126
0.43
37
HCRNettwo views0.66
56
0.78
104
0.41
56
0.54
113
0.27
36
0.41
74
0.39
114
0.63
54
0.31
52
1.62
197
0.59
100
0.67
73
0.29
42
0.41
109
1.99
97
0.73
27
0.60
56
0.47
37
0.65
32
0.43
45
0.78
55
0.62
34
0.36
50
0.34
56
0.42
34
0.43
55
2.14
150
0.50
48
plaintwo views0.67
57
0.87
138
0.33
41
0.31
40
0.59
128
0.33
48
0.30
81
0.89
103
0.34
60
0.72
81
0.24
27
0.65
67
0.34
50
0.19
22
1.95
86
1.57
165
0.71
79
0.69
106
0.94
58
0.39
32
1.28
107
1.20
84
0.33
41
0.33
54
0.59
74
0.60
76
0.72
36
0.74
89
MIF-Stereo (partial)two views0.69
58
0.76
95
0.33
41
0.27
28
0.37
65
0.35
55
0.31
85
0.53
39
0.40
76
0.62
61
0.32
40
0.50
36
0.39
63
0.23
36
2.08
109
1.51
154
0.68
67
0.71
111
0.77
48
0.43
45
1.10
91
0.94
65
0.39
58
0.32
51
0.57
67
0.71
92
2.25
169
0.87
119
test_5two views0.69
58
0.91
156
0.30
32
0.38
59
0.26
34
0.35
55
0.19
47
1.79
219
0.31
52
0.58
53
1.20
192
0.75
97
0.73
160
0.32
64
1.36
38
1.10
77
0.54
39
0.54
60
1.01
65
0.37
29
0.61
32
1.37
95
0.29
35
0.34
56
0.41
31
0.40
45
1.72
120
0.44
39
FINETtwo views0.69
58
0.65
48
0.67
112
0.65
141
0.49
99
0.48
98
0.45
139
0.75
68
0.59
142
0.61
58
0.48
71
0.82
116
0.57
113
0.43
124
1.71
57
1.08
72
0.77
100
0.57
63
1.07
72
0.56
76
0.88
68
0.65
38
0.43
77
0.50
119
0.62
77
0.56
73
0.96
59
0.64
75
raft+_RVCtwo views0.71
61
0.73
78
0.70
117
0.41
75
0.34
56
0.49
100
0.30
81
1.48
182
0.43
86
0.62
61
0.62
104
0.65
67
0.39
63
0.26
41
1.74
62
1.16
87
0.69
72
0.53
56
1.57
110
0.51
61
0.85
64
1.06
75
0.44
80
0.38
67
0.68
90
0.62
78
0.85
48
0.69
84
IGEV-BASED-STEREO-two views0.73
62
0.86
136
0.36
44
0.43
83
0.32
46
0.30
40
0.19
47
0.71
62
0.32
56
0.70
75
0.33
44
0.63
60
0.57
113
0.41
109
2.03
105
1.91
188
0.63
59
0.68
104
1.00
62
0.45
52
1.86
143
1.87
107
0.40
62
0.23
36
0.49
49
0.37
40
1.09
69
0.55
53
GMStereopermissivetwo views0.73
62
0.99
191
0.39
49
0.49
95
0.47
90
0.55
120
0.41
124
0.77
70
0.43
86
0.55
45
0.48
71
0.81
115
0.38
61
0.34
74
1.60
50
0.95
47
0.74
94
0.52
47
1.88
118
0.57
79
1.07
86
0.73
44
0.42
72
0.51
121
0.72
100
0.47
58
1.87
133
0.57
58
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.73
62
0.69
58
0.79
133
0.54
113
0.65
146
0.58
135
0.54
153
0.72
63
0.54
127
0.59
55
0.57
95
0.61
56
0.47
83
0.62
193
1.80
70
0.96
49
0.72
84
0.68
104
0.91
56
0.72
136
0.64
38
0.55
25
0.53
133
0.52
126
0.58
71
0.51
64
2.19
159
0.59
65
AFF-stereotwo views0.76
65
0.69
58
0.59
96
0.30
38
0.32
46
0.52
111
0.18
46
0.86
95
0.41
78
1.37
182
0.43
64
0.60
55
0.34
50
0.24
38
1.76
66
1.13
82
0.57
48
0.62
79
2.81
163
0.43
45
0.77
52
0.63
35
0.41
66
0.32
51
0.70
94
0.67
89
2.38
184
0.56
55
TestStereotwo views0.77
66
0.93
169
0.79
133
0.56
117
0.46
86
0.66
156
0.33
100
1.22
141
0.42
85
0.90
137
0.52
84
0.84
120
0.54
102
0.39
99
1.50
43
0.92
42
0.73
89
0.51
45
1.38
94
0.56
76
1.25
104
0.82
53
0.44
80
0.44
94
0.77
110
0.79
103
1.34
86
0.79
99
MIM_Stereotwo views0.78
67
0.77
100
0.53
88
0.43
83
0.38
67
0.46
87
0.22
56
1.50
185
0.31
52
0.55
45
0.38
56
0.64
64
0.27
40
0.32
64
1.77
67
1.09
74
0.63
59
0.73
120
3.30
188
0.57
79
1.19
100
0.91
62
0.34
42
0.36
62
0.49
49
0.41
50
1.95
138
0.58
59
DEFOM-Stereo_RVCtwo views0.80
68
0.75
89
0.48
76
0.38
59
0.33
53
0.25
30
0.16
36
0.68
60
0.30
51
0.72
81
0.42
63
0.77
105
0.35
56
0.30
53
1.81
71
1.08
72
0.65
63
0.56
61
1.71
114
0.48
58
1.60
129
4.30
147
0.49
111
0.39
74
0.60
76
0.49
59
0.95
58
0.65
79
CFNettwo views0.80
68
0.84
129
0.79
133
0.76
164
0.70
158
0.60
142
0.46
143
0.84
92
0.48
101
0.66
69
0.71
130
0.92
138
0.61
127
0.43
124
1.75
64
0.84
36
0.70
75
0.64
91
0.90
55
0.78
152
0.89
72
0.72
43
0.45
86
0.51
121
0.87
134
0.83
111
1.67
119
1.15
160
G2L-Stereotwo views0.81
70
0.69
58
0.60
99
0.57
120
0.78
175
0.50
103
0.37
111
0.77
70
0.53
121
0.69
74
0.78
145
0.70
81
0.63
130
0.54
164
2.08
109
0.96
49
0.73
89
0.63
88
1.23
84
0.61
100
1.22
102
0.66
39
0.57
152
0.48
112
0.77
110
0.89
124
1.98
141
0.80
102
HGLStereotwo views0.83
71
0.64
44
0.75
126
0.52
106
0.67
152
0.56
126
0.45
139
0.66
59
0.50
110
1.72
204
0.96
172
0.64
64
0.56
109
0.54
164
1.65
54
1.18
91
0.80
110
0.76
129
1.05
68
0.66
119
0.99
80
1.36
94
0.49
111
0.54
136
0.71
97
0.76
99
1.59
115
0.82
106
S2M2_XLtwo views0.85
72
0.50
33
0.64
106
0.24
20
0.30
40
0.35
55
0.28
76
0.61
47
0.43
86
0.56
47
0.35
52
0.65
67
0.59
118
0.34
74
2.56
156
1.65
173
0.69
72
0.47
37
0.72
38
0.54
67
4.94
185
2.28
119
0.48
100
0.30
44
0.55
65
0.51
64
0.74
40
0.74
89
UNettwo views0.85
72
0.76
95
0.74
123
0.60
129
0.60
131
0.61
145
0.53
151
0.90
104
0.58
140
1.21
168
0.68
118
0.71
85
0.56
109
0.67
201
1.72
61
1.11
80
0.79
107
0.72
118
1.13
77
0.82
162
0.84
62
0.69
40
0.62
172
0.58
149
0.64
80
0.77
100
2.48
193
0.95
130
RASNettwo views0.85
72
0.72
74
0.89
159
0.61
131
0.62
142
0.66
156
0.41
124
0.98
115
0.61
146
1.21
168
0.64
109
0.74
90
0.67
144
0.40
103
1.23
34
1.31
111
0.72
84
0.66
97
1.00
62
0.70
132
1.09
89
1.43
97
0.43
77
0.75
193
0.68
90
0.79
103
2.17
155
0.93
128
anonymousdsp2two views0.86
75
0.84
129
0.84
145
0.43
83
0.44
84
0.56
126
0.32
96
1.17
134
0.36
65
0.66
69
0.67
115
0.69
77
0.40
68
0.49
155
1.46
39
1.36
119
0.67
66
0.62
79
2.12
127
0.60
97
1.36
115
2.66
127
0.36
50
0.44
94
0.71
97
0.51
64
1.86
132
0.64
75
ddtwo views0.86
75
0.80
110
0.51
79
1.05
207
0.44
84
0.85
187
0.44
137
0.85
93
0.39
69
0.83
117
0.40
59
1.23
178
0.39
63
0.47
144
2.21
129
0.98
52
0.97
169
0.71
111
2.00
125
0.61
100
0.84
62
0.77
48
0.49
111
0.64
174
0.70
94
0.53
68
1.73
122
1.47
187
RAFT-Stereo + iAFFtwo views0.86
75
0.72
74
0.84
145
0.41
75
0.39
69
0.54
117
0.21
54
0.99
116
0.52
116
1.54
192
0.57
95
0.73
89
0.39
63
0.26
41
2.15
117
1.17
89
0.64
62
0.50
42
2.66
157
0.57
79
0.88
68
0.90
60
0.47
97
0.39
74
0.86
130
0.72
94
2.54
205
0.66
81
DMCA-RVCcopylefttwo views0.86
75
0.74
81
0.73
120
0.61
131
0.77
171
0.56
126
0.70
177
0.77
70
1.43
231
1.38
184
0.69
121
0.87
125
0.54
102
0.55
170
1.66
56
1.05
62
0.81
119
0.74
124
0.95
59
0.73
139
0.89
72
0.93
64
0.51
125
0.58
149
0.59
74
0.62
78
1.82
129
0.91
125
Former-RAFT_DAM_RVCtwo views0.87
79
0.64
44
0.54
91
0.44
86
0.41
78
0.38
63
0.26
70
1.26
149
0.49
105
0.85
123
0.62
104
0.75
97
0.54
102
0.34
74
1.75
64
1.50
153
0.68
67
0.70
108
1.17
79
0.56
76
1.52
122
3.83
138
0.39
58
0.37
63
0.75
106
1.18
171
0.68
32
0.77
96
RAFT+CT+SAtwo views0.87
79
0.97
185
0.40
52
0.45
89
0.29
38
0.38
63
0.20
51
1.64
208
0.33
58
0.72
81
0.30
37
0.88
130
0.65
138
0.40
103
1.56
48
1.21
98
0.56
45
0.57
63
2.08
126
0.40
36
0.83
61
5.00
160
0.32
38
0.37
63
0.47
44
0.42
54
1.56
106
0.49
47
DSFCAtwo views0.87
79
0.84
129
0.73
120
0.65
141
0.77
171
0.61
145
0.78
182
0.75
68
0.78
172
0.77
98
0.83
156
0.75
97
0.48
86
0.43
124
1.89
83
1.14
84
0.85
128
0.87
163
1.00
62
0.74
141
1.00
84
1.05
74
0.72
205
0.63
171
0.83
121
0.95
137
1.88
134
0.85
115
IERtwo views0.88
82
0.82
119
0.55
92
0.49
95
0.51
110
0.56
126
0.45
139
0.80
81
0.49
105
1.15
166
0.77
140
1.03
153
0.50
92
0.79
221
3.66
212
1.04
59
0.73
89
0.64
91
0.87
53
0.78
152
0.73
48
0.82
53
0.60
167
0.53
132
0.63
78
1.00
148
2.05
146
0.74
89
rafts_anoytwo views0.88
82
0.81
116
0.86
151
0.44
86
0.49
99
0.51
108
0.46
143
1.58
201
0.48
101
0.61
58
0.70
128
0.70
81
0.47
83
0.30
53
2.51
153
1.38
122
0.76
97
0.78
136
2.36
137
0.61
100
1.28
107
0.99
70
0.49
111
0.49
116
0.85
127
0.90
129
0.93
56
1.00
146
ARAFTtwo views0.89
84
0.72
74
0.47
72
0.35
49
0.34
56
0.42
76
0.24
60
0.64
55
0.34
60
2.25
234
0.57
95
0.58
49
0.29
42
0.39
99
2.14
116
1.42
132
0.71
79
0.74
124
2.68
159
0.54
67
1.86
143
1.93
108
0.42
72
0.33
54
0.83
121
0.40
45
1.98
141
0.56
55
HITNettwo views0.90
85
0.65
48
0.62
102
0.68
149
0.50
108
0.39
66
0.32
96
1.26
149
0.89
183
0.70
75
0.70
128
0.91
136
0.49
89
0.39
99
1.96
93
1.02
56
0.66
65
0.64
91
0.79
50
0.61
100
1.53
123
3.85
139
0.46
88
0.52
126
0.58
71
0.64
81
1.81
126
0.81
104
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
TestStereo1two views0.93
86
0.98
188
0.39
49
0.38
59
0.36
63
0.39
66
0.25
63
1.02
118
0.39
69
0.79
108
0.34
46
0.58
49
0.73
160
0.54
164
3.06
189
1.47
148
0.71
79
0.52
47
2.91
166
0.54
67
1.34
110
1.84
105
0.35
45
0.39
74
0.54
60
1.06
153
2.53
203
0.60
66
SA-5Ktwo views0.93
86
0.98
188
0.39
49
0.38
59
0.36
63
0.39
66
0.25
63
1.02
118
0.39
69
0.79
108
0.34
46
0.58
49
0.73
160
0.54
164
3.06
189
1.47
148
0.71
79
0.52
47
2.91
166
0.54
67
1.34
110
1.84
105
0.35
45
0.39
74
0.54
60
1.06
153
2.53
203
0.60
66
RALCasStereoNettwo views0.93
86
0.82
119
0.93
164
0.53
110
0.53
118
0.60
142
0.45
139
1.48
182
0.44
90
1.03
154
0.75
137
0.89
135
0.49
89
0.32
64
2.31
136
1.43
136
0.78
103
0.75
126
1.50
101
0.58
83
1.18
99
2.21
118
0.49
111
0.57
145
0.86
130
1.13
165
0.90
51
1.16
161
CFNet_RVCtwo views0.94
89
0.84
129
0.89
159
0.76
164
0.80
180
0.71
166
0.49
145
0.74
67
0.63
153
0.88
132
0.94
168
0.87
125
0.57
113
0.50
156
1.96
93
1.12
81
0.79
107
0.79
140
1.27
85
0.73
139
1.26
105
1.52
100
0.48
100
0.64
174
0.98
156
1.11
159
1.92
137
1.23
169
DLCB_ROBtwo views0.94
89
0.90
152
0.88
154
0.73
157
0.80
180
0.69
163
0.69
176
0.87
99
0.72
168
0.94
145
0.86
160
1.02
149
0.91
199
0.69
208
1.48
41
1.06
65
0.97
169
0.72
118
0.88
54
0.74
141
1.21
101
1.21
85
0.78
214
0.71
188
1.26
204
1.26
179
1.49
101
0.95
130
AACVNettwo views0.95
91
0.87
138
0.69
114
0.91
189
0.91
192
0.72
170
0.59
167
0.87
99
0.60
143
0.73
86
0.88
163
0.79
109
0.64
133
0.60
186
1.77
67
1.37
121
0.84
126
0.83
153
1.12
76
0.77
148
1.36
115
1.13
79
0.70
198
0.65
176
0.87
134
1.12
162
1.90
135
1.31
177
DISCOtwo views0.96
92
0.98
188
0.56
94
0.57
120
0.61
135
0.81
183
0.79
185
0.77
70
0.81
173
2.06
225
0.86
160
0.66
70
0.70
149
0.42
119
1.87
81
1.27
106
0.99
173
0.80
145
1.80
116
0.80
156
0.92
76
1.33
91
0.57
152
0.51
121
0.72
100
0.84
116
2.02
144
0.80
102
GLC_STEREOtwo views0.97
93
0.89
149
0.85
149
0.56
117
0.60
131
0.48
98
0.40
120
1.70
211
0.47
95
0.77
98
0.67
115
0.78
108
0.63
130
0.61
188
2.53
154
1.65
173
0.88
138
0.60
70
1.57
110
0.70
132
2.48
153
1.17
81
0.44
80
0.43
90
0.67
83
0.55
71
2.36
180
0.88
122
TESTrafttwo views0.98
94
0.96
183
0.42
59
0.41
75
0.33
53
0.40
69
0.25
63
1.13
129
0.39
69
0.97
150
0.35
52
0.61
56
0.75
169
0.54
164
3.18
199
1.42
132
0.70
75
0.50
42
2.86
165
0.53
66
1.08
87
3.15
132
0.35
45
0.40
79
0.52
57
1.18
171
2.52
199
0.61
68
psm_uptwo views0.99
95
0.86
136
0.99
178
0.78
171
0.89
190
0.75
174
0.58
164
1.33
167
1.03
201
0.88
132
0.69
121
0.99
148
0.72
155
0.76
217
1.89
83
1.10
77
0.91
149
0.81
148
1.93
121
0.81
159
1.08
87
0.90
60
0.49
111
0.85
213
1.01
161
1.06
153
1.62
116
1.10
154
STTStereotwo views0.99
95
0.95
178
0.82
141
0.77
169
0.77
171
0.69
163
0.87
195
0.86
95
1.53
240
1.27
174
0.79
147
1.13
169
0.69
147
0.93
238
2.19
123
1.03
58
0.72
84
0.70
108
1.05
68
0.63
112
1.15
97
0.86
57
0.58
161
0.56
144
0.73
103
1.21
175
1.74
124
1.41
185
coex_refinementtwo views1.02
97
1.02
202
0.76
127
0.66
146
0.85
184
0.71
166
0.50
148
0.81
83
1.04
202
0.67
71
1.01
181
0.94
139
0.44
81
0.46
139
3.49
208
0.95
47
0.78
103
0.71
111
3.74
197
0.77
148
0.85
64
0.75
46
0.63
177
0.52
126
0.87
134
0.93
133
1.75
125
0.94
129
NLCA_NET_v2_RVCtwo views1.02
97
0.93
169
0.80
137
0.72
154
0.79
178
0.65
154
1.02
209
1.07
124
2.31
270
2.00
218
0.74
135
0.97
144
0.56
109
0.94
240
1.82
72
0.96
49
0.68
67
0.67
100
1.31
88
0.65
114
0.88
68
0.94
65
0.57
152
0.57
145
0.73
103
1.60
220
1.43
94
1.27
175
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CAStwo views1.05
99
0.80
110
0.40
52
0.50
101
0.48
96
0.37
60
0.30
81
0.55
40
0.44
90
1.13
165
0.77
140
0.64
64
0.95
209
0.31
61
2.68
169
1.79
183
0.96
166
0.82
151
1.08
73
0.61
100
2.91
160
5.06
163
0.44
80
0.30
44
0.81
115
0.92
132
1.18
77
1.16
161
AF-Nettwo views1.05
99
0.83
122
0.94
165
0.76
164
0.91
192
0.98
207
1.68
244
1.52
192
1.06
204
0.57
50
0.96
172
1.34
184
0.64
133
0.74
212
1.71
57
0.99
53
0.80
110
0.60
70
1.64
112
0.72
136
0.72
45
2.35
120
0.63
177
0.62
165
0.89
142
0.82
109
1.57
111
1.25
172
Nwc_Nettwo views1.05
99
0.83
122
0.94
165
0.76
164
0.91
192
0.98
207
1.68
244
1.52
192
1.06
204
0.57
50
0.96
172
1.34
184
0.64
133
0.74
212
1.71
57
0.99
53
0.80
110
0.60
70
1.64
112
0.72
136
0.72
45
2.35
120
0.63
177
0.62
165
0.89
142
0.82
109
1.57
111
1.25
172
LMCR-Stereopermissivemany views1.06
102
0.83
122
0.84
145
0.53
110
0.62
142
0.64
152
0.33
100
1.12
127
0.60
143
0.83
117
0.79
147
0.91
136
0.49
89
0.41
109
2.53
154
1.54
160
1.03
184
0.75
126
2.16
128
1.42
221
1.68
134
3.87
141
0.49
111
0.65
176
0.75
106
0.83
111
1.10
73
0.88
122
PDISCO_ROBtwo views1.06
102
0.87
138
0.60
99
0.80
176
0.68
155
0.53
116
0.59
167
0.93
108
0.69
163
1.80
209
1.00
180
0.74
90
0.63
130
0.66
199
1.87
81
1.44
138
0.89
140
1.10
223
1.53
104
0.80
156
1.56
126
2.40
123
0.52
132
0.63
171
1.19
189
0.79
103
2.56
206
0.81
104
SAtwo views1.07
104
0.90
152
0.42
59
0.55
115
0.53
118
0.49
100
0.24
60
1.60
202
0.46
93
0.71
80
0.41
61
0.69
77
0.58
117
0.62
193
1.74
62
1.41
129
0.78
103
0.79
140
3.17
177
0.65
114
1.24
103
4.73
152
0.34
42
0.51
121
0.75
106
1.12
162
2.64
213
0.72
88
PS-NSSStwo views1.07
104
1.44
254
0.69
114
1.20
227
0.91
192
1.16
225
0.93
202
0.80
81
0.55
129
0.74
89
0.49
74
1.98
220
1.03
216
0.91
235
1.54
47
0.92
42
0.83
124
0.73
120
1.45
99
0.62
107
0.94
77
0.63
35
1.68
273
0.50
119
1.00
159
0.95
137
3.21
238
1.11
157
HSMtwo views1.07
104
0.75
89
0.97
173
0.78
171
0.77
171
0.54
117
0.54
153
1.87
228
0.60
143
0.76
94
0.85
159
0.87
125
0.67
144
0.56
171
2.24
130
1.05
62
0.92
155
0.71
111
2.57
145
0.71
134
1.80
141
2.08
116
0.56
149
0.72
191
0.90
146
0.97
141
2.08
148
1.03
147
LL-Strereo2two views1.08
107
0.65
48
0.59
96
0.40
71
0.34
56
0.31
43
0.23
57
1.48
182
0.38
67
0.68
73
0.58
99
0.63
60
0.32
48
0.64
197
1.65
54
1.13
82
0.63
59
0.53
56
1.32
90
0.66
119
1.35
113
11.05
262
0.44
80
0.34
56
0.64
80
0.60
76
1.05
66
0.56
55
raftrobusttwo views1.11
108
0.65
48
0.92
163
0.55
115
0.49
99
0.44
80
0.33
100
1.55
198
0.47
95
0.94
145
0.72
133
0.82
116
0.53
97
0.36
88
2.91
180
1.71
178
0.71
79
0.70
108
4.37
205
0.65
114
1.69
136
3.95
143
0.59
165
0.42
89
0.95
154
0.85
118
0.99
61
0.85
115
UCFNet_RVCtwo views1.11
108
1.26
236
0.85
149
0.88
186
0.93
199
0.77
178
0.58
164
0.78
76
0.67
160
0.93
143
0.80
151
1.25
179
0.93
204
0.48
150
2.17
121
1.09
74
0.78
103
0.82
151
2.60
152
0.80
156
1.32
109
1.66
102
1.31
261
0.67
180
1.05
169
1.11
159
1.44
96
2.13
218
test_4two views1.13
110
0.74
81
0.77
129
0.42
81
0.32
46
0.34
51
0.26
70
0.78
76
0.33
58
0.75
90
0.40
59
0.87
125
0.35
56
0.40
103
2.10
115
1.55
161
0.65
63
0.69
106
1.50
101
0.51
61
1.12
94
10.25
236
0.41
66
0.37
63
0.58
71
0.70
91
2.73
218
0.62
70
S2M2two views1.14
111
0.87
138
1.13
209
0.46
92
0.37
65
0.43
78
0.28
76
0.60
45
0.52
116
1.85
213
0.34
46
0.63
60
0.40
68
0.43
124
2.36
138
1.91
188
0.70
75
0.60
70
1.06
71
0.58
83
4.38
174
4.69
150
0.49
111
0.37
63
0.64
80
0.89
124
3.07
233
0.79
99
Sa-1000two views1.14
111
0.75
89
0.47
72
0.49
95
0.61
135
0.50
103
0.27
73
1.70
211
0.52
116
0.73
86
0.48
71
0.66
70
0.67
144
0.79
221
2.17
121
1.43
136
0.92
155
0.93
184
3.23
178
0.58
83
1.55
125
4.86
155
0.35
45
0.59
156
1.14
185
1.24
176
2.35
178
0.76
95
RALAANettwo views1.14
111
0.70
64
0.84
145
0.53
110
0.53
118
0.60
142
0.41
124
1.30
156
0.50
110
0.94
145
0.65
111
0.72
88
0.59
118
0.33
69
1.97
96
1.32
113
0.75
96
0.89
173
1.96
122
0.85
165
3.07
162
5.37
171
0.53
133
0.62
165
0.82
118
1.03
151
2.08
148
0.78
98
CASnettwo views1.15
114
0.91
156
0.49
77
0.40
71
0.43
82
0.38
63
0.20
51
0.91
106
0.49
105
0.77
98
0.56
92
0.88
130
0.53
97
0.35
79
2.15
117
1.24
102
0.72
84
0.50
42
1.34
92
0.54
67
7.12
221
5.37
171
0.41
66
0.38
67
1.21
191
0.49
59
1.45
97
0.79
99
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
iResNet_ROBtwo views1.16
115
0.83
122
0.82
141
0.65
141
0.59
128
0.67
159
0.58
164
2.65
278
0.53
121
1.73
205
0.76
139
0.87
125
0.78
179
0.47
144
3.77
220
1.45
140
0.87
134
0.86
161
2.81
163
0.65
114
1.26
105
0.87
58
0.57
152
0.73
192
0.81
115
0.95
137
2.65
215
1.03
147
RPtwo views1.18
116
1.02
202
1.24
228
0.94
193
1.08
211
0.84
184
1.17
222
1.25
147
1.31
223
0.61
58
1.16
189
1.21
176
0.75
169
0.68
202
3.34
203
1.04
59
0.89
140
0.67
100
1.20
83
0.79
154
0.88
68
2.85
129
0.59
165
0.71
188
0.86
130
0.98
145
2.51
198
1.21
167
trnettwo views1.20
117
0.91
156
0.94
165
0.52
106
0.42
80
0.47
93
0.25
63
1.41
177
0.61
146
0.88
132
0.75
137
0.97
144
0.72
155
0.37
90
2.66
166
3.31
234
0.86
131
0.61
75
2.41
139
0.60
97
3.93
172
3.14
131
0.50
123
0.47
100
1.03
165
0.86
121
1.72
120
0.99
141
APVNettwo views1.21
118
1.02
202
0.64
106
0.69
150
0.78
175
0.86
188
0.84
190
0.78
76
0.71
167
0.92
141
0.82
154
0.86
123
0.59
118
0.58
178
2.67
168
1.65
173
1.11
193
0.98
199
3.23
178
0.85
165
1.62
130
4.73
152
0.55
142
0.84
212
0.77
110
0.80
106
1.90
135
0.98
135
iinet-ftwo views1.22
119
1.08
212
0.64
106
0.93
192
0.46
86
0.68
161
0.57
161
0.79
80
0.48
101
2.11
230
1.35
204
0.83
118
0.64
133
0.35
79
3.95
223
1.80
185
0.77
100
0.66
97
2.93
172
1.00
186
1.53
123
3.24
133
0.64
183
0.53
132
1.10
180
0.63
80
2.23
168
0.90
124
PA-Nettwo views1.22
119
0.95
178
1.13
209
0.75
160
1.31
234
0.68
161
0.84
190
0.82
88
1.18
217
0.83
117
0.77
140
0.76
101
0.78
179
0.91
235
3.00
185
1.21
98
0.68
67
0.77
132
1.02
66
0.82
162
1.13
96
4.67
149
0.66
187
0.82
207
1.00
159
2.10
254
1.24
79
2.13
218
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views1.25
121
1.24
230
1.10
201
0.99
200
1.05
205
0.96
202
1.53
238
1.79
219
1.59
243
0.60
56
1.34
201
1.17
173
1.03
216
0.74
212
2.44
144
1.07
66
0.89
140
0.99
202
1.54
106
0.91
173
0.99
80
2.46
124
0.80
222
0.76
195
1.26
204
1.59
217
1.39
91
1.61
195
Abc-Nettwo views1.25
121
1.24
230
1.10
201
0.99
200
1.05
205
0.96
202
1.53
238
1.79
219
1.59
243
0.60
56
1.34
201
1.17
173
1.03
216
0.74
212
2.44
144
1.07
66
0.89
140
0.99
202
1.54
106
0.91
173
0.99
80
2.46
124
0.80
222
0.76
195
1.26
204
1.59
217
1.39
91
1.61
195
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
CEStwo views1.27
123
0.77
100
0.56
94
0.45
89
0.56
123
0.51
108
0.21
54
1.50
185
0.70
165
0.78
101
0.80
151
0.84
120
0.90
198
0.33
69
3.45
207
2.96
224
1.14
197
1.04
215
1.32
90
1.08
195
4.63
180
4.87
156
0.63
177
0.38
67
0.85
127
0.83
111
1.02
63
1.16
161
GMOStereotwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
error versiontwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
test-vtwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
test-2two views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
GANetREF_RVCpermissivetwo views1.28
124
1.18
223
0.95
170
1.18
226
1.04
203
1.00
212
0.79
185
1.25
147
1.10
209
1.29
176
0.77
140
2.28
236
0.91
199
0.63
195
2.00
98
1.14
84
1.01
178
0.98
199
2.44
141
0.82
162
1.98
147
1.33
91
0.78
214
1.05
228
1.28
209
1.27
180
2.63
212
1.49
188
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AMNettwo views1.29
129
1.12
215
1.05
188
1.13
215
1.12
216
1.24
234
1.08
217
1.36
171
1.13
213
1.10
162
1.11
186
1.51
200
1.26
228
1.20
260
1.52
45
1.57
165
1.35
222
1.21
243
1.37
93
1.22
208
1.35
113
1.19
83
1.25
254
1.19
237
1.23
199
1.72
230
1.54
105
1.65
199
raft_robusttwo views1.30
130
0.93
169
0.53
88
0.59
127
0.47
90
0.57
132
0.37
111
2.06
248
0.52
116
1.69
203
0.53
86
0.76
101
0.82
187
0.47
144
2.16
120
1.52
158
0.84
126
0.84
159
5.71
226
0.59
87
2.50
154
5.04
162
0.46
88
0.51
121
0.99
157
1.05
152
1.58
113
0.99
141
IPLGR_Ctwo views1.31
131
0.71
71
0.68
113
0.57
120
0.46
86
0.52
111
0.31
85
0.81
83
0.53
121
0.76
94
0.69
121
1.03
153
0.53
97
0.59
182
2.62
161
1.33
116
0.88
138
0.63
88
3.25
184
0.61
100
1.64
133
10.69
249
0.55
142
0.53
132
0.89
142
0.57
74
2.40
186
0.62
70
ACREtwo views1.31
131
0.70
64
0.66
111
0.58
126
0.47
90
0.52
111
0.32
96
0.81
83
0.53
121
0.76
94
0.69
121
1.04
157
0.52
96
0.59
182
2.66
166
1.32
113
0.89
140
0.63
88
3.25
184
0.61
100
1.62
130
10.69
249
0.55
142
0.52
126
0.92
149
0.55
71
2.40
186
0.62
70
SACVNettwo views1.31
131
0.94
172
0.95
170
0.90
187
1.10
213
0.87
190
0.92
201
1.50
185
0.81
173
1.23
173
0.71
130
0.94
139
0.69
147
0.68
202
1.83
75
1.40
126
1.12
196
0.83
153
2.20
130
0.94
179
2.13
148
5.87
181
0.65
184
0.82
207
1.04
166
1.06
153
2.02
144
1.30
176
4D-IteraStereotwo views1.32
134
0.61
43
1.07
194
0.49
95
0.43
82
0.40
69
0.25
63
1.44
180
0.37
66
0.75
90
0.56
92
0.75
97
0.43
73
0.43
124
2.29
135
1.38
122
0.68
67
0.66
97
2.70
160
0.59
87
3.21
164
10.86
257
0.46
88
0.40
79
0.69
92
0.83
111
2.34
176
0.64
75
CIPLGtwo views1.32
134
0.70
64
0.69
114
0.57
120
0.46
86
0.52
111
0.33
100
0.81
83
0.55
129
0.76
94
0.69
121
1.03
153
0.53
97
0.59
182
2.91
180
1.33
116
0.89
140
0.62
79
3.23
178
0.62
107
1.62
130
10.69
249
0.55
142
0.53
132
0.90
146
0.54
69
2.37
183
0.61
68
DN-CSS_ROBtwo views1.32
134
0.83
122
1.03
184
0.87
185
0.86
185
0.47
93
0.36
109
2.00
242
0.57
138
1.56
194
1.81
216
0.96
143
0.77
177
0.38
95
2.15
117
1.40
126
1.03
184
0.93
184
5.27
214
0.66
119
2.56
155
2.82
128
0.54
139
0.86
215
0.79
113
0.81
107
2.07
147
1.33
180
UDGNettwo views1.34
137
1.00
196
0.76
127
1.64
251
1.38
239
1.69
255
1.25
226
1.22
141
0.69
163
0.63
64
0.84
158
0.83
118
0.41
71
1.62
271
2.02
104
1.19
94
0.81
119
0.87
163
1.98
123
0.92
176
1.68
134
5.69
177
1.26
257
0.47
100
1.21
191
0.95
137
2.15
152
1.03
147
CREStereotwo views1.37
138
0.91
156
0.94
165
0.52
106
0.42
80
0.47
93
0.26
70
1.43
179
0.66
158
0.87
126
0.83
156
0.95
141
0.73
160
0.36
88
2.98
184
4.38
258
0.85
128
0.56
61
2.41
139
0.62
107
5.52
198
4.71
151
0.53
133
0.47
100
1.02
163
0.87
122
1.73
122
0.98
135
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNet-RVC-Resampletwo views1.37
138
0.87
138
0.99
178
0.72
154
0.81
182
0.63
149
1.02
209
1.06
123
0.91
186
0.99
151
0.99
178
1.69
208
0.73
160
1.02
246
4.06
225
1.41
129
1.02
181
1.62
267
1.55
108
1.04
190
1.37
117
5.03
161
0.57
152
1.14
234
0.88
138
1.99
247
1.45
97
1.54
191
FADNet-RVCtwo views1.38
140
0.71
71
0.88
154
0.77
169
1.09
212
0.58
135
2.16
261
0.92
107
0.57
138
1.03
154
0.72
133
1.48
195
0.64
133
0.61
188
5.02
232
1.56
163
0.85
128
0.90
176
2.24
132
1.52
237
2.20
149
4.08
145
0.51
125
0.77
197
1.48
233
1.14
167
1.43
94
1.35
181
PMTNettwo views1.39
141
0.94
172
0.99
178
0.48
94
0.49
99
0.47
93
0.32
96
0.83
89
0.66
158
0.83
117
0.62
104
0.88
130
0.50
92
0.35
79
2.72
172
4.30
255
0.91
149
0.57
63
2.40
138
0.54
67
6.12
204
5.45
174
0.57
152
0.38
67
1.99
266
1.00
148
1.09
69
1.19
166
GEStwo views1.40
142
0.73
78
0.79
133
0.78
171
0.71
159
0.80
181
0.59
167
1.37
173
0.97
191
1.66
200
0.94
168
0.74
90
0.65
138
0.63
195
2.40
141
1.55
161
0.98
171
0.89
173
5.45
220
1.14
201
3.99
173
3.85
139
0.65
184
0.83
210
0.75
106
0.81
107
1.52
104
1.72
202
LoS_RVCtwo views1.42
143
1.25
233
0.86
151
0.31
40
0.49
99
0.37
60
0.33
100
0.73
65
0.56
134
2.10
228
0.68
118
0.67
73
0.70
149
0.33
69
3.08
192
3.79
245
0.89
140
2.10
287
3.01
175
0.66
119
4.40
175
6.44
186
0.51
125
0.43
90
0.82
118
0.85
118
0.90
51
0.99
141
tt_lltwo views1.42
143
1.25
233
0.86
151
0.31
40
0.49
99
0.37
60
0.33
100
0.73
65
0.56
134
2.10
228
0.68
118
0.67
73
0.70
149
0.33
69
3.08
192
3.79
245
0.89
140
2.10
287
3.01
175
0.66
119
4.40
175
6.44
186
0.51
125
0.43
90
0.82
118
0.85
118
0.90
51
0.99
141
sAnonymous2two views1.42
143
0.76
95
0.52
86
0.41
75
0.47
90
0.71
166
0.41
124
1.28
153
0.98
194
0.65
66
0.89
164
1.08
162
0.95
209
0.37
90
2.20
124
2.28
207
1.10
189
1.04
215
3.71
194
0.92
176
4.94
185
6.73
192
0.62
172
0.55
142
0.83
121
1.39
192
1.25
80
1.24
170
CroCo_RVCtwo views1.42
143
0.76
95
0.52
86
0.41
75
0.47
90
0.71
166
0.41
124
1.28
153
0.98
194
0.65
66
0.89
164
1.08
162
0.95
209
0.37
90
2.20
124
2.28
207
1.10
189
1.04
215
3.71
194
0.92
176
4.94
185
6.73
192
0.62
172
0.55
142
0.83
121
1.39
192
1.25
80
1.24
170
RGCtwo views1.43
147
1.30
242
1.99
270
1.14
220
1.18
224
1.16
225
1.01
206
1.20
139
1.08
207
0.91
138
1.70
215
1.18
175
1.24
227
0.87
229
3.10
196
1.18
91
0.98
171
0.86
161
1.81
117
1.02
188
1.39
118
3.87
141
0.76
207
0.90
219
1.14
185
1.53
212
2.17
155
1.85
206
YMNettwo views1.44
148
0.79
108
0.41
56
0.51
102
0.61
135
0.59
138
1.36
232
0.77
70
0.56
134
1.28
175
0.36
54
0.67
73
2.20
245
0.56
171
19.21
264
1.49
151
0.77
100
0.65
94
0.74
41
0.39
32
0.61
32
1.27
89
0.23
27
0.38
67
0.69
92
0.46
56
0.81
46
0.66
81
castereotwo views1.44
148
0.88
147
0.96
172
0.46
92
0.47
90
0.33
48
0.27
73
0.77
70
0.50
110
0.80
112
0.64
109
1.04
157
0.48
86
0.38
95
2.25
131
2.81
219
1.03
184
0.76
129
2.67
158
0.62
107
7.90
234
7.11
199
0.57
152
0.52
126
1.04
166
1.25
178
1.03
64
1.21
167
FADNettwo views1.44
148
0.83
122
0.83
144
0.82
181
1.03
202
0.61
145
1.88
255
0.97
113
0.73
169
0.93
143
0.92
167
1.16
172
0.76
174
0.74
212
3.69
216
1.34
118
0.91
149
1.03
212
2.63
153
1.49
230
2.87
159
4.93
157
0.49
111
0.65
176
1.54
242
1.70
229
1.51
103
1.83
205
stereogantwo views1.44
148
1.33
245
1.05
188
1.11
211
1.28
232
1.11
219
0.97
203
1.26
149
1.05
203
1.22
172
1.10
184
1.62
206
0.89
196
0.66
199
2.34
137
1.31
111
0.94
160
0.81
148
1.72
115
0.95
181
1.10
91
8.04
206
0.71
200
0.77
197
0.83
121
1.06
153
2.36
180
1.38
183
MGS-Stereotwo views1.48
152
0.99
191
0.47
72
0.40
71
0.35
60
0.40
69
0.36
109
0.65
56
0.26
38
0.52
44
0.43
64
0.52
41
0.38
61
0.43
124
23.31
272
0.93
46
0.73
89
0.79
140
0.93
57
0.65
114
1.10
91
1.25
88
0.44
80
0.48
112
0.72
100
0.49
59
1.29
84
0.77
96
NCCL2two views1.48
152
1.28
240
1.10
201
1.11
211
1.43
242
0.78
179
0.90
198
1.05
122
1.14
215
1.86
215
1.27
197
1.02
149
0.81
182
0.80
224
3.43
205
1.42
132
1.14
197
0.87
163
1.31
88
0.89
172
1.94
146
3.37
135
1.48
269
1.02
224
1.50
237
1.35
187
3.80
260
1.85
206
TANstereotwo views1.49
154
1.06
209
0.88
154
0.67
147
0.73
162
0.87
190
0.33
100
0.86
95
0.61
146
0.70
75
0.69
121
0.59
53
0.59
118
1.02
246
2.75
173
2.89
221
0.94
160
1.13
231
1.43
97
1.28
211
5.13
192
5.06
163
1.35
263
0.46
98
0.54
60
0.89
124
5.92
280
0.74
89
XX-TBDtwo views1.49
154
1.06
209
0.88
154
0.67
147
0.73
162
0.87
190
0.33
100
0.86
95
0.61
146
0.70
75
0.69
121
0.59
53
0.59
118
1.02
246
2.75
173
2.89
221
0.94
160
1.13
231
1.43
97
1.28
211
5.13
192
5.06
163
1.35
263
0.46
98
0.54
60
0.89
124
5.92
280
0.74
89
LoStwo views1.51
156
0.79
108
0.59
96
0.52
106
0.56
123
0.65
154
0.38
113
2.56
274
0.88
181
1.21
168
0.94
168
0.97
144
0.88
195
0.35
79
3.04
188
3.41
236
1.24
209
0.93
184
2.19
129
0.68
124
5.96
200
7.00
197
0.62
172
0.47
100
1.14
185
0.98
145
1.06
68
0.87
119
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
ICVPtwo views1.51
156
0.74
81
1.07
194
0.75
160
0.75
166
0.84
184
0.54
153
1.10
125
0.86
178
1.37
182
1.15
188
0.88
130
1.08
222
0.53
163
1.90
85
1.91
188
1.22
206
0.99
202
1.56
109
0.96
183
3.89
171
10.50
243
0.68
194
0.77
197
0.91
148
1.19
173
1.42
93
1.14
159
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views1.53
158
0.77
100
0.77
129
0.75
160
0.67
152
0.47
93
0.40
120
1.23
143
1.32
224
0.83
117
0.77
140
0.95
141
0.74
165
0.59
182
5.02
232
2.40
214
1.64
235
1.43
261
1.27
85
0.85
165
4.54
177
8.28
208
0.48
100
0.91
220
0.70
94
0.77
100
1.85
130
0.99
141
iResNetv2_ROBtwo views1.57
159
0.87
138
0.70
117
1.13
215
0.65
146
0.72
170
0.49
145
2.63
277
0.64
155
1.77
208
0.87
162
1.30
183
0.75
169
0.40
103
4.81
231
1.26
105
0.91
149
0.71
111
4.58
208
0.81
159
7.66
227
1.62
101
0.58
161
0.80
200
0.81
115
0.83
111
3.12
237
0.91
125
MyStereo04two views1.58
160
0.90
152
0.97
173
0.78
171
0.89
190
0.57
132
0.40
120
1.57
200
0.97
191
2.23
233
0.89
164
1.34
184
0.54
102
0.41
109
2.94
183
2.47
215
0.86
131
0.92
180
5.37
216
1.50
233
4.62
179
3.51
136
0.92
240
0.81
204
1.21
191
1.61
222
2.58
208
0.95
130
AE-Stereotwo views1.61
161
0.85
133
1.23
227
0.81
179
0.51
110
0.57
132
0.75
181
0.83
89
0.49
105
0.79
108
0.54
88
1.29
180
0.72
155
0.47
144
2.05
108
2.96
224
0.99
173
0.92
180
2.63
153
0.86
168
4.61
178
11.92
280
0.50
123
0.80
200
1.26
204
1.34
186
1.95
138
0.86
117
castereo++two views1.62
162
0.76
95
0.78
132
0.59
127
0.41
78
0.34
51
0.25
63
0.85
93
0.43
86
0.81
115
0.62
104
1.02
149
0.51
94
0.38
95
1.86
80
2.57
216
1.01
178
0.73
120
3.23
178
0.62
107
7.09
220
6.35
185
0.63
177
0.58
149
0.99
157
1.01
150
7.61
293
1.63
198
dadtwo views1.63
163
0.97
185
0.65
109
2.18
268
1.19
226
1.01
213
3.99
281
1.66
209
0.55
129
1.21
168
0.50
76
1.12
168
2.01
241
0.58
178
3.09
194
1.16
87
1.11
193
0.76
129
2.70
160
0.77
148
1.34
110
1.48
98
0.71
200
0.88
217
2.48
275
0.71
92
5.52
279
3.80
255
CC-Net-ROBtwo views1.63
163
1.81
267
1.19
222
1.85
257
1.77
259
2.27
268
1.56
240
0.93
108
0.96
190
1.29
176
0.67
115
5.48
281
2.51
251
1.43
269
1.64
51
0.87
38
1.34
219
1.17
235
2.46
142
0.88
170
1.09
89
1.35
93
3.34
289
0.63
171
1.22
196
1.15
168
1.47
99
1.57
193
XPNet_ROBtwo views1.63
163
1.57
261
1.09
200
0.91
189
1.13
219
1.01
213
0.88
196
0.95
112
1.14
215
1.07
160
1.82
217
4.03
267
0.72
155
0.78
218
1.82
72
1.51
154
1.52
232
0.94
187
1.42
95
1.04
190
2.20
149
7.75
204
0.86
236
0.80
200
0.94
150
1.29
183
3.34
245
1.56
192
DeepPruner_ROBtwo views1.64
166
0.75
89
0.91
161
0.85
183
0.88
188
0.75
174
1.75
248
1.26
149
0.91
186
1.49
190
1.65
213
0.85
122
0.81
182
0.56
171
3.12
198
1.49
151
1.02
181
1.02
209
2.33
136
0.75
145
7.42
224
6.70
190
0.81
226
0.69
183
0.88
138
1.45
200
2.17
155
0.87
119
CFNet_pseudotwo views1.65
167
0.78
104
0.82
141
0.82
181
0.79
178
0.69
163
0.42
130
0.93
108
0.53
121
0.95
148
0.81
153
0.88
130
0.81
182
0.81
225
15.70
259
1.39
124
0.74
94
0.71
111
7.24
261
0.77
148
0.97
78
1.50
99
0.69
197
0.57
145
0.88
138
0.89
124
1.47
99
1.12
158
GCAP-BATtwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
test_for_modeltwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
testlalala2two views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
testlalalatwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
testlalala_basetwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
GCAP-Stereotwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
SGD-Stereotwo views1.69
174
0.50
33
0.36
44
0.28
30
0.30
40
0.30
40
0.17
43
0.57
42
0.28
47
0.44
37
0.21
23
0.69
77
0.39
63
0.25
39
31.04
275
1.51
154
0.73
89
0.52
47
0.68
35
0.45
52
1.43
121
1.32
90
0.41
66
0.30
44
0.45
37
0.46
56
0.87
49
0.63
74
test-3two views1.73
175
1.00
196
1.08
197
0.63
139
0.60
131
0.55
120
0.43
133
1.99
238
0.39
69
0.86
124
0.54
88
1.45
192
0.53
97
0.41
109
2.20
124
1.41
129
0.81
119
0.79
140
6.57
242
0.69
125
5.20
196
11.52
274
0.46
88
0.54
136
0.86
130
0.97
141
3.11
234
0.98
135
test_1two views1.73
175
1.01
198
1.08
197
0.63
139
0.60
131
0.55
120
0.43
133
1.99
238
0.39
69
0.86
124
0.54
88
1.45
192
0.54
102
0.41
109
2.20
124
1.42
132
0.80
110
0.79
140
6.57
242
0.69
125
5.20
196
11.52
274
0.46
88
0.54
136
0.87
134
0.97
141
3.11
234
0.98
135
test_3two views1.73
175
1.02
202
1.05
188
0.65
141
0.61
135
0.55
120
0.43
133
1.96
234
0.38
67
0.88
132
0.52
84
1.45
192
0.54
102
0.40
103
2.20
124
1.40
126
0.81
119
0.81
148
6.56
241
0.71
134
5.08
189
11.49
271
0.43
77
0.49
116
0.96
155
1.09
158
3.23
239
0.98
135
CREStereo++_RVCtwo views1.73
175
0.91
156
1.03
184
0.51
102
0.56
123
0.40
69
0.28
76
1.37
173
0.51
114
0.83
117
0.61
102
0.76
101
0.85
192
0.34
74
2.78
175
3.07
227
0.92
155
0.61
75
2.72
162
0.55
74
5.01
188
5.69
177
0.53
133
0.38
67
0.94
150
0.84
116
12.80
309
0.98
135
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
GEStereo_RVCtwo views1.80
179
0.96
183
0.99
178
1.02
203
0.87
186
1.12
220
1.03
212
1.66
209
0.82
175
0.91
138
0.79
147
1.34
184
0.75
169
0.61
188
2.25
131
2.14
204
1.14
197
1.23
247
4.06
202
1.22
208
4.66
181
11.41
270
0.71
200
0.95
222
0.88
138
0.97
141
2.49
196
1.65
199
NaN_ROBtwo views1.84
180
1.11
214
1.04
187
0.95
194
1.77
259
0.86
188
0.91
200
1.32
166
10.70
317
1.00
153
1.38
207
2.45
241
0.89
196
1.12
255
4.34
228
1.29
108
0.92
155
0.88
172
1.49
100
1.14
201
1.42
120
2.02
115
0.76
207
1.03
225
1.30
210
2.01
248
2.38
184
3.27
248
sCroCo_RVCtwo views1.85
181
0.67
53
0.55
92
0.37
57
0.49
99
0.75
174
0.41
124
0.94
111
1.56
242
1.51
191
0.78
145
1.04
157
0.94
207
0.48
150
2.49
148
5.07
266
1.26
212
1.22
244
2.53
144
1.37
216
7.95
236
11.14
263
0.45
86
0.60
158
0.94
150
1.12
162
2.34
176
1.05
150
ETE_ROBtwo views1.85
181
1.93
272
1.18
219
1.04
205
1.33
236
1.26
236
1.12
220
1.11
126
2.30
269
1.36
181
3.26
244
3.18
255
0.94
207
1.14
257
2.62
161
1.51
154
2.14
259
0.99
202
2.50
143
1.15
203
3.67
168
5.74
180
0.86
236
1.03
225
1.21
191
1.36
189
2.30
170
1.68
201
LALA_ROBtwo views1.85
181
2.17
276
1.13
209
1.05
207
1.26
228
1.16
225
1.01
206
1.17
134
1.46
234
2.06
225
2.82
236
3.47
257
0.92
202
0.93
238
3.90
222
1.46
145
1.36
223
1.18
238
2.20
130
1.31
214
2.84
158
5.10
166
0.77
212
1.01
223
1.24
200
1.41
195
3.89
264
1.77
204
MLCVtwo views1.91
184
0.87
138
0.97
173
1.33
236
1.13
219
0.99
209
0.74
180
2.14
251
0.77
171
2.02
219
4.44
255
1.60
203
1.56
235
0.45
135
2.63
163
1.79
183
1.11
193
0.96
195
6.71
248
1.05
192
4.69
183
5.60
175
0.66
187
1.60
249
1.14
185
1.35
187
2.31
172
1.06
152
RAFT + AFFtwo views1.96
185
0.49
32
0.42
59
0.41
75
0.20
21
0.41
74
0.19
47
0.65
56
0.23
35
0.56
47
0.27
32
0.77
105
0.21
32
0.29
50
39.69
279
0.90
41
0.62
57
0.35
15
1.92
120
0.38
31
0.77
52
0.57
28
0.32
38
0.27
40
0.71
97
0.33
32
0.58
18
0.29
25
DDUNettwo views2.05
186
2.73
283
2.03
271
2.92
281
2.66
284
3.04
281
2.76
268
1.17
134
1.11
211
1.60
195
1.21
195
2.23
233
1.69
238
2.81
284
2.04
106
1.25
104
2.78
266
2.42
300
2.63
153
2.90
279
1.92
145
2.11
117
2.77
287
0.92
221
1.01
161
0.93
133
2.50
197
1.10
154
CASStwo views2.08
187
1.02
202
1.16
217
1.28
231
0.99
200
0.88
194
3.39
276
1.42
178
1.02
200
1.30
178
2.46
235
1.14
170
0.81
182
0.46
139
2.70
170
2.38
213
3.41
272
1.10
223
3.40
190
1.18
205
8.01
237
8.63
212
0.66
187
0.69
183
1.49
235
1.27
180
2.52
199
1.41
185
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
HUFtwo views2.12
188
0.70
64
0.53
88
0.35
49
0.25
30
0.29
38
0.16
36
0.81
83
0.29
49
0.49
42
0.24
27
0.61
56
0.43
73
0.27
43
21.42
267
21.17
326
0.56
45
0.52
47
2.25
133
0.54
67
1.58
128
1.03
72
0.42
72
0.34
56
0.51
54
0.30
24
0.76
42
0.47
43
s12784htwo views2.23
189
1.12
215
1.32
233
1.12
213
0.91
192
0.59
138
0.39
114
1.37
173
0.65
156
1.05
158
0.82
154
1.08
162
0.95
209
0.37
90
2.80
177
4.82
262
0.93
159
0.71
111
3.28
187
0.58
83
7.80
229
8.40
211
0.51
125
0.54
136
1.50
237
1.13
165
11.58
303
3.94
256
R-Stereo Traintwo views2.23
189
1.01
198
1.14
212
0.96
195
0.63
144
0.73
172
0.31
85
1.30
156
1.01
198
1.68
201
4.49
256
1.29
180
0.70
149
0.42
119
2.49
148
3.99
250
1.66
236
1.02
209
6.77
250
1.11
196
7.83
230
12.24
285
0.49
111
0.54
136
1.42
225
1.66
225
1.34
86
1.93
211
RAFT-Stereopermissivetwo views2.23
189
1.01
198
1.14
212
0.96
195
0.63
144
0.73
172
0.31
85
1.30
156
1.01
198
1.68
201
4.49
256
1.29
180
0.70
149
0.42
119
2.49
148
3.99
250
1.66
236
1.02
209
6.77
250
1.11
196
7.83
230
12.24
285
0.49
111
0.54
136
1.42
225
1.66
225
1.34
86
1.93
211
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
EGLCR-Stereotwo views2.26
192
0.87
138
1.17
218
0.45
89
0.48
96
0.61
145
0.23
57
0.83
89
0.55
129
0.72
81
0.53
86
0.80
110
0.66
141
0.41
109
2.36
138
2.92
223
0.90
148
1.10
223
3.35
189
0.60
97
5.09
190
12.56
298
0.47
97
0.45
96
0.89
142
0.91
131
20.21
318
0.86
117
cross-rafttwo views2.26
192
0.88
147
1.08
197
0.73
157
0.68
155
0.64
152
0.44
137
2.04
246
0.61
146
0.95
148
1.30
198
1.03
153
0.76
174
0.43
124
2.58
158
5.15
267
0.99
173
0.78
136
7.00
257
1.80
250
12.15
278
10.30
240
0.65
184
0.60
158
1.60
247
1.92
241
1.66
118
2.36
228
AnonymousMtwo views2.27
194
0.64
44
0.44
63
0.51
102
0.32
46
0.49
100
0.24
60
1.70
211
0.48
101
0.75
90
2.06
228
0.70
81
0.47
83
0.39
99
2.47
147
3.26
232
0.99
173
1.03
212
1.88
118
2.37
270
4.85
184
6.68
189
0.57
152
0.47
100
0.53
59
0.65
88
11.71
305
14.52
297
LG-Stereo_Zeroshottwo views2.31
195
1.03
207
0.50
78
1.41
240
2.53
279
3.20
284
1.05
215
1.71
214
0.49
105
4.85
298
3.84
251
4.79
277
0.65
138
0.42
119
2.38
140
3.97
248
0.82
123
0.78
136
2.26
134
0.74
141
7.86
232
8.88
219
0.53
133
0.34
56
0.85
127
1.42
196
1.98
141
2.99
240
Anonymous3two views2.32
196
0.85
133
0.88
154
0.56
117
1.10
213
0.89
197
0.70
177
2.45
269
1.12
212
1.05
158
0.98
177
2.57
246
1.14
225
0.56
171
4.14
227
9.30
294
1.50
230
1.47
262
5.33
215
1.49
230
6.83
214
10.10
230
0.71
200
0.67
180
1.08
171
1.38
190
2.32
173
1.35
181
RAFT-Testtwo views2.37
197
0.85
133
1.14
212
1.02
203
0.65
146
0.58
135
0.51
149
2.18
256
0.70
165
1.12
163
5.37
266
0.97
144
0.92
202
0.45
135
2.50
151
5.29
272
0.99
173
0.80
145
6.96
256
1.11
196
10.85
275
10.83
256
0.67
190
0.58
149
1.51
239
1.82
236
1.38
90
2.18
222
RYNettwo views2.42
198
0.40
23
0.35
43
0.29
34
0.32
46
0.40
69
0.25
63
0.61
47
0.55
129
0.33
27
0.36
54
0.40
29
0.26
38
0.27
43
52.29
319
0.69
24
0.47
29
1.00
207
0.54
24
0.29
19
0.50
20
0.37
12
0.38
56
0.32
51
0.57
67
1.24
176
1.31
85
0.50
48
CSANtwo views2.48
199
1.26
236
1.12
207
1.46
246
1.78
262
1.13
221
0.90
198
1.50
185
10.52
316
2.40
241
3.81
250
4.12
268
2.51
251
0.96
242
3.83
221
1.27
106
1.29
215
1.05
219
3.24
183
1.70
246
3.71
169
4.45
148
0.79
217
1.38
244
1.39
220
3.93
280
2.43
188
2.96
239
ADLNettwo views2.50
200
0.99
191
0.73
120
0.62
134
0.75
166
0.63
149
0.53
151
1.12
127
0.61
146
0.58
53
0.71
130
1.61
205
0.61
127
0.87
229
46.09
296
1.02
56
0.70
75
0.67
100
0.85
51
0.74
141
0.75
51
1.07
77
0.51
125
0.47
100
0.94
150
0.93
133
1.63
117
0.70
86
Any-RAFTtwo views2.54
201
0.94
172
1.27
231
0.75
160
0.75
166
0.50
103
0.40
120
1.99
238
0.56
134
0.87
126
6.98
297
1.50
197
0.51
94
0.40
103
2.50
151
3.41
236
0.91
149
0.90
176
6.78
252
0.75
145
14.26
311
10.61
247
0.67
190
0.59
156
1.63
248
1.83
237
2.17
155
4.22
258
GwcNet-ADLtwo views2.54
201
1.23
229
1.55
246
1.22
228
1.26
228
0.97
205
0.78
182
1.50
185
0.84
177
3.20
265
6.67
283
1.86
213
1.05
219
0.79
221
4.58
229
4.90
264
1.47
229
0.90
176
5.20
213
1.95
258
6.39
209
10.33
241
0.91
239
1.12
233
1.22
196
1.93
242
2.15
152
2.70
233
Reg-Stereo(zero)two views2.60
203
0.80
110
1.38
234
0.70
152
0.75
166
0.56
126
0.62
171
3.07
286
0.68
161
3.56
273
6.85
293
1.50
197
0.84
189
1.38
267
2.08
109
5.28
270
1.28
213
0.83
153
6.55
239
1.51
235
5.18
194
13.34
310
0.60
167
0.60
158
1.08
171
1.44
197
4.02
267
3.66
252
HItwo views2.60
203
0.80
110
1.38
234
0.70
152
0.75
166
0.56
126
0.62
171
3.07
286
0.68
161
3.56
273
6.85
293
1.50
197
0.84
189
1.38
267
2.08
109
5.28
270
1.28
213
0.83
153
6.55
239
1.51
235
5.18
194
13.34
310
0.60
167
0.60
158
1.08
171
1.44
197
4.02
267
3.66
252
EAI-Stereotwo views2.60
203
0.90
152
1.57
247
0.90
187
1.31
234
0.84
184
1.31
229
2.22
259
1.34
226
0.81
115
5.69
269
1.37
188
0.83
188
0.50
156
4.76
230
5.32
273
0.91
149
0.94
187
7.45
263
1.11
196
9.07
255
10.78
255
0.62
172
0.85
213
1.45
232
2.06
249
3.36
246
1.90
209
PSMNet-ADLtwo views2.61
206
0.95
178
1.12
207
1.14
220
1.18
224
0.97
205
0.85
193
1.78
218
1.26
219
3.49
272
6.09
275
1.43
191
2.78
258
0.56
171
2.93
182
10.59
297
1.31
216
0.96
195
5.96
230
1.20
207
6.66
211
9.11
222
0.86
236
0.82
207
1.10
180
1.44
197
2.85
223
1.10
154
PWC_ROBbinarytwo views2.61
206
1.20
227
1.48
241
0.96
195
1.05
205
1.21
232
1.79
251
1.24
146
1.94
260
1.81
210
3.61
249
2.12
228
2.96
261
0.91
235
9.88
244
4.30
255
1.97
254
1.95
280
3.72
196
1.62
241
5.58
199
7.59
202
0.81
226
1.98
268
1.35
215
1.27
180
3.11
234
3.07
243
MSMDNettwo views2.69
208
0.87
138
1.07
194
0.57
120
0.65
146
0.59
138
0.49
145
2.03
244
0.62
152
1.03
154
0.97
176
1.05
160
12.04
297
0.50
156
2.60
159
5.56
275
1.05
187
0.80
145
6.93
255
1.42
221
11.49
277
12.49
295
0.67
190
0.58
149
1.48
233
1.83
237
1.28
82
1.97
214
HHtwo views2.75
209
0.67
53
1.42
237
0.80
176
0.71
159
0.88
194
1.09
218
1.86
226
0.87
179
5.19
312
0.66
113
1.91
215
0.86
193
0.57
176
2.65
164
8.48
292
0.87
134
0.94
187
6.36
234
1.39
219
13.52
298
12.32
287
0.79
217
0.58
149
1.38
217
1.63
223
3.81
261
2.06
216
HanStereotwo views2.75
209
0.67
53
1.42
237
0.80
176
0.71
159
0.88
194
1.09
218
1.86
226
0.87
179
5.19
312
0.66
113
1.91
215
0.86
193
0.57
176
2.65
164
8.48
292
0.87
134
0.94
187
6.36
234
1.39
219
13.52
298
12.32
287
0.79
217
0.58
149
1.38
217
1.63
223
3.81
261
2.06
216
MSKI-zero shottwo views2.77
211
0.80
110
1.10
201
0.74
159
0.59
128
0.67
159
0.54
153
1.87
228
0.97
191
0.88
132
6.73
285
1.60
203
0.72
155
0.43
124
3.38
204
7.92
290
1.20
205
0.87
163
6.85
254
4.65
292
10.45
272
12.15
282
0.55
142
0.71
188
1.49
235
1.96
246
1.85
130
3.12
245
PWCDC_ROBbinarytwo views2.78
212
0.70
64
0.65
109
0.61
131
0.87
186
0.63
149
0.57
161
1.04
121
1.59
243
0.65
66
1.88
218
0.80
110
3.28
266
0.73
210
41.04
283
2.18
205
1.23
208
0.98
199
1.52
103
0.97
184
2.56
155
5.26
170
0.68
194
0.81
204
0.74
105
0.94
136
1.13
74
0.97
133
GANet-ADLtwo views2.79
213
0.89
149
1.20
225
1.00
202
1.00
201
1.20
231
0.80
188
1.20
139
1.00
196
3.59
275
6.59
282
1.06
161
0.76
174
0.48
150
12.27
249
4.90
264
1.57
233
0.92
180
6.59
244
1.66
244
6.93
218
11.51
273
0.68
194
0.80
200
1.09
175
1.40
194
2.47
192
1.85
206
iResNettwo views2.79
213
0.95
178
0.91
161
1.35
238
1.69
254
1.41
242
1.02
209
1.81
223
1.09
208
2.62
246
5.14
263
1.80
211
2.38
247
0.46
139
10.35
245
7.64
288
1.36
223
1.23
247
6.83
253
1.78
249
10.05
265
4.09
146
0.61
170
2.02
269
1.10
180
1.50
208
2.80
221
1.39
184
NVstereo2Dtwo views2.81
215
0.82
119
0.74
123
0.69
150
0.78
175
0.92
199
0.81
189
1.18
138
0.76
170
0.91
138
1.06
182
0.80
110
0.55
108
0.71
209
52.63
321
1.47
148
0.86
131
0.83
153
1.42
95
0.69
125
1.12
94
0.94
65
0.76
207
0.83
210
1.08
171
0.78
102
0.98
60
0.74
89
DCVSM-stereotwo views2.89
216
0.92
162
1.57
247
1.31
235
1.04
203
1.53
248
0.99
204
2.96
284
1.33
225
3.46
270
6.20
276
6.77
289
2.59
253
0.87
229
2.25
131
4.01
252
1.37
225
1.11
227
7.05
259
4.27
287
6.91
215
6.70
190
1.25
254
2.64
293
1.30
210
1.73
231
3.46
250
2.47
229
MIPNettwo views2.89
216
0.91
156
0.77
129
0.49
95
0.65
146
0.55
120
0.57
161
1.34
170
0.53
121
2.05
222
0.99
178
0.80
110
0.77
177
0.48
150
40.89
282
1.61
169
1.15
201
0.94
187
3.25
184
1.19
206
1.15
97
9.31
223
0.57
152
0.62
165
1.24
200
1.51
209
2.90
227
0.82
106
DAStwo views2.93
218
0.99
191
1.06
192
1.13
215
1.05
205
1.03
215
1.04
213
1.74
216
1.81
255
3.32
267
5.70
270
2.61
247
3.08
263
0.50
156
3.19
200
7.47
285
1.83
243
1.23
247
5.90
227
1.83
251
12.92
288
10.26
237
0.76
207
1.94
264
1.32
212
1.51
209
2.60
209
1.31
177
SepStereotwo views2.93
218
0.99
191
1.06
192
1.13
215
1.05
205
1.03
215
1.04
213
1.74
216
1.81
255
3.32
267
5.70
270
2.61
247
3.08
263
0.50
156
3.19
200
7.47
285
1.83
243
1.23
247
5.90
227
1.83
251
12.92
288
10.26
237
0.76
207
1.94
264
1.32
212
1.51
209
2.60
209
1.31
177
model_zeroshottwo views2.99
220
0.75
89
1.18
219
1.86
258
0.74
164
0.59
138
0.56
159
1.94
232
0.63
153
3.88
283
6.88
295
1.41
190
0.66
141
0.68
202
5.34
235
4.82
262
1.18
203
0.96
195
7.09
260
1.03
189
12.99
291
9.02
220
0.54
139
0.65
176
5.42
293
1.66
225
2.16
154
6.22
276
IPLGtwo views3.01
221
0.75
89
0.63
103
0.42
81
0.52
112
0.54
117
0.51
149
1.63
206
0.35
63
0.62
61
0.59
100
0.77
105
0.66
141
0.46
139
51.49
313
1.67
177
1.02
181
0.92
180
3.51
192
0.63
112
0.99
80
5.97
182
0.49
111
0.48
112
0.80
114
1.16
169
2.86
224
0.71
87
MFMNet_retwo views3.01
221
1.41
249
1.48
241
1.53
249
1.87
267
1.96
263
2.01
258
2.67
280
2.16
266
1.60
195
1.98
222
3.57
259
2.65
255
1.02
246
6.96
241
4.19
254
2.67
264
1.96
281
6.48
238
2.40
272
14.04
305
4.97
158
1.86
277
1.97
266
1.38
217
1.33
185
3.31
244
1.94
213
test-1two views3.02
223
0.66
52
1.14
212
0.60
129
0.58
126
0.75
174
0.63
173
1.96
234
0.82
175
4.00
285
5.48
267
2.18
231
0.80
181
0.41
109
4.00
224
7.32
284
1.18
203
1.19
240
6.72
249
7.57
306
10.78
273
12.94
307
0.54
139
0.60
158
1.40
223
1.78
233
2.89
226
2.52
230
RTSCtwo views3.08
224
0.95
178
1.25
230
0.76
164
0.91
192
0.96
202
1.84
253
1.15
132
1.34
226
2.37
238
2.12
229
1.11
166
0.99
213
1.02
246
41.50
285
1.94
192
1.88
247
1.22
244
4.09
203
1.06
193
2.76
157
4.02
144
0.63
177
1.03
225
0.83
121
0.99
147
2.44
189
1.98
215
pcwnet_v2two views3.22
225
0.81
116
0.94
165
0.92
191
1.12
216
0.94
200
0.70
177
1.17
134
0.88
181
2.04
221
1.10
184
1.09
165
1.00
214
1.27
263
47.63
299
1.56
163
0.96
166
0.87
163
6.63
245
0.81
159
2.45
152
3.52
137
1.01
245
0.75
193
1.04
166
1.16
169
2.44
189
2.23
225
IPLGRtwo views3.25
226
0.89
149
0.81
138
0.65
141
0.66
151
0.50
103
0.42
130
1.14
131
0.44
90
2.02
219
1.30
198
0.86
123
0.74
165
0.47
144
50.44
308
1.86
186
1.15
201
1.11
227
3.23
178
1.37
216
1.41
119
7.71
203
0.56
149
0.70
187
1.39
220
1.55
214
3.46
250
0.92
127
IGEV_Zeroshot_testtwo views3.38
227
0.83
122
1.84
261
2.82
278
0.69
157
2.37
272
1.26
228
2.23
260
0.94
189
4.40
290
6.76
286
2.28
236
1.01
215
0.45
135
2.83
178
7.72
289
0.87
134
0.77
132
5.93
229
1.87
253
8.49
251
12.88
306
0.58
161
0.69
183
1.40
223
1.57
215
14.84
315
2.99
240
SHDtwo views3.38
227
1.01
198
1.68
253
1.14
220
1.07
210
1.14
222
1.78
250
1.61
205
1.66
246
2.40
241
3.05
240
1.63
207
2.43
249
0.84
227
40.11
280
2.04
200
1.74
238
1.40
259
4.17
204
1.88
254
3.81
170
5.43
173
0.70
198
1.67
252
1.86
262
1.46
201
1.97
140
1.59
194
FADNet_RVCtwo views3.44
229
1.21
228
1.19
222
1.40
239
1.78
262
0.99
209
1.75
248
1.50
185
1.19
218
1.35
180
2.01
226
1.96
218
1.63
236
1.66
273
22.11
268
3.36
235
1.83
243
2.82
309
5.63
224
1.76
248
6.35
208
9.50
224
0.77
212
1.39
246
1.21
191
1.48
202
12.05
306
2.87
237
FC-DCNNcopylefttwo views3.48
230
1.59
262
4.19
305
2.76
277
2.30
271
3.10
283
1.73
247
2.57
275
1.72
248
2.88
255
1.36
205
2.15
229
1.21
226
0.68
202
6.32
237
1.61
169
1.31
216
1.03
212
7.90
267
0.95
181
8.85
253
8.73
215
0.82
230
1.69
256
3.19
283
2.50
265
4.67
272
16.15
301
HSM-Net_RVCpermissivetwo views3.49
231
1.07
211
1.10
201
1.70
253
1.17
223
0.90
198
0.61
170
2.29
266
1.07
206
2.77
251
5.82
272
41.08
324
1.35
233
0.50
156
2.40
141
1.74
180
1.10
189
0.77
132
1.99
124
1.13
200
6.78
213
6.90
195
0.80
222
2.23
278
1.64
250
1.49
205
2.14
150
1.75
203
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
RTStwo views3.53
232
1.15
218
0.98
176
0.97
198
1.26
228
1.33
238
3.31
273
1.33
167
1.50
238
2.37
238
1.20
192
1.75
209
1.12
223
0.88
232
42.78
288
2.37
211
1.94
251
1.33
256
3.94
198
1.62
241
3.62
166
5.21
168
1.02
246
1.09
231
1.83
260
5.05
286
2.33
174
2.13
218
RTSAtwo views3.53
232
1.15
218
0.98
176
0.97
198
1.26
228
1.33
238
3.31
273
1.33
167
1.50
238
2.37
238
1.20
192
1.75
209
1.12
223
0.88
232
42.78
288
2.37
211
1.94
251
1.33
256
3.94
198
1.62
241
3.62
166
5.21
168
1.02
246
1.09
231
1.83
260
5.05
286
2.33
174
2.13
218
XQCtwo views3.58
234
1.29
241
1.21
226
1.28
231
1.43
242
1.29
237
1.93
256
1.60
202
1.45
232
2.47
243
3.06
241
1.48
195
4.17
269
1.23
262
44.68
294
2.35
209
1.60
234
1.18
238
3.95
201
1.43
223
3.22
165
4.97
158
0.84
233
1.24
239
1.43
228
2.09
253
2.30
170
1.52
189
FCDSN-DCtwo views3.63
235
0.94
172
2.84
291
1.29
233
1.30
233
1.03
215
1.00
205
0.90
104
0.91
186
1.04
157
0.74
135
1.21
176
0.74
165
0.58
178
52.59
320
2.04
200
1.24
209
1.13
231
1.05
68
0.79
154
6.62
210
10.01
228
0.78
214
2.18
273
1.20
190
1.67
228
1.20
78
1.05
150
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_DS_RVCtwo views3.64
236
1.48
256
1.03
184
1.98
263
1.75
258
2.09
266
5.14
288
2.15
252
2.23
267
1.73
205
1.57
211
2.49
243
4.83
272
5.73
303
12.78
250
1.73
179
1.22
206
1.06
220
5.43
218
1.54
238
12.24
281
9.06
221
1.52
270
1.16
235
2.29
268
3.46
276
3.05
232
7.63
281
NOSS_ROBtwo views3.67
237
1.38
248
0.81
138
1.15
224
1.16
222
1.15
223
0.65
174
2.25
262
1.41
230
4.85
298
6.68
284
6.78
290
1.06
220
0.82
226
11.52
248
14.58
310
1.34
219
1.17
235
2.93
172
0.98
185
14.13
306
12.82
302
0.79
217
1.48
247
1.13
184
1.48
202
3.41
247
1.25
172
FC-DCNN v2copylefttwo views3.76
238
1.64
263
4.17
304
2.93
283
2.32
273
3.38
285
1.67
243
2.65
278
2.92
279
2.86
254
1.36
205
2.62
249
1.33
231
0.68
202
6.35
238
1.65
173
1.31
216
1.00
207
8.25
268
0.94
179
8.74
252
8.73
215
0.82
230
1.68
253
4.68
290
3.34
275
7.40
291
15.96
300
gcap-zeroshottwo views3.80
239
0.78
104
1.44
239
1.88
259
0.67
152
1.15
223
1.31
229
2.09
250
0.65
156
5.43
318
7.00
298
2.87
252
0.70
149
0.31
61
2.44
144
5.25
269
0.94
160
0.91
179
36.08
307
1.25
210
8.46
250
10.60
246
4.00
294
0.62
165
1.44
229
1.49
205
1.34
86
1.53
190
AIO-Stereo-zeroshotpermissivetwo views3.88
240
1.16
222
2.03
271
1.15
224
0.83
183
1.77
258
1.13
221
2.03
244
3.32
287
2.90
256
7.02
299
2.32
238
2.01
241
0.38
95
3.61
210
9.96
295
1.34
219
1.07
221
6.67
246
6.11
301
8.45
249
12.70
299
0.56
149
1.27
241
1.76
257
1.48
202
16.62
317
5.17
266
UDGtwo views3.91
241
2.76
284
2.09
273
2.92
281
2.64
282
2.99
280
2.71
266
1.31
159
1.13
213
1.65
199
1.96
220
2.20
232
1.68
237
2.77
283
48.81
303
1.57
165
3.02
270
2.26
290
2.65
156
2.91
280
3.00
161
3.09
130
2.64
282
1.05
228
1.02
163
1.19
173
2.36
180
1.16
161
PVDtwo views4.10
242
1.44
254
2.12
275
1.41
240
1.58
249
1.68
254
2.10
260
3.06
285
2.66
275
2.85
253
4.32
253
2.46
242
3.63
268
1.27
263
40.43
281
2.72
218
2.19
260
2.11
289
4.71
209
2.46
274
6.18
205
6.10
184
1.02
246
1.74
257
2.32
271
2.44
263
2.90
227
2.66
232
SAMSARAtwo views4.13
243
1.32
243
1.53
244
1.48
247
1.35
237
1.47
246
2.74
267
2.23
260
1.83
257
2.26
235
3.47
248
2.01
221
8.60
282
1.76
277
38.24
277
2.88
220
1.82
242
1.41
260
4.99
211
1.91
255
5.10
191
5.71
179
0.94
241
1.80
259
3.33
285
3.84
278
4.16
269
3.30
250
iRaft-Stereo_20wtwo views4.16
244
1.13
217
2.10
274
2.66
274
1.55
248
1.55
249
1.17
222
1.96
234
1.27
220
5.53
319
6.77
287
1.52
201
1.34
232
0.43
124
3.03
186
5.32
273
0.95
164
0.77
132
5.49
221
1.46
228
8.20
245
12.75
301
0.61
170
0.60
158
1.63
248
25.36
322
11.64
304
5.58
272
SGM-Foresttwo views4.18
245
1.24
230
0.74
123
2.12
266
1.35
237
1.42
243
0.56
159
1.36
171
0.90
184
4.89
301
0.96
172
2.51
245
12.92
300
0.61
188
16.38
260
3.12
229
0.79
107
0.65
94
7.04
258
0.76
147
6.77
212
10.03
229
0.84
233
0.81
204
1.66
252
1.78
233
4.79
277
25.96
316
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ccs_robtwo views4.23
246
1.10
213
1.53
244
1.14
220
0.92
198
1.19
230
1.05
215
2.86
283
1.27
220
4.20
287
35.77
325
8.95
300
1.29
229
0.73
210
3.10
196
6.47
278
1.50
230
1.17
235
5.98
231
1.44
225
10.44
271
11.78
277
0.74
206
2.24
279
1.07
170
1.30
184
2.65
215
2.20
223
DeepPrunerFtwo views4.30
247
1.53
257
0.72
119
2.93
283
5.08
313
2.43
275
3.38
275
0.87
99
4.11
295
0.80
112
1.17
190
0.66
70
0.56
109
0.61
188
45.12
295
2.02
199
1.01
178
0.78
136
2.32
135
0.88
170
1.56
126
1.70
103
0.84
233
0.67
180
29.00
325
1.78
233
2.48
193
1.17
165
MSC_U_SF_DS_RVCtwo views4.33
248
2.25
280
1.45
240
2.41
271
1.94
269
1.93
261
4.82
287
1.96
234
2.59
273
2.96
259
1.96
220
2.49
243
8.10
280
9.76
312
14.02
254
3.47
239
2.04
258
1.98
282
14.27
285
3.33
284
7.23
223
7.20
200
2.89
288
1.85
262
2.43
274
2.85
270
2.19
159
6.62
278
FAT-Stereotwo views4.35
249
1.18
223
2.25
277
1.48
247
1.81
265
1.42
243
1.49
237
3.57
294
1.84
258
3.66
278
6.22
277
6.70
288
2.76
257
1.07
254
6.82
240
15.24
316
2.03
257
2.49
301
5.43
218
8.81
315
13.23
294
12.34
291
0.95
242
2.79
301
1.26
204
2.25
258
2.96
230
5.48
269
ITSA-stereotwo views4.40
250
1.26
236
1.18
219
1.64
251
1.64
251
0.99
209
1.38
234
1.99
238
1.47
236
3.68
280
6.79
288
2.16
230
1.42
234
1.36
266
8.32
242
6.93
281
2.19
260
1.94
279
6.40
236
5.42
296
7.43
225
10.74
254
1.29
258
2.39
285
1.53
241
5.02
285
23.63
321
8.74
283
MFN_U_SF_RVCtwo views4.44
251
1.91
271
1.83
260
2.19
269
1.82
266
2.38
274
4.61
285
2.39
268
1.94
260
4.48
292
11.47
315
3.74
265
2.50
250
4.72
298
20.32
266
3.66
242
1.91
249
1.83
275
11.50
280
3.25
283
7.86
232
6.73
192
1.25
254
3.20
310
1.86
262
3.84
278
2.83
222
3.94
256
STTRV1_RVCtwo views4.49
252
1.26
236
1.01
182
1.62
250
1.11
215
1.76
257
1.25
226
1.50
185
1.40
229
1.75
207
1.60
212
2.72
250
3.31
267
1.00
244
2.61
160
1.77
182
11.19
302
0.96
195
41.25
312
9.01
317
9.10
256
8.68
214
1.19
250
1.66
251
1.68
253
1.59
217
3.90
265
5.32
268
RainbowNettwo views4.65
253
3.75
299
2.70
289
4.56
294
2.98
294
4.16
291
8.75
300
2.05
247
2.01
263
1.90
216
1.12
187
3.61
263
3.00
262
3.60
295
2.70
170
1.89
187
2.97
269
1.54
265
15.27
288
8.73
314
11.07
276
11.30
269
10.70
321
2.22
275
1.73
254
2.30
259
2.76
219
6.13
275
S-Stereotwo views4.68
254
1.15
218
1.74
257
1.75
254
1.63
250
1.65
252
2.24
263
2.75
282
2.15
265
3.32
267
11.59
316
5.97
282
1.74
239
0.88
232
19.04
263
16.28
318
1.81
241
2.39
298
5.64
225
9.35
320
7.13
222
12.52
296
1.61
272
2.64
293
1.24
200
2.08
252
2.88
225
3.26
247
MADNet+two views4.78
255
2.02
275
1.87
264
2.01
264
2.36
275
1.47
246
4.28
283
2.47
271
1.99
262
2.66
247
2.13
230
3.56
258
2.85
260
2.34
280
41.14
284
5.66
276
3.48
274
1.53
264
4.54
207
3.38
285
13.07
293
7.34
201
1.72
274
3.48
312
2.93
279
2.17
256
3.24
241
3.29
249
ADCReftwo views4.84
256
1.42
252
1.01
182
0.78
171
1.77
259
1.21
232
1.62
242
0.99
116
5.58
304
1.85
213
1.08
183
1.02
149
0.91
199
1.17
259
54.35
325
1.92
191
1.10
189
1.04
215
3.49
191
1.32
215
1.80
141
3.27
134
2.13
280
0.87
216
2.30
269
4.60
282
2.48
193
29.71
321
SQANettwo views4.87
257
4.55
305
2.13
276
19.76
314
2.63
280
4.99
300
3.29
272
1.63
206
1.45
232
1.20
167
1.40
208
3.22
256
2.40
248
2.76
282
3.09
194
1.20
97
5.19
283
1.07
221
19.89
293
1.28
211
12.48
282
10.73
252
11.37
324
1.49
248
1.57
245
2.32
261
2.66
217
5.86
273
FBW_ROBtwo views4.93
258
2.40
281
2.44
283
2.67
275
2.86
288
2.30
271
4.71
286
1.79
219
1.10
209
2.54
244
2.92
237
4.12
268
5.31
273
6.61
304
50.17
305
1.18
91
1.44
227
0.95
193
8.76
271
1.43
223
8.26
246
5.68
176
4.20
295
1.75
258
1.42
225
1.95
244
1.81
126
2.20
223
ADCP+two views5.07
259
1.54
258
1.72
254
1.08
209
1.54
246
1.18
228
2.02
259
1.02
118
2.72
278
4.05
286
2.23
233
2.24
234
0.61
127
0.94
240
54.46
326
1.52
158
0.83
124
0.95
193
3.94
198
0.87
169
2.22
151
2.57
126
0.71
200
0.62
165
2.48
275
11.25
305
7.85
294
23.66
312
CBMVpermissivetwo views5.08
260
1.41
249
1.15
216
1.44
245
1.42
241
1.24
234
0.78
182
2.27
264
1.47
236
3.04
261
6.44
280
7.74
293
9.07
285
0.60
186
12.81
251
13.79
306
1.99
255
1.29
253
9.56
273
1.15
203
9.82
260
12.54
297
0.82
230
1.84
261
1.44
229
1.83
237
4.39
271
25.76
315
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
otakutwo views5.09
261
5.20
306
2.27
278
18.45
312
2.89
289
5.73
302
3.63
278
1.44
180
1.46
234
1.31
179
1.42
209
3.59
261
2.63
254
3.22
289
3.07
191
1.30
109
5.55
285
1.14
234
20.28
294
1.49
230
13.81
302
11.25
268
11.85
326
1.91
263
1.56
244
2.06
249
2.52
199
6.49
277
ACVNet_1two views5.24
262
3.87
301
3.60
302
13.80
308
3.48
303
6.00
307
10.57
305
1.60
202
1.79
252
1.55
193
1.30
198
4.40
273
2.80
259
5.43
301
2.42
143
1.39
124
11.59
303
1.72
272
20.91
298
1.50
233
14.41
316
8.16
207
7.22
307
2.84
303
1.73
254
2.19
257
2.61
211
2.72
234
Ntrotwo views5.35
263
6.19
311
2.38
282
8.06
303
2.91
291
4.88
298
6.70
294
1.40
176
1.53
240
1.44
189
1.19
191
3.58
260
2.73
256
3.12
288
3.66
212
1.17
89
6.56
293
1.19
240
32.62
304
1.60
240
14.27
313
11.82
278
11.41
325
2.54
290
1.64
250
2.30
259
2.45
191
5.00
263
EKT-Stereotwo views5.41
264
0.97
185
1.10
201
0.72
154
0.74
164
0.87
190
1.17
222
2.02
243
1.00
196
1.41
187
2.92
237
1.11
166
0.81
182
0.46
139
72.33
335
14.74
311
1.14
197
1.37
258
5.61
223
7.76
307
9.80
259
10.61
247
0.53
133
0.61
164
1.39
220
1.11
159
2.56
206
1.08
153
pmcnntwo views5.52
265
1.54
258
1.51
243
2.64
273
3.13
296
2.07
264
10.40
304
2.61
276
2.65
274
2.55
245
6.41
279
6.23
286
15.93
309
0.58
178
6.75
239
14.92
313
3.87
277
3.34
311
7.45
263
7.76
307
13.60
301
10.19
233
6.30
305
2.29
282
1.57
245
3.30
274
4.69
273
4.80
260
DPSNettwo views5.60
266
1.54
258
1.19
222
1.76
255
2.44
278
2.08
265
1.81
252
1.95
233
2.93
280
2.09
227
5.15
264
9.82
303
6.09
275
8.98
308
14.30
255
12.14
303
4.12
281
3.60
312
17.82
290
8.28
311
12.18
279
14.58
314
3.71
292
3.09
307
2.30
269
2.42
262
2.52
199
2.24
226
ADCMidtwo views5.63
267
2.23
278
2.63
286
1.42
243
2.89
289
2.37
272
3.73
279
1.92
230
2.97
281
1.91
217
3.16
242
2.33
239
2.31
246
1.48
270
50.97
312
3.74
243
1.84
246
1.86
277
7.38
262
1.99
262
4.66
181
5.18
167
2.70
284
1.38
244
2.33
272
8.75
301
6.81
290
21.02
308
ADCLtwo views5.69
268
1.88
268
1.63
250
1.29
233
1.40
240
1.59
251
2.22
262
1.23
143
5.20
302
3.04
261
2.01
226
1.14
170
0.84
189
1.04
252
50.40
307
1.63
172
1.45
228
1.79
273
2.94
174
1.38
218
3.19
163
2.35
120
1.23
253
1.07
230
9.47
309
11.74
307
11.34
302
29.10
320
SANettwo views5.69
268
2.22
277
1.77
258
1.84
256
2.37
276
2.28
269
1.43
235
4.49
304
7.61
311
2.05
222
4.86
261
8.34
299
11.81
296
1.70
274
43.86
292
1.62
171
5.96
287
1.51
263
4.43
206
1.70
246
8.97
254
8.28
208
1.20
251
2.60
291
1.94
265
6.02
294
3.42
249
9.29
286
SPS-STEREOcopylefttwo views5.78
270
1.73
266
1.86
262
2.48
272
1.67
253
2.19
267
1.60
241
2.72
281
1.76
250
3.63
277
6.80
290
4.12
268
2.19
244
1.21
261
13.01
252
12.86
304
2.91
268
2.01
283
47.66
321
2.04
264
14.17
308
13.06
309
1.43
266
2.27
281
2.40
273
1.94
243
3.66
257
2.80
235
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views5.79
271
3.52
294
2.90
292
21.94
318
3.38
301
4.55
293
8.18
298
1.84
224
1.76
250
1.84
211
1.98
222
3.88
266
3.20
265
3.03
286
2.85
179
1.46
145
12.77
309
1.56
266
33.59
305
1.68
245
10.81
274
7.91
205
6.79
306
2.68
299
3.13
282
2.65
267
3.23
239
3.11
244
edge stereotwo views5.88
272
1.88
268
3.14
296
2.14
267
1.80
264
2.47
277
2.43
264
4.51
305
3.45
289
3.97
284
4.84
260
6.45
287
17.40
310
1.04
252
5.09
234
14.91
312
1.80
239
1.66
269
37.39
309
6.28
303
5.99
202
12.74
300
1.44
267
2.02
269
2.12
267
2.11
255
3.75
258
5.99
274
Deantwo views5.89
273
3.71
298
2.59
284
34.77
323
3.99
308
4.60
296
10.86
307
2.26
263
2.39
271
2.16
231
1.55
210
4.68
276
4.76
271
3.30
291
3.03
186
1.76
181
12.09
306
1.65
268
9.86
276
2.04
264
14.16
307
9.89
227
7.35
308
2.66
298
3.36
286
2.91
271
3.53
254
3.13
246
AnyNet_C32two views6.05
274
1.43
253
1.39
236
1.26
230
1.64
251
1.36
240
2.92
269
1.55
198
5.28
303
2.67
249
4.61
258
1.90
214
1.29
229
1.29
265
55.18
327
3.43
238
1.96
253
2.08
286
3.65
193
1.91
255
6.94
219
8.77
217
1.20
251
1.68
253
6.02
296
14.92
313
6.12
283
20.86
307
DDVStwo views6.06
275
1.18
223
1.31
232
1.12
213
1.54
246
1.18
228
1.01
206
2.45
269
1.75
249
3.31
266
80.70
333
6.22
285
1.76
240
1.15
258
3.67
215
6.50
279
2.01
256
1.29
253
5.56
222
4.99
295
10.09
267
12.94
307
0.81
226
1.16
235
1.11
183
1.53
212
4.71
274
2.62
231
G-Nettwo views6.29
276
1.69
264
1.86
262
1.42
243
1.70
256
1.45
245
1.19
225
4.71
306
8.56
312
3.16
263
4.70
259
7.94
294
6.89
277
0.85
228
15.45
258
8.15
291
1.92
250
2.75
305
5.41
217
6.49
304
9.16
257
11.23
267
1.46
268
2.81
302
1.81
258
19.84
318
6.51
288
30.80
322
TRStereotwo views6.31
277
1.25
233
1.93
265
0.85
183
0.61
135
2.29
270
0.86
194
2.21
258
0.54
127
4.40
290
1.34
201
2.24
234
0.75
169
0.45
135
4.08
226
6.55
280
0.80
110
0.85
160
6.04
232
1.45
227
7.60
226
12.13
281
0.55
142
0.49
116
1.44
229
103.74
339
3.24
241
1.61
195
HBP-ISPtwo views6.40
278
1.33
245
2.30
280
1.91
262
1.51
244
1.65
252
0.79
185
2.50
273
1.29
222
4.91
302
6.80
290
1.37
188
0.74
165
14.59
319
52.98
322
19.59
322
1.24
209
1.10
223
6.08
233
8.03
310
12.73
284
16.75
320
0.79
217
1.19
237
1.81
258
2.06
249
3.90
265
2.87
237
SGM-ForestMtwo views6.44
279
10.17
321
6.98
320
4.69
295
2.91
291
6.90
310
9.70
303
7.26
315
4.59
300
4.81
297
6.31
278
9.50
302
9.35
287
0.78
218
3.65
211
1.30
109
6.50
291
0.89
173
11.21
279
1.44
225
6.08
203
6.02
183
1.58
271
1.68
253
9.47
309
11.34
306
12.07
307
16.58
302
CBMV_ROBtwo views6.60
280
1.41
249
1.59
249
2.38
270
1.74
257
1.90
260
1.86
254
6.44
311
1.69
247
5.02
306
7.03
300
9.95
309
11.26
293
0.65
198
38.55
278
7.04
282
2.78
266
1.12
230
9.67
275
2.45
273
9.46
258
11.60
276
0.80
222
1.37
243
4.92
291
12.01
308
4.73
275
18.79
305
ADCStwo views6.69
281
1.97
273
1.94
266
1.41
240
2.24
270
1.84
259
3.00
270
2.08
249
3.97
292
2.66
247
3.26
244
3.01
254
11.48
294
2.01
279
53.18
323
11.65
301
2.72
265
2.59
302
5.10
212
2.24
268
10.43
270
8.65
213
1.76
275
1.97
266
2.57
277
10.58
303
7.51
292
18.68
304
anonymitytwo views6.71
282
0.80
110
1.73
256
1.09
210
0.88
188
0.79
180
0.68
175
2.17
254
0.90
184
3.78
282
97.20
334
1.95
217
0.93
204
0.44
134
2.57
157
7.16
283
0.95
164
0.83
153
6.70
247
1.07
194
7.93
235
12.47
294
0.67
190
0.57
145
1.51
239
1.60
220
20.99
320
2.80
235
ADCPNettwo views7.09
283
1.18
223
3.04
295
1.33
236
3.12
295
1.36
240
8.88
301
2.15
252
3.24
285
4.23
288
7.84
307
1.96
218
15.92
308
1.71
275
49.61
304
3.53
241
1.89
248
1.25
251
19.14
292
3.03
282
5.96
200
4.75
154
4.72
296
1.29
242
3.95
288
5.33
288
3.87
263
27.01
317
IMH-64-1two views7.17
284
3.27
289
3.53
299
4.69
295
3.29
298
4.58
294
5.71
290
3.51
291
3.09
282
1.39
185
1.98
222
4.90
278
10.92
289
4.82
299
52.00
314
4.78
260
3.66
275
2.27
291
12.32
281
1.96
259
6.91
215
10.55
244
7.77
314
2.22
275
6.05
297
4.73
283
13.45
311
9.13
284
IMH-64two views7.17
284
3.27
289
3.53
299
4.69
295
3.29
298
4.58
294
5.71
290
3.51
291
3.09
282
1.39
185
1.98
222
4.90
278
10.92
289
4.82
299
52.00
314
4.78
260
3.66
275
2.27
291
12.32
281
1.96
259
6.91
215
10.55
244
7.77
314
2.22
275
6.05
297
4.73
283
13.45
311
9.13
284
AnyNet_C01two views7.20
286
2.24
279
2.27
278
2.95
285
1.92
268
1.58
250
5.39
289
3.73
299
5.63
305
3.17
264
4.41
254
4.59
275
6.09
275
1.88
278
58.66
329
14.24
307
5.46
284
3.69
313
4.79
210
3.02
281
8.40
248
10.33
241
2.45
281
2.24
279
5.77
294
2.65
267
8.81
298
17.99
303
WAO-6two views7.36
287
2.83
286
2.64
287
8.38
305
2.78
286
3.59
288
8.61
299
3.51
291
3.36
288
1.84
211
2.45
234
5.99
283
8.70
284
3.06
287
50.70
309
2.35
209
13.44
313
1.82
274
8.79
272
2.15
267
14.26
311
12.40
293
3.35
290
2.64
293
7.87
303
5.84
291
4.30
270
11.17
293
WAO-7two views8.11
288
2.98
287
5.46
314
29.83
321
2.32
273
3.09
282
9.23
302
2.48
272
4.20
296
4.67
296
7.60
303
7.98
295
11.78
295
1.64
272
22.32
269
2.11
203
12.00
305
2.79
308
44.95
318
2.13
266
10.06
266
10.12
231
1.37
265
2.49
289
2.97
281
4.35
281
2.94
229
5.06
265
AIO-Stereo-zeroshot1permissivetwo views8.38
289
1.15
218
1.98
268
1.25
229
1.24
227
1.74
256
1.31
229
2.17
254
7.44
310
3.47
271
7.09
301
2.38
240
2.08
243
0.37
90
3.49
208
11.36
300
1.39
226
0.99
202
136.53
335
6.21
302
8.35
247
12.33
289
0.55
142
0.88
217
1.22
196
1.95
244
2.35
178
4.96
262
SGM_RVCbinarytwo views8.49
290
2.77
285
1.77
258
2.88
280
2.31
272
3.42
286
2.70
265
7.78
320
3.92
291
5.57
320
8.42
308
9.89
305
12.92
300
0.68
202
3.72
217
2.10
202
6.63
294
1.11
227
40.78
310
5.93
300
9.99
263
10.27
239
1.97
278
2.17
272
8.79
308
2.97
272
27.36
323
40.51
329
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SFCPSMtwo views8.92
291
1.34
247
1.05
188
1.13
215
1.12
216
1.10
218
0.89
197
1.28
153
1.79
252
2.71
250
5.63
268
4.32
272
7.90
279
1.01
245
5.47
236
5.23
268
1.80
239
1.19
240
162.18
337
4.49
289
7.79
228
9.52
225
0.81
226
1.64
250
1.33
214
1.76
232
3.30
243
3.06
242
ELAS_RVCcopylefttwo views9.07
292
3.30
291
5.65
315
4.08
289
3.41
302
7.21
312
4.01
282
7.69
317
3.75
290
4.97
304
7.74
304
9.89
305
11.00
291
3.00
285
47.69
300
4.33
257
6.53
292
9.70
321
9.64
274
2.89
278
13.54
300
15.79
317
2.75
285
4.07
315
18.38
318
23.86
320
4.94
278
5.18
267
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views9.11
293
3.31
292
3.55
301
4.46
292
3.30
300
4.60
296
6.29
293
3.48
289
3.12
284
1.42
188
1.88
218
5.38
280
15.63
307
51.61
333
52.03
316
3.06
226
3.92
278
2.32
294
20.77
296
2.01
263
6.25
206
9.58
226
8.07
318
2.21
274
7.69
302
5.96
293
3.77
259
10.35
291
PWCKtwo views9.19
294
3.84
300
2.76
290
4.81
299
3.48
303
7.14
311
7.79
296
3.92
300
4.66
301
4.66
295
5.84
273
24.68
320
8.47
281
3.24
290
10.95
247
3.27
233
9.48
300
2.36
296
72.75
328
4.94
294
14.76
319
6.95
196
3.68
291
2.40
286
8.01
304
7.55
297
6.35
284
9.51
288
MADNet++two views9.22
295
4.13
304
6.16
317
4.32
291
5.78
317
3.96
289
8.14
297
7.09
314
6.83
309
5.28
315
7.83
306
7.65
292
8.62
283
12.90
314
19.42
265
21.00
325
7.04
296
6.27
316
10.40
277
7.97
309
14.29
314
18.67
323
3.96
293
5.12
319
5.80
295
22.29
319
9.32
299
8.69
282
MeshStereopermissivetwo views9.30
296
2.68
282
2.31
281
4.19
290
2.81
287
4.05
290
1.96
257
8.24
322
9.28
313
5.13
309
8.64
309
11.19
312
12.84
299
0.78
218
52.26
318
15.80
317
4.59
282
1.92
278
22.33
299
1.58
239
15.40
323
19.41
324
1.06
249
2.12
271
8.69
307
5.55
289
10.68
300
15.59
299
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAScopylefttwo views10.16
297
3.54
295
5.12
313
4.49
293
4.32
312
5.01
301
4.33
284
6.88
313
4.09
294
4.97
304
7.74
304
9.90
307
11.01
292
3.51
294
52.19
317
4.52
259
7.15
297
9.65
320
8.69
270
2.38
271
13.33
296
14.95
316
2.75
285
3.64
314
17.76
317
27.24
325
13.13
310
21.93
309
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views10.31
298
13.11
322
4.84
308
18.55
313
6.95
321
7.98
315
14.39
316
3.69
298
3.28
286
2.90
256
2.15
231
30.28
322
43.63
321
4.40
297
9.01
243
2.66
217
12.71
307
2.73
304
42.35
314
2.87
277
14.87
320
10.21
234
7.77
314
3.03
305
2.66
278
2.98
273
3.46
250
4.84
261
JetBluetwo views10.90
299
9.40
319
6.23
318
8.34
304
6.82
320
10.07
320
10.58
306
5.04
309
3.97
292
2.95
258
4.09
252
9.83
304
9.32
286
8.12
306
48.65
302
14.50
308
6.76
295
5.08
315
7.66
265
3.76
286
13.23
294
17.58
322
8.19
319
3.58
313
11.41
312
18.49
316
12.08
308
28.49
319
LVEtwo views10.96
300
3.63
297
2.68
288
55.15
332
4.03
311
7.50
313
88.91
336
1.93
231
2.44
272
2.26
235
1.69
214
4.48
274
4.75
270
3.42
293
3.44
206
2.21
206
6.03
289
1.84
276
50.68
324
1.97
261
10.14
268
12.19
284
5.54
297
3.12
308
3.75
287
2.46
264
2.99
231
6.76
280
XX-Stereotwo views11.10
301
0.72
74
1.24
228
1.04
205
0.52
112
0.80
181
0.84
190
1.13
129
0.51
114
4.53
294
6.79
288
1.54
202
1.06
220
0.42
119
2.78
175
5.82
277
0.96
166
0.94
187
6.43
237
0.91
173
6.26
207
8.36
210
0.58
161
0.43
90
237.38
339
1.38
190
2.64
213
3.61
251
DGSMNettwo views11.16
302
1.98
274
1.98
268
1.90
261
1.52
245
2.46
276
1.47
236
3.07
286
2.11
264
12.67
326
102.10
335
3.59
261
18.94
313
18.97
324
16.50
261
15.09
314
12.73
308
10.36
323
13.79
284
4.57
290
12.99
291
14.32
313
7.77
314
3.43
311
1.75
256
6.25
295
3.48
253
5.53
270
ACVNet-4btwo views11.58
303
3.99
302
2.60
285
44.40
328
2.71
285
4.98
299
62.31
332
1.85
225
1.79
252
1.63
198
1.25
196
4.22
271
58.75
329
3.34
292
2.27
134
1.21
98
13.33
312
1.70
271
49.50
322
1.93
257
14.47
318
13.72
312
7.40
309
3.13
309
1.55
243
1.89
240
2.20
161
4.61
259
LSM0two views11.61
304
1.70
265
2.94
293
2.71
276
2.41
277
2.76
278
6.88
295
4.22
302
4.26
297
3.67
279
7.57
302
7.41
291
9.43
288
0.98
243
64.90
334
78.60
337
3.43
273
2.37
297
20.39
295
4.80
293
14.29
314
16.21
319
1.30
260
3.06
306
3.29
284
12.44
309
6.06
282
25.31
314
UNDER WATER-64two views11.75
305
7.29
317
4.90
309
17.03
311
7.40
322
8.44
316
16.49
319
8.25
323
4.32
298
4.51
293
3.21
243
17.72
315
15.23
305
8.81
307
46.52
298
10.69
298
13.57
320
3.01
310
12.74
283
8.66
313
14.20
309
12.82
302
11.01
322
4.40
316
6.45
300
18.67
317
8.71
297
22.29
310
SGM+DAISYtwo views11.81
306
3.22
288
3.47
297
3.83
288
3.15
297
4.25
292
3.52
277
7.70
318
10.88
319
5.57
320
9.00
313
9.94
308
13.12
302
1.74
276
22.71
271
18.99
321
3.23
271
2.28
293
15.35
289
8.91
316
15.05
321
17.02
321
1.32
262
4.58
317
24.50
323
31.01
328
32.60
329
41.83
332
MDST_ROBtwo views12.03
307
32.81
328
1.72
254
20.74
317
2.64
282
5.90
306
1.72
246
4.06
301
1.35
228
3.76
281
6.53
281
2.75
251
42.83
320
0.54
164
50.83
311
1.22
101
1.08
188
0.75
126
18.95
291
1.00
186
12.75
287
11.49
271
1.29
258
1.26
240
22.72
322
11.17
304
31.24
326
31.81
324
WAO-8two views12.07
308
5.33
307
4.83
306
26.48
319
4.01
309
6.22
308
11.73
313
3.65
296
6.39
307
28.97
332
41.01
327
8.08
296
18.91
311
20.68
327
3.75
218
3.24
230
9.46
298
2.01
283
53.81
325
5.76
298
9.83
261
11.16
264
6.04
303
2.43
287
8.05
305
7.74
298
6.36
285
9.95
289
Venustwo views12.07
308
5.33
307
4.83
306
26.48
319
4.01
309
6.22
308
11.73
313
3.65
296
6.39
307
28.97
332
41.01
327
8.08
296
18.91
311
20.68
327
3.75
218
3.24
230
9.46
298
2.01
283
53.81
325
5.76
298
9.83
261
11.16
264
6.04
303
2.43
287
8.05
305
7.74
298
6.36
285
9.95
289
JetRedtwo views12.50
310
6.96
316
7.76
321
4.77
298
6.78
319
9.35
318
10.92
308
5.31
310
4.54
299
5.85
322
3.28
246
8.17
298
7.48
278
9.74
311
50.80
310
15.21
315
10.30
301
7.93
317
7.83
266
5.44
297
18.10
326
24.48
327
11.12
323
4.60
318
11.97
313
25.85
323
24.78
322
28.17
318
TorneroNet-64two views13.24
311
6.25
312
5.07
312
34.05
322
3.72
306
9.38
319
16.75
320
3.49
290
12.26
322
2.27
237
5.98
274
17.67
314
34.24
318
14.37
317
47.92
301
3.76
244
13.18
311
2.40
299
36.34
308
9.15
319
13.85
304
12.35
292
5.65
298
2.64
293
14.28
316
14.51
312
3.41
247
12.48
294
ACV-stereotwo views13.36
312
1.90
270
1.63
250
2.10
265
1.15
221
2.97
279
1.36
232
1.72
215
1.86
259
2.96
259
4.89
262
3.67
264
43.88
322
1.13
256
54.14
324
17.43
319
2.38
262
1.31
255
170.74
338
4.64
291
12.73
284
14.68
315
0.97
243
1.83
260
1.25
203
1.49
205
3.53
254
2.32
227
MANEtwo views14.22
313
9.62
320
6.93
319
4.94
301
5.72
316
7.88
314
11.48
310
7.38
316
9.90
315
4.92
303
6.89
296
8.98
301
12.13
298
3.67
296
50.37
306
17.85
320
11.82
304
20.17
328
10.46
278
6.55
305
12.22
280
12.86
304
1.77
276
11.33
324
24.83
324
30.99
327
31.42
327
40.73
330
DispFullNettwo views15.85
314
3.61
296
5.00
311
3.30
286
2.93
293
3.51
287
3.20
271
6.49
312
2.71
277
5.17
310
6.80
290
90.79
332
15.55
306
2.73
281
28.89
274
23.38
327
4.02
279
3.86
314
138.92
336
28.91
328
12.60
283
11.86
279
2.69
283
2.31
283
4.30
289
2.71
269
6.80
289
5.05
264
UNDER WATERtwo views16.39
315
7.86
318
4.99
310
15.68
310
10.73
327
8.76
317
38.30
327
8.07
321
6.02
306
4.25
289
2.98
239
18.63
316
96.18
334
14.44
318
32.70
276
10.29
296
13.91
321
2.75
305
43.73
316
8.62
312
16.83
325
12.33
289
17.08
329
5.55
320
6.06
299
14.49
311
6.37
287
15.05
298
STStereotwo views16.49
316
3.48
293
5.91
316
44.25
327
5.60
315
39.03
331
13.11
315
7.74
319
10.72
318
5.19
312
8.92
310
24.73
321
30.22
317
1.03
251
59.92
332
11.74
302
2.59
263
1.26
252
40.79
311
2.25
269
10.02
264
8.79
218
2.06
279
11.31
323
22.61
321
16.05
314
20.57
319
35.39
326
PSMNet_ROBtwo views16.63
317
5.59
309
2.97
294
3.47
287
2.63
280
5.86
305
6.18
292
2.20
257
2.29
268
5.39
317
141.45
337
97.59
333
6.02
274
33.78
329
3.23
202
1.58
168
4.09
280
1.69
270
20.81
297
2.75
275
12.93
290
7.08
198
63.80
337
2.60
291
2.95
280
3.67
277
2.77
220
3.66
252
DGTPSM_ROBtwo views17.21
318
6.49
313
18.05
324
4.91
300
8.87
323
5.73
302
11.48
310
5.02
307
12.05
320
5.03
308
9.34
314
12.62
313
56.51
328
15.29
320
43.82
291
20.47
323
19.26
324
16.28
325
24.70
300
20.05
324
13.50
297
22.25
325
6.00
301
12.55
325
12.71
314
32.01
330
14.20
313
35.61
328
KSHMRtwo views20.05
319
6.71
315
4.01
303
99.31
336
5.91
318
17.09
323
71.12
334
3.62
295
9.75
314
3.59
275
3.39
247
6.07
284
84.38
333
17.14
322
22.70
270
3.97
248
6.29
290
2.76
307
90.60
331
2.83
276
12.73
284
10.14
232
9.05
320
2.74
300
21.08
320
5.85
292
8.10
295
10.46
292
DPSM_ROBtwo views21.05
320
17.19
323
22.69
326
10.13
306
9.29
325
13.96
321
14.50
317
11.66
324
15.25
324
9.00
323
8.97
311
10.35
310
13.24
303
19.90
325
59.73
330
26.35
328
18.76
322
21.26
329
14.74
286
15.50
322
28.56
329
27.85
329
7.42
310
16.13
328
34.05
328
39.30
333
37.97
331
44.48
333
DPSMtwo views21.05
320
17.19
323
22.69
326
10.13
306
9.29
325
13.96
321
14.50
317
11.66
324
15.25
324
9.00
323
8.97
311
10.35
310
13.24
303
19.90
325
59.73
330
26.35
328
18.76
322
21.26
329
14.74
286
15.50
322
28.56
329
27.85
329
7.42
310
16.13
328
34.05
328
39.30
333
37.97
331
44.48
333
MaskLacGwcNet_RVCtwo views21.23
322
1.32
243
1.63
250
1.89
260
1.69
254
1.93
261
3.75
280
2.27
264
2.66
275
5.02
306
29.10
322
216.12
338
51.87
327
5.44
302
3.66
212
4.09
253
5.59
286
13.75
324
28.77
301
1.47
229
14.44
317
12.86
304
0.98
244
2.33
284
1.88
264
7.40
296
145.78
339
5.57
271
DPSMNet_ROBtwo views22.61
323
6.50
314
18.06
325
4.95
302
8.88
324
5.76
304
11.54
312
5.02
307
12.08
321
5.17
310
28.67
321
19.69
317
163.24
339
15.38
321
43.87
293
20.66
324
19.56
325
16.59
326
35.50
306
20.17
325
13.82
303
22.26
326
6.02
302
12.56
326
12.82
315
32.01
330
14.23
314
35.60
327
DLNR_Zeroshot_testpermissivetwo views23.11
324
81.98
337
1.97
267
102.16
337
0.49
99
0.55
120
81.36
335
2.30
267
0.50
110
4.87
300
2.22
232
2.99
253
0.93
204
12.17
313
96.90
336
144.02
339
34.28
329
19.61
327
8.60
269
4.35
288
8.08
244
6.53
188
0.51
125
0.69
183
1.37
216
1.57
215
1.16
76
1.90
209
TorneroNettwo views24.73
325
6.18
310
3.52
298
95.34
335
3.93
307
27.05
326
29.02
324
4.44
303
18.13
326
2.20
232
37.99
326
77.85
331
72.31
330
18.15
323
41.78
287
3.07
227
13.11
310
2.35
295
87.85
329
9.06
318
15.44
324
12.17
283
5.94
300
2.64
293
52.32
332
8.18
300
3.59
256
14.11
296
LRCNet_RVCtwo views25.94
326
30.78
327
14.74
323
35.18
325
31.16
331
36.52
330
29.93
326
23.08
329
12.70
323
36.15
334
33.37
323
37.24
323
28.56
316
37.11
330
17.47
262
7.61
287
31.06
327
26.75
332
67.49
327
29.07
329
23.47
328
10.73
252
39.23
332
30.61
332
7.37
301
2.53
266
11.22
301
9.31
287
ktntwo views26.84
327
3.99
302
95.18
339
14.39
309
5.44
314
18.02
324
17.50
321
19.69
328
67.27
336
2.84
252
5.30
265
171.03
337
80.75
332
7.72
305
10.93
246
3.48
240
20.95
326
2.71
303
90.26
330
29.10
330
15.05
321
10.23
235
7.60
313
2.93
304
5.12
292
5.83
290
4.73
275
6.62
278
LE_ROBtwo views28.97
328
25.29
326
36.16
330
34.90
324
56.86
337
18.61
325
58.99
331
32.08
332
41.72
331
5.37
316
27.57
320
46.00
325
49.67
325
13.72
316
14.83
256
3.84
247
5.96
287
1.22
244
46.43
319
36.35
333
10.19
269
11.19
266
48.45
333
22.49
330
30.18
326
31.59
329
31.60
328
40.87
331
PMLtwo views39.07
329
38.06
331
12.06
322
39.32
326
29.04
330
40.62
332
11.06
309
14.14
326
100.08
337
27.87
331
166.26
339
107.74
334
159.39
338
13.53
315
15.41
257
10.75
299
35.75
330
8.64
318
42.84
315
10.61
321
14.22
310
16.14
318
5.89
299
7.21
322
53.08
333
13.95
310
42.26
333
19.02
306
FlowAnythingtwo views42.31
330
34.65
330
45.90
332
20.47
316
18.91
329
28.11
328
28.64
323
23.30
331
30.84
328
18.76
329
18.33
318
20.84
319
27.00
315
39.89
331
119.49
338
52.59
335
37.35
331
42.63
335
29.06
302
31.53
332
57.38
336
56.78
338
14.49
327
32.64
334
68.29
335
78.93
337
76.07
334
89.56
338
CasAABBNettwo views42.72
331
34.60
329
45.66
331
20.17
315
18.55
328
28.05
327
29.13
325
23.25
330
30.69
327
18.73
328
18.11
317
20.72
318
37.90
319
39.93
332
120.54
339
52.80
336
37.72
332
42.56
334
29.30
303
30.56
331
57.58
337
56.66
337
14.58
328
32.34
333
68.46
336
79.09
338
76.31
335
89.48
337
HaxPigtwo views44.53
332
46.75
333
47.32
333
47.72
329
48.79
333
47.60
333
48.40
328
49.50
333
47.10
332
49.76
335
50.31
329
49.00
326
45.26
323
54.49
334
41.50
285
40.24
331
50.15
334
52.05
336
44.74
317
43.04
334
46.61
333
44.38
335
51.78
334
45.43
335
33.92
327
25.30
321
28.66
324
22.43
311
AVERAGE_ROBtwo views46.12
333
48.49
334
48.31
334
49.34
330
50.25
334
48.63
334
49.80
329
50.74
335
48.67
333
51.68
336
52.55
330
50.28
327
47.20
324
55.70
335
43.00
290
40.99
332
52.42
335
54.59
337
47.27
320
45.45
335
48.77
334
44.06
334
52.90
335
46.98
336
35.80
330
26.72
324
30.77
325
23.81
313
HanzoNettwo views47.37
334
45.54
332
75.64
337
62.53
333
47.97
332
62.03
336
90.57
338
55.02
337
58.34
335
15.60
327
22.00
319
75.72
330
107.47
335
172.14
339
23.65
273
13.02
305
62.42
337
9.26
319
134.39
334
22.45
326
19.74
327
25.78
328
31.84
331
5.57
321
9.72
311
9.49
302
8.54
296
12.61
295
MEDIAN_ROBtwo views49.56
335
51.66
335
50.91
335
52.80
331
53.76
335
52.08
335
53.35
330
54.28
336
52.25
334
54.89
337
55.89
331
53.59
328
50.09
326
58.85
336
46.45
297
44.55
333
55.81
336
57.90
338
50.55
323
48.85
336
52.07
335
46.79
336
56.69
336
50.01
337
39.10
331
30.23
326
33.56
330
31.26
323
BEATNet-Init1two views52.60
336
76.96
336
24.06
328
87.02
334
56.48
336
86.86
337
68.77
333
49.65
334
34.71
330
11.93
325
56.24
332
64.63
329
78.72
331
9.65
310
58.40
328
51.35
334
32.72
328
23.00
331
101.24
332
71.98
338
46.49
332
39.72
333
28.67
330
24.23
331
59.12
334
38.23
332
77.99
336
61.49
335
DPSimNet_ROBtwo views111.84
337
179.62
339
74.81
336
195.40
339
165.93
339
136.63
339
98.05
339
126.48
339
138.79
339
82.31
338
148.57
338
159.77
335
157.57
337
78.29
337
64.65
333
40.10
330
142.61
339
34.98
333
195.20
339
69.76
337
154.10
338
32.63
332
82.12
338
98.24
338
71.10
337
51.68
335
117.83
338
122.56
339
ASD4two views121.33
338
129.06
338
88.33
338
102.62
338
80.04
338
113.84
338
90.39
337
120.07
338
107.64
338
132.47
339
137.43
336
163.16
336
128.65
336
95.21
338
111.50
337
121.28
338
132.67
338
105.33
339
131.08
333
144.81
339
247.71
339
229.55
339
96.05
339
105.89
339
113.24
338
67.78
336
92.86
337
87.27
336
FADEtwo views18.09
325
30.60
329
2.84
279
3.65
305
28.71
329
17.79
322
15.65
327
31.19
329
23.58
330
34.50
324
24.85
314
9.63
309
13.75
253
14.56
309
43.43
333
10.05
322
41.89
313
25.16
327
36.12
331
31.14
331
7.48
312
15.57
327
20.22
319
17.05
315
15.03
316
33.84
325