This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
ProNettwo views0.30
1
0.27
4
0.31
8
0.26
6
0.15
5
0.27
5
0.27
31
0.38
5
0.13
1
0.15
1
0.49
32
0.29
2
0.13
1
0.16
3
0.73
4
0.49
2
0.43
4
0.32
2
0.35
1
0.27
5
0.38
1
0.22
1
0.38
23
0.22
6
0.32
1
0.20
1
0.38
1
0.27
2
CroCo-Stereo Lap2two views0.33
2
0.22
2
0.15
1
0.11
1
0.12
3
0.16
1
0.08
2
0.35
4
0.15
4
0.47
13
0.10
2
0.31
3
0.14
3
0.14
1
1.26
13
1.00
28
0.36
2
0.36
5
0.44
3
0.20
1
0.53
7
0.55
10
0.17
3
0.13
1
0.39
6
0.35
8
0.40
2
0.27
2
StereoVisiontwo views0.34
3
0.27
4
0.21
4
0.13
3
0.18
6
0.21
3
0.14
5
0.30
2
0.23
6
0.35
6
0.18
3
0.34
4
0.17
5
0.16
3
0.98
6
0.78
11
0.44
5
0.35
3
0.43
2
0.23
3
0.40
2
0.48
7
0.16
1
0.21
5
0.40
7
0.40
10
0.71
10
0.37
8
CroCo-Stereocopylefttwo views0.35
4
0.20
1
0.15
1
0.11
1
0.10
2
0.18
2
0.06
1
0.33
3
0.14
2
0.31
4
0.05
1
0.36
6
0.13
1
0.15
2
1.64
26
1.05
34
0.35
1
0.37
6
0.45
4
0.20
1
0.62
12
0.79
24
0.16
1
0.13
1
0.38
3
0.31
3
0.45
3
0.26
1
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.35
4
0.22
2
0.19
3
0.27
7
0.13
4
0.30
9
0.08
2
0.97
65
0.18
5
0.92
90
0.19
4
0.27
1
0.16
4
0.18
5
0.51
1
0.47
1
0.38
3
0.26
1
0.54
7
0.25
4
0.43
3
0.34
2
0.19
4
0.15
3
0.38
3
0.34
7
0.90
16
0.27
2
AEACVtwo views0.43
6
0.94
115
0.30
5
0.29
11
0.20
7
0.27
5
0.12
4
0.28
1
0.14
2
0.24
2
0.23
6
0.35
5
0.21
7
0.20
8
1.24
12
0.83
13
0.57
17
0.38
7
0.78
20
0.45
20
0.81
25
0.73
21
0.24
5
0.18
4
0.34
2
0.31
3
0.61
7
0.28
5
TDLMtwo views0.49
7
0.59
15
0.60
49
0.39
27
0.48
44
0.46
35
0.43
81
0.72
22
0.35
22
0.30
3
0.65
59
0.76
56
0.41
31
0.35
31
0.54
2
0.58
3
0.55
11
0.49
12
0.50
6
0.43
15
0.50
5
0.39
4
0.41
29
0.39
31
0.38
3
0.31
3
0.61
7
0.66
41
anonymousdsptwo views0.50
8
0.38
6
0.36
14
0.28
9
0.32
15
0.28
7
0.15
6
0.56
10
0.26
9
0.42
9
0.33
13
0.53
13
0.19
6
0.27
15
1.47
16
0.87
15
0.54
9
0.52
17
0.62
12
0.48
22
0.71
17
1.04
40
0.36
18
0.30
10
0.46
11
0.29
2
1.13
32
0.33
7
iRaftStereo_RVCtwo views0.51
9
0.56
12
0.40
18
0.28
9
0.31
14
0.32
11
0.19
10
0.68
21
0.25
8
0.46
12
0.57
46
0.58
14
0.29
12
0.25
12
1.17
10
0.89
17
0.56
15
0.45
9
0.72
16
0.41
13
0.97
41
0.79
24
0.35
13
0.34
18
0.44
10
0.41
15
0.76
13
0.48
12
delettwo views0.51
9
0.58
13
0.47
33
0.35
18
0.50
56
0.50
50
0.30
35
0.49
7
0.29
12
0.56
16
0.44
24
0.45
10
0.34
18
0.48
93
1.16
8
0.68
5
0.55
11
0.46
10
0.47
5
0.41
13
0.58
9
0.39
4
0.39
25
0.41
37
0.48
15
0.36
9
1.09
29
0.50
14
AASNettwo views0.53
11
0.74
44
0.46
32
0.35
18
0.61
84
0.51
54
0.42
78
0.65
18
0.26
9
0.41
8
0.50
34
0.39
7
0.31
15
0.41
57
1.02
7
0.69
6
0.53
8
0.60
32
0.67
14
0.51
23
0.60
10
0.87
29
0.41
29
0.41
37
0.50
18
0.40
10
0.70
9
0.45
11
AANet_RVCtwo views0.54
12
0.45
9
0.40
18
0.33
17
0.61
84
0.28
7
0.31
39
0.61
13
0.58
85
0.44
10
0.41
21
0.39
7
0.48
38
0.33
23
1.16
8
0.79
12
0.55
11
0.53
21
0.56
10
0.52
27
0.46
4
0.49
8
0.34
10
0.38
25
0.57
28
0.57
33
1.05
26
0.97
81
StereoIMtwo views0.57
13
0.47
10
0.30
5
0.16
4
0.26
10
0.21
3
0.17
7
0.44
6
0.32
17
1.08
109
0.22
5
0.51
12
0.22
9
0.19
6
1.83
45
1.19
59
0.62
21
0.59
31
1.09
38
0.45
20
0.81
25
0.94
35
0.37
21
0.25
7
0.63
37
0.67
42
0.60
6
0.82
60
MMNettwo views0.59
14
0.58
13
0.44
26
0.38
23
0.55
70
0.42
32
0.29
34
0.60
12
0.40
35
0.38
7
0.55
43
0.63
24
0.32
16
0.51
105
1.51
20
0.75
10
0.72
43
0.58
30
0.76
18
0.55
34
0.62
12
0.41
6
0.40
27
0.52
72
0.51
20
0.49
22
1.49
56
0.50
14
MIF-Stereotwo views0.60
15
0.44
8
0.32
10
0.21
5
0.25
9
0.34
14
0.17
7
0.61
13
0.31
13
0.75
50
0.27
8
0.62
23
0.34
18
0.21
9
1.77
39
1.44
99
0.57
17
0.61
36
1.53
60
0.44
19
0.91
38
1.14
45
0.37
21
0.29
9
0.50
18
0.54
28
0.52
4
0.58
23
CVANet_RVCtwo views0.60
15
0.67
24
0.81
85
0.81
122
0.53
66
0.66
100
0.55
104
1.15
84
0.39
28
0.44
10
0.79
94
0.80
64
0.44
34
0.43
70
0.69
3
0.67
4
0.55
11
0.53
21
0.55
9
0.57
38
0.63
14
0.57
12
0.40
27
0.41
37
0.46
11
0.40
10
0.72
11
0.55
18
DMCAtwo views0.63
17
0.73
41
0.63
53
0.40
28
0.49
47
0.52
57
0.33
48
0.59
11
0.52
64
0.80
65
0.63
57
0.70
39
0.40
29
0.47
87
1.48
17
0.92
19
0.69
33
0.67
50
0.67
14
0.51
23
0.67
16
0.59
14
0.48
59
0.45
51
0.48
15
0.52
26
1.04
25
0.62
34
RAFT_CTSACEtwo views0.64
18
0.94
115
0.31
8
0.37
21
0.34
21
0.33
12
0.23
18
1.23
95
0.26
9
0.64
33
0.29
10
0.71
42
0.57
62
0.34
28
1.57
24
1.07
38
0.52
7
0.43
8
0.72
16
0.33
7
0.85
30
1.72
62
0.42
34
0.30
10
0.46
11
0.41
15
1.58
68
0.39
9
GANettwo views0.64
18
0.67
24
0.63
53
0.57
68
0.58
75
0.95
144
0.55
104
0.78
32
0.46
44
0.57
18
0.61
53
1.83
161
0.36
23
0.41
57
0.81
5
0.69
6
0.76
53
0.73
67
0.58
11
0.40
11
0.53
7
0.49
8
0.47
56
0.48
60
0.56
27
0.41
15
0.83
14
0.69
43
HCRNettwo views0.66
20
0.78
63
0.41
22
0.54
61
0.27
12
0.41
30
0.39
61
0.63
16
0.31
13
1.62
143
0.59
51
0.67
34
0.29
12
0.41
57
1.99
56
0.73
9
0.60
20
0.47
11
0.65
13
0.43
15
0.78
24
0.62
15
0.36
18
0.34
18
0.42
9
0.43
20
2.14
100
0.50
14
test crocotwo views0.67
21
0.87
91
0.33
11
0.31
14
0.59
77
0.33
12
0.30
35
0.89
55
0.34
20
0.72
44
0.24
7
0.65
29
0.34
18
0.19
6
1.95
52
1.57
122
0.71
38
0.69
55
0.94
27
0.39
10
1.28
67
1.20
48
0.33
9
0.33
16
0.59
34
0.60
35
0.72
11
0.74
48
MIF-Stereo (partial)two views0.69
22
0.76
56
0.33
11
0.27
7
0.37
27
0.35
16
0.31
39
0.53
8
0.40
35
0.62
29
0.32
12
0.50
11
0.39
25
0.23
10
2.08
65
1.51
112
0.68
29
0.71
59
0.77
19
0.43
15
1.10
53
0.94
35
0.39
25
0.32
13
0.57
28
0.71
45
2.25
112
0.87
67
test_5two views0.69
22
0.91
107
0.30
5
0.38
23
0.26
10
0.35
16
0.19
10
1.79
163
0.31
13
0.58
21
1.20
137
0.75
53
0.73
103
0.32
20
1.36
14
1.10
44
0.54
9
0.54
25
1.01
31
0.37
8
0.61
11
1.37
54
0.29
6
0.34
18
0.41
8
0.40
10
1.72
75
0.44
10
FINETtwo views0.69
22
0.65
19
0.67
61
0.65
87
0.49
47
0.48
45
0.45
87
0.75
27
0.59
87
0.61
26
0.48
29
0.82
70
0.57
62
0.43
70
1.71
31
1.08
41
0.77
55
0.57
27
1.07
36
0.56
36
0.88
32
0.65
18
0.43
37
0.50
65
0.62
36
0.56
32
0.96
21
0.64
38
raft+_RVCtwo views0.71
25
0.73
41
0.70
66
0.41
31
0.34
21
0.49
47
0.30
35
1.48
127
0.43
39
0.62
29
0.62
55
0.65
29
0.39
25
0.26
13
1.74
35
1.16
52
0.69
33
0.53
21
1.57
66
0.51
23
0.85
30
1.06
42
0.44
40
0.38
25
0.68
42
0.62
37
0.85
15
0.69
43
GMStereopermissivetwo views0.73
26
0.99
135
0.39
15
0.49
46
0.47
39
0.55
67
0.41
72
0.77
29
0.43
39
0.55
14
0.48
29
0.81
69
0.38
24
0.34
28
1.60
25
0.95
22
0.74
50
0.52
17
1.88
73
0.57
38
1.07
48
0.73
21
0.42
34
0.51
67
0.72
51
0.47
21
1.87
85
0.57
22
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.73
26
0.69
29
0.79
80
0.54
61
0.65
94
0.58
80
0.54
100
0.72
22
0.54
73
0.59
23
0.57
46
0.61
21
0.47
35
0.62
135
1.80
42
0.96
23
0.72
43
0.68
54
0.91
26
0.72
81
0.64
15
0.55
10
0.53
81
0.52
72
0.58
31
0.51
24
2.19
108
0.59
29
AFF-stereotwo views0.76
28
0.69
29
0.59
46
0.30
13
0.32
15
0.52
57
0.18
9
0.86
48
0.41
37
1.37
128
0.43
23
0.60
20
0.34
18
0.24
11
1.76
38
1.13
48
0.57
17
0.62
38
2.81
108
0.43
15
0.77
22
0.63
16
0.41
29
0.32
13
0.70
45
0.67
42
2.38
126
0.56
19
TestStereotwo views0.77
29
0.93
112
0.79
80
0.56
65
0.46
35
0.66
100
0.33
48
1.22
93
0.42
38
0.90
86
0.52
36
0.84
74
0.54
52
0.39
46
1.50
19
0.92
19
0.73
48
0.51
16
1.38
50
0.56
36
1.25
64
0.82
26
0.44
40
0.44
49
0.77
59
0.79
56
1.34
42
0.79
55
MIM_Stereotwo views0.78
30
0.77
60
0.53
40
0.43
39
0.38
28
0.46
35
0.22
17
1.50
130
0.31
13
0.55
14
0.38
18
0.64
26
0.27
11
0.32
20
1.77
39
1.09
42
0.63
23
0.73
67
3.30
132
0.57
38
1.19
61
0.91
33
0.34
10
0.36
22
0.49
17
0.41
15
1.95
90
0.58
23
CFNettwo views0.80
31
0.84
83
0.79
80
0.76
107
0.70
105
0.60
85
0.46
91
0.84
46
0.48
52
0.66
37
0.71
79
0.92
92
0.61
74
0.43
70
1.75
37
0.84
14
0.70
35
0.64
43
0.90
25
0.78
95
0.89
36
0.72
20
0.45
45
0.51
67
0.87
81
0.83
64
1.67
74
1.15
107
HGLStereotwo views0.83
32
0.64
17
0.75
75
0.52
55
0.67
100
0.56
73
0.45
87
0.66
20
0.50
59
1.72
150
0.96
118
0.64
26
0.56
58
0.54
107
1.65
28
1.18
56
0.80
63
0.76
75
1.05
33
0.66
64
0.99
43
1.36
53
0.49
62
0.54
80
0.71
48
0.76
52
1.59
70
0.82
60
UNettwo views0.85
33
0.76
56
0.74
72
0.60
75
0.60
80
0.61
88
0.53
98
0.90
56
0.58
85
1.21
115
0.68
67
0.71
42
0.56
58
0.67
143
1.72
34
1.11
46
0.79
60
0.72
65
1.13
40
0.82
105
0.84
28
0.69
19
0.62
113
0.58
93
0.64
39
0.77
53
2.48
136
0.95
78
RASNettwo views0.85
33
0.72
37
0.89
106
0.61
77
0.62
90
0.66
100
0.41
72
0.98
67
0.61
91
1.21
115
0.64
58
0.74
46
0.67
88
0.40
50
1.23
11
1.31
74
0.72
43
0.66
47
1.00
29
0.70
77
1.09
51
1.43
55
0.43
37
0.75
132
0.68
42
0.79
56
2.17
104
0.93
76
anonymousdsp2two views0.86
35
0.84
83
0.84
92
0.43
39
0.44
33
0.56
73
0.32
44
1.17
86
0.36
24
0.66
37
0.67
63
0.69
37
0.40
29
0.49
98
1.46
15
1.36
81
0.67
28
0.62
38
2.12
82
0.60
47
1.36
75
2.66
77
0.36
18
0.44
49
0.71
48
0.51
24
1.86
84
0.64
38
ddtwo views0.86
35
0.80
67
0.51
37
1.05
151
0.44
33
0.85
130
0.44
85
0.85
47
0.39
28
0.83
68
0.40
19
1.23
129
0.39
25
0.47
87
2.21
80
0.98
25
0.97
120
0.71
59
2.00
80
0.61
49
0.84
28
0.77
23
0.49
62
0.64
114
0.70
45
0.53
27
1.73
76
1.47
134
RAFT-Stereo + iAFFtwo views0.86
35
0.72
37
0.84
92
0.41
31
0.39
29
0.54
63
0.21
15
0.99
68
0.52
64
1.54
138
0.57
46
0.73
45
0.39
25
0.26
13
2.15
68
1.17
54
0.64
25
0.50
13
2.66
103
0.57
38
0.88
32
0.90
31
0.47
56
0.39
31
0.86
77
0.72
47
2.54
148
0.66
41
DMCA-RVCcopylefttwo views0.86
35
0.74
44
0.73
69
0.61
77
0.77
115
0.56
73
0.70
121
0.77
29
1.43
171
1.38
130
0.69
70
0.87
79
0.54
52
0.55
112
1.66
30
1.05
34
0.81
72
0.74
70
0.95
28
0.73
84
0.89
36
0.93
34
0.51
73
0.58
93
0.59
34
0.62
37
1.82
81
0.91
73
RAFT+CT+SAtwo views0.87
39
0.97
129
0.40
18
0.45
42
0.29
13
0.38
21
0.20
13
1.64
154
0.33
18
0.72
44
0.30
11
0.88
84
0.65
84
0.40
50
1.56
23
1.21
62
0.56
15
0.57
27
2.08
81
0.40
11
0.83
27
5.00
107
0.32
7
0.37
23
0.47
14
0.42
19
1.56
61
0.49
13
DSFCAtwo views0.87
39
0.84
83
0.73
69
0.65
87
0.77
115
0.61
88
0.78
126
0.75
27
0.78
113
0.77
58
0.83
103
0.75
53
0.48
38
0.43
70
1.89
49
1.14
50
0.85
80
0.87
104
1.00
29
0.74
86
1.00
47
1.05
41
0.72
144
0.63
111
0.83
69
0.95
84
1.88
86
0.85
63
IERtwo views0.88
41
0.82
73
0.55
42
0.49
46
0.51
58
0.56
73
0.45
87
0.80
37
0.49
56
1.15
113
0.77
88
1.03
104
0.50
43
0.79
161
3.66
155
1.04
32
0.73
48
0.64
43
0.87
23
0.78
95
0.73
20
0.82
26
0.60
109
0.53
76
0.63
37
1.00
95
2.05
96
0.74
48
rafts_anoytwo views0.88
41
0.81
71
0.86
98
0.44
41
0.49
47
0.51
54
0.46
91
1.58
147
0.48
52
0.61
26
0.70
77
0.70
39
0.47
35
0.30
18
2.51
99
1.38
83
0.76
53
0.78
81
2.36
90
0.61
49
1.28
67
0.99
39
0.49
62
0.49
62
0.85
75
0.90
78
0.93
20
1.00
93
ARAFTtwo views0.89
43
0.72
37
0.47
33
0.35
18
0.34
21
0.42
32
0.24
21
0.64
17
0.34
20
2.25
179
0.57
46
0.58
14
0.29
12
0.39
46
2.14
67
1.42
93
0.71
38
0.74
70
2.68
104
0.54
29
1.86
99
1.93
65
0.42
34
0.33
16
0.83
69
0.40
10
1.98
93
0.56
19
HITNettwo views0.90
44
0.65
19
0.62
52
0.68
94
0.50
56
0.39
23
0.32
44
1.26
101
0.89
124
0.70
40
0.70
77
0.91
90
0.49
40
0.39
46
1.96
53
1.02
29
0.66
27
0.64
43
0.79
21
0.61
49
1.53
81
3.85
87
0.46
47
0.52
72
0.58
31
0.64
40
1.81
79
0.81
58
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
TestStereo1two views0.93
45
0.98
132
0.39
15
0.38
23
0.36
25
0.39
23
0.25
24
1.02
70
0.39
28
0.79
62
0.34
14
0.58
14
0.73
103
0.54
107
3.06
134
1.47
108
0.71
38
0.52
17
2.91
111
0.54
29
1.34
70
1.84
63
0.35
13
0.39
31
0.54
23
1.06
99
2.53
146
0.60
30
SA-5Ktwo views0.93
45
0.98
132
0.39
15
0.38
23
0.36
25
0.39
23
0.25
24
1.02
70
0.39
28
0.79
62
0.34
14
0.58
14
0.73
103
0.54
107
3.06
134
1.47
108
0.71
38
0.52
17
2.91
111
0.54
29
1.34
70
1.84
63
0.35
13
0.39
31
0.54
23
1.06
99
2.53
146
0.60
30
RALCasStereoNettwo views0.93
45
0.82
73
0.93
111
0.53
58
0.53
66
0.60
85
0.45
87
1.48
127
0.44
41
1.03
102
0.75
86
0.89
89
0.49
40
0.32
20
2.31
85
1.43
97
0.78
57
0.75
72
1.50
57
0.58
42
1.18
60
2.21
69
0.49
62
0.57
89
0.86
77
1.13
112
0.90
16
1.16
108
CFNet_RVCtwo views0.94
48
0.84
83
0.89
106
0.76
107
0.80
123
0.71
110
0.49
93
0.74
26
0.63
97
0.88
82
0.94
115
0.87
79
0.57
62
0.50
99
1.96
53
1.12
47
0.79
60
0.79
84
1.27
42
0.73
84
1.26
65
1.52
58
0.48
59
0.64
114
0.98
102
1.11
105
1.92
89
1.23
116
DLCB_ROBtwo views0.94
48
0.90
103
0.88
101
0.73
100
0.80
123
0.69
107
0.69
120
0.87
52
0.72
108
0.94
94
0.86
107
1.02
101
0.91
140
0.69
148
1.48
17
1.06
37
0.97
120
0.72
65
0.88
24
0.74
86
1.21
62
1.21
49
0.78
153
0.71
127
1.26
143
1.26
124
1.49
56
0.95
78
AACVNettwo views0.95
50
0.87
91
0.69
63
0.91
133
0.91
134
0.72
113
0.59
113
0.87
52
0.60
88
0.73
47
0.88
110
0.79
63
0.64
79
0.60
128
1.77
39
1.37
82
0.84
78
0.83
96
1.12
39
0.77
92
1.36
75
1.13
44
0.70
137
0.65
116
0.87
81
1.12
109
1.90
87
1.31
124
DISCOtwo views0.96
51
0.98
132
0.56
44
0.57
68
0.61
84
0.81
126
0.79
129
0.77
29
0.81
114
2.06
169
0.86
107
0.66
31
0.70
94
0.42
66
1.87
47
1.27
69
0.99
124
0.80
88
1.80
71
0.80
99
0.92
39
1.33
50
0.57
96
0.51
67
0.72
51
0.84
69
2.02
94
0.80
57
GLC_STEREOtwo views0.97
52
0.89
100
0.85
96
0.56
65
0.60
80
0.48
45
0.40
68
1.70
157
0.47
46
0.77
58
0.67
63
0.78
62
0.63
77
0.61
130
2.53
100
1.65
130
0.88
90
0.60
32
1.57
66
0.70
77
2.48
108
1.17
46
0.44
40
0.43
45
0.67
41
0.55
30
2.36
122
0.88
70
TESTrafttwo views0.98
53
0.96
127
0.42
23
0.41
31
0.33
20
0.40
26
0.25
24
1.13
81
0.39
28
0.97
99
0.35
16
0.61
21
0.75
112
0.54
107
3.18
144
1.42
93
0.70
35
0.50
13
2.86
110
0.53
28
1.08
49
3.15
81
0.35
13
0.40
35
0.52
21
1.18
118
2.52
142
0.61
32
psm_uptwo views0.99
54
0.86
90
0.99
123
0.78
114
0.89
131
0.75
117
0.58
110
1.33
113
1.03
142
0.88
82
0.69
70
0.99
100
0.72
99
0.76
157
1.89
49
1.10
44
0.91
101
0.81
91
1.93
76
0.81
102
1.08
49
0.90
31
0.49
62
0.85
152
1.01
106
1.06
99
1.62
71
1.10
101
STTStereotwo views0.99
54
0.95
122
0.82
88
0.77
112
0.77
115
0.69
107
0.87
139
0.86
48
1.53
179
1.27
121
0.79
94
1.13
120
0.69
92
0.93
177
2.19
74
1.03
31
0.72
43
0.70
57
1.05
33
0.63
58
1.15
58
0.86
28
0.58
103
0.56
88
0.73
53
1.21
121
1.74
78
1.41
132
NLCA_NET_v2_RVCtwo views1.02
56
0.93
112
0.80
84
0.72
97
0.79
121
0.65
98
1.02
151
1.07
76
2.31
207
2.00
163
0.74
84
0.97
97
0.56
58
0.94
179
1.82
43
0.96
23
0.68
29
0.67
50
1.31
44
0.65
60
0.88
32
0.94
35
0.57
96
0.57
89
0.73
53
1.60
158
1.43
49
1.27
122
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CAStwo views1.05
57
0.80
67
0.40
18
0.50
52
0.48
44
0.37
18
0.30
35
0.55
9
0.44
41
1.13
112
0.77
88
0.64
26
0.95
150
0.31
19
2.68
113
1.79
138
0.96
117
0.82
94
1.08
37
0.61
49
2.91
115
5.06
110
0.44
40
0.30
10
0.81
63
0.92
80
1.18
35
1.16
108
AF-Nettwo views1.05
57
0.83
76
0.94
112
0.76
107
0.91
134
0.98
150
1.68
178
1.52
137
1.06
144
0.57
18
0.96
118
1.34
135
0.64
79
0.74
152
1.71
31
0.99
26
0.80
63
0.60
32
1.64
68
0.72
81
0.72
18
2.35
70
0.63
118
0.62
106
0.89
88
0.82
62
1.57
66
1.25
119
Nwc_Nettwo views1.05
57
0.83
76
0.94
112
0.76
107
0.91
134
0.98
150
1.68
178
1.52
137
1.06
144
0.57
18
0.96
118
1.34
135
0.64
79
0.74
152
1.71
31
0.99
26
0.80
63
0.60
32
1.64
68
0.72
81
0.72
18
2.35
70
0.63
118
0.62
106
0.89
88
0.82
62
1.57
66
1.25
119
LMCR-Stereopermissivemany views1.06
60
0.83
76
0.84
92
0.53
58
0.62
90
0.64
96
0.33
48
1.12
79
0.60
88
0.83
68
0.79
94
0.91
90
0.49
40
0.41
57
2.53
100
1.54
117
1.03
134
0.75
72
2.16
83
1.42
162
1.68
90
3.87
89
0.49
62
0.65
116
0.75
56
0.83
64
1.10
31
0.88
70
PDISCO_ROBtwo views1.06
60
0.87
91
0.60
49
0.80
119
0.68
102
0.53
62
0.59
113
0.93
60
0.69
103
1.80
155
1.00
126
0.74
46
0.63
77
0.66
141
1.87
47
1.44
99
0.89
92
1.10
160
1.53
60
0.80
99
1.56
84
2.40
73
0.52
80
0.63
111
1.19
130
0.79
56
2.56
149
0.81
58
SAtwo views1.07
62
0.90
103
0.42
23
0.55
63
0.53
66
0.49
47
0.24
21
1.60
148
0.46
44
0.71
43
0.41
21
0.69
37
0.58
65
0.62
135
1.74
35
1.41
90
0.78
57
0.79
84
3.17
122
0.65
60
1.24
63
4.73
99
0.34
10
0.51
67
0.75
56
1.12
109
2.64
156
0.72
47
PS-NSSStwo views1.07
62
1.44
190
0.69
63
1.20
169
0.91
134
1.16
166
0.93
146
0.80
37
0.55
75
0.74
49
0.49
32
1.98
169
1.03
157
0.91
174
1.54
22
0.92
19
0.83
76
0.73
67
1.45
55
0.62
55
0.94
40
0.63
16
1.68
207
0.50
65
1.00
104
0.95
84
3.21
181
1.11
104
HSMtwo views1.07
62
0.75
52
0.97
118
0.78
114
0.77
115
0.54
63
0.54
100
1.87
172
0.60
88
0.76
54
0.85
106
0.87
79
0.67
88
0.56
113
2.24
81
1.05
34
0.92
107
0.71
59
2.57
97
0.71
79
1.80
97
2.08
67
0.56
94
0.72
130
0.90
92
0.97
88
2.08
98
1.03
94
LL-Strereo2two views1.08
65
0.65
19
0.59
46
0.40
28
0.34
21
0.31
10
0.23
18
1.48
127
0.38
26
0.68
39
0.58
50
0.63
24
0.32
16
0.64
139
1.65
28
1.13
48
0.63
23
0.53
21
1.32
46
0.66
64
1.35
73
11.05
202
0.44
40
0.34
18
0.64
39
0.60
35
1.05
26
0.56
19
raftrobusttwo views1.11
66
0.65
19
0.92
110
0.55
63
0.49
47
0.44
34
0.33
48
1.55
144
0.47
46
0.94
94
0.72
82
0.82
70
0.53
47
0.36
40
2.91
125
1.71
133
0.71
38
0.70
57
4.37
149
0.65
60
1.69
92
3.95
91
0.59
107
0.42
44
0.95
100
0.85
71
0.99
23
0.85
63
UCFNet_RVCtwo views1.11
66
1.26
173
0.85
96
0.88
130
0.93
141
0.77
121
0.58
110
0.78
32
0.67
102
0.93
92
0.80
98
1.25
130
0.93
145
0.48
93
2.17
72
1.09
42
0.78
57
0.82
94
2.60
98
0.80
99
1.32
69
1.66
60
1.31
195
0.67
119
1.05
112
1.11
105
1.44
51
2.13
163
test_4two views1.13
68
0.74
44
0.77
77
0.42
37
0.32
15
0.34
14
0.26
29
0.78
32
0.33
18
0.75
50
0.40
19
0.87
79
0.35
22
0.40
50
2.10
66
1.55
118
0.65
26
0.69
55
1.50
57
0.51
23
1.12
55
10.25
178
0.41
29
0.37
23
0.58
31
0.70
44
2.73
162
0.62
34
Sa-1000two views1.14
69
0.75
52
0.47
33
0.49
46
0.61
84
0.50
50
0.27
31
1.70
157
0.52
64
0.73
47
0.48
29
0.66
31
0.67
88
0.79
161
2.17
72
1.43
97
0.92
107
0.93
125
3.23
123
0.58
42
1.55
83
4.86
102
0.35
13
0.59
99
1.14
125
1.24
122
2.35
121
0.76
53
RALAANettwo views1.14
69
0.70
31
0.84
92
0.53
58
0.53
66
0.60
85
0.41
72
1.30
108
0.50
59
0.94
94
0.65
59
0.72
44
0.59
66
0.33
23
1.97
55
1.32
76
0.75
52
0.89
114
1.96
77
0.85
108
3.07
117
5.37
118
0.53
81
0.62
106
0.82
66
1.03
97
2.08
98
0.78
54
CASnettwo views1.15
71
0.91
107
0.49
36
0.40
28
0.43
31
0.38
21
0.20
13
0.91
58
0.49
56
0.77
58
0.56
44
0.88
84
0.53
47
0.35
31
2.15
68
1.24
66
0.72
43
0.50
13
1.34
48
0.54
29
7.12
170
5.37
118
0.41
29
0.38
25
1.21
132
0.49
22
1.45
52
0.79
55
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
iResNet_ROBtwo views1.16
72
0.83
76
0.82
88
0.65
87
0.59
77
0.67
103
0.58
110
2.65
216
0.53
68
1.73
151
0.76
87
0.87
79
0.78
122
0.47
87
3.77
162
1.45
101
0.87
86
0.86
102
2.81
108
0.65
60
1.26
65
0.87
29
0.57
96
0.73
131
0.81
63
0.95
84
2.65
158
1.03
94
RPtwo views1.18
73
1.02
145
1.24
171
0.94
137
1.08
152
0.84
127
1.17
162
1.25
99
1.31
164
0.61
26
1.16
134
1.21
127
0.75
112
0.68
144
3.34
148
1.04
32
0.89
92
0.67
50
1.20
41
0.79
97
0.88
32
2.85
79
0.59
107
0.71
127
0.86
77
0.98
92
2.51
141
1.21
115
APVNettwo views1.21
74
1.02
145
0.64
56
0.69
95
0.78
119
0.86
131
0.84
134
0.78
32
0.71
107
0.92
90
0.82
101
0.86
77
0.59
66
0.58
119
2.67
112
1.65
130
1.11
142
0.98
139
3.23
123
0.85
108
1.62
86
4.73
99
0.55
88
0.84
151
0.77
59
0.80
59
1.90
87
0.98
83
iinet-ftwo views1.22
75
1.08
152
0.64
56
0.93
136
0.46
35
0.68
105
0.57
107
0.79
36
0.48
52
2.11
174
1.35
149
0.83
72
0.64
79
0.35
31
3.95
165
1.80
140
0.77
55
0.66
47
2.93
117
1.00
128
1.53
81
3.24
82
0.64
122
0.53
76
1.10
121
0.63
39
2.23
111
0.90
72
PA-Nettwo views1.22
75
0.95
122
1.13
154
0.75
103
1.31
173
0.68
105
0.84
134
0.82
42
1.18
158
0.83
68
0.77
88
0.76
56
0.78
122
0.91
174
3.00
130
1.21
62
0.68
29
0.77
77
1.02
32
0.82
105
1.13
57
4.67
97
0.66
126
0.82
146
1.00
104
2.10
190
1.24
37
2.13
163
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views1.25
77
1.24
167
1.10
146
0.99
144
1.05
146
0.96
145
1.53
173
1.79
163
1.59
182
0.60
24
1.34
146
1.17
124
1.03
157
0.74
152
2.44
91
1.07
38
0.89
92
0.99
142
1.54
62
0.91
116
0.99
43
2.46
74
0.80
161
0.76
134
1.26
143
1.59
155
1.39
46
1.61
141
Abc-Nettwo views1.25
77
1.24
167
1.10
146
0.99
144
1.05
146
0.96
145
1.53
173
1.79
163
1.59
182
0.60
24
1.34
146
1.17
124
1.03
157
0.74
152
2.44
91
1.07
38
0.89
92
0.99
142
1.54
62
0.91
116
0.99
43
2.46
74
0.80
161
0.76
134
1.26
143
1.59
155
1.39
46
1.61
141
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
CEStwo views1.27
79
0.77
60
0.56
44
0.45
42
0.56
72
0.51
54
0.21
15
1.50
130
0.70
105
0.78
61
0.80
98
0.84
74
0.90
139
0.33
23
3.45
152
2.96
170
1.14
146
1.04
153
1.32
46
1.08
136
4.63
134
4.87
103
0.63
118
0.38
25
0.85
75
0.83
64
1.02
24
1.16
108
GMOStereotwo views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
error versiontwo views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
test-vtwo views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
test-2two views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
GANetREF_RVCpermissivetwo views1.28
80
1.18
161
0.95
116
1.18
168
1.04
145
1.00
154
0.79
129
1.25
99
1.10
149
1.29
122
0.77
88
2.28
178
0.91
140
0.63
137
2.00
57
1.14
50
1.01
129
0.98
139
2.44
93
0.82
105
1.98
102
1.33
50
0.78
153
1.05
168
1.28
148
1.27
125
2.63
155
1.49
135
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AMNettwo views1.29
85
1.12
155
1.05
133
1.13
158
1.12
157
1.24
174
1.08
158
1.36
117
1.13
153
1.10
110
1.11
131
1.51
149
1.26
170
1.20
197
1.52
21
1.57
122
1.35
166
1.21
179
1.37
49
1.22
149
1.35
73
1.19
47
1.25
190
1.19
176
1.23
139
1.72
168
1.54
60
1.65
144
raft_robusttwo views1.30
86
0.93
112
0.53
40
0.59
74
0.47
39
0.57
77
0.37
58
2.06
189
0.52
64
1.69
149
0.53
38
0.76
56
0.82
130
0.47
87
2.16
71
1.52
115
0.84
78
0.84
100
5.71
170
0.59
45
2.50
109
5.04
109
0.46
47
0.51
67
0.99
103
1.05
98
1.58
68
0.99
89
IPLGR_Ctwo views1.31
87
0.71
35
0.68
62
0.57
68
0.46
35
0.52
57
0.31
39
0.81
39
0.53
68
0.76
54
0.69
70
1.03
104
0.53
47
0.59
124
2.62
106
1.33
78
0.88
90
0.63
41
3.25
128
0.61
49
1.64
89
10.69
190
0.55
88
0.53
76
0.89
88
0.57
33
2.40
128
0.62
34
ACREtwo views1.31
87
0.70
31
0.66
60
0.58
73
0.47
39
0.52
57
0.32
44
0.81
39
0.53
68
0.76
54
0.69
70
1.04
108
0.52
46
0.59
124
2.66
111
1.32
76
0.89
92
0.63
41
3.25
128
0.61
49
1.62
86
10.69
190
0.55
88
0.52
72
0.92
95
0.55
30
2.40
128
0.62
34
SACVNettwo views1.31
87
0.94
115
0.95
116
0.90
131
1.10
154
0.87
133
0.92
145
1.50
130
0.81
114
1.23
120
0.71
79
0.94
93
0.69
92
0.68
144
1.83
45
1.40
87
1.12
145
0.83
96
2.20
85
0.94
122
2.13
103
5.87
128
0.65
123
0.82
146
1.04
110
1.06
99
2.02
94
1.30
123
4D-IteraStereotwo views1.32
90
0.61
16
1.07
139
0.49
46
0.43
31
0.40
26
0.25
24
1.44
125
0.37
25
0.75
50
0.56
44
0.75
53
0.43
33
0.43
70
2.29
84
1.38
83
0.68
29
0.66
47
2.70
105
0.59
45
3.21
119
10.86
197
0.46
47
0.40
35
0.69
44
0.83
64
2.34
119
0.64
38
CIPLGtwo views1.32
90
0.70
31
0.69
63
0.57
68
0.46
35
0.52
57
0.33
48
0.81
39
0.55
75
0.76
54
0.69
70
1.03
104
0.53
47
0.59
124
2.91
125
1.33
78
0.89
92
0.62
38
3.23
123
0.62
55
1.62
86
10.69
190
0.55
88
0.53
76
0.90
92
0.54
28
2.37
125
0.61
32
DN-CSS_ROBtwo views1.32
90
0.83
76
1.03
129
0.87
129
0.86
126
0.47
41
0.36
57
2.00
184
0.57
83
1.56
140
1.81
160
0.96
96
0.77
120
0.38
45
2.15
68
1.40
87
1.03
134
0.93
125
5.27
158
0.66
64
2.56
110
2.82
78
0.54
86
0.86
155
0.79
61
0.81
60
2.07
97
1.33
127
UDGNettwo views1.34
93
1.00
139
0.76
76
1.64
190
1.38
178
1.69
194
1.25
166
1.22
93
0.69
103
0.63
32
0.84
105
0.83
72
0.41
31
1.62
205
2.02
62
1.19
59
0.81
72
0.87
104
1.98
78
0.92
119
1.68
90
5.69
124
1.26
192
0.47
55
1.21
132
0.95
84
2.15
102
1.03
94
CREStereotwo views1.37
94
0.91
107
0.94
112
0.52
55
0.42
30
0.47
41
0.26
29
1.43
124
0.66
100
0.87
76
0.83
103
0.95
94
0.73
103
0.36
40
2.98
129
4.38
201
0.85
80
0.56
26
2.41
92
0.62
55
5.52
149
4.71
98
0.53
81
0.47
55
1.02
108
0.87
74
1.73
76
0.98
83
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNet-RVC-Resampletwo views1.37
94
0.87
91
0.99
123
0.72
97
0.81
125
0.63
93
1.02
151
1.06
75
0.91
127
0.99
100
0.99
124
1.69
157
0.73
103
1.02
185
4.06
167
1.41
90
1.02
131
1.62
202
1.55
64
1.04
131
1.37
77
5.03
108
0.57
96
1.14
174
0.88
84
1.99
183
1.45
52
1.54
137
FADNet-RVCtwo views1.38
96
0.71
35
0.88
101
0.77
112
1.09
153
0.58
80
2.16
196
0.92
59
0.57
83
1.03
102
0.72
82
1.48
146
0.64
79
0.61
130
5.02
174
1.56
120
0.85
80
0.90
118
2.24
87
1.52
176
2.20
104
4.08
93
0.51
73
0.77
136
1.48
171
1.14
114
1.43
49
1.35
128
PMTNettwo views1.39
97
0.94
115
0.99
123
0.48
45
0.49
47
0.47
41
0.32
44
0.83
43
0.66
100
0.83
68
0.62
55
0.88
84
0.50
43
0.35
31
2.72
116
4.30
198
0.91
101
0.57
27
2.40
91
0.54
29
6.12
155
5.45
121
0.57
96
0.38
25
1.99
202
1.00
95
1.09
29
1.19
114
GEStwo views1.40
98
0.73
41
0.79
80
0.78
114
0.71
106
0.80
124
0.59
113
1.37
119
0.97
132
1.66
146
0.94
115
0.74
46
0.65
84
0.63
137
2.40
88
1.55
118
0.98
122
0.89
114
5.45
165
1.14
142
3.99
127
3.85
87
0.65
123
0.83
149
0.75
56
0.81
60
1.52
59
1.72
147
LoS_RVCtwo views1.42
99
1.25
170
0.86
98
0.31
14
0.49
47
0.37
18
0.33
48
0.73
24
0.56
80
2.10
172
0.68
67
0.67
34
0.70
94
0.33
23
3.08
137
3.79
190
0.89
92
2.10
221
3.01
120
0.66
64
4.40
128
6.44
132
0.51
73
0.43
45
0.82
66
0.85
71
0.90
16
0.99
89
tt_lltwo views1.42
99
1.25
170
0.86
98
0.31
14
0.49
47
0.37
18
0.33
48
0.73
24
0.56
80
2.10
172
0.68
67
0.67
34
0.70
94
0.33
23
3.08
137
3.79
190
0.89
92
2.10
221
3.01
120
0.66
64
4.40
128
6.44
132
0.51
73
0.43
45
0.82
66
0.85
71
0.90
16
0.99
89
sAnonymous2two views1.42
99
0.76
56
0.52
38
0.41
31
0.47
39
0.71
110
0.41
72
1.28
104
0.98
135
0.65
34
0.89
111
1.08
112
0.95
150
0.37
42
2.20
75
2.28
155
1.10
138
1.04
153
3.71
139
0.92
119
4.94
139
6.73
137
0.62
113
0.55
86
0.83
69
1.39
137
1.25
38
1.24
117
CroCo_RVCtwo views1.42
99
0.76
56
0.52
38
0.41
31
0.47
39
0.71
110
0.41
72
1.28
104
0.98
135
0.65
34
0.89
111
1.08
112
0.95
150
0.37
42
2.20
75
2.28
155
1.10
138
1.04
153
3.71
139
0.92
119
4.94
139
6.73
137
0.62
113
0.55
86
0.83
69
1.39
137
1.25
38
1.24
117
RGCtwo views1.43
103
1.30
178
1.99
206
1.14
163
1.18
164
1.16
166
1.01
149
1.20
91
1.08
147
0.91
87
1.70
159
1.18
126
1.24
169
0.87
169
3.10
141
1.18
56
0.98
122
0.86
102
1.81
72
1.02
130
1.39
78
3.87
89
0.76
146
0.90
158
1.14
125
1.53
151
2.17
104
1.85
151
FADNettwo views1.44
104
0.83
76
0.83
91
0.82
124
1.03
144
0.61
88
1.88
189
0.97
65
0.73
110
0.93
92
0.92
114
1.16
123
0.76
117
0.74
152
3.69
158
1.34
80
0.91
101
1.03
150
2.63
99
1.49
171
2.87
114
4.93
104
0.49
62
0.65
116
1.54
179
1.70
167
1.51
58
1.83
150
stereogantwo views1.44
104
1.33
181
1.05
133
1.11
155
1.28
171
1.11
161
0.97
147
1.26
101
1.05
143
1.22
119
1.10
129
1.62
155
0.89
137
0.66
141
2.34
86
1.31
74
0.94
112
0.81
91
1.72
70
0.95
123
1.10
53
8.04
150
0.71
139
0.77
136
0.83
69
1.06
99
2.36
122
1.38
130
NCCL2two views1.48
106
1.28
176
1.10
146
1.11
155
1.43
181
0.78
122
0.90
142
1.05
74
1.14
156
1.86
160
1.27
142
1.02
101
0.81
125
0.80
164
3.43
150
1.42
93
1.14
146
0.87
104
1.31
44
0.89
115
1.94
101
3.37
84
1.48
203
1.02
164
1.50
175
1.35
132
3.80
201
1.85
151
TANstereotwo views1.49
107
1.06
149
0.88
101
0.67
92
0.73
109
0.87
133
0.33
48
0.86
48
0.61
91
0.70
40
0.69
70
0.59
18
0.59
66
1.02
185
2.75
117
2.89
167
0.94
112
1.13
167
1.43
53
1.28
152
5.13
145
5.06
110
1.35
197
0.46
53
0.54
23
0.89
75
5.92
218
0.74
48
XX-TBDtwo views1.49
107
1.06
149
0.88
101
0.67
92
0.73
109
0.87
133
0.33
48
0.86
48
0.61
91
0.70
40
0.69
70
0.59
18
0.59
66
1.02
185
2.75
117
2.89
167
0.94
112
1.13
167
1.43
53
1.28
152
5.13
145
5.06
110
1.35
197
0.46
53
0.54
23
0.89
75
5.92
218
0.74
48
LoStwo views1.51
109
0.79
66
0.59
46
0.52
55
0.56
72
0.65
98
0.38
59
2.56
212
0.88
122
1.21
115
0.94
115
0.97
97
0.88
136
0.35
31
3.04
133
3.41
181
1.24
157
0.93
125
2.19
84
0.68
69
5.96
151
7.00
142
0.62
113
0.47
55
1.14
125
0.98
92
1.06
28
0.87
67
ICVPtwo views1.51
109
0.74
44
1.07
139
0.75
103
0.75
112
0.84
127
0.54
100
1.10
77
0.86
119
1.37
128
1.15
133
0.88
84
1.08
163
0.53
106
1.90
51
1.91
143
1.22
154
0.99
142
1.56
65
0.96
125
3.89
126
10.50
185
0.68
133
0.77
136
0.91
94
1.19
119
1.42
48
1.14
106
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views1.53
111
0.77
60
0.77
77
0.75
103
0.67
100
0.47
41
0.40
68
1.23
95
1.32
165
0.83
68
0.77
88
0.95
94
0.74
108
0.59
124
5.02
174
2.40
162
1.64
178
1.43
196
1.27
42
0.85
108
4.54
131
8.28
152
0.48
59
0.91
159
0.70
45
0.77
53
1.85
82
0.99
89
iResNetv2_ROBtwo views1.57
112
0.87
91
0.70
66
1.13
158
0.65
94
0.72
113
0.49
93
2.63
215
0.64
98
1.77
154
0.87
109
1.30
134
0.75
112
0.40
50
4.81
173
1.26
68
0.91
101
0.71
59
4.58
152
0.81
102
7.66
176
1.62
59
0.58
103
0.80
139
0.81
63
0.83
64
3.12
180
0.91
73
MyStereo04two views1.58
113
0.90
103
0.97
118
0.78
114
0.89
131
0.57
77
0.40
68
1.57
146
0.97
132
2.23
178
0.89
111
1.34
135
0.54
52
0.41
57
2.94
128
2.47
163
0.86
83
0.92
121
5.37
160
1.50
174
4.62
133
3.51
85
0.92
178
0.81
143
1.21
132
1.61
160
2.58
151
0.95
78
AE-Stereotwo views1.61
114
0.85
87
1.23
170
0.81
122
0.51
58
0.57
77
0.75
125
0.83
43
0.49
56
0.79
62
0.54
40
1.29
131
0.72
99
0.47
87
2.05
64
2.96
170
0.99
124
0.92
121
2.63
99
0.86
111
4.61
132
11.92
220
0.50
72
0.80
139
1.26
143
1.34
131
1.95
90
0.86
65
dadtwo views1.63
115
0.97
129
0.65
58
2.18
204
1.19
166
1.01
155
3.99
216
1.66
155
0.55
75
1.21
115
0.50
34
1.12
119
2.01
180
0.58
119
3.09
139
1.16
52
1.11
142
0.76
75
2.70
105
0.77
92
1.34
70
1.48
56
0.71
139
0.88
157
2.48
211
0.71
45
5.52
217
3.80
194
CC-Net-ROBtwo views1.63
115
1.81
202
1.19
164
1.85
195
1.77
196
2.27
205
1.56
175
0.93
60
0.96
131
1.29
122
0.67
63
5.48
217
2.51
187
1.43
203
1.64
26
0.87
15
1.34
164
1.17
171
2.46
94
0.88
113
1.09
51
1.35
52
3.34
224
0.63
111
1.22
137
1.15
115
1.47
54
1.57
139
XPNet_ROBtwo views1.63
115
1.57
197
1.09
145
0.91
133
1.13
160
1.01
155
0.88
140
0.95
64
1.14
156
1.07
108
1.82
161
4.03
204
0.72
99
0.78
158
1.82
43
1.51
112
1.52
175
0.94
128
1.42
51
1.04
131
2.20
104
7.75
148
0.86
174
0.80
139
0.94
96
1.29
128
3.34
188
1.56
138
DeepPruner_ROBtwo views1.64
118
0.75
52
0.91
108
0.85
127
0.88
129
0.75
117
1.75
182
1.26
101
0.91
127
1.49
136
1.65
157
0.85
76
0.81
125
0.56
113
3.12
143
1.49
111
1.02
131
1.02
147
2.33
89
0.75
89
7.42
174
6.70
136
0.81
166
0.69
122
0.88
84
1.45
142
2.17
104
0.87
67
CFNet_pseudotwo views1.65
119
0.78
63
0.82
88
0.82
124
0.79
121
0.69
107
0.42
78
0.93
60
0.53
68
0.95
97
0.81
100
0.88
84
0.81
125
0.81
165
15.70
198
1.39
85
0.74
50
0.71
59
7.24
200
0.77
92
0.97
41
1.50
57
0.69
136
0.57
89
0.88
84
0.89
75
1.47
54
1.12
105
MyStereotwo views1.68
120
0.94
115
1.20
167
0.82
124
0.89
131
0.54
63
0.39
61
1.29
107
0.72
108
2.27
182
2.11
173
1.39
141
0.67
88
0.40
50
3.48
153
2.21
153
0.86
83
0.89
114
5.44
164
1.62
180
4.46
130
4.54
96
0.80
161
0.85
152
1.36
154
1.64
163
2.66
160
0.94
77
test-3two views1.73
121
1.00
139
1.08
142
0.63
85
0.60
80
0.55
67
0.43
81
1.99
181
0.39
28
0.86
74
0.54
40
1.45
143
0.53
47
0.41
57
2.20
75
1.41
90
0.81
72
0.79
84
6.57
184
0.69
70
5.20
147
11.52
214
0.46
47
0.54
80
0.86
77
0.97
88
3.11
177
0.98
83
test_1two views1.73
121
1.01
141
1.08
142
0.63
85
0.60
80
0.55
67
0.43
81
1.99
181
0.39
28
0.86
74
0.54
40
1.45
143
0.54
52
0.41
57
2.20
75
1.42
93
0.80
63
0.79
84
6.57
184
0.69
70
5.20
147
11.52
214
0.46
47
0.54
80
0.87
81
0.97
88
3.11
177
0.98
83
test_3two views1.73
121
1.02
145
1.05
133
0.65
87
0.61
84
0.55
67
0.43
81
1.96
177
0.38
26
0.88
82
0.52
36
1.45
143
0.54
52
0.40
50
2.20
75
1.40
87
0.81
72
0.81
91
6.56
183
0.71
79
5.08
142
11.49
211
0.43
37
0.49
62
0.96
101
1.09
104
3.23
182
0.98
83
CREStereo++_RVCtwo views1.73
121
0.91
107
1.03
129
0.51
53
0.56
72
0.40
26
0.28
33
1.37
119
0.51
62
0.83
68
0.61
53
0.76
56
0.85
133
0.34
28
2.78
119
3.07
173
0.92
107
0.61
36
2.72
107
0.55
34
5.01
141
5.69
124
0.53
81
0.38
25
0.94
96
0.84
69
12.80
245
0.98
83
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
GEStereo_RVCtwo views1.80
125
0.96
127
0.99
123
1.02
147
0.87
127
1.12
162
1.03
154
1.66
155
0.82
116
0.91
87
0.79
94
1.34
135
0.75
112
0.61
130
2.25
82
2.14
151
1.14
146
1.23
183
4.06
146
1.22
149
4.66
135
11.41
210
0.71
139
0.95
161
0.88
84
0.97
88
2.49
139
1.65
144
NaN_ROBtwo views1.84
126
1.11
154
1.04
132
0.95
138
1.77
196
0.86
131
0.91
144
1.32
112
10.70
252
1.00
101
1.38
151
2.45
181
0.89
137
1.12
194
4.34
170
1.29
71
0.92
107
0.88
113
1.49
56
1.14
142
1.42
80
2.02
66
0.76
146
1.03
165
1.30
149
2.01
184
2.38
126
3.27
189
sCroCo_RVCtwo views1.85
127
0.67
24
0.55
42
0.37
21
0.49
47
0.75
117
0.41
72
0.94
63
1.56
181
1.51
137
0.78
93
1.04
108
0.94
148
0.48
93
2.49
94
5.07
209
1.26
160
1.22
180
2.53
96
1.37
157
7.95
183
11.14
203
0.45
45
0.60
101
0.94
96
1.12
109
2.34
119
1.05
97
ETE_ROBtwo views1.85
127
1.93
206
1.18
163
1.04
149
1.33
175
1.26
176
1.12
161
1.11
78
2.30
206
1.36
127
3.26
189
3.18
193
0.94
148
1.14
195
2.62
106
1.51
112
2.14
201
0.99
142
2.50
95
1.15
144
3.67
123
5.74
127
0.86
174
1.03
165
1.21
132
1.36
134
2.30
113
1.68
146
LALA_ROBtwo views1.85
127
2.17
210
1.13
154
1.05
151
1.26
167
1.16
166
1.01
149
1.17
86
1.46
174
2.06
169
2.82
181
3.47
195
0.92
143
0.93
177
3.90
164
1.46
106
1.36
167
1.18
174
2.20
85
1.31
155
2.84
113
5.10
113
0.77
151
1.01
162
1.24
140
1.41
140
3.89
205
1.77
149
Anonymoustwo views1.91
130
0.78
63
0.60
49
0.49
46
0.55
70
0.61
88
0.38
59
1.54
139
1.13
153
2.17
176
0.67
63
1.11
116
1.08
163
0.58
119
2.86
124
4.54
203
1.40
169
1.29
189
3.66
138
1.23
151
7.27
173
10.15
174
0.60
109
1.01
162
1.16
129
1.11
105
2.45
133
1.17
112
MLCVtwo views1.91
130
0.87
91
0.97
118
1.33
176
1.13
160
0.99
152
0.74
124
2.14
191
0.77
112
2.02
164
4.44
199
1.60
152
1.56
175
0.45
79
2.63
108
1.79
138
1.11
142
0.96
136
6.71
189
1.05
133
4.69
137
5.60
122
0.66
126
1.60
187
1.14
125
1.35
132
2.31
115
1.06
99
RAFT + AFFtwo views1.96
132
0.49
11
0.42
23
0.41
31
0.20
7
0.41
30
0.19
10
0.65
18
0.23
6
0.56
16
0.27
8
0.77
60
0.21
7
0.29
17
39.69
214
0.90
18
0.62
21
0.35
3
1.92
75
0.38
9
0.77
22
0.57
12
0.32
7
0.27
8
0.71
48
0.33
6
0.58
5
0.29
6
DDUNettwo views2.05
133
2.73
218
2.03
207
2.92
216
2.66
220
3.04
218
2.76
203
1.17
86
1.11
151
1.60
141
1.21
140
2.23
175
1.69
178
2.81
219
2.04
63
1.25
67
2.78
206
2.42
234
2.63
99
2.90
219
1.92
100
2.11
68
2.77
222
0.92
160
1.01
106
0.93
81
2.50
140
1.10
101
CASStwo views2.08
134
1.02
145
1.16
161
1.28
172
0.99
142
0.88
137
3.39
211
1.42
123
1.02
141
1.30
124
2.46
180
1.14
121
0.81
125
0.46
83
2.70
114
2.38
161
3.41
213
1.10
160
3.40
134
1.18
146
8.01
184
8.63
156
0.66
126
0.69
122
1.49
173
1.27
125
2.52
142
1.41
132
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
s12784htwo views2.23
135
1.12
155
1.32
175
1.12
157
0.91
134
0.59
83
0.39
61
1.37
119
0.65
99
1.05
106
0.82
101
1.08
112
0.95
150
0.37
42
2.80
121
4.82
206
0.93
111
0.71
59
3.28
131
0.58
42
7.80
178
8.40
155
0.51
73
0.54
80
1.50
175
1.13
112
11.58
239
3.94
195
R-Stereo Traintwo views2.23
135
1.01
141
1.14
156
0.96
139
0.63
92
0.73
115
0.31
39
1.30
108
1.01
139
1.68
147
4.49
200
1.29
131
0.70
94
0.42
66
2.49
94
3.99
194
1.66
179
1.02
147
6.77
191
1.11
137
7.83
179
12.24
225
0.49
62
0.54
80
1.42
164
1.66
164
1.34
42
1.93
156
RAFT-Stereopermissivetwo views2.23
135
1.01
141
1.14
156
0.96
139
0.63
92
0.73
115
0.31
39
1.30
108
1.01
139
1.68
147
4.49
200
1.29
131
0.70
94
0.42
66
2.49
94
3.99
194
1.66
179
1.02
147
6.77
191
1.11
137
7.83
179
12.24
225
0.49
62
0.54
80
1.42
164
1.66
164
1.34
42
1.93
156
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
EGLCR-Stereotwo views2.26
138
0.87
91
1.17
162
0.45
42
0.48
44
0.61
88
0.23
18
0.83
43
0.55
75
0.72
44
0.53
38
0.80
64
0.66
86
0.41
57
2.36
87
2.92
169
0.90
100
1.10
160
3.35
133
0.60
47
5.09
143
12.56
237
0.47
56
0.45
51
0.89
88
0.91
79
20.21
253
0.86
65
cross-rafttwo views2.26
138
0.88
99
1.08
142
0.73
100
0.68
102
0.64
96
0.44
85
2.04
187
0.61
91
0.95
97
1.30
143
1.03
104
0.76
117
0.43
70
2.58
103
5.15
210
0.99
124
0.78
81
7.00
198
1.80
190
12.15
214
10.30
182
0.65
123
0.60
101
1.60
184
1.92
178
1.66
73
2.36
172
AnonymousMtwo views2.27
140
0.64
17
0.44
26
0.51
53
0.32
15
0.49
47
0.24
21
1.70
157
0.48
52
0.75
50
2.06
172
0.70
39
0.47
35
0.39
46
2.47
93
3.26
178
0.99
124
1.03
150
1.88
73
2.37
210
4.85
138
6.68
135
0.57
96
0.47
55
0.53
22
0.65
41
11.71
241
14.52
232
Anonymous3two views2.32
141
0.85
87
0.88
101
0.56
65
1.10
154
0.89
140
0.70
121
2.45
208
1.12
152
1.05
106
0.98
123
2.57
186
1.14
167
0.56
113
4.14
169
9.30
232
1.50
173
1.47
197
5.33
159
1.49
171
6.83
165
10.10
171
0.71
139
0.67
119
1.08
114
1.38
135
2.32
116
1.35
128
RAFT-Testtwo views2.37
142
0.85
87
1.14
156
1.02
147
0.65
94
0.58
80
0.51
96
2.18
195
0.70
105
1.12
111
5.37
209
0.97
97
0.92
143
0.45
79
2.50
97
5.29
212
0.99
124
0.80
88
6.96
197
1.11
137
10.85
211
10.83
196
0.67
129
0.58
93
1.51
177
1.82
173
1.38
45
2.18
167
RYNettwo views2.42
143
0.40
7
0.35
13
0.29
11
0.32
15
0.40
26
0.25
24
0.61
13
0.55
75
0.33
5
0.36
17
0.40
9
0.26
10
0.27
15
52.29
254
0.69
6
0.47
6
1.00
146
0.54
7
0.29
6
0.50
5
0.37
3
0.38
23
0.32
13
0.57
28
1.24
122
1.31
41
0.50
14
CSANtwo views2.48
144
1.26
173
1.12
152
1.46
185
1.78
199
1.13
163
0.90
142
1.50
130
10.52
251
2.40
187
3.81
195
4.12
205
2.51
187
0.96
181
3.83
163
1.27
69
1.29
161
1.05
157
3.24
127
1.70
186
3.71
124
4.45
95
0.79
156
1.38
182
1.39
159
3.93
215
2.43
130
2.96
181
ADLNettwo views2.50
145
0.99
135
0.73
69
0.62
80
0.75
112
0.63
93
0.53
98
1.12
79
0.61
91
0.58
21
0.71
79
1.61
154
0.61
74
0.87
169
46.09
231
1.02
29
0.70
35
0.67
50
0.85
22
0.74
86
0.75
21
1.07
43
0.51
73
0.47
55
0.94
96
0.93
81
1.63
72
0.70
45
Any-RAFTtwo views2.54
146
0.94
115
1.27
174
0.75
103
0.75
112
0.50
50
0.40
68
1.99
181
0.56
80
0.87
76
6.98
235
1.50
148
0.51
45
0.40
50
2.50
97
3.41
181
0.91
101
0.90
118
6.78
193
0.75
89
14.26
246
10.61
188
0.67
129
0.59
99
1.63
185
1.83
174
2.17
104
4.22
197
GwcNet-ADLtwo views2.54
146
1.23
166
1.55
185
1.22
170
1.26
167
0.97
148
0.78
126
1.50
130
0.84
118
3.20
209
6.67
225
1.86
162
1.05
160
0.79
161
4.58
171
4.90
207
1.47
172
0.90
118
5.20
157
1.95
198
6.39
160
10.33
183
0.91
177
1.12
173
1.22
137
1.93
179
2.15
102
2.70
175
EAI-Stereotwo views2.60
148
0.90
103
1.57
186
0.90
131
1.31
173
0.84
127
1.31
169
2.22
198
1.34
166
0.81
67
5.69
212
1.37
139
0.83
131
0.50
99
4.76
172
5.32
213
0.91
101
0.94
128
7.45
202
1.11
137
9.07
192
10.78
195
0.62
113
0.85
152
1.45
170
2.06
185
3.36
189
1.90
154
PSMNet-ADLtwo views2.61
149
0.95
122
1.12
152
1.14
163
1.18
164
0.97
148
0.85
137
1.78
162
1.26
160
3.49
213
6.09
218
1.43
142
2.78
193
0.56
113
2.93
127
10.59
234
1.31
162
0.96
136
5.96
174
1.20
148
6.66
162
9.11
163
0.86
174
0.82
146
1.10
121
1.44
141
2.85
167
1.10
101
PWC_ROBbinarytwo views2.61
149
1.20
164
1.48
180
0.96
139
1.05
146
1.21
172
1.79
185
1.24
98
1.94
197
1.81
156
3.61
194
2.12
171
2.96
196
0.91
174
9.88
183
4.30
198
1.97
197
1.95
214
3.72
141
1.62
180
5.58
150
7.59
146
0.81
166
1.98
204
1.35
153
1.27
125
3.11
177
3.07
184
MSMDNettwo views2.69
151
0.87
91
1.07
139
0.57
68
0.65
94
0.59
83
0.49
93
2.03
186
0.62
96
1.03
102
0.97
122
1.05
110
12.04
232
0.50
99
2.60
104
5.56
215
1.05
136
0.80
88
6.93
196
1.42
162
11.49
213
12.49
234
0.67
129
0.58
93
1.48
171
1.83
174
1.28
40
1.97
159
HHtwo views2.75
152
0.67
24
1.42
177
0.80
119
0.71
106
0.88
137
1.09
159
1.86
170
0.87
120
5.19
248
0.66
61
1.91
164
0.86
134
0.57
117
2.65
109
8.48
230
0.87
86
0.94
128
6.36
179
1.39
160
13.52
233
12.32
227
0.79
156
0.58
93
1.38
156
1.63
161
3.81
202
2.06
161
HanStereotwo views2.75
152
0.67
24
1.42
177
0.80
119
0.71
106
0.88
137
1.09
159
1.86
170
0.87
120
5.19
248
0.66
61
1.91
164
0.86
134
0.57
117
2.65
109
8.48
230
0.87
86
0.94
128
6.36
179
1.39
160
13.52
233
12.32
227
0.79
156
0.58
93
1.38
156
1.63
161
3.81
202
2.06
161
MSKI-zero shottwo views2.77
154
0.80
67
1.10
146
0.74
102
0.59
77
0.67
103
0.54
100
1.87
172
0.97
132
0.88
82
6.73
227
1.60
152
0.72
99
0.43
70
3.38
149
7.92
228
1.20
153
0.87
104
6.85
195
4.65
230
10.45
208
12.15
222
0.55
88
0.71
127
1.49
173
1.96
182
1.85
82
3.12
186
PWCDC_ROBbinarytwo views2.78
155
0.70
31
0.65
58
0.61
77
0.87
127
0.63
93
0.57
107
1.04
73
1.59
182
0.65
34
1.88
162
0.80
64
3.28
201
0.73
150
41.04
218
2.18
152
1.23
156
0.98
139
1.52
59
0.97
126
2.56
110
5.26
117
0.68
133
0.81
143
0.74
55
0.94
83
1.13
32
0.97
81
GANet-ADLtwo views2.79
156
0.89
100
1.20
167
1.00
146
1.00
143
1.20
171
0.80
132
1.20
91
1.00
137
3.59
214
6.59
224
1.06
111
0.76
117
0.48
93
12.27
188
4.90
207
1.57
176
0.92
121
6.59
186
1.66
184
6.93
168
11.51
213
0.68
133
0.80
139
1.09
116
1.40
139
2.47
135
1.85
151
iResNettwo views2.79
156
0.95
122
0.91
108
1.35
178
1.69
191
1.41
182
1.02
151
1.81
167
1.09
148
2.62
192
5.14
206
1.80
160
2.38
183
0.46
83
10.35
184
7.64
226
1.36
167
1.23
183
6.83
194
1.78
189
10.05
202
4.09
94
0.61
111
2.02
205
1.10
121
1.50
147
2.80
165
1.39
131
NVstereo2Dtwo views2.81
158
0.82
73
0.74
72
0.69
95
0.78
119
0.92
142
0.81
133
1.18
90
0.76
111
0.91
87
1.06
127
0.80
64
0.55
57
0.71
149
52.63
256
1.47
108
0.86
83
0.83
96
1.42
51
0.69
70
1.12
55
0.94
35
0.76
146
0.83
149
1.08
114
0.78
55
0.98
22
0.74
48
MIPNettwo views2.89
159
0.91
107
0.77
77
0.49
46
0.65
94
0.55
67
0.57
107
1.34
116
0.53
68
2.05
167
0.99
124
0.80
64
0.77
120
0.48
93
40.89
217
1.61
126
1.15
150
0.94
128
3.25
128
1.19
147
1.15
58
9.31
164
0.57
96
0.62
106
1.24
140
1.51
148
2.90
171
0.82
60
DAStwo views2.93
160
0.99
135
1.06
137
1.13
158
1.05
146
1.03
157
1.04
155
1.74
160
1.81
193
3.32
210
5.70
213
2.61
187
3.08
198
0.50
99
3.19
145
7.47
223
1.83
186
1.23
183
5.90
171
1.83
191
12.92
224
10.26
179
0.76
146
1.94
200
1.32
150
1.51
148
2.60
152
1.31
124
SepStereotwo views2.93
160
0.99
135
1.06
137
1.13
158
1.05
146
1.03
157
1.04
155
1.74
160
1.81
193
3.32
210
5.70
213
2.61
187
3.08
198
0.50
99
3.19
145
7.47
223
1.83
186
1.23
183
5.90
171
1.83
191
12.92
224
10.26
179
0.76
146
1.94
200
1.32
150
1.51
148
2.60
152
1.31
124
IPLGtwo views3.01
162
0.75
52
0.63
53
0.42
37
0.52
60
0.54
63
0.51
96
1.63
152
0.35
22
0.62
29
0.59
51
0.77
60
0.66
86
0.46
83
51.49
248
1.67
132
1.02
131
0.92
121
3.51
136
0.63
58
0.99
43
5.97
129
0.49
62
0.48
60
0.80
62
1.16
116
2.86
168
0.71
46
MFMNet_retwo views3.01
162
1.41
185
1.48
180
1.53
188
1.87
204
1.96
200
2.01
192
2.67
217
2.16
203
1.60
141
1.98
166
3.57
197
2.65
190
1.02
185
6.96
181
4.19
197
2.67
204
1.96
215
6.48
182
2.40
212
14.04
240
4.97
105
1.86
211
1.97
202
1.38
156
1.33
130
3.31
187
1.94
158
test-1two views3.02
164
0.66
23
1.14
156
0.60
75
0.58
75
0.75
117
0.63
117
1.96
177
0.82
116
4.00
222
5.48
210
2.18
173
0.80
124
0.41
57
4.00
166
7.32
222
1.18
152
1.19
176
6.72
190
7.57
241
10.78
209
12.94
245
0.54
86
0.60
101
1.40
162
1.78
170
2.89
170
2.52
173
RTSCtwo views3.08
165
0.95
122
1.25
173
0.76
107
0.91
134
0.96
145
1.84
187
1.15
84
1.34
166
2.37
184
2.12
174
1.11
116
0.99
154
1.02
185
41.50
220
1.94
145
1.88
190
1.22
180
4.09
147
1.06
134
2.76
112
4.02
92
0.63
118
1.03
165
0.83
69
0.99
94
2.44
131
1.98
160
pcwnet_v2two views3.22
166
0.81
71
0.94
112
0.92
135
1.12
157
0.94
143
0.70
121
1.17
86
0.88
122
2.04
166
1.10
129
1.09
115
1.00
155
1.27
200
47.63
234
1.56
120
0.96
117
0.87
104
6.63
187
0.81
102
2.45
107
3.52
86
1.01
182
0.75
132
1.04
110
1.16
116
2.44
131
2.23
170
IPLGRtwo views3.25
167
0.89
100
0.81
85
0.65
87
0.66
99
0.50
50
0.42
78
1.14
83
0.44
41
2.02
164
1.30
143
0.86
77
0.74
108
0.47
87
50.44
243
1.86
141
1.15
150
1.11
164
3.23
123
1.37
157
1.41
79
7.71
147
0.56
94
0.70
126
1.39
159
1.55
152
3.46
193
0.92
75
IGEV_Zeroshot_testtwo views3.38
168
0.83
76
1.84
198
2.82
214
0.69
104
2.37
210
1.26
168
2.23
199
0.94
130
4.40
227
6.76
228
2.28
178
1.01
156
0.45
79
2.83
122
7.72
227
0.87
86
0.77
77
5.93
173
1.87
193
8.49
189
12.88
244
0.58
103
0.69
122
1.40
162
1.57
153
14.84
252
2.99
182
SHDtwo views3.38
168
1.01
141
1.68
190
1.14
163
1.07
151
1.14
164
1.78
184
1.61
151
1.66
185
2.40
187
3.05
185
1.63
156
2.43
185
0.84
167
40.11
215
2.04
147
1.74
181
1.40
194
4.17
148
1.88
194
3.81
125
5.43
120
0.70
137
1.67
190
1.86
198
1.46
143
1.97
92
1.59
140
FADNet_RVCtwo views3.44
170
1.21
165
1.19
164
1.40
179
1.78
199
0.99
152
1.75
182
1.50
130
1.19
159
1.35
126
2.01
170
1.96
167
1.63
176
1.66
207
22.11
205
3.36
180
1.83
186
2.82
243
5.63
168
1.76
188
6.35
159
9.50
165
0.77
151
1.39
184
1.21
132
1.48
144
12.05
242
2.87
179
FC-DCNNcopylefttwo views3.48
171
1.59
198
4.19
240
2.76
213
2.30
209
3.10
220
1.73
181
2.57
213
1.72
187
2.88
200
1.36
150
2.15
172
1.21
168
0.68
144
6.32
178
1.61
126
1.31
162
1.03
150
7.90
206
0.95
123
8.85
190
8.73
159
0.82
169
1.69
193
3.19
219
2.50
201
4.67
211
16.15
236
HSM-Net_RVCpermissivetwo views3.49
172
1.07
151
1.10
146
1.70
191
1.17
163
0.90
141
0.61
116
2.29
205
1.07
146
2.77
197
5.82
215
41.08
260
1.35
174
0.50
99
2.40
88
1.74
135
1.10
138
0.77
77
1.99
79
1.13
141
6.78
164
6.90
140
0.80
161
2.23
214
1.64
187
1.49
146
2.14
100
1.75
148
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
RTStwo views3.53
173
1.15
158
0.98
121
0.97
142
1.26
167
1.33
178
3.31
208
1.33
113
1.50
177
2.37
184
1.20
137
1.75
158
1.12
165
0.88
171
42.78
223
2.37
159
1.94
194
1.33
191
3.94
142
1.62
180
3.62
121
5.21
115
1.02
183
1.09
171
1.83
196
5.05
220
2.33
117
2.13
163
RTSAtwo views3.53
173
1.15
158
0.98
121
0.97
142
1.26
167
1.33
178
3.31
208
1.33
113
1.50
177
2.37
184
1.20
137
1.75
158
1.12
165
0.88
171
42.78
223
2.37
159
1.94
194
1.33
191
3.94
142
1.62
180
3.62
121
5.21
115
1.02
183
1.09
171
1.83
196
5.05
220
2.33
117
2.13
163
XQCtwo views3.58
175
1.29
177
1.21
169
1.28
172
1.43
181
1.29
177
1.93
190
1.60
148
1.45
172
2.47
189
3.06
186
1.48
146
4.17
204
1.23
199
44.68
229
2.35
157
1.60
177
1.18
174
3.95
145
1.43
164
3.22
120
4.97
105
0.84
171
1.24
178
1.43
167
2.09
189
2.30
113
1.52
136
FCDSN-DCtwo views3.63
176
0.94
115
2.84
226
1.29
174
1.30
172
1.03
157
1.00
148
0.90
56
0.91
127
1.04
105
0.74
84
1.21
127
0.74
108
0.58
119
52.59
255
2.04
147
1.24
157
1.13
167
1.05
33
0.79
97
6.62
161
10.01
169
0.78
153
2.18
209
1.20
131
1.67
166
1.20
36
1.05
97
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_DS_RVCtwo views3.64
177
1.48
192
1.03
129
1.98
199
1.75
195
2.09
203
5.14
223
2.15
192
2.23
204
1.73
151
1.57
155
2.49
183
4.83
207
5.73
238
12.78
190
1.73
134
1.22
154
1.06
158
5.43
162
1.54
177
12.24
217
9.06
162
1.52
204
1.16
175
2.29
204
3.46
211
3.05
176
7.63
217
NOSS_ROBtwo views3.67
178
1.38
184
0.81
85
1.15
167
1.16
162
1.15
165
0.65
118
2.25
201
1.41
170
4.85
235
6.68
226
6.78
224
1.06
161
0.82
166
11.52
187
14.58
245
1.34
164
1.17
171
2.93
117
0.98
127
14.13
241
12.82
240
0.79
156
1.48
185
1.13
124
1.48
144
3.41
190
1.25
119
UDGtwo views3.91
179
2.76
219
2.09
208
2.92
216
2.64
218
2.99
217
2.71
201
1.31
111
1.13
153
1.65
145
1.96
164
2.20
174
1.68
177
2.77
218
48.81
238
1.57
122
3.02
210
2.26
224
2.65
102
2.91
220
3.00
116
3.09
80
2.64
217
1.05
168
1.02
108
1.19
119
2.36
122
1.16
108
PVDtwo views4.10
180
1.44
190
2.12
210
1.41
180
1.58
187
1.68
193
2.10
194
3.06
222
2.66
212
2.85
199
4.32
197
2.46
182
3.63
203
1.27
200
40.43
216
2.72
165
2.19
202
2.11
223
4.71
153
2.46
214
6.18
156
6.10
131
1.02
183
1.74
194
2.32
207
2.44
199
2.90
171
2.66
174
SAMSARAtwo views4.13
181
1.32
179
1.53
183
1.48
186
1.35
176
1.47
186
2.74
202
2.23
199
1.83
195
2.26
180
3.47
193
2.01
170
8.60
217
1.76
211
38.24
212
2.88
166
1.82
185
1.41
195
4.99
155
1.91
195
5.10
144
5.71
126
0.94
179
1.80
196
3.33
221
3.84
213
4.16
208
3.30
191
iRaft-Stereo_20wtwo views4.16
182
1.13
157
2.10
209
2.66
210
1.55
186
1.55
188
1.17
162
1.96
177
1.27
161
5.53
254
6.77
229
1.52
150
1.34
173
0.43
70
3.03
131
5.32
213
0.95
115
0.77
77
5.49
166
1.46
169
8.20
186
12.75
239
0.61
111
0.60
101
1.63
185
25.36
256
11.64
240
5.58
209
SGM-Foresttwo views4.18
183
1.24
167
0.74
72
2.12
201
1.35
176
1.42
183
0.56
106
1.36
117
0.90
125
4.89
237
0.96
118
2.51
185
12.92
235
0.61
130
16.38
199
3.12
175
0.79
60
0.65
46
7.04
199
0.76
91
6.77
163
10.03
170
0.84
171
0.81
143
1.66
189
1.78
170
4.79
215
25.96
251
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ccs_robtwo views4.23
184
1.10
153
1.53
183
1.14
163
0.92
140
1.19
170
1.05
157
2.86
220
1.27
161
4.20
224
35.77
261
8.95
234
1.29
171
0.73
150
3.10
141
6.47
218
1.50
173
1.17
171
5.98
175
1.44
166
10.44
207
11.78
217
0.74
145
2.24
215
1.07
113
1.30
129
2.65
158
2.20
168
DeepPrunerFtwo views4.30
185
1.53
193
0.72
68
2.93
218
5.08
248
2.43
213
3.38
210
0.87
52
4.11
231
0.80
65
1.17
135
0.66
31
0.56
58
0.61
130
45.12
230
2.02
146
1.01
129
0.78
81
2.32
88
0.88
113
1.56
84
1.70
61
0.84
171
0.67
119
29.00
259
1.78
170
2.48
136
1.17
112
MSC_U_SF_DS_RVCtwo views4.33
186
2.25
214
1.45
179
2.41
207
1.94
206
1.93
198
4.82
222
1.96
177
2.59
210
2.96
204
1.96
164
2.49
183
8.10
215
9.76
246
14.02
193
3.47
184
2.04
200
1.98
216
14.27
223
3.33
224
7.23
172
7.20
144
2.89
223
1.85
198
2.43
210
2.85
206
2.19
108
6.62
214
FAT-Stereotwo views4.35
187
1.18
161
2.25
212
1.48
186
1.81
202
1.42
183
1.49
172
3.57
229
1.84
196
3.66
217
6.22
219
6.70
223
2.76
192
1.07
193
6.82
180
15.24
251
2.03
199
2.49
235
5.43
162
8.81
250
13.23
229
12.34
230
0.95
180
2.79
235
1.26
143
2.25
194
2.96
174
5.48
206
MFN_U_SF_RVCtwo views4.44
188
1.91
205
1.83
197
2.19
205
1.82
203
2.38
212
4.61
220
2.39
207
1.94
197
4.48
229
11.47
251
3.74
202
2.50
186
4.72
233
20.32
204
3.66
187
1.91
192
1.83
210
11.50
218
3.25
223
7.86
181
6.73
137
1.25
190
3.20
245
1.86
198
3.84
213
2.83
166
3.94
195
RainbowNettwo views4.65
189
3.75
234
2.70
224
4.56
228
2.98
230
4.16
226
8.75
235
2.05
188
2.01
200
1.90
161
1.12
132
3.61
201
3.00
197
3.60
230
2.70
114
1.89
142
2.97
209
1.54
200
15.27
226
8.73
249
11.07
212
11.30
209
10.70
254
2.22
211
1.73
191
2.30
195
2.76
163
6.13
212
S-Stereotwo views4.68
190
1.15
158
1.74
194
1.75
192
1.63
188
1.65
191
2.24
198
2.75
219
2.15
202
3.32
210
11.59
252
5.97
218
1.74
179
0.88
171
19.04
202
16.28
253
1.81
184
2.39
232
5.64
169
9.35
255
7.13
171
12.52
235
1.61
206
2.64
228
1.24
140
2.08
188
2.88
169
3.26
188
MADNet+two views4.78
191
2.02
209
1.87
201
2.01
200
2.36
212
1.47
186
4.28
218
2.47
209
1.99
199
2.66
193
2.13
175
3.56
196
2.85
195
2.34
215
41.14
219
5.66
216
3.48
215
1.53
199
4.54
151
3.38
225
13.07
228
7.34
145
1.72
208
3.48
247
2.93
215
2.17
192
3.24
184
3.29
190
ADCReftwo views4.84
192
1.42
188
1.01
127
0.78
114
1.77
196
1.21
172
1.62
177
0.99
68
5.58
240
1.85
159
1.08
128
1.02
101
0.91
140
1.17
196
54.35
259
1.92
144
1.10
138
1.04
153
3.49
135
1.32
156
1.80
97
3.27
83
2.13
214
0.87
156
2.30
205
4.60
217
2.48
136
29.71
256
SQANettwo views4.87
193
4.55
240
2.13
211
19.76
248
2.63
216
4.99
235
3.29
207
1.63
152
1.45
172
1.20
114
1.40
152
3.22
194
2.40
184
2.76
217
3.09
139
1.20
61
5.19
224
1.07
159
19.89
231
1.28
152
12.48
218
10.73
193
11.37
257
1.49
186
1.57
182
2.32
197
2.66
160
5.86
210
FBW_ROBtwo views4.93
194
2.40
216
2.44
218
2.67
211
2.86
224
2.30
209
4.71
221
1.79
163
1.10
149
2.54
190
2.92
182
4.12
205
5.31
208
6.61
239
50.17
240
1.18
56
1.44
170
0.95
134
8.76
209
1.43
164
8.26
187
5.68
123
4.20
229
1.75
195
1.42
164
1.95
181
1.81
79
2.20
168
ADCP+two views5.07
195
1.54
194
1.72
191
1.08
153
1.54
185
1.18
169
2.02
193
1.02
70
2.72
215
4.05
223
2.23
178
2.24
176
0.61
74
0.94
179
54.46
260
1.52
115
0.83
76
0.95
134
3.94
142
0.87
112
2.22
106
2.57
76
0.71
139
0.62
106
2.48
211
11.25
240
7.85
230
23.66
247
CBMVpermissivetwo views5.08
196
1.41
185
1.15
160
1.44
184
1.42
180
1.24
174
0.78
126
2.27
203
1.47
176
3.04
205
6.44
222
7.74
227
9.07
220
0.60
128
12.81
191
13.79
242
1.99
198
1.29
189
9.56
211
1.15
144
9.82
197
12.54
236
0.82
169
1.84
197
1.44
168
1.83
174
4.39
210
25.76
250
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
otakutwo views5.09
197
5.20
241
2.27
213
18.45
246
2.89
225
5.73
237
3.63
213
1.44
125
1.46
174
1.31
125
1.42
153
3.59
199
2.63
189
3.22
224
3.07
136
1.30
72
5.55
226
1.14
170
20.28
232
1.49
171
13.81
237
11.25
208
11.85
259
1.91
199
1.56
181
2.06
185
2.52
142
6.49
213
ACVNet_1two views5.24
198
3.87
236
3.60
237
13.80
242
3.48
239
6.00
242
10.57
240
1.60
148
1.79
190
1.55
139
1.30
143
4.40
210
2.80
194
5.43
236
2.42
90
1.39
85
11.59
244
1.72
207
20.91
236
1.50
174
14.41
251
8.16
151
7.22
241
2.84
238
1.73
191
2.19
193
2.61
154
2.72
176
Ntrotwo views5.35
199
6.19
246
2.38
217
8.06
237
2.91
227
4.88
233
6.70
229
1.40
122
1.53
179
1.44
135
1.19
136
3.58
198
2.73
191
3.12
223
3.66
155
1.17
54
6.56
234
1.19
176
32.62
243
1.60
179
14.27
248
11.82
218
11.41
258
2.54
225
1.64
187
2.30
195
2.45
133
5.00
201
EKT-Stereotwo views5.41
200
0.97
129
1.10
146
0.72
97
0.74
111
0.87
133
1.17
162
2.02
185
1.00
137
1.41
133
2.92
182
1.11
116
0.81
125
0.46
83
72.33
269
14.74
246
1.14
146
1.37
193
5.61
167
7.76
242
9.80
196
10.61
188
0.53
81
0.61
105
1.39
159
1.11
105
2.56
149
1.08
100
pmcnntwo views5.52
201
1.54
194
1.51
182
2.64
209
3.13
232
2.07
201
10.40
239
2.61
214
2.65
211
2.55
191
6.41
221
6.23
221
15.93
244
0.58
119
6.75
179
14.92
248
3.87
218
3.34
245
7.45
202
7.76
242
13.60
236
10.19
175
6.30
239
2.29
218
1.57
182
3.30
210
4.69
212
4.80
199
DPSNettwo views5.60
202
1.54
194
1.19
164
1.76
193
2.44
215
2.08
202
1.81
186
1.95
176
2.93
216
2.09
171
5.15
207
9.82
237
6.09
210
8.98
243
14.30
194
12.14
239
4.12
222
3.60
246
17.82
228
8.28
246
12.18
215
14.58
250
3.71
227
3.09
242
2.30
205
2.42
198
2.52
142
2.24
171
ADCMidtwo views5.63
203
2.23
212
2.63
221
1.42
182
2.89
225
2.37
210
3.73
214
1.92
174
2.97
217
1.91
162
3.16
187
2.33
180
2.31
182
1.48
204
50.97
247
3.74
188
1.84
189
1.86
212
7.38
201
1.99
202
4.66
135
5.18
114
2.70
219
1.38
182
2.33
208
8.75
236
6.81
228
21.02
243
ADCLtwo views5.69
204
1.88
203
1.63
188
1.29
174
1.40
179
1.59
190
2.22
197
1.23
95
5.20
238
3.04
205
2.01
170
1.14
121
0.84
132
1.04
191
50.40
242
1.63
129
1.45
171
1.79
208
2.94
119
1.38
159
3.19
118
2.35
70
1.23
189
1.07
170
9.47
244
11.74
242
11.34
238
29.10
255
SANettwo views5.69
204
2.22
211
1.77
195
1.84
194
2.37
213
2.28
206
1.43
170
4.49
239
7.61
246
2.05
167
4.86
205
8.34
233
11.81
231
1.70
208
43.86
227
1.62
128
5.96
228
1.51
198
4.43
150
1.70
186
8.97
191
8.28
152
1.20
187
2.60
226
1.94
201
6.02
228
3.42
192
9.29
221
SPS-STEREOcopylefttwo views5.78
206
1.73
201
1.86
199
2.48
208
1.67
190
2.19
204
1.60
176
2.72
218
1.76
188
3.63
216
6.80
231
4.12
205
2.19
181
1.21
198
13.01
192
12.86
240
2.91
208
2.01
217
47.66
257
2.04
204
14.17
243
13.06
246
1.43
200
2.27
217
2.40
209
1.94
180
3.66
198
2.80
177
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views5.79
207
3.52
229
2.90
227
21.94
253
3.38
237
4.55
228
8.18
233
1.84
168
1.76
188
1.84
157
1.98
166
3.88
203
3.20
200
3.03
221
2.85
123
1.46
106
12.77
250
1.56
201
33.59
244
1.68
185
10.81
210
7.91
149
6.79
240
2.68
233
3.13
218
2.65
203
3.23
182
3.11
185
edge stereotwo views5.88
208
1.88
203
3.14
231
2.14
202
1.80
201
2.47
215
2.43
199
4.51
240
3.45
224
3.97
221
4.84
204
6.45
222
17.40
246
1.04
191
5.09
176
14.91
247
1.80
182
1.66
204
37.39
247
6.28
237
5.99
153
12.74
238
1.44
201
2.02
205
2.12
203
2.11
191
3.75
199
5.99
211
Deantwo views5.89
209
3.71
233
2.59
219
34.77
258
3.99
243
4.60
231
10.86
242
2.26
202
2.39
208
2.16
175
1.55
154
4.68
213
4.76
206
3.30
226
3.03
131
1.76
136
12.09
247
1.65
203
9.86
214
2.04
204
14.16
242
9.89
168
7.35
242
2.66
232
3.36
222
2.91
207
3.53
196
3.13
187
AnyNet_C32two views6.05
210
1.43
189
1.39
176
1.26
171
1.64
189
1.36
180
2.92
204
1.55
144
5.28
239
2.67
195
4.61
202
1.90
163
1.29
171
1.29
202
55.18
261
3.43
183
1.96
196
2.08
220
3.65
137
1.91
195
6.94
169
8.77
160
1.20
187
1.68
191
6.02
231
14.92
248
6.12
221
20.86
242
G-Nettwo views6.29
211
1.69
199
1.86
199
1.42
182
1.70
193
1.45
185
1.19
165
4.71
241
8.56
247
3.16
207
4.70
203
7.94
228
6.89
212
0.85
168
15.45
197
8.15
229
1.92
193
2.75
239
5.41
161
6.49
239
9.16
194
11.23
207
1.46
202
2.81
237
1.81
194
19.84
252
6.51
226
30.80
257
TRStereotwo views6.31
212
1.25
170
1.93
202
0.85
127
0.61
84
2.29
208
0.86
138
2.21
197
0.54
73
4.40
227
1.34
146
2.24
176
0.75
112
0.45
79
4.08
168
6.55
219
0.80
63
0.85
101
6.04
176
1.45
168
7.60
175
12.13
221
0.55
88
0.49
62
1.44
168
103.74
273
3.24
184
1.61
141
HBP-ISPtwo views6.40
213
1.33
181
2.30
215
1.91
198
1.51
183
1.65
191
0.79
129
2.50
211
1.29
163
4.91
238
6.80
231
1.37
139
0.74
108
14.59
253
52.98
257
19.59
257
1.24
157
1.10
160
6.08
177
8.03
245
12.73
221
16.75
255
0.79
156
1.19
176
1.81
194
2.06
185
3.90
206
2.87
179
SGM-ForestMtwo views6.44
214
10.17
256
6.98
255
4.69
229
2.91
227
6.90
245
9.70
238
7.26
250
4.59
236
4.81
234
6.31
220
9.50
236
9.35
222
0.78
158
3.65
154
1.30
72
6.50
232
0.89
114
11.21
217
1.44
166
6.08
154
6.02
130
1.58
205
1.68
191
9.47
244
11.34
241
12.07
243
16.58
237
CBMV_ROBtwo views6.60
215
1.41
185
1.59
187
2.38
206
1.74
194
1.90
197
1.86
188
6.44
246
1.69
186
5.02
242
7.03
236
9.95
243
11.26
228
0.65
140
38.55
213
7.04
220
2.78
206
1.12
166
9.67
213
2.45
213
9.46
195
11.60
216
0.80
161
1.37
181
4.92
227
12.01
243
4.73
213
18.79
240
ADCStwo views6.69
216
1.97
207
1.94
203
1.41
180
2.24
208
1.84
196
3.00
205
2.08
190
3.97
228
2.66
193
3.26
189
3.01
192
11.48
229
2.01
213
53.18
258
11.65
237
2.72
205
2.59
236
5.10
156
2.24
208
10.43
206
8.65
157
1.76
209
1.97
202
2.57
213
10.58
238
7.51
229
18.68
239
anonymitytwo views6.71
217
0.80
67
1.73
193
1.09
154
0.88
129
0.79
123
0.68
119
2.17
194
0.90
125
3.78
220
97.20
269
1.95
166
0.93
145
0.44
78
2.57
102
7.16
221
0.95
115
0.83
96
6.70
188
1.07
135
7.93
182
12.47
233
0.67
129
0.57
89
1.51
177
1.60
158
20.99
255
2.80
177
ADCPNettwo views7.09
218
1.18
161
3.04
230
1.33
176
3.12
231
1.36
180
8.88
236
2.15
192
3.24
221
4.23
225
7.84
242
1.96
167
15.92
243
1.71
209
49.61
239
3.53
186
1.89
191
1.25
187
19.14
230
3.03
222
5.96
151
4.75
101
4.72
230
1.29
180
3.95
224
5.33
222
3.87
204
27.01
252
IMH-64-1two views7.17
219
3.27
224
3.53
234
4.69
229
3.29
234
4.58
229
5.71
225
3.51
226
3.09
218
1.39
131
1.98
166
4.90
214
10.92
224
4.82
234
52.00
249
4.78
204
3.66
216
2.27
225
12.32
219
1.96
199
6.91
166
10.55
186
7.77
247
2.22
211
6.05
232
4.73
218
13.45
247
9.13
219
IMH-64two views7.17
219
3.27
224
3.53
234
4.69
229
3.29
234
4.58
229
5.71
225
3.51
226
3.09
218
1.39
131
1.98
166
4.90
214
10.92
224
4.82
234
52.00
249
4.78
204
3.66
216
2.27
225
12.32
219
1.96
199
6.91
166
10.55
186
7.77
247
2.22
211
6.05
232
4.73
218
13.45
247
9.13
219
AnyNet_C01two views7.20
221
2.24
213
2.27
213
2.95
219
1.92
205
1.58
189
5.39
224
3.73
234
5.63
241
3.17
208
4.41
198
4.59
212
6.09
210
1.88
212
58.66
263
14.24
243
5.46
225
3.69
247
4.79
154
3.02
221
8.40
188
10.33
183
2.45
216
2.24
215
5.77
229
2.65
203
8.81
234
17.99
238
WAO-6two views7.36
222
2.83
221
2.64
222
8.38
239
2.78
222
3.59
223
8.61
234
3.51
226
3.36
223
1.84
157
2.45
179
5.99
219
8.70
219
3.06
222
50.70
244
2.35
157
13.44
254
1.82
209
8.79
210
2.15
207
14.26
246
12.40
232
3.35
225
2.64
228
7.87
238
5.84
225
4.30
209
11.17
228
SPstereotwo views7.58
223
2.32
215
3.96
238
2.17
203
2.01
207
2.28
206
2.11
195
2.97
221
3.67
225
2.95
202
8.06
243
30.35
258
16.56
245
2.33
214
12.64
189
18.07
255
3.29
212
3.89
249
6.22
178
6.47
238
12.61
220
14.38
249
2.38
215
2.80
236
4.18
225
7.54
231
13.61
249
14.75
233
WAO-7two views8.11
224
2.98
222
5.46
249
29.83
256
2.32
211
3.09
219
9.23
237
2.48
210
4.20
232
4.67
233
7.60
238
7.98
229
11.78
230
1.64
206
22.32
206
2.11
150
12.00
246
2.79
242
44.95
254
2.13
206
10.06
203
10.12
172
1.37
199
2.49
224
2.97
217
4.35
216
2.94
173
5.06
203
SGM_RVCbinarytwo views8.49
225
2.77
220
1.77
195
2.88
215
2.31
210
3.42
221
2.70
200
7.78
255
3.92
227
5.57
255
8.42
244
9.89
239
12.92
235
0.68
144
3.72
159
2.10
149
6.63
235
1.11
164
40.78
248
5.93
236
9.99
200
10.27
181
1.97
212
2.17
208
8.79
243
2.97
208
27.36
257
40.51
263
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SFCPSMtwo views8.92
226
1.34
183
1.05
133
1.13
158
1.12
157
1.10
160
0.89
141
1.28
104
1.79
190
2.71
196
5.63
211
4.32
209
7.90
214
1.01
184
5.47
177
5.23
211
1.80
182
1.19
176
162.18
271
4.49
228
7.79
177
9.52
166
0.81
166
1.64
188
1.33
152
1.76
169
3.30
186
3.06
183
ELAS_RVCcopylefttwo views9.07
227
3.30
226
5.65
250
4.08
223
3.41
238
7.21
247
4.01
217
7.69
252
3.75
226
4.97
240
7.74
239
9.89
239
11.00
226
3.00
220
47.69
235
4.33
200
6.53
233
9.70
256
9.64
212
2.89
218
13.54
235
15.79
252
2.75
220
4.07
250
18.38
253
23.86
254
4.94
216
5.18
204
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views9.11
228
3.31
227
3.55
236
4.46
226
3.30
236
4.60
231
6.29
228
3.48
224
3.12
220
1.42
134
1.88
162
5.38
216
15.63
242
51.61
268
52.03
251
3.06
172
3.92
219
2.32
228
20.77
234
2.01
203
6.25
157
9.58
167
8.07
251
2.21
210
7.69
237
5.96
227
3.77
200
10.35
226
PWCKtwo views9.19
229
3.84
235
2.76
225
4.81
233
3.48
239
7.14
246
7.79
231
3.92
235
4.66
237
4.66
232
5.84
216
24.68
255
8.47
216
3.24
225
10.95
186
3.27
179
9.48
241
2.36
230
72.75
264
4.94
232
14.76
254
6.95
141
3.68
226
2.40
221
8.01
239
7.55
232
6.35
222
9.51
223
MADNet++two views9.22
230
4.13
239
6.16
252
4.32
225
5.78
252
3.96
224
8.14
232
7.09
249
6.83
245
5.28
251
7.83
241
7.65
226
8.62
218
12.90
248
19.42
203
21.00
260
7.04
237
6.27
251
10.40
215
7.97
244
14.29
249
18.67
258
3.96
228
5.12
254
5.80
230
22.29
253
9.32
235
8.69
218
MeshStereopermissivetwo views9.30
231
2.68
217
2.31
216
4.19
224
2.81
223
4.05
225
1.96
191
8.24
257
9.28
248
5.13
245
8.64
245
11.19
246
12.84
234
0.78
158
52.26
253
15.80
252
4.59
223
1.92
213
22.33
237
1.58
178
15.40
258
19.41
259
1.06
186
2.12
207
8.69
242
5.55
223
10.68
236
15.59
235
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAScopylefttwo views10.16
232
3.54
230
5.12
248
4.49
227
4.32
247
5.01
236
4.33
219
6.88
248
4.09
230
4.97
240
7.74
239
9.90
241
11.01
227
3.51
229
52.19
252
4.52
202
7.15
238
9.65
255
8.69
208
2.38
211
13.33
231
14.95
251
2.75
220
3.64
249
17.76
252
27.24
259
13.13
246
21.93
244
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views10.31
233
13.11
257
4.84
243
18.55
247
6.95
256
7.98
250
14.39
251
3.69
233
3.28
222
2.90
201
2.15
176
30.28
257
43.63
257
4.40
232
9.01
182
2.66
164
12.71
248
2.73
238
42.35
250
2.87
217
14.87
255
10.21
176
7.77
247
3.03
240
2.66
214
2.98
209
3.46
193
4.84
200
JetBluetwo views10.90
234
9.40
254
6.23
253
8.34
238
6.82
255
10.07
255
10.58
241
5.04
244
3.97
228
2.95
202
4.09
196
9.83
238
9.32
221
8.12
241
48.65
237
14.50
244
6.76
236
5.08
250
7.66
204
3.76
226
13.23
229
17.58
257
8.19
252
3.58
248
11.41
247
18.49
250
12.08
244
28.49
254
LVEtwo views10.96
235
3.63
232
2.68
223
55.15
267
4.03
246
7.50
248
88.91
271
1.93
175
2.44
209
2.26
180
1.69
158
4.48
211
4.75
205
3.42
228
3.44
151
2.21
153
6.03
230
1.84
211
50.68
260
1.97
201
10.14
204
12.19
224
5.54
231
3.12
243
3.75
223
2.46
200
2.99
175
6.76
216
XX-Stereotwo views11.10
236
0.72
37
1.24
171
1.04
149
0.52
60
0.80
124
0.84
134
1.13
81
0.51
62
4.53
231
6.79
230
1.54
151
1.06
161
0.42
66
2.78
119
5.82
217
0.96
117
0.94
128
6.43
181
0.91
116
6.26
158
8.36
154
0.58
103
0.43
45
237.38
273
1.38
135
2.64
156
3.61
192
DGSMNettwo views11.16
237
1.98
208
1.98
205
1.90
197
1.52
184
2.46
214
1.47
171
3.07
223
2.11
201
12.67
261
102.10
270
3.59
199
18.94
249
18.97
258
16.50
200
15.09
249
12.73
249
10.36
257
13.79
222
4.57
229
12.99
227
14.32
248
7.77
247
3.43
246
1.75
193
6.25
229
3.48
195
5.53
207
ACVNet-4btwo views11.58
238
3.99
237
2.60
220
44.40
263
2.71
221
4.98
234
62.31
267
1.85
169
1.79
190
1.63
144
1.25
141
4.22
208
58.75
264
3.34
227
2.27
83
1.21
62
13.33
253
1.70
206
49.50
258
1.93
197
14.47
253
13.72
247
7.40
243
3.13
244
1.55
180
1.89
177
2.20
110
4.61
198
LSM0two views11.61
239
1.70
200
2.94
228
2.71
212
2.41
214
2.76
216
6.88
230
4.22
237
4.26
233
3.67
218
7.57
237
7.41
225
9.43
223
0.98
182
64.90
268
78.60
272
3.43
214
2.37
231
20.39
233
4.80
231
14.29
249
16.21
254
1.30
194
3.06
241
3.29
220
12.44
244
6.06
220
25.31
249
UNDER WATER-64two views11.75
240
7.29
252
4.90
244
17.03
245
7.40
257
8.44
251
16.49
254
8.25
258
4.32
234
4.51
230
3.21
188
17.72
249
15.23
240
8.81
242
46.52
233
10.69
235
13.57
255
3.01
244
12.74
221
8.66
248
14.20
244
12.82
240
11.01
255
4.40
251
6.45
235
18.67
251
8.71
233
22.29
245
SGM+DAISYtwo views11.81
241
3.22
223
3.47
232
3.83
222
3.15
233
4.25
227
3.52
212
7.70
253
10.88
254
5.57
255
9.00
249
9.94
242
13.12
237
1.74
210
22.71
208
18.99
256
3.23
211
2.28
227
15.35
227
8.91
251
15.05
256
17.02
256
1.32
196
4.58
252
24.50
257
31.01
262
32.60
263
41.83
266
MDST_ROBtwo views12.03
242
32.81
262
1.72
191
20.74
252
2.64
218
5.90
241
1.72
180
4.06
236
1.35
168
3.76
219
6.53
223
2.75
190
42.83
256
0.54
107
50.83
246
1.22
65
1.08
137
0.75
72
18.95
229
1.00
128
12.75
223
11.49
211
1.29
193
1.26
179
22.72
256
11.17
239
31.24
260
31.81
259
WAO-8two views12.07
243
5.33
242
4.83
241
26.48
254
4.01
244
6.22
243
11.73
248
3.65
231
6.39
243
28.97
267
41.01
263
8.08
230
18.91
247
20.68
261
3.75
160
3.24
176
9.46
239
2.01
217
53.81
261
5.76
234
9.83
198
11.16
204
6.04
237
2.43
222
8.05
240
7.74
233
6.36
223
9.95
224
Venustwo views12.07
243
5.33
242
4.83
241
26.48
254
4.01
244
6.22
243
11.73
248
3.65
231
6.39
243
28.97
267
41.01
263
8.08
230
18.91
247
20.68
261
3.75
160
3.24
176
9.46
239
2.01
217
53.81
261
5.76
234
9.83
198
11.16
204
6.04
237
2.43
222
8.05
240
7.74
233
6.36
223
9.95
224
JetRedtwo views12.50
245
6.96
251
7.76
256
4.77
232
6.78
254
9.35
253
10.92
243
5.31
245
4.54
235
5.85
257
3.28
191
8.17
232
7.48
213
9.74
245
50.80
245
15.21
250
10.30
242
7.93
252
7.83
205
5.44
233
18.10
261
24.48
262
11.12
256
4.60
253
11.97
248
25.85
257
24.78
256
28.17
253
TorneroNet-64two views13.24
246
6.25
247
5.07
247
34.05
257
3.72
241
9.38
254
16.75
255
3.49
225
12.26
257
2.27
182
5.98
217
17.67
248
34.24
254
14.37
251
47.92
236
3.76
189
13.18
252
2.40
233
36.34
246
9.15
254
13.85
239
12.35
231
5.65
232
2.64
228
14.28
251
14.51
247
3.41
190
12.48
229
MANEtwo views14.22
247
9.62
255
6.93
254
4.94
235
5.72
251
7.88
249
11.48
245
7.38
251
9.90
250
4.92
239
6.89
234
8.98
235
12.13
233
3.67
231
50.37
241
17.85
254
11.82
245
20.17
262
10.46
216
6.55
240
12.22
216
12.86
242
1.77
210
11.33
259
24.83
258
30.99
261
31.42
261
40.73
264
DispFullNettwo views15.85
248
3.61
231
5.00
246
3.30
220
2.93
229
3.51
222
3.20
206
6.49
247
2.71
214
5.17
246
6.80
231
90.79
268
15.55
241
2.73
216
28.89
210
23.38
261
4.02
220
3.86
248
138.92
270
28.91
262
12.60
219
11.86
219
2.69
218
2.31
219
4.30
226
2.71
205
6.80
227
5.05
202
UNDER WATERtwo views16.39
249
7.86
253
4.99
245
15.68
244
10.73
262
8.76
252
38.30
262
8.07
256
6.02
242
4.25
226
2.98
184
18.63
250
96.18
269
14.44
252
32.70
211
10.29
233
13.91
256
2.75
239
43.73
252
8.62
247
16.83
260
12.33
229
17.08
263
5.55
255
6.06
234
14.49
246
6.37
225
15.05
234
STStereotwo views16.49
250
3.48
228
5.91
251
44.25
262
5.60
250
39.03
266
13.11
250
7.74
254
10.72
253
5.19
248
8.92
246
24.73
256
30.22
253
1.03
190
59.92
266
11.74
238
2.59
203
1.26
188
40.79
249
2.25
209
10.02
201
8.79
161
2.06
213
11.31
258
22.61
255
16.05
249
20.57
254
35.39
260
PSMNet_ROBtwo views16.63
251
5.59
244
2.97
229
3.47
221
2.63
216
5.86
240
6.18
227
2.20
196
2.29
205
5.39
253
141.45
271
97.59
269
6.02
209
33.78
263
3.23
147
1.58
125
4.09
221
1.69
205
20.81
235
2.75
215
12.93
226
7.08
143
63.80
271
2.60
226
2.95
216
3.67
212
2.77
164
3.66
193
DGTPSM_ROBtwo views17.21
252
6.49
248
18.05
259
4.91
234
8.87
258
5.73
237
11.48
245
5.02
242
12.05
255
5.03
244
9.34
250
12.62
247
56.51
263
15.29
254
43.82
226
20.47
258
19.26
259
16.28
259
24.70
238
20.05
259
13.50
232
22.25
260
6.00
235
12.55
260
12.71
249
32.01
264
14.20
250
35.61
262
KSHMRtwo views20.05
253
6.71
250
4.01
239
99.31
271
5.91
253
17.09
258
71.12
269
3.62
230
9.75
249
3.59
214
3.39
192
6.07
220
84.38
268
17.14
256
22.70
207
3.97
193
6.29
231
2.76
241
90.60
267
2.83
216
12.73
221
10.14
173
9.05
253
2.74
234
21.08
254
5.85
226
8.10
231
10.46
227
DPSM_ROBtwo views21.05
254
17.19
258
22.69
261
10.13
240
9.29
260
13.96
256
14.50
252
11.66
259
15.25
259
9.00
258
8.97
247
10.35
244
13.24
238
19.90
259
59.73
264
26.35
262
18.76
257
21.26
263
14.74
224
15.50
257
28.56
264
27.85
264
7.42
244
16.13
262
34.05
262
39.30
267
37.97
265
44.48
267
DPSMtwo views21.05
254
17.19
258
22.69
261
10.13
240
9.29
260
13.96
256
14.50
252
11.66
259
15.25
259
9.00
258
8.97
247
10.35
244
13.24
238
19.90
259
59.73
264
26.35
262
18.76
257
21.26
263
14.74
224
15.50
257
28.56
264
27.85
264
7.42
244
16.13
262
34.05
262
39.30
267
37.97
265
44.48
267
MaskLacGwcNet_RVCtwo views21.23
256
1.32
179
1.63
188
1.89
196
1.69
191
1.93
198
3.75
215
2.27
203
2.66
212
5.02
242
29.10
259
216.12
273
51.87
262
5.44
237
3.66
155
4.09
196
5.59
227
13.75
258
28.77
239
1.47
170
14.44
252
12.86
242
0.98
181
2.33
220
1.88
200
7.40
230
145.78
273
5.57
208
DPSMNet_ROBtwo views22.61
257
6.50
249
18.06
260
4.95
236
8.88
259
5.76
239
11.54
247
5.02
242
12.08
256
5.17
246
28.67
258
19.69
251
163.24
273
15.38
255
43.87
228
20.66
259
19.56
260
16.59
260
35.50
245
20.17
260
13.82
238
22.26
261
6.02
236
12.56
261
12.82
250
32.01
264
14.23
251
35.60
261
DLNR_Zeroshot_testpermissivetwo views23.11
258
81.98
272
1.97
204
102.16
272
0.49
47
0.55
67
81.36
270
2.30
206
0.50
59
4.87
236
2.22
177
2.99
191
0.93
145
12.17
247
96.90
270
144.02
273
34.28
264
19.61
261
8.60
207
4.35
227
8.08
185
6.53
134
0.51
73
0.69
122
1.37
155
1.57
153
1.16
34
1.90
154
TorneroNettwo views24.73
259
6.18
245
3.52
233
95.34
270
3.93
242
27.05
261
29.02
257
4.44
238
18.13
261
2.20
177
37.99
262
77.85
267
72.31
265
18.15
257
41.78
222
3.07
173
13.11
251
2.35
229
87.85
265
9.06
253
15.44
259
12.17
223
5.94
234
2.64
228
52.32
266
8.18
235
3.59
197
14.11
231
LRCNet_RVCtwo views25.94
260
30.78
261
14.74
258
35.18
260
31.16
266
36.52
265
29.93
261
23.08
263
12.70
258
36.15
269
33.37
260
37.24
259
28.56
252
37.11
264
17.47
201
7.61
225
31.06
262
26.75
266
67.49
263
29.07
263
23.47
263
10.73
193
39.23
266
30.61
266
7.37
236
2.53
202
11.22
237
9.31
222
ktntwo views26.84
261
3.99
237
95.18
273
14.39
243
5.44
249
18.02
259
17.50
256
19.69
262
67.27
271
2.84
198
5.30
208
171.03
272
80.75
267
7.72
240
10.93
185
3.48
185
20.95
261
2.71
237
90.26
266
29.10
264
15.05
256
10.23
177
7.60
246
2.93
239
5.12
228
5.83
224
4.73
213
6.62
214
LE_ROBtwo views28.97
262
25.29
260
36.16
264
34.90
259
56.86
272
18.61
260
58.99
266
32.08
267
41.72
266
5.37
252
27.57
257
46.00
261
49.67
260
13.72
250
14.83
195
3.84
192
5.96
228
1.22
180
46.43
255
36.35
268
10.19
205
11.19
206
48.45
267
22.49
264
30.18
260
31.59
263
31.60
262
40.87
265
PMLtwo views39.07
263
38.06
266
12.06
257
39.32
261
29.04
265
40.62
267
11.06
244
14.14
261
100.08
272
27.87
266
166.26
273
107.74
270
159.39
272
13.53
249
15.41
196
10.75
236
35.75
265
8.64
253
42.84
251
10.61
256
14.22
245
16.14
253
5.89
233
7.21
257
53.08
267
13.95
245
42.26
267
19.02
241
MyStereo02two views41.62
264
34.58
263
45.67
266
20.28
250
0.00
1
28.03
262
29.19
259
23.39
265
30.77
263
18.19
263
18.03
253
20.71
252
26.70
250
40.22
266
120.07
271
52.96
270
37.64
266
42.70
269
29.31
241
30.97
266
57.46
270
56.38
271
14.75
261
32.54
268
68.34
269
79.09
270
76.33
269
89.56
271
MyStereo03two views42.32
265
34.58
263
45.67
266
20.28
250
18.70
264
28.03
262
29.19
259
23.39
265
30.77
263
18.19
263
18.03
253
20.71
252
26.70
250
40.22
266
120.07
271
52.96
270
37.64
266
42.70
269
29.31
241
30.97
266
57.46
270
56.38
271
14.75
261
32.54
268
68.34
269
79.09
270
76.33
269
89.56
271
CasAABBNettwo views42.72
266
34.60
265
45.66
265
20.17
249
18.55
263
28.05
264
29.13
258
23.25
264
30.69
262
18.73
265
18.11
255
20.72
254
37.90
255
39.93
265
120.54
273
52.80
269
37.72
268
42.56
268
29.30
240
30.56
265
57.58
272
56.66
273
14.58
260
32.34
267
68.46
271
79.09
270
76.31
268
89.48
270
HaxPigtwo views44.53
267
46.75
268
47.32
268
47.72
264
48.79
268
47.60
268
48.40
263
49.50
268
47.10
267
49.76
270
50.31
265
49.00
262
45.26
258
54.49
269
41.50
220
40.24
265
50.15
269
52.05
271
44.74
253
43.04
269
46.61
267
44.38
269
51.78
268
45.43
270
33.92
261
25.30
255
28.66
258
22.43
246
AVERAGE_ROBtwo views46.12
268
48.49
269
48.31
269
49.34
265
50.25
269
48.63
269
49.80
264
50.74
270
48.67
268
51.68
271
52.55
266
50.28
263
47.20
259
55.70
270
43.00
225
40.99
266
52.42
270
54.59
272
47.27
256
45.45
270
48.77
268
44.06
268
52.90
269
46.98
271
35.80
264
26.72
258
30.77
259
23.81
248
HanzoNettwo views47.37
269
45.54
267
75.64
272
62.53
268
47.97
267
62.03
271
90.57
272
55.02
272
58.34
270
15.60
262
22.00
256
75.72
266
107.47
270
172.14
273
23.65
209
13.02
241
62.42
272
9.26
254
134.39
269
22.45
261
19.74
262
25.78
263
31.84
265
5.57
256
9.72
246
9.49
237
8.54
232
12.61
230
MEDIAN_ROBtwo views49.56
270
51.66
270
50.91
270
52.80
266
53.76
270
52.08
270
53.35
265
54.28
271
52.25
269
54.89
272
55.89
267
53.59
264
50.09
261
58.85
271
46.45
232
44.55
267
55.81
271
57.90
273
50.55
259
48.85
271
52.07
269
46.79
270
56.69
270
50.01
272
39.10
265
30.23
260
33.56
264
31.26
258
BEATNet-Init1two views52.60
271
76.96
271
24.06
263
87.02
269
56.48
271
86.86
272
68.77
268
49.65
269
34.71
265
11.93
260
56.24
268
64.63
265
78.72
266
9.65
244
58.40
262
51.35
268
32.72
263
23.00
265
101.24
268
71.98
273
46.49
266
39.72
267
28.67
264
24.23
265
59.12
268
38.23
266
77.99
271
61.49
269
DPSimNet_ROBtwo views111.84
272
179.62
273
74.81
271
195.40
273
165.93
273
136.63
273
98.05
273
126.48
273
138.79
273
82.31
273
148.57
272
159.77
271
157.57
271
78.29
272
64.65
267
40.10
264
142.61
273
34.98
267
195.20
272
69.76
272
154.10
273
32.63
266
82.12
272
98.24
273
71.10
272
51.68
269
117.83
272
122.56
273
ASD4two views105.89
274
STTRV1_RVCtwo views1.26
173
1.01
127
1.62
189
1.11
156
1.76
195
1.25
166
1.50
130
1.40
169
1.75
153
1.60
156
2.72
189
3.31
202
1.00
183
2.61
105
1.77
137
11.19
243
0.96
136
9.01
252
9.10
193
8.68
158
1.66
189
1.68
190
1.59
155
3.90
206
5.32
205