This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CoSvtwo views0.28
1
0.38
19
0.20
13
0.18
14
0.14
7
0.35
47
0.10
13
0.38
24
0.16
13
0.20
10
0.08
3
0.30
10
0.14
5
0.09
1
0.53
1
0.67
3
0.44
13
0.24
1
0.40
7
0.20
1
0.42
8
0.29
1
0.11
1
0.14
7
0.45
26
0.25
12
0.39
4
0.24
9
Pointernettwo views0.28
1
0.22
4
0.15
3
0.14
9
0.12
3
0.19
13
0.16
34
0.28
11
0.11
1
0.17
7
0.16
11
0.23
2
0.15
9
0.17
9
0.82
4
0.55
1
0.40
7
0.24
1
0.35
2
0.21
3
0.37
4
0.78
8
0.15
7
0.17
14
0.26
3
0.20
1
0.68
31
0.22
6
CroCo-Stereo Lap2two views0.35
3
0.23
6
0.15
3
0.11
2
0.12
3
0.16
5
0.08
5
0.35
21
0.15
10
0.47
39
0.10
4
0.33
11
0.15
9
0.16
6
1.27
12
1.03
25
0.37
3
0.37
15
0.46
14
0.22
5
0.60
26
0.93
12
0.17
10
0.14
7
0.40
20
0.34
32
0.41
6
0.27
18
StereoVisiontwo views0.36
4
0.28
10
0.22
17
0.13
7
0.18
18
0.21
17
0.14
30
0.30
13
0.23
31
0.35
29
0.18
12
0.35
15
0.17
18
0.17
9
1.03
9
0.80
11
0.47
18
0.36
13
0.44
10
0.23
6
0.47
12
0.59
5
0.16
8
0.22
27
0.41
22
0.40
41
0.72
33
0.36
30
CroCo-Stereocopylefttwo views0.36
4
0.21
3
0.15
3
0.11
2
0.10
1
0.19
13
0.06
1
0.33
16
0.14
6
0.31
23
0.05
1
0.37
18
0.14
5
0.18
13
1.64
23
1.08
32
0.38
6
0.38
16
0.52
16
0.21
3
0.65
32
0.90
11
0.17
10
0.15
9
0.39
17
0.31
24
0.45
8
0.26
16
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MM-Stereo_test3two views0.37
6
0.36
17
0.15
3
0.25
21
0.15
11
0.15
3
0.08
5
0.48
33
0.18
24
0.26
17
0.10
4
0.41
26
0.12
3
0.12
2
0.95
8
0.72
6
0.45
14
0.28
5
0.37
6
0.36
15
0.36
3
1.78
45
0.27
25
0.13
4
0.32
10
0.20
1
0.80
41
0.23
7
MLG-Stereo_test1two views0.40
7
0.23
6
0.15
3
0.13
7
0.22
24
0.12
1
0.08
5
0.22
4
0.13
4
0.20
10
0.12
7
0.33
11
0.11
1
0.24
29
2.19
45
1.64
111
0.37
3
0.35
11
0.57
22
0.27
7
0.42
8
1.20
23
0.12
2
0.11
2
0.30
6
0.22
5
0.53
12
0.27
18
MLG-Stereotwo views0.41
8
0.25
8
0.14
2
0.11
2
0.20
19
0.12
1
0.07
2
0.22
4
0.12
3
0.19
8
0.11
6
0.29
7
0.11
1
0.23
27
2.49
57
2.34
158
0.37
3
0.36
13
0.53
19
0.29
9
0.38
6
0.64
6
0.12
2
0.10
1
0.30
6
0.22
5
0.49
10
0.25
14
ProNettwo views0.42
9
0.28
10
0.34
34
0.26
23
0.15
11
0.28
31
0.40
110
0.38
24
0.13
4
0.16
4
0.52
70
0.29
7
0.14
5
0.20
19
1.47
13
1.03
25
0.47
18
0.35
11
0.36
4
0.31
10
0.41
7
1.45
35
0.43
55
0.31
37
0.36
13
0.20
1
0.40
5
0.26
16
Utwo views0.43
10
0.29
12
0.17
10
0.11
2
0.14
7
0.16
5
0.07
2
0.45
32
0.15
10
0.49
41
0.07
2
0.39
20
0.17
18
0.24
29
1.72
26
1.23
55
0.49
25
0.43
25
0.62
26
0.34
12
0.68
35
1.02
15
0.18
15
0.19
20
0.55
45
0.36
36
0.50
11
0.34
28
RAStereotwo views0.49
11
0.38
19
0.20
13
0.16
11
0.16
14
0.19
13
0.11
15
0.44
30
0.18
24
0.98
146
0.12
7
0.46
31
0.19
21
0.16
6
1.87
32
1.13
40
0.53
29
0.48
32
0.71
33
0.28
8
0.88
52
1.21
24
0.28
28
0.20
22
0.50
34
0.34
32
0.54
13
0.41
34
delettwo views0.53
12
0.58
35
0.49
62
0.36
49
0.50
92
0.51
95
0.31
75
0.50
34
0.30
46
0.56
45
0.44
56
0.47
32
0.36
55
0.48
124
1.21
11
0.72
6
0.58
38
0.48
32
0.47
15
0.42
24
0.61
27
0.70
7
0.41
52
0.47
72
0.52
40
0.36
36
1.09
62
0.51
48
AASNettwo views0.55
13
0.74
72
0.50
64
0.35
45
0.61
121
0.52
101
0.42
112
0.65
51
0.28
41
0.41
33
0.50
67
0.40
23
0.32
44
0.44
110
1.04
10
0.73
8
0.55
34
0.61
64
0.68
29
0.51
43
0.62
29
0.94
13
0.46
68
0.50
77
0.52
40
0.44
51
0.74
34
0.45
37
AANet_RVCtwo views0.56
14
0.46
26
0.41
46
0.33
41
0.61
121
0.28
31
0.34
93
0.61
43
0.58
123
0.43
35
0.40
52
0.40
23
0.49
83
0.34
54
1.48
15
0.84
15
0.56
36
0.53
42
0.58
25
0.53
49
0.47
12
0.52
4
0.34
36
0.40
53
0.58
56
0.56
65
1.05
57
0.97
125
TDLMtwo views0.57
15
0.62
38
0.66
100
0.43
74
0.58
118
0.49
88
0.51
139
0.72
59
0.45
81
0.33
25
0.80
132
0.83
105
0.46
77
0.46
120
0.67
2
0.67
3
0.59
41
0.55
51
0.52
16
0.51
43
0.51
17
1.17
19
0.44
60
0.41
56
0.42
24
0.35
34
0.64
24
0.70
79
MM-Stereo_test1two views0.60
16
0.69
50
0.16
8
0.23
19
0.14
7
0.16
5
0.07
2
0.37
23
0.14
6
0.27
19
0.12
7
0.43
29
0.12
3
0.14
4
2.25
48
2.24
151
0.49
25
0.34
10
0.43
9
0.37
18
0.37
4
4.78
92
0.27
25
0.15
9
0.35
11
0.23
7
0.65
26
0.24
9
DEFOM-Stereotwo views0.61
17
0.55
32
0.29
27
0.27
24
0.30
37
0.32
39
0.13
26
0.35
21
0.17
18
0.25
16
0.33
39
0.39
20
0.20
25
0.26
34
4.06
115
1.46
83
0.59
41
0.52
38
0.57
22
0.45
29
0.76
38
0.95
14
0.44
60
0.31
37
0.49
31
0.32
27
1.31
78
0.45
37
MaDis-Stereotwo views0.61
17
0.48
27
0.31
28
0.17
13
0.27
33
0.21
17
0.18
41
0.44
30
0.33
51
1.08
157
0.30
32
0.52
36
0.24
32
0.19
16
1.98
34
1.30
65
0.63
53
0.60
59
1.24
70
0.47
34
0.91
59
1.19
21
0.39
47
0.28
34
0.64
67
0.66
83
0.62
20
0.82
99
MMNettwo views0.63
19
0.58
35
0.47
59
0.39
63
0.56
115
0.43
71
0.31
75
0.61
43
0.40
62
0.39
32
0.60
92
0.68
63
0.35
48
0.52
140
1.55
16
0.80
11
0.77
84
0.60
59
0.76
36
0.55
54
0.65
32
0.87
10
0.44
60
0.60
104
0.52
40
0.49
58
1.49
95
0.50
46
UniTT-Stereotwo views0.64
20
0.44
25
0.35
36
0.21
16
0.25
28
0.35
47
0.18
41
0.62
47
0.31
48
0.75
86
0.29
29
0.69
66
0.36
55
0.25
32
1.85
31
1.53
94
0.60
45
0.65
81
1.69
102
0.47
34
1.19
82
1.30
26
0.39
47
0.33
41
0.56
49
0.55
63
0.55
14
0.58
55
RAFTtwo views0.65
21
0.22
4
0.20
13
0.28
26
0.13
6
0.31
38
0.08
5
0.97
107
0.18
24
0.79
105
0.19
16
0.28
5
0.16
14
0.20
19
7.28
152
1.41
75
0.42
10
0.27
3
0.54
20
0.36
15
0.45
11
0.42
2
0.21
19
0.17
14
0.41
22
0.33
29
0.91
47
0.27
18
DMCAtwo views0.68
22
0.72
63
0.65
96
0.40
66
0.49
89
0.54
105
0.34
93
0.59
41
0.55
113
0.79
105
0.64
99
0.73
76
0.41
64
0.47
122
1.60
22
0.99
22
0.76
77
0.68
87
0.68
29
0.52
47
0.71
37
1.17
19
0.51
94
0.57
93
0.50
34
0.55
63
1.06
59
0.62
68
MLG-Stereo_test2two views0.69
23
0.54
31
0.18
11
0.16
11
0.24
26
0.15
3
0.08
5
0.33
16
0.17
18
0.24
14
0.13
10
0.39
20
0.14
5
0.20
19
2.87
72
1.74
123
0.47
18
0.45
27
1.34
75
0.48
37
0.53
18
5.72
123
0.19
17
0.13
4
0.39
17
0.26
16
0.66
28
0.37
31
LG-Stereotwo views0.69
23
0.27
9
0.18
11
0.18
14
0.16
14
0.23
23
0.13
26
0.30
13
0.16
13
0.23
13
0.22
20
0.52
36
0.15
9
0.19
16
8.18
157
2.56
166
0.41
8
0.33
9
0.66
28
0.40
20
0.53
18
1.19
21
0.13
5
0.13
4
0.29
5
0.24
9
0.48
9
0.24
9
iRaftStereo_RVCtwo views0.69
23
0.56
33
0.45
55
0.29
30
0.31
39
0.34
44
0.20
45
0.68
56
0.26
33
0.46
38
0.56
84
0.60
46
0.30
40
0.29
39
1.71
24
0.98
21
0.60
45
0.47
30
0.75
35
0.45
29
1.03
70
4.25
85
0.38
45
0.42
59
0.49
31
0.41
45
0.78
37
0.48
41
LGtest1two views0.72
26
0.81
106
0.51
66
0.27
24
0.31
39
0.29
33
0.12
21
0.43
29
0.26
33
0.34
28
0.57
87
0.50
33
0.30
40
0.36
61
3.94
112
2.69
170
0.58
38
0.71
98
0.83
39
0.58
63
0.82
46
1.45
35
0.31
32
0.35
44
0.58
56
0.37
38
0.67
30
0.51
48
DFGA-Nettwo views0.75
27
0.64
40
0.38
40
0.51
98
0.33
46
0.44
73
0.31
75
0.88
94
0.35
55
2.04
219
0.38
51
0.54
39
0.29
39
0.23
27
1.47
13
1.12
38
0.80
94
0.51
36
1.03
53
0.35
13
0.84
47
2.83
66
0.39
47
0.46
70
0.60
63
0.40
41
1.81
122
0.45
37
plaintwo views0.75
27
0.88
135
0.39
42
0.33
41
0.61
121
0.35
47
0.30
74
0.89
98
0.35
55
0.72
77
0.24
23
0.73
76
0.35
48
0.21
22
2.10
39
1.66
114
0.73
67
0.72
103
1.01
52
0.43
27
1.85
125
1.92
48
0.36
39
0.39
47
0.72
79
0.61
69
0.75
36
0.74
83
RAFT_CTSACEtwo views0.75
27
0.94
164
0.33
31
0.36
49
0.34
49
0.34
44
0.24
53
1.23
139
0.27
36
0.64
62
0.29
29
0.72
75
0.56
104
0.34
54
2.96
77
1.22
53
0.55
34
0.44
26
0.81
38
0.35
13
0.87
50
2.64
63
0.47
70
0.38
46
0.54
44
0.41
45
1.58
106
0.39
32
HCRNettwo views0.75
27
0.79
100
0.43
52
0.55
108
0.27
33
0.42
70
0.38
105
0.63
50
0.34
53
1.59
190
0.61
93
0.67
61
0.31
43
0.42
96
2.11
40
0.81
13
0.65
54
0.48
32
0.68
29
0.44
28
0.80
44
2.42
58
0.40
50
0.45
66
0.46
28
0.48
55
2.14
146
0.50
46
test_5two views0.76
31
0.91
145
0.32
30
0.39
63
0.26
31
0.36
52
0.19
43
1.79
218
0.33
51
0.60
52
1.97
210
0.76
84
0.75
154
0.33
51
1.58
18
1.23
55
0.57
37
0.55
51
1.09
60
0.40
20
0.64
31
1.83
46
0.31
32
0.46
70
0.47
30
0.40
41
1.72
116
0.44
35
MIF-Stereo (partial)two views0.77
32
0.77
88
0.34
34
0.29
30
0.38
61
0.36
52
0.31
75
0.54
36
0.40
62
0.61
55
0.32
34
0.55
42
0.40
59
0.24
29
2.14
42
1.65
112
0.69
60
0.76
117
0.93
49
0.48
37
1.52
105
1.76
44
0.42
53
0.39
47
0.64
67
0.70
87
2.25
164
0.86
110
UPFNettwo views0.78
33
0.71
57
0.89
133
0.55
108
0.65
139
0.60
132
0.56
143
0.72
59
0.57
120
0.59
51
0.59
90
0.64
54
0.47
79
0.61
169
1.83
30
1.02
24
0.77
84
0.69
95
0.92
47
0.73
115
0.70
36
1.04
16
0.55
112
0.67
131
0.64
67
0.57
67
2.18
151
0.59
61
CVANet_RVCtwo views0.80
34
0.73
70
0.92
145
0.86
179
0.64
136
0.72
161
0.62
154
1.17
129
0.55
113
0.47
39
0.89
148
0.91
119
0.48
80
0.51
138
0.84
5
0.75
10
0.61
49
0.59
57
0.56
21
0.63
78
0.66
34
3.82
77
0.43
55
0.47
72
0.57
51
0.44
51
0.78
37
1.05
142
TestStereotwo views0.82
35
0.94
164
0.85
126
0.56
113
0.47
82
0.68
152
0.35
101
1.21
137
0.42
68
0.90
134
0.65
101
0.88
112
0.55
102
0.39
80
1.59
20
0.96
18
0.77
84
0.54
45
1.41
81
0.57
59
1.30
89
1.32
28
0.48
75
0.49
76
0.79
98
0.81
98
1.39
82
0.79
94
GMStereopermissivetwo views0.82
35
0.99
183
0.40
45
0.49
91
0.48
84
0.56
112
0.46
126
0.79
72
0.47
86
0.55
44
0.47
60
0.84
110
0.41
64
0.37
72
1.71
24
1.08
32
0.77
84
0.54
45
1.93
111
0.59
67
1.20
84
2.06
50
0.45
64
0.57
93
0.77
91
0.67
85
1.86
129
0.57
53
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
AIO-test2two views0.83
37
0.17
1
0.12
1
0.09
1
0.11
2
0.16
5
0.11
15
0.23
7
0.15
10
0.19
8
0.20
18
0.42
28
0.15
9
0.13
3
8.89
161
6.57
250
0.32
1
0.27
3
0.30
1
0.20
1
0.30
1
2.20
55
0.12
2
0.16
12
0.21
1
0.20
1
0.25
1
0.19
2
LG-Stereo_L2two views0.86
38
0.69
50
0.46
56
0.28
26
0.36
56
0.25
25
0.13
26
0.62
47
0.26
33
0.70
72
0.40
52
0.71
71
0.34
46
0.31
43
3.30
91
2.24
151
0.60
45
0.52
38
1.08
59
0.47
34
0.85
49
5.80
126
0.34
36
0.28
34
0.58
56
0.38
40
0.65
26
0.63
70
LG-Stereo_L1two views0.87
39
0.69
50
0.44
53
0.24
20
0.36
56
0.26
27
0.12
21
0.62
47
0.27
36
0.72
77
0.32
34
0.69
66
0.34
46
0.32
45
3.31
92
2.31
156
0.60
45
0.52
38
1.28
72
0.48
37
0.79
41
5.86
128
0.30
31
0.32
40
0.57
51
0.33
29
0.66
28
0.65
73
CFNettwo views0.87
39
0.85
122
0.83
121
0.78
163
0.74
151
0.62
135
0.56
143
0.84
86
0.49
96
0.67
68
0.70
112
0.96
133
0.68
137
0.45
118
2.29
51
0.88
16
0.76
77
0.66
83
0.94
50
0.80
133
1.07
72
1.08
17
0.50
88
0.54
85
0.91
124
1.03
138
1.67
115
1.14
152
HGLStereotwo views0.89
41
0.66
43
0.79
114
0.52
101
0.71
147
0.57
117
0.50
136
0.67
55
0.51
104
1.67
199
0.96
154
0.66
60
0.57
106
0.54
150
1.73
27
1.28
63
0.85
106
0.78
120
1.10
62
0.68
102
1.07
72
2.08
51
0.51
94
0.68
133
0.75
89
0.79
95
1.59
111
0.81
97
G2L-Stereotwo views0.90
42
0.70
54
0.63
94
0.57
114
0.79
163
0.51
95
0.38
105
0.77
65
0.53
108
0.69
71
0.81
134
0.76
84
0.64
126
0.57
160
2.59
61
1.03
25
0.75
74
0.63
71
1.35
76
0.65
88
1.59
107
1.66
41
0.61
146
0.52
80
0.82
104
0.95
123
1.98
137
0.80
96
RAFT+CT+SAtwo views0.90
42
0.97
173
0.42
50
0.45
84
0.29
35
0.39
60
0.21
46
1.63
203
0.35
55
0.73
82
0.32
34
0.91
119
0.69
140
0.41
86
1.58
18
1.43
78
0.59
41
0.60
59
2.18
117
0.50
41
0.90
54
5.09
100
0.35
38
0.43
61
0.55
45
0.43
50
1.56
101
0.49
44
UNettwo views0.90
42
0.77
88
0.77
111
0.61
124
0.61
121
0.61
134
0.57
149
0.90
99
0.60
129
1.20
162
0.68
104
0.77
88
0.58
110
0.67
192
1.80
29
1.20
51
0.83
104
0.73
106
1.14
66
0.83
147
0.90
54
1.35
29
0.65
162
0.77
152
0.70
77
0.79
95
2.48
188
0.95
123
ddtwo views0.93
45
0.81
106
0.54
75
1.07
202
0.45
79
0.87
182
0.50
136
0.86
89
0.42
68
0.83
116
0.44
56
1.28
171
0.40
59
0.56
157
2.32
52
1.06
30
1.03
157
0.74
111
2.01
114
0.62
76
0.87
50
1.54
39
0.52
100
0.75
147
0.86
113
0.58
68
1.74
118
1.43
179
DSFCAtwo views0.94
46
0.84
116
0.75
108
0.66
139
0.78
159
0.62
135
0.79
175
0.75
64
0.78
161
0.78
95
0.86
139
0.79
98
0.52
91
0.44
110
1.95
33
1.21
52
0.89
119
0.87
154
1.03
53
0.81
138
1.11
75
2.19
54
0.73
189
0.80
160
0.84
107
0.96
124
1.89
130
0.85
108
DMCA-RVCcopylefttwo views0.94
46
0.74
72
0.78
113
0.62
126
0.78
159
0.58
121
1.11
204
0.77
65
1.39
216
1.36
177
0.68
104
0.88
112
0.57
106
0.58
163
2.43
56
1.16
43
0.91
122
0.78
120
0.99
51
0.78
127
0.94
63
1.41
33
0.55
112
0.72
144
0.62
65
0.64
73
1.82
124
0.91
118
IERtwo views0.95
48
0.83
112
0.60
90
0.50
95
0.52
99
0.58
121
0.48
133
0.80
75
0.50
100
1.12
160
0.77
126
1.06
146
0.50
86
0.78
210
3.59
102
1.11
37
0.76
77
0.65
81
0.91
46
0.78
127
0.76
38
2.32
56
0.66
165
0.67
131
0.65
70
1.01
132
2.05
142
0.74
83
HITNettwo views0.97
49
0.66
43
0.64
95
0.69
143
0.50
92
0.40
62
0.33
90
1.25
142
0.87
173
0.70
72
0.70
112
0.94
128
0.53
92
0.39
80
2.05
37
1.16
43
0.69
60
0.64
73
0.84
40
0.61
72
2.15
135
4.61
89
0.49
80
0.60
104
0.63
66
0.63
72
1.82
124
0.82
99
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
RASNettwo views1.02
50
0.75
75
0.95
150
0.64
135
0.64
136
0.67
150
0.45
122
0.98
109
0.62
134
1.21
166
0.64
99
0.76
84
0.74
151
0.43
103
1.59
20
1.52
92
0.78
90
0.68
87
1.06
57
0.70
107
1.24
88
4.37
86
0.47
70
0.84
169
0.80
100
0.83
102
2.17
150
1.08
145
DLCB_ROBtwo views1.03
51
0.92
150
0.91
139
0.74
153
0.83
174
0.75
167
0.77
172
0.88
94
0.73
158
0.93
140
0.85
137
1.06
146
0.94
198
0.70
197
1.57
17
1.24
58
1.03
157
0.73
106
0.92
47
0.75
119
1.48
100
2.49
59
0.81
209
0.77
152
1.35
201
1.30
172
1.49
95
0.95
123
TESTrafttwo views1.04
52
0.98
179
0.44
53
0.41
68
0.34
49
0.41
63
0.26
61
1.12
122
0.40
62
0.98
146
0.35
45
0.64
54
0.76
159
0.53
143
3.11
85
1.82
129
0.74
69
0.52
38
3.10
161
0.57
59
1.16
79
3.86
80
0.37
41
0.45
66
0.58
56
1.17
160
2.52
194
0.60
62
DISCOtwo views1.04
52
0.98
179
0.62
92
0.57
114
0.62
129
0.84
179
0.83
179
0.77
65
0.82
165
1.98
214
0.89
148
0.68
63
0.70
141
0.45
118
1.98
34
1.35
71
1.00
150
0.81
130
1.83
105
0.81
138
1.00
66
2.90
68
0.62
151
0.65
126
0.74
87
0.84
104
2.03
141
0.85
108
STTStereotwo views1.06
54
0.95
169
0.90
136
0.79
167
0.77
157
0.70
157
1.10
201
0.86
89
1.48
225
1.26
171
0.78
130
1.13
158
0.78
167
0.94
227
2.76
65
1.16
43
0.76
77
0.73
106
1.10
62
0.66
93
1.18
81
1.53
38
0.62
151
0.58
97
0.78
95
1.22
165
1.76
120
1.40
177
coex_refinementtwo views1.09
55
1.02
195
0.82
119
0.66
139
0.86
175
0.73
163
0.56
143
0.81
78
1.01
187
0.67
68
1.02
164
0.97
134
0.48
80
0.49
128
4.47
127
1.03
25
0.82
100
0.71
98
3.71
186
0.78
127
1.01
67
1.08
17
0.66
165
0.59
100
0.89
120
0.99
131
1.78
121
0.94
120
TestStereo1two views1.09
55
0.99
183
0.41
46
0.38
54
0.37
59
0.41
63
0.27
64
1.02
113
0.40
62
0.80
109
0.34
42
0.61
50
0.74
151
0.53
143
2.97
78
1.78
125
0.74
69
0.54
45
3.12
162
0.57
59
1.44
93
5.38
106
0.37
41
0.43
61
0.59
61
1.04
141
2.53
196
0.60
62
SA-5Ktwo views1.09
55
0.99
183
0.41
46
0.38
54
0.37
59
0.41
63
0.27
64
1.02
113
0.40
62
0.80
109
0.34
42
0.61
50
0.74
151
0.53
143
2.97
78
1.78
125
0.74
69
0.54
45
3.12
162
0.57
59
1.44
93
5.38
106
0.37
41
0.43
61
0.59
61
1.04
141
2.53
196
0.60
62
NLCA_NET_v2_RVCtwo views1.09
55
0.93
156
0.85
126
0.74
153
0.81
168
0.66
147
1.22
214
1.07
117
2.23
260
1.99
215
0.76
122
0.97
134
0.63
123
0.94
227
2.41
55
1.05
29
0.74
69
0.72
103
1.32
74
0.70
107
0.90
54
1.40
30
0.59
138
0.61
106
0.74
87
1.58
200
1.48
94
1.26
169
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AIO-Stereopermissivetwo views1.11
59
0.33
15
0.22
17
0.35
45
0.16
14
0.20
16
0.11
15
0.18
1
0.14
6
0.15
3
0.20
18
0.22
1
0.16
14
0.17
9
5.08
133
1.09
36
0.46
16
0.40
21
1.20
67
0.50
41
0.43
10
16.33
256
0.20
18
0.17
14
0.35
11
0.24
9
0.64
24
0.19
2
psm_uptwo views1.12
60
0.88
135
1.03
171
0.79
167
0.95
186
0.77
170
0.66
161
1.33
162
1.03
192
0.87
124
0.69
109
1.12
155
0.76
159
0.76
205
2.94
75
1.17
46
0.96
140
0.82
135
2.32
124
0.85
150
1.44
93
1.89
47
0.51
94
0.92
195
1.03
149
1.08
148
1.62
112
1.09
146
PDISCO_ROBtwo views1.12
60
0.87
130
0.62
92
0.79
167
0.70
145
0.54
105
0.76
171
0.95
106
0.69
151
1.78
204
0.98
160
0.75
83
0.63
123
0.65
187
2.15
43
1.54
99
0.99
147
1.10
215
1.60
95
0.82
144
1.80
118
2.71
64
0.57
129
0.84
169
1.20
180
0.84
104
2.56
200
0.90
115
PS-NSSStwo views1.13
62
1.45
248
0.73
105
1.20
221
0.95
186
1.22
223
1.06
194
0.80
75
0.55
113
0.74
84
0.51
68
2.17
214
1.08
213
0.93
225
2.02
36
0.96
18
0.89
119
0.74
111
1.56
90
0.65
88
0.97
65
0.79
9
1.65
266
0.55
88
1.13
171
0.96
124
3.19
233
1.11
149
SAtwo views1.14
63
0.95
169
0.46
56
0.55
108
0.54
108
0.50
93
0.25
58
1.59
198
0.47
86
0.72
77
0.40
52
0.73
76
0.59
115
0.62
174
2.09
38
2.12
145
0.82
100
0.82
135
3.31
175
0.67
100
1.46
96
4.78
92
0.36
39
0.69
135
0.78
95
1.11
151
2.64
208
0.72
82
LMCR-Stereopermissivemany views1.14
63
0.84
116
0.91
139
0.55
108
0.63
133
0.66
147
0.34
93
1.12
122
0.64
140
0.82
114
0.77
126
0.94
128
0.49
83
0.44
110
3.22
90
1.57
106
1.06
165
0.76
117
2.19
119
1.43
208
1.90
127
4.46
87
0.53
106
0.81
163
0.87
115
0.86
110
1.11
64
0.94
120
AF-Nettwo views1.15
65
0.85
122
1.00
162
0.77
159
0.93
182
1.00
200
2.29
240
1.51
186
1.06
194
0.57
48
0.96
154
1.40
181
0.64
126
0.75
203
2.20
46
1.08
32
0.85
106
0.62
65
1.83
105
0.79
131
0.90
54
2.97
69
0.66
165
0.65
126
0.98
139
0.89
113
1.58
106
1.24
167
Nwc_Nettwo views1.15
65
0.85
122
1.00
162
0.77
159
0.93
182
1.00
200
2.29
240
1.51
186
1.06
194
0.57
48
0.96
154
1.40
181
0.64
126
0.75
203
2.20
46
1.08
32
0.85
106
0.62
65
1.83
105
0.79
131
0.90
54
2.97
69
0.66
165
0.65
126
0.98
139
0.89
113
1.58
106
1.24
167
RSMtwo views1.16
67
0.30
13
0.23
21
0.32
38
0.15
11
0.21
17
0.10
13
0.18
1
0.16
13
0.14
2
0.27
26
0.23
2
0.20
25
0.15
5
0.70
3
0.64
2
0.43
11
0.38
16
0.36
4
0.42
24
0.50
14
23.43
302
0.23
20
0.17
14
0.40
20
0.25
12
0.61
19
0.24
9
CAStwo views1.16
67
0.81
106
0.47
59
0.51
98
0.49
89
0.38
56
0.31
75
0.56
37
0.45
81
1.20
162
0.90
150
0.64
54
0.97
206
0.32
45
3.11
85
2.22
150
0.98
144
0.85
148
1.21
68
0.64
81
3.95
158
5.48
118
0.47
70
0.31
37
0.85
112
0.92
120
1.21
71
1.15
155
GANettwo views1.17
69
0.80
105
0.81
118
0.71
146
0.71
147
1.18
215
0.64
157
0.83
83
0.47
86
0.61
55
6.20
266
2.19
215
0.44
76
0.65
187
0.94
7
0.81
13
0.87
113
0.79
122
0.65
27
0.46
32
0.56
22
6.49
137
0.53
106
0.57
93
0.65
70
0.47
54
0.85
43
0.70
79
Occ-Gtwo views1.18
70
0.59
37
0.31
28
0.34
43
0.31
39
0.26
27
0.12
21
0.38
24
0.19
27
0.16
4
0.36
48
0.34
14
0.25
33
0.16
6
7.20
151
1.86
130
0.48
22
0.45
27
1.09
60
0.42
24
0.93
62
13.28
225
0.29
30
0.21
23
0.38
15
0.26
16
0.97
53
0.31
25
MLG-Stereo_test3two views1.20
71
0.48
27
0.28
26
0.29
30
0.38
61
0.25
25
0.12
21
0.34
20
0.20
28
1.11
159
0.34
42
0.54
39
0.19
21
0.32
45
2.92
74
2.26
153
0.53
29
0.54
45
1.56
90
0.53
49
0.81
45
15.80
250
0.18
15
0.26
32
0.43
25
0.32
27
0.91
47
0.44
35
CASnettwo views1.22
72
0.92
150
0.55
76
0.41
68
0.45
79
0.39
60
0.24
53
0.92
101
0.50
100
0.78
95
0.56
84
0.91
119
0.54
99
0.38
73
3.31
92
1.35
71
0.77
84
0.51
36
1.43
82
0.56
56
7.13
208
5.44
117
0.45
64
0.48
75
1.22
183
0.50
61
1.47
91
0.78
93
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Sa-1000two views1.22
72
0.77
88
0.49
62
0.49
91
0.61
121
0.51
95
0.29
71
1.69
208
0.53
108
0.73
82
0.48
66
0.73
76
0.66
135
0.76
205
3.04
82
1.97
137
0.98
144
0.95
175
3.31
175
0.63
78
1.92
130
4.89
94
0.37
41
0.82
164
1.15
174
1.22
165
2.35
173
0.75
85
S2M2two views1.24
74
0.87
130
1.18
203
0.48
89
0.38
61
0.44
73
0.28
69
0.60
42
0.56
116
1.85
209
0.35
45
0.64
54
0.40
59
0.44
110
2.57
58
2.15
146
0.74
69
0.60
59
1.11
64
0.59
67
4.37
164
6.33
135
0.49
80
0.37
45
0.68
75
1.22
165
3.07
227
0.79
94
IGEV-BASED-STEREO-two views1.26
75
0.86
126
0.39
42
0.42
73
0.32
42
0.32
39
0.19
43
0.71
58
0.32
49
0.70
72
0.31
33
0.64
54
0.56
104
0.43
103
4.05
114
2.29
154
0.65
54
0.70
97
1.04
55
0.51
43
1.88
126
13.45
226
0.46
68
0.24
31
0.57
51
0.37
38
1.14
67
0.54
50
iinet-ftwo views1.26
75
1.10
208
0.69
102
0.94
187
0.47
82
0.72
161
0.58
150
0.79
72
0.50
100
2.11
225
1.35
188
0.83
105
0.64
126
0.38
73
3.97
113
1.88
131
0.79
92
0.68
87
3.04
158
1.08
180
1.61
109
3.40
71
0.68
172
0.75
147
1.14
172
0.64
73
2.22
163
0.90
115
APVNettwo views1.28
77
1.03
198
0.68
101
0.69
143
0.78
159
0.87
182
0.89
183
0.79
72
0.72
156
0.91
136
0.83
136
0.92
124
0.61
117
0.59
165
3.31
92
1.71
117
1.16
181
0.99
186
3.22
168
0.92
158
1.91
129
4.73
91
0.58
132
1.11
216
0.80
100
0.84
104
1.90
131
0.97
125
RSM++two views1.29
78
0.33
15
0.25
23
0.36
49
0.20
19
0.24
24
0.11
15
0.22
4
0.17
18
0.16
4
0.28
28
0.27
4
0.20
25
0.17
9
0.89
6
0.71
5
0.43
11
0.39
20
0.52
16
0.46
32
0.53
18
25.80
307
0.31
32
0.18
18
0.55
45
0.26
16
0.57
16
0.29
23
RPtwo views1.29
78
1.05
202
1.26
217
0.96
188
1.11
203
0.85
180
1.39
219
1.24
141
1.30
212
0.61
55
1.16
175
1.27
169
0.75
154
0.72
201
3.49
99
1.12
38
0.95
136
0.68
87
1.24
70
0.83
147
1.02
69
4.57
88
0.63
155
0.91
193
0.90
122
1.02
137
2.51
192
1.20
162
AACVNettwo views1.30
80
0.89
139
0.74
106
0.93
183
0.95
186
0.73
163
0.64
157
0.88
94
0.64
140
0.74
84
0.88
145
0.83
105
0.67
136
0.62
174
9.20
163
1.41
75
0.87
113
0.84
146
1.21
68
0.80
133
1.51
102
2.50
60
0.75
198
0.69
135
0.88
118
1.11
151
1.91
132
1.31
171
AMNettwo views1.31
81
1.12
210
1.05
174
1.14
211
1.12
205
1.27
229
1.07
197
1.35
165
1.13
201
1.10
158
1.11
172
1.55
194
1.26
221
1.20
250
1.75
28
1.59
108
1.37
204
1.23
236
1.37
79
1.22
191
1.40
92
1.40
30
1.25
251
1.26
228
1.26
185
1.70
209
1.54
99
1.65
192
YMNettwo views1.32
82
0.78
96
0.42
50
0.50
95
0.61
121
0.58
121
1.39
219
0.77
65
0.56
116
1.23
170
0.35
45
0.68
63
2.19
239
0.56
157
15.64
200
1.49
89
0.82
100
0.66
83
0.77
37
0.41
23
0.62
29
1.30
26
0.23
20
0.39
47
0.75
89
0.48
55
0.81
42
0.65
73
AIO-test1two views1.32
82
0.19
2
0.16
8
0.12
6
0.14
7
0.18
11
0.15
31
0.33
16
0.17
18
0.26
17
0.26
25
0.35
15
0.15
9
0.18
13
10.09
171
3.61
199
0.36
2
0.31
7
0.44
10
0.36
15
0.35
2
16.14
252
0.14
6
0.15
9
0.23
2
0.23
7
0.33
2
0.17
1
ARAFTtwo views1.32
82
0.72
63
0.50
64
0.35
45
0.34
49
0.44
73
0.24
53
0.65
51
0.35
55
2.25
229
0.56
84
0.60
46
0.30
40
0.43
103
2.15
43
1.46
83
0.75
74
0.75
115
2.78
151
0.58
63
2.25
139
12.47
215
0.45
64
0.39
47
0.94
132
0.40
41
1.98
137
0.57
53
iResNet_ROBtwo views1.32
82
0.86
126
0.86
129
0.65
136
0.60
119
0.69
154
0.66
161
2.64
272
0.58
123
1.71
201
0.75
121
0.97
134
0.82
178
0.49
128
5.86
141
1.53
94
0.93
130
0.86
150
2.96
155
0.68
102
2.22
136
1.21
24
0.62
151
0.95
200
0.86
113
0.98
129
2.65
210
1.02
138
PA-Nettwo views1.33
86
0.99
183
1.18
203
0.77
159
1.35
224
0.69
154
0.90
184
0.82
82
1.17
206
0.82
114
1.28
183
0.78
95
0.79
169
0.93
225
4.45
126
1.31
67
0.72
65
0.80
127
1.06
57
0.89
153
1.19
82
4.70
90
0.68
172
0.85
176
1.01
145
2.17
242
1.45
89
2.09
210
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
GANetREF_RVCpermissivetwo views1.35
87
1.22
219
1.01
166
1.18
215
1.10
202
1.02
203
0.81
176
1.25
142
1.15
204
1.30
174
0.77
126
2.55
234
0.96
202
0.63
178
2.28
50
1.23
55
1.09
169
0.99
186
2.42
129
0.90
156
2.22
136
1.72
42
0.79
206
1.12
217
1.31
192
1.27
169
2.62
205
1.48
181
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
IPLGR_Ctwo views1.36
88
0.72
63
0.89
133
0.59
119
0.54
108
0.54
105
0.34
93
0.81
78
0.58
123
0.76
90
0.69
109
1.05
145
0.53
92
0.64
182
2.77
66
1.41
75
0.92
125
0.69
95
3.26
171
0.64
81
1.68
113
10.52
176
0.58
132
0.83
167
1.01
145
0.65
82
2.40
182
0.61
65
ACREtwo views1.36
88
0.71
57
0.88
131
0.61
124
0.53
102
0.55
110
0.35
101
0.81
78
0.58
123
0.76
90
0.69
109
1.06
146
0.53
92
0.64
182
2.80
71
1.39
74
0.92
125
0.68
87
3.26
171
0.64
81
1.68
113
10.53
177
0.58
132
0.83
167
1.03
149
0.64
73
2.40
182
0.62
68
CIPLGtwo views1.37
90
0.71
57
0.91
139
0.59
119
0.53
102
0.54
105
0.36
103
0.81
78
0.59
128
0.76
90
0.68
104
1.04
142
0.53
92
0.64
182
3.08
83
1.45
82
0.93
130
0.67
85
3.23
169
0.64
81
1.66
110
10.56
178
0.58
132
0.84
169
1.03
149
0.66
83
2.36
175
0.61
65
NCC-stereotwo views1.37
90
1.25
224
1.13
189
1.00
193
1.08
196
0.98
197
1.87
230
1.76
214
1.58
233
0.60
52
1.33
185
1.22
163
1.08
213
0.78
210
3.16
88
1.19
49
0.95
136
1.00
190
1.64
96
1.00
172
1.20
84
3.65
73
0.84
218
0.84
169
1.28
188
1.57
198
1.44
85
1.60
188
Abc-Nettwo views1.37
90
1.25
224
1.13
189
1.00
193
1.08
196
0.98
197
1.87
230
1.76
214
1.58
233
0.60
52
1.33
185
1.22
163
1.08
213
0.78
210
3.16
88
1.19
49
0.95
136
1.00
190
1.64
96
1.00
172
1.20
84
3.65
73
0.84
218
0.84
169
1.28
188
1.57
198
1.44
85
1.60
188
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
raft_robusttwo views1.38
93
0.94
164
0.55
76
0.60
121
0.48
84
0.59
129
0.38
105
2.05
244
0.53
108
1.67
199
0.52
70
0.83
105
0.81
174
0.49
128
3.50
100
1.90
132
0.92
125
0.86
150
4.99
206
0.61
72
3.19
149
5.05
99
0.47
70
0.64
120
1.04
153
1.06
144
1.58
106
0.99
134
GLC_STEREOtwo views1.38
93
0.90
142
0.91
139
0.58
117
0.62
129
0.49
88
0.43
116
1.68
207
0.48
90
0.77
94
0.68
104
0.81
103
0.62
122
0.61
169
9.99
170
1.91
133
0.92
125
0.60
59
1.71
103
0.71
112
2.58
144
3.85
79
0.48
75
0.57
93
0.69
76
0.56
65
2.36
175
0.87
113
111111two views1.39
95
0.38
19
0.20
13
0.25
21
0.29
35
0.22
22
0.09
10
0.19
3
0.16
13
0.10
1
0.18
12
0.28
5
0.17
18
0.21
22
11.32
181
2.07
144
0.47
18
0.29
6
0.84
40
0.40
20
0.57
23
17.45
276
0.24
22
0.12
3
0.26
3
0.24
9
0.42
7
0.19
2
UDGNettwo views1.40
96
1.04
199
0.83
121
1.64
246
1.39
226
1.70
247
1.25
216
1.21
137
0.81
164
0.63
60
0.87
142
0.92
124
0.42
67
1.61
264
2.12
41
1.25
59
0.87
113
0.89
162
2.45
131
0.92
158
1.95
132
5.71
121
1.28
253
0.54
85
1.21
181
1.10
150
2.15
147
1.02
138
SACVNettwo views1.42
97
0.96
172
1.03
171
0.93
183
1.15
207
0.95
193
0.99
190
1.50
183
0.82
165
1.21
166
0.74
119
0.99
139
0.73
149
0.70
197
3.38
97
1.50
90
1.24
190
0.85
148
2.24
121
0.96
165
2.50
143
5.99
131
0.69
179
0.90
190
1.04
153
1.06
144
2.02
140
1.29
170
Former-RAFT_DAM_RVCtwo views1.44
98
0.64
40
0.58
83
0.44
82
0.42
74
0.38
56
0.27
64
1.25
142
0.49
96
0.85
120
0.62
95
0.76
84
0.54
99
0.35
58
12.82
187
1.55
102
0.72
65
0.71
98
2.02
116
0.58
63
1.72
115
6.96
144
0.42
53
0.39
47
0.82
104
1.19
161
0.71
32
0.77
90
trnettwo views1.46
99
0.91
145
0.99
159
0.53
103
0.44
77
0.49
88
0.25
58
1.41
173
0.67
146
0.88
131
1.00
162
0.97
134
0.76
159
0.44
110
7.79
155
3.28
185
0.95
136
0.64
73
2.41
126
0.64
81
3.97
160
3.96
81
0.58
132
0.63
118
1.03
149
1.01
132
1.73
117
0.99
134
sAnonymous2two views1.46
99
0.77
88
0.55
76
0.43
74
0.48
84
0.71
158
0.42
112
1.28
148
0.99
184
0.65
65
0.88
145
1.13
158
0.96
202
0.36
61
2.58
59
2.36
160
1.11
171
1.05
205
3.69
184
0.96
165
4.96
174
7.11
145
0.64
158
0.61
106
0.84
107
1.39
179
1.25
73
1.23
165
CroCo_RVCtwo views1.46
99
0.77
88
0.55
76
0.43
74
0.48
84
0.71
158
0.42
112
1.28
148
0.99
184
0.65
65
0.88
145
1.13
158
0.96
202
0.36
61
2.58
59
2.36
160
1.11
171
1.05
205
3.69
184
0.96
165
4.96
174
7.11
145
0.64
158
0.61
106
0.84
107
1.39
179
1.25
73
1.23
165
CEStwo views1.47
102
0.78
96
0.61
91
0.46
87
0.57
116
0.52
101
0.23
49
1.50
183
0.68
148
0.78
95
0.86
139
0.86
111
0.90
191
0.39
80
7.38
154
3.09
178
1.24
190
1.04
200
1.48
84
1.19
188
4.63
171
5.40
114
0.67
169
0.45
66
0.87
115
0.82
99
1.16
68
1.15
155
HSMtwo views1.47
102
0.76
84
1.02
169
0.81
171
0.80
166
0.56
112
0.56
143
1.86
224
0.60
129
0.76
90
0.85
137
0.90
117
0.68
137
0.60
168
11.58
183
1.15
41
0.96
140
0.74
111
2.61
135
0.74
116
2.26
140
2.51
61
0.60
143
0.87
178
0.95
135
0.98
129
2.08
144
1.02
138
DN-CSS_ROBtwo views1.49
104
0.84
116
1.08
181
0.88
181
0.88
176
0.50
93
0.39
108
2.00
237
0.63
137
1.55
188
1.79
202
1.00
140
0.81
174
0.41
86
3.48
98
1.46
83
1.12
175
0.95
175
5.28
211
0.75
119
4.20
161
3.69
75
0.56
119
1.01
206
0.80
100
0.82
99
2.06
143
1.31
171
stereogantwo views1.50
105
1.32
233
1.15
195
1.13
208
1.31
220
1.13
213
1.02
193
1.26
145
1.04
193
1.20
162
1.09
170
1.65
199
0.90
191
0.67
192
2.78
69
1.43
78
1.01
154
0.81
130
1.83
105
0.99
171
1.36
91
8.05
153
0.73
189
0.92
195
0.91
124
1.08
148
2.36
175
1.37
174
MGS-Stereotwo views1.51
106
0.99
183
0.53
73
0.41
68
0.35
53
0.41
63
0.36
103
0.66
54
0.28
41
0.53
43
0.47
60
0.52
36
0.39
57
0.43
103
23.18
219
1.01
23
0.77
84
0.79
122
1.05
56
0.67
100
1.17
80
1.46
37
0.47
70
0.69
135
0.77
91
0.48
55
1.29
76
0.77
90
LoS_RVCtwo views1.52
107
1.26
226
0.96
152
0.32
38
0.52
99
0.38
56
0.34
93
0.73
61
0.57
120
2.10
223
0.76
122
0.73
76
0.72
146
0.35
58
4.43
124
3.80
202
0.91
122
2.29
284
3.41
179
0.70
107
4.52
167
6.76
139
0.56
119
0.44
64
0.84
107
0.85
108
0.93
49
0.98
129
tt_lltwo views1.52
107
1.26
226
0.96
152
0.32
38
0.52
99
0.38
56
0.34
93
0.73
61
0.57
120
2.10
223
0.76
122
0.73
76
0.72
146
0.35
58
4.43
124
3.80
202
0.91
122
2.29
284
3.41
179
0.70
107
4.52
167
6.76
139
0.56
119
0.44
64
0.84
107
0.85
108
0.93
49
0.98
129
TANstereotwo views1.55
109
1.06
205
0.94
148
0.68
141
0.76
153
0.90
187
0.33
90
0.86
89
0.64
140
0.70
72
1.05
167
0.60
46
0.61
117
1.01
234
2.77
66
2.92
175
1.00
150
1.15
222
1.49
85
1.30
200
5.05
180
5.77
124
1.42
256
0.59
100
0.57
51
0.90
115
5.94
275
0.75
85
XX-TBDtwo views1.55
109
1.06
205
0.94
148
0.68
141
0.76
153
0.90
187
0.33
90
0.86
89
0.64
140
0.70
72
1.05
167
0.60
46
0.61
117
1.01
234
2.77
66
2.92
175
1.00
150
1.15
222
1.49
85
1.30
200
5.05
180
5.77
124
1.42
256
0.59
100
0.57
51
0.90
115
5.94
275
0.75
85
MM-Stereo_test2two views1.56
111
0.78
96
0.24
22
0.30
35
0.21
22
0.18
11
0.11
15
0.33
16
0.16
13
0.36
30
0.18
12
0.40
23
0.16
14
0.18
13
5.36
137
11.21
271
0.46
16
0.40
21
0.42
8
0.53
49
0.50
14
17.82
277
0.28
28
0.18
18
0.39
17
0.25
12
0.56
15
0.25
14
RGCtwo views1.56
111
1.33
235
1.98
261
1.18
215
1.24
213
1.20
220
1.06
194
1.20
135
1.09
197
0.91
136
1.67
197
1.23
165
1.26
221
0.92
224
4.08
117
1.27
61
1.06
165
0.86
150
1.92
109
1.10
182
1.72
115
5.40
114
0.79
206
1.03
208
1.17
176
1.52
194
2.20
153
1.83
197
LL-Strereo2two views1.57
113
0.66
43
0.65
96
0.40
66
0.35
53
0.32
39
0.23
49
1.48
179
0.42
68
0.68
70
0.57
87
0.63
53
0.32
44
0.67
192
2.65
63
7.88
260
0.65
54
0.55
51
1.37
79
0.70
107
1.80
118
15.65
248
0.50
88
0.40
53
0.65
70
0.62
70
1.06
59
0.56
51
CREStereotwo views1.57
113
0.92
150
0.99
159
0.53
103
0.43
76
0.49
88
0.26
61
1.44
177
0.71
155
0.87
124
1.01
163
0.95
131
0.76
159
0.44
110
7.17
149
4.29
211
0.93
130
0.59
57
2.41
126
0.65
88
5.45
183
5.19
102
0.61
146
0.63
118
1.02
148
1.01
132
1.74
118
0.98
129
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
raft+_RVCtwo views1.58
115
0.74
72
0.75
108
0.41
68
0.35
53
0.52
101
0.32
86
1.47
178
0.45
81
0.63
60
0.61
93
0.69
66
0.39
57
0.30
42
4.83
130
4.95
222
0.76
77
0.56
54
1.64
96
0.60
71
0.96
64
16.85
266
0.50
88
0.45
66
0.78
95
0.62
70
0.88
44
0.68
78
GIP-stereotwo views1.59
116
0.56
33
0.35
36
0.29
30
0.24
26
0.21
17
0.11
15
0.24
9
0.17
18
0.31
23
0.19
16
0.38
19
0.19
21
0.27
36
11.70
186
7.84
259
0.48
22
0.41
24
0.44
10
0.51
43
0.58
24
15.22
243
0.17
10
0.21
23
0.45
26
0.30
23
0.78
37
0.24
9
PMTNettwo views1.59
116
0.94
164
1.06
175
0.49
91
0.51
96
0.49
88
0.32
86
0.83
83
0.72
156
0.83
116
0.63
97
0.89
116
0.50
86
0.42
96
7.10
148
4.35
214
0.96
140
0.57
55
2.41
126
0.58
63
5.99
192
6.00
132
0.61
146
0.41
56
1.97
256
1.03
138
1.16
68
1.19
160
ICVPtwo views1.60
118
0.75
75
1.11
187
0.77
159
0.78
159
0.87
182
0.64
157
1.10
120
0.85
169
1.37
180
1.11
172
0.95
131
1.12
217
0.57
160
3.12
87
2.05
143
1.33
199
1.00
190
1.56
90
1.07
178
3.91
157
10.82
182
0.69
179
0.87
178
0.95
135
1.21
163
1.52
97
1.14
152
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
LoStwo views1.62
119
0.79
100
0.65
96
0.53
103
0.57
116
0.67
150
0.39
108
2.55
269
0.90
175
1.22
169
0.98
160
0.98
138
0.87
188
0.44
110
4.09
118
3.52
193
1.45
207
0.94
174
2.24
121
0.75
119
6.08
194
7.76
150
0.68
172
0.64
120
1.18
179
0.97
127
1.10
63
0.87
113
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
GEStwo views1.63
120
0.75
75
0.83
121
0.79
167
0.73
150
0.82
177
0.67
163
1.36
168
0.95
181
1.65
197
0.95
153
0.78
95
0.65
130
0.66
189
6.17
144
1.65
112
1.02
155
0.91
169
5.50
215
1.23
194
4.23
162
5.40
114
0.67
169
0.96
202
0.81
103
0.83
102
1.52
97
1.65
192
iResNetv2_ROBtwo views1.65
121
0.91
145
0.76
110
1.13
208
0.66
140
0.73
163
0.56
143
2.62
270
0.67
146
1.76
203
0.87
142
1.36
178
0.77
166
0.42
96
5.48
138
1.34
70
1.04
160
0.74
111
4.59
200
0.89
153
7.80
222
2.09
52
0.62
151
0.93
197
0.89
120
0.86
110
3.12
232
0.90
115
NCCL2two views1.66
122
1.30
231
1.16
197
1.12
206
1.48
232
0.80
174
1.13
207
1.07
117
1.15
204
1.84
207
1.26
181
1.12
155
0.84
181
0.83
217
4.07
116
1.52
92
1.22
187
0.89
162
1.35
76
0.93
162
2.49
142
5.97
130
1.47
261
1.14
219
1.49
223
1.40
183
3.78
256
1.89
202
LG-G_1two views1.68
123
0.70
54
0.33
31
0.37
52
0.40
65
0.33
42
0.16
34
0.41
27
0.21
29
0.29
21
0.33
39
0.50
33
0.35
48
0.34
54
3.35
95
2.37
162
0.54
32
0.62
65
0.86
42
0.75
119
0.92
60
28.93
319
0.17
10
0.23
28
0.51
36
0.41
45
0.62
20
0.48
41
LG-Gtwo views1.68
123
0.70
54
0.33
31
0.37
52
0.40
65
0.33
42
0.16
34
0.41
27
0.21
29
0.29
21
0.33
39
0.50
33
0.35
48
0.34
54
3.35
95
2.37
162
0.54
32
0.62
65
0.86
42
0.75
119
0.92
60
28.93
319
0.17
10
0.23
28
0.51
36
0.41
45
0.62
20
0.48
41
rafts_anoytwo views1.69
125
0.82
111
0.95
150
0.45
84
0.51
96
0.54
105
0.46
126
1.57
197
0.51
104
0.61
55
0.70
112
0.71
71
0.49
83
0.36
61
8.16
156
6.28
247
0.82
100
0.79
122
2.48
132
0.65
88
1.66
110
11.09
192
0.54
111
0.54
85
1.00
144
0.90
115
0.96
51
0.99
134
MIM_Stereotwo views1.71
126
0.77
88
0.56
80
0.43
74
0.38
61
0.47
77
0.23
49
1.50
183
0.32
49
0.56
45
0.46
58
0.65
59
0.28
37
0.39
80
6.21
146
11.24
272
0.65
54
0.82
135
3.32
177
0.89
153
1.35
90
10.19
172
0.38
45
0.51
79
0.55
45
0.42
49
1.96
135
0.58
55
CFNet_pseudotwo views1.71
126
0.79
100
0.89
133
0.83
174
0.79
163
0.71
158
0.43
116
0.93
103
0.53
108
0.94
143
0.81
134
0.94
128
0.88
190
0.82
216
15.18
197
1.47
87
0.79
92
0.73
106
7.38
255
0.78
127
1.08
74
2.74
65
0.74
195
0.70
139
0.91
124
0.91
118
1.47
91
1.13
151
SGD-Stereotwo views1.72
128
0.50
30
0.38
40
0.28
26
0.30
37
0.30
37
0.17
38
0.57
39
0.29
44
0.44
37
0.22
20
0.69
66
0.40
59
0.25
32
30.93
231
1.66
114
0.76
77
0.53
42
0.71
33
0.52
47
1.51
102
1.73
43
0.43
55
0.33
41
0.51
36
0.46
53
0.89
45
0.63
70
IGEV-Stereo+two views1.72
128
1.04
199
0.26
25
0.48
89
0.32
42
0.29
33
0.13
26
0.50
34
0.27
36
0.78
95
7.60
294
0.57
44
0.26
35
0.31
43
3.09
84
3.57
196
0.61
49
0.62
65
1.55
87
0.54
52
1.01
67
20.06
292
0.57
129
0.21
23
0.46
28
0.31
24
0.58
17
0.40
33
CC-Net-ROBtwo views1.72
128
1.82
262
1.21
208
1.92
253
1.84
253
2.43
265
1.64
225
0.93
103
0.96
182
1.27
172
0.68
104
5.86
277
2.76
246
1.47
260
2.26
49
0.95
17
1.46
210
1.26
243
2.79
152
0.96
165
1.12
77
1.41
33
3.28
283
0.73
145
1.31
192
1.15
159
1.47
91
1.57
184
dadtwo views1.73
131
0.98
179
0.82
119
2.17
263
1.18
210
1.11
211
4.08
264
1.66
206
0.63
137
1.21
166
0.54
79
1.12
155
2.00
236
0.63
178
3.74
104
1.25
59
1.14
178
0.82
135
2.70
147
0.80
133
1.47
99
2.54
62
0.73
189
1.01
206
2.41
266
0.71
88
5.51
271
3.77
249
raftrobusttwo views1.74
132
0.68
48
1.00
162
0.55
108
0.51
96
0.45
76
0.34
93
1.54
188
0.48
90
0.94
143
0.72
115
0.88
112
0.53
92
0.41
86
7.35
153
5.79
237
0.73
67
0.71
98
4.77
203
0.68
102
2.01
133
10.90
183
0.65
162
0.50
77
1.06
156
0.86
110
1.05
57
0.84
107
XPNet_ROBtwo views1.76
133
1.58
254
1.17
201
0.93
183
1.17
209
1.05
206
0.98
189
0.97
107
1.17
206
1.07
156
1.79
202
4.38
264
0.73
149
0.80
214
2.59
61
1.58
107
1.78
229
0.97
181
1.45
83
1.06
177
2.58
144
8.45
158
0.94
235
0.88
185
0.99
141
1.31
173
3.33
239
1.71
194
BEATNet_4xtwo views1.77
134
0.78
96
0.79
114
0.76
156
0.70
145
0.51
95
0.49
135
1.23
139
1.31
213
0.84
119
0.76
122
1.06
146
0.76
159
0.67
192
8.95
162
2.41
164
1.91
232
1.42
251
1.30
73
0.88
152
4.99
178
9.14
162
0.51
94
1.03
208
0.77
91
0.82
99
1.85
126
1.10
147
RALAANettwo views1.79
135
0.71
57
0.88
131
0.54
106
0.55
112
0.63
142
0.43
116
1.30
152
0.52
107
0.93
140
0.65
101
0.74
82
0.60
116
0.33
51
8.49
160
1.53
94
0.78
90
0.91
169
2.18
117
1.09
181
3.35
152
15.13
242
0.55
112
0.79
159
0.92
130
1.03
138
2.08
144
0.77
90
CREStereo++_RVCtwo views1.81
136
0.91
145
1.09
183
0.52
101
0.61
121
0.41
63
0.29
71
1.37
170
0.56
116
0.83
116
0.63
97
0.77
88
0.86
185
0.40
84
2.94
75
3.08
177
0.98
144
0.63
71
2.71
148
0.56
56
4.98
177
6.57
138
0.59
138
0.53
84
1.06
156
1.06
144
12.85
303
0.97
125
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
MyStereo04two views1.85
137
0.92
150
1.06
175
0.81
171
0.90
178
0.59
129
0.43
116
1.56
194
0.99
184
2.30
231
0.87
142
1.46
185
0.57
106
0.41
86
3.53
101
2.81
173
0.93
130
1.01
194
5.44
214
2.73
259
4.96
174
6.15
134
1.83
270
0.96
202
1.39
208
1.73
210
2.57
202
0.94
120
AE-Stereotwo views1.87
138
0.86
126
1.31
222
0.82
173
0.55
112
0.58
121
0.78
173
0.83
83
0.49
96
0.79
105
0.54
79
1.31
175
0.72
146
0.52
140
2.79
70
4.03
207
1.04
160
0.97
181
3.06
160
1.16
185
4.60
170
15.60
246
0.55
112
1.04
211
1.33
197
1.34
175
1.95
134
0.86
110
RALCasStereoNettwo views1.87
138
0.84
116
1.02
169
0.54
106
0.55
112
0.62
135
0.48
133
1.48
179
0.46
85
1.01
150
0.74
119
0.92
124
0.50
86
0.36
61
6.19
145
11.19
270
0.81
95
0.76
117
1.55
87
0.68
102
1.46
96
13.06
222
0.52
100
0.66
129
0.94
132
1.13
157
0.96
51
1.14
152
GEStereo_RVCtwo views1.88
140
0.97
173
1.01
166
1.01
197
0.88
176
1.12
212
1.07
197
1.65
205
0.82
165
0.90
134
0.78
130
1.38
179
0.79
169
0.64
182
2.40
54
2.33
157
1.22
187
1.22
235
4.10
194
1.26
197
5.16
182
12.04
209
0.73
189
1.21
223
0.95
135
0.97
127
2.49
190
1.64
191
DeepPruner_ROBtwo views1.89
141
0.77
88
0.97
155
0.86
179
0.91
180
0.80
174
5.39
271
1.26
145
0.91
177
1.47
185
1.61
196
0.92
124
0.82
178
0.56
157
4.41
122
1.54
99
1.07
167
1.06
208
2.72
150
0.80
133
7.63
216
7.36
148
0.87
228
0.77
152
0.91
124
1.47
189
2.20
153
0.99
134
sCroCo_RVCtwo views1.92
142
0.68
48
0.57
81
0.38
54
0.50
92
0.76
169
0.43
116
0.94
105
1.56
232
1.51
186
0.77
126
1.06
146
0.96
202
0.50
136
3.03
80
5.07
225
1.25
192
1.23
236
2.55
133
1.40
205
7.89
225
12.35
213
0.45
64
0.64
120
0.94
132
1.12
154
2.34
171
1.04
141
IGEV-Stereo++two views1.94
143
0.41
23
0.22
17
0.22
18
0.25
28
0.21
17
0.09
10
0.25
10
0.17
18
0.20
10
0.36
48
0.29
7
0.21
29
0.19
16
16.62
203
1.60
109
0.45
14
0.38
16
0.87
45
0.49
40
0.58
24
25.92
311
0.25
23
0.16
12
0.31
9
0.27
20
1.12
65
0.27
18
MoCha-V2two views1.94
143
0.31
14
0.25
23
0.21
16
0.17
17
0.17
10
0.15
31
0.23
7
0.11
1
0.27
19
0.32
34
0.33
11
0.16
14
0.22
26
16.77
205
2.58
167
0.41
8
0.40
21
0.35
2
0.92
158
0.61
27
25.91
310
0.16
8
0.19
20
0.38
15
0.26
16
0.36
3
0.19
2
GMOStereotwo views1.98
145
0.75
75
0.52
68
0.62
126
0.53
102
0.47
77
0.47
129
1.54
188
0.48
90
0.87
124
0.47
60
0.77
88
0.58
110
0.38
73
10.16
172
5.49
231
0.81
95
0.88
158
3.13
164
0.81
138
1.81
121
16.83
262
0.49
80
0.56
89
1.11
165
0.74
90
1.57
102
0.58
55
error versiontwo views1.98
145
0.75
75
0.52
68
0.62
126
0.53
102
0.47
77
0.47
129
1.54
188
0.48
90
0.87
124
0.47
60
0.77
88
0.58
110
0.38
73
10.16
172
5.49
231
0.81
95
0.88
158
3.13
164
0.81
138
1.81
121
16.83
262
0.49
80
0.56
89
1.11
165
0.74
90
1.57
102
0.58
55
test-vtwo views1.98
145
0.75
75
0.52
68
0.62
126
0.53
102
0.47
77
0.47
129
1.54
188
0.48
90
0.87
124
0.47
60
0.77
88
0.58
110
0.38
73
10.16
172
5.49
231
0.81
95
0.88
158
3.13
164
0.81
138
1.81
121
16.83
262
0.49
80
0.56
89
1.11
165
0.74
90
1.57
102
0.58
55
test-2two views1.98
145
0.75
75
0.52
68
0.62
126
0.53
102
0.47
77
0.47
129
1.54
188
0.48
90
0.87
124
0.47
60
0.77
88
0.58
110
0.38
73
10.16
172
5.49
231
0.81
95
0.88
158
3.13
164
0.81
138
1.81
121
16.83
262
0.49
80
0.56
89
1.11
165
0.74
90
1.57
102
0.58
55
RAFT + AFFtwo views2.00
149
0.49
29
0.46
56
0.41
68
0.20
19
0.43
71
0.21
46
0.65
51
0.24
32
0.56
45
0.27
26
0.78
95
0.22
30
0.32
45
39.56
247
0.96
18
0.71
63
0.38
16
1.92
109
0.39
19
0.79
41
1.40
30
0.33
35
0.40
53
0.73
80
0.35
34
0.59
18
0.30
24
MLCVtwo views2.04
150
0.89
139
0.99
159
1.37
231
1.31
220
1.02
203
1.01
191
2.14
246
0.80
162
2.00
216
4.28
240
1.74
203
1.62
229
0.48
124
3.03
80
2.01
140
1.33
199
0.96
178
6.76
243
1.13
183
6.05
193
5.71
121
0.68
172
1.73
243
1.32
196
1.39
179
2.32
168
1.07
143
4D-IteraStereotwo views2.05
151
0.63
39
1.16
197
0.49
91
0.44
77
0.41
63
0.26
61
1.43
175
0.38
60
0.75
86
0.55
83
0.79
98
0.42
67
0.46
120
9.38
166
11.47
276
0.71
63
0.68
87
2.81
153
0.64
81
3.95
158
11.85
206
0.52
100
0.58
97
0.71
78
0.84
104
2.34
171
0.63
70
test_4two views2.06
152
0.75
75
0.84
124
0.43
74
0.36
56
0.36
52
0.27
64
0.78
70
0.34
53
0.75
86
0.53
78
0.91
119
0.35
48
0.41
86
13.80
191
13.16
286
0.68
59
0.72
103
1.64
96
0.61
72
1.21
87
11.03
189
0.48
75
0.52
80
0.66
74
0.71
88
2.72
212
0.61
65
GCAP-BATtwo views2.08
153
0.93
156
0.58
83
0.38
54
0.41
67
0.47
77
0.31
75
1.31
155
0.43
74
0.78
95
0.52
70
2.25
220
0.43
69
0.36
61
3.88
106
6.19
241
13.58
309
0.64
73
2.63
136
0.66
93
8.41
238
5.39
108
0.56
119
0.62
110
0.73
80
0.64
73
2.21
156
0.82
99
test_for_modeltwo views2.08
153
0.93
156
0.58
83
0.38
54
0.41
67
0.47
77
0.31
75
1.31
155
0.43
74
0.78
95
0.52
70
2.25
220
0.43
69
0.36
61
3.88
106
6.19
241
13.58
309
0.64
73
2.63
136
0.66
93
8.41
238
5.39
108
0.56
119
0.62
110
0.73
80
0.64
73
2.21
156
0.82
99
testlalala2two views2.08
153
0.93
156
0.58
83
0.38
54
0.41
67
0.47
77
0.31
75
1.31
155
0.43
74
0.78
95
0.52
70
2.25
220
0.43
69
0.36
61
3.88
106
6.19
241
13.58
309
0.64
73
2.63
136
0.66
93
8.41
238
5.39
108
0.56
119
0.62
110
0.73
80
0.64
73
2.21
156
0.82
99
testlalalatwo views2.08
153
0.93
156
0.58
83
0.38
54
0.41
67
0.47
77
0.31
75
1.31
155
0.43
74
0.78
95
0.52
70
2.25
220
0.43
69
0.36
61
3.88
106
6.19
241
13.58
309
0.64
73
2.63
136
0.66
93
8.41
238
5.39
108
0.56
119
0.62
110
0.73
80
0.64
73
2.21
156
0.82
99
testlalala_basetwo views2.08
153
0.93
156
0.58
83
0.38
54
0.41
67
0.47
77
0.31
75
1.31
155
0.43
74
0.78
95
0.52
70
2.25
220
0.43
69
0.36
61
3.88
106
6.19
241
13.58
309
0.64
73
2.63
136
0.66
93
8.41
238
5.39
108
0.56
119
0.62
110
0.73
80
0.64
73
2.21
156
0.82
99
GCAP-Stereotwo views2.08
153
0.93
156
0.58
83
0.38
54
0.41
67
0.47
77
0.31
75
1.31
155
0.43
74
0.78
95
0.52
70
2.25
220
0.43
69
0.36
61
3.88
106
6.19
241
13.58
309
0.64
73
2.63
136
0.66
93
8.41
238
5.39
108
0.56
119
0.62
110
0.73
80
0.64
73
2.21
156
0.82
99
LALA_ROBtwo views2.09
159
2.18
272
1.21
208
1.07
202
1.32
222
1.18
215
1.12
205
1.19
134
1.45
221
2.05
221
2.76
222
3.68
250
0.92
194
0.96
230
4.76
129
1.53
94
1.45
207
1.18
231
2.60
134
1.36
203
3.60
156
8.26
157
0.80
208
1.16
220
1.35
201
1.44
186
3.89
259
2.12
213
ETE_ROBtwo views2.14
160
1.95
267
1.29
220
1.08
204
1.39
226
1.29
231
1.47
222
1.12
122
2.26
261
1.35
176
3.17
229
3.39
247
0.94
198
1.14
246
5.12
134
1.56
104
2.63
252
0.99
186
2.98
156
1.22
191
4.29
163
8.09
155
0.91
233
1.09
213
1.28
188
1.38
178
2.37
179
1.87
200
DEFOM-Stereo_RVCtwo views2.17
161
0.75
75
0.52
68
0.39
63
0.34
49
0.26
27
0.16
34
0.68
56
0.30
46
0.72
77
0.42
55
0.77
88
0.35
48
0.33
51
17.96
213
9.49
264
0.66
58
0.57
55
1.74
104
0.54
52
1.66
110
16.17
253
0.53
106
0.41
56
0.65
70
0.49
58
0.98
54
0.65
73
DDUNettwo views2.19
162
2.74
279
2.17
265
2.93
275
2.67
275
3.05
273
2.77
250
1.17
129
1.11
199
1.60
191
1.37
192
2.26
227
1.70
230
2.81
277
2.35
53
1.30
65
2.80
257
2.43
296
2.64
142
2.90
263
1.94
131
4.91
95
2.77
280
1.00
205
1.10
162
0.94
121
2.50
191
1.10
147
castereotwo views2.25
163
0.88
135
1.01
166
0.46
87
0.48
84
0.34
44
0.29
71
0.77
65
0.49
96
0.80
109
0.65
101
1.04
142
0.48
80
0.43
103
15.61
199
5.51
235
1.04
160
0.79
122
2.67
143
0.65
88
7.84
223
12.66
218
0.61
146
0.61
106
1.26
185
1.24
168
1.06
59
1.20
162
CASStwo views2.25
163
1.02
195
1.23
211
1.34
229
1.04
193
0.89
185
5.14
268
1.41
173
1.02
191
1.29
173
2.38
220
1.25
167
0.84
181
0.53
143
3.59
102
2.58
167
3.60
263
1.09
213
3.45
181
1.24
195
7.99
227
9.49
164
0.68
172
0.88
185
1.59
233
1.27
169
2.51
192
1.41
178
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
FADNet-RVC-Resampletwo views2.26
165
0.88
135
1.00
162
0.72
149
0.82
171
0.64
143
1.20
211
1.09
119
0.94
179
0.99
148
0.96
154
1.71
202
0.79
169
1.00
233
25.20
223
1.54
99
1.23
189
1.59
259
1.55
87
1.07
178
1.59
107
6.84
142
0.60
143
1.24
225
0.88
118
1.96
231
1.44
85
1.54
183
castereo++two views2.33
166
0.76
84
0.85
126
0.60
121
0.42
74
0.35
47
0.27
64
0.85
88
0.43
74
0.81
112
0.62
95
1.04
142
0.51
89
0.41
86
9.80
168
6.42
248
1.02
155
0.75
115
3.24
170
0.69
106
6.99
205
13.47
227
0.68
172
0.62
110
1.16
175
1.06
144
7.61
287
1.59
187
Anonymous3two views2.34
167
0.87
130
0.96
152
0.57
114
1.20
212
0.90
187
0.70
166
2.43
264
1.12
200
1.04
152
0.97
158
2.57
235
1.18
220
0.58
163
4.83
130
8.57
262
1.53
216
1.46
254
5.31
212
1.61
220
6.76
200
10.34
174
0.73
189
0.71
142
1.11
165
1.40
183
2.31
166
1.33
173
s12784htwo views2.36
168
1.12
210
1.42
229
1.12
206
0.93
182
0.62
135
0.40
110
1.36
168
0.68
148
1.05
155
0.86
139
1.10
153
0.94
198
0.43
103
2.88
73
4.87
221
1.00
150
0.73
106
3.80
187
0.59
67
7.79
220
9.50
165
0.55
112
0.69
135
1.89
251
1.97
232
11.65
299
3.89
250
RYNettwo views2.44
169
0.41
23
0.36
39
0.30
35
0.32
42
0.41
63
0.25
58
0.61
43
0.56
116
0.33
25
0.36
48
0.41
26
0.26
35
0.27
36
52.15
309
0.73
8
0.48
22
1.00
190
0.57
22
0.31
10
0.54
21
0.42
2
0.40
50
0.34
43
0.58
56
1.58
200
1.32
79
0.49
44
NaN_ROBtwo views2.45
170
1.12
210
1.08
181
0.97
189
1.86
256
0.90
187
1.61
224
1.33
162
10.69
312
1.00
149
1.27
182
2.58
236
0.94
198
1.20
250
17.00
207
1.43
78
1.03
157
0.90
167
1.56
90
1.21
190
1.90
127
3.45
72
0.81
209
1.12
217
1.54
230
2.00
235
2.39
181
3.23
241
anonymousdsptwo views2.48
171
0.38
19
0.39
42
0.28
26
0.32
42
0.29
33
0.15
31
0.56
37
0.27
36
0.43
35
18.77
312
0.54
39
0.20
25
0.32
45
13.20
189
1.48
88
0.58
38
0.54
45
0.70
32
0.61
72
0.78
40
23.15
301
0.43
55
0.39
47
0.49
31
0.29
21
1.16
68
0.33
26
ADLNettwo views2.55
172
0.99
183
0.77
111
0.63
131
0.76
153
0.65
145
0.53
141
1.11
121
0.61
132
0.58
50
0.72
115
1.70
201
0.61
117
0.88
220
46.09
274
1.06
30
0.75
74
0.68
87
0.86
42
0.75
119
0.79
41
1.96
49
0.55
112
0.58
97
0.96
138
0.96
124
1.63
113
0.76
89
GwcNet-ADLtwo views2.59
173
1.24
222
1.55
238
1.27
224
1.36
225
0.98
197
0.84
180
1.49
181
0.86
170
3.20
260
6.66
272
2.00
211
1.04
210
0.79
213
3.85
105
4.95
222
1.68
225
0.89
162
5.11
208
2.44
253
6.48
197
11.06
191
0.92
234
1.18
221
1.31
192
1.92
227
2.15
147
2.69
227
CFNet_RVCtwo views2.61
174
0.87
130
0.97
155
0.76
156
0.82
171
0.73
163
0.52
140
0.74
63
0.66
145
0.87
124
1.03
165
0.90
117
0.61
117
0.52
140
44.12
268
1.18
47
0.85
106
0.81
130
2.35
125
0.76
125
1.46
96
2.38
57
0.53
106
0.73
145
0.99
141
1.11
151
1.93
133
1.22
164
test-3two views2.64
175
1.01
191
1.14
192
0.63
131
0.62
129
0.58
121
0.45
122
1.98
234
0.42
68
0.86
121
0.54
79
1.48
187
0.53
92
0.41
86
15.10
195
11.78
278
0.86
111
0.82
135
6.54
235
0.74
116
5.58
186
11.75
204
0.51
94
0.90
190
0.91
124
1.01
132
3.11
229
0.97
125
test_1two views2.64
175
1.01
191
1.14
192
0.63
131
0.62
129
0.58
121
0.45
122
1.98
234
0.42
68
0.86
121
0.54
79
1.48
187
0.53
92
0.41
86
15.10
195
11.82
281
0.86
111
0.82
135
6.53
234
0.74
116
5.60
189
11.75
204
0.50
88
0.90
190
0.91
124
1.01
132
3.11
229
0.98
129
test_3two views2.64
175
1.02
195
1.12
188
0.65
136
0.63
133
0.57
117
0.45
122
1.95
227
0.41
67
0.88
131
0.51
68
1.47
186
0.54
99
0.40
84
14.93
194
11.79
279
0.88
118
0.83
141
6.54
235
0.76
125
5.54
184
11.70
203
0.49
80
0.88
185
0.99
141
1.12
154
3.23
234
0.98
129
Any-RAFTtwo views2.70
178
0.95
169
1.29
220
0.76
156
0.79
163
0.51
95
0.42
112
1.99
236
0.58
123
0.86
121
6.97
286
1.52
191
0.51
89
0.44
110
5.49
139
3.45
190
0.94
134
0.93
173
6.85
249
0.82
144
14.24
303
11.16
193
0.70
181
0.78
157
1.62
235
1.89
224
2.28
165
4.18
252
FADNet-RVCtwo views2.70
178
0.72
63
0.93
146
0.78
163
1.09
201
0.60
132
2.77
250
0.92
101
0.62
134
1.01
150
0.73
118
1.50
189
0.65
130
0.62
174
38.99
244
1.71
117
0.92
125
0.91
169
2.27
123
1.57
217
2.69
146
4.17
83
0.53
106
0.80
160
1.47
220
1.12
154
1.45
89
1.38
175
UCFNet_RVCtwo views2.81
180
1.27
228
0.90
136
0.89
182
0.94
185
0.78
173
0.62
154
0.78
70
0.68
148
0.91
136
0.80
132
1.29
172
1.02
208
0.50
136
42.02
262
1.15
41
0.85
106
0.83
141
6.67
239
0.85
150
1.51
102
2.89
67
1.15
245
0.75
147
1.10
162
1.14
158
1.58
106
2.10
212
PWCDC_ROBbinarytwo views2.81
180
0.72
63
0.69
102
0.63
131
0.95
186
0.69
154
0.70
166
1.04
116
1.58
233
0.64
62
1.84
204
0.91
119
3.56
261
0.77
209
39.21
245
2.17
148
1.31
197
0.99
186
1.59
94
1.01
174
3.34
151
5.82
127
0.72
184
0.87
178
0.77
91
0.94
121
1.13
66
1.19
160
cross-rafttwo views2.82
182
0.91
145
1.18
203
0.75
155
0.90
178
0.66
147
0.46
126
2.03
242
0.61
132
0.95
145
1.42
194
1.08
152
0.76
159
0.53
143
8.24
159
5.88
238
1.09
169
0.80
127
6.99
252
2.68
258
12.15
273
17.17
271
0.72
184
0.78
157
1.60
234
1.91
225
1.66
114
2.34
220
FADNettwo views2.84
183
0.83
112
0.90
136
0.83
174
1.04
193
0.62
135
2.08
236
0.99
110
0.76
159
0.92
139
0.92
152
1.18
162
0.78
167
0.76
205
40.37
253
1.50
90
0.97
143
1.03
198
2.68
145
1.57
217
3.20
150
5.00
97
0.51
94
0.68
133
1.58
232
1.68
207
1.54
99
1.82
196
NVstereo2Dtwo views2.85
184
0.83
112
0.80
117
0.70
145
0.80
166
0.92
191
0.81
176
1.18
133
0.76
159
0.93
140
1.03
165
0.81
103
0.55
102
0.72
201
52.45
311
1.56
104
0.94
134
0.87
154
1.64
96
0.72
114
1.14
78
1.60
40
0.76
200
0.87
178
1.08
159
0.79
95
1.01
55
0.75
85
iResNettwo views2.85
184
0.97
173
0.97
155
1.43
237
1.80
251
1.47
239
1.12
205
1.81
219
1.13
201
2.59
242
4.97
251
1.93
207
2.37
241
0.49
128
10.52
178
7.03
253
1.43
206
1.23
236
6.83
248
1.98
240
10.31
259
4.92
96
0.64
158
2.13
264
1.14
172
1.54
196
2.80
215
1.38
175
PWC_ROBbinarytwo views2.85
184
1.23
220
1.47
235
0.98
190
1.11
203
1.27
229
1.99
234
1.27
147
1.94
252
1.81
205
3.58
236
2.35
230
3.05
254
1.01
234
14.14
193
4.27
210
2.10
243
1.91
276
3.81
188
1.66
222
5.64
190
8.18
156
0.85
222
2.03
258
1.36
204
1.46
187
3.11
229
3.25
242
AnonymousMtwo views2.90
187
0.65
42
0.48
61
0.51
98
0.33
46
0.52
101
0.24
53
1.70
209
0.47
86
0.75
86
4.40
245
0.71
71
0.46
77
0.47
122
2.68
64
3.64
201
1.18
183
1.04
200
1.95
112
3.61
277
4.88
173
12.46
214
0.67
169
0.66
129
0.60
63
1.21
163
15.66
310
16.35
294
Reg-Stereo(zero)two views2.93
188
0.81
106
1.58
240
0.71
146
1.46
230
0.57
117
0.70
166
3.61
289
0.69
151
3.55
268
6.85
280
1.53
192
0.84
181
1.60
262
4.30
119
5.29
228
3.30
261
0.83
141
6.52
232
1.87
233
5.58
186
14.63
238
0.72
184
0.70
139
1.08
159
1.51
190
4.73
267
3.62
246
HItwo views2.93
188
0.81
106
1.58
240
0.71
146
1.46
230
0.57
117
0.70
166
3.61
289
0.69
151
3.55
268
6.85
280
1.53
192
0.84
181
1.60
262
4.30
119
5.29
228
3.30
261
0.83
141
6.52
232
1.87
233
5.58
186
14.63
238
0.72
184
0.70
139
1.08
159
1.51
190
4.73
267
3.62
246
anonymousdsp2two views2.94
190
0.84
116
0.87
130
0.43
74
0.45
79
0.58
121
0.34
93
1.16
128
0.38
60
0.66
67
21.85
313
0.70
70
0.41
64
0.59
165
13.83
192
3.60
198
0.76
77
0.71
98
2.22
120
1.35
202
1.52
105
21.23
296
0.43
55
0.62
110
0.79
98
0.50
61
1.85
126
0.65
73
MIPNettwo views2.96
191
0.92
150
0.91
139
0.50
95
0.67
143
0.56
112
0.61
153
1.33
162
0.54
112
2.05
221
0.97
158
0.83
105
0.81
174
0.49
128
40.68
255
1.72
119
1.31
197
0.97
181
3.26
171
1.24
195
1.50
101
9.35
163
0.59
138
1.03
208
1.35
201
1.98
233
2.90
220
0.81
97
LG-Stereo_Zeroshottwo views3.00
192
1.05
202
0.53
73
1.39
233
2.50
271
3.17
274
1.07
197
1.71
210
0.96
182
4.82
294
5.49
260
4.83
268
0.65
130
0.42
96
4.72
128
5.74
236
0.84
105
0.80
127
2.69
146
1.13
183
7.99
227
20.11
294
0.60
143
0.42
59
0.87
115
1.39
179
1.98
137
3.06
236
RAFT-Stereo + iAFFtwo views3.00
192
0.73
70
0.91
139
0.43
74
0.41
67
0.58
121
0.28
69
0.99
110
0.60
129
1.54
187
0.59
90
0.80
101
0.40
59
0.28
38
44.82
270
1.22
53
0.69
60
0.53
42
2.71
148
0.62
76
2.23
138
13.76
235
0.50
88
0.59
100
0.90
122
0.75
94
2.54
198
0.66
77
IPLGtwo views3.07
194
0.76
84
0.72
104
0.43
74
0.54
108
0.56
112
0.53
141
1.62
200
0.36
59
0.62
59
0.58
89
0.79
98
0.68
137
0.49
128
50.96
300
1.74
123
1.12
175
0.97
181
3.52
182
0.64
81
1.11
75
6.45
136
0.52
100
0.82
164
0.92
130
1.91
225
2.86
217
0.71
81
DAStwo views3.10
195
1.00
189
1.10
185
1.19
218
1.08
196
1.08
209
1.21
212
1.75
212
1.79
247
3.25
261
5.47
257
2.72
239
3.29
258
0.55
153
5.31
135
7.12
254
2.42
250
1.23
236
6.24
227
1.85
231
12.96
283
10.93
184
0.78
203
1.97
253
1.37
206
1.75
211
2.60
203
1.57
184
SepStereotwo views3.10
195
1.00
189
1.10
185
1.19
218
1.08
196
1.08
209
1.21
212
1.75
212
1.79
247
3.25
261
5.47
257
2.72
239
3.29
258
0.55
153
5.31
135
7.12
254
2.42
250
1.23
236
6.24
227
1.85
231
12.96
283
10.93
184
0.78
203
1.97
253
1.37
206
1.75
211
2.60
203
1.57
184
GANet-ADLtwo views3.14
197
0.92
150
1.31
222
1.05
201
1.05
195
1.24
226
0.92
186
1.20
135
1.01
187
3.66
274
6.58
271
1.07
151
0.81
174
0.49
128
11.53
182
4.97
224
1.73
226
0.91
169
6.57
237
2.05
244
8.13
230
18.07
283
0.71
182
0.95
200
1.11
165
1.99
234
2.91
221
1.84
198
DCVSM-stereotwo views3.15
198
0.94
164
1.56
239
1.37
231
1.08
196
1.54
241
1.01
191
3.02
278
1.32
214
3.44
265
6.18
265
6.76
284
2.79
249
0.90
223
5.98
142
4.29
211
1.47
211
1.10
215
7.68
257
3.59
275
6.97
204
8.61
160
1.23
247
2.64
283
1.46
216
2.00
235
3.57
247
2.42
222
AFF-stereotwo views3.18
199
0.71
57
0.65
96
0.31
37
0.33
46
0.55
110
0.23
49
0.87
93
0.42
68
1.36
177
0.46
58
0.67
61
0.35
48
0.26
34
46.76
278
1.18
47
0.62
52
0.86
150
2.87
154
0.45
29
4.82
172
15.89
251
0.44
60
0.47
72
0.82
104
0.68
86
2.38
180
0.56
51
pcwnet_v2two views3.23
200
0.83
112
0.97
155
0.93
183
1.14
206
0.96
194
0.69
165
1.17
129
0.87
173
2.03
218
1.10
171
1.29
172
1.08
213
1.26
253
45.42
271
1.62
110
1.08
168
0.89
162
6.88
250
0.84
149
3.07
148
4.23
84
1.04
240
0.91
193
1.05
155
1.19
161
2.44
184
2.19
217
RTSCtwo views3.28
201
0.98
179
1.45
233
0.78
163
0.96
190
1.01
202
2.41
244
1.17
129
1.33
215
2.40
237
2.02
215
1.27
169
1.03
209
1.14
246
40.84
258
3.19
181
1.99
235
1.31
247
4.15
195
1.44
209
3.49
154
5.65
119
0.68
172
1.18
221
1.17
176
1.04
141
2.44
184
2.09
210
GREAT-IGEVtwo views3.32
202
0.37
18
0.22
17
0.15
10
0.12
3
0.16
5
0.09
10
0.31
15
9.28
308
0.33
25
0.18
12
0.44
30
0.19
21
0.21
22
18.63
215
22.84
317
0.49
25
0.32
8
0.45
13
0.59
67
0.50
14
31.41
321
0.25
23
0.30
36
0.30
6
0.25
12
0.90
46
0.23
7
RAFT-Testtwo views3.32
202
0.86
126
1.22
210
1.02
198
0.82
171
0.59
129
0.58
150
2.18
250
0.70
154
1.12
160
7.31
291
1.02
141
0.91
193
0.59
165
9.35
165
11.60
277
1.14
178
0.81
130
7.01
253
1.28
198
10.82
266
17.19
272
0.76
200
0.77
152
1.51
226
4.92
276
1.38
81
2.16
216
CSANtwo views3.35
204
1.35
238
1.16
197
1.52
242
2.04
264
1.26
228
7.98
283
1.54
188
10.46
309
2.39
236
3.42
233
5.12
273
2.55
245
1.14
246
8.20
158
1.38
73
1.73
226
1.10
215
3.33
178
1.72
226
6.90
202
10.63
179
0.82
213
1.50
235
1.94
255
3.78
269
2.45
186
2.93
232
AEACVtwo views3.45
205
0.93
156
0.35
36
0.29
30
0.21
22
0.27
30
0.12
21
0.28
11
0.14
6
0.24
14
0.24
23
0.36
17
0.22
30
0.21
22
30.09
230
24.13
319
0.59
41
0.46
29
1.65
101
0.91
157
0.89
53
28.36
317
0.27
25
0.21
23
0.36
13
0.31
24
0.63
23
0.28
22
MFMNet_retwo views3.46
206
1.42
243
1.49
236
1.53
243
1.89
258
2.00
255
2.86
253
2.64
272
2.15
258
1.61
192
1.95
209
3.90
252
2.80
250
1.04
237
16.75
204
4.11
208
2.68
254
1.96
277
6.65
238
2.58
257
14.03
298
5.20
103
1.88
271
2.03
258
1.41
210
1.32
174
3.30
238
2.21
218
R-Stereo Traintwo views3.50
207
1.01
191
1.23
211
1.00
193
0.66
140
0.77
170
0.32
86
1.30
152
1.01
187
1.63
194
4.33
241
1.34
176
0.71
143
0.42
96
34.59
235
4.42
215
1.66
223
1.02
196
6.76
243
1.16
185
7.74
218
13.63
230
0.52
100
0.64
120
1.53
228
1.66
205
1.39
82
1.92
204
RAFT-Stereopermissivetwo views3.50
207
1.01
191
1.23
211
1.00
193
0.66
140
0.77
170
0.32
86
1.30
152
1.01
187
1.63
194
4.33
241
1.34
176
0.71
143
0.42
96
34.59
235
4.42
215
1.66
223
1.02
196
6.76
243
1.16
185
7.74
218
13.63
230
0.52
100
0.64
120
1.53
228
1.66
205
1.39
82
1.92
204
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MSMDNettwo views3.50
207
0.89
139
1.16
197
0.58
117
0.75
152
0.62
135
0.50
136
2.02
239
0.62
134
1.04
152
1.76
200
1.11
154
12.05
288
0.61
169
12.99
188
10.73
268
1.17
182
0.81
130
6.92
251
1.46
212
11.45
271
17.23
273
0.72
184
0.84
169
1.47
220
1.81
217
1.28
75
1.94
206
AIO_rvctwo views3.52
210
0.72
63
0.41
46
0.34
43
0.22
24
0.35
47
0.17
38
0.57
39
0.28
41
0.38
31
0.22
20
0.56
43
0.25
33
0.29
39
23.43
220
18.50
311
0.51
28
0.48
32
2.01
114
0.55
54
0.84
47
41.45
324
0.49
80
0.23
28
0.51
36
0.29
21
0.74
34
0.33
26
FADNet_RVCtwo views3.56
211
1.23
220
1.25
216
1.44
238
1.84
253
1.07
208
1.92
233
1.49
181
1.21
208
1.36
177
1.98
213
2.15
213
1.78
232
1.70
265
24.01
221
3.18
180
2.07
242
2.72
299
5.67
221
1.96
239
6.65
198
9.51
166
0.82
213
1.59
238
1.21
181
1.51
190
12.03
300
2.86
231
EGLCR-Stereotwo views3.59
212
0.87
130
1.26
217
0.45
84
0.49
89
0.62
135
0.24
53
0.84
86
1.44
219
0.72
77
3.96
237
0.80
101
0.65
130
0.51
138
4.34
121
8.11
261
1.11
171
1.11
218
3.53
183
0.71
112
5.00
179
35.96
323
0.56
119
0.71
142
1.01
145
0.91
118
20.20
313
0.86
110
IPLGRtwo views3.62
213
0.90
142
0.93
146
0.65
136
0.68
144
0.51
95
0.44
121
1.14
126
0.45
81
2.02
217
1.29
184
0.88
112
0.76
159
0.48
124
49.71
290
1.92
134
1.37
204
1.13
219
3.29
174
1.45
210
3.00
147
15.33
244
0.59
138
1.08
212
1.51
226
1.93
229
3.46
243
0.91
118
SHDtwo views3.64
214
1.05
202
2.15
264
1.16
214
1.24
213
1.21
221
2.45
245
1.63
203
1.66
236
2.43
238
2.96
224
1.83
204
2.53
244
0.95
229
39.82
249
3.82
204
1.89
231
1.51
255
4.16
196
2.08
247
5.74
191
5.69
120
0.74
195
1.99
255
1.92
254
1.81
217
1.97
136
1.86
199
HHtwo views3.66
215
0.67
46
1.44
230
0.83
174
0.81
168
0.96
194
1.10
201
1.85
222
0.86
170
5.18
304
5.29
254
1.95
208
0.86
185
0.61
169
11.66
184
15.16
302
0.99
147
1.04
200
6.30
229
3.12
269
13.50
294
13.59
228
0.86
223
0.94
198
1.45
214
1.81
217
3.81
257
2.04
207
HanStereotwo views3.66
215
0.67
46
1.44
230
0.83
174
0.81
168
0.96
194
1.10
201
1.85
222
0.86
170
5.18
304
5.29
254
1.95
208
0.86
185
0.61
169
11.66
184
15.16
302
0.99
147
1.04
200
6.30
229
3.12
269
13.50
294
13.59
228
0.86
223
0.94
198
1.45
214
1.81
217
3.81
257
2.04
207
RTStwo views3.66
215
1.19
213
1.07
179
0.99
191
1.30
218
1.36
233
3.80
261
1.35
165
1.49
227
2.37
233
1.17
177
1.84
205
1.14
218
1.07
239
42.35
263
3.22
182
2.05
240
1.43
252
4.07
192
1.94
237
4.46
165
5.32
104
1.05
241
1.34
230
1.91
252
5.04
277
2.33
169
2.12
213
RTSAtwo views3.66
215
1.19
213
1.07
179
0.99
191
1.30
218
1.36
233
3.80
261
1.35
165
1.49
227
2.37
233
1.17
177
1.84
205
1.14
218
1.07
239
42.35
263
3.22
182
2.05
240
1.43
252
4.07
192
1.94
237
4.46
165
5.32
104
1.05
241
1.34
230
1.91
252
5.04
277
2.33
169
2.12
213
MSKI-zero shottwo views3.77
219
0.85
122
1.15
195
0.73
150
0.63
133
0.68
152
0.56
143
1.86
224
0.94
179
0.88
131
6.74
274
1.62
198
0.71
143
0.43
103
15.96
201
13.56
289
1.52
214
1.01
194
6.81
247
8.64
305
10.46
262
16.23
254
0.59
138
0.87
178
1.50
224
1.95
230
1.85
126
3.10
237
HSM-Net_RVCpermissivetwo views3.81
220
1.09
207
1.14
192
1.82
249
1.25
215
0.94
192
0.70
166
2.28
259
1.07
196
2.74
247
5.68
262
38.55
319
1.46
228
0.55
153
5.03
132
1.95
135
1.20
185
0.79
122
1.99
113
1.22
191
7.13
208
13.94
237
0.84
218
2.30
267
1.64
236
1.51
190
2.21
156
1.75
195
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HUFtwo views3.84
221
0.71
57
0.57
81
0.35
45
0.26
31
0.29
33
0.17
38
0.80
75
0.29
44
0.49
41
0.29
29
0.61
50
0.43
69
0.29
39
28.08
227
23.64
318
0.61
49
0.62
65
5.18
209
0.63
78
1.76
117
34.41
322
0.50
88
0.52
80
0.56
49
0.33
29
0.79
40
0.47
40
XQCtwo views3.85
222
1.31
232
1.36
226
1.30
227
1.53
234
1.33
232
2.55
247
1.62
200
1.46
223
2.54
240
3.01
226
1.69
200
4.90
264
1.38
258
44.59
269
3.43
189
1.76
228
1.35
249
3.99
191
1.75
227
4.57
169
5.16
101
0.89
232
1.42
233
2.05
258
2.68
252
2.31
166
2.06
209
FCDSN-DCtwo views3.99
223
0.97
173
2.81
285
1.39
233
1.40
228
1.15
214
1.19
210
0.91
100
0.91
177
1.04
152
0.72
115
1.58
197
0.75
154
0.63
178
52.37
310
2.42
165
1.30
196
1.13
219
1.11
64
0.80
133
7.88
224
16.59
259
0.81
209
2.41
275
1.31
192
1.68
207
1.29
76
1.11
149
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
UDGtwo views4.03
224
2.77
280
2.35
274
2.93
275
2.67
275
3.00
272
2.72
249
1.31
155
1.13
201
1.64
196
1.94
208
2.23
218
1.70
230
2.77
275
48.50
285
1.67
116
3.08
259
2.35
289
2.67
143
2.91
264
3.58
155
5.04
98
2.66
275
1.23
224
1.07
158
1.28
171
2.36
175
1.15
155
test-1two views4.23
225
0.69
50
1.20
207
0.60
121
0.60
119
0.75
167
0.64
157
1.95
227
0.80
162
4.00
282
5.47
257
2.20
216
0.79
169
0.41
86
24.74
222
12.65
285
1.45
207
1.51
255
6.68
240
6.25
296
10.73
265
20.07
293
0.58
132
0.87
178
1.46
216
1.76
215
2.89
219
2.51
224
IGEV_Zeroshot_testtwo views4.26
226
0.84
116
1.93
256
2.97
279
0.71
147
3.42
277
1.32
218
2.22
254
1.67
237
4.20
285
6.87
282
2.33
229
1.00
207
0.48
124
9.28
164
11.41
274
1.04
160
0.84
146
5.57
217
4.84
285
8.38
236
21.42
297
0.65
162
0.84
169
1.46
216
1.58
200
14.79
307
2.96
234
DeepPrunerFtwo views4.26
226
1.62
256
0.74
106
2.93
275
4.99
308
2.40
263
3.44
256
0.88
94
3.92
285
0.79
105
1.16
175
0.71
71
0.57
106
0.63
178
43.07
267
2.04
142
1.04
160
0.87
154
2.42
129
0.92
158
1.80
118
2.10
53
0.88
231
0.82
164
28.99
315
1.77
216
2.48
188
1.16
158
EKT-Stereotwo views4.27
228
0.97
173
1.18
203
0.73
150
0.77
157
0.89
185
1.18
208
2.02
239
1.53
231
1.56
189
4.82
249
1.25
167
0.80
173
0.54
150
31.80
233
14.62
297
1.26
193
1.36
250
5.54
216
7.66
301
9.42
252
17.09
270
0.57
129
0.75
147
1.41
210
1.82
221
2.56
200
1.07
143
PVDtwo views4.32
229
1.44
247
2.25
269
1.41
235
1.77
248
1.75
248
2.70
248
3.05
279
2.66
268
3.00
255
4.25
239
2.70
238
3.99
262
1.37
257
39.86
250
3.83
205
2.30
249
2.28
283
4.67
202
2.74
260
7.12
207
6.88
143
1.06
243
1.88
251
3.05
272
2.71
253
2.99
223
2.93
232
MFN_U_SF_DS_RVCtwo views4.37
230
1.52
251
1.06
175
2.01
257
1.95
261
2.24
260
6.41
277
2.14
246
2.21
259
1.72
202
1.55
195
2.74
242
6.14
268
6.25
297
28.17
228
1.81
127
1.51
212
1.06
208
5.38
213
1.78
228
12.52
275
8.92
161
1.51
264
1.25
227
2.26
261
3.39
265
3.05
226
7.55
275
AIO_testtwo views4.46
231
0.79
100
0.51
66
0.44
82
0.25
28
0.36
52
0.21
46
0.61
43
0.27
36
0.42
34
0.32
34
0.58
45
0.28
37
0.32
45
31.53
232
28.68
323
0.53
29
0.47
30
1.35
76
0.56
56
1.06
71
47.74
328
0.48
75
0.26
32
0.52
40
0.49
58
1.04
56
0.35
29
gcap-zeroshottwo views4.50
232
0.79
100
1.44
230
1.90
252
0.76
153
1.22
223
2.14
237
2.08
245
0.63
137
5.43
314
7.06
288
2.92
243
0.70
141
0.41
86
13.38
190
11.02
269
1.21
186
1.09
213
36.04
300
1.48
213
8.46
244
11.16
193
3.53
286
0.89
189
1.44
213
1.46
187
1.34
80
1.49
182
FC-DCNNcopylefttwo views4.51
233
1.62
256
4.08
299
2.84
273
2.39
267
3.98
280
10.51
297
2.63
271
1.71
239
2.88
249
1.36
190
4.19
261
1.34
224
0.70
197
7.04
147
2.00
138
1.35
202
1.04
200
9.58
266
0.98
169
9.23
250
16.30
255
0.86
223
1.84
247
4.65
283
2.21
243
7.62
288
16.90
296
FAT-Stereotwo views4.52
234
1.20
217
2.24
267
1.53
243
1.85
255
1.44
237
1.59
223
3.56
288
1.83
249
3.65
272
6.20
266
6.73
283
2.83
252
1.06
238
10.97
180
14.80
299
2.18
245
2.42
294
5.19
210
8.70
307
13.23
289
13.14
223
0.95
236
2.77
292
1.34
199
2.22
244
3.04
225
5.45
264
PSMNet-ADLtwo views4.56
235
0.97
173
1.17
201
1.19
218
1.28
216
1.04
205
0.92
186
1.77
216
1.26
210
3.47
266
6.08
264
1.51
190
3.10
257
0.57
160
51.86
307
9.30
263
1.51
212
0.96
178
5.92
224
1.28
198
6.83
201
12.62
217
0.87
228
0.88
185
1.17
176
1.43
185
3.02
224
1.17
159
NOSS_ROBtwo views4.59
236
1.38
242
0.84
124
1.18
215
1.29
217
1.18
215
0.68
164
2.34
262
1.43
218
4.86
295
6.67
273
6.78
285
1.06
212
10.45
305
17.10
208
14.19
293
1.64
219
1.16
225
3.03
157
1.02
175
14.13
299
17.92
280
0.82
213
1.66
241
1.27
187
4.91
275
3.40
241
1.44
180
SAMSARAtwo views4.67
237
1.33
235
1.79
248
1.51
241
1.56
239
1.58
242
3.79
260
2.22
254
1.93
251
2.38
235
3.37
232
2.12
212
9.35
276
2.02
270
37.97
242
5.46
230
2.03
239
1.62
261
4.95
205
2.84
262
6.73
199
6.13
133
1.00
237
2.01
256
4.21
282
6.28
286
4.36
262
5.44
263
AIO-Stereo-zeroshotpermissivetwo views4.68
238
1.27
228
2.35
274
1.21
223
1.52
233
1.82
252
1.18
208
2.02
239
7.37
302
3.67
275
7.12
289
2.40
231
1.99
235
0.42
96
5.56
140
11.42
275
1.54
217
1.15
222
6.68
240
6.15
295
8.32
233
17.95
281
0.64
158
1.37
232
1.74
244
7.67
292
16.62
311
5.12
260
ITSA-stereotwo views4.84
239
1.28
230
1.23
211
1.66
247
1.71
245
1.05
206
4.19
265
2.00
237
1.47
224
3.70
276
6.77
275
2.20
216
1.42
226
1.36
256
17.32
209
6.64
251
2.71
256
1.88
273
6.39
231
4.78
283
7.50
213
10.94
186
1.25
251
2.52
278
1.54
230
4.85
274
23.59
315
8.62
276
ADCReftwo views4.89
240
1.42
243
1.03
171
0.78
163
1.79
249
1.25
227
1.80
227
1.00
112
5.53
296
1.84
207
1.05
167
1.16
161
0.93
196
1.23
252
53.67
315
2.00
138
1.15
180
1.05
205
3.90
190
1.36
203
2.10
134
4.11
82
2.09
272
1.09
213
2.26
261
4.58
270
2.46
187
29.47
313
FC-DCNN v2copylefttwo views4.90
241
1.67
258
4.09
300
2.95
278
2.41
268
4.23
284
10.50
296
3.34
281
2.69
269
2.88
249
1.36
190
4.20
262
2.16
238
0.70
197
7.18
150
2.02
141
1.35
202
1.03
198
9.59
268
0.98
169
9.12
249
16.72
261
0.86
223
1.79
244
5.94
289
3.28
263
12.65
302
16.55
295
MADNet+two views4.92
242
2.05
270
1.88
253
2.10
260
2.41
268
1.62
245
5.57
272
2.53
268
2.09
255
2.66
245
2.11
216
4.11
258
2.91
253
2.54
273
41.01
259
5.19
226
4.09
267
1.69
263
4.60
201
3.68
278
13.15
288
7.71
149
1.76
268
3.65
307
3.07
273
2.16
241
3.24
236
3.28
243
MFN_U_SF_RVCtwo views5.03
243
1.91
266
1.84
250
2.23
265
1.92
260
2.67
267
6.14
274
2.41
263
1.98
254
4.44
288
10.81
309
4.14
260
2.48
243
4.92
293
32.71
234
3.59
197
2.29
248
1.81
270
11.46
275
3.54
274
7.96
226
7.26
147
1.24
250
3.78
309
1.85
248
3.74
268
2.83
216
3.90
251
SGM-Foresttwo views5.08
244
1.24
222
0.79
114
2.11
261
1.57
240
1.42
235
0.58
150
1.40
171
0.90
175
4.89
297
0.91
151
2.72
239
12.97
291
0.64
182
17.84
212
3.50
191
0.87
113
0.68
87
9.60
269
0.82
144
7.51
214
17.96
282
0.87
228
1.09
213
1.69
241
1.75
211
5.90
274
34.83
318
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCP+two views5.11
245
1.52
251
1.70
246
1.08
204
1.55
236
1.22
223
2.28
238
1.03
115
2.69
269
3.96
281
2.19
219
2.25
220
0.63
123
0.98
232
54.20
317
1.53
94
0.87
113
0.96
178
4.27
197
0.95
163
2.45
141
3.80
76
0.74
195
0.80
160
2.41
266
11.13
298
7.77
289
23.00
303
MSC_U_SF_DS_RVCtwo views5.15
246
2.25
276
1.46
234
2.42
267
2.07
265
2.04
257
5.18
269
1.97
231
2.61
265
2.96
253
1.93
207
3.79
251
10.20
279
10.36
304
27.56
226
3.55
195
3.01
258
1.99
278
14.19
278
3.59
275
7.40
211
9.91
169
2.85
282
1.93
252
2.42
268
2.82
254
2.19
152
6.53
272
S-Stereotwo views5.20
247
1.19
213
1.90
255
1.82
249
1.73
247
1.68
246
2.29
240
2.74
276
2.14
257
3.32
263
13.02
310
5.98
278
1.85
233
0.89
221
28.39
229
16.06
306
1.91
232
2.35
289
5.62
219
9.27
312
7.51
214
15.02
241
1.62
265
2.70
286
1.33
197
2.06
239
2.88
218
3.20
240
FBW_ROBtwo views5.25
248
2.41
277
2.49
277
2.72
271
2.98
285
2.61
266
6.30
276
1.78
217
1.10
198
2.52
239
2.82
223
4.91
271
8.67
273
6.67
298
49.93
293
1.28
63
1.82
230
0.97
181
9.21
264
1.68
223
9.07
247
5.89
129
4.29
290
1.84
247
1.48
222
1.92
227
1.81
122
2.56
225
EAI-Stereotwo views5.34
249
1.04
199
2.30
272
1.02
198
1.55
236
0.85
180
1.91
232
2.21
253
2.99
274
0.81
112
6.93
285
1.39
180
0.83
180
0.54
150
26.39
224
49.22
327
1.18
183
1.17
227
7.74
259
1.54
216
8.92
246
12.00
208
0.78
203
2.02
257
1.46
216
2.24
245
3.36
240
1.89
202
iRaft-Stereo_20wtwo views5.41
250
1.35
238
2.82
286
2.69
269
1.55
236
1.58
242
1.23
215
1.96
229
3.24
280
5.53
315
7.00
287
1.55
194
1.33
223
0.55
153
6.14
143
9.93
265
1.65
222
0.87
154
6.14
226
5.54
290
8.40
237
20.46
295
0.73
189
0.87
178
1.71
242
34.19
321
11.64
298
5.53
266
ccs_robtwo views5.44
251
1.11
209
1.53
237
1.20
221
0.97
191
1.19
218
1.07
197
2.86
277
1.25
209
4.19
283
35.07
319
8.65
296
1.42
226
0.76
205
35.68
238
6.12
240
1.64
219
1.17
227
5.87
223
1.60
219
10.36
261
12.86
220
0.76
200
2.22
266
1.10
162
1.34
175
2.64
208
2.22
219
CBMVpermissivetwo views5.62
252
1.43
245
1.24
215
1.61
245
1.61
241
1.96
253
2.28
238
3.43
282
1.48
225
3.08
257
6.42
269
7.79
289
9.12
274
0.62
174
17.34
210
13.54
288
2.64
253
1.27
244
9.58
266
1.19
188
10.31
259
16.88
267
0.86
223
2.04
261
1.64
236
1.86
222
4.52
263
26.08
308
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
model_zeroshottwo views5.64
253
0.77
88
1.32
224
1.93
254
0.99
192
0.64
143
0.62
154
1.94
226
0.65
144
3.86
279
6.90
283
1.45
184
0.65
130
0.66
189
15.20
198
14.91
300
1.28
194
1.06
208
7.09
254
1.05
176
13.05
287
25.85
308
0.63
155
0.75
147
39.07
326
1.65
204
2.16
149
6.16
270
ADCLtwo views5.74
254
1.87
264
1.62
243
1.28
225
1.42
229
1.61
244
2.34
243
1.29
150
5.06
294
3.00
255
1.99
214
1.30
174
0.87
188
1.13
245
49.88
292
1.73
122
1.64
219
1.77
267
3.04
158
1.41
206
3.47
153
3.84
78
1.23
247
1.32
229
9.34
302
11.37
299
11.30
297
28.87
312
ADCMidtwo views5.86
255
2.21
274
2.60
279
1.42
236
2.94
284
2.42
264
4.52
266
1.96
229
2.94
273
1.88
210
3.14
228
2.67
237
2.81
251
1.59
261
50.47
297
3.62
200
2.00
237
1.84
272
7.49
256
2.45
254
5.56
185
8.48
159
2.66
275
1.57
237
2.29
263
8.47
294
7.21
285
20.87
301
AnyNet_C32two views6.19
256
1.45
248
1.40
227
1.28
225
1.69
244
1.43
236
3.69
259
1.56
194
5.23
295
2.63
243
4.52
246
2.23
218
1.34
224
1.41
259
54.68
318
3.51
192
2.24
247
2.06
282
3.81
188
1.98
240
7.39
210
11.40
198
1.23
247
1.87
249
5.90
288
14.50
302
6.04
277
20.74
300
DPSNettwo views6.19
256
1.58
254
1.40
227
1.82
249
2.77
278
2.27
261
2.04
235
1.97
231
2.91
272
2.12
226
5.08
252
10.47
307
6.82
271
8.77
301
19.95
217
11.92
284
5.92
276
3.73
308
17.76
284
9.60
314
12.18
274
17.85
278
3.88
288
3.21
302
2.31
264
3.71
267
2.62
205
2.45
223
DDVStwo views6.28
258
1.19
213
1.34
225
1.13
208
1.54
235
1.21
221
1.06
194
2.48
265
1.74
241
3.43
264
79.09
327
6.13
279
1.94
234
1.15
249
10.44
176
6.06
239
2.12
244
1.31
247
5.58
218
4.97
287
9.98
257
13.68
232
0.82
213
1.24
225
1.22
183
1.52
194
4.65
264
2.63
226
G-Nettwo views6.30
259
1.67
258
1.86
251
1.46
240
1.83
252
1.49
240
1.31
217
4.92
302
8.45
305
3.15
258
4.65
247
7.94
290
6.81
270
0.87
219
16.87
206
7.83
258
1.93
234
2.71
298
5.65
220
6.44
298
9.07
247
11.41
199
1.44
258
2.80
294
1.78
246
18.73
309
6.49
281
30.54
314
otakutwo views6.32
260
5.21
302
2.43
276
18.55
308
3.05
287
6.58
300
5.21
270
1.43
175
1.44
219
1.31
175
1.39
193
3.94
255
2.76
246
3.25
282
26.81
225
1.43
78
10.64
292
1.19
232
20.32
290
1.71
225
13.88
297
11.69
202
11.83
320
2.03
258
1.64
236
2.05
237
2.52
194
6.37
271
SANettwo views6.32
260
2.20
273
1.79
248
2.07
259
2.63
274
3.36
275
10.20
293
4.41
300
7.43
303
2.04
219
4.35
243
8.33
293
12.55
289
1.80
267
47.09
280
1.72
119
6.07
277
1.51
255
4.45
198
1.81
230
9.80
254
10.36
175
1.21
246
2.72
290
2.04
257
5.93
285
3.67
250
9.02
277
RainbowNettwo views6.38
262
3.77
294
2.95
289
4.59
288
3.15
290
4.28
285
10.99
303
2.04
243
1.97
253
1.89
213
1.11
172
3.92
254
3.08
256
3.63
287
42.37
265
1.96
136
4.60
269
1.56
258
16.57
283
8.71
308
11.66
272
11.28
197
10.57
315
2.32
268
2.23
260
2.29
247
2.78
214
6.05
269
pmcnntwo views6.42
263
1.56
253
1.60
242
2.69
269
3.39
291
2.12
258
10.59
299
2.67
274
2.61
265
2.54
240
6.38
268
6.37
280
16.22
303
0.89
221
16.23
202
14.56
296
4.57
268
3.30
306
7.74
259
7.59
300
13.62
296
22.89
300
6.22
300
2.53
279
1.86
249
3.14
260
4.68
265
4.77
254
HBP-ISPtwo views6.55
264
1.35
238
2.23
266
1.99
255
1.62
242
1.78
249
0.81
176
2.50
266
1.26
210
4.90
298
6.79
276
1.42
183
0.75
154
14.52
311
52.81
312
19.38
313
1.33
199
1.14
221
6.08
225
7.98
303
12.72
278
19.17
290
0.83
217
1.51
236
2.15
259
2.05
237
3.91
261
3.74
248
edge stereotwo views6.57
265
1.88
265
3.13
292
2.21
264
1.87
257
2.69
269
3.15
254
4.49
301
3.41
282
3.95
280
4.81
248
6.45
281
20.30
307
1.11
242
18.59
214
14.65
298
2.02
238
1.64
262
36.45
301
6.00
294
7.11
206
13.70
234
1.44
258
2.08
262
2.35
265
2.08
240
3.74
251
5.94
268
SQANettwo views6.61
266
4.52
301
2.25
269
19.46
309
2.80
279
5.78
295
5.10
267
1.62
200
1.42
217
1.20
162
1.35
188
3.49
248
2.47
242
2.79
276
39.69
248
1.32
68
10.61
290
1.08
212
20.69
292
1.49
214
12.87
280
10.98
187
11.36
318
1.61
239
1.68
240
2.30
248
2.67
211
5.76
267
SPS-STEREOcopylefttwo views6.95
267
1.75
261
1.96
259
2.47
268
1.71
245
2.67
267
7.51
280
2.73
275
1.77
244
3.62
271
6.80
278
4.88
270
2.19
239
1.30
254
41.49
260
11.88
283
3.62
264
2.04
279
36.63
303
2.04
243
14.17
300
17.87
279
1.48
262
2.69
285
2.50
269
3.26
262
3.74
251
2.81
230
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ADCStwo views7.02
268
1.96
269
1.96
259
1.45
239
2.34
266
1.96
253
3.44
256
2.25
256
3.95
287
2.64
244
3.13
227
3.52
249
17.50
305
2.18
271
52.87
313
11.38
273
3.10
260
2.55
297
5.10
207
2.56
256
10.82
266
10.12
171
1.74
267
2.12
263
2.53
270
10.38
297
7.40
286
18.54
298
ADCPNettwo views7.22
269
1.20
217
3.00
291
1.33
228
3.12
289
1.46
238
9.28
290
2.20
251
3.19
278
4.19
283
7.62
295
2.54
233
15.76
301
1.74
266
49.34
289
3.53
194
2.22
246
1.25
242
19.78
288
3.05
268
6.47
196
6.78
141
4.59
291
1.45
234
3.90
280
5.06
279
3.90
260
26.91
309
ACVNet_1two views7.23
270
3.88
296
3.60
296
16.55
305
3.61
297
6.82
302
10.77
300
1.61
199
1.77
244
1.62
193
1.34
187
4.64
266
3.07
255
7.87
299
46.54
277
1.46
83
11.70
298
1.77
267
20.85
293
1.62
221
14.44
311
9.86
167
7.17
302
2.93
297
1.84
247
2.33
249
2.75
213
2.71
228
TRStereotwo views7.27
271
1.32
233
1.93
256
0.85
178
0.64
136
2.31
262
0.87
181
2.20
251
0.84
168
4.40
287
1.76
200
2.27
228
0.75
154
0.53
143
9.78
167
18.00
309
0.89
119
0.90
167
5.70
222
1.69
224
7.47
212
17.27
274
0.63
155
0.64
120
1.43
212
106.42
331
3.23
234
1.61
190
Ntrotwo views7.30
272
6.21
306
2.53
278
8.29
298
3.01
286
5.20
292
8.21
285
1.40
171
1.51
229
1.44
184
1.19
179
3.90
252
2.78
248
3.15
281
35.64
237
1.27
61
10.61
290
1.27
244
45.74
311
1.93
236
14.28
307
11.91
207
11.38
319
2.65
284
1.73
243
2.28
246
2.54
198
4.94
257
anonymitytwo views7.31
273
0.90
142
1.71
247
1.15
212
0.92
181
0.82
177
0.78
173
2.16
248
1.73
240
3.78
278
97.18
328
1.99
210
0.92
194
0.53
143
9.97
169
7.82
257
1.13
177
0.89
162
6.68
240
1.45
210
7.79
220
18.56
286
0.75
198
0.77
152
1.50
224
1.58
200
21.11
314
2.77
229
CBMV_ROBtwo views7.32
274
1.49
250
2.01
262
2.37
266
1.95
261
2.94
271
2.85
252
6.45
307
1.67
237
5.35
312
6.91
284
9.95
303
11.78
286
0.67
192
38.78
243
6.71
252
3.91
265
1.19
232
10.02
271
2.47
255
9.67
253
17.08
269
0.81
209
1.62
240
7.83
297
10.07
296
5.85
272
25.35
307
AnyNet_C01two views7.46
275
2.22
275
2.25
269
2.99
280
1.99
263
1.80
251
6.11
273
3.82
294
5.59
297
3.15
258
4.35
243
4.84
269
6.54
269
2.23
272
58.48
319
14.06
292
6.69
280
3.67
307
4.82
204
3.18
271
8.68
245
13.81
236
2.41
273
2.39
273
5.67
286
3.29
264
8.76
292
17.77
297
WAO-6two views7.60
276
2.96
282
2.69
281
8.39
300
2.91
283
4.09
282
9.80
291
3.51
287
3.29
281
1.83
206
2.44
221
6.58
282
10.28
282
3.07
278
50.48
298
2.35
159
13.45
308
1.89
275
9.14
263
2.24
252
14.27
304
12.25
211
3.34
285
2.73
291
7.78
296
7.61
291
4.78
269
11.18
286
ACVNet_2two views7.60
276
3.56
288
2.92
288
21.71
312
3.45
295
5.03
291
10.20
293
1.84
220
1.75
242
1.88
210
1.90
206
4.13
259
3.42
260
3.13
280
48.14
284
1.55
102
12.78
304
1.59
259
33.01
299
1.79
229
11.17
269
7.89
151
6.76
301
2.80
294
3.11
275
2.99
258
3.50
245
3.10
237
IMH-64-1two views7.69
278
3.33
284
3.54
293
4.78
289
3.41
292
4.66
287
7.94
281
3.50
285
3.08
275
1.39
181
1.97
210
5.46
274
11.00
283
5.06
294
51.74
303
4.54
217
6.41
278
2.30
286
19.20
286
2.05
244
8.35
234
10.70
180
7.76
309
2.38
270
6.01
290
4.61
271
13.27
305
9.08
278
IMH-64two views7.69
278
3.33
284
3.54
293
4.78
289
3.41
292
4.66
287
7.94
281
3.50
285
3.08
275
1.39
181
1.97
210
5.46
274
11.00
283
5.06
294
51.74
303
4.54
217
6.41
278
2.30
286
19.20
286
2.05
244
8.35
234
10.70
180
7.76
309
2.38
270
6.01
290
4.61
271
13.27
305
9.08
278
Deantwo views7.71
280
3.73
293
2.70
282
34.51
317
4.04
302
5.77
294
11.08
304
2.27
258
2.38
263
2.20
227
1.67
197
5.02
272
5.62
266
3.37
283
48.84
287
1.81
127
12.14
301
1.69
263
9.97
270
2.18
249
14.18
301
9.87
168
7.32
304
2.79
293
3.52
277
2.90
255
3.53
246
3.17
239
FINETtwo views8.71
281
0.76
84
1.06
175
0.73
150
0.61
121
0.65
145
0.96
188
1.14
126
10.65
310
0.64
62
8.32
301
1.23
165
12.97
291
0.66
189
19.47
216
15.19
304
1.11
171
0.67
85
4.45
198
3.30
272
6.92
203
25.13
306
0.48
75
1.82
245
33.04
319
36.43
325
1.44
85
45.32
328
WAO-7two views9.07
282
3.01
283
5.43
310
29.81
315
2.48
270
4.10
283
9.87
292
2.50
266
4.12
289
4.70
292
7.51
292
8.00
291
14.77
299
1.87
268
40.78
257
2.16
147
12.66
302
2.78
301
45.71
310
2.18
249
10.61
263
10.06
170
1.41
255
2.61
282
3.09
274
4.78
273
2.98
222
5.05
259
MeshStereopermissivetwo views9.32
283
2.66
278
2.34
273
4.20
285
2.89
282
4.28
285
2.45
245
8.29
317
9.16
307
5.14
303
8.46
303
11.16
308
13.23
296
0.85
218
51.81
306
15.66
305
4.76
272
1.82
271
21.81
295
1.92
235
15.41
317
19.79
291
1.07
244
2.40
274
8.53
301
5.45
280
10.67
295
15.48
293
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
IMHtwo views9.35
284
3.37
287
3.55
295
4.56
287
3.42
294
4.71
290
8.11
284
3.47
284
3.11
277
1.42
183
1.87
205
5.75
276
16.21
302
47.47
327
51.66
302
2.73
171
9.15
286
2.36
291
20.87
294
2.09
248
8.20
232
10.33
173
8.06
312
2.34
269
7.63
295
5.85
284
3.76
255
10.29
284
ELAS_RVCcopylefttwo views9.44
285
3.33
284
5.58
311
4.11
284
3.68
298
7.49
306
6.29
275
7.70
313
3.76
284
5.25
308
7.74
297
9.89
299
11.05
285
3.12
279
47.81
283
4.61
220
7.01
281
9.67
317
11.32
273
2.99
267
13.48
292
18.09
284
2.75
278
4.11
310
20.24
311
23.51
311
5.06
270
5.25
261
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MADNet++two views9.58
286
4.14
300
6.28
314
4.33
286
5.76
311
4.05
281
8.92
288
7.11
309
7.31
301
5.28
310
7.81
298
7.63
288
9.16
275
13.24
308
22.87
218
20.42
314
7.52
284
6.31
312
10.37
272
7.95
302
14.23
302
18.70
287
4.07
289
5.38
313
5.79
287
22.37
310
9.94
294
11.72
287
AIO-Stereo-zeroshot1permissivetwo views9.97
287
1.84
263
2.24
267
1.34
229
1.79
249
1.78
249
1.71
226
2.17
249
7.58
304
3.47
266
7.13
290
2.44
232
2.07
237
0.38
73
10.77
179
13.53
287
1.54
217
1.19
232
136.48
326
6.52
299
8.17
231
26.38
312
0.61
146
0.97
204
1.28
188
18.58
307
2.35
173
4.90
256
PWCKtwo views10.29
288
3.91
297
2.77
284
4.89
293
3.54
296
7.32
305
8.68
286
3.93
296
4.63
293
4.65
291
5.75
263
24.50
315
9.85
278
3.38
284
35.70
239
3.25
184
10.92
293
2.38
292
72.59
321
5.10
288
14.78
313
8.07
154
3.71
287
2.51
277
7.91
298
7.44
288
6.33
278
9.46
281
SFCPSMtwo views10.77
289
1.34
237
1.09
183
1.15
212
1.19
211
1.19
218
0.90
184
1.29
150
1.76
243
2.70
246
5.58
261
4.33
263
10.25
281
1.08
241
51.59
301
5.22
227
1.99
235
1.17
227
161.66
329
4.44
280
7.65
217
11.04
190
0.84
218
1.68
242
1.34
199
1.75
211
3.44
242
3.04
235
ELAScopylefttwo views10.84
290
3.56
288
4.96
304
4.79
291
4.42
307
5.56
293
6.51
278
7.57
310
3.94
286
5.28
310
7.73
296
9.90
301
11.95
287
3.98
290
51.90
308
4.58
219
7.45
283
9.46
315
9.29
265
2.75
261
13.28
290
17.44
275
2.75
278
3.75
308
17.66
309
27.22
315
13.08
304
31.86
316
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views11.01
291
9.35
315
6.18
313
8.36
299
7.13
316
10.04
315
10.87
301
5.04
303
4.04
288
2.99
254
3.99
238
9.99
304
9.75
277
8.16
300
48.50
285
14.21
294
7.41
282
5.05
311
7.73
258
3.91
279
13.36
291
18.71
288
8.17
313
3.64
306
11.32
304
18.46
306
12.54
301
28.46
311
SGM_RVCbinarytwo views11.64
292
2.80
281
1.89
254
2.92
274
2.54
273
4.66
287
8.81
287
7.78
315
3.50
283
5.57
316
8.27
299
9.89
299
12.97
291
0.97
231
4.41
122
2.83
174
7.65
285
1.17
227
40.85
305
6.32
297
10.68
264
24.24
303
1.79
269
3.32
304
27.82
314
35.58
322
31.94
322
43.00
324
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
UNDER WATER-64two views11.94
293
7.33
313
5.26
308
17.03
306
7.50
317
8.66
312
16.40
313
8.75
319
4.42
291
4.46
289
3.23
230
17.69
311
16.25
304
9.32
302
46.44
275
10.50
267
13.88
315
3.04
305
12.89
277
8.65
306
14.27
304
14.74
240
10.97
316
4.47
311
6.36
293
18.61
308
9.42
293
21.90
302
LSM0two views11.96
294
1.70
260
2.88
287
2.75
272
2.51
272
3.46
278
9.27
289
4.20
298
4.16
290
3.65
272
7.52
293
7.40
287
10.23
280
1.32
255
64.87
323
78.56
330
4.73
271
2.33
288
20.33
291
4.80
284
14.31
308
17.05
268
1.30
254
3.15
300
3.41
276
15.40
305
6.33
278
25.24
306
LVEtwo views12.08
295
3.68
291
2.75
283
55.08
326
4.35
306
8.14
309
74.25
329
1.97
231
2.42
264
2.31
232
1.72
199
4.79
267
5.02
265
3.47
286
40.00
252
2.29
154
11.14
294
1.88
273
50.99
316
2.03
242
10.30
258
12.06
210
5.50
292
3.25
303
3.73
279
3.25
261
3.10
228
6.68
274
DGSMNettwo views12.30
296
2.15
271
2.14
263
1.99
255
1.68
243
2.73
270
1.82
228
3.08
280
2.11
256
12.64
322
99.93
329
4.00
257
18.54
306
19.58
318
45.95
273
15.08
301
12.73
303
10.09
318
15.38
281
4.59
282
13.00
285
15.62
247
7.34
305
3.49
305
1.76
245
5.84
283
3.48
244
5.37
262
JetRedtwo views12.58
297
6.94
312
7.73
315
4.83
292
6.78
314
9.44
314
10.92
302
5.31
306
4.60
292
5.84
318
3.34
231
8.16
292
8.25
272
9.89
303
50.58
299
14.44
295
10.47
289
7.92
313
7.78
261
5.56
291
18.07
322
24.74
305
11.23
317
4.59
312
12.62
305
25.80
313
25.52
317
28.19
310
MDST_ROBtwo views12.84
298
32.58
323
1.86
251
20.66
311
2.84
281
7.65
307
3.50
258
4.02
297
1.51
229
3.73
277
6.49
270
3.22
246
42.47
314
0.80
214
50.42
296
2.20
149
1.29
195
0.83
141
18.69
285
1.42
207
12.92
282
18.51
285
1.50
263
1.82
245
24.51
313
15.09
303
31.82
320
34.42
317
XX-Stereotwo views13.13
299
0.72
63
1.28
219
1.04
200
0.54
108
0.81
176
0.87
181
1.13
125
0.51
104
4.52
290
6.79
276
1.56
196
1.04
210
0.49
128
39.98
251
16.92
308
1.52
214
0.95
175
6.78
246
0.95
163
6.18
195
13.69
233
0.71
182
0.52
80
237.32
331
1.37
177
2.63
207
3.58
244
TorneroNet-64two views13.22
300
6.29
308
5.03
306
34.00
316
3.73
301
10.39
316
16.61
314
3.46
283
12.22
318
2.26
230
5.35
256
17.42
310
34.25
312
14.90
312
47.42
282
3.17
179
13.22
307
2.42
294
36.46
302
9.14
311
14.27
304
12.82
219
5.64
293
2.71
287
14.05
308
13.61
300
3.58
248
12.45
288
notakertwo views13.32
301
13.02
318
4.84
301
18.53
307
6.99
315
8.41
311
14.34
310
3.85
295
3.23
279
2.91
251
2.14
218
31.16
317
43.76
315
4.86
292
85.76
327
2.65
169
12.81
305
2.79
302
43.18
308
2.96
266
14.95
314
11.46
200
7.77
311
3.13
299
2.66
271
2.97
257
3.75
253
4.87
255
ACV-stereotwo views13.53
302
1.95
267
1.64
245
2.13
262
1.16
208
3.41
276
1.39
219
1.71
210
1.85
250
2.95
252
4.86
250
3.99
256
45.11
316
1.12
243
53.60
314
16.55
307
2.70
255
1.30
246
170.74
330
4.49
281
12.74
279
16.57
258
1.00
237
1.87
249
1.39
208
3.04
259
3.75
253
2.35
221
SGM-ForestMtwo views13.80
303
10.32
317
8.18
316
4.90
294
3.69
299
7.87
308
10.55
298
7.61
311
10.68
311
5.09
302
8.30
300
9.49
298
12.89
290
4.42
291
49.85
291
13.64
291
10.21
288
1.16
225
11.67
276
8.91
309
11.41
270
24.59
304
3.28
283
5.76
315
31.49
317
36.13
323
19.13
312
41.30
323
WAO-8two views14.11
304
5.49
303
4.86
302
26.82
313
4.15
304
6.96
303
11.78
307
3.65
292
6.35
299
31.53
326
38.68
321
8.33
293
22.49
308
20.27
321
50.28
294
3.34
186
11.20
296
2.04
279
55.23
318
5.70
292
9.91
255
11.24
195
5.91
295
2.59
280
8.00
299
7.57
289
6.79
282
9.89
282
Venustwo views14.11
304
5.49
303
4.86
302
26.82
313
4.15
304
6.96
303
11.78
307
3.65
292
6.35
299
31.53
326
38.68
321
8.33
293
22.49
308
20.27
321
50.28
294
3.34
186
11.20
296
2.04
279
55.23
318
5.70
292
9.91
255
11.24
195
5.91
295
2.59
280
8.00
299
7.57
289
6.79
282
9.89
282
SGM+DAISYtwo views15.03
306
3.86
295
5.41
309
3.96
283
3.71
300
6.66
301
7.44
279
7.77
314
10.90
315
5.69
317
8.99
307
9.93
302
13.12
295
3.67
288
45.62
272
18.93
312
4.69
270
3.97
310
15.74
282
13.34
317
15.06
315
28.38
318
1.46
260
13.52
322
34.47
321
36.45
326
37.75
325
45.36
329
ACVNet-4btwo views15.72
307
4.04
298
2.68
280
44.32
322
2.83
280
6.13
298
62.22
326
1.84
220
1.78
246
1.65
197
1.24
180
4.40
265
112.58
329
3.38
284
47.32
281
1.32
68
16.00
317
1.73
266
55.10
317
2.19
251
14.48
312
16.37
257
7.30
303
3.18
301
1.64
236
1.88
223
2.20
153
4.57
253
MANEtwo views15.81
308
9.88
316
8.25
317
5.12
297
6.22
313
8.39
310
11.49
306
7.67
312
10.83
314
4.97
299
8.34
302
8.98
297
12.97
291
3.88
289
48.84
287
18.39
310
11.83
299
20.15
323
11.32
273
9.38
313
13.48
292
26.38
312
2.78
281
12.22
319
32.08
318
36.35
324
33.31
323
43.41
325
DispFullNettwo views16.30
309
3.61
290
4.99
305
3.31
281
3.08
288
3.50
279
3.23
255
6.46
308
2.69
269
5.18
304
6.80
278
88.00
327
15.13
300
2.74
274
39.32
246
24.41
320
4.06
266
3.86
309
139.45
327
28.19
323
12.57
276
15.74
249
2.71
277
2.38
270
4.19
281
2.67
251
6.81
284
5.03
258
UNDER WATERtwo views16.74
310
8.01
314
5.18
307
15.67
304
9.29
320
8.94
313
36.85
321
8.38
318
6.23
298
4.21
286
3.00
225
18.64
312
96.12
327
15.60
315
37.14
240
10.17
266
14.68
316
2.79
302
47.09
313
8.60
304
17.12
320
13.21
224
17.04
322
5.56
314
6.15
292
15.22
304
6.39
280
14.80
292
PSMNet_ROBtwo views17.18
311
5.57
305
2.98
290
3.51
282
2.73
277
6.41
299
10.28
295
2.31
261
2.27
262
4.77
293
140.21
330
98.21
328
6.08
267
34.53
324
10.47
177
1.72
119
5.37
274
1.72
265
20.16
289
3.45
273
13.00
285
8.00
152
63.38
330
2.71
287
3.54
278
3.57
266
3.25
237
3.61
245
STStereotwo views17.90
312
3.70
292
5.94
312
43.89
321
5.62
310
39.01
324
13.50
309
7.84
316
10.79
313
5.25
308
8.94
304
24.58
316
30.28
311
1.98
269
59.79
322
13.60
290
5.75
275
1.79
269
40.86
306
5.29
289
11.04
268
15.34
245
2.47
274
11.83
318
23.98
312
30.27
317
23.75
316
36.15
319
DGTPSM_ROBtwo views18.53
313
6.49
309
18.04
320
4.98
295
8.90
318
5.93
296
18.56
316
5.08
304
12.04
316
5.07
301
9.28
308
12.68
309
55.86
322
15.28
313
66.30
324
20.57
315
19.32
320
16.27
320
24.75
296
20.04
320
16.70
319
22.25
298
6.01
298
12.63
320
13.88
306
32.46
319
14.80
308
36.23
320
DPSM_ROBtwo views21.09
314
17.18
319
22.68
322
10.13
301
9.29
320
13.96
317
14.47
311
11.66
320
15.25
320
9.00
319
8.97
305
10.35
305
13.24
297
19.82
319
59.61
320
26.09
321
18.75
318
21.25
324
14.76
279
15.47
318
28.53
325
28.20
315
7.44
306
16.13
323
34.47
321
39.29
328
38.28
326
45.08
326
DPSMtwo views21.09
314
17.18
319
22.68
322
10.13
301
9.29
320
13.96
317
14.47
311
11.66
320
15.25
320
9.00
319
8.97
305
10.35
305
13.24
297
19.82
319
59.61
320
26.09
321
18.75
318
21.25
324
14.76
279
15.47
318
28.53
325
28.20
315
7.44
306
16.13
323
34.47
321
39.29
328
38.28
326
45.08
326
KSHMRtwo views21.80
316
6.71
311
4.04
298
99.23
330
6.14
312
41.63
326
70.49
328
3.63
291
8.86
306
3.60
270
3.42
233
6.78
285
84.46
326
17.61
316
40.67
254
3.96
206
10.14
287
2.82
304
90.71
324
2.91
264
12.90
281
12.31
212
9.04
314
2.84
296
19.52
310
5.56
281
8.25
290
10.42
285
MaskLacGwcNet_RVCtwo views22.39
317
1.43
245
1.63
244
2.01
257
1.89
258
2.00
255
4.03
263
2.25
256
2.65
267
5.01
300
28.79
317
216.21
332
50.44
321
5.46
296
37.62
241
4.30
213
5.35
273
12.78
319
28.48
297
1.49
214
14.42
310
12.87
221
1.01
239
2.45
276
1.87
250
7.04
287
145.49
332
5.50
265
DLNR_Zeroshot_testpermissivetwo views24.07
318
81.88
331
1.95
258
101.60
331
0.50
92
0.56
112
81.29
330
2.29
260
0.50
100
4.86
295
2.13
217
3.03
244
0.93
196
12.16
307
103.32
329
142.13
332
34.14
324
19.58
322
8.61
262
4.90
286
8.02
229
28.05
314
0.55
112
0.85
176
1.36
204
1.54
196
1.21
71
1.87
200
DPSMNet_ROBtwo views24.31
319
6.50
310
18.05
321
5.02
296
8.92
319
6.00
297
18.76
317
5.09
305
12.07
317
5.20
307
26.86
316
20.02
313
160.56
331
15.40
314
77.59
326
20.75
316
19.63
321
16.57
321
37.30
304
20.17
321
17.40
321
22.27
299
6.03
299
12.63
320
13.98
307
32.46
319
14.87
309
36.24
321
TorneroNettwo views25.03
320
6.23
307
3.71
297
95.21
329
4.04
302
30.59
322
28.04
318
4.36
299
17.91
322
2.20
227
37.98
320
81.16
326
72.52
323
18.24
317
46.94
279
2.75
172
13.19
306
2.38
292
87.74
322
9.05
310
15.54
318
12.50
216
5.92
297
2.71
287
49.11
327
8.21
293
3.60
249
13.88
291
LRCNet_RVCtwo views27.23
321
30.79
322
14.68
319
35.16
319
31.14
325
36.50
323
30.07
320
23.05
324
12.67
319
36.10
328
33.27
318
37.41
318
28.58
310
37.19
325
51.77
305
7.29
256
31.08
323
27.01
327
67.79
320
28.97
324
22.94
324
11.62
201
39.23
325
30.57
327
7.31
294
2.54
250
11.22
296
9.26
280
ktntwo views29.25
322
4.04
298
95.12
331
14.38
303
5.47
309
18.03
319
17.50
315
16.11
323
67.22
330
2.86
248
5.27
253
171.03
331
80.57
325
10.72
306
76.12
325
3.35
188
21.01
322
2.75
300
90.20
323
29.10
325
15.07
316
11.01
188
7.65
308
3.01
298
5.09
284
5.80
282
4.72
266
6.57
273
LE_ROBtwo views30.50
323
24.69
321
35.49
325
34.61
318
56.81
331
18.87
320
58.99
325
31.76
326
41.68
325
5.39
313
26.68
315
46.42
320
49.67
319
13.45
309
40.69
256
4.22
209
12.06
300
1.23
236
46.44
312
37.28
327
12.68
277
19.06
289
48.23
326
22.44
325
30.42
316
31.57
318
31.85
321
40.86
322
PMLtwo views39.12
324
38.07
325
12.03
318
39.14
320
28.99
324
40.52
325
11.18
305
14.17
322
98.92
331
27.80
325
165.99
331
107.70
329
159.11
330
13.58
310
17.37
211
11.85
282
35.22
325
8.64
314
42.84
307
11.21
316
14.35
309
16.59
259
5.89
294
7.24
317
52.84
328
13.89
301
42.19
328
18.91
299
CasAABBNettwo views43.13
325
34.58
324
45.64
326
20.16
310
18.53
323
28.05
321
29.10
319
23.25
325
30.68
323
18.72
324
18.11
311
20.71
314
37.91
313
39.77
326
120.31
330
53.12
329
37.70
326
42.54
328
29.33
298
30.54
326
57.52
331
65.08
330
14.60
321
32.33
328
69.15
330
79.07
330
76.98
329
90.93
331
HaxPigtwo views44.55
326
46.74
327
47.29
327
47.70
323
48.78
327
47.59
327
48.40
322
49.50
327
47.10
326
49.76
329
50.30
323
49.05
321
45.31
317
54.53
328
41.50
261
40.24
324
50.13
328
52.04
329
44.70
309
43.04
328
46.59
327
44.52
325
51.78
327
45.41
329
33.76
320
25.29
312
28.70
318
23.20
304
AVERAGE_ROBtwo views46.10
327
48.44
328
48.15
328
49.32
324
50.20
328
48.59
328
49.79
323
50.71
329
48.61
327
51.66
330
52.51
324
50.25
322
47.27
318
55.77
329
43.02
266
41.01
325
52.37
329
54.54
330
47.19
314
45.40
329
48.69
328
44.71
326
52.87
328
46.96
330
35.70
324
26.55
314
30.75
319
23.74
305
HanzoNettwo views48.72
328
45.82
326
75.50
330
62.48
327
48.71
326
62.22
330
81.53
331
55.12
331
62.18
329
15.62
323
22.35
314
75.50
325
105.13
328
172.23
332
54.19
316
11.79
279
63.30
331
9.59
316
142.68
328
22.42
322
19.77
323
25.86
309
34.29
324
5.85
316
9.77
303
9.44
295
8.54
291
13.60
290
MEDIAN_ROBtwo views49.56
329
51.56
329
50.68
329
52.75
325
53.71
329
52.03
329
53.33
324
54.25
330
52.17
328
54.87
331
55.86
326
53.55
323
50.14
320
59.05
330
46.45
276
44.58
326
55.75
330
57.86
331
50.47
315
48.81
330
52.02
329
47.66
327
56.65
329
49.99
331
38.96
325
30.09
316
33.54
324
31.34
315
BEATNet-Init1two views54.98
330
76.29
330
23.41
324
86.88
328
56.39
330
86.85
331
69.29
327
49.55
328
36.32
324
11.75
321
54.61
325
64.36
324
78.43
324
21.46
323
91.69
328
51.99
328
38.14
327
22.22
326
101.82
325
73.02
331
54.14
330
49.15
329
27.76
323
24.21
326
58.43
329
37.31
327
77.81
330
61.10
330
STTRV1_RVCtwo views1.35
238
1.13
189
1.70
248
1.33
223
2.15
259
1.82
228
1.56
194
1.45
221
1.88
210
3.47
235
3.12
245
4.87
263
1.12
243
6.48
249
11.18
295
1.07
211
10.39
315
9.37
251
2.21
265
5.53
285
2.91
256
5.85
272
13.08
289
DPSimNet_ROBtwo views193.45
332
99.23
332
195.37
332
175.02
332
155.06
332
112.88
332
167.32
332
164.47
332
99.95
332
205.57
332
169.31
330
207.38
332
93.94
331
127.45
331
85.03
331
87.66
332
201.24
331
103.73
332
162.25
332
98.87
331
105.97
331
134.73
332
183.74
332
136.27
331
168.25
332