This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
ProNettwo views0.30
1
0.27
4
0.31
8
0.26
6
0.15
5
0.27
5
0.27
31
0.38
5
0.13
1
0.15
1
0.49
32
0.29
2
0.13
1
0.16
3
0.73
4
0.49
2
0.43
4
0.32
2
0.35
1
0.27
5
0.38
1
0.22
1
0.38
23
0.22
6
0.32
1
0.20
1
0.38
1
0.27
2
CroCo-Stereo Lap2two views0.33
2
0.22
2
0.15
1
0.11
1
0.12
3
0.16
1
0.08
2
0.35
4
0.15
4
0.47
13
0.10
2
0.31
3
0.14
3
0.14
1
1.26
13
1.00
28
0.36
2
0.36
5
0.44
3
0.20
1
0.53
7
0.55
10
0.17
3
0.13
1
0.39
6
0.35
8
0.40
2
0.27
2
StereoVisiontwo views0.34
3
0.27
4
0.21
4
0.13
3
0.18
6
0.21
3
0.14
5
0.30
2
0.23
6
0.35
6
0.18
3
0.34
4
0.17
5
0.16
3
0.98
6
0.78
11
0.44
5
0.35
3
0.43
2
0.23
3
0.40
2
0.48
7
0.16
1
0.21
5
0.40
7
0.40
10
0.71
10
0.37
8
CroCo-Stereocopylefttwo views0.35
4
0.20
1
0.15
1
0.11
1
0.10
2
0.18
2
0.06
1
0.33
3
0.14
2
0.31
4
0.05
1
0.36
6
0.13
1
0.15
2
1.64
26
1.05
34
0.35
1
0.37
6
0.45
4
0.20
1
0.62
12
0.79
24
0.16
1
0.13
1
0.38
3
0.31
3
0.45
3
0.26
1
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.35
4
0.22
2
0.19
3
0.27
7
0.13
4
0.30
9
0.08
2
0.97
65
0.18
5
0.92
90
0.19
4
0.27
1
0.16
4
0.18
5
0.51
1
0.47
1
0.38
3
0.26
1
0.54
7
0.25
4
0.43
3
0.34
2
0.19
4
0.15
3
0.38
3
0.34
7
0.90
16
0.27
2
AEACVtwo views0.43
6
0.94
115
0.30
5
0.29
11
0.20
7
0.27
5
0.12
4
0.28
1
0.14
2
0.24
2
0.23
6
0.35
5
0.21
7
0.20
8
1.24
12
0.83
13
0.57
17
0.38
7
0.78
20
0.45
20
0.81
25
0.73
21
0.24
5
0.18
4
0.34
2
0.31
3
0.61
7
0.28
5
TDLMtwo views0.49
7
0.59
15
0.60
49
0.39
27
0.48
44
0.46
35
0.43
81
0.72
22
0.35
22
0.30
3
0.65
59
0.76
56
0.41
31
0.35
31
0.54
2
0.58
3
0.55
11
0.49
12
0.50
6
0.43
15
0.50
5
0.39
4
0.41
29
0.39
31
0.38
3
0.31
3
0.61
7
0.66
41
anonymousdsptwo views0.50
8
0.38
6
0.36
14
0.28
9
0.32
15
0.28
7
0.15
6
0.56
10
0.26
9
0.42
9
0.33
13
0.53
13
0.19
6
0.27
15
1.47
16
0.87
15
0.54
9
0.52
17
0.62
12
0.48
22
0.71
17
1.04
40
0.36
18
0.30
10
0.46
11
0.29
2
1.13
32
0.33
7
iRaftStereo_RVCtwo views0.51
9
0.56
12
0.40
18
0.28
9
0.31
14
0.32
11
0.19
10
0.68
21
0.25
8
0.46
12
0.57
46
0.58
14
0.29
12
0.25
12
1.17
10
0.89
17
0.56
15
0.45
9
0.72
16
0.41
13
0.97
41
0.79
24
0.35
13
0.34
18
0.44
10
0.41
15
0.76
13
0.48
12
delettwo views0.51
9
0.58
13
0.47
33
0.35
18
0.50
56
0.50
50
0.30
35
0.49
7
0.29
12
0.56
16
0.44
24
0.45
10
0.34
18
0.48
93
1.16
8
0.68
5
0.55
11
0.46
10
0.47
5
0.41
13
0.58
9
0.39
4
0.39
25
0.41
37
0.48
15
0.36
9
1.09
29
0.50
14
AASNettwo views0.53
11
0.74
44
0.46
32
0.35
18
0.61
84
0.51
54
0.42
78
0.65
18
0.26
9
0.41
8
0.50
34
0.39
7
0.31
15
0.41
57
1.02
7
0.69
6
0.53
8
0.60
32
0.67
14
0.51
23
0.60
10
0.87
29
0.41
29
0.41
37
0.50
18
0.40
10
0.70
9
0.45
11
AANet_RVCtwo views0.54
12
0.45
9
0.40
18
0.33
17
0.61
84
0.28
7
0.31
39
0.61
13
0.58
85
0.44
10
0.41
21
0.39
7
0.48
38
0.33
23
1.16
8
0.79
12
0.55
11
0.53
21
0.56
10
0.52
27
0.46
4
0.49
8
0.34
10
0.38
25
0.57
28
0.57
33
1.05
26
0.97
81
StereoIMtwo views0.57
13
0.47
10
0.30
5
0.16
4
0.26
10
0.21
3
0.17
7
0.44
6
0.32
17
1.08
109
0.22
5
0.51
12
0.22
9
0.19
6
1.83
45
1.19
59
0.62
21
0.59
31
1.09
38
0.45
20
0.81
25
0.94
35
0.37
21
0.25
7
0.63
37
0.67
42
0.60
6
0.82
60
MMNettwo views0.59
14
0.58
13
0.44
26
0.38
23
0.55
70
0.42
32
0.29
34
0.60
12
0.40
35
0.38
7
0.55
43
0.63
24
0.32
16
0.51
105
1.51
20
0.75
10
0.72
43
0.58
30
0.76
18
0.55
34
0.62
12
0.41
6
0.40
27
0.52
72
0.51
20
0.49
22
1.49
56
0.50
14
MIF-Stereotwo views0.60
15
0.44
8
0.32
10
0.21
5
0.25
9
0.34
14
0.17
7
0.61
13
0.31
13
0.75
50
0.27
8
0.62
23
0.34
18
0.21
9
1.77
39
1.44
99
0.57
17
0.61
36
1.53
60
0.44
19
0.91
38
1.14
45
0.37
21
0.29
9
0.50
18
0.54
28
0.52
4
0.58
23
CVANet_RVCtwo views0.60
15
0.67
24
0.81
85
0.81
122
0.53
66
0.66
100
0.55
104
1.15
84
0.39
28
0.44
10
0.79
94
0.80
64
0.44
34
0.43
70
0.69
3
0.67
4
0.55
11
0.53
21
0.55
9
0.57
38
0.63
14
0.57
12
0.40
27
0.41
37
0.46
11
0.40
10
0.72
11
0.55
18
DMCAtwo views0.63
17
0.73
41
0.63
53
0.40
28
0.49
47
0.52
57
0.33
48
0.59
11
0.52
64
0.80
65
0.63
57
0.70
39
0.40
29
0.47
87
1.48
17
0.92
19
0.69
33
0.67
50
0.67
14
0.51
23
0.67
16
0.59
14
0.48
59
0.45
51
0.48
15
0.52
26
1.04
25
0.62
34
RAFT_CTSACEtwo views0.64
18
0.94
115
0.31
8
0.37
21
0.34
21
0.33
12
0.23
18
1.23
95
0.26
9
0.64
33
0.29
10
0.71
42
0.57
62
0.34
28
1.57
24
1.07
38
0.52
7
0.43
8
0.72
16
0.33
7
0.85
30
1.72
62
0.42
34
0.30
10
0.46
11
0.41
15
1.58
68
0.39
9
GANettwo views0.64
18
0.67
24
0.63
53
0.57
68
0.58
75
0.95
144
0.55
104
0.78
32
0.46
44
0.57
18
0.61
53
1.83
161
0.36
23
0.41
57
0.81
5
0.69
6
0.76
53
0.73
67
0.58
11
0.40
11
0.53
7
0.49
8
0.47
56
0.48
60
0.56
27
0.41
15
0.83
14
0.69
43
HCRNettwo views0.66
20
0.78
63
0.41
22
0.54
61
0.27
12
0.41
30
0.39
61
0.63
16
0.31
13
1.62
143
0.59
51
0.67
34
0.29
12
0.41
57
1.99
56
0.73
9
0.60
20
0.47
11
0.65
13
0.43
15
0.78
24
0.62
15
0.36
18
0.34
18
0.42
9
0.43
20
2.14
100
0.50
14
test crocotwo views0.67
21
0.87
91
0.33
11
0.31
14
0.59
77
0.33
12
0.30
35
0.89
55
0.34
20
0.72
44
0.24
7
0.65
29
0.34
18
0.19
6
1.95
52
1.57
122
0.71
38
0.69
55
0.94
27
0.39
10
1.28
67
1.20
48
0.33
9
0.33
16
0.59
34
0.60
35
0.72
11
0.74
48
MIF-Stereo (partial)two views0.69
22
0.76
56
0.33
11
0.27
7
0.37
27
0.35
16
0.31
39
0.53
8
0.40
35
0.62
29
0.32
12
0.50
11
0.39
25
0.23
10
2.08
65
1.51
112
0.68
29
0.71
59
0.77
19
0.43
15
1.10
53
0.94
35
0.39
25
0.32
13
0.57
28
0.71
45
2.25
112
0.87
67
test_5two views0.69
22
0.91
107
0.30
5
0.38
23
0.26
10
0.35
16
0.19
10
1.79
163
0.31
13
0.58
21
1.20
137
0.75
53
0.73
103
0.32
20
1.36
14
1.10
44
0.54
9
0.54
25
1.01
31
0.37
8
0.61
11
1.37
54
0.29
6
0.34
18
0.41
8
0.40
10
1.72
75
0.44
10
FINETtwo views0.69
22
0.65
19
0.67
61
0.65
87
0.49
47
0.48
45
0.45
87
0.75
27
0.59
87
0.61
26
0.48
29
0.82
70
0.57
62
0.43
70
1.71
31
1.08
41
0.77
55
0.57
27
1.07
36
0.56
36
0.88
32
0.65
18
0.43
37
0.50
65
0.62
36
0.56
32
0.96
21
0.64
38
raft+_RVCtwo views0.71
25
0.73
41
0.70
66
0.41
31
0.34
21
0.49
47
0.30
35
1.48
127
0.43
39
0.62
29
0.62
55
0.65
29
0.39
25
0.26
13
1.74
35
1.16
52
0.69
33
0.53
21
1.57
66
0.51
23
0.85
30
1.06
42
0.44
40
0.38
25
0.68
42
0.62
37
0.85
15
0.69
43
GMStereopermissivetwo views0.73
26
0.99
135
0.39
15
0.49
46
0.47
39
0.55
67
0.41
72
0.77
29
0.43
39
0.55
14
0.48
29
0.81
69
0.38
24
0.34
28
1.60
25
0.95
22
0.74
50
0.52
17
1.88
73
0.57
38
1.07
48
0.73
21
0.42
34
0.51
67
0.72
51
0.47
21
1.87
85
0.57
22
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.73
26
0.69
29
0.79
80
0.54
61
0.65
94
0.58
80
0.54
100
0.72
22
0.54
73
0.59
23
0.57
46
0.61
21
0.47
35
0.62
135
1.80
42
0.96
23
0.72
43
0.68
54
0.91
26
0.72
81
0.64
15
0.55
10
0.53
81
0.52
72
0.58
31
0.51
24
2.19
108
0.59
29
AFF-stereotwo views0.76
28
0.69
29
0.59
46
0.30
13
0.32
15
0.52
57
0.18
9
0.86
48
0.41
37
1.37
128
0.43
23
0.60
20
0.34
18
0.24
11
1.76
38
1.13
48
0.57
17
0.62
38
2.81
108
0.43
15
0.77
22
0.63
16
0.41
29
0.32
13
0.70
45
0.67
42
2.38
126
0.56
19
TestStereotwo views0.77
29
0.93
112
0.79
80
0.56
65
0.46
35
0.66
100
0.33
48
1.22
93
0.42
38
0.90
86
0.52
36
0.84
74
0.54
52
0.39
46
1.50
19
0.92
19
0.73
48
0.51
16
1.38
50
0.56
36
1.25
64
0.82
26
0.44
40
0.44
49
0.77
59
0.79
56
1.34
42
0.79
55
MIM_Stereotwo views0.78
30
0.77
60
0.53
40
0.43
39
0.38
28
0.46
35
0.22
17
1.50
130
0.31
13
0.55
14
0.38
18
0.64
26
0.27
11
0.32
20
1.77
39
1.09
42
0.63
23
0.73
67
3.30
132
0.57
38
1.19
61
0.91
33
0.34
10
0.36
22
0.49
17
0.41
15
1.95
90
0.58
23
CFNettwo views0.80
31
0.84
83
0.79
80
0.76
107
0.70
105
0.60
85
0.46
91
0.84
46
0.48
52
0.66
37
0.71
79
0.92
92
0.61
74
0.43
70
1.75
37
0.84
14
0.70
35
0.64
43
0.90
25
0.78
95
0.89
36
0.72
20
0.45
45
0.51
67
0.87
81
0.83
64
1.67
74
1.15
107
HGLStereotwo views0.83
32
0.64
17
0.75
75
0.52
55
0.67
100
0.56
73
0.45
87
0.66
20
0.50
59
1.72
150
0.96
118
0.64
26
0.56
58
0.54
107
1.65
28
1.18
56
0.80
63
0.76
75
1.05
33
0.66
64
0.99
43
1.36
53
0.49
62
0.54
80
0.71
48
0.76
52
1.59
70
0.82
60
UNettwo views0.85
33
0.76
56
0.74
72
0.60
75
0.60
80
0.61
88
0.53
98
0.90
56
0.58
85
1.21
115
0.68
67
0.71
42
0.56
58
0.67
143
1.72
34
1.11
46
0.79
60
0.72
65
1.13
40
0.82
105
0.84
28
0.69
19
0.62
113
0.58
93
0.64
39
0.77
53
2.48
136
0.95
78
RASNettwo views0.85
33
0.72
37
0.89
106
0.61
77
0.62
90
0.66
100
0.41
72
0.98
67
0.61
91
1.21
115
0.64
58
0.74
46
0.67
88
0.40
50
1.23
11
1.31
74
0.72
43
0.66
47
1.00
29
0.70
77
1.09
51
1.43
55
0.43
37
0.75
132
0.68
42
0.79
56
2.17
104
0.93
76
anonymousdsp2two views0.86
35
0.84
83
0.84
92
0.43
39
0.44
33
0.56
73
0.32
44
1.17
86
0.36
24
0.66
37
0.67
63
0.69
37
0.40
29
0.49
98
1.46
15
1.36
81
0.67
28
0.62
38
2.12
82
0.60
47
1.36
75
2.66
77
0.36
18
0.44
49
0.71
48
0.51
24
1.86
84
0.64
38
ddtwo views0.86
35
0.80
67
0.51
37
1.05
151
0.44
33
0.85
130
0.44
85
0.85
47
0.39
28
0.83
68
0.40
19
1.23
129
0.39
25
0.47
87
2.21
80
0.98
25
0.97
120
0.71
59
2.00
80
0.61
49
0.84
28
0.77
23
0.49
62
0.64
114
0.70
45
0.53
27
1.73
76
1.47
134
RAFT-Stereo + iAFFtwo views0.86
35
0.72
37
0.84
92
0.41
31
0.39
29
0.54
63
0.21
15
0.99
68
0.52
64
1.54
138
0.57
46
0.73
45
0.39
25
0.26
13
2.15
68
1.17
54
0.64
25
0.50
13
2.66
103
0.57
38
0.88
32
0.90
31
0.47
56
0.39
31
0.86
77
0.72
47
2.54
148
0.66
41
DMCA-RVCcopylefttwo views0.86
35
0.74
44
0.73
69
0.61
77
0.77
115
0.56
73
0.70
121
0.77
29
1.43
171
1.38
130
0.69
70
0.87
79
0.54
52
0.55
112
1.66
30
1.05
34
0.81
72
0.74
70
0.95
28
0.73
84
0.89
36
0.93
34
0.51
73
0.58
93
0.59
34
0.62
37
1.82
81
0.91
73
RAFT+CT+SAtwo views0.87
39
0.97
129
0.40
18
0.45
42
0.29
13
0.38
21
0.20
13
1.64
154
0.33
18
0.72
44
0.30
11
0.88
84
0.65
84
0.40
50
1.56
23
1.21
62
0.56
15
0.57
27
2.08
81
0.40
11
0.83
27
5.00
107
0.32
7
0.37
23
0.47
14
0.42
19
1.56
61
0.49
13
DSFCAtwo views0.87
39
0.84
83
0.73
69
0.65
87
0.77
115
0.61
88
0.78
126
0.75
27
0.78
113
0.77
58
0.83
103
0.75
53
0.48
38
0.43
70
1.89
49
1.14
50
0.85
80
0.87
104
1.00
29
0.74
86
1.00
47
1.05
41
0.72
144
0.63
111
0.83
69
0.95
84
1.88
86
0.85
63
IERtwo views0.88
41
0.82
73
0.55
42
0.49
46
0.51
58
0.56
73
0.45
87
0.80
37
0.49
56
1.15
113
0.77
88
1.03
104
0.50
43
0.79
161
3.66
155
1.04
32
0.73
48
0.64
43
0.87
23
0.78
95
0.73
20
0.82
26
0.60
109
0.53
76
0.63
37
1.00
95
2.05
96
0.74
48
rafts_anoytwo views0.88
41
0.81
71
0.86
98
0.44
41
0.49
47
0.51
54
0.46
91
1.58
147
0.48
52
0.61
26
0.70
77
0.70
39
0.47
35
0.30
18
2.51
99
1.38
83
0.76
53
0.78
81
2.36
90
0.61
49
1.28
67
0.99
39
0.49
62
0.49
62
0.85
75
0.90
78
0.93
20
1.00
93
ARAFTtwo views0.89
43
0.72
37
0.47
33
0.35
18
0.34
21
0.42
32
0.24
21
0.64
17
0.34
20
2.25
179
0.57
46
0.58
14
0.29
12
0.39
46
2.14
67
1.42
93
0.71
38
0.74
70
2.68
104
0.54
29
1.86
99
1.93
65
0.42
34
0.33
16
0.83
69
0.40
10
1.98
93
0.56
19
HITNettwo views0.90
44
0.65
19
0.62
52
0.68
94
0.50
56
0.39
23
0.32
44
1.26
101
0.89
124
0.70
40
0.70
77
0.91
90
0.49
40
0.39
46
1.96
53
1.02
29
0.66
27
0.64
43
0.79
21
0.61
49
1.53
81
3.85
87
0.46
47
0.52
72
0.58
31
0.64
40
1.81
79
0.81
58
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
TestStereo1two views0.93
45
0.98
132
0.39
15
0.38
23
0.36
25
0.39
23
0.25
24
1.02
70
0.39
28
0.79
62
0.34
14
0.58
14
0.73
103
0.54
107
3.06
134
1.47
108
0.71
38
0.52
17
2.91
111
0.54
29
1.34
70
1.84
63
0.35
13
0.39
31
0.54
23
1.06
99
2.53
146
0.60
30
SA-5Ktwo views0.93
45
0.98
132
0.39
15
0.38
23
0.36
25
0.39
23
0.25
24
1.02
70
0.39
28
0.79
62
0.34
14
0.58
14
0.73
103
0.54
107
3.06
134
1.47
108
0.71
38
0.52
17
2.91
111
0.54
29
1.34
70
1.84
63
0.35
13
0.39
31
0.54
23
1.06
99
2.53
146
0.60
30
RALCasStereoNettwo views0.93
45
0.82
73
0.93
111
0.53
58
0.53
66
0.60
85
0.45
87
1.48
127
0.44
41
1.03
102
0.75
86
0.89
89
0.49
40
0.32
20
2.31
85
1.43
97
0.78
57
0.75
72
1.50
57
0.58
42
1.18
60
2.21
69
0.49
62
0.57
89
0.86
77
1.13
112
0.90
16
1.16
108
CFNet_RVCtwo views0.94
48
0.84
83
0.89
106
0.76
107
0.80
123
0.71
110
0.49
93
0.74
26
0.63
97
0.88
82
0.94
115
0.87
79
0.57
62
0.50
99
1.96
53
1.12
47
0.79
60
0.79
84
1.27
42
0.73
84
1.26
65
1.52
58
0.48
59
0.64
114
0.98
102
1.11
105
1.92
89
1.23
116
DLCB_ROBtwo views0.94
48
0.90
103
0.88
101
0.73
100
0.80
123
0.69
107
0.69
120
0.87
52
0.72
108
0.94
94
0.86
107
1.02
101
0.91
140
0.69
148
1.48
17
1.06
37
0.97
120
0.72
65
0.88
24
0.74
86
1.21
62
1.21
49
0.78
153
0.71
127
1.26
143
1.26
124
1.49
56
0.95
78
AACVNettwo views0.95
50
0.87
91
0.69
63
0.91
133
0.91
134
0.72
113
0.59
113
0.87
52
0.60
88
0.73
47
0.88
110
0.79
63
0.64
79
0.60
128
1.77
39
1.37
82
0.84
78
0.83
96
1.12
39
0.77
92
1.36
75
1.13
44
0.70
137
0.65
116
0.87
81
1.12
109
1.90
87
1.31
124
DISCOtwo views0.96
51
0.98
132
0.56
44
0.57
68
0.61
84
0.81
126
0.79
129
0.77
29
0.81
114
2.06
169
0.86
107
0.66
31
0.70
94
0.42
66
1.87
47
1.27
69
0.99
124
0.80
88
1.80
71
0.80
99
0.92
39
1.33
50
0.57
96
0.51
67
0.72
51
0.84
69
2.02
94
0.80
57
GLC_STEREOtwo views0.97
52
0.89
100
0.85
96
0.56
65
0.60
80
0.48
45
0.40
68
1.70
157
0.47
46
0.77
58
0.67
63
0.78
62
0.63
77
0.61
130
2.53
100
1.65
130
0.88
90
0.60
32
1.57
66
0.70
77
2.48
108
1.17
46
0.44
40
0.43
45
0.67
41
0.55
30
2.36
122
0.88
70
TESTrafttwo views0.98
53
0.96
127
0.42
23
0.41
31
0.33
20
0.40
26
0.25
24
1.13
81
0.39
28
0.97
99
0.35
16
0.61
21
0.75
112
0.54
107
3.18
144
1.42
93
0.70
35
0.50
13
2.86
110
0.53
28
1.08
49
3.15
81
0.35
13
0.40
35
0.52
21
1.18
118
2.52
142
0.61
32
psm_uptwo views0.99
54
0.86
90
0.99
123
0.78
114
0.89
131
0.75
117
0.58
110
1.33
113
1.03
142
0.88
82
0.69
70
0.99
100
0.72
99
0.76
157
1.89
49
1.10
44
0.91
101
0.81
91
1.93
76
0.81
102
1.08
49
0.90
31
0.49
62
0.85
152
1.01
106
1.06
99
1.62
71
1.10
101
STTStereotwo views0.99
54
0.95
122
0.82
88
0.77
112
0.77
115
0.69
107
0.87
139
0.86
48
1.53
179
1.27
121
0.79
94
1.13
120
0.69
92
0.93
177
2.19
74
1.03
31
0.72
43
0.70
57
1.05
33
0.63
58
1.15
58
0.86
28
0.58
103
0.56
88
0.73
53
1.21
121
1.74
78
1.41
132
NLCA_NET_v2_RVCtwo views1.02
56
0.93
112
0.80
84
0.72
97
0.79
121
0.65
98
1.02
151
1.07
76
2.31
207
2.00
163
0.74
84
0.97
97
0.56
58
0.94
179
1.82
43
0.96
23
0.68
29
0.67
50
1.31
44
0.65
60
0.88
32
0.94
35
0.57
96
0.57
89
0.73
53
1.60
158
1.43
49
1.27
122
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CAStwo views1.05
57
0.80
67
0.40
18
0.50
52
0.48
44
0.37
18
0.30
35
0.55
9
0.44
41
1.13
112
0.77
88
0.64
26
0.95
150
0.31
19
2.68
113
1.79
138
0.96
117
0.82
94
1.08
37
0.61
49
2.91
115
5.06
110
0.44
40
0.30
10
0.81
63
0.92
80
1.18
35
1.16
108
AF-Nettwo views1.05
57
0.83
76
0.94
112
0.76
107
0.91
134
0.98
150
1.68
178
1.52
137
1.06
144
0.57
18
0.96
118
1.34
135
0.64
79
0.74
152
1.71
31
0.99
26
0.80
63
0.60
32
1.64
68
0.72
81
0.72
18
2.35
70
0.63
118
0.62
106
0.89
88
0.82
62
1.57
66
1.25
119
Nwc_Nettwo views1.05
57
0.83
76
0.94
112
0.76
107
0.91
134
0.98
150
1.68
178
1.52
137
1.06
144
0.57
18
0.96
118
1.34
135
0.64
79
0.74
152
1.71
31
0.99
26
0.80
63
0.60
32
1.64
68
0.72
81
0.72
18
2.35
70
0.63
118
0.62
106
0.89
88
0.82
62
1.57
66
1.25
119
LMCR-Stereopermissivemany views1.06
60
0.83
76
0.84
92
0.53
58
0.62
90
0.64
96
0.33
48
1.12
79
0.60
88
0.83
68
0.79
94
0.91
90
0.49
40
0.41
57
2.53
100
1.54
117
1.03
134
0.75
72
2.16
83
1.42
162
1.68
90
3.87
89
0.49
62
0.65
116
0.75
56
0.83
64
1.10
31
0.88
70
PDISCO_ROBtwo views1.06
60
0.87
91
0.60
49
0.80
119
0.68
102
0.53
62
0.59
113
0.93
60
0.69
103
1.80
155
1.00
126
0.74
46
0.63
77
0.66
141
1.87
47
1.44
99
0.89
92
1.10
160
1.53
60
0.80
99
1.56
84
2.40
73
0.52
80
0.63
111
1.19
130
0.79
56
2.56
149
0.81
58
SAtwo views1.07
62
0.90
103
0.42
23
0.55
63
0.53
66
0.49
47
0.24
21
1.60
148
0.46
44
0.71
43
0.41
21
0.69
37
0.58
65
0.62
135
1.74
35
1.41
90
0.78
57
0.79
84
3.17
122
0.65
60
1.24
63
4.73
99
0.34
10
0.51
67
0.75
56
1.12
109
2.64
156
0.72
47
PS-NSSStwo views1.07
62
1.44
190
0.69
63
1.20
169
0.91
134
1.16
166
0.93
146
0.80
37
0.55
75
0.74
49
0.49
32
1.98
169
1.03
157
0.91
174
1.54
22
0.92
19
0.83
76
0.73
67
1.45
55
0.62
55
0.94
40
0.63
16
1.68
208
0.50
65
1.00
104
0.95
84
3.21
181
1.11
104
HSMtwo views1.07
62
0.75
52
0.97
118
0.78
114
0.77
115
0.54
63
0.54
100
1.87
172
0.60
88
0.76
54
0.85
106
0.87
79
0.67
88
0.56
113
2.24
81
1.05
34
0.92
107
0.71
59
2.57
97
0.71
79
1.80
97
2.08
67
0.56
94
0.72
130
0.90
92
0.97
88
2.08
98
1.03
94
LL-Strereo2two views1.08
65
0.65
19
0.59
46
0.40
28
0.34
21
0.31
10
0.23
18
1.48
127
0.38
26
0.68
39
0.58
50
0.63
24
0.32
16
0.64
139
1.65
28
1.13
48
0.63
23
0.53
21
1.32
46
0.66
64
1.35
73
11.05
202
0.44
40
0.34
18
0.64
39
0.60
35
1.05
26
0.56
19
raftrobusttwo views1.11
66
0.65
19
0.92
110
0.55
63
0.49
47
0.44
34
0.33
48
1.55
144
0.47
46
0.94
94
0.72
82
0.82
70
0.53
47
0.36
40
2.91
125
1.71
133
0.71
38
0.70
57
4.37
149
0.65
60
1.69
92
3.95
91
0.59
107
0.42
44
0.95
100
0.85
71
0.99
23
0.85
63
UCFNet_RVCtwo views1.11
66
1.26
173
0.85
96
0.88
130
0.93
141
0.77
121
0.58
110
0.78
32
0.67
102
0.93
92
0.80
98
1.25
130
0.93
145
0.48
93
2.17
72
1.09
42
0.78
57
0.82
94
2.60
98
0.80
99
1.32
69
1.66
60
1.31
196
0.67
119
1.05
112
1.11
105
1.44
51
2.13
163
test_4two views1.13
68
0.74
44
0.77
77
0.42
37
0.32
15
0.34
14
0.26
29
0.78
32
0.33
18
0.75
50
0.40
19
0.87
79
0.35
22
0.40
50
2.10
66
1.55
118
0.65
26
0.69
55
1.50
57
0.51
23
1.12
55
10.25
178
0.41
29
0.37
23
0.58
31
0.70
44
2.73
162
0.62
34
Sa-1000two views1.14
69
0.75
52
0.47
33
0.49
46
0.61
84
0.50
50
0.27
31
1.70
157
0.52
64
0.73
47
0.48
29
0.66
31
0.67
88
0.79
161
2.17
72
1.43
97
0.92
107
0.93
125
3.23
123
0.58
42
1.55
83
4.86
102
0.35
13
0.59
99
1.14
125
1.24
122
2.35
121
0.76
53
RALAANettwo views1.14
69
0.70
31
0.84
92
0.53
58
0.53
66
0.60
85
0.41
72
1.30
108
0.50
59
0.94
94
0.65
59
0.72
44
0.59
66
0.33
23
1.97
55
1.32
76
0.75
52
0.89
114
1.96
77
0.85
108
3.07
117
5.37
118
0.53
81
0.62
106
0.82
66
1.03
97
2.08
98
0.78
54
CASnettwo views1.15
71
0.91
107
0.49
36
0.40
28
0.43
31
0.38
21
0.20
13
0.91
58
0.49
56
0.77
58
0.56
44
0.88
84
0.53
47
0.35
31
2.15
68
1.24
66
0.72
43
0.50
13
1.34
48
0.54
29
7.12
170
5.37
118
0.41
29
0.38
25
1.21
132
0.49
22
1.45
52
0.79
55
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
iResNet_ROBtwo views1.16
72
0.83
76
0.82
88
0.65
87
0.59
77
0.67
103
0.58
110
2.65
216
0.53
68
1.73
151
0.76
87
0.87
79
0.78
122
0.47
87
3.77
162
1.45
101
0.87
86
0.86
102
2.81
108
0.65
60
1.26
65
0.87
29
0.57
96
0.73
131
0.81
63
0.95
84
2.65
158
1.03
94
RPtwo views1.18
73
1.02
145
1.24
171
0.94
137
1.08
152
0.84
127
1.17
162
1.25
99
1.31
164
0.61
26
1.16
134
1.21
127
0.75
112
0.68
144
3.34
148
1.04
32
0.89
92
0.67
50
1.20
41
0.79
97
0.88
32
2.85
79
0.59
107
0.71
127
0.86
77
0.98
92
2.51
141
1.21
115
APVNettwo views1.21
74
1.02
145
0.64
56
0.69
95
0.78
119
0.86
131
0.84
134
0.78
32
0.71
107
0.92
90
0.82
101
0.86
77
0.59
66
0.58
119
2.67
112
1.65
130
1.11
142
0.98
139
3.23
123
0.85
108
1.62
86
4.73
99
0.55
88
0.84
151
0.77
59
0.80
59
1.90
87
0.98
83
iinet-ftwo views1.22
75
1.08
152
0.64
56
0.93
136
0.46
35
0.68
105
0.57
107
0.79
36
0.48
52
2.11
174
1.35
149
0.83
72
0.64
79
0.35
31
3.95
165
1.80
140
0.77
55
0.66
47
2.93
117
1.00
128
1.53
81
3.24
82
0.64
122
0.53
76
1.10
121
0.63
39
2.23
111
0.90
72
PA-Nettwo views1.22
75
0.95
122
1.13
154
0.75
103
1.31
173
0.68
105
0.84
134
0.82
42
1.18
158
0.83
68
0.77
88
0.76
56
0.78
122
0.91
174
3.00
130
1.21
62
0.68
29
0.77
77
1.02
32
0.82
105
1.13
57
4.67
97
0.66
126
0.82
146
1.00
104
2.10
190
1.24
37
2.13
163
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views1.25
77
1.24
167
1.10
146
0.99
144
1.05
146
0.96
145
1.53
173
1.79
163
1.59
182
0.60
24
1.34
146
1.17
124
1.03
157
0.74
152
2.44
91
1.07
38
0.89
92
0.99
142
1.54
62
0.91
116
0.99
43
2.46
74
0.80
161
0.76
134
1.26
143
1.59
155
1.39
46
1.61
141
Abc-Nettwo views1.25
77
1.24
167
1.10
146
0.99
144
1.05
146
0.96
145
1.53
173
1.79
163
1.59
182
0.60
24
1.34
146
1.17
124
1.03
157
0.74
152
2.44
91
1.07
38
0.89
92
0.99
142
1.54
62
0.91
116
0.99
43
2.46
74
0.80
161
0.76
134
1.26
143
1.59
155
1.39
46
1.61
141
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
CEStwo views1.27
79
0.77
60
0.56
44
0.45
42
0.56
72
0.51
54
0.21
15
1.50
130
0.70
105
0.78
61
0.80
98
0.84
74
0.90
139
0.33
23
3.45
152
2.96
170
1.14
146
1.04
153
1.32
46
1.08
136
4.63
134
4.87
103
0.63
118
0.38
25
0.85
75
0.83
64
1.02
24
1.16
108
GMOStereotwo views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
error versiontwo views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
test-vtwo views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
test-2two views1.28
80
0.74
44
0.45
28
0.62
80
0.52
60
0.46
35
0.39
61
1.54
139
0.47
46
0.87
76
0.47
25
0.74
46
0.59
66
0.35
31
2.01
58
1.45
101
0.80
63
0.87
104
2.92
113
0.69
70
1.78
93
10.98
198
0.46
47
0.41
37
1.09
116
0.72
47
1.56
61
0.58
23
GANetREF_RVCpermissivetwo views1.28
80
1.18
161
0.95
116
1.18
168
1.04
145
1.00
154
0.79
129
1.25
99
1.10
149
1.29
122
0.77
88
2.28
178
0.91
140
0.63
137
2.00
57
1.14
50
1.01
129
0.98
139
2.44
93
0.82
105
1.98
102
1.33
50
0.78
153
1.05
168
1.28
148
1.27
125
2.63
155
1.49
135
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AMNettwo views1.29
85
1.12
155
1.05
133
1.13
158
1.12
157
1.24
174
1.08
158
1.36
117
1.13
153
1.10
110
1.11
131
1.51
149
1.26
170
1.20
197
1.52
21
1.57
122
1.35
166
1.21
179
1.37
49
1.22
149
1.35
73
1.19
47
1.25
191
1.19
176
1.23
139
1.72
168
1.54
60
1.65
144
raft_robusttwo views1.30
86
0.93
112
0.53
40
0.59
74
0.47
39
0.57
77
0.37
58
2.06
189
0.52
64
1.69
149
0.53
38
0.76
56
0.82
130
0.47
87
2.16
71
1.52
115
0.84
78
0.84
100
5.71
170
0.59
45
2.50
109
5.04
109
0.46
47
0.51
67
0.99
103
1.05
98
1.58
68
0.99
89
IPLGR_Ctwo views1.31
87
0.71
35
0.68
62
0.57
68
0.46
35
0.52
57
0.31
39
0.81
39
0.53
68
0.76
54
0.69
70
1.03
104
0.53
47
0.59
124
2.62
106
1.33
78
0.88
90
0.63
41
3.25
128
0.61
49
1.64
89
10.69
190
0.55
88
0.53
76
0.89
88
0.57
33
2.40
128
0.62
34
ACREtwo views1.31
87
0.70
31
0.66
60
0.58
73
0.47
39
0.52
57
0.32
44
0.81
39
0.53
68
0.76
54
0.69
70
1.04
108
0.52
46
0.59
124
2.66
111
1.32
76
0.89
92
0.63
41
3.25
128
0.61
49
1.62
86
10.69
190
0.55
88
0.52
72
0.92
95
0.55
30
2.40
128
0.62
34
SACVNettwo views1.31
87
0.94
115
0.95
116
0.90
131
1.10
154
0.87
133
0.92
145
1.50
130
0.81
114
1.23
120
0.71
79
0.94
93
0.69
92
0.68
144
1.83
45
1.40
87
1.12
145
0.83
96
2.20
85
0.94
122
2.13
103
5.87
128
0.65
123
0.82
146
1.04
110
1.06
99
2.02
94
1.30
123
4D-IteraStereotwo views1.32
90
0.61
16
1.07
139
0.49
46
0.43
31
0.40
26
0.25
24
1.44
125
0.37
25
0.75
50
0.56
44
0.75
53
0.43
33
0.43
70
2.29
84
1.38
83
0.68
29
0.66
47
2.70
105
0.59
45
3.21
119
10.86
197
0.46
47
0.40
35
0.69
44
0.83
64
2.34
119
0.64
38
CIPLGtwo views1.32
90
0.70
31
0.69
63
0.57
68
0.46
35
0.52
57
0.33
48
0.81
39
0.55
75
0.76
54
0.69
70
1.03
104
0.53
47
0.59
124
2.91
125
1.33
78
0.89
92
0.62
38
3.23
123
0.62
55
1.62
86
10.69
190
0.55
88
0.53
76
0.90
92
0.54
28
2.37
125
0.61
32
DN-CSS_ROBtwo views1.32
90
0.83
76
1.03
129
0.87
129
0.86
126
0.47
41
0.36
57
2.00
184
0.57
83
1.56
140
1.81
160
0.96
96
0.77
120
0.38
45
2.15
68
1.40
87
1.03
134
0.93
125
5.27
158
0.66
64
2.56
110
2.82
78
0.54
86
0.86
155
0.79
61
0.81
60
2.07
97
1.33
127
UDGNettwo views1.34
93
1.00
139
0.76
76
1.64
190
1.38
178
1.69
194
1.25
166
1.22
93
0.69
103
0.63
32
0.84
105
0.83
72
0.41
31
1.62
205
2.02
62
1.19
59
0.81
72
0.87
104
1.98
78
0.92
119
1.68
90
5.69
124
1.26
193
0.47
55
1.21
132
0.95
84
2.15
102
1.03
94
CREStereotwo views1.37
94
0.91
107
0.94
112
0.52
55
0.42
30
0.47
41
0.26
29
1.43
124
0.66
100
0.87
76
0.83
103
0.95
94
0.73
103
0.36
40
2.98
129
4.38
201
0.85
80
0.56
26
2.41
92
0.62
55
5.52
149
4.71
98
0.53
81
0.47
55
1.02
108
0.87
74
1.73
76
0.98
83
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNet-RVC-Resampletwo views1.37
94
0.87
91
0.99
123
0.72
97
0.81
125
0.63
93
1.02
151
1.06
75
0.91
127
0.99
100
0.99
124
1.69
157
0.73
103
1.02
185
4.06
167
1.41
90
1.02
131
1.62
202
1.55
64
1.04
131
1.37
77
5.03
108
0.57
96
1.14
174
0.88
84
1.99
183
1.45
52
1.54
137
FADNet-RVCtwo views1.38
96
0.71
35
0.88
101
0.77
112
1.09
153
0.58
80
2.16
196
0.92
59
0.57
83
1.03
102
0.72
82
1.48
146
0.64
79
0.61
130
5.02
174
1.56
120
0.85
80
0.90
118
2.24
87
1.52
176
2.20
104
4.08
93
0.51
73
0.77
136
1.48
171
1.14
114
1.43
49
1.35
128
PMTNettwo views1.39
97
0.94
115
0.99
123
0.48
45
0.49
47
0.47
41
0.32
44
0.83
43
0.66
100
0.83
68
0.62
55
0.88
84
0.50
43
0.35
31
2.72
116
4.30
198
0.91
101
0.57
27
2.40
91
0.54
29
6.12
155
5.45
121
0.57
96
0.38
25
1.99
202
1.00
95
1.09
29
1.19
114
GEStwo views1.40
98
0.73
41
0.79
80
0.78
114
0.71
106
0.80
124
0.59
113
1.37
119
0.97
132
1.66
146
0.94
115
0.74
46
0.65
84
0.63
137
2.40
88
1.55
118
0.98
122
0.89
114
5.45
165
1.14
142
3.99
127
3.85
87
0.65
123
0.83
149
0.75
56
0.81
60
1.52
59
1.72
147
LoS_RVCtwo views1.42
99
1.25
170
0.86
98
0.31
14
0.49
47
0.37
18
0.33
48
0.73
24
0.56
80
2.10
172
0.68
67
0.67
34
0.70
94
0.33
23
3.08
137
3.79
190
0.89
92
2.10
221
3.01
120
0.66
64
4.40
128
6.44
132
0.51
73
0.43
45
0.82
66
0.85
71
0.90
16
0.99
89
tt_lltwo views1.42
99
1.25
170
0.86
98
0.31
14
0.49
47
0.37
18
0.33
48
0.73
24
0.56
80
2.10
172
0.68
67
0.67
34
0.70
94
0.33
23
3.08
137
3.79
190
0.89
92
2.10
221
3.01
120
0.66
64
4.40
128
6.44
132
0.51
73
0.43
45
0.82
66
0.85
71
0.90
16
0.99
89
sAnonymous2two views1.42
99
0.76
56
0.52
38
0.41
31
0.47
39
0.71
110
0.41
72
1.28
104
0.98
135
0.65
34
0.89
111
1.08
112
0.95
150
0.37
42
2.20
75
2.28
155
1.10
138
1.04
153
3.71
139
0.92
119
4.94
139
6.73
137
0.62
113
0.55
86
0.83
69
1.39
137
1.25
38
1.24
117
CroCo_RVCtwo views1.42
99
0.76
56
0.52
38
0.41
31
0.47
39
0.71
110
0.41
72
1.28
104
0.98
135
0.65
34
0.89
111
1.08
112
0.95
150
0.37
42
2.20
75
2.28
155
1.10
138
1.04
153
3.71
139
0.92
119
4.94
139
6.73
137
0.62
113
0.55
86
0.83
69
1.39
137
1.25
38
1.24
117
RGCtwo views1.43
103
1.30
178
1.99
206
1.14
163
1.18
164
1.16
166
1.01
149
1.20
91
1.08
147
0.91
87
1.70
159
1.18
126
1.24
169
0.87
169
3.10
141
1.18
56
0.98
122
0.86
102
1.81
72
1.02
130
1.39
78
3.87
89
0.76
146
0.90
158
1.14
125
1.53
151
2.17
104
1.85
151
FADNettwo views1.44
104
0.83
76
0.83
91
0.82
124
1.03
144
0.61
88
1.88
189
0.97
65
0.73
110
0.93
92
0.92
114
1.16
123
0.76
117
0.74
152
3.69
158
1.34
80
0.91
101
1.03
150
2.63
99
1.49
171
2.87
114
4.93
104
0.49
62
0.65
116
1.54
179
1.70
167
1.51
58
1.83
150
stereogantwo views1.44
104
1.33
181
1.05
133
1.11
155
1.28
171
1.11
161
0.97
147
1.26
101
1.05
143
1.22
119
1.10
129
1.62
155
0.89
137
0.66
141
2.34
86
1.31
74
0.94
112
0.81
91
1.72
70
0.95
123
1.10
53
8.04
150
0.71
139
0.77
136
0.83
69
1.06
99
2.36
122
1.38
130
NCCL2two views1.48
106
1.28
176
1.10
146
1.11
155
1.43
181
0.78
122
0.90
142
1.05
74
1.14
156
1.86
160
1.27
142
1.02
101
0.81
125
0.80
164
3.43
150
1.42
93
1.14
146
0.87
104
1.31
44
0.89
115
1.94
101
3.37
84
1.48
204
1.02
164
1.50
175
1.35
132
3.80
201
1.85
151
TANstereotwo views1.49
107
1.06
149
0.88
101
0.67
92
0.73
109
0.87
133
0.33
48
0.86
48
0.61
91
0.70
40
0.69
70
0.59
18
0.59
66
1.02
185
2.75
117
2.89
167
0.94
112
1.13
167
1.43
53
1.28
152
5.13
145
5.06
110
1.35
198
0.46
53
0.54
23
0.89
75
5.92
218
0.74
48
XX-TBDtwo views1.49
107
1.06
149
0.88
101
0.67
92
0.73
109
0.87
133
0.33
48
0.86
48
0.61
91
0.70
40
0.69
70
0.59
18
0.59
66
1.02
185
2.75
117
2.89
167
0.94
112
1.13
167
1.43
53
1.28
152
5.13
145
5.06
110
1.35
198
0.46
53
0.54
23
0.89
75
5.92
218
0.74
48
LoStwo views1.51
109
0.79
66
0.59
46
0.52
55
0.56
72
0.65
98
0.38
59
2.56
212
0.88
122
1.21
115
0.94
115
0.97
97
0.88
136
0.35
31
3.04
133
3.41
181
1.24
157
0.93
125
2.19
84
0.68
69
5.96
151
7.00
142
0.62
113
0.47
55
1.14
125
0.98
92
1.06
28
0.87
67
ICVPtwo views1.51
109
0.74
44
1.07
139
0.75
103
0.75
112
0.84
127
0.54
100
1.10
77
0.86
119
1.37
128
1.15
133
0.88
84
1.08
163
0.53
106
1.90
51
1.91
143
1.22
154
0.99
142
1.56
65
0.96
125
3.89
126
10.50
185
0.68
133
0.77
136
0.91
94
1.19
119
1.42
48
1.14
106
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views1.53
111
0.77
60
0.77
77
0.75
103
0.67
100
0.47
41
0.40
68
1.23
95
1.32
165
0.83
68
0.77
88
0.95
94
0.74
108
0.59
124
5.02
174
2.40
162
1.64
178
1.43
196
1.27
42
0.85
108
4.54
131
8.28
152
0.48
59
0.91
159
0.70
45
0.77
53
1.85
82
0.99
89
iResNetv2_ROBtwo views1.57
112
0.87
91
0.70
66
1.13
158
0.65
94
0.72
113
0.49
93
2.63
215
0.64
98
1.77
154
0.87
109
1.30
134
0.75
112
0.40
50
4.81
173
1.26
68
0.91
101
0.71
59
4.58
152
0.81
102
7.66
176
1.62
59
0.58
103
0.80
139
0.81
63
0.83
64
3.12
180
0.91
73
MyStereo04two views1.58
113
0.90
103
0.97
118
0.78
114
0.89
131
0.57
77
0.40
68
1.57
146
0.97
132
2.23
178
0.89
111
1.34
135
0.54
52
0.41
57
2.94
128
2.47
163
0.86
83
0.92
121
5.37
160
1.50
174
4.62
133
3.51
85
0.92
178
0.81
143
1.21
132
1.61
160
2.58
151
0.95
78
AE-Stereotwo views1.61
114
0.85
87
1.23
170
0.81
122
0.51
58
0.57
77
0.75
125
0.83
43
0.49
56
0.79
62
0.54
40
1.29
131
0.72
99
0.47
87
2.05
64
2.96
170
0.99
124
0.92
121
2.63
99
0.86
111
4.61
132
11.92
220
0.50
72
0.80
139
1.26
143
1.34
131
1.95
90
0.86
65
dadtwo views1.63
115
0.97
129
0.65
58
2.18
204
1.19
166
1.01
155
3.99
216
1.66
155
0.55
75
1.21
115
0.50
34
1.12
119
2.01
180
0.58
119
3.09
139
1.16
52
1.11
142
0.76
75
2.70
105
0.77
92
1.34
70
1.48
56
0.71
139
0.88
157
2.48
211
0.71
45
5.52
217
3.80
194
CC-Net-ROBtwo views1.63
115
1.81
202
1.19
164
1.85
195
1.77
196
2.27
205
1.56
175
0.93
60
0.96
131
1.29
122
0.67
63
5.48
217
2.51
187
1.43
203
1.64
26
0.87
15
1.34
164
1.17
171
2.46
94
0.88
113
1.09
51
1.35
52
3.34
225
0.63
111
1.22
137
1.15
115
1.47
54
1.57
139
XPNet_ROBtwo views1.63
115
1.57
197
1.09
145
0.91
133
1.13
160
1.01
155
0.88
140
0.95
64
1.14
156
1.07
108
1.82
161
4.03
204
0.72
99
0.78
158
1.82
43
1.51
112
1.52
175
0.94
128
1.42
51
1.04
131
2.20
104
7.75
148
0.86
174
0.80
139
0.94
96
1.29
128
3.34
188
1.56
138
DeepPruner_ROBtwo views1.64
118
0.75
52
0.91
108
0.85
127
0.88
129
0.75
117
1.75
182
1.26
101
0.91
127
1.49
136
1.65
157
0.85
76
0.81
125
0.56
113
3.12
143
1.49
111
1.02
131
1.02
147
2.33
89
0.75
89
7.42
174
6.70
136
0.81
166
0.69
122
0.88
84
1.45
142
2.17
104
0.87
67
CFNet_pseudotwo views1.65
119
0.78
63
0.82
88
0.82
124
0.79
121
0.69
107
0.42
78
0.93
60
0.53
68
0.95
97
0.81
100
0.88
84
0.81
125
0.81
165
15.70
199
1.39
85
0.74
50
0.71
59
7.24
200
0.77
92
0.97
41
1.50
57
0.69
136
0.57
89
0.88
84
0.89
75
1.47
54
1.12
105
MyStereotwo views1.68
120
0.94
115
1.20
167
0.82
124
0.89
131
0.54
63
0.39
61
1.29
107
0.72
108
2.27
182
2.11
173
1.39
141
0.67
88
0.40
50
3.48
153
2.21
153
0.86
83
0.89
114
5.44
164
1.62
180
4.46
130
4.54
96
0.80
161
0.85
152
1.36
154
1.64
163
2.66
160
0.94
77
test-3two views1.73
121
1.00
139
1.08
142
0.63
85
0.60
80
0.55
67
0.43
81
1.99
181
0.39
28
0.86
74
0.54
40
1.45
143
0.53
47
0.41
57
2.20
75
1.41
90
0.81
72
0.79
84
6.57
184
0.69
70
5.20
147
11.52
214
0.46
47
0.54
80
0.86
77
0.97
88
3.11
177
0.98
83
test_1two views1.73
121
1.01
141
1.08
142
0.63
85
0.60
80
0.55
67
0.43
81
1.99
181
0.39
28
0.86
74
0.54
40
1.45
143
0.54
52
0.41
57
2.20
75
1.42
93
0.80
63
0.79
84
6.57
184
0.69
70
5.20
147
11.52
214
0.46
47
0.54
80
0.87
81
0.97
88
3.11
177
0.98
83
test_3two views1.73
121
1.02
145
1.05
133
0.65
87
0.61
84
0.55
67
0.43
81
1.96
177
0.38
26
0.88
82
0.52
36
1.45
143
0.54
52
0.40
50
2.20
75
1.40
87
0.81
72
0.81
91
6.56
183
0.71
79
5.08
142
11.49
211
0.43
37
0.49
62
0.96
101
1.09
104
3.23
182
0.98
83
CREStereo++_RVCtwo views1.73
121
0.91
107
1.03
129
0.51
53
0.56
72
0.40
26
0.28
33
1.37
119
0.51
62
0.83
68
0.61
53
0.76
56
0.85
133
0.34
28
2.78
119
3.07
173
0.92
107
0.61
36
2.72
107
0.55
34
5.01
141
5.69
124
0.53
81
0.38
25
0.94
96
0.84
69
12.80
245
0.98
83
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
GEStereo_RVCtwo views1.80
125
0.96
127
0.99
123
1.02
147
0.87
127
1.12
162
1.03
154
1.66
155
0.82
116
0.91
87
0.79
94
1.34
135
0.75
112
0.61
130
2.25
82
2.14
151
1.14
146
1.23
183
4.06
146
1.22
149
4.66
135
11.41
210
0.71
139
0.95
161
0.88
84
0.97
88
2.49
139
1.65
144
NaN_ROBtwo views1.84
126
1.11
154
1.04
132
0.95
138
1.77
196
0.86
131
0.91
144
1.32
112
10.70
252
1.00
101
1.38
151
2.45
181
0.89
137
1.12
194
4.34
170
1.29
71
0.92
107
0.88
113
1.49
56
1.14
142
1.42
80
2.02
66
0.76
146
1.03
165
1.30
149
2.01
184
2.38
126
3.27
189
sCroCo_RVCtwo views1.85
127
0.67
24
0.55
42
0.37
21
0.49
47
0.75
117
0.41
72
0.94
63
1.56
181
1.51
137
0.78
93
1.04
108
0.94
148
0.48
93
2.49
94
5.07
209
1.26
160
1.22
180
2.53
96
1.37
157
7.95
183
11.14
203
0.45
45
0.60
101
0.94
96
1.12
109
2.34
119
1.05
97
ETE_ROBtwo views1.85
127
1.93
206
1.18
163
1.04
149
1.33
175
1.26
176
1.12
161
1.11
78
2.30
206
1.36
127
3.26
189
3.18
193
0.94
148
1.14
195
2.62
106
1.51
112
2.14
201
0.99
142
2.50
95
1.15
144
3.67
123
5.74
127
0.86
174
1.03
165
1.21
132
1.36
134
2.30
113
1.68
146
LALA_ROBtwo views1.85
127
2.17
210
1.13
154
1.05
151
1.26
167
1.16
166
1.01
149
1.17
86
1.46
174
2.06
169
2.82
181
3.47
195
0.92
143
0.93
177
3.90
164
1.46
106
1.36
167
1.18
174
2.20
85
1.31
155
2.84
113
5.10
113
0.77
151
1.01
162
1.24
140
1.41
140
3.89
205
1.77
149
Anonymoustwo views1.91
130
0.78
63
0.60
49
0.49
46
0.55
70
0.61
88
0.38
59
1.54
139
1.13
153
2.17
176
0.67
63
1.11
116
1.08
163
0.58
119
2.86
124
4.54
203
1.40
169
1.29
189
3.66
138
1.23
151
7.27
173
10.15
174
0.60
109
1.01
162
1.16
129
1.11
105
2.45
133
1.17
112
MLCVtwo views1.91
130
0.87
91
0.97
118
1.33
176
1.13
160
0.99
152
0.74
124
2.14
191
0.77
112
2.02
164
4.44
199
1.60
152
1.56
175
0.45
79
2.63
108
1.79
138
1.11
142
0.96
136
6.71
189
1.05
133
4.69
137
5.60
122
0.66
126
1.60
187
1.14
125
1.35
132
2.31
115
1.06
99
RAFT + AFFtwo views1.96
132
0.49
11
0.42
23
0.41
31
0.20
7
0.41
30
0.19
10
0.65
18
0.23
6
0.56
16
0.27
8
0.77
60
0.21
7
0.29
17
39.69
215
0.90
18
0.62
21
0.35
3
1.92
75
0.38
9
0.77
22
0.57
12
0.32
7
0.27
8
0.71
48
0.33
6
0.58
5
0.29
6
DDUNettwo views2.05
133
2.73
218
2.03
207
2.92
217
2.66
220
3.04
218
2.76
203
1.17
86
1.11
151
1.60
141
1.21
140
2.23
175
1.69
178
2.81
219
2.04
63
1.25
67
2.78
206
2.42
234
2.63
99
2.90
219
1.92
100
2.11
68
2.77
223
0.92
160
1.01
106
0.93
81
2.50
140
1.10
101
CASStwo views2.08
134
1.02
145
1.16
161
1.28
172
0.99
142
0.88
137
3.39
211
1.42
123
1.02
141
1.30
124
2.46
180
1.14
121
0.81
125
0.46
83
2.70
114
2.38
161
3.41
213
1.10
160
3.40
134
1.18
146
8.01
184
8.63
156
0.66
126
0.69
122
1.49
173
1.27
125
2.52
142
1.41
132
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
s12784htwo views2.23
135
1.12
155
1.32
175
1.12
157
0.91
134
0.59
83
0.39
61
1.37
119
0.65
99
1.05
106
0.82
101
1.08
112
0.95
150
0.37
42
2.80
121
4.82
206
0.93
111
0.71
59
3.28
131
0.58
42
7.80
178
8.40
155
0.51
73
0.54
80
1.50
175
1.13
112
11.58
239
3.94
195
R-Stereo Traintwo views2.23
135
1.01
141
1.14
156
0.96
139
0.63
92
0.73
115
0.31
39
1.30
108
1.01
139
1.68
147
4.49
200
1.29
131
0.70
94
0.42
66
2.49
94
3.99
194
1.66
179
1.02
147
6.77
191
1.11
137
7.83
179
12.24
225
0.49
62
0.54
80
1.42
164
1.66
164
1.34
42
1.93
156
RAFT-Stereopermissivetwo views2.23
135
1.01
141
1.14
156
0.96
139
0.63
92
0.73
115
0.31
39
1.30
108
1.01
139
1.68
147
4.49
200
1.29
131
0.70
94
0.42
66
2.49
94
3.99
194
1.66
179
1.02
147
6.77
191
1.11
137
7.83
179
12.24
225
0.49
62
0.54
80
1.42
164
1.66
164
1.34
42
1.93
156
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
EGLCR-Stereotwo views2.26
138
0.87
91
1.17
162
0.45
42
0.48
44
0.61
88
0.23
18
0.83
43
0.55
75
0.72
44
0.53
38
0.80
64
0.66
86
0.41
57
2.36
87
2.92
169
0.90
100
1.10
160
3.35
133
0.60
47
5.09
143
12.56
237
0.47
56
0.45
51
0.89
88
0.91
79
20.21
254
0.86
65
cross-rafttwo views2.26
138
0.88
99
1.08
142
0.73
100
0.68
102
0.64
96
0.44
85
2.04
187
0.61
91
0.95
97
1.30
143
1.03
104
0.76
117
0.43
70
2.58
103
5.15
210
0.99
124
0.78
81
7.00
198
1.80
190
12.15
214
10.30
182
0.65
123
0.60
101
1.60
184
1.92
178
1.66
73
2.36
172
AnonymousMtwo views2.27
140
0.64
17
0.44
26
0.51
53
0.32
15
0.49
47
0.24
21
1.70
157
0.48
52
0.75
50
2.06
172
0.70
39
0.47
35
0.39
46
2.47
93
3.26
178
0.99
124
1.03
150
1.88
73
2.37
210
4.85
138
6.68
135
0.57
96
0.47
55
0.53
22
0.65
41
11.71
241
14.52
232
Anonymous3two views2.32
141
0.85
87
0.88
101
0.56
65
1.10
154
0.89
140
0.70
121
2.45
208
1.12
152
1.05
106
0.98
123
2.57
186
1.14
167
0.56
113
4.14
169
9.30
232
1.50
173
1.47
197
5.33
159
1.49
171
6.83
165
10.10
171
0.71
139
0.67
119
1.08
114
1.38
135
2.32
116
1.35
128
RAFT-Testtwo views2.37
142
0.85
87
1.14
156
1.02
147
0.65
94
0.58
80
0.51
96
2.18
195
0.70
105
1.12
111
5.37
209
0.97
97
0.92
143
0.45
79
2.50
97
5.29
212
0.99
124
0.80
88
6.96
197
1.11
137
10.85
211
10.83
196
0.67
129
0.58
93
1.51
177
1.82
173
1.38
45
2.18
167
RYNettwo views2.42
143
0.40
7
0.35
13
0.29
11
0.32
15
0.40
26
0.25
24
0.61
13
0.55
75
0.33
5
0.36
17
0.40
9
0.26
10
0.27
15
52.29
255
0.69
6
0.47
6
1.00
146
0.54
7
0.29
6
0.50
5
0.37
3
0.38
23
0.32
13
0.57
28
1.24
122
1.31
41
0.50
14
CSANtwo views2.48
144
1.26
173
1.12
152
1.46
185
1.78
199
1.13
163
0.90
142
1.50
130
10.52
251
2.40
187
3.81
195
4.12
205
2.51
187
0.96
181
3.83
163
1.27
69
1.29
161
1.05
157
3.24
127
1.70
186
3.71
124
4.45
95
0.79
156
1.38
182
1.39
159
3.93
215
2.43
130
2.96
181
ADLNettwo views2.50
145
0.99
135
0.73
69
0.62
80
0.75
112
0.63
93
0.53
98
1.12
79
0.61
91
0.58
21
0.71
79
1.61
154
0.61
74
0.87
169
46.09
232
1.02
29
0.70
35
0.67
50
0.85
22
0.74
86
0.75
21
1.07
43
0.51
73
0.47
55
0.94
96
0.93
81
1.63
72
0.70
45
Any-RAFTtwo views2.54
146
0.94
115
1.27
174
0.75
103
0.75
112
0.50
50
0.40
68
1.99
181
0.56
80
0.87
76
6.98
235
1.50
148
0.51
45
0.40
50
2.50
97
3.41
181
0.91
101
0.90
118
6.78
193
0.75
89
14.26
246
10.61
188
0.67
129
0.59
99
1.63
185
1.83
174
2.17
104
4.22
197
GwcNet-ADLtwo views2.54
146
1.23
166
1.55
185
1.22
170
1.26
167
0.97
148
0.78
126
1.50
130
0.84
118
3.20
209
6.67
225
1.86
162
1.05
160
0.79
161
4.58
171
4.90
207
1.47
172
0.90
118
5.20
157
1.95
198
6.39
160
10.33
183
0.91
177
1.12
173
1.22
137
1.93
179
2.15
102
2.70
175
EAI-Stereotwo views2.60
148
0.90
103
1.57
186
0.90
131
1.31
173
0.84
127
1.31
169
2.22
198
1.34
166
0.81
67
5.69
212
1.37
139
0.83
131
0.50
99
4.76
172
5.32
213
0.91
101
0.94
128
7.45
202
1.11
137
9.07
192
10.78
195
0.62
113
0.85
152
1.45
170
2.06
185
3.36
189
1.90
154
PSMNet-ADLtwo views2.61
149
0.95
122
1.12
152
1.14
163
1.18
164
0.97
148
0.85
137
1.78
162
1.26
160
3.49
213
6.09
218
1.43
142
2.78
193
0.56
113
2.93
127
10.59
234
1.31
162
0.96
136
5.96
174
1.20
148
6.66
162
9.11
163
0.86
174
0.82
146
1.10
121
1.44
141
2.85
167
1.10
101
PWC_ROBbinarytwo views2.61
149
1.20
164
1.48
180
0.96
139
1.05
146
1.21
172
1.79
185
1.24
98
1.94
197
1.81
156
3.61
194
2.12
171
2.96
196
0.91
174
9.88
183
4.30
198
1.97
197
1.95
214
3.72
141
1.62
180
5.58
150
7.59
146
0.81
166
1.98
204
1.35
153
1.27
125
3.11
177
3.07
184
MSMDNettwo views2.69
151
0.87
91
1.07
139
0.57
68
0.65
94
0.59
83
0.49
93
2.03
186
0.62
96
1.03
102
0.97
122
1.05
110
12.04
232
0.50
99
2.60
104
5.56
215
1.05
136
0.80
88
6.93
196
1.42
162
11.49
213
12.49
234
0.67
129
0.58
93
1.48
171
1.83
174
1.28
40
1.97
159
HHtwo views2.75
152
0.67
24
1.42
177
0.80
119
0.71
106
0.88
137
1.09
159
1.86
170
0.87
120
5.19
248
0.66
61
1.91
164
0.86
134
0.57
117
2.65
109
8.48
230
0.87
86
0.94
128
6.36
179
1.39
160
13.52
233
12.32
227
0.79
156
0.58
93
1.38
156
1.63
161
3.81
202
2.06
161
HanStereotwo views2.75
152
0.67
24
1.42
177
0.80
119
0.71
106
0.88
137
1.09
159
1.86
170
0.87
120
5.19
248
0.66
61
1.91
164
0.86
134
0.57
117
2.65
109
8.48
230
0.87
86
0.94
128
6.36
179
1.39
160
13.52
233
12.32
227
0.79
156
0.58
93
1.38
156
1.63
161
3.81
202
2.06
161
MSKI-zero shottwo views2.77
154
0.80
67
1.10
146
0.74
102
0.59
77
0.67
103
0.54
100
1.87
172
0.97
132
0.88
82
6.73
227
1.60
152
0.72
99
0.43
70
3.38
149
7.92
228
1.20
153
0.87
104
6.85
195
4.65
230
10.45
208
12.15
222
0.55
88
0.71
127
1.49
173
1.96
182
1.85
82
3.12
186
PWCDC_ROBbinarytwo views2.78
155
0.70
31
0.65
58
0.61
77
0.87
127
0.63
93
0.57
107
1.04
73
1.59
182
0.65
34
1.88
162
0.80
64
3.28
201
0.73
150
41.04
219
2.18
152
1.23
156
0.98
139
1.52
59
0.97
126
2.56
110
5.26
117
0.68
133
0.81
143
0.74
55
0.94
83
1.13
32
0.97
81
GANet-ADLtwo views2.79
156
0.89
100
1.20
167
1.00
146
1.00
143
1.20
171
0.80
132
1.20
91
1.00
137
3.59
214
6.59
224
1.06
111
0.76
117
0.48
93
12.27
188
4.90
207
1.57
176
0.92
121
6.59
186
1.66
184
6.93
168
11.51
213
0.68
133
0.80
139
1.09
116
1.40
139
2.47
135
1.85
151
iResNettwo views2.79
156
0.95
122
0.91
108
1.35
178
1.69
191
1.41
182
1.02
151
1.81
167
1.09
148
2.62
192
5.14
206
1.80
160
2.38
183
0.46
83
10.35
184
7.64
226
1.36
167
1.23
183
6.83
194
1.78
189
10.05
202
4.09
94
0.61
111
2.02
205
1.10
121
1.50
147
2.80
165
1.39
131
NVstereo2Dtwo views2.81
158
0.82
73
0.74
72
0.69
95
0.78
119
0.92
142
0.81
133
1.18
90
0.76
111
0.91
87
1.06
127
0.80
64
0.55
57
0.71
149
52.63
257
1.47
108
0.86
83
0.83
96
1.42
51
0.69
70
1.12
55
0.94
35
0.76
146
0.83
149
1.08
114
0.78
55
0.98
22
0.74
48
MIPNettwo views2.89
159
0.91
107
0.77
77
0.49
46
0.65
94
0.55
67
0.57
107
1.34
116
0.53
68
2.05
167
0.99
124
0.80
64
0.77
120
0.48
93
40.89
218
1.61
126
1.15
150
0.94
128
3.25
128
1.19
147
1.15
58
9.31
164
0.57
96
0.62
106
1.24
140
1.51
148
2.90
171
0.82
60
DAStwo views2.93
160
0.99
135
1.06
137
1.13
158
1.05
146
1.03
157
1.04
155
1.74
160
1.81
193
3.32
210
5.70
213
2.61
187
3.08
198
0.50
99
3.19
145
7.47
223
1.83
186
1.23
183
5.90
171
1.83
191
12.92
224
10.26
179
0.76
146
1.94
200
1.32
150
1.51
148
2.60
152
1.31
124
SepStereotwo views2.93
160
0.99
135
1.06
137
1.13
158
1.05
146
1.03
157
1.04
155
1.74
160
1.81
193
3.32
210
5.70
213
2.61
187
3.08
198
0.50
99
3.19
145
7.47
223
1.83
186
1.23
183
5.90
171
1.83
191
12.92
224
10.26
179
0.76
146
1.94
200
1.32
150
1.51
148
2.60
152
1.31
124
IPLGtwo views3.01
162
0.75
52
0.63
53
0.42
37
0.52
60
0.54
63
0.51
96
1.63
152
0.35
22
0.62
29
0.59
51
0.77
60
0.66
86
0.46
83
51.49
249
1.67
132
1.02
131
0.92
121
3.51
136
0.63
58
0.99
43
5.97
129
0.49
62
0.48
60
0.80
62
1.16
116
2.86
168
0.71
46
MFMNet_retwo views3.01
162
1.41
185
1.48
180
1.53
188
1.87
204
1.96
200
2.01
192
2.67
217
2.16
203
1.60
141
1.98
166
3.57
197
2.65
190
1.02
185
6.96
181
4.19
197
2.67
204
1.96
215
6.48
182
2.40
212
14.04
240
4.97
105
1.86
212
1.97
202
1.38
156
1.33
130
3.31
187
1.94
158
test-1two views3.02
164
0.66
23
1.14
156
0.60
75
0.58
75
0.75
117
0.63
117
1.96
177
0.82
116
4.00
222
5.48
210
2.18
173
0.80
124
0.41
57
4.00
166
7.32
222
1.18
152
1.19
176
6.72
190
7.57
241
10.78
209
12.94
245
0.54
86
0.60
101
1.40
162
1.78
170
2.89
170
2.52
173
RTSCtwo views3.08
165
0.95
122
1.25
173
0.76
107
0.91
134
0.96
145
1.84
187
1.15
84
1.34
166
2.37
184
2.12
174
1.11
116
0.99
154
1.02
185
41.50
221
1.94
145
1.88
190
1.22
180
4.09
147
1.06
134
2.76
112
4.02
92
0.63
118
1.03
165
0.83
69
0.99
94
2.44
131
1.98
160
pcwnet_v2two views3.22
166
0.81
71
0.94
112
0.92
135
1.12
157
0.94
143
0.70
121
1.17
86
0.88
122
2.04
166
1.10
129
1.09
115
1.00
155
1.27
200
47.63
235
1.56
120
0.96
117
0.87
104
6.63
187
0.81
102
2.45
107
3.52
86
1.01
182
0.75
132
1.04
110
1.16
116
2.44
131
2.23
170
IPLGRtwo views3.25
167
0.89
100
0.81
85
0.65
87
0.66
99
0.50
50
0.42
78
1.14
83
0.44
41
2.02
164
1.30
143
0.86
77
0.74
108
0.47
87
50.44
244
1.86
141
1.15
150
1.11
164
3.23
123
1.37
157
1.41
79
7.71
147
0.56
94
0.70
126
1.39
159
1.55
152
3.46
193
0.92
75
IGEV_Zeroshot_testtwo views3.38
168
0.83
76
1.84
198
2.82
214
0.69
104
2.37
210
1.26
168
2.23
199
0.94
130
4.40
227
6.76
228
2.28
178
1.01
156
0.45
79
2.83
122
7.72
227
0.87
86
0.77
77
5.93
173
1.87
193
8.49
189
12.88
244
0.58
103
0.69
122
1.40
162
1.57
153
14.84
252
2.99
182
SHDtwo views3.38
168
1.01
141
1.68
190
1.14
163
1.07
151
1.14
164
1.78
184
1.61
151
1.66
185
2.40
187
3.05
185
1.63
156
2.43
185
0.84
167
40.11
216
2.04
147
1.74
181
1.40
194
4.17
148
1.88
194
3.81
125
5.43
120
0.70
137
1.67
190
1.86
198
1.46
143
1.97
92
1.59
140
FADNet_RVCtwo views3.44
170
1.21
165
1.19
164
1.40
179
1.78
199
0.99
152
1.75
182
1.50
130
1.19
159
1.35
126
2.01
170
1.96
167
1.63
176
1.66
207
22.11
206
3.36
180
1.83
186
2.82
243
5.63
168
1.76
188
6.35
159
9.50
165
0.77
151
1.39
184
1.21
132
1.48
144
12.05
242
2.87
179
FC-DCNNcopylefttwo views3.48
171
1.59
198
4.19
240
2.76
213
2.30
209
3.10
220
1.73
181
2.57
213
1.72
187
2.88
200
1.36
150
2.15
172
1.21
168
0.68
144
6.32
178
1.61
126
1.31
162
1.03
150
7.90
206
0.95
123
8.85
190
8.73
159
0.82
169
1.69
193
3.19
219
2.50
201
4.67
211
16.15
236
HSM-Net_RVCpermissivetwo views3.49
172
1.07
151
1.10
146
1.70
191
1.17
163
0.90
141
0.61
116
2.29
205
1.07
146
2.77
197
5.82
215
41.08
261
1.35
174
0.50
99
2.40
88
1.74
135
1.10
138
0.77
77
1.99
79
1.13
141
6.78
164
6.90
140
0.80
161
2.23
214
1.64
187
1.49
146
2.14
100
1.75
148
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
RTStwo views3.53
173
1.15
158
0.98
121
0.97
142
1.26
167
1.33
178
3.31
208
1.33
113
1.50
177
2.37
184
1.20
137
1.75
158
1.12
165
0.88
171
42.78
224
2.37
159
1.94
194
1.33
191
3.94
142
1.62
180
3.62
121
5.21
115
1.02
183
1.09
171
1.83
196
5.05
220
2.33
117
2.13
163
RTSAtwo views3.53
173
1.15
158
0.98
121
0.97
142
1.26
167
1.33
178
3.31
208
1.33
113
1.50
177
2.37
184
1.20
137
1.75
158
1.12
165
0.88
171
42.78
224
2.37
159
1.94
194
1.33
191
3.94
142
1.62
180
3.62
121
5.21
115
1.02
183
1.09
171
1.83
196
5.05
220
2.33
117
2.13
163
XQCtwo views3.58
175
1.29
177
1.21
169
1.28
172
1.43
181
1.29
177
1.93
190
1.60
148
1.45
172
2.47
189
3.06
186
1.48
146
4.17
204
1.23
199
44.68
230
2.35
157
1.60
177
1.18
174
3.95
145
1.43
164
3.22
120
4.97
105
0.84
171
1.24
178
1.43
167
2.09
189
2.30
113
1.52
136
FCDSN-DCtwo views3.63
176
0.94
115
2.84
226
1.29
174
1.30
172
1.03
157
1.00
148
0.90
56
0.91
127
1.04
105
0.74
84
1.21
127
0.74
108
0.58
119
52.59
256
2.04
147
1.24
157
1.13
167
1.05
33
0.79
97
6.62
161
10.01
169
0.78
153
2.18
209
1.20
131
1.67
166
1.20
36
1.05
97
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_DS_RVCtwo views3.64
177
1.48
192
1.03
129
1.98
199
1.75
195
2.09
203
5.14
223
2.15
192
2.23
204
1.73
151
1.57
155
2.49
183
4.83
207
5.73
238
12.78
190
1.73
134
1.22
154
1.06
158
5.43
162
1.54
177
12.24
217
9.06
162
1.52
205
1.16
175
2.29
204
3.46
211
3.05
176
7.63
217
NOSS_ROBtwo views3.67
178
1.38
184
0.81
85
1.15
167
1.16
162
1.15
165
0.65
118
2.25
201
1.41
170
4.85
235
6.68
226
6.78
224
1.06
161
0.82
166
11.52
187
14.58
246
1.34
164
1.17
171
2.93
117
0.98
127
14.13
241
12.82
240
0.79
156
1.48
185
1.13
124
1.48
144
3.41
190
1.25
119
UDGtwo views3.91
179
2.76
219
2.09
208
2.92
217
2.64
218
2.99
217
2.71
201
1.31
111
1.13
153
1.65
145
1.96
164
2.20
174
1.68
177
2.77
218
48.81
239
1.57
122
3.02
210
2.26
224
2.65
102
2.91
220
3.00
116
3.09
80
2.64
218
1.05
168
1.02
108
1.19
119
2.36
122
1.16
108
PVDtwo views4.10
180
1.44
190
2.12
210
1.41
180
1.58
187
1.68
193
2.10
194
3.06
222
2.66
212
2.85
199
4.32
197
2.46
182
3.63
203
1.27
200
40.43
217
2.72
165
2.19
202
2.11
223
4.71
153
2.46
214
6.18
156
6.10
131
1.02
183
1.74
194
2.32
207
2.44
199
2.90
171
2.66
174
SAMSARAtwo views4.13
181
1.32
179
1.53
183
1.48
186
1.35
176
1.47
186
2.74
202
2.23
199
1.83
195
2.26
180
3.47
193
2.01
170
8.60
217
1.76
211
38.24
213
2.88
166
1.82
185
1.41
195
4.99
155
1.91
195
5.10
144
5.71
126
0.94
179
1.80
196
3.33
221
3.84
213
4.16
208
3.30
191
iRaft-Stereo_20wtwo views4.16
182
1.13
157
2.10
209
2.66
210
1.55
186
1.55
188
1.17
162
1.96
177
1.27
161
5.53
254
6.77
229
1.52
150
1.34
173
0.43
70
3.03
131
5.32
213
0.95
115
0.77
77
5.49
166
1.46
169
8.20
186
12.75
239
0.61
111
0.60
101
1.63
185
25.36
257
11.64
240
5.58
209
SGM-Foresttwo views4.18
183
1.24
167
0.74
72
2.12
201
1.35
176
1.42
183
0.56
106
1.36
117
0.90
125
4.89
237
0.96
118
2.51
185
12.92
235
0.61
130
16.38
200
3.12
175
0.79
60
0.65
46
7.04
199
0.76
91
6.77
163
10.03
170
0.84
171
0.81
143
1.66
189
1.78
170
4.79
215
25.96
251
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ccs_robtwo views4.23
184
1.10
153
1.53
183
1.14
163
0.92
140
1.19
170
1.05
157
2.86
220
1.27
161
4.20
224
35.77
262
8.95
234
1.29
171
0.73
150
3.10
141
6.47
218
1.50
173
1.17
171
5.98
175
1.44
166
10.44
207
11.78
217
0.74
145
2.24
215
1.07
113
1.30
129
2.65
158
2.20
168
DeepPrunerFtwo views4.30
185
1.53
193
0.72
68
2.93
219
5.08
249
2.43
213
3.38
210
0.87
52
4.11
231
0.80
65
1.17
135
0.66
31
0.56
58
0.61
130
45.12
231
2.02
146
1.01
129
0.78
81
2.32
88
0.88
113
1.56
84
1.70
61
0.84
171
0.67
119
29.00
260
1.78
170
2.48
136
1.17
112
MSC_U_SF_DS_RVCtwo views4.33
186
2.25
214
1.45
179
2.41
207
1.94
206
1.93
198
4.82
222
1.96
177
2.59
210
2.96
204
1.96
164
2.49
183
8.10
215
9.76
247
14.02
194
3.47
184
2.04
200
1.98
216
14.27
223
3.33
224
7.23
172
7.20
144
2.89
224
1.85
198
2.43
210
2.85
206
2.19
108
6.62
214
FAT-Stereotwo views4.35
187
1.18
161
2.25
212
1.48
186
1.81
202
1.42
183
1.49
172
3.57
229
1.84
196
3.66
217
6.22
219
6.70
223
2.76
192
1.07
193
6.82
180
15.24
252
2.03
199
2.49
235
5.43
162
8.81
250
13.23
229
12.34
230
0.95
180
2.79
235
1.26
143
2.25
194
2.96
174
5.48
206
MFN_U_SF_RVCtwo views4.44
188
1.91
205
1.83
197
2.19
205
1.82
203
2.38
212
4.61
220
2.39
207
1.94
197
4.48
229
11.47
251
3.74
202
2.50
186
4.72
233
20.32
205
3.66
187
1.91
192
1.83
210
11.50
218
3.25
223
7.86
181
6.73
137
1.25
191
3.20
245
1.86
198
3.84
213
2.83
166
3.94
195
STTRV1_RVCtwo views4.49
189
1.26
173
1.01
127
1.62
189
1.11
156
1.76
195
1.25
166
1.50
130
1.40
169
1.75
153
1.60
156
2.72
189
3.31
202
1.00
183
2.61
105
1.77
137
11.19
243
0.96
136
41.25
250
9.01
252
9.10
193
8.68
158
1.19
187
1.66
189
1.68
190
1.59
155
3.90
206
5.32
205
RainbowNettwo views4.65
190
3.75
234
2.70
224
4.56
229
2.98
230
4.16
226
8.75
235
2.05
188
2.01
200
1.90
161
1.12
132
3.61
201
3.00
197
3.60
230
2.70
114
1.89
142
2.97
209
1.54
200
15.27
226
8.73
249
11.07
212
11.30
209
10.70
256
2.22
211
1.73
191
2.30
195
2.76
163
6.13
212
S-Stereotwo views4.68
191
1.15
158
1.74
194
1.75
192
1.63
188
1.65
191
2.24
198
2.75
219
2.15
202
3.32
210
11.59
252
5.97
218
1.74
179
0.88
171
19.04
203
16.28
254
1.81
184
2.39
232
5.64
169
9.35
255
7.13
171
12.52
235
1.61
207
2.64
228
1.24
140
2.08
188
2.88
169
3.26
188
MADNet+two views4.78
192
2.02
209
1.87
201
2.01
200
2.36
212
1.47
186
4.28
218
2.47
209
1.99
199
2.66
193
2.13
175
3.56
196
2.85
195
2.34
215
41.14
220
5.66
216
3.48
215
1.53
199
4.54
151
3.38
225
13.07
228
7.34
145
1.72
209
3.48
247
2.93
215
2.17
192
3.24
184
3.29
190
ADCReftwo views4.84
193
1.42
188
1.01
127
0.78
114
1.77
196
1.21
172
1.62
177
0.99
68
5.58
240
1.85
159
1.08
128
1.02
101
0.91
140
1.17
196
54.35
260
1.92
144
1.10
138
1.04
153
3.49
135
1.32
156
1.80
97
3.27
83
2.13
215
0.87
156
2.30
205
4.60
217
2.48
136
29.71
256
SQANettwo views4.87
194
4.55
240
2.13
211
19.76
249
2.63
216
4.99
235
3.29
207
1.63
152
1.45
172
1.20
114
1.40
152
3.22
194
2.40
184
2.76
217
3.09
139
1.20
61
5.19
224
1.07
159
19.89
231
1.28
152
12.48
218
10.73
193
11.37
259
1.49
186
1.57
182
2.32
197
2.66
160
5.86
210
FBW_ROBtwo views4.93
195
2.40
216
2.44
218
2.67
211
2.86
224
2.30
209
4.71
221
1.79
163
1.10
149
2.54
190
2.92
182
4.12
205
5.31
208
6.61
239
50.17
241
1.18
56
1.44
170
0.95
134
8.76
209
1.43
164
8.26
187
5.68
123
4.20
230
1.75
195
1.42
164
1.95
181
1.81
79
2.20
168
ADCP+two views5.07
196
1.54
194
1.72
191
1.08
153
1.54
185
1.18
169
2.02
193
1.02
70
2.72
215
4.05
223
2.23
178
2.24
176
0.61
74
0.94
179
54.46
261
1.52
115
0.83
76
0.95
134
3.94
142
0.87
112
2.22
106
2.57
76
0.71
139
0.62
106
2.48
211
11.25
240
7.85
230
23.66
247
CBMVpermissivetwo views5.08
197
1.41
185
1.15
160
1.44
184
1.42
180
1.24
174
0.78
126
2.27
203
1.47
176
3.04
205
6.44
222
7.74
227
9.07
220
0.60
128
12.81
191
13.79
242
1.99
198
1.29
189
9.56
211
1.15
144
9.82
197
12.54
236
0.82
169
1.84
197
1.44
168
1.83
174
4.39
210
25.76
250
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
otakutwo views5.09
198
5.20
241
2.27
213
18.45
247
2.89
225
5.73
237
3.63
213
1.44
125
1.46
174
1.31
125
1.42
153
3.59
199
2.63
189
3.22
224
3.07
136
1.30
72
5.55
226
1.14
170
20.28
232
1.49
171
13.81
237
11.25
208
11.85
261
1.91
199
1.56
181
2.06
185
2.52
142
6.49
213
ACVNet_1two views5.24
199
3.87
236
3.60
237
13.80
243
3.48
239
6.00
242
10.57
240
1.60
148
1.79
190
1.55
139
1.30
143
4.40
210
2.80
194
5.43
236
2.42
90
1.39
85
11.59
244
1.72
207
20.91
236
1.50
174
14.41
251
8.16
151
7.22
242
2.84
238
1.73
191
2.19
193
2.61
154
2.72
176
Ntrotwo views5.35
200
6.19
246
2.38
217
8.06
238
2.91
227
4.88
233
6.70
229
1.40
122
1.53
179
1.44
135
1.19
136
3.58
198
2.73
191
3.12
223
3.66
155
1.17
54
6.56
234
1.19
176
32.62
243
1.60
179
14.27
248
11.82
218
11.41
260
2.54
225
1.64
187
2.30
195
2.45
133
5.00
201
EKT-Stereotwo views5.41
201
0.97
129
1.10
146
0.72
97
0.74
111
0.87
133
1.17
162
2.02
185
1.00
137
1.41
133
2.92
182
1.11
116
0.81
125
0.46
83
72.33
270
14.74
247
1.14
146
1.37
193
5.61
167
7.76
242
9.80
196
10.61
188
0.53
81
0.61
105
1.39
159
1.11
105
2.56
149
1.08
100
pmcnntwo views5.52
202
1.54
194
1.51
182
2.64
209
3.13
232
2.07
201
10.40
239
2.61
214
2.65
211
2.55
191
6.41
221
6.23
221
15.93
244
0.58
119
6.75
179
14.92
249
3.87
218
3.34
245
7.45
202
7.76
242
13.60
236
10.19
175
6.30
240
2.29
218
1.57
182
3.30
210
4.69
212
4.80
199
DPSNettwo views5.60
203
1.54
194
1.19
164
1.76
193
2.44
215
2.08
202
1.81
186
1.95
176
2.93
216
2.09
171
5.15
207
9.82
237
6.09
210
8.98
243
14.30
195
12.14
239
4.12
222
3.60
246
17.82
228
8.28
246
12.18
215
14.58
250
3.71
228
3.09
242
2.30
205
2.42
198
2.52
142
2.24
171
ADCMidtwo views5.63
204
2.23
212
2.63
221
1.42
182
2.89
225
2.37
210
3.73
214
1.92
174
2.97
217
1.91
162
3.16
187
2.33
180
2.31
182
1.48
204
50.97
248
3.74
188
1.84
189
1.86
212
7.38
201
1.99
202
4.66
135
5.18
114
2.70
220
1.38
182
2.33
208
8.75
236
6.81
228
21.02
243
ADCLtwo views5.69
205
1.88
203
1.63
188
1.29
174
1.40
179
1.59
190
2.22
197
1.23
95
5.20
238
3.04
205
2.01
170
1.14
121
0.84
132
1.04
191
50.40
243
1.63
129
1.45
171
1.79
208
2.94
119
1.38
159
3.19
118
2.35
70
1.23
190
1.07
170
9.47
244
11.74
242
11.34
238
29.10
255
SANettwo views5.69
205
2.22
211
1.77
195
1.84
194
2.37
213
2.28
206
1.43
170
4.49
239
7.61
246
2.05
167
4.86
205
8.34
233
11.81
231
1.70
208
43.86
228
1.62
128
5.96
228
1.51
198
4.43
150
1.70
186
8.97
191
8.28
152
1.20
188
2.60
226
1.94
201
6.02
228
3.42
192
9.29
221
SPS-STEREOcopylefttwo views5.78
207
1.73
201
1.86
199
2.48
208
1.67
190
2.19
204
1.60
176
2.72
218
1.76
188
3.63
216
6.80
231
4.12
205
2.19
181
1.21
198
13.01
192
12.86
240
2.91
208
2.01
217
47.66
259
2.04
204
14.17
243
13.06
246
1.43
201
2.27
217
2.40
209
1.94
180
3.66
198
2.80
177
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views5.79
208
3.52
229
2.90
227
21.94
254
3.38
237
4.55
228
8.18
233
1.84
168
1.76
188
1.84
157
1.98
166
3.88
203
3.20
200
3.03
221
2.85
123
1.46
106
12.77
250
1.56
201
33.59
244
1.68
185
10.81
210
7.91
149
6.79
241
2.68
233
3.13
218
2.65
203
3.23
182
3.11
185
edge stereotwo views5.88
209
1.88
203
3.14
231
2.14
202
1.80
201
2.47
215
2.43
199
4.51
240
3.45
224
3.97
221
4.84
204
6.45
222
17.40
246
1.04
191
5.09
176
14.91
248
1.80
182
1.66
204
37.39
247
6.28
237
5.99
153
12.74
238
1.44
202
2.02
205
2.12
203
2.11
191
3.75
199
5.99
211
Deantwo views5.89
210
3.71
233
2.59
219
34.77
259
3.99
244
4.60
231
10.86
242
2.26
202
2.39
208
2.16
175
1.55
154
4.68
213
4.76
206
3.30
226
3.03
131
1.76
136
12.09
247
1.65
203
9.86
214
2.04
204
14.16
242
9.89
168
7.35
243
2.66
232
3.36
222
2.91
207
3.53
196
3.13
187
AnyNet_C32two views6.05
211
1.43
189
1.39
176
1.26
171
1.64
189
1.36
180
2.92
204
1.55
144
5.28
239
2.67
195
4.61
202
1.90
163
1.29
171
1.29
202
55.18
262
3.43
183
1.96
196
2.08
220
3.65
137
1.91
195
6.94
169
8.77
160
1.20
188
1.68
191
6.02
231
14.92
248
6.12
221
20.86
242
G-Nettwo views6.29
212
1.69
199
1.86
199
1.42
182
1.70
193
1.45
185
1.19
165
4.71
241
8.56
247
3.16
207
4.70
203
7.94
228
6.89
212
0.85
168
15.45
198
8.15
229
1.92
193
2.75
239
5.41
161
6.49
239
9.16
194
11.23
207
1.46
203
2.81
237
1.81
194
19.84
253
6.51
226
30.80
257
TRStereotwo views6.31
213
1.25
170
1.93
202
0.85
127
0.61
84
2.29
208
0.86
138
2.21
197
0.54
73
4.40
227
1.34
146
2.24
176
0.75
112
0.45
79
4.08
168
6.55
219
0.80
63
0.85
101
6.04
176
1.45
168
7.60
175
12.13
221
0.55
88
0.49
62
1.44
168
103.74
275
3.24
184
1.61
141
HBP-ISPtwo views6.40
214
1.33
181
2.30
215
1.91
198
1.51
183
1.65
191
0.79
129
2.50
211
1.29
163
4.91
238
6.80
231
1.37
139
0.74
108
14.59
254
52.98
258
19.59
258
1.24
157
1.10
160
6.08
177
8.03
245
12.73
221
16.75
255
0.79
156
1.19
176
1.81
194
2.06
185
3.90
206
2.87
179
SGM-ForestMtwo views6.44
215
10.17
256
6.98
255
4.69
230
2.91
227
6.90
245
9.70
238
7.26
250
4.59
236
4.81
234
6.31
220
9.50
236
9.35
222
0.78
158
3.65
154
1.30
72
6.50
232
0.89
114
11.21
217
1.44
166
6.08
154
6.02
130
1.58
206
1.68
191
9.47
244
11.34
241
12.07
243
16.58
237
CBMV_ROBtwo views6.60
216
1.41
185
1.59
187
2.38
206
1.74
194
1.90
197
1.86
188
6.44
246
1.69
186
5.02
242
7.03
236
9.95
243
11.26
228
0.65
140
38.55
214
7.04
220
2.78
206
1.12
166
9.67
213
2.45
213
9.46
195
11.60
216
0.80
161
1.37
181
4.92
227
12.01
243
4.73
213
18.79
240
ADCStwo views6.69
217
1.97
207
1.94
203
1.41
180
2.24
208
1.84
196
3.00
205
2.08
190
3.97
228
2.66
193
3.26
189
3.01
192
11.48
229
2.01
213
53.18
259
11.65
237
2.72
205
2.59
236
5.10
156
2.24
208
10.43
206
8.65
157
1.76
210
1.97
202
2.57
213
10.58
238
7.51
229
18.68
239
anonymitytwo views6.71
218
0.80
67
1.73
193
1.09
154
0.88
129
0.79
123
0.68
119
2.17
194
0.90
125
3.78
220
97.20
270
1.95
166
0.93
145
0.44
78
2.57
102
7.16
221
0.95
115
0.83
96
6.70
188
1.07
135
7.93
182
12.47
233
0.67
129
0.57
89
1.51
177
1.60
158
20.99
256
2.80
177
ADCPNettwo views7.09
219
1.18
161
3.04
230
1.33
176
3.12
231
1.36
180
8.88
236
2.15
192
3.24
221
4.23
225
7.84
242
1.96
167
15.92
243
1.71
209
49.61
240
3.53
186
1.89
191
1.25
187
19.14
230
3.03
222
5.96
151
4.75
101
4.72
231
1.29
180
3.95
224
5.33
222
3.87
204
27.01
252
IMH-64-1two views7.17
220
3.27
224
3.53
234
4.69
230
3.29
234
4.58
229
5.71
225
3.51
226
3.09
218
1.39
131
1.98
166
4.90
214
10.92
224
4.82
234
52.00
250
4.78
204
3.66
216
2.27
225
12.32
219
1.96
199
6.91
166
10.55
186
7.77
249
2.22
211
6.05
232
4.73
218
13.45
247
9.13
219
IMH-64two views7.17
220
3.27
224
3.53
234
4.69
230
3.29
234
4.58
229
5.71
225
3.51
226
3.09
218
1.39
131
1.98
166
4.90
214
10.92
224
4.82
234
52.00
250
4.78
204
3.66
216
2.27
225
12.32
219
1.96
199
6.91
166
10.55
186
7.77
249
2.22
211
6.05
232
4.73
218
13.45
247
9.13
219
AnyNet_C01two views7.20
222
2.24
213
2.27
213
2.95
220
1.92
205
1.58
189
5.39
224
3.73
234
5.63
241
3.17
208
4.41
198
4.59
212
6.09
210
1.88
212
58.66
264
14.24
243
5.46
225
3.69
247
4.79
154
3.02
221
8.40
188
10.33
183
2.45
217
2.24
215
5.77
229
2.65
203
8.81
234
17.99
238
WAO-6two views7.36
223
2.83
221
2.64
222
8.38
240
2.78
222
3.59
223
8.61
234
3.51
226
3.36
223
1.84
157
2.45
179
5.99
219
8.70
219
3.06
222
50.70
245
2.35
157
13.44
254
1.82
209
8.79
210
2.15
207
14.26
246
12.40
232
3.35
226
2.64
228
7.87
238
5.84
225
4.30
209
11.17
228
SPstereotwo views7.58
224
2.32
215
3.96
238
2.17
203
2.01
207
2.28
206
2.11
195
2.97
221
3.67
225
2.95
202
8.06
243
30.35
259
16.56
245
2.33
214
12.64
189
18.07
256
3.29
212
3.89
249
6.22
178
6.47
238
12.61
220
14.38
249
2.38
216
2.80
236
4.18
225
7.54
231
13.61
249
14.75
233
WAO-7two views8.11
225
2.98
222
5.46
249
29.83
257
2.32
211
3.09
219
9.23
237
2.48
210
4.20
232
4.67
233
7.60
238
7.98
229
11.78
230
1.64
206
22.32
207
2.11
150
12.00
246
2.79
242
44.95
256
2.13
206
10.06
203
10.12
172
1.37
200
2.49
224
2.97
217
4.35
216
2.94
173
5.06
203
SGM_RVCbinarytwo views8.49
226
2.77
220
1.77
195
2.88
216
2.31
210
3.42
221
2.70
200
7.78
255
3.92
227
5.57
255
8.42
244
9.89
239
12.92
235
0.68
144
3.72
159
2.10
149
6.63
235
1.11
164
40.78
248
5.93
236
9.99
200
10.27
181
1.97
213
2.17
208
8.79
243
2.97
208
27.36
258
40.51
264
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SFCPSMtwo views8.92
227
1.34
183
1.05
133
1.13
158
1.12
157
1.10
160
0.89
141
1.28
104
1.79
190
2.71
196
5.63
211
4.32
209
7.90
214
1.01
184
5.47
177
5.23
211
1.80
182
1.19
176
162.18
274
4.49
228
7.79
177
9.52
166
0.81
166
1.64
188
1.33
152
1.76
169
3.30
186
3.06
183
ELAS_RVCcopylefttwo views9.07
228
3.30
226
5.65
250
4.08
224
3.41
238
7.21
247
4.01
217
7.69
252
3.75
226
4.97
240
7.74
239
9.89
239
11.00
226
3.00
220
47.69
236
4.33
200
6.53
233
9.70
256
9.64
212
2.89
218
13.54
235
15.79
252
2.75
221
4.07
250
18.38
253
23.86
255
4.94
216
5.18
204
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views9.11
229
3.31
227
3.55
236
4.46
227
3.30
236
4.60
231
6.29
228
3.48
224
3.12
220
1.42
134
1.88
162
5.38
216
15.63
242
51.61
269
52.03
252
3.06
172
3.92
219
2.32
228
20.77
234
2.01
203
6.25
157
9.58
167
8.07
253
2.21
210
7.69
237
5.96
227
3.77
200
10.35
226
PWCKtwo views9.19
230
3.84
235
2.76
225
4.81
234
3.48
239
7.14
246
7.79
231
3.92
235
4.66
237
4.66
232
5.84
216
24.68
256
8.47
216
3.24
225
10.95
186
3.27
179
9.48
241
2.36
230
72.75
266
4.94
232
14.76
254
6.95
141
3.68
227
2.40
221
8.01
239
7.55
232
6.35
222
9.51
223
MADNet++two views9.22
231
4.13
239
6.16
252
4.32
226
5.78
253
3.96
224
8.14
232
7.09
249
6.83
245
5.28
251
7.83
241
7.65
226
8.62
218
12.90
249
19.42
204
21.00
261
7.04
237
6.27
251
10.40
215
7.97
244
14.29
249
18.67
258
3.96
229
5.12
254
5.80
230
22.29
254
9.32
235
8.69
218
MeshStereopermissivetwo views9.30
232
2.68
217
2.31
216
4.19
225
2.81
223
4.05
225
1.96
191
8.24
257
9.28
248
5.13
245
8.64
245
11.19
246
12.84
234
0.78
158
52.26
254
15.80
253
4.59
223
1.92
213
22.33
237
1.58
178
15.40
258
19.41
259
1.06
186
2.12
207
8.69
242
5.55
223
10.68
236
15.59
235
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAScopylefttwo views10.16
233
3.54
230
5.12
248
4.49
228
4.32
248
5.01
236
4.33
219
6.88
248
4.09
230
4.97
240
7.74
239
9.90
241
11.01
227
3.51
229
52.19
253
4.52
202
7.15
238
9.65
255
8.69
208
2.38
211
13.33
231
14.95
251
2.75
221
3.64
249
17.76
252
27.24
260
13.13
246
21.93
244
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views10.31
234
13.11
257
4.84
243
18.55
248
6.95
257
7.98
250
14.39
251
3.69
233
3.28
222
2.90
201
2.15
176
30.28
258
43.63
258
4.40
232
9.01
182
2.66
164
12.71
248
2.73
238
42.35
252
2.87
217
14.87
255
10.21
176
7.77
249
3.03
240
2.66
214
2.98
209
3.46
193
4.84
200
JetBluetwo views10.90
235
9.40
254
6.23
253
8.34
239
6.82
256
10.07
255
10.58
241
5.04
244
3.97
228
2.95
202
4.09
196
9.83
238
9.32
221
8.12
241
48.65
238
14.50
244
6.76
236
5.08
250
7.66
204
3.76
226
13.23
229
17.58
257
8.19
254
3.58
248
11.41
247
18.49
251
12.08
244
28.49
254
LVEtwo views10.96
236
3.63
232
2.68
223
55.15
268
4.03
247
7.50
248
88.91
272
1.93
175
2.44
209
2.26
180
1.69
158
4.48
211
4.75
205
3.42
228
3.44
151
2.21
153
6.03
230
1.84
211
50.68
262
1.97
201
10.14
204
12.19
224
5.54
232
3.12
243
3.75
223
2.46
200
2.99
175
6.76
216
XX-Stereotwo views11.10
237
0.72
37
1.24
171
1.04
149
0.52
60
0.80
124
0.84
134
1.13
81
0.51
62
4.53
231
6.79
230
1.54
151
1.06
161
0.42
66
2.78
119
5.82
217
0.96
117
0.94
128
6.43
181
0.91
116
6.26
158
8.36
154
0.58
103
0.43
45
237.38
275
1.38
135
2.64
156
3.61
192
DGSMNettwo views11.16
238
1.98
208
1.98
205
1.90
197
1.52
184
2.46
214
1.47
171
3.07
223
2.11
201
12.67
261
102.10
271
3.59
199
18.94
249
18.97
259
16.50
201
15.09
250
12.73
249
10.36
258
13.79
222
4.57
229
12.99
227
14.32
248
7.77
249
3.43
246
1.75
193
6.25
229
3.48
195
5.53
207
ACVNet-4btwo views11.58
239
3.99
237
2.60
220
44.40
264
2.71
221
4.98
234
62.31
268
1.85
169
1.79
190
1.63
144
1.25
141
4.22
208
58.75
265
3.34
227
2.27
83
1.21
62
13.33
253
1.70
206
49.50
260
1.93
197
14.47
253
13.72
247
7.40
244
3.13
244
1.55
180
1.89
177
2.20
110
4.61
198
LSM0two views11.61
240
1.70
200
2.94
228
2.71
212
2.41
214
2.76
216
6.88
230
4.22
237
4.26
233
3.67
218
7.57
237
7.41
225
9.43
223
0.98
182
64.90
269
78.60
273
3.43
214
2.37
231
20.39
233
4.80
231
14.29
249
16.21
254
1.30
195
3.06
241
3.29
220
12.44
244
6.06
220
25.31
249
UNDER WATER-64two views11.75
241
7.29
252
4.90
244
17.03
246
7.40
258
8.44
251
16.49
254
8.25
258
4.32
234
4.51
230
3.21
188
17.72
249
15.23
240
8.81
242
46.52
234
10.69
235
13.57
255
3.01
244
12.74
221
8.66
248
14.20
244
12.82
240
11.01
257
4.40
251
6.45
235
18.67
252
8.71
233
22.29
245
SGM+DAISYtwo views11.81
242
3.22
223
3.47
232
3.83
223
3.15
233
4.25
227
3.52
212
7.70
253
10.88
254
5.57
255
9.00
249
9.94
242
13.12
237
1.74
210
22.71
209
18.99
257
3.23
211
2.28
227
15.35
227
8.91
251
15.05
256
17.02
256
1.32
197
4.58
252
24.50
258
31.01
263
32.60
264
41.83
267
MDST_ROBtwo views12.03
243
32.81
263
1.72
191
20.74
253
2.64
218
5.90
241
1.72
180
4.06
236
1.35
168
3.76
219
6.53
223
2.75
190
42.83
257
0.54
107
50.83
247
1.22
65
1.08
137
0.75
72
18.95
229
1.00
128
12.75
223
11.49
211
1.29
194
1.26
179
22.72
257
11.17
239
31.24
261
31.81
259
WAO-8two views12.07
244
5.33
242
4.83
241
26.48
255
4.01
245
6.22
243
11.73
248
3.65
231
6.39
243
28.97
268
41.01
264
8.08
230
18.91
247
20.68
262
3.75
160
3.24
176
9.46
239
2.01
217
53.81
263
5.76
234
9.83
198
11.16
204
6.04
238
2.43
222
8.05
240
7.74
233
6.36
223
9.95
224
Venustwo views12.07
244
5.33
242
4.83
241
26.48
255
4.01
245
6.22
243
11.73
248
3.65
231
6.39
243
28.97
268
41.01
264
8.08
230
18.91
247
20.68
262
3.75
160
3.24
176
9.46
239
2.01
217
53.81
263
5.76
234
9.83
198
11.16
204
6.04
238
2.43
222
8.05
240
7.74
233
6.36
223
9.95
224
JetRedtwo views12.50
246
6.96
251
7.76
256
4.77
233
6.78
255
9.35
253
10.92
243
5.31
245
4.54
235
5.85
257
3.28
191
8.17
232
7.48
213
9.74
246
50.80
246
15.21
251
10.30
242
7.93
252
7.83
205
5.44
233
18.10
261
24.48
262
11.12
258
4.60
253
11.97
248
25.85
258
24.78
257
28.17
253
TorneroNet-64two views13.24
247
6.25
247
5.07
247
34.05
258
3.72
242
9.38
254
16.75
255
3.49
225
12.26
257
2.27
182
5.98
217
17.67
248
34.24
255
14.37
252
47.92
237
3.76
189
13.18
252
2.40
233
36.34
246
9.15
254
13.85
239
12.35
231
5.65
233
2.64
228
14.28
251
14.51
247
3.41
190
12.48
229
MANEtwo views14.22
248
9.62
255
6.93
254
4.94
236
5.72
252
7.88
249
11.48
245
7.38
251
9.90
250
4.92
239
6.89
234
8.98
235
12.13
233
3.67
231
50.37
242
17.85
255
11.82
245
20.17
263
10.46
216
6.55
240
12.22
216
12.86
242
1.77
211
11.33
259
24.83
259
30.99
262
31.42
262
40.73
265
DispFullNettwo views15.85
249
3.61
231
5.00
246
3.30
221
2.93
229
3.51
222
3.20
206
6.49
247
2.71
214
5.17
246
6.80
231
90.79
269
15.55
241
2.73
216
28.89
211
23.38
262
4.02
220
3.86
248
138.92
273
28.91
263
12.60
219
11.86
219
2.69
219
2.31
219
4.30
226
2.71
205
6.80
227
5.05
202
UNDER WATERtwo views16.39
250
7.86
253
4.99
245
15.68
245
10.73
263
8.76
252
38.30
263
8.07
256
6.02
242
4.25
226
2.98
184
18.63
250
96.18
270
14.44
253
32.70
212
10.29
233
13.91
256
2.75
239
43.73
254
8.62
247
16.83
260
12.33
229
17.08
265
5.55
255
6.06
234
14.49
246
6.37
225
15.05
234
STStereotwo views16.49
251
3.48
228
5.91
251
44.25
263
5.60
251
39.03
267
13.11
250
7.74
254
10.72
253
5.19
248
8.92
246
24.73
257
30.22
254
1.03
190
59.92
267
11.74
238
2.59
203
1.26
188
40.79
249
2.25
209
10.02
201
8.79
161
2.06
214
11.31
258
22.61
256
16.05
249
20.57
255
35.39
261
PSMNet_ROBtwo views16.63
252
5.59
244
2.97
229
3.47
222
2.63
216
5.86
240
6.18
227
2.20
196
2.29
205
5.39
253
141.45
273
97.59
270
6.02
209
33.78
264
3.23
147
1.58
125
4.09
221
1.69
205
20.81
235
2.75
215
12.93
226
7.08
143
63.80
273
2.60
226
2.95
216
3.67
212
2.77
164
3.66
193
DGTPSM_ROBtwo views17.21
253
6.49
248
18.05
259
4.91
235
8.87
259
5.73
237
11.48
245
5.02
242
12.05
255
5.03
244
9.34
250
12.62
247
56.51
264
15.29
255
43.82
227
20.47
259
19.26
259
16.28
260
24.70
238
20.05
259
13.50
232
22.25
260
6.00
236
12.55
260
12.71
249
32.01
265
14.20
250
35.61
263
KSHMRtwo views20.05
254
6.71
250
4.01
239
99.31
272
5.91
254
17.09
258
71.12
270
3.62
230
9.75
249
3.59
214
3.39
192
6.07
220
84.38
269
17.14
257
22.70
208
3.97
193
6.29
231
2.76
241
90.60
269
2.83
216
12.73
221
10.14
173
9.05
255
2.74
234
21.08
255
5.85
226
8.10
231
10.46
227
DPSM_ROBtwo views21.05
255
17.19
258
22.69
261
10.13
241
9.29
261
13.96
256
14.50
252
11.66
259
15.25
259
9.00
258
8.97
247
10.35
244
13.24
238
19.90
260
59.73
265
26.35
263
18.76
257
21.26
264
14.74
224
15.50
257
28.56
264
27.85
264
7.42
245
16.13
263
34.05
263
39.30
268
37.97
266
44.48
268
DPSMtwo views21.05
255
17.19
258
22.69
261
10.13
241
9.29
261
13.96
256
14.50
252
11.66
259
15.25
259
9.00
258
8.97
247
10.35
244
13.24
238
19.90
260
59.73
265
26.35
263
18.76
257
21.26
264
14.74
224
15.50
257
28.56
264
27.85
264
7.42
245
16.13
263
34.05
263
39.30
268
37.97
266
44.48
268
MaskLacGwcNet_RVCtwo views21.23
257
1.32
179
1.63
188
1.89
196
1.69
191
1.93
198
3.75
215
2.27
203
2.66
212
5.02
242
29.10
259
216.12
275
51.87
263
5.44
237
3.66
155
4.09
196
5.59
227
13.75
259
28.77
239
1.47
170
14.44
252
12.86
242
0.98
181
2.33
220
1.88
200
7.40
230
145.78
275
5.57
208
FADEtwo views21.87
258
18.09
260
30.60
264
2.84
215
3.65
241
28.71
265
17.79
257
15.65
262
31.19
265
23.58
266
34.50
261
24.01
255
24.85
250
9.63
244
13.75
193
14.56
245
43.43
269
10.05
257
41.89
251
25.16
262
36.12
266
31.14
266
7.48
247
15.57
262
20.22
254
17.05
250
15.03
253
33.84
260
DPSMNet_ROBtwo views22.61
259
6.50
249
18.06
260
4.95
237
8.88
260
5.76
239
11.54
247
5.02
242
12.08
256
5.17
246
28.67
258
19.69
251
163.24
275
15.38
256
43.87
229
20.66
260
19.56
260
16.59
261
35.50
245
20.17
260
13.82
238
22.26
261
6.02
237
12.56
261
12.82
250
32.01
265
14.23
251
35.60
262
DLNR_Zeroshot_testpermissivetwo views23.11
260
81.98
273
1.97
204
102.16
273
0.49
47
0.55
67
81.36
271
2.30
206
0.50
59
4.87
236
2.22
177
2.99
191
0.93
145
12.17
248
96.90
271
144.02
275
34.28
264
19.61
262
8.60
207
4.35
227
8.08
185
6.53
134
0.51
73
0.69
122
1.37
155
1.57
153
1.16
34
1.90
154
TorneroNettwo views24.73
261
6.18
245
3.52
233
95.34
271
3.93
243
27.05
261
29.02
258
4.44
238
18.13
261
2.20
177
37.99
263
77.85
268
72.31
266
18.15
258
41.78
223
3.07
173
13.11
251
2.35
229
87.85
267
9.06
253
15.44
259
12.17
223
5.94
235
2.64
228
52.32
267
8.18
235
3.59
197
14.11
231
LRCNet_RVCtwo views25.94
262
30.78
262
14.74
258
35.18
261
31.16
267
36.52
266
29.93
262
23.08
264
12.70
258
36.15
270
33.37
260
37.24
260
28.56
253
37.11
265
17.47
202
7.61
225
31.06
262
26.75
267
67.49
265
29.07
264
23.47
263
10.73
193
39.23
268
30.61
267
7.37
236
2.53
202
11.22
237
9.31
222
ktntwo views26.84
263
3.99
237
95.18
275
14.39
244
5.44
250
18.02
259
17.50
256
19.69
263
67.27
272
2.84
198
5.30
208
171.03
274
80.75
268
7.72
240
10.93
185
3.48
185
20.95
261
2.71
237
90.26
268
29.10
265
15.05
256
10.23
177
7.60
248
2.93
239
5.12
228
5.83
224
4.73
213
6.62
214
LE_ROBtwo views28.97
264
25.29
261
36.16
265
34.90
260
56.86
273
18.61
260
58.99
267
32.08
268
41.72
267
5.37
252
27.57
257
46.00
262
49.67
261
13.72
251
14.83
196
3.84
192
5.96
228
1.22
180
46.43
257
36.35
269
10.19
205
11.19
206
48.45
269
22.49
265
30.18
261
31.59
264
31.60
263
40.87
266
PMLtwo views39.07
265
38.06
267
12.06
257
39.32
262
29.04
266
40.62
268
11.06
244
14.14
261
100.08
273
27.87
267
166.26
275
107.74
271
159.39
274
13.53
250
15.41
197
10.75
236
35.75
265
8.64
253
42.84
253
10.61
256
14.22
245
16.14
253
5.89
234
7.21
257
53.08
268
13.95
245
42.26
268
19.02
241
MyStereo02two views41.62
266
34.58
264
45.67
267
20.28
251
0.00
1
28.03
262
29.19
260
23.39
266
30.77
263
18.19
263
18.03
253
20.71
252
26.70
251
40.22
267
120.07
273
52.96
271
37.64
266
42.70
270
29.31
241
30.97
267
57.46
271
56.38
272
14.75
263
32.54
269
68.34
270
79.09
272
76.33
270
89.56
273
MyStereo03two views42.32
267
34.58
264
45.67
267
20.28
251
18.70
265
28.03
262
29.19
260
23.39
266
30.77
263
18.19
263
18.03
253
20.71
252
26.70
251
40.22
267
120.07
273
52.96
271
37.64
266
42.70
270
29.31
241
30.97
267
57.46
271
56.38
272
14.75
263
32.54
269
68.34
270
79.09
272
76.33
270
89.56
273
CasAABBNettwo views42.72
268
34.60
266
45.66
266
20.17
250
18.55
264
28.05
264
29.13
259
23.25
265
30.69
262
18.73
265
18.11
255
20.72
254
37.90
256
39.93
266
120.54
275
52.80
270
37.72
268
42.56
269
29.30
240
30.56
266
57.58
273
56.66
274
14.58
262
32.34
268
68.46
272
79.09
272
76.31
269
89.48
272
HaxPigtwo views44.53
269
46.75
269
47.32
269
47.72
265
48.79
269
47.60
269
48.40
264
49.50
269
47.10
268
49.76
271
50.31
266
49.00
263
45.26
259
54.49
270
41.50
221
40.24
266
50.15
270
52.05
272
44.74
255
43.04
270
46.61
268
44.38
270
51.78
270
45.43
271
33.92
262
25.30
256
28.66
259
22.43
246
AVERAGE_ROBtwo views46.12
270
48.49
270
48.31
270
49.34
266
50.25
270
48.63
270
49.80
265
50.74
271
48.67
269
51.68
272
52.55
267
50.28
264
47.20
260
55.70
271
43.00
226
40.99
267
52.42
271
54.59
273
47.27
258
45.45
271
48.77
269
44.06
269
52.90
271
46.98
272
35.80
265
26.72
259
30.77
260
23.81
248
HanzoNettwo views47.37
271
45.54
268
75.64
273
62.53
269
47.97
268
62.03
272
90.57
274
55.02
273
58.34
271
15.60
262
22.00
256
75.72
267
107.47
271
172.14
275
23.65
210
13.02
241
62.42
273
9.26
254
134.39
272
22.45
261
19.74
262
25.78
263
31.84
267
5.57
256
9.72
246
9.49
237
8.54
232
12.61
230
MEDIAN_ROBtwo views49.56
272
51.66
271
50.91
271
52.80
267
53.76
271
52.08
271
53.35
266
54.28
272
52.25
270
54.89
273
55.89
268
53.59
265
50.09
262
58.85
272
46.45
233
44.55
268
55.81
272
57.90
274
50.55
261
48.85
272
52.07
270
46.79
271
56.69
272
50.01
273
39.10
266
30.23
261
33.56
265
31.26
258
BEATNet-Init1two views52.60
273
76.96
272
24.06
263
87.02
270
56.48
272
86.86
273
68.77
269
49.65
270
34.71
266
11.93
260
56.24
269
64.63
266
78.72
267
9.65
245
58.40
263
51.35
269
32.72
263
23.00
266
101.24
270
71.98
274
46.49
267
39.72
268
28.67
266
24.23
266
59.12
269
38.23
267
77.99
272
61.49
270
DPSimNet_ROBtwo views111.84
274
179.62
275
74.81
272
195.40
275
165.93
275
136.63
275
98.05
275
126.48
275
138.79
275
82.31
274
148.57
274
159.77
272
157.57
273
78.29
273
64.65
268
40.10
265
142.61
275
34.98
268
195.20
275
69.76
273
154.10
274
32.63
267
82.12
274
98.24
274
71.10
273
51.68
270
117.83
274
122.56
275
ASD4two views121.33
275
129.06
274
88.33
274
102.62
274
80.04
274
113.84
274
90.39
273
120.07
274
107.64
274
132.47
275
137.43
272
163.16
273
128.65
272
95.21
274
111.50
272
121.28
274
132.67
274
105.33
275
131.08
271
144.81
275
247.71
275
229.55
275
96.05
275
105.89
275
113.24
274
67.78
271
92.86
273
87.27
271