This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CoSvtwo views0.28
1
0.38
19
0.20
13
0.18
14
0.14
7
0.35
50
0.10
13
0.38
27
0.16
13
0.20
10
0.08
3
0.30
13
0.14
5
0.09
1
0.53
1
0.67
3
0.44
15
0.24
1
0.40
9
0.20
1
0.42
8
0.29
1
0.11
1
0.14
7
0.45
29
0.25
12
0.39
4
0.24
9
Pointernettwo views0.28
1
0.22
4
0.15
3
0.14
9
0.12
3
0.19
13
0.16
36
0.28
11
0.11
1
0.17
7
0.16
13
0.23
2
0.15
9
0.17
11
0.82
4
0.55
1
0.40
7
0.24
1
0.35
2
0.21
3
0.37
4
0.78
8
0.15
7
0.17
14
0.26
3
0.20
1
0.68
31
0.22
6
CroCo-Stereo Lap2two views0.35
3
0.23
6
0.15
3
0.11
2
0.12
3
0.16
5
0.08
5
0.35
24
0.15
10
0.47
40
0.10
4
0.33
14
0.15
9
0.16
8
1.27
12
1.03
25
0.37
3
0.37
17
0.46
16
0.22
5
0.60
28
0.93
12
0.17
10
0.14
7
0.40
22
0.34
33
0.41
6
0.27
20
StereoVisiontwo views0.36
4
0.28
10
0.22
18
0.13
7
0.18
18
0.21
17
0.14
30
0.30
13
0.23
34
0.35
30
0.18
14
0.35
18
0.17
18
0.17
11
1.03
9
0.80
11
0.47
20
0.36
13
0.44
12
0.23
6
0.47
12
0.59
5
0.16
8
0.22
27
0.41
25
0.40
42
0.72
33
0.36
32
CroCo-Stereocopylefttwo views0.36
4
0.21
3
0.15
3
0.11
2
0.10
1
0.19
13
0.06
1
0.33
19
0.14
6
0.31
24
0.05
1
0.37
21
0.14
5
0.18
15
1.64
23
1.08
32
0.38
6
0.38
18
0.52
18
0.21
3
0.65
35
0.90
11
0.17
10
0.15
9
0.39
18
0.31
25
0.45
8
0.26
18
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
MM-Stereo_test3two views0.37
6
0.36
17
0.15
3
0.25
23
0.15
11
0.15
3
0.08
5
0.48
36
0.18
24
0.26
18
0.10
4
0.41
29
0.12
3
0.12
2
0.95
8
0.72
6
0.45
16
0.28
5
0.37
6
0.36
15
0.36
3
1.78
46
0.27
28
0.13
4
0.32
11
0.20
1
0.80
45
0.23
7
MLG-Stereo_test1two views0.40
7
0.23
6
0.15
3
0.13
7
0.22
26
0.12
1
0.08
5
0.22
4
0.13
4
0.20
10
0.12
7
0.33
14
0.11
1
0.24
31
2.19
45
1.64
111
0.37
3
0.35
11
0.57
24
0.27
7
0.42
8
1.20
23
0.12
2
0.11
2
0.30
6
0.22
5
0.53
12
0.27
20
MLG-Stereotwo views0.41
8
0.25
8
0.14
2
0.11
2
0.20
21
0.12
1
0.07
2
0.22
4
0.12
3
0.19
8
0.11
6
0.29
9
0.11
1
0.23
29
2.49
57
2.34
159
0.37
3
0.36
13
0.53
21
0.29
9
0.38
6
0.64
6
0.12
2
0.10
1
0.30
6
0.22
5
0.49
10
0.25
15
ProNettwo views0.42
9
0.28
10
0.34
37
0.26
25
0.15
11
0.28
34
0.40
114
0.38
27
0.13
4
0.16
4
0.52
74
0.29
9
0.14
5
0.20
21
1.47
13
1.03
25
0.47
20
0.35
11
0.36
4
0.31
10
0.41
7
1.45
36
0.43
58
0.31
40
0.36
14
0.20
1
0.40
5
0.26
18
Utwo views0.43
10
0.29
12
0.17
10
0.11
2
0.14
7
0.16
5
0.07
2
0.45
35
0.15
10
0.49
42
0.07
2
0.39
23
0.17
18
0.24
31
1.72
26
1.23
55
0.49
27
0.43
27
0.62
28
0.34
12
0.68
38
1.02
15
0.18
15
0.19
20
0.55
48
0.36
37
0.50
11
0.34
30
RAStereotwo views0.49
11
0.38
19
0.20
13
0.16
11
0.16
14
0.19
13
0.11
15
0.44
33
0.18
24
0.98
151
0.12
7
0.46
34
0.19
23
0.16
8
1.87
32
1.13
40
0.53
32
0.48
35
0.71
35
0.28
8
0.88
55
1.21
24
0.28
31
0.20
22
0.50
37
0.34
33
0.54
13
0.41
36
delettwo views0.53
12
0.58
39
0.49
65
0.36
53
0.50
96
0.51
99
0.31
79
0.50
37
0.30
49
0.56
46
0.44
60
0.47
35
0.36
58
0.48
128
1.21
11
0.72
6
0.58
41
0.48
35
0.47
17
0.42
26
0.61
29
0.70
7
0.41
55
0.47
76
0.52
43
0.36
37
1.09
67
0.51
51
AASNettwo views0.55
13
0.74
76
0.50
67
0.35
49
0.61
126
0.52
105
0.42
116
0.65
55
0.28
44
0.41
34
0.50
71
0.40
26
0.32
47
0.44
114
1.04
10
0.73
8
0.55
37
0.61
68
0.68
31
0.51
46
0.62
32
0.94
13
0.46
71
0.50
81
0.52
43
0.44
52
0.74
35
0.45
40
AANet_RVCtwo views0.56
14
0.46
29
0.41
49
0.33
43
0.61
126
0.28
34
0.34
97
0.61
46
0.58
127
0.43
36
0.40
56
0.40
26
0.49
86
0.34
57
1.48
15
0.84
15
0.56
39
0.53
46
0.58
27
0.53
52
0.47
12
0.52
4
0.34
39
0.40
57
0.58
59
0.56
67
1.05
62
0.97
129
TDLMtwo views0.57
15
0.62
42
0.66
104
0.43
78
0.58
122
0.49
92
0.51
143
0.72
63
0.45
84
0.33
26
0.80
137
0.83
109
0.46
80
0.46
124
0.67
2
0.67
3
0.59
44
0.55
55
0.52
18
0.51
46
0.51
18
1.17
19
0.44
63
0.41
60
0.42
27
0.35
35
0.64
24
0.70
82
MM-Stereo_test1two views0.60
16
0.69
54
0.16
8
0.23
19
0.14
7
0.16
5
0.07
2
0.37
26
0.14
6
0.27
20
0.12
7
0.43
32
0.12
3
0.14
4
2.25
48
2.24
152
0.49
27
0.34
10
0.43
11
0.37
18
0.37
4
4.78
94
0.27
28
0.15
9
0.35
12
0.23
7
0.65
26
0.24
9
DEFOM-Stereotwo views0.61
17
0.55
36
0.29
30
0.27
26
0.30
40
0.32
42
0.13
26
0.35
24
0.17
18
0.25
17
0.33
42
0.39
23
0.20
27
0.26
36
4.06
117
1.46
83
0.59
44
0.52
42
0.57
24
0.45
32
0.76
41
0.95
14
0.44
63
0.31
40
0.49
34
0.32
28
1.31
83
0.45
40
MaDis-Stereotwo views0.61
17
0.48
30
0.31
31
0.17
13
0.27
35
0.21
17
0.18
44
0.44
33
0.33
54
1.08
162
0.30
34
0.52
39
0.24
35
0.19
18
1.98
34
1.30
65
0.63
56
0.60
63
1.24
74
0.47
37
0.91
62
1.19
21
0.39
50
0.28
35
0.64
71
0.66
85
0.62
20
0.82
103
MMNettwo views0.63
19
0.58
39
0.47
62
0.39
67
0.56
119
0.43
75
0.31
79
0.61
46
0.40
65
0.39
33
0.60
96
0.68
67
0.35
51
0.52
144
1.55
16
0.80
11
0.77
88
0.60
63
0.76
39
0.55
57
0.65
35
0.87
10
0.44
63
0.60
108
0.52
43
0.49
59
1.49
100
0.50
49
UniTT-Stereotwo views0.64
20
0.44
28
0.35
39
0.21
16
0.25
30
0.35
50
0.18
44
0.62
51
0.31
51
0.75
90
0.29
31
0.69
70
0.36
58
0.25
34
1.85
31
1.53
94
0.60
48
0.65
85
1.69
106
0.47
37
1.19
85
1.30
27
0.39
50
0.33
44
0.56
52
0.55
65
0.55
14
0.58
58
RAFTtwo views0.65
21
0.22
4
0.20
13
0.28
28
0.13
6
0.31
41
0.08
5
0.97
112
0.18
24
0.79
109
0.19
18
0.28
5
0.16
14
0.20
21
7.28
155
1.41
75
0.42
10
0.27
3
0.54
22
0.36
15
0.45
11
0.42
2
0.21
20
0.17
14
0.41
25
0.33
30
0.91
51
0.27
20
AdaDepthtwo views0.68
22
0.41
23
0.21
17
0.24
20
0.28
37
0.23
23
0.16
36
0.32
18
0.20
29
0.23
13
0.32
36
0.29
9
0.22
32
0.29
41
5.09
136
3.19
182
0.51
30
0.43
27
1.23
73
0.42
26
0.61
29
1.28
26
0.19
17
0.23
28
0.31
9
0.28
21
0.77
40
0.43
37
DMCAtwo views0.68
22
0.72
67
0.65
100
0.40
70
0.49
93
0.54
109
0.34
97
0.59
44
0.55
117
0.79
109
0.64
103
0.73
80
0.41
67
0.47
126
1.60
22
0.99
22
0.76
81
0.68
91
0.68
31
0.52
50
0.71
40
1.17
19
0.51
97
0.57
97
0.50
37
0.55
65
1.06
64
0.62
71
MLG-Stereo_test2two views0.69
24
0.54
35
0.18
11
0.16
11
0.24
28
0.15
3
0.08
5
0.33
19
0.17
18
0.24
15
0.13
11
0.39
23
0.14
5
0.20
21
2.87
74
1.74
123
0.47
20
0.45
30
1.34
79
0.48
40
0.53
20
5.72
125
0.19
17
0.13
4
0.39
18
0.26
16
0.66
28
0.37
33
LG-Stereotwo views0.69
24
0.27
9
0.18
11
0.18
14
0.16
14
0.23
23
0.13
26
0.30
13
0.16
13
0.23
13
0.22
22
0.52
39
0.15
9
0.19
18
8.18
160
2.56
167
0.41
8
0.33
9
0.66
30
0.40
20
0.53
20
1.19
21
0.13
5
0.13
4
0.29
5
0.24
9
0.48
9
0.24
9
iRaftStereo_RVCtwo views0.69
24
0.56
37
0.45
58
0.29
32
0.31
42
0.34
47
0.20
48
0.68
60
0.26
36
0.46
39
0.56
88
0.60
49
0.30
43
0.29
41
1.71
24
0.98
21
0.60
48
0.47
33
0.75
38
0.45
32
1.03
73
4.25
86
0.38
48
0.42
63
0.49
34
0.41
46
0.78
41
0.48
44
LGtest1two views0.72
27
0.81
111
0.51
69
0.27
26
0.31
42
0.29
36
0.12
21
0.43
32
0.26
36
0.34
29
0.57
91
0.50
36
0.30
43
0.36
65
3.94
114
2.69
171
0.58
41
0.71
102
0.83
42
0.58
67
0.82
49
1.45
36
0.31
35
0.35
48
0.58
59
0.37
39
0.67
30
0.51
51
DFGA-Nettwo views0.75
28
0.64
44
0.38
43
0.51
102
0.33
50
0.44
77
0.31
79
0.88
98
0.35
58
2.04
225
0.38
55
0.54
42
0.29
42
0.23
29
1.47
13
1.12
38
0.80
98
0.51
40
1.03
56
0.35
13
0.84
50
2.83
67
0.39
50
0.46
74
0.60
66
0.40
42
1.81
128
0.45
40
plaintwo views0.75
28
0.88
140
0.39
45
0.33
43
0.61
126
0.35
50
0.30
78
0.89
102
0.35
58
0.72
80
0.24
25
0.73
80
0.35
51
0.21
24
2.10
39
1.66
114
0.73
71
0.72
107
1.01
55
0.43
30
1.85
128
1.92
49
0.36
42
0.39
51
0.72
83
0.61
71
0.75
37
0.74
86
RAFT_CTSACEtwo views0.75
28
0.94
169
0.33
34
0.36
53
0.34
53
0.34
47
0.24
56
1.23
144
0.27
39
0.64
64
0.29
31
0.72
79
0.56
107
0.34
57
2.96
79
1.22
53
0.55
37
0.44
29
0.81
41
0.35
13
0.87
53
2.64
64
0.47
73
0.38
50
0.54
47
0.41
46
1.58
111
0.39
34
HCRNettwo views0.75
28
0.79
105
0.43
55
0.55
112
0.27
35
0.42
74
0.38
109
0.63
54
0.34
56
1.59
196
0.61
97
0.67
65
0.31
46
0.42
100
2.11
40
0.81
13
0.65
57
0.48
35
0.68
31
0.44
31
0.80
47
2.42
59
0.40
53
0.45
70
0.46
31
0.48
56
2.14
152
0.50
49
test_5two views0.76
32
0.91
150
0.32
33
0.39
67
0.26
33
0.36
55
0.19
46
1.79
224
0.33
54
0.60
54
1.97
215
0.76
88
0.75
158
0.33
54
1.58
18
1.23
55
0.57
40
0.55
55
1.09
63
0.40
20
0.64
34
1.83
47
0.31
35
0.46
74
0.47
33
0.40
42
1.72
122
0.44
38
MIF-Stereo (partial)two views0.77
33
0.77
92
0.34
37
0.29
32
0.38
65
0.36
55
0.31
79
0.54
39
0.40
65
0.61
57
0.32
36
0.55
45
0.40
62
0.24
31
2.14
42
1.65
112
0.69
63
0.76
121
0.93
52
0.48
40
1.52
108
1.76
45
0.42
56
0.39
51
0.64
71
0.70
89
2.25
170
0.86
114
UPFNettwo views0.78
34
0.71
61
0.89
139
0.55
112
0.65
144
0.60
136
0.56
147
0.72
63
0.57
124
0.59
53
0.59
94
0.64
57
0.47
82
0.61
173
1.83
30
1.02
24
0.77
88
0.69
99
0.92
50
0.73
119
0.70
39
1.04
16
0.55
116
0.67
136
0.64
71
0.57
69
2.18
157
0.59
64
CVANet_RVCtwo views0.80
35
0.73
74
0.92
151
0.86
184
0.64
141
0.72
166
0.62
159
1.17
134
0.55
117
0.47
40
0.89
153
0.91
123
0.48
83
0.51
142
0.84
5
0.75
10
0.61
52
0.59
61
0.56
23
0.63
82
0.66
37
3.82
78
0.43
58
0.47
76
0.57
54
0.44
52
0.78
41
1.05
147
TestStereotwo views0.82
36
0.94
169
0.85
132
0.56
117
0.47
86
0.68
157
0.35
105
1.21
142
0.42
71
0.90
138
0.65
105
0.88
116
0.55
105
0.39
84
1.59
20
0.96
18
0.77
88
0.54
49
1.41
85
0.57
63
1.30
92
1.32
29
0.48
78
0.49
80
0.79
102
0.81
100
1.39
87
0.79
98
GMStereopermissivetwo views0.82
36
0.99
188
0.40
48
0.49
95
0.48
88
0.56
116
0.46
130
0.79
76
0.47
89
0.55
45
0.47
64
0.84
114
0.41
67
0.37
76
1.71
24
1.08
32
0.77
88
0.54
49
1.93
115
0.59
71
1.20
87
2.06
51
0.45
67
0.57
97
0.77
95
0.67
87
1.86
135
0.57
56
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
AIO-test2two views0.83
38
0.17
1
0.12
1
0.09
1
0.11
2
0.16
5
0.11
15
0.23
7
0.15
10
0.19
8
0.20
20
0.42
31
0.15
9
0.13
3
8.89
164
6.57
254
0.32
1
0.27
3
0.30
1
0.20
1
0.30
1
2.20
56
0.12
2
0.16
12
0.21
1
0.20
1
0.25
1
0.19
2
LG-Stereo_L2two views0.86
39
0.69
54
0.46
59
0.28
28
0.36
60
0.25
28
0.13
26
0.62
51
0.26
36
0.70
75
0.40
56
0.71
75
0.34
49
0.31
46
3.30
93
2.24
152
0.60
48
0.52
42
1.08
62
0.47
37
0.85
52
5.80
128
0.34
39
0.28
35
0.58
59
0.38
41
0.65
26
0.63
73
LG-Stereo_L1two views0.87
40
0.69
54
0.44
56
0.24
20
0.36
60
0.26
30
0.12
21
0.62
51
0.27
39
0.72
80
0.32
36
0.69
70
0.34
49
0.32
48
3.31
94
2.31
157
0.60
48
0.52
42
1.28
76
0.48
40
0.79
44
5.86
130
0.30
34
0.32
43
0.57
54
0.33
30
0.66
28
0.65
76
CFNettwo views0.87
40
0.85
127
0.83
127
0.78
168
0.74
156
0.62
140
0.56
147
0.84
90
0.49
100
0.67
71
0.70
116
0.96
137
0.68
141
0.45
122
2.29
51
0.88
16
0.76
81
0.66
87
0.94
53
0.80
137
1.07
75
1.08
17
0.50
91
0.54
89
0.91
128
1.03
143
1.67
120
1.14
158
HGLStereotwo views0.89
42
0.66
47
0.79
120
0.52
105
0.71
152
0.57
121
0.50
140
0.67
59
0.51
108
1.67
205
0.96
159
0.66
63
0.57
109
0.54
154
1.73
27
1.28
63
0.85
110
0.78
124
1.10
65
0.68
106
1.07
75
2.08
52
0.51
97
0.68
138
0.75
93
0.79
97
1.59
116
0.81
101
G2L-Stereotwo views0.90
43
0.70
58
0.63
98
0.57
118
0.79
168
0.51
99
0.38
109
0.77
69
0.53
112
0.69
74
0.81
139
0.76
88
0.64
130
0.57
164
2.59
61
1.03
25
0.75
78
0.63
75
1.35
80
0.65
92
1.59
110
1.66
42
0.61
150
0.52
84
0.82
108
0.95
128
1.98
143
0.80
100
RAFT+CT+SAtwo views0.90
43
0.97
178
0.42
53
0.45
88
0.29
38
0.39
64
0.21
49
1.63
209
0.35
58
0.73
85
0.32
36
0.91
123
0.69
144
0.41
90
1.58
18
1.43
78
0.59
44
0.60
63
2.18
121
0.50
44
0.90
57
5.09
102
0.35
41
0.43
65
0.55
48
0.43
51
1.56
106
0.49
47
UNettwo views0.90
43
0.77
92
0.77
117
0.61
129
0.61
126
0.61
139
0.57
153
0.90
103
0.60
133
1.20
168
0.68
108
0.77
92
0.58
113
0.67
198
1.80
29
1.20
51
0.83
108
0.73
110
1.14
69
0.83
151
0.90
57
1.35
30
0.65
167
0.77
158
0.70
81
0.79
97
2.48
194
0.95
127
ddtwo views0.93
46
0.81
111
0.54
78
1.07
207
0.45
83
0.87
187
0.50
140
0.86
93
0.42
71
0.83
120
0.44
60
1.28
175
0.40
62
0.56
161
2.32
52
1.06
30
1.03
161
0.74
115
2.01
118
0.62
80
0.87
53
1.54
40
0.52
104
0.75
153
0.86
117
0.58
70
1.74
124
1.43
185
DSFCAtwo views0.94
47
0.84
121
0.75
114
0.66
144
0.78
164
0.62
140
0.79
180
0.75
68
0.78
167
0.78
99
0.86
144
0.79
102
0.52
94
0.44
114
1.95
33
1.21
52
0.89
123
0.87
158
1.03
56
0.81
142
1.11
78
2.19
55
0.73
194
0.80
166
0.84
111
0.96
129
1.89
136
0.85
112
DMCA-RVCcopylefttwo views0.94
47
0.74
76
0.78
119
0.62
131
0.78
164
0.58
125
1.11
209
0.77
69
1.39
222
1.36
183
0.68
108
0.88
116
0.57
109
0.58
167
2.43
56
1.16
43
0.91
126
0.78
124
0.99
54
0.78
131
0.94
66
1.41
34
0.55
116
0.72
150
0.62
69
0.64
75
1.82
130
0.91
122
IERtwo views0.95
49
0.83
117
0.60
94
0.50
99
0.52
103
0.58
125
0.48
137
0.80
79
0.50
104
1.12
165
0.77
131
1.06
150
0.50
89
0.78
216
3.59
104
1.11
37
0.76
81
0.65
85
0.91
49
0.78
131
0.76
41
2.32
57
0.66
170
0.67
136
0.65
74
1.01
137
2.05
148
0.74
86
S2M2_XLtwo views0.96
50
0.50
33
0.70
109
0.24
20
0.31
42
0.36
55
0.28
72
0.61
46
0.47
89
0.56
46
0.36
51
0.66
63
0.59
118
0.35
61
2.63
63
1.84
130
0.69
63
0.49
39
0.73
37
0.55
57
4.91
177
4.77
93
0.51
97
0.34
46
0.60
66
0.51
64
0.75
37
0.74
86
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
HITNettwo views0.97
51
0.66
47
0.64
99
0.69
148
0.50
96
0.40
66
0.33
94
1.25
147
0.87
179
0.70
75
0.70
116
0.94
132
0.53
95
0.39
84
2.05
37
1.16
43
0.69
63
0.64
77
0.84
43
0.61
76
2.15
138
4.61
90
0.49
83
0.60
108
0.63
70
0.63
74
1.82
130
0.82
103
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
RASNettwo views1.02
52
0.75
79
0.95
156
0.64
140
0.64
141
0.67
155
0.45
126
0.98
114
0.62
138
1.21
172
0.64
103
0.76
88
0.74
155
0.43
107
1.59
20
1.52
92
0.78
94
0.68
91
1.06
60
0.70
111
1.24
91
4.37
87
0.47
73
0.84
175
0.80
104
0.83
104
2.17
156
1.08
150
DLCB_ROBtwo views1.03
53
0.92
155
0.91
145
0.74
158
0.83
179
0.75
172
0.77
177
0.88
98
0.73
164
0.93
144
0.85
142
1.06
150
0.94
202
0.70
203
1.57
17
1.24
58
1.03
161
0.73
110
0.92
50
0.75
123
1.48
103
2.49
60
0.81
214
0.77
158
1.35
207
1.30
177
1.49
100
0.95
127
TESTrafttwo views1.04
54
0.98
184
0.44
56
0.41
72
0.34
53
0.41
67
0.26
64
1.12
127
0.40
65
0.98
151
0.35
48
0.64
57
0.76
163
0.53
147
3.11
87
1.82
129
0.74
73
0.52
42
3.10
165
0.57
63
1.16
82
3.86
81
0.37
44
0.45
70
0.58
59
1.17
165
2.52
200
0.60
65
DISCOtwo views1.04
54
0.98
184
0.62
96
0.57
118
0.62
134
0.84
184
0.83
184
0.77
69
0.82
171
1.98
220
0.89
153
0.68
67
0.70
145
0.45
122
1.98
34
1.35
71
1.00
154
0.81
134
1.83
109
0.81
142
1.00
69
2.90
69
0.62
155
0.65
131
0.74
91
0.84
106
2.03
147
0.85
112
STTStereotwo views1.06
56
0.95
174
0.90
142
0.79
172
0.77
162
0.70
162
1.10
206
0.86
93
1.48
231
1.26
177
0.78
135
1.13
162
0.78
171
0.94
233
2.76
66
1.16
43
0.76
81
0.73
110
1.10
65
0.66
97
1.18
84
1.53
39
0.62
155
0.58
101
0.78
99
1.22
170
1.76
126
1.40
183
coex_refinementtwo views1.09
57
1.02
200
0.82
125
0.66
144
0.86
180
0.73
168
0.56
147
0.81
82
1.01
193
0.67
71
1.02
169
0.97
138
0.48
83
0.49
132
4.47
129
1.03
25
0.82
104
0.71
102
3.71
191
0.78
131
1.01
70
1.08
17
0.66
170
0.59
104
0.89
124
0.99
136
1.78
127
0.94
124
TestStereo1two views1.09
57
0.99
188
0.41
49
0.38
58
0.37
63
0.41
67
0.27
67
1.02
118
0.40
65
0.80
113
0.34
45
0.61
53
0.74
155
0.53
147
2.97
80
1.78
125
0.74
73
0.54
49
3.12
166
0.57
63
1.44
96
5.38
108
0.37
44
0.43
65
0.59
64
1.04
146
2.53
202
0.60
65
SA-5Ktwo views1.09
57
0.99
188
0.41
49
0.38
58
0.37
63
0.41
67
0.27
67
1.02
118
0.40
65
0.80
113
0.34
45
0.61
53
0.74
155
0.53
147
2.97
80
1.78
125
0.74
73
0.54
49
3.12
166
0.57
63
1.44
96
5.38
108
0.37
44
0.43
65
0.59
64
1.04
146
2.53
202
0.60
65
NLCA_NET_v2_RVCtwo views1.09
57
0.93
161
0.85
132
0.74
158
0.81
173
0.66
152
1.22
219
1.07
122
2.23
266
1.99
221
0.76
127
0.97
138
0.63
127
0.94
233
2.41
55
1.05
29
0.74
73
0.72
107
1.32
78
0.70
111
0.90
57
1.40
31
0.59
142
0.61
110
0.74
91
1.58
206
1.48
99
1.26
175
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
AIO-Stereopermissivetwo views1.11
61
0.33
15
0.22
18
0.35
49
0.16
14
0.20
16
0.11
15
0.18
1
0.14
6
0.15
3
0.20
20
0.22
1
0.16
14
0.17
11
5.08
135
1.09
36
0.46
18
0.40
23
1.20
70
0.50
44
0.43
10
16.33
258
0.20
19
0.17
14
0.35
12
0.24
9
0.64
24
0.19
2
psm_uptwo views1.12
62
0.88
140
1.03
177
0.79
172
0.95
191
0.77
175
0.66
166
1.33
168
1.03
198
0.87
128
0.69
113
1.12
159
0.76
163
0.76
211
2.94
77
1.17
46
0.96
144
0.82
139
2.32
128
0.85
154
1.44
96
1.89
48
0.51
97
0.92
201
1.03
155
1.08
153
1.62
117
1.09
151
PDISCO_ROBtwo views1.12
62
0.87
135
0.62
96
0.79
172
0.70
150
0.54
109
0.76
176
0.95
111
0.69
157
1.78
210
0.98
165
0.75
87
0.63
127
0.65
192
2.15
43
1.54
99
0.99
151
1.10
219
1.60
99
0.82
148
1.80
121
2.71
65
0.57
133
0.84
175
1.20
186
0.84
106
2.56
206
0.90
119
PS-NSSStwo views1.13
64
1.45
253
0.73
111
1.20
226
0.95
191
1.22
228
1.06
199
0.80
79
0.55
117
0.74
88
0.51
72
2.17
218
1.08
217
0.93
231
2.02
36
0.96
18
0.89
123
0.74
115
1.56
94
0.65
92
0.97
68
0.79
9
1.65
271
0.55
92
1.13
177
0.96
129
3.19
239
1.11
154
SAtwo views1.14
65
0.95
174
0.46
59
0.55
112
0.54
112
0.50
97
0.25
61
1.59
204
0.47
89
0.72
80
0.40
56
0.73
80
0.59
118
0.62
178
2.09
38
2.12
146
0.82
104
0.82
139
3.31
180
0.67
104
1.46
99
4.78
94
0.36
42
0.69
141
0.78
99
1.11
156
2.64
214
0.72
85
LMCR-Stereopermissivemany views1.14
65
0.84
121
0.91
145
0.55
112
0.63
138
0.66
152
0.34
97
1.12
127
0.64
145
0.82
118
0.77
131
0.94
132
0.49
86
0.44
114
3.22
92
1.57
106
1.06
169
0.76
121
2.19
123
1.43
214
1.90
130
4.46
88
0.53
110
0.81
169
0.87
119
0.86
113
1.11
69
0.94
124
AF-Nettwo views1.15
67
0.85
127
1.00
168
0.77
164
0.93
187
1.00
205
2.29
245
1.51
192
1.06
200
0.57
50
0.96
159
1.40
185
0.64
130
0.75
209
2.20
46
1.08
32
0.85
110
0.62
69
1.83
109
0.79
135
0.90
57
2.97
70
0.66
170
0.65
131
0.98
145
0.89
117
1.58
111
1.24
173
Nwc_Nettwo views1.15
67
0.85
127
1.00
168
0.77
164
0.93
187
1.00
205
2.29
245
1.51
192
1.06
200
0.57
50
0.96
159
1.40
185
0.64
130
0.75
209
2.20
46
1.08
32
0.85
110
0.62
69
1.83
109
0.79
135
0.90
57
2.97
70
0.66
170
0.65
131
0.98
145
0.89
117
1.58
111
1.24
173
RSMtwo views1.16
69
0.30
13
0.23
24
0.32
40
0.15
11
0.21
17
0.10
13
0.18
1
0.16
13
0.14
2
0.27
28
0.23
2
0.20
27
0.15
7
0.70
3
0.64
2
0.43
11
0.38
18
0.36
4
0.42
26
0.50
15
23.43
306
0.23
21
0.17
14
0.40
22
0.25
12
0.61
19
0.24
9
CAStwo views1.16
69
0.81
111
0.47
62
0.51
102
0.49
93
0.38
60
0.31
79
0.56
40
0.45
84
1.20
168
0.90
155
0.64
57
0.97
210
0.32
48
3.11
87
2.22
151
0.98
148
0.85
152
1.21
71
0.64
85
3.95
161
5.48
120
0.47
73
0.31
40
0.85
116
0.92
124
1.21
76
1.15
161
GANettwo views1.17
71
0.80
110
0.81
124
0.71
151
0.71
152
1.18
220
0.64
162
0.83
87
0.47
89
0.61
57
6.20
272
2.19
219
0.44
79
0.65
192
0.94
7
0.81
13
0.87
117
0.79
126
0.65
29
0.46
35
0.56
24
6.49
139
0.53
110
0.57
97
0.65
74
0.47
55
0.85
47
0.70
82
Occ-Gtwo views1.18
72
0.59
41
0.31
31
0.34
45
0.31
42
0.26
30
0.12
21
0.38
27
0.19
27
0.16
4
0.36
51
0.34
17
0.25
36
0.16
8
7.20
154
1.86
131
0.48
24
0.45
30
1.09
63
0.42
26
0.93
65
13.28
227
0.29
33
0.21
23
0.38
16
0.26
16
0.97
58
0.31
27
MLG-Stereo_test3two views1.20
73
0.48
30
0.28
29
0.29
32
0.38
65
0.25
28
0.12
21
0.34
23
0.20
29
1.11
164
0.34
45
0.54
42
0.19
23
0.32
48
2.92
76
2.26
154
0.53
32
0.54
49
1.56
94
0.53
52
0.81
48
15.80
252
0.18
15
0.26
33
0.43
28
0.32
28
0.91
51
0.44
38
CASnettwo views1.22
74
0.92
155
0.55
79
0.41
72
0.45
83
0.39
64
0.24
56
0.92
106
0.50
104
0.78
99
0.56
88
0.91
123
0.54
102
0.38
77
3.31
94
1.35
71
0.77
88
0.51
40
1.43
86
0.56
60
7.13
212
5.44
119
0.45
67
0.48
79
1.22
189
0.50
62
1.47
96
0.78
97
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Sa-1000two views1.22
74
0.77
92
0.49
65
0.49
95
0.61
126
0.51
99
0.29
75
1.69
214
0.53
112
0.73
85
0.48
70
0.73
80
0.66
139
0.76
211
3.04
84
1.97
138
0.98
148
0.95
179
3.31
180
0.63
82
1.92
133
4.89
96
0.37
44
0.82
170
1.15
180
1.22
170
2.35
179
0.75
89
S2M2_Ltwo views1.24
76
0.87
135
1.18
209
0.48
93
0.38
65
0.44
77
0.28
72
0.60
45
0.56
120
1.85
215
0.35
48
0.64
57
0.40
62
0.44
114
2.57
58
2.15
147
0.74
73
0.60
63
1.11
67
0.59
71
4.37
167
6.33
137
0.49
83
0.37
49
0.68
79
1.22
170
3.07
233
0.79
98
Junhong Min, Youngpil Jeon, Jimin Kim, Minyong Choi: S^2M^2 : Scalable Stereo Matching Model for Reliable Depth Estimation. ICCV 2025
IGEV-BASED-STEREO-two views1.26
77
0.86
131
0.39
45
0.42
77
0.32
46
0.32
42
0.19
46
0.71
62
0.32
52
0.70
75
0.31
35
0.64
57
0.56
107
0.43
107
4.05
116
2.29
155
0.65
57
0.70
101
1.04
58
0.51
46
1.88
129
13.45
228
0.46
71
0.24
32
0.57
54
0.37
39
1.14
72
0.54
53
iinet-ftwo views1.26
77
1.10
213
0.69
107
0.94
192
0.47
86
0.72
166
0.58
155
0.79
76
0.50
104
2.11
231
1.35
193
0.83
109
0.64
130
0.38
77
3.97
115
1.88
132
0.79
96
0.68
91
3.04
162
1.08
185
1.61
112
3.40
72
0.68
177
0.75
153
1.14
178
0.64
75
2.22
169
0.90
119
APVNettwo views1.28
79
1.03
203
0.68
105
0.69
148
0.78
164
0.87
187
0.89
188
0.79
76
0.72
162
0.91
140
0.83
141
0.92
128
0.61
121
0.59
169
3.31
94
1.71
117
1.16
185
0.99
190
3.22
173
0.92
163
1.91
132
4.73
92
0.58
136
1.11
222
0.80
104
0.84
106
1.90
137
0.97
129
RSM++two views1.29
80
0.33
15
0.25
26
0.36
53
0.20
21
0.24
25
0.11
15
0.22
4
0.17
18
0.16
4
0.28
30
0.27
4
0.20
27
0.17
11
0.89
6
0.71
5
0.43
11
0.39
22
0.52
18
0.46
35
0.53
20
25.80
311
0.31
35
0.18
18
0.55
48
0.26
16
0.57
16
0.29
25
RPtwo views1.29
80
1.05
207
1.26
223
0.96
193
1.11
208
0.85
185
1.39
224
1.24
146
1.30
218
0.61
57
1.16
180
1.27
173
0.75
158
0.72
207
3.49
101
1.12
38
0.95
140
0.68
91
1.24
74
0.83
151
1.02
72
4.57
89
0.63
159
0.91
199
0.90
126
1.02
142
2.51
198
1.20
168
AACVNettwo views1.30
82
0.89
144
0.74
112
0.93
188
0.95
191
0.73
168
0.64
162
0.88
98
0.64
145
0.74
88
0.88
150
0.83
109
0.67
140
0.62
178
9.20
166
1.41
75
0.87
117
0.84
150
1.21
71
0.80
137
1.51
105
2.50
61
0.75
203
0.69
141
0.88
122
1.11
156
1.91
138
1.31
177
AMNettwo views1.31
83
1.12
215
1.05
180
1.14
216
1.12
210
1.27
234
1.07
202
1.35
171
1.13
207
1.10
163
1.11
177
1.55
198
1.26
225
1.20
256
1.75
28
1.59
108
1.37
208
1.23
240
1.37
83
1.22
197
1.40
95
1.40
31
1.25
256
1.26
234
1.26
191
1.70
215
1.54
104
1.65
198
YMNettwo views1.32
84
0.78
100
0.42
53
0.50
99
0.61
126
0.58
125
1.39
224
0.77
69
0.56
120
1.23
176
0.35
48
0.68
67
2.19
243
0.56
161
15.64
203
1.49
89
0.82
104
0.66
87
0.77
40
0.41
24
0.62
32
1.30
27
0.23
21
0.39
51
0.75
93
0.48
56
0.81
46
0.65
76
AIO-test1two views1.32
84
0.19
2
0.16
8
0.12
6
0.14
7
0.18
11
0.15
33
0.33
19
0.17
18
0.26
18
0.26
27
0.35
18
0.15
9
0.18
15
10.09
174
3.61
201
0.36
2
0.31
7
0.44
12
0.36
15
0.35
2
16.14
254
0.14
6
0.15
9
0.23
2
0.23
7
0.33
2
0.17
1
ARAFTtwo views1.32
84
0.72
67
0.50
67
0.35
49
0.34
53
0.44
77
0.24
56
0.65
55
0.35
58
2.25
235
0.56
88
0.60
49
0.30
43
0.43
107
2.15
43
1.46
83
0.75
78
0.75
119
2.78
155
0.58
67
2.25
142
12.47
217
0.45
67
0.39
51
0.94
137
0.40
42
1.98
143
0.57
56
iResNet_ROBtwo views1.32
84
0.86
131
0.86
135
0.65
141
0.60
123
0.69
159
0.66
166
2.64
278
0.58
127
1.71
207
0.75
126
0.97
138
0.82
182
0.49
132
5.86
144
1.53
94
0.93
134
0.86
154
2.96
159
0.68
106
2.22
139
1.21
24
0.62
155
0.95
206
0.86
117
0.98
134
2.65
216
1.02
143
PA-Nettwo views1.33
88
0.99
188
1.18
209
0.77
164
1.35
229
0.69
159
0.90
189
0.82
86
1.17
212
0.82
118
1.28
188
0.78
99
0.79
173
0.93
231
4.45
128
1.31
67
0.72
69
0.80
131
1.06
60
0.89
157
1.19
85
4.70
91
0.68
177
0.85
182
1.01
151
2.17
248
1.45
94
2.09
216
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
GANetREF_RVCpermissivetwo views1.35
89
1.22
224
1.01
172
1.18
220
1.10
207
1.02
208
0.81
181
1.25
147
1.15
210
1.30
180
0.77
131
2.55
238
0.96
206
0.63
182
2.28
50
1.23
55
1.09
173
0.99
190
2.42
133
0.90
161
2.22
139
1.72
43
0.79
211
1.12
223
1.31
198
1.27
174
2.62
211
1.48
187
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
IPLGR_Ctwo views1.36
90
0.72
67
0.89
139
0.59
123
0.54
112
0.54
109
0.34
97
0.81
82
0.58
127
0.76
94
0.69
113
1.05
149
0.53
95
0.64
186
2.77
67
1.41
75
0.92
129
0.69
99
3.26
176
0.64
85
1.68
116
10.52
178
0.58
136
0.83
173
1.01
151
0.65
84
2.40
188
0.61
68
ACREtwo views1.36
90
0.71
61
0.88
137
0.61
129
0.53
106
0.55
114
0.35
105
0.81
82
0.58
127
0.76
94
0.69
113
1.06
150
0.53
95
0.64
186
2.80
72
1.39
74
0.92
129
0.68
91
3.26
176
0.64
85
1.68
116
10.53
179
0.58
136
0.83
173
1.03
155
0.64
75
2.40
188
0.62
71
CIPLGtwo views1.37
92
0.71
61
0.91
145
0.59
123
0.53
106
0.54
109
0.36
107
0.81
82
0.59
132
0.76
94
0.68
108
1.04
146
0.53
95
0.64
186
3.08
85
1.45
82
0.93
134
0.67
89
3.23
174
0.64
85
1.66
113
10.56
180
0.58
136
0.84
175
1.03
155
0.66
85
2.36
181
0.61
68
NCC-stereotwo views1.37
92
1.25
229
1.13
195
1.00
198
1.08
201
0.98
202
1.87
235
1.76
220
1.58
239
0.60
54
1.33
190
1.22
167
1.08
217
0.78
216
3.16
90
1.19
49
0.95
140
1.00
194
1.64
100
1.00
177
1.20
87
3.65
74
0.84
223
0.84
175
1.28
194
1.57
204
1.44
90
1.60
194
Abc-Nettwo views1.37
92
1.25
229
1.13
195
1.00
198
1.08
201
0.98
202
1.87
235
1.76
220
1.58
239
0.60
54
1.33
190
1.22
167
1.08
217
0.78
216
3.16
90
1.19
49
0.95
140
1.00
194
1.64
100
1.00
177
1.20
87
3.65
74
0.84
223
0.84
175
1.28
194
1.57
204
1.44
90
1.60
194
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
raft_robusttwo views1.38
95
0.94
169
0.55
79
0.60
125
0.48
88
0.59
133
0.38
109
2.05
250
0.53
112
1.67
205
0.52
74
0.83
109
0.81
178
0.49
132
3.50
102
1.90
133
0.92
129
0.86
154
4.99
211
0.61
76
3.19
152
5.05
101
0.47
73
0.64
125
1.04
159
1.06
149
1.58
111
0.99
138
GLC_STEREOtwo views1.38
95
0.90
147
0.91
145
0.58
121
0.62
134
0.49
92
0.43
120
1.68
213
0.48
94
0.77
98
0.68
108
0.81
107
0.62
126
0.61
173
9.99
173
1.91
134
0.92
129
0.60
63
1.71
107
0.71
116
2.58
147
3.85
80
0.48
78
0.57
97
0.69
80
0.56
67
2.36
181
0.87
117
111111two views1.39
97
0.38
19
0.20
13
0.25
23
0.29
38
0.22
22
0.09
10
0.19
3
0.16
13
0.10
1
0.18
14
0.28
5
0.17
18
0.21
24
11.32
184
2.07
145
0.47
20
0.29
6
0.84
43
0.40
20
0.57
25
17.45
278
0.24
23
0.12
3
0.26
3
0.24
9
0.42
7
0.19
2
UDGNettwo views1.40
98
1.04
204
0.83
127
1.64
251
1.39
231
1.70
252
1.25
221
1.21
142
0.81
170
0.63
62
0.87
147
0.92
128
0.42
70
1.61
270
2.12
41
1.25
59
0.87
117
0.89
166
2.45
135
0.92
163
1.95
135
5.71
123
1.28
258
0.54
89
1.21
187
1.10
155
2.15
153
1.02
143
SACVNettwo views1.42
99
0.96
177
1.03
177
0.93
188
1.15
212
0.95
198
0.99
195
1.50
189
0.82
171
1.21
172
0.74
124
0.99
143
0.73
153
0.70
203
3.38
99
1.50
90
1.24
194
0.85
152
2.24
125
0.96
170
2.50
146
5.99
133
0.69
184
0.90
196
1.04
159
1.06
149
2.02
146
1.29
176
Former-RAFT_DAM_RVCtwo views1.44
100
0.64
44
0.58
86
0.44
86
0.42
78
0.38
60
0.27
67
1.25
147
0.49
100
0.85
124
0.62
99
0.76
88
0.54
102
0.35
61
12.82
190
1.55
102
0.72
69
0.71
102
2.02
120
0.58
67
1.72
118
6.96
146
0.42
56
0.39
51
0.82
108
1.19
166
0.71
32
0.77
94
trnettwo views1.46
101
0.91
150
0.99
165
0.53
107
0.44
81
0.49
92
0.25
61
1.41
179
0.67
151
0.88
135
1.00
167
0.97
138
0.76
163
0.44
114
7.79
158
3.28
187
0.95
140
0.64
77
2.41
130
0.64
85
3.97
163
3.96
82
0.58
136
0.63
123
1.03
155
1.01
137
1.73
123
0.99
138
sAnonymous2two views1.46
101
0.77
92
0.55
79
0.43
78
0.48
88
0.71
163
0.42
116
1.28
154
0.99
190
0.65
67
0.88
150
1.13
162
0.96
206
0.36
65
2.58
59
2.36
161
1.11
175
1.05
209
3.69
189
0.96
170
4.96
178
7.11
147
0.64
163
0.61
110
0.84
111
1.39
184
1.25
78
1.23
171
CroCo_RVCtwo views1.46
101
0.77
92
0.55
79
0.43
78
0.48
88
0.71
163
0.42
116
1.28
154
0.99
190
0.65
67
0.88
150
1.13
162
0.96
206
0.36
65
2.58
59
2.36
161
1.11
175
1.05
209
3.69
189
0.96
170
4.96
178
7.11
147
0.64
163
0.61
110
0.84
111
1.39
184
1.25
78
1.23
171
CEStwo views1.47
104
0.78
100
0.61
95
0.46
91
0.57
120
0.52
105
0.23
52
1.50
189
0.68
153
0.78
99
0.86
144
0.86
115
0.90
195
0.39
84
7.38
157
3.09
179
1.24
194
1.04
204
1.48
88
1.19
193
4.63
174
5.40
116
0.67
174
0.45
70
0.87
119
0.82
101
1.16
73
1.15
161
HSMtwo views1.47
104
0.76
88
1.02
175
0.81
176
0.80
171
0.56
116
0.56
147
1.86
230
0.60
133
0.76
94
0.85
142
0.90
121
0.68
141
0.60
172
11.58
186
1.15
41
0.96
144
0.74
115
2.61
139
0.74
120
2.26
143
2.51
62
0.60
147
0.87
184
0.95
141
0.98
134
2.08
150
1.02
143
DN-CSS_ROBtwo views1.49
106
0.84
121
1.08
187
0.88
186
0.88
181
0.50
97
0.39
112
2.00
243
0.63
141
1.55
194
1.79
207
1.00
144
0.81
178
0.41
90
3.48
100
1.46
83
1.12
179
0.95
179
5.28
216
0.75
123
4.20
164
3.69
76
0.56
123
1.01
212
0.80
104
0.82
101
2.06
149
1.31
177
stereogantwo views1.50
107
1.32
238
1.15
201
1.13
213
1.31
225
1.13
218
1.02
198
1.26
150
1.04
199
1.20
168
1.09
175
1.65
203
0.90
195
0.67
198
2.78
70
1.43
78
1.01
158
0.81
134
1.83
109
0.99
176
1.36
94
8.05
155
0.73
194
0.92
201
0.91
128
1.08
153
2.36
181
1.37
180
MGS-Stereotwo views1.51
108
0.99
188
0.53
76
0.41
72
0.35
57
0.41
67
0.36
107
0.66
58
0.28
44
0.53
44
0.47
64
0.52
39
0.39
60
0.43
107
23.18
224
1.01
23
0.77
88
0.79
126
1.05
59
0.67
104
1.17
83
1.46
38
0.47
73
0.69
141
0.77
95
0.48
56
1.29
81
0.77
94
LoS_RVCtwo views1.52
109
1.26
231
0.96
158
0.32
40
0.52
103
0.38
60
0.34
97
0.73
65
0.57
124
2.10
229
0.76
127
0.73
80
0.72
150
0.35
61
4.43
126
3.80
204
0.91
126
2.29
288
3.41
184
0.70
111
4.52
170
6.76
141
0.56
123
0.44
68
0.84
111
0.85
111
0.93
53
0.98
133
tt_lltwo views1.52
109
1.26
231
0.96
158
0.32
40
0.52
103
0.38
60
0.34
97
0.73
65
0.57
124
2.10
229
0.76
127
0.73
80
0.72
150
0.35
61
4.43
126
3.80
204
0.91
126
2.29
288
3.41
184
0.70
111
4.52
170
6.76
141
0.56
123
0.44
68
0.84
111
0.85
111
0.93
53
0.98
133
TANstereotwo views1.55
111
1.06
210
0.94
154
0.68
146
0.76
158
0.90
192
0.33
94
0.86
93
0.64
145
0.70
75
1.05
172
0.60
49
0.61
121
1.01
240
2.77
67
2.92
176
1.00
154
1.15
226
1.49
89
1.30
206
5.05
184
5.77
126
1.42
261
0.59
104
0.57
54
0.90
119
5.94
281
0.75
89
XX-TBDtwo views1.55
111
1.06
210
0.94
154
0.68
146
0.76
158
0.90
192
0.33
94
0.86
93
0.64
145
0.70
75
1.05
172
0.60
49
0.61
121
1.01
240
2.77
67
2.92
176
1.00
154
1.15
226
1.49
89
1.30
206
5.05
184
5.77
126
1.42
261
0.59
104
0.57
54
0.90
119
5.94
281
0.75
89
MM-Stereo_test2two views1.56
113
0.78
100
0.24
25
0.30
37
0.21
24
0.18
11
0.11
15
0.33
19
0.16
13
0.36
31
0.18
14
0.40
26
0.16
14
0.18
15
5.36
140
11.21
275
0.46
18
0.40
23
0.42
10
0.53
52
0.50
15
17.82
279
0.28
31
0.18
18
0.39
18
0.25
12
0.56
15
0.25
15
RGCtwo views1.56
113
1.33
240
1.98
267
1.18
220
1.24
218
1.20
225
1.06
199
1.20
140
1.09
203
0.91
140
1.67
202
1.23
169
1.26
225
0.92
230
4.08
119
1.27
61
1.06
169
0.86
154
1.92
113
1.10
187
1.72
118
5.40
116
0.79
211
1.03
214
1.17
182
1.52
200
2.20
159
1.83
203
LL-Strereo2two views1.57
115
0.66
47
0.65
100
0.40
70
0.35
57
0.32
42
0.23
52
1.48
185
0.42
71
0.68
73
0.57
91
0.63
56
0.32
47
0.67
198
2.65
64
7.88
264
0.65
57
0.55
55
1.37
83
0.70
111
1.80
121
15.65
250
0.50
91
0.40
57
0.65
74
0.62
72
1.06
64
0.56
54
CREStereotwo views1.57
115
0.92
155
0.99
165
0.53
107
0.43
80
0.49
92
0.26
64
1.44
183
0.71
161
0.87
128
1.01
168
0.95
135
0.76
163
0.44
114
7.17
152
4.29
213
0.93
134
0.59
61
2.41
130
0.65
92
5.45
187
5.19
104
0.61
150
0.63
123
1.02
154
1.01
137
1.74
124
0.98
133
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
raft+_RVCtwo views1.58
117
0.74
76
0.75
114
0.41
72
0.35
57
0.52
105
0.32
90
1.47
184
0.45
84
0.63
62
0.61
97
0.69
70
0.39
60
0.30
45
4.83
132
4.95
224
0.76
81
0.56
58
1.64
100
0.60
75
0.96
67
16.85
268
0.50
91
0.45
70
0.78
99
0.62
72
0.88
48
0.68
81
GIP-stereotwo views1.59
118
0.56
37
0.35
39
0.29
32
0.24
28
0.21
17
0.11
15
0.24
9
0.17
18
0.31
24
0.19
18
0.38
22
0.19
23
0.27
38
11.70
189
7.84
263
0.48
24
0.41
26
0.44
12
0.51
46
0.58
26
15.22
245
0.17
10
0.21
23
0.45
29
0.30
24
0.78
41
0.24
9
PMTNettwo views1.59
118
0.94
169
1.06
181
0.49
95
0.51
100
0.49
92
0.32
90
0.83
87
0.72
162
0.83
120
0.63
101
0.89
120
0.50
89
0.42
100
7.10
151
4.35
216
0.96
144
0.57
59
2.41
130
0.58
67
5.99
196
6.00
134
0.61
150
0.41
60
1.97
262
1.03
143
1.16
73
1.19
166
ICVPtwo views1.60
120
0.75
79
1.11
193
0.77
164
0.78
164
0.87
187
0.64
162
1.10
125
0.85
175
1.37
186
1.11
177
0.95
135
1.12
221
0.57
164
3.12
89
2.05
144
1.33
203
1.00
194
1.56
94
1.07
183
3.91
160
10.82
184
0.69
184
0.87
184
0.95
141
1.21
168
1.52
102
1.14
158
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
LoStwo views1.62
121
0.79
105
0.65
100
0.53
107
0.57
120
0.67
155
0.39
112
2.55
275
0.90
181
1.22
175
0.98
165
0.98
142
0.87
192
0.44
114
4.09
120
3.52
195
1.45
211
0.94
178
2.24
125
0.75
123
6.08
198
7.76
152
0.68
177
0.64
125
1.18
185
0.97
132
1.10
68
0.87
117
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
GEStwo views1.63
122
0.75
79
0.83
127
0.79
172
0.73
155
0.82
182
0.67
168
1.36
174
0.95
187
1.65
203
0.95
158
0.78
99
0.65
134
0.66
194
6.17
147
1.65
112
1.02
159
0.91
173
5.50
220
1.23
200
4.23
165
5.40
116
0.67
174
0.96
208
0.81
107
0.83
104
1.52
102
1.65
198
iResNetv2_ROBtwo views1.65
123
0.91
150
0.76
116
1.13
213
0.66
145
0.73
168
0.56
147
2.62
276
0.67
151
1.76
209
0.87
147
1.36
182
0.77
170
0.42
100
5.48
141
1.34
70
1.04
164
0.74
115
4.59
205
0.89
157
7.80
226
2.09
53
0.62
155
0.93
203
0.89
124
0.86
113
3.12
238
0.90
119
NCCL2two views1.66
124
1.30
236
1.16
203
1.12
211
1.48
237
0.80
179
1.13
212
1.07
122
1.15
210
1.84
213
1.26
186
1.12
159
0.84
185
0.83
223
4.07
118
1.52
92
1.22
191
0.89
166
1.35
80
0.93
167
2.49
145
5.97
132
1.47
266
1.14
225
1.49
229
1.40
188
3.78
262
1.89
208
LG-G_1two views1.68
125
0.70
58
0.33
34
0.37
56
0.40
69
0.33
45
0.16
36
0.41
30
0.21
32
0.29
22
0.33
42
0.50
36
0.35
51
0.34
57
3.35
97
2.37
163
0.54
35
0.62
69
0.86
45
0.75
123
0.92
63
28.93
323
0.17
10
0.23
28
0.51
39
0.41
46
0.62
20
0.48
44
LG-Gtwo views1.68
125
0.70
58
0.33
34
0.37
56
0.40
69
0.33
45
0.16
36
0.41
30
0.21
32
0.29
22
0.33
42
0.50
36
0.35
51
0.34
57
3.35
97
2.37
163
0.54
35
0.62
69
0.86
45
0.75
123
0.92
63
28.93
323
0.17
10
0.23
28
0.51
39
0.41
46
0.62
20
0.48
44
rafts_anoytwo views1.69
127
0.82
116
0.95
156
0.45
88
0.51
100
0.54
109
0.46
130
1.57
203
0.51
108
0.61
57
0.70
116
0.71
75
0.49
86
0.36
65
8.16
159
6.28
251
0.82
104
0.79
126
2.48
136
0.65
92
1.66
113
11.09
194
0.54
115
0.54
89
1.00
150
0.90
119
0.96
56
0.99
138
MIM_Stereotwo views1.71
128
0.77
92
0.56
83
0.43
78
0.38
65
0.47
81
0.23
52
1.50
189
0.32
52
0.56
46
0.46
62
0.65
62
0.28
40
0.39
84
6.21
149
11.24
276
0.65
57
0.82
139
3.32
182
0.89
157
1.35
93
10.19
174
0.38
48
0.51
83
0.55
48
0.42
50
1.96
141
0.58
58
CFNet_pseudotwo views1.71
128
0.79
105
0.89
139
0.83
179
0.79
168
0.71
163
0.43
120
0.93
108
0.53
112
0.94
147
0.81
139
0.94
132
0.88
194
0.82
222
15.18
200
1.47
87
0.79
96
0.73
110
7.38
261
0.78
131
1.08
77
2.74
66
0.74
200
0.70
145
0.91
128
0.91
122
1.47
96
1.13
156
SGD-Stereotwo views1.72
130
0.50
33
0.38
43
0.28
28
0.30
40
0.30
40
0.17
41
0.57
42
0.29
47
0.44
38
0.22
22
0.69
70
0.40
62
0.25
34
30.93
236
1.66
114
0.76
81
0.53
46
0.71
35
0.52
50
1.51
105
1.73
44
0.43
58
0.33
44
0.51
39
0.46
54
0.89
49
0.63
73
IGEV-Stereo+two views1.72
130
1.04
204
0.26
28
0.48
93
0.32
46
0.29
36
0.13
26
0.50
37
0.27
39
0.78
99
7.60
300
0.57
47
0.26
38
0.31
46
3.09
86
3.57
198
0.61
52
0.62
69
1.55
91
0.54
55
1.01
70
20.06
294
0.57
133
0.21
23
0.46
31
0.31
25
0.58
17
0.40
35
CC-Net-ROBtwo views1.72
130
1.82
268
1.21
214
1.92
258
1.84
258
2.43
270
1.64
230
0.93
108
0.96
188
1.27
178
0.68
108
5.86
281
2.76
250
1.47
266
2.26
49
0.95
17
1.46
214
1.26
247
2.79
156
0.96
170
1.12
80
1.41
34
3.28
288
0.73
151
1.31
198
1.15
164
1.47
96
1.57
190
dadtwo views1.73
133
0.98
184
0.82
125
2.17
268
1.18
215
1.11
216
4.08
269
1.66
212
0.63
141
1.21
172
0.54
83
1.12
159
2.00
240
0.63
182
3.74
106
1.25
59
1.14
182
0.82
139
2.70
151
0.80
137
1.47
102
2.54
63
0.73
194
1.01
212
2.41
272
0.71
90
5.51
277
3.77
255
raftrobusttwo views1.74
134
0.68
52
1.00
168
0.55
112
0.51
100
0.45
80
0.34
97
1.54
194
0.48
94
0.94
147
0.72
119
0.88
116
0.53
95
0.41
90
7.35
156
5.79
241
0.73
71
0.71
102
4.77
208
0.68
106
2.01
136
10.90
185
0.65
167
0.50
81
1.06
162
0.86
113
1.05
62
0.84
111
XPNet_ROBtwo views1.76
135
1.58
259
1.17
207
0.93
188
1.17
214
1.05
211
0.98
194
0.97
112
1.17
212
1.07
161
1.79
207
4.38
268
0.73
153
0.80
220
2.59
61
1.58
107
1.78
233
0.97
185
1.45
87
1.06
182
2.58
147
8.45
160
0.94
240
0.88
191
0.99
147
1.31
178
3.33
245
1.71
200
BEATNet_4xtwo views1.77
136
0.78
100
0.79
120
0.76
161
0.70
150
0.51
99
0.49
139
1.23
144
1.31
219
0.84
123
0.76
127
1.06
150
0.76
163
0.67
198
8.95
165
2.41
165
1.91
236
1.42
255
1.30
77
0.88
156
4.99
182
9.14
164
0.51
97
1.03
214
0.77
95
0.82
101
1.85
132
1.10
152
RALAANettwo views1.79
137
0.71
61
0.88
137
0.54
110
0.55
116
0.63
147
0.43
120
1.30
158
0.52
111
0.93
144
0.65
105
0.74
86
0.60
120
0.33
54
8.49
163
1.53
94
0.78
94
0.91
173
2.18
121
1.09
186
3.35
155
15.13
244
0.55
116
0.79
165
0.92
134
1.03
143
2.08
150
0.77
94
CREStereo++_RVCtwo views1.81
138
0.91
150
1.09
189
0.52
105
0.61
126
0.41
67
0.29
75
1.37
176
0.56
120
0.83
120
0.63
101
0.77
92
0.86
189
0.40
88
2.94
77
3.08
178
0.98
148
0.63
75
2.71
152
0.56
60
4.98
181
6.57
140
0.59
142
0.53
88
1.06
162
1.06
149
12.85
309
0.97
129
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
MyStereo04two views1.85
139
0.92
155
1.06
181
0.81
176
0.90
183
0.59
133
0.43
120
1.56
200
0.99
190
2.30
237
0.87
147
1.46
189
0.57
109
0.41
90
3.53
103
2.81
174
0.93
134
1.01
198
5.44
219
2.73
265
4.96
178
6.15
136
1.83
275
0.96
208
1.39
214
1.73
216
2.57
208
0.94
124
AE-Stereotwo views1.87
140
0.86
131
1.31
228
0.82
178
0.55
116
0.58
125
0.78
178
0.83
87
0.49
100
0.79
109
0.54
83
1.31
179
0.72
150
0.52
144
2.79
71
4.03
209
1.04
164
0.97
185
3.06
164
1.16
190
4.60
173
15.60
248
0.55
116
1.04
217
1.33
203
1.34
180
1.95
140
0.86
114
RALCasStereoNettwo views1.87
140
0.84
121
1.02
175
0.54
110
0.55
116
0.62
140
0.48
137
1.48
185
0.46
88
1.01
155
0.74
124
0.92
128
0.50
89
0.36
65
6.19
148
11.19
274
0.81
99
0.76
121
1.55
91
0.68
106
1.46
99
13.06
224
0.52
104
0.66
134
0.94
137
1.13
162
0.96
56
1.14
158
GEStereo_RVCtwo views1.88
142
0.97
178
1.01
172
1.01
202
0.88
181
1.12
217
1.07
202
1.65
211
0.82
171
0.90
138
0.78
135
1.38
183
0.79
173
0.64
186
2.40
54
2.33
158
1.22
191
1.22
239
4.10
199
1.26
203
5.16
186
12.04
211
0.73
194
1.21
229
0.95
141
0.97
132
2.49
196
1.64
197
DeepPruner_ROBtwo views1.89
143
0.77
92
0.97
161
0.86
184
0.91
185
0.80
179
5.39
276
1.26
150
0.91
183
1.47
191
1.61
201
0.92
128
0.82
182
0.56
161
4.41
124
1.54
99
1.07
171
1.06
212
2.72
154
0.80
137
7.63
220
7.36
150
0.87
233
0.77
158
0.91
128
1.47
194
2.20
159
0.99
138
sCroCo_RVCtwo views1.92
144
0.68
52
0.57
84
0.38
58
0.50
96
0.76
174
0.43
120
0.94
110
1.56
238
1.51
192
0.77
131
1.06
150
0.96
206
0.50
140
3.03
82
5.07
227
1.25
196
1.23
240
2.55
137
1.40
211
7.89
229
12.35
215
0.45
67
0.64
125
0.94
137
1.12
159
2.34
177
1.04
146
IGEV-Stereo++two views1.94
145
0.41
23
0.22
18
0.22
18
0.25
30
0.21
17
0.09
10
0.25
10
0.17
18
0.20
10
0.36
51
0.29
9
0.21
31
0.19
18
16.62
206
1.60
109
0.45
16
0.38
18
0.87
48
0.49
43
0.58
26
25.92
315
0.25
25
0.16
12
0.31
9
0.27
20
1.12
70
0.27
20
MoCha-V2two views1.94
145
0.31
14
0.25
26
0.21
16
0.17
17
0.17
10
0.15
33
0.23
7
0.11
1
0.27
20
0.32
36
0.33
14
0.16
14
0.22
28
16.77
208
2.58
168
0.41
8
0.40
23
0.35
2
0.92
163
0.61
29
25.91
314
0.16
8
0.19
20
0.38
16
0.26
16
0.36
3
0.19
2
GMOStereotwo views1.98
147
0.75
79
0.52
71
0.62
131
0.53
106
0.47
81
0.47
133
1.54
194
0.48
94
0.87
128
0.47
64
0.77
92
0.58
113
0.38
77
10.16
175
5.49
235
0.81
99
0.88
162
3.13
169
0.81
142
1.81
124
16.83
264
0.49
83
0.56
93
1.11
171
0.74
92
1.57
107
0.58
58
error versiontwo views1.98
147
0.75
79
0.52
71
0.62
131
0.53
106
0.47
81
0.47
133
1.54
194
0.48
94
0.87
128
0.47
64
0.77
92
0.58
113
0.38
77
10.16
175
5.49
235
0.81
99
0.88
162
3.13
169
0.81
142
1.81
124
16.83
264
0.49
83
0.56
93
1.11
171
0.74
92
1.57
107
0.58
58
test-vtwo views1.98
147
0.75
79
0.52
71
0.62
131
0.53
106
0.47
81
0.47
133
1.54
194
0.48
94
0.87
128
0.47
64
0.77
92
0.58
113
0.38
77
10.16
175
5.49
235
0.81
99
0.88
162
3.13
169
0.81
142
1.81
124
16.83
264
0.49
83
0.56
93
1.11
171
0.74
92
1.57
107
0.58
58
test-2two views1.98
147
0.75
79
0.52
71
0.62
131
0.53
106
0.47
81
0.47
133
1.54
194
0.48
94
0.87
128
0.47
64
0.77
92
0.58
113
0.38
77
10.16
175
5.49
235
0.81
99
0.88
162
3.13
169
0.81
142
1.81
124
16.83
264
0.49
83
0.56
93
1.11
171
0.74
92
1.57
107
0.58
58
RAFT + AFFtwo views2.00
151
0.49
32
0.46
59
0.41
72
0.20
21
0.43
75
0.21
49
0.65
55
0.24
35
0.56
46
0.27
28
0.78
99
0.22
32
0.32
48
39.56
253
0.96
18
0.71
67
0.38
18
1.92
113
0.39
19
0.79
44
1.40
31
0.33
38
0.40
57
0.73
84
0.35
35
0.59
18
0.30
26
MLCVtwo views2.04
152
0.89
144
0.99
165
1.37
236
1.31
225
1.02
208
1.01
196
2.14
252
0.80
168
2.00
222
4.28
246
1.74
207
1.62
233
0.48
128
3.03
82
2.01
141
1.33
203
0.96
182
6.76
249
1.13
188
6.05
197
5.71
123
0.68
177
1.73
249
1.32
202
1.39
184
2.32
174
1.07
148
4D-IteraStereotwo views2.05
153
0.63
43
1.16
203
0.49
95
0.44
81
0.41
67
0.26
64
1.43
181
0.38
63
0.75
90
0.55
87
0.79
102
0.42
70
0.46
124
9.38
169
11.47
280
0.71
67
0.68
91
2.81
157
0.64
85
3.95
161
11.85
208
0.52
104
0.58
101
0.71
82
0.84
106
2.34
177
0.63
73
test_4two views2.06
154
0.75
79
0.84
130
0.43
78
0.36
60
0.36
55
0.27
67
0.78
74
0.34
56
0.75
90
0.53
82
0.91
123
0.35
51
0.41
90
13.80
194
13.16
290
0.68
62
0.72
107
1.64
100
0.61
76
1.21
90
11.03
191
0.48
78
0.52
84
0.66
78
0.71
90
2.72
218
0.61
68
GCAP-BATtwo views2.08
155
0.93
161
0.58
86
0.38
58
0.41
71
0.47
81
0.31
79
1.31
161
0.43
77
0.78
99
0.52
74
2.25
224
0.43
72
0.36
65
3.88
108
6.19
245
13.58
314
0.64
77
2.63
140
0.66
97
8.41
242
5.39
110
0.56
123
0.62
115
0.73
84
0.64
75
2.21
162
0.82
103
test_for_modeltwo views2.08
155
0.93
161
0.58
86
0.38
58
0.41
71
0.47
81
0.31
79
1.31
161
0.43
77
0.78
99
0.52
74
2.25
224
0.43
72
0.36
65
3.88
108
6.19
245
13.58
314
0.64
77
2.63
140
0.66
97
8.41
242
5.39
110
0.56
123
0.62
115
0.73
84
0.64
75
2.21
162
0.82
103
testlalala2two views2.08
155
0.93
161
0.58
86
0.38
58
0.41
71
0.47
81
0.31
79
1.31
161
0.43
77
0.78
99
0.52
74
2.25
224
0.43
72
0.36
65
3.88
108
6.19
245
13.58
314
0.64
77
2.63
140
0.66
97
8.41
242
5.39
110
0.56
123
0.62
115
0.73
84
0.64
75
2.21
162
0.82
103
testlalalatwo views2.08
155
0.93
161
0.58
86
0.38
58
0.41
71
0.47
81
0.31
79
1.31
161
0.43
77
0.78
99
0.52
74
2.25
224
0.43
72
0.36
65
3.88
108
6.19
245
13.58
314
0.64
77
2.63
140
0.66
97
8.41
242
5.39
110
0.56
123
0.62
115
0.73
84
0.64
75
2.21
162
0.82
103
testlalala_basetwo views2.08
155
0.93
161
0.58
86
0.38
58
0.41
71
0.47
81
0.31
79
1.31
161
0.43
77
0.78
99
0.52
74
2.25
224
0.43
72
0.36
65
3.88
108
6.19
245
13.58
314
0.64
77
2.63
140
0.66
97
8.41
242
5.39
110
0.56
123
0.62
115
0.73
84
0.64
75
2.21
162
0.82
103
GCAP-Stereotwo views2.08
155
0.93
161
0.58
86
0.38
58
0.41
71
0.47
81
0.31
79
1.31
161
0.43
77
0.78
99
0.52
74
2.25
224
0.43
72
0.36
65
3.88
108
6.19
245
13.58
314
0.64
77
2.63
140
0.66
97
8.41
242
5.39
110
0.56
123
0.62
115
0.73
84
0.64
75
2.21
162
0.82
103
LALA_ROBtwo views2.09
161
2.18
278
1.21
214
1.07
207
1.32
227
1.18
220
1.12
210
1.19
139
1.45
227
2.05
227
2.76
227
3.68
254
0.92
198
0.96
236
4.76
131
1.53
94
1.45
211
1.18
235
2.60
138
1.36
209
3.60
159
8.26
159
0.80
213
1.16
226
1.35
207
1.44
191
3.89
265
2.12
219
ETE_ROBtwo views2.14
162
1.95
273
1.29
226
1.08
209
1.39
231
1.29
236
1.47
227
1.12
127
2.26
267
1.35
182
3.17
234
3.39
251
0.94
202
1.14
252
5.12
137
1.56
104
2.63
257
0.99
190
2.98
160
1.22
197
4.29
166
8.09
157
0.91
238
1.09
219
1.28
194
1.38
183
2.37
185
1.87
206
DEFOM-Stereo_RVCtwo views2.17
163
0.75
79
0.52
71
0.39
67
0.34
53
0.26
30
0.16
36
0.68
60
0.30
49
0.72
80
0.42
59
0.77
92
0.35
51
0.33
54
17.96
216
9.49
268
0.66
61
0.57
59
1.74
108
0.54
55
1.66
113
16.17
255
0.53
110
0.41
60
0.65
74
0.49
59
0.98
59
0.65
76
DDUNettwo views2.19
164
2.74
285
2.17
271
2.93
280
2.67
280
3.05
278
2.77
255
1.17
134
1.11
205
1.60
197
1.37
197
2.26
231
1.70
234
2.81
283
2.35
53
1.30
65
2.80
262
2.43
301
2.64
146
2.90
269
1.94
134
4.91
97
2.77
285
1.00
211
1.10
168
0.94
126
2.50
197
1.10
152
castereotwo views2.25
165
0.88
140
1.01
172
0.46
91
0.48
88
0.34
47
0.29
75
0.77
69
0.49
100
0.80
113
0.65
105
1.04
146
0.48
83
0.43
107
15.61
202
5.51
239
1.04
164
0.79
126
2.67
147
0.65
92
7.84
227
12.66
220
0.61
150
0.61
110
1.26
191
1.24
173
1.06
64
1.20
168
CASStwo views2.25
165
1.02
200
1.23
217
1.34
234
1.04
198
0.89
190
5.14
273
1.41
179
1.02
197
1.29
179
2.38
225
1.25
171
0.84
185
0.53
147
3.59
104
2.58
168
3.60
268
1.09
217
3.45
186
1.24
201
7.99
231
9.49
166
0.68
177
0.88
191
1.59
239
1.27
174
2.51
198
1.41
184
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
FADNet-RVC-Resampletwo views2.26
167
0.88
140
1.00
168
0.72
154
0.82
176
0.64
148
1.20
216
1.09
124
0.94
185
0.99
153
0.96
159
1.71
206
0.79
173
1.00
239
25.20
228
1.54
99
1.23
193
1.59
263
1.55
91
1.07
183
1.59
110
6.84
144
0.60
147
1.24
231
0.88
122
1.96
237
1.44
90
1.54
189
castereo++two views2.33
168
0.76
88
0.85
132
0.60
125
0.42
78
0.35
50
0.27
67
0.85
92
0.43
77
0.81
116
0.62
99
1.04
146
0.51
92
0.41
90
9.80
171
6.42
252
1.02
159
0.75
119
3.24
175
0.69
110
6.99
209
13.47
229
0.68
177
0.62
115
1.16
181
1.06
149
7.61
293
1.59
193
Anonymous3two views2.34
169
0.87
135
0.96
158
0.57
118
1.20
217
0.90
192
0.70
171
2.43
270
1.12
206
1.04
157
0.97
163
2.57
239
1.18
224
0.58
167
4.83
132
8.57
266
1.53
220
1.46
258
5.31
217
1.61
226
6.76
204
10.34
176
0.73
194
0.71
148
1.11
171
1.40
188
2.31
172
1.33
179
s12784htwo views2.36
170
1.12
215
1.42
235
1.12
211
0.93
187
0.62
140
0.40
114
1.36
174
0.68
153
1.05
160
0.86
144
1.10
157
0.94
202
0.43
107
2.88
75
4.87
223
1.00
154
0.73
110
3.80
192
0.59
71
7.79
224
9.50
167
0.55
116
0.69
141
1.89
257
1.97
238
11.65
305
3.89
256
MSCFtwo views2.43
171
0.42
26
0.22
18
0.34
45
0.19
19
0.24
25
0.14
30
0.30
13
0.20
29
0.66
69
0.13
11
0.28
5
0.18
22
0.14
4
19.60
221
17.27
313
0.43
11
0.36
13
0.37
6
0.40
20
0.51
18
20.43
297
0.24
23
0.30
37
0.39
18
0.88
116
0.73
34
0.25
15
GASTEREOtwo views2.44
172
0.43
27
0.22
18
0.34
45
0.19
19
0.24
25
0.14
30
0.30
13
0.19
27
0.73
85
0.12
7
0.28
5
0.17
18
0.14
4
19.56
220
17.27
313
0.43
11
0.36
13
0.38
8
0.41
24
0.49
14
20.62
299
0.26
27
0.30
37
0.40
22
0.84
106
0.76
39
0.24
9
RYNettwo views2.44
172
0.41
23
0.36
42
0.30
37
0.32
46
0.41
67
0.25
61
0.61
46
0.56
120
0.33
26
0.36
51
0.41
29
0.26
38
0.27
38
52.15
315
0.73
8
0.48
24
1.00
194
0.57
24
0.31
10
0.54
23
0.42
2
0.40
53
0.34
46
0.58
59
1.58
206
1.32
84
0.49
47
NaN_ROBtwo views2.45
174
1.12
215
1.08
187
0.97
194
1.86
261
0.90
192
1.61
229
1.33
168
10.69
318
1.00
154
1.27
187
2.58
240
0.94
202
1.20
256
17.00
210
1.43
78
1.03
161
0.90
171
1.56
94
1.21
196
1.90
130
3.45
73
0.81
214
1.12
223
1.54
236
2.00
241
2.39
187
3.23
247
anonymousdsptwo views2.48
175
0.38
19
0.39
45
0.28
28
0.32
46
0.29
36
0.15
33
0.56
40
0.27
39
0.43
36
18.77
319
0.54
42
0.20
27
0.32
48
13.20
192
1.48
88
0.58
41
0.54
49
0.70
34
0.61
76
0.78
43
23.15
305
0.43
58
0.39
51
0.49
34
0.29
22
1.16
73
0.33
28
ADLNettwo views2.55
176
0.99
188
0.77
117
0.63
136
0.76
158
0.65
150
0.53
145
1.11
126
0.61
136
0.58
52
0.72
119
1.70
205
0.61
121
0.88
226
46.09
280
1.06
30
0.75
78
0.68
91
0.86
45
0.75
123
0.79
44
1.96
50
0.55
116
0.58
101
0.96
144
0.96
129
1.63
118
0.76
93
GwcNet-ADLtwo views2.59
177
1.24
227
1.55
244
1.27
229
1.36
230
0.98
202
0.84
185
1.49
187
0.86
176
3.20
266
6.66
278
2.00
215
1.04
214
0.79
219
3.85
107
4.95
224
1.68
229
0.89
166
5.11
213
2.44
259
6.48
201
11.06
193
0.92
239
1.18
227
1.31
198
1.92
233
2.15
153
2.69
233
CFNet_RVCtwo views2.61
178
0.87
135
0.97
161
0.76
161
0.82
176
0.73
168
0.52
144
0.74
67
0.66
150
0.87
128
1.03
170
0.90
121
0.61
121
0.52
144
44.12
274
1.18
47
0.85
110
0.81
134
2.35
129
0.76
129
1.46
99
2.38
58
0.53
110
0.73
151
0.99
147
1.11
156
1.93
139
1.22
170
test-3two views2.64
179
1.01
196
1.14
198
0.63
136
0.62
134
0.58
125
0.45
126
1.98
240
0.42
71
0.86
125
0.54
83
1.48
191
0.53
95
0.41
90
15.10
198
11.78
282
0.86
115
0.82
139
6.54
241
0.74
120
5.58
190
11.75
206
0.51
97
0.90
196
0.91
128
1.01
137
3.11
235
0.97
129
test_1two views2.64
179
1.01
196
1.14
198
0.63
136
0.62
134
0.58
125
0.45
126
1.98
240
0.42
71
0.86
125
0.54
83
1.48
191
0.53
95
0.41
90
15.10
198
11.82
285
0.86
115
0.82
139
6.53
240
0.74
120
5.60
193
11.75
206
0.50
91
0.90
196
0.91
128
1.01
137
3.11
235
0.98
133
test_3two views2.64
179
1.02
200
1.12
194
0.65
141
0.63
138
0.57
121
0.45
126
1.95
233
0.41
70
0.88
135
0.51
72
1.47
190
0.54
102
0.40
88
14.93
197
11.79
283
0.88
122
0.83
145
6.54
241
0.76
129
5.54
188
11.70
205
0.49
83
0.88
191
0.99
147
1.12
159
3.23
240
0.98
133
Any-RAFTtwo views2.70
182
0.95
174
1.29
226
0.76
161
0.79
168
0.51
99
0.42
116
1.99
242
0.58
127
0.86
125
6.97
292
1.52
195
0.51
92
0.44
114
5.49
142
3.45
192
0.94
138
0.93
177
6.85
255
0.82
148
14.24
307
11.16
195
0.70
186
0.78
163
1.62
241
1.89
230
2.28
171
4.18
258
FADNet-RVCtwo views2.70
182
0.72
67
0.93
152
0.78
168
1.09
206
0.60
136
2.77
255
0.92
106
0.62
138
1.01
155
0.73
122
1.50
193
0.65
134
0.62
178
38.99
250
1.71
117
0.92
129
0.91
173
2.27
127
1.57
223
2.69
149
4.17
84
0.53
110
0.80
166
1.47
226
1.12
159
1.45
94
1.38
181
UCFNet_RVCtwo views2.81
184
1.27
233
0.90
142
0.89
187
0.94
190
0.78
178
0.62
159
0.78
74
0.68
153
0.91
140
0.80
137
1.29
176
1.02
212
0.50
140
42.02
268
1.15
41
0.85
110
0.83
145
6.67
245
0.85
154
1.51
105
2.89
68
1.15
250
0.75
153
1.10
168
1.14
163
1.58
111
2.10
218
PWCDC_ROBbinarytwo views2.81
184
0.72
67
0.69
107
0.63
136
0.95
191
0.69
159
0.70
171
1.04
121
1.58
239
0.64
64
1.84
209
0.91
123
3.56
265
0.77
215
39.21
251
2.17
149
1.31
201
0.99
190
1.59
98
1.01
179
3.34
154
5.82
129
0.72
189
0.87
184
0.77
95
0.94
126
1.13
71
1.19
166
cross-rafttwo views2.82
186
0.91
150
1.18
209
0.75
160
0.90
183
0.66
152
0.46
130
2.03
248
0.61
136
0.95
149
1.42
199
1.08
156
0.76
163
0.53
147
8.24
162
5.88
242
1.09
173
0.80
131
6.99
258
2.68
264
12.15
277
17.17
273
0.72
189
0.78
163
1.60
240
1.91
231
1.66
119
2.34
226
FADNettwo views2.84
187
0.83
117
0.90
142
0.83
179
1.04
198
0.62
140
2.08
241
0.99
115
0.76
165
0.92
143
0.92
157
1.18
166
0.78
171
0.76
211
40.37
259
1.50
90
0.97
147
1.03
202
2.68
149
1.57
223
3.20
153
5.00
99
0.51
97
0.68
138
1.58
238
1.68
213
1.54
104
1.82
202
NVstereo2Dtwo views2.85
188
0.83
117
0.80
123
0.70
150
0.80
171
0.92
196
0.81
181
1.18
138
0.76
165
0.93
144
1.03
170
0.81
107
0.55
105
0.72
207
52.45
317
1.56
104
0.94
138
0.87
158
1.64
100
0.72
118
1.14
81
1.60
41
0.76
205
0.87
184
1.08
165
0.79
97
1.01
60
0.75
89
iResNettwo views2.85
188
0.97
178
0.97
161
1.43
242
1.80
256
1.47
244
1.12
210
1.81
225
1.13
207
2.59
248
4.97
257
1.93
211
2.37
245
0.49
132
10.52
181
7.03
257
1.43
210
1.23
240
6.83
254
1.98
246
10.31
263
4.92
98
0.64
163
2.13
270
1.14
178
1.54
202
2.80
221
1.38
181
PWC_ROBbinarytwo views2.85
188
1.23
225
1.47
241
0.98
195
1.11
208
1.27
234
1.99
239
1.27
153
1.94
258
1.81
211
3.58
241
2.35
234
3.05
258
1.01
240
14.14
196
4.27
212
2.10
247
1.91
280
3.81
193
1.66
228
5.64
194
8.18
158
0.85
227
2.03
264
1.36
210
1.46
192
3.11
235
3.25
248
AnonymousMtwo views2.90
191
0.65
46
0.48
64
0.51
102
0.33
50
0.52
105
0.24
56
1.70
215
0.47
89
0.75
90
4.40
251
0.71
75
0.46
80
0.47
126
2.68
65
3.64
203
1.18
187
1.04
204
1.95
116
3.61
283
4.88
176
12.46
216
0.67
174
0.66
134
0.60
66
1.21
168
15.66
316
16.35
300
Reg-Stereo(zero)two views2.93
192
0.81
111
1.58
246
0.71
151
1.46
235
0.57
121
0.70
171
3.61
295
0.69
157
3.55
274
6.85
286
1.53
196
0.84
185
1.60
268
4.30
121
5.29
231
3.30
266
0.83
145
6.52
238
1.87
239
5.58
190
14.63
240
0.72
189
0.70
145
1.08
165
1.51
195
4.73
273
3.62
252
HItwo views2.93
192
0.81
111
1.58
246
0.71
151
1.46
235
0.57
121
0.70
171
3.61
295
0.69
157
3.55
274
6.85
286
1.53
196
0.84
185
1.60
268
4.30
121
5.29
231
3.30
266
0.83
145
6.52
238
1.87
239
5.58
190
14.63
240
0.72
189
0.70
145
1.08
165
1.51
195
4.73
273
3.62
252
anonymousdsp2two views2.94
194
0.84
121
0.87
136
0.43
78
0.45
83
0.58
125
0.34
97
1.16
133
0.38
63
0.66
69
21.85
320
0.70
74
0.41
67
0.59
169
13.83
195
3.60
200
0.76
81
0.71
102
2.22
124
1.35
208
1.52
108
21.23
300
0.43
58
0.62
115
0.79
102
0.50
62
1.85
132
0.65
76
MIPNettwo views2.96
195
0.92
155
0.91
145
0.50
99
0.67
148
0.56
116
0.61
158
1.33
168
0.54
116
2.05
227
0.97
163
0.83
109
0.81
178
0.49
132
40.68
261
1.72
119
1.31
201
0.97
185
3.26
176
1.24
201
1.50
104
9.35
165
0.59
142
1.03
214
1.35
207
1.98
239
2.90
226
0.81
101
LG-Stereo_Zeroshottwo views3.00
196
1.05
207
0.53
76
1.39
238
2.50
276
3.17
279
1.07
202
1.71
216
0.96
188
4.82
300
5.49
266
4.83
272
0.65
134
0.42
100
4.72
130
5.74
240
0.84
109
0.80
131
2.69
150
1.13
188
7.99
231
20.11
296
0.60
147
0.42
63
0.87
119
1.39
184
1.98
143
3.06
242
RAFT-Stereo + iAFFtwo views3.00
196
0.73
74
0.91
145
0.43
78
0.41
71
0.58
125
0.28
72
0.99
115
0.60
133
1.54
193
0.59
94
0.80
105
0.40
62
0.28
40
44.82
276
1.22
53
0.69
63
0.53
46
2.71
152
0.62
80
2.23
141
13.76
237
0.50
91
0.59
104
0.90
126
0.75
96
2.54
204
0.66
80
IPLGtwo views3.07
198
0.76
88
0.72
110
0.43
78
0.54
112
0.56
116
0.53
145
1.62
206
0.36
62
0.62
61
0.58
93
0.79
102
0.68
141
0.49
132
50.96
306
1.74
123
1.12
179
0.97
185
3.52
187
0.64
85
1.11
78
6.45
138
0.52
104
0.82
170
0.92
134
1.91
231
2.86
223
0.71
84
DAStwo views3.10
199
1.00
194
1.10
191
1.19
223
1.08
201
1.08
214
1.21
217
1.75
218
1.79
253
3.25
267
5.47
263
2.72
243
3.29
262
0.55
157
5.31
138
7.12
258
2.42
255
1.23
240
6.24
233
1.85
237
12.96
287
10.93
186
0.78
208
1.97
259
1.37
212
1.75
217
2.60
209
1.57
190
SepStereotwo views3.10
199
1.00
194
1.10
191
1.19
223
1.08
201
1.08
214
1.21
217
1.75
218
1.79
253
3.25
267
5.47
263
2.72
243
3.29
262
0.55
157
5.31
138
7.12
258
2.42
255
1.23
240
6.24
233
1.85
237
12.96
287
10.93
186
0.78
208
1.97
259
1.37
212
1.75
217
2.60
209
1.57
190
GANet-ADLtwo views3.14
201
0.92
155
1.31
228
1.05
206
1.05
200
1.24
231
0.92
191
1.20
140
1.01
193
3.66
280
6.58
277
1.07
155
0.81
178
0.49
132
11.53
185
4.97
226
1.73
230
0.91
173
6.57
243
2.05
250
8.13
234
18.07
285
0.71
187
0.95
206
1.11
171
1.99
240
2.91
227
1.84
204
DCVSM-stereotwo views3.15
202
0.94
169
1.56
245
1.37
236
1.08
201
1.54
246
1.01
196
3.02
284
1.32
220
3.44
271
6.18
271
6.76
288
2.79
253
0.90
229
5.98
145
4.29
213
1.47
215
1.10
219
7.68
263
3.59
281
6.97
208
8.61
162
1.23
252
2.64
289
1.46
222
2.00
241
3.57
253
2.42
228
AFF-stereotwo views3.18
203
0.71
61
0.65
100
0.31
39
0.33
50
0.55
114
0.23
52
0.87
97
0.42
71
1.36
183
0.46
62
0.67
65
0.35
51
0.26
36
46.76
284
1.18
47
0.62
55
0.86
154
2.87
158
0.45
32
4.82
175
15.89
253
0.44
63
0.47
76
0.82
108
0.68
88
2.38
186
0.56
54
pcwnet_v2two views3.23
204
0.83
117
0.97
161
0.93
188
1.14
211
0.96
199
0.69
170
1.17
134
0.87
179
2.03
224
1.10
176
1.29
176
1.08
217
1.26
259
45.42
277
1.62
110
1.08
172
0.89
166
6.88
256
0.84
153
3.07
151
4.23
85
1.04
245
0.91
199
1.05
161
1.19
166
2.44
190
2.19
223
RTSCtwo views3.28
205
0.98
184
1.45
239
0.78
168
0.96
195
1.01
207
2.41
249
1.17
134
1.33
221
2.40
243
2.02
220
1.27
173
1.03
213
1.14
252
40.84
264
3.19
182
1.99
239
1.31
251
4.15
200
1.44
215
3.49
157
5.65
121
0.68
177
1.18
227
1.17
182
1.04
146
2.44
190
2.09
216
GREAT-IGEVtwo views3.32
206
0.37
18
0.22
18
0.15
10
0.12
3
0.16
5
0.09
10
0.31
17
9.28
314
0.33
26
0.18
14
0.44
33
0.19
23
0.21
24
18.63
218
22.84
323
0.49
27
0.32
8
0.45
15
0.59
71
0.50
15
31.41
325
0.25
25
0.30
37
0.30
6
0.25
12
0.90
50
0.23
7
RAFT-Testtwo views3.32
206
0.86
131
1.22
216
1.02
203
0.82
176
0.59
133
0.58
155
2.18
256
0.70
160
1.12
165
7.31
297
1.02
145
0.91
197
0.59
169
9.35
168
11.60
281
1.14
182
0.81
134
7.01
259
1.28
204
10.82
270
17.19
274
0.76
205
0.77
158
1.51
232
4.92
282
1.38
86
2.16
222
CSANtwo views3.35
208
1.35
243
1.16
203
1.52
247
2.04
269
1.26
233
7.98
288
1.54
194
10.46
315
2.39
242
3.42
238
5.12
277
2.55
249
1.14
252
8.20
161
1.38
73
1.73
230
1.10
219
3.33
183
1.72
232
6.90
206
10.63
181
0.82
218
1.50
241
1.94
261
3.78
275
2.45
192
2.93
238
AEACVtwo views3.45
209
0.93
161
0.35
39
0.29
32
0.21
24
0.27
33
0.12
21
0.28
11
0.14
6
0.24
15
0.24
25
0.36
20
0.22
32
0.21
24
30.09
235
24.13
325
0.59
44
0.46
32
1.65
105
0.91
162
0.89
56
28.36
321
0.27
28
0.21
23
0.36
14
0.31
25
0.63
23
0.28
24
MFMNet_retwo views3.46
210
1.42
248
1.49
242
1.53
248
1.89
263
2.00
260
2.86
258
2.64
278
2.15
264
1.61
198
1.95
214
3.90
256
2.80
254
1.04
243
16.75
207
4.11
210
2.68
259
1.96
281
6.65
244
2.58
263
14.03
302
5.20
105
1.88
276
2.03
264
1.41
216
1.32
179
3.30
244
2.21
224
R-Stereo Traintwo views3.50
211
1.01
196
1.23
217
1.00
198
0.66
145
0.77
175
0.32
90
1.30
158
1.01
193
1.63
200
4.33
247
1.34
180
0.71
147
0.42
100
34.59
241
4.42
217
1.66
227
1.02
200
6.76
249
1.16
190
7.74
222
13.63
232
0.52
104
0.64
125
1.53
234
1.66
211
1.39
87
1.92
210
RAFT-Stereopermissivetwo views3.50
211
1.01
196
1.23
217
1.00
198
0.66
145
0.77
175
0.32
90
1.30
158
1.01
193
1.63
200
4.33
247
1.34
180
0.71
147
0.42
100
34.59
241
4.42
217
1.66
227
1.02
200
6.76
249
1.16
190
7.74
222
13.63
232
0.52
104
0.64
125
1.53
234
1.66
211
1.39
87
1.92
210
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MSMDNettwo views3.50
211
0.89
144
1.16
203
0.58
121
0.75
157
0.62
140
0.50
140
2.02
245
0.62
138
1.04
157
1.76
205
1.11
158
12.05
292
0.61
173
12.99
191
10.73
272
1.17
186
0.81
134
6.92
257
1.46
218
11.45
275
17.23
275
0.72
189
0.84
175
1.47
226
1.81
223
1.28
80
1.94
212
AIO_rvctwo views3.52
214
0.72
67
0.41
49
0.34
45
0.22
26
0.35
50
0.17
41
0.57
42
0.28
44
0.38
32
0.22
22
0.56
46
0.25
36
0.29
41
23.43
225
18.50
317
0.51
30
0.48
35
2.01
118
0.55
57
0.84
50
41.45
328
0.49
83
0.23
28
0.51
39
0.29
22
0.74
35
0.33
28
FADNet_RVCtwo views3.56
215
1.23
225
1.25
222
1.44
243
1.84
258
1.07
213
1.92
238
1.49
187
1.21
214
1.36
183
1.98
218
2.15
217
1.78
236
1.70
271
24.01
226
3.18
181
2.07
246
2.72
304
5.67
226
1.96
245
6.65
202
9.51
168
0.82
218
1.59
244
1.21
187
1.51
195
12.03
306
2.86
237
EGLCR-Stereotwo views3.59
216
0.87
135
1.26
223
0.45
88
0.49
93
0.62
140
0.24
56
0.84
90
1.44
225
0.72
80
3.96
243
0.80
105
0.65
134
0.51
142
4.34
123
8.11
265
1.11
175
1.11
222
3.53
188
0.71
116
5.00
183
35.96
327
0.56
123
0.71
148
1.01
151
0.91
122
20.20
319
0.86
114
IPLGRtwo views3.62
217
0.90
147
0.93
152
0.65
141
0.68
149
0.51
99
0.44
125
1.14
131
0.45
84
2.02
223
1.29
189
0.88
116
0.76
163
0.48
128
49.71
296
1.92
135
1.37
208
1.13
223
3.29
179
1.45
216
3.00
150
15.33
246
0.59
142
1.08
218
1.51
232
1.93
235
3.46
249
0.91
122
SHDtwo views3.64
218
1.05
207
2.15
270
1.16
219
1.24
218
1.21
226
2.45
250
1.63
209
1.66
242
2.43
244
2.96
229
1.83
208
2.53
248
0.95
235
39.82
255
3.82
206
1.89
235
1.51
259
4.16
201
2.08
253
5.74
195
5.69
122
0.74
200
1.99
261
1.92
260
1.81
223
1.97
142
1.86
205
HHtwo views3.66
219
0.67
50
1.44
236
0.83
179
0.81
173
0.96
199
1.10
206
1.85
228
0.86
176
5.18
310
5.29
260
1.95
212
0.86
189
0.61
173
11.66
187
15.16
306
0.99
151
1.04
204
6.30
235
3.12
275
13.50
298
13.59
230
0.86
228
0.94
204
1.45
220
1.81
223
3.81
263
2.04
213
HanStereotwo views3.66
219
0.67
50
1.44
236
0.83
179
0.81
173
0.96
199
1.10
206
1.85
228
0.86
176
5.18
310
5.29
260
1.95
212
0.86
189
0.61
173
11.66
187
15.16
306
0.99
151
1.04
204
6.30
235
3.12
275
13.50
298
13.59
230
0.86
228
0.94
204
1.45
220
1.81
223
3.81
263
2.04
213
RTStwo views3.66
219
1.19
218
1.07
185
0.99
196
1.30
223
1.36
238
3.80
266
1.35
171
1.49
233
2.37
239
1.17
182
1.84
209
1.14
222
1.07
245
42.35
269
3.22
184
2.05
244
1.43
256
4.07
197
1.94
243
4.46
168
5.32
106
1.05
246
1.34
236
1.91
258
5.04
283
2.33
175
2.12
219
RTSAtwo views3.66
219
1.19
218
1.07
185
0.99
196
1.30
223
1.36
238
3.80
266
1.35
171
1.49
233
2.37
239
1.17
182
1.84
209
1.14
222
1.07
245
42.35
269
3.22
184
2.05
244
1.43
256
4.07
197
1.94
243
4.46
168
5.32
106
1.05
246
1.34
236
1.91
258
5.04
283
2.33
175
2.12
219
MSKI-zero shottwo views3.77
223
0.85
127
1.15
201
0.73
155
0.63
138
0.68
157
0.56
147
1.86
230
0.94
185
0.88
135
6.74
280
1.62
202
0.71
147
0.43
107
15.96
204
13.56
293
1.52
218
1.01
198
6.81
253
8.64
311
10.46
266
16.23
256
0.59
142
0.87
184
1.50
230
1.95
236
1.85
132
3.10
243
HSM-Net_RVCpermissivetwo views3.81
224
1.09
212
1.14
198
1.82
254
1.25
220
0.94
197
0.70
171
2.28
265
1.07
202
2.74
253
5.68
268
38.55
324
1.46
232
0.55
157
5.03
134
1.95
136
1.20
189
0.79
126
1.99
117
1.22
197
7.13
212
13.94
239
0.84
223
2.30
273
1.64
242
1.51
195
2.21
162
1.75
201
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HUFtwo views3.84
225
0.71
61
0.57
84
0.35
49
0.26
33
0.29
36
0.17
41
0.80
79
0.29
47
0.49
42
0.29
31
0.61
53
0.43
72
0.29
41
28.08
232
23.64
324
0.61
52
0.62
69
5.18
214
0.63
82
1.76
120
34.41
326
0.50
91
0.52
84
0.56
52
0.33
30
0.79
44
0.47
43
XQCtwo views3.85
226
1.31
237
1.36
232
1.30
232
1.53
239
1.33
237
2.55
252
1.62
206
1.46
229
2.54
246
3.01
231
1.69
204
4.90
268
1.38
264
44.59
275
3.43
191
1.76
232
1.35
253
3.99
196
1.75
233
4.57
172
5.16
103
0.89
237
1.42
239
2.05
264
2.68
258
2.31
172
2.06
215
FCDSN-DCtwo views3.99
227
0.97
178
2.81
291
1.39
238
1.40
233
1.15
219
1.19
215
0.91
105
0.91
183
1.04
157
0.72
119
1.58
201
0.75
158
0.63
182
52.37
316
2.42
166
1.30
200
1.13
223
1.11
67
0.80
137
7.88
228
16.59
261
0.81
214
2.41
281
1.31
198
1.68
213
1.29
81
1.11
154
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
UDGtwo views4.03
228
2.77
286
2.35
280
2.93
280
2.67
280
3.00
277
2.72
254
1.31
161
1.13
207
1.64
202
1.94
213
2.23
222
1.70
234
2.77
281
48.50
291
1.67
116
3.08
264
2.35
294
2.67
147
2.91
270
3.58
158
5.04
100
2.66
280
1.23
230
1.07
164
1.28
176
2.36
181
1.15
161
test-1two views4.23
229
0.69
54
1.20
213
0.60
125
0.60
123
0.75
172
0.64
162
1.95
233
0.80
168
4.00
288
5.47
263
2.20
220
0.79
173
0.41
90
24.74
227
12.65
289
1.45
211
1.51
259
6.68
246
6.25
302
10.73
269
20.07
295
0.58
136
0.87
184
1.46
222
1.76
221
2.89
225
2.51
230
IGEV_Zeroshot_testtwo views4.26
230
0.84
121
1.93
262
2.97
284
0.71
152
3.42
282
1.32
223
2.22
260
1.67
243
4.20
291
6.87
288
2.33
233
1.00
211
0.48
128
9.28
167
11.41
278
1.04
164
0.84
150
5.57
222
4.84
291
8.38
240
21.42
301
0.65
167
0.84
175
1.46
222
1.58
206
14.79
313
2.96
240
DeepPrunerFtwo views4.26
230
1.62
261
0.74
112
2.93
280
4.99
313
2.40
268
3.44
261
0.88
98
3.92
291
0.79
109
1.16
180
0.71
75
0.57
109
0.63
182
43.07
273
2.04
143
1.04
164
0.87
158
2.42
133
0.92
163
1.80
121
2.10
54
0.88
236
0.82
170
28.99
321
1.77
222
2.48
194
1.16
164
EKT-Stereotwo views4.27
232
0.97
178
1.18
209
0.73
155
0.77
162
0.89
190
1.18
213
2.02
245
1.53
237
1.56
195
4.82
255
1.25
171
0.80
177
0.54
154
31.80
238
14.62
301
1.26
197
1.36
254
5.54
221
7.66
307
9.42
256
17.09
272
0.57
133
0.75
153
1.41
216
1.82
227
2.56
206
1.07
148
PVDtwo views4.32
233
1.44
252
2.25
275
1.41
240
1.77
253
1.75
253
2.70
253
3.05
285
2.66
274
3.00
261
4.25
245
2.70
242
3.99
266
1.37
263
39.86
256
3.83
207
2.30
254
2.28
287
4.67
207
2.74
266
7.12
211
6.88
145
1.06
248
1.88
257
3.05
278
2.71
259
2.99
229
2.93
238
MFN_U_SF_DS_RVCtwo views4.37
234
1.52
256
1.06
181
2.01
262
1.95
266
2.24
265
6.41
282
2.14
252
2.21
265
1.72
208
1.55
200
2.74
246
6.14
272
6.25
303
28.17
233
1.81
127
1.51
216
1.06
212
5.38
218
1.78
234
12.52
279
8.92
163
1.51
269
1.25
233
2.26
267
3.39
271
3.05
232
7.55
281
AIO_testtwo views4.46
235
0.79
105
0.51
69
0.44
86
0.25
30
0.36
55
0.21
49
0.61
46
0.27
39
0.42
35
0.32
36
0.58
48
0.28
40
0.32
48
31.53
237
28.68
329
0.53
32
0.47
33
1.35
80
0.56
60
1.06
74
47.74
332
0.48
78
0.26
33
0.52
43
0.49
59
1.04
61
0.35
31
gcap-zeroshottwo views4.50
236
0.79
105
1.44
236
1.90
257
0.76
158
1.22
228
2.14
242
2.08
251
0.63
141
5.43
320
7.06
294
2.92
247
0.70
145
0.41
90
13.38
193
11.02
273
1.21
190
1.09
217
36.04
307
1.48
219
8.46
248
11.16
195
3.53
291
0.89
195
1.44
219
1.46
192
1.34
85
1.49
188
FC-DCNNcopylefttwo views4.51
237
1.62
261
4.08
305
2.84
278
2.39
272
3.98
285
10.51
302
2.63
277
1.71
245
2.88
255
1.36
195
4.19
265
1.34
228
0.70
203
7.04
150
2.00
139
1.35
206
1.04
204
9.58
272
0.98
174
9.23
254
16.30
257
0.86
228
1.84
253
4.65
289
2.21
249
7.62
294
16.90
302
FAT-Stereotwo views4.52
238
1.20
222
2.24
273
1.53
248
1.85
260
1.44
242
1.59
228
3.56
294
1.83
255
3.65
278
6.20
272
6.73
287
2.83
256
1.06
244
10.97
183
14.80
303
2.18
250
2.42
299
5.19
215
8.70
313
13.23
293
13.14
225
0.95
241
2.77
298
1.34
205
2.22
250
3.04
231
5.45
270
PSMNet-ADLtwo views4.56
239
0.97
178
1.17
207
1.19
223
1.28
221
1.04
210
0.92
191
1.77
222
1.26
216
3.47
272
6.08
270
1.51
194
3.10
261
0.57
164
51.86
313
9.30
267
1.51
216
0.96
182
5.92
230
1.28
204
6.83
205
12.62
219
0.87
233
0.88
191
1.17
182
1.43
190
3.02
230
1.17
165
NOSS_ROBtwo views4.59
240
1.38
247
0.84
130
1.18
220
1.29
222
1.18
220
0.68
169
2.34
268
1.43
224
4.86
301
6.67
279
6.78
289
1.06
216
10.45
311
17.10
211
14.19
297
1.64
223
1.16
229
3.03
161
1.02
180
14.13
303
17.92
282
0.82
218
1.66
247
1.27
193
4.91
281
3.40
247
1.44
186
SAMSARAtwo views4.67
241
1.33
240
1.79
254
1.51
246
1.56
244
1.58
247
3.79
265
2.22
260
1.93
257
2.38
241
3.37
237
2.12
216
9.35
280
2.02
276
37.97
248
5.46
234
2.03
243
1.62
265
4.95
210
2.84
268
6.73
203
6.13
135
1.00
242
2.01
262
4.21
288
6.28
292
4.36
268
5.44
269
AIO-Stereo-zeroshotpermissivetwo views4.68
242
1.27
233
2.35
280
1.21
228
1.52
238
1.82
257
1.18
213
2.02
245
7.37
308
3.67
281
7.12
295
2.40
235
1.99
239
0.42
100
5.56
143
11.42
279
1.54
221
1.15
226
6.68
246
6.15
301
8.32
237
17.95
283
0.64
163
1.37
238
1.74
250
7.67
298
16.62
317
5.12
266
ITSA-stereotwo views4.84
243
1.28
235
1.23
217
1.66
252
1.71
250
1.05
211
4.19
270
2.00
243
1.47
230
3.70
282
6.77
281
2.20
220
1.42
230
1.36
262
17.32
212
6.64
255
2.71
261
1.88
277
6.39
237
4.78
289
7.50
217
10.94
188
1.25
256
2.52
284
1.54
236
4.85
280
23.59
321
8.62
282
ADCReftwo views4.89
244
1.42
248
1.03
177
0.78
168
1.79
254
1.25
232
1.80
232
1.00
117
5.53
302
1.84
213
1.05
172
1.16
165
0.93
200
1.23
258
53.67
321
2.00
139
1.15
184
1.05
209
3.90
195
1.36
209
2.10
137
4.11
83
2.09
277
1.09
219
2.26
267
4.58
276
2.46
193
29.47
319
FC-DCNN v2copylefttwo views4.90
245
1.67
263
4.09
306
2.95
283
2.41
273
4.23
289
10.50
301
3.34
287
2.69
275
2.88
255
1.36
195
4.20
266
2.16
242
0.70
203
7.18
153
2.02
142
1.35
206
1.03
202
9.59
274
0.98
174
9.12
253
16.72
263
0.86
228
1.79
250
5.94
295
3.28
269
12.65
308
16.55
301
MADNet+two views4.92
246
2.05
276
1.88
259
2.10
265
2.41
273
1.62
250
5.57
277
2.53
274
2.09
261
2.66
251
2.11
221
4.11
262
2.91
257
2.54
279
41.01
265
5.19
229
4.09
272
1.69
267
4.60
206
3.68
284
13.15
292
7.71
151
1.76
273
3.65
313
3.07
279
2.16
247
3.24
242
3.28
249
MFN_U_SF_RVCtwo views5.03
247
1.91
272
1.84
256
2.23
270
1.92
265
2.67
272
6.14
279
2.41
269
1.98
260
4.44
294
10.81
315
4.14
264
2.48
247
4.92
299
32.71
239
3.59
199
2.29
253
1.81
274
11.46
281
3.54
280
7.96
230
7.26
149
1.24
255
3.78
315
1.85
254
3.74
274
2.83
222
3.90
257
SGM-Foresttwo views5.08
248
1.24
227
0.79
120
2.11
266
1.57
245
1.42
240
0.58
155
1.40
177
0.90
181
4.89
303
0.91
156
2.72
243
12.97
295
0.64
186
17.84
215
3.50
193
0.87
117
0.68
91
9.60
275
0.82
148
7.51
218
17.96
284
0.87
233
1.09
219
1.69
247
1.75
217
5.90
280
34.83
324
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADCP+two views5.11
249
1.52
256
1.70
252
1.08
209
1.55
241
1.22
228
2.28
243
1.03
120
2.69
275
3.96
287
2.19
224
2.25
224
0.63
127
0.98
238
54.20
323
1.53
94
0.87
117
0.96
182
4.27
202
0.95
168
2.45
144
3.80
77
0.74
200
0.80
166
2.41
272
11.13
304
7.77
295
23.00
309
MSC_U_SF_DS_RVCtwo views5.15
250
2.25
282
1.46
240
2.42
272
2.07
270
2.04
262
5.18
274
1.97
237
2.61
271
2.96
259
1.93
212
3.79
255
10.20
283
10.36
310
27.56
231
3.55
197
3.01
263
1.99
282
14.19
284
3.59
281
7.40
215
9.91
171
2.85
287
1.93
258
2.42
274
2.82
260
2.19
158
6.53
278
S-Stereotwo views5.20
251
1.19
218
1.90
261
1.82
254
1.73
252
1.68
251
2.29
245
2.74
282
2.14
263
3.32
269
13.02
316
5.98
282
1.85
237
0.89
227
28.39
234
16.06
310
1.91
236
2.35
294
5.62
224
9.27
318
7.51
218
15.02
243
1.62
270
2.70
292
1.33
203
2.06
245
2.88
224
3.20
246
FBW_ROBtwo views5.25
252
2.41
283
2.49
283
2.72
276
2.98
290
2.61
271
6.30
281
1.78
223
1.10
204
2.52
245
2.82
228
4.91
275
8.67
277
6.67
304
49.93
299
1.28
63
1.82
234
0.97
185
9.21
270
1.68
229
9.07
251
5.89
131
4.29
295
1.84
253
1.48
228
1.92
233
1.81
128
2.56
231
EAI-Stereotwo views5.34
253
1.04
204
2.30
278
1.02
203
1.55
241
0.85
185
1.91
237
2.21
259
2.99
280
0.81
116
6.93
291
1.39
184
0.83
184
0.54
154
26.39
229
49.22
333
1.18
187
1.17
231
7.74
265
1.54
222
8.92
250
12.00
210
0.78
208
2.02
263
1.46
222
2.24
251
3.36
246
1.89
208
iRaft-Stereo_20wtwo views5.41
254
1.35
243
2.82
292
2.69
274
1.55
241
1.58
247
1.23
220
1.96
235
3.24
286
5.53
321
7.00
293
1.55
198
1.33
227
0.55
157
6.14
146
9.93
269
1.65
226
0.87
158
6.14
232
5.54
296
8.40
241
20.46
298
0.73
194
0.87
184
1.71
248
34.19
327
11.64
304
5.53
272
ccs_robtwo views5.44
255
1.11
214
1.53
243
1.20
226
0.97
196
1.19
223
1.07
202
2.86
283
1.25
215
4.19
289
35.07
326
8.65
300
1.42
230
0.76
211
35.68
244
6.12
244
1.64
223
1.17
231
5.87
229
1.60
225
10.36
265
12.86
222
0.76
205
2.22
272
1.10
168
1.34
180
2.64
214
2.22
225
CBMVpermissivetwo views5.62
256
1.43
250
1.24
221
1.61
250
1.61
246
1.96
258
2.28
243
3.43
288
1.48
231
3.08
263
6.42
275
7.79
293
9.12
278
0.62
178
17.34
213
13.54
292
2.64
258
1.27
248
9.58
272
1.19
193
10.31
263
16.88
269
0.86
228
2.04
267
1.64
242
1.86
228
4.52
269
26.08
314
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
model_zeroshottwo views5.64
257
0.77
92
1.32
230
1.93
259
0.99
197
0.64
148
0.62
159
1.94
232
0.65
149
3.86
285
6.90
289
1.45
188
0.65
134
0.66
194
15.20
201
14.91
304
1.28
198
1.06
212
7.09
260
1.05
181
13.05
291
25.85
312
0.63
159
0.75
153
39.07
332
1.65
210
2.16
155
6.16
276
ADCLtwo views5.74
258
1.87
270
1.62
249
1.28
230
1.42
234
1.61
249
2.34
248
1.29
156
5.06
300
3.00
261
1.99
219
1.30
178
0.87
192
1.13
251
49.88
298
1.73
122
1.64
223
1.77
271
3.04
162
1.41
212
3.47
156
3.84
79
1.23
252
1.32
235
9.34
308
11.37
305
11.30
303
28.87
318
ADCMidtwo views5.86
259
2.21
280
2.60
285
1.42
241
2.94
289
2.42
269
4.52
271
1.96
235
2.94
279
1.88
216
3.14
233
2.67
241
2.81
255
1.59
267
50.47
303
3.62
202
2.00
241
1.84
276
7.49
262
2.45
260
5.56
189
8.48
161
2.66
280
1.57
243
2.29
269
8.47
300
7.21
291
20.87
307
AnyNet_C32two views6.19
260
1.45
253
1.40
233
1.28
230
1.69
249
1.43
241
3.69
264
1.56
200
5.23
301
2.63
249
4.52
252
2.23
222
1.34
228
1.41
265
54.68
324
3.51
194
2.24
252
2.06
286
3.81
193
1.98
246
7.39
214
11.40
200
1.23
252
1.87
255
5.90
294
14.50
308
6.04
283
20.74
306
DPSNettwo views6.19
260
1.58
259
1.40
233
1.82
254
2.77
283
2.27
266
2.04
240
1.97
237
2.91
278
2.12
232
5.08
258
10.47
311
6.82
275
8.77
307
19.95
222
11.92
288
5.92
281
3.73
313
17.76
290
9.60
320
12.18
278
17.85
280
3.88
293
3.21
308
2.31
270
3.71
273
2.62
211
2.45
229
DDVStwo views6.28
262
1.19
218
1.34
231
1.13
213
1.54
240
1.21
226
1.06
199
2.48
271
1.74
247
3.43
270
79.09
334
6.13
283
1.94
238
1.15
255
10.44
179
6.06
243
2.12
248
1.31
251
5.58
223
4.97
293
9.98
261
13.68
234
0.82
218
1.24
231
1.22
189
1.52
200
4.65
270
2.63
232
G-Nettwo views6.30
263
1.67
263
1.86
257
1.46
245
1.83
257
1.49
245
1.31
222
4.92
308
8.45
311
3.15
264
4.65
253
7.94
294
6.81
274
0.87
225
16.87
209
7.83
262
1.93
238
2.71
303
5.65
225
6.44
304
9.07
251
11.41
201
1.44
263
2.80
300
1.78
252
18.73
315
6.49
287
30.54
320
otakutwo views6.32
264
5.21
308
2.43
282
18.55
313
3.05
292
6.58
305
5.21
275
1.43
181
1.44
225
1.31
181
1.39
198
3.94
259
2.76
250
3.25
288
26.81
230
1.43
78
10.64
297
1.19
236
20.32
296
1.71
231
13.88
301
11.69
204
11.83
325
2.03
264
1.64
242
2.05
243
2.52
200
6.37
277
SANettwo views6.32
264
2.20
279
1.79
254
2.07
264
2.63
279
3.36
280
10.20
298
4.41
306
7.43
309
2.04
225
4.35
249
8.33
297
12.55
293
1.80
273
47.09
286
1.72
119
6.07
282
1.51
259
4.45
203
1.81
236
9.80
258
10.36
177
1.21
251
2.72
296
2.04
263
5.93
291
3.67
256
9.02
283
RainbowNettwo views6.38
266
3.77
300
2.95
295
4.59
293
3.15
295
4.28
290
10.99
308
2.04
249
1.97
259
1.89
219
1.11
177
3.92
258
3.08
260
3.63
293
42.37
271
1.96
137
4.60
274
1.56
262
16.57
289
8.71
314
11.66
276
11.28
199
10.57
320
2.32
274
2.23
266
2.29
253
2.78
220
6.05
275
pmcnntwo views6.42
267
1.56
258
1.60
248
2.69
274
3.39
296
2.12
263
10.59
304
2.67
280
2.61
271
2.54
246
6.38
274
6.37
284
16.22
307
0.89
227
16.23
205
14.56
300
4.57
273
3.30
311
7.74
265
7.59
306
13.62
300
22.89
304
6.22
305
2.53
285
1.86
255
3.14
266
4.68
271
4.77
260
HBP-ISPtwo views6.55
268
1.35
243
2.23
272
1.99
260
1.62
247
1.78
254
0.81
181
2.50
272
1.26
216
4.90
304
6.79
282
1.42
187
0.75
158
14.52
317
52.81
318
19.38
319
1.33
203
1.14
225
6.08
231
7.98
309
12.72
282
19.17
292
0.83
222
1.51
242
2.15
265
2.05
243
3.91
267
3.74
254
edge stereotwo views6.57
269
1.88
271
3.13
298
2.21
269
1.87
262
2.69
274
3.15
259
4.49
307
3.41
288
3.95
286
4.81
254
6.45
285
20.30
311
1.11
248
18.59
217
14.65
302
2.02
242
1.64
266
36.45
308
6.00
300
7.11
210
13.70
236
1.44
263
2.08
268
2.35
271
2.08
246
3.74
257
5.94
274
SQANettwo views6.61
270
4.52
307
2.25
275
19.46
314
2.80
284
5.78
300
5.10
272
1.62
206
1.42
223
1.20
168
1.35
193
3.49
252
2.47
246
2.79
282
39.69
254
1.32
68
10.61
295
1.08
216
20.69
298
1.49
220
12.87
284
10.98
189
11.36
323
1.61
245
1.68
246
2.30
254
2.67
217
5.76
273
SPS-STEREOcopylefttwo views6.95
271
1.75
267
1.96
265
2.47
273
1.71
250
2.67
272
7.51
285
2.73
281
1.77
250
3.62
277
6.80
284
4.88
274
2.19
243
1.30
260
41.49
266
11.88
287
3.62
269
2.04
283
36.63
310
2.04
249
14.17
304
17.87
281
1.48
267
2.69
291
2.50
275
3.26
268
3.74
257
2.81
236
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ADCStwo views7.02
272
1.96
275
1.96
265
1.45
244
2.34
271
1.96
258
3.44
261
2.25
262
3.95
293
2.64
250
3.13
232
3.52
253
17.50
309
2.18
277
52.87
319
11.38
277
3.10
265
2.55
302
5.10
212
2.56
262
10.82
270
10.12
173
1.74
272
2.12
269
2.53
276
10.38
303
7.40
292
18.54
304
ADCPNettwo views7.22
273
1.20
222
3.00
297
1.33
233
3.12
294
1.46
243
9.28
295
2.20
257
3.19
284
4.19
289
7.62
301
2.54
237
15.76
305
1.74
272
49.34
295
3.53
196
2.22
251
1.25
246
19.78
294
3.05
274
6.47
200
6.78
143
4.59
296
1.45
240
3.90
286
5.06
285
3.90
266
26.91
315
ACVNet_1two views7.23
274
3.88
302
3.60
302
16.55
310
3.61
302
6.82
307
10.77
305
1.61
205
1.77
250
1.62
199
1.34
192
4.64
270
3.07
259
7.87
305
46.54
283
1.46
83
11.70
303
1.77
271
20.85
299
1.62
227
14.44
315
9.86
169
7.17
307
2.93
303
1.84
253
2.33
255
2.75
219
2.71
234
TRStereotwo views7.27
275
1.32
238
1.93
262
0.85
183
0.64
141
2.31
267
0.87
186
2.20
257
0.84
174
4.40
293
1.76
205
2.27
232
0.75
158
0.53
147
9.78
170
18.00
315
0.89
123
0.90
171
5.70
227
1.69
230
7.47
216
17.27
276
0.63
159
0.64
125
1.43
218
106.42
338
3.23
240
1.61
196
Ntrotwo views7.30
276
6.21
312
2.53
284
8.29
303
3.01
291
5.20
297
8.21
290
1.40
177
1.51
235
1.44
190
1.19
184
3.90
256
2.78
252
3.15
287
35.64
243
1.27
61
10.61
295
1.27
248
45.74
318
1.93
242
14.28
311
11.91
209
11.38
324
2.65
290
1.73
249
2.28
252
2.54
204
4.94
263
anonymitytwo views7.31
277
0.90
147
1.71
253
1.15
217
0.92
186
0.82
182
0.78
178
2.16
254
1.73
246
3.78
284
97.18
335
1.99
214
0.92
198
0.53
147
9.97
172
7.82
261
1.13
181
0.89
166
6.68
246
1.45
216
7.79
224
18.56
288
0.75
203
0.77
158
1.50
230
1.58
206
21.11
320
2.77
235
CBMV_ROBtwo views7.32
278
1.49
255
2.01
268
2.37
271
1.95
266
2.94
276
2.85
257
6.45
313
1.67
243
5.35
318
6.91
290
9.95
307
11.78
290
0.67
198
38.78
249
6.71
256
3.91
270
1.19
236
10.02
277
2.47
261
9.67
257
17.08
271
0.81
214
1.62
246
7.83
303
10.07
302
5.85
278
25.35
313
AnyNet_C01two views7.46
279
2.22
281
2.25
275
2.99
285
1.99
268
1.80
256
6.11
278
3.82
300
5.59
303
3.15
264
4.35
249
4.84
273
6.54
273
2.23
278
58.48
325
14.06
296
6.69
285
3.67
312
4.82
209
3.18
277
8.68
249
13.81
238
2.41
278
2.39
279
5.67
292
3.29
270
8.76
298
17.77
303
WAO-6two views7.60
280
2.96
288
2.69
287
8.39
305
2.91
288
4.09
287
9.80
296
3.51
293
3.29
287
1.83
212
2.44
226
6.58
286
10.28
286
3.07
284
50.48
304
2.35
160
13.45
313
1.89
279
9.14
269
2.24
258
14.27
308
12.25
213
3.34
290
2.73
297
7.78
302
7.61
297
4.78
275
11.18
292
ACVNet_2two views7.60
280
3.56
294
2.92
294
21.71
318
3.45
300
5.03
296
10.20
298
1.84
226
1.75
248
1.88
216
1.90
211
4.13
263
3.42
264
3.13
286
48.14
290
1.55
102
12.78
309
1.59
263
33.01
306
1.79
235
11.17
273
7.89
153
6.76
306
2.80
300
3.11
281
2.99
264
3.50
251
3.10
243
IMH-64-1two views7.69
282
3.33
290
3.54
299
4.78
294
3.41
297
4.66
292
7.94
286
3.50
291
3.08
281
1.39
187
1.97
215
5.46
278
11.00
287
5.06
300
51.74
309
4.54
219
6.41
283
2.30
290
19.20
292
2.05
250
8.35
238
10.70
182
7.76
314
2.38
276
6.01
296
4.61
277
13.27
311
9.08
284
IMH-64two views7.69
282
3.33
290
3.54
299
4.78
294
3.41
297
4.66
292
7.94
286
3.50
291
3.08
281
1.39
187
1.97
215
5.46
278
11.00
287
5.06
300
51.74
309
4.54
219
6.41
283
2.30
290
19.20
292
2.05
250
8.35
238
10.70
182
7.76
314
2.38
276
6.01
296
4.61
277
13.27
311
9.08
284
Deantwo views7.71
284
3.73
299
2.70
288
34.51
323
4.04
307
5.77
299
11.08
309
2.27
264
2.38
269
2.20
233
1.67
202
5.02
276
5.62
270
3.37
289
48.84
293
1.81
127
12.14
306
1.69
267
9.97
276
2.18
255
14.18
305
9.87
170
7.32
309
2.79
299
3.52
283
2.90
261
3.53
252
3.17
245
FINETtwo views8.71
285
0.76
88
1.06
181
0.73
155
0.61
126
0.65
150
0.96
193
1.14
131
10.65
316
0.64
64
8.32
307
1.23
169
12.97
295
0.66
194
19.47
219
15.19
308
1.11
175
0.67
89
4.45
203
3.30
278
6.92
207
25.13
310
0.48
78
1.82
251
33.04
325
36.43
331
1.44
90
45.32
334
WAO-7two views9.07
286
3.01
289
5.43
316
29.81
321
2.48
275
4.10
288
9.87
297
2.50
272
4.12
295
4.70
298
7.51
298
8.00
295
14.77
303
1.87
274
40.78
263
2.16
148
12.66
307
2.78
306
45.71
317
2.18
255
10.61
267
10.06
172
1.41
260
2.61
288
3.09
280
4.78
279
2.98
228
5.05
265
MeshStereopermissivetwo views9.32
287
2.66
284
2.34
279
4.20
290
2.89
287
4.28
290
2.45
250
8.29
323
9.16
313
5.14
309
8.46
309
11.16
312
13.23
300
0.85
224
51.81
312
15.66
309
4.76
277
1.82
275
21.81
301
1.92
241
15.41
321
19.79
293
1.07
249
2.40
280
8.53
307
5.45
286
10.67
301
15.48
299
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
IMHtwo views9.35
288
3.37
293
3.55
301
4.56
292
3.42
299
4.71
295
8.11
289
3.47
290
3.11
283
1.42
189
1.87
210
5.75
280
16.21
306
47.47
334
51.66
308
2.73
172
9.15
291
2.36
296
20.87
300
2.09
254
8.20
236
10.33
175
8.06
317
2.34
275
7.63
301
5.85
290
3.76
261
10.29
290
ELAS_RVCcopylefttwo views9.44
289
3.33
290
5.58
317
4.11
289
3.68
303
7.49
311
6.29
280
7.70
319
3.76
290
5.25
314
7.74
303
9.89
303
11.05
289
3.12
285
47.81
289
4.61
222
7.01
286
9.67
322
11.32
279
2.99
273
13.48
296
18.09
286
2.75
283
4.11
316
20.24
317
23.51
317
5.06
276
5.25
267
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
MADNet++two views9.58
290
4.14
306
6.28
320
4.33
291
5.76
316
4.05
286
8.92
293
7.11
315
7.31
307
5.28
316
7.81
304
7.63
292
9.16
279
13.24
314
22.87
223
20.42
320
7.52
289
6.31
317
10.37
278
7.95
308
14.23
306
18.70
289
4.07
294
5.38
319
5.79
293
22.37
316
9.94
300
11.72
293
AIO-Stereo-zeroshot1permissivetwo views9.97
291
1.84
269
2.24
273
1.34
234
1.79
254
1.78
254
1.71
231
2.17
255
7.58
310
3.47
272
7.13
296
2.44
236
2.07
241
0.38
77
10.77
182
13.53
291
1.54
221
1.19
236
136.48
333
6.52
305
8.17
235
26.38
316
0.61
150
0.97
210
1.28
194
18.58
313
2.35
179
4.90
262
PWCKtwo views10.29
292
3.91
303
2.77
290
4.89
298
3.54
301
7.32
310
8.68
291
3.93
302
4.63
299
4.65
297
5.75
269
24.50
320
9.85
282
3.38
290
35.70
245
3.25
186
10.92
298
2.38
297
72.59
328
5.10
294
14.78
317
8.07
156
3.71
292
2.51
283
7.91
304
7.44
294
6.33
284
9.46
287
SFCPSMtwo views10.77
293
1.34
242
1.09
189
1.15
217
1.19
216
1.19
223
0.90
189
1.29
156
1.76
249
2.70
252
5.58
267
4.33
267
10.25
285
1.08
247
51.59
307
5.22
230
1.99
239
1.17
231
161.66
336
4.44
286
7.65
221
11.04
192
0.84
223
1.68
248
1.34
205
1.75
217
3.44
248
3.04
241
ELAScopylefttwo views10.84
294
3.56
294
4.96
310
4.79
296
4.42
312
5.56
298
6.51
283
7.57
316
3.94
292
5.28
316
7.73
302
9.90
305
11.95
291
3.98
296
51.90
314
4.58
221
7.45
288
9.46
320
9.29
271
2.75
267
13.28
294
17.44
277
2.75
283
3.75
314
17.66
315
27.22
321
13.08
310
31.86
322
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views11.01
295
9.35
321
6.18
319
8.36
304
7.13
321
10.04
320
10.87
306
5.04
309
4.04
294
2.99
260
3.99
244
9.99
308
9.75
281
8.16
306
48.50
291
14.21
298
7.41
287
5.05
316
7.73
264
3.91
285
13.36
295
18.71
290
8.17
318
3.64
312
11.32
310
18.46
312
12.54
307
28.46
317
SGM_RVCbinarytwo views11.64
296
2.80
287
1.89
260
2.92
279
2.54
278
4.66
292
8.81
292
7.78
321
3.50
289
5.57
322
8.27
305
9.89
303
12.97
295
0.97
237
4.41
124
2.83
175
7.65
290
1.17
231
40.85
312
6.32
303
10.68
268
24.24
307
1.79
274
3.32
310
27.82
320
35.58
328
31.94
328
43.00
330
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
UNDER WATER-64two views11.94
297
7.33
319
5.26
314
17.03
311
7.50
322
8.66
317
16.40
318
8.75
325
4.42
297
4.46
295
3.23
235
17.69
315
16.25
308
9.32
308
46.44
281
10.50
271
13.88
320
3.04
310
12.89
283
8.65
312
14.27
308
14.74
242
10.97
321
4.47
317
6.36
299
18.61
314
9.42
299
21.90
308
LSM0two views11.96
298
1.70
265
2.88
293
2.75
277
2.51
277
3.46
283
9.27
294
4.20
304
4.16
296
3.65
278
7.52
299
7.40
291
10.23
284
1.32
261
64.87
329
78.56
337
4.73
276
2.33
293
20.33
297
4.80
290
14.31
312
17.05
270
1.30
259
3.15
306
3.41
282
15.40
311
6.33
284
25.24
312
LVEtwo views12.08
299
3.68
297
2.75
289
55.08
332
4.35
311
8.14
314
74.25
335
1.97
237
2.42
270
2.31
238
1.72
204
4.79
271
5.02
269
3.47
292
40.00
258
2.29
155
11.14
299
1.88
277
50.99
323
2.03
248
10.30
262
12.06
212
5.50
297
3.25
309
3.73
285
3.25
267
3.10
234
6.68
280
DGSMNettwo views12.30
300
2.15
277
2.14
269
1.99
260
1.68
248
2.73
275
1.82
233
3.08
286
2.11
262
12.64
328
99.93
336
4.00
261
18.54
310
19.58
324
45.95
279
15.08
305
12.73
308
10.09
323
15.38
287
4.59
288
13.00
289
15.62
249
7.34
310
3.49
311
1.76
251
5.84
289
3.48
250
5.37
268
JetRedtwo views12.58
301
6.94
318
7.73
321
4.83
297
6.78
319
9.44
319
10.92
307
5.31
312
4.60
298
5.84
324
3.34
236
8.16
296
8.25
276
9.89
309
50.58
305
14.44
299
10.47
294
7.92
318
7.78
267
5.56
297
18.07
326
24.74
309
11.23
322
4.59
318
12.62
311
25.80
319
25.52
323
28.19
316
MDST_ROBtwo views12.84
302
32.58
329
1.86
257
20.66
317
2.84
286
7.65
312
3.50
263
4.02
303
1.51
235
3.73
283
6.49
276
3.22
250
42.47
320
0.80
220
50.42
302
2.20
150
1.29
199
0.83
145
18.69
291
1.42
213
12.92
286
18.51
287
1.50
268
1.82
251
24.51
319
15.09
309
31.82
326
34.42
323
XX-Stereotwo views13.13
303
0.72
67
1.28
225
1.04
205
0.54
112
0.81
181
0.87
186
1.13
130
0.51
108
4.52
296
6.79
282
1.56
200
1.04
214
0.49
132
39.98
257
16.92
312
1.52
218
0.95
179
6.78
252
0.95
168
6.18
199
13.69
235
0.71
187
0.52
84
237.32
338
1.37
182
2.63
213
3.58
250
TorneroNet-64two views13.22
304
6.29
314
5.03
312
34.00
322
3.73
306
10.39
321
16.61
319
3.46
289
12.22
324
2.26
236
5.35
262
17.42
314
34.25
318
14.90
318
47.42
288
3.17
180
13.22
312
2.42
299
36.46
309
9.14
317
14.27
308
12.82
221
5.64
298
2.71
293
14.05
314
13.61
306
3.58
254
12.45
294
notakertwo views13.32
305
13.02
324
4.84
307
18.53
312
6.99
320
8.41
316
14.34
315
3.85
301
3.23
285
2.91
257
2.14
223
31.16
322
43.76
321
4.86
298
85.76
333
2.65
170
12.81
310
2.79
307
43.18
315
2.96
272
14.95
318
11.46
202
7.77
316
3.13
305
2.66
277
2.97
263
3.75
259
4.87
261
ACV-stereotwo views13.53
306
1.95
273
1.64
251
2.13
267
1.16
213
3.41
281
1.39
224
1.71
216
1.85
256
2.95
258
4.86
256
3.99
260
45.11
322
1.12
249
53.60
320
16.55
311
2.70
260
1.30
250
170.74
337
4.49
287
12.74
283
16.57
260
1.00
242
1.87
255
1.39
214
3.04
265
3.75
259
2.35
227
SGM-ForestMtwo views13.80
307
10.32
323
8.18
322
4.90
299
3.69
304
7.87
313
10.55
303
7.61
317
10.68
317
5.09
308
8.30
306
9.49
302
12.89
294
4.42
297
49.85
297
13.64
295
10.21
293
1.16
229
11.67
282
8.91
315
11.41
274
24.59
308
3.28
288
5.76
321
31.49
323
36.13
329
19.13
318
41.30
329
WAO-8two views14.11
308
5.49
309
4.86
308
26.82
319
4.15
309
6.96
308
11.78
312
3.65
298
6.35
305
31.53
333
38.68
328
8.33
297
22.49
312
20.27
327
50.28
300
3.34
188
11.20
301
2.04
283
55.23
325
5.70
298
9.91
259
11.24
197
5.91
300
2.59
286
8.00
305
7.57
295
6.79
288
9.89
288
Venustwo views14.11
308
5.49
309
4.86
308
26.82
319
4.15
309
6.96
308
11.78
312
3.65
298
6.35
305
31.53
333
38.68
328
8.33
297
22.49
312
20.27
327
50.28
300
3.34
188
11.20
301
2.04
283
55.23
325
5.70
298
9.91
259
11.24
197
5.91
300
2.59
286
8.00
305
7.57
295
6.79
288
9.89
288
SGM+DAISYtwo views15.03
310
3.86
301
5.41
315
3.96
288
3.71
305
6.66
306
7.44
284
7.77
320
10.90
321
5.69
323
8.99
313
9.93
306
13.12
299
3.67
294
45.62
278
18.93
318
4.69
275
3.97
315
15.74
288
13.34
323
15.06
319
28.38
322
1.46
265
13.52
328
34.47
327
36.45
332
37.75
331
45.36
335
ACVNet-4btwo views15.72
311
4.04
304
2.68
286
44.32
328
2.83
285
6.13
303
62.22
332
1.84
226
1.78
252
1.65
203
1.24
185
4.40
269
112.58
335
3.38
290
47.32
287
1.32
68
16.00
322
1.73
270
55.10
324
2.19
257
14.48
316
16.37
259
7.30
308
3.18
307
1.64
242
1.88
229
2.20
159
4.57
259
MANEtwo views15.81
312
9.88
322
8.25
323
5.12
302
6.22
318
8.39
315
11.49
311
7.67
318
10.83
320
4.97
305
8.34
308
8.98
301
12.97
295
3.88
295
48.84
293
18.39
316
11.83
304
20.15
328
11.32
279
9.38
319
13.48
296
26.38
316
2.78
286
12.22
325
32.08
324
36.35
330
33.31
329
43.41
331
DispFullNettwo views16.30
313
3.61
296
4.99
311
3.31
286
3.08
293
3.50
284
3.23
260
6.46
314
2.69
275
5.18
310
6.80
284
88.00
332
15.13
304
2.74
280
39.32
252
24.41
326
4.06
271
3.86
314
139.45
334
28.19
329
12.57
280
15.74
251
2.71
282
2.38
276
4.19
287
2.67
257
6.81
290
5.03
264
UNDER WATERtwo views16.74
314
8.01
320
5.18
313
15.67
309
9.29
325
8.94
318
36.85
327
8.38
324
6.23
304
4.21
292
3.00
230
18.64
316
96.12
333
15.60
321
37.14
246
10.17
270
14.68
321
2.79
307
47.09
320
8.60
310
17.12
324
13.21
226
17.04
328
5.56
320
6.15
298
15.22
310
6.39
286
14.80
298
PSMNet_ROBtwo views17.18
315
5.57
311
2.98
296
3.51
287
2.73
282
6.41
304
10.28
300
2.31
267
2.27
268
4.77
299
140.21
337
98.21
333
6.08
271
34.53
330
10.47
180
1.72
119
5.37
279
1.72
269
20.16
295
3.45
279
13.00
289
8.00
154
63.38
336
2.71
293
3.54
284
3.57
272
3.25
243
3.61
251
STStereotwo views17.90
316
3.70
298
5.94
318
43.89
327
5.62
315
39.01
330
13.50
314
7.84
322
10.79
319
5.25
314
8.94
310
24.58
321
30.28
317
1.98
275
59.79
328
13.60
294
5.75
280
1.79
273
40.86
313
5.29
295
11.04
272
15.34
247
2.47
279
11.83
324
23.98
318
30.27
323
23.75
322
36.15
325
DGTPSM_ROBtwo views18.53
317
6.49
315
18.04
326
4.98
300
8.90
323
5.93
301
18.56
321
5.08
310
12.04
322
5.07
307
9.28
314
12.68
313
55.86
328
15.28
319
66.30
330
20.57
321
19.32
325
16.27
325
24.75
302
20.04
326
16.70
323
22.25
302
6.01
303
12.63
326
13.88
312
32.46
325
14.80
314
36.23
326
DPSM_ROBtwo views21.09
318
17.18
325
22.68
328
10.13
306
9.29
325
13.96
322
14.47
316
11.66
326
15.25
326
9.00
325
8.97
311
10.35
309
13.24
301
19.82
325
59.61
326
26.09
327
18.75
323
21.25
329
14.76
285
15.47
324
28.53
329
28.20
319
7.44
311
16.13
329
34.47
327
39.29
334
38.28
332
45.08
332
DPSMtwo views21.09
318
17.18
325
22.68
328
10.13
306
9.29
325
13.96
322
14.47
316
11.66
326
15.25
326
9.00
325
8.97
311
10.35
309
13.24
301
19.82
325
59.61
326
26.09
327
18.75
323
21.25
329
14.76
285
15.47
324
28.53
329
28.20
319
7.44
311
16.13
329
34.47
327
39.29
334
38.28
332
45.08
332
KSHMRtwo views21.80
320
6.71
317
4.04
304
99.23
336
6.14
317
41.63
332
70.49
334
3.63
297
8.86
312
3.60
276
3.42
238
6.78
289
84.46
332
17.61
322
40.67
260
3.96
208
10.14
292
2.82
309
90.71
331
2.91
270
12.90
285
12.31
214
9.04
319
2.84
302
19.52
316
5.56
287
8.25
296
10.42
291
MaskLacGwcNet_RVCtwo views22.39
321
1.43
250
1.63
250
2.01
262
1.89
263
2.00
260
4.03
268
2.25
262
2.65
273
5.01
306
28.79
324
216.21
338
50.44
327
5.46
302
37.62
247
4.30
215
5.35
278
12.78
324
28.48
303
1.49
220
14.42
314
12.87
223
1.01
244
2.45
282
1.87
256
7.04
293
145.49
339
5.50
271
DLNR_Zeroshot_testpermissivetwo views24.07
322
81.88
338
1.95
264
101.60
337
0.50
96
0.56
116
81.29
337
2.29
266
0.50
104
4.86
301
2.13
222
3.03
248
0.93
200
12.16
313
103.32
335
142.13
339
34.14
329
19.58
327
8.61
268
4.90
292
8.02
233
28.05
318
0.55
116
0.85
182
1.36
210
1.54
202
1.21
76
1.87
206
DPSMNet_ROBtwo views24.31
323
6.50
316
18.05
327
5.02
301
8.92
324
6.00
302
18.76
322
5.09
311
12.07
323
5.20
313
26.86
323
20.02
317
160.56
337
15.40
320
77.59
332
20.75
322
19.63
326
16.57
326
37.30
311
20.17
327
17.40
325
22.27
303
6.03
304
12.63
326
13.98
313
32.46
325
14.87
315
36.24
327
TorneroNettwo views25.03
324
6.23
313
3.71
303
95.21
335
4.04
307
30.59
328
28.04
323
4.36
305
17.91
328
2.20
233
37.98
327
81.16
331
72.52
329
18.24
323
46.94
285
2.75
173
13.19
311
2.38
297
87.74
329
9.05
316
15.54
322
12.50
218
5.92
302
2.71
293
49.11
333
8.21
299
3.60
255
13.88
297
zero-FEtwo views26.91
325
1.70
265
0.58
86
142.42
338
9.85
328
147.98
338
78.07
336
1.26
150
0.63
141
1.14
167
3.84
242
136.40
335
24.38
314
0.66
194
34.38
240
5.45
233
2.13
249
2.31
292
5.81
228
1.20
195
51.50
333
68.36
335
0.63
159
0.61
110
0.94
137
1.51
195
1.68
121
1.13
156
LRCNet_RVCtwo views27.23
326
30.79
328
14.68
325
35.16
325
31.14
332
36.50
329
30.07
326
23.05
330
12.67
325
36.10
335
33.27
325
37.41
323
28.58
316
37.19
331
51.77
311
7.29
260
31.08
328
27.01
332
67.79
327
28.97
330
22.94
328
11.62
203
39.23
331
30.57
333
7.31
300
2.54
256
11.22
302
9.26
286
ktntwo views29.25
327
4.04
304
95.12
338
14.38
308
5.47
314
18.03
324
17.50
320
16.11
329
67.22
337
2.86
254
5.27
259
171.03
337
80.57
331
10.72
312
76.12
331
3.35
190
21.01
327
2.75
305
90.20
330
29.10
331
15.07
320
11.01
190
7.65
313
3.01
304
5.09
290
5.80
288
4.72
272
6.57
279
LE_ROBtwo views30.50
328
24.69
327
35.49
331
34.61
324
56.81
338
18.87
325
58.99
331
31.76
333
41.68
332
5.39
319
26.68
322
46.42
325
49.67
325
13.45
315
40.69
262
4.22
211
12.06
305
1.23
240
46.44
319
37.28
334
12.68
281
19.06
291
48.23
332
22.44
331
30.42
322
31.57
324
31.85
327
40.86
328
PMLtwo views39.12
329
38.07
332
12.03
324
39.14
326
28.99
331
40.52
331
11.18
310
14.17
328
98.92
338
27.80
332
165.99
338
107.70
334
159.11
336
13.58
316
17.37
214
11.85
286
35.22
330
8.64
319
42.84
314
11.21
322
14.35
313
16.59
261
5.89
299
7.24
323
52.84
334
13.89
307
42.19
334
18.91
305
FlowAnythingtwo views42.87
330
34.63
331
45.87
333
20.47
316
18.89
330
28.10
327
28.59
324
23.29
332
30.83
330
18.75
331
18.33
318
20.84
319
26.99
315
39.76
332
119.32
336
51.72
334
37.34
331
42.61
334
29.10
304
31.48
333
57.33
336
70.32
336
14.52
326
32.62
335
68.87
336
78.91
336
76.96
335
91.15
338
CasAABBNettwo views43.13
331
34.58
330
45.64
332
20.16
315
18.53
329
28.05
326
29.10
325
23.25
331
30.68
329
18.72
330
18.11
317
20.71
318
37.91
319
39.77
333
120.31
337
53.12
336
37.70
332
42.54
333
29.33
305
30.54
332
57.52
337
65.08
334
14.60
327
32.33
334
69.15
337
79.07
337
76.98
336
90.93
337
HaxPigtwo views44.55
332
46.74
334
47.29
334
47.70
329
48.78
334
47.59
333
48.40
328
49.50
334
47.10
333
49.76
336
50.30
330
49.05
326
45.31
323
54.53
335
41.50
267
40.24
330
50.13
334
52.04
335
44.70
316
43.04
335
46.59
331
44.52
329
51.78
333
45.41
336
33.76
326
25.29
318
28.70
324
23.20
310
AVERAGE_ROBtwo views46.10
333
48.44
335
48.15
335
49.32
330
50.20
335
48.59
334
49.79
329
50.71
336
48.61
334
51.66
337
52.51
331
50.25
327
47.27
324
55.77
336
43.02
272
41.01
331
52.37
335
54.54
336
47.19
321
45.40
336
48.69
332
44.71
330
52.87
334
46.96
337
35.70
330
26.55
320
30.75
325
23.74
311
HanzoNettwo views48.72
334
45.82
333
75.50
337
62.48
333
48.71
333
62.22
336
81.53
338
55.12
338
62.18
336
15.62
329
22.35
321
75.50
330
105.13
334
172.23
339
54.19
322
11.79
283
63.30
337
9.59
321
142.68
335
22.42
328
19.77
327
25.86
313
34.29
330
5.85
322
9.77
309
9.44
301
8.54
297
13.60
296
MEDIAN_ROBtwo views49.56
335
51.56
336
50.68
336
52.75
331
53.71
336
52.03
335
53.33
330
54.25
337
52.17
335
54.87
338
55.86
333
53.55
328
50.14
326
59.05
337
46.45
282
44.58
332
55.75
336
57.86
337
50.47
322
48.81
337
52.02
334
47.66
331
56.65
335
49.99
338
38.96
331
30.09
322
33.54
330
31.34
321
BEATNet-Init1two views54.98
336
76.29
337
23.41
330
86.88
334
56.39
337
86.85
337
69.29
333
49.55
335
36.32
331
11.75
327
54.61
332
64.36
329
78.43
330
21.46
329
91.69
334
51.99
335
38.14
333
22.22
331
101.82
332
73.02
338
54.14
335
49.15
333
27.76
329
24.21
332
58.43
335
37.31
333
77.81
337
61.10
336
FSDtwo views0.78
100
0.68
105
0.60
125
0.60
123
0.60
136
0.57
153
0.90
103
0.68
153
0.95
149
0.73
122
0.64
186
2.85
73
5.08
228
3.12
166
0.89
157
0.68
138
0.92
134
0.92
124
0.93
53
0.99
138
STTRV1_RVCtwo views1.35
243
1.13
195
1.70
253
1.33
228
2.15
264
1.82
233
1.56
200
1.45
227
1.88
216
3.47
240
3.12
249
4.87
267
1.12
249
6.48
253
11.18
300
1.07
215
10.39
321
9.37
255
2.21
271
5.53
291
2.91
262
5.85
278
13.08
295
DPSimNet_ROBtwo views193.45
339
99.23
339
195.37
339
175.02
339
155.06
339
112.88
339
167.32
339
164.47
339
99.95
339
205.57
339
169.31
336
207.38
338
93.94
338
127.45
338
85.03
338
87.66
338
201.24
338
103.73
339
162.25
338
98.87
337
105.97
337
134.73
339
183.74
339
136.27
338
168.25
339