This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
86
0.28
179
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
22
0.27
2
0.25
12
0.48
41
0.35
89
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
323
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
22
0.31
6
0.36
78
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
XX-TBDtwo views0.32
26
0.53
324
0.26
4
0.53
301
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
61
0.70
81
0.31
6
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
244
0.43
121
0.34
116
0.42
4
0.34
5
0.33
11
0.51
36
0.29
4
0.38
89
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
262
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
129
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
39
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
test crocotwo views0.32
26
0.21
74
0.59
201
0.40
86
0.29
198
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
72
0.31
6
0.33
64
0.68
163
0.32
63
0.18
156
0.13
141
0.20
176
0.15
90
0.18
151
0.13
31
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
164
0.23
20
0.46
6
0.56
67
0.60
71
0.69
79
0.37
32
0.26
17
0.36
4
0.28
29
0.16
99
0.16
211
0.13
8
0.10
10
0.14
36
0.15
78
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
45
0.80
123
0.29
4
0.25
12
0.37
5
0.34
82
0.14
18
0.09
2
0.13
8
0.52
373
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
104
0.32
244
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
64
0.37
32
0.36
78
0.60
88
0.32
63
0.17
125
0.13
141
0.19
147
0.17
157
0.18
151
0.15
78
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
187
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
26
0.40
39
0.23
7
0.51
50
0.37
106
0.15
67
0.18
246
0.19
147
0.16
115
0.16
103
0.14
49
CAStwo views0.37
60
0.13
1
0.27
7
1.34
385
0.31
227
0.46
131
0.38
170
0.50
11
0.48
56
0.35
15
0.52
39
0.24
1
0.19
3
0.30
1
0.28
29
1.03
387
0.08
1
0.12
2
0.08
1
0.12
2
0.28
279
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
368
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
27
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
298
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
268
0.30
217
0.19
1
0.31
87
0.52
13
0.41
34
0.25
1
0.28
4
0.46
64
0.31
53
0.39
8
0.30
48
0.15
67
0.15
190
0.16
57
0.13
49
0.17
127
0.16
98
sCroCo_RVCtwo views0.36
42
0.29
229
0.73
261
0.52
294
0.39
291
0.42
117
0.31
87
0.52
13
0.46
52
0.31
7
0.48
27
0.38
35
0.32
59
0.46
29
0.33
73
0.22
241
0.23
293
0.19
147
0.19
207
0.21
208
0.22
223
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
36
0.32
13
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
129
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
60
0.54
44
0.39
38
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
229
0.18
183
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
86
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
61
0.41
43
0.31
53
0.57
69
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
39
0.42
45
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
GMOStereotwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
error versiontwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
test-vtwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
257
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
45
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
test-2two views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
rrrtwo views0.31
23
0.24
139
0.56
184
0.36
27
0.27
158
0.38
91
0.31
87
0.56
24
0.44
43
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
AnonymousMtwo views0.42
123
0.86
367
0.31
10
0.35
12
0.23
56
0.30
39
0.37
157
0.56
24
0.44
43
0.72
133
0.50
31
0.47
68
0.29
41
0.42
18
0.35
89
0.16
99
0.12
86
1.51
385
0.32
330
0.12
2
0.11
3
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
43
0.54
44
0.38
35
0.34
70
0.50
49
0.25
3
0.75
376
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
45
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
test_4two views0.37
60
0.19
33
0.34
13
0.45
199
0.26
129
0.20
2
0.34
116
0.58
27
0.42
38
0.60
71
1.45
326
0.43
51
0.26
17
0.67
155
0.29
37
0.12
4
0.10
8
0.17
85
0.19
207
0.15
66
0.12
10
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
86
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
102
0.53
41
0.42
45
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
176
0.16
115
0.16
103
0.12
10
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
21
0.18
1
0.62
116
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
sAnonymous2two views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
342
CroCo_RVCtwo views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
342
test_xeample3two views0.31
23
0.23
120
0.56
184
0.36
27
0.26
129
0.35
74
0.32
99
0.60
31
0.38
17
0.44
38
0.32
9
0.33
18
0.28
27
0.66
146
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
RAFT-RH_RVCtwo views0.57
239
0.18
14
0.44
79
0.38
44
0.23
56
0.56
169
0.24
23
0.61
34
0.73
127
1.18
327
3.90
396
0.55
90
0.40
107
0.67
155
0.38
119
0.14
18
0.11
39
0.20
176
0.15
90
0.12
2
0.14
49
CRE-IMPtwo views0.37
60
0.23
120
0.53
165
0.42
129
0.24
77
0.40
101
0.21
5
0.61
34
0.45
47
0.65
98
0.73
85
0.53
86
0.37
82
0.63
125
0.40
147
0.18
156
0.11
39
0.19
147
0.16
115
0.21
208
0.19
165
Selective-RAFTtwo views0.36
42
0.23
120
0.54
177
0.45
199
0.22
30
0.64
208
0.27
42
0.62
36
0.65
93
0.41
31
0.38
17
0.55
90
0.39
102
0.59
78
0.36
98
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
218
0.62
36
0.41
34
0.33
11
0.31
6
0.32
13
0.28
27
0.60
88
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
RAFT_CTSACEtwo views0.46
152
0.20
54
0.48
115
0.46
222
0.27
158
0.34
72
0.39
183
0.62
36
0.74
132
0.78
174
1.44
323
0.86
234
0.38
89
1.09
301
0.27
23
0.13
9
0.13
141
0.18
116
0.16
115
0.16
103
0.12
10
RAFT-345two views0.41
116
0.19
33
0.42
58
0.39
60
0.23
56
0.32
60
0.25
30
0.62
36
0.56
67
0.74
147
1.77
350
0.44
54
0.35
73
0.67
155
0.37
106
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
XX-Stereotwo views0.38
76
0.18
14
0.52
158
0.58
327
0.38
282
0.39
96
0.20
1
0.62
36
0.31
2
0.47
45
1.29
299
0.72
188
0.25
12
0.59
78
0.28
29
0.16
99
0.11
39
0.17
85
0.16
115
0.14
36
0.11
3
GMStereopermissivetwo views0.40
102
0.38
281
0.61
207
0.41
104
0.27
158
0.47
133
0.35
138
0.62
36
1.04
270
0.57
65
0.54
44
0.38
35
0.36
78
0.56
65
0.41
152
0.20
210
0.13
141
0.16
57
0.17
157
0.24
248
0.20
192
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
knoymoustwo views0.37
60
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
42
0.65
93
0.69
119
0.69
79
0.60
126
0.40
107
0.61
94
0.36
98
0.17
125
0.11
39
0.20
176
0.12
26
0.18
151
0.19
165
Patchmatch Stereo++two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.59
78
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereo_v2two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.20
1
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
HUI-Stereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.22
11
0.63
42
0.40
29
0.64
94
0.73
85
0.58
114
0.38
89
0.53
53
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
iGMRVCtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.29
57
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
iRAFTtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
test-1two views0.37
60
0.20
54
0.76
268
0.47
240
0.27
158
0.44
127
0.36
145
0.63
42
0.65
93
0.49
48
0.67
77
0.54
88
0.35
73
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
156
RAFT-IKPtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.27
42
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
DeepStereo_RVCtwo views0.37
60
0.22
97
0.51
139
0.41
104
0.24
77
0.26
18
0.22
11
0.64
52
0.40
29
0.69
119
0.67
77
0.57
99
0.50
150
0.58
73
0.42
155
0.17
125
0.12
86
0.18
116
0.16
115
0.19
184
0.19
165
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
104
0.22
30
0.32
60
0.22
11
0.65
53
0.45
47
0.52
53
0.64
67
0.60
126
0.19
3
0.78
215
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
DEmStereotwo views0.49
179
0.18
14
0.53
165
0.39
60
0.26
129
0.57
179
0.33
108
0.65
53
0.75
134
0.90
238
1.65
341
0.57
99
1.02
326
0.63
125
0.44
164
0.14
18
0.12
86
0.16
57
0.16
115
0.14
36
0.17
134
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
158
0.38
91
0.34
116
0.66
55
0.35
6
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
DCREtwo views0.38
76
0.19
33
0.47
102
0.45
199
0.33
255
0.45
130
0.40
193
0.66
55
0.53
65
0.49
48
0.95
184
0.57
99
0.39
102
0.53
53
0.32
63
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
iRaft-Stereo_5wtwo views0.46
152
0.22
97
0.53
165
0.43
166
0.30
217
0.30
39
0.53
273
0.66
55
0.71
116
0.62
77
0.89
161
1.01
275
0.67
228
0.76
200
0.67
245
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
134
test-3two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.72
133
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.70
123
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
PFNet+two views0.41
116
0.20
54
0.53
165
0.40
86
0.25
101
0.28
31
0.22
11
0.66
55
0.76
137
0.85
204
0.79
113
0.63
138
0.34
70
0.75
192
0.37
106
0.20
210
0.14
172
0.23
243
0.20
226
0.17
127
0.21
208
RALCasStereoNettwo views0.37
60
0.23
120
0.41
50
0.44
187
0.28
179
0.36
78
0.38
170
0.66
55
0.67
102
0.51
51
0.74
96
0.51
79
0.29
41
0.64
132
0.38
119
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
134
AAGNettwo views1.40
367
0.20
54
0.52
158
0.45
199
0.26
129
0.29
35
0.29
57
0.67
66
0.71
116
0.97
273
0.86
149
0.66
161
0.60
193
0.66
146
19.98
416
0.17
125
0.11
39
0.19
147
0.15
90
0.20
199
0.13
31
PSM-AADtwo views0.48
170
0.21
74
0.39
36
0.44
187
0.23
56
0.56
169
0.47
243
0.67
66
0.73
127
1.08
311
1.12
256
0.58
114
0.87
303
0.63
125
0.33
73
0.15
67
0.11
39
0.25
267
0.26
303
0.18
151
0.42
338
DRafttwo views0.49
179
0.18
14
0.50
131
0.38
44
0.25
101
0.57
179
0.39
183
0.67
66
0.86
186
1.02
287
1.75
349
0.50
76
0.79
279
0.65
138
0.42
155
0.14
18
0.11
39
0.16
57
0.16
115
0.14
36
0.17
134
RAFT-Stereo + iAFFtwo views0.37
60
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
66
0.77
139
0.72
133
0.99
207
0.56
96
0.39
102
0.44
22
0.31
57
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
AFF-stereotwo views0.39
88
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
87
0.67
66
0.72
118
0.66
102
1.12
256
0.75
200
0.38
89
0.57
69
0.35
89
0.11
1
0.09
2
0.16
57
0.16
115
0.14
36
0.12
10
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.31
51
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
DisPMtwo views0.40
102
0.20
54
0.50
131
0.42
129
0.27
158
0.24
7
0.30
69
0.68
71
0.61
83
0.88
224
0.87
155
0.59
123
0.32
59
0.80
219
0.34
82
0.19
191
0.12
86
0.19
147
0.17
157
0.16
103
0.21
208
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.30
39
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
CIPLGtwo views0.42
123
0.23
120
0.71
251
0.45
199
0.33
255
0.51
143
0.33
108
0.68
71
0.68
103
0.84
194
0.96
188
0.47
68
0.33
64
0.56
65
0.52
200
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
ACREtwo views0.42
123
0.23
120
0.73
261
0.45
199
0.33
255
0.50
138
0.33
108
0.68
71
0.70
110
0.82
183
0.92
175
0.46
64
0.32
59
0.53
53
0.52
200
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
NRIStereotwo views0.37
60
0.21
74
0.49
122
0.42
129
0.23
56
0.33
66
0.25
30
0.68
71
0.59
74
0.65
98
0.63
64
0.55
90
0.37
82
0.67
155
0.40
147
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
KYRafttwo views0.48
170
0.21
74
0.41
50
0.45
199
0.23
56
0.43
121
0.36
145
0.68
71
0.45
47
0.94
253
1.72
347
0.78
213
0.40
107
0.65
138
0.32
63
0.16
99
0.11
39
0.18
116
0.22
261
0.17
127
0.76
375
SST-Stereotwo views0.41
116
0.20
54
0.48
115
0.43
166
0.25
101
0.25
16
0.21
5
0.68
71
0.50
60
1.08
311
0.79
113
0.71
173
0.42
116
0.81
223
0.38
119
0.17
125
0.11
39
0.20
176
0.16
115
0.19
184
0.15
78
THIR-Stereotwo views0.51
200
0.19
33
0.47
102
0.39
60
0.23
56
0.74
245
0.64
309
0.68
71
0.88
200
1.03
290
1.40
314
0.71
173
0.75
264
0.64
132
0.43
157
0.16
99
0.11
39
0.17
85
0.18
183
0.15
66
0.17
134
RAFTtwo views0.46
152
0.23
120
0.52
158
0.48
248
0.27
158
0.55
164
0.47
243
0.68
71
0.60
81
0.83
188
0.82
131
1.00
271
0.56
174
0.76
200
0.37
106
0.18
156
0.16
211
0.22
229
0.20
226
0.16
103
0.14
49
Anonymoustwo views0.40
102
0.29
229
0.70
248
0.54
310
0.44
316
0.56
169
0.54
279
0.68
71
0.52
62
0.38
18
0.44
19
0.33
18
0.42
116
0.57
69
0.39
127
0.20
210
0.20
271
0.18
116
0.18
183
0.30
288
0.24
250
DCANet-4two views0.38
76
0.22
97
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.69
82
0.97
244
0.70
123
0.79
113
0.40
39
0.46
137
0.46
29
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
IPLGR_Ctwo views0.42
123
0.23
120
0.71
251
0.46
222
0.33
255
0.51
143
0.34
116
0.69
82
0.69
108
0.84
194
0.92
175
0.46
64
0.33
64
0.53
53
0.53
209
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
test_3two views0.37
60
0.19
33
0.50
131
0.45
199
0.24
77
0.47
133
0.36
145
0.69
82
0.84
176
0.66
102
0.46
22
0.68
168
0.25
12
0.45
25
0.32
63
0.12
4
0.10
8
0.18
116
0.16
115
0.15
66
0.12
10
CrosDoStereotwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
367
0.69
82
0.87
190
0.94
253
1.36
308
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
LCNettwo views0.42
123
0.21
74
0.34
13
0.44
187
0.24
77
0.47
133
0.28
50
0.69
82
0.57
71
0.72
133
1.03
228
0.66
161
0.58
186
0.60
88
0.35
89
0.15
67
0.10
8
0.19
147
0.19
207
0.22
226
0.37
321
FTStereotwo views0.56
235
0.21
74
0.39
36
0.42
129
0.25
101
0.39
96
0.73
328
0.69
82
0.45
47
1.09
315
3.23
385
0.69
170
0.71
248
0.55
61
0.34
82
0.15
67
0.13
141
0.19
147
0.17
157
0.15
66
0.32
298
DeepStereo_LLtwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
367
0.69
82
0.87
190
0.94
253
1.36
308
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
RAFT_R40two views0.41
116
0.20
54
0.47
102
0.44
187
0.25
101
0.23
6
0.25
30
0.69
82
0.70
110
0.98
276
0.78
109
0.72
188
0.43
119
0.80
219
0.39
127
0.17
125
0.11
39
0.20
176
0.16
115
0.18
151
0.15
78
Prome-Stereotwo views0.46
152
0.20
54
0.37
27
0.45
199
0.26
129
0.40
101
0.42
218
0.69
82
0.49
57
0.96
270
1.84
353
0.58
114
0.64
211
0.63
125
0.32
63
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
288
TestStereotwo views0.39
88
0.32
252
0.42
58
0.45
199
0.20
18
0.41
110
0.38
170
0.69
82
0.66
96
0.56
63
0.78
109
0.48
71
0.43
119
0.59
78
0.37
106
0.18
156
0.13
141
0.20
176
0.15
90
0.23
240
0.14
49
LL-Strereo2two views0.36
42
0.25
167
0.52
158
0.43
166
0.27
158
0.36
78
0.27
42
0.70
92
0.46
52
0.55
61
0.53
41
0.65
149
0.24
10
0.69
169
0.32
63
0.14
18
0.13
141
0.23
243
0.20
226
0.19
184
0.14
49
riskmintwo views0.41
116
0.21
74
0.44
79
0.34
9
0.24
77
0.58
183
0.32
99
0.70
92
0.86
186
0.52
53
0.57
52
0.78
213
0.60
193
0.58
73
0.39
127
0.17
125
0.12
86
0.19
147
0.13
49
0.19
184
0.22
223
RCA-Stereotwo views0.36
42
0.18
14
0.37
27
0.38
44
0.23
56
0.31
51
0.33
108
0.70
92
1.25
325
0.45
39
0.65
69
0.46
64
0.43
119
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
PSM-softLosstwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
KMStereotwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
rafts_anoytwo views0.38
76
0.22
97
0.38
33
0.43
166
0.28
179
0.32
60
0.32
99
0.70
92
0.91
214
0.59
69
0.66
72
0.45
61
0.33
64
0.49
47
0.41
152
0.16
99
0.12
86
0.21
217
0.23
270
0.18
151
0.16
98
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
86
0.23
56
0.31
51
0.29
57
0.70
92
0.55
66
0.49
48
0.66
72
0.37
32
0.23
7
0.47
34
0.33
73
0.14
18
0.11
39
0.19
147
0.17
157
0.16
103
0.13
31
xx1two views0.40
102
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
313
0.42
32
0.50
31
0.65
149
0.56
174
0.61
94
0.26
8
0.17
125
0.11
39
0.20
176
0.19
207
0.18
151
0.19
165
cc1two views0.38
76
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
313
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
UDGNettwo views0.50
190
0.82
362
0.56
184
0.51
280
0.32
244
0.41
110
0.34
116
0.71
99
0.93
221
0.65
98
0.60
58
0.58
114
0.44
124
0.65
138
0.43
157
0.33
325
0.15
190
0.67
373
0.20
226
0.49
350
0.23
242
HHNettwo views0.42
123
0.19
33
0.43
74
0.35
12
0.38
282
0.33
66
0.33
108
0.71
99
0.78
142
0.87
216
1.30
301
0.52
82
0.36
78
0.53
53
0.37
106
0.16
99
0.11
39
0.19
147
0.15
90
0.15
66
0.25
257
NF-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
OCTAStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.58
114
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
GrayStereotwo views0.49
179
0.20
54
0.44
79
0.47
240
0.29
198
0.51
143
0.62
304
0.71
99
0.66
96
1.04
296
1.46
327
0.77
211
0.73
259
0.58
73
0.35
89
0.15
67
0.12
86
0.17
85
0.17
157
0.15
66
0.30
288
RE-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
Pruner-Stereotwo views0.39
88
0.21
74
0.51
139
0.41
104
0.25
101
0.22
4
0.24
23
0.71
99
0.59
74
0.90
238
0.75
98
0.67
165
0.30
50
0.64
132
0.39
127
0.19
191
0.12
86
0.20
176
0.17
157
0.17
127
0.19
165
TVStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
MyStereo8two views0.42
123
0.21
74
0.64
220
0.43
166
0.29
198
0.55
164
0.28
50
0.72
109
0.50
60
0.73
140
1.01
215
0.57
99
0.44
124
0.52
51
0.52
200
0.15
67
0.12
86
0.16
57
0.14
69
0.19
184
0.21
208
AE-Stereotwo views0.36
42
0.21
74
0.47
102
0.49
257
0.31
227
0.50
138
0.34
116
0.72
109
0.73
127
0.34
13
0.55
49
0.52
82
0.28
27
0.48
41
0.31
57
0.13
9
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
DualNettwo views0.53
216
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
301
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
1.46
348
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ffmtwo views0.47
161
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
301
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
0.26
8
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ff1two views0.56
235
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
301
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
348
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
tt1two views0.37
60
0.25
167
0.35
19
0.43
166
0.23
56
0.52
150
0.37
157
0.72
109
1.13
301
0.42
32
0.46
22
0.35
25
0.44
124
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
EKT-Stereotwo views0.36
42
0.24
139
0.44
79
0.44
187
0.30
217
0.37
86
0.30
69
0.72
109
0.68
103
0.47
45
0.63
64
0.49
75
0.28
27
0.59
78
0.34
82
0.19
191
0.14
172
0.18
116
0.15
90
0.16
103
0.18
156
MIM_Stereotwo views0.39
88
0.18
14
0.59
201
0.38
44
0.25
101
0.27
25
0.24
23
0.72
109
0.56
67
0.72
133
1.00
211
0.62
134
0.29
41
0.67
155
0.39
127
0.13
9
0.14
172
0.17
85
0.16
115
0.14
36
0.12
10
ADStereo(finetuned)two views0.39
88
0.18
14
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.68
236
0.46
29
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
ddtwo views0.44
141
0.40
293
0.62
212
0.44
187
0.26
129
0.51
143
0.38
170
0.72
109
1.07
283
0.60
71
0.66
72
0.43
51
0.40
107
0.68
163
0.53
209
0.24
261
0.15
190
0.21
217
0.16
115
0.24
248
0.19
165
GMM-Stereotwo views0.44
141
0.20
54
0.39
36
0.42
129
0.25
101
0.50
138
0.44
231
0.72
109
0.57
71
0.77
163
1.37
311
0.76
206
0.38
89
0.62
116
0.34
82
0.15
67
0.10
8
0.20
176
0.19
207
0.17
127
0.28
279
DCANettwo views0.38
76
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.56
174
0.47
34
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
aanetorigintwo views0.85
318
0.58
342
1.98
375
0.50
268
0.40
294
0.66
219
0.70
317
0.72
109
1.01
257
2.44
385
2.00
360
1.32
323
1.25
349
0.96
270
1.16
331
0.20
210
0.19
263
0.20
176
0.20
226
0.27
272
0.33
307
ffftwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
OMP-Stereotwo views0.43
135
0.23
120
0.50
131
0.53
301
0.25
101
0.36
78
0.24
23
0.73
122
0.81
162
0.78
174
0.64
67
0.88
241
0.41
111
0.95
267
0.36
98
0.15
67
0.12
86
0.20
176
0.15
90
0.16
103
0.13
31
IIG-Stereotwo views0.45
147
0.22
97
0.48
115
0.51
280
0.26
129
0.43
121
0.21
5
0.73
122
0.80
153
0.84
194
0.95
184
0.82
227
0.46
137
0.95
267
0.37
106
0.16
99
0.12
86
0.19
147
0.15
90
0.15
66
0.12
10
raftrobusttwo views0.35
36
0.20
54
0.39
36
0.43
166
0.29
198
0.31
51
0.25
30
0.73
122
0.66
96
0.59
69
0.56
51
0.44
54
0.45
131
0.55
61
0.31
57
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
csctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
11t1two views0.38
76
0.23
120
0.49
122
0.36
27
0.23
56
0.61
191
0.31
87
0.74
128
0.47
54
0.62
77
0.55
49
0.55
90
0.49
148
0.58
73
0.45
169
0.18
156
0.15
190
0.16
57
0.13
49
0.17
127
0.19
165
RAFT-Testtwo views0.35
36
0.19
33
0.42
58
0.39
60
0.24
77
0.50
138
0.23
20
0.74
128
0.44
43
0.62
77
0.85
145
0.64
145
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
Gwc-CoAtRStwo views0.35
36
0.18
14
0.46
91
0.39
60
0.23
56
0.34
72
0.22
11
0.74
128
0.77
139
0.62
77
0.60
58
0.58
114
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
R-Stereo Traintwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
GMStereo_Zeroshotpermissivetwo views0.51
200
0.46
311
0.80
275
0.50
268
0.28
179
0.57
179
0.30
69
0.75
133
0.79
148
0.88
224
0.94
180
0.90
248
0.37
82
0.77
207
0.46
173
0.27
287
0.14
172
0.26
281
0.15
90
0.39
327
0.19
165
StereoVisiontwo views0.43
135
0.29
229
0.54
177
0.50
268
0.28
179
0.37
86
0.38
170
0.75
133
0.63
84
0.46
43
1.11
254
0.53
86
0.38
89
0.57
69
0.34
82
0.21
225
0.24
301
0.25
267
0.24
284
0.26
263
0.17
134
ASMatchtwo views0.48
170
0.20
54
0.47
102
0.39
60
0.28
179
0.37
86
0.26
40
0.76
135
0.72
118
0.77
163
2.29
365
0.61
128
0.51
155
0.64
132
0.39
127
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
223
PFNettwo views0.43
135
0.19
33
0.61
207
0.44
187
0.24
77
0.42
117
0.31
87
0.76
135
0.81
162
1.01
283
0.74
96
0.67
165
0.41
111
0.75
192
0.39
127
0.16
99
0.10
8
0.20
176
0.15
90
0.16
103
0.14
49
IRAFT_RVCtwo views0.43
135
0.20
54
0.52
158
0.45
199
0.24
77
0.26
18
0.51
264
0.76
135
0.78
142
0.77
163
0.80
123
0.73
192
0.50
150
0.74
187
0.39
127
0.18
156
0.10
8
0.21
217
0.17
157
0.17
127
0.15
78
Anonymous3two views0.47
161
0.35
267
0.91
304
0.50
268
0.38
282
0.81
268
0.55
283
0.76
135
0.66
96
0.52
53
0.65
69
0.44
54
0.45
131
0.66
146
0.39
127
0.25
273
0.25
309
0.22
229
0.21
243
0.23
240
0.24
250
111two views0.42
123
0.18
14
0.46
91
0.35
12
0.19
8
0.52
150
0.28
50
0.76
135
1.16
310
0.52
53
0.92
175
0.65
149
0.51
155
0.65
138
0.37
106
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
test_5two views0.44
141
0.25
167
0.48
115
0.53
301
0.28
179
0.28
31
0.42
218
0.77
140
0.87
190
0.63
84
0.91
169
0.73
192
0.53
159
0.82
228
0.36
98
0.14
18
0.11
39
0.18
116
0.18
183
0.18
151
0.16
98
IPLGtwo views0.40
102
0.21
74
0.64
220
0.41
104
0.25
101
0.54
159
0.27
42
0.77
140
0.68
103
0.85
204
0.82
131
0.33
18
0.32
59
0.64
132
0.49
192
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
199
0.24
77
0.32
60
0.35
138
0.77
140
0.42
38
0.62
77
0.77
101
0.58
114
0.27
22
0.46
29
0.31
57
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
166
0.29
198
0.40
101
0.48
248
0.78
143
0.38
17
0.38
18
0.34
16
0.32
13
0.30
50
0.63
125
0.28
29
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
anonymousatwo views0.51
200
0.21
74
0.47
102
0.39
60
0.25
101
0.89
288
0.36
145
0.78
143
0.63
84
0.88
224
1.54
334
1.09
300
0.67
228
0.53
53
0.46
173
0.17
125
0.14
172
0.19
147
0.21
243
0.16
103
0.16
98
MIPNettwo views0.39
88
0.22
97
0.66
227
0.40
86
0.25
101
0.53
153
0.29
57
0.78
143
0.74
132
0.68
116
0.60
58
0.40
39
0.48
144
0.45
25
0.39
127
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
IPLGRtwo views0.40
102
0.22
97
0.70
248
0.40
86
0.22
30
0.51
143
0.29
57
0.78
143
0.78
142
0.80
178
0.77
101
0.44
54
0.41
111
0.48
41
0.40
147
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
CFNet-RSSMtwo views0.35
36
0.18
14
0.47
102
0.39
60
0.22
30
0.35
74
0.23
20
0.78
143
0.86
186
0.67
109
0.54
44
0.56
96
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
RAFT+CT+SAtwo views0.40
102
0.24
139
0.40
45
0.53
301
0.27
158
0.28
31
0.45
235
0.79
148
0.81
162
0.51
51
0.90
163
0.42
45
0.39
102
0.81
223
0.33
73
0.15
67
0.11
39
0.18
116
0.18
183
0.15
66
0.15
78
SAtwo views0.45
147
0.26
195
0.50
131
0.47
240
0.24
77
0.46
131
0.36
145
0.79
148
1.00
255
0.61
75
1.04
231
0.50
76
0.50
150
0.98
279
0.33
73
0.16
99
0.13
141
0.21
217
0.19
207
0.15
66
0.14
49
raft_robusttwo views0.41
116
0.24
139
0.39
36
0.43
166
0.22
30
0.40
101
0.33
108
0.80
150
0.98
248
0.80
178
0.88
158
0.41
43
0.32
59
0.89
247
0.30
48
0.14
18
0.12
86
0.16
57
0.18
183
0.15
66
0.13
31
DN-CSS_ROBtwo views0.45
147
0.27
207
0.74
265
0.41
104
0.29
198
0.43
121
0.29
57
0.80
150
0.78
142
0.73
140
1.08
248
0.48
71
0.45
131
0.81
223
0.40
147
0.15
67
0.12
86
0.21
217
0.19
207
0.18
151
0.17
134
Anonymous_2two views0.84
313
0.45
306
0.66
227
0.41
104
0.45
323
0.82
271
0.53
273
0.81
152
0.81
162
0.73
140
0.61
61
0.91
254
0.76
273
0.77
207
0.61
232
0.51
365
0.55
380
0.54
367
4.92
415
0.54
360
0.42
338
TestStereo1two views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
SA-5Ktwo views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
raft+_RVCtwo views0.38
76
0.20
54
0.38
33
0.39
60
0.27
158
0.44
127
0.35
138
0.81
152
0.90
208
0.52
53
0.78
109
0.50
76
0.29
41
0.56
65
0.41
152
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
IERtwo views0.48
170
0.25
167
0.60
206
0.38
44
0.28
179
0.67
228
0.38
170
0.82
156
0.68
103
0.88
224
0.95
184
0.74
196
0.79
279
0.62
116
0.46
173
0.17
125
0.14
172
0.17
85
0.17
157
0.17
127
0.16
98
ARAFTtwo views0.48
170
0.25
167
0.82
281
0.42
129
0.25
101
0.56
169
0.54
279
0.82
156
0.82
170
0.92
246
0.75
98
0.75
200
0.48
144
0.89
247
0.37
106
0.15
67
0.12
86
0.23
243
0.22
261
0.14
36
0.14
49
whm_ethtwo views0.49
179
0.32
252
0.79
274
0.47
240
0.38
282
0.37
86
0.37
157
0.83
158
0.83
175
0.82
183
1.73
348
0.36
31
0.39
102
0.61
94
0.38
119
0.19
191
0.17
237
0.20
176
0.20
226
0.20
199
0.25
257
CBFPSMtwo views0.61
264
0.25
167
1.41
351
0.39
60
0.27
158
1.10
321
0.67
311
0.83
158
0.84
176
0.82
183
0.81
129
1.33
328
0.85
296
0.72
185
0.86
279
0.16
99
0.15
190
0.15
41
0.17
157
0.17
127
0.23
242
s12784htwo views0.37
60
0.15
2
0.26
4
0.34
9
0.15
1
0.80
263
0.29
57
0.83
158
0.87
190
0.58
68
0.58
54
0.43
51
0.41
111
0.59
78
0.35
89
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
FENettwo views0.43
135
0.23
120
0.40
45
0.40
86
0.24
77
0.54
159
0.33
108
0.83
158
0.72
118
0.74
147
0.73
85
0.63
138
0.56
174
0.65
138
0.45
169
0.19
191
0.13
141
0.19
147
0.17
157
0.18
151
0.20
192
MLCVtwo views0.49
179
0.26
195
0.73
261
0.38
44
0.18
5
0.64
208
0.33
108
0.84
162
0.89
204
0.96
270
1.12
256
0.72
188
0.45
131
1.00
288
0.59
227
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
Sa-1000two views0.49
179
0.25
167
0.45
84
0.46
222
0.25
101
0.64
208
0.34
116
0.85
163
0.95
232
0.85
204
1.51
333
0.55
90
0.44
124
0.94
262
0.31
57
0.16
99
0.12
86
0.21
217
0.20
226
0.15
66
0.14
49
dadtwo views0.61
264
0.53
324
0.72
257
0.44
187
0.31
227
0.64
208
0.37
157
0.85
163
1.28
330
1.05
301
1.17
274
1.18
310
0.61
197
0.70
176
0.54
212
0.36
339
0.23
293
0.37
337
0.21
243
0.31
292
0.23
242
IGEV_Zeroshot_testtwo views0.36
42
0.19
33
0.71
251
0.41
104
0.29
198
0.30
39
0.25
30
0.86
165
0.40
29
0.64
94
0.57
52
0.56
96
0.25
12
0.56
65
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
HHtwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
iinet-ftwo views0.69
282
0.29
229
2.34
382
0.41
104
0.31
227
1.16
332
0.58
295
0.87
166
0.85
180
0.86
214
1.17
274
1.04
283
0.83
289
0.76
200
1.26
337
0.21
225
0.18
246
0.17
85
0.16
115
0.21
208
0.21
208
HCRNettwo views0.46
152
0.35
267
0.45
84
0.54
310
0.26
129
0.52
150
0.29
57
0.87
166
0.64
88
0.75
150
0.82
131
0.76
206
0.53
159
0.70
176
0.38
119
0.24
261
0.16
211
0.24
256
0.20
226
0.21
208
0.20
192
DIP-Stereotwo views0.40
102
0.22
97
0.58
193
0.42
129
0.29
198
0.62
195
0.27
42
0.87
166
0.42
38
0.65
98
0.86
149
0.52
82
0.35
73
0.67
155
0.43
157
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
134
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
ToySttwo views0.52
210
0.27
207
0.93
305
0.42
129
0.28
179
0.67
228
0.56
286
0.88
171
0.79
148
0.61
75
0.85
145
0.92
257
0.70
243
0.72
185
0.61
232
0.16
99
0.17
237
0.21
217
0.21
243
0.22
226
0.21
208
DAStwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.89
247
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
SepStereotwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.97
277
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
CFNet_pseudotwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.03
228
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.13
141
0.24
256
0.16
115
0.26
263
0.21
208
RALAANettwo views0.40
102
0.24
139
0.56
184
0.43
166
0.30
217
0.36
78
0.25
30
0.89
172
0.69
108
0.69
119
0.65
69
0.61
128
0.30
50
0.63
125
0.35
89
0.16
99
0.13
141
0.18
116
0.15
90
0.21
208
0.14
49
DMCA-RVCcopylefttwo views0.54
221
0.32
252
0.83
285
0.51
280
0.32
244
0.59
189
0.38
170
0.89
172
0.70
110
0.95
258
0.88
158
0.90
248
0.69
238
0.75
192
0.63
239
0.23
255
0.18
246
0.31
317
0.24
284
0.27
272
0.21
208
ccs_robtwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.02
217
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.12
86
0.24
256
0.16
115
0.26
263
0.21
208
ACVNet-DCAtwo views0.36
42
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
1test111two views0.37
60
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.59
78
0.48
185
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
anonymousdsp2two views0.37
60
0.21
74
0.49
122
0.38
44
0.24
77
0.48
137
0.31
87
0.91
178
0.68
103
0.57
65
0.51
36
0.51
79
0.34
70
0.59
78
0.33
73
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
fast-acv-fttwo views0.66
276
0.32
252
0.80
275
0.46
222
0.34
265
1.26
341
0.50
261
0.91
178
1.00
255
1.05
301
1.36
308
1.28
317
0.84
292
0.81
223
0.90
289
0.22
241
0.24
301
0.23
243
0.23
270
0.21
208
0.22
223
qqqtwo views0.42
123
0.28
220
0.50
131
0.37
35
0.22
30
0.47
133
0.39
183
0.91
178
0.59
74
0.57
65
0.71
82
0.65
149
0.56
174
0.59
78
0.48
185
0.17
125
0.17
237
0.20
176
0.19
207
0.18
151
0.19
165
ACVNettwo views0.47
161
0.24
139
0.39
36
0.40
86
0.28
179
0.58
183
0.40
193
0.91
178
0.81
162
0.67
109
0.96
188
0.79
219
0.66
219
0.65
138
0.71
252
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
CFNet-ftpermissivetwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
CFNet_RVCtwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
cf-rtwo views0.49
179
0.24
139
0.49
122
0.40
86
0.23
56
0.58
183
0.38
170
0.92
186
0.87
190
0.77
163
1.06
240
0.98
266
0.67
228
0.59
78
0.61
232
0.21
225
0.14
172
0.17
85
0.19
207
0.15
66
0.16
98
iResNettwo views0.52
210
0.31
250
0.86
292
0.44
187
0.22
30
0.66
219
0.47
243
0.92
186
1.02
262
0.89
231
1.12
256
0.69
170
0.55
166
0.86
238
0.60
228
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
134
Any-RAFTtwo views0.36
42
0.17
8
0.31
10
0.35
12
0.21
25
0.51
143
0.21
5
0.93
188
0.75
134
0.56
63
0.73
85
0.66
161
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
gwcnet-sptwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
scenettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
ssnettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
MMNettwo views0.57
239
0.26
195
0.67
231
0.45
199
0.35
270
1.04
316
0.39
183
0.93
188
0.98
248
0.96
270
0.97
195
0.86
234
0.80
283
0.83
230
0.80
271
0.16
99
0.15
190
0.19
147
0.19
207
0.20
199
0.17
134
xtwo views0.41
116
0.25
167
0.46
91
0.36
27
0.24
77
0.54
159
0.31
87
0.94
193
0.58
73
0.60
71
0.72
83
0.61
128
0.53
159
0.52
51
0.50
194
0.18
156
0.16
211
0.17
85
0.16
115
0.17
127
0.18
156
PSMNet-ADLtwo views0.50
190
0.28
220
0.43
74
0.49
257
0.31
227
0.70
234
0.38
170
0.94
193
0.81
162
0.62
77
0.80
123
0.91
254
0.62
199
0.76
200
0.68
248
0.24
261
0.18
246
0.19
147
0.20
226
0.22
226
0.22
223
GANet-ADLtwo views0.44
141
0.27
207
0.48
115
0.44
187
0.30
217
0.54
159
0.36
145
0.94
193
0.88
200
0.64
94
0.72
83
0.68
168
0.44
124
0.55
61
0.44
164
0.22
241
0.15
190
0.15
41
0.13
49
0.18
151
0.21
208
SDNRtwo views0.89
322
0.39
285
1.66
370
0.42
129
0.39
291
3.35
397
0.32
99
0.95
196
1.05
272
1.05
301
2.12
363
0.62
134
0.71
248
1.40
338
0.78
263
0.53
367
0.56
381
0.36
333
0.27
307
0.46
344
0.50
359
GwcNet-ADLtwo views0.45
147
0.24
139
0.51
139
0.46
222
0.30
217
0.41
110
0.40
193
0.95
196
0.98
248
0.73
140
0.78
109
0.61
128
0.41
111
0.67
155
0.55
214
0.20
210
0.14
172
0.15
41
0.14
69
0.19
184
0.22
223
EDNetEfficienttwo views1.47
371
0.82
362
6.28
401
0.48
248
0.40
294
0.73
241
0.83
344
0.95
196
2.77
388
3.48
402
1.95
357
1.64
360
2.12
384
1.42
342
3.84
391
0.21
225
0.19
263
0.21
217
0.21
243
0.43
337
0.42
338
acv_fttwo views0.52
210
0.24
139
0.64
220
0.45
199
0.28
179
0.85
280
0.40
193
0.95
196
0.81
162
1.00
281
0.96
188
0.79
219
0.62
199
0.65
138
0.88
281
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
MyStereo05two views0.46
152
0.22
97
0.51
139
0.42
129
0.29
198
0.43
121
0.48
248
0.96
200
1.12
296
0.77
163
0.62
63
0.51
79
0.57
183
0.79
217
0.43
157
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
AACVNettwo views0.52
210
0.25
167
0.56
184
0.48
248
0.29
198
0.55
164
0.38
170
0.96
200
0.59
74
0.83
188
1.03
228
1.03
279
0.77
277
0.91
254
0.58
225
0.22
241
0.18
246
0.24
256
0.18
183
0.24
248
0.22
223
TRStereotwo views0.39
88
0.32
252
0.64
220
0.49
257
0.41
299
0.30
39
0.30
69
0.97
202
0.63
84
0.53
59
0.43
18
0.52
82
0.26
17
0.77
207
0.29
37
0.18
156
0.12
86
0.19
147
0.19
207
0.13
14
0.13
31
GwcNet-RSSMtwo views0.51
200
0.25
167
0.51
139
0.41
104
0.24
77
0.56
169
0.41
213
0.97
202
0.96
239
0.75
150
1.17
274
0.89
246
0.66
219
0.66
146
0.74
257
0.22
241
0.15
190
0.19
147
0.21
243
0.17
127
0.16
98
PCWNet_CMDtwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.98
204
0.99
251
0.87
216
1.07
242
0.78
213
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.21
217
0.16
115
0.26
263
0.20
192
hitnet-ftcopylefttwo views0.57
239
0.29
229
0.43
74
0.42
129
0.29
198
0.81
268
0.40
193
0.98
204
0.91
214
0.84
194
1.01
215
1.13
306
0.72
255
0.83
230
0.71
252
0.28
295
0.21
277
0.28
299
0.22
261
0.29
281
0.27
270
DMCAtwo views0.47
161
0.27
207
0.59
201
0.39
60
0.29
198
0.53
153
0.34
116
0.98
204
0.70
110
0.78
174
0.83
136
0.79
219
0.55
166
0.54
60
0.57
220
0.21
225
0.16
211
0.21
217
0.16
115
0.19
184
0.22
223
CASStwo views0.46
152
0.28
220
0.45
84
0.48
248
0.22
30
0.63
200
0.34
116
0.99
207
0.66
96
0.76
155
0.86
149
0.61
128
0.58
186
0.58
73
0.44
164
0.29
302
0.16
211
0.22
229
0.18
183
0.23
240
0.28
279
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
BUStwo views0.47
161
0.26
195
0.47
102
0.46
222
0.29
198
0.78
251
0.34
116
0.99
207
0.80
153
0.77
163
0.80
123
0.64
145
0.54
163
0.66
146
0.56
216
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
BSDual-CNNtwo views0.48
170
0.26
195
0.47
102
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.80
153
0.77
163
0.80
123
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
hknettwo views0.51
200
0.26
195
0.58
193
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.89
204
0.77
163
0.80
123
0.96
263
0.67
228
0.75
192
0.50
194
0.19
191
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
MSMDNettwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.99
207
0.99
251
0.87
216
1.07
242
0.79
219
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.20
176
0.16
115
0.25
257
0.20
192
HITNettwo views0.43
135
0.27
207
0.50
131
0.34
9
0.18
5
0.65
214
0.32
99
0.99
207
0.70
110
0.73
140
0.86
149
0.66
161
0.56
174
0.61
94
0.47
182
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
mmmtwo views0.47
161
0.28
220
0.51
139
0.39
60
0.25
101
0.61
191
0.38
170
1.00
213
0.60
81
0.77
163
1.07
242
0.65
149
0.53
159
0.61
94
0.49
192
0.18
156
0.15
190
0.23
243
0.20
226
0.21
208
0.20
192
UNettwo views0.55
226
0.27
207
0.72
257
0.45
199
0.41
299
0.97
299
0.40
193
1.01
214
0.80
153
0.87
216
0.90
163
1.03
279
0.75
264
0.76
200
0.67
245
0.19
191
0.15
190
0.20
176
0.17
157
0.21
208
0.18
156
STTStereotwo views0.57
239
0.39
285
0.87
297
0.45
199
0.32
244
0.62
195
0.45
235
1.01
214
0.87
190
1.01
283
0.91
169
0.95
260
0.58
186
0.77
207
0.66
242
0.25
273
0.24
301
0.27
289
0.33
336
0.25
257
0.26
262
MyStereo04two views0.45
147
0.23
120
0.52
158
0.43
166
0.29
198
0.40
101
0.48
248
1.02
216
1.12
296
0.62
77
0.58
54
0.55
90
0.56
174
0.77
207
0.45
169
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
G-Nettwo views0.95
329
0.48
319
1.13
326
0.67
350
0.49
335
2.07
376
0.63
307
1.02
216
0.90
208
1.77
365
2.62
377
1.28
317
1.60
367
1.09
301
1.06
322
0.37
343
0.30
330
0.35
330
0.25
295
0.46
344
0.45
348
RASNettwo views0.57
239
0.24
139
0.61
207
0.39
60
0.23
56
0.71
237
0.40
193
1.02
216
0.93
221
0.77
163
1.05
234
1.05
286
0.98
324
0.99
283
1.03
314
0.16
99
0.14
172
0.14
13
0.17
157
0.15
66
0.14
49
DANettwo views0.74
292
0.47
317
0.98
316
0.60
331
0.41
299
0.92
291
0.41
213
1.02
216
0.87
190
1.22
332
1.22
283
1.33
328
0.88
307
1.26
323
1.37
344
0.27
287
0.24
301
0.31
317
0.25
295
0.37
321
0.36
315
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
DLCB_ROBtwo views0.60
261
0.29
229
0.53
165
0.50
268
0.33
255
0.76
250
0.51
264
1.02
216
0.94
228
1.07
310
1.16
269
1.21
312
0.73
259
0.98
279
0.75
259
0.21
225
0.20
271
0.22
229
0.23
270
0.22
226
0.20
192
UPFNettwo views0.55
226
0.26
195
0.59
201
0.46
222
0.38
282
0.83
274
0.48
248
1.03
221
0.80
153
0.92
246
0.91
169
0.85
230
0.67
228
0.87
240
0.78
263
0.20
210
0.21
277
0.20
176
0.20
226
0.20
199
0.15
78
CFNet_ucstwo views0.51
200
0.25
167
0.58
193
0.39
60
0.31
227
0.59
189
0.35
138
1.04
222
0.95
232
0.89
231
1.19
279
0.80
223
0.49
148
0.66
146
0.45
169
0.21
225
0.16
211
0.26
281
0.18
183
0.27
272
0.23
242
LL-Strereotwo views0.58
250
0.29
229
0.83
285
0.48
248
0.35
270
0.39
96
0.48
248
1.04
222
0.99
251
0.87
216
0.79
113
1.08
295
1.15
343
1.35
337
0.51
196
0.18
156
0.15
190
0.22
229
0.19
207
0.17
127
0.21
208
TransformOpticalFlowtwo views0.46
152
0.21
74
0.49
122
0.42
129
0.24
77
0.36
78
0.46
238
1.04
222
0.84
176
0.67
109
1.14
264
0.73
192
0.56
174
0.78
215
0.33
73
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
delettwo views0.57
239
0.25
167
0.63
216
0.46
222
0.34
265
1.05
318
0.51
264
1.04
222
0.94
228
0.90
238
0.99
207
0.90
248
0.68
236
0.87
240
0.78
263
0.18
156
0.18
246
0.20
176
0.21
243
0.17
127
0.17
134
AANet_RVCtwo views0.59
254
0.35
267
0.68
238
0.47
240
0.28
179
0.57
179
0.47
243
1.04
222
1.28
330
0.87
216
1.33
303
0.86
234
0.63
204
1.16
311
0.89
283
0.19
191
0.13
141
0.15
41
0.14
69
0.18
151
0.20
192
StereoDRNet-Refinedtwo views0.61
264
0.33
258
0.63
216
0.47
240
0.31
227
0.94
294
0.41
213
1.04
222
0.97
244
1.15
325
1.13
262
1.00
271
0.74
261
0.93
259
0.93
295
0.18
156
0.13
141
0.22
229
0.21
243
0.20
199
0.21
208
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
MyStereo06two views0.40
102
0.22
97
0.65
225
0.42
129
0.29
198
0.43
121
0.48
248
1.05
228
0.43
41
0.64
94
0.54
44
0.78
213
0.27
22
0.53
53
0.31
57
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
ICVPtwo views0.48
170
0.26
195
0.42
58
0.49
257
0.28
179
0.63
200
0.43
225
1.05
228
0.72
118
0.68
116
0.95
184
0.75
200
0.56
174
0.55
61
0.61
232
0.24
261
0.18
246
0.19
147
0.17
157
0.19
184
0.21
208
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
RAFT + AFFtwo views0.54
221
0.30
243
0.84
288
0.51
280
0.32
244
0.63
200
0.57
288
1.05
228
0.95
232
0.80
178
0.87
155
0.85
230
0.57
183
0.87
240
0.51
196
0.18
156
0.21
277
0.23
243
0.22
261
0.19
184
0.19
165
Anonymous Stereotwo views0.82
306
0.59
344
2.10
378
0.59
329
0.58
353
0.68
232
1.42
385
1.05
228
1.07
283
1.03
290
1.02
217
0.86
234
0.65
217
1.33
335
1.36
343
0.32
317
0.31
338
0.31
317
0.33
336
0.34
308
0.39
324
PS-NSSStwo views0.60
261
0.46
311
0.68
238
0.43
166
0.34
265
0.66
219
0.57
288
1.05
228
0.91
214
0.80
178
1.28
295
0.72
188
0.67
228
0.89
247
0.61
232
0.32
317
0.26
317
0.40
346
0.27
307
0.35
314
0.29
284
GEStwo views0.46
152
0.25
167
0.62
212
0.41
104
0.30
217
0.62
195
0.37
157
1.06
233
0.70
110
0.75
150
0.83
136
0.47
68
0.52
158
0.69
169
0.46
173
0.23
255
0.17
237
0.17
85
0.16
115
0.18
151
0.24
250
CBMV_ROBtwo views0.62
270
0.39
285
0.41
50
0.41
104
0.28
179
0.86
282
0.28
50
1.06
233
1.02
262
0.95
258
1.33
303
0.81
225
0.84
292
0.94
262
0.56
216
0.37
343
0.37
357
0.43
349
0.40
351
0.33
302
0.32
298
psmgtwo views0.50
190
0.26
195
0.47
102
0.42
129
0.29
198
0.82
271
0.42
218
1.07
235
0.80
153
0.95
258
0.94
180
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.16
211
0.20
176
0.20
226
0.19
184
0.19
165
psm_uptwo views0.57
239
0.27
207
0.52
158
0.50
268
0.33
255
0.65
214
0.60
300
1.07
235
0.84
176
0.87
216
0.91
169
1.00
271
1.06
331
0.80
219
0.66
242
0.22
241
0.25
309
0.26
281
0.23
270
0.22
226
0.21
208
HGLStereotwo views0.58
250
0.30
243
0.65
225
0.51
280
0.38
282
0.78
251
0.45
235
1.07
235
0.82
170
0.89
231
1.16
269
0.88
241
0.91
312
0.80
219
0.74
257
0.21
225
0.21
277
0.20
176
0.18
183
0.19
184
0.22
223
MaskLacGwcNet_RVCtwo views0.71
285
0.84
366
0.80
275
0.55
316
0.38
282
1.38
347
0.57
288
1.07
235
0.81
162
0.90
238
0.94
180
0.95
260
0.54
163
1.01
289
0.61
232
0.41
354
0.30
330
0.57
369
0.31
327
0.86
374
0.39
324
NLCA_NET_v2_RVCtwo views0.55
226
0.33
258
0.71
251
0.46
222
0.31
227
0.66
219
0.43
225
1.07
235
0.89
204
0.93
249
0.91
169
0.98
266
0.61
197
0.76
200
0.64
241
0.22
241
0.18
246
0.22
229
0.22
261
0.22
226
0.24
250
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
psmorigintwo views0.84
313
0.53
324
2.21
380
0.50
268
0.41
299
0.86
282
0.57
288
1.08
240
0.90
208
1.50
350
1.42
320
1.50
349
1.09
334
1.29
327
1.03
314
0.32
317
0.33
349
0.27
289
0.27
307
0.34
308
0.45
348
DSFCAtwo views0.57
239
0.27
207
0.71
251
0.41
104
0.36
275
0.78
251
0.53
273
1.08
240
0.85
180
1.08
311
0.84
138
0.90
248
0.66
219
1.05
296
0.63
239
0.26
278
0.22
286
0.21
217
0.21
243
0.22
226
0.20
192
BEATNet_4xtwo views0.49
179
0.35
267
0.72
257
0.38
44
0.20
18
0.65
214
0.36
145
1.08
240
0.78
142
0.78
174
0.88
158
0.73
192
0.64
211
0.71
181
0.60
228
0.16
99
0.12
86
0.16
57
0.15
90
0.24
248
0.18
156
FADNet-RVC-Resampletwo views0.58
250
0.35
267
1.34
346
0.50
268
0.34
265
0.73
241
0.43
225
1.09
243
0.96
239
0.83
188
0.87
155
0.76
206
0.66
219
0.77
207
0.52
200
0.19
191
0.18
246
0.26
281
0.27
307
0.28
279
0.29
284
SuperBtwo views1.00
337
0.41
297
4.03
393
0.45
199
0.32
244
0.99
305
0.49
258
1.09
243
2.09
377
1.10
318
1.10
250
0.74
196
0.83
289
1.13
305
1.75
360
0.20
210
0.15
190
0.17
85
0.15
90
2.50
401
0.27
270
TDLMtwo views0.59
254
0.35
267
0.57
191
0.53
301
0.32
244
0.67
228
0.72
323
1.09
243
1.03
266
0.84
194
1.11
254
0.84
228
0.71
248
0.96
270
0.61
232
0.28
295
0.18
246
0.26
281
0.22
261
0.27
272
0.21
208
NOSS_ROBtwo views0.59
254
0.40
293
0.42
58
0.45
199
0.31
227
0.79
257
0.53
273
1.09
243
1.12
296
0.69
119
0.92
175
0.77
211
0.63
204
0.81
223
0.52
200
0.39
349
0.38
358
0.44
351
0.42
358
0.38
323
0.36
315
ADLNet2two views0.57
239
0.26
195
0.71
251
0.48
248
0.31
227
0.83
274
0.51
264
1.10
247
0.99
251
0.85
204
0.99
207
0.99
270
0.70
243
0.79
217
0.78
263
0.21
225
0.17
237
0.18
116
0.18
183
0.22
226
0.22
223
ac_64two views0.54
221
0.24
139
0.58
193
0.46
222
0.28
179
0.79
257
0.44
231
1.11
248
0.63
84
0.94
253
0.85
145
1.06
290
0.70
243
0.76
200
0.72
255
0.22
241
0.18
246
0.20
176
0.19
207
0.18
151
0.16
98
SQANettwo views0.87
320
0.76
358
0.76
268
1.16
380
0.99
378
1.10
321
0.51
264
1.12
249
0.85
180
0.93
249
1.05
234
1.03
279
0.76
273
1.07
297
0.70
250
0.79
377
0.25
309
1.04
381
0.36
341
1.56
384
0.70
373
GASNettwo views0.70
283
0.77
359
1.16
329
0.71
361
0.49
335
0.62
195
0.48
248
1.12
249
1.05
272
0.98
276
0.84
138
0.94
259
0.82
287
1.41
341
0.85
278
0.33
325
0.22
286
0.29
307
0.28
313
0.44
340
0.26
262
GANet-RSSMtwo views0.49
179
0.22
97
0.42
58
0.39
60
0.26
129
0.58
183
0.41
213
1.12
249
0.82
170
0.73
140
1.02
217
0.88
241
0.75
264
0.67
155
0.48
185
0.22
241
0.16
211
0.18
116
0.19
207
0.18
151
0.18
156
FADNet_RVCtwo views0.58
250
0.39
285
1.26
335
0.45
199
0.32
244
0.55
164
0.34
116
1.12
249
0.90
208
0.68
116
0.90
163
0.61
128
0.71
248
1.03
294
0.80
271
0.21
225
0.18
246
0.27
289
0.23
270
0.33
302
0.30
288
CVANet_RVCtwo views0.59
254
0.35
267
0.54
177
0.49
257
0.33
255
0.70
234
0.67
311
1.12
249
0.97
244
0.88
224
1.05
234
1.01
275
0.72
255
0.94
262
0.55
214
0.30
309
0.20
271
0.28
299
0.26
303
0.32
298
0.23
242
NVstereo2Dtwo views0.62
270
0.32
252
0.82
281
0.50
268
0.44
316
0.88
285
0.48
248
1.12
249
1.17
313
0.67
109
0.90
163
0.90
248
0.69
238
1.02
292
0.69
249
0.33
325
0.16
211
0.29
307
0.20
226
0.43
337
0.46
352
ADCReftwo views0.84
313
0.46
311
1.60
364
0.52
294
0.45
323
1.08
320
0.52
270
1.13
255
1.03
266
1.22
332
1.43
322
0.87
238
0.93
316
0.91
254
3.35
386
0.19
191
0.16
211
0.23
243
0.23
270
0.23
240
0.22
223
SGM-Foresttwo views0.65
275
0.33
258
0.43
74
0.44
187
0.30
217
1.01
310
0.54
279
1.13
255
1.09
294
1.11
321
1.21
281
1.10
301
0.76
273
0.99
283
0.71
252
0.32
317
0.33
349
0.33
327
0.30
318
0.30
288
0.28
279
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ADLNettwo views0.57
239
0.29
229
0.58
193
0.46
222
0.35
270
0.80
263
0.46
238
1.14
257
0.88
200
1.03
290
0.98
198
0.92
257
0.66
219
0.71
181
0.83
275
0.22
241
0.16
211
0.22
229
0.22
261
0.22
226
0.23
242
PA-Nettwo views0.70
283
0.46
311
0.96
311
0.51
280
0.53
344
0.94
294
0.73
328
1.14
257
1.15
308
0.83
188
0.90
163
0.88
241
0.76
273
1.19
315
0.96
302
0.25
273
0.41
367
0.29
307
0.44
359
0.27
272
0.39
324
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
PASMtwo views0.96
330
0.71
356
2.05
377
0.72
362
0.72
369
0.84
279
0.92
352
1.14
257
1.34
340
1.25
337
1.22
283
1.34
331
1.07
332
1.31
332
1.11
327
0.53
367
0.57
382
0.59
371
0.67
379
0.56
367
0.57
370
HBP-ISPtwo views0.61
264
0.47
317
0.45
84
0.46
222
0.33
255
0.79
257
0.29
57
1.15
260
1.05
272
0.85
204
1.18
278
0.67
165
0.71
248
0.92
256
0.57
220
0.37
343
0.38
358
0.47
356
0.41
356
0.39
327
0.32
298
GANettwo views0.74
292
0.38
281
0.63
216
0.54
310
0.35
270
1.01
310
0.95
355
1.15
260
0.95
232
1.09
315
2.00
360
1.14
307
0.92
314
1.29
327
0.75
259
0.25
273
0.27
319
0.27
289
0.23
270
0.32
298
0.24
250
Wz-Net-LNSev-Reftwo views0.67
277
0.30
243
1.20
331
0.42
129
0.31
227
1.00
306
0.58
295
1.16
262
1.07
283
1.01
283
1.25
287
1.08
295
0.75
264
1.18
314
1.03
314
0.20
210
0.12
86
0.16
57
0.13
49
0.22
226
0.22
223
SACVNettwo views0.61
264
0.36
275
0.67
231
0.57
322
0.37
277
0.65
214
0.47
243
1.16
262
0.80
153
1.04
296
1.06
240
1.02
277
0.81
286
0.99
283
0.57
220
0.28
295
0.21
277
0.25
267
0.24
284
0.30
288
0.39
324
STrans-v2two views0.47
161
0.21
74
0.49
122
0.41
104
0.25
101
0.54
159
0.49
258
1.16
262
0.82
170
0.67
109
1.05
234
0.71
173
0.67
228
0.74
187
0.34
82
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
PSMNet-RSSMtwo views0.50
190
0.24
139
0.41
50
0.43
166
0.26
129
0.51
143
0.40
193
1.16
262
0.79
148
0.75
150
1.07
242
0.87
238
0.69
238
0.66
146
0.52
200
0.24
261
0.16
211
0.23
243
0.26
303
0.20
199
0.20
192
FADNet-RVCtwo views0.62
270
0.56
338
1.29
340
0.47
240
0.39
291
0.63
200
0.40
193
1.16
262
0.91
214
0.71
132
0.86
149
1.04
283
0.55
166
0.99
283
0.78
263
0.27
287
0.26
317
0.28
299
0.29
317
0.32
298
0.31
295
NCCL2two views0.74
292
0.45
306
0.77
271
0.65
346
0.45
323
0.97
299
1.16
369
1.16
262
1.02
262
1.00
281
0.98
198
1.48
347
0.88
307
0.99
283
0.89
283
0.31
312
0.27
319
0.39
343
0.39
348
0.33
302
0.34
309
DDUNettwo views1.10
344
2.58
409
0.83
285
1.21
382
1.27
386
1.02
312
0.69
316
1.17
268
0.95
232
0.98
276
1.26
290
1.28
317
0.84
292
0.97
277
0.79
270
0.85
380
0.40
365
2.00
392
0.60
377
1.34
383
0.94
379
CBMVpermissivetwo views0.68
280
0.37
277
0.50
131
0.43
166
0.26
129
1.00
306
0.71
319
1.17
268
1.16
310
1.24
336
1.29
299
1.06
290
0.86
300
0.98
279
0.75
259
0.29
302
0.30
330
0.34
329
0.30
318
0.26
263
0.27
270
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
NINENettwo views0.52
210
0.30
243
0.55
180
0.46
222
0.33
255
0.78
251
0.34
116
1.18
270
0.91
214
0.84
194
0.97
195
0.64
145
0.54
163
0.74
187
0.56
216
0.23
255
0.20
271
0.25
267
0.18
183
0.22
226
0.22
223
UDGtwo views0.93
324
1.03
377
0.75
267
1.00
374
0.97
376
1.02
312
0.57
288
1.18
270
1.01
257
0.93
249
1.02
217
1.32
323
1.03
327
0.88
246
0.92
293
0.55
371
0.33
349
1.82
389
0.41
356
1.20
382
0.74
374
UCFNet_RVCtwo views0.50
190
0.27
207
0.37
27
0.40
86
0.27
158
0.66
219
0.42
218
1.18
270
0.86
186
0.70
123
0.89
161
0.91
254
0.60
193
0.62
116
0.48
185
0.24
261
0.18
246
0.28
299
0.27
307
0.25
257
0.24
250
CRFU-Nettwo views0.59
254
0.29
229
0.62
212
0.47
240
0.31
227
1.20
338
0.51
264
1.19
273
0.59
74
1.05
301
1.00
211
1.06
290
0.87
303
0.83
230
0.77
262
0.22
241
0.19
263
0.18
116
0.16
115
0.19
184
0.20
192
GANetREF_RVCpermissivetwo views0.82
306
0.77
359
0.95
310
0.68
353
0.43
311
1.15
330
1.06
362
1.19
273
1.20
320
1.03
290
1.02
217
1.10
301
0.89
309
1.20
318
0.78
263
0.49
362
0.39
362
0.58
370
0.39
348
0.69
369
0.49
357
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ETE_ROBtwo views0.73
287
0.52
322
0.93
305
0.57
322
0.37
277
0.80
263
0.86
349
1.19
273
0.95
232
1.20
329
1.22
283
1.39
340
0.86
300
1.07
297
0.88
281
0.27
287
0.21
277
0.31
317
0.27
307
0.34
308
0.35
312
ssnet_v2two views0.61
264
0.29
229
0.69
246
0.45
199
0.30
217
0.93
292
0.62
304
1.20
276
1.03
266
0.97
273
0.81
129
0.98
266
0.67
228
0.84
234
0.97
305
0.26
278
0.23
293
0.23
243
0.24
284
0.20
199
0.21
208
CC-Net-ROBtwo views0.84
313
1.01
376
0.93
305
0.60
331
0.45
323
1.25
340
0.71
319
1.20
276
1.05
272
0.84
194
1.24
286
0.90
248
0.78
278
1.14
307
0.70
250
0.48
361
0.34
352
1.71
387
0.38
346
0.78
372
0.40
330
WCMA_ROBtwo views1.22
354
0.39
285
0.93
305
0.51
280
0.45
323
1.44
350
0.79
338
1.20
276
1.30
335
2.99
396
3.94
397
3.30
389
2.17
386
1.42
342
1.31
340
0.46
357
0.35
354
0.35
330
0.37
343
0.41
331
0.42
338
coex-fttwo views6.50
410
1.57
392
87.99
433
0.49
257
0.38
282
1.41
348
1.21
372
1.21
279
7.96
406
12.14
413
2.78
380
2.74
380
3.83
401
1.30
331
3.19
385
0.24
261
0.23
293
0.27
289
0.24
284
0.48
347
0.40
330
RPtwo views0.80
303
0.38
281
0.73
261
0.67
350
0.59
355
0.82
271
0.57
288
1.21
279
1.28
330
1.03
290
1.68
343
1.45
342
1.49
364
1.08
300
0.90
289
0.36
339
0.31
338
0.37
337
0.30
318
0.36
318
0.36
315
ADCPNettwo views1.11
347
0.53
324
3.26
388
0.55
316
0.44
316
1.47
352
0.83
344
1.21
279
1.17
313
1.26
339
1.42
320
1.67
361
1.12
338
1.48
349
3.86
392
0.30
309
0.29
326
0.30
316
0.32
330
0.37
321
0.37
321
CFNettwo views0.53
216
0.30
243
0.53
165
0.42
129
0.28
179
0.73
241
0.35
138
1.21
279
1.01
257
0.74
147
1.07
242
0.85
230
0.60
193
0.83
230
0.58
225
0.19
191
0.15
190
0.23
243
0.23
270
0.21
208
0.17
134
iResNetv2_ROBtwo views0.55
226
0.29
229
0.86
292
0.39
60
0.25
101
0.67
228
0.37
157
1.21
279
1.02
262
1.02
287
1.10
250
0.89
246
0.79
279
0.74
187
0.43
157
0.19
191
0.13
141
0.15
41
0.11
15
0.19
184
0.16
98
XPNet_ROBtwo views0.73
287
0.38
281
0.80
275
0.53
301
0.40
294
0.80
263
0.83
344
1.21
279
0.96
239
1.37
345
1.17
274
1.37
335
0.87
303
1.14
307
0.99
307
0.33
325
0.25
309
0.27
289
0.24
284
0.31
292
0.29
284
EAI-Stereotwo views0.36
42
0.21
74
0.46
91
0.40
86
0.22
30
0.33
66
0.36
145
1.22
285
0.32
3
0.52
53
0.75
98
0.35
25
0.28
27
0.65
138
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
FINETtwo views0.75
296
0.45
306
1.38
349
0.48
248
0.46
331
0.98
303
1.00
359
1.22
285
1.69
367
0.91
245
1.25
287
0.74
196
0.74
261
1.09
301
0.82
274
0.37
343
0.31
338
0.27
289
0.24
284
0.35
314
0.34
309
DeepPruner_ROBtwo views0.55
226
0.37
277
0.67
231
0.42
129
0.31
227
0.50
138
0.43
225
1.22
285
0.73
127
0.86
214
1.05
234
0.85
230
0.58
186
0.90
252
0.56
216
0.29
302
0.23
293
0.22
229
0.22
261
0.26
263
0.26
262
pmcnntwo views1.27
359
0.31
250
1.14
328
0.41
104
0.23
56
0.97
299
0.71
319
1.23
288
1.32
337
1.83
367
2.34
367
11.25
412
0.89
309
1.04
295
0.96
302
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
mmxtwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
348
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
ttttwo views0.56
235
0.27
207
0.49
122
0.39
60
0.25
101
0.65
214
0.42
218
1.24
289
1.08
288
0.76
155
1.10
250
0.63
138
0.51
155
0.95
267
1.03
314
0.25
273
0.22
286
0.22
229
0.21
243
0.25
257
0.25
257
xxxcopylefttwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
348
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
Wz-Net-MNSevtwo views0.81
305
0.42
301
1.64
367
0.51
280
0.41
299
1.46
351
0.95
355
1.24
289
1.26
328
1.31
342
1.25
287
1.17
309
0.83
289
1.21
319
1.06
322
0.22
241
0.19
263
0.24
256
0.23
270
0.29
281
0.26
262
FADNettwo views0.63
273
0.53
324
1.20
331
0.46
222
0.44
316
0.66
219
0.41
213
1.24
289
1.07
283
0.70
123
0.84
138
0.98
266
0.65
217
0.87
240
0.54
212
0.29
302
0.30
330
0.27
289
0.30
318
0.48
347
0.36
315
AdaStereotwo views0.52
210
0.34
263
0.53
165
0.49
257
0.25
101
0.71
237
0.36
145
1.24
289
0.91
214
0.77
163
0.98
198
0.75
200
0.50
150
0.71
181
0.51
196
0.27
287
0.13
141
0.28
299
0.18
183
0.23
240
0.18
156
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
LALA_ROBtwo views0.76
299
0.46
311
0.86
292
0.55
316
0.41
299
1.00
306
0.93
354
1.25
295
1.13
301
1.23
334
1.15
266
1.55
355
0.80
283
1.11
304
0.96
302
0.33
325
0.23
293
0.35
330
0.30
318
0.35
314
0.32
298
PSMNet_ROBtwo views0.67
277
0.39
285
0.76
268
0.57
322
0.43
311
1.00
306
0.85
348
1.25
295
0.93
221
0.82
183
1.04
231
1.08
295
0.64
211
0.89
247
1.02
313
0.29
302
0.21
277
0.31
317
0.31
327
0.27
272
0.25
257
SMFormertwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.19
184
0.20
192
ttatwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.15
66
0.16
98
qqq1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
MSMD_ROBtwo views1.25
357
0.51
320
0.64
220
0.60
331
0.50
338
1.66
365
0.67
311
1.26
297
1.26
328
2.64
387
3.82
394
3.06
385
3.20
399
1.45
346
0.91
291
0.46
357
0.41
367
0.49
362
0.51
371
0.47
346
0.45
348
Wz-Net-LNSevtwo views0.75
296
0.54
330
1.59
361
0.51
280
0.41
299
1.16
332
0.79
338
1.27
302
1.13
301
1.04
296
1.14
264
1.11
303
0.94
319
0.93
259
1.00
308
0.24
261
0.22
286
0.21
217
0.19
207
0.26
263
0.27
270
EDNetEfficientorigintwo views9.96
412
1.17
381
175.17
434
0.49
257
0.37
277
1.13
327
0.74
330
1.27
302
2.70
387
3.16
399
2.49
371
2.28
373
2.15
385
1.88
369
2.27
374
0.21
225
0.19
263
0.25
267
0.20
226
0.54
360
0.53
367
GwcNetcopylefttwo views0.73
287
0.39
285
1.37
348
0.53
301
0.43
311
1.10
321
0.52
270
1.27
302
1.19
318
1.05
301
1.41
316
1.06
290
0.86
300
0.98
279
1.01
309
0.26
278
0.24
301
0.24
256
0.23
270
0.23
240
0.28
279
AnyNet_C32two views1.27
359
0.72
357
3.33
389
0.59
329
0.56
348
1.51
357
1.53
387
1.27
302
1.28
330
1.52
351
1.48
330
1.38
339
1.23
347
1.64
357
5.26
397
0.30
309
0.29
326
0.29
307
0.34
338
0.38
323
0.44
346
CSANtwo views0.88
321
0.52
322
0.93
305
0.61
335
0.42
308
1.19
337
1.11
364
1.27
302
1.48
354
1.37
345
1.44
323
1.37
335
1.30
351
1.46
348
1.01
309
0.39
349
0.31
338
0.36
333
0.37
343
0.35
314
0.36
315
MFN_U_SF_DS_RVCtwo views1.06
340
0.61
346
1.82
372
0.69
356
0.51
340
2.62
383
1.69
394
1.28
307
1.44
349
1.39
348
1.56
336
1.34
331
0.91
312
1.68
360
0.95
300
0.38
348
0.39
362
0.46
355
0.61
378
0.41
331
0.43
342
DeepPrunerFtwo views0.93
324
0.55
336
3.88
390
0.70
359
0.81
370
0.72
240
0.74
330
1.28
307
1.97
374
0.95
258
1.02
217
0.87
238
0.85
296
1.16
311
1.07
324
0.35
337
0.29
326
0.43
349
0.40
351
0.31
292
0.33
307
RYNettwo views0.76
299
0.37
277
0.74
265
0.54
310
0.67
365
1.35
345
0.68
314
1.28
307
1.21
322
1.10
318
0.90
163
1.31
321
0.94
319
1.01
289
1.30
339
0.22
241
0.16
211
0.27
289
0.23
270
0.43
337
0.45
348
NaN_ROBtwo views0.73
287
0.46
311
0.89
301
0.52
294
0.34
265
0.98
303
1.11
364
1.28
307
1.20
320
1.27
340
0.96
188
1.08
295
0.79
279
1.34
336
0.78
263
0.24
261
0.30
330
0.23
243
0.24
284
0.23
240
0.26
262
CSP-Nettwo views0.57
239
0.29
229
0.55
180
0.42
129
0.29
198
1.20
338
0.49
258
1.29
311
0.75
134
0.98
276
0.97
195
0.88
241
0.69
238
0.85
236
0.66
242
0.27
287
0.18
246
0.17
85
0.17
157
0.18
151
0.19
165
HSMtwo views0.53
216
0.25
167
0.46
91
0.40
86
0.25
101
0.74
245
0.44
231
1.29
311
0.78
142
0.82
183
0.92
175
1.21
312
0.75
264
0.90
252
0.48
185
0.18
156
0.14
172
0.17
85
0.14
69
0.17
127
0.18
156
LMCR-Stereopermissivemany views0.55
226
0.33
258
0.57
191
0.60
331
0.30
217
0.80
263
0.36
145
1.30
313
0.79
148
0.90
238
1.04
231
0.57
99
0.64
211
0.87
240
0.73
256
0.20
210
0.15
190
0.19
147
0.14
69
0.25
257
0.18
156
GEStereo_RVCtwo views0.56
235
0.30
243
0.70
248
0.51
280
0.31
227
0.70
234
0.54
279
1.31
314
0.93
221
0.85
204
0.86
149
0.84
228
0.63
204
0.92
256
0.67
245
0.24
261
0.16
211
0.19
147
0.17
157
0.21
208
0.23
242
test_xeamplepermissivetwo views1.06
340
0.23
120
0.51
139
0.37
35
0.22
30
0.71
237
0.39
183
1.31
314
0.92
220
0.87
216
1.08
248
0.70
172
0.64
211
0.75
192
11.43
409
0.19
191
0.16
211
0.18
116
0.17
157
0.18
151
0.19
165
S-Stereotwo views0.76
299
0.36
275
1.10
323
0.57
322
0.46
331
0.83
274
0.59
298
1.31
314
1.62
363
0.98
276
1.41
316
1.11
303
0.93
316
0.85
236
1.07
324
0.27
287
0.31
338
0.28
299
0.25
295
0.33
302
0.50
359
ADCMidtwo views1.22
354
0.57
339
3.17
387
0.54
310
0.44
316
1.07
319
0.77
334
1.31
314
1.13
301
2.14
378
1.48
330
1.49
348
1.47
363
1.65
358
5.30
399
0.26
278
0.24
301
0.29
307
0.32
330
0.38
323
0.36
315
HSM-Net_RVCpermissivetwo views0.55
226
0.23
120
0.37
27
0.38
44
0.22
30
0.86
282
0.40
193
1.31
314
0.93
221
0.92
246
1.15
266
1.26
316
0.71
248
0.75
192
0.53
209
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
134
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
1111xtwo views0.64
274
0.23
120
0.61
207
0.39
60
0.21
25
0.68
232
0.46
238
1.32
319
1.03
266
0.76
155
1.02
217
0.95
260
0.72
255
1.13
305
2.15
371
0.18
156
0.18
246
0.18
116
0.19
207
0.20
199
0.19
165
ADCP+two views1.18
353
0.37
277
3.09
385
0.50
268
0.52
342
1.48
353
0.61
302
1.32
319
1.07
283
1.21
330
1.16
269
1.08
295
1.11
336
1.63
356
7.17
403
0.20
210
0.16
211
0.24
256
0.22
261
0.29
281
0.22
223
DISCOtwo views0.72
286
0.27
207
0.72
257
0.45
199
0.31
227
1.12
326
0.53
273
1.32
319
1.25
325
0.84
194
1.07
242
1.52
353
0.87
303
1.82
367
1.08
326
0.20
210
0.15
190
0.18
116
0.16
115
0.24
248
0.24
250
anonymitytwo views0.98
334
0.89
368
1.06
322
0.93
373
1.04
382
0.97
299
0.82
342
1.33
322
0.93
221
1.08
311
0.98
198
1.02
277
0.95
321
1.02
292
0.93
295
0.96
383
0.96
403
0.90
378
0.91
388
0.92
376
0.95
381
pcwnet_v2two views0.60
261
0.29
229
0.89
301
0.46
222
0.36
275
0.62
195
0.38
170
1.33
322
1.24
323
1.02
287
1.27
294
0.71
173
0.59
190
0.71
181
0.51
196
0.28
295
0.21
277
0.24
256
0.23
270
0.29
281
0.30
288
edge stereotwo views0.79
302
0.40
293
0.82
281
0.52
294
0.44
316
0.83
274
0.58
295
1.34
324
1.08
288
1.30
341
1.38
312
1.79
363
1.13
340
1.15
310
0.92
293
0.34
332
0.32
344
0.42
348
0.28
313
0.33
302
0.39
324
Consistency-Rafttwo views1.01
338
0.82
362
1.27
338
0.85
370
0.97
376
0.81
268
0.83
344
1.35
325
1.61
362
1.06
309
1.66
342
1.11
303
0.93
316
0.93
259
1.11
327
0.65
374
0.75
390
0.79
375
0.91
388
1.09
381
0.79
376
DGSMNettwo views0.80
303
0.58
342
1.42
352
0.61
335
0.65
362
0.94
294
0.75
332
1.35
325
1.16
310
0.88
224
1.26
290
1.00
271
0.75
264
1.07
297
0.89
283
0.36
339
0.31
338
0.41
347
0.40
351
0.60
368
0.59
371
RGCtwo views0.82
306
0.62
347
0.80
275
0.67
350
0.66
364
0.91
290
0.59
298
1.35
325
1.09
294
1.12
322
1.46
327
1.50
349
1.09
334
1.28
326
0.97
305
0.34
332
0.30
330
0.48
359
0.40
351
0.38
323
0.38
323
LSMtwo views4.83
405
0.83
365
11.23
407
0.76
367
56.73
429
1.10
321
1.18
370
1.35
325
1.70
368
2.13
375
2.34
367
1.34
331
1.19
344
1.52
351
1.23
336
0.34
332
0.50
378
0.39
343
0.47
361
0.51
355
9.82
416
CoDeXtwo views0.48
170
0.21
74
0.53
165
0.43
166
0.25
101
0.74
245
0.38
170
1.36
329
0.82
170
0.84
194
0.96
188
0.63
138
0.57
183
0.63
125
0.40
147
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
ADCLtwo views1.10
344
0.42
301
1.57
360
0.51
280
0.41
299
1.71
368
0.92
352
1.36
329
1.45
350
1.33
343
1.56
336
1.22
315
1.26
350
1.45
346
5.27
398
0.22
241
0.19
263
0.25
267
0.25
295
0.29
281
0.29
284
Ntrotwo views1.15
349
1.00
375
1.00
317
1.49
387
1.20
385
1.69
367
0.81
340
1.39
331
1.25
325
1.01
283
1.28
295
1.31
321
1.00
325
1.31
332
0.89
283
1.10
388
0.43
371
1.36
384
0.51
371
1.95
388
0.99
384
SFCPSMtwo views0.48
170
0.22
97
0.59
201
0.41
104
0.27
158
0.85
280
0.36
145
1.39
331
0.79
148
0.81
182
0.85
145
0.54
88
0.50
150
0.60
88
0.39
127
0.18
156
0.14
172
0.18
116
0.20
226
0.17
127
0.16
98
FAT-Stereotwo views0.75
296
0.34
263
0.81
280
0.51
280
0.38
282
0.78
251
0.63
307
1.39
331
1.32
337
1.05
301
1.40
314
1.58
358
1.14
341
0.92
256
0.91
291
0.29
302
0.28
324
0.28
299
0.23
270
0.28
279
0.41
335
PWCDC_ROBbinarytwo views0.93
324
0.54
330
0.97
315
0.78
368
0.41
299
1.03
314
0.42
218
1.39
331
2.34
383
1.04
296
3.73
393
0.80
223
1.12
338
1.29
327
1.04
319
0.37
343
0.22
286
0.24
256
0.20
226
0.36
318
0.31
295
Wz-Net-SNSevtwo views0.99
336
0.80
361
3.00
384
0.57
322
0.46
331
0.94
294
1.22
374
1.40
335
1.28
330
1.04
296
1.33
303
1.46
343
0.90
311
2.06
375
1.65
358
0.26
278
0.24
301
0.25
267
0.26
303
0.33
302
0.30
288
FCDSN-DCtwo views1.43
369
0.57
339
0.69
246
0.74
364
0.59
355
1.42
349
0.65
310
1.40
335
1.41
345
3.31
400
4.42
403
4.57
395
3.01
397
1.70
361
1.19
334
0.46
357
0.42
369
0.48
359
0.47
361
0.51
355
0.51
363
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
WZ-Nettwo views1.29
361
0.64
349
5.42
399
0.64
344
0.52
342
1.37
346
1.29
377
1.41
337
1.77
370
1.56
353
1.69
345
1.74
362
1.41
358
2.50
387
2.16
372
0.28
295
0.21
277
0.23
243
0.25
295
0.39
327
0.41
335
222two views1.25
357
0.23
120
0.53
165
0.38
44
0.23
56
0.78
251
0.37
157
1.41
337
0.93
221
0.97
273
1.13
262
0.74
196
0.71
248
0.74
187
14.86
412
0.20
210
0.16
211
0.17
85
0.16
115
0.18
151
0.20
192
xxxxtwo views1.07
342
0.23
120
0.53
165
0.38
44
0.22
30
0.83
274
0.36
145
1.41
337
0.95
232
0.75
150
0.99
207
0.97
264
0.64
211
0.70
176
11.37
408
0.20
210
0.17
237
0.18
116
0.17
157
0.19
184
0.20
192
stereogantwo views0.83
312
0.33
258
0.89
301
0.61
335
0.51
340
1.80
370
0.50
261
1.41
337
1.39
344
1.05
301
1.47
329
1.56
357
1.04
329
1.32
334
0.87
280
0.29
302
0.29
326
0.29
307
0.25
295
0.39
327
0.40
330
XQCtwo views0.97
332
0.70
353
1.54
359
0.70
359
0.55
347
1.48
353
0.81
340
1.41
337
1.57
359
1.21
330
1.12
256
1.33
328
1.04
329
1.55
352
2.00
368
0.39
349
0.25
309
0.37
337
0.32
330
0.55
362
0.49
357
DispFullNettwo views1.64
376
2.64
410
3.14
386
2.57
402
1.78
395
1.32
343
0.55
283
1.42
342
1.45
350
1.89
369
1.48
330
1.55
355
2.35
389
2.08
377
1.12
329
0.60
373
0.19
263
2.33
400
0.73
382
2.35
397
1.30
393
PWC_ROBbinarytwo views0.92
323
0.57
339
1.64
367
0.53
301
0.33
255
0.93
292
0.39
183
1.42
342
1.51
356
1.66
359
2.57
374
1.18
310
1.11
336
1.50
350
1.54
355
0.26
278
0.18
246
0.28
299
0.20
226
0.30
288
0.32
298
ccnettwo views0.84
313
0.59
344
0.86
292
0.56
319
0.60
358
1.11
325
0.72
323
1.44
344
0.97
244
1.15
325
1.44
323
1.28
317
0.95
321
1.01
289
1.33
342
0.49
362
0.43
371
0.50
364
0.47
361
0.52
358
0.48
356
RTSCtwo views0.93
324
0.54
330
1.59
361
0.56
319
0.40
294
1.17
336
0.55
283
1.44
344
1.82
371
1.53
352
1.26
290
1.15
308
0.82
287
1.70
361
2.44
375
0.26
278
0.20
271
0.23
243
0.24
284
0.31
292
0.32
298
MFMNet_retwo views1.17
352
0.99
373
1.31
343
1.02
376
0.95
374
1.32
343
1.32
378
1.44
344
1.58
360
1.72
364
1.70
346
1.21
312
1.57
366
1.16
311
1.04
319
0.88
381
0.76
392
0.79
375
0.75
383
0.90
375
0.94
379
otakutwo views1.10
344
0.96
371
0.96
311
1.37
386
1.06
383
1.65
364
0.72
323
1.46
347
1.19
318
1.10
318
1.32
302
1.32
323
0.95
321
1.29
327
0.81
273
0.89
382
0.46
375
1.24
383
0.50
370
1.86
386
0.89
378
APVNettwo views0.73
287
0.39
285
1.01
318
0.58
327
0.45
323
1.16
332
0.68
314
1.47
348
0.87
190
0.84
194
1.15
266
1.04
283
0.84
292
1.14
307
1.18
332
0.27
287
0.28
324
0.32
322
0.31
327
0.29
281
0.32
298
NVStereoNet_ROBtwo views1.31
363
0.96
371
1.33
345
0.90
372
0.92
371
1.15
330
1.05
361
1.49
349
1.62
363
1.63
356
2.51
372
2.31
374
1.62
368
2.16
380
1.42
346
0.81
379
0.73
386
0.79
375
1.02
392
0.73
370
0.97
382
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SANettwo views1.15
349
0.45
306
1.40
350
0.50
268
0.32
244
1.54
359
1.21
372
1.49
349
3.35
394
1.61
354
2.41
370
2.32
376
1.80
375
1.57
353
1.27
338
0.28
295
0.25
309
0.26
281
0.24
284
0.36
318
0.32
298
SGM+DAISYtwo views1.52
372
0.99
373
1.61
365
1.01
375
1.02
380
1.86
373
1.19
371
1.49
349
1.38
343
2.96
394
3.00
384
2.79
381
1.94
377
1.88
369
1.62
356
0.98
385
0.97
404
0.91
380
0.91
388
0.94
377
0.99
384
StereoDRNettwo views0.67
277
0.35
267
0.82
281
0.53
301
0.44
316
1.03
314
0.53
273
1.51
352
1.06
276
1.13
323
0.91
169
1.07
294
0.74
261
0.87
240
0.95
300
0.24
261
0.19
263
0.25
267
0.23
270
0.27
272
0.22
223
AnyNet_C01two views1.63
375
1.16
380
7.38
403
0.65
346
0.56
348
2.25
379
1.53
387
1.53
353
1.46
352
1.71
363
1.95
357
1.83
364
1.41
358
2.48
385
4.42
395
0.33
325
0.32
344
0.32
322
0.34
338
0.45
341
0.50
359
Syn2CoExtwo views0.74
292
0.55
336
1.17
330
0.66
348
0.45
323
0.89
288
0.56
286
1.54
354
1.15
308
0.95
258
1.35
307
1.03
279
1.03
327
0.96
270
0.89
283
0.31
312
0.27
319
0.29
307
0.24
284
0.23
240
0.27
270
AASNettwo views0.55
226
0.27
207
0.62
212
0.51
280
0.32
244
0.73
241
0.44
231
1.55
355
0.88
200
0.88
224
0.94
180
0.64
145
0.63
204
0.62
116
0.84
276
0.23
255
0.20
271
0.20
176
0.16
115
0.22
226
0.20
192
MSC_U_SF_DS_RVCtwo views1.38
365
0.91
369
2.11
379
0.89
371
0.57
352
4.27
403
1.79
398
1.55
355
2.00
376
1.64
357
1.85
354
1.83
364
1.44
360
1.89
371
1.49
352
0.49
362
0.40
365
0.56
368
0.58
375
0.75
371
0.52
365
RTStwo views2.03
384
1.03
377
11.50
408
0.68
353
0.63
360
2.71
385
1.56
389
1.55
355
2.32
381
1.93
370
2.57
374
1.32
323
1.32
352
5.20
404
4.30
393
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
RTSAtwo views2.03
384
1.03
377
11.50
408
0.68
353
0.63
360
2.71
385
1.56
389
1.55
355
2.32
381
1.93
370
2.57
374
1.32
323
1.32
352
5.20
404
4.30
393
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
DRN-Testtwo views0.68
280
0.34
263
0.77
271
0.52
294
0.40
294
1.14
328
0.61
302
1.56
359
1.04
270
1.18
327
1.10
250
1.05
286
0.72
255
0.82
228
1.01
309
0.24
261
0.18
246
0.26
281
0.25
295
0.26
263
0.23
242
FBW_ROBtwo views0.94
328
0.54
330
1.03
320
0.56
319
0.42
308
1.16
332
0.76
333
1.56
359
1.41
345
1.38
347
1.33
303
1.47
345
1.07
332
2.94
392
1.14
330
0.26
278
0.32
344
0.45
352
0.30
318
0.34
308
0.30
288
SPS-STEREOcopylefttwo views1.29
361
0.94
370
1.10
323
1.05
378
1.03
381
1.48
353
0.91
350
1.57
361
1.24
323
2.13
375
1.90
356
1.94
368
1.46
361
1.77
364
1.64
357
0.97
384
0.94
402
0.90
378
0.89
387
0.96
378
0.97
382
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
Wz-Net-TNSevtwo views1.23
356
1.24
382
5.25
398
0.51
280
0.43
311
1.49
356
1.09
363
1.58
362
1.42
347
1.25
337
1.26
290
1.58
358
1.52
365
1.97
372
1.95
364
0.33
325
0.32
344
0.26
281
0.30
318
0.41
331
0.43
342
ACVNet-4btwo views1.43
369
1.34
385
1.28
339
1.95
394
1.60
389
1.93
374
0.77
334
1.59
363
1.64
365
1.05
301
1.60
340
2.10
371
0.92
314
1.79
366
0.84
276
1.76
396
0.35
354
2.03
395
0.67
379
2.16
393
1.18
388
iResNet_ROBtwo views0.55
226
0.24
139
0.61
207
0.38
44
0.22
30
0.66
219
0.30
69
1.59
363
1.33
339
0.94
253
1.05
234
0.81
225
0.69
238
0.84
234
0.46
173
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
192
NCC-stereotwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
323
1.60
365
1.12
296
0.95
258
1.41
316
1.37
335
1.37
356
1.26
323
0.94
297
0.32
317
0.30
330
0.37
337
0.49
368
0.34
308
0.35
312
Abc-Nettwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
323
1.60
365
1.12
296
0.95
258
1.41
316
1.37
335
1.37
356
1.26
323
0.94
297
0.32
317
0.30
330
0.37
337
0.49
368
0.34
308
0.35
312
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
SGM_RVCbinarytwo views1.04
339
0.30
243
0.47
102
0.41
104
0.23
56
1.73
369
0.77
334
1.63
367
1.30
335
2.39
383
1.99
359
2.64
379
1.78
374
2.22
381
1.40
345
0.28
295
0.27
319
0.27
289
0.25
295
0.25
257
0.25
257
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SAMSARAtwo views1.15
349
0.69
352
1.44
354
1.09
379
0.93
372
2.10
377
1.87
401
1.64
368
1.47
353
1.64
357
1.21
281
2.06
370
1.14
341
1.61
354
1.50
353
0.39
349
0.45
373
0.36
333
0.38
346
0.50
352
0.51
363
AF-Nettwo views0.85
318
0.41
297
0.87
297
0.66
348
0.54
346
0.96
298
0.52
270
1.66
369
1.37
341
1.03
290
2.04
362
1.46
343
1.36
354
1.19
315
1.05
321
0.34
332
0.24
301
0.39
343
0.28
313
0.31
292
0.26
262
RainbowNettwo views1.42
368
1.53
391
1.31
343
1.93
393
1.46
387
1.52
358
1.03
360
1.67
370
1.55
357
1.23
334
1.59
339
1.54
354
1.21
345
1.40
338
1.03
314
1.70
394
0.70
385
1.82
389
0.80
385
2.11
392
1.22
389
MDST_ROBtwo views0.97
332
0.29
229
1.02
319
0.64
344
0.43
311
2.64
384
0.82
342
1.68
371
1.18
317
2.89
390
1.82
352
0.97
264
0.75
264
1.83
368
0.89
283
0.26
278
0.22
286
0.32
322
0.28
313
0.26
263
0.26
262
ADCStwo views1.60
374
0.70
353
4.02
392
0.61
335
0.53
344
1.31
342
1.11
364
1.71
372
1.86
373
1.97
373
1.68
343
1.51
351
1.46
361
2.07
376
9.20
406
0.34
332
0.32
344
0.33
327
0.36
341
0.45
341
0.46
352
Nwc_Nettwo views0.82
306
0.40
293
0.86
292
0.62
339
0.56
348
1.04
316
0.57
288
1.72
373
1.08
288
0.93
249
1.88
355
1.44
341
1.24
348
1.19
315
0.94
297
0.31
312
0.25
309
0.36
333
0.39
348
0.31
292
0.31
295
PDISCO_ROBtwo views0.96
330
0.51
320
1.13
326
1.03
377
1.00
379
1.81
371
0.77
334
1.72
373
1.60
361
1.09
315
1.19
279
1.34
331
0.80
283
1.62
355
1.01
309
0.58
372
0.22
286
0.45
352
0.40
351
0.50
352
0.41
335
iRaft-Stereo_20wtwo views0.42
123
0.20
54
0.63
216
0.39
60
0.27
158
0.33
66
0.25
30
1.76
375
0.37
14
0.73
140
0.53
41
0.63
138
0.42
116
0.86
238
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
FC-DCNNcopylefttwo views1.67
377
0.53
324
0.68
238
0.62
339
0.49
335
1.62
362
0.71
319
1.77
376
1.55
357
4.73
407
4.66
405
5.82
404
3.94
402
2.13
379
1.42
346
0.47
360
0.42
369
0.47
356
0.46
360
0.48
347
0.47
354
SHDtwo views0.98
334
0.54
330
1.30
342
0.63
341
0.50
338
1.14
328
0.50
261
1.80
377
2.20
378
1.66
359
1.39
313
1.47
345
1.21
345
1.40
338
1.80
361
0.32
317
0.27
319
0.32
322
0.34
338
0.41
331
0.44
346
MFN_U_SF_RVCtwo views1.14
348
0.63
348
2.33
381
0.69
356
0.46
331
2.04
375
0.70
317
1.90
378
1.37
341
1.62
355
1.56
336
1.94
368
1.36
354
1.73
363
1.90
363
0.41
354
0.38
358
0.45
352
0.48
365
0.45
341
0.47
354
LE_ROBtwo views4.86
406
0.27
207
9.43
405
0.45
199
0.24
77
1.61
361
0.96
357
2.05
379
17.75
419
16.36
421
4.84
406
5.17
401
19.48
421
2.05
374
15.49
413
0.17
125
0.15
190
0.16
57
0.16
115
0.20
199
0.19
165
MeshStereopermissivetwo views1.38
365
0.45
306
0.58
193
0.45
199
0.35
270
1.63
363
0.60
300
2.07
380
1.43
348
4.49
405
3.32
389
4.67
396
2.08
383
2.08
377
1.32
341
0.36
339
0.36
356
0.37
337
0.32
330
0.32
298
0.34
309
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ACVNet_1two views1.55
373
1.36
386
1.35
347
1.96
395
1.63
390
1.83
372
0.96
357
2.09
381
1.85
372
1.43
349
1.54
334
2.31
374
1.68
371
1.42
342
1.18
332
1.76
396
0.51
379
2.05
397
0.59
376
2.24
396
1.30
393
ELAS_RVCcopylefttwo views1.76
379
0.64
349
1.20
331
0.74
364
0.59
355
2.18
378
2.53
406
2.10
382
2.85
389
3.46
401
3.41
392
3.12
386
4.11
403
2.69
390
2.53
380
0.54
370
0.47
376
0.51
366
0.48
365
0.55
362
0.55
368
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PVDtwo views1.34
364
0.70
353
1.42
352
0.78
368
0.65
362
1.68
366
0.91
350
2.12
383
3.01
390
2.25
380
2.35
369
1.90
367
1.99
381
1.98
373
2.14
370
0.40
353
0.38
358
0.49
362
0.37
343
0.51
355
0.67
372
PWCKtwo views2.06
386
1.75
399
4.11
394
1.69
388
0.93
372
3.13
396
2.86
408
2.18
384
2.41
384
2.38
382
2.33
366
2.22
372
1.85
376
3.52
396
2.20
373
1.65
393
0.73
386
1.52
386
0.83
386
1.81
385
1.02
387
MADNet+two views2.28
391
2.56
407
10.82
406
1.25
383
0.96
375
2.77
389
1.44
386
2.34
385
1.76
369
1.36
344
1.78
351
1.84
366
1.74
373
6.33
407
4.57
396
0.67
375
0.66
384
0.59
371
0.54
374
0.84
373
0.81
377
ACVNet_2two views1.74
378
1.30
384
1.62
366
1.81
390
1.63
390
2.28
380
1.34
380
2.35
386
2.64
386
1.82
366
2.55
373
2.99
383
1.71
372
1.67
359
1.20
335
1.48
392
0.59
383
1.81
388
0.71
381
2.09
391
1.29
392
DPSNettwo views1.08
343
0.44
305
2.64
383
0.54
310
0.42
308
1.59
360
1.25
375
2.39
387
1.50
355
1.13
323
1.12
256
1.51
351
2.19
387
1.44
345
1.51
354
0.35
337
0.25
309
0.25
267
0.21
243
0.49
350
0.39
324
ELAScopylefttwo views1.77
380
0.64
349
1.10
323
0.72
362
0.58
353
3.37
398
1.76
396
2.54
388
2.57
385
3.77
403
3.96
398
2.83
382
3.44
400
2.34
384
2.73
382
0.53
367
0.47
376
0.50
364
0.48
365
0.55
362
0.55
368
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
JetBluetwo views3.02
396
1.39
387
7.91
404
1.17
381
1.49
388
8.53
409
7.94
411
2.82
389
1.98
375
2.15
379
2.69
379
3.32
390
3.01
397
6.66
408
3.81
390
0.79
377
0.78
393
0.75
374
0.76
384
1.04
379
1.33
395
LVEtwo views2.20
390
1.47
389
1.44
354
2.06
396
1.80
396
2.79
390
1.77
397
2.96
390
3.94
400
1.95
372
4.29
402
3.47
392
1.97
378
2.48
385
1.85
362
2.06
398
0.88
397
2.06
398
1.13
399
2.17
394
1.53
398
IMH-64-1two views1.96
381
1.64
396
1.26
335
2.26
399
1.91
398
2.30
381
1.35
381
2.99
391
2.29
379
1.70
361
2.79
381
2.47
377
1.66
369
2.33
382
1.95
364
2.07
399
0.74
388
2.44
401
1.04
394
2.40
398
1.59
399
IMH-64two views1.96
381
1.64
396
1.26
335
2.26
399
1.91
398
2.30
381
1.35
381
2.99
391
2.29
379
1.70
361
2.79
381
2.47
377
1.66
369
2.33
382
1.95
364
2.07
399
0.74
388
2.44
401
1.04
394
2.40
398
1.59
399
WAO-6two views2.11
388
1.52
390
1.25
334
1.73
389
1.69
394
2.72
387
1.62
391
3.15
393
3.64
395
2.01
374
3.28
387
3.52
393
2.20
388
2.59
388
2.48
378
1.31
391
0.92
398
2.04
396
1.22
403
1.89
387
1.35
397
IMHtwo views2.15
389
1.66
398
1.29
340
2.25
398
1.92
400
2.87
391
1.33
379
3.25
394
3.04
391
1.87
368
3.33
391
3.00
384
2.03
382
2.80
391
1.95
364
2.09
401
0.78
393
2.45
403
1.05
397
2.44
400
1.62
401
WAO-7two views1.96
381
1.24
382
1.52
356
1.28
384
1.06
383
2.92
393
1.64
392
3.32
395
3.05
392
2.28
381
3.32
389
3.19
388
2.38
390
3.39
394
2.49
379
1.02
386
0.92
398
1.06
382
1.04
394
1.05
380
0.99
384
DPSimNet_ROBtwo views5.19
407
2.71
411
18.56
412
2.59
403
2.49
405
4.25
402
10.93
412
3.33
396
3.93
399
5.02
408
4.52
404
5.74
402
10.18
409
5.44
406
8.79
405
2.40
405
2.47
411
2.48
404
2.54
410
2.56
402
2.87
410
notakertwo views2.87
393
2.31
406
2.01
376
3.03
408
2.60
409
2.94
394
1.82
399
3.43
397
3.06
393
2.89
390
4.21
401
6.15
407
2.71
392
3.42
395
2.90
383
2.67
409
1.18
406
3.00
411
1.67
407
3.13
407
2.26
406
KSHMRtwo views2.64
392
1.96
402
1.86
374
2.69
406
2.44
404
2.88
392
2.04
402
3.46
398
6.31
404
2.51
386
3.27
386
3.39
391
1.97
378
2.59
388
2.08
369
2.48
406
1.41
408
2.80
410
1.51
406
2.98
406
2.09
404
Deantwo views2.07
387
1.39
387
1.69
371
2.17
397
1.83
397
2.75
388
1.28
376
3.49
399
3.80
398
2.13
375
3.30
388
3.18
387
1.98
380
1.78
365
1.72
359
1.73
395
0.79
396
1.99
391
0.91
388
2.17
394
1.34
396
UNDER WATERtwo views3.63
399
2.12
404
4.11
394
3.17
409
2.51
406
3.77
401
2.45
405
3.53
400
13.66
412
2.98
395
2.92
383
5.75
403
4.13
404
3.85
400
3.75
389
2.84
410
1.11
405
2.71
408
1.41
404
3.26
410
2.50
408
UNDER WATER-64two views3.72
400
2.07
403
4.57
396
3.30
411
2.52
407
5.61
407
2.63
407
3.67
401
12.27
408
3.09
397
2.66
378
5.99
406
4.74
406
3.93
401
3.57
387
2.54
407
1.24
407
2.65
406
1.48
405
3.21
409
2.62
409
ktntwo views3.02
396
2.27
405
1.85
373
2.89
407
2.54
408
3.72
399
2.14
403
3.79
402
5.33
402
2.82
389
5.09
407
5.95
405
2.54
391
3.34
393
2.58
381
2.65
408
1.44
409
2.78
409
2.03
409
2.61
403
2.10
405
MADNet++two views4.18
401
2.72
412
4.00
391
3.80
413
3.44
412
4.72
404
4.05
410
4.01
403
3.74
396
4.52
406
5.14
408
4.20
394
4.89
407
7.04
410
6.39
400
3.79
411
3.70
414
3.27
413
2.70
412
3.68
412
3.74
414
SGM-ForestMtwo views4.73
403
0.34
263
1.05
321
0.46
222
0.28
179
10.26
410
3.48
409
4.52
404
5.16
401
8.68
412
7.48
410
18.87
419
10.80
411
11.26
414
10.01
407
0.32
317
0.34
352
0.32
322
0.32
330
0.29
281
0.30
288
JetRedtwo views5.38
408
6.17
414
12.68
411
2.38
401
2.85
410
12.60
415
11.17
413
4.60
405
3.74
396
3.87
404
3.85
395
4.83
397
4.13
404
6.81
409
12.18
410
2.18
402
2.95
413
2.19
399
1.98
408
3.49
411
3.01
411
WAO-8two views3.00
394
1.60
393
1.52
356
1.82
391
1.65
392
5.57
405
1.35
381
4.65
406
12.37
409
2.89
390
4.04
399
4.89
399
2.78
393
3.73
398
2.44
375
1.29
389
0.93
400
2.00
392
1.16
401
2.02
389
1.23
390
Venustwo views3.00
394
1.60
393
1.52
356
1.82
391
1.65
392
5.57
405
1.35
381
4.65
406
12.37
409
2.89
390
4.04
399
4.89
399
2.78
393
3.73
398
2.44
375
1.29
389
0.93
400
2.00
392
1.16
401
2.02
389
1.23
390
TorneroNet-64two views3.54
398
1.89
400
1.59
361
2.62
405
2.29
402
6.88
408
1.72
395
4.72
408
11.88
407
2.43
384
5.46
409
8.16
409
2.80
395
4.13
402
3.03
384
2.25
404
0.75
390
2.57
405
1.09
398
2.65
404
1.84
403
TorneroNettwo views4.49
402
1.92
401
1.65
369
2.60
404
2.29
402
14.95
416
1.86
400
4.86
409
19.56
423
3.10
398
7.52
411
7.00
408
2.90
396
4.48
403
3.66
388
2.24
403
0.78
393
2.68
407
1.14
400
2.79
405
1.80
402
HanzoNettwo views6.97
411
2.57
408
4.66
397
3.29
410
2.96
411
3.75
400
2.35
404
5.08
410
7.11
405
14.46
420
13.06
413
17.69
417
22.95
423
13.72
415
6.61
401
4.36
413
1.96
410
3.14
412
2.59
411
3.88
413
3.19
412
PMLtwo views40.49
434
30.31
423
12.46
410
7.19
415
14.30
414
91.44
434
212.44
435
7.73
411
23.24
424
74.44
434
185.05
435
49.81
434
25.78
424
21.34
419
12.84
411
8.71
418
2.93
412
8.43
418
3.24
413
13.77
419
4.45
415
MANEtwo views4.73
403
0.54
330
0.77
271
0.69
356
0.60
358
10.35
411
1.67
393
8.68
412
12.66
411
6.90
411
9.43
412
11.59
413
10.59
410
8.26
411
8.41
404
0.51
365
0.45
373
0.48
359
1.02
392
0.50
352
0.50
359
DGTPSM_ROBtwo views12.12
413
8.03
415
21.12
413
8.97
416
16.81
415
10.68
412
30.77
419
9.14
413
15.23
414
6.55
409
15.49
420
9.02
410
15.13
413
9.26
412
21.71
417
4.58
414
8.60
416
5.07
415
9.26
417
5.88
415
11.06
417
DPSMNet_ROBtwo views12.13
414
8.03
415
21.13
414
9.02
417
16.82
416
10.68
412
30.78
420
9.15
414
15.24
415
6.56
410
15.50
421
9.02
410
15.13
413
9.28
413
21.71
417
4.59
415
8.60
416
5.08
416
9.26
417
5.89
416
11.06
417
tttwo views6.21
409
0.22
97
5.88
400
3.55
412
2.07
401
11.25
414
19.19
415
11.84
415
5.47
403
2.71
388
2.18
364
4.87
398
6.25
408
3.71
397
7.09
402
8.31
417
11.17
421
4.91
414
5.39
416
5.72
414
2.42
407
BEATNet-Init1two views15.65
415
1.62
395
54.26
432
0.75
366
0.56
348
37.03
426
13.39
414
13.20
416
14.59
413
29.41
430
29.29
430
47.69
433
21.87
422
26.91
424
19.58
415
0.43
356
0.39
362
0.47
356
0.47
361
0.52
358
0.52
365
DLNR_Zeroshot_testpermissivetwo views20.12
418
36.36
425
38.38
423
170.13
434
62.28
430
0.22
4
0.20
1
13.43
417
0.40
29
0.45
39
0.66
72
0.42
45
0.21
5
0.64
132
0.32
63
5.57
416
0.10
8
0.15
41
0.11
15
72.31
433
0.13
31
xxxxx1two views36.77
428
19.69
420
24.00
417
62.46
431
66.77
431
27.30
422
39.89
424
20.40
418
18.80
420
14.18
417
13.11
414
17.29
414
17.30
418
21.62
420
27.81
422
13.61
421
18.98
429
111.36
432
133.25
432
28.84
426
38.64
429
tt_lltwo views36.77
428
19.69
420
24.00
417
62.46
431
66.77
431
27.30
422
39.89
424
20.40
418
18.80
420
14.18
417
13.11
414
17.29
414
17.30
418
21.62
420
27.81
422
13.61
421
18.98
429
111.36
432
133.25
432
28.84
426
38.64
429
fftwo views36.77
428
19.69
420
24.00
417
62.46
431
66.77
431
27.30
422
39.89
424
20.40
418
18.80
420
14.18
417
13.11
414
17.29
414
17.30
418
21.62
420
27.81
422
13.61
421
18.98
429
111.36
432
133.25
432
28.84
426
38.64
429
LRCNet_RVCtwo views21.27
419
31.14
424
21.46
415
28.97
422
23.77
420
3.11
395
0.62
304
20.94
421
1.64
365
25.57
422
28.13
423
21.96
422
14.74
412
21.99
423
16.44
414
29.16
431
14.92
422
33.57
427
31.28
427
29.67
429
26.33
427
HaxPigtwo views31.93
421
37.19
426
34.22
422
24.41
421
24.94
421
18.53
417
20.18
416
21.15
422
28.84
425
35.74
431
38.86
431
26.18
423
28.75
425
33.85
425
34.15
425
35.89
432
38.80
432
37.79
428
40.52
428
39.33
430
39.33
432
DPSM_ROBtwo views17.80
416
18.60
418
24.24
420
20.89
419
19.49
417
25.83
419
36.10
422
21.62
423
16.41
417
13.46
415
14.26
418
19.11
420
16.15
416
20.74
417
25.59
420
9.37
419
9.23
419
9.47
419
9.81
419
13.47
417
12.09
420
DPSMtwo views17.80
416
18.60
418
24.24
420
20.89
419
19.49
417
25.83
419
36.10
422
21.62
423
16.41
417
13.46
415
14.26
418
19.11
420
16.15
416
20.74
417
25.59
420
9.37
419
9.23
419
9.47
419
9.81
419
13.47
417
12.09
420
Anonymous_1two views33.12
422
18.23
417
23.86
416
20.53
418
21.18
419
25.45
418
35.84
421
22.44
425
15.68
416
13.41
414
13.70
417
18.00
418
15.15
415
20.31
416
24.47
419
14.56
424
8.84
418
66.24
431
117.79
431
155.41
434
11.40
419
MEDIAN_ROBtwo views37.35
431
40.72
434
40.37
425
32.26
423
31.80
422
27.29
421
25.02
417
29.47
426
33.43
433
41.99
433
41.60
433
33.48
424
34.37
433
39.66
427
36.94
426
43.49
434
43.96
434
44.07
430
43.35
430
41.32
432
42.43
434
AVERAGE_ROBtwo views37.53
432
40.05
433
40.01
424
34.74
424
33.76
423
28.46
425
25.14
418
32.31
427
34.08
434
41.20
432
40.52
432
34.51
425
34.78
434
39.11
426
37.48
427
42.68
433
43.32
433
43.80
429
42.99
429
40.42
431
41.31
433
MyStereo03two views35.83
424
37.48
429
48.64
428
42.37
427
39.41
426
51.98
429
72.91
429
43.07
428
33.07
429
27.20
426
28.81
427
38.36
426
32.60
427
41.58
428
51.47
430
18.74
426
18.61
426
19.07
421
19.77
423
27.10
420
24.35
423
MyStereo02two views35.83
424
37.48
429
48.64
428
42.37
427
39.41
426
51.98
429
72.91
429
43.07
428
33.07
429
27.20
426
28.81
427
38.36
426
32.60
427
41.58
428
51.47
430
18.74
426
18.61
426
19.07
421
19.77
423
27.10
420
24.35
423
MyStereotwo views35.83
424
37.48
429
48.64
428
42.37
427
39.41
426
51.98
429
72.91
429
43.07
428
33.07
429
27.20
426
28.81
427
38.36
426
32.60
427
41.58
428
51.47
430
18.74
426
18.61
426
19.07
421
19.77
423
27.10
420
24.35
423
CasAABBNettwo views35.77
423
37.38
427
48.59
427
42.20
425
39.23
424
51.95
428
72.92
432
43.36
431
33.03
428
26.93
423
28.31
424
38.43
429
32.32
426
41.58
428
51.50
433
18.71
425
18.58
424
19.11
425
19.75
422
27.11
423
24.33
422
Selective-RAFT-Errortwo views35.87
427
37.42
428
48.73
431
42.24
426
39.28
425
52.00
432
72.87
428
43.41
432
32.95
427
26.97
424
28.72
425
38.71
431
33.15
431
41.59
432
51.42
429
18.77
429
18.60
425
19.14
426
19.78
426
27.19
424
24.42
426
LSM0two views38.96
433
37.52
432
48.37
426
43.79
430
91.31
434
52.31
433
72.38
427
43.71
433
32.75
426
27.16
425
28.73
426
38.51
430
32.63
430
41.75
433
51.59
434
18.85
430
18.43
423
19.09
424
19.60
421
27.21
425
33.44
428
SPstereotwo views24.33
420
4.45
413
7.15
402
4.44
414
4.17
413
45.69
427
77.93
433
63.66
434
33.40
432
27.58
429
26.62
422
39.42
432
33.37
432
42.68
434
50.66
428
4.01
412
3.77
415
6.06
417
4.73
414
3.17
408
3.55
413
test_example2two views176.82
435
204.75
435
198.54
435
188.58
435
191.23
435
151.28
435
169.77
434
97.63
435
125.81
435
179.94
435
183.74
434
158.20
435
139.14
435
192.16
435
198.12
435
203.48
435
236.37
435
163.71
435
173.22
435
217.79
435
162.95
435