This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
22
0.18
1
0.62
117
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
130
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
40
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
258
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
46
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
46
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
269
0.30
218
0.19
1
0.31
88
0.52
13
0.41
34
0.25
1
0.28
4
0.46
65
0.31
54
0.39
8
0.30
48
0.15
67
0.15
191
0.16
57
0.13
49
0.17
127
0.16
98
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
159
0.38
91
0.34
117
0.66
56
0.35
6
0.39
21
0.31
6
0.35
26
0.27
22
0.62
117
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
rrrtwo views0.31
23
0.24
139
0.56
185
0.36
27
0.27
159
0.38
91
0.31
88
0.56
24
0.44
43
0.39
21
0.31
6
0.35
26
0.27
22
0.62
117
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
219
0.62
37
0.41
34
0.33
11
0.31
6
0.32
14
0.28
27
0.60
89
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
test_xeample3two views0.31
23
0.23
120
0.56
185
0.36
27
0.26
130
0.35
74
0.32
100
0.60
31
0.38
17
0.44
39
0.32
9
0.33
19
0.28
27
0.66
147
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
45
0.26
130
0.31
51
0.35
139
0.68
72
0.36
11
0.40
29
0.33
10
0.32
14
0.28
27
0.62
117
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
45
0.26
130
0.30
39
0.35
139
0.68
72
0.36
11
0.40
29
0.33
10
0.32
14
0.28
27
0.62
117
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
167
0.29
199
0.40
101
0.48
249
0.78
144
0.38
17
0.38
18
0.34
16
0.32
14
0.30
51
0.63
126
0.28
29
0.14
18
0.13
141
0.19
148
0.17
158
0.18
151
0.17
135
Former-RAFT_DAM_RVCtwo views0.34
35
0.28
220
0.48
115
0.37
35
0.25
101
0.47
133
0.30
69
0.60
31
0.92
220
0.43
37
0.37
17
0.30
6
0.29
41
0.50
49
0.30
48
0.17
125
0.14
172
0.18
116
0.15
90
0.18
151
0.16
98
Selective-RAFTtwo views0.36
43
0.23
120
0.54
178
0.45
200
0.22
30
0.64
209
0.27
42
0.62
37
0.65
93
0.41
31
0.38
18
0.55
91
0.39
103
0.59
79
0.36
99
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
TRStereotwo views0.39
89
0.32
253
0.64
221
0.49
258
0.41
300
0.30
39
0.30
69
0.97
203
0.63
84
0.53
60
0.43
19
0.52
83
0.26
17
0.77
208
0.29
37
0.18
157
0.12
86
0.19
148
0.19
208
0.13
14
0.13
31
Anonymoustwo views0.40
103
0.29
230
0.70
249
0.54
311
0.44
317
0.56
170
0.54
280
0.68
72
0.52
62
0.38
18
0.44
20
0.33
19
0.42
117
0.57
70
0.39
128
0.20
211
0.20
272
0.18
116
0.18
184
0.30
289
0.24
251
test-3two views0.35
37
0.17
8
0.48
115
0.40
87
0.22
30
0.42
117
0.22
11
0.66
56
0.80
153
0.72
134
0.45
21
0.63
139
0.29
41
0.45
25
0.32
64
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
37
0.17
8
0.48
115
0.40
87
0.22
30
0.42
117
0.22
11
0.66
56
0.80
153
0.70
124
0.45
21
0.63
139
0.29
41
0.45
25
0.32
64
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
tt1two views0.37
61
0.25
167
0.35
19
0.43
167
0.23
56
0.52
151
0.37
158
0.72
110
1.13
303
0.42
32
0.46
23
0.35
26
0.44
125
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.16
103
0.17
135
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
87
0.28
180
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
23
0.27
2
0.25
12
0.48
41
0.35
90
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
324
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
23
0.31
7
0.36
79
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
test_3two views0.37
61
0.19
33
0.50
132
0.45
200
0.24
77
0.47
133
0.36
146
0.69
83
0.84
176
0.66
103
0.46
23
0.68
169
0.25
12
0.45
25
0.32
64
0.12
4
0.10
8
0.18
116
0.16
116
0.15
66
0.12
10
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
188
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
27
0.40
40
0.23
7
0.51
51
0.37
107
0.15
67
0.18
247
0.19
148
0.16
116
0.16
103
0.14
49
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
369
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
28
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
299
sAnonymous2two views0.42
124
0.41
298
0.96
312
0.48
249
0.37
278
0.41
110
0.48
249
0.60
31
0.52
62
0.39
21
0.48
28
0.35
26
0.44
125
0.44
22
0.30
48
0.19
192
0.14
172
0.19
148
0.17
158
0.55
363
0.43
344
CroCo_RVCtwo views0.42
124
0.41
298
0.96
312
0.48
249
0.37
278
0.41
110
0.48
249
0.60
31
0.52
62
0.39
21
0.48
28
0.35
26
0.44
125
0.44
22
0.30
48
0.19
192
0.14
172
0.19
148
0.17
158
0.55
363
0.43
344
sCroCo_RVCtwo views0.36
43
0.29
230
0.73
262
0.52
295
0.39
292
0.42
117
0.31
88
0.52
13
0.46
52
0.31
7
0.48
28
0.38
36
0.32
60
0.46
29
0.33
74
0.22
242
0.23
294
0.19
148
0.19
208
0.21
209
0.22
224
ACVNet-DCAtwo views0.36
43
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.91
179
0.59
74
0.42
32
0.50
32
0.34
22
0.47
142
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.18
151
0.19
166
xx1two views0.40
103
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.71
100
1.17
315
0.42
32
0.50
32
0.65
150
0.56
175
0.61
95
0.26
8
0.17
125
0.11
39
0.20
177
0.19
208
0.18
151
0.19
166
1test111two views0.37
61
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.91
179
0.59
74
0.42
32
0.50
32
0.34
22
0.47
142
0.59
79
0.48
186
0.17
125
0.11
39
0.19
148
0.13
49
0.18
151
0.19
166
cc1two views0.38
77
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.71
100
1.17
315
0.42
32
0.50
32
0.34
22
0.47
142
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.16
103
0.17
135
AnonymousMtwo views0.42
124
0.86
369
0.31
10
0.35
12
0.23
56
0.30
39
0.37
158
0.56
24
0.44
43
0.72
134
0.50
32
0.47
69
0.29
41
0.42
18
0.35
90
0.16
99
0.12
86
1.51
387
0.32
331
0.12
2
0.11
3
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
245
0.43
121
0.34
117
0.42
4
0.34
5
0.33
11
0.51
37
0.29
4
0.38
90
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
263
anonymousdsp2two views0.37
61
0.21
74
0.49
123
0.38
45
0.24
77
0.48
138
0.31
88
0.91
179
0.68
103
0.57
66
0.51
37
0.51
80
0.34
71
0.59
79
0.33
74
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
37
0.32
14
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
CAStwo views0.37
61
0.13
1
0.27
7
1.34
388
0.31
228
0.46
131
0.38
171
0.50
11
0.48
56
0.35
15
0.52
40
0.24
1
0.19
3
0.30
1
0.28
29
1.03
389
0.08
1
0.12
2
0.08
1
0.12
2
0.28
280
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
40
0.42
46
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
LL-Strereo2two views0.36
43
0.25
167
0.52
159
0.43
167
0.27
159
0.36
78
0.27
42
0.70
93
0.46
52
0.55
62
0.53
42
0.65
150
0.24
10
0.69
170
0.32
64
0.14
18
0.13
141
0.23
244
0.20
227
0.19
185
0.14
49
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
87
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
103
0.53
42
0.42
46
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
177
0.16
116
0.16
103
0.12
10
iRaft-Stereo_20wtwo views0.42
124
0.20
54
0.63
217
0.39
61
0.27
159
0.33
66
0.25
30
1.76
377
0.37
14
0.73
141
0.53
42
0.63
139
0.42
117
0.86
239
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
MyStereo06two views0.40
103
0.22
97
0.65
226
0.42
130
0.29
199
0.43
121
0.48
249
1.05
229
0.43
41
0.64
95
0.54
45
0.78
214
0.27
22
0.53
54
0.31
58
0.14
18
0.13
141
0.18
116
0.17
158
0.17
127
0.17
135
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
130
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
61
0.54
45
0.39
39
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
230
0.18
184
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
GMStereopermissivetwo views0.40
103
0.38
282
0.61
208
0.41
105
0.27
159
0.47
133
0.35
139
0.62
37
1.04
271
0.57
66
0.54
45
0.38
36
0.36
79
0.56
66
0.41
153
0.20
211
0.13
141
0.16
57
0.17
158
0.24
249
0.20
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
CFNet-RSSMtwo views0.35
37
0.18
14
0.47
102
0.39
61
0.22
30
0.35
74
0.23
20
0.78
144
0.86
186
0.67
110
0.54
45
0.56
97
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
44
0.54
45
0.38
36
0.34
71
0.50
49
0.25
3
0.75
378
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
AE-Stereotwo views0.36
43
0.21
74
0.47
102
0.49
258
0.31
228
0.50
139
0.34
117
0.72
110
0.73
127
0.34
13
0.55
50
0.52
83
0.28
27
0.48
41
0.31
58
0.13
9
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
11t1two views0.38
77
0.23
120
0.49
123
0.36
27
0.23
56
0.61
192
0.31
88
0.74
129
0.47
54
0.62
78
0.55
50
0.55
91
0.49
149
0.58
74
0.45
170
0.18
157
0.15
191
0.16
57
0.13
49
0.17
127
0.19
166
raftrobusttwo views0.35
37
0.20
54
0.39
36
0.43
167
0.29
199
0.31
51
0.25
30
0.73
123
0.66
96
0.59
70
0.56
52
0.44
55
0.45
132
0.55
62
0.31
58
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
IGEV_Zeroshot_testtwo views0.36
43
0.19
33
0.71
252
0.41
105
0.29
199
0.30
39
0.25
30
0.86
166
0.40
29
0.64
95
0.57
53
0.56
97
0.25
12
0.56
66
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
riskmintwo views0.41
117
0.21
74
0.44
79
0.34
9
0.24
77
0.58
184
0.32
100
0.70
93
0.86
186
0.52
54
0.57
53
0.78
214
0.60
194
0.58
74
0.39
128
0.17
125
0.12
86
0.19
148
0.13
49
0.19
185
0.22
224
MyStereo04two views0.45
148
0.23
120
0.52
159
0.43
167
0.29
199
0.40
101
0.48
249
1.02
217
1.12
297
0.62
78
0.58
55
0.55
91
0.56
175
0.77
208
0.45
170
0.14
18
0.13
141
0.19
148
0.17
158
0.18
151
0.17
135
s12784htwo views0.37
61
0.15
2
0.26
4
0.34
9
0.15
1
0.80
264
0.29
57
0.83
159
0.87
190
0.58
69
0.58
55
0.43
52
0.41
112
0.59
79
0.35
90
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
HHtwo views0.37
61
0.22
97
0.49
123
0.41
105
0.26
130
0.36
78
0.30
69
0.87
167
0.41
34
0.45
40
0.59
57
0.78
214
0.43
120
0.77
208
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
61
0.22
97
0.49
123
0.41
105
0.26
130
0.36
78
0.30
69
0.87
167
0.41
34
0.45
40
0.59
57
0.78
214
0.43
120
0.77
208
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
UDGNettwo views0.50
191
0.82
364
0.56
185
0.51
281
0.32
245
0.41
110
0.34
117
0.71
100
0.93
222
0.65
99
0.60
59
0.58
115
0.44
125
0.65
139
0.43
158
0.33
326
0.15
191
0.67
375
0.20
227
0.49
351
0.23
243
MIPNettwo views0.39
89
0.22
97
0.66
228
0.40
87
0.25
101
0.53
154
0.29
57
0.78
144
0.74
132
0.68
117
0.60
59
0.40
40
0.48
145
0.45
25
0.39
128
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
Gwc-CoAtRStwo views0.35
37
0.18
14
0.46
91
0.39
61
0.23
56
0.34
72
0.22
11
0.74
129
0.77
139
0.62
78
0.60
59
0.58
115
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
Anonymous_2two views0.84
314
0.45
307
0.66
228
0.41
105
0.45
324
0.82
272
0.53
274
0.81
153
0.81
162
0.73
141
0.61
62
0.91
255
0.76
274
0.77
208
0.61
233
0.51
366
0.55
382
0.54
369
4.92
417
0.54
361
0.42
340
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
87
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
62
0.41
44
0.31
54
0.57
70
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
MyStereo05two views0.46
153
0.22
97
0.51
140
0.42
130
0.29
199
0.43
121
0.48
249
0.96
201
1.12
297
0.77
164
0.62
64
0.51
80
0.57
184
0.79
218
0.43
158
0.14
18
0.13
141
0.18
116
0.17
158
0.17
127
0.17
135
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
105
0.32
245
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
65
0.37
33
0.36
79
0.60
89
0.32
64
0.17
125
0.13
141
0.19
148
0.17
158
0.18
151
0.15
78
EKT-Stereotwo views0.36
43
0.24
139
0.44
79
0.44
188
0.30
218
0.37
86
0.30
69
0.72
110
0.68
103
0.47
46
0.63
65
0.49
76
0.28
27
0.59
79
0.34
83
0.19
192
0.14
172
0.18
116
0.15
90
0.16
103
0.18
157
NRIStereotwo views0.37
61
0.21
74
0.49
123
0.42
130
0.23
56
0.33
66
0.25
30
0.68
72
0.59
74
0.65
99
0.63
65
0.55
91
0.37
83
0.67
156
0.40
148
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
105
0.22
30
0.32
60
0.22
11
0.65
54
0.45
47
0.52
54
0.64
68
0.60
127
0.19
3
0.78
216
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
OMP-Stereotwo views0.43
136
0.23
120
0.50
132
0.53
302
0.25
101
0.36
78
0.24
23
0.73
123
0.81
162
0.78
175
0.64
68
0.88
242
0.41
112
0.95
268
0.36
99
0.15
67
0.12
86
0.20
177
0.15
90
0.16
103
0.13
31
RCA-Stereotwo views0.36
43
0.18
14
0.37
27
0.38
45
0.23
56
0.31
51
0.33
109
0.70
93
1.25
327
0.45
40
0.65
70
0.46
65
0.43
120
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
Anonymous3two views0.47
162
0.35
268
0.91
305
0.50
269
0.38
283
0.81
269
0.55
284
0.76
136
0.66
96
0.52
54
0.65
70
0.44
55
0.45
132
0.66
147
0.39
128
0.25
274
0.25
310
0.22
230
0.21
244
0.23
241
0.24
251
RALAANettwo views0.40
103
0.24
139
0.56
185
0.43
167
0.30
218
0.36
78
0.25
30
0.89
173
0.69
108
0.69
120
0.65
70
0.61
129
0.30
51
0.63
126
0.35
90
0.16
99
0.13
141
0.18
116
0.15
90
0.21
209
0.14
49
test crocotwo views0.32
26
0.21
74
0.59
202
0.40
87
0.29
199
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
73
0.31
7
0.33
65
0.68
164
0.32
64
0.18
157
0.13
141
0.20
177
0.15
90
0.18
151
0.13
31
DLNR_Zeroshot_testpermissivetwo views20.12
420
36.36
429
38.38
425
170.13
438
62.28
434
0.22
4
0.20
1
13.43
420
0.40
29
0.45
40
0.66
73
0.42
46
0.21
5
0.64
133
0.32
64
5.57
419
0.10
8
0.15
41
0.11
15
72.31
437
0.13
31
ddtwo views0.44
142
0.40
294
0.62
213
0.44
188
0.26
130
0.51
144
0.38
171
0.72
110
1.07
284
0.60
72
0.66
73
0.43
52
0.40
108
0.68
164
0.53
210
0.24
262
0.15
191
0.21
218
0.16
116
0.24
249
0.19
166
rafts_anoytwo views0.38
77
0.22
97
0.38
33
0.43
167
0.28
180
0.32
60
0.32
100
0.70
93
0.91
214
0.59
70
0.66
73
0.45
62
0.33
65
0.49
47
0.41
153
0.16
99
0.12
86
0.21
218
0.23
271
0.18
151
0.16
98
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
87
0.23
56
0.31
51
0.29
57
0.70
93
0.55
66
0.49
49
0.66
73
0.37
33
0.23
7
0.47
34
0.33
74
0.14
18
0.11
39
0.19
148
0.17
158
0.16
103
0.13
31
DeepStereo_RVCtwo views0.37
61
0.22
97
0.51
140
0.41
105
0.24
77
0.26
18
0.22
11
0.64
53
0.40
29
0.69
120
0.67
78
0.57
100
0.50
151
0.58
74
0.42
156
0.17
125
0.12
86
0.18
116
0.16
116
0.19
185
0.19
166
test-1two views0.37
61
0.20
54
0.76
269
0.47
241
0.27
159
0.44
127
0.36
146
0.63
43
0.65
93
0.49
49
0.67
78
0.54
89
0.35
74
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
157
knoymoustwo views0.37
61
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
43
0.65
93
0.69
120
0.69
80
0.60
127
0.40
108
0.61
95
0.36
99
0.17
125
0.11
39
0.20
177
0.12
26
0.18
151
0.19
166
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
165
0.23
20
0.46
6
0.56
67
0.60
72
0.69
80
0.37
33
0.26
17
0.36
4
0.28
29
0.16
99
0.16
212
0.13
8
0.10
10
0.14
36
0.15
78
XX-TBDtwo views0.32
26
0.53
325
0.26
4
0.53
302
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
62
0.70
82
0.31
7
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
qqqtwo views0.42
124
0.28
220
0.50
132
0.37
35
0.22
30
0.47
133
0.39
184
0.91
179
0.59
74
0.57
66
0.71
83
0.65
150
0.56
175
0.59
79
0.48
186
0.17
125
0.17
238
0.20
177
0.19
208
0.18
151
0.19
166
xtwo views0.41
117
0.25
167
0.46
91
0.36
27
0.24
77
0.54
160
0.31
88
0.94
194
0.58
73
0.60
72
0.72
84
0.61
129
0.53
160
0.52
52
0.50
195
0.18
157
0.16
212
0.17
85
0.16
116
0.17
127
0.18
157
GANet-ADLtwo views0.44
142
0.27
207
0.48
115
0.44
188
0.30
218
0.54
160
0.36
146
0.94
194
0.88
200
0.64
95
0.72
84
0.68
169
0.44
125
0.55
62
0.44
165
0.22
242
0.15
191
0.15
41
0.13
49
0.18
151
0.21
209
Any-RAFTtwo views0.36
43
0.17
8
0.31
10
0.35
12
0.21
25
0.51
144
0.21
5
0.93
189
0.75
134
0.56
64
0.73
86
0.66
162
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
Patchmatch Stereo++two views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.21
5
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.31
88
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.59
79
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ROB_FTStereo_v2two views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.31
88
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.60
89
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ROB_FTStereotwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.20
1
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.60
89
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
HUI-Stereotwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.22
11
0.63
43
0.40
29
0.64
95
0.73
86
0.58
115
0.38
90
0.53
54
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
iGMRVCtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.29
57
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
iRAFTtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.21
5
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
CRE-IMPtwo views0.37
61
0.23
120
0.53
166
0.42
130
0.24
77
0.40
101
0.21
5
0.61
35
0.45
47
0.65
99
0.73
86
0.53
87
0.37
83
0.63
126
0.40
148
0.18
157
0.11
39
0.19
148
0.16
116
0.21
209
0.19
166
RAFT-IKPtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.27
42
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
FENettwo views0.43
136
0.23
120
0.40
45
0.40
87
0.24
77
0.54
160
0.33
109
0.83
159
0.72
118
0.74
148
0.73
86
0.63
139
0.56
175
0.65
139
0.45
170
0.19
192
0.13
141
0.19
148
0.17
158
0.18
151
0.20
193
PFNettwo views0.43
136
0.19
33
0.61
208
0.44
188
0.24
77
0.42
117
0.31
88
0.76
136
0.81
162
1.01
285
0.74
97
0.67
166
0.41
112
0.75
193
0.39
128
0.16
99
0.10
8
0.20
177
0.15
90
0.16
103
0.14
49
RALCasStereoNettwo views0.37
61
0.23
120
0.41
50
0.44
188
0.28
180
0.36
78
0.38
171
0.66
56
0.67
102
0.51
52
0.74
97
0.51
80
0.29
41
0.64
133
0.38
120
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
135
Pruner-Stereotwo views0.39
89
0.21
74
0.51
140
0.41
105
0.25
101
0.22
4
0.24
23
0.71
100
0.59
74
0.90
239
0.75
99
0.67
166
0.30
51
0.64
133
0.39
128
0.19
192
0.12
86
0.20
177
0.17
158
0.17
127
0.19
166
ARAFTtwo views0.48
171
0.25
167
0.82
282
0.42
130
0.25
101
0.56
170
0.54
280
0.82
157
0.82
170
0.92
247
0.75
99
0.75
201
0.48
145
0.89
248
0.37
107
0.15
67
0.12
86
0.23
244
0.22
262
0.14
36
0.14
49
EAI-Stereotwo views0.36
43
0.21
74
0.46
91
0.40
87
0.22
30
0.33
66
0.36
146
1.22
286
0.32
3
0.52
54
0.75
99
0.35
26
0.28
27
0.65
139
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
ADStereo(finetuned)two views0.39
89
0.18
14
0.58
194
0.35
12
0.19
8
0.30
39
0.30
69
0.72
110
0.96
240
0.72
134
0.77
102
0.45
62
0.68
237
0.46
29
0.36
99
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
IPLGRtwo views0.40
103
0.22
97
0.70
249
0.40
87
0.22
30
0.51
144
0.29
57
0.78
144
0.78
142
0.80
179
0.77
102
0.44
55
0.41
112
0.48
41
0.40
148
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
NF-Stereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.69
170
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
OCTAStereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.58
115
0.31
54
0.69
170
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
RE-Stereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.70
177
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
TVStereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.70
177
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
200
0.24
77
0.32
60
0.35
139
0.77
141
0.42
38
0.62
78
0.77
102
0.58
115
0.27
22
0.46
29
0.31
58
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
DCANettwo views0.38
77
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
110
0.96
240
0.72
134
0.77
102
0.45
62
0.56
175
0.47
34
0.36
99
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
GwcNet-ADLtwo views0.45
148
0.24
139
0.51
140
0.46
223
0.30
218
0.41
110
0.40
194
0.95
197
0.98
249
0.73
141
0.78
110
0.61
129
0.41
112
0.67
156
0.55
215
0.20
211
0.14
172
0.15
41
0.14
69
0.19
185
0.22
224
RAFT_R40two views0.41
117
0.20
54
0.47
102
0.44
188
0.25
101
0.23
6
0.25
30
0.69
83
0.70
110
0.98
277
0.78
110
0.72
189
0.43
120
0.80
220
0.39
128
0.17
125
0.11
39
0.20
177
0.16
116
0.18
151
0.15
78
TestStereotwo views0.39
89
0.32
253
0.42
58
0.45
200
0.20
18
0.41
110
0.38
171
0.69
83
0.66
96
0.56
64
0.78
110
0.48
72
0.43
120
0.59
79
0.37
107
0.18
157
0.13
141
0.20
177
0.15
90
0.23
241
0.14
49
raft+_RVCtwo views0.38
77
0.20
54
0.38
33
0.39
61
0.27
159
0.44
127
0.35
139
0.81
153
0.90
208
0.52
54
0.78
110
0.50
77
0.29
41
0.56
66
0.41
153
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
LL-Strereotwo views0.58
251
0.29
230
0.83
286
0.48
249
0.35
271
0.39
96
0.48
249
1.04
223
0.99
252
0.87
217
0.79
114
1.08
296
1.15
345
1.35
339
0.51
197
0.18
157
0.15
191
0.22
230
0.19
208
0.17
127
0.21
209
gwcnet-sptwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
scenettwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
ssnettwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
DCANet-4two views0.38
77
0.22
97
0.58
194
0.35
12
0.19
8
0.30
39
0.30
69
0.69
83
0.97
245
0.70
124
0.79
114
0.40
40
0.46
138
0.46
29
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ffftwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
PFNet+two views0.41
117
0.20
54
0.53
166
0.40
87
0.25
101
0.28
31
0.22
11
0.66
56
0.76
137
0.85
205
0.79
114
0.63
139
0.34
71
0.75
193
0.37
107
0.20
211
0.14
172
0.23
244
0.20
227
0.17
127
0.21
209
SST-Stereotwo views0.41
117
0.20
54
0.48
115
0.43
167
0.25
101
0.25
16
0.21
5
0.68
72
0.50
60
1.08
313
0.79
114
0.71
174
0.42
117
0.81
224
0.38
120
0.17
125
0.11
39
0.20
177
0.16
116
0.19
185
0.15
78
csctwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
BUStwo views0.47
162
0.26
195
0.47
102
0.46
223
0.29
199
0.78
252
0.34
117
0.99
208
0.80
153
0.77
164
0.80
124
0.64
146
0.54
164
0.66
147
0.56
217
0.21
226
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
BSDual-CNNtwo views0.48
171
0.26
195
0.47
102
0.46
223
0.29
199
0.75
249
0.46
239
0.99
208
0.80
153
0.77
164
0.80
124
0.76
207
0.59
191
0.66
147
0.48
186
0.21
226
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
hknettwo views0.51
201
0.26
195
0.58
194
0.46
223
0.29
199
0.75
249
0.46
239
0.99
208
0.89
204
0.77
164
0.80
124
0.96
264
0.67
229
0.75
193
0.50
195
0.19
192
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
PSMNet-ADLtwo views0.50
191
0.28
220
0.43
74
0.49
258
0.31
228
0.70
235
0.38
171
0.94
194
0.81
162
0.62
78
0.80
124
0.91
255
0.62
200
0.76
201
0.68
249
0.24
262
0.18
247
0.19
148
0.20
227
0.22
227
0.22
224
IRAFT_RVCtwo views0.43
136
0.20
54
0.52
159
0.45
200
0.24
77
0.26
18
0.51
265
0.76
136
0.78
142
0.77
164
0.80
124
0.73
193
0.50
151
0.74
188
0.39
128
0.18
157
0.10
8
0.21
218
0.17
158
0.17
127
0.15
78
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
46
0.80
124
0.29
4
0.25
12
0.37
5
0.34
83
0.14
18
0.09
2
0.13
8
0.52
375
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
CBFPSMtwo views0.61
265
0.25
167
1.41
352
0.39
61
0.27
159
1.10
322
0.67
313
0.83
159
0.84
176
0.82
184
0.81
130
1.33
330
0.85
297
0.72
186
0.86
280
0.16
99
0.15
191
0.15
41
0.17
158
0.17
127
0.23
243
ssnet_v2two views0.61
265
0.29
230
0.69
247
0.45
200
0.30
218
0.93
293
0.62
305
1.20
277
1.03
267
0.97
274
0.81
130
0.98
267
0.67
229
0.84
235
0.97
307
0.26
279
0.23
294
0.23
244
0.24
285
0.20
200
0.21
209
IPLGtwo views0.40
103
0.21
74
0.64
221
0.41
105
0.25
101
0.54
160
0.27
42
0.77
141
0.68
103
0.85
205
0.82
132
0.33
19
0.32
60
0.64
133
0.49
193
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
PSM-softLosstwo views0.40
103
0.21
74
0.53
166
0.42
130
0.26
130
0.29
35
0.34
117
0.70
93
0.49
57
0.63
85
0.82
132
0.59
124
0.33
65
0.75
193
0.43
158
0.20
211
0.12
86
0.20
177
0.18
184
0.17
127
0.22
224
KMStereotwo views0.40
103
0.21
74
0.53
166
0.42
130
0.26
130
0.29
35
0.34
117
0.70
93
0.49
57
0.63
85
0.82
132
0.59
124
0.33
65
0.75
193
0.43
158
0.20
211
0.12
86
0.20
177
0.18
184
0.17
127
0.22
224
RAFTtwo views0.46
153
0.23
120
0.52
159
0.48
249
0.27
159
0.55
165
0.47
244
0.68
72
0.60
81
0.83
189
0.82
132
1.00
272
0.56
175
0.76
201
0.37
107
0.18
157
0.16
212
0.22
230
0.20
227
0.16
103
0.14
49
HCRNettwo views0.46
153
0.35
268
0.45
84
0.54
311
0.26
130
0.52
151
0.29
57
0.87
167
0.64
88
0.75
151
0.82
132
0.76
207
0.53
160
0.70
177
0.38
120
0.24
262
0.16
212
0.24
257
0.20
227
0.21
209
0.20
193
GEStwo views0.46
153
0.25
167
0.62
213
0.41
105
0.30
218
0.62
196
0.37
158
1.06
234
0.70
110
0.75
151
0.83
137
0.47
69
0.52
159
0.69
170
0.46
174
0.23
256
0.17
238
0.17
85
0.16
116
0.18
151
0.24
251
DMCAtwo views0.47
162
0.27
207
0.59
202
0.39
61
0.29
199
0.53
154
0.34
117
0.98
205
0.70
110
0.78
175
0.83
137
0.79
220
0.55
167
0.54
61
0.57
221
0.21
226
0.16
212
0.21
218
0.16
116
0.19
185
0.22
224
GASNettwo views0.70
284
0.77
361
1.16
330
0.71
363
0.49
336
0.62
196
0.48
249
1.12
250
1.05
273
0.98
277
0.84
139
0.94
260
0.82
288
1.41
343
0.85
279
0.33
326
0.22
287
0.29
308
0.28
314
0.44
341
0.26
263
GMOStereotwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
error versiontwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
test-vtwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
test-2two views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
DSFCAtwo views0.57
240
0.27
207
0.71
252
0.41
105
0.36
276
0.78
252
0.53
274
1.08
241
0.85
180
1.08
313
0.84
139
0.90
249
0.66
220
1.05
297
0.63
240
0.26
279
0.22
287
0.21
218
0.21
244
0.22
227
0.20
193
FADNettwo views0.63
274
0.53
325
1.20
332
0.46
223
0.44
317
0.66
220
0.41
214
1.24
290
1.07
284
0.70
124
0.84
139
0.98
267
0.65
218
0.87
241
0.54
213
0.29
303
0.30
332
0.27
290
0.30
319
0.48
348
0.36
316
RAFT-Testtwo views0.35
37
0.19
33
0.42
58
0.39
61
0.24
77
0.50
139
0.23
20
0.74
129
0.44
43
0.62
78
0.85
146
0.64
146
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
ToySttwo views0.52
211
0.27
207
0.93
306
0.42
130
0.28
180
0.67
229
0.56
287
0.88
172
0.79
148
0.61
76
0.85
146
0.92
258
0.70
244
0.72
186
0.61
233
0.16
99
0.17
238
0.21
218
0.21
244
0.22
227
0.21
209
SFCPSMtwo views0.48
171
0.22
97
0.59
202
0.41
105
0.27
159
0.85
281
0.36
146
1.39
333
0.79
148
0.81
183
0.85
146
0.54
89
0.50
151
0.60
89
0.39
128
0.18
157
0.14
172
0.18
116
0.20
227
0.17
127
0.16
98
ac_64two views0.54
222
0.24
139
0.58
194
0.46
223
0.28
180
0.79
258
0.44
232
1.11
249
0.63
84
0.94
254
0.85
146
1.06
291
0.70
244
0.76
201
0.72
256
0.22
242
0.18
247
0.20
177
0.19
208
0.18
151
0.16
98
CASStwo views0.46
153
0.28
220
0.45
84
0.48
249
0.22
30
0.63
201
0.34
117
0.99
208
0.66
96
0.76
156
0.86
150
0.61
129
0.58
187
0.58
74
0.44
165
0.29
303
0.16
212
0.22
230
0.18
184
0.23
241
0.28
280
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
AAGNettwo views1.40
368
0.20
54
0.52
159
0.45
200
0.26
130
0.29
35
0.29
57
0.67
67
0.71
116
0.97
274
0.86
150
0.66
162
0.60
194
0.66
147
19.98
418
0.17
125
0.11
39
0.19
148
0.15
90
0.20
200
0.13
31
GEStereo_RVCtwo views0.56
236
0.30
244
0.70
249
0.51
281
0.31
228
0.70
235
0.54
280
1.31
315
0.93
222
0.85
205
0.86
150
0.84
229
0.63
205
0.92
257
0.67
246
0.24
262
0.16
212
0.19
148
0.17
158
0.21
209
0.23
243
FADNet-RVCtwo views0.62
271
0.56
339
1.29
341
0.47
241
0.39
292
0.63
201
0.40
194
1.16
263
0.91
214
0.71
133
0.86
150
1.04
284
0.55
167
0.99
284
0.78
264
0.27
288
0.26
319
0.28
300
0.29
318
0.32
299
0.31
296
DIP-Stereotwo views0.40
103
0.22
97
0.58
194
0.42
130
0.29
199
0.62
196
0.27
42
0.87
167
0.42
38
0.65
99
0.86
150
0.52
83
0.35
74
0.67
156
0.43
158
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
135
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
HITNettwo views0.43
136
0.27
207
0.50
132
0.34
9
0.18
5
0.65
215
0.32
100
0.99
208
0.70
110
0.73
141
0.86
150
0.66
162
0.56
175
0.61
95
0.47
183
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DisPMtwo views0.40
103
0.20
54
0.50
132
0.42
130
0.27
159
0.24
7
0.30
69
0.68
72
0.61
83
0.88
225
0.87
156
0.59
124
0.32
60
0.80
220
0.34
83
0.19
192
0.12
86
0.19
148
0.17
158
0.16
103
0.21
209
RAFT + AFFtwo views0.54
222
0.30
244
0.84
289
0.51
281
0.32
245
0.63
201
0.57
289
1.05
229
0.95
233
0.80
179
0.87
156
0.85
231
0.57
184
0.87
241
0.51
197
0.18
157
0.21
278
0.23
244
0.22
262
0.19
185
0.19
166
FADNet-RVC-Resampletwo views0.58
251
0.35
268
1.34
347
0.50
269
0.34
266
0.73
242
0.43
226
1.09
244
0.96
240
0.83
189
0.87
156
0.76
207
0.66
220
0.77
208
0.52
201
0.19
192
0.18
247
0.26
282
0.27
308
0.28
280
0.29
285
raft_robusttwo views0.41
117
0.24
139
0.39
36
0.43
167
0.22
30
0.40
101
0.33
109
0.80
151
0.98
249
0.80
179
0.88
159
0.41
44
0.32
60
0.89
248
0.30
48
0.14
18
0.12
86
0.16
57
0.18
184
0.15
66
0.13
31
DMCA-RVCcopylefttwo views0.54
222
0.32
253
0.83
286
0.51
281
0.32
245
0.59
190
0.38
171
0.89
173
0.70
110
0.95
259
0.88
159
0.90
249
0.69
239
0.75
193
0.63
240
0.23
256
0.18
247
0.31
318
0.24
285
0.27
273
0.21
209
BEATNet_4xtwo views0.49
180
0.35
268
0.72
258
0.38
45
0.20
18
0.65
215
0.36
146
1.08
241
0.78
142
0.78
175
0.88
159
0.73
193
0.64
212
0.71
182
0.60
229
0.16
99
0.12
86
0.16
57
0.15
90
0.24
249
0.18
157
iRaft-Stereo_5wtwo views0.46
153
0.22
97
0.53
166
0.43
167
0.30
218
0.30
39
0.53
274
0.66
56
0.71
116
0.62
78
0.89
162
1.01
276
0.67
229
0.76
201
0.67
246
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
135
UCFNet_RVCtwo views0.50
191
0.27
207
0.37
27
0.40
87
0.27
159
0.66
220
0.42
219
1.18
271
0.86
186
0.70
124
0.89
162
0.91
255
0.60
194
0.62
117
0.48
186
0.24
262
0.18
247
0.28
300
0.27
308
0.25
258
0.24
251
RAFT+CT+SAtwo views0.40
103
0.24
139
0.40
45
0.53
302
0.27
159
0.28
31
0.45
236
0.79
149
0.81
162
0.51
52
0.90
164
0.42
46
0.39
103
0.81
224
0.33
74
0.15
67
0.11
39
0.18
116
0.18
184
0.15
66
0.15
78
UNettwo views0.55
227
0.27
207
0.72
258
0.45
200
0.41
300
0.97
300
0.40
194
1.01
215
0.80
153
0.87
217
0.90
164
1.03
280
0.75
265
0.76
201
0.67
246
0.19
192
0.15
191
0.20
177
0.17
158
0.21
209
0.18
157
FADNet_RVCtwo views0.58
251
0.39
286
1.26
336
0.45
200
0.32
245
0.55
165
0.34
117
1.12
250
0.90
208
0.68
117
0.90
164
0.61
129
0.71
249
1.03
295
0.80
272
0.21
226
0.18
247
0.27
290
0.23
271
0.33
303
0.30
289
RYNettwo views0.76
300
0.37
278
0.74
266
0.54
311
0.67
366
1.35
347
0.68
316
1.28
308
1.21
324
1.10
320
0.90
164
1.31
323
0.94
320
1.01
290
1.30
341
0.22
242
0.16
212
0.27
290
0.23
271
0.43
338
0.45
350
PA-Nettwo views0.70
284
0.46
312
0.96
312
0.51
281
0.53
345
0.94
295
0.73
330
1.14
258
1.15
310
0.83
189
0.90
164
0.88
242
0.76
274
1.19
316
0.96
304
0.25
274
0.41
369
0.29
308
0.44
361
0.27
273
0.39
325
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NVstereo2Dtwo views0.62
271
0.32
253
0.82
282
0.50
269
0.44
317
0.88
286
0.48
249
1.12
250
1.17
315
0.67
110
0.90
164
0.90
249
0.69
239
1.02
293
0.69
250
0.33
326
0.16
212
0.29
308
0.20
227
0.43
338
0.46
354
test_5two views0.44
142
0.25
167
0.48
115
0.53
302
0.28
180
0.28
31
0.42
219
0.77
141
0.87
190
0.63
85
0.91
170
0.73
193
0.53
160
0.82
229
0.36
99
0.14
18
0.11
39
0.18
116
0.18
184
0.18
151
0.16
98
psm_uptwo views0.57
240
0.27
207
0.52
159
0.50
269
0.33
256
0.65
215
0.60
301
1.07
236
0.84
176
0.87
217
0.91
170
1.00
272
1.06
333
0.80
220
0.66
243
0.22
242
0.25
310
0.26
282
0.23
271
0.22
227
0.21
209
UPFNettwo views0.55
227
0.26
195
0.59
202
0.46
223
0.38
283
0.83
275
0.48
249
1.03
222
0.80
153
0.92
247
0.91
170
0.85
231
0.67
229
0.87
241
0.78
264
0.20
211
0.21
278
0.20
177
0.20
227
0.20
200
0.15
78
STTStereotwo views0.57
240
0.39
286
0.87
298
0.45
200
0.32
245
0.62
196
0.45
236
1.01
215
0.87
190
1.01
285
0.91
170
0.95
261
0.58
187
0.77
208
0.66
243
0.25
274
0.24
302
0.27
290
0.33
337
0.25
258
0.26
263
NLCA_NET_v2_RVCtwo views0.55
227
0.33
259
0.71
252
0.46
223
0.31
228
0.66
220
0.43
226
1.07
236
0.89
204
0.93
250
0.91
170
0.98
267
0.61
198
0.76
201
0.64
242
0.22
242
0.18
247
0.22
230
0.22
262
0.22
227
0.24
251
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
StereoDRNettwo views0.67
278
0.35
268
0.82
282
0.53
302
0.44
317
1.03
315
0.53
274
1.51
354
1.06
277
1.13
325
0.91
170
1.07
295
0.74
262
0.87
241
0.95
302
0.24
262
0.19
264
0.25
268
0.23
271
0.27
273
0.22
224
IPLGR_Ctwo views0.42
124
0.23
120
0.71
252
0.46
223
0.33
256
0.51
144
0.34
117
0.69
83
0.69
108
0.84
195
0.92
176
0.46
65
0.33
65
0.53
54
0.53
210
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
ACREtwo views0.42
124
0.23
120
0.73
262
0.45
200
0.33
256
0.50
139
0.33
109
0.68
72
0.70
110
0.82
184
0.92
176
0.46
65
0.32
60
0.53
54
0.52
201
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
111two views0.42
124
0.18
14
0.46
91
0.35
12
0.19
8
0.52
151
0.28
50
0.76
136
1.16
312
0.52
54
0.92
176
0.65
150
0.51
156
0.65
139
0.37
107
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
HSMtwo views0.53
217
0.25
167
0.46
91
0.40
87
0.25
101
0.74
246
0.44
232
1.29
312
0.78
142
0.82
184
0.92
176
1.21
314
0.75
265
0.90
253
0.48
186
0.18
157
0.14
172
0.17
85
0.14
69
0.17
127
0.18
157
NOSS_ROBtwo views0.59
255
0.40
294
0.42
58
0.45
200
0.31
228
0.79
258
0.53
274
1.09
244
1.12
297
0.69
120
0.92
176
0.77
212
0.63
205
0.81
224
0.52
201
0.39
350
0.38
360
0.44
352
0.42
360
0.38
324
0.36
316
GMStereo_Zeroshotpermissivetwo views0.51
201
0.46
312
0.80
276
0.50
269
0.28
180
0.57
180
0.30
69
0.75
134
0.79
148
0.88
225
0.94
181
0.90
249
0.37
83
0.77
208
0.46
174
0.27
288
0.14
172
0.26
282
0.15
90
0.39
328
0.19
166
psmgtwo views0.50
191
0.26
195
0.47
102
0.42
130
0.29
199
0.82
272
0.42
219
1.07
236
0.80
153
0.95
259
0.94
181
0.76
207
0.59
191
0.66
147
0.48
186
0.21
226
0.16
212
0.20
177
0.20
227
0.19
185
0.19
166
AASNettwo views0.55
227
0.27
207
0.62
213
0.51
281
0.32
245
0.73
242
0.44
232
1.55
357
0.88
200
0.88
225
0.94
181
0.64
146
0.63
205
0.62
117
0.84
277
0.23
256
0.20
272
0.20
177
0.16
116
0.22
227
0.20
193
MaskLacGwcNet_RVCtwo views0.71
286
0.84
368
0.80
276
0.55
317
0.38
283
1.38
349
0.57
289
1.07
236
0.81
162
0.90
239
0.94
181
0.95
261
0.54
164
1.01
290
0.61
233
0.41
355
0.30
332
0.57
371
0.31
328
0.86
377
0.39
325
DCREtwo views0.38
77
0.19
33
0.47
102
0.45
200
0.33
256
0.45
130
0.40
194
0.66
56
0.53
65
0.49
49
0.95
185
0.57
100
0.39
103
0.53
54
0.32
64
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
IERtwo views0.48
171
0.25
167
0.60
207
0.38
45
0.28
180
0.67
229
0.38
171
0.82
157
0.68
103
0.88
225
0.95
185
0.74
197
0.79
280
0.62
117
0.46
174
0.17
125
0.14
172
0.17
85
0.17
158
0.17
127
0.16
98
IIG-Stereotwo views0.45
148
0.22
97
0.48
115
0.51
281
0.26
130
0.43
121
0.21
5
0.73
123
0.80
153
0.84
195
0.95
185
0.82
228
0.46
138
0.95
268
0.37
107
0.16
99
0.12
86
0.19
148
0.15
90
0.15
66
0.12
10
ICVPtwo views0.48
171
0.26
195
0.42
58
0.49
258
0.28
180
0.63
201
0.43
226
1.05
229
0.72
118
0.68
117
0.95
185
0.75
201
0.56
175
0.55
62
0.61
233
0.24
262
0.18
247
0.19
148
0.17
158
0.19
185
0.21
209
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
CoDeXtwo views0.48
171
0.21
74
0.53
166
0.43
167
0.25
101
0.74
246
0.38
171
1.36
330
0.82
170
0.84
195
0.96
189
0.63
139
0.57
184
0.63
126
0.40
148
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
TestStereo1two views0.44
142
0.24
139
0.45
84
0.52
295
0.25
101
0.35
74
0.40
194
0.81
153
0.94
229
0.70
124
0.96
189
0.48
72
0.45
132
0.94
263
0.33
74
0.16
99
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
SA-5Ktwo views0.44
142
0.24
139
0.45
84
0.52
295
0.25
101
0.35
74
0.40
194
0.81
153
0.94
229
0.70
124
0.96
189
0.48
72
0.45
132
0.94
263
0.33
74
0.16
99
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
CIPLGtwo views0.42
124
0.23
120
0.71
252
0.45
200
0.33
256
0.51
144
0.33
109
0.68
72
0.68
103
0.84
195
0.96
189
0.47
69
0.33
65
0.56
66
0.52
201
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
ACVNettwo views0.47
162
0.24
139
0.39
36
0.40
87
0.28
180
0.58
184
0.40
194
0.91
179
0.81
162
0.67
110
0.96
189
0.79
220
0.66
220
0.65
139
0.71
253
0.18
157
0.15
191
0.16
57
0.15
90
0.18
151
0.15
78
acv_fttwo views0.52
211
0.24
139
0.64
221
0.45
200
0.28
180
0.85
281
0.40
194
0.95
197
0.81
162
1.00
283
0.96
189
0.79
220
0.62
200
0.65
139
0.88
282
0.18
157
0.15
191
0.16
57
0.15
90
0.18
151
0.15
78
NaN_ROBtwo views0.73
288
0.46
312
0.89
302
0.52
295
0.34
266
0.98
304
1.11
366
1.28
308
1.20
322
1.27
342
0.96
189
1.08
296
0.79
280
1.34
338
0.78
264
0.24
262
0.30
332
0.23
244
0.24
285
0.23
241
0.26
263
NINENettwo views0.52
211
0.30
244
0.55
181
0.46
223
0.33
256
0.78
252
0.34
117
1.18
271
0.91
214
0.84
195
0.97
196
0.64
146
0.54
164
0.74
188
0.56
217
0.23
256
0.20
272
0.25
268
0.18
184
0.22
227
0.22
224
CSP-Nettwo views0.57
240
0.29
230
0.55
181
0.42
130
0.29
199
1.20
340
0.49
259
1.29
312
0.75
134
0.98
277
0.97
196
0.88
242
0.69
239
0.85
237
0.66
243
0.27
288
0.18
247
0.17
85
0.17
158
0.18
151
0.19
166
MMNettwo views0.57
240
0.26
195
0.67
232
0.45
200
0.35
271
1.04
317
0.39
184
0.93
189
0.98
249
0.96
271
0.97
196
0.86
235
0.80
284
0.83
231
0.80
272
0.16
99
0.15
191
0.19
148
0.19
208
0.20
200
0.17
135
DualNettwo views0.53
217
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
303
0.76
156
0.98
199
0.71
174
0.55
167
0.61
95
1.46
350
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
ffmtwo views0.47
162
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
303
0.76
156
0.98
199
0.71
174
0.55
167
0.61
95
0.26
8
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
ff1two views0.56
236
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
303
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
350
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
mmxtwo views0.59
255
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
1.24
290
1.06
277
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
350
0.21
226
0.16
212
0.25
268
0.21
244
0.24
249
0.22
224
xxxcopylefttwo views0.59
255
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
1.24
290
1.06
277
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
350
0.21
226
0.16
212
0.25
268
0.21
244
0.24
249
0.22
224
anonymitytwo views0.98
335
0.89
370
1.06
323
0.93
375
1.04
385
0.97
300
0.82
344
1.33
323
0.93
222
1.08
313
0.98
199
1.02
278
0.95
322
1.02
293
0.93
297
0.96
385
0.96
405
0.90
380
0.91
390
0.92
379
0.95
383
ADLNettwo views0.57
240
0.29
230
0.58
194
0.46
223
0.35
271
0.80
264
0.46
239
1.14
258
0.88
200
1.03
292
0.98
199
0.92
258
0.66
220
0.71
182
0.83
276
0.22
242
0.16
212
0.22
230
0.22
262
0.22
227
0.23
243
AdaStereotwo views0.52
211
0.34
264
0.53
166
0.49
258
0.25
101
0.71
238
0.36
146
1.24
290
0.91
214
0.77
164
0.98
199
0.75
201
0.50
151
0.71
182
0.51
197
0.27
288
0.13
141
0.28
300
0.18
184
0.23
241
0.18
157
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
NCCL2two views0.74
293
0.45
307
0.77
272
0.65
347
0.45
324
0.97
300
1.16
371
1.16
263
1.02
263
1.00
283
0.98
199
1.48
349
0.88
308
0.99
284
0.89
284
0.31
313
0.27
321
0.39
344
0.39
349
0.33
303
0.34
310
ADLNet2two views0.57
240
0.26
195
0.71
252
0.48
249
0.31
228
0.83
275
0.51
265
1.10
248
0.99
252
0.85
205
0.99
208
0.99
271
0.70
244
0.79
218
0.78
264
0.21
226
0.17
238
0.18
116
0.18
184
0.22
227
0.22
224
xxxxtwo views1.07
343
0.23
120
0.53
166
0.38
45
0.22
30
0.83
275
0.36
146
1.41
339
0.95
233
0.75
151
0.99
208
0.97
265
0.64
212
0.70
177
11.37
410
0.20
211
0.17
238
0.18
116
0.17
158
0.19
185
0.20
193
RAFT-Stereo + iAFFtwo views0.37
61
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
67
0.77
139
0.72
134
0.99
208
0.56
97
0.39
103
0.44
22
0.31
58
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
delettwo views0.57
240
0.25
167
0.63
217
0.46
223
0.34
266
1.05
319
0.51
265
1.04
223
0.94
229
0.90
239
0.99
208
0.90
249
0.68
237
0.87
241
0.78
264
0.18
157
0.18
247
0.20
177
0.21
244
0.17
127
0.17
135
MIM_Stereotwo views0.39
89
0.18
14
0.59
202
0.38
45
0.25
101
0.27
25
0.24
23
0.72
110
0.56
67
0.72
134
1.00
212
0.62
135
0.29
41
0.67
156
0.39
128
0.13
9
0.14
172
0.17
85
0.16
116
0.14
36
0.12
10
CRFU-Nettwo views0.59
255
0.29
230
0.62
213
0.47
241
0.31
228
1.20
340
0.51
265
1.19
274
0.59
74
1.05
303
1.00
212
1.06
291
0.87
304
0.83
231
0.77
263
0.22
242
0.19
264
0.18
116
0.16
116
0.19
185
0.20
193
CFNet-ftpermissivetwo views0.50
191
0.25
167
0.39
36
0.41
105
0.26
130
0.66
220
0.37
158
0.91
179
0.87
190
0.67
110
1.00
212
1.05
287
0.70
244
0.68
164
0.57
221
0.23
256
0.16
212
0.24
257
0.21
244
0.24
249
0.19
166
CFNet_RVCtwo views0.50
191
0.25
167
0.39
36
0.41
105
0.26
130
0.66
220
0.37
158
0.91
179
0.87
190
0.67
110
1.00
212
1.05
287
0.70
244
0.68
164
0.57
221
0.23
256
0.16
212
0.24
257
0.21
244
0.24
249
0.19
166
MyStereo8two views0.42
124
0.21
74
0.64
221
0.43
167
0.29
199
0.55
165
0.28
50
0.72
110
0.50
60
0.73
141
1.01
216
0.57
100
0.44
125
0.52
52
0.52
201
0.15
67
0.12
86
0.16
57
0.14
69
0.19
185
0.21
209
hitnet-ftcopylefttwo views0.57
240
0.29
230
0.43
74
0.42
130
0.29
199
0.81
269
0.40
194
0.98
205
0.91
214
0.84
195
1.01
216
1.13
308
0.72
256
0.83
231
0.71
253
0.28
296
0.21
278
0.28
300
0.22
262
0.29
282
0.27
271
SMFormertwo views0.53
217
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.60
229
0.19
192
0.16
212
0.18
116
0.17
158
0.19
185
0.20
193
ttatwo views0.53
217
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.60
229
0.19
192
0.16
212
0.18
116
0.17
158
0.15
66
0.16
98
qqq1two views0.51
201
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.36
99
0.19
192
0.16
212
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
201
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.36
99
0.19
192
0.16
212
0.14
13
0.12
26
0.15
66
0.16
98
1111xtwo views0.64
275
0.23
120
0.61
208
0.39
61
0.21
25
0.68
233
0.46
239
1.32
320
1.03
267
0.76
156
1.02
218
0.95
261
0.72
256
1.13
306
2.15
373
0.18
157
0.18
247
0.18
116
0.19
208
0.20
200
0.19
166
UDGtwo views0.93
325
1.03
379
0.75
268
1.00
376
0.97
378
1.02
313
0.57
289
1.18
271
1.01
258
0.93
250
1.02
218
1.32
325
1.03
329
0.88
247
0.92
295
0.55
372
0.33
351
1.82
391
0.41
358
1.20
385
0.74
376
GANet-RSSMtwo views0.49
180
0.22
97
0.42
58
0.39
61
0.26
130
0.58
184
0.41
214
1.12
250
0.82
170
0.73
141
1.02
218
0.88
242
0.75
265
0.67
156
0.48
186
0.22
242
0.16
212
0.18
116
0.19
208
0.18
151
0.18
157
DeepPrunerFtwo views0.93
325
0.55
337
3.88
391
0.70
361
0.81
371
0.72
241
0.74
332
1.28
308
1.97
376
0.95
259
1.02
218
0.87
239
0.85
297
1.16
312
1.07
326
0.35
338
0.29
328
0.43
350
0.40
353
0.31
293
0.33
308
GANetREF_RVCpermissivetwo views0.82
307
0.77
361
0.95
311
0.68
355
0.43
312
1.15
332
1.06
364
1.19
274
1.20
322
1.03
292
1.02
218
1.10
303
0.89
310
1.20
319
0.78
264
0.49
363
0.39
364
0.58
372
0.39
349
0.69
372
0.49
359
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
ccs_robtwo views0.47
162
0.25
167
0.55
181
0.38
45
0.28
180
0.58
184
0.32
100
0.89
173
0.90
208
0.83
189
1.02
218
0.75
201
0.48
145
0.61
95
0.46
174
0.17
125
0.12
86
0.24
257
0.16
116
0.26
264
0.21
209
Anonymous Stereotwo views0.82
307
0.59
345
2.10
379
0.59
330
0.58
354
0.68
233
1.42
387
1.05
229
1.07
284
1.03
292
1.02
218
0.86
235
0.65
218
1.33
337
1.36
345
0.32
318
0.31
340
0.31
318
0.33
337
0.34
309
0.39
325
AACVNettwo views0.52
211
0.25
167
0.56
185
0.48
249
0.29
199
0.55
165
0.38
171
0.96
201
0.59
74
0.83
189
1.03
229
1.03
280
0.77
278
0.91
255
0.58
226
0.22
242
0.18
247
0.24
257
0.18
184
0.24
249
0.22
224
LCNettwo views0.42
124
0.21
74
0.34
13
0.44
188
0.24
77
0.47
133
0.28
50
0.69
83
0.57
71
0.72
134
1.03
229
0.66
162
0.58
187
0.60
89
0.35
90
0.15
67
0.10
8
0.19
148
0.19
208
0.22
227
0.37
322
CFNet_pseudotwo views0.47
162
0.25
167
0.55
181
0.38
45
0.28
180
0.58
184
0.32
100
0.89
173
0.90
208
0.83
189
1.03
229
0.75
201
0.48
145
0.61
95
0.46
174
0.17
125
0.13
141
0.24
257
0.16
116
0.26
264
0.21
209
SAtwo views0.45
148
0.26
195
0.50
132
0.47
241
0.24
77
0.46
131
0.36
146
0.79
149
1.00
256
0.61
76
1.04
232
0.50
77
0.50
151
0.98
280
0.33
74
0.16
99
0.13
141
0.21
218
0.19
208
0.15
66
0.14
49
LMCR-Stereopermissivemany views0.55
227
0.33
259
0.57
192
0.60
332
0.30
218
0.80
264
0.36
146
1.30
314
0.79
148
0.90
239
1.04
232
0.57
100
0.64
212
0.87
241
0.73
257
0.20
211
0.15
191
0.19
148
0.14
69
0.25
258
0.18
157
PSMNet_ROBtwo views0.67
278
0.39
286
0.76
269
0.57
323
0.43
312
1.00
307
0.85
350
1.25
296
0.93
222
0.82
184
1.04
232
1.08
296
0.64
212
0.89
248
1.02
315
0.29
303
0.21
278
0.31
318
0.31
328
0.27
273
0.25
258
SQANettwo views0.87
321
0.76
360
0.76
269
1.16
383
0.99
380
1.10
322
0.51
265
1.12
250
0.85
180
0.93
250
1.05
235
1.03
280
0.76
274
1.07
298
0.70
251
0.79
379
0.25
310
1.04
383
0.36
342
1.56
387
0.70
375
STrans-v2two views0.47
162
0.21
74
0.49
123
0.41
105
0.25
101
0.54
160
0.49
259
1.16
263
0.82
170
0.67
110
1.05
235
0.71
174
0.67
229
0.74
188
0.34
83
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
RASNettwo views0.57
240
0.24
139
0.61
208
0.39
61
0.23
56
0.71
238
0.40
194
1.02
217
0.93
222
0.77
164
1.05
235
1.05
287
0.98
326
0.99
284
1.03
316
0.16
99
0.14
172
0.14
13
0.17
158
0.15
66
0.14
49
CVANet_RVCtwo views0.59
255
0.35
268
0.54
178
0.49
258
0.33
256
0.70
235
0.67
313
1.12
250
0.97
245
0.88
225
1.05
235
1.01
276
0.72
256
0.94
263
0.55
215
0.30
310
0.20
272
0.28
300
0.26
304
0.32
299
0.23
243
DeepPruner_ROBtwo views0.55
227
0.37
278
0.67
232
0.42
130
0.31
228
0.50
139
0.43
226
1.22
286
0.73
127
0.86
215
1.05
235
0.85
231
0.58
187
0.90
253
0.56
217
0.29
303
0.23
294
0.22
230
0.22
262
0.26
264
0.26
263
iResNet_ROBtwo views0.55
227
0.24
139
0.61
208
0.38
45
0.22
30
0.66
220
0.30
69
1.59
365
1.33
341
0.94
254
1.05
235
0.81
226
0.69
239
0.84
235
0.46
174
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
193
SACVNettwo views0.61
265
0.36
276
0.67
232
0.57
323
0.37
278
0.65
215
0.47
244
1.16
263
0.80
153
1.04
298
1.06
241
1.02
278
0.81
287
0.99
284
0.57
221
0.28
296
0.21
278
0.25
268
0.24
285
0.30
289
0.39
325
cf-rtwo views0.49
180
0.24
139
0.49
123
0.40
87
0.23
56
0.58
184
0.38
171
0.92
187
0.87
190
0.77
164
1.06
241
0.98
267
0.67
229
0.59
79
0.61
233
0.21
226
0.14
172
0.17
85
0.19
208
0.15
66
0.16
98
mmmtwo views0.47
162
0.28
220
0.51
140
0.39
61
0.25
101
0.61
192
0.38
171
1.00
214
0.60
81
0.77
164
1.07
243
0.65
150
0.53
160
0.61
95
0.49
193
0.18
157
0.15
191
0.23
244
0.20
227
0.21
209
0.20
193
PCWNet_CMDtwo views0.49
180
0.25
167
0.56
185
0.40
87
0.27
159
0.64
209
0.32
100
0.98
205
0.99
252
0.87
217
1.07
243
0.78
214
0.46
138
0.61
95
0.44
165
0.17
125
0.13
141
0.21
218
0.16
116
0.26
264
0.20
193
PSMNet-RSSMtwo views0.50
191
0.24
139
0.41
50
0.43
167
0.26
130
0.51
144
0.40
194
1.16
263
0.79
148
0.75
151
1.07
243
0.87
239
0.69
239
0.66
147
0.52
201
0.24
262
0.16
212
0.23
244
0.26
304
0.20
200
0.20
193
MSMDNettwo views0.49
180
0.25
167
0.56
185
0.40
87
0.27
159
0.64
209
0.32
100
0.99
208
0.99
252
0.87
217
1.07
243
0.79
220
0.46
138
0.61
95
0.44
165
0.17
125
0.13
141
0.20
177
0.16
116
0.25
258
0.20
193
CFNettwo views0.53
217
0.30
244
0.53
166
0.42
130
0.28
180
0.73
242
0.35
139
1.21
280
1.01
258
0.74
148
1.07
243
0.85
231
0.60
194
0.83
231
0.58
226
0.19
192
0.15
191
0.23
244
0.23
271
0.21
209
0.17
135
DISCOtwo views0.72
287
0.27
207
0.72
258
0.45
200
0.31
228
1.12
327
0.53
274
1.32
320
1.25
327
0.84
195
1.07
243
1.52
355
0.87
304
1.82
369
1.08
328
0.20
211
0.15
191
0.18
116
0.16
116
0.24
249
0.24
251
test_xeamplepermissivetwo views1.06
341
0.23
120
0.51
140
0.37
35
0.22
30
0.71
238
0.39
184
1.31
315
0.92
220
0.87
217
1.08
249
0.70
173
0.64
212
0.75
193
11.43
411
0.19
192
0.16
212
0.18
116
0.17
158
0.18
151
0.19
166
DN-CSS_ROBtwo views0.45
148
0.27
207
0.74
266
0.41
105
0.29
199
0.43
121
0.29
57
0.80
151
0.78
142
0.73
141
1.08
249
0.48
72
0.45
132
0.81
224
0.40
148
0.15
67
0.12
86
0.21
218
0.19
208
0.18
151
0.17
135
ttttwo views0.56
236
0.27
207
0.49
123
0.39
61
0.25
101
0.65
215
0.42
219
1.24
290
1.08
289
0.76
156
1.10
251
0.63
139
0.51
156
0.95
268
1.03
316
0.25
274
0.22
287
0.22
230
0.21
244
0.25
258
0.25
258
SuperBtwo views1.00
338
0.41
298
4.03
394
0.45
200
0.32
245
0.99
306
0.49
259
1.09
244
2.09
379
1.10
320
1.10
251
0.74
197
0.83
290
1.13
306
1.75
362
0.20
211
0.15
191
0.17
85
0.15
90
2.50
404
0.27
271
iResNetv2_ROBtwo views0.55
227
0.29
230
0.86
293
0.39
61
0.25
101
0.67
229
0.37
158
1.21
280
1.02
263
1.02
289
1.10
251
0.89
247
0.79
280
0.74
188
0.43
158
0.19
192
0.13
141
0.15
41
0.11
15
0.19
185
0.16
98
DRN-Testtwo views0.68
281
0.34
264
0.77
272
0.52
295
0.40
295
1.14
330
0.61
303
1.56
361
1.04
271
1.18
329
1.10
251
1.05
287
0.72
256
0.82
229
1.01
311
0.24
262
0.18
247
0.26
282
0.25
296
0.26
264
0.23
243
StereoVisiontwo views0.43
136
0.29
230
0.54
178
0.50
269
0.28
180
0.37
86
0.38
171
0.75
134
0.63
84
0.46
44
1.11
255
0.53
87
0.38
90
0.57
70
0.34
83
0.21
226
0.24
302
0.25
268
0.24
285
0.26
264
0.17
135
TDLMtwo views0.59
255
0.35
268
0.57
192
0.53
302
0.32
245
0.67
229
0.72
325
1.09
244
1.03
267
0.84
195
1.11
255
0.84
229
0.71
249
0.96
271
0.61
233
0.28
296
0.18
247
0.26
282
0.22
262
0.27
273
0.21
209
PSM-AADtwo views0.48
171
0.21
74
0.39
36
0.44
188
0.23
56
0.56
170
0.47
244
0.67
67
0.73
127
1.08
313
1.12
257
0.58
115
0.87
304
0.63
126
0.33
74
0.15
67
0.11
39
0.25
268
0.26
304
0.18
151
0.42
340
AFF-stereotwo views0.39
89
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
88
0.67
67
0.72
118
0.66
103
1.12
257
0.75
201
0.38
90
0.57
70
0.35
90
0.11
1
0.09
2
0.16
57
0.16
116
0.14
36
0.12
10
XQCtwo views0.97
333
0.70
355
1.54
360
0.70
361
0.55
348
1.48
355
0.81
342
1.41
339
1.57
361
1.21
332
1.12
257
1.33
330
1.04
331
1.55
354
2.00
370
0.39
350
0.25
310
0.37
338
0.32
331
0.55
363
0.49
359
MLCVtwo views0.49
180
0.26
195
0.73
262
0.38
45
0.18
5
0.64
209
0.33
109
0.84
163
0.89
204
0.96
271
1.12
257
0.72
189
0.45
132
1.00
289
0.59
228
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
DPSNettwo views1.08
344
0.44
306
2.64
384
0.54
311
0.42
309
1.59
362
1.25
377
2.39
389
1.50
357
1.13
325
1.12
257
1.51
353
2.19
389
1.44
347
1.51
356
0.35
338
0.25
310
0.25
268
0.21
244
0.49
351
0.39
325
iResNettwo views0.52
211
0.31
251
0.86
293
0.44
188
0.22
30
0.66
220
0.47
244
0.92
187
1.02
263
0.89
232
1.12
257
0.69
171
0.55
167
0.86
239
0.60
229
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
135
222two views1.25
358
0.23
120
0.53
166
0.38
45
0.23
56
0.78
252
0.37
158
1.41
339
0.93
222
0.97
274
1.13
263
0.74
197
0.71
249
0.74
188
14.86
414
0.20
211
0.16
212
0.17
85
0.16
116
0.18
151
0.20
193
StereoDRNet-Refinedtwo views0.61
265
0.33
259
0.63
217
0.47
241
0.31
228
0.94
295
0.41
214
1.04
223
0.97
245
1.15
327
1.13
263
1.00
272
0.74
262
0.93
260
0.93
297
0.18
157
0.13
141
0.22
230
0.21
244
0.20
200
0.21
209
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
Wz-Net-LNSevtwo views0.75
297
0.54
331
1.59
362
0.51
281
0.41
300
1.16
334
0.79
340
1.27
303
1.13
303
1.04
298
1.14
265
1.11
305
0.94
320
0.93
260
1.00
310
0.24
262
0.22
287
0.21
218
0.19
208
0.26
264
0.27
271
TransformOpticalFlowtwo views0.46
153
0.21
74
0.49
123
0.42
130
0.24
77
0.36
78
0.46
239
1.04
223
0.84
176
0.67
110
1.14
265
0.73
193
0.56
175
0.78
216
0.33
74
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
APVNettwo views0.73
288
0.39
286
1.01
319
0.58
328
0.45
324
1.16
334
0.68
316
1.47
350
0.87
190
0.84
195
1.15
267
1.04
284
0.84
293
1.14
308
1.18
334
0.27
288
0.28
326
0.32
323
0.31
328
0.29
282
0.32
299
HSM-Net_RVCpermissivetwo views0.55
227
0.23
120
0.37
27
0.38
45
0.22
30
0.86
283
0.40
194
1.31
315
0.93
222
0.92
247
1.15
267
1.26
318
0.71
249
0.75
193
0.53
210
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
135
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
LALA_ROBtwo views0.76
300
0.46
312
0.86
293
0.55
317
0.41
300
1.00
307
0.93
356
1.25
296
1.13
303
1.23
336
1.15
267
1.55
357
0.80
284
1.11
305
0.96
304
0.33
326
0.23
294
0.35
331
0.30
319
0.35
315
0.32
299
DAStwo views0.54
222
0.26
195
0.66
228
0.49
258
0.31
228
0.61
192
0.43
226
0.89
173
1.01
258
0.95
259
1.16
270
0.71
174
0.85
297
0.89
248
0.47
183
0.18
157
0.14
172
0.18
116
0.15
90
0.22
227
0.19
166
SepStereotwo views0.54
222
0.26
195
0.66
228
0.49
258
0.31
228
0.61
192
0.43
226
0.89
173
1.01
258
0.95
259
1.16
270
0.71
174
0.85
297
0.97
278
0.47
183
0.18
157
0.14
172
0.18
116
0.15
90
0.22
227
0.19
166
HGLStereotwo views0.58
251
0.30
244
0.65
226
0.51
281
0.38
283
0.78
252
0.45
236
1.07
236
0.82
170
0.89
232
1.16
270
0.88
242
0.91
313
0.80
220
0.74
258
0.21
226
0.21
278
0.20
177
0.18
184
0.19
185
0.22
224
ADCP+two views1.18
354
0.37
278
3.09
386
0.50
269
0.52
343
1.48
355
0.61
303
1.32
320
1.07
284
1.21
332
1.16
270
1.08
296
1.11
338
1.63
358
7.17
405
0.20
211
0.16
212
0.24
257
0.22
262
0.29
282
0.22
224
DLCB_ROBtwo views0.60
262
0.29
230
0.53
166
0.50
269
0.33
256
0.76
251
0.51
265
1.02
217
0.94
229
1.07
312
1.16
270
1.21
314
0.73
260
0.98
280
0.75
260
0.21
226
0.20
272
0.22
230
0.23
271
0.22
227
0.20
193
iinet-ftwo views0.69
283
0.29
230
2.34
383
0.41
105
0.31
228
1.16
334
0.58
296
0.87
167
0.85
180
0.86
215
1.17
275
1.04
284
0.83
290
0.76
201
1.26
339
0.21
226
0.18
247
0.17
85
0.16
116
0.21
209
0.21
209
dadtwo views0.61
265
0.53
325
0.72
258
0.44
188
0.31
228
0.64
209
0.37
158
0.85
164
1.28
332
1.05
303
1.17
275
1.18
312
0.61
198
0.70
177
0.54
213
0.36
340
0.23
294
0.37
338
0.21
244
0.31
293
0.23
243
GwcNet-RSSMtwo views0.51
201
0.25
167
0.51
140
0.41
105
0.24
77
0.56
170
0.41
214
0.97
203
0.96
240
0.75
151
1.17
275
0.89
247
0.66
220
0.66
147
0.74
258
0.22
242
0.15
191
0.19
148
0.21
244
0.17
127
0.16
98
XPNet_ROBtwo views0.73
288
0.38
282
0.80
276
0.53
302
0.40
295
0.80
264
0.83
346
1.21
280
0.96
240
1.37
347
1.17
275
1.37
337
0.87
304
1.14
308
0.99
309
0.33
326
0.25
310
0.27
290
0.24
285
0.31
293
0.29
285
HBP-ISPtwo views0.61
265
0.47
318
0.45
84
0.46
223
0.33
256
0.79
258
0.29
57
1.15
261
1.05
273
0.85
205
1.18
279
0.67
166
0.71
249
0.92
257
0.57
221
0.37
344
0.38
360
0.47
358
0.41
358
0.39
328
0.32
299
CFNet_ucstwo views0.51
201
0.25
167
0.58
194
0.39
61
0.31
228
0.59
190
0.35
139
1.04
223
0.95
233
0.89
232
1.19
280
0.80
224
0.49
149
0.66
147
0.45
170
0.21
226
0.16
212
0.26
282
0.18
184
0.27
273
0.23
243
PDISCO_ROBtwo views0.96
331
0.51
321
1.13
327
1.03
379
1.00
381
1.81
373
0.77
336
1.72
375
1.60
363
1.09
317
1.19
280
1.34
333
0.80
284
1.62
357
1.01
311
0.58
374
0.22
287
0.45
354
0.40
353
0.50
353
0.41
336
SAMSARAtwo views1.15
350
0.69
354
1.44
355
1.09
382
0.93
374
2.10
379
1.87
403
1.64
370
1.47
355
1.64
359
1.21
282
2.06
372
1.14
343
1.61
356
1.50
355
0.39
350
0.45
375
0.36
334
0.38
347
0.50
353
0.51
365
SGM-Foresttwo views0.65
276
0.33
259
0.43
74
0.44
188
0.30
218
1.01
311
0.54
280
1.13
256
1.09
295
1.11
323
1.21
282
1.10
303
0.76
274
0.99
284
0.71
253
0.32
318
0.33
351
0.33
328
0.30
319
0.30
289
0.28
280
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
DANettwo views0.74
293
0.47
318
0.98
317
0.60
332
0.41
300
0.92
292
0.41
214
1.02
217
0.87
190
1.22
334
1.22
284
1.33
330
0.88
308
1.26
324
1.37
346
0.27
288
0.24
302
0.31
318
0.25
296
0.37
322
0.36
316
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
PASMtwo views0.96
331
0.71
358
2.05
378
0.72
364
0.72
370
0.84
280
0.92
354
1.14
258
1.34
342
1.25
339
1.22
284
1.34
333
1.07
334
1.31
334
1.11
329
0.53
368
0.57
384
0.59
373
0.67
381
0.56
368
0.57
372
ETE_ROBtwo views0.73
288
0.52
323
0.93
306
0.57
323
0.37
278
0.80
264
0.86
351
1.19
274
0.95
233
1.20
331
1.22
284
1.39
342
0.86
301
1.07
298
0.88
282
0.27
288
0.21
278
0.31
318
0.27
308
0.34
309
0.35
313
CC-Net-ROBtwo views0.84
314
1.01
378
0.93
306
0.60
332
0.45
324
1.25
342
0.71
321
1.20
277
1.05
273
0.84
195
1.24
287
0.90
249
0.78
279
1.14
308
0.70
251
0.48
362
0.34
354
1.71
389
0.38
347
0.78
375
0.40
331
Wz-Net-LNSev-Reftwo views0.67
278
0.30
244
1.20
332
0.42
130
0.31
228
1.00
307
0.58
296
1.16
263
1.07
284
1.01
285
1.25
288
1.08
296
0.75
265
1.18
315
1.03
316
0.20
211
0.12
86
0.16
57
0.13
49
0.22
227
0.22
224
Wz-Net-MNSevtwo views0.81
306
0.42
302
1.64
368
0.51
281
0.41
300
1.46
353
0.95
357
1.24
290
1.26
330
1.31
344
1.25
288
1.17
311
0.83
290
1.21
320
1.06
324
0.22
242
0.19
264
0.24
257
0.23
271
0.29
282
0.26
263
FINETtwo views0.75
297
0.45
307
1.38
350
0.48
249
0.46
332
0.98
304
1.00
361
1.22
286
1.69
369
0.91
246
1.25
288
0.74
197
0.74
262
1.09
302
0.82
275
0.37
344
0.31
340
0.27
290
0.24
285
0.35
315
0.34
310
Wz-Net-TNSevtwo views1.23
357
1.24
384
5.25
399
0.51
281
0.43
312
1.49
358
1.09
365
1.58
364
1.42
349
1.25
339
1.26
291
1.58
360
1.52
367
1.97
374
1.95
366
0.33
326
0.32
346
0.26
282
0.30
319
0.41
332
0.43
344
DDUNettwo views1.10
345
2.58
412
0.83
286
1.21
385
1.27
389
1.02
313
0.69
318
1.17
269
0.95
233
0.98
277
1.26
291
1.28
319
0.84
293
0.97
278
0.79
271
0.85
382
0.40
367
2.00
394
0.60
379
1.34
386
0.94
381
DGSMNettwo views0.80
304
0.58
343
1.42
353
0.61
336
0.65
363
0.94
295
0.75
334
1.35
326
1.16
312
0.88
225
1.26
291
1.00
272
0.75
265
1.07
298
0.89
284
0.36
340
0.31
340
0.41
348
0.40
353
0.60
369
0.59
373
RTSCtwo views0.93
325
0.54
331
1.59
362
0.56
320
0.40
295
1.17
338
0.55
284
1.44
346
1.82
373
1.53
354
1.26
291
1.15
310
0.82
288
1.70
363
2.44
377
0.26
279
0.20
272
0.23
244
0.24
285
0.31
293
0.32
299
pcwnet_v2two views0.60
262
0.29
230
0.89
302
0.46
223
0.36
276
0.62
196
0.38
171
1.33
323
1.24
325
1.02
289
1.27
295
0.71
174
0.59
191
0.71
182
0.51
197
0.28
296
0.21
278
0.24
257
0.23
271
0.29
282
0.30
289
Ntrotwo views1.15
350
1.00
377
1.00
318
1.49
390
1.20
388
1.69
369
0.81
342
1.39
333
1.25
327
1.01
285
1.28
296
1.31
323
1.00
327
1.31
334
0.89
284
1.10
390
0.43
373
1.36
386
0.51
373
1.95
391
0.99
386
R-Stereo Traintwo views0.40
103
0.19
33
0.47
102
0.43
167
0.27
159
0.41
110
0.31
88
0.74
129
0.38
17
0.90
239
1.28
296
0.58
115
0.35
74
0.43
20
0.35
90
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
103
0.19
33
0.47
102
0.43
167
0.27
159
0.41
110
0.31
88
0.74
129
0.38
17
0.90
239
1.28
296
0.58
115
0.35
74
0.43
20
0.35
90
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
PS-NSSStwo views0.60
262
0.46
312
0.68
239
0.43
167
0.34
266
0.66
220
0.57
289
1.05
229
0.91
214
0.80
179
1.28
296
0.72
189
0.67
229
0.89
248
0.61
233
0.32
318
0.26
319
0.40
347
0.27
308
0.35
315
0.29
285
XX-Stereotwo views0.38
77
0.18
14
0.52
159
0.58
328
0.38
283
0.39
96
0.20
1
0.62
37
0.31
2
0.47
46
1.29
300
0.72
189
0.25
12
0.59
79
0.28
29
0.16
99
0.11
39
0.17
85
0.16
116
0.14
36
0.11
3
CBMVpermissivetwo views0.68
281
0.37
278
0.50
132
0.43
167
0.26
130
1.00
307
0.71
321
1.17
269
1.16
312
1.24
338
1.29
300
1.06
291
0.86
301
0.98
280
0.75
260
0.29
303
0.30
332
0.34
330
0.30
319
0.26
264
0.27
271
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
HHNettwo views0.42
124
0.19
33
0.43
74
0.35
12
0.38
283
0.33
66
0.33
109
0.71
100
0.78
142
0.87
217
1.30
302
0.52
83
0.36
79
0.53
54
0.37
107
0.16
99
0.11
39
0.19
148
0.15
90
0.15
66
0.25
258
otakutwo views1.10
345
0.96
373
0.96
312
1.37
389
1.06
386
1.65
366
0.72
325
1.46
349
1.19
320
1.10
320
1.32
303
1.32
325
0.95
322
1.29
329
0.81
274
0.89
384
0.46
377
1.24
385
0.50
372
1.86
389
0.89
380
Wz-Net-SNSevtwo views0.99
337
0.80
363
3.00
385
0.57
323
0.46
332
0.94
295
1.22
376
1.40
337
1.28
332
1.04
298
1.33
304
1.46
345
0.90
312
2.06
377
1.65
360
0.26
279
0.24
302
0.25
268
0.26
304
0.33
303
0.30
289
AANet_RVCtwo views0.59
255
0.35
268
0.68
239
0.47
241
0.28
180
0.57
180
0.47
244
1.04
223
1.28
332
0.87
217
1.33
304
0.86
235
0.63
205
1.16
312
0.89
284
0.19
192
0.13
141
0.15
41
0.14
69
0.18
151
0.20
193
CBMV_ROBtwo views0.62
271
0.39
286
0.41
50
0.41
105
0.28
180
0.86
283
0.28
50
1.06
234
1.02
263
0.95
259
1.33
304
0.81
226
0.84
293
0.94
263
0.56
217
0.37
344
0.37
359
0.43
350
0.40
353
0.33
303
0.32
299
FBW_ROBtwo views0.94
329
0.54
331
1.03
321
0.56
320
0.42
309
1.16
334
0.76
335
1.56
361
1.41
347
1.38
349
1.33
304
1.47
347
1.07
334
2.94
394
1.14
332
0.26
279
0.32
346
0.45
354
0.30
319
0.34
309
0.30
289
STTRV1_RVCtwo views0.60
347
0.67
351
0.81
371
1.12
327
0.63
308
1.37
332
1.12
297
0.98
277
1.34
308
1.08
296
0.95
322
1.28
327
0.90
290
0.57
373
0.25
310
0.44
352
0.39
349
0.60
369
0.41
336
Syn2CoExtwo views0.74
293
0.55
337
1.17
331
0.66
349
0.45
324
0.89
289
0.56
287
1.54
356
1.15
310
0.95
259
1.35
309
1.03
280
1.03
329
0.96
271
0.89
284
0.31
313
0.27
321
0.29
308
0.24
285
0.23
241
0.27
271
fast-acv-fttwo views0.66
277
0.32
253
0.80
276
0.46
223
0.34
266
1.26
343
0.50
262
0.91
179
1.00
256
1.05
303
1.36
310
1.28
319
0.84
293
0.81
224
0.90
290
0.22
242
0.24
302
0.23
244
0.23
271
0.21
209
0.22
224
CrosDoStereotwo views0.51
201
0.19
33
0.46
91
0.39
61
0.24
77
0.39
96
1.14
369
0.69
83
0.87
190
0.94
254
1.36
310
0.62
135
0.75
265
0.68
164
0.46
174
0.15
67
0.12
86
0.17
85
0.18
184
0.14
36
0.16
98
DeepStereo_LLtwo views0.51
201
0.19
33
0.46
91
0.39
61
0.24
77
0.39
96
1.14
369
0.69
83
0.87
190
0.94
254
1.36
310
0.62
135
0.75
265
0.68
164
0.46
174
0.15
67
0.12
86
0.17
85
0.18
184
0.14
36
0.16
98
GMM-Stereotwo views0.44
142
0.20
54
0.39
36
0.42
130
0.25
101
0.50
139
0.44
232
0.72
110
0.57
71
0.77
164
1.37
313
0.76
207
0.38
90
0.62
117
0.34
83
0.15
67
0.10
8
0.20
177
0.19
208
0.17
127
0.28
280
edge stereotwo views0.79
303
0.40
294
0.82
282
0.52
295
0.44
317
0.83
275
0.58
296
1.34
325
1.08
289
1.30
343
1.38
314
1.79
365
1.13
342
1.15
311
0.92
295
0.34
333
0.32
346
0.42
349
0.28
314
0.33
303
0.39
325
SHDtwo views0.98
335
0.54
331
1.30
343
0.63
342
0.50
339
1.14
330
0.50
262
1.80
379
2.20
380
1.66
361
1.39
315
1.47
347
1.21
347
1.40
340
1.80
363
0.32
318
0.27
321
0.32
323
0.34
339
0.41
332
0.44
348
THIR-Stereotwo views0.51
201
0.19
33
0.47
102
0.39
61
0.23
56
0.74
246
0.64
311
0.68
72
0.88
200
1.03
292
1.40
316
0.71
174
0.75
265
0.64
133
0.43
158
0.16
99
0.11
39
0.17
85
0.18
184
0.15
66
0.17
135
FAT-Stereotwo views0.75
297
0.34
264
0.81
281
0.51
281
0.38
283
0.78
252
0.63
308
1.39
333
1.32
339
1.05
303
1.40
316
1.58
360
1.14
343
0.92
257
0.91
293
0.29
303
0.28
326
0.28
300
0.23
271
0.28
280
0.41
336
GwcNetcopylefttwo views0.73
288
0.39
286
1.37
349
0.53
302
0.43
312
1.10
322
0.52
271
1.27
303
1.19
320
1.05
303
1.41
318
1.06
291
0.86
301
0.98
280
1.01
311
0.26
279
0.24
302
0.24
257
0.23
271
0.23
241
0.28
280
S-Stereotwo views0.76
300
0.36
276
1.10
324
0.57
323
0.46
332
0.83
275
0.59
299
1.31
315
1.62
365
0.98
277
1.41
318
1.11
305
0.93
317
0.85
237
1.07
326
0.27
288
0.31
340
0.28
300
0.25
296
0.33
303
0.50
361
NCC-stereotwo views0.82
307
0.43
304
0.87
298
0.63
342
0.68
367
0.88
286
0.72
325
1.60
367
1.12
297
0.95
259
1.41
318
1.37
337
1.37
358
1.26
324
0.94
299
0.32
318
0.30
332
0.37
338
0.49
370
0.34
309
0.35
313
Abc-Nettwo views0.82
307
0.43
304
0.87
298
0.63
342
0.68
367
0.88
286
0.72
325
1.60
367
1.12
297
0.95
259
1.41
318
1.37
337
1.37
358
1.26
324
0.94
299
0.32
318
0.30
332
0.37
338
0.49
370
0.34
309
0.35
313
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
psmorigintwo views0.84
314
0.53
325
2.21
381
0.50
269
0.41
300
0.86
283
0.57
289
1.08
241
0.90
208
1.50
352
1.42
322
1.50
351
1.09
336
1.29
329
1.03
316
0.32
318
0.33
351
0.27
290
0.27
308
0.34
309
0.45
350
ADCPNettwo views1.11
348
0.53
325
3.26
389
0.55
317
0.44
317
1.47
354
0.83
346
1.21
280
1.17
315
1.26
341
1.42
322
1.67
363
1.12
340
1.48
351
3.86
394
0.30
310
0.29
328
0.30
317
0.32
331
0.37
322
0.37
322
ADCReftwo views0.84
314
0.46
312
1.60
365
0.52
295
0.45
324
1.08
321
0.52
271
1.13
256
1.03
267
1.22
334
1.43
324
0.87
239
0.93
317
0.91
255
3.35
388
0.19
192
0.16
212
0.23
244
0.23
271
0.23
241
0.22
224
RAFT_CTSACEtwo views0.46
153
0.20
54
0.48
115
0.46
223
0.27
159
0.34
72
0.39
184
0.62
37
0.74
132
0.78
175
1.44
325
0.86
235
0.38
90
1.09
302
0.27
23
0.13
9
0.13
141
0.18
116
0.16
116
0.16
103
0.12
10
ccnettwo views0.84
314
0.59
345
0.86
293
0.56
320
0.60
359
1.11
326
0.72
325
1.44
346
0.97
245
1.15
327
1.44
325
1.28
319
0.95
322
1.01
290
1.33
344
0.49
363
0.43
373
0.50
366
0.47
363
0.52
359
0.48
358
CSANtwo views0.88
322
0.52
323
0.93
306
0.61
336
0.42
309
1.19
339
1.11
366
1.27
303
1.48
356
1.37
347
1.44
325
1.37
337
1.30
353
1.46
350
1.01
311
0.39
350
0.31
340
0.36
334
0.37
344
0.35
315
0.36
316
test_4two views0.37
61
0.19
33
0.34
13
0.45
200
0.26
130
0.20
2
0.34
117
0.58
27
0.42
38
0.60
72
1.45
328
0.43
52
0.26
17
0.67
156
0.29
37
0.12
4
0.10
8
0.17
85
0.19
208
0.15
66
0.12
10
GrayStereotwo views0.49
180
0.20
54
0.44
79
0.47
241
0.29
199
0.51
144
0.62
305
0.71
100
0.66
96
1.04
298
1.46
329
0.77
212
0.73
260
0.58
74
0.35
90
0.15
67
0.12
86
0.17
85
0.17
158
0.15
66
0.30
289
RGCtwo views0.82
307
0.62
349
0.80
276
0.67
351
0.66
365
0.91
291
0.59
299
1.35
326
1.09
295
1.12
324
1.46
329
1.50
351
1.09
336
1.28
327
0.97
307
0.34
333
0.30
332
0.48
361
0.40
353
0.38
324
0.38
324
stereogantwo views0.83
313
0.33
259
0.89
302
0.61
336
0.51
341
1.80
372
0.50
262
1.41
339
1.39
346
1.05
303
1.47
331
1.56
359
1.04
331
1.32
336
0.87
281
0.29
303
0.29
328
0.29
308
0.25
296
0.39
328
0.40
331
ADCMidtwo views1.22
355
0.57
340
3.17
388
0.54
311
0.44
317
1.07
320
0.77
336
1.31
315
1.13
303
2.14
380
1.48
332
1.49
350
1.47
365
1.65
360
5.30
401
0.26
279
0.24
302
0.29
308
0.32
331
0.38
324
0.36
316
AnyNet_C32two views1.27
360
0.72
359
3.33
390
0.59
330
0.56
349
1.51
359
1.53
389
1.27
303
1.28
332
1.52
353
1.48
332
1.38
341
1.23
349
1.64
359
5.26
399
0.30
310
0.29
328
0.29
308
0.34
339
0.38
324
0.44
348
DispFullNettwo views1.64
377
2.64
413
3.14
387
2.57
405
1.78
398
1.32
345
0.55
284
1.42
344
1.45
352
1.89
371
1.48
332
1.55
357
2.35
391
2.08
379
1.12
331
0.60
375
0.19
264
2.33
402
0.73
384
2.35
400
1.30
395
Sa-1000two views0.49
180
0.25
167
0.45
84
0.46
223
0.25
101
0.64
209
0.34
117
0.85
164
0.95
233
0.85
205
1.51
335
0.55
91
0.44
125
0.94
263
0.31
58
0.16
99
0.12
86
0.21
218
0.20
227
0.15
66
0.14
49
ACVNet_1two views1.55
374
1.36
388
1.35
348
1.96
398
1.63
393
1.83
374
0.96
359
2.09
383
1.85
374
1.43
351
1.54
336
2.31
376
1.68
373
1.42
344
1.18
334
1.76
398
0.51
381
2.05
399
0.59
378
2.24
399
1.30
395
anonymousatwo views0.51
201
0.21
74
0.47
102
0.39
61
0.25
101
0.89
289
0.36
146
0.78
144
0.63
84
0.88
225
1.54
336
1.09
302
0.67
229
0.53
54
0.46
174
0.17
125
0.14
172
0.19
148
0.21
244
0.16
103
0.16
98
MFN_U_SF_RVCtwo views1.14
349
0.63
350
2.33
382
0.69
358
0.46
332
2.04
377
0.70
319
1.90
380
1.37
343
1.62
357
1.56
338
1.94
370
1.36
356
1.73
365
1.90
365
0.41
355
0.38
360
0.45
354
0.48
367
0.45
342
0.47
356
MFN_U_SF_DS_RVCtwo views1.06
341
0.61
348
1.82
373
0.69
358
0.51
341
2.62
385
1.69
396
1.28
308
1.44
351
1.39
350
1.56
338
1.34
333
0.91
313
1.68
362
0.95
302
0.38
349
0.39
364
0.46
357
0.61
380
0.41
332
0.43
344
ADCLtwo views1.10
345
0.42
302
1.57
361
0.51
281
0.41
300
1.71
370
0.92
354
1.36
330
1.45
352
1.33
345
1.56
338
1.22
317
1.26
352
1.45
348
5.27
400
0.22
242
0.19
264
0.25
268
0.25
296
0.29
282
0.29
285
RainbowNettwo views1.42
369
1.53
393
1.31
344
1.93
396
1.46
390
1.52
360
1.03
362
1.67
372
1.55
359
1.23
336
1.59
341
1.54
356
1.21
347
1.40
340
1.03
316
1.70
396
0.70
387
1.82
391
0.80
387
2.11
395
1.22
391
ACVNet-4btwo views1.43
370
1.34
387
1.28
340
1.95
397
1.60
392
1.93
376
0.77
336
1.59
365
1.64
367
1.05
303
1.60
342
2.10
373
0.92
315
1.79
368
0.84
277
1.76
398
0.35
356
2.03
397
0.67
381
2.16
396
1.18
390
DEmStereotwo views0.49
180
0.18
14
0.53
166
0.39
61
0.26
130
0.57
180
0.33
109
0.65
54
0.75
134
0.90
239
1.65
343
0.57
100
1.02
328
0.63
126
0.44
165
0.14
18
0.12
86
0.16
57
0.16
116
0.14
36
0.17
135
Consistency-Rafttwo views1.01
339
0.82
364
1.27
339
0.85
372
0.97
378
0.81
269
0.83
346
1.35
326
1.61
364
1.06
311
1.66
344
1.11
305
0.93
317
0.93
260
1.11
329
0.65
376
0.75
392
0.79
377
0.91
390
1.09
384
0.79
378
RPtwo views0.80
304
0.38
282
0.73
262
0.67
351
0.59
356
0.82
272
0.57
289
1.21
280
1.28
332
1.03
292
1.68
345
1.45
344
1.49
366
1.08
301
0.90
290
0.36
340
0.31
340
0.37
338
0.30
319
0.36
319
0.36
316
ADCStwo views1.60
375
0.70
355
4.02
393
0.61
336
0.53
345
1.31
344
1.11
366
1.71
374
1.86
375
1.97
375
1.68
345
1.51
353
1.46
363
2.07
378
9.20
408
0.34
333
0.32
346
0.33
328
0.36
342
0.45
342
0.46
354
WZ-Nettwo views1.29
362
0.64
351
5.42
400
0.64
345
0.52
343
1.37
348
1.29
379
1.41
339
1.77
372
1.56
355
1.69
347
1.74
364
1.41
360
2.50
389
2.16
374
0.28
296
0.21
278
0.23
244
0.25
296
0.39
328
0.41
336
MFMNet_retwo views1.17
353
0.99
375
1.31
344
1.02
378
0.95
376
1.32
345
1.32
380
1.44
346
1.58
362
1.72
366
1.70
348
1.21
314
1.57
368
1.16
312
1.04
321
0.88
383
0.76
394
0.79
377
0.75
385
0.90
378
0.94
381
KYRafttwo views0.48
171
0.21
74
0.41
50
0.45
200
0.23
56
0.43
121
0.36
146
0.68
72
0.45
47
0.94
254
1.72
349
0.78
214
0.40
108
0.65
139
0.32
64
0.16
99
0.11
39
0.18
116
0.22
262
0.17
127
0.76
377
whm_ethtwo views0.49
180
0.32
253
0.79
275
0.47
241
0.38
283
0.37
86
0.37
158
0.83
159
0.83
175
0.82
184
1.73
350
0.36
32
0.39
103
0.61
95
0.38
120
0.19
192
0.17
238
0.20
177
0.20
227
0.20
200
0.25
258
DRafttwo views0.49
180
0.18
14
0.50
132
0.38
45
0.25
101
0.57
180
0.39
184
0.67
67
0.86
186
1.02
289
1.75
351
0.50
77
0.79
280
0.65
139
0.42
156
0.14
18
0.11
39
0.16
57
0.16
116
0.14
36
0.17
135
RAFT-345two views0.41
117
0.19
33
0.42
58
0.39
61
0.23
56
0.32
60
0.25
30
0.62
37
0.56
67
0.74
148
1.77
352
0.44
55
0.35
74
0.67
156
0.37
107
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
MADNet+two views2.28
392
2.56
410
10.82
407
1.25
386
0.96
377
2.77
391
1.44
388
2.34
387
1.76
371
1.36
346
1.78
353
1.84
368
1.74
375
6.33
409
4.57
398
0.67
377
0.66
386
0.59
373
0.54
376
0.84
376
0.81
379
MDST_ROBtwo views0.97
333
0.29
230
1.02
320
0.64
345
0.43
312
2.64
386
0.82
344
1.68
373
1.18
319
2.89
392
1.82
354
0.97
265
0.75
265
1.83
370
0.89
284
0.26
279
0.22
287
0.32
323
0.28
314
0.26
264
0.26
263
Prome-Stereotwo views0.46
153
0.20
54
0.37
27
0.45
200
0.26
130
0.40
101
0.42
219
0.69
83
0.49
57
0.96
271
1.84
355
0.58
115
0.64
212
0.63
126
0.32
64
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
289
MSC_U_SF_DS_RVCtwo views1.38
366
0.91
371
2.11
380
0.89
373
0.57
353
4.27
405
1.79
400
1.55
357
2.00
378
1.64
359
1.85
356
1.83
366
1.44
362
1.89
373
1.49
354
0.49
363
0.40
367
0.56
370
0.58
377
0.75
374
0.52
367
Nwc_Nettwo views0.82
307
0.40
294
0.86
293
0.62
340
0.56
349
1.04
317
0.57
289
1.72
375
1.08
289
0.93
250
1.88
357
1.44
343
1.24
350
1.19
316
0.94
299
0.31
313
0.25
310
0.36
334
0.39
349
0.31
293
0.31
296
SPS-STEREOcopylefttwo views1.29
362
0.94
372
1.10
324
1.05
381
1.03
384
1.48
355
0.91
352
1.57
363
1.24
325
2.13
377
1.90
358
1.94
370
1.46
363
1.77
366
1.64
359
0.97
386
0.94
404
0.90
380
0.89
389
0.96
381
0.97
384
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
EDNetEfficienttwo views1.47
372
0.82
364
6.28
402
0.48
249
0.40
295
0.73
242
0.83
346
0.95
197
2.77
390
3.48
404
1.95
359
1.64
362
2.12
386
1.42
344
3.84
393
0.21
226
0.19
264
0.21
218
0.21
244
0.43
338
0.42
340
AnyNet_C01two views1.63
376
1.16
382
7.38
404
0.65
347
0.56
349
2.25
381
1.53
389
1.53
355
1.46
354
1.71
365
1.95
359
1.83
366
1.41
360
2.48
387
4.42
397
0.33
326
0.32
346
0.32
323
0.34
339
0.45
342
0.50
361
SGM_RVCbinarytwo views1.04
340
0.30
244
0.47
102
0.41
105
0.23
56
1.73
371
0.77
336
1.63
369
1.30
337
2.39
385
1.99
361
2.64
381
1.78
376
2.22
383
1.40
347
0.28
296
0.27
321
0.27
290
0.25
296
0.25
258
0.25
258
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
aanetorigintwo views0.85
319
0.58
343
1.98
376
0.50
269
0.40
295
0.66
220
0.70
319
0.72
110
1.01
258
2.44
387
2.00
362
1.32
325
1.25
351
0.96
271
1.16
333
0.20
211
0.19
264
0.20
177
0.20
227
0.27
273
0.33
308
GANettwo views0.74
293
0.38
282
0.63
217
0.54
311
0.35
271
1.01
311
0.95
357
1.15
261
0.95
233
1.09
317
2.00
362
1.14
309
0.92
315
1.29
329
0.75
260
0.25
274
0.27
321
0.27
290
0.23
271
0.32
299
0.24
251
AF-Nettwo views0.85
319
0.41
298
0.87
298
0.66
349
0.54
347
0.96
299
0.52
271
1.66
371
1.37
343
1.03
292
2.04
364
1.46
345
1.36
356
1.19
316
1.05
323
0.34
333
0.24
302
0.39
344
0.28
314
0.31
293
0.26
263
SDNRtwo views0.89
323
0.39
286
1.66
371
0.42
130
0.39
292
3.35
399
0.32
100
0.95
197
1.05
273
1.05
303
2.12
365
0.62
135
0.71
249
1.40
340
0.78
264
0.53
368
0.56
383
0.36
334
0.27
308
0.46
345
0.50
361
tttwo views6.21
410
0.22
97
5.88
401
3.55
415
2.07
404
11.25
416
19.19
417
11.84
418
5.47
405
2.71
390
2.18
366
4.87
400
6.25
410
3.71
399
7.09
404
8.31
420
11.17
424
4.91
416
5.39
419
5.72
417
2.42
409
ASMatchtwo views0.48
171
0.20
54
0.47
102
0.39
61
0.28
180
0.37
86
0.26
40
0.76
136
0.72
118
0.77
164
2.29
367
0.61
129
0.51
156
0.64
133
0.39
128
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
224
PWCKtwo views2.06
387
1.75
401
4.11
395
1.69
391
0.93
374
3.13
398
2.86
410
2.18
386
2.41
386
2.38
384
2.33
368
2.22
374
1.85
378
3.52
398
2.20
375
1.65
395
0.73
388
1.52
388
0.83
388
1.81
388
1.02
389
LSMtwo views4.83
406
0.83
367
11.23
408
0.76
369
56.73
433
1.10
322
1.18
372
1.35
326
1.70
370
2.13
377
2.34
369
1.34
333
1.19
346
1.52
353
1.23
338
0.34
333
0.50
380
0.39
344
0.47
363
0.51
356
9.82
419
pmcnntwo views1.27
360
0.31
251
1.14
329
0.41
105
0.23
56
0.97
300
0.71
321
1.23
289
1.32
339
1.83
369
2.34
369
11.25
415
0.89
310
1.04
296
0.96
304
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
PVDtwo views1.34
365
0.70
355
1.42
353
0.78
370
0.65
363
1.68
368
0.91
352
2.12
385
3.01
392
2.25
382
2.35
371
1.90
369
1.99
383
1.98
375
2.14
372
0.40
354
0.38
360
0.49
364
0.37
344
0.51
356
0.67
374
SANettwo views1.15
350
0.45
307
1.40
351
0.50
269
0.32
245
1.54
361
1.21
374
1.49
351
3.35
396
1.61
356
2.41
372
2.32
378
1.80
377
1.57
355
1.27
340
0.28
296
0.25
310
0.26
282
0.24
285
0.36
319
0.32
299
EDNetEfficientorigintwo views9.96
413
1.17
383
175.17
436
0.49
258
0.37
278
1.13
329
0.74
332
1.27
303
2.70
389
3.16
401
2.49
373
2.28
375
2.15
387
1.88
371
2.27
376
0.21
226
0.19
264
0.25
268
0.20
227
0.54
361
0.53
369
NVStereoNet_ROBtwo views1.31
364
0.96
373
1.33
346
0.90
374
0.92
373
1.15
332
1.05
363
1.49
351
1.62
365
1.63
358
2.51
374
2.31
376
1.62
370
2.16
382
1.42
348
0.81
381
0.73
388
0.79
377
1.02
394
0.73
373
0.97
384
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
ACVNet_2two views1.74
379
1.30
386
1.62
367
1.81
393
1.63
393
2.28
382
1.34
382
2.35
388
2.64
388
1.82
368
2.55
375
2.99
385
1.71
374
1.67
361
1.20
337
1.48
394
0.59
385
1.81
390
0.71
383
2.09
394
1.29
394
RTStwo views2.03
385
1.03
379
11.50
409
0.68
355
0.63
361
2.71
387
1.56
391
1.55
357
2.32
383
1.93
372
2.57
376
1.32
325
1.32
354
5.20
406
4.30
395
0.31
313
0.23
294
0.29
308
0.30
319
0.41
332
0.40
331
RTSAtwo views2.03
385
1.03
379
11.50
409
0.68
355
0.63
361
2.71
387
1.56
391
1.55
357
2.32
383
1.93
372
2.57
376
1.32
325
1.32
354
5.20
406
4.30
395
0.31
313
0.23
294
0.29
308
0.30
319
0.41
332
0.40
331
PWC_ROBbinarytwo views0.92
324
0.57
340
1.64
368
0.53
302
0.33
256
0.93
293
0.39
184
1.42
344
1.51
358
1.66
361
2.57
376
1.18
312
1.11
338
1.50
352
1.54
357
0.26
279
0.18
247
0.28
300
0.20
227
0.30
289
0.32
299
G-Nettwo views0.95
330
0.48
320
1.13
327
0.67
351
0.49
336
2.07
378
0.63
308
1.02
217
0.90
208
1.77
367
2.62
379
1.28
319
1.60
369
1.09
302
1.06
324
0.37
344
0.30
332
0.35
331
0.25
296
0.46
345
0.45
350
UNDER WATER-64two views3.72
401
2.07
405
4.57
397
3.30
414
2.52
410
5.61
409
2.63
409
3.67
403
12.27
411
3.09
399
2.66
380
5.99
408
4.74
408
3.93
403
3.57
389
2.54
409
1.24
409
2.65
408
1.48
407
3.21
412
2.62
411
JetBluetwo views3.02
397
1.39
389
7.91
405
1.17
384
1.49
391
8.53
411
7.94
413
2.82
391
1.98
377
2.15
381
2.69
381
3.32
392
3.01
399
6.66
410
3.81
392
0.79
379
0.78
395
0.75
376
0.76
386
1.04
382
1.33
397
coex-fttwo views6.50
411
1.57
394
87.99
435
0.49
258
0.38
283
1.41
350
1.21
374
1.21
280
7.96
408
12.14
416
2.78
382
2.74
382
3.83
403
1.30
333
3.19
387
0.24
262
0.23
294
0.27
290
0.24
285
0.48
348
0.40
331
IMH-64-1two views1.96
382
1.64
398
1.26
336
2.26
402
1.91
401
2.30
383
1.35
383
2.99
393
2.29
381
1.70
363
2.79
383
2.47
379
1.66
371
2.33
384
1.95
366
2.07
401
0.74
390
2.44
403
1.04
396
2.40
401
1.59
401
IMH-64two views1.96
382
1.64
398
1.26
336
2.26
402
1.91
401
2.30
383
1.35
383
2.99
393
2.29
381
1.70
363
2.79
383
2.47
379
1.66
371
2.33
384
1.95
366
2.07
401
0.74
390
2.44
403
1.04
396
2.40
401
1.59
401
UNDER WATERtwo views3.63
400
2.12
406
4.11
395
3.17
412
2.51
409
3.77
403
2.45
407
3.53
402
13.66
415
2.98
397
2.92
385
5.75
405
4.13
406
3.85
402
3.75
391
2.84
412
1.11
407
2.71
410
1.41
406
3.26
413
2.50
410
SGM+DAISYtwo views1.52
373
0.99
375
1.61
366
1.01
377
1.02
383
1.86
375
1.19
373
1.49
351
1.38
345
2.96
396
3.00
386
2.79
383
1.94
379
1.88
371
1.62
358
0.98
387
0.97
406
0.91
382
0.91
390
0.94
380
0.99
386
FTStereotwo views0.56
236
0.21
74
0.39
36
0.42
130
0.25
101
0.39
96
0.73
330
0.69
83
0.45
47
1.09
317
3.23
387
0.69
171
0.71
249
0.55
62
0.34
83
0.15
67
0.13
141
0.19
148
0.17
158
0.15
66
0.32
299
KSHMRtwo views2.64
393
1.96
404
1.86
375
2.69
409
2.44
407
2.88
394
2.04
404
3.46
400
6.31
406
2.51
388
3.27
388
3.39
393
1.97
380
2.59
390
2.08
371
2.48
408
1.41
410
2.80
412
1.51
408
2.98
409
2.09
406
WAO-6two views2.11
389
1.52
392
1.25
335
1.73
392
1.69
397
2.72
389
1.62
393
3.15
395
3.64
397
2.01
376
3.28
389
3.52
395
2.20
390
2.59
390
2.48
380
1.31
393
0.92
400
2.04
398
1.22
405
1.89
390
1.35
399
Deantwo views2.07
388
1.39
389
1.69
372
2.17
400
1.83
400
2.75
390
1.28
378
3.49
401
3.80
400
2.13
377
3.30
390
3.18
389
1.98
382
1.78
367
1.72
361
1.73
397
0.79
398
1.99
393
0.91
390
2.17
397
1.34
398
WAO-7two views1.96
382
1.24
384
1.52
357
1.28
387
1.06
386
2.92
395
1.64
394
3.32
397
3.05
394
2.28
383
3.32
391
3.19
390
2.38
392
3.39
396
2.49
381
1.02
388
0.92
400
1.06
384
1.04
396
1.05
383
0.99
386
MeshStereopermissivetwo views1.38
366
0.45
307
0.58
194
0.45
200
0.35
271
1.63
365
0.60
301
2.07
382
1.43
350
4.49
407
3.32
391
4.67
398
2.08
385
2.08
379
1.32
343
0.36
340
0.36
358
0.37
338
0.32
331
0.32
299
0.34
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
IMHtwo views2.15
390
1.66
400
1.29
341
2.25
401
1.92
403
2.87
393
1.33
381
3.25
396
3.04
393
1.87
370
3.33
393
3.00
386
2.03
384
2.80
393
1.95
366
2.09
403
0.78
395
2.45
405
1.05
399
2.44
403
1.62
403
ELAS_RVCcopylefttwo views1.76
380
0.64
351
1.20
332
0.74
366
0.59
356
2.18
380
2.53
408
2.10
384
2.85
391
3.46
403
3.41
394
3.12
388
4.11
405
2.69
392
2.53
382
0.54
371
0.47
378
0.51
368
0.48
367
0.55
363
0.55
370
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PWCDC_ROBbinarytwo views0.93
325
0.54
331
0.97
316
0.78
370
0.41
300
1.03
315
0.42
219
1.39
333
2.34
385
1.04
298
3.73
395
0.80
224
1.12
340
1.29
329
1.04
321
0.37
344
0.22
287
0.24
257
0.20
227
0.36
319
0.31
296
MSMD_ROBtwo views1.25
358
0.51
321
0.64
221
0.60
332
0.50
339
1.66
367
0.67
313
1.26
298
1.26
330
2.64
389
3.82
396
3.06
387
3.20
401
1.45
348
0.91
293
0.46
358
0.41
369
0.49
364
0.51
373
0.47
347
0.45
350
JetRedtwo views5.38
409
6.17
417
12.68
412
2.38
404
2.85
413
12.60
417
11.17
415
4.60
407
3.74
398
3.87
406
3.85
397
4.83
399
4.13
406
6.81
411
12.18
412
2.18
404
2.95
415
2.19
401
1.98
410
3.49
414
3.01
413
RAFT-RH_RVCtwo views0.57
240
0.18
14
0.44
79
0.38
45
0.23
56
0.56
170
0.24
23
0.61
35
0.73
127
1.18
329
3.90
398
0.55
91
0.40
108
0.67
156
0.38
120
0.14
18
0.11
39
0.20
177
0.15
90
0.12
2
0.14
49
WCMA_ROBtwo views1.22
355
0.39
286
0.93
306
0.51
281
0.45
324
1.44
352
0.79
340
1.20
277
1.30
337
2.99
398
3.94
399
3.30
391
2.17
388
1.42
344
1.31
342
0.46
358
0.35
356
0.35
331
0.37
344
0.41
332
0.42
340
ELAScopylefttwo views1.77
381
0.64
351
1.10
324
0.72
364
0.58
354
3.37
400
1.76
398
2.54
390
2.57
387
3.77
405
3.96
400
2.83
384
3.44
402
2.34
386
2.73
384
0.53
368
0.47
378
0.50
366
0.48
367
0.55
363
0.55
370
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
WAO-8two views3.00
395
1.60
395
1.52
357
1.82
394
1.65
395
5.57
407
1.35
383
4.65
408
12.37
412
2.89
392
4.04
401
4.89
401
2.78
395
3.73
400
2.44
377
1.29
391
0.93
402
2.00
394
1.16
403
2.02
392
1.23
392
Venustwo views3.00
395
1.60
395
1.52
357
1.82
394
1.65
395
5.57
407
1.35
383
4.65
408
12.37
412
2.89
392
4.04
401
4.89
401
2.78
395
3.73
400
2.44
377
1.29
391
0.93
402
2.00
394
1.16
403
2.02
392
1.23
392
notakertwo views2.87
394
2.31
408
2.01
377
3.03
411
2.60
412
2.94
396
1.82
401
3.43
399
3.06
395
2.89
392
4.21
403
6.15
409
2.71
394
3.42
397
2.90
385
2.67
411
1.18
408
3.00
413
1.67
409
3.13
410
2.26
408
LVEtwo views2.20
391
1.47
391
1.44
355
2.06
399
1.80
399
2.79
392
1.77
399
2.96
392
3.94
402
1.95
374
4.29
404
3.47
394
1.97
380
2.48
387
1.85
364
2.06
400
0.88
399
2.06
400
1.13
401
2.17
397
1.53
400
FCDSN-DCtwo views1.43
370
0.57
340
0.69
247
0.74
366
0.59
356
1.42
351
0.65
312
1.40
337
1.41
347
3.31
402
4.42
405
4.57
397
3.01
399
1.70
363
1.19
336
0.46
358
0.42
371
0.48
361
0.47
363
0.51
356
0.51
365
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
DPSimNet_ROBtwo views5.19
408
2.71
414
18.56
414
2.59
406
2.49
408
4.25
404
10.93
414
3.33
398
3.93
401
5.02
410
4.52
406
5.74
404
10.18
411
5.44
408
8.79
407
2.40
407
2.47
413
2.48
406
2.54
412
2.56
405
2.87
412
FC-DCNNcopylefttwo views1.67
378
0.53
325
0.68
239
0.62
340
0.49
336
1.62
364
0.71
321
1.77
378
1.55
359
4.73
409
4.66
407
5.82
406
3.94
404
2.13
381
1.42
348
0.47
361
0.42
371
0.47
358
0.46
362
0.48
348
0.47
356
LE_ROBtwo views4.86
407
0.27
207
9.43
406
0.45
200
0.24
77
1.61
363
0.96
359
2.05
381
17.75
422
16.36
424
4.84
408
5.17
403
19.48
424
2.05
376
15.49
415
0.17
125
0.15
191
0.16
57
0.16
116
0.20
200
0.19
166
ktntwo views3.02
397
2.27
407
1.85
374
2.89
410
2.54
411
3.72
401
2.14
405
3.79
404
5.33
404
2.82
391
5.09
409
5.95
407
2.54
393
3.34
395
2.58
383
2.65
410
1.44
411
2.78
411
2.03
411
2.61
406
2.10
407
MADNet++two views4.18
402
2.72
415
4.00
392
3.80
416
3.44
415
4.72
406
4.05
412
4.01
405
3.74
398
4.52
408
5.14
410
4.20
396
4.89
409
7.04
412
6.39
402
3.79
413
3.70
416
3.27
415
2.70
414
3.68
415
3.74
416
TorneroNet-64two views3.54
399
1.89
402
1.59
362
2.62
408
2.29
405
6.88
410
1.72
397
4.72
410
11.88
410
2.43
386
5.46
411
8.16
411
2.80
397
4.13
404
3.03
386
2.25
406
0.75
392
2.57
407
1.09
400
2.65
407
1.84
405
ASD4two views10.37
414
9.12
420
17.90
413
7.49
419
10.02
417
16.90
419
28.93
421
11.05
417
8.53
409
7.42
414
7.41
412
8.91
412
10.32
412
11.44
417
20.38
419
4.52
416
4.58
418
5.68
419
5.04
418
5.72
417
6.02
418
SGM-ForestMtwo views4.73
404
0.34
264
1.05
322
0.46
223
0.28
180
10.26
412
3.48
411
4.52
406
5.16
403
8.68
415
7.48
413
18.87
422
10.80
414
11.26
416
10.01
409
0.32
318
0.34
354
0.32
323
0.32
331
0.29
282
0.30
289
TorneroNettwo views4.49
403
1.92
403
1.65
370
2.60
407
2.29
405
14.95
418
1.86
402
4.86
411
19.56
426
3.10
400
7.52
414
7.00
410
2.90
398
4.48
405
3.66
390
2.24
405
0.78
395
2.68
409
1.14
402
2.79
408
1.80
404
MANEtwo views4.73
404
0.54
331
0.77
272
0.69
358
0.60
359
10.35
413
1.67
395
8.68
414
12.66
414
6.90
413
9.43
415
11.59
416
10.59
413
8.26
413
8.41
406
0.51
366
0.45
375
0.48
361
1.02
394
0.50
353
0.50
361
HanzoNettwo views6.97
412
2.57
411
4.66
398
3.29
413
2.96
414
3.75
402
2.35
406
5.08
412
7.11
407
14.46
423
13.06
416
17.69
420
22.95
426
13.72
418
6.61
403
4.36
415
1.96
412
3.14
414
2.59
413
3.88
416
3.19
414
xxxxx1two views36.77
430
19.69
424
24.00
419
62.46
435
66.77
435
27.30
425
39.89
427
20.40
421
18.80
423
14.18
420
13.11
417
17.29
417
17.30
421
21.62
423
27.81
425
13.61
424
18.98
432
111.36
436
133.25
435
28.84
430
38.64
432
tt_lltwo views36.77
430
19.69
424
24.00
419
62.46
435
66.77
435
27.30
425
39.89
427
20.40
421
18.80
423
14.18
420
13.11
417
17.29
417
17.30
421
21.62
423
27.81
425
13.61
424
18.98
432
111.36
436
133.25
435
28.84
430
38.64
432
fftwo views36.77
430
19.69
424
24.00
419
62.46
435
66.77
435
27.30
425
39.89
427
20.40
421
18.80
423
14.18
420
13.11
417
17.29
417
17.30
421
21.62
423
27.81
425
13.61
424
18.98
432
111.36
436
133.25
435
28.84
430
38.64
432
Anonymous_1two views33.12
424
18.23
421
23.86
418
20.53
422
21.18
423
25.45
421
35.84
424
22.44
428
15.68
419
13.41
417
13.70
420
18.00
421
15.15
418
20.31
419
24.47
422
14.56
427
8.84
421
66.24
435
117.79
434
155.41
438
11.40
422
DPSM_ROBtwo views17.80
418
18.60
422
24.24
422
20.89
423
19.49
421
25.83
422
36.10
425
21.62
426
16.41
420
13.46
418
14.26
421
19.11
423
16.15
419
20.74
420
25.59
423
9.37
422
9.23
422
9.47
422
9.81
422
13.47
421
12.09
423
DPSMtwo views17.80
418
18.60
422
24.24
422
20.89
423
19.49
421
25.83
422
36.10
425
21.62
426
16.41
420
13.46
418
14.26
421
19.11
423
16.15
419
20.74
420
25.59
423
9.37
422
9.23
422
9.47
422
9.81
422
13.47
421
12.09
423
DGTPSM_ROBtwo views12.12
415
8.03
418
21.12
415
8.97
420
16.81
419
10.68
414
30.77
422
9.14
415
15.23
417
6.55
411
15.49
423
9.02
413
15.13
416
9.26
414
21.71
420
4.58
417
8.60
419
5.07
417
9.26
420
5.88
419
11.06
420
DPSMNet_ROBtwo views12.13
416
8.03
418
21.13
416
9.02
421
16.82
420
10.68
414
30.78
423
9.15
416
15.24
418
6.56
412
15.50
424
9.02
413
15.13
416
9.28
415
21.71
420
4.59
418
8.60
419
5.08
418
9.26
420
5.89
420
11.06
420
SPstereotwo views24.33
422
4.45
416
7.15
403
4.44
417
4.17
416
45.69
430
77.93
436
63.66
437
33.40
435
27.58
432
26.62
425
39.42
435
33.37
435
42.68
437
50.66
431
4.01
414
3.77
417
6.06
420
4.73
416
3.17
411
3.55
415
LRCNet_RVCtwo views21.27
421
31.14
428
21.46
417
28.97
426
23.77
424
3.11
397
0.62
305
20.94
424
1.64
367
25.57
425
28.13
426
21.96
425
14.74
415
21.99
426
16.44
416
29.16
434
14.92
425
33.57
431
31.28
430
29.67
433
26.33
430
CasAABBNettwo views35.77
425
37.38
431
48.59
429
42.20
429
39.23
428
51.95
431
72.92
435
43.36
434
33.03
431
26.93
426
28.31
427
38.43
432
32.32
429
41.58
431
51.50
436
18.71
428
18.58
427
19.11
428
19.75
425
27.11
427
24.33
425
Selective-RAFT-Errortwo views35.87
429
37.42
432
48.73
433
42.24
430
39.28
429
52.00
435
72.87
431
43.41
435
32.95
430
26.97
427
28.72
428
38.71
434
33.15
434
41.59
435
51.42
432
18.77
432
18.60
428
19.14
429
19.78
429
27.19
428
24.42
429
LSM0two views38.96
435
37.52
436
48.37
428
43.79
434
91.31
438
52.31
436
72.38
430
43.71
436
32.75
429
27.16
428
28.73
429
38.51
433
32.63
433
41.75
436
51.59
437
18.85
433
18.43
426
19.09
427
19.60
424
27.21
429
33.44
431
MyStereo03two views35.83
426
37.48
433
48.64
430
42.37
431
39.41
430
51.98
432
72.91
432
43.07
431
33.07
432
27.20
429
28.81
430
38.36
429
32.60
430
41.58
431
51.47
433
18.74
429
18.61
429
19.07
424
19.77
426
27.10
424
24.35
426
MyStereo02two views35.83
426
37.48
433
48.64
430
42.37
431
39.41
430
51.98
432
72.91
432
43.07
431
33.07
432
27.20
429
28.81
430
38.36
429
32.60
430
41.58
431
51.47
433
18.74
429
18.61
429
19.07
424
19.77
426
27.10
424
24.35
426
MyStereotwo views35.83
426
37.48
433
48.64
430
42.37
431
39.41
430
51.98
432
72.91
432
43.07
431
33.07
432
27.20
429
28.81
430
38.36
429
32.60
430
41.58
431
51.47
433
18.74
429
18.61
429
19.07
424
19.77
426
27.10
424
24.35
426
BEATNet-Init1two views15.65
417
1.62
397
54.26
434
0.75
368
0.56
349
37.03
429
13.39
416
13.20
419
14.59
416
29.41
433
29.29
433
47.69
436
21.87
425
26.91
427
19.58
417
0.43
357
0.39
364
0.47
358
0.47
363
0.52
359
0.52
367
HaxPigtwo views31.93
423
37.19
430
34.22
424
24.41
425
24.94
425
18.53
420
20.18
418
21.15
425
28.84
428
35.74
434
38.86
434
26.18
426
28.75
428
33.85
428
34.15
428
35.89
435
38.80
435
37.79
432
40.52
431
39.33
434
39.33
435
AVERAGE_ROBtwo views37.53
434
40.05
437
40.01
426
34.74
428
33.76
427
28.46
428
25.14
420
32.31
430
34.08
437
41.20
435
40.52
435
34.51
428
34.78
437
39.11
429
37.48
430
42.68
436
43.32
436
43.80
433
42.99
432
40.42
435
41.31
436
MEDIAN_ROBtwo views37.35
433
40.72
438
40.37
427
32.26
427
31.80
426
27.29
424
25.02
419
29.47
429
33.43
436
41.99
436
41.60
436
33.48
427
34.37
436
39.66
430
36.94
429
43.49
437
43.96
437
44.07
434
43.35
433
41.32
436
42.43
437
test_example2two views176.82
437
204.75
439
198.54
437
188.58
439
191.23
439
151.28
438
169.77
437
97.63
438
125.81
438
179.94
438
183.74
437
158.20
438
139.14
438
192.16
438
198.12
438
203.48
438
236.37
438
163.71
439
173.22
438
217.79
439
162.95
438
PMLtwo views40.49
436
30.31
427
12.46
411
7.19
418
14.30
418
91.44
437
212.44
438
7.73
413
23.24
427
74.44
437
185.05
438
49.81
437
25.78
427
21.34
422
12.84
413
8.71
421
2.93
414
8.43
421
3.24
415
13.77
423
4.45
417
FADEtwo views2.54
409
1.04
380
1.00
381
21.24
430
0.63
371