This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort bysort bysort bysort by
CAStwo views0.37
61
0.13
1
0.27
7
1.34
388
0.31
228
0.46
131
0.38
171
0.50
11
0.48
56
0.35
15
0.52
40
0.24
1
0.19
3
0.30
1
0.28
29
1.03
389
0.08
1
0.12
2
0.08
1
0.12
2
0.28
280
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
87
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
103
0.53
42
0.42
46
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
177
0.16
116
0.16
103
0.12
10
test-3two views0.35
37
0.17
8
0.48
115
0.40
87
0.22
30
0.42
117
0.22
11
0.66
56
0.80
153
0.72
134
0.45
21
0.63
139
0.29
41
0.45
25
0.32
64
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
37
0.17
8
0.48
115
0.40
87
0.22
30
0.42
117
0.22
11
0.66
56
0.80
153
0.70
124
0.45
21
0.63
139
0.29
41
0.45
25
0.32
64
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
46
0.80
124
0.29
4
0.25
12
0.37
5
0.34
83
0.14
18
0.09
2
0.13
8
0.52
375
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
RAFT-Stereo + iAFFtwo views0.37
61
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
67
0.77
139
0.72
134
0.99
208
0.56
97
0.39
103
0.44
22
0.31
58
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
AFF-stereotwo views0.39
89
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
88
0.67
67
0.72
118
0.66
103
1.12
257
0.75
201
0.38
90
0.57
70
0.35
90
0.11
1
0.09
2
0.16
57
0.16
116
0.14
36
0.12
10
DLNR_Zeroshot_testpermissivetwo views20.12
422
36.36
429
38.38
427
170.13
438
62.28
434
0.22
4
0.20
1
13.43
421
0.40
29
0.45
40
0.66
73
0.42
46
0.21
5
0.64
133
0.32
64
5.57
419
0.10
8
0.15
41
0.11
15
72.31
437
0.13
31
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
130
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
61
0.54
45
0.39
39
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
230
0.18
184
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
Any-RAFTtwo views0.36
43
0.17
8
0.31
10
0.35
12
0.21
25
0.51
144
0.21
5
0.93
189
0.75
134
0.56
64
0.73
86
0.66
162
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
245
0.43
121
0.34
117
0.42
4
0.34
5
0.33
11
0.51
37
0.29
4
0.38
90
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
263
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
45
0.26
130
0.31
51
0.35
139
0.68
72
0.36
11
0.40
29
0.33
10
0.32
14
0.28
27
0.62
117
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
22
0.18
1
0.62
117
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
46
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
87
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
62
0.41
44
0.31
54
0.57
70
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
RCA-Stereotwo views0.36
43
0.18
14
0.37
27
0.38
45
0.23
56
0.31
51
0.33
109
0.70
93
1.25
327
0.45
40
0.65
70
0.46
65
0.43
120
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
DCANet-4two views0.38
77
0.22
97
0.58
194
0.35
12
0.19
8
0.30
39
0.30
69
0.69
83
0.97
245
0.70
124
0.79
114
0.40
40
0.46
138
0.46
29
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ffftwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ADStereo(finetuned)two views0.39
89
0.18
14
0.58
194
0.35
12
0.19
8
0.30
39
0.30
69
0.72
110
0.96
240
0.72
134
0.77
102
0.45
62
0.68
237
0.46
29
0.36
99
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
test_4two views0.37
61
0.19
33
0.34
13
0.45
200
0.26
130
0.20
2
0.34
117
0.58
27
0.42
38
0.60
72
1.45
328
0.43
52
0.26
17
0.67
156
0.29
37
0.12
4
0.10
8
0.17
85
0.19
208
0.15
66
0.12
10
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
45
0.26
130
0.30
39
0.35
139
0.68
72
0.36
11
0.40
29
0.33
10
0.32
14
0.28
27
0.62
117
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
test_3two views0.37
61
0.19
33
0.50
132
0.45
200
0.24
77
0.47
133
0.36
146
0.69
83
0.84
176
0.66
103
0.46
23
0.68
169
0.25
12
0.45
25
0.32
64
0.12
4
0.10
8
0.18
116
0.16
116
0.15
66
0.12
10
LCNettwo views0.42
124
0.21
74
0.34
13
0.44
188
0.24
77
0.47
133
0.28
50
0.69
83
0.57
71
0.72
134
1.03
229
0.66
162
0.58
187
0.60
89
0.35
90
0.15
67
0.10
8
0.19
148
0.19
208
0.22
227
0.37
322
TransformOpticalFlowtwo views0.46
153
0.21
74
0.49
123
0.42
130
0.24
77
0.36
78
0.46
239
1.04
223
0.84
176
0.67
110
1.14
265
0.73
193
0.56
175
0.78
216
0.33
74
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
PFNettwo views0.43
136
0.19
33
0.61
208
0.44
188
0.24
77
0.42
117
0.31
88
0.76
136
0.81
162
1.01
285
0.74
97
0.67
166
0.41
112
0.75
193
0.39
128
0.16
99
0.10
8
0.20
177
0.15
90
0.16
103
0.14
49
IRAFT_RVCtwo views0.43
136
0.20
54
0.52
159
0.45
200
0.24
77
0.26
18
0.51
265
0.76
136
0.78
142
0.77
164
0.80
124
0.73
193
0.50
151
0.74
188
0.39
128
0.18
157
0.10
8
0.21
218
0.17
158
0.17
127
0.15
78
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
200
0.24
77
0.32
60
0.35
139
0.77
141
0.42
38
0.62
78
0.77
102
0.58
115
0.27
22
0.46
29
0.31
58
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
GMM-Stereotwo views0.44
142
0.20
54
0.39
36
0.42
130
0.25
101
0.50
139
0.44
232
0.72
110
0.57
71
0.77
164
1.37
313
0.76
207
0.38
90
0.62
117
0.34
83
0.15
67
0.10
8
0.20
177
0.19
208
0.17
127
0.28
280
s12784htwo views0.37
61
0.15
2
0.26
4
0.34
9
0.15
1
0.80
264
0.29
57
0.83
159
0.87
190
0.58
69
0.58
55
0.43
52
0.41
112
0.59
79
0.35
90
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
XX-TBDtwo views0.32
26
0.53
325
0.26
4
0.53
302
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
62
0.70
82
0.31
7
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
DCANettwo views0.38
77
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
110
0.96
240
0.72
134
0.77
102
0.45
62
0.56
175
0.47
34
0.36
99
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
csctwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
111two views0.42
124
0.18
14
0.46
91
0.35
12
0.19
8
0.52
151
0.28
50
0.76
136
1.16
312
0.52
54
0.92
176
0.65
150
0.51
156
0.65
139
0.37
107
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
CFNet-RSSMtwo views0.35
37
0.18
14
0.47
102
0.39
61
0.22
30
0.35
74
0.23
20
0.78
144
0.86
186
0.67
110
0.54
45
0.56
97
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
44
0.54
45
0.38
36
0.34
71
0.50
49
0.25
3
0.75
378
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
HITNettwo views0.43
136
0.27
207
0.50
132
0.34
9
0.18
5
0.65
215
0.32
100
0.99
208
0.70
110
0.73
141
0.86
150
0.66
162
0.56
175
0.61
95
0.47
183
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
MLCVtwo views0.49
180
0.26
195
0.73
262
0.38
45
0.18
5
0.64
209
0.33
109
0.84
163
0.89
204
0.96
271
1.12
257
0.72
189
0.45
132
1.00
289
0.59
228
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
ACVNet-DCAtwo views0.36
43
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.91
179
0.59
74
0.42
32
0.50
32
0.34
22
0.47
142
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.18
151
0.19
166
xx1two views0.40
103
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.71
100
1.17
315
0.42
32
0.50
32
0.65
150
0.56
175
0.61
95
0.26
8
0.17
125
0.11
39
0.20
177
0.19
208
0.18
151
0.19
166
1test111two views0.37
61
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.91
179
0.59
74
0.42
32
0.50
32
0.34
22
0.47
142
0.59
79
0.48
186
0.17
125
0.11
39
0.19
148
0.13
49
0.18
151
0.19
166
cc1two views0.38
77
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.71
100
1.17
315
0.42
32
0.50
32
0.34
22
0.47
142
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.16
103
0.17
135
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
DualNettwo views0.53
217
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
303
0.76
156
0.98
199
0.71
174
0.55
167
0.61
95
1.46
350
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
ffmtwo views0.47
162
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
303
0.76
156
0.98
199
0.71
174
0.55
167
0.61
95
0.26
8
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
ff1two views0.56
236
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
303
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
350
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
tt1two views0.37
61
0.25
167
0.35
19
0.43
167
0.23
56
0.52
151
0.37
158
0.72
110
1.13
303
0.42
32
0.46
23
0.35
26
0.44
125
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.16
103
0.17
135
IGEV_Zeroshot_testtwo views0.36
43
0.19
33
0.71
252
0.41
105
0.29
199
0.30
39
0.25
30
0.86
166
0.40
29
0.64
95
0.57
53
0.56
97
0.25
12
0.56
66
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
105
0.22
30
0.32
60
0.22
11
0.65
54
0.45
47
0.52
54
0.64
68
0.60
127
0.19
3
0.78
216
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
324
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
23
0.31
7
0.36
79
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
RAFT-Testtwo views0.35
37
0.19
33
0.42
58
0.39
61
0.24
77
0.50
139
0.23
20
0.74
129
0.44
43
0.62
78
0.85
146
0.64
146
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
HHtwo views0.37
61
0.22
97
0.49
123
0.41
105
0.26
130
0.36
78
0.30
69
0.87
167
0.41
34
0.45
40
0.59
57
0.78
214
0.43
120
0.77
208
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
61
0.22
97
0.49
123
0.41
105
0.26
130
0.36
78
0.30
69
0.87
167
0.41
34
0.45
40
0.59
57
0.78
214
0.43
120
0.77
208
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
anonymousdsp2two views0.37
61
0.21
74
0.49
123
0.38
45
0.24
77
0.48
138
0.31
88
0.91
179
0.68
103
0.57
66
0.51
37
0.51
80
0.34
71
0.59
79
0.33
74
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
40
0.42
46
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
369
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
28
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
299
knoymoustwo views0.37
61
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
43
0.65
93
0.69
120
0.69
80
0.60
127
0.40
108
0.61
95
0.36
99
0.17
125
0.11
39
0.20
177
0.12
26
0.18
151
0.19
166
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
219
0.62
37
0.41
34
0.33
11
0.31
6
0.32
14
0.28
27
0.60
89
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
RAFT+CT+SAtwo views0.40
103
0.24
139
0.40
45
0.53
302
0.27
159
0.28
31
0.45
236
0.79
149
0.81
162
0.51
52
0.90
164
0.42
46
0.39
103
0.81
224
0.33
74
0.15
67
0.11
39
0.18
116
0.18
184
0.15
66
0.15
78
test_5two views0.44
142
0.25
167
0.48
115
0.53
302
0.28
180
0.28
31
0.42
219
0.77
141
0.87
190
0.63
85
0.91
170
0.73
193
0.53
160
0.82
229
0.36
99
0.14
18
0.11
39
0.18
116
0.18
184
0.18
151
0.16
98
iRaft-Stereo_20wtwo views0.42
124
0.20
54
0.63
217
0.39
61
0.27
159
0.33
66
0.25
30
1.76
377
0.37
14
0.73
141
0.53
42
0.63
139
0.42
117
0.86
239
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
IPLGtwo views0.40
103
0.21
74
0.64
221
0.41
105
0.25
101
0.54
160
0.27
42
0.77
141
0.68
103
0.85
205
0.82
132
0.33
19
0.32
60
0.64
133
0.49
193
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MIPNettwo views0.39
89
0.22
97
0.66
228
0.40
87
0.25
101
0.53
154
0.29
57
0.78
144
0.74
132
0.68
117
0.60
59
0.40
40
0.48
145
0.45
25
0.39
128
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
HHNettwo views0.42
124
0.19
33
0.43
74
0.35
12
0.38
283
0.33
66
0.33
109
0.71
100
0.78
142
0.87
217
1.30
302
0.52
83
0.36
79
0.53
54
0.37
107
0.16
99
0.11
39
0.19
148
0.15
90
0.15
66
0.25
258
AAGNettwo views1.40
369
0.20
54
0.52
159
0.45
200
0.26
130
0.29
35
0.29
57
0.67
67
0.71
116
0.97
274
0.86
150
0.66
162
0.60
194
0.66
147
19.98
419
0.17
125
0.11
39
0.19
148
0.15
90
0.20
200
0.13
31
STrans-v2two views0.47
162
0.21
74
0.49
123
0.41
105
0.25
101
0.54
160
0.49
259
1.16
263
0.82
170
0.67
110
1.05
235
0.71
174
0.67
229
0.74
188
0.34
83
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
PSM-AADtwo views0.48
171
0.21
74
0.39
36
0.44
188
0.23
56
0.56
170
0.47
244
0.67
67
0.73
127
1.08
313
1.12
257
0.58
115
0.87
304
0.63
126
0.33
74
0.15
67
0.11
39
0.25
268
0.26
304
0.18
151
0.42
340
KYRafttwo views0.48
171
0.21
74
0.41
50
0.45
200
0.23
56
0.43
121
0.36
146
0.68
72
0.45
47
0.94
254
1.72
350
0.78
214
0.40
108
0.65
139
0.32
64
0.16
99
0.11
39
0.18
116
0.22
262
0.17
127
0.76
378
SST-Stereotwo views0.41
117
0.20
54
0.48
115
0.43
167
0.25
101
0.25
16
0.21
5
0.68
72
0.50
60
1.08
313
0.79
114
0.71
174
0.42
117
0.81
224
0.38
120
0.17
125
0.11
39
0.20
177
0.16
116
0.19
185
0.15
78
THIR-Stereotwo views0.51
201
0.19
33
0.47
102
0.39
61
0.23
56
0.74
246
0.64
311
0.68
72
0.88
200
1.03
292
1.40
316
0.71
174
0.75
265
0.64
133
0.43
158
0.16
99
0.11
39
0.17
85
0.18
184
0.15
66
0.17
135
RAFT_R40two views0.41
117
0.20
54
0.47
102
0.44
188
0.25
101
0.23
6
0.25
30
0.69
83
0.70
110
0.98
277
0.78
110
0.72
189
0.43
120
0.80
220
0.39
128
0.17
125
0.11
39
0.20
177
0.16
116
0.18
151
0.15
78
DRafttwo views0.49
180
0.18
14
0.50
132
0.38
45
0.25
101
0.57
180
0.39
184
0.67
67
0.86
186
1.02
289
1.75
352
0.50
77
0.79
280
0.65
139
0.42
156
0.14
18
0.11
39
0.16
57
0.16
116
0.14
36
0.17
135
RAFT-RH_RVCtwo views0.57
240
0.18
14
0.44
79
0.38
45
0.23
56
0.56
170
0.24
23
0.61
35
0.73
127
1.18
329
3.90
399
0.55
91
0.40
108
0.67
156
0.38
120
0.14
18
0.11
39
0.20
177
0.15
90
0.12
2
0.14
49
RAFT-345two views0.41
117
0.19
33
0.42
58
0.39
61
0.23
56
0.32
60
0.25
30
0.62
37
0.56
67
0.74
148
1.77
353
0.44
55
0.35
74
0.67
156
0.37
107
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
CRE-IMPtwo views0.37
61
0.23
120
0.53
166
0.42
130
0.24
77
0.40
101
0.21
5
0.61
35
0.45
47
0.65
99
0.73
86
0.53
87
0.37
83
0.63
126
0.40
148
0.18
157
0.11
39
0.19
148
0.16
116
0.21
209
0.19
166
Prome-Stereotwo views0.46
153
0.20
54
0.37
27
0.45
200
0.26
130
0.40
101
0.42
219
0.69
83
0.49
57
0.96
271
1.84
356
0.58
115
0.64
212
0.63
126
0.32
64
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
289
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
87
0.23
56
0.31
51
0.29
57
0.70
93
0.55
66
0.49
49
0.66
73
0.37
33
0.23
7
0.47
34
0.33
74
0.14
18
0.11
39
0.19
148
0.17
158
0.16
103
0.13
31
XX-Stereotwo views0.38
77
0.18
14
0.52
159
0.58
328
0.38
283
0.39
96
0.20
1
0.62
37
0.31
2
0.47
46
1.29
300
0.72
189
0.25
12
0.59
79
0.28
29
0.16
99
0.11
39
0.17
85
0.16
116
0.14
36
0.11
3
EAI-Stereotwo views0.36
43
0.21
74
0.46
91
0.40
87
0.22
30
0.33
66
0.36
146
1.22
286
0.32
3
0.52
54
0.75
99
0.35
26
0.28
27
0.65
139
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
Gwc-CoAtRStwo views0.35
37
0.18
14
0.46
91
0.39
61
0.23
56
0.34
72
0.22
11
0.74
129
0.77
139
0.62
78
0.60
59
0.58
115
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
37
0.32
14
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
iResNettwo views0.52
211
0.31
251
0.86
293
0.44
188
0.22
30
0.66
220
0.47
244
0.92
187
1.02
263
0.89
232
1.12
257
0.69
171
0.55
167
0.86
239
0.60
229
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
135
MyStereo8two views0.42
124
0.21
74
0.64
221
0.43
167
0.29
199
0.55
165
0.28
50
0.72
110
0.50
60
0.73
141
1.01
216
0.57
100
0.44
125
0.52
52
0.52
201
0.15
67
0.12
86
0.16
57
0.14
69
0.19
185
0.21
209
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
159
0.38
91
0.34
117
0.66
56
0.35
6
0.39
21
0.31
6
0.35
26
0.27
22
0.62
117
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
rrrtwo views0.31
23
0.24
139
0.56
185
0.36
27
0.27
159
0.38
91
0.31
88
0.56
24
0.44
43
0.39
21
0.31
6
0.35
26
0.27
22
0.62
117
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
riskmintwo views0.41
117
0.21
74
0.44
79
0.34
9
0.24
77
0.58
184
0.32
100
0.70
93
0.86
186
0.52
54
0.57
53
0.78
214
0.60
194
0.58
74
0.39
128
0.17
125
0.12
86
0.19
148
0.13
49
0.19
185
0.22
224
Selective-RAFTtwo views0.36
43
0.23
120
0.54
178
0.45
200
0.22
30
0.64
209
0.27
42
0.62
37
0.65
93
0.41
31
0.38
18
0.55
91
0.39
103
0.59
79
0.36
99
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
DisPMtwo views0.40
103
0.20
54
0.50
132
0.42
130
0.27
159
0.24
7
0.30
69
0.68
72
0.61
83
0.88
225
0.87
156
0.59
124
0.32
60
0.80
220
0.34
83
0.19
192
0.12
86
0.19
148
0.17
158
0.16
103
0.21
209
Wz-Net-LNSev-Reftwo views0.67
278
0.30
244
1.20
333
0.42
130
0.31
228
1.00
307
0.58
296
1.16
263
1.07
284
1.01
285
1.25
288
1.08
296
0.75
265
1.18
315
1.03
316
0.20
211
0.12
86
0.16
57
0.13
49
0.22
227
0.22
224
raft_robusttwo views0.41
117
0.24
139
0.39
36
0.43
167
0.22
30
0.40
101
0.33
109
0.80
151
0.98
249
0.80
179
0.88
159
0.41
44
0.32
60
0.89
248
0.30
48
0.14
18
0.12
86
0.16
57
0.18
184
0.15
66
0.13
31
Sa-1000two views0.49
180
0.25
167
0.45
84
0.46
223
0.25
101
0.64
209
0.34
117
0.85
164
0.95
233
0.85
205
1.51
335
0.55
91
0.44
125
0.94
263
0.31
58
0.16
99
0.12
86
0.21
218
0.20
227
0.15
66
0.14
49
iRaft-Stereo_5wtwo views0.46
153
0.22
97
0.53
166
0.43
167
0.30
218
0.30
39
0.53
274
0.66
56
0.71
116
0.62
78
0.89
162
1.01
276
0.67
229
0.76
201
0.67
246
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
135
CIPLGtwo views0.42
124
0.23
120
0.71
252
0.45
200
0.33
256
0.51
144
0.33
109
0.68
72
0.68
103
0.84
195
0.96
189
0.47
69
0.33
65
0.56
66
0.52
201
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
IPLGR_Ctwo views0.42
124
0.23
120
0.71
252
0.46
223
0.33
256
0.51
144
0.34
117
0.69
83
0.69
108
0.84
195
0.92
176
0.46
65
0.33
65
0.53
54
0.53
210
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
IPLGRtwo views0.40
103
0.22
97
0.70
249
0.40
87
0.22
30
0.51
144
0.29
57
0.78
144
0.78
142
0.80
179
0.77
102
0.44
55
0.41
112
0.48
41
0.40
148
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
GMOStereotwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
error versiontwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
test-vtwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
ACREtwo views0.42
124
0.23
120
0.73
262
0.45
200
0.33
256
0.50
139
0.33
109
0.68
72
0.70
110
0.82
184
0.92
176
0.46
65
0.32
60
0.53
54
0.52
201
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
CrosDoStereotwo views0.51
201
0.19
33
0.46
91
0.39
61
0.24
77
0.39
96
1.14
370
0.69
83
0.87
190
0.94
254
1.36
310
0.62
135
0.75
265
0.68
164
0.46
174
0.15
67
0.12
86
0.17
85
0.18
184
0.14
36
0.16
98
TRStereotwo views0.39
89
0.32
253
0.64
221
0.49
258
0.41
300
0.30
39
0.30
69
0.97
203
0.63
84
0.53
60
0.43
19
0.52
83
0.26
17
0.77
208
0.29
37
0.18
157
0.12
86
0.19
148
0.19
208
0.13
14
0.13
31
Patchmatch Stereo++two views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.21
5
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
OMP-Stereotwo views0.43
136
0.23
120
0.50
132
0.53
302
0.25
101
0.36
78
0.24
23
0.73
123
0.81
162
0.78
175
0.64
68
0.88
242
0.41
112
0.95
268
0.36
99
0.15
67
0.12
86
0.20
177
0.15
90
0.16
103
0.13
31
IIG-Stereotwo views0.45
148
0.22
97
0.48
115
0.51
281
0.26
130
0.43
121
0.21
5
0.73
123
0.80
153
0.84
195
0.95
185
0.82
228
0.46
138
0.95
268
0.37
107
0.16
99
0.12
86
0.19
148
0.15
90
0.15
66
0.12
10
NF-Stereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.69
170
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
OCTAStereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.58
115
0.31
54
0.69
170
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
PSM-softLosstwo views0.40
103
0.21
74
0.53
166
0.42
130
0.26
130
0.29
35
0.34
117
0.70
93
0.49
57
0.63
85
0.82
132
0.59
124
0.33
65
0.75
193
0.43
158
0.20
211
0.12
86
0.20
177
0.18
184
0.17
127
0.22
224
KMStereotwo views0.40
103
0.21
74
0.53
166
0.42
130
0.26
130
0.29
35
0.34
117
0.70
93
0.49
57
0.63
85
0.82
132
0.59
124
0.33
65
0.75
193
0.43
158
0.20
211
0.12
86
0.20
177
0.18
184
0.17
127
0.22
224
NRIStereotwo views0.37
61
0.21
74
0.49
123
0.42
130
0.23
56
0.33
66
0.25
30
0.68
72
0.59
74
0.65
99
0.63
65
0.55
91
0.37
83
0.67
156
0.40
148
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
PSM-adaLosstwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.31
88
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.59
79
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ROB_FTStereo_v2two views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.31
88
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.60
89
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ROB_FTStereotwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.20
1
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.60
89
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
HUI-Stereotwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.22
11
0.63
43
0.40
29
0.64
95
0.73
86
0.58
115
0.38
90
0.53
54
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ASMatchtwo views0.48
171
0.20
54
0.47
102
0.39
61
0.28
180
0.37
86
0.26
40
0.76
136
0.72
118
0.77
164
2.29
368
0.61
129
0.51
156
0.64
133
0.39
128
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
224
DeepStereo_LLtwo views0.51
201
0.19
33
0.46
91
0.39
61
0.24
77
0.39
96
1.14
370
0.69
83
0.87
190
0.94
254
1.36
310
0.62
135
0.75
265
0.68
164
0.46
174
0.15
67
0.12
86
0.17
85
0.18
184
0.14
36
0.16
98
DEmStereotwo views0.49
180
0.18
14
0.53
166
0.39
61
0.26
130
0.57
180
0.33
109
0.65
54
0.75
134
0.90
239
1.65
344
0.57
100
1.02
328
0.63
126
0.44
165
0.14
18
0.12
86
0.16
57
0.16
116
0.14
36
0.17
135
GrayStereotwo views0.49
180
0.20
54
0.44
79
0.47
241
0.29
199
0.51
144
0.62
305
0.71
100
0.66
96
1.04
298
1.46
329
0.77
212
0.73
260
0.58
74
0.35
90
0.15
67
0.12
86
0.17
85
0.17
158
0.15
66
0.30
289
RE-Stereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.70
177
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
Pruner-Stereotwo views0.39
89
0.21
74
0.51
140
0.41
105
0.25
101
0.22
4
0.24
23
0.71
100
0.59
74
0.90
239
0.75
99
0.67
166
0.30
51
0.64
133
0.39
128
0.19
192
0.12
86
0.20
177
0.17
158
0.17
127
0.19
166
TVStereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.70
177
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
DeepStereo_RVCtwo views0.37
61
0.22
97
0.51
140
0.41
105
0.24
77
0.26
18
0.22
11
0.64
53
0.40
29
0.69
120
0.67
78
0.57
100
0.50
151
0.58
74
0.42
156
0.17
125
0.12
86
0.18
116
0.16
116
0.19
185
0.19
166
iGMRVCtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.29
57
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
iRAFTtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.21
5
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
AnonymousMtwo views0.42
124
0.86
369
0.31
10
0.35
12
0.23
56
0.30
39
0.37
158
0.56
24
0.44
43
0.72
134
0.50
32
0.47
69
0.29
41
0.42
18
0.35
90
0.16
99
0.12
86
1.51
387
0.32
331
0.12
2
0.11
3
test-2two views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
test-1two views0.37
61
0.20
54
0.76
269
0.47
241
0.27
159
0.44
127
0.36
146
0.63
43
0.65
93
0.49
49
0.67
78
0.54
89
0.35
74
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
157
RAFT-IKPtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.27
42
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
rafts_anoytwo views0.38
77
0.22
97
0.38
33
0.43
167
0.28
180
0.32
60
0.32
100
0.70
93
0.91
214
0.59
70
0.66
73
0.45
62
0.33
65
0.49
47
0.41
153
0.16
99
0.12
86
0.21
218
0.23
271
0.18
151
0.16
98
raft+_RVCtwo views0.38
77
0.20
54
0.38
33
0.39
61
0.27
159
0.44
127
0.35
139
0.81
153
0.90
208
0.52
54
0.78
110
0.50
77
0.29
41
0.56
66
0.41
153
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
raftrobusttwo views0.35
37
0.20
54
0.39
36
0.43
167
0.29
199
0.31
51
0.25
30
0.73
123
0.66
96
0.59
70
0.56
52
0.44
55
0.45
132
0.55
62
0.31
58
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
test_xeample3two views0.31
23
0.23
120
0.56
185
0.36
27
0.26
130
0.35
74
0.32
100
0.60
31
0.38
17
0.44
39
0.32
9
0.33
19
0.28
27
0.66
147
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
ARAFTtwo views0.48
171
0.25
167
0.82
282
0.42
130
0.25
101
0.56
170
0.54
280
0.82
157
0.82
170
0.92
247
0.75
99
0.75
201
0.48
145
0.89
248
0.37
107
0.15
67
0.12
86
0.23
244
0.22
262
0.14
36
0.14
49
BEATNet_4xtwo views0.49
180
0.35
268
0.72
258
0.38
45
0.20
18
0.65
215
0.36
146
1.08
241
0.78
142
0.78
175
0.88
159
0.73
193
0.64
212
0.71
182
0.60
229
0.16
99
0.12
86
0.16
57
0.15
90
0.24
249
0.18
157
ccs_robtwo views0.47
162
0.25
167
0.55
181
0.38
45
0.28
180
0.58
184
0.32
100
0.89
173
0.90
208
0.83
189
1.02
218
0.75
201
0.48
145
0.61
95
0.46
174
0.17
125
0.12
86
0.24
257
0.16
116
0.26
264
0.21
209
iResNet_ROBtwo views0.55
227
0.24
139
0.61
208
0.38
45
0.22
30
0.66
220
0.30
69
1.59
365
1.33
341
0.94
254
1.05
235
0.81
226
0.69
239
0.84
235
0.46
174
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
193
DN-CSS_ROBtwo views0.45
148
0.27
207
0.74
266
0.41
105
0.29
199
0.43
121
0.29
57
0.80
151
0.78
142
0.73
141
1.08
249
0.48
72
0.45
132
0.81
224
0.40
148
0.15
67
0.12
86
0.21
218
0.19
208
0.18
151
0.17
135
pmcnntwo views1.27
361
0.31
251
1.14
329
0.41
105
0.23
56
0.97
300
0.71
321
1.23
289
1.32
339
1.83
370
2.34
370
11.25
416
0.89
310
1.04
296
0.96
304
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
167
0.29
199
0.40
101
0.48
249
0.78
144
0.38
17
0.38
18
0.34
16
0.32
14
0.30
51
0.63
126
0.28
29
0.14
18
0.13
141
0.19
148
0.17
158
0.18
151
0.17
135
MyStereo06two views0.40
103
0.22
97
0.65
226
0.42
130
0.29
199
0.43
121
0.48
249
1.05
229
0.43
41
0.64
95
0.54
45
0.78
214
0.27
22
0.53
54
0.31
58
0.14
18
0.13
141
0.18
116
0.17
158
0.17
127
0.17
135
MyStereo05two views0.46
153
0.22
97
0.51
140
0.42
130
0.29
199
0.43
121
0.48
249
0.96
201
1.12
297
0.77
164
0.62
64
0.51
80
0.57
184
0.79
218
0.43
158
0.14
18
0.13
141
0.18
116
0.17
158
0.17
127
0.17
135
MyStereo04two views0.45
148
0.23
120
0.52
159
0.43
167
0.29
199
0.40
101
0.48
249
1.02
217
1.12
297
0.62
78
0.58
55
0.55
91
0.56
175
0.77
208
0.45
170
0.14
18
0.13
141
0.19
148
0.17
158
0.18
151
0.17
135
AE-Stereotwo views0.36
43
0.21
74
0.47
102
0.49
258
0.31
228
0.50
139
0.34
117
0.72
110
0.73
127
0.34
13
0.55
50
0.52
83
0.28
27
0.48
41
0.31
58
0.13
9
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
CoDeXtwo views0.48
171
0.21
74
0.53
166
0.43
167
0.25
101
0.74
246
0.38
171
1.36
330
0.82
170
0.84
195
0.96
189
0.63
139
0.57
184
0.63
126
0.40
148
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
test crocotwo views0.32
26
0.21
74
0.59
202
0.40
87
0.29
199
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
73
0.31
7
0.33
65
0.68
164
0.32
64
0.18
157
0.13
141
0.20
177
0.15
90
0.18
151
0.13
31
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
105
0.32
245
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
65
0.37
33
0.36
79
0.60
89
0.32
64
0.17
125
0.13
141
0.19
148
0.17
158
0.18
151
0.15
78
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
87
0.28
180
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
23
0.27
2
0.25
12
0.48
41
0.35
90
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
PCWNet_CMDtwo views0.49
180
0.25
167
0.56
185
0.40
87
0.27
159
0.64
209
0.32
100
0.98
205
0.99
252
0.87
217
1.07
243
0.78
214
0.46
138
0.61
95
0.44
165
0.17
125
0.13
141
0.21
218
0.16
116
0.26
264
0.20
193
LL-Strereo2two views0.36
43
0.25
167
0.52
159
0.43
167
0.27
159
0.36
78
0.27
42
0.70
93
0.46
52
0.55
62
0.53
42
0.65
150
0.24
10
0.69
170
0.32
64
0.14
18
0.13
141
0.23
244
0.20
227
0.19
185
0.14
49
DCREtwo views0.38
77
0.19
33
0.47
102
0.45
200
0.33
256
0.45
130
0.40
194
0.66
56
0.53
65
0.49
49
0.95
185
0.57
100
0.39
103
0.53
54
0.32
64
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
TestStereo1two views0.44
142
0.24
139
0.45
84
0.52
295
0.25
101
0.35
74
0.40
194
0.81
153
0.94
229
0.70
124
0.96
189
0.48
72
0.45
132
0.94
263
0.33
74
0.16
99
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
RAFT_CTSACEtwo views0.46
153
0.20
54
0.48
115
0.46
223
0.27
159
0.34
72
0.39
184
0.62
37
0.74
132
0.78
175
1.44
325
0.86
235
0.38
90
1.09
302
0.27
23
0.13
9
0.13
141
0.18
116
0.16
116
0.16
103
0.12
10
SA-5Ktwo views0.44
142
0.24
139
0.45
84
0.52
295
0.25
101
0.35
74
0.40
194
0.81
153
0.94
229
0.70
124
0.96
189
0.48
72
0.45
132
0.94
263
0.33
74
0.16
99
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
SAtwo views0.45
148
0.26
195
0.50
132
0.47
241
0.24
77
0.46
131
0.36
146
0.79
149
1.00
256
0.61
76
1.04
232
0.50
77
0.50
151
0.98
280
0.33
74
0.16
99
0.13
141
0.21
218
0.19
208
0.15
66
0.14
49
FTStereotwo views0.56
236
0.21
74
0.39
36
0.42
130
0.25
101
0.39
96
0.73
330
0.69
83
0.45
47
1.09
317
3.23
388
0.69
171
0.71
249
0.55
62
0.34
83
0.15
67
0.13
141
0.19
148
0.17
158
0.15
66
0.32
299
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
258
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
46
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
TestStereotwo views0.39
89
0.32
253
0.42
58
0.45
200
0.20
18
0.41
110
0.38
171
0.69
83
0.66
96
0.56
64
0.78
110
0.48
72
0.43
120
0.59
79
0.37
107
0.18
157
0.13
141
0.20
177
0.15
90
0.23
241
0.14
49
CFNet_pseudotwo views0.47
162
0.25
167
0.55
181
0.38
45
0.28
180
0.58
184
0.32
100
0.89
173
0.90
208
0.83
189
1.03
229
0.75
201
0.48
145
0.61
95
0.46
174
0.17
125
0.13
141
0.24
257
0.16
116
0.26
264
0.21
209
RALAANettwo views0.40
103
0.24
139
0.56
185
0.43
167
0.30
218
0.36
78
0.25
30
0.89
173
0.69
108
0.69
120
0.65
70
0.61
129
0.30
51
0.63
126
0.35
90
0.16
99
0.13
141
0.18
116
0.15
90
0.21
209
0.14
49
GMStereopermissivetwo views0.40
103
0.38
282
0.61
208
0.41
105
0.27
159
0.47
133
0.35
139
0.62
37
1.04
271
0.57
66
0.54
45
0.38
36
0.36
79
0.56
66
0.41
153
0.20
211
0.13
141
0.16
57
0.17
158
0.24
249
0.20
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
FENettwo views0.43
136
0.23
120
0.40
45
0.40
87
0.24
77
0.54
160
0.33
109
0.83
159
0.72
118
0.74
148
0.73
86
0.63
139
0.56
175
0.65
139
0.45
170
0.19
192
0.13
141
0.19
148
0.17
158
0.18
151
0.20
193
DIP-Stereotwo views0.40
103
0.22
97
0.58
194
0.42
130
0.29
199
0.62
196
0.27
42
0.87
167
0.42
38
0.65
99
0.86
150
0.52
83
0.35
74
0.67
156
0.43
158
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
135
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
R-Stereo Traintwo views0.40
103
0.19
33
0.47
102
0.43
167
0.27
159
0.41
110
0.31
88
0.74
129
0.38
17
0.90
239
1.28
296
0.58
115
0.35
74
0.43
20
0.35
90
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
103
0.19
33
0.47
102
0.43
167
0.27
159
0.41
110
0.31
88
0.74
129
0.38
17
0.90
239
1.28
296
0.58
115
0.35
74
0.43
20
0.35
90
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MSMDNettwo views0.49
180
0.25
167
0.56
185
0.40
87
0.27
159
0.64
209
0.32
100
0.99
208
0.99
252
0.87
217
1.07
243
0.79
220
0.46
138
0.61
95
0.44
165
0.17
125
0.13
141
0.20
177
0.16
116
0.25
258
0.20
193
AANet_RVCtwo views0.59
255
0.35
268
0.68
239
0.47
241
0.28
180
0.57
180
0.47
244
1.04
223
1.28
332
0.87
217
1.33
304
0.86
235
0.63
205
1.16
312
0.89
284
0.19
192
0.13
141
0.15
41
0.14
69
0.18
151
0.20
193
AdaStereotwo views0.52
211
0.34
264
0.53
166
0.49
258
0.25
101
0.71
238
0.36
146
1.24
290
0.91
214
0.77
164
0.98
199
0.75
201
0.50
151
0.71
182
0.51
197
0.27
288
0.13
141
0.28
300
0.18
184
0.23
241
0.18
157
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
iResNetv2_ROBtwo views0.55
227
0.29
230
0.86
293
0.39
61
0.25
101
0.67
229
0.37
158
1.21
280
1.02
263
1.02
289
1.10
251
0.89
247
0.79
280
0.74
188
0.43
158
0.19
192
0.13
141
0.15
41
0.11
15
0.19
185
0.16
98
StereoDRNet-Refinedtwo views0.61
265
0.33
259
0.63
217
0.47
241
0.31
228
0.94
295
0.41
214
1.04
223
0.97
245
1.15
327
1.13
263
1.00
272
0.74
262
0.93
260
0.93
297
0.18
157
0.13
141
0.22
230
0.21
244
0.20
200
0.21
209
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
Former-RAFT_DAM_RVCtwo views0.34
35
0.28
220
0.48
115
0.37
35
0.25
101
0.47
133
0.30
69
0.60
31
0.92
220
0.43
37
0.37
17
0.30
6
0.29
41
0.50
49
0.30
48
0.17
125
0.14
172
0.18
116
0.15
90
0.18
151
0.16
98
GMStereo_Zeroshotpermissivetwo views0.51
201
0.46
312
0.80
276
0.50
269
0.28
180
0.57
180
0.30
69
0.75
134
0.79
148
0.88
225
0.94
181
0.90
249
0.37
83
0.77
208
0.46
174
0.27
288
0.14
172
0.26
282
0.15
90
0.39
328
0.19
166
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
130
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
40
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
EKT-Stereotwo views0.36
43
0.24
139
0.44
79
0.44
188
0.30
218
0.37
86
0.30
69
0.72
110
0.68
103
0.47
46
0.63
65
0.49
76
0.28
27
0.59
79
0.34
83
0.19
192
0.14
172
0.18
116
0.15
90
0.16
103
0.18
157
MIM_Stereotwo views0.39
89
0.18
14
0.59
202
0.38
45
0.25
101
0.27
25
0.24
23
0.72
110
0.56
67
0.72
134
1.00
212
0.62
135
0.29
41
0.67
156
0.39
128
0.13
9
0.14
172
0.17
85
0.16
116
0.14
36
0.12
10
anonymousatwo views0.51
201
0.21
74
0.47
102
0.39
61
0.25
101
0.89
289
0.36
146
0.78
144
0.63
84
0.88
225
1.54
336
1.09
302
0.67
229
0.53
54
0.46
174
0.17
125
0.14
172
0.19
148
0.21
244
0.16
103
0.16
98
IERtwo views0.48
171
0.25
167
0.60
207
0.38
45
0.28
180
0.67
229
0.38
171
0.82
157
0.68
103
0.88
225
0.95
185
0.74
197
0.79
280
0.62
117
0.46
174
0.17
125
0.14
172
0.17
85
0.17
158
0.17
127
0.16
98
DAStwo views0.54
222
0.26
195
0.66
228
0.49
258
0.31
228
0.61
192
0.43
226
0.89
173
1.01
258
0.95
259
1.16
270
0.71
174
0.85
297
0.89
248
0.47
183
0.18
157
0.14
172
0.18
116
0.15
90
0.22
227
0.19
166
SepStereotwo views0.54
222
0.26
195
0.66
228
0.49
258
0.31
228
0.61
192
0.43
226
0.89
173
1.01
258
0.95
259
1.16
270
0.71
174
0.85
297
0.97
278
0.47
183
0.18
157
0.14
172
0.18
116
0.15
90
0.22
227
0.19
166
GwcNet-ADLtwo views0.45
148
0.24
139
0.51
140
0.46
223
0.30
218
0.41
110
0.40
194
0.95
197
0.98
249
0.73
141
0.78
110
0.61
129
0.41
112
0.67
156
0.55
215
0.20
211
0.14
172
0.15
41
0.14
69
0.19
185
0.22
224
PFNet+two views0.41
117
0.20
54
0.53
166
0.40
87
0.25
101
0.28
31
0.22
11
0.66
56
0.76
137
0.85
205
0.79
114
0.63
139
0.34
71
0.75
193
0.37
107
0.20
211
0.14
172
0.23
244
0.20
227
0.17
127
0.21
209
sAnonymous2two views0.42
124
0.41
298
0.96
312
0.48
249
0.37
278
0.41
110
0.48
249
0.60
31
0.52
62
0.39
21
0.48
28
0.35
26
0.44
125
0.44
22
0.30
48
0.19
192
0.14
172
0.19
148
0.17
158
0.55
363
0.43
344
CroCo_RVCtwo views0.42
124
0.41
298
0.96
312
0.48
249
0.37
278
0.41
110
0.48
249
0.60
31
0.52
62
0.39
21
0.48
28
0.35
26
0.44
125
0.44
22
0.30
48
0.19
192
0.14
172
0.19
148
0.17
158
0.55
363
0.43
344
RALCasStereoNettwo views0.37
61
0.23
120
0.41
50
0.44
188
0.28
180
0.36
78
0.38
171
0.66
56
0.67
102
0.51
52
0.74
97
0.51
80
0.29
41
0.64
133
0.38
120
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
135
SFCPSMtwo views0.48
171
0.22
97
0.59
202
0.41
105
0.27
159
0.85
281
0.36
146
1.39
333
0.79
148
0.81
183
0.85
146
0.54
89
0.50
151
0.60
89
0.39
128
0.18
157
0.14
172
0.18
116
0.20
227
0.17
127
0.16
98
cf-rtwo views0.49
180
0.24
139
0.49
123
0.40
87
0.23
56
0.58
184
0.38
171
0.92
187
0.87
190
0.77
164
1.06
241
0.98
267
0.67
229
0.59
79
0.61
233
0.21
226
0.14
172
0.17
85
0.19
208
0.15
66
0.16
98
RASNettwo views0.57
240
0.24
139
0.61
208
0.39
61
0.23
56
0.71
238
0.40
194
1.02
217
0.93
222
0.77
164
1.05
235
1.05
287
0.98
326
0.99
284
1.03
316
0.16
99
0.14
172
0.14
13
0.17
158
0.15
66
0.14
49
HSM-Net_RVCpermissivetwo views0.55
227
0.23
120
0.37
27
0.38
45
0.22
30
0.86
283
0.40
194
1.31
315
0.93
222
0.92
247
1.15
267
1.26
318
0.71
249
0.75
193
0.53
210
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
135
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HSMtwo views0.53
217
0.25
167
0.46
91
0.40
87
0.25
101
0.74
246
0.44
232
1.29
312
0.78
142
0.82
184
0.92
176
1.21
314
0.75
265
0.90
253
0.48
186
0.18
157
0.14
172
0.17
85
0.14
69
0.17
127
0.18
157
mmmtwo views0.47
162
0.28
220
0.51
140
0.39
61
0.25
101
0.61
192
0.38
171
1.00
214
0.60
81
0.77
164
1.07
243
0.65
150
0.53
160
0.61
95
0.49
193
0.18
157
0.15
191
0.23
244
0.20
227
0.21
209
0.20
193
11t1two views0.38
77
0.23
120
0.49
123
0.36
27
0.23
56
0.61
192
0.31
88
0.74
129
0.47
54
0.62
78
0.55
50
0.55
91
0.49
149
0.58
74
0.45
170
0.18
157
0.15
191
0.16
57
0.13
49
0.17
127
0.19
166
LL-Strereotwo views0.58
251
0.29
230
0.83
286
0.48
249
0.35
271
0.39
96
0.48
249
1.04
223
0.99
252
0.87
217
0.79
114
1.08
296
1.15
345
1.35
339
0.51
197
0.18
157
0.15
191
0.22
230
0.19
208
0.17
127
0.21
209
CBFPSMtwo views0.61
265
0.25
167
1.41
353
0.39
61
0.27
159
1.10
322
0.67
313
0.83
159
0.84
176
0.82
184
0.81
130
1.33
330
0.85
297
0.72
186
0.86
280
0.16
99
0.15
191
0.15
41
0.17
158
0.17
127
0.23
243
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
269
0.30
218
0.19
1
0.31
88
0.52
13
0.41
34
0.25
1
0.28
4
0.46
65
0.31
54
0.39
8
0.30
48
0.15
67
0.15
191
0.16
57
0.13
49
0.17
127
0.16
98
BUStwo views0.47
162
0.26
195
0.47
102
0.46
223
0.29
199
0.78
252
0.34
117
0.99
208
0.80
153
0.77
164
0.80
124
0.64
146
0.54
164
0.66
147
0.56
217
0.21
226
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
BSDual-CNNtwo views0.48
171
0.26
195
0.47
102
0.46
223
0.29
199
0.75
249
0.46
239
0.99
208
0.80
153
0.77
164
0.80
124
0.76
207
0.59
191
0.66
147
0.48
186
0.21
226
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
hknettwo views0.51
201
0.26
195
0.58
194
0.46
223
0.29
199
0.75
249
0.46
239
0.99
208
0.89
204
0.77
164
0.80
124
0.96
264
0.67
229
0.75
193
0.50
195
0.19
192
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
UDGNettwo views0.50
191
0.82
364
0.56
185
0.51
281
0.32
245
0.41
110
0.34
117
0.71
100
0.93
222
0.65
99
0.60
59
0.58
115
0.44
125
0.65
139
0.43
158
0.33
326
0.15
191
0.67
375
0.20
227
0.49
351
0.23
243
ddtwo views0.44
142
0.40
294
0.62
213
0.44
188
0.26
130
0.51
144
0.38
171
0.72
110
1.07
284
0.60
72
0.66
73
0.43
52
0.40
108
0.68
164
0.53
210
0.24
262
0.15
191
0.21
218
0.16
116
0.24
249
0.19
166
GANet-ADLtwo views0.44
142
0.27
207
0.48
115
0.44
188
0.30
218
0.54
160
0.36
146
0.94
194
0.88
200
0.64
95
0.72
84
0.68
169
0.44
125
0.55
62
0.44
165
0.22
242
0.15
191
0.15
41
0.13
49
0.18
151
0.21
209
LMCR-Stereopermissivemany views0.55
227
0.33
259
0.57
192
0.60
332
0.30
218
0.80
264
0.36
146
1.30
314
0.79
148
0.90
239
1.04
232
0.57
100
0.64
212
0.87
241
0.73
257
0.20
211
0.15
191
0.19
148
0.14
69
0.25
258
0.18
157
MMNettwo views0.57
240
0.26
195
0.67
232
0.45
200
0.35
271
1.04
317
0.39
184
0.93
189
0.98
249
0.96
271
0.97
196
0.86
235
0.80
284
0.83
231
0.80
272
0.16
99
0.15
191
0.19
148
0.19
208
0.20
200
0.17
135
UNettwo views0.55
227
0.27
207
0.72
258
0.45
200
0.41
300
0.97
300
0.40
194
1.01
215
0.80
153
0.87
217
0.90
164
1.03
280
0.75
265
0.76
201
0.67
246
0.19
192
0.15
191
0.20
177
0.17
158
0.21
209
0.18
157
ACVNettwo views0.47
162
0.24
139
0.39
36
0.40
87
0.28
180
0.58
184
0.40
194
0.91
179
0.81
162
0.67
110
0.96
189
0.79
220
0.66
220
0.65
139
0.71
253
0.18
157
0.15
191
0.16
57
0.15
90
0.18
151
0.15
78
acv_fttwo views0.52
211
0.24
139
0.64
221
0.45
200
0.28
180
0.85
281
0.40
194
0.95
197
0.81
162
1.00
283
0.96
189
0.79
220
0.62
200
0.65
139
0.88
282
0.18
157
0.15
191
0.16
57
0.15
90
0.18
151
0.15
78
GwcNet-RSSMtwo views0.51
201
0.25
167
0.51
140
0.41
105
0.24
77
0.56
170
0.41
214
0.97
203
0.96
240
0.75
151
1.17
275
0.89
247
0.66
220
0.66
147
0.74
258
0.22
242
0.15
191
0.19
148
0.21
244
0.17
127
0.16
98
SuperBtwo views1.00
339
0.41
298
4.03
395
0.45
200
0.32
245
0.99
306
0.49
259
1.09
244
2.09
379
1.10
320
1.10
251
0.74
197
0.83
290
1.13
306
1.75
362
0.20
211
0.15
191
0.17
85
0.15
90
2.50
404
0.27
271
CFNettwo views0.53
217
0.30
244
0.53
166
0.42
130
0.28
180
0.73
242
0.35
139
1.21
280
1.01
258
0.74
148
1.07
243
0.85
231
0.60
194
0.83
231
0.58
226
0.19
192
0.15
191
0.23
244
0.23
271
0.21
209
0.17
135
DISCOtwo views0.72
287
0.27
207
0.72
258
0.45
200
0.31
228
1.12
327
0.53
274
1.32
320
1.25
327
0.84
195
1.07
243
1.52
355
0.87
304
1.82
369
1.08
328
0.20
211
0.15
191
0.18
116
0.16
116
0.24
249
0.24
251
LE_ROBtwo views4.86
408
0.27
207
9.43
407
0.45
200
0.24
77
1.61
363
0.96
360
2.05
381
17.75
423
16.36
425
4.84
409
5.17
404
19.48
425
2.05
376
15.49
416
0.17
125
0.15
191
0.16
57
0.16
116
0.20
200
0.19
166
SMFormertwo views0.53
217
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.60
229
0.19
192
0.16
212
0.18
116
0.17
158
0.19
185
0.20
193
ttatwo views0.53
217
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.60
229
0.19
192
0.16
212
0.18
116
0.17
158
0.15
66
0.16
98
qqq1two views0.51
201
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.36
99
0.19
192
0.16
212
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
201
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.36
99
0.19
192
0.16
212
0.14
13
0.12
26
0.15
66
0.16
98
mmxtwo views0.59
255
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
1.24
290
1.06
277
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
350
0.21
226
0.16
212
0.25
268
0.21
244
0.24
249
0.22
224
xxxcopylefttwo views0.59
255
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
1.24
290
1.06
277
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
350
0.21
226
0.16
212
0.25
268
0.21
244
0.24
249
0.22
224
CFNet_ucstwo views0.51
201
0.25
167
0.58
194
0.39
61
0.31
228
0.59
190
0.35
139
1.04
223
0.95
233
0.89
232
1.19
280
0.80
224
0.49
149
0.66
147
0.45
170
0.21
226
0.16
212
0.26
282
0.18
184
0.27
273
0.23
243
CASStwo views0.46
153
0.28
220
0.45
84
0.48
249
0.22
30
0.63
201
0.34
117
0.99
208
0.66
96
0.76
156
0.86
150
0.61
129
0.58
187
0.58
74
0.44
165
0.29
303
0.16
212
0.22
230
0.18
184
0.23
241
0.28
280
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
xtwo views0.41
117
0.25
167
0.46
91
0.36
27
0.24
77
0.54
160
0.31
88
0.94
194
0.58
73
0.60
72
0.72
84
0.61
129
0.53
160
0.52
52
0.50
195
0.18
157
0.16
212
0.17
85
0.16
116
0.17
127
0.18
157
psmgtwo views0.50
191
0.26
195
0.47
102
0.42
130
0.29
199
0.82
272
0.42
219
1.07
236
0.80
153
0.95
259
0.94
181
0.76
207
0.59
191
0.66
147
0.48
186
0.21
226
0.16
212
0.20
177
0.20
227
0.19
185
0.19
166
RAFTtwo views0.46
153
0.23
120
0.52
159
0.48
249
0.27
159
0.55
165
0.47
244
0.68
72
0.60
81
0.83
189
0.82
132
1.00
272
0.56
175
0.76
201
0.37
107
0.18
157
0.16
212
0.22
230
0.20
227
0.16
103
0.14
49
GEStereo_RVCtwo views0.56
236
0.30
244
0.70
249
0.51
281
0.31
228
0.70
235
0.54
280
1.31
315
0.93
222
0.85
205
0.86
150
0.84
229
0.63
205
0.92
257
0.67
246
0.24
262
0.16
212
0.19
148
0.17
158
0.21
209
0.23
243
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
165
0.23
20
0.46
6
0.56
67
0.60
72
0.69
80
0.37
33
0.26
17
0.36
4
0.28
29
0.16
99
0.16
212
0.13
8
0.10
10
0.14
36
0.15
78
ADLNettwo views0.57
240
0.29
230
0.58
194
0.46
223
0.35
271
0.80
264
0.46
239
1.14
258
0.88
200
1.03
292
0.98
199
0.92
258
0.66
220
0.71
182
0.83
276
0.22
242
0.16
212
0.22
230
0.22
262
0.22
227
0.23
243
HCRNettwo views0.46
153
0.35
268
0.45
84
0.54
311
0.26
130
0.52
151
0.29
57
0.87
167
0.64
88
0.75
151
0.82
132
0.76
207
0.53
160
0.70
177
0.38
120
0.24
262
0.16
212
0.24
257
0.20
227
0.21
209
0.20
193
222two views1.25
359
0.23
120
0.53
166
0.38
45
0.23
56
0.78
252
0.37
158
1.41
339
0.93
222
0.97
274
1.13
263
0.74
197
0.71
249
0.74
188
14.86
415
0.20
211
0.16
212
0.17
85
0.16
116
0.18
151
0.20
193
test_xeamplepermissivetwo views1.06
342
0.23
120
0.51
140
0.37
35
0.22
30
0.71
238
0.39
184
1.31
315
0.92
220
0.87
217
1.08
249
0.70
173
0.64
212
0.75
193
11.43
412
0.19
192
0.16
212
0.18
116
0.17
158
0.18
151
0.19
166
GANet-RSSMtwo views0.49
180
0.22
97
0.42
58
0.39
61
0.26
130
0.58
184
0.41
214
1.12
250
0.82
170
0.73
141
1.02
218
0.88
242
0.75
265
0.67
156
0.48
186
0.22
242
0.16
212
0.18
116
0.19
208
0.18
151
0.18
157
PSMNet-RSSMtwo views0.50
191
0.24
139
0.41
50
0.43
167
0.26
130
0.51
144
0.40
194
1.16
263
0.79
148
0.75
151
1.07
243
0.87
239
0.69
239
0.66
147
0.52
201
0.24
262
0.16
212
0.23
244
0.26
304
0.20
200
0.20
193
CFNet-ftpermissivetwo views0.50
191
0.25
167
0.39
36
0.41
105
0.26
130
0.66
220
0.37
158
0.91
179
0.87
190
0.67
110
1.00
212
1.05
287
0.70
244
0.68
164
0.57
221
0.23
256
0.16
212
0.24
257
0.21
244
0.24
249
0.19
166
DMCAtwo views0.47
162
0.27
207
0.59
202
0.39
61
0.29
199
0.53
154
0.34
117
0.98
205
0.70
110
0.78
175
0.83
137
0.79
220
0.55
167
0.54
61
0.57
221
0.21
226
0.16
212
0.21
218
0.16
116
0.19
185
0.22
224
ADCReftwo views0.84
315
0.46
312
1.60
366
0.52
295
0.45
324
1.08
321
0.52
271
1.13
256
1.03
267
1.22
334
1.43
324
0.87
239
0.93
317
0.91
255
3.35
388
0.19
192
0.16
212
0.23
244
0.23
271
0.23
241
0.22
224
ADCP+two views1.18
355
0.37
278
3.09
387
0.50
269
0.52
343
1.48
355
0.61
303
1.32
320
1.07
284
1.21
332
1.16
270
1.08
296
1.11
338
1.63
358
7.17
406
0.20
211
0.16
212
0.24
257
0.22
262
0.29
282
0.22
224
RYNettwo views0.76
300
0.37
278
0.74
266
0.54
311
0.67
366
1.35
347
0.68
316
1.28
308
1.21
324
1.10
320
0.90
164
1.31
323
0.94
320
1.01
290
1.30
341
0.22
242
0.16
212
0.27
290
0.23
271
0.43
338
0.45
350
CFNet_RVCtwo views0.50
191
0.25
167
0.39
36
0.41
105
0.26
130
0.66
220
0.37
158
0.91
179
0.87
190
0.67
110
1.00
212
1.05
287
0.70
244
0.68
164
0.57
221
0.23
256
0.16
212
0.24
257
0.21
244
0.24
249
0.19
166
NVstereo2Dtwo views0.62
271
0.32
253
0.82
282
0.50
269
0.44
317
0.88
286
0.48
249
1.12
250
1.17
315
0.67
110
0.90
164
0.90
249
0.69
239
1.02
293
0.69
250
0.33
326
0.16
212
0.29
308
0.20
227
0.43
338
0.46
354
whm_ethtwo views0.49
180
0.32
253
0.79
275
0.47
241
0.38
283
0.37
86
0.37
158
0.83
159
0.83
175
0.82
184
1.73
351
0.36
32
0.39
103
0.61
95
0.38
120
0.19
192
0.17
238
0.20
177
0.20
227
0.20
200
0.25
258
gwcnet-sptwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
scenettwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
ToySttwo views0.52
211
0.27
207
0.93
306
0.42
130
0.28
180
0.67
229
0.56
287
0.88
172
0.79
148
0.61
76
0.85
146
0.92
258
0.70
244
0.72
186
0.61
233
0.16
99
0.17
238
0.21
218
0.21
244
0.22
227
0.21
209
ssnettwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
qqqtwo views0.42
124
0.28
220
0.50
132
0.37
35
0.22
30
0.47
133
0.39
184
0.91
179
0.59
74
0.57
66
0.71
83
0.65
150
0.56
175
0.59
79
0.48
186
0.17
125
0.17
238
0.20
177
0.19
208
0.18
151
0.19
166
ADLNet2two views0.57
240
0.26
195
0.71
252
0.48
249
0.31
228
0.83
275
0.51
265
1.10
248
0.99
252
0.85
205
0.99
208
0.99
271
0.70
244
0.79
218
0.78
264
0.21
226
0.17
238
0.18
116
0.18
184
0.22
227
0.22
224
GEStwo views0.46
153
0.25
167
0.62
213
0.41
105
0.30
218
0.62
196
0.37
158
1.06
234
0.70
110
0.75
151
0.83
137
0.47
69
0.52
159
0.69
170
0.46
174
0.23
256
0.17
238
0.17
85
0.16
116
0.18
151
0.24
251
xxxxtwo views1.07
344
0.23
120
0.53
166
0.38
45
0.22
30
0.83
275
0.36
146
1.41
339
0.95
233
0.75
151
0.99
208
0.97
265
0.64
212
0.70
177
11.37
411
0.20
211
0.17
238
0.18
116
0.17
158
0.19
185
0.20
193
1111xtwo views0.64
275
0.23
120
0.61
208
0.39
61
0.21
25
0.68
233
0.46
239
1.32
320
1.03
267
0.76
156
1.02
218
0.95
261
0.72
256
1.13
306
2.15
373
0.18
157
0.18
247
0.18
116
0.19
208
0.20
200
0.19
166
iinet-ftwo views0.69
283
0.29
230
2.34
384
0.41
105
0.31
228
1.16
334
0.58
296
0.87
167
0.85
180
0.86
215
1.17
275
1.04
284
0.83
290
0.76
201
1.26
339
0.21
226
0.18
247
0.17
85
0.16
116
0.21
209
0.21
209
CSP-Nettwo views0.57
240
0.29
230
0.55
181
0.42
130
0.29
199
1.20
340
0.49
259
1.29
312
0.75
134
0.98
277
0.97
196
0.88
242
0.69
239
0.85
237
0.66
243
0.27
288
0.18
247
0.17
85
0.17
158
0.18
151
0.19
166
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
188
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
27
0.40
40
0.23
7
0.51
51
0.37
107
0.15
67
0.18
247
0.19
148
0.16
116
0.16
103
0.14
49
AACVNettwo views0.52
211
0.25
167
0.56
185
0.48
249
0.29
199
0.55
165
0.38
171
0.96
201
0.59
74
0.83
189
1.03
229
1.03
280
0.77
278
0.91
255
0.58
226
0.22
242
0.18
247
0.24
257
0.18
184
0.24
249
0.22
224
PSMNet-ADLtwo views0.50
191
0.28
220
0.43
74
0.49
258
0.31
228
0.70
235
0.38
171
0.94
194
0.81
162
0.62
78
0.80
124
0.91
255
0.62
200
0.76
201
0.68
249
0.24
262
0.18
247
0.19
148
0.20
227
0.22
227
0.22
224
ICVPtwo views0.48
171
0.26
195
0.42
58
0.49
258
0.28
180
0.63
201
0.43
226
1.05
229
0.72
118
0.68
117
0.95
185
0.75
201
0.56
175
0.55
62
0.61
233
0.24
262
0.18
247
0.19
148
0.17
158
0.19
185
0.21
209
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
delettwo views0.57
240
0.25
167
0.63
217
0.46
223
0.34
266
1.05
319
0.51
265
1.04
223
0.94
229
0.90
239
0.99
208
0.90
249
0.68
237
0.87
241
0.78
264
0.18
157
0.18
247
0.20
177
0.21
244
0.17
127
0.17
135
ac_64two views0.54
222
0.24
139
0.58
194
0.46
223
0.28
180
0.79
258
0.44
232
1.11
249
0.63
84
0.94
254
0.85
146
1.06
291
0.70
244
0.76
201
0.72
256
0.22
242
0.18
247
0.20
177
0.19
208
0.18
151
0.16
98
DMCA-RVCcopylefttwo views0.54
222
0.32
253
0.83
286
0.51
281
0.32
245
0.59
190
0.38
171
0.89
173
0.70
110
0.95
259
0.88
159
0.90
249
0.69
239
0.75
193
0.63
240
0.23
256
0.18
247
0.31
318
0.24
285
0.27
273
0.21
209
FADNet-RVC-Resampletwo views0.58
251
0.35
268
1.34
348
0.50
269
0.34
266
0.73
242
0.43
226
1.09
244
0.96
240
0.83
189
0.87
156
0.76
207
0.66
220
0.77
208
0.52
201
0.19
192
0.18
247
0.26
282
0.27
308
0.28
280
0.29
285
FADNet_RVCtwo views0.58
251
0.39
286
1.26
337
0.45
200
0.32
245
0.55
165
0.34
117
1.12
250
0.90
208
0.68
117
0.90
164
0.61
129
0.71
249
1.03
295
0.80
272
0.21
226
0.18
247
0.27
290
0.23
271
0.33
303
0.30
289
TDLMtwo views0.59
255
0.35
268
0.57
192
0.53
302
0.32
245
0.67
229
0.72
325
1.09
244
1.03
267
0.84
195
1.11
255
0.84
229
0.71
249
0.96
271
0.61
233
0.28
296
0.18
247
0.26
282
0.22
262
0.27
273
0.21
209
NLCA_NET_v2_RVCtwo views0.55
227
0.33
259
0.71
252
0.46
223
0.31
228
0.66
220
0.43
226
1.07
236
0.89
204
0.93
250
0.91
170
0.98
267
0.61
198
0.76
201
0.64
242
0.22
242
0.18
247
0.22
230
0.22
262
0.22
227
0.24
251
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
UCFNet_RVCtwo views0.50
191
0.27
207
0.37
27
0.40
87
0.27
159
0.66
220
0.42
219
1.18
271
0.86
186
0.70
124
0.89
162
0.91
255
0.60
194
0.62
117
0.48
186
0.24
262
0.18
247
0.28
300
0.27
308
0.25
258
0.24
251
DRN-Testtwo views0.68
281
0.34
264
0.77
272
0.52
295
0.40
295
1.14
330
0.61
303
1.56
361
1.04
271
1.18
329
1.10
251
1.05
287
0.72
256
0.82
229
1.01
311
0.24
262
0.18
247
0.26
282
0.25
296
0.26
264
0.23
243
PWC_ROBbinarytwo views0.92
325
0.57
340
1.64
369
0.53
302
0.33
256
0.93
293
0.39
184
1.42
344
1.51
358
1.66
361
2.57
377
1.18
312
1.11
338
1.50
352
1.54
357
0.26
279
0.18
247
0.28
300
0.20
227
0.30
289
0.32
299
Wz-Net-MNSevtwo views0.81
306
0.42
302
1.64
369
0.51
281
0.41
300
1.46
353
0.95
358
1.24
290
1.26
330
1.31
344
1.25
288
1.17
311
0.83
290
1.21
320
1.06
324
0.22
242
0.19
264
0.24
257
0.23
271
0.29
282
0.26
263
CRFU-Nettwo views0.59
255
0.29
230
0.62
213
0.47
241
0.31
228
1.20
340
0.51
265
1.19
274
0.59
74
1.05
303
1.00
212
1.06
291
0.87
304
0.83
231
0.77
263
0.22
242
0.19
264
0.18
116
0.16
116
0.19
185
0.20
193
aanetorigintwo views0.85
320
0.58
343
1.98
377
0.50
269
0.40
295
0.66
220
0.70
319
0.72
110
1.01
258
2.44
388
2.00
363
1.32
325
1.25
351
0.96
271
1.16
333
0.20
211
0.19
264
0.20
177
0.20
227
0.27
273
0.33
308
EDNetEfficientorigintwo views9.96
415
1.17
383
175.17
438
0.49
258
0.37
278
1.13
329
0.74
332
1.27
303
2.70
389
3.16
402
2.49
374
2.28
375
2.15
387
1.88
371
2.27
376
0.21
226
0.19
264
0.25
268
0.20
227
0.54
361
0.53
369
EDNetEfficienttwo views1.47
373
0.82
364
6.28
403
0.48
249
0.40
295
0.73
242
0.83
346
0.95
197
2.77
390
3.48
405
1.95
360
1.64
362
2.12
386
1.42
344
3.84
393
0.21
226
0.19
264
0.21
218
0.21
244
0.43
338
0.42
340
ADCLtwo views1.10
346
0.42
302
1.57
362
0.51
281
0.41
300
1.71
370
0.92
354
1.36
330
1.45
352
1.33
345
1.56
338
1.22
317
1.26
352
1.45
348
5.27
401
0.22
242
0.19
264
0.25
268
0.25
296
0.29
282
0.29
285
StereoDRNettwo views0.67
278
0.35
268
0.82
282
0.53
302
0.44
317
1.03
315
0.53
274
1.51
354
1.06
277
1.13
325
0.91
170
1.07
295
0.74
262
0.87
241
0.95
302
0.24
262
0.19
264
0.25
268
0.23
271
0.27
273
0.22
224
DispFullNettwo views1.64
378
2.64
413
3.14
388
2.57
405
1.78
398
1.32
345
0.55
284
1.42
344
1.45
352
1.89
372
1.48
332
1.55
357
2.35
391
2.08
379
1.12
331
0.60
375
0.19
264
2.33
402
0.73
384
2.35
400
1.30
396
NINENettwo views0.52
211
0.30
244
0.55
181
0.46
223
0.33
256
0.78
252
0.34
117
1.18
271
0.91
214
0.84
195
0.97
196
0.64
146
0.54
164
0.74
188
0.56
217
0.23
256
0.20
272
0.25
268
0.18
184
0.22
227
0.22
224
AASNettwo views0.55
227
0.27
207
0.62
213
0.51
281
0.32
245
0.73
242
0.44
232
1.55
357
0.88
200
0.88
225
0.94
181
0.64
146
0.63
205
0.62
117
0.84
277
0.23
256
0.20
272
0.20
177
0.16
116
0.22
227
0.20
193
Anonymoustwo views0.40
103
0.29
230
0.70
249
0.54
311
0.44
317
0.56
170
0.54
280
0.68
72
0.52
62
0.38
18
0.44
20
0.33
19
0.42
117
0.57
70
0.39
128
0.20
211
0.20
272
0.18
116
0.18
184
0.30
289
0.24
251
RTSCtwo views0.93
326
0.54
331
1.59
363
0.56
320
0.40
295
1.17
338
0.55
284
1.44
346
1.82
373
1.53
354
1.26
291
1.15
310
0.82
288
1.70
363
2.44
377
0.26
279
0.20
272
0.23
244
0.24
285
0.31
293
0.32
299
CVANet_RVCtwo views0.59
255
0.35
268
0.54
178
0.49
258
0.33
256
0.70
235
0.67
313
1.12
250
0.97
245
0.88
225
1.05
235
1.01
276
0.72
256
0.94
263
0.55
215
0.30
310
0.20
272
0.28
300
0.26
304
0.32
299
0.23
243
DLCB_ROBtwo views0.60
262
0.29
230
0.53
166
0.50
269
0.33
256
0.76
251
0.51
265
1.02
217
0.94
229
1.07
312
1.16
270
1.21
314
0.73
260
0.98
280
0.75
260
0.21
226
0.20
272
0.22
230
0.23
271
0.22
227
0.20
193
WZ-Nettwo views1.29
363
0.64
351
5.42
401
0.64
345
0.52
343
1.37
348
1.29
380
1.41
339
1.77
372
1.56
355
1.69
348
1.74
364
1.41
360
2.50
389
2.16
374
0.28
296
0.21
278
0.23
244
0.25
296
0.39
328
0.41
336
SACVNettwo views0.61
265
0.36
276
0.67
232
0.57
323
0.37
278
0.65
215
0.47
244
1.16
263
0.80
153
1.04
298
1.06
241
1.02
278
0.81
287
0.99
284
0.57
221
0.28
296
0.21
278
0.25
268
0.24
285
0.30
289
0.39
325
pcwnet_v2two views0.60
262
0.29
230
0.89
302
0.46
223
0.36
276
0.62
196
0.38
171
1.33
323
1.24
325
1.02
289
1.27
295
0.71
174
0.59
191
0.71
182
0.51
197
0.28
296
0.21
278
0.24
257
0.23
271
0.29
282
0.30
289
RAFT + AFFtwo views0.54
222
0.30
244
0.84
289
0.51
281
0.32
245
0.63
201
0.57
289
1.05
229
0.95
233
0.80
179
0.87
156
0.85
231
0.57
184
0.87
241
0.51
197
0.18
157
0.21
278
0.23
244
0.22
262
0.19
185
0.19
166
UPFNettwo views0.55
227
0.26
195
0.59
202
0.46
223
0.38
283
0.83
275
0.48
249
1.03
222
0.80
153
0.92
247
0.91
170
0.85
231
0.67
229
0.87
241
0.78
264
0.20
211
0.21
278
0.20
177
0.20
227
0.20
200
0.15
78
HGLStereotwo views0.58
251
0.30
244
0.65
226
0.51
281
0.38
283
0.78
252
0.45
236
1.07
236
0.82
170
0.89
232
1.16
270
0.88
242
0.91
313
0.80
220
0.74
258
0.21
226
0.21
278
0.20
177
0.18
184
0.19
185
0.22
224
hitnet-ftcopylefttwo views0.57
240
0.29
230
0.43
74
0.42
130
0.29
199
0.81
269
0.40
194
0.98
205
0.91
214
0.84
195
1.01
216
1.13
308
0.72
256
0.83
231
0.71
253
0.28
296
0.21
278
0.28
300
0.22
262
0.29
282
0.27
271
ETE_ROBtwo views0.73
288
0.52
323
0.93
306
0.57
323
0.37
278
0.80
264
0.86
351
1.19
274
0.95
233
1.20
331
1.22
284
1.39
342
0.86
301
1.07
298
0.88
282
0.27
288
0.21
278
0.31
318
0.27
308
0.34
309
0.35
313
PSMNet_ROBtwo views0.67
278
0.39
286
0.76
269
0.57
323
0.43
312
1.00
307
0.85
350
1.25
296
0.93
222
0.82
184
1.04
232
1.08
296
0.64
212
0.89
248
1.02
315
0.29
303
0.21
278
0.31
318
0.31
328
0.27
273
0.25
258
ttttwo views0.56
236
0.27
207
0.49
123
0.39
61
0.25
101
0.65
215
0.42
219
1.24
290
1.08
289
0.76
156
1.10
251
0.63
139
0.51
156
0.95
268
1.03
316
0.25
274
0.22
287
0.22
230
0.21
244
0.25
258
0.25
258
GASNettwo views0.70
284
0.77
361
1.16
330
0.71
363
0.49
336
0.62
196
0.48
249
1.12
250
1.05
273
0.98
277
0.84
139
0.94
260
0.82
288
1.41
343
0.85
279
0.33
326
0.22
287
0.29
308
0.28
314
0.44
341
0.26
263
Wz-Net-LNSevtwo views0.75
297
0.54
331
1.59
363
0.51
281
0.41
300
1.16
334
0.79
340
1.27
303
1.13
303
1.04
298
1.14
265
1.11
305
0.94
320
0.93
260
1.00
310
0.24
262
0.22
287
0.21
218
0.19
208
0.26
264
0.27
271
DSFCAtwo views0.57
240
0.27
207
0.71
252
0.41
105
0.36
276
0.78
252
0.53
274
1.08
241
0.85
180
1.08
313
0.84
139
0.90
249
0.66
220
1.05
297
0.63
240
0.26
279
0.22
287
0.21
218
0.21
244
0.22
227
0.20
193
MDST_ROBtwo views0.97
334
0.29
230
1.02
320
0.64
345
0.43
312
2.64
387
0.82
344
1.68
373
1.18
319
2.89
393
1.82
355
0.97
265
0.75
265
1.83
370
0.89
284
0.26
279
0.22
287
0.32
323
0.28
314
0.26
264
0.26
263
PDISCO_ROBtwo views0.96
332
0.51
321
1.13
327
1.03
379
1.00
381
1.81
373
0.77
336
1.72
375
1.60
363
1.09
317
1.19
280
1.34
333
0.80
284
1.62
357
1.01
311
0.58
374
0.22
287
0.45
354
0.40
353
0.50
353
0.41
336
PWCDC_ROBbinarytwo views0.93
326
0.54
331
0.97
316
0.78
370
0.41
300
1.03
315
0.42
219
1.39
333
2.34
385
1.04
298
3.73
396
0.80
224
1.12
340
1.29
329
1.04
321
0.37
344
0.22
287
0.24
257
0.20
227
0.36
319
0.31
296
coex-fttwo views6.50
413
1.57
394
87.99
437
0.49
258
0.38
283
1.41
350
1.21
375
1.21
280
7.96
409
12.14
417
2.78
383
2.74
382
3.83
403
1.30
333
3.19
387
0.24
262
0.23
294
0.27
290
0.24
285
0.48
348
0.40
331
ssnet_v2two views0.61
265
0.29
230
0.69
247
0.45
200
0.30
218
0.93
293
0.62
305
1.20
277
1.03
267
0.97
274
0.81
130
0.98
267
0.67
229
0.84
235
0.97
307
0.26
279
0.23
294
0.23
244
0.24
285
0.20
200
0.21
209
dadtwo views0.61
265
0.53
325
0.72
258
0.44
188
0.31
228
0.64
209
0.37
158
0.85
164
1.28
332
1.05
303
1.17
275
1.18
312
0.61
198
0.70
177
0.54
213
0.36
340
0.23
294
0.37
338
0.21
244
0.31
293
0.23
243
sCroCo_RVCtwo views0.36
43
0.29
230
0.73
262
0.52
295
0.39
292
0.42
117
0.31
88
0.52
13
0.46
52
0.31
7
0.48
28
0.38
36
0.32
60
0.46
29
0.33
74
0.22
242
0.23
294
0.19
148
0.19
208
0.21
209
0.22
224
RTStwo views2.03
386
1.03
379
11.50
410
0.68
355
0.63
361
2.71
388
1.56
392
1.55
357
2.32
383
1.93
373
2.57
377
1.32
325
1.32
354
5.20
406
4.30
395
0.31
313
0.23
294
0.29
308
0.30
319
0.41
332
0.40
331
RTSAtwo views2.03
386
1.03
379
11.50
410
0.68
355
0.63
361
2.71
388
1.56
392
1.55
357
2.32
383
1.93
373
2.57
377
1.32
325
1.32
354
5.20
406
4.30
395
0.31
313
0.23
294
0.29
308
0.30
319
0.41
332
0.40
331
DeepPruner_ROBtwo views0.55
227
0.37
278
0.67
232
0.42
130
0.31
228
0.50
139
0.43
226
1.22
286
0.73
127
0.86
215
1.05
235
0.85
231
0.58
187
0.90
253
0.56
217
0.29
303
0.23
294
0.22
230
0.22
262
0.26
264
0.26
263
LALA_ROBtwo views0.76
300
0.46
312
0.86
293
0.55
317
0.41
300
1.00
307
0.93
357
1.25
296
1.13
303
1.23
336
1.15
267
1.55
357
0.80
284
1.11
305
0.96
304
0.33
326
0.23
294
0.35
331
0.30
319
0.35
315
0.32
299
StereoVisiontwo views0.43
136
0.29
230
0.54
178
0.50
269
0.28
180
0.37
86
0.38
171
0.75
134
0.63
84
0.46
44
1.11
255
0.53
87
0.38
90
0.57
70
0.34
83
0.21
226
0.24
302
0.25
268
0.24
285
0.26
264
0.17
135
fast-acv-fttwo views0.66
277
0.32
253
0.80
276
0.46
223
0.34
266
1.26
343
0.50
262
0.91
179
1.00
256
1.05
303
1.36
310
1.28
319
0.84
293
0.81
224
0.90
290
0.22
242
0.24
302
0.23
244
0.23
271
0.21
209
0.22
224
Wz-Net-SNSevtwo views0.99
338
0.80
363
3.00
386
0.57
323
0.46
332
0.94
295
1.22
377
1.40
337
1.28
332
1.04
298
1.33
304
1.46
345
0.90
312
2.06
377
1.65
360
0.26
279
0.24
302
0.25
268
0.26
304
0.33
303
0.30
289
GwcNetcopylefttwo views0.73
288
0.39
286
1.37
350
0.53
302
0.43
312
1.10
322
0.52
271
1.27
303
1.19
320
1.05
303
1.41
318
1.06
291
0.86
301
0.98
280
1.01
311
0.26
279
0.24
302
0.24
257
0.23
271
0.23
241
0.28
280
STTStereotwo views0.57
240
0.39
286
0.87
298
0.45
200
0.32
245
0.62
196
0.45
236
1.01
215
0.87
190
1.01
285
0.91
170
0.95
261
0.58
187
0.77
208
0.66
243
0.25
274
0.24
302
0.27
290
0.33
337
0.25
258
0.26
263
AF-Nettwo views0.85
320
0.41
298
0.87
298
0.66
349
0.54
347
0.96
299
0.52
271
1.66
371
1.37
343
1.03
292
2.04
365
1.46
345
1.36
356
1.19
316
1.05
323
0.34
333
0.24
302
0.39
344
0.28
314
0.31
293
0.26
263
ADCMidtwo views1.22
356
0.57
340
3.17
389
0.54
311
0.44
317
1.07
320
0.77
336
1.31
315
1.13
303
2.14
381
1.48
332
1.49
350
1.47
365
1.65
360
5.30
402
0.26
279
0.24
302
0.29
308
0.32
331
0.38
324
0.36
316
DANettwo views0.74
293
0.47
318
0.98
317
0.60
332
0.41
300
0.92
292
0.41
214
1.02
217
0.87
190
1.22
334
1.22
284
1.33
330
0.88
308
1.26
324
1.37
346
0.27
288
0.24
302
0.31
318
0.25
296
0.37
322
0.36
316
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
SQANettwo views0.87
322
0.76
360
0.76
269
1.16
383
0.99
380
1.10
322
0.51
265
1.12
250
0.85
180
0.93
250
1.05
235
1.03
280
0.76
274
1.07
298
0.70
251
0.79
379
0.25
310
1.04
383
0.36
342
1.56
387
0.70
376
Anonymous3two views0.47
162
0.35
268
0.91
305
0.50
269
0.38
283
0.81
269
0.55
284
0.76
136
0.66
96
0.52
54
0.65
70
0.44
55
0.45
132
0.66
147
0.39
128
0.25
274
0.25
310
0.22
230
0.21
244
0.23
241
0.24
251
psm_uptwo views0.57
240
0.27
207
0.52
159
0.50
269
0.33
256
0.65
215
0.60
301
1.07
236
0.84
176
0.87
217
0.91
170
1.00
272
1.06
333
0.80
220
0.66
243
0.22
242
0.25
310
0.26
282
0.23
271
0.22
227
0.21
209
Nwc_Nettwo views0.82
307
0.40
294
0.86
293
0.62
340
0.56
349
1.04
317
0.57
289
1.72
375
1.08
289
0.93
250
1.88
358
1.44
343
1.24
350
1.19
316
0.94
299
0.31
313
0.25
310
0.36
334
0.39
349
0.31
293
0.31
296
XQCtwo views0.97
334
0.70
355
1.54
361
0.70
361
0.55
348
1.48
355
0.81
342
1.41
339
1.57
361
1.21
332
1.12
257
1.33
330
1.04
331
1.55
354
2.00
370
0.39
350
0.25
310
0.37
338
0.32
331
0.55
363
0.49
359
STTRV1_RVCtwo views0.83
313
0.60
347
1.19
332
0.67
351
0.81
371
1.12
327
0.63
308
1.37
332
1.12
297
0.98
277
1.34
308
1.08
296
0.95
322
1.28
327
0.90
290
0.57
373
0.25
310
0.44
352
0.39
349
0.60
369
0.41
336
DPSNettwo views1.08
345
0.44
306
2.64
385
0.54
311
0.42
309
1.59
362
1.25
378
2.39
389
1.50
357
1.13
325
1.12
257
1.51
353
2.19
389
1.44
347
1.51
356
0.35
338
0.25
310
0.25
268
0.21
244
0.49
351
0.39
325
SANettwo views1.15
351
0.45
307
1.40
352
0.50
269
0.32
245
1.54
361
1.21
375
1.49
351
3.35
397
1.61
356
2.41
373
2.32
378
1.80
377
1.57
355
1.27
340
0.28
296
0.25
310
0.26
282
0.24
285
0.36
319
0.32
299
XPNet_ROBtwo views0.73
288
0.38
282
0.80
276
0.53
302
0.40
295
0.80
264
0.83
346
1.21
280
0.96
240
1.37
347
1.17
275
1.37
337
0.87
304
1.14
308
0.99
309
0.33
326
0.25
310
0.27
290
0.24
285
0.31
293
0.29
285
FADNet-RVCtwo views0.62
271
0.56
339
1.29
342
0.47
241
0.39
292
0.63
201
0.40
194
1.16
263
0.91
214
0.71
133
0.86
150
1.04
284
0.55
167
0.99
284
0.78
264
0.27
288
0.26
319
0.28
300
0.29
318
0.32
299
0.31
296
PS-NSSStwo views0.60
262
0.46
312
0.68
239
0.43
167
0.34
266
0.66
220
0.57
289
1.05
229
0.91
214
0.80
179
1.28
296
0.72
189
0.67
229
0.89
248
0.61
233
0.32
318
0.26
319
0.40
347
0.27
308
0.35
315
0.29
285
Syn2CoExtwo views0.74
293
0.55
337
1.17
331
0.66
349
0.45
324
0.89
289
0.56
287
1.54
356
1.15
310
0.95
259
1.35
309
1.03
280
1.03
329
0.96
271
0.89
284
0.31
313
0.27
321
0.29
308
0.24
285
0.23
241
0.27
271
SHDtwo views0.98
336
0.54
331
1.30
344
0.63
342
0.50
339
1.14
330
0.50
262
1.80
379
2.20
380
1.66
361
1.39
315
1.47
347
1.21
347
1.40
340
1.80
363
0.32
318
0.27
321
0.32
323
0.34
339
0.41
332
0.44
348
GANettwo views0.74
293
0.38
282
0.63
217
0.54
311
0.35
271
1.01
311
0.95
358
1.15
261
0.95
233
1.09
317
2.00
363
1.14
309
0.92
315
1.29
329
0.75
260
0.25
274
0.27
321
0.27
290
0.23
271
0.32
299
0.24
251
NCCL2two views0.74
293
0.45
307
0.77
272
0.65
347
0.45
324
0.97
300
1.16
372
1.16
263
1.02
263
1.00
283
0.98
199
1.48
349
0.88
308
0.99
284
0.89
284
0.31
313
0.27
321
0.39
344
0.39
349
0.33
303
0.34
310
SGM_RVCbinarytwo views1.04
341
0.30
244
0.47
102
0.41
105
0.23
56
1.73
371
0.77
336
1.63
369
1.30
337
2.39
386
1.99
362
2.64
381
1.78
376
2.22
383
1.40
347
0.28
296
0.27
321
0.27
290
0.25
296
0.25
258
0.25
258
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
APVNettwo views0.73
288
0.39
286
1.01
319
0.58
328
0.45
324
1.16
334
0.68
316
1.47
350
0.87
190
0.84
195
1.15
267
1.04
284
0.84
293
1.14
308
1.18
334
0.27
288
0.28
326
0.32
323
0.31
328
0.29
282
0.32
299
FAT-Stereotwo views0.75
297
0.34
264
0.81
281
0.51
281
0.38
283
0.78
252
0.63
308
1.39
333
1.32
339
1.05
303
1.40
316
1.58
360
1.14
343
0.92
257
0.91
293
0.29
303
0.28
326
0.28
300
0.23
271
0.28
280
0.41
336
stereogantwo views0.83
313
0.33
259
0.89
302
0.61
336
0.51
341
1.80
372
0.50
262
1.41
339
1.39
346
1.05
303
1.47
331
1.56
359
1.04
331
1.32
336
0.87
281
0.29
303
0.29
328
0.29
308
0.25
296
0.39
328
0.40
331
DeepPrunerFtwo views0.93
326
0.55
337
3.88
392
0.70
361
0.81
371
0.72
241
0.74
332
1.28
308
1.97
376
0.95
259
1.02
218
0.87
239
0.85
297
1.16
312
1.07
326
0.35
338
0.29
328
0.43
350
0.40
353
0.31
293
0.33
308
AnyNet_C32two views1.27
361
0.72
359
3.33
391
0.59
330
0.56
349
1.51
359
1.53
390
1.27
303
1.28
332
1.52
353
1.48
332
1.38
341
1.23
349
1.64
359
5.26
400
0.30
310
0.29
328
0.29
308
0.34
339
0.38
324
0.44
348
ADCPNettwo views1.11
349
0.53
325
3.26
390
0.55
317
0.44
317
1.47
354
0.83
346
1.21
280
1.17
315
1.26
341
1.42
322
1.67
363
1.12
340
1.48
351
3.86
394
0.30
310
0.29
328
0.30
317
0.32
331
0.37
322
0.37
322
FADNettwo views0.63
274
0.53
325
1.20
333
0.46
223
0.44
317
0.66
220
0.41
214
1.24
290
1.07
284
0.70
124
0.84
139
0.98
267
0.65
218
0.87
241
0.54
213
0.29
303
0.30
332
0.27
290
0.30
319
0.48
348
0.36
316
MaskLacGwcNet_RVCtwo views0.71
286
0.84
368
0.80
276
0.55
317
0.38
283
1.38
349
0.57
289
1.07
236
0.81
162
0.90
239
0.94
181
0.95
261
0.54
164
1.01
290
0.61
233
0.41
355
0.30
332
0.57
371
0.31
328
0.86
377
0.39
325
RGCtwo views0.82
307
0.62
349
0.80
276
0.67
351
0.66
365
0.91
291
0.59
299
1.35
326
1.09
295
1.12
324
1.46
329
1.50
351
1.09
336
1.28
327
0.97
307
0.34
333
0.30
332
0.48
361
0.40
353
0.38
324
0.38
324
G-Nettwo views0.95
331
0.48
320
1.13
327
0.67
351
0.49
336
2.07
378
0.63
308
1.02
217
0.90
208
1.77
367
2.62
380
1.28
319
1.60
369
1.09
302
1.06
324
0.37
344
0.30
332
0.35
331
0.25
296
0.46
345
0.45
350
NCC-stereotwo views0.82
307
0.43
304
0.87
298
0.63
342
0.68
367
0.88
286
0.72
325
1.60
367
1.12
297
0.95
259
1.41
318
1.37
337
1.37
358
1.26
324
0.94
299
0.32
318
0.30
332
0.37
338
0.49
370
0.34
309
0.35
313
Abc-Nettwo views0.82
307
0.43
304
0.87
298
0.63
342
0.68
367
0.88
286
0.72
325
1.60
367
1.12
297
0.95
259
1.41
318
1.37
337
1.37
358
1.26
324
0.94
299
0.32
318
0.30
332
0.37
338
0.49
370
0.34
309
0.35
313
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
NaN_ROBtwo views0.73
288
0.46
312
0.89
302
0.52
295
0.34
266
0.98
304
1.11
367
1.28
308
1.20
322
1.27
342
0.96
189
1.08
296
0.79
280
1.34
338
0.78
264
0.24
262
0.30
332
0.23
244
0.24
285
0.23
241
0.26
263
CBMVpermissivetwo views0.68
281
0.37
278
0.50
132
0.43
167
0.26
130
1.00
307
0.71
321
1.17
269
1.16
312
1.24
338
1.29
300
1.06
291
0.86
301
0.98
280
0.75
260
0.29
303
0.30
332
0.34
330
0.30
319
0.26
264
0.27
271
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
DGSMNettwo views0.80
304
0.58
343
1.42
354
0.61
336
0.65
363
0.94
295
0.75
334
1.35
326
1.16
312
0.88
225
1.26
291
1.00
272
0.75
265
1.07
298
0.89
284
0.36
340
0.31
340
0.41
348
0.40
353
0.60
369
0.59
373
FINETtwo views0.75
297
0.45
307
1.38
351
0.48
249
0.46
332
0.98
304
1.00
362
1.22
286
1.69
369
0.91
246
1.25
288
0.74
197
0.74
262
1.09
302
0.82
275
0.37
344
0.31
340
0.27
290
0.24
285
0.35
315
0.34
310
S-Stereotwo views0.76
300
0.36
276
1.10
324
0.57
323
0.46
332
0.83
275
0.59
299
1.31
315
1.62
365
0.98
277
1.41
318
1.11
305
0.93
317
0.85
237
1.07
326
0.27
288
0.31
340
0.28
300
0.25
296
0.33
303
0.50
361
RPtwo views0.80
304
0.38
282
0.73
262
0.67
351
0.59
356
0.82
272
0.57
289
1.21
280
1.28
332
1.03
292
1.68
346
1.45
344
1.49
366
1.08
301
0.90
290
0.36
340
0.31
340
0.37
338
0.30
319
0.36
319
0.36
316
Anonymous Stereotwo views0.82
307
0.59
345
2.10
380
0.59
330
0.58
354
0.68
233
1.42
388
1.05
229
1.07
284
1.03
292
1.02
218
0.86
235
0.65
218
1.33
337
1.36
345
0.32
318
0.31
340
0.31
318
0.33
337
0.34
309
0.39
325
CSANtwo views0.88
323
0.52
323
0.93
306
0.61
336
0.42
309
1.19
339
1.11
367
1.27
303
1.48
356
1.37
347
1.44
325
1.37
337
1.30
353
1.46
350
1.01
311
0.39
350
0.31
340
0.36
334
0.37
344
0.35
315
0.36
316
Wz-Net-TNSevtwo views1.23
358
1.24
384
5.25
400
0.51
281
0.43
312
1.49
358
1.09
366
1.58
364
1.42
349
1.25
339
1.26
291
1.58
360
1.52
367
1.97
374
1.95
366
0.33
326
0.32
346
0.26
282
0.30
319
0.41
332
0.43
344
edge stereotwo views0.79
303
0.40
294
0.82
282
0.52
295
0.44
317
0.83
275
0.58
296
1.34
325
1.08
289
1.30
343
1.38
314
1.79
365
1.13
342
1.15
311
0.92
295
0.34
333
0.32
346
0.42
349
0.28
314
0.33
303
0.39
325
ADCStwo views1.60
376
0.70
355
4.02
394
0.61
336
0.53
345
1.31
344
1.11
367
1.71
374
1.86
375
1.97
376
1.68
346
1.51
353
1.46
363
2.07
378
9.20
409
0.34
333
0.32
346
0.33
328
0.36
342
0.45
342
0.46
354
AnyNet_C01two views1.63
377
1.16
382
7.38
405
0.65
347
0.56
349
2.25
382
1.53
390
1.53
355
1.46
354
1.71
365
1.95
360
1.83
366
1.41
360
2.48
387
4.42
397
0.33
326
0.32
346
0.32
323
0.34
339
0.45
342
0.50
361
FBW_ROBtwo views0.94
330
0.54
331
1.03
321
0.56
320
0.42
309
1.16
334
0.76
335
1.56
361
1.41
347
1.38
349
1.33
304
1.47
347
1.07
334
2.94
394
1.14
332
0.26
279
0.32
346
0.45
354
0.30
319
0.34
309
0.30
289
UDGtwo views0.93
326
1.03
379
0.75
268
1.00
376
0.97
378
1.02
313
0.57
289
1.18
271
1.01
258
0.93
250
1.02
218
1.32
325
1.03
329
0.88
247
0.92
295
0.55
372
0.33
351
1.82
391
0.41
358
1.20
385
0.74
377
psmorigintwo views0.84
315
0.53
325
2.21
382
0.50
269
0.41
300
0.86
283
0.57
289
1.08
241
0.90
208
1.50
352
1.42
322
1.50
351
1.09
336
1.29
329
1.03
316
0.32
318
0.33
351
0.27
290
0.27
308
0.34
309
0.45
350
SGM-Foresttwo views0.65
276
0.33
259
0.43
74
0.44
188
0.30
218
1.01
311
0.54
280
1.13
256
1.09
295
1.11
323
1.21
282
1.10
303
0.76
274
0.99
284
0.71
253
0.32
318
0.33
351
0.33
328
0.30
319
0.30
289
0.28
280
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
CC-Net-ROBtwo views0.84
315
1.01
378
0.93
306
0.60
332
0.45
324
1.25
342
0.71
321
1.20
277
1.05
273
0.84
195
1.24
287
0.90
249
0.78
279
1.14
308
0.70
251
0.48
362
0.34
354
1.71
389
0.38
347
0.78
375
0.40
331
SGM-ForestMtwo views4.73
405
0.34
264
1.05
322
0.46
223
0.28
180
10.26
413
3.48
412
4.52
407
5.16
404
8.68
416
7.48
414
18.87
423
10.80
415
11.26
417
10.01
410
0.32
318
0.34
354
0.32
323
0.32
331
0.29
282
0.30
289
ACVNet-4btwo views1.43
371
1.34
387
1.28
341
1.95
397
1.60
392
1.93
376
0.77
336
1.59
365
1.64
367
1.05
303
1.60
342
2.10
373
0.92
315
1.79
368
0.84
277
1.76
398
0.35
356
2.03
397
0.67
381
2.16
396
1.18
391
WCMA_ROBtwo views1.22
356
0.39
286
0.93
306
0.51
281
0.45
324
1.44
352
0.79
340
1.20
277
1.30
337
2.99
399
3.94
400
3.30
392
2.17
388
1.42
344
1.31
342
0.46
358
0.35
356
0.35
331
0.37
344
0.41
332
0.42
340
MeshStereopermissivetwo views1.38
367
0.45
307
0.58
194
0.45
200
0.35
271
1.63
365
0.60
301
2.07
382
1.43
350
4.49
408
3.32
392
4.67
399
2.08
385
2.08
379
1.32
343
0.36
340
0.36
358
0.37
338
0.32
331
0.32
299
0.34
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
CBMV_ROBtwo views0.62
271
0.39
286
0.41
50
0.41
105
0.28
180
0.86
283
0.28
50
1.06
234
1.02
263
0.95
259
1.33
304
0.81
226
0.84
293
0.94
263
0.56
217
0.37
344
0.37
359
0.43
350
0.40
353
0.33
303
0.32
299
HBP-ISPtwo views0.61
265
0.47
318
0.45
84
0.46
223
0.33
256
0.79
258
0.29
57
1.15
261
1.05
273
0.85
205
1.18
279
0.67
166
0.71
249
0.92
257
0.57
221
0.37
344
0.38
360
0.47
358
0.41
358
0.39
328
0.32
299
MFN_U_SF_RVCtwo views1.14
350
0.63
350
2.33
383
0.69
358
0.46
332
2.04
377
0.70
319
1.90
380
1.37
343
1.62
357
1.56
338
1.94
370
1.36
356
1.73
365
1.90
365
0.41
355
0.38
360
0.45
354
0.48
367
0.45
342
0.47
356
PVDtwo views1.34
366
0.70
355
1.42
354
0.78
370
0.65
363
1.68
368
0.91
352
2.12
385
3.01
392
2.25
383
2.35
372
1.90
369
1.99
383
1.98
375
2.14
372
0.40
354
0.38
360
0.49
364
0.37
344
0.51
356
0.67
375
NOSS_ROBtwo views0.59
255
0.40
294
0.42
58
0.45
200
0.31
228
0.79
258
0.53
274
1.09
244
1.12
297
0.69
120
0.92
176
0.77
212
0.63
205
0.81
224
0.52
201
0.39
350
0.38
360
0.44
352
0.42
360
0.38
324
0.36
316
MFN_U_SF_DS_RVCtwo views1.06
342
0.61
348
1.82
374
0.69
358
0.51
341
2.62
386
1.69
397
1.28
308
1.44
351
1.39
350
1.56
338
1.34
333
0.91
313
1.68
362
0.95
302
0.38
349
0.39
364
0.46
357
0.61
380
0.41
332
0.43
344
BEATNet-Init1two views15.65
419
1.62
397
54.26
436
0.75
368
0.56
349
37.03
430
13.39
417
13.20
420
14.59
417
29.41
434
29.29
434
47.69
437
21.87
426
26.91
428
19.58
418
0.43
357
0.39
364
0.47
358
0.47
363
0.52
359
0.52
367
GANetREF_RVCpermissivetwo views0.82
307
0.77
361
0.95
311
0.68
355
0.43
312
1.15
332
1.06
365
1.19
274
1.20
322
1.03
292
1.02
218
1.10
303
0.89
310
1.20
319
0.78
264
0.49
363
0.39
364
0.58
372
0.39
349
0.69
372
0.49
359
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
DDUNettwo views1.10
346
2.58
412
0.83
286
1.21
385
1.27
389
1.02
313
0.69
318
1.17
269
0.95
233
0.98
277
1.26
291
1.28
319
0.84
293
0.97
278
0.79
271
0.85
382
0.40
367
2.00
394
0.60
379
1.34
386
0.94
382
MSC_U_SF_DS_RVCtwo views1.38
367
0.91
371
2.11
381
0.89
373
0.57
353
4.27
406
1.79
401
1.55
357
2.00
378
1.64
359
1.85
357
1.83
366
1.44
362
1.89
373
1.49
354
0.49
363
0.40
367
0.56
370
0.58
377
0.75
374
0.52
367
PA-Nettwo views0.70
284
0.46
312
0.96
312
0.51
281
0.53
345
0.94
295
0.73
330
1.14
258
1.15
310
0.83
189
0.90
164
0.88
242
0.76
274
1.19
316
0.96
304
0.25
274
0.41
369
0.29
308
0.44
361
0.27
273
0.39
325
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
MSMD_ROBtwo views1.25
359
0.51
321
0.64
221
0.60
332
0.50
339
1.66
367
0.67
313
1.26
298
1.26
330
2.64
390
3.82
397
3.06
388
3.20
401
1.45
348
0.91
293
0.46
358
0.41
369
0.49
364
0.51
373
0.47
347
0.45
350
FCDSN-DCtwo views1.43
371
0.57
340
0.69
247
0.74
366
0.59
356
1.42
351
0.65
312
1.40
337
1.41
347
3.31
403
4.42
406
4.57
398
3.01
399
1.70
363
1.19
336
0.46
358
0.42
371
0.48
361
0.47
363
0.51
356
0.51
365
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
FC-DCNNcopylefttwo views1.67
379
0.53
325
0.68
239
0.62
340
0.49
336
1.62
364
0.71
321
1.77
378
1.55
359
4.73
410
4.66
408
5.82
407
3.94
404
2.13
381
1.42
348
0.47
361
0.42
371
0.47
358
0.46
362
0.48
348
0.47
356
Ntrotwo views1.15
351
1.00
377
1.00
318
1.49
390
1.20
388
1.69
369
0.81
342
1.39
333
1.25
327
1.01
285
1.28
296
1.31
323
1.00
327
1.31
334
0.89
284
1.10
390
0.43
373
1.36
386
0.51
373
1.95
391
0.99
387
ccnettwo views0.84
315
0.59
345
0.86
293
0.56
320
0.60
359
1.11
326
0.72
325
1.44
346
0.97
245
1.15
327
1.44
325
1.28
319
0.95
322
1.01
290
1.33
344
0.49
363
0.43
373
0.50
366
0.47
363
0.52
359
0.48
358
SAMSARAtwo views1.15
351
0.69
354
1.44
356
1.09
382
0.93
374
2.10
380
1.87
404
1.64
370
1.47
355
1.64
359
1.21
282
2.06
372
1.14
343
1.61
356
1.50
355
0.39
350
0.45
375
0.36
334
0.38
347
0.50
353
0.51
365
MANEtwo views4.73
405
0.54
331
0.77
272
0.69
358
0.60
359
10.35
414
1.67
396
8.68
415
12.66
415
6.90
414
9.43
416
11.59
417
10.59
414
8.26
414
8.41
407
0.51
366
0.45
375
0.48
361
1.02
394
0.50
353
0.50
361
otakutwo views1.10
346
0.96
373
0.96
312
1.37
389
1.06
386
1.65
366
0.72
325
1.46
349
1.19
320
1.10
320
1.32
303
1.32
325
0.95
322
1.29
329
0.81
274
0.89
384
0.46
377
1.24
385
0.50
372
1.86
389
0.89
381
ELAS_RVCcopylefttwo views1.76
381
0.64
351
1.20
333
0.74
366
0.59
356
2.18
381
2.53
409
2.10
384
2.85
391
3.46
404
3.41
395
3.12
389
4.11
405
2.69
392
2.53
382
0.54
371
0.47
378
0.51
368
0.48
367
0.55
363
0.55
370
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views1.77
382
0.64
351
1.10
324
0.72
364
0.58
354
3.37
401
1.76
399
2.54
390
2.57
387
3.77
406
3.96
401
2.83
385
3.44
402
2.34
386
2.73
384
0.53
368
0.47
378
0.50
366
0.48
367
0.55
363
0.55
370
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
LSMtwo views4.83
407
0.83
367
11.23
409
0.76
369
56.73
433
1.10
322
1.18
373
1.35
326
1.70
370
2.13
378
2.34
370
1.34
333
1.19
346
1.52
353
1.23
338
0.34
333
0.50
380
0.39
344
0.47
363
0.51
356
9.82
420
ACVNet_1two views1.55
375
1.36
388
1.35
349
1.96
398
1.63
393
1.83
374
0.96
360
2.09
383
1.85
374
1.43
351
1.54
336
2.31
376
1.68
373
1.42
344
1.18
334
1.76
398
0.51
381
2.05
399
0.59
378
2.24
399
1.30
396
Anonymous_2two views0.84
315
0.45
307
0.66
228
0.41
105
0.45
324
0.82
272
0.53
274
0.81
153
0.81
162
0.73
141
0.61
62
0.91
255
0.76
274
0.77
208
0.61
233
0.51
366
0.55
382
0.54
369
4.92
417
0.54
361
0.42
340
SDNRtwo views0.89
324
0.39
286
1.66
372
0.42
130
0.39
292
3.35
400
0.32
100
0.95
197
1.05
273
1.05
303
2.12
366
0.62
135
0.71
249
1.40
340
0.78
264
0.53
368
0.56
383
0.36
334
0.27
308
0.46
345
0.50
361
PASMtwo views0.96
332
0.71
358
2.05
379
0.72
364
0.72
370
0.84
280
0.92
354
1.14
258
1.34
342
1.25
339
1.22
284
1.34
333
1.07
334
1.31
334
1.11
329
0.53
368
0.57
384
0.59
373
0.67
381
0.56
368
0.57
372
ACVNet_2two views1.74
380
1.30
386
1.62
368
1.81
393
1.63
393
2.28
383
1.34
383
2.35
388
2.64
388
1.82
369
2.55
376
2.99
386
1.71
374
1.67
361
1.20
337
1.48
394
0.59
385
1.81
390
0.71
383
2.09
394
1.29
395
MADNet+two views2.28
393
2.56
410
10.82
408
1.25
386
0.96
377
2.77
392
1.44
389
2.34
387
1.76
371
1.36
346
1.78
354
1.84
368
1.74
375
6.33
410
4.57
399
0.67
377
0.66
386
0.59
373
0.54
376
0.84
376
0.81
380
RainbowNettwo views1.42
370
1.53
393
1.31
345
1.93
396
1.46
390
1.52
360
1.03
363
1.67
372
1.55
359
1.23
336
1.59
341
1.54
356
1.21
347
1.40
340
1.03
316
1.70
396
0.70
387
1.82
391
0.80
387
2.11
395
1.22
392
NVStereoNet_ROBtwo views1.31
365
0.96
373
1.33
347
0.90
374
0.92
373
1.15
332
1.05
364
1.49
351
1.62
365
1.63
358
2.51
375
2.31
376
1.62
370
2.16
382
1.42
348
0.81
381
0.73
388
0.79
377
1.02
394
0.73
373
0.97
385
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
PWCKtwo views2.06
388
1.75
401
4.11
396
1.69
391
0.93
374
3.13
399
2.86
411
2.18
386
2.41
386
2.38
385
2.33
369
2.22
374
1.85
378
3.52
398
2.20
375
1.65
395
0.73
388
1.52
388
0.83
388
1.81
388
1.02
390
IMH-64-1two views1.96
383
1.64
398
1.26
337
2.26
402
1.91
401
2.30
384
1.35
384
2.99
393
2.29
381
1.70
363
2.79
384
2.47
379
1.66
371
2.33
384
1.95
366
2.07
401
0.74
390
2.44
403
1.04
396
2.40
401
1.59
402
IMH-64two views1.96
383
1.64
398
1.26
337
2.26
402
1.91
401
2.30
384
1.35
384
2.99
393
2.29
381
1.70
363
2.79
384
2.47
379
1.66
371
2.33
384
1.95
366
2.07
401
0.74
390
2.44
403
1.04
396
2.40
401
1.59
402
TorneroNet-64two views3.54
400
1.89
402
1.59
363
2.62
408
2.29
405
6.88
411
1.72
398
4.72
411
11.88
411
2.43
387
5.46
412
8.16
412
2.80
397
4.13
404
3.03
386
2.25
406
0.75
392
2.57
407
1.09
400
2.65
407
1.84
406
Consistency-Rafttwo views1.01
340
0.82
364
1.27
340
0.85
372
0.97
378
0.81
269
0.83
346
1.35
326
1.61
364
1.06
311
1.66
345
1.11
305
0.93
317
0.93
260
1.11
329
0.65
376
0.75
392
0.79
377
0.91
390
1.09
384
0.79
379
MFMNet_retwo views1.17
354
0.99
375
1.31
345
1.02
378
0.95
376
1.32
345
1.32
381
1.44
346
1.58
362
1.72
366
1.70
349
1.21
314
1.57
368
1.16
312
1.04
321
0.88
383
0.76
394
0.79
377
0.75
385
0.90
378
0.94
382
JetBluetwo views3.02
398
1.39
389
7.91
406
1.17
384
1.49
391
8.53
412
7.94
414
2.82
391
1.98
377
2.15
382
2.69
382
3.32
393
3.01
399
6.66
411
3.81
392
0.79
379
0.78
395
0.75
376
0.76
386
1.04
382
1.33
398
TorneroNettwo views4.49
404
1.92
403
1.65
371
2.60
407
2.29
405
14.95
419
1.86
403
4.86
412
19.56
427
3.10
401
7.52
415
7.00
411
2.90
398
4.48
405
3.66
390
2.24
405
0.78
395
2.68
409
1.14
402
2.79
408
1.80
405
IMHtwo views2.15
391
1.66
400
1.29
342
2.25
401
1.92
403
2.87
394
1.33
382
3.25
396
3.04
394
1.87
371
3.33
394
3.00
387
2.03
384
2.80
393
1.95
366
2.09
403
0.78
395
2.45
405
1.05
399
2.44
403
1.62
404
Deantwo views2.07
389
1.39
389
1.69
373
2.17
400
1.83
400
2.75
391
1.28
379
3.49
401
3.80
401
2.13
378
3.30
391
3.18
390
1.98
382
1.78
367
1.72
361
1.73
397
0.79
398
1.99
393
0.91
390
2.17
397
1.34
399
LVEtwo views2.20
392
1.47
391
1.44
356
2.06
399
1.80
399
2.79
393
1.77
400
2.96
392
3.94
403
1.95
375
4.29
405
3.47
395
1.97
380
2.48
387
1.85
364
2.06
400
0.88
399
2.06
400
1.13
401
2.17
397
1.53
401
WAO-7two views1.96
383
1.24
384
1.52
358
1.28
387
1.06
386
2.92
396
1.64
395
3.32
397
3.05
395
2.28
384
3.32
392
3.19
391
2.38
392
3.39
396
2.49
381
1.02
388
0.92
400
1.06
384
1.04
396
1.05
383
0.99
387
WAO-6two views2.11
390
1.52
392
1.25
336
1.73
392
1.69
397
2.72
390
1.62
394
3.15
395
3.64
398
2.01
377
3.28
390
3.52
396
2.20
390
2.59
390
2.48
380
1.31
393
0.92
400
2.04
398
1.22
405
1.89
390
1.35
400
WAO-8two views3.00
396
1.60
395
1.52
358
1.82
394
1.65
395
5.57
408
1.35
384
4.65
409
12.37
413
2.89
393
4.04
402
4.89
402
2.78
395
3.73
400
2.44
377
1.29
391
0.93
402
2.00
394
1.16
403
2.02
392
1.23
393
Venustwo views3.00
396
1.60
395
1.52
358
1.82
394
1.65
395
5.57
408
1.35
384
4.65
409
12.37
413
2.89
393
4.04
402
4.89
402
2.78
395
3.73
400
2.44
377
1.29
391
0.93
402
2.00
394
1.16
403
2.02
392
1.23
393
SPS-STEREOcopylefttwo views1.29
363
0.94
372
1.10
324
1.05
381
1.03
384
1.48
355
0.91
352
1.57
363
1.24
325
2.13
378
1.90
359
1.94
370
1.46
363
1.77
366
1.64
359
0.97
386
0.94
404
0.90
380
0.89
389
0.96
381
0.97
385
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
anonymitytwo views0.98
336
0.89
370
1.06
323
0.93
375
1.04
385
0.97
300
0.82
344
1.33
323
0.93
222
1.08
313
0.98
199
1.02
278
0.95
322
1.02
293
0.93
297
0.96
385
0.96
405
0.90
380
0.91
390
0.92
379
0.95
384
SGM+DAISYtwo views1.52
374
0.99
375
1.61
367
1.01
377
1.02
383
1.86
375
1.19
374
1.49
351
1.38
345
2.96
397
3.00
387
2.79
384
1.94
379
1.88
371
1.62
358
0.98
387
0.97
406
0.91
382
0.91
390
0.94
380
0.99
387
UNDER WATERtwo views3.63
401
2.12
406
4.11
396
3.17
412
2.51
409
3.77
404
2.45
408
3.53
402
13.66
416
2.98
398
2.92
386
5.75
406
4.13
406
3.85
402
3.75
391
2.84
412
1.11
407
2.71
410
1.41
406
3.26
413
2.50
411
notakertwo views2.87
395
2.31
408
2.01
378
3.03
411
2.60
412
2.94
397
1.82
402
3.43
399
3.06
396
2.89
393
4.21
404
6.15
410
2.71
394
3.42
397
2.90
385
2.67
411
1.18
408
3.00
413
1.67
409
3.13
410
2.26
409
UNDER WATER-64two views3.72
402
2.07
405
4.57
398
3.30
414
2.52
410
5.61
410
2.63
410
3.67
403
12.27
412
3.09
400
2.66
381
5.99
409
4.74
408
3.93
403
3.57
389
2.54
409
1.24
409
2.65
408
1.48
407
3.21
412
2.62
412
KSHMRtwo views2.64
394
1.96
404
1.86
376
2.69
409
2.44
407
2.88
395
2.04
405
3.46
400
6.31
407
2.51
389
3.27
389
3.39
394
1.97
380
2.59
390
2.08
371
2.48
408
1.41
410
2.80
412
1.51
408
2.98
409
2.09
407
ktntwo views3.02
398
2.27
407
1.85
375
2.89
410
2.54
411
3.72
402
2.14
406
3.79
404
5.33
405
2.82
392
5.09
410
5.95
408
2.54
393
3.34
395
2.58
383
2.65
410
1.44
411
2.78
411
2.03
411
2.61
406
2.10
408
FADEtwo views5.30
410
2.54
409
14.53
414
1.04
380
1.00
381
2.09
379
0.92
354
4.03
406
3.02
393
1.77
367
1.60
342
2.74
382
6.71
411
6.31
409
4.51
398
14.64
428
1.73
412
21.24
430
14.41
424
0.63
371
0.65
374
HanzoNettwo views6.97
414
2.57
411
4.66
399
3.29
413
2.96
414
3.75
403
2.35
407
5.08
413
7.11
408
14.46
424
13.06
417
17.69
421
22.95
427
13.72
419
6.61
404
4.36
415
1.96
413
3.14
414
2.59
413
3.88
416
3.19
415
DPSimNet_ROBtwo views5.19
409
2.71
414
18.56
416
2.59
406
2.49
408
4.25
405
10.93
415
3.33
398
3.93
402
5.02
411
4.52
407
5.74
405
10.18
412
5.44
408
8.79
408
2.40
407
2.47
414
2.48
406
2.54
412
2.56
405
2.87
413
PMLtwo views40.49
438
30.31
427
12.46
412
7.19
418
14.30
418
91.44
438
212.44
439
7.73
414
23.24
428
74.44
438
185.05
439
49.81
438
25.78
428
21.34
423
12.84
414
8.71
421
2.93
415
8.43
421
3.24
415
13.77
423
4.45
418
JetRedtwo views5.38
411
6.17
417
12.68
413
2.38
404
2.85
413
12.60
418
11.17
416
4.60
408
3.74
399
3.87
407
3.85
398
4.83
400
4.13
406
6.81
412
12.18
413
2.18
404
2.95
416
2.19
401
1.98
410
3.49
414
3.01
414
MADNet++two views4.18
403
2.72
415
4.00
393
3.80
416
3.44
415
4.72
407
4.05
413
4.01
405
3.74
399
4.52
409
5.14
411
4.20
397
4.89
409
7.04
413
6.39
403
3.79
413
3.70
417
3.27
415
2.70
414
3.68
415
3.74
417
SPstereotwo views24.33
424
4.45
416
7.15
404
4.44
417
4.17
416
45.69
431
77.93
437
63.66
438
33.40
436
27.58
433
26.62
426
39.42
436
33.37
436
42.68
438
50.66
432
4.01
414
3.77
418
6.06
420
4.73
416
3.17
411
3.55
416
ASD4two views10.37
416
9.12
420
17.90
415
7.49
419
10.02
417
16.90
420
28.93
422
11.05
418
8.53
410
7.42
415
7.41
413
8.91
413
10.32
413
11.44
418
20.38
420
4.52
416
4.58
419
5.68
419
5.04
418
5.72
417
6.02
419
DPSMNet_ROBtwo views12.13
418
8.03
418
21.13
418
9.02
421
16.82
420
10.68
415
30.78
424
9.15
417
15.24
419
6.56
413
15.50
425
9.02
414
15.13
417
9.28
416
21.71
421
4.59
418
8.60
420
5.08
418
9.26
420
5.89
420
11.06
421
DGTPSM_ROBtwo views12.12
417
8.03
418
21.12
417
8.97
420
16.81
419
10.68
415
30.77
423
9.14
416
15.23
418
6.55
412
15.49
424
9.02
414
15.13
417
9.26
415
21.71
421
4.58
417
8.60
420
5.07
417
9.26
420
5.88
419
11.06
421
Anonymous_1two views33.12
426
18.23
421
23.86
420
20.53
422
21.18
423
25.45
422
35.84
425
22.44
429
15.68
420
13.41
418
13.70
421
18.00
422
15.15
419
20.31
420
24.47
423
14.56
427
8.84
422
66.24
435
117.79
435
155.41
438
11.40
423
DPSM_ROBtwo views17.80
420
18.60
422
24.24
424
20.89
423
19.49
421
25.83
423
36.10
426
21.62
427
16.41
421
13.46
419
14.26
422
19.11
424
16.15
420
20.74
421
25.59
424
9.37
422
9.23
423
9.47
422
9.81
422
13.47
421
12.09
424
DPSMtwo views17.80
420
18.60
422
24.24
424
20.89
423
19.49
421
25.83
423
36.10
426
21.62
427
16.41
421
13.46
419
14.26
422
19.11
424
16.15
420
20.74
421
25.59
424
9.37
422
9.23
423
9.47
422
9.81
422
13.47
421
12.09
424
tttwo views6.21
412
0.22
97
5.88
402
3.55
415
2.07
404
11.25
417
19.19
418
11.84
419
5.47
406
2.71
391
2.18
367
4.87
401
6.25
410
3.71
399
7.09
405
8.31
420
11.17
425
4.91
416
5.39
419
5.72
417
2.42
410
LRCNet_RVCtwo views21.27
423
31.14
428
21.46
419
28.97
426
23.77
424
3.11
398
0.62
305
20.94
425
1.64
367
25.57
426
28.13
427
21.96
426
14.74
416
21.99
427
16.44
417
29.16
435
14.92
426
33.57
431
31.28
431
29.67
433
26.33
431
LSM0two views38.96
437
37.52
436
48.37
430
43.79
434
91.31
438
52.31
437
72.38
431
43.71
437
32.75
430
27.16
429
28.73
430
38.51
434
32.63
434
41.75
437
51.59
438
18.85
434
18.43
427
19.09
427
19.60
425
27.21
429
33.44
432
CasAABBNettwo views35.77
427
37.38
431
48.59
431
42.20
429
39.23
428
51.95
432
72.92
436
43.36
435
33.03
432
26.93
427
28.31
428
38.43
433
32.32
430
41.58
432
51.50
437
18.71
429
18.58
428
19.11
428
19.75
426
27.11
427
24.33
426
Selective-RAFT-Errortwo views35.87
431
37.42
432
48.73
435
42.24
430
39.28
429
52.00
436
72.87
432
43.41
436
32.95
431
26.97
428
28.72
429
38.71
435
33.15
435
41.59
436
51.42
433
18.77
433
18.60
429
19.14
429
19.78
430
27.19
428
24.42
430
MyStereo03two views35.83
428
37.48
433
48.64
432
42.37
431
39.41
430
51.98
433
72.91
433
43.07
432
33.07
433
27.20
430
28.81
431
38.36
430
32.60
431
41.58
432
51.47
434
18.74
430
18.61
430
19.07
424
19.77
427
27.10
424
24.35
427
MyStereo02two views35.83
428
37.48
433
48.64
432
42.37
431
39.41
430
51.98
433
72.91
433
43.07
432
33.07
433
27.20
430
28.81
431
38.36
430
32.60
431
41.58
432
51.47
434
18.74
430
18.61
430
19.07
424
19.77
427
27.10
424
24.35
427
MyStereotwo views35.83
428
37.48
433
48.64
432
42.37
431
39.41
430
51.98
433
72.91
433
43.07
432
33.07
433
27.20
430
28.81
431
38.36
430
32.60
431
41.58
432
51.47
434
18.74
430
18.61
430
19.07
424
19.77
427
27.10
424
24.35
427
xxxxx1two views36.77
432
19.69
424
24.00
421
62.46
435
66.77
435
27.30
426
39.89
428
20.40
422
18.80
424
14.18
421
13.11
418
17.29
418
17.30
422
21.62
424
27.81
426
13.61
424
18.98
433
111.36
436
133.25
436
28.84
430
38.64
433
tt_lltwo views36.77
432
19.69
424
24.00
421
62.46
435
66.77
435
27.30
426
39.89
428
20.40
422
18.80
424
14.18
421
13.11
418
17.29
418
17.30
422
21.62
424
27.81
426
13.61
424
18.98
433
111.36
436
133.25
436
28.84
430
38.64
433
fftwo views36.77
432
19.69
424
24.00
421
62.46
435
66.77
435
27.30
426
39.89
428
20.40
422
18.80
424
14.18
421
13.11
418
17.29
418
17.30
422
21.62
424
27.81
426
13.61
424
18.98
433
111.36
436
133.25
436
28.84
430
38.64
433
HaxPigtwo views31.93
425
37.19
430
34.22
426
24.41
425
24.94
425
18.53
421
20.18
419
21.15
426
28.84
429
35.74
435
38.86
435
26.18
427
28.75
429
33.85
429
34.15
429
35.89
436
38.80
436
37.79
432
40.52
432
39.33
434
39.33
436
AVERAGE_ROBtwo views37.53
436
40.05
437
40.01
428
34.74
428
33.76
427
28.46
429
25.14
421
32.31
431
34.08
438
41.20
436
40.52
436
34.51
429
34.78
438
39.11
430
37.48
431
42.68
437
43.32
437
43.80
433
42.99
433
40.42
435
41.31
437
MEDIAN_ROBtwo views37.35
435
40.72
438
40.37
429
32.26
427
31.80
426
27.29
425
25.02
420
29.47
430
33.43
437
41.99
437
41.60
437
33.48
428
34.37
437
39.66
431
36.94
430
43.49
438
43.96
438
44.07
434
43.35
434
41.32
436
42.43
438
test_example2two views176.82
439
204.75
439
198.54
439
188.58
439
191.23
439
151.28
439
169.77
438
97.63
439
125.81
439
179.94
439
183.74
438
158.20
439
139.14
439
192.16
439
198.12
439
203.48
439
236.37
439
163.71
439
173.22
439
217.79
439
162.95
439