This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort by
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
245
0.43
121
0.34
117
0.42
4
0.34
5
0.33
11
0.51
37
0.29
4
0.38
90
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
263
CAStwo views0.37
61
0.13
1
0.27
7
1.34
386
0.31
228
0.46
131
0.38
171
0.50
11
0.48
56
0.35
15
0.52
40
0.24
1
0.19
3
0.30
1
0.28
29
1.03
388
0.08
1
0.12
2
0.08
1
0.12
2
0.28
280
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
40
0.42
46
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
87
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
62
0.41
44
0.31
54
0.57
70
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
RCA-Stereotwo views0.36
43
0.18
14
0.37
27
0.38
45
0.23
56
0.31
51
0.33
109
0.70
93
1.25
326
0.45
40
0.65
70
0.46
65
0.43
120
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
DCANet-4two views0.38
77
0.22
97
0.58
194
0.35
12
0.19
8
0.30
39
0.30
69
0.69
83
0.97
245
0.70
124
0.79
114
0.40
40
0.46
138
0.46
29
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ffftwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
RAFT-RH_RVCtwo views0.57
240
0.18
14
0.44
79
0.38
45
0.23
56
0.56
170
0.24
23
0.61
35
0.73
127
1.18
328
3.90
397
0.55
91
0.40
108
0.67
156
0.38
120
0.14
18
0.11
39
0.20
177
0.15
90
0.12
2
0.14
49
AnonymousMtwo views0.42
124
0.86
368
0.31
10
0.35
12
0.23
56
0.30
39
0.37
158
0.56
24
0.44
43
0.72
134
0.50
32
0.47
69
0.29
41
0.42
18
0.35
90
0.16
99
0.12
86
1.51
386
0.32
331
0.12
2
0.11
3
raftrobusttwo views0.35
37
0.20
54
0.39
36
0.43
167
0.29
199
0.31
51
0.25
30
0.73
123
0.66
96
0.59
70
0.56
52
0.44
55
0.45
132
0.55
62
0.31
58
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
csctwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
89
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
123
1.08
289
0.70
124
0.79
114
0.44
55
0.62
200
0.47
34
0.37
107
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
37
0.32
14
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
105
0.22
30
0.32
60
0.22
11
0.65
54
0.45
47
0.52
54
0.64
68
0.60
127
0.19
3
0.78
216
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
324
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
23
0.31
7
0.36
79
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
Any-RAFTtwo views0.36
43
0.17
8
0.31
10
0.35
12
0.21
25
0.51
144
0.21
5
0.93
189
0.75
134
0.56
64
0.73
86
0.66
162
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
RAFT-Testtwo views0.35
37
0.19
33
0.42
58
0.39
61
0.24
77
0.50
139
0.23
20
0.74
129
0.44
43
0.62
78
0.85
146
0.64
146
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
369
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
28
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
299
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
22
0.18
1
0.62
117
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
46
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
219
0.62
37
0.41
34
0.33
11
0.31
6
0.32
14
0.28
27
0.60
89
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
ADStereo(finetuned)two views0.39
89
0.18
14
0.58
194
0.35
12
0.19
8
0.30
39
0.30
69
0.72
110
0.96
240
0.72
134
0.77
102
0.45
62
0.68
237
0.46
29
0.36
99
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
CIPLGtwo views0.42
124
0.23
120
0.71
252
0.45
200
0.33
256
0.51
144
0.33
109
0.68
72
0.68
103
0.84
195
0.96
189
0.47
69
0.33
65
0.56
66
0.52
201
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
IPLGR_Ctwo views0.42
124
0.23
120
0.71
252
0.46
223
0.33
256
0.51
144
0.34
117
0.69
83
0.69
108
0.84
195
0.92
176
0.46
65
0.33
65
0.53
54
0.53
210
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
test-3two views0.35
37
0.17
8
0.48
115
0.40
87
0.22
30
0.42
117
0.22
11
0.66
56
0.80
153
0.72
134
0.45
21
0.63
139
0.29
41
0.45
25
0.32
64
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
37
0.17
8
0.48
115
0.40
87
0.22
30
0.42
117
0.22
11
0.66
56
0.80
153
0.70
124
0.45
21
0.63
139
0.29
41
0.45
25
0.32
64
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
ACREtwo views0.42
124
0.23
120
0.73
262
0.45
200
0.33
256
0.50
139
0.33
109
0.68
72
0.70
110
0.82
184
0.92
176
0.46
65
0.32
60
0.53
54
0.52
201
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
TRStereotwo views0.39
89
0.32
253
0.64
221
0.49
258
0.41
300
0.30
39
0.30
69
0.97
203
0.63
84
0.53
60
0.43
19
0.52
83
0.26
17
0.77
208
0.29
37
0.18
157
0.12
86
0.19
148
0.19
208
0.13
14
0.13
31
XX-TBDtwo views0.32
26
0.53
325
0.26
4
0.53
302
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
62
0.70
82
0.31
7
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
DCANettwo views0.38
77
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
110
0.96
240
0.72
134
0.77
102
0.45
62
0.56
175
0.47
34
0.36
99
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
111two views0.42
124
0.18
14
0.46
91
0.35
12
0.19
8
0.52
151
0.28
50
0.76
136
1.16
311
0.52
54
0.92
176
0.65
150
0.51
156
0.65
139
0.37
107
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
RAFT-Stereo + iAFFtwo views0.37
61
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
67
0.77
139
0.72
134
0.99
208
0.56
97
0.39
103
0.44
22
0.31
58
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
CFNet-RSSMtwo views0.35
37
0.18
14
0.47
102
0.39
61
0.22
30
0.35
74
0.23
20
0.78
144
0.86
186
0.67
110
0.54
45
0.56
97
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
Gwc-CoAtRStwo views0.35
37
0.18
14
0.46
91
0.39
61
0.23
56
0.34
72
0.22
11
0.74
129
0.77
139
0.62
78
0.60
59
0.58
115
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
44
0.54
45
0.38
36
0.34
71
0.50
49
0.25
3
0.75
377
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
159
0.38
91
0.34
117
0.66
56
0.35
6
0.39
21
0.31
6
0.35
26
0.27
22
0.62
117
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
rrrtwo views0.31
23
0.24
139
0.56
185
0.36
27
0.27
159
0.38
91
0.31
88
0.56
24
0.44
43
0.39
21
0.31
6
0.35
26
0.27
22
0.62
117
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
IGEV_Zeroshot_testtwo views0.36
43
0.19
33
0.71
252
0.41
105
0.29
199
0.30
39
0.25
30
0.86
166
0.40
29
0.64
95
0.57
53
0.56
97
0.25
12
0.56
66
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
87
0.28
180
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
23
0.27
2
0.25
12
0.48
41
0.35
90
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
MIM_Stereotwo views0.39
89
0.18
14
0.59
202
0.38
45
0.25
101
0.27
25
0.24
23
0.72
110
0.56
67
0.72
134
1.00
212
0.62
135
0.29
41
0.67
156
0.39
128
0.13
9
0.14
172
0.17
85
0.16
116
0.14
36
0.12
10
HHtwo views0.37
61
0.22
97
0.49
123
0.41
105
0.26
130
0.36
78
0.30
69
0.87
167
0.41
34
0.45
40
0.59
57
0.78
214
0.43
120
0.77
208
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
61
0.22
97
0.49
123
0.41
105
0.26
130
0.36
78
0.30
69
0.87
167
0.41
34
0.45
40
0.59
57
0.78
214
0.43
120
0.77
208
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
DCREtwo views0.38
77
0.19
33
0.47
102
0.45
200
0.33
256
0.45
130
0.40
194
0.66
56
0.53
65
0.49
49
0.95
185
0.57
100
0.39
103
0.53
54
0.32
64
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
IPLGtwo views0.40
103
0.21
74
0.64
221
0.41
105
0.25
101
0.54
160
0.27
42
0.77
141
0.68
103
0.85
205
0.82
132
0.33
19
0.32
60
0.64
133
0.49
193
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MIPNettwo views0.39
89
0.22
97
0.66
228
0.40
87
0.25
101
0.53
154
0.29
57
0.78
144
0.74
132
0.68
117
0.60
59
0.40
40
0.48
145
0.45
25
0.39
128
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
CrosDoStereotwo views0.51
201
0.19
33
0.46
91
0.39
61
0.24
77
0.39
96
1.14
368
0.69
83
0.87
190
0.94
254
1.36
309
0.62
135
0.75
265
0.68
164
0.46
174
0.15
67
0.12
86
0.17
85
0.18
184
0.14
36
0.16
98
STrans-v2two views0.47
162
0.21
74
0.49
123
0.41
105
0.25
101
0.54
160
0.49
259
1.16
263
0.82
170
0.67
110
1.05
235
0.71
174
0.67
229
0.74
188
0.34
83
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
TransformOpticalFlowtwo views0.46
153
0.21
74
0.49
123
0.42
130
0.24
77
0.36
78
0.46
239
1.04
223
0.84
176
0.67
110
1.14
265
0.73
193
0.56
175
0.78
216
0.33
74
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
ASMatchtwo views0.48
171
0.20
54
0.47
102
0.39
61
0.28
180
0.37
86
0.26
40
0.76
136
0.72
118
0.77
164
2.29
366
0.61
129
0.51
156
0.64
133
0.39
128
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
224
DeepStereo_LLtwo views0.51
201
0.19
33
0.46
91
0.39
61
0.24
77
0.39
96
1.14
368
0.69
83
0.87
190
0.94
254
1.36
309
0.62
135
0.75
265
0.68
164
0.46
174
0.15
67
0.12
86
0.17
85
0.18
184
0.14
36
0.16
98
DEmStereotwo views0.49
180
0.18
14
0.53
166
0.39
61
0.26
130
0.57
180
0.33
109
0.65
54
0.75
134
0.90
239
1.65
342
0.57
100
1.02
327
0.63
126
0.44
165
0.14
18
0.12
86
0.16
57
0.16
116
0.14
36
0.17
135
DRafttwo views0.49
180
0.18
14
0.50
132
0.38
45
0.25
101
0.57
180
0.39
184
0.67
67
0.86
186
1.02
288
1.75
350
0.50
77
0.79
280
0.65
139
0.42
156
0.14
18
0.11
39
0.16
57
0.16
116
0.14
36
0.17
135
RAFT-345two views0.41
117
0.19
33
0.42
58
0.39
61
0.23
56
0.32
60
0.25
30
0.62
37
0.56
67
0.74
148
1.77
351
0.44
55
0.35
74
0.67
156
0.37
107
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
46
0.80
124
0.29
4
0.25
12
0.37
5
0.34
83
0.14
18
0.09
2
0.13
8
0.52
374
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.37
61
0.15
2
0.26
4
0.34
9
0.15
1
0.80
264
0.29
57
0.83
159
0.87
190
0.58
69
0.58
55
0.43
52
0.41
112
0.59
79
0.35
90
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
raft+_RVCtwo views0.38
77
0.20
54
0.38
33
0.39
61
0.27
159
0.44
127
0.35
139
0.81
153
0.90
208
0.52
54
0.78
110
0.50
77
0.29
41
0.56
66
0.41
153
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
165
0.23
20
0.46
6
0.56
67
0.60
72
0.69
80
0.37
33
0.26
17
0.36
4
0.28
29
0.16
99
0.16
212
0.13
8
0.10
10
0.14
36
0.15
78
XX-Stereotwo views0.38
77
0.18
14
0.52
159
0.58
328
0.38
283
0.39
96
0.20
1
0.62
37
0.31
2
0.47
46
1.29
300
0.72
189
0.25
12
0.59
79
0.28
29
0.16
99
0.11
39
0.17
85
0.16
116
0.14
36
0.11
3
test_xeample3two views0.31
23
0.23
120
0.56
185
0.36
27
0.26
130
0.35
74
0.32
100
0.60
31
0.38
17
0.44
39
0.32
9
0.33
19
0.28
27
0.66
147
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
ARAFTtwo views0.48
171
0.25
167
0.82
282
0.42
130
0.25
101
0.56
170
0.54
280
0.82
157
0.82
170
0.92
247
0.75
99
0.75
201
0.48
145
0.89
248
0.37
107
0.15
67
0.12
86
0.23
244
0.22
262
0.14
36
0.14
49
AFF-stereotwo views0.39
89
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
88
0.67
67
0.72
118
0.66
103
1.12
257
0.75
201
0.38
90
0.57
70
0.35
90
0.11
1
0.09
2
0.16
57
0.16
116
0.14
36
0.12
10
EAI-Stereotwo views0.36
43
0.21
74
0.46
91
0.40
87
0.22
30
0.33
66
0.36
146
1.22
286
0.32
3
0.52
54
0.75
99
0.35
26
0.28
27
0.65
139
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
R-Stereo Traintwo views0.40
103
0.19
33
0.47
102
0.43
167
0.27
159
0.41
110
0.31
88
0.74
129
0.38
17
0.90
239
1.28
296
0.58
115
0.35
74
0.43
20
0.35
90
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
103
0.19
33
0.47
102
0.43
167
0.27
159
0.41
110
0.31
88
0.74
129
0.38
17
0.90
239
1.28
296
0.58
115
0.35
74
0.43
20
0.35
90
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MLCVtwo views0.49
180
0.26
195
0.73
262
0.38
45
0.18
5
0.64
209
0.33
109
0.84
163
0.89
204
0.96
271
1.12
257
0.72
189
0.45
132
1.00
289
0.59
228
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
ttatwo views0.53
217
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.60
229
0.19
192
0.16
212
0.18
116
0.17
158
0.15
66
0.16
98
qqq1two views0.51
201
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.36
99
0.19
192
0.16
212
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
201
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.36
99
0.19
192
0.16
212
0.14
13
0.12
26
0.15
66
0.16
98
AE-Stereotwo views0.36
43
0.21
74
0.47
102
0.49
258
0.31
228
0.50
139
0.34
117
0.72
110
0.73
127
0.34
13
0.55
50
0.52
83
0.28
27
0.48
41
0.31
58
0.13
9
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
130
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
40
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
45
0.26
130
0.31
51
0.35
139
0.68
72
0.36
11
0.40
29
0.33
10
0.32
14
0.28
27
0.62
117
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
TestStereo1two views0.44
142
0.24
139
0.45
84
0.52
295
0.25
101
0.35
74
0.40
194
0.81
153
0.94
229
0.70
124
0.96
189
0.48
72
0.45
132
0.94
263
0.33
74
0.16
99
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
130
0.31
51
0.34
117
0.66
56
0.35
6
0.39
21
0.33
10
0.31
7
0.28
27
0.61
95
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
raft_robusttwo views0.41
117
0.24
139
0.39
36
0.43
167
0.22
30
0.40
101
0.33
109
0.80
151
0.98
249
0.80
179
0.88
159
0.41
44
0.32
60
0.89
248
0.30
48
0.14
18
0.12
86
0.16
57
0.18
184
0.15
66
0.13
31
RAFT+CT+SAtwo views0.40
103
0.24
139
0.40
45
0.53
302
0.27
159
0.28
31
0.45
236
0.79
149
0.81
162
0.51
52
0.90
164
0.42
46
0.39
103
0.81
224
0.33
74
0.15
67
0.11
39
0.18
116
0.18
184
0.15
66
0.15
78
SA-5Ktwo views0.44
142
0.24
139
0.45
84
0.52
295
0.25
101
0.35
74
0.40
194
0.81
153
0.94
229
0.70
124
0.96
189
0.48
72
0.45
132
0.94
263
0.33
74
0.16
99
0.13
141
0.18
116
0.16
116
0.15
66
0.14
49
Sa-1000two views0.49
180
0.25
167
0.45
84
0.46
223
0.25
101
0.64
209
0.34
117
0.85
164
0.95
233
0.85
205
1.51
334
0.55
91
0.44
125
0.94
263
0.31
58
0.16
99
0.12
86
0.21
218
0.20
227
0.15
66
0.14
49
SAtwo views0.45
148
0.26
195
0.50
132
0.47
241
0.24
77
0.46
131
0.36
146
0.79
149
1.00
256
0.61
76
1.04
232
0.50
77
0.50
151
0.98
280
0.33
74
0.16
99
0.13
141
0.21
218
0.19
208
0.15
66
0.14
49
test_4two views0.37
61
0.19
33
0.34
13
0.45
200
0.26
130
0.20
2
0.34
117
0.58
27
0.42
38
0.60
72
1.45
327
0.43
52
0.26
17
0.67
156
0.29
37
0.12
4
0.10
8
0.17
85
0.19
208
0.15
66
0.12
10
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
45
0.26
130
0.30
39
0.35
139
0.68
72
0.36
11
0.40
29
0.33
10
0.32
14
0.28
27
0.62
117
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
iRaft-Stereo_5wtwo views0.46
153
0.22
97
0.53
166
0.43
167
0.30
218
0.30
39
0.53
274
0.66
56
0.71
116
0.62
78
0.89
162
1.01
276
0.67
229
0.76
201
0.67
246
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
135
iRaft-Stereo_20wtwo views0.42
124
0.20
54
0.63
217
0.39
61
0.27
159
0.33
66
0.25
30
1.76
376
0.37
14
0.73
141
0.53
42
0.63
139
0.42
117
0.86
239
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
GMOStereotwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
error versiontwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
test-vtwo views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
test_3two views0.37
61
0.19
33
0.50
132
0.45
200
0.24
77
0.47
133
0.36
146
0.69
83
0.84
176
0.66
103
0.46
23
0.68
169
0.25
12
0.45
25
0.32
64
0.12
4
0.10
8
0.18
116
0.16
116
0.15
66
0.12
10
HHNettwo views0.42
124
0.19
33
0.43
74
0.35
12
0.38
283
0.33
66
0.33
109
0.71
100
0.78
142
0.87
217
1.30
302
0.52
83
0.36
79
0.53
54
0.37
107
0.16
99
0.11
39
0.19
148
0.15
90
0.15
66
0.25
258
IIG-Stereotwo views0.45
148
0.22
97
0.48
115
0.51
281
0.26
130
0.43
121
0.21
5
0.73
123
0.80
153
0.84
195
0.95
185
0.82
228
0.46
138
0.95
268
0.37
107
0.16
99
0.12
86
0.19
148
0.15
90
0.15
66
0.12
10
FTStereotwo views0.56
236
0.21
74
0.39
36
0.42
130
0.25
101
0.39
96
0.73
329
0.69
83
0.45
47
1.09
316
3.23
386
0.69
171
0.71
249
0.55
62
0.34
83
0.15
67
0.13
141
0.19
148
0.17
158
0.15
66
0.32
299
THIR-Stereotwo views0.51
201
0.19
33
0.47
102
0.39
61
0.23
56
0.74
246
0.64
310
0.68
72
0.88
200
1.03
291
1.40
315
0.71
174
0.75
265
0.64
133
0.43
158
0.16
99
0.11
39
0.17
85
0.18
184
0.15
66
0.17
135
GrayStereotwo views0.49
180
0.20
54
0.44
79
0.47
241
0.29
199
0.51
144
0.62
305
0.71
100
0.66
96
1.04
297
1.46
328
0.77
212
0.73
260
0.58
74
0.35
90
0.15
67
0.12
86
0.17
85
0.17
158
0.15
66
0.30
289
test-2two views0.38
77
0.19
33
0.42
58
0.43
167
0.24
77
0.40
101
0.39
184
0.55
19
0.64
88
0.89
232
0.84
139
0.65
150
0.37
83
0.39
8
0.29
37
0.14
18
0.12
86
0.20
177
0.18
184
0.15
66
0.12
10
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
200
0.24
77
0.32
60
0.35
139
0.77
141
0.42
38
0.62
78
0.77
102
0.58
115
0.27
22
0.46
29
0.31
58
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
test-1two views0.37
61
0.20
54
0.76
269
0.47
241
0.27
159
0.44
127
0.36
146
0.63
43
0.65
93
0.49
49
0.67
78
0.54
89
0.35
74
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
157
cf-rtwo views0.49
180
0.24
139
0.49
123
0.40
87
0.23
56
0.58
184
0.38
171
0.92
187
0.87
190
0.77
164
1.06
241
0.98
267
0.67
229
0.59
79
0.61
233
0.21
226
0.14
172
0.17
85
0.19
208
0.15
66
0.16
98
DIP-Stereotwo views0.40
103
0.22
97
0.58
194
0.42
130
0.29
199
0.62
196
0.27
42
0.87
167
0.42
38
0.65
99
0.86
150
0.52
83
0.35
74
0.67
156
0.43
158
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
135
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
RASNettwo views0.57
240
0.24
139
0.61
208
0.39
61
0.23
56
0.71
238
0.40
194
1.02
217
0.93
222
0.77
164
1.05
235
1.05
287
0.98
325
0.99
284
1.03
315
0.16
99
0.14
172
0.14
13
0.17
158
0.15
66
0.14
49
iResNet_ROBtwo views0.55
227
0.24
139
0.61
208
0.38
45
0.22
30
0.66
220
0.30
69
1.59
364
1.33
340
0.94
254
1.05
235
0.81
226
0.69
239
0.84
235
0.46
174
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
193
pmcnntwo views1.27
360
0.31
251
1.14
329
0.41
105
0.23
56
0.97
300
0.71
320
1.23
289
1.32
338
1.83
368
2.34
368
11.25
413
0.89
310
1.04
296
0.96
303
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
CoDeXtwo views0.48
171
0.21
74
0.53
166
0.43
167
0.25
101
0.74
246
0.38
171
1.36
330
0.82
170
0.84
195
0.96
189
0.63
139
0.57
184
0.63
126
0.40
148
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
cc1two views0.38
77
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.71
100
1.17
314
0.42
32
0.50
32
0.34
22
0.47
142
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.16
103
0.17
135
DualNettwo views0.53
217
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
302
0.76
156
0.98
199
0.71
174
0.55
167
0.61
95
1.46
349
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
ffmtwo views0.47
162
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
302
0.76
156
0.98
199
0.71
174
0.55
167
0.61
95
0.26
8
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
ff1two views0.56
236
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
0.72
110
1.13
302
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
349
0.17
125
0.11
39
0.25
268
0.21
244
0.16
103
0.17
135
tt1two views0.37
61
0.25
167
0.35
19
0.43
167
0.23
56
0.52
151
0.37
158
0.72
110
1.13
302
0.42
32
0.46
23
0.35
26
0.44
125
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.16
103
0.17
135
EKT-Stereotwo views0.36
43
0.24
139
0.44
79
0.44
188
0.30
218
0.37
86
0.30
69
0.72
110
0.68
103
0.47
46
0.63
65
0.49
76
0.28
27
0.59
79
0.34
83
0.19
192
0.14
172
0.18
116
0.15
90
0.16
103
0.18
157
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
87
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
103
0.53
42
0.42
46
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
177
0.16
116
0.16
103
0.12
10
anonymousdsp2two views0.37
61
0.21
74
0.49
123
0.38
45
0.24
77
0.48
138
0.31
88
0.91
179
0.68
103
0.57
66
0.51
37
0.51
80
0.34
71
0.59
79
0.33
74
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
anonymousatwo views0.51
201
0.21
74
0.47
102
0.39
61
0.25
101
0.89
289
0.36
146
0.78
144
0.63
84
0.88
225
1.54
335
1.09
301
0.67
229
0.53
54
0.46
174
0.17
125
0.14
172
0.19
148
0.21
244
0.16
103
0.16
98
Selective-RAFTtwo views0.36
43
0.23
120
0.54
178
0.45
200
0.22
30
0.64
209
0.27
42
0.62
37
0.65
93
0.41
31
0.38
18
0.55
91
0.39
103
0.59
79
0.36
99
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
DisPMtwo views0.40
103
0.20
54
0.50
132
0.42
130
0.27
159
0.24
7
0.30
69
0.68
72
0.61
83
0.88
225
0.87
156
0.59
124
0.32
60
0.80
220
0.34
83
0.19
192
0.12
86
0.19
148
0.17
158
0.16
103
0.21
209
RAFT_CTSACEtwo views0.46
153
0.20
54
0.48
115
0.46
223
0.27
159
0.34
72
0.39
184
0.62
37
0.74
132
0.78
175
1.44
324
0.86
235
0.38
90
1.09
302
0.27
23
0.13
9
0.13
141
0.18
116
0.16
116
0.16
103
0.12
10
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
188
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
27
0.40
40
0.23
7
0.51
51
0.37
107
0.15
67
0.18
247
0.19
148
0.16
116
0.16
103
0.14
49
IPLGRtwo views0.40
103
0.22
97
0.70
249
0.40
87
0.22
30
0.51
144
0.29
57
0.78
144
0.78
142
0.80
179
0.77
102
0.44
55
0.41
112
0.48
41
0.40
148
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
OMP-Stereotwo views0.43
136
0.23
120
0.50
132
0.53
302
0.25
101
0.36
78
0.24
23
0.73
123
0.81
162
0.78
175
0.64
68
0.88
242
0.41
112
0.95
268
0.36
99
0.15
67
0.12
86
0.20
177
0.15
90
0.16
103
0.13
31
NF-Stereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.69
170
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
OCTAStereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.58
115
0.31
54
0.69
170
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
PFNettwo views0.43
136
0.19
33
0.61
208
0.44
188
0.24
77
0.42
117
0.31
88
0.76
136
0.81
162
1.01
284
0.74
97
0.67
166
0.41
112
0.75
193
0.39
128
0.16
99
0.10
8
0.20
177
0.15
90
0.16
103
0.14
49
RE-Stereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.70
177
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
TVStereotwo views0.39
89
0.21
74
0.51
140
0.42
130
0.25
101
0.26
18
0.30
69
0.71
100
0.72
118
0.66
103
0.77
102
0.57
100
0.31
54
0.70
177
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.16
103
0.27
271
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
258
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
46
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.46
153
0.23
120
0.52
159
0.48
249
0.27
159
0.55
165
0.47
244
0.68
72
0.60
81
0.83
189
0.82
132
1.00
272
0.56
175
0.76
201
0.37
107
0.18
157
0.16
212
0.22
230
0.20
227
0.16
103
0.14
49
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
87
0.23
56
0.31
51
0.29
57
0.70
93
0.55
66
0.49
49
0.66
73
0.37
33
0.23
7
0.47
34
0.33
74
0.14
18
0.11
39
0.19
148
0.17
158
0.16
103
0.13
31
MyStereo06two views0.40
103
0.22
97
0.65
226
0.42
130
0.29
199
0.43
121
0.48
249
1.05
229
0.43
41
0.64
95
0.54
45
0.78
214
0.27
22
0.53
54
0.31
58
0.14
18
0.13
141
0.18
116
0.17
158
0.17
127
0.17
135
MyStereo05two views0.46
153
0.22
97
0.51
140
0.42
130
0.29
199
0.43
121
0.48
249
0.96
201
1.12
297
0.77
164
0.62
64
0.51
80
0.57
184
0.79
218
0.43
158
0.14
18
0.13
141
0.18
116
0.17
158
0.17
127
0.17
135
11t1two views0.38
77
0.23
120
0.49
123
0.36
27
0.23
56
0.61
192
0.31
88
0.74
129
0.47
54
0.62
78
0.55
50
0.55
91
0.49
149
0.58
74
0.45
170
0.18
157
0.15
191
0.16
57
0.13
49
0.17
127
0.19
166
LL-Strereotwo views0.58
251
0.29
230
0.83
286
0.48
249
0.35
271
0.39
96
0.48
249
1.04
223
0.99
252
0.87
217
0.79
114
1.08
296
1.15
344
1.35
338
0.51
197
0.18
157
0.15
191
0.22
230
0.19
208
0.17
127
0.21
209
CBFPSMtwo views0.61
265
0.25
167
1.41
352
0.39
61
0.27
159
1.10
322
0.67
312
0.83
159
0.84
176
0.82
184
0.81
130
1.33
329
0.85
297
0.72
186
0.86
280
0.16
99
0.15
191
0.15
41
0.17
158
0.17
127
0.23
243
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
269
0.30
218
0.19
1
0.31
88
0.52
13
0.41
34
0.25
1
0.28
4
0.46
65
0.31
54
0.39
8
0.30
48
0.15
67
0.15
191
0.16
57
0.13
49
0.17
127
0.16
98
xtwo views0.41
117
0.25
167
0.46
91
0.36
27
0.24
77
0.54
160
0.31
88
0.94
194
0.58
73
0.60
72
0.72
84
0.61
129
0.53
160
0.52
52
0.50
195
0.18
157
0.16
212
0.17
85
0.16
116
0.17
127
0.18
157
IERtwo views0.48
171
0.25
167
0.60
207
0.38
45
0.28
180
0.67
229
0.38
171
0.82
157
0.68
103
0.88
225
0.95
185
0.74
197
0.79
280
0.62
117
0.46
174
0.17
125
0.14
172
0.17
85
0.17
158
0.17
127
0.16
98
PFNet+two views0.41
117
0.20
54
0.53
166
0.40
87
0.25
101
0.28
31
0.22
11
0.66
56
0.76
137
0.85
205
0.79
114
0.63
139
0.34
71
0.75
193
0.37
107
0.20
211
0.14
172
0.23
244
0.20
227
0.17
127
0.21
209
PSM-softLosstwo views0.40
103
0.21
74
0.53
166
0.42
130
0.26
130
0.29
35
0.34
117
0.70
93
0.49
57
0.63
85
0.82
132
0.59
124
0.33
65
0.75
193
0.43
158
0.20
211
0.12
86
0.20
177
0.18
184
0.17
127
0.22
224
KMStereotwo views0.40
103
0.21
74
0.53
166
0.42
130
0.26
130
0.29
35
0.34
117
0.70
93
0.49
57
0.63
85
0.82
132
0.59
124
0.33
65
0.75
193
0.43
158
0.20
211
0.12
86
0.20
177
0.18
184
0.17
127
0.22
224
NRIStereotwo views0.37
61
0.21
74
0.49
123
0.42
130
0.23
56
0.33
66
0.25
30
0.68
72
0.59
74
0.65
99
0.63
65
0.55
91
0.37
83
0.67
156
0.40
148
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
KYRafttwo views0.48
171
0.21
74
0.41
50
0.45
200
0.23
56
0.43
121
0.36
146
0.68
72
0.45
47
0.94
254
1.72
348
0.78
214
0.40
108
0.65
139
0.32
64
0.16
99
0.11
39
0.18
116
0.22
262
0.17
127
0.76
376
Pruner-Stereotwo views0.39
89
0.21
74
0.51
140
0.41
105
0.25
101
0.22
4
0.24
23
0.71
100
0.59
74
0.90
239
0.75
99
0.67
166
0.30
51
0.64
133
0.39
128
0.19
192
0.12
86
0.20
177
0.17
158
0.17
127
0.19
166
IRAFT_RVCtwo views0.43
136
0.20
54
0.52
159
0.45
200
0.24
77
0.26
18
0.51
265
0.76
136
0.78
142
0.77
164
0.80
124
0.73
193
0.50
151
0.74
188
0.39
128
0.18
157
0.10
8
0.21
218
0.17
158
0.17
127
0.15
78
GMM-Stereotwo views0.44
142
0.20
54
0.39
36
0.42
130
0.25
101
0.50
139
0.44
232
0.72
110
0.57
71
0.77
164
1.37
312
0.76
207
0.38
90
0.62
117
0.34
83
0.15
67
0.10
8
0.20
177
0.19
208
0.17
127
0.28
280
Prome-Stereotwo views0.46
153
0.20
54
0.37
27
0.45
200
0.26
130
0.40
101
0.42
219
0.69
83
0.49
57
0.96
271
1.84
354
0.58
115
0.64
212
0.63
126
0.32
64
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
289
RALCasStereoNettwo views0.37
61
0.23
120
0.41
50
0.44
188
0.28
180
0.36
78
0.38
171
0.66
56
0.67
102
0.51
52
0.74
97
0.51
80
0.29
41
0.64
133
0.38
120
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
135
SFCPSMtwo views0.48
171
0.22
97
0.59
202
0.41
105
0.27
159
0.85
281
0.36
146
1.39
332
0.79
148
0.81
183
0.85
146
0.54
89
0.50
151
0.60
89
0.39
128
0.18
157
0.14
172
0.18
116
0.20
227
0.17
127
0.16
98
delettwo views0.57
240
0.25
167
0.63
217
0.46
223
0.34
266
1.05
319
0.51
265
1.04
223
0.94
229
0.90
239
0.99
208
0.90
249
0.68
237
0.87
241
0.78
264
0.18
157
0.18
247
0.20
177
0.21
244
0.17
127
0.17
135
GwcNet-RSSMtwo views0.51
201
0.25
167
0.51
140
0.41
105
0.24
77
0.56
170
0.41
214
0.97
203
0.96
240
0.75
151
1.17
275
0.89
247
0.66
220
0.66
147
0.74
258
0.22
242
0.15
191
0.19
148
0.21
244
0.17
127
0.16
98
HSM-Net_RVCpermissivetwo views0.55
227
0.23
120
0.37
27
0.38
45
0.22
30
0.86
283
0.40
194
1.31
315
0.93
222
0.92
247
1.15
267
1.26
317
0.71
249
0.75
193
0.53
210
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
135
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HSMtwo views0.53
217
0.25
167
0.46
91
0.40
87
0.25
101
0.74
246
0.44
232
1.29
312
0.78
142
0.82
184
0.92
176
1.21
313
0.75
265
0.90
253
0.48
186
0.18
157
0.14
172
0.17
85
0.14
69
0.17
127
0.18
157
iResNettwo views0.52
211
0.31
251
0.86
293
0.44
188
0.22
30
0.66
220
0.47
244
0.92
187
1.02
263
0.89
232
1.12
257
0.69
171
0.55
167
0.86
239
0.60
229
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
135
Former-RAFT_DAM_RVCtwo views0.34
35
0.28
220
0.48
115
0.37
35
0.25
101
0.47
133
0.30
69
0.60
31
0.92
220
0.43
37
0.37
17
0.30
6
0.29
41
0.50
49
0.30
48
0.17
125
0.14
172
0.18
116
0.15
90
0.18
151
0.16
98
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
167
0.29
199
0.40
101
0.48
249
0.78
144
0.38
17
0.38
18
0.34
16
0.32
14
0.30
51
0.63
126
0.28
29
0.14
18
0.13
141
0.19
148
0.17
158
0.18
151
0.17
135
MyStereo04two views0.45
148
0.23
120
0.52
159
0.43
167
0.29
199
0.40
101
0.48
249
1.02
217
1.12
297
0.62
78
0.58
55
0.55
91
0.56
175
0.77
208
0.45
170
0.14
18
0.13
141
0.19
148
0.17
158
0.18
151
0.17
135
ACVNet-DCAtwo views0.36
43
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.91
179
0.59
74
0.42
32
0.50
32
0.34
22
0.47
142
0.61
95
0.26
8
0.17
125
0.11
39
0.19
148
0.13
49
0.18
151
0.19
166
xx1two views0.40
103
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.71
100
1.17
314
0.42
32
0.50
32
0.65
150
0.56
175
0.61
95
0.26
8
0.17
125
0.11
39
0.20
177
0.19
208
0.18
151
0.19
166
1test111two views0.37
61
0.25
167
0.35
19
0.42
130
0.23
56
0.53
154
0.37
158
0.91
179
0.59
74
0.42
32
0.50
32
0.34
22
0.47
142
0.59
79
0.48
186
0.17
125
0.11
39
0.19
148
0.13
49
0.18
151
0.19
166
test crocotwo views0.32
26
0.21
74
0.59
202
0.40
87
0.29
199
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
73
0.31
7
0.33
65
0.68
164
0.32
64
0.18
157
0.13
141
0.20
177
0.15
90
0.18
151
0.13
31
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
105
0.32
245
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
65
0.37
33
0.36
79
0.60
89
0.32
64
0.17
125
0.13
141
0.19
148
0.17
158
0.18
151
0.15
78
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
130
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
61
0.54
45
0.39
39
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
230
0.18
184
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
gwcnet-sptwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
scenettwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
knoymoustwo views0.37
61
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
43
0.65
93
0.69
120
0.69
80
0.60
127
0.40
108
0.61
95
0.36
99
0.17
125
0.11
39
0.20
177
0.12
26
0.18
151
0.19
166
ssnettwo views0.50
191
0.25
167
0.84
289
0.41
105
0.27
159
0.79
258
0.40
194
0.93
189
0.85
180
0.95
259
0.79
114
0.65
150
0.63
205
0.69
170
0.52
201
0.18
157
0.17
238
0.18
116
0.18
184
0.18
151
0.19
166
qqqtwo views0.42
124
0.28
220
0.50
132
0.37
35
0.22
30
0.47
133
0.39
184
0.91
179
0.59
74
0.57
66
0.71
83
0.65
150
0.56
175
0.59
79
0.48
186
0.17
125
0.17
238
0.20
177
0.19
208
0.18
151
0.19
166
BUStwo views0.47
162
0.26
195
0.47
102
0.46
223
0.29
199
0.78
252
0.34
117
0.99
208
0.80
153
0.77
164
0.80
124
0.64
146
0.54
164
0.66
147
0.56
217
0.21
226
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
test_5two views0.44
142
0.25
167
0.48
115
0.53
302
0.28
180
0.28
31
0.42
219
0.77
141
0.87
190
0.63
85
0.91
170
0.73
193
0.53
160
0.82
229
0.36
99
0.14
18
0.11
39
0.18
116
0.18
184
0.18
151
0.16
98
BSDual-CNNtwo views0.48
171
0.26
195
0.47
102
0.46
223
0.29
199
0.75
249
0.46
239
0.99
208
0.80
153
0.77
164
0.80
124
0.76
207
0.59
191
0.66
147
0.48
186
0.21
226
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
hknettwo views0.51
201
0.26
195
0.58
194
0.46
223
0.29
199
0.75
249
0.46
239
0.99
208
0.89
204
0.77
164
0.80
124
0.96
264
0.67
229
0.75
193
0.50
195
0.19
192
0.15
191
0.22
230
0.19
208
0.18
151
0.19
166
CSP-Nettwo views0.57
240
0.29
230
0.55
181
0.42
130
0.29
199
1.20
339
0.49
259
1.29
312
0.75
134
0.98
277
0.97
196
0.88
242
0.69
239
0.85
237
0.66
243
0.27
288
0.18
247
0.17
85
0.17
158
0.18
151
0.19
166
GANet-ADLtwo views0.44
142
0.27
207
0.48
115
0.44
188
0.30
218
0.54
160
0.36
146
0.94
194
0.88
200
0.64
95
0.72
84
0.68
169
0.44
125
0.55
62
0.44
165
0.22
242
0.15
191
0.15
41
0.13
49
0.18
151
0.21
209
PSM-AADtwo views0.48
171
0.21
74
0.39
36
0.44
188
0.23
56
0.56
170
0.47
244
0.67
67
0.73
127
1.08
312
1.12
257
0.58
115
0.87
304
0.63
126
0.33
74
0.15
67
0.11
39
0.25
268
0.26
304
0.18
151
0.42
339
RAFT_R40two views0.41
117
0.20
54
0.47
102
0.44
188
0.25
101
0.23
6
0.25
30
0.69
83
0.70
110
0.98
277
0.78
110
0.72
189
0.43
120
0.80
220
0.39
128
0.17
125
0.11
39
0.20
177
0.16
116
0.18
151
0.15
78
rafts_anoytwo views0.38
77
0.22
97
0.38
33
0.43
167
0.28
180
0.32
60
0.32
100
0.70
93
0.91
214
0.59
70
0.66
73
0.45
62
0.33
65
0.49
47
0.41
153
0.16
99
0.12
86
0.21
218
0.23
271
0.18
151
0.16
98
GEStwo views0.46
153
0.25
167
0.62
213
0.41
105
0.30
218
0.62
196
0.37
158
1.06
234
0.70
110
0.75
151
0.83
137
0.47
69
0.52
159
0.69
170
0.46
174
0.23
256
0.17
238
0.17
85
0.16
116
0.18
151
0.24
251
222two views1.25
358
0.23
120
0.53
166
0.38
45
0.23
56
0.78
252
0.37
158
1.41
338
0.93
222
0.97
274
1.13
263
0.74
197
0.71
249
0.74
188
14.86
413
0.20
211
0.16
212
0.17
85
0.16
116
0.18
151
0.20
193
test_xeamplepermissivetwo views1.06
341
0.23
120
0.51
140
0.37
35
0.22
30
0.71
238
0.39
184
1.31
315
0.92
220
0.87
217
1.08
249
0.70
173
0.64
212
0.75
193
11.43
410
0.19
192
0.16
212
0.18
116
0.17
158
0.18
151
0.19
166
FENettwo views0.43
136
0.23
120
0.40
45
0.40
87
0.24
77
0.54
160
0.33
109
0.83
159
0.72
118
0.74
148
0.73
86
0.63
139
0.56
175
0.65
139
0.45
170
0.19
192
0.13
141
0.19
148
0.17
158
0.18
151
0.20
193
ac_64two views0.54
222
0.24
139
0.58
194
0.46
223
0.28
180
0.79
258
0.44
232
1.11
249
0.63
84
0.94
254
0.85
146
1.06
291
0.70
244
0.76
201
0.72
256
0.22
242
0.18
247
0.20
177
0.19
208
0.18
151
0.16
98
ACVNettwo views0.47
162
0.24
139
0.39
36
0.40
87
0.28
180
0.58
184
0.40
194
0.91
179
0.81
162
0.67
110
0.96
189
0.79
220
0.66
220
0.65
139
0.71
253
0.18
157
0.15
191
0.16
57
0.15
90
0.18
151
0.15
78
acv_fttwo views0.52
211
0.24
139
0.64
221
0.45
200
0.28
180
0.85
281
0.40
194
0.95
197
0.81
162
1.00
282
0.96
189
0.79
220
0.62
200
0.65
139
0.88
282
0.18
157
0.15
191
0.16
57
0.15
90
0.18
151
0.15
78
GANet-RSSMtwo views0.49
180
0.22
97
0.42
58
0.39
61
0.26
130
0.58
184
0.41
214
1.12
250
0.82
170
0.73
141
1.02
218
0.88
242
0.75
265
0.67
156
0.48
186
0.22
242
0.16
212
0.18
116
0.19
208
0.18
151
0.18
157
AANet_RVCtwo views0.59
255
0.35
268
0.68
239
0.47
241
0.28
180
0.57
180
0.47
244
1.04
223
1.28
331
0.87
217
1.33
304
0.86
235
0.63
205
1.16
312
0.89
284
0.19
192
0.13
141
0.15
41
0.14
69
0.18
151
0.20
193
HITNettwo views0.43
136
0.27
207
0.50
132
0.34
9
0.18
5
0.65
215
0.32
100
0.99
208
0.70
110
0.73
141
0.86
150
0.66
162
0.56
175
0.61
95
0.47
183
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DN-CSS_ROBtwo views0.45
148
0.27
207
0.74
266
0.41
105
0.29
199
0.43
121
0.29
57
0.80
151
0.78
142
0.73
141
1.08
249
0.48
72
0.45
132
0.81
224
0.40
148
0.15
67
0.12
86
0.21
218
0.19
208
0.18
151
0.17
135
MyStereo8two views0.42
124
0.21
74
0.64
221
0.43
167
0.29
199
0.55
165
0.28
50
0.72
110
0.50
60
0.73
141
1.01
216
0.57
100
0.44
125
0.52
52
0.52
201
0.15
67
0.12
86
0.16
57
0.14
69
0.19
185
0.21
209
SMFormertwo views0.53
217
0.24
139
0.67
232
0.35
12
0.20
18
0.63
201
0.34
117
1.26
298
1.06
277
0.85
205
1.02
218
0.71
174
0.66
220
0.96
271
0.60
229
0.19
192
0.16
212
0.18
116
0.17
158
0.19
185
0.20
193
LL-Strereo2two views0.36
43
0.25
167
0.52
159
0.43
167
0.27
159
0.36
78
0.27
42
0.70
93
0.46
52
0.55
62
0.53
42
0.65
150
0.24
10
0.69
170
0.32
64
0.14
18
0.13
141
0.23
244
0.20
227
0.19
185
0.14
49
riskmintwo views0.41
117
0.21
74
0.44
79
0.34
9
0.24
77
0.58
184
0.32
100
0.70
93
0.86
186
0.52
54
0.57
53
0.78
214
0.60
194
0.58
74
0.39
128
0.17
125
0.12
86
0.19
148
0.13
49
0.19
185
0.22
224
CRFU-Nettwo views0.59
255
0.29
230
0.62
213
0.47
241
0.31
228
1.20
339
0.51
265
1.19
274
0.59
74
1.05
302
1.00
212
1.06
291
0.87
304
0.83
231
0.77
263
0.22
242
0.19
264
0.18
116
0.16
116
0.19
185
0.20
193
psmgtwo views0.50
191
0.26
195
0.47
102
0.42
130
0.29
199
0.82
272
0.42
219
1.07
236
0.80
153
0.95
259
0.94
181
0.76
207
0.59
191
0.66
147
0.48
186
0.21
226
0.16
212
0.20
177
0.20
227
0.19
185
0.19
166
GwcNet-ADLtwo views0.45
148
0.24
139
0.51
140
0.46
223
0.30
218
0.41
110
0.40
194
0.95
197
0.98
249
0.73
141
0.78
110
0.61
129
0.41
112
0.67
156
0.55
215
0.20
211
0.14
172
0.15
41
0.14
69
0.19
185
0.22
224
SST-Stereotwo views0.41
117
0.20
54
0.48
115
0.43
167
0.25
101
0.25
16
0.21
5
0.68
72
0.50
60
1.08
312
0.79
114
0.71
174
0.42
117
0.81
224
0.38
120
0.17
125
0.11
39
0.20
177
0.16
116
0.19
185
0.15
78
DeepStereo_RVCtwo views0.37
61
0.22
97
0.51
140
0.41
105
0.24
77
0.26
18
0.22
11
0.64
53
0.40
29
0.69
120
0.67
78
0.57
100
0.50
151
0.58
74
0.42
156
0.17
125
0.12
86
0.18
116
0.16
116
0.19
185
0.19
166
ICVPtwo views0.48
171
0.26
195
0.42
58
0.49
258
0.28
180
0.63
201
0.43
226
1.05
229
0.72
118
0.68
117
0.95
185
0.75
201
0.56
175
0.55
62
0.61
233
0.24
262
0.18
247
0.19
148
0.17
158
0.19
185
0.21
209
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
xxxxtwo views1.07
343
0.23
120
0.53
166
0.38
45
0.22
30
0.83
275
0.36
146
1.41
338
0.95
233
0.75
151
0.99
208
0.97
265
0.64
212
0.70
177
11.37
409
0.20
211
0.17
238
0.18
116
0.17
158
0.19
185
0.20
193
RAFT + AFFtwo views0.54
222
0.30
244
0.84
289
0.51
281
0.32
245
0.63
201
0.57
289
1.05
229
0.95
233
0.80
179
0.87
156
0.85
231
0.57
184
0.87
241
0.51
197
0.18
157
0.21
278
0.23
244
0.22
262
0.19
185
0.19
166
HGLStereotwo views0.58
251
0.30
244
0.65
226
0.51
281
0.38
283
0.78
252
0.45
236
1.07
236
0.82
170
0.89
232
1.16
270
0.88
242
0.91
313
0.80
220
0.74
258
0.21
226
0.21
278
0.20
177
0.18
184
0.19
185
0.22
224
DMCAtwo views0.47
162
0.27
207
0.59
202
0.39
61
0.29
199
0.53
154
0.34
117
0.98
205
0.70
110
0.78
175
0.83
137
0.79
220
0.55
167
0.54
61
0.57
221
0.21
226
0.16
212
0.21
218
0.16
116
0.19
185
0.22
224
iResNetv2_ROBtwo views0.55
227
0.29
230
0.86
293
0.39
61
0.25
101
0.67
229
0.37
158
1.21
280
1.02
263
1.02
288
1.10
251
0.89
247
0.79
280
0.74
188
0.43
158
0.19
192
0.13
141
0.15
41
0.11
15
0.19
185
0.16
98
1111xtwo views0.64
275
0.23
120
0.61
208
0.39
61
0.21
25
0.68
233
0.46
239
1.32
320
1.03
267
0.76
156
1.02
218
0.95
261
0.72
256
1.13
306
2.15
372
0.18
157
0.18
247
0.18
116
0.19
208
0.20
200
0.19
166
whm_ethtwo views0.49
180
0.32
253
0.79
275
0.47
241
0.38
283
0.37
86
0.37
158
0.83
159
0.83
175
0.82
184
1.73
349
0.36
32
0.39
103
0.61
95
0.38
120
0.19
192
0.17
238
0.20
177
0.20
227
0.20
200
0.25
258
ssnet_v2two views0.61
265
0.29
230
0.69
247
0.45
200
0.30
218
0.93
293
0.62
305
1.20
277
1.03
267
0.97
274
0.81
130
0.98
267
0.67
229
0.84
235
0.97
306
0.26
279
0.23
294
0.23
244
0.24
285
0.20
200
0.21
209
AAGNettwo views1.40
368
0.20
54
0.52
159
0.45
200
0.26
130
0.29
35
0.29
57
0.67
67
0.71
116
0.97
274
0.86
150
0.66
162
0.60
194
0.66
147
19.98
417
0.17
125
0.11
39
0.19
148
0.15
90
0.20
200
0.13
31
MMNettwo views0.57
240
0.26
195
0.67
232
0.45
200
0.35
271
1.04
317
0.39
184
0.93
189
0.98
249
0.96
271
0.97
196
0.86
235
0.80
284
0.83
231
0.80
272
0.16
99
0.15
191
0.19
148
0.19
208
0.20
200
0.17
135
UPFNettwo views0.55
227
0.26
195
0.59
202
0.46
223
0.38
283
0.83
275
0.48
249
1.03
222
0.80
153
0.92
247
0.91
170
0.85
231
0.67
229
0.87
241
0.78
264
0.20
211
0.21
278
0.20
177
0.20
227
0.20
200
0.15
78
PSMNet-RSSMtwo views0.50
191
0.24
139
0.41
50
0.43
167
0.26
130
0.51
144
0.40
194
1.16
263
0.79
148
0.75
151
1.07
243
0.87
239
0.69
239
0.66
147
0.52
201
0.24
262
0.16
212
0.23
244
0.26
304
0.20
200
0.20
193
StereoDRNet-Refinedtwo views0.61
265
0.33
259
0.63
217
0.47
241
0.31
228
0.94
295
0.41
214
1.04
223
0.97
245
1.15
326
1.13
263
1.00
272
0.74
262
0.93
260
0.93
296
0.18
157
0.13
141
0.22
230
0.21
244
0.20
200
0.21
209
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
LE_ROBtwo views4.86
407
0.27
207
9.43
406
0.45
200
0.24
77
1.61
362
0.96
358
2.05
380
17.75
420
16.36
422
4.84
407
5.17
402
19.48
422
2.05
375
15.49
414
0.17
125
0.15
191
0.16
57
0.16
116
0.20
200
0.19
166
mmmtwo views0.47
162
0.28
220
0.51
140
0.39
61
0.25
101
0.61
192
0.38
171
1.00
214
0.60
81
0.77
164
1.07
243
0.65
150
0.53
160
0.61
95
0.49
193
0.18
157
0.15
191
0.23
244
0.20
227
0.21
209
0.20
193
fast-acv-fttwo views0.66
277
0.32
253
0.80
276
0.46
223
0.34
266
1.26
342
0.50
262
0.91
179
1.00
256
1.05
302
1.36
309
1.28
318
0.84
293
0.81
224
0.90
290
0.22
242
0.24
302
0.23
244
0.23
271
0.21
209
0.22
224
iinet-ftwo views0.69
283
0.29
230
2.34
383
0.41
105
0.31
228
1.16
333
0.58
296
0.87
167
0.85
180
0.86
215
1.17
275
1.04
284
0.83
290
0.76
201
1.26
338
0.21
226
0.18
247
0.17
85
0.16
116
0.21
209
0.21
209
Patchmatch Stereo++two views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.21
5
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.31
88
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.59
79
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ROB_FTStereo_v2two views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.31
88
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.60
89
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
ROB_FTStereotwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.20
1
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.60
89
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
HUI-Stereotwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.22
11
0.63
43
0.40
29
0.64
95
0.73
86
0.58
115
0.38
90
0.53
54
0.38
120
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
iGMRVCtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.29
57
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
iRAFTtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.21
5
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
CRE-IMPtwo views0.37
61
0.23
120
0.53
166
0.42
130
0.24
77
0.40
101
0.21
5
0.61
35
0.45
47
0.65
99
0.73
86
0.53
87
0.37
83
0.63
126
0.40
148
0.18
157
0.11
39
0.19
148
0.16
116
0.21
209
0.19
166
RAFT-IKPtwo views0.36
43
0.24
139
0.51
140
0.42
130
0.22
30
0.24
7
0.27
42
0.63
43
0.39
21
0.63
85
0.73
86
0.57
100
0.38
90
0.61
95
0.39
128
0.18
157
0.12
86
0.20
177
0.16
116
0.21
209
0.16
98
GEStereo_RVCtwo views0.56
236
0.30
244
0.70
249
0.51
281
0.31
228
0.70
235
0.54
280
1.31
315
0.93
222
0.85
205
0.86
150
0.84
229
0.63
205
0.92
257
0.67
246
0.24
262
0.16
212
0.19
148
0.17
158
0.21
209
0.23
243
RALAANettwo views0.40
103
0.24
139
0.56
185
0.43
167
0.30
218
0.36
78
0.25
30
0.89
173
0.69
108
0.69
120
0.65
70
0.61
129
0.30
51
0.63
126
0.35
90
0.16
99
0.13
141
0.18
116
0.15
90
0.21
209
0.14
49
sCroCo_RVCtwo views0.36
43
0.29
230
0.73
262
0.52
295
0.39
292
0.42
117
0.31
88
0.52
13
0.46
52
0.31
7
0.48
28
0.38
36
0.32
60
0.46
29
0.33
74
0.22
242
0.23
294
0.19
148
0.19
208
0.21
209
0.22
224
HCRNettwo views0.46
153
0.35
268
0.45
84
0.54
311
0.26
130
0.52
151
0.29
57
0.87
167
0.64
88
0.75
151
0.82
132
0.76
207
0.53
160
0.70
177
0.38
120
0.24
262
0.16
212
0.24
257
0.20
227
0.21
209
0.20
193
UNettwo views0.55
227
0.27
207
0.72
258
0.45
200
0.41
300
0.97
300
0.40
194
1.01
215
0.80
153
0.87
217
0.90
164
1.03
280
0.75
265
0.76
201
0.67
246
0.19
192
0.15
191
0.20
177
0.17
158
0.21
209
0.18
157
CFNettwo views0.53
217
0.30
244
0.53
166
0.42
130
0.28
180
0.73
242
0.35
139
1.21
280
1.01
258
0.74
148
1.07
243
0.85
231
0.60
194
0.83
231
0.58
226
0.19
192
0.15
191
0.23
244
0.23
271
0.21
209
0.17
135
ToySttwo views0.52
211
0.27
207
0.93
306
0.42
130
0.28
180
0.67
229
0.56
287
0.88
172
0.79
148
0.61
76
0.85
146
0.92
258
0.70
244
0.72
186
0.61
233
0.16
99
0.17
238
0.21
218
0.21
244
0.22
227
0.21
209
Wz-Net-LNSev-Reftwo views0.67
278
0.30
244
1.20
332
0.42
130
0.31
228
1.00
307
0.58
296
1.16
263
1.07
284
1.01
284
1.25
288
1.08
296
0.75
265
1.18
315
1.03
315
0.20
211
0.12
86
0.16
57
0.13
49
0.22
227
0.22
224
NINENettwo views0.52
211
0.30
244
0.55
181
0.46
223
0.33
256
0.78
252
0.34
117
1.18
271
0.91
214
0.84
195
0.97
196
0.64
146
0.54
164
0.74
188
0.56
217
0.23
256
0.20
272
0.25
268
0.18
184
0.22
227
0.22
224
DAStwo views0.54
222
0.26
195
0.66
228
0.49
258
0.31
228
0.61
192
0.43
226
0.89
173
1.01
258
0.95
259
1.16
270
0.71
174
0.85
297
0.89
248
0.47
183
0.18
157
0.14
172
0.18
116
0.15
90
0.22
227
0.19
166
SepStereotwo views0.54
222
0.26
195
0.66
228
0.49
258
0.31
228
0.61
192
0.43
226
0.89
173
1.01
258
0.95
259
1.16
270
0.71
174
0.85
297
0.97
278
0.47
183
0.18
157
0.14
172
0.18
116
0.15
90
0.22
227
0.19
166
AASNettwo views0.55
227
0.27
207
0.62
213
0.51
281
0.32
245
0.73
242
0.44
232
1.55
356
0.88
200
0.88
225
0.94
181
0.64
146
0.63
205
0.62
117
0.84
277
0.23
256
0.20
272
0.20
177
0.16
116
0.22
227
0.20
193
PSMNet-ADLtwo views0.50
191
0.28
220
0.43
74
0.49
258
0.31
228
0.70
235
0.38
171
0.94
194
0.81
162
0.62
78
0.80
124
0.91
255
0.62
200
0.76
201
0.68
249
0.24
262
0.18
247
0.19
148
0.20
227
0.22
227
0.22
224
ADLNet2two views0.57
240
0.26
195
0.71
252
0.48
249
0.31
228
0.83
275
0.51
265
1.10
248
0.99
252
0.85
205
0.99
208
0.99
271
0.70
244
0.79
218
0.78
264
0.21
226
0.17
238
0.18
116
0.18
184
0.22
227
0.22
224
LCNettwo views0.42
124
0.21
74
0.34
13
0.44
188
0.24
77
0.47
133
0.28
50
0.69
83
0.57
71
0.72
134
1.03
229
0.66
162
0.58
187
0.60
89
0.35
90
0.15
67
0.10
8
0.19
148
0.19
208
0.22
227
0.37
322
ADLNettwo views0.57
240
0.29
230
0.58
194
0.46
223
0.35
271
0.80
264
0.46
239
1.14
258
0.88
200
1.03
291
0.98
199
0.92
258
0.66
220
0.71
182
0.83
276
0.22
242
0.16
212
0.22
230
0.22
262
0.22
227
0.23
243
psm_uptwo views0.57
240
0.27
207
0.52
159
0.50
269
0.33
256
0.65
215
0.60
301
1.07
236
0.84
176
0.87
217
0.91
170
1.00
272
1.06
332
0.80
220
0.66
243
0.22
242
0.25
310
0.26
282
0.23
271
0.22
227
0.21
209
DSFCAtwo views0.57
240
0.27
207
0.71
252
0.41
105
0.36
276
0.78
252
0.53
274
1.08
241
0.85
180
1.08
312
0.84
139
0.90
249
0.66
220
1.05
297
0.63
240
0.26
279
0.22
287
0.21
218
0.21
244
0.22
227
0.20
193
NLCA_NET_v2_RVCtwo views0.55
227
0.33
259
0.71
252
0.46
223
0.31
228
0.66
220
0.43
226
1.07
236
0.89
204
0.93
250
0.91
170
0.98
267
0.61
198
0.76
201
0.64
242
0.22
242
0.18
247
0.22
230
0.22
262
0.22
227
0.24
251
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DLCB_ROBtwo views0.60
262
0.29
230
0.53
166
0.50
269
0.33
256
0.76
251
0.51
265
1.02
217
0.94
229
1.07
311
1.16
270
1.21
313
0.73
260
0.98
280
0.75
260
0.21
226
0.20
272
0.22
230
0.23
271
0.22
227
0.20
193
CASStwo views0.46
153
0.28
220
0.45
84
0.48
249
0.22
30
0.63
201
0.34
117
0.99
208
0.66
96
0.76
156
0.86
150
0.61
129
0.58
187
0.58
74
0.44
165
0.29
303
0.16
212
0.22
230
0.18
184
0.23
241
0.28
280
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
Anonymous3two views0.47
162
0.35
268
0.91
305
0.50
269
0.38
283
0.81
269
0.55
284
0.76
136
0.66
96
0.52
54
0.65
70
0.44
55
0.45
132
0.66
147
0.39
128
0.25
274
0.25
310
0.22
230
0.21
244
0.23
241
0.24
251
TestStereotwo views0.39
89
0.32
253
0.42
58
0.45
200
0.20
18
0.41
110
0.38
171
0.69
83
0.66
96
0.56
64
0.78
110
0.48
72
0.43
120
0.59
79
0.37
107
0.18
157
0.13
141
0.20
177
0.15
90
0.23
241
0.14
49
Syn2CoExtwo views0.74
293
0.55
337
1.17
331
0.66
349
0.45
324
0.89
289
0.56
287
1.54
355
1.15
309
0.95
259
1.35
308
1.03
280
1.03
328
0.96
271
0.89
284
0.31
313
0.27
320
0.29
308
0.24
285
0.23
241
0.27
271
GwcNetcopylefttwo views0.73
288
0.39
286
1.37
349
0.53
302
0.43
312
1.10
322
0.52
271
1.27
303
1.19
319
1.05
302
1.41
317
1.06
291
0.86
301
0.98
280
1.01
310
0.26
279
0.24
302
0.24
257
0.23
271
0.23
241
0.28
280
ADCReftwo views0.84
314
0.46
312
1.60
365
0.52
295
0.45
324
1.08
321
0.52
271
1.13
256
1.03
267
1.22
333
1.43
323
0.87
239
0.93
317
0.91
255
3.35
387
0.19
192
0.16
212
0.23
244
0.23
271
0.23
241
0.22
224
AdaStereotwo views0.52
211
0.34
264
0.53
166
0.49
258
0.25
101
0.71
238
0.36
146
1.24
290
0.91
214
0.77
164
0.98
199
0.75
201
0.50
151
0.71
182
0.51
197
0.27
288
0.13
141
0.28
300
0.18
184
0.23
241
0.18
157
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
NaN_ROBtwo views0.73
288
0.46
312
0.89
302
0.52
295
0.34
266
0.98
304
1.11
365
1.28
308
1.20
321
1.27
341
0.96
189
1.08
296
0.79
280
1.34
337
0.78
264
0.24
262
0.30
331
0.23
244
0.24
285
0.23
241
0.26
263
mmxtwo views0.59
255
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
1.24
290
1.06
277
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
349
0.21
226
0.16
212
0.25
268
0.21
244
0.24
249
0.22
224
xxxcopylefttwo views0.59
255
0.28
220
0.68
239
0.39
61
0.26
130
0.56
170
0.40
194
1.24
290
1.06
277
0.76
156
0.98
199
0.71
174
0.55
167
1.25
321
1.46
349
0.21
226
0.16
212
0.25
268
0.21
244
0.24
249
0.22
224
ddtwo views0.44
142
0.40
294
0.62
213
0.44
188
0.26
130
0.51
144
0.38
171
0.72
110
1.07
284
0.60
72
0.66
73
0.43
52
0.40
108
0.68
164
0.53
210
0.24
262
0.15
191
0.21
218
0.16
116
0.24
249
0.19
166
AACVNettwo views0.52
211
0.25
167
0.56
185
0.48
249
0.29
199
0.55
165
0.38
171
0.96
201
0.59
74
0.83
189
1.03
229
1.03
280
0.77
278
0.91
255
0.58
226
0.22
242
0.18
247
0.24
257
0.18
184
0.24
249
0.22
224
GMStereopermissivetwo views0.40
103
0.38
282
0.61
208
0.41
105
0.27
159
0.47
133
0.35
139
0.62
37
1.04
271
0.57
66
0.54
45
0.38
36
0.36
79
0.56
66
0.41
153
0.20
211
0.13
141
0.16
57
0.17
158
0.24
249
0.20
193
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
CFNet-ftpermissivetwo views0.50
191
0.25
167
0.39
36
0.41
105
0.26
130
0.66
220
0.37
158
0.91
179
0.87
190
0.67
110
1.00
212
1.05
287
0.70
244
0.68
164
0.57
221
0.23
256
0.16
212
0.24
257
0.21
244
0.24
249
0.19
166
BEATNet_4xtwo views0.49
180
0.35
268
0.72
258
0.38
45
0.20
18
0.65
215
0.36
146
1.08
241
0.78
142
0.78
175
0.88
159
0.73
193
0.64
212
0.71
182
0.60
229
0.16
99
0.12
86
0.16
57
0.15
90
0.24
249
0.18
157
CFNet_RVCtwo views0.50
191
0.25
167
0.39
36
0.41
105
0.26
130
0.66
220
0.37
158
0.91
179
0.87
190
0.67
110
1.00
212
1.05
287
0.70
244
0.68
164
0.57
221
0.23
256
0.16
212
0.24
257
0.21
244
0.24
249
0.19
166
DISCOtwo views0.72
287
0.27
207
0.72
258
0.45
200
0.31
228
1.12
327
0.53
274
1.32
320
1.25
326
0.84
195
1.07
243
1.52
354
0.87
304
1.82
368
1.08
327
0.20
211
0.15
191
0.18
116
0.16
116
0.24
249
0.24
251
ttttwo views0.56
236
0.27
207
0.49
123
0.39
61
0.25
101
0.65
215
0.42
219
1.24
290
1.08
289
0.76
156
1.10
251
0.63
139
0.51
156
0.95
268
1.03
315
0.25
274
0.22
287
0.22
230
0.21
244
0.25
258
0.25
258
LMCR-Stereopermissivemany views0.55
227
0.33
259
0.57
192
0.60
332
0.30
218
0.80
264
0.36
146
1.30
314
0.79
148
0.90
239
1.04
232
0.57
100
0.64
212
0.87
241
0.73
257
0.20
211
0.15
191
0.19
148
0.14
69
0.25
258
0.18
157
STTStereotwo views0.57
240
0.39
286
0.87
298
0.45
200
0.32
245
0.62
196
0.45
236
1.01
215
0.87
190
1.01
284
0.91
170
0.95
261
0.58
187
0.77
208
0.66
243
0.25
274
0.24
302
0.27
290
0.33
337
0.25
258
0.26
263
MSMDNettwo views0.49
180
0.25
167
0.56
185
0.40
87
0.27
159
0.64
209
0.32
100
0.99
208
0.99
252
0.87
217
1.07
243
0.79
220
0.46
138
0.61
95
0.44
165
0.17
125
0.13
141
0.20
177
0.16
116
0.25
258
0.20
193
UCFNet_RVCtwo views0.50
191
0.27
207
0.37
27
0.40
87
0.27
159
0.66
220
0.42
219
1.18
271
0.86
186
0.70
124
0.89
162
0.91
255
0.60
194
0.62
117
0.48
186
0.24
262
0.18
247
0.28
300
0.27
308
0.25
258
0.24
251
SGM_RVCbinarytwo views1.04
340
0.30
244
0.47
102
0.41
105
0.23
56
1.73
370
0.77
335
1.63
368
1.30
336
2.39
384
1.99
360
2.64
380
1.78
375
2.22
382
1.40
346
0.28
296
0.27
320
0.27
290
0.25
296
0.25
258
0.25
258
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
StereoVisiontwo views0.43
136
0.29
230
0.54
178
0.50
269
0.28
180
0.37
86
0.38
171
0.75
134
0.63
84
0.46
44
1.11
255
0.53
87
0.38
90
0.57
70
0.34
83
0.21
226
0.24
302
0.25
268
0.24
285
0.26
264
0.17
135
PCWNet_CMDtwo views0.49
180
0.25
167
0.56
185
0.40
87
0.27
159
0.64
209
0.32
100
0.98
205
0.99
252
0.87
217
1.07
243
0.78
214
0.46
138
0.61
95
0.44
165
0.17
125
0.13
141
0.21
218
0.16
116
0.26
264
0.20
193
Wz-Net-LNSevtwo views0.75
297
0.54
331
1.59
362
0.51
281
0.41
300
1.16
333
0.79
339
1.27
303
1.13
302
1.04
297
1.14
265
1.11
304
0.94
320
0.93
260
1.00
309
0.24
262
0.22
287
0.21
218
0.19
208
0.26
264
0.27
271
CFNet_pseudotwo views0.47
162
0.25
167
0.55
181
0.38
45
0.28
180
0.58
184
0.32
100
0.89
173
0.90
208
0.83
189
1.03
229
0.75
201
0.48
145
0.61
95
0.46
174
0.17
125
0.13
141
0.24
257
0.16
116
0.26
264
0.21
209
ccs_robtwo views0.47
162
0.25
167
0.55
181
0.38
45
0.28
180
0.58
184
0.32
100
0.89
173
0.90
208
0.83
189
1.02
218
0.75
201
0.48
145
0.61
95
0.46
174
0.17
125
0.12
86
0.24
257
0.16
116
0.26
264
0.21
209
DeepPruner_ROBtwo views0.55
227
0.37
278
0.67
232
0.42
130
0.31
228
0.50
139
0.43
226
1.22
286
0.73
127
0.86
215
1.05
235
0.85
231
0.58
187
0.90
253
0.56
217
0.29
303
0.23
294
0.22
230
0.22
262
0.26
264
0.26
263
DRN-Testtwo views0.68
281
0.34
264
0.77
272
0.52
295
0.40
295
1.14
329
0.61
303
1.56
360
1.04
271
1.18
328
1.10
251
1.05
287
0.72
256
0.82
229
1.01
310
0.24
262
0.18
247
0.26
282
0.25
296
0.26
264
0.23
243
MDST_ROBtwo views0.97
333
0.29
230
1.02
320
0.64
345
0.43
312
2.64
385
0.82
343
1.68
372
1.18
318
2.89
391
1.82
353
0.97
265
0.75
265
1.83
369
0.89
284
0.26
279
0.22
287
0.32
323
0.28
314
0.26
264
0.26
263
CBMVpermissivetwo views0.68
281
0.37
278
0.50
132
0.43
167
0.26
130
1.00
307
0.71
320
1.17
269
1.16
311
1.24
337
1.29
300
1.06
291
0.86
301
0.98
280
0.75
260
0.29
303
0.30
331
0.34
330
0.30
319
0.26
264
0.27
271
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
CFNet_ucstwo views0.51
201
0.25
167
0.58
194
0.39
61
0.31
228
0.59
190
0.35
139
1.04
223
0.95
233
0.89
232
1.19
280
0.80
224
0.49
149
0.66
147
0.45
170
0.21
226
0.16
212
0.26
282
0.18
184
0.27
273
0.23
243
aanetorigintwo views0.85
319
0.58
343
1.98
376
0.50
269
0.40
295
0.66
220
0.70
318
0.72
110
1.01
258
2.44
386
2.00
361
1.32
324
1.25
350
0.96
271
1.16
332
0.20
211
0.19
264
0.20
177
0.20
227
0.27
273
0.33
308
DMCA-RVCcopylefttwo views0.54
222
0.32
253
0.83
286
0.51
281
0.32
245
0.59
190
0.38
171
0.89
173
0.70
110
0.95
259
0.88
159
0.90
249
0.69
239
0.75
193
0.63
240
0.23
256
0.18
247
0.31
318
0.24
285
0.27
273
0.21
209
PA-Nettwo views0.70
284
0.46
312
0.96
312
0.51
281
0.53
345
0.94
295
0.73
329
1.14
258
1.15
309
0.83
189
0.90
164
0.88
242
0.76
274
1.19
316
0.96
303
0.25
274
0.41
368
0.29
308
0.44
360
0.27
273
0.39
325
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
TDLMtwo views0.59
255
0.35
268
0.57
192
0.53
302
0.32
245
0.67
229
0.72
324
1.09
244
1.03
267
0.84
195
1.11
255
0.84
229
0.71
249
0.96
271
0.61
233
0.28
296
0.18
247
0.26
282
0.22
262
0.27
273
0.21
209
StereoDRNettwo views0.67
278
0.35
268
0.82
282
0.53
302
0.44
317
1.03
315
0.53
274
1.51
353
1.06
277
1.13
324
0.91
170
1.07
295
0.74
262
0.87
241
0.95
301
0.24
262
0.19
264
0.25
268
0.23
271
0.27
273
0.22
224
PSMNet_ROBtwo views0.67
278
0.39
286
0.76
269
0.57
323
0.43
312
1.00
307
0.85
349
1.25
296
0.93
222
0.82
184
1.04
232
1.08
296
0.64
212
0.89
248
1.02
314
0.29
303
0.21
278
0.31
318
0.31
328
0.27
273
0.25
258
FAT-Stereotwo views0.75
297
0.34
264
0.81
281
0.51
281
0.38
283
0.78
252
0.63
308
1.39
332
1.32
338
1.05
302
1.40
315
1.58
359
1.14
342
0.92
257
0.91
292
0.29
303
0.28
325
0.28
300
0.23
271
0.28
280
0.41
336
FADNet-RVC-Resampletwo views0.58
251
0.35
268
1.34
347
0.50
269
0.34
266
0.73
242
0.43
226
1.09
244
0.96
240
0.83
189
0.87
156
0.76
207
0.66
220
0.77
208
0.52
201
0.19
192
0.18
247
0.26
282
0.27
308
0.28
280
0.29
285
Wz-Net-MNSevtwo views0.81
306
0.42
302
1.64
368
0.51
281
0.41
300
1.46
352
0.95
356
1.24
290
1.26
329
1.31
343
1.25
288
1.17
310
0.83
290
1.21
320
1.06
323
0.22
242
0.19
264
0.24
257
0.23
271
0.29
282
0.26
263
pcwnet_v2two views0.60
262
0.29
230
0.89
302
0.46
223
0.36
276
0.62
196
0.38
171
1.33
323
1.24
324
1.02
288
1.27
295
0.71
174
0.59
191
0.71
182
0.51
197
0.28
296
0.21
278
0.24
257
0.23
271
0.29
282
0.30
289
APVNettwo views0.73
288
0.39
286
1.01
319
0.58
328
0.45
324
1.16
333
0.68
315
1.47
349
0.87
190
0.84
195
1.15
267
1.04
284
0.84
293
1.14
308
1.18
333
0.27
288
0.28
325
0.32
323
0.31
328
0.29
282
0.32
299
hitnet-ftcopylefttwo views0.57
240
0.29
230
0.43
74
0.42
130
0.29
199
0.81
269
0.40
194
0.98
205
0.91
214
0.84
195
1.01
216
1.13
307
0.72
256
0.83
231
0.71
253
0.28
296
0.21
278
0.28
300
0.22
262
0.29
282
0.27
271
ADCLtwo views1.10
345
0.42
302
1.57
361
0.51
281
0.41
300
1.71
369
0.92
353
1.36
330
1.45
351
1.33
344
1.56
337
1.22
316
1.26
351
1.45
347
5.27
399
0.22
242
0.19
264
0.25
268
0.25
296
0.29
282
0.29
285
ADCP+two views1.18
354
0.37
278
3.09
386
0.50
269
0.52
343
1.48
354
0.61
303
1.32
320
1.07
284
1.21
331
1.16
270
1.08
296
1.11
337
1.63
357
7.17
404
0.20
211
0.16
212
0.24
257
0.22
262
0.29
282
0.22
224
SGM-ForestMtwo views4.73
404
0.34
264
1.05
322
0.46
223
0.28
180
10.26
411
3.48
410
4.52
405
5.16
402
8.68
413
7.48
411
18.87
420
10.80
412
11.26
415
10.01
408
0.32
318
0.34
353
0.32
323
0.32
331
0.29
282
0.30
289
SACVNettwo views0.61
265
0.36
276
0.67
232
0.57
323
0.37
278
0.65
215
0.47
244
1.16
263
0.80
153
1.04
297
1.06
241
1.02
278
0.81
287
0.99
284
0.57
221
0.28
296
0.21
278
0.25
268
0.24
285
0.30
289
0.39
325
Anonymoustwo views0.40
103
0.29
230
0.70
249
0.54
311
0.44
317
0.56
170
0.54
280
0.68
72
0.52
62
0.38
18
0.44
20
0.33
19
0.42
117
0.57
70
0.39
128
0.20
211
0.20
272
0.18
116
0.18
184
0.30
289
0.24
251
PWC_ROBbinarytwo views0.92
324
0.57
340
1.64
368
0.53
302
0.33
256
0.93
293
0.39
184
1.42
343
1.51
357
1.66
360
2.57
375
1.18
311
1.11
337
1.50
351
1.54
356
0.26
279
0.18
247
0.28
300
0.20
227
0.30
289
0.32
299
SGM-Foresttwo views0.65
276
0.33
259
0.43
74
0.44
188
0.30
218
1.01
311
0.54
280
1.13
256
1.09
295
1.11
322
1.21
282
1.10
302
0.76
274
0.99
284
0.71
253
0.32
318
0.33
350
0.33
328
0.30
319
0.30
289
0.28
280
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
dadtwo views0.61
265
0.53
325
0.72
258
0.44
188
0.31
228
0.64
209
0.37
158
0.85
164
1.28
331
1.05
302
1.17
275
1.18
311
0.61
198
0.70
177
0.54
213
0.36
340
0.23
294
0.37
338
0.21
244
0.31
293
0.23
243
AF-Nettwo views0.85
319
0.41
298
0.87
298
0.66
349
0.54
347
0.96
299
0.52
271
1.66
370
1.37
342
1.03
291
2.04
363
1.46
344
1.36
355
1.19
316
1.05
322
0.34
333
0.24
302
0.39
344
0.28
314
0.31
293
0.26
263
Nwc_Nettwo views0.82
307
0.40
294
0.86
293
0.62
340
0.56
349
1.04
317
0.57
289
1.72
374
1.08
289
0.93
250
1.88
356
1.44
342
1.24
349
1.19
316
0.94
298
0.31
313
0.25
310
0.36
334
0.39
349
0.31
293
0.31
296
RTSCtwo views0.93
325
0.54
331
1.59
362
0.56
320
0.40
295
1.17
337
0.55
284
1.44
345
1.82
372
1.53
353
1.26
291
1.15
309
0.82
288
1.70
362
2.44
376
0.26
279
0.20
272
0.23
244
0.24
285
0.31
293
0.32
299
DeepPrunerFtwo views0.93
325
0.55
337
3.88
391
0.70
360
0.81
371
0.72
241
0.74
331
1.28
308
1.97
375
0.95
259
1.02
218
0.87
239
0.85
297
1.16
312
1.07
325
0.35
338
0.29
327
0.43
350
0.40
352
0.31
293
0.33
308
XPNet_ROBtwo views0.73
288
0.38
282
0.80
276
0.53
302
0.40
295
0.80
264
0.83
345
1.21
280
0.96
240
1.37
346
1.17
275
1.37
336
0.87
304
1.14
308
0.99
308
0.33
326
0.25
310
0.27
290
0.24
285
0.31
293
0.29
285
FADNet-RVCtwo views0.62
271
0.56
339
1.29
341
0.47
241
0.39
292
0.63
201
0.40
194
1.16
263
0.91
214
0.71
133
0.86
150
1.04
284
0.55
167
0.99
284
0.78
264
0.27
288
0.26
318
0.28
300
0.29
318
0.32
299
0.31
296
GANettwo views0.74
293
0.38
282
0.63
217
0.54
311
0.35
271
1.01
311
0.95
356
1.15
261
0.95
233
1.09
316
2.00
361
1.14
308
0.92
315
1.29
328
0.75
260
0.25
274
0.27
320
0.27
290
0.23
271
0.32
299
0.24
251
CVANet_RVCtwo views0.59
255
0.35
268
0.54
178
0.49
258
0.33
256
0.70
235
0.67
312
1.12
250
0.97
245
0.88
225
1.05
235
1.01
276
0.72
256
0.94
263
0.55
215
0.30
310
0.20
272
0.28
300
0.26
304
0.32
299
0.23
243
MeshStereopermissivetwo views1.38
366
0.45
307
0.58
194
0.45
200
0.35
271
1.63
364
0.60
301
2.07
381
1.43
349
4.49
406
3.32
390
4.67
397
2.08
384
2.08
378
1.32
342
0.36
340
0.36
357
0.37
338
0.32
331
0.32
299
0.34
310
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
Wz-Net-SNSevtwo views0.99
337
0.80
362
3.00
385
0.57
323
0.46
332
0.94
295
1.22
375
1.40
336
1.28
331
1.04
297
1.33
304
1.46
344
0.90
312
2.06
376
1.65
359
0.26
279
0.24
302
0.25
268
0.26
304
0.33
303
0.30
289
FADNet_RVCtwo views0.58
251
0.39
286
1.26
336
0.45
200
0.32
245
0.55
165
0.34
117
1.12
250
0.90
208
0.68
117
0.90
164
0.61
129
0.71
249
1.03
295
0.80
272
0.21
226
0.18
247
0.27
290
0.23
271
0.33
303
0.30
289
S-Stereotwo views0.76
300
0.36
276
1.10
324
0.57
323
0.46
332
0.83
275
0.59
299
1.31
315
1.62
364
0.98
277
1.41
317
1.11
304
0.93
317
0.85
237
1.07
325
0.27
288
0.31
339
0.28
300
0.25
296
0.33
303
0.50
360
edge stereotwo views0.79
303
0.40
294
0.82
282
0.52
295
0.44
317
0.83
275
0.58
296
1.34
325
1.08
289
1.30
342
1.38
313
1.79
364
1.13
341
1.15
311
0.92
294
0.34
333
0.32
345
0.42
349
0.28
314
0.33
303
0.39
325
NCCL2two views0.74
293
0.45
307
0.77
272
0.65
347
0.45
324
0.97
300
1.16
370
1.16
263
1.02
263
1.00
282
0.98
199
1.48
348
0.88
308
0.99
284
0.89
284
0.31
313
0.27
320
0.39
344
0.39
349
0.33
303
0.34
310
CBMV_ROBtwo views0.62
271
0.39
286
0.41
50
0.41
105
0.28
180
0.86
283
0.28
50
1.06
234
1.02
263
0.95
259
1.33
304
0.81
226
0.84
293
0.94
263
0.56
217
0.37
344
0.37
358
0.43
350
0.40
352
0.33
303
0.32
299
psmorigintwo views0.84
314
0.53
325
2.21
381
0.50
269
0.41
300
0.86
283
0.57
289
1.08
241
0.90
208
1.50
351
1.42
321
1.50
350
1.09
335
1.29
328
1.03
315
0.32
318
0.33
350
0.27
290
0.27
308
0.34
309
0.45
349
NCC-stereotwo views0.82
307
0.43
304
0.87
298
0.63
342
0.68
367
0.88
286
0.72
324
1.60
366
1.12
297
0.95
259
1.41
317
1.37
336
1.37
357
1.26
324
0.94
298
0.32
318
0.30
331
0.37
338
0.49
369
0.34
309
0.35
313
Abc-Nettwo views0.82
307
0.43
304
0.87
298
0.63
342
0.68
367
0.88
286
0.72
324
1.60
366
1.12
297
0.95
259
1.41
317
1.37
336
1.37
357
1.26
324
0.94
298
0.32
318
0.30
331
0.37
338
0.49
369
0.34
309
0.35
313
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Anonymous Stereotwo views0.82
307
0.59
345
2.10
379
0.59
330
0.58
354
0.68
233
1.42
386
1.05
229
1.07
284
1.03
291
1.02
218
0.86
235
0.65
218
1.33
336
1.36
344
0.32
318
0.31
339
0.31
318
0.33
337
0.34
309
0.39
325
FBW_ROBtwo views0.94
329
0.54
331
1.03
321
0.56
320
0.42
309
1.16
333
0.76
334
1.56
360
1.41
346
1.38
348
1.33
304
1.47
346
1.07
333
2.94
393
1.14
331
0.26
279
0.32
345
0.45
353
0.30
319
0.34
309
0.30
289
ETE_ROBtwo views0.73
288
0.52
323
0.93
306
0.57
323
0.37
278
0.80
264
0.86
350
1.19
274
0.95
233
1.20
330
1.22
284
1.39
341
0.86
301
1.07
298
0.88
282
0.27
288
0.21
278
0.31
318
0.27
308
0.34
309
0.35
313
FINETtwo views0.75
297
0.45
307
1.38
350
0.48
249
0.46
332
0.98
304
1.00
360
1.22
286
1.69
368
0.91
246
1.25
288
0.74
197
0.74
262
1.09
302
0.82
275
0.37
344
0.31
339
0.27
290
0.24
285
0.35
315
0.34
310
PS-NSSStwo views0.60
262
0.46
312
0.68
239
0.43
167
0.34
266
0.66
220
0.57
289
1.05
229
0.91
214
0.80
179
1.28
296
0.72
189
0.67
229
0.89
248
0.61
233
0.32
318
0.26
318
0.40
347
0.27
308
0.35
315
0.29
285
CSANtwo views0.88
322
0.52
323
0.93
306
0.61
336
0.42
309
1.19
338
1.11
365
1.27
303
1.48
355
1.37
346
1.44
324
1.37
336
1.30
352
1.46
349
1.01
310
0.39
350
0.31
339
0.36
334
0.37
344
0.35
315
0.36
316
LALA_ROBtwo views0.76
300
0.46
312
0.86
293
0.55
317
0.41
300
1.00
307
0.93
355
1.25
296
1.13
302
1.23
335
1.15
267
1.55
356
0.80
284
1.11
305
0.96
303
0.33
326
0.23
294
0.35
331
0.30
319
0.35
315
0.32
299
RPtwo views0.80
304
0.38
282
0.73
262
0.67
351
0.59
356
0.82
272
0.57
289
1.21
280
1.28
331
1.03
291
1.68
344
1.45
343
1.49
365
1.08
301
0.90
290
0.36
340
0.31
339
0.37
338
0.30
319
0.36
319
0.36
316
SANettwo views1.15
350
0.45
307
1.40
351
0.50
269
0.32
245
1.54
360
1.21
373
1.49
350
3.35
395
1.61
355
2.41
371
2.32
377
1.80
376
1.57
354
1.27
339
0.28
296
0.25
310
0.26
282
0.24
285
0.36
319
0.32
299
PWCDC_ROBbinarytwo views0.93
325
0.54
331
0.97
316
0.78
369
0.41
300
1.03
315
0.42
219
1.39
332
2.34
384
1.04
297
3.73
394
0.80
224
1.12
339
1.29
328
1.04
320
0.37
344
0.22
287
0.24
257
0.20
227
0.36
319
0.31
296
ADCPNettwo views1.11
348
0.53
325
3.26
389
0.55
317
0.44
317
1.47
353
0.83
345
1.21
280
1.17
314
1.26
340
1.42
321
1.67
362
1.12
339
1.48
350
3.86
393
0.30
310
0.29
327
0.30
317
0.32
331
0.37
322
0.37
322
DANettwo views0.74
293
0.47
318
0.98
317
0.60
332
0.41
300
0.92
292
0.41
214
1.02
217
0.87
190
1.22
333
1.22
284
1.33
329
0.88
308
1.26
324
1.37
345
0.27
288
0.24
302
0.31
318
0.25
296
0.37
322
0.36
316
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
RGCtwo views0.82
307
0.62
348
0.80
276
0.67
351
0.66
365
0.91
291
0.59
299
1.35
326
1.09
295
1.12
323
1.46
328
1.50
350
1.09
335
1.28
327
0.97
306
0.34
333
0.30
331
0.48
360
0.40
352
0.38
324
0.38
324
ADCMidtwo views1.22
355
0.57
340
3.17
388
0.54
311
0.44
317
1.07
320
0.77
335
1.31
315
1.13
302
2.14
379
1.48
331
1.49
349
1.47
364
1.65
359
5.30
400
0.26
279
0.24
302
0.29
308
0.32
331
0.38
324
0.36
316
AnyNet_C32two views1.27
360
0.72
358
3.33
390
0.59
330
0.56
349
1.51
358
1.53
388
1.27
303
1.28
331
1.52
352
1.48
331
1.38
340
1.23
348
1.64
358
5.26
398
0.30
310
0.29
327
0.29
308
0.34
339
0.38
324
0.44
347
NOSS_ROBtwo views0.59
255
0.40
294
0.42
58
0.45
200
0.31
228
0.79
258
0.53
274
1.09
244
1.12
297
0.69
120
0.92
176
0.77
212
0.63
205
0.81
224
0.52
201
0.39
350
0.38
359
0.44
352
0.42
359
0.38
324
0.36
316
GMStereo_Zeroshotpermissivetwo views0.51
201
0.46
312
0.80
276
0.50
269
0.28
180
0.57
180
0.30
69
0.75
134
0.79
148
0.88
225
0.94
181
0.90
249
0.37
83
0.77
208
0.46
174
0.27
288
0.14
172
0.26
282
0.15
90
0.39
328
0.19
166
HBP-ISPtwo views0.61
265
0.47
318
0.45
84
0.46
223
0.33
256
0.79
258
0.29
57
1.15
261
1.05
273
0.85
205
1.18
279
0.67
166
0.71
249
0.92
257
0.57
221
0.37
344
0.38
359
0.47
357
0.41
357
0.39
328
0.32
299
WZ-Nettwo views1.29
362
0.64
350
5.42
400
0.64
345
0.52
343
1.37
347
1.29
378
1.41
338
1.77
371
1.56
354
1.69
346
1.74
363
1.41
359
2.50
388
2.16
373
0.28
296
0.21
278
0.23
244
0.25
296
0.39
328
0.41
336
stereogantwo views0.83
313
0.33
259
0.89
302
0.61
336
0.51
341
1.80
371
0.50
262
1.41
338
1.39
345
1.05
302
1.47
330
1.56
358
1.04
330
1.32
335
0.87
281
0.29
303
0.29
327
0.29
308
0.25
296
0.39
328
0.40
331
Wz-Net-TNSevtwo views1.23
357
1.24
383
5.25
399
0.51
281
0.43
312
1.49
357
1.09
364
1.58
363
1.42
348
1.25
338
1.26
291
1.58
359
1.52
366
1.97
373
1.95
365
0.33
326
0.32
345
0.26
282
0.30
319
0.41
332
0.43
343
MFN_U_SF_DS_RVCtwo views1.06
341
0.61
347
1.82
373
0.69
357
0.51
341
2.62
384
1.69
395
1.28
308
1.44
350
1.39
349
1.56
337
1.34
332
0.91
313
1.68
361
0.95
301
0.38
349
0.39
363
0.46
356
0.61
379
0.41
332
0.43
343
SHDtwo views0.98
335
0.54
331
1.30
343
0.63
342
0.50
339
1.14
329
0.50
262
1.80
378
2.20
379
1.66
360
1.39
314
1.47
346
1.21
346
1.40
339
1.80
362
0.32
318
0.27
320
0.32
323
0.34
339
0.41
332
0.44
347
RTStwo views2.03
385
1.03
378
11.50
409
0.68
354
0.63
361
2.71
386
1.56
390
1.55
356
2.32
382
1.93
371
2.57
375
1.32
324
1.32
353
5.20
405
4.30
394
0.31
313
0.23
294
0.29
308
0.30
319
0.41
332
0.40
331
RTSAtwo views2.03
385
1.03
378
11.50
409
0.68
354
0.63
361
2.71
386
1.56
390
1.55
356
2.32
382
1.93
371
2.57
375
1.32
324
1.32
353
5.20
405
4.30
394
0.31
313
0.23
294
0.29
308
0.30
319
0.41
332
0.40
331
WCMA_ROBtwo views1.22
355
0.39
286
0.93
306
0.51
281
0.45
324
1.44
351
0.79
339
1.20
277
1.30
336
2.99
397
3.94
398
3.30
390
2.17
387
1.42
343
1.31
341
0.46
358
0.35
355
0.35
331
0.37
344
0.41
332
0.42
339
EDNetEfficienttwo views1.47
372
0.82
363
6.28
402
0.48
249
0.40
295
0.73
242
0.83
345
0.95
197
2.77
389
3.48
403
1.95
358
1.64
361
2.12
385
1.42
343
3.84
392
0.21
226
0.19
264
0.21
218
0.21
244
0.43
338
0.42
339
RYNettwo views0.76
300
0.37
278
0.74
266
0.54
311
0.67
366
1.35
346
0.68
315
1.28
308
1.21
323
1.10
319
0.90
164
1.31
322
0.94
320
1.01
290
1.30
340
0.22
242
0.16
212
0.27
290
0.23
271
0.43
338
0.45
349
NVstereo2Dtwo views0.62
271
0.32
253
0.82
282
0.50
269
0.44
317
0.88
286
0.48
249
1.12
250
1.17
314
0.67
110
0.90
164
0.90
249
0.69
239
1.02
293
0.69
250
0.33
326
0.16
212
0.29
308
0.20
227
0.43
338
0.46
353
GASNettwo views0.70
284
0.77
360
1.16
330
0.71
362
0.49
336
0.62
196
0.48
249
1.12
250
1.05
273
0.98
277
0.84
139
0.94
260
0.82
288
1.41
342
0.85
279
0.33
326
0.22
287
0.29
308
0.28
314
0.44
341
0.26
263
MFN_U_SF_RVCtwo views1.14
349
0.63
349
2.33
382
0.69
357
0.46
332
2.04
376
0.70
318
1.90
379
1.37
342
1.62
356
1.56
337
1.94
369
1.36
355
1.73
364
1.90
364
0.41
355
0.38
359
0.45
353
0.48
366
0.45
342
0.47
355
ADCStwo views1.60
375
0.70
354
4.02
393
0.61
336
0.53
345
1.31
343
1.11
365
1.71
373
1.86
374
1.97
374
1.68
344
1.51
352
1.46
362
2.07
377
9.20
407
0.34
333
0.32
345
0.33
328
0.36
342
0.45
342
0.46
353
AnyNet_C01two views1.63
376
1.16
381
7.38
404
0.65
347
0.56
349
2.25
380
1.53
388
1.53
354
1.46
353
1.71
364
1.95
358
1.83
365
1.41
359
2.48
386
4.42
396
0.33
326
0.32
345
0.32
323
0.34
339
0.45
342
0.50
360
SDNRtwo views0.89
323
0.39
286
1.66
371
0.42
130
0.39
292
3.35
398
0.32
100
0.95
197
1.05
273
1.05
302
2.12
364
0.62
135
0.71
249
1.40
339
0.78
264
0.53
368
0.56
382
0.36
334
0.27
308
0.46
345
0.50
360
G-Nettwo views0.95
330
0.48
320
1.13
327
0.67
351
0.49
336
2.07
377
0.63
308
1.02
217
0.90
208
1.77
366
2.62
378
1.28
318
1.60
368
1.09
302
1.06
323
0.37
344
0.30
331
0.35
331
0.25
296
0.46
345
0.45
349
MSMD_ROBtwo views1.25
358
0.51
321
0.64
221
0.60
332
0.50
339
1.66
366
0.67
312
1.26
298
1.26
329
2.64
388
3.82
395
3.06
386
3.20
400
1.45
347
0.91
292
0.46
358
0.41
368
0.49
363
0.51
372
0.47
347
0.45
349
coex-fttwo views6.50
411
1.57
393
87.99
434
0.49
258
0.38
283
1.41
349
1.21
373
1.21
280
7.96
407
12.14
414
2.78
381
2.74
381
3.83
402
1.30
332
3.19
386
0.24
262
0.23
294
0.27
290
0.24
285
0.48
348
0.40
331
FADNettwo views0.63
274
0.53
325
1.20
332
0.46
223
0.44
317
0.66
220
0.41
214
1.24
290
1.07
284
0.70
124
0.84
139
0.98
267
0.65
218
0.87
241
0.54
213
0.29
303
0.30
331
0.27
290
0.30
319
0.48
348
0.36
316
FC-DCNNcopylefttwo views1.67
378
0.53
325
0.68
239
0.62
340
0.49
336
1.62
363
0.71
320
1.77
377
1.55
358
4.73
408
4.66
406
5.82
405
3.94
403
2.13
380
1.42
347
0.47
361
0.42
370
0.47
357
0.46
361
0.48
348
0.47
355
UDGNettwo views0.50
191
0.82
363
0.56
185
0.51
281
0.32
245
0.41
110
0.34
117
0.71
100
0.93
222
0.65
99
0.60
59
0.58
115
0.44
125
0.65
139
0.43
158
0.33
326
0.15
191
0.67
374
0.20
227
0.49
351
0.23
243
DPSNettwo views1.08
344
0.44
306
2.64
384
0.54
311
0.42
309
1.59
361
1.25
376
2.39
388
1.50
356
1.13
324
1.12
257
1.51
352
2.19
388
1.44
346
1.51
355
0.35
338
0.25
310
0.25
268
0.21
244
0.49
351
0.39
325
SAMSARAtwo views1.15
350
0.69
353
1.44
355
1.09
380
0.93
373
2.10
378
1.87
402
1.64
369
1.47
354
1.64
358
1.21
282
2.06
371
1.14
342
1.61
355
1.50
354
0.39
350
0.45
374
0.36
334
0.38
347
0.50
353
0.51
364
MANEtwo views4.73
404
0.54
331
0.77
272
0.69
357
0.60
359
10.35
412
1.67
394
8.68
413
12.66
412
6.90
412
9.43
413
11.59
414
10.59
411
8.26
412
8.41
405
0.51
366
0.45
374
0.48
360
1.02
393
0.50
353
0.50
360
PDISCO_ROBtwo views0.96
331
0.51
321
1.13
327
1.03
378
1.00
380
1.81
372
0.77
335
1.72
374
1.60
362
1.09
316
1.19
280
1.34
332
0.80
284
1.62
356
1.01
310
0.58
373
0.22
287
0.45
353
0.40
352
0.50
353
0.41
336
FCDSN-DCtwo views1.43
370
0.57
340
0.69
247
0.74
365
0.59
356
1.42
350
0.65
311
1.40
336
1.41
346
3.31
401
4.42
404
4.57
396
3.01
398
1.70
362
1.19
335
0.46
358
0.42
370
0.48
360
0.47
362
0.51
356
0.51
364
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
PVDtwo views1.34
365
0.70
354
1.42
353
0.78
369
0.65
363
1.68
367
0.91
351
2.12
384
3.01
391
2.25
381
2.35
370
1.90
368
1.99
382
1.98
374
2.14
371
0.40
354
0.38
359
0.49
363
0.37
344
0.51
356
0.67
373
LSMtwo views4.83
406
0.83
366
11.23
408
0.76
368
56.73
430
1.10
322
1.18
371
1.35
326
1.70
369
2.13
376
2.34
368
1.34
332
1.19
345
1.52
352
1.23
337
0.34
333
0.50
379
0.39
344
0.47
362
0.51
356
9.82
417
ccnettwo views0.84
314
0.59
345
0.86
293
0.56
320
0.60
359
1.11
326
0.72
324
1.44
345
0.97
245
1.15
326
1.44
324
1.28
318
0.95
322
1.01
290
1.33
343
0.49
363
0.43
372
0.50
365
0.47
362
0.52
359
0.48
357
BEATNet-Init1two views15.65
416
1.62
396
54.26
433
0.75
367
0.56
349
37.03
427
13.39
415
13.20
417
14.59
414
29.41
431
29.29
431
47.69
434
21.87
423
26.91
425
19.58
416
0.43
357
0.39
363
0.47
357
0.47
362
0.52
359
0.52
366
Anonymous_2two views0.84
314
0.45
307
0.66
228
0.41
105
0.45
324
0.82
272
0.53
274
0.81
153
0.81
162
0.73
141
0.61
62
0.91
255
0.76
274
0.77
208
0.61
233
0.51
366
0.55
381
0.54
368
4.92
416
0.54
361
0.42
339
EDNetEfficientorigintwo views9.96
413
1.17
382
175.17
435
0.49
258
0.37
278
1.13
328
0.74
331
1.27
303
2.70
388
3.16
400
2.49
372
2.28
374
2.15
386
1.88
370
2.27
375
0.21
226
0.19
264
0.25
268
0.20
227
0.54
361
0.53
368
sAnonymous2two views0.42
124
0.41
298
0.96
312
0.48
249
0.37
278
0.41
110
0.48
249
0.60
31
0.52
62
0.39
21
0.48
28
0.35
26
0.44
125
0.44
22
0.30
48
0.19
192
0.14
172
0.19
148
0.17
158
0.55
363
0.43
343
CroCo_RVCtwo views0.42
124
0.41
298
0.96
312
0.48
249
0.37
278
0.41
110
0.48
249
0.60
31
0.52
62
0.39
21
0.48
28
0.35
26
0.44
125
0.44
22
0.30
48
0.19
192
0.14
172
0.19
148
0.17
158
0.55
363
0.43
343
XQCtwo views0.97
333
0.70
354
1.54
360
0.70
360
0.55
348
1.48
354
0.81
341
1.41
338
1.57
360
1.21
331
1.12
257
1.33
329
1.04
330
1.55
353
2.00
369
0.39
350
0.25
310
0.37
338
0.32
331
0.55
363
0.49
358
ELAS_RVCcopylefttwo views1.76
380
0.64
350
1.20
332
0.74
365
0.59
356
2.18
379
2.53
407
2.10
383
2.85
390
3.46
402
3.41
393
3.12
387
4.11
404
2.69
391
2.53
381
0.54
371
0.47
377
0.51
367
0.48
366
0.55
363
0.55
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views1.77
381
0.64
350
1.10
324
0.72
363
0.58
354
3.37
399
1.76
397
2.54
389
2.57
386
3.77
404
3.96
399
2.83
383
3.44
401
2.34
385
2.73
383
0.53
368
0.47
377
0.50
365
0.48
366
0.55
363
0.55
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PASMtwo views0.96
331
0.71
357
2.05
378
0.72
363
0.72
370
0.84
280
0.92
353
1.14
258
1.34
341
1.25
338
1.22
284
1.34
332
1.07
333
1.31
333
1.11
328
0.53
368
0.57
383
0.59
372
0.67
380
0.56
368
0.57
371
DGSMNettwo views0.80
304
0.58
343
1.42
353
0.61
336
0.65
363
0.94
295
0.75
333
1.35
326
1.16
311
0.88
225
1.26
291
1.00
272
0.75
265
1.07
298
0.89
284
0.36
340
0.31
339
0.41
348
0.40
352
0.60
369
0.59
372
GANetREF_RVCpermissivetwo views0.82
307
0.77
360
0.95
311
0.68
354
0.43
312
1.15
331
1.06
363
1.19
274
1.20
321
1.03
291
1.02
218
1.10
302
0.89
310
1.20
319
0.78
264
0.49
363
0.39
363
0.58
371
0.39
349
0.69
370
0.49
358
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
NVStereoNet_ROBtwo views1.31
364
0.96
372
1.33
346
0.90
373
0.92
372
1.15
331
1.05
362
1.49
350
1.62
364
1.63
357
2.51
373
2.31
375
1.62
369
2.16
381
1.42
347
0.81
380
0.73
387
0.79
376
1.02
393
0.73
371
0.97
383
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
MSC_U_SF_DS_RVCtwo views1.38
366
0.91
370
2.11
380
0.89
372
0.57
353
4.27
404
1.79
399
1.55
356
2.00
377
1.64
358
1.85
355
1.83
365
1.44
361
1.89
372
1.49
353
0.49
363
0.40
366
0.56
369
0.58
376
0.75
372
0.52
366
CC-Net-ROBtwo views0.84
314
1.01
377
0.93
306
0.60
332
0.45
324
1.25
341
0.71
320
1.20
277
1.05
273
0.84
195
1.24
287
0.90
249
0.78
279
1.14
308
0.70
251
0.48
362
0.34
353
1.71
388
0.38
347
0.78
373
0.40
331
MADNet+two views2.28
392
2.56
408
10.82
407
1.25
384
0.96
376
2.77
390
1.44
387
2.34
386
1.76
370
1.36
345
1.78
352
1.84
367
1.74
374
6.33
408
4.57
397
0.67
376
0.66
385
0.59
372
0.54
375
0.84
374
0.81
378
MaskLacGwcNet_RVCtwo views0.71
286
0.84
367
0.80
276
0.55
317
0.38
283
1.38
348
0.57
289
1.07
236
0.81
162
0.90
239
0.94
181
0.95
261
0.54
164
1.01
290
0.61
233
0.41
355
0.30
331
0.57
370
0.31
328
0.86
375
0.39
325
MFMNet_retwo views1.17
353
0.99
374
1.31
344
1.02
377
0.95
375
1.32
344
1.32
379
1.44
345
1.58
361
1.72
365
1.70
347
1.21
313
1.57
367
1.16
312
1.04
320
0.88
382
0.76
393
0.79
376
0.75
384
0.90
376
0.94
380
anonymitytwo views0.98
335
0.89
369
1.06
323
0.93
374
1.04
383
0.97
300
0.82
343
1.33
323
0.93
222
1.08
312
0.98
199
1.02
278
0.95
322
1.02
293
0.93
296
0.96
384
0.96
404
0.90
379
0.91
389
0.92
377
0.95
382
SGM+DAISYtwo views1.52
373
0.99
374
1.61
366
1.01
376
1.02
381
1.86
374
1.19
372
1.49
350
1.38
344
2.96
395
3.00
385
2.79
382
1.94
378
1.88
370
1.62
357
0.98
386
0.97
405
0.91
381
0.91
389
0.94
378
0.99
385
SPS-STEREOcopylefttwo views1.29
362
0.94
371
1.10
324
1.05
379
1.03
382
1.48
354
0.91
351
1.57
362
1.24
324
2.13
376
1.90
357
1.94
369
1.46
362
1.77
365
1.64
358
0.97
385
0.94
403
0.90
379
0.89
388
0.96
379
0.97
383
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
JetBluetwo views3.02
397
1.39
388
7.91
405
1.17
382
1.49
389
8.53
410
7.94
412
2.82
390
1.98
376
2.15
380
2.69
380
3.32
391
3.01
398
6.66
409
3.81
391
0.79
378
0.78
394
0.75
375
0.76
385
1.04
380
1.33
396
WAO-7two views1.96
382
1.24
383
1.52
357
1.28
385
1.06
384
2.92
394
1.64
393
3.32
396
3.05
393
2.28
382
3.32
390
3.19
389
2.38
391
3.39
395
2.49
380
1.02
387
0.92
399
1.06
383
1.04
395
1.05
381
0.99
385
Consistency-Rafttwo views1.01
339
0.82
363
1.27
339
0.85
371
0.97
377
0.81
269
0.83
345
1.35
326
1.61
363
1.06
310
1.66
343
1.11
304
0.93
317
0.93
260
1.11
328
0.65
375
0.75
391
0.79
376
0.91
389
1.09
382
0.79
377
UDGtwo views0.93
325
1.03
378
0.75
268
1.00
375
0.97
377
1.02
313
0.57
289
1.18
271
1.01
258
0.93
250
1.02
218
1.32
324
1.03
328
0.88
247
0.92
294
0.55
372
0.33
350
1.82
390
0.41
357
1.20
383
0.74
375
DDUNettwo views1.10
345
2.58
410
0.83
286
1.21
383
1.27
387
1.02
313
0.69
317
1.17
269
0.95
233
0.98
277
1.26
291
1.28
318
0.84
293
0.97
278
0.79
271
0.85
381
0.40
366
2.00
393
0.60
378
1.34
384
0.94
380
SQANettwo views0.87
321
0.76
359
0.76
269
1.16
381
0.99
379
1.10
322
0.51
265
1.12
250
0.85
180
0.93
250
1.05
235
1.03
280
0.76
274
1.07
298
0.70
251
0.79
378
0.25
310
1.04
382
0.36
342
1.56
385
0.70
374
PWCKtwo views2.06
387
1.75
400
4.11
395
1.69
389
0.93
373
3.13
397
2.86
409
2.18
385
2.41
385
2.38
383
2.33
367
2.22
373
1.85
377
3.52
397
2.20
374
1.65
394
0.73
387
1.52
387
0.83
387
1.81
386
1.02
388
otakutwo views1.10
345
0.96
372
0.96
312
1.37
387
1.06
384
1.65
365
0.72
324
1.46
348
1.19
319
1.10
319
1.32
303
1.32
324
0.95
322
1.29
328
0.81
274
0.89
383
0.46
376
1.24
384
0.50
371
1.86
387
0.89
379
WAO-6two views2.11
389
1.52
391
1.25
335
1.73
390
1.69
395
2.72
388
1.62
392
3.15
394
3.64
396
2.01
375
3.28
388
3.52
394
2.20
389
2.59
389
2.48
379
1.31
392
0.92
399
2.04
397
1.22
404
1.89
388
1.35
398
Ntrotwo views1.15
350
1.00
376
1.00
318
1.49
388
1.20
386
1.69
368
0.81
341
1.39
332
1.25
326
1.01
284
1.28
296
1.31
322
1.00
326
1.31
333
0.89
284
1.10
389
0.43
372
1.36
385
0.51
372
1.95
389
0.99
385
WAO-8two views3.00
395
1.60
394
1.52
357
1.82
392
1.65
393
5.57
406
1.35
382
4.65
407
12.37
410
2.89
391
4.04
400
4.89
400
2.78
394
3.73
399
2.44
376
1.29
390
0.93
401
2.00
393
1.16
402
2.02
390
1.23
391
Venustwo views3.00
395
1.60
394
1.52
357
1.82
392
1.65
393
5.57
406
1.35
382
4.65
407
12.37
410
2.89
391
4.04
400
4.89
400
2.78
394
3.73
399
2.44
376
1.29
390
0.93
401
2.00
393
1.16
402
2.02
390
1.23
391
ACVNet_2two views1.74
379
1.30
385
1.62
367
1.81
391
1.63
391
2.28
381
1.34
381
2.35
387
2.64
387
1.82
367
2.55
374
2.99
384
1.71
373
1.67
360
1.20
336
1.48
393
0.59
384
1.81
389
0.71
382
2.09
392
1.29
393
RainbowNettwo views1.42
369
1.53
392
1.31
344
1.93
394
1.46
388
1.52
359
1.03
361
1.67
371
1.55
358
1.23
335
1.59
340
1.54
355
1.21
346
1.40
339
1.03
315
1.70
395
0.70
386
1.82
390
0.80
386
2.11
393
1.22
390
ACVNet-4btwo views1.43
370
1.34
386
1.28
340
1.95
395
1.60
390
1.93
375
0.77
335
1.59
364
1.64
366
1.05
302
1.60
341
2.10
372
0.92
315
1.79
367
0.84
277
1.76
397
0.35
355
2.03
396
0.67
380
2.16
394
1.18
389
LVEtwo views2.20
391
1.47
390
1.44
355
2.06
397
1.80
397
2.79
391
1.77
398
2.96
391
3.94
401
1.95
373
4.29
403
3.47
393
1.97
379
2.48
386
1.85
363
2.06
399
0.88
398
2.06
399
1.13
400
2.17
395
1.53
399
Deantwo views2.07
388
1.39
388
1.69
372
2.17
398
1.83
398
2.75
389
1.28
377
3.49
400
3.80
399
2.13
376
3.30
389
3.18
388
1.98
381
1.78
366
1.72
360
1.73
396
0.79
397
1.99
392
0.91
389
2.17
395
1.34
397
ACVNet_1two views1.55
374
1.36
387
1.35
348
1.96
396
1.63
391
1.83
373
0.96
358
2.09
382
1.85
373
1.43
350
1.54
335
2.31
375
1.68
372
1.42
343
1.18
333
1.76
397
0.51
380
2.05
398
0.59
377
2.24
397
1.30
394
DispFullNettwo views1.64
377
2.64
411
3.14
387
2.57
403
1.78
396
1.32
344
0.55
284
1.42
343
1.45
351
1.89
370
1.48
331
1.55
356
2.35
390
2.08
378
1.12
330
0.60
374
0.19
264
2.33
401
0.73
383
2.35
398
1.30
394
IMH-64-1two views1.96
382
1.64
397
1.26
336
2.26
400
1.91
399
2.30
382
1.35
382
2.99
392
2.29
380
1.70
362
2.79
382
2.47
378
1.66
370
2.33
383
1.95
365
2.07
400
0.74
389
2.44
402
1.04
395
2.40
399
1.59
400
IMH-64two views1.96
382
1.64
397
1.26
336
2.26
400
1.91
399
2.30
382
1.35
382
2.99
392
2.29
380
1.70
362
2.79
382
2.47
378
1.66
370
2.33
383
1.95
365
2.07
400
0.74
389
2.44
402
1.04
395
2.40
399
1.59
400
IMHtwo views2.15
390
1.66
399
1.29
341
2.25
399
1.92
401
2.87
392
1.33
380
3.25
395
3.04
392
1.87
369
3.33
392
3.00
385
2.03
383
2.80
392
1.95
365
2.09
402
0.78
394
2.45
404
1.05
398
2.44
401
1.62
402
SuperBtwo views1.00
338
0.41
298
4.03
394
0.45
200
0.32
245
0.99
306
0.49
259
1.09
244
2.09
378
1.10
319
1.10
251
0.74
197
0.83
290
1.13
306
1.75
361
0.20
211
0.15
191
0.17
85
0.15
90
2.50
402
0.27
271
DPSimNet_ROBtwo views5.19
408
2.71
412
18.56
413
2.59
404
2.49
406
4.25
403
10.93
413
3.33
397
3.93
400
5.02
409
4.52
405
5.74
403
10.18
410
5.44
407
8.79
406
2.40
406
2.47
412
2.48
405
2.54
411
2.56
403
2.87
411
ktntwo views3.02
397
2.27
406
1.85
374
2.89
408
2.54
409
3.72
400
2.14
404
3.79
403
5.33
403
2.82
390
5.09
408
5.95
406
2.54
392
3.34
394
2.58
382
2.65
409
1.44
410
2.78
410
2.03
410
2.61
404
2.10
406
TorneroNet-64two views3.54
399
1.89
401
1.59
362
2.62
406
2.29
403
6.88
409
1.72
396
4.72
409
11.88
408
2.43
385
5.46
410
8.16
410
2.80
396
4.13
403
3.03
385
2.25
405
0.75
391
2.57
406
1.09
399
2.65
405
1.84
404
TorneroNettwo views4.49
403
1.92
402
1.65
370
2.60
405
2.29
403
14.95
417
1.86
401
4.86
410
19.56
424
3.10
399
7.52
412
7.00
409
2.90
397
4.48
404
3.66
389
2.24
404
0.78
394
2.68
408
1.14
401
2.79
406
1.80
403
KSHMRtwo views2.64
393
1.96
403
1.86
375
2.69
407
2.44
405
2.88
393
2.04
403
3.46
399
6.31
405
2.51
387
3.27
387
3.39
392
1.97
379
2.59
389
2.08
370
2.48
407
1.41
409
2.80
411
1.51
407
2.98
407
2.09
405
notakertwo views2.87
394
2.31
407
2.01
377
3.03
409
2.60
410
2.94
395
1.82
400
3.43
398
3.06
394
2.89
391
4.21
402
6.15
408
2.71
393
3.42
396
2.90
384
2.67
410
1.18
407
3.00
412
1.67
408
3.13
408
2.26
407
SPstereotwo views24.33
421
4.45
414
7.15
403
4.44
415
4.17
414
45.69
428
77.93
434
63.66
435
33.40
433
27.58
430
26.62
423
39.42
433
33.37
433
42.68
435
50.66
429
4.01
413
3.77
416
6.06
418
4.73
415
3.17
409
3.55
414
UNDER WATER-64two views3.72
401
2.07
404
4.57
397
3.30
412
2.52
408
5.61
408
2.63
408
3.67
402
12.27
409
3.09
398
2.66
379
5.99
407
4.74
407
3.93
402
3.57
388
2.54
408
1.24
408
2.65
407
1.48
406
3.21
410
2.62
410
UNDER WATERtwo views3.63
400
2.12
405
4.11
395
3.17
410
2.51
407
3.77
402
2.45
406
3.53
401
13.66
413
2.98
396
2.92
384
5.75
404
4.13
405
3.85
401
3.75
390
2.84
411
1.11
406
2.71
409
1.41
405
3.26
411
2.50
409
JetRedtwo views5.38
409
6.17
415
12.68
412
2.38
402
2.85
411
12.60
416
11.17
414
4.60
406
3.74
397
3.87
405
3.85
396
4.83
398
4.13
405
6.81
410
12.18
411
2.18
403
2.95
414
2.19
400
1.98
409
3.49
412
3.01
412
MADNet++two views4.18
402
2.72
413
4.00
392
3.80
414
3.44
413
4.72
405
4.05
411
4.01
404
3.74
397
4.52
407
5.14
409
4.20
395
4.89
408
7.04
411
6.39
401
3.79
412
3.70
415
3.27
414
2.70
413
3.68
413
3.74
415
HanzoNettwo views6.97
412
2.57
409
4.66
398
3.29
411
2.96
412
3.75
401
2.35
405
5.08
411
7.11
406
14.46
421
13.06
414
17.69
418
22.95
424
13.72
416
6.61
402
4.36
414
1.96
411
3.14
413
2.59
412
3.88
414
3.19
413
tttwo views6.21
410
0.22
97
5.88
401
3.55
413
2.07
402
11.25
415
19.19
416
11.84
416
5.47
404
2.71
389
2.18
365
4.87
399
6.25
409
3.71
398
7.09
403
8.31
418
11.17
422
4.91
415
5.39
417
5.72
415
2.42
408
DGTPSM_ROBtwo views12.12
414
8.03
416
21.12
414
8.97
417
16.81
416
10.68
413
30.77
420
9.14
414
15.23
415
6.55
410
15.49
421
9.02
411
15.13
414
9.26
413
21.71
418
4.58
415
8.60
417
5.07
416
9.26
418
5.88
416
11.06
418
DPSMNet_ROBtwo views12.13
415
8.03
416
21.13
415
9.02
418
16.82
417
10.68
413
30.78
421
9.15
415
15.24
416
6.56
411
15.50
422
9.02
411
15.13
414
9.28
414
21.71
418
4.59
416
8.60
417
5.08
417
9.26
418
5.89
417
11.06
418
DPSM_ROBtwo views17.80
417
18.60
419
24.24
421
20.89
420
19.49
418
25.83
420
36.10
423
21.62
424
16.41
418
13.46
416
14.26
419
19.11
421
16.15
417
20.74
418
25.59
421
9.37
420
9.23
420
9.47
420
9.81
420
13.47
418
12.09
421
DPSMtwo views17.80
417
18.60
419
24.24
421
20.89
420
19.49
418
25.83
420
36.10
423
21.62
424
16.41
418
13.46
416
14.26
419
19.11
421
16.15
417
20.74
418
25.59
421
9.37
420
9.23
420
9.47
420
9.81
420
13.47
418
12.09
421
PMLtwo views40.49
435
30.31
424
12.46
411
7.19
416
14.30
415
91.44
435
212.44
436
7.73
412
23.24
425
74.44
435
185.05
436
49.81
435
25.78
425
21.34
420
12.84
412
8.71
419
2.93
413
8.43
419
3.24
414
13.77
420
4.45
416
MyStereo03two views35.83
425
37.48
430
48.64
429
42.37
428
39.41
427
51.98
430
72.91
430
43.07
429
33.07
430
27.20
427
28.81
428
38.36
427
32.60
428
41.58
429
51.47
431
18.74
427
18.61
427
19.07
422
19.77
424
27.10
421
24.35
424
MyStereo02two views35.83
425
37.48
430
48.64
429
42.37
428
39.41
427
51.98
430
72.91
430
43.07
429
33.07
430
27.20
427
28.81
428
38.36
427
32.60
428
41.58
429
51.47
431
18.74
427
18.61
427
19.07
422
19.77
424
27.10
421
24.35
424
MyStereotwo views35.83
425
37.48
430
48.64
429
42.37
428
39.41
427
51.98
430
72.91
430
43.07
429
33.07
430
27.20
427
28.81
428
38.36
427
32.60
428
41.58
429
51.47
431
18.74
427
18.61
427
19.07
422
19.77
424
27.10
421
24.35
424
CasAABBNettwo views35.77
424
37.38
428
48.59
428
42.20
426
39.23
425
51.95
429
72.92
433
43.36
432
33.03
429
26.93
424
28.31
425
38.43
430
32.32
427
41.58
429
51.50
434
18.71
426
18.58
425
19.11
426
19.75
423
27.11
424
24.33
423
Selective-RAFT-Errortwo views35.87
428
37.42
429
48.73
432
42.24
427
39.28
426
52.00
433
72.87
429
43.41
433
32.95
428
26.97
425
28.72
426
38.71
432
33.15
432
41.59
433
51.42
430
18.77
430
18.60
426
19.14
427
19.78
427
27.19
425
24.42
427
LSM0two views38.96
434
37.52
433
48.37
427
43.79
431
91.31
435
52.31
434
72.38
428
43.71
434
32.75
427
27.16
426
28.73
427
38.51
431
32.63
431
41.75
434
51.59
435
18.85
431
18.43
424
19.09
425
19.60
422
27.21
426
33.44
429
xxxxx1two views36.77
429
19.69
421
24.00
418
62.46
432
66.77
432
27.30
423
39.89
425
20.40
419
18.80
421
14.18
418
13.11
415
17.29
415
17.30
419
21.62
421
27.81
423
13.61
422
18.98
430
111.36
433
133.25
433
28.84
427
38.64
430
tt_lltwo views36.77
429
19.69
421
24.00
418
62.46
432
66.77
432
27.30
423
39.89
425
20.40
419
18.80
421
14.18
418
13.11
415
17.29
415
17.30
419
21.62
421
27.81
423
13.61
422
18.98
430
111.36
433
133.25
433
28.84
427
38.64
430
fftwo views36.77
429
19.69
421
24.00
418
62.46
432
66.77
432
27.30
423
39.89
425
20.40
419
18.80
421
14.18
418
13.11
415
17.29
415
17.30
419
21.62
421
27.81
423
13.61
422
18.98
430
111.36
433
133.25
433
28.84
427
38.64
430
LRCNet_RVCtwo views21.27
420
31.14
425
21.46
416
28.97
423
23.77
421
3.11
396
0.62
305
20.94
422
1.64
366
25.57
423
28.13
424
21.96
423
14.74
413
21.99
424
16.44
415
29.16
432
14.92
423
33.57
428
31.28
428
29.67
430
26.33
428
HaxPigtwo views31.93
422
37.19
427
34.22
423
24.41
422
24.94
422
18.53
418
20.18
417
21.15
423
28.84
426
35.74
432
38.86
432
26.18
424
28.75
426
33.85
426
34.15
426
35.89
433
38.80
433
37.79
429
40.52
429
39.33
431
39.33
433
AVERAGE_ROBtwo views37.53
433
40.05
434
40.01
425
34.74
425
33.76
424
28.46
426
25.14
419
32.31
428
34.08
435
41.20
433
40.52
433
34.51
426
34.78
435
39.11
427
37.48
428
42.68
434
43.32
434
43.80
430
42.99
430
40.42
432
41.31
434
MEDIAN_ROBtwo views37.35
432
40.72
435
40.37
426
32.26
424
31.80
423
27.29
422
25.02
418
29.47
427
33.43
434
41.99
434
41.60
434
33.48
425
34.37
434
39.66
428
36.94
427
43.49
435
43.96
435
44.07
431
43.35
431
41.32
433
42.43
435
DLNR_Zeroshot_testpermissivetwo views20.12
419
36.36
426
38.38
424
170.13
435
62.28
431
0.22
4
0.20
1
13.43
418
0.40
29
0.45
40
0.66
73
0.42
46
0.21
5
0.64
133
0.32
64
5.57
417
0.10
8
0.15
41
0.11
15
72.31
434
0.13
31
Anonymous_1two views33.12
423
18.23
418
23.86
417
20.53
419
21.18
420
25.45
419
35.84
422
22.44
426
15.68
417
13.41
415
13.70
418
18.00
419
15.15
416
20.31
417
24.47
420
14.56
425
8.84
419
66.24
432
117.79
432
155.41
435
11.40
420
test_example2two views176.82
436
204.75
436
198.54
436
188.58
436
191.23
436
151.28
436
169.77
435
97.63
436
125.81
436
179.94
436
183.74
435
158.20
436
139.14
436
192.16
436
198.12
436
203.48
436
236.37
436
163.71
436
173.22
436
217.79
436
162.95
436