This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysorted bysort by
LoS_RVCtwo views0.28
6
0.17
8
0.29
9
0.33
8
0.32
244
0.43
121
0.34
116
0.42
4
0.34
5
0.33
11
0.51
36
0.29
4
0.38
89
0.37
5
0.28
29
0.11
1
0.10
8
0.11
1
0.08
1
0.11
1
0.26
262
CAStwo views0.37
60
0.13
1
0.27
7
1.34
387
0.31
227
0.46
131
0.38
170
0.50
11
0.48
56
0.35
15
0.52
39
0.24
1
0.19
3
0.30
1
0.28
29
1.03
388
0.08
1
0.12
2
0.08
1
0.12
2
0.28
279
LoStwo views0.30
12
0.16
4
0.32
12
0.30
3
0.19
8
0.32
60
0.29
57
0.54
18
0.73
127
0.35
15
0.52
39
0.42
45
0.29
41
0.48
41
0.29
37
0.15
67
0.11
39
0.13
8
0.09
4
0.12
2
0.12
10
MC-Stereotwo views0.29
9
0.18
14
0.35
19
0.40
86
0.21
25
0.26
18
0.26
40
0.53
16
0.40
29
0.38
18
0.61
61
0.41
43
0.31
53
0.57
69
0.27
23
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
RCA-Stereotwo views0.36
42
0.18
14
0.37
27
0.38
44
0.23
56
0.31
51
0.33
108
0.70
92
1.25
326
0.45
39
0.65
69
0.46
64
0.43
119
0.40
14
0.29
37
0.14
18
0.10
8
0.14
13
0.12
26
0.12
2
0.12
10
DCANet-4two views0.38
76
0.22
97
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.69
82
0.97
244
0.70
123
0.79
113
0.40
39
0.46
137
0.46
29
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
ffftwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
RAFT-RH_RVCtwo views0.57
239
0.18
14
0.44
79
0.38
44
0.23
56
0.56
169
0.24
23
0.61
34
0.73
127
1.18
328
3.90
397
0.55
90
0.40
107
0.67
155
0.38
119
0.14
18
0.11
39
0.20
176
0.15
90
0.12
2
0.14
49
AnonymousMtwo views0.42
123
0.86
368
0.31
10
0.35
12
0.23
56
0.30
39
0.37
157
0.56
24
0.44
43
0.72
133
0.50
31
0.47
68
0.29
41
0.42
18
0.35
89
0.16
99
0.12
86
1.51
386
0.32
330
0.12
2
0.11
3
raftrobusttwo views0.35
36
0.20
54
0.39
36
0.43
166
0.29
198
0.31
51
0.25
30
0.73
122
0.66
96
0.59
69
0.56
51
0.44
54
0.45
131
0.55
61
0.31
57
0.16
99
0.12
86
0.14
13
0.12
26
0.12
2
0.14
49
csctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
cscssctwo views0.39
88
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.73
122
1.08
288
0.70
123
0.79
113
0.44
54
0.62
199
0.47
34
0.37
106
0.14
18
0.10
8
0.14
13
0.11
15
0.12
2
0.15
78
CREStereotwo views0.28
6
0.16
4
0.25
1
0.28
1
0.17
2
0.38
91
0.25
30
0.52
13
0.76
137
0.43
37
0.51
36
0.32
13
0.28
27
0.39
8
0.27
23
0.16
99
0.11
39
0.12
2
0.09
4
0.12
2
0.12
10
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
MSKI-zero shottwo views0.33
30
0.19
33
0.36
25
0.41
104
0.22
30
0.32
60
0.22
11
0.65
53
0.45
47
0.52
53
0.64
67
0.60
126
0.19
3
0.78
215
0.27
23
0.14
18
0.11
39
0.14
13
0.10
10
0.13
14
0.13
31
AEACVtwo views0.28
6
0.18
14
0.34
13
0.36
27
0.45
323
0.27
25
0.27
42
0.41
2
0.39
21
0.31
7
0.46
22
0.31
6
0.36
78
0.38
7
0.25
3
0.14
18
0.11
39
0.15
41
0.13
49
0.13
14
0.13
31
Any-RAFTtwo views0.36
42
0.17
8
0.31
10
0.35
12
0.21
25
0.51
143
0.21
5
0.93
188
0.75
134
0.56
63
0.73
85
0.66
161
0.29
41
0.48
41
0.25
3
0.15
67
0.10
8
0.13
8
0.10
10
0.13
14
0.13
31
RAFT-Testtwo views0.35
36
0.19
33
0.42
58
0.39
60
0.24
77
0.50
138
0.23
20
0.74
128
0.44
43
0.62
77
0.85
145
0.64
145
0.28
27
0.48
41
0.30
48
0.14
18
0.11
39
0.14
13
0.11
15
0.13
14
0.13
31
CEStwo views0.29
9
0.15
2
0.25
1
0.31
4
0.71
368
0.36
78
0.27
42
0.51
12
0.47
54
0.34
13
0.48
27
0.27
2
0.23
7
0.40
14
0.24
2
0.13
9
0.11
39
0.12
2
0.08
1
0.13
14
0.32
298
Selective-IGEVtwo views0.25
1
0.18
14
0.37
27
0.37
35
0.20
18
0.27
25
0.25
30
0.59
29
0.25
1
0.27
2
0.26
1
0.34
21
0.18
1
0.62
116
0.23
1
0.12
4
0.10
8
0.14
13
0.11
15
0.13
14
0.11
3
EGLCR-Stereotwo views0.27
2
0.17
8
0.36
25
0.35
12
0.21
25
0.37
86
0.20
1
0.58
27
0.37
14
0.29
4
0.28
4
0.42
45
0.18
1
0.47
34
0.27
23
0.14
18
0.10
8
0.16
57
0.14
69
0.13
14
0.12
10
ProNettwo views0.30
12
0.22
97
0.41
50
0.36
27
0.25
101
0.33
66
0.42
218
0.62
36
0.41
34
0.33
11
0.31
6
0.32
13
0.28
27
0.60
88
0.28
29
0.13
9
0.11
39
0.16
57
0.13
49
0.13
14
0.14
49
ADStereo(finetuned)two views0.39
88
0.18
14
0.58
193
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.68
236
0.46
29
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
CIPLGtwo views0.42
123
0.23
120
0.71
251
0.45
199
0.33
255
0.51
143
0.33
108
0.68
71
0.68
103
0.84
194
0.96
188
0.47
68
0.33
64
0.56
65
0.52
200
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
IPLGR_Ctwo views0.42
123
0.23
120
0.71
251
0.46
222
0.33
255
0.51
143
0.34
116
0.69
82
0.69
108
0.84
194
0.92
175
0.46
64
0.33
64
0.53
53
0.53
209
0.17
125
0.12
86
0.16
57
0.14
69
0.13
14
0.16
98
test-3two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.72
133
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
test_1two views0.35
36
0.17
8
0.48
115
0.40
86
0.22
30
0.42
117
0.22
11
0.66
55
0.80
153
0.70
123
0.45
20
0.63
138
0.29
41
0.45
25
0.32
63
0.13
9
0.09
2
0.17
85
0.13
49
0.13
14
0.11
3
ACREtwo views0.42
123
0.23
120
0.73
261
0.45
199
0.33
255
0.50
138
0.33
108
0.68
71
0.70
110
0.82
183
0.92
175
0.46
64
0.32
59
0.53
53
0.52
200
0.17
125
0.12
86
0.15
41
0.14
69
0.13
14
0.16
98
TRStereotwo views0.39
88
0.32
252
0.64
220
0.49
257
0.41
299
0.30
39
0.30
69
0.97
202
0.63
84
0.53
59
0.43
18
0.52
82
0.26
17
0.77
207
0.29
37
0.18
156
0.12
86
0.19
147
0.19
207
0.13
14
0.13
31
XX-TBDtwo views0.32
26
0.53
324
0.26
4
0.53
301
0.21
25
0.38
91
0.24
23
0.41
2
0.77
139
0.55
61
0.70
81
0.31
6
0.26
17
0.33
3
0.28
29
0.16
99
0.10
8
0.12
2
0.09
4
0.13
14
0.11
3
DCANettwo views0.38
76
0.18
14
0.46
91
0.35
12
0.19
8
0.30
39
0.30
69
0.72
109
0.96
239
0.72
133
0.77
101
0.45
61
0.56
174
0.47
34
0.36
98
0.14
18
0.10
8
0.14
13
0.11
15
0.13
14
0.15
78
111two views0.42
123
0.18
14
0.46
91
0.35
12
0.19
8
0.52
150
0.28
50
0.76
135
1.16
311
0.52
53
0.92
175
0.65
149
0.51
155
0.65
138
0.37
106
0.15
67
0.10
8
0.14
13
0.12
26
0.13
14
0.16
98
RAFT-Stereo + iAFFtwo views0.37
60
0.18
14
0.45
84
0.36
27
0.19
8
0.33
66
0.28
50
0.67
66
0.77
139
0.72
133
0.99
207
0.56
96
0.39
102
0.44
22
0.31
57
0.11
1
0.09
2
0.15
41
0.14
69
0.13
14
0.11
3
CFNet-RSSMtwo views0.35
36
0.18
14
0.47
102
0.39
60
0.22
30
0.35
74
0.23
20
0.78
143
0.86
186
0.67
109
0.54
44
0.56
96
0.28
27
0.49
47
0.28
29
0.14
18
0.10
8
0.14
13
0.12
26
0.13
14
0.12
10
Gwc-CoAtRStwo views0.35
36
0.18
14
0.46
91
0.39
60
0.23
56
0.34
72
0.22
11
0.74
128
0.77
139
0.62
77
0.60
58
0.58
114
0.29
41
0.47
34
0.29
37
0.14
18
0.11
39
0.14
13
0.12
26
0.13
14
0.13
31
PMTNettwo views0.33
30
0.17
8
0.26
4
0.29
2
0.18
5
0.44
127
0.22
11
0.57
26
0.66
96
0.46
43
0.54
44
0.38
35
0.34
70
0.50
49
0.25
3
0.75
377
0.10
8
0.12
2
0.09
4
0.13
14
0.12
10
IGEVStereo-DCAtwo views0.30
12
0.24
139
0.42
58
0.36
27
0.27
158
0.38
91
0.34
116
0.66
55
0.35
6
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.12
26
0.14
36
0.16
98
rrrtwo views0.31
23
0.24
139
0.56
184
0.36
27
0.27
158
0.38
91
0.31
87
0.56
24
0.44
43
0.39
21
0.31
6
0.35
25
0.27
22
0.62
116
0.25
3
0.16
99
0.12
86
0.16
57
0.13
49
0.14
36
0.14
49
IGEV_Zeroshot_testtwo views0.36
42
0.19
33
0.71
251
0.41
104
0.29
198
0.30
39
0.25
30
0.86
165
0.40
29
0.64
94
0.57
52
0.56
96
0.25
12
0.56
65
0.29
37
0.15
67
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MIF-Stereotwo views0.27
2
0.18
14
0.40
45
0.40
86
0.28
179
0.30
39
0.28
50
0.40
1
0.33
4
0.30
6
0.46
22
0.27
2
0.25
12
0.48
41
0.35
89
0.17
125
0.13
141
0.14
13
0.12
26
0.14
36
0.13
31
MIM_Stereotwo views0.39
88
0.18
14
0.59
201
0.38
44
0.25
101
0.27
25
0.24
23
0.72
109
0.56
67
0.72
133
1.00
211
0.62
134
0.29
41
0.67
155
0.39
127
0.13
9
0.14
172
0.17
85
0.16
115
0.14
36
0.12
10
HHtwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
HanStereotwo views0.37
60
0.22
97
0.49
122
0.41
104
0.26
129
0.36
78
0.30
69
0.87
166
0.41
34
0.45
39
0.59
56
0.78
213
0.43
119
0.77
207
0.26
8
0.15
67
0.11
39
0.15
41
0.14
69
0.14
36
0.14
49
DCREtwo views0.38
76
0.19
33
0.47
102
0.45
199
0.33
255
0.45
130
0.40
193
0.66
55
0.53
65
0.49
48
0.95
184
0.57
99
0.39
102
0.53
53
0.32
63
0.14
18
0.13
141
0.15
41
0.14
69
0.14
36
0.15
78
IPLGtwo views0.40
102
0.21
74
0.64
220
0.41
104
0.25
101
0.54
159
0.27
42
0.77
140
0.68
103
0.85
204
0.82
131
0.33
18
0.32
59
0.64
132
0.49
192
0.13
9
0.11
39
0.16
57
0.14
69
0.14
36
0.14
49
MIPNettwo views0.39
88
0.22
97
0.66
227
0.40
86
0.25
101
0.53
153
0.29
57
0.78
143
0.74
132
0.68
116
0.60
58
0.40
39
0.48
144
0.45
25
0.39
127
0.14
18
0.11
39
0.16
57
0.13
49
0.14
36
0.14
49
CrosDoStereotwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
368
0.69
82
0.87
190
0.94
253
1.36
309
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
STrans-v2two views0.47
161
0.21
74
0.49
122
0.41
104
0.25
101
0.54
159
0.49
258
1.16
262
0.82
170
0.67
109
1.05
234
0.71
173
0.67
228
0.74
187
0.34
82
0.15
67
0.11
39
0.17
85
0.15
90
0.14
36
0.14
49
TransformOpticalFlowtwo views0.46
152
0.21
74
0.49
122
0.42
129
0.24
77
0.36
78
0.46
238
1.04
222
0.84
176
0.67
109
1.14
264
0.73
192
0.56
174
0.78
215
0.33
73
0.15
67
0.10
8
0.17
85
0.15
90
0.14
36
0.15
78
ASMatchtwo views0.48
170
0.20
54
0.47
102
0.39
60
0.28
179
0.37
86
0.26
40
0.76
135
0.72
118
0.77
163
2.29
366
0.61
128
0.51
155
0.64
132
0.39
127
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.22
223
DeepStereo_LLtwo views0.51
200
0.19
33
0.46
91
0.39
60
0.24
77
0.39
96
1.14
368
0.69
82
0.87
190
0.94
253
1.36
309
0.62
134
0.75
264
0.68
163
0.46
173
0.15
67
0.12
86
0.17
85
0.18
183
0.14
36
0.16
98
DEmStereotwo views0.49
179
0.18
14
0.53
165
0.39
60
0.26
129
0.57
179
0.33
108
0.65
53
0.75
134
0.90
238
1.65
342
0.57
99
1.02
327
0.63
125
0.44
164
0.14
18
0.12
86
0.16
57
0.16
115
0.14
36
0.17
134
DRafttwo views0.49
179
0.18
14
0.50
131
0.38
44
0.25
101
0.57
179
0.39
183
0.67
66
0.86
186
1.02
288
1.75
350
0.50
76
0.79
279
0.65
138
0.42
155
0.14
18
0.11
39
0.16
57
0.16
115
0.14
36
0.17
134
RAFT-345two views0.41
116
0.19
33
0.42
58
0.39
60
0.23
56
0.32
60
0.25
30
0.62
36
0.56
67
0.74
147
1.77
351
0.44
54
0.35
73
0.67
155
0.37
106
0.14
18
0.11
39
0.18
116
0.14
69
0.14
36
0.13
31
CREStereo++_RVCtwo views0.32
26
0.16
4
0.25
1
0.32
6
0.24
77
0.27
25
0.22
11
0.48
8
0.89
204
0.47
45
0.80
123
0.29
4
0.25
12
0.37
5
0.34
82
0.14
18
0.09
2
0.13
8
0.52
374
0.14
36
0.10
1
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
s12784htwo views0.37
60
0.15
2
0.26
4
0.34
9
0.15
1
0.80
263
0.29
57
0.83
158
0.87
190
0.58
68
0.58
54
0.43
51
0.41
111
0.59
78
0.35
89
0.12
4
0.10
8
0.14
13
0.09
4
0.14
36
0.10
1
raft+_RVCtwo views0.38
76
0.20
54
0.38
33
0.39
60
0.27
158
0.44
127
0.35
138
0.81
152
0.90
208
0.52
53
0.78
109
0.50
76
0.29
41
0.56
65
0.41
152
0.15
67
0.12
86
0.17
85
0.15
90
0.14
36
0.13
31
TANstereotwo views0.31
23
0.16
4
0.34
13
0.31
4
0.17
2
0.55
164
0.23
20
0.46
6
0.56
67
0.60
71
0.69
79
0.37
32
0.26
17
0.36
4
0.28
29
0.16
99
0.16
211
0.13
8
0.10
10
0.14
36
0.15
78
XX-Stereotwo views0.38
76
0.18
14
0.52
158
0.58
327
0.38
282
0.39
96
0.20
1
0.62
36
0.31
2
0.47
45
1.29
299
0.72
188
0.25
12
0.59
78
0.28
29
0.16
99
0.11
39
0.17
85
0.16
115
0.14
36
0.11
3
test_xeample3two views0.31
23
0.23
120
0.56
184
0.36
27
0.26
129
0.35
74
0.32
99
0.60
31
0.38
17
0.44
38
0.32
9
0.33
18
0.28
27
0.66
146
0.27
23
0.14
18
0.12
86
0.16
57
0.12
26
0.14
36
0.14
49
ARAFTtwo views0.48
170
0.25
167
0.82
281
0.42
129
0.25
101
0.56
169
0.54
279
0.82
156
0.82
170
0.92
246
0.75
98
0.75
200
0.48
144
0.89
247
0.37
106
0.15
67
0.12
86
0.23
243
0.22
261
0.14
36
0.14
49
AFF-stereotwo views0.39
88
0.20
54
0.42
58
0.37
35
0.22
30
0.27
25
0.31
87
0.67
66
0.72
118
0.66
102
1.12
256
0.75
200
0.38
89
0.57
69
0.35
89
0.11
1
0.09
2
0.16
57
0.16
115
0.14
36
0.12
10
EAI-Stereotwo views0.36
42
0.21
74
0.46
91
0.40
86
0.22
30
0.33
66
0.36
145
1.22
285
0.32
3
0.52
53
0.75
98
0.35
25
0.28
27
0.65
138
0.30
48
0.14
18
0.11
39
0.14
13
0.14
69
0.14
36
0.13
31
R-Stereo Traintwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
RAFT-Stereopermissivetwo views0.40
102
0.19
33
0.47
102
0.43
166
0.27
158
0.41
110
0.31
87
0.74
128
0.38
17
0.90
238
1.28
295
0.58
114
0.35
73
0.43
20
0.35
89
0.15
67
0.13
141
0.14
13
0.12
26
0.14
36
0.14
49
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
MLCVtwo views0.49
179
0.26
195
0.73
261
0.38
44
0.18
5
0.64
208
0.33
108
0.84
162
0.89
204
0.96
270
1.12
256
0.72
188
0.45
131
1.00
288
0.59
227
0.14
18
0.10
8
0.14
13
0.11
15
0.14
36
0.14
49
ttatwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.15
66
0.16
98
qqq1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
fff1two views0.51
200
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.36
98
0.19
191
0.16
211
0.14
13
0.12
26
0.15
66
0.16
98
AE-Stereotwo views0.36
42
0.21
74
0.47
102
0.49
257
0.31
227
0.50
138
0.34
116
0.72
109
0.73
127
0.34
13
0.55
49
0.52
82
0.28
27
0.48
41
0.31
57
0.13
9
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
ff7two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
fffftwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
11ttwo views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
StereoIMtwo views0.27
2
0.19
33
0.39
36
0.37
35
0.26
129
0.28
31
0.28
50
0.45
5
0.37
14
0.27
2
0.27
2
0.40
39
0.27
22
0.40
14
0.30
48
0.16
99
0.14
172
0.16
57
0.13
49
0.15
66
0.12
10
anonymousdsptwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.31
51
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
TestStereo1two views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
ccc-4two views0.30
12
0.22
97
0.42
58
0.37
35
0.26
129
0.31
51
0.34
116
0.66
55
0.35
6
0.39
21
0.33
10
0.31
6
0.28
27
0.61
94
0.26
8
0.14
18
0.11
39
0.17
85
0.12
26
0.15
66
0.16
98
raft_robusttwo views0.41
116
0.24
139
0.39
36
0.43
166
0.22
30
0.40
101
0.33
108
0.80
150
0.98
248
0.80
178
0.88
158
0.41
43
0.32
59
0.89
247
0.30
48
0.14
18
0.12
86
0.16
57
0.18
183
0.15
66
0.13
31
RAFT+CT+SAtwo views0.40
102
0.24
139
0.40
45
0.53
301
0.27
158
0.28
31
0.45
235
0.79
148
0.81
162
0.51
51
0.90
163
0.42
45
0.39
102
0.81
223
0.33
73
0.15
67
0.11
39
0.18
116
0.18
183
0.15
66
0.15
78
SA-5Ktwo views0.44
141
0.24
139
0.45
84
0.52
294
0.25
101
0.35
74
0.40
193
0.81
152
0.94
228
0.70
123
0.96
188
0.48
71
0.45
131
0.94
262
0.33
73
0.16
99
0.13
141
0.18
116
0.16
115
0.15
66
0.14
49
Sa-1000two views0.49
179
0.25
167
0.45
84
0.46
222
0.25
101
0.64
208
0.34
116
0.85
163
0.95
232
0.85
204
1.51
334
0.55
90
0.44
124
0.94
262
0.31
57
0.16
99
0.12
86
0.21
217
0.20
226
0.15
66
0.14
49
SAtwo views0.45
147
0.26
195
0.50
131
0.47
240
0.24
77
0.46
131
0.36
145
0.79
148
1.00
255
0.61
75
1.04
231
0.50
76
0.50
150
0.98
279
0.33
73
0.16
99
0.13
141
0.21
217
0.19
207
0.15
66
0.14
49
test_4two views0.37
60
0.19
33
0.34
13
0.45
199
0.26
129
0.20
2
0.34
116
0.58
27
0.42
38
0.60
71
1.45
327
0.43
51
0.26
17
0.67
155
0.29
37
0.12
4
0.10
8
0.17
85
0.19
207
0.15
66
0.12
10
IGEV-Stereopermissivetwo views0.30
12
0.22
97
0.41
50
0.38
44
0.26
129
0.30
39
0.35
138
0.68
71
0.36
11
0.40
29
0.33
10
0.32
13
0.28
27
0.62
116
0.26
8
0.14
18
0.10
8
0.17
85
0.12
26
0.15
66
0.16
98
Gangwei Xu, Xianqi Wang, Xiaohuan Ding, Xin Yang: Iterative Geometry Encoding Volume for Stereo Matching. CVPR 2023
iRaft-Stereo_5wtwo views0.46
152
0.22
97
0.53
165
0.43
166
0.30
217
0.30
39
0.53
273
0.66
55
0.71
116
0.62
77
0.89
161
1.01
275
0.67
228
0.76
200
0.67
245
0.13
9
0.12
86
0.17
85
0.15
90
0.15
66
0.17
134
iRaft-Stereo_20wtwo views0.42
123
0.20
54
0.63
216
0.39
60
0.27
158
0.33
66
0.25
30
1.76
376
0.37
14
0.73
140
0.53
41
0.63
138
0.42
116
0.86
238
0.29
37
0.14
18
0.11
39
0.14
13
0.13
49
0.15
66
0.15
78
GMOStereotwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
error versiontwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
test-vtwo views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
test_3two views0.37
60
0.19
33
0.50
131
0.45
199
0.24
77
0.47
133
0.36
145
0.69
82
0.84
176
0.66
102
0.46
22
0.68
168
0.25
12
0.45
25
0.32
63
0.12
4
0.10
8
0.18
116
0.16
115
0.15
66
0.12
10
HHNettwo views0.42
123
0.19
33
0.43
74
0.35
12
0.38
282
0.33
66
0.33
108
0.71
99
0.78
142
0.87
216
1.30
301
0.52
82
0.36
78
0.53
53
0.37
106
0.16
99
0.11
39
0.19
147
0.15
90
0.15
66
0.25
257
IIG-Stereotwo views0.45
147
0.22
97
0.48
115
0.51
280
0.26
129
0.43
121
0.21
5
0.73
122
0.80
153
0.84
194
0.95
184
0.82
227
0.46
137
0.95
267
0.37
106
0.16
99
0.12
86
0.19
147
0.15
90
0.15
66
0.12
10
FTStereotwo views0.56
235
0.21
74
0.39
36
0.42
129
0.25
101
0.39
96
0.73
329
0.69
82
0.45
47
1.09
316
3.23
386
0.69
170
0.71
248
0.55
61
0.34
82
0.15
67
0.13
141
0.19
147
0.17
157
0.15
66
0.32
298
THIR-Stereotwo views0.51
200
0.19
33
0.47
102
0.39
60
0.23
56
0.74
245
0.64
310
0.68
71
0.88
200
1.03
291
1.40
315
0.71
173
0.75
264
0.64
132
0.43
157
0.16
99
0.11
39
0.17
85
0.18
183
0.15
66
0.17
134
GrayStereotwo views0.49
179
0.20
54
0.44
79
0.47
240
0.29
198
0.51
143
0.62
304
0.71
99
0.66
96
1.04
297
1.46
328
0.77
211
0.73
259
0.58
73
0.35
89
0.15
67
0.12
86
0.17
85
0.17
157
0.15
66
0.30
288
test-2two views0.38
76
0.19
33
0.42
58
0.43
166
0.24
77
0.40
101
0.39
183
0.55
19
0.64
88
0.89
231
0.84
138
0.65
149
0.37
82
0.39
8
0.29
37
0.14
18
0.12
86
0.20
176
0.18
183
0.15
66
0.12
10
cross-rafttwo views0.34
35
0.20
54
0.38
33
0.45
199
0.24
77
0.32
60
0.35
138
0.77
140
0.42
38
0.62
77
0.77
101
0.58
114
0.27
22
0.46
29
0.31
57
0.12
4
0.10
8
0.15
41
0.13
49
0.15
66
0.12
10
test-1two views0.37
60
0.20
54
0.76
268
0.47
240
0.27
158
0.44
127
0.36
145
0.63
42
0.65
93
0.49
48
0.67
77
0.54
88
0.35
73
0.42
18
0.30
48
0.14
18
0.12
86
0.16
57
0.14
69
0.15
66
0.18
156
cf-rtwo views0.49
179
0.24
139
0.49
122
0.40
86
0.23
56
0.58
183
0.38
170
0.92
186
0.87
190
0.77
163
1.06
240
0.98
266
0.67
228
0.59
78
0.61
232
0.21
225
0.14
172
0.17
85
0.19
207
0.15
66
0.16
98
DIP-Stereotwo views0.40
102
0.22
97
0.58
193
0.42
129
0.29
198
0.62
195
0.27
42
0.87
166
0.42
38
0.65
98
0.86
149
0.52
82
0.35
73
0.67
155
0.43
157
0.15
67
0.13
141
0.17
85
0.14
69
0.15
66
0.17
134
Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang, Jiankun Li: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow. cvpr2022
RASNettwo views0.57
239
0.24
139
0.61
207
0.39
60
0.23
56
0.71
237
0.40
193
1.02
216
0.93
221
0.77
163
1.05
234
1.05
286
0.98
325
0.99
283
1.03
315
0.16
99
0.14
172
0.14
13
0.17
157
0.15
66
0.14
49
iResNet_ROBtwo views0.55
226
0.24
139
0.61
207
0.38
44
0.22
30
0.66
219
0.30
69
1.59
364
1.33
340
0.94
253
1.05
234
0.81
225
0.69
238
0.84
234
0.46
173
0.17
125
0.12
86
0.14
13
0.09
4
0.15
66
0.20
192
pmcnntwo views1.27
359
0.31
250
1.14
328
0.41
104
0.23
56
0.97
299
0.71
320
1.23
288
1.32
338
1.83
368
2.34
368
11.25
414
0.89
309
1.04
295
0.96
303
0.15
67
0.12
86
0.12
2
0.10
10
0.15
66
0.16
98
CoDeXtwo views0.48
170
0.21
74
0.53
165
0.43
166
0.25
101
0.74
245
0.38
170
1.36
329
0.82
170
0.84
194
0.96
188
0.63
138
0.57
183
0.63
125
0.40
147
0.17
125
0.13
141
0.17
85
0.15
90
0.16
103
0.15
78
cc1two views0.38
76
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
314
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
DualNettwo views0.53
216
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
302
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
1.46
349
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ffmtwo views0.47
161
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
302
0.76
155
0.98
198
0.71
173
0.55
166
0.61
94
0.26
8
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
ff1two views0.56
235
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
0.72
109
1.13
302
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
349
0.17
125
0.11
39
0.25
267
0.21
243
0.16
103
0.17
134
tt1two views0.37
60
0.25
167
0.35
19
0.43
166
0.23
56
0.52
150
0.37
157
0.72
109
1.13
302
0.42
32
0.46
22
0.35
25
0.44
124
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.16
103
0.17
134
EKT-Stereotwo views0.36
42
0.24
139
0.44
79
0.44
187
0.30
217
0.37
86
0.30
69
0.72
109
0.68
103
0.47
45
0.63
64
0.49
75
0.28
27
0.59
78
0.34
82
0.19
191
0.14
172
0.18
116
0.15
90
0.16
103
0.18
156
4D-IteraStereotwo views0.33
30
0.19
33
0.43
74
0.40
86
0.24
77
0.32
60
0.27
42
0.59
29
0.72
118
0.66
102
0.53
41
0.42
45
0.22
6
0.46
29
0.30
48
0.14
18
0.09
2
0.20
176
0.16
115
0.16
103
0.12
10
anonymousdsp2two views0.37
60
0.21
74
0.49
122
0.38
44
0.24
77
0.48
137
0.31
87
0.91
178
0.68
103
0.57
65
0.51
36
0.51
79
0.34
70
0.59
78
0.33
73
0.14
18
0.11
39
0.14
13
0.10
10
0.16
103
0.16
98
anonymousatwo views0.51
200
0.21
74
0.47
102
0.39
60
0.25
101
0.89
288
0.36
145
0.78
143
0.63
84
0.88
224
1.54
335
1.09
301
0.67
228
0.53
53
0.46
173
0.17
125
0.14
172
0.19
147
0.21
243
0.16
103
0.16
98
Selective-RAFTtwo views0.36
42
0.23
120
0.54
177
0.45
199
0.22
30
0.64
208
0.27
42
0.62
36
0.65
93
0.41
31
0.38
17
0.55
90
0.39
102
0.59
78
0.36
98
0.14
18
0.12
86
0.14
13
0.12
26
0.16
103
0.14
49
DisPMtwo views0.40
102
0.20
54
0.50
131
0.42
129
0.27
158
0.24
7
0.30
69
0.68
71
0.61
83
0.88
224
0.87
155
0.59
123
0.32
59
0.80
219
0.34
82
0.19
191
0.12
86
0.19
147
0.17
157
0.16
103
0.21
208
RAFT_CTSACEtwo views0.46
152
0.20
54
0.48
115
0.46
222
0.27
158
0.34
72
0.39
183
0.62
36
0.74
132
0.78
174
1.44
324
0.86
234
0.38
89
1.09
301
0.27
23
0.13
9
0.13
141
0.18
116
0.16
115
0.16
103
0.12
10
GLC_STEREOtwo views0.30
12
0.20
54
0.28
8
0.44
187
0.19
8
0.31
51
0.25
30
0.49
9
0.43
41
0.37
17
0.47
26
0.40
39
0.23
7
0.51
50
0.37
106
0.15
67
0.18
246
0.19
147
0.16
115
0.16
103
0.14
49
IPLGRtwo views0.40
102
0.22
97
0.70
248
0.40
86
0.22
30
0.51
143
0.29
57
0.78
143
0.78
142
0.80
178
0.77
101
0.44
54
0.41
111
0.48
41
0.40
147
0.14
18
0.12
86
0.16
57
0.14
69
0.16
103
0.14
49
OMP-Stereotwo views0.43
135
0.23
120
0.50
131
0.53
301
0.25
101
0.36
78
0.24
23
0.73
122
0.81
162
0.78
174
0.64
67
0.88
241
0.41
111
0.95
267
0.36
98
0.15
67
0.12
86
0.20
176
0.15
90
0.16
103
0.13
31
NF-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
OCTAStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.58
114
0.31
53
0.69
169
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
PFNettwo views0.43
135
0.19
33
0.61
207
0.44
187
0.24
77
0.42
117
0.31
87
0.76
135
0.81
162
1.01
284
0.74
96
0.67
165
0.41
111
0.75
192
0.39
127
0.16
99
0.10
8
0.20
176
0.15
90
0.16
103
0.14
49
RE-Stereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
TVStereotwo views0.39
88
0.21
74
0.51
139
0.42
129
0.25
101
0.26
18
0.30
69
0.71
99
0.72
118
0.66
102
0.77
101
0.57
99
0.31
53
0.70
176
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.16
103
0.27
270
CroCo-Stereocopylefttwo views0.27
2
0.23
120
0.40
45
0.49
257
0.22
30
0.20
2
0.29
57
0.55
19
0.45
47
0.29
4
0.27
2
0.42
45
0.26
17
0.30
1
0.26
8
0.15
67
0.13
141
0.13
8
0.12
26
0.16
103
0.13
31
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.46
152
0.23
120
0.52
158
0.48
248
0.27
158
0.55
164
0.47
243
0.68
71
0.60
81
0.83
188
0.82
131
1.00
271
0.56
174
0.76
200
0.37
106
0.18
156
0.16
211
0.22
229
0.20
226
0.16
103
0.14
49
iRaftStereo_RVCtwo views0.33
30
0.20
54
0.40
45
0.40
86
0.23
56
0.31
51
0.29
57
0.70
92
0.55
66
0.49
48
0.66
72
0.37
32
0.23
7
0.47
34
0.33
73
0.14
18
0.11
39
0.19
147
0.17
157
0.16
103
0.13
31
MyStereo06two views0.40
102
0.22
97
0.65
225
0.42
129
0.29
198
0.43
121
0.48
248
1.05
228
0.43
41
0.64
94
0.54
44
0.78
213
0.27
22
0.53
53
0.31
57
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
MyStereo05two views0.46
152
0.22
97
0.51
139
0.42
129
0.29
198
0.43
121
0.48
248
0.96
200
1.12
296
0.77
163
0.62
63
0.51
79
0.57
183
0.79
217
0.43
157
0.14
18
0.13
141
0.18
116
0.17
157
0.17
127
0.17
134
11t1two views0.38
76
0.23
120
0.49
122
0.36
27
0.23
56
0.61
191
0.31
87
0.74
128
0.47
54
0.62
77
0.55
49
0.55
90
0.49
148
0.58
73
0.45
169
0.18
156
0.15
190
0.16
57
0.13
49
0.17
127
0.19
165
LL-Strereotwo views0.58
250
0.29
229
0.83
285
0.48
248
0.35
270
0.39
96
0.48
248
1.04
222
0.99
251
0.87
216
0.79
113
1.08
295
1.15
344
1.35
338
0.51
196
0.18
156
0.15
190
0.22
229
0.19
207
0.17
127
0.21
208
CBFPSMtwo views0.61
264
0.25
167
1.41
351
0.39
60
0.27
158
1.10
321
0.67
312
0.83
158
0.84
176
0.82
183
0.81
129
1.33
329
0.85
296
0.72
185
0.86
279
0.16
99
0.15
190
0.15
41
0.17
157
0.17
127
0.23
242
CroCo-Stereo Lap2two views0.29
9
0.25
167
0.44
79
0.50
268
0.30
217
0.19
1
0.31
87
0.52
13
0.41
34
0.25
1
0.28
4
0.46
64
0.31
53
0.39
8
0.30
48
0.15
67
0.15
190
0.16
57
0.13
49
0.17
127
0.16
98
xtwo views0.41
116
0.25
167
0.46
91
0.36
27
0.24
77
0.54
159
0.31
87
0.94
193
0.58
73
0.60
71
0.72
83
0.61
128
0.53
159
0.52
51
0.50
194
0.18
156
0.16
211
0.17
85
0.16
115
0.17
127
0.18
156
IERtwo views0.48
170
0.25
167
0.60
206
0.38
44
0.28
179
0.67
228
0.38
170
0.82
156
0.68
103
0.88
224
0.95
184
0.74
196
0.79
279
0.62
116
0.46
173
0.17
125
0.14
172
0.17
85
0.17
157
0.17
127
0.16
98
PFNet+two views0.41
116
0.20
54
0.53
165
0.40
86
0.25
101
0.28
31
0.22
11
0.66
55
0.76
137
0.85
204
0.79
113
0.63
138
0.34
70
0.75
192
0.37
106
0.20
210
0.14
172
0.23
243
0.20
226
0.17
127
0.21
208
PSM-softLosstwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
KMStereotwo views0.40
102
0.21
74
0.53
165
0.42
129
0.26
129
0.29
35
0.34
116
0.70
92
0.49
57
0.63
84
0.82
131
0.59
123
0.33
64
0.75
192
0.43
157
0.20
210
0.12
86
0.20
176
0.18
183
0.17
127
0.22
223
NRIStereotwo views0.37
60
0.21
74
0.49
122
0.42
129
0.23
56
0.33
66
0.25
30
0.68
71
0.59
74
0.65
98
0.63
64
0.55
90
0.37
82
0.67
155
0.40
147
0.16
99
0.12
86
0.18
116
0.15
90
0.17
127
0.15
78
KYRafttwo views0.48
170
0.21
74
0.41
50
0.45
199
0.23
56
0.43
121
0.36
145
0.68
71
0.45
47
0.94
253
1.72
348
0.78
213
0.40
107
0.65
138
0.32
63
0.16
99
0.11
39
0.18
116
0.22
261
0.17
127
0.76
376
Pruner-Stereotwo views0.39
88
0.21
74
0.51
139
0.41
104
0.25
101
0.22
4
0.24
23
0.71
99
0.59
74
0.90
238
0.75
98
0.67
165
0.30
50
0.64
132
0.39
127
0.19
191
0.12
86
0.20
176
0.17
157
0.17
127
0.19
165
IRAFT_RVCtwo views0.43
135
0.20
54
0.52
158
0.45
199
0.24
77
0.26
18
0.51
264
0.76
135
0.78
142
0.77
163
0.80
123
0.73
192
0.50
150
0.74
187
0.39
127
0.18
156
0.10
8
0.21
217
0.17
157
0.17
127
0.15
78
GMM-Stereotwo views0.44
141
0.20
54
0.39
36
0.42
129
0.25
101
0.50
138
0.44
231
0.72
109
0.57
71
0.77
163
1.37
312
0.76
206
0.38
89
0.62
116
0.34
82
0.15
67
0.10
8
0.20
176
0.19
207
0.17
127
0.28
279
Prome-Stereotwo views0.46
152
0.20
54
0.37
27
0.45
199
0.26
129
0.40
101
0.42
218
0.69
82
0.49
57
0.96
270
1.84
354
0.58
114
0.64
211
0.63
125
0.32
63
0.15
67
0.11
39
0.16
57
0.14
69
0.17
127
0.30
288
RALCasStereoNettwo views0.37
60
0.23
120
0.41
50
0.44
187
0.28
179
0.36
78
0.38
170
0.66
55
0.67
102
0.51
51
0.74
96
0.51
79
0.29
41
0.64
132
0.38
119
0.17
125
0.14
172
0.15
41
0.13
49
0.17
127
0.17
134
SFCPSMtwo views0.48
170
0.22
97
0.59
201
0.41
104
0.27
158
0.85
280
0.36
145
1.39
332
0.79
148
0.81
182
0.85
145
0.54
88
0.50
150
0.60
88
0.39
127
0.18
156
0.14
172
0.18
116
0.20
226
0.17
127
0.16
98
delettwo views0.57
239
0.25
167
0.63
216
0.46
222
0.34
265
1.05
318
0.51
264
1.04
222
0.94
228
0.90
238
0.99
207
0.90
248
0.68
236
0.87
240
0.78
263
0.18
156
0.18
246
0.20
176
0.21
243
0.17
127
0.17
134
GwcNet-RSSMtwo views0.51
200
0.25
167
0.51
139
0.41
104
0.24
77
0.56
169
0.41
213
0.97
202
0.96
239
0.75
150
1.17
274
0.89
246
0.66
219
0.66
146
0.74
257
0.22
241
0.15
190
0.19
147
0.21
243
0.17
127
0.16
98
HSM-Net_RVCpermissivetwo views0.55
226
0.23
120
0.37
27
0.38
44
0.22
30
0.86
282
0.40
193
1.31
314
0.93
221
0.92
246
1.15
266
1.26
317
0.71
248
0.75
192
0.53
209
0.17
125
0.14
172
0.16
57
0.15
90
0.17
127
0.17
134
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
HSMtwo views0.53
216
0.25
167
0.46
91
0.40
86
0.25
101
0.74
245
0.44
231
1.29
311
0.78
142
0.82
183
0.92
175
1.21
313
0.75
264
0.90
252
0.48
185
0.18
156
0.14
172
0.17
85
0.14
69
0.17
127
0.18
156
iResNettwo views0.52
210
0.31
250
0.86
292
0.44
187
0.22
30
0.66
219
0.47
243
0.92
186
1.02
262
0.89
231
1.12
256
0.69
170
0.55
166
0.86
238
0.60
228
0.15
67
0.11
39
0.15
41
0.12
26
0.17
127
0.17
134
MyStereo07two views0.33
30
0.23
120
0.37
27
0.43
166
0.29
198
0.40
101
0.48
248
0.78
143
0.38
17
0.38
18
0.34
16
0.32
13
0.30
50
0.63
125
0.28
29
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
MyStereo04two views0.45
147
0.23
120
0.52
158
0.43
166
0.29
198
0.40
101
0.48
248
1.02
216
1.12
296
0.62
77
0.58
54
0.55
90
0.56
174
0.77
207
0.45
169
0.14
18
0.13
141
0.19
147
0.17
157
0.18
151
0.17
134
ACVNet-DCAtwo views0.36
42
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.61
94
0.26
8
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
xx1two views0.40
102
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.71
99
1.17
314
0.42
32
0.50
31
0.65
149
0.56
174
0.61
94
0.26
8
0.17
125
0.11
39
0.20
176
0.19
207
0.18
151
0.19
165
1test111two views0.37
60
0.25
167
0.35
19
0.42
129
0.23
56
0.53
153
0.37
157
0.91
178
0.59
74
0.42
32
0.50
31
0.34
21
0.47
141
0.59
78
0.48
185
0.17
125
0.11
39
0.19
147
0.13
49
0.18
151
0.19
165
test crocotwo views0.32
26
0.21
74
0.59
201
0.40
86
0.29
198
0.27
25
0.30
69
0.46
6
0.36
11
0.32
10
0.66
72
0.31
6
0.33
64
0.68
163
0.32
63
0.18
156
0.13
141
0.20
176
0.15
90
0.18
151
0.13
31
MIF-Stereo (partial)two views0.32
26
0.19
33
0.41
50
0.41
104
0.32
244
0.29
35
0.24
23
0.49
9
0.44
43
0.31
7
0.63
64
0.37
32
0.36
78
0.60
88
0.32
63
0.17
125
0.13
141
0.19
147
0.17
157
0.18
151
0.15
78
CASnettwo views0.30
12
0.20
54
0.34
13
0.42
129
0.17
2
0.25
16
0.24
23
0.53
16
0.56
67
0.54
60
0.54
44
0.39
38
0.24
10
0.41
17
0.26
8
0.15
67
0.10
8
0.22
229
0.18
183
0.18
151
0.12
10
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
gwcnet-sptwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
scenettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
knoymoustwo views0.37
60
0.22
97
0.34
13
0.32
6
0.22
30
0.38
91
0.29
57
0.63
42
0.65
93
0.69
119
0.69
79
0.60
126
0.40
107
0.61
94
0.36
98
0.17
125
0.11
39
0.20
176
0.12
26
0.18
151
0.19
165
ssnettwo views0.50
190
0.25
167
0.84
288
0.41
104
0.27
158
0.79
257
0.40
193
0.93
188
0.85
180
0.95
258
0.79
113
0.65
149
0.63
204
0.69
169
0.52
200
0.18
156
0.17
237
0.18
116
0.18
183
0.18
151
0.19
165
qqqtwo views0.42
123
0.28
220
0.50
131
0.37
35
0.22
30
0.47
133
0.39
183
0.91
178
0.59
74
0.57
65
0.71
82
0.65
149
0.56
174
0.59
78
0.48
185
0.17
125
0.17
237
0.20
176
0.19
207
0.18
151
0.19
165
BUStwo views0.47
161
0.26
195
0.47
102
0.46
222
0.29
198
0.78
251
0.34
116
0.99
207
0.80
153
0.77
163
0.80
123
0.64
145
0.54
163
0.66
146
0.56
216
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
test_5two views0.44
141
0.25
167
0.48
115
0.53
301
0.28
179
0.28
31
0.42
218
0.77
140
0.87
190
0.63
84
0.91
169
0.73
192
0.53
159
0.82
228
0.36
98
0.14
18
0.11
39
0.18
116
0.18
183
0.18
151
0.16
98
BSDual-CNNtwo views0.48
170
0.26
195
0.47
102
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.80
153
0.77
163
0.80
123
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
hknettwo views0.51
200
0.26
195
0.58
193
0.46
222
0.29
198
0.75
248
0.46
238
0.99
207
0.89
204
0.77
163
0.80
123
0.96
263
0.67
228
0.75
192
0.50
194
0.19
191
0.15
190
0.22
229
0.19
207
0.18
151
0.19
165
CSP-Nettwo views0.57
239
0.29
229
0.55
180
0.42
129
0.29
198
1.20
339
0.49
258
1.29
311
0.75
134
0.98
276
0.97
195
0.88
241
0.69
238
0.85
236
0.66
242
0.27
287
0.18
246
0.17
85
0.17
157
0.18
151
0.19
165
GANet-ADLtwo views0.44
141
0.27
207
0.48
115
0.44
187
0.30
217
0.54
159
0.36
145
0.94
193
0.88
200
0.64
94
0.72
83
0.68
168
0.44
124
0.55
61
0.44
164
0.22
241
0.15
190
0.15
41
0.13
49
0.18
151
0.21
208
PSM-AADtwo views0.48
170
0.21
74
0.39
36
0.44
187
0.23
56
0.56
169
0.47
243
0.67
66
0.73
127
1.08
312
1.12
256
0.58
114
0.87
303
0.63
125
0.33
73
0.15
67
0.11
39
0.25
267
0.26
303
0.18
151
0.42
339
RAFT_R40two views0.41
116
0.20
54
0.47
102
0.44
187
0.25
101
0.23
6
0.25
30
0.69
82
0.70
110
0.98
276
0.78
109
0.72
188
0.43
119
0.80
219
0.39
127
0.17
125
0.11
39
0.20
176
0.16
115
0.18
151
0.15
78
rafts_anoytwo views0.38
76
0.22
97
0.38
33
0.43
166
0.28
179
0.32
60
0.32
99
0.70
92
0.91
214
0.59
69
0.66
72
0.45
61
0.33
64
0.49
47
0.41
152
0.16
99
0.12
86
0.21
217
0.23
270
0.18
151
0.16
98
GEStwo views0.46
152
0.25
167
0.62
212
0.41
104
0.30
217
0.62
195
0.37
157
1.06
233
0.70
110
0.75
150
0.83
136
0.47
68
0.52
158
0.69
169
0.46
173
0.23
255
0.17
237
0.17
85
0.16
115
0.18
151
0.24
250
222two views1.25
357
0.23
120
0.53
165
0.38
44
0.23
56
0.78
251
0.37
157
1.41
338
0.93
221
0.97
273
1.13
262
0.74
196
0.71
248
0.74
187
14.86
413
0.20
210
0.16
211
0.17
85
0.16
115
0.18
151
0.20
192
test_xeamplepermissivetwo views1.06
340
0.23
120
0.51
139
0.37
35
0.22
30
0.71
237
0.39
183
1.31
314
0.92
220
0.87
216
1.08
248
0.70
172
0.64
211
0.75
192
11.43
410
0.19
191
0.16
211
0.18
116
0.17
157
0.18
151
0.19
165
FENettwo views0.43
135
0.23
120
0.40
45
0.40
86
0.24
77
0.54
159
0.33
108
0.83
158
0.72
118
0.74
147
0.73
85
0.63
138
0.56
174
0.65
138
0.45
169
0.19
191
0.13
141
0.19
147
0.17
157
0.18
151
0.20
192
ac_64two views0.54
221
0.24
139
0.58
193
0.46
222
0.28
179
0.79
257
0.44
231
1.11
248
0.63
84
0.94
253
0.85
145
1.06
290
0.70
243
0.76
200
0.72
255
0.22
241
0.18
246
0.20
176
0.19
207
0.18
151
0.16
98
ACVNettwo views0.47
161
0.24
139
0.39
36
0.40
86
0.28
179
0.58
183
0.40
193
0.91
178
0.81
162
0.67
109
0.96
188
0.79
219
0.66
219
0.65
138
0.71
252
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
acv_fttwo views0.52
210
0.24
139
0.64
220
0.45
199
0.28
179
0.85
280
0.40
193
0.95
196
0.81
162
1.00
282
0.96
188
0.79
219
0.62
199
0.65
138
0.88
281
0.18
156
0.15
190
0.16
57
0.15
90
0.18
151
0.15
78
GANet-RSSMtwo views0.49
179
0.22
97
0.42
58
0.39
60
0.26
129
0.58
183
0.41
213
1.12
249
0.82
170
0.73
140
1.02
217
0.88
241
0.75
264
0.67
155
0.48
185
0.22
241
0.16
211
0.18
116
0.19
207
0.18
151
0.18
156
AANet_RVCtwo views0.59
254
0.35
267
0.68
238
0.47
240
0.28
179
0.57
179
0.47
243
1.04
222
1.28
331
0.87
216
1.33
303
0.86
234
0.63
204
1.16
311
0.89
283
0.19
191
0.13
141
0.15
41
0.14
69
0.18
151
0.20
192
HITNettwo views0.43
135
0.27
207
0.50
131
0.34
9
0.18
5
0.65
214
0.32
99
0.99
207
0.70
110
0.73
140
0.86
149
0.66
161
0.56
174
0.61
94
0.47
182
0.14
18
0.10
8
0.15
41
0.13
49
0.18
151
0.13
31
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
DN-CSS_ROBtwo views0.45
147
0.27
207
0.74
265
0.41
104
0.29
198
0.43
121
0.29
57
0.80
150
0.78
142
0.73
140
1.08
248
0.48
71
0.45
131
0.81
223
0.40
147
0.15
67
0.12
86
0.21
217
0.19
207
0.18
151
0.17
134
MyStereo8two views0.42
123
0.21
74
0.64
220
0.43
166
0.29
198
0.55
164
0.28
50
0.72
109
0.50
60
0.73
140
1.01
215
0.57
99
0.44
124
0.52
51
0.52
200
0.15
67
0.12
86
0.16
57
0.14
69
0.19
184
0.21
208
SMFormertwo views0.53
216
0.24
139
0.67
231
0.35
12
0.20
18
0.63
200
0.34
116
1.26
297
1.06
276
0.85
204
1.02
217
0.71
173
0.66
219
0.96
270
0.60
228
0.19
191
0.16
211
0.18
116
0.17
157
0.19
184
0.20
192
LL-Strereo2two views0.36
42
0.25
167
0.52
158
0.43
166
0.27
158
0.36
78
0.27
42
0.70
92
0.46
52
0.55
61
0.53
41
0.65
149
0.24
10
0.69
169
0.32
63
0.14
18
0.13
141
0.23
243
0.20
226
0.19
184
0.14
49
riskmintwo views0.41
116
0.21
74
0.44
79
0.34
9
0.24
77
0.58
183
0.32
99
0.70
92
0.86
186
0.52
53
0.57
52
0.78
213
0.60
193
0.58
73
0.39
127
0.17
125
0.12
86
0.19
147
0.13
49
0.19
184
0.22
223
CRFU-Nettwo views0.59
254
0.29
229
0.62
212
0.47
240
0.31
227
1.20
339
0.51
264
1.19
273
0.59
74
1.05
302
1.00
211
1.06
290
0.87
303
0.83
230
0.77
262
0.22
241
0.19
263
0.18
116
0.16
115
0.19
184
0.20
192
psmgtwo views0.50
190
0.26
195
0.47
102
0.42
129
0.29
198
0.82
271
0.42
218
1.07
235
0.80
153
0.95
258
0.94
180
0.76
206
0.59
190
0.66
146
0.48
185
0.21
225
0.16
211
0.20
176
0.20
226
0.19
184
0.19
165
GwcNet-ADLtwo views0.45
147
0.24
139
0.51
139
0.46
222
0.30
217
0.41
110
0.40
193
0.95
196
0.98
248
0.73
140
0.78
109
0.61
128
0.41
111
0.67
155
0.55
214
0.20
210
0.14
172
0.15
41
0.14
69
0.19
184
0.22
223
SST-Stereotwo views0.41
116
0.20
54
0.48
115
0.43
166
0.25
101
0.25
16
0.21
5
0.68
71
0.50
60
1.08
312
0.79
113
0.71
173
0.42
116
0.81
223
0.38
119
0.17
125
0.11
39
0.20
176
0.16
115
0.19
184
0.15
78
DeepStereo_RVCtwo views0.37
60
0.22
97
0.51
139
0.41
104
0.24
77
0.26
18
0.22
11
0.64
52
0.40
29
0.69
119
0.67
77
0.57
99
0.50
150
0.58
73
0.42
155
0.17
125
0.12
86
0.18
116
0.16
115
0.19
184
0.19
165
ICVPtwo views0.48
170
0.26
195
0.42
58
0.49
257
0.28
179
0.63
200
0.43
225
1.05
228
0.72
118
0.68
116
0.95
184
0.75
200
0.56
174
0.55
61
0.61
232
0.24
261
0.18
246
0.19
147
0.17
157
0.19
184
0.21
208
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
xxxxtwo views1.07
342
0.23
120
0.53
165
0.38
44
0.22
30
0.83
274
0.36
145
1.41
338
0.95
232
0.75
150
0.99
207
0.97
264
0.64
211
0.70
176
11.37
409
0.20
210
0.17
237
0.18
116
0.17
157
0.19
184
0.20
192
RAFT + AFFtwo views0.54
221
0.30
243
0.84
288
0.51
280
0.32
244
0.63
200
0.57
288
1.05
228
0.95
232
0.80
178
0.87
155
0.85
230
0.57
183
0.87
240
0.51
196
0.18
156
0.21
277
0.23
243
0.22
261
0.19
184
0.19
165
HGLStereotwo views0.58
250
0.30
243
0.65
225
0.51
280
0.38
282
0.78
251
0.45
235
1.07
235
0.82
170
0.89
231
1.16
269
0.88
241
0.91
312
0.80
219
0.74
257
0.21
225
0.21
277
0.20
176
0.18
183
0.19
184
0.22
223
DMCAtwo views0.47
161
0.27
207
0.59
201
0.39
60
0.29
198
0.53
153
0.34
116
0.98
204
0.70
110
0.78
174
0.83
136
0.79
219
0.55
166
0.54
60
0.57
220
0.21
225
0.16
211
0.21
217
0.16
115
0.19
184
0.22
223
iResNetv2_ROBtwo views0.55
226
0.29
229
0.86
292
0.39
60
0.25
101
0.67
228
0.37
157
1.21
279
1.02
262
1.02
288
1.10
250
0.89
246
0.79
279
0.74
187
0.43
157
0.19
191
0.13
141
0.15
41
0.11
15
0.19
184
0.16
98
1111xtwo views0.64
274
0.23
120
0.61
207
0.39
60
0.21
25
0.68
232
0.46
238
1.32
319
1.03
266
0.76
155
1.02
217
0.95
260
0.72
255
1.13
305
2.15
372
0.18
156
0.18
246
0.18
116
0.19
207
0.20
199
0.19
165
whm_ethtwo views0.49
179
0.32
252
0.79
274
0.47
240
0.38
282
0.37
86
0.37
157
0.83
158
0.83
175
0.82
183
1.73
349
0.36
31
0.39
102
0.61
94
0.38
119
0.19
191
0.17
237
0.20
176
0.20
226
0.20
199
0.25
257
ssnet_v2two views0.61
264
0.29
229
0.69
246
0.45
199
0.30
217
0.93
292
0.62
304
1.20
276
1.03
266
0.97
273
0.81
129
0.98
266
0.67
228
0.84
234
0.97
306
0.26
278
0.23
293
0.23
243
0.24
284
0.20
199
0.21
208
AAGNettwo views1.40
367
0.20
54
0.52
158
0.45
199
0.26
129
0.29
35
0.29
57
0.67
66
0.71
116
0.97
273
0.86
149
0.66
161
0.60
193
0.66
146
19.98
417
0.17
125
0.11
39
0.19
147
0.15
90
0.20
199
0.13
31
MMNettwo views0.57
239
0.26
195
0.67
231
0.45
199
0.35
270
1.04
316
0.39
183
0.93
188
0.98
248
0.96
270
0.97
195
0.86
234
0.80
283
0.83
230
0.80
271
0.16
99
0.15
190
0.19
147
0.19
207
0.20
199
0.17
134
UPFNettwo views0.55
226
0.26
195
0.59
201
0.46
222
0.38
282
0.83
274
0.48
248
1.03
221
0.80
153
0.92
246
0.91
169
0.85
230
0.67
228
0.87
240
0.78
263
0.20
210
0.21
277
0.20
176
0.20
226
0.20
199
0.15
78
PSMNet-RSSMtwo views0.50
190
0.24
139
0.41
50
0.43
166
0.26
129
0.51
143
0.40
193
1.16
262
0.79
148
0.75
150
1.07
242
0.87
238
0.69
238
0.66
146
0.52
200
0.24
261
0.16
211
0.23
243
0.26
303
0.20
199
0.20
192
StereoDRNet-Refinedtwo views0.61
264
0.33
258
0.63
216
0.47
240
0.31
227
0.94
294
0.41
213
1.04
222
0.97
244
1.15
326
1.13
262
1.00
271
0.74
261
0.93
259
0.93
296
0.18
156
0.13
141
0.22
229
0.21
243
0.20
199
0.21
208
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
LE_ROBtwo views4.86
406
0.27
207
9.43
405
0.45
199
0.24
77
1.61
362
0.96
358
2.05
380
17.75
421
16.36
423
4.84
407
5.17
402
19.48
423
2.05
375
15.49
414
0.17
125
0.15
190
0.16
57
0.16
115
0.20
199
0.19
165
mmmtwo views0.47
161
0.28
220
0.51
139
0.39
60
0.25
101
0.61
191
0.38
170
1.00
213
0.60
81
0.77
163
1.07
242
0.65
149
0.53
159
0.61
94
0.49
192
0.18
156
0.15
190
0.23
243
0.20
226
0.21
208
0.20
192
fast-acv-fttwo views0.66
276
0.32
252
0.80
275
0.46
222
0.34
265
1.26
342
0.50
261
0.91
178
1.00
255
1.05
302
1.36
309
1.28
318
0.84
292
0.81
223
0.90
289
0.22
241
0.24
301
0.23
243
0.23
270
0.21
208
0.22
223
iinet-ftwo views0.69
282
0.29
229
2.34
382
0.41
104
0.31
227
1.16
333
0.58
295
0.87
166
0.85
180
0.86
214
1.17
274
1.04
283
0.83
289
0.76
200
1.26
338
0.21
225
0.18
246
0.17
85
0.16
115
0.21
208
0.21
208
Patchmatch Stereo++two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
Wenjia Ren, Qingmin Liao, Zhijing Shao, Xiangru Lin, Xin Yue, Yu Zhang, Zongqing Lu: Patchmatch Stereo++: Patchmatch Binocular Stereo with Continuous Disparity Optimization. ACM MM 2023
PSM-adaLosstwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.59
78
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereo_v2two views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.31
87
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
ROB_FTStereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.20
1
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.60
88
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
HUI-Stereotwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.22
11
0.63
42
0.40
29
0.64
94
0.73
85
0.58
114
0.38
89
0.53
53
0.38
119
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
iGMRVCtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.29
57
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
iRAFTtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.21
5
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
CRE-IMPtwo views0.37
60
0.23
120
0.53
165
0.42
129
0.24
77
0.40
101
0.21
5
0.61
34
0.45
47
0.65
98
0.73
85
0.53
86
0.37
82
0.63
125
0.40
147
0.18
156
0.11
39
0.19
147
0.16
115
0.21
208
0.19
165
RAFT-IKPtwo views0.36
42
0.24
139
0.51
139
0.42
129
0.22
30
0.24
7
0.27
42
0.63
42
0.39
21
0.63
84
0.73
85
0.57
99
0.38
89
0.61
94
0.39
127
0.18
156
0.12
86
0.20
176
0.16
115
0.21
208
0.16
98
GEStereo_RVCtwo views0.56
235
0.30
243
0.70
248
0.51
280
0.31
227
0.70
234
0.54
279
1.31
314
0.93
221
0.85
204
0.86
149
0.84
228
0.63
204
0.92
256
0.67
245
0.24
261
0.16
211
0.19
147
0.17
157
0.21
208
0.23
242
RALAANettwo views0.40
102
0.24
139
0.56
184
0.43
166
0.30
217
0.36
78
0.25
30
0.89
172
0.69
108
0.69
119
0.65
69
0.61
128
0.30
50
0.63
125
0.35
89
0.16
99
0.13
141
0.18
116
0.15
90
0.21
208
0.14
49
sCroCo_RVCtwo views0.36
42
0.29
229
0.73
261
0.52
294
0.39
291
0.42
117
0.31
87
0.52
13
0.46
52
0.31
7
0.48
27
0.38
35
0.32
59
0.46
29
0.33
73
0.22
241
0.23
293
0.19
147
0.19
207
0.21
208
0.22
223
HCRNettwo views0.46
152
0.35
267
0.45
84
0.54
310
0.26
129
0.52
150
0.29
57
0.87
166
0.64
88
0.75
150
0.82
131
0.76
206
0.53
159
0.70
176
0.38
119
0.24
261
0.16
211
0.24
256
0.20
226
0.21
208
0.20
192
UNettwo views0.55
226
0.27
207
0.72
257
0.45
199
0.41
299
0.97
299
0.40
193
1.01
214
0.80
153
0.87
216
0.90
163
1.03
279
0.75
264
0.76
200
0.67
245
0.19
191
0.15
190
0.20
176
0.17
157
0.21
208
0.18
156
CFNettwo views0.53
216
0.30
243
0.53
165
0.42
129
0.28
179
0.73
241
0.35
138
1.21
279
1.01
257
0.74
147
1.07
242
0.85
230
0.60
193
0.83
230
0.58
225
0.19
191
0.15
190
0.23
243
0.23
270
0.21
208
0.17
134
ToySttwo views0.52
210
0.27
207
0.93
305
0.42
129
0.28
179
0.67
228
0.56
286
0.88
171
0.79
148
0.61
75
0.85
145
0.92
257
0.70
243
0.72
185
0.61
232
0.16
99
0.17
237
0.21
217
0.21
243
0.22
226
0.21
208
Wz-Net-LNSev-Reftwo views0.67
277
0.30
243
1.20
331
0.42
129
0.31
227
1.00
306
0.58
295
1.16
262
1.07
283
1.01
284
1.25
287
1.08
295
0.75
264
1.18
314
1.03
315
0.20
210
0.12
86
0.16
57
0.13
49
0.22
226
0.22
223
NINENettwo views0.52
210
0.30
243
0.55
180
0.46
222
0.33
255
0.78
251
0.34
116
1.18
270
0.91
214
0.84
194
0.97
195
0.64
145
0.54
163
0.74
187
0.56
216
0.23
255
0.20
271
0.25
267
0.18
183
0.22
226
0.22
223
DAStwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.89
247
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
SepStereotwo views0.54
221
0.26
195
0.66
227
0.49
257
0.31
227
0.61
191
0.43
225
0.89
172
1.01
257
0.95
258
1.16
269
0.71
173
0.85
296
0.97
277
0.47
182
0.18
156
0.14
172
0.18
116
0.15
90
0.22
226
0.19
165
AASNettwo views0.55
226
0.27
207
0.62
212
0.51
280
0.32
244
0.73
241
0.44
231
1.55
356
0.88
200
0.88
224
0.94
180
0.64
145
0.63
204
0.62
116
0.84
276
0.23
255
0.20
271
0.20
176
0.16
115
0.22
226
0.20
192
PSMNet-ADLtwo views0.50
190
0.28
220
0.43
74
0.49
257
0.31
227
0.70
234
0.38
170
0.94
193
0.81
162
0.62
77
0.80
123
0.91
254
0.62
199
0.76
200
0.68
248
0.24
261
0.18
246
0.19
147
0.20
226
0.22
226
0.22
223
ADLNet2two views0.57
239
0.26
195
0.71
251
0.48
248
0.31
227
0.83
274
0.51
264
1.10
247
0.99
251
0.85
204
0.99
207
0.99
270
0.70
243
0.79
217
0.78
263
0.21
225
0.17
237
0.18
116
0.18
183
0.22
226
0.22
223
LCNettwo views0.42
123
0.21
74
0.34
13
0.44
187
0.24
77
0.47
133
0.28
50
0.69
82
0.57
71
0.72
133
1.03
228
0.66
161
0.58
186
0.60
88
0.35
89
0.15
67
0.10
8
0.19
147
0.19
207
0.22
226
0.37
321
ADLNettwo views0.57
239
0.29
229
0.58
193
0.46
222
0.35
270
0.80
263
0.46
238
1.14
257
0.88
200
1.03
291
0.98
198
0.92
257
0.66
219
0.71
181
0.83
275
0.22
241
0.16
211
0.22
229
0.22
261
0.22
226
0.23
242
psm_uptwo views0.57
239
0.27
207
0.52
158
0.50
268
0.33
255
0.65
214
0.60
300
1.07
235
0.84
176
0.87
216
0.91
169
1.00
271
1.06
332
0.80
219
0.66
242
0.22
241
0.25
309
0.26
281
0.23
270
0.22
226
0.21
208
DSFCAtwo views0.57
239
0.27
207
0.71
251
0.41
104
0.36
275
0.78
251
0.53
273
1.08
240
0.85
180
1.08
312
0.84
138
0.90
248
0.66
219
1.05
296
0.63
239
0.26
278
0.22
286
0.21
217
0.21
243
0.22
226
0.20
192
NLCA_NET_v2_RVCtwo views0.55
226
0.33
258
0.71
251
0.46
222
0.31
227
0.66
219
0.43
225
1.07
235
0.89
204
0.93
249
0.91
169
0.98
266
0.61
197
0.76
200
0.64
241
0.22
241
0.18
246
0.22
229
0.22
261
0.22
226
0.24
250
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
DLCB_ROBtwo views0.60
261
0.29
229
0.53
165
0.50
268
0.33
255
0.76
250
0.51
264
1.02
216
0.94
228
1.07
311
1.16
269
1.21
313
0.73
259
0.98
279
0.75
259
0.21
225
0.20
271
0.22
229
0.23
270
0.22
226
0.20
192
CASStwo views0.46
152
0.28
220
0.45
84
0.48
248
0.22
30
0.63
200
0.34
116
0.99
207
0.66
96
0.76
155
0.86
149
0.61
128
0.58
186
0.58
73
0.44
164
0.29
302
0.16
211
0.22
229
0.18
183
0.23
240
0.28
279
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
Anonymous3two views0.47
161
0.35
267
0.91
304
0.50
268
0.38
282
0.81
268
0.55
283
0.76
135
0.66
96
0.52
53
0.65
69
0.44
54
0.45
131
0.66
146
0.39
127
0.25
273
0.25
309
0.22
229
0.21
243
0.23
240
0.24
250
TestStereotwo views0.39
88
0.32
252
0.42
58
0.45
199
0.20
18
0.41
110
0.38
170
0.69
82
0.66
96
0.56
63
0.78
109
0.48
71
0.43
119
0.59
78
0.37
106
0.18
156
0.13
141
0.20
176
0.15
90
0.23
240
0.14
49
Syn2CoExtwo views0.74
292
0.55
336
1.17
330
0.66
348
0.45
323
0.89
288
0.56
286
1.54
355
1.15
309
0.95
258
1.35
308
1.03
279
1.03
328
0.96
270
0.89
283
0.31
312
0.27
320
0.29
307
0.24
284
0.23
240
0.27
270
GwcNetcopylefttwo views0.73
287
0.39
285
1.37
348
0.53
301
0.43
311
1.10
321
0.52
270
1.27
302
1.19
319
1.05
302
1.41
317
1.06
290
0.86
300
0.98
279
1.01
310
0.26
278
0.24
301
0.24
256
0.23
270
0.23
240
0.28
279
ADCReftwo views0.84
313
0.46
311
1.60
364
0.52
294
0.45
323
1.08
320
0.52
270
1.13
255
1.03
266
1.22
333
1.43
323
0.87
238
0.93
316
0.91
254
3.35
387
0.19
191
0.16
211
0.23
243
0.23
270
0.23
240
0.22
223
AdaStereotwo views0.52
210
0.34
263
0.53
165
0.49
257
0.25
101
0.71
237
0.36
145
1.24
289
0.91
214
0.77
163
0.98
198
0.75
200
0.50
150
0.71
181
0.51
196
0.27
287
0.13
141
0.28
299
0.18
183
0.23
240
0.18
156
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
NaN_ROBtwo views0.73
287
0.46
311
0.89
301
0.52
294
0.34
265
0.98
303
1.11
365
1.28
307
1.20
321
1.27
341
0.96
188
1.08
295
0.79
279
1.34
337
0.78
263
0.24
261
0.30
331
0.23
243
0.24
284
0.23
240
0.26
262
mmxtwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
349
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
xxxcopylefttwo views0.59
254
0.28
220
0.68
238
0.39
60
0.26
129
0.56
169
0.40
193
1.24
289
1.06
276
0.76
155
0.98
198
0.71
173
0.55
166
1.25
320
1.46
349
0.21
225
0.16
211
0.25
267
0.21
243
0.24
248
0.22
223
ddtwo views0.44
141
0.40
293
0.62
212
0.44
187
0.26
129
0.51
143
0.38
170
0.72
109
1.07
283
0.60
71
0.66
72
0.43
51
0.40
107
0.68
163
0.53
209
0.24
261
0.15
190
0.21
217
0.16
115
0.24
248
0.19
165
AACVNettwo views0.52
210
0.25
167
0.56
184
0.48
248
0.29
198
0.55
164
0.38
170
0.96
200
0.59
74
0.83
188
1.03
228
1.03
279
0.77
277
0.91
254
0.58
225
0.22
241
0.18
246
0.24
256
0.18
183
0.24
248
0.22
223
GMStereopermissivetwo views0.40
102
0.38
281
0.61
207
0.41
104
0.27
158
0.47
133
0.35
138
0.62
36
1.04
270
0.57
65
0.54
44
0.38
35
0.36
78
0.56
65
0.41
152
0.20
210
0.13
141
0.16
57
0.17
157
0.24
248
0.20
192
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
CFNet-ftpermissivetwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
BEATNet_4xtwo views0.49
179
0.35
267
0.72
257
0.38
44
0.20
18
0.65
214
0.36
145
1.08
240
0.78
142
0.78
174
0.88
158
0.73
192
0.64
211
0.71
181
0.60
228
0.16
99
0.12
86
0.16
57
0.15
90
0.24
248
0.18
156
CFNet_RVCtwo views0.50
190
0.25
167
0.39
36
0.41
104
0.26
129
0.66
219
0.37
157
0.91
178
0.87
190
0.67
109
1.00
211
1.05
286
0.70
243
0.68
163
0.57
220
0.23
255
0.16
211
0.24
256
0.21
243
0.24
248
0.19
165
DISCOtwo views0.72
286
0.27
207
0.72
257
0.45
199
0.31
227
1.12
326
0.53
273
1.32
319
1.25
326
0.84
194
1.07
242
1.52
354
0.87
303
1.82
368
1.08
327
0.20
210
0.15
190
0.18
116
0.16
115
0.24
248
0.24
250
ttttwo views0.56
235
0.27
207
0.49
122
0.39
60
0.25
101
0.65
214
0.42
218
1.24
289
1.08
288
0.76
155
1.10
250
0.63
138
0.51
155
0.95
267
1.03
315
0.25
273
0.22
286
0.22
229
0.21
243
0.25
257
0.25
257
LMCR-Stereopermissivemany views0.55
226
0.33
258
0.57
191
0.60
331
0.30
217
0.80
263
0.36
145
1.30
313
0.79
148
0.90
238
1.04
231
0.57
99
0.64
211
0.87
240
0.73
256
0.20
210
0.15
190
0.19
147
0.14
69
0.25
257
0.18
156
STTStereotwo views0.57
239
0.39
285
0.87
297
0.45
199
0.32
244
0.62
195
0.45
235
1.01
214
0.87
190
1.01
284
0.91
169
0.95
260
0.58
186
0.77
207
0.66
242
0.25
273
0.24
301
0.27
289
0.33
336
0.25
257
0.26
262
MSMDNettwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.99
207
0.99
251
0.87
216
1.07
242
0.79
219
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.20
176
0.16
115
0.25
257
0.20
192
UCFNet_RVCtwo views0.50
190
0.27
207
0.37
27
0.40
86
0.27
158
0.66
219
0.42
218
1.18
270
0.86
186
0.70
123
0.89
161
0.91
254
0.60
193
0.62
116
0.48
185
0.24
261
0.18
246
0.28
299
0.27
307
0.25
257
0.24
250
SGM_RVCbinarytwo views1.04
339
0.30
243
0.47
102
0.41
104
0.23
56
1.73
370
0.77
335
1.63
368
1.30
336
2.39
384
1.99
360
2.64
380
1.78
375
2.22
382
1.40
346
0.28
295
0.27
320
0.27
289
0.25
295
0.25
257
0.25
257
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
StereoVisiontwo views0.43
135
0.29
229
0.54
177
0.50
268
0.28
179
0.37
86
0.38
170
0.75
133
0.63
84
0.46
43
1.11
254
0.53
86
0.38
89
0.57
69
0.34
82
0.21
225
0.24
301
0.25
267
0.24
284
0.26
263
0.17
134
PCWNet_CMDtwo views0.49
179
0.25
167
0.56
184
0.40
86
0.27
158
0.64
208
0.32
99
0.98
204
0.99
251
0.87
216
1.07
242
0.78
213
0.46
137
0.61
94
0.44
164
0.17
125
0.13
141
0.21
217
0.16
115
0.26
263
0.20
192
Wz-Net-LNSevtwo views0.75
296
0.54
330
1.59
361
0.51
280
0.41
299
1.16
333
0.79
339
1.27
302
1.13
302
1.04
297
1.14
264
1.11
304
0.94
319
0.93
259
1.00
309
0.24
261
0.22
286
0.21
217
0.19
207
0.26
263
0.27
270
CFNet_pseudotwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.03
228
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.13
141
0.24
256
0.16
115
0.26
263
0.21
208
ccs_robtwo views0.47
161
0.25
167
0.55
180
0.38
44
0.28
179
0.58
183
0.32
99
0.89
172
0.90
208
0.83
188
1.02
217
0.75
200
0.48
144
0.61
94
0.46
173
0.17
125
0.12
86
0.24
256
0.16
115
0.26
263
0.21
208
DeepPruner_ROBtwo views0.55
226
0.37
277
0.67
231
0.42
129
0.31
227
0.50
138
0.43
225
1.22
285
0.73
127
0.86
214
1.05
234
0.85
230
0.58
186
0.90
252
0.56
216
0.29
302
0.23
293
0.22
229
0.22
261
0.26
263
0.26
262
DRN-Testtwo views0.68
280
0.34
263
0.77
271
0.52
294
0.40
294
1.14
329
0.61
302
1.56
360
1.04
270
1.18
328
1.10
250
1.05
286
0.72
255
0.82
228
1.01
310
0.24
261
0.18
246
0.26
281
0.25
295
0.26
263
0.23
242
MDST_ROBtwo views0.97
332
0.29
229
1.02
319
0.64
344
0.43
311
2.64
385
0.82
343
1.68
372
1.18
318
2.89
391
1.82
353
0.97
264
0.75
264
1.83
369
0.89
283
0.26
278
0.22
286
0.32
322
0.28
313
0.26
263
0.26
262
CBMVpermissivetwo views0.68
280
0.37
277
0.50
131
0.43
166
0.26
129
1.00
306
0.71
320
1.17
268
1.16
311
1.24
337
1.29
299
1.06
290
0.86
300
0.98
279
0.75
259
0.29
302
0.30
331
0.34
329
0.30
318
0.26
263
0.27
270
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
CFNet_ucstwo views0.51
200
0.25
167
0.58
193
0.39
60
0.31
227
0.59
189
0.35
138
1.04
222
0.95
232
0.89
231
1.19
279
0.80
223
0.49
148
0.66
146
0.45
169
0.21
225
0.16
211
0.26
281
0.18
183
0.27
272
0.23
242
aanetorigintwo views0.85
318
0.58
342
1.98
375
0.50
268
0.40
294
0.66
219
0.70
318
0.72
109
1.01
257
2.44
386
2.00
361
1.32
324
1.25
350
0.96
270
1.16
332
0.20
210
0.19
263
0.20
176
0.20
226
0.27
272
0.33
307
DMCA-RVCcopylefttwo views0.54
221
0.32
252
0.83
285
0.51
280
0.32
244
0.59
189
0.38
170
0.89
172
0.70
110
0.95
258
0.88
158
0.90
248
0.69
238
0.75
192
0.63
239
0.23
255
0.18
246
0.31
317
0.24
284
0.27
272
0.21
208
PA-Nettwo views0.70
283
0.46
311
0.96
311
0.51
280
0.53
344
0.94
294
0.73
329
1.14
257
1.15
309
0.83
188
0.90
163
0.88
241
0.76
273
1.19
315
0.96
303
0.25
273
0.41
368
0.29
307
0.44
360
0.27
272
0.39
324
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
TDLMtwo views0.59
254
0.35
267
0.57
191
0.53
301
0.32
244
0.67
228
0.72
324
1.09
243
1.03
266
0.84
194
1.11
254
0.84
228
0.71
248
0.96
270
0.61
232
0.28
295
0.18
246
0.26
281
0.22
261
0.27
272
0.21
208
StereoDRNettwo views0.67
277
0.35
267
0.82
281
0.53
301
0.44
316
1.03
314
0.53
273
1.51
353
1.06
276
1.13
324
0.91
169
1.07
294
0.74
261
0.87
240
0.95
301
0.24
261
0.19
263
0.25
267
0.23
270
0.27
272
0.22
223
PSMNet_ROBtwo views0.67
277
0.39
285
0.76
268
0.57
322
0.43
311
1.00
306
0.85
349
1.25
295
0.93
221
0.82
183
1.04
231
1.08
295
0.64
211
0.89
247
1.02
314
0.29
302
0.21
277
0.31
317
0.31
327
0.27
272
0.25
257
FAT-Stereotwo views0.75
296
0.34
263
0.81
280
0.51
280
0.38
282
0.78
251
0.63
307
1.39
332
1.32
338
1.05
302
1.40
315
1.58
359
1.14
342
0.92
256
0.91
292
0.29
302
0.28
325
0.28
299
0.23
270
0.28
279
0.41
335
FADNet-RVC-Resampletwo views0.58
250
0.35
267
1.34
346
0.50
268
0.34
265
0.73
241
0.43
225
1.09
243
0.96
239
0.83
188
0.87
155
0.76
206
0.66
219
0.77
207
0.52
200
0.19
191
0.18
246
0.26
281
0.27
307
0.28
279
0.29
284
Wz-Net-MNSevtwo views0.81
305
0.42
301
1.64
367
0.51
280
0.41
299
1.46
352
0.95
356
1.24
289
1.26
329
1.31
343
1.25
287
1.17
310
0.83
289
1.21
319
1.06
323
0.22
241
0.19
263
0.24
256
0.23
270
0.29
281
0.26
262
pcwnet_v2two views0.60
261
0.29
229
0.89
301
0.46
222
0.36
275
0.62
195
0.38
170
1.33
322
1.24
324
1.02
288
1.27
294
0.71
173
0.59
190
0.71
181
0.51
196
0.28
295
0.21
277
0.24
256
0.23
270
0.29
281
0.30
288
APVNettwo views0.73
287
0.39
285
1.01
318
0.58
327
0.45
323
1.16
333
0.68
315
1.47
349
0.87
190
0.84
194
1.15
266
1.04
283
0.84
292
1.14
307
1.18
333
0.27
287
0.28
325
0.32
322
0.31
327
0.29
281
0.32
298
hitnet-ftcopylefttwo views0.57
239
0.29
229
0.43
74
0.42
129
0.29
198
0.81
268
0.40
193
0.98
204
0.91
214
0.84
194
1.01
215
1.13
307
0.72
255
0.83
230
0.71
252
0.28
295
0.21
277
0.28
299
0.22
261
0.29
281
0.27
270
ADCLtwo views1.10
344
0.42
301
1.57
360
0.51
280
0.41
299
1.71
369
0.92
353
1.36
329
1.45
351
1.33
344
1.56
337
1.22
316
1.26
351
1.45
347
5.27
399
0.22
241
0.19
263
0.25
267
0.25
295
0.29
281
0.29
284
ADCP+two views1.18
353
0.37
277
3.09
385
0.50
268
0.52
342
1.48
354
0.61
302
1.32
319
1.07
283
1.21
331
1.16
269
1.08
295
1.11
337
1.63
357
7.17
404
0.20
210
0.16
211
0.24
256
0.22
261
0.29
281
0.22
223
SGM-ForestMtwo views4.73
403
0.34
263
1.05
321
0.46
222
0.28
179
10.26
411
3.48
410
4.52
405
5.16
402
8.68
414
7.48
412
18.87
421
10.80
413
11.26
415
10.01
408
0.32
317
0.34
353
0.32
322
0.32
330
0.29
281
0.30
288
SACVNettwo views0.61
264
0.36
275
0.67
231
0.57
322
0.37
277
0.65
214
0.47
243
1.16
262
0.80
153
1.04
297
1.06
240
1.02
277
0.81
286
0.99
283
0.57
220
0.28
295
0.21
277
0.25
267
0.24
284
0.30
288
0.39
324
Anonymoustwo views0.40
102
0.29
229
0.70
248
0.54
310
0.44
316
0.56
169
0.54
279
0.68
71
0.52
62
0.38
18
0.44
19
0.33
18
0.42
116
0.57
69
0.39
127
0.20
210
0.20
271
0.18
116
0.18
183
0.30
288
0.24
250
PWC_ROBbinarytwo views0.92
323
0.57
339
1.64
367
0.53
301
0.33
255
0.93
292
0.39
183
1.42
343
1.51
357
1.66
360
2.57
375
1.18
311
1.11
337
1.50
351
1.54
356
0.26
278
0.18
246
0.28
299
0.20
226
0.30
288
0.32
298
SGM-Foresttwo views0.65
275
0.33
258
0.43
74
0.44
187
0.30
217
1.01
310
0.54
279
1.13
255
1.09
294
1.11
322
1.21
281
1.10
302
0.76
273
0.99
283
0.71
252
0.32
317
0.33
350
0.33
327
0.30
318
0.30
288
0.28
279
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
dadtwo views0.61
264
0.53
324
0.72
257
0.44
187
0.31
227
0.64
208
0.37
157
0.85
163
1.28
331
1.05
302
1.17
274
1.18
311
0.61
197
0.70
176
0.54
212
0.36
339
0.23
293
0.37
337
0.21
243
0.31
292
0.23
242
AF-Nettwo views0.85
318
0.41
297
0.87
297
0.66
348
0.54
346
0.96
298
0.52
270
1.66
370
1.37
342
1.03
291
2.04
363
1.46
344
1.36
355
1.19
315
1.05
322
0.34
332
0.24
301
0.39
343
0.28
313
0.31
292
0.26
262
Nwc_Nettwo views0.82
306
0.40
293
0.86
292
0.62
339
0.56
348
1.04
316
0.57
288
1.72
374
1.08
288
0.93
249
1.88
356
1.44
342
1.24
349
1.19
315
0.94
298
0.31
312
0.25
309
0.36
333
0.39
348
0.31
292
0.31
295
RTSCtwo views0.93
324
0.54
330
1.59
361
0.56
319
0.40
294
1.17
337
0.55
283
1.44
345
1.82
372
1.53
353
1.26
290
1.15
309
0.82
287
1.70
362
2.44
376
0.26
278
0.20
271
0.23
243
0.24
284
0.31
292
0.32
298
DeepPrunerFtwo views0.93
324
0.55
336
3.88
390
0.70
360
0.81
370
0.72
240
0.74
331
1.28
307
1.97
375
0.95
258
1.02
217
0.87
238
0.85
296
1.16
311
1.07
325
0.35
337
0.29
327
0.43
349
0.40
352
0.31
292
0.33
307
XPNet_ROBtwo views0.73
287
0.38
281
0.80
275
0.53
301
0.40
294
0.80
263
0.83
345
1.21
279
0.96
239
1.37
346
1.17
274
1.37
336
0.87
303
1.14
307
0.99
308
0.33
325
0.25
309
0.27
289
0.24
284
0.31
292
0.29
284
FADNet-RVCtwo views0.62
270
0.56
338
1.29
340
0.47
240
0.39
291
0.63
200
0.40
193
1.16
262
0.91
214
0.71
132
0.86
149
1.04
283
0.55
166
0.99
283
0.78
263
0.27
287
0.26
318
0.28
299
0.29
317
0.32
298
0.31
295
GANettwo views0.74
292
0.38
281
0.63
216
0.54
310
0.35
270
1.01
310
0.95
356
1.15
260
0.95
232
1.09
316
2.00
361
1.14
308
0.92
314
1.29
328
0.75
259
0.25
273
0.27
320
0.27
289
0.23
270
0.32
298
0.24
250
CVANet_RVCtwo views0.59
254
0.35
267
0.54
177
0.49
257
0.33
255
0.70
234
0.67
312
1.12
249
0.97
244
0.88
224
1.05
234
1.01
275
0.72
255
0.94
262
0.55
214
0.30
309
0.20
271
0.28
299
0.26
303
0.32
298
0.23
242
MeshStereopermissivetwo views1.38
365
0.45
306
0.58
193
0.45
199
0.35
270
1.63
364
0.60
300
2.07
381
1.43
349
4.49
406
3.32
390
4.67
397
2.08
384
2.08
378
1.32
342
0.36
339
0.36
357
0.37
337
0.32
330
0.32
298
0.34
309
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
Wz-Net-SNSevtwo views0.99
336
0.80
362
3.00
384
0.57
322
0.46
331
0.94
294
1.22
375
1.40
336
1.28
331
1.04
297
1.33
303
1.46
344
0.90
311
2.06
376
1.65
359
0.26
278
0.24
301
0.25
267
0.26
303
0.33
302
0.30
288
FADNet_RVCtwo views0.58
250
0.39
285
1.26
335
0.45
199
0.32
244
0.55
164
0.34
116
1.12
249
0.90
208
0.68
116
0.90
163
0.61
128
0.71
248
1.03
294
0.80
271
0.21
225
0.18
246
0.27
289
0.23
270
0.33
302
0.30
288
S-Stereotwo views0.76
299
0.36
275
1.10
323
0.57
322
0.46
331
0.83
274
0.59
298
1.31
314
1.62
364
0.98
276
1.41
317
1.11
304
0.93
316
0.85
236
1.07
325
0.27
287
0.31
339
0.28
299
0.25
295
0.33
302
0.50
360
edge stereotwo views0.79
302
0.40
293
0.82
281
0.52
294
0.44
316
0.83
274
0.58
295
1.34
324
1.08
288
1.30
342
1.38
313
1.79
364
1.13
341
1.15
310
0.92
294
0.34
332
0.32
345
0.42
348
0.28
313
0.33
302
0.39
324
NCCL2two views0.74
292
0.45
306
0.77
271
0.65
346
0.45
323
0.97
299
1.16
370
1.16
262
1.02
262
1.00
282
0.98
198
1.48
348
0.88
307
0.99
283
0.89
283
0.31
312
0.27
320
0.39
343
0.39
348
0.33
302
0.34
309
CBMV_ROBtwo views0.62
270
0.39
285
0.41
50
0.41
104
0.28
179
0.86
282
0.28
50
1.06
233
1.02
262
0.95
258
1.33
303
0.81
225
0.84
292
0.94
262
0.56
216
0.37
343
0.37
358
0.43
349
0.40
352
0.33
302
0.32
298
psmorigintwo views0.84
313
0.53
324
2.21
380
0.50
268
0.41
299
0.86
282
0.57
288
1.08
240
0.90
208
1.50
351
1.42
321
1.50
350
1.09
335
1.29
328
1.03
315
0.32
317
0.33
350
0.27
289
0.27
307
0.34
308
0.45
349
NCC-stereotwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
324
1.60
366
1.12
296
0.95
258
1.41
317
1.37
336
1.37
357
1.26
323
0.94
298
0.32
317
0.30
331
0.37
337
0.49
369
0.34
308
0.35
312
Abc-Nettwo views0.82
306
0.43
303
0.87
297
0.63
341
0.68
366
0.88
285
0.72
324
1.60
366
1.12
296
0.95
258
1.41
317
1.37
336
1.37
357
1.26
323
0.94
298
0.32
317
0.30
331
0.37
337
0.49
369
0.34
308
0.35
312
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Anonymous Stereotwo views0.82
306
0.59
344
2.10
378
0.59
329
0.58
353
0.68
232
1.42
386
1.05
228
1.07
283
1.03
291
1.02
217
0.86
234
0.65
217
1.33
336
1.36
344
0.32
317
0.31
339
0.31
317
0.33
336
0.34
308
0.39
324
FBW_ROBtwo views0.94
328
0.54
330
1.03
320
0.56
319
0.42
308
1.16
333
0.76
334
1.56
360
1.41
346
1.38
348
1.33
303
1.47
346
1.07
333
2.94
393
1.14
331
0.26
278
0.32
345
0.45
353
0.30
318
0.34
308
0.30
288
ETE_ROBtwo views0.73
287
0.52
322
0.93
305
0.57
322
0.37
277
0.80
263
0.86
350
1.19
273
0.95
232
1.20
330
1.22
283
1.39
341
0.86
300
1.07
297
0.88
281
0.27
287
0.21
277
0.31
317
0.27
307
0.34
308
0.35
312
FINETtwo views0.75
296
0.45
306
1.38
349
0.48
248
0.46
331
0.98
303
1.00
360
1.22
285
1.69
368
0.91
245
1.25
287
0.74
196
0.74
261
1.09
301
0.82
274
0.37
343
0.31
339
0.27
289
0.24
284
0.35
314
0.34
309
PS-NSSStwo views0.60
261
0.46
311
0.68
238
0.43
166
0.34
265
0.66
219
0.57
288
1.05
228
0.91
214
0.80
178
1.28
295
0.72
188
0.67
228
0.89
247
0.61
232
0.32
317
0.26
318
0.40
346
0.27
307
0.35
314
0.29
284
CSANtwo views0.88
321
0.52
322
0.93
305
0.61
335
0.42
308
1.19
338
1.11
365
1.27
302
1.48
355
1.37
346
1.44
324
1.37
336
1.30
352
1.46
349
1.01
310
0.39
349
0.31
339
0.36
333
0.37
343
0.35
314
0.36
315
LALA_ROBtwo views0.76
299
0.46
311
0.86
292
0.55
316
0.41
299
1.00
306
0.93
355
1.25
295
1.13
302
1.23
335
1.15
266
1.55
356
0.80
283
1.11
304
0.96
303
0.33
325
0.23
293
0.35
330
0.30
318
0.35
314
0.32
298
RPtwo views0.80
303
0.38
281
0.73
261
0.67
350
0.59
355
0.82
271
0.57
288
1.21
279
1.28
331
1.03
291
1.68
344
1.45
343
1.49
365
1.08
300
0.90
289
0.36
339
0.31
339
0.37
337
0.30
318
0.36
318
0.36
315
SANettwo views1.15
349
0.45
306
1.40
350
0.50
268
0.32
244
1.54
360
1.21
373
1.49
350
3.35
395
1.61
355
2.41
371
2.32
377
1.80
376
1.57
354
1.27
339
0.28
295
0.25
309
0.26
281
0.24
284
0.36
318
0.32
298
PWCDC_ROBbinarytwo views0.93
324
0.54
330
0.97
315
0.78
369
0.41
299
1.03
314
0.42
218
1.39
332
2.34
384
1.04
297
3.73
394
0.80
223
1.12
339
1.29
328
1.04
320
0.37
343
0.22
286
0.24
256
0.20
226
0.36
318
0.31
295
ADCPNettwo views1.11
347
0.53
324
3.26
388
0.55
316
0.44
316
1.47
353
0.83
345
1.21
279
1.17
314
1.26
340
1.42
321
1.67
362
1.12
339
1.48
350
3.86
393
0.30
309
0.29
327
0.30
316
0.32
330
0.37
321
0.37
321
DANettwo views0.74
292
0.47
317
0.98
316
0.60
331
0.41
299
0.92
291
0.41
213
1.02
216
0.87
190
1.22
333
1.22
283
1.33
329
0.88
307
1.26
323
1.37
345
0.27
287
0.24
301
0.31
317
0.25
295
0.37
321
0.36
315
Z Ling, K Yang, J Li, Y Zhang, X Gao, L Luo, L Xie: Domain-adaptive modules for stereo matching network. Neurocomputing 2021
RGCtwo views0.82
306
0.62
348
0.80
275
0.67
350
0.66
364
0.91
290
0.59
298
1.35
325
1.09
294
1.12
323
1.46
328
1.50
350
1.09
335
1.28
326
0.97
306
0.34
332
0.30
331
0.48
360
0.40
352
0.38
323
0.38
323
ADCMidtwo views1.22
354
0.57
339
3.17
387
0.54
310
0.44
316
1.07
319
0.77
335
1.31
314
1.13
302
2.14
379
1.48
331
1.49
349
1.47
364
1.65
359
5.30
400
0.26
278
0.24
301
0.29
307
0.32
330
0.38
323
0.36
315
AnyNet_C32two views1.27
359
0.72
358
3.33
389
0.59
329
0.56
348
1.51
358
1.53
388
1.27
302
1.28
331
1.52
352
1.48
331
1.38
340
1.23
348
1.64
358
5.26
398
0.30
309
0.29
327
0.29
307
0.34
338
0.38
323
0.44
347
NOSS_ROBtwo views0.59
254
0.40
293
0.42
58
0.45
199
0.31
227
0.79
257
0.53
273
1.09
243
1.12
296
0.69
119
0.92
175
0.77
211
0.63
204
0.81
223
0.52
200
0.39
349
0.38
359
0.44
351
0.42
359
0.38
323
0.36
315
GMStereo_Zeroshotpermissivetwo views0.51
200
0.46
311
0.80
275
0.50
268
0.28
179
0.57
179
0.30
69
0.75
133
0.79
148
0.88
224
0.94
180
0.90
248
0.37
82
0.77
207
0.46
173
0.27
287
0.14
172
0.26
281
0.15
90
0.39
327
0.19
165
HBP-ISPtwo views0.61
264
0.47
317
0.45
84
0.46
222
0.33
255
0.79
257
0.29
57
1.15
260
1.05
272
0.85
204
1.18
278
0.67
165
0.71
248
0.92
256
0.57
220
0.37
343
0.38
359
0.47
357
0.41
357
0.39
327
0.32
298
WZ-Nettwo views1.29
361
0.64
350
5.42
399
0.64
344
0.52
342
1.37
347
1.29
378
1.41
338
1.77
371
1.56
354
1.69
346
1.74
363
1.41
359
2.50
388
2.16
373
0.28
295
0.21
277
0.23
243
0.25
295
0.39
327
0.41
335
stereogantwo views0.83
312
0.33
258
0.89
301
0.61
335
0.51
340
1.80
371
0.50
261
1.41
338
1.39
345
1.05
302
1.47
330
1.56
358
1.04
330
1.32
335
0.87
280
0.29
302
0.29
327
0.29
307
0.25
295
0.39
327
0.40
330
Wz-Net-TNSevtwo views1.23
356
1.24
383
5.25
398
0.51
280
0.43
311
1.49
357
1.09
364
1.58
363
1.42
348
1.25
338
1.26
290
1.58
359
1.52
366
1.97
373
1.95
365
0.33
325
0.32
345
0.26
281
0.30
318
0.41
331
0.43
343
MFN_U_SF_DS_RVCtwo views1.06
340
0.61
347
1.82
372
0.69
357
0.51
340
2.62
384
1.69
395
1.28
307
1.44
350
1.39
349
1.56
337
1.34
332
0.91
312
1.68
361
0.95
301
0.38
348
0.39
363
0.46
356
0.61
379
0.41
331
0.43
343
SHDtwo views0.98
334
0.54
330
1.30
342
0.63
341
0.50
338
1.14
329
0.50
261
1.80
378
2.20
379
1.66
360
1.39
314
1.47
346
1.21
346
1.40
339
1.80
362
0.32
317
0.27
320
0.32
322
0.34
338
0.41
331
0.44
347
RTStwo views2.03
384
1.03
378
11.50
408
0.68
354
0.63
360
2.71
386
1.56
390
1.55
356
2.32
382
1.93
371
2.57
375
1.32
324
1.32
353
5.20
405
4.30
394
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
RTSAtwo views2.03
384
1.03
378
11.50
408
0.68
354
0.63
360
2.71
386
1.56
390
1.55
356
2.32
382
1.93
371
2.57
375
1.32
324
1.32
353
5.20
405
4.30
394
0.31
312
0.23
293
0.29
307
0.30
318
0.41
331
0.40
330
WCMA_ROBtwo views1.22
354
0.39
285
0.93
305
0.51
280
0.45
323
1.44
351
0.79
339
1.20
276
1.30
336
2.99
397
3.94
398
3.30
390
2.17
387
1.42
343
1.31
341
0.46
357
0.35
355
0.35
330
0.37
343
0.41
331
0.42
339
EDNetEfficienttwo views1.47
371
0.82
363
6.28
401
0.48
248
0.40
294
0.73
241
0.83
345
0.95
196
2.77
389
3.48
403
1.95
358
1.64
361
2.12
385
1.42
343
3.84
392
0.21
225
0.19
263
0.21
217
0.21
243
0.43
337
0.42
339
RYNettwo views0.76
299
0.37
277
0.74
265
0.54
310
0.67
365
1.35
346
0.68
315
1.28
307
1.21
323
1.10
319
0.90
163
1.31
322
0.94
319
1.01
289
1.30
340
0.22
241
0.16
211
0.27
289
0.23
270
0.43
337
0.45
349
NVstereo2Dtwo views0.62
270
0.32
252
0.82
281
0.50
268
0.44
316
0.88
285
0.48
248
1.12
249
1.17
314
0.67
109
0.90
163
0.90
248
0.69
238
1.02
292
0.69
249
0.33
325
0.16
211
0.29
307
0.20
226
0.43
337
0.46
353
GASNettwo views0.70
283
0.77
360
1.16
329
0.71
362
0.49
335
0.62
195
0.48
248
1.12
249
1.05
272
0.98
276
0.84
138
0.94
259
0.82
287
1.41
342
0.85
278
0.33
325
0.22
286
0.29
307
0.28
313
0.44
340
0.26
262
MFN_U_SF_RVCtwo views1.14
348
0.63
349
2.33
381
0.69
357
0.46
331
2.04
376
0.70
318
1.90
379
1.37
342
1.62
356
1.56
337
1.94
369
1.36
355
1.73
364
1.90
364
0.41
354
0.38
359
0.45
353
0.48
366
0.45
341
0.47
355
ADCStwo views1.60
374
0.70
354
4.02
392
0.61
335
0.53
344
1.31
343
1.11
365
1.71
373
1.86
374
1.97
374
1.68
344
1.51
352
1.46
362
2.07
377
9.20
407
0.34
332
0.32
345
0.33
327
0.36
341
0.45
341
0.46
353
AnyNet_C01two views1.63
375
1.16
381
7.38
403
0.65
346
0.56
348
2.25
380
1.53
388
1.53
354
1.46
353
1.71
364
1.95
358
1.83
365
1.41
359
2.48
386
4.42
396
0.33
325
0.32
345
0.32
322
0.34
338
0.45
341
0.50
360
SDNRtwo views0.89
322
0.39
285
1.66
370
0.42
129
0.39
291
3.35
398
0.32
99
0.95
196
1.05
272
1.05
302
2.12
364
0.62
134
0.71
248
1.40
339
0.78
263
0.53
367
0.56
382
0.36
333
0.27
307
0.46
344
0.50
360
G-Nettwo views0.95
329
0.48
319
1.13
326
0.67
350
0.49
335
2.07
377
0.63
307
1.02
216
0.90
208
1.77
366
2.62
378
1.28
318
1.60
368
1.09
301
1.06
323
0.37
343
0.30
331
0.35
330
0.25
295
0.46
344
0.45
349
MSMD_ROBtwo views1.25
357
0.51
320
0.64
220
0.60
331
0.50
338
1.66
366
0.67
312
1.26
297
1.26
329
2.64
388
3.82
395
3.06
386
3.20
400
1.45
347
0.91
292
0.46
357
0.41
368
0.49
363
0.51
372
0.47
346
0.45
349
coex-fttwo views6.50
410
1.57
393
87.99
434
0.49
257
0.38
282
1.41
349
1.21
373
1.21
279
7.96
407
12.14
415
2.78
381
2.74
381
3.83
402
1.30
332
3.19
386
0.24
261
0.23
293
0.27
289
0.24
284
0.48
347
0.40
330
FADNettwo views0.63
273
0.53
324
1.20
331
0.46
222
0.44
316
0.66
219
0.41
213
1.24
289
1.07
283
0.70
123
0.84
138
0.98
266
0.65
217
0.87
240
0.54
212
0.29
302
0.30
331
0.27
289
0.30
318
0.48
347
0.36
315
FC-DCNNcopylefttwo views1.67
377
0.53
324
0.68
238
0.62
339
0.49
335
1.62
363
0.71
320
1.77
377
1.55
358
4.73
408
4.66
406
5.82
405
3.94
403
2.13
380
1.42
347
0.47
360
0.42
370
0.47
357
0.46
361
0.48
347
0.47
355
UDGNettwo views0.50
190
0.82
363
0.56
184
0.51
280
0.32
244
0.41
110
0.34
116
0.71
99
0.93
221
0.65
98
0.60
58
0.58
114
0.44
124
0.65
138
0.43
157
0.33
325
0.15
190
0.67
374
0.20
226
0.49
350
0.23
242
DPSNettwo views1.08
343
0.44
305
2.64
383
0.54
310
0.42
308
1.59
361
1.25
376
2.39
388
1.50
356
1.13
324
1.12
256
1.51
352
2.19
388
1.44
346
1.51
355
0.35
337
0.25
309
0.25
267
0.21
243
0.49
350
0.39
324
SAMSARAtwo views1.15
349
0.69
353
1.44
354
1.09
381
0.93
373
2.10
378
1.87
402
1.64
369
1.47
354
1.64
358
1.21
281
2.06
371
1.14
342
1.61
355
1.50
354
0.39
349
0.45
374
0.36
333
0.38
346
0.50
352
0.51
364
MANEtwo views4.73
403
0.54
330
0.77
271
0.69
357
0.60
358
10.35
412
1.67
394
8.68
413
12.66
413
6.90
412
9.43
414
11.59
415
10.59
412
8.26
412
8.41
405
0.51
365
0.45
374
0.48
360
1.02
393
0.50
352
0.50
360
PDISCO_ROBtwo views0.96
330
0.51
320
1.13
326
1.03
378
1.00
380
1.81
372
0.77
335
1.72
374
1.60
362
1.09
316
1.19
279
1.34
332
0.80
283
1.62
356
1.01
310
0.58
373
0.22
286
0.45
353
0.40
352
0.50
352
0.41
335
FCDSN-DCtwo views1.43
369
0.57
339
0.69
246
0.74
365
0.59
355
1.42
350
0.65
311
1.40
336
1.41
346
3.31
401
4.42
404
4.57
396
3.01
398
1.70
362
1.19
335
0.46
357
0.42
370
0.48
360
0.47
362
0.51
355
0.51
364
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
PVDtwo views1.34
364
0.70
354
1.42
352
0.78
369
0.65
362
1.68
367
0.91
351
2.12
384
3.01
391
2.25
381
2.35
370
1.90
368
1.99
382
1.98
374
2.14
371
0.40
353
0.38
359
0.49
363
0.37
343
0.51
355
0.67
373
LSMtwo views4.83
405
0.83
366
11.23
407
0.76
368
56.73
432
1.10
321
1.18
371
1.35
325
1.70
369
2.13
376
2.34
368
1.34
332
1.19
345
1.52
352
1.23
337
0.34
332
0.50
379
0.39
343
0.47
362
0.51
355
9.82
418
ccnettwo views0.84
313
0.59
344
0.86
292
0.56
319
0.60
358
1.11
325
0.72
324
1.44
345
0.97
244
1.15
326
1.44
324
1.28
318
0.95
321
1.01
289
1.33
343
0.49
362
0.43
372
0.50
365
0.47
362
0.52
358
0.48
357
BEATNet-Init1two views15.65
416
1.62
396
54.26
433
0.75
367
0.56
348
37.03
428
13.39
415
13.20
418
14.59
415
29.41
432
29.29
432
47.69
435
21.87
424
26.91
426
19.58
416
0.43
356
0.39
363
0.47
357
0.47
362
0.52
358
0.52
366
Anonymous_2two views0.84
313
0.45
306
0.66
227
0.41
104
0.45
323
0.82
271
0.53
273
0.81
152
0.81
162
0.73
140
0.61
61
0.91
254
0.76
273
0.77
207
0.61
232
0.51
365
0.55
381
0.54
368
4.92
416
0.54
360
0.42
339
EDNetEfficientorigintwo views9.96
412
1.17
382
175.17
435
0.49
257
0.37
277
1.13
328
0.74
331
1.27
302
2.70
388
3.16
400
2.49
372
2.28
374
2.15
386
1.88
370
2.27
375
0.21
225
0.19
263
0.25
267
0.20
226
0.54
360
0.53
368
sAnonymous2two views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
343
CroCo_RVCtwo views0.42
123
0.41
297
0.96
311
0.48
248
0.37
277
0.41
110
0.48
248
0.60
31
0.52
62
0.39
21
0.48
27
0.35
25
0.44
124
0.44
22
0.30
48
0.19
191
0.14
172
0.19
147
0.17
157
0.55
362
0.43
343
XQCtwo views0.97
332
0.70
354
1.54
359
0.70
360
0.55
347
1.48
354
0.81
341
1.41
338
1.57
360
1.21
331
1.12
256
1.33
329
1.04
330
1.55
353
2.00
369
0.39
349
0.25
309
0.37
337
0.32
330
0.55
362
0.49
358
ELAS_RVCcopylefttwo views1.76
379
0.64
350
1.20
331
0.74
365
0.59
355
2.18
379
2.53
407
2.10
383
2.85
390
3.46
402
3.41
393
3.12
387
4.11
404
2.69
391
2.53
381
0.54
370
0.47
377
0.51
367
0.48
366
0.55
362
0.55
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
ELAScopylefttwo views1.77
380
0.64
350
1.10
323
0.72
363
0.58
353
3.37
399
1.76
397
2.54
389
2.57
386
3.77
404
3.96
399
2.83
383
3.44
401
2.34
385
2.73
383
0.53
367
0.47
377
0.50
365
0.48
366
0.55
362
0.55
369
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PASMtwo views0.96
330
0.71
357
2.05
377
0.72
363
0.72
369
0.84
279
0.92
353
1.14
257
1.34
341
1.25
338
1.22
283
1.34
332
1.07
333
1.31
333
1.11
328
0.53
367
0.57
383
0.59
372
0.67
380
0.56
367
0.57
371
DGSMNettwo views0.80
303
0.58
342
1.42
352
0.61
335
0.65
362
0.94
294
0.75
333
1.35
325
1.16
311
0.88
224
1.26
290
1.00
271
0.75
264
1.07
297
0.89
283
0.36
339
0.31
339
0.41
347
0.40
352
0.60
368
0.59
372
STTRV1_RVCtwo views0.60
346
0.67
350
0.81
370
1.12
326
0.63
307
1.37
331
1.12
296
0.98
276
1.34
307
1.08
295
0.95
321
1.28
326
0.90
289
0.57
372
0.25
309
0.44
351
0.39
348
0.60
368
0.41
335
FADEtwo views2.54
408
1.04
379
1.00
380
21.24
429
0.63
370
GANetREF_RVCpermissivetwo views0.82
306
0.77
360
0.95
310
0.68
354
0.43
311
1.15
331
1.06
363
1.19
273
1.20
321
1.03
291
1.02
217
1.10
302
0.89
309
1.20
318
0.78
263
0.49
362
0.39
363
0.58
371
0.39
348
0.69
371
0.49
358
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
NVStereoNet_ROBtwo views1.31
363
0.96
372
1.33
345
0.90
373
0.92
372
1.15
331
1.05
362
1.49
350
1.62
364
1.63
357
2.51
373
2.31
375
1.62
369
2.16
381
1.42
347
0.81
380
0.73
387
0.79
376
1.02
393
0.73
372
0.97
383
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
MSC_U_SF_DS_RVCtwo views1.38
365
0.91
370
2.11
379
0.89
372
0.57
352
4.27
404
1.79
399
1.55
356
2.00
377
1.64
358
1.85
355
1.83
365
1.44
361
1.89
372
1.49
353
0.49
362
0.40
366
0.56
369
0.58
376
0.75
373
0.52
366
CC-Net-ROBtwo views0.84
313
1.01
377
0.93
305
0.60
331
0.45
323
1.25
341
0.71
320
1.20
276
1.05
272
0.84
194
1.24
286
0.90
248
0.78
278
1.14
307
0.70
250
0.48
361
0.34
353
1.71
388
0.38
346
0.78
374
0.40
330
MADNet+two views2.28
391
2.56
409
10.82
406
1.25
385
0.96
376
2.77
390
1.44
387
2.34
386
1.76
370
1.36
345
1.78
352
1.84
367
1.74
374
6.33
408
4.57
397
0.67
376
0.66
385
0.59
372
0.54
375
0.84
375
0.81
378
MaskLacGwcNet_RVCtwo views0.71
285
0.84
367
0.80
275
0.55
316
0.38
282
1.38
348
0.57
288
1.07
235
0.81
162
0.90
238
0.94
180
0.95
260
0.54
163
1.01
289
0.61
232
0.41
354
0.30
331
0.57
370
0.31
327
0.86
376
0.39
324
MFMNet_retwo views1.17
352
0.99
374
1.31
343
1.02
377
0.95
375
1.32
344
1.32
379
1.44
345
1.58
361
1.72
365
1.70
347
1.21
313
1.57
367
1.16
311
1.04
320
0.88
382
0.76
393
0.79
376
0.75
384
0.90
377
0.94
380
anonymitytwo views0.98
334
0.89
369
1.06
322
0.93
374
1.04
384
0.97
299
0.82
343
1.33
322
0.93
221
1.08
312
0.98
198
1.02
277
0.95
321
1.02
292
0.93
296
0.96
384
0.96
404
0.90
379
0.91
389
0.92
378
0.95
382
SGM+DAISYtwo views1.52
372
0.99
374
1.61
365
1.01
376
1.02
382
1.86
374
1.19
372
1.49
350
1.38
344
2.96
395
3.00
385
2.79
382
1.94
378
1.88
370
1.62
357
0.98
386
0.97
405
0.91
381
0.91
389
0.94
379
0.99
385
SPS-STEREOcopylefttwo views1.29
361
0.94
371
1.10
323
1.05
380
1.03
383
1.48
354
0.91
351
1.57
362
1.24
324
2.13
376
1.90
357
1.94
369
1.46
362
1.77
365
1.64
358
0.97
385
0.94
403
0.90
379
0.89
388
0.96
380
0.97
383
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
JetBluetwo views3.02
396
1.39
388
7.91
404
1.17
383
1.49
390
8.53
410
7.94
412
2.82
390
1.98
376
2.15
380
2.69
380
3.32
391
3.01
398
6.66
409
3.81
391
0.79
378
0.78
394
0.75
375
0.76
385
1.04
381
1.33
396
WAO-7two views1.96
381
1.24
383
1.52
356
1.28
386
1.06
385
2.92
394
1.64
393
3.32
396
3.05
393
2.28
382
3.32
390
3.19
389
2.38
391
3.39
395
2.49
380
1.02
387
0.92
399
1.06
383
1.04
395
1.05
382
0.99
385
Consistency-Rafttwo views1.01
338
0.82
363
1.27
338
0.85
371
0.97
377
0.81
268
0.83
345
1.35
325
1.61
363
1.06
310
1.66
343
1.11
304
0.93
316
0.93
259
1.11
328
0.65
375
0.75
391
0.79
376
0.91
389
1.09
383
0.79
377
UDGtwo views0.93
324
1.03
378
0.75
267
1.00
375
0.97
377
1.02
312
0.57
288
1.18
270
1.01
257
0.93
249
1.02
217
1.32
324
1.03
328
0.88
246
0.92
294
0.55
371
0.33
350
1.82
390
0.41
357
1.20
384
0.74
375
DDUNettwo views1.10
344
2.58
411
0.83
285
1.21
384
1.27
388
1.02
312
0.69
317
1.17
268
0.95
232
0.98
276
1.26
290
1.28
318
0.84
292
0.97
277
0.79
270
0.85
381
0.40
366
2.00
393
0.60
378
1.34
385
0.94
380
SQANettwo views0.87
320
0.76
359
0.76
268
1.16
382
0.99
379
1.10
321
0.51
264
1.12
249
0.85
180
0.93
249
1.05
234
1.03
279
0.76
273
1.07
297
0.70
250
0.79
378
0.25
309
1.04
382
0.36
341
1.56
386
0.70
374
PWCKtwo views2.06
386
1.75
400
4.11
394
1.69
390
0.93
373
3.13
397
2.86
409
2.18
385
2.41
385
2.38
383
2.33
367
2.22
373
1.85
377
3.52
397
2.20
374
1.65
394
0.73
387
1.52
387
0.83
387
1.81
387
1.02
388
otakutwo views1.10
344
0.96
372
0.96
311
1.37
388
1.06
385
1.65
365
0.72
324
1.46
348
1.19
319
1.10
319
1.32
302
1.32
324
0.95
321
1.29
328
0.81
273
0.89
383
0.46
376
1.24
384
0.50
371
1.86
388
0.89
379
WAO-6two views2.11
388
1.52
391
1.25
334
1.73
391
1.69
396
2.72
388
1.62
392
3.15
394
3.64
396
2.01
375
3.28
388
3.52
394
2.20
389
2.59
389
2.48
379
1.31
392
0.92
399
2.04
397
1.22
404
1.89
389
1.35
398
Ntrotwo views1.15
349
1.00
376
1.00
317
1.49
389
1.20
387
1.69
368
0.81
341
1.39
332
1.25
326
1.01
284
1.28
295
1.31
322
1.00
326
1.31
333
0.89
283
1.10
389
0.43
372
1.36
385
0.51
372
1.95
390
0.99
385
WAO-8two views3.00
394
1.60
394
1.52
356
1.82
393
1.65
394
5.57
406
1.35
382
4.65
407
12.37
411
2.89
391
4.04
400
4.89
400
2.78
394
3.73
399
2.44
376
1.29
390
0.93
401
2.00
393
1.16
402
2.02
391
1.23
391
Venustwo views3.00
394
1.60
394
1.52
356
1.82
393
1.65
394
5.57
406
1.35
382
4.65
407
12.37
411
2.89
391
4.04
400
4.89
400
2.78
394
3.73
399
2.44
376
1.29
390
0.93
401
2.00
393
1.16
402
2.02
391
1.23
391
ACVNet_2two views1.74
378
1.30
385
1.62
366
1.81
392
1.63
392
2.28
381
1.34
381
2.35
387
2.64
387
1.82
367
2.55
374
2.99
384
1.71
373
1.67
360
1.20
336
1.48
393
0.59
384
1.81
389
0.71
382
2.09
393
1.29
393
RainbowNettwo views1.42
368
1.53
392
1.31
343
1.93
395
1.46
389
1.52
359
1.03
361
1.67
371
1.55
358
1.23
335
1.59
340
1.54
355
1.21
346
1.40
339
1.03
315
1.70
395
0.70
386
1.82
390
0.80
386
2.11
394
1.22
390
ACVNet-4btwo views1.43
369
1.34
386
1.28
339
1.95
396
1.60
391
1.93
375
0.77
335
1.59
364
1.64
366
1.05
302
1.60
341
2.10
372
0.92
314
1.79
367
0.84
276
1.76
397
0.35
355
2.03
396
0.67
380
2.16
395
1.18
389
LVEtwo views2.20
390
1.47
390
1.44
354
2.06
398
1.80
398
2.79
391
1.77
398
2.96
391
3.94
401
1.95
373
4.29
403
3.47
393
1.97
379
2.48
386
1.85
363
2.06
399
0.88
398
2.06
399
1.13
400
2.17
396
1.53
399
Deantwo views2.07
387
1.39
388
1.69
371
2.17
399
1.83
399
2.75
389
1.28
377
3.49
400
3.80
399
2.13
376
3.30
389
3.18
388
1.98
381
1.78
366
1.72
360
1.73
396
0.79
397
1.99
392
0.91
389
2.17
396
1.34
397
ACVNet_1two views1.55
373
1.36
387
1.35
347
1.96
397
1.63
392
1.83
373
0.96
358
2.09
382
1.85
373
1.43
350
1.54
335
2.31
375
1.68
372
1.42
343
1.18
333
1.76
397
0.51
380
2.05
398
0.59
377
2.24
398
1.30
394
DispFullNettwo views1.64
376
2.64
412
3.14
386
2.57
404
1.78
397
1.32
344
0.55
283
1.42
343
1.45
351
1.89
370
1.48
331
1.55
356
2.35
390
2.08
378
1.12
330
0.60
374
0.19
263
2.33
401
0.73
383
2.35
399
1.30
394
IMH-64-1two views1.96
381
1.64
397
1.26
335
2.26
401
1.91
400
2.30
382
1.35
382
2.99
392
2.29
380
1.70
362
2.79
382
2.47
378
1.66
370
2.33
383
1.95
365
2.07
400
0.74
389
2.44
402
1.04
395
2.40
400
1.59
400
IMH-64two views1.96
381
1.64
397
1.26
335
2.26
401
1.91
400
2.30
382
1.35
382
2.99
392
2.29
380
1.70
362
2.79
382
2.47
378
1.66
370
2.33
383
1.95
365
2.07
400
0.74
389
2.44
402
1.04
395
2.40
400
1.59
400
IMHtwo views2.15
389
1.66
399
1.29
340
2.25
400
1.92
402
2.87
392
1.33
380
3.25
395
3.04
392
1.87
369
3.33
392
3.00
385
2.03
383
2.80
392
1.95
365
2.09
402
0.78
394
2.45
404
1.05
398
2.44
402
1.62
402
SuperBtwo views1.00
337
0.41
297
4.03
393
0.45
199
0.32
244
0.99
305
0.49
258
1.09
243
2.09
378
1.10
319
1.10
250
0.74
196
0.83
289
1.13
305
1.75
361
0.20
210
0.15
190
0.17
85
0.15
90
2.50
403
0.27
270
DPSimNet_ROBtwo views5.19
407
2.71
413
18.56
413
2.59
405
2.49
407
4.25
403
10.93
413
3.33
397
3.93
400
5.02
409
4.52
405
5.74
403
10.18
410
5.44
407
8.79
406
2.40
406
2.47
412
2.48
405
2.54
411
2.56
404
2.87
411
ktntwo views3.02
396
2.27
406
1.85
373
2.89
409
2.54
410
3.72
400
2.14
404
3.79
403
5.33
403
2.82
390
5.09
408
5.95
406
2.54
392
3.34
394
2.58
382
2.65
409
1.44
410
2.78
410
2.03
410
2.61
405
2.10
406
TorneroNet-64two views3.54
398
1.89
401
1.59
361
2.62
407
2.29
404
6.88
409
1.72
396
4.72
409
11.88
409
2.43
385
5.46
410
8.16
410
2.80
396
4.13
403
3.03
385
2.25
405
0.75
391
2.57
406
1.09
399
2.65
406
1.84
404
TorneroNettwo views4.49
402
1.92
402
1.65
369
2.60
406
2.29
404
14.95
417
1.86
401
4.86
410
19.56
425
3.10
399
7.52
413
7.00
409
2.90
397
4.48
404
3.66
389
2.24
404
0.78
394
2.68
408
1.14
401
2.79
407
1.80
403
KSHMRtwo views2.64
392
1.96
403
1.86
374
2.69
408
2.44
406
2.88
393
2.04
403
3.46
399
6.31
405
2.51
387
3.27
387
3.39
392
1.97
379
2.59
389
2.08
370
2.48
407
1.41
409
2.80
411
1.51
407
2.98
408
2.09
405
notakertwo views2.87
393
2.31
407
2.01
376
3.03
410
2.60
411
2.94
395
1.82
400
3.43
398
3.06
394
2.89
391
4.21
402
6.15
408
2.71
393
3.42
396
2.90
384
2.67
410
1.18
407
3.00
412
1.67
408
3.13
409
2.26
407
SPstereotwo views24.33
421
4.45
415
7.15
402
4.44
416
4.17
415
45.69
429
77.93
435
63.66
436
33.40
434
27.58
431
26.62
424
39.42
434
33.37
434
42.68
436
50.66
430
4.01
413
3.77
416
6.06
419
4.73
415
3.17
410
3.55
414
UNDER WATER-64two views3.72
400
2.07
404
4.57
396
3.30
413
2.52
409
5.61
408
2.63
408
3.67
402
12.27
410
3.09
398
2.66
379
5.99
407
4.74
407
3.93
402
3.57
388
2.54
408
1.24
408
2.65
407
1.48
406
3.21
411
2.62
410
UNDER WATERtwo views3.63
399
2.12
405
4.11
394
3.17
411
2.51
408
3.77
402
2.45
406
3.53
401
13.66
414
2.98
396
2.92
384
5.75
404
4.13
405
3.85
401
3.75
390
2.84
411
1.11
406
2.71
409
1.41
405
3.26
412
2.50
409
JetRedtwo views5.38
408
6.17
416
12.68
411
2.38
403
2.85
412
12.60
416
11.17
414
4.60
406
3.74
397
3.87
405
3.85
396
4.83
398
4.13
405
6.81
410
12.18
411
2.18
403
2.95
414
2.19
400
1.98
409
3.49
413
3.01
412
MADNet++two views4.18
401
2.72
414
4.00
391
3.80
415
3.44
414
4.72
405
4.05
411
4.01
404
3.74
397
4.52
407
5.14
409
4.20
395
4.89
408
7.04
411
6.39
401
3.79
412
3.70
415
3.27
414
2.70
413
3.68
414
3.74
415
HanzoNettwo views6.97
411
2.57
410
4.66
397
3.29
412
2.96
413
3.75
401
2.35
405
5.08
411
7.11
406
14.46
422
13.06
415
17.69
419
22.95
425
13.72
417
6.61
402
4.36
414
1.96
411
3.14
413
2.59
412
3.88
415
3.19
413
tttwo views6.21
409
0.22
97
5.88
400
3.55
414
2.07
403
11.25
415
19.19
416
11.84
417
5.47
404
2.71
389
2.18
365
4.87
399
6.25
409
3.71
398
7.09
403
8.31
419
11.17
423
4.91
415
5.39
418
5.72
416
2.42
408
ASD4two views10.37
413
9.12
419
17.90
412
7.49
418
10.02
416
16.90
418
28.93
420
11.05
416
8.53
408
7.42
413
7.41
411
8.91
411
10.32
411
11.44
416
20.38
418
4.52
415
4.58
417
5.68
418
5.04
417
5.72
416
6.02
417
DGTPSM_ROBtwo views12.12
414
8.03
417
21.12
414
8.97
419
16.81
418
10.68
413
30.77
421
9.14
414
15.23
416
6.55
410
15.49
422
9.02
412
15.13
415
9.26
413
21.71
419
4.58
416
8.60
418
5.07
416
9.26
419
5.88
418
11.06
419
DPSMNet_ROBtwo views12.13
415
8.03
417
21.13
415
9.02
420
16.82
419
10.68
413
30.78
422
9.15
415
15.24
417
6.56
411
15.50
423
9.02
412
15.13
415
9.28
414
21.71
419
4.59
417
8.60
418
5.08
417
9.26
419
5.89
419
11.06
419
DPSM_ROBtwo views17.80
417
18.60
421
24.24
421
20.89
422
19.49
420
25.83
421
36.10
424
21.62
425
16.41
419
13.46
417
14.26
420
19.11
422
16.15
418
20.74
419
25.59
422
9.37
421
9.23
421
9.47
421
9.81
421
13.47
420
12.09
422
DPSMtwo views17.80
417
18.60
421
24.24
421
20.89
422
19.49
420
25.83
421
36.10
424
21.62
425
16.41
419
13.46
417
14.26
420
19.11
422
16.15
418
20.74
419
25.59
422
9.37
421
9.23
421
9.47
421
9.81
421
13.47
420
12.09
422
PMLtwo views40.49
435
30.31
426
12.46
410
7.19
417
14.30
417
91.44
436
212.44
437
7.73
412
23.24
426
74.44
436
185.05
437
49.81
436
25.78
426
21.34
421
12.84
412
8.71
420
2.93
413
8.43
420
3.24
414
13.77
422
4.45
416
MyStereo03two views35.83
425
37.48
432
48.64
429
42.37
430
39.41
429
51.98
431
72.91
431
43.07
430
33.07
431
27.20
428
28.81
429
38.36
428
32.60
429
41.58
430
51.47
432
18.74
428
18.61
428
19.07
423
19.77
425
27.10
423
24.35
425
MyStereo02two views35.83
425
37.48
432
48.64
429
42.37
430
39.41
429
51.98
431
72.91
431
43.07
430
33.07
431
27.20
428
28.81
429
38.36
428
32.60
429
41.58
430
51.47
432
18.74
428
18.61
428
19.07
423
19.77
425
27.10
423
24.35
425
MyStereotwo views35.83
425
37.48
432
48.64
429
42.37
430
39.41
429
51.98
431
72.91
431
43.07
430
33.07
431
27.20
428
28.81
429
38.36
428
32.60
429
41.58
430
51.47
432
18.74
428
18.61
428
19.07
423
19.77
425
27.10
423
24.35
425
CasAABBNettwo views35.77
424
37.38
430
48.59
428
42.20
428
39.23
427
51.95
430
72.92
434
43.36
433
33.03
430
26.93
425
28.31
426
38.43
431
32.32
428
41.58
430
51.50
435
18.71
427
18.58
426
19.11
427
19.75
424
27.11
426
24.33
424
Selective-RAFT-Errortwo views35.87
428
37.42
431
48.73
432
42.24
429
39.28
428
52.00
434
72.87
430
43.41
434
32.95
429
26.97
426
28.72
427
38.71
433
33.15
433
41.59
434
51.42
431
18.77
431
18.60
427
19.14
428
19.78
428
27.19
427
24.42
428
LSM0two views38.96
434
37.52
435
48.37
427
43.79
433
91.31
437
52.31
435
72.38
429
43.71
435
32.75
428
27.16
427
28.73
428
38.51
432
32.63
432
41.75
435
51.59
436
18.85
432
18.43
425
19.09
426
19.60
423
27.21
428
33.44
430
xxxxx1two views36.77
429
19.69
423
24.00
418
62.46
434
66.77
434
27.30
424
39.89
426
20.40
420
18.80
422
14.18
419
13.11
416
17.29
416
17.30
420
21.62
422
27.81
424
13.61
423
18.98
431
111.36
435
133.25
434
28.84
429
38.64
431
tt_lltwo views36.77
429
19.69
423
24.00
418
62.46
434
66.77
434
27.30
424
39.89
426
20.40
420
18.80
422
14.18
419
13.11
416
17.29
416
17.30
420
21.62
422
27.81
424
13.61
423
18.98
431
111.36
435
133.25
434
28.84
429
38.64
431
fftwo views36.77
429
19.69
423
24.00
418
62.46
434
66.77
434
27.30
424
39.89
426
20.40
420
18.80
422
14.18
419
13.11
416
17.29
416
17.30
420
21.62
422
27.81
424
13.61
423
18.98
431
111.36
435
133.25
434
28.84
429
38.64
431
LRCNet_RVCtwo views21.27
420
31.14
427
21.46
416
28.97
425
23.77
423
3.11
396
0.62
304
20.94
423
1.64
366
25.57
424
28.13
425
21.96
424
14.74
414
21.99
425
16.44
415
29.16
433
14.92
424
33.57
430
31.28
429
29.67
432
26.33
429
HaxPigtwo views31.93
422
37.19
429
34.22
423
24.41
424
24.94
424
18.53
419
20.18
417
21.15
424
28.84
427
35.74
433
38.86
433
26.18
425
28.75
427
33.85
427
34.15
427
35.89
434
38.80
434
37.79
431
40.52
430
39.33
433
39.33
434
AVERAGE_ROBtwo views37.53
433
40.05
436
40.01
425
34.74
427
33.76
426
28.46
427
25.14
419
32.31
429
34.08
436
41.20
434
40.52
434
34.51
427
34.78
436
39.11
428
37.48
429
42.68
435
43.32
435
43.80
432
42.99
431
40.42
434
41.31
435
MEDIAN_ROBtwo views37.35
432
40.72
437
40.37
426
32.26
426
31.80
425
27.29
423
25.02
418
29.47
428
33.43
435
41.99
435
41.60
435
33.48
426
34.37
435
39.66
429
36.94
428
43.49
436
43.96
436
44.07
433
43.35
432
41.32
435
42.43
436
DLNR_Zeroshot_testpermissivetwo views20.12
419
36.36
428
38.38
424
170.13
437
62.28
433
0.22
4
0.20
1
13.43
419
0.40
29
0.45
39
0.66
72
0.42
45
0.21
5
0.64
132
0.32
63
5.57
418
0.10
8
0.15
41
0.11
15
72.31
436
0.13
31
Anonymous_1two views33.12
423
18.23
420
23.86
417
20.53
421
21.18
422
25.45
420
35.84
423
22.44
427
15.68
418
13.41
416
13.70
419
18.00
420
15.15
417
20.31
418
24.47
421
14.56
426
8.84
420
66.24
434
117.79
433
155.41
437
11.40
421
test_example2two views176.82
436
204.75
438
198.54
436
188.58
438
191.23
438
151.28
437
169.77
436
97.63
437
125.81
437
179.94
437
183.74
436
158.20
437
139.14
437
192.16
437
198.12
437
203.48
437
236.37
437
163.71
438
173.22
437
217.79
438
162.95
437