This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalldeliv. area 1ldeliv. area 1sdeliv. area 2ldeliv. area 2sdeliv. area 3ldeliv. area 3select. 1lelect. 1select. 2lelect. 2select. 3lelect. 3sfacade 1sforest 1sforest 2splayg. 1lplayg. 1splayg. 2lplayg. 2splayg. 3lplayg. 3sterra. 1sterra. 2sterra. 1lterra. 1sterra. 2lterra. 2s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
AIO-test2two views0.21
1
0.16
1
0.11
1
0.09
1
0.11
2
0.16
5
0.12
20
0.23
7
0.15
12
0.18
8
0.19
18
0.42
31
0.14
7
0.12
3
0.34
1
0.42
2
0.32
1
0.25
3
0.30
1
0.18
1
0.29
1
0.32
8
0.11
2
0.15
14
0.20
1
0.20
1
0.23
1
0.19
2
Pointernettwo views0.24
2
0.21
4
0.14
2
0.14
9
0.12
3
0.19
14
0.16
36
0.28
11
0.10
1
0.17
7
0.14
13
0.23
3
0.14
7
0.12
3
0.47
4
0.42
2
0.37
6
0.23
1
0.35
2
0.19
2
0.35
4
0.25
3
0.14
7
0.14
13
0.23
2
0.21
4
0.67
31
0.22
6
MLG-Stereotwo views0.25
3
0.25
8
0.14
2
0.11
2
0.20
21
0.12
2
0.07
3
0.21
4
0.12
3
0.19
9
0.11
6
0.29
11
0.10
1
0.21
30
0.61
11
0.65
19
0.36
4
0.35
15
0.44
16
0.23
8
0.35
4
0.32
8
0.11
2
0.09
1
0.26
5
0.22
5
0.48
10
0.25
15
AIO-test1two views0.25
3
0.19
2
0.14
2
0.12
6
0.14
8
0.18
11
0.15
34
0.33
19
0.16
15
0.25
17
0.24
27
0.35
19
0.14
7
0.19
22
0.56
10
0.59
11
0.35
2
0.30
8
0.35
2
0.27
13
0.33
2
0.31
6
0.13
6
0.13
7
0.23
2
0.23
7
0.31
2
0.18
1
MLG-Stereo_test1two views0.26
5
0.22
5
0.14
2
0.13
7
0.22
26
0.11
1
0.08
5
0.22
6
0.12
3
0.20
10
0.12
8
0.33
16
0.11
2
0.21
30
0.66
14
0.64
17
0.37
6
0.35
15
0.50
20
0.22
6
0.39
8
0.30
5
0.12
4
0.10
2
0.26
5
0.22
5
0.53
14
0.27
19
CoSvtwo views0.26
5
0.38
20
0.20
16
0.18
15
0.14
8
0.35
55
0.09
10
0.38
27
0.16
15
0.20
10
0.08
3
0.28
9
0.14
7
0.09
1
0.47
4
0.59
11
0.42
16
0.23
1
0.39
10
0.19
2
0.40
10
0.23
2
0.10
1
0.13
7
0.40
29
0.25
11
0.36
4
0.24
9
MM-Stereo_test3two views0.27
7
0.36
17
0.14
2
0.25
23
0.15
11
0.15
3
0.08
5
0.48
36
0.18
25
0.25
17
0.10
4
0.41
30
0.12
4
0.11
2
0.36
2
0.40
1
0.42
16
0.26
4
0.37
8
0.25
11
0.33
2
0.25
3
0.24
30
0.12
4
0.29
10
0.20
1
0.77
45
0.23
7
LG-Stereotwo views0.28
8
0.26
9
0.17
11
0.17
14
0.16
14
0.23
23
0.13
26
0.30
13
0.15
12
0.23
13
0.19
18
0.52
41
0.14
7
0.18
19
0.55
8
0.58
9
0.39
11
0.30
8
0.54
24
0.22
6
0.44
14
0.31
6
0.12
4
0.12
4
0.28
8
0.24
9
0.46
9
0.24
9
MM-Stereo_test1two views0.29
9
0.69
58
0.15
7
0.23
19
0.14
8
0.16
5
0.07
3
0.37
26
0.14
6
0.27
21
0.11
6
0.43
32
0.11
2
0.12
3
0.45
3
0.48
5
0.45
23
0.32
10
0.42
12
0.27
13
0.35
4
0.35
11
0.23
27
0.13
7
0.31
13
0.23
7
0.63
27
0.24
9
RSMtwo views0.30
10
0.30
13
0.22
23
0.32
43
0.15
11
0.21
17
0.10
14
0.17
1
0.16
15
0.14
2
0.26
30
0.22
2
0.19
25
0.14
7
0.64
13
0.60
13
0.39
11
0.37
20
0.35
2
0.33
23
0.46
17
0.54
24
0.19
20
0.16
16
0.30
12
0.26
16
0.58
18
0.24
9
MoCha-V2two views0.30
10
0.31
14
0.23
26
0.21
16
0.17
17
0.17
10
0.14
30
0.23
7
0.11
2
0.26
20
0.28
34
0.32
15
0.16
15
0.19
22
0.62
12
0.61
15
0.39
11
0.38
22
0.35
2
0.42
42
0.61
32
0.51
22
0.15
8
0.16
16
0.35
18
0.26
16
0.34
3
0.19
2
ProNettwo views0.30
10
0.27
10
0.31
35
0.26
25
0.15
11
0.27
33
0.27
73
0.38
27
0.13
5
0.15
4
0.49
74
0.29
11
0.13
5
0.16
13
0.73
17
0.49
6
0.43
18
0.32
10
0.35
2
0.27
13
0.38
7
0.22
1
0.38
56
0.22
32
0.32
14
0.20
1
0.38
5
0.27
19
111111two views0.31
13
0.37
18
0.19
13
0.25
23
0.29
38
0.22
22
0.09
10
0.19
3
0.16
15
0.10
1
0.17
15
0.27
5
0.17
19
0.18
19
0.79
20
0.56
8
0.46
27
0.28
6
0.76
46
0.24
10
0.53
25
0.61
33
0.21
22
0.11
3
0.25
4
0.25
11
0.41
7
0.19
2
AIO-Stereopermissivetwo views0.31
13
0.33
15
0.22
23
0.35
49
0.16
14
0.20
16
0.10
14
0.17
1
0.14
6
0.14
2
0.20
22
0.21
1
0.16
15
0.14
7
0.55
8
0.55
7
0.41
14
0.39
25
1.18
81
0.36
28
0.39
8
0.43
16
0.17
11
0.16
16
0.32
14
0.24
9
0.61
23
0.19
2
GREAT-IGEVtwo views0.32
15
0.37
18
0.21
21
0.15
10
0.12
3
0.16
5
0.09
10
0.30
13
0.16
15
0.33
27
0.18
16
0.44
33
0.19
25
0.20
27
0.74
18
0.61
15
0.45
23
0.29
7
0.42
12
0.28
17
0.43
12
0.52
23
0.21
22
0.17
21
0.27
7
0.25
11
0.88
50
0.23
7
RSM++two views0.33
16
0.33
15
0.23
26
0.36
54
0.20
21
0.24
26
0.10
14
0.21
4
0.16
15
0.16
5
0.26
30
0.26
4
0.19
25
0.16
13
0.83
22
0.65
19
0.41
14
0.38
22
0.50
20
0.39
32
0.50
20
0.59
30
0.25
33
0.16
16
0.41
31
0.26
16
0.54
15
0.30
26
CroCo-Stereo Lap2two views0.33
16
0.22
5
0.15
7
0.11
2
0.12
3
0.16
5
0.08
5
0.35
24
0.15
12
0.47
41
0.10
4
0.31
14
0.14
7
0.14
7
1.26
36
1.00
55
0.36
4
0.36
19
0.44
16
0.20
4
0.53
25
0.55
25
0.17
11
0.13
7
0.39
28
0.35
36
0.40
6
0.27
19
StereoVisiontwo views0.34
18
0.27
10
0.21
21
0.13
7
0.18
18
0.21
17
0.14
30
0.30
13
0.23
35
0.35
30
0.18
16
0.34
18
0.17
19
0.16
13
0.98
24
0.78
33
0.44
20
0.35
15
0.43
15
0.23
8
0.40
10
0.48
17
0.16
9
0.21
30
0.40
29
0.40
45
0.71
35
0.37
32
MM-Stereo_test2two views0.35
19
0.78
104
0.22
23
0.30
38
0.21
25
0.18
11
0.11
17
0.33
19
0.16
15
0.36
31
0.15
14
0.39
25
0.15
14
0.17
17
0.69
15
0.66
21
0.43
18
0.39
25
0.41
11
0.37
29
0.50
20
0.85
56
0.24
30
0.16
16
0.35
18
0.25
11
0.54
15
0.25
15
CroCo-Stereocopylefttwo views0.35
19
0.20
3
0.15
7
0.11
2
0.10
1
0.18
11
0.06
1
0.33
19
0.14
6
0.31
26
0.05
1
0.36
21
0.13
5
0.15
11
1.64
51
1.05
62
0.35
2
0.37
20
0.45
18
0.20
4
0.62
35
0.79
50
0.16
9
0.13
7
0.38
24
0.31
25
0.45
8
0.26
18
P.Weinzaepfel, T. Lucas, V. Leroy, Y. Cabon, V. Arora, R. Bregier, G. Csurka, L. Antsfeld, B. Chidlovskii, J. Revaud: CroCo v2: Improved Cross-view Completion Pre-training for Stereo Matching and Optical Flow. ICCV 2023
RAFTtwo views0.35
19
0.22
5
0.19
13
0.27
28
0.13
6
0.30
40
0.08
5
0.97
113
0.18
25
0.92
141
0.19
18
0.27
5
0.16
15
0.18
19
0.51
6
0.47
4
0.38
9
0.26
4
0.54
24
0.25
11
0.43
12
0.34
10
0.19
20
0.15
14
0.38
24
0.34
34
0.90
51
0.27
19
IGEV-Stereo++two views0.36
22
0.40
23
0.20
16
0.22
18
0.25
30
0.21
17
0.09
10
0.25
10
0.17
22
0.20
10
0.34
46
0.29
11
0.20
31
0.19
22
0.78
19
0.60
13
0.44
20
0.33
12
0.75
43
0.34
25
0.53
25
0.64
37
0.22
24
0.13
7
0.28
8
0.27
20
1.09
69
0.28
23
MSCFtwo views0.37
23
0.41
25
0.20
16
0.34
45
0.19
20
0.23
23
0.14
30
0.30
13
0.20
30
0.67
71
0.13
11
0.27
5
0.17
19
0.14
7
1.02
25
0.77
32
0.37
6
0.34
14
0.36
7
0.28
17
0.45
16
0.50
21
0.22
24
0.20
27
0.35
18
0.90
129
0.70
33
0.25
15
GIP-stereotwo views0.37
23
0.56
37
0.32
37
0.29
34
0.23
28
0.21
17
0.11
17
0.24
9
0.17
22
0.30
24
0.19
18
0.38
23
0.18
23
0.21
30
1.05
27
0.64
17
0.46
27
0.39
25
0.42
12
0.41
38
0.52
24
0.82
53
0.17
11
0.17
21
0.35
18
0.31
25
0.76
42
0.24
9
GASTEREOtwo views0.38
25
0.42
27
0.20
16
0.34
45
0.18
18
0.24
26
0.14
30
0.30
13
0.19
29
0.73
86
0.12
8
0.28
9
0.17
19
0.13
6
1.05
27
0.74
29
0.38
9
0.33
12
0.37
8
0.30
20
0.44
14
0.56
27
0.23
27
0.20
27
0.35
18
0.87
122
0.73
39
0.24
9
MLG-Stereo_test2two views0.39
26
0.54
35
0.17
11
0.16
12
0.24
29
0.15
3
0.08
5
0.33
19
0.14
6
0.24
15
0.13
11
0.39
25
0.14
7
0.17
17
1.52
45
0.76
31
0.45
23
0.44
34
1.04
67
0.42
42
0.48
19
0.48
17
0.18
17
0.12
4
0.34
16
0.25
11
0.66
29
0.38
33
AdaDepthtwo views0.41
27
0.41
25
0.20
16
0.24
20
0.28
37
0.23
23
0.16
36
0.32
18
0.20
30
0.23
13
0.29
35
0.27
5
0.21
32
0.23
36
0.97
23
1.09
74
0.49
31
0.41
30
1.08
73
0.34
25
0.54
29
0.59
30
0.18
17
0.21
30
0.29
10
0.28
21
0.75
41
0.43
37
Utwo views0.41
27
0.28
12
0.16
10
0.11
2
0.13
6
0.16
5
0.06
1
0.45
35
0.14
6
0.49
42
0.07
2
0.36
21
0.16
15
0.20
27
1.71
57
1.14
84
0.44
20
0.41
30
0.59
30
0.32
21
0.66
39
0.92
63
0.17
11
0.17
21
0.50
51
0.36
38
0.49
11
0.35
30
Occ-Gtwo views0.43
29
0.59
41
0.29
31
0.34
45
0.31
44
0.26
32
0.12
20
0.38
27
0.18
25
0.16
5
0.32
40
0.33
16
0.24
36
0.16
13
1.16
30
0.84
36
0.45
23
0.39
25
0.71
37
0.32
21
0.87
67
0.78
49
0.22
24
0.19
26
0.36
23
0.26
16
0.94
57
0.31
27
AEACVtwo views0.43
29
0.94
172
0.30
32
0.29
34
0.20
21
0.27
33
0.12
20
0.28
11
0.14
6
0.24
15
0.23
26
0.35
19
0.21
32
0.20
27
1.24
35
0.83
35
0.57
48
0.38
22
0.78
49
0.45
52
0.81
59
0.73
44
0.24
30
0.18
25
0.34
16
0.31
25
0.61
23
0.28
23
DEFOM-Stereotwo views0.45
31
0.55
36
0.28
30
0.26
25
0.30
40
0.32
44
0.13
26
0.35
24
0.17
22
0.25
17
0.32
40
0.38
23
0.19
25
0.22
34
1.10
29
0.73
27
0.59
54
0.52
47
0.51
23
0.44
50
0.73
48
0.69
40
0.42
72
0.28
42
0.44
35
0.32
31
1.28
82
0.46
42
RAStereotwo views0.46
32
0.38
20
0.19
13
0.15
10
0.16
14
0.19
14
0.11
17
0.44
33
0.18
25
0.99
151
0.12
8
0.45
34
0.18
23
0.15
11
1.85
78
1.10
77
0.52
35
0.47
37
0.68
35
0.27
13
0.77
52
0.80
52
0.27
34
0.17
21
0.47
44
0.34
34
0.51
12
0.41
36
TDLMtwo views0.49
33
0.59
41
0.60
99
0.39
70
0.48
96
0.46
87
0.43
133
0.72
63
0.35
63
0.30
24
0.65
111
0.76
101
0.41
71
0.35
79
0.54
7
0.58
9
0.55
41
0.49
40
0.50
20
0.43
45
0.50
20
0.39
13
0.41
66
0.39
74
0.38
24
0.31
25
0.61
23
0.66
81
anonymousdsptwo views0.50
34
0.38
20
0.36
44
0.28
30
0.32
46
0.28
35
0.15
34
0.56
41
0.26
38
0.42
35
0.33
44
0.53
44
0.19
25
0.27
43
1.47
40
0.87
38
0.54
39
0.52
47
0.62
31
0.48
58
0.71
43
1.04
73
0.36
50
0.30
44
0.46
38
0.29
23
1.13
74
0.33
28
iRaftStereo_RVCtwo views0.51
35
0.56
37
0.40
52
0.28
30
0.31
44
0.32
44
0.19
47
0.68
60
0.25
37
0.46
40
0.57
95
0.58
49
0.29
42
0.25
39
1.17
33
0.89
40
0.56
45
0.45
35
0.72
38
0.41
38
0.97
78
0.79
50
0.35
45
0.34
56
0.44
35
0.41
50
0.76
42
0.48
44
delettwo views0.51
35
0.58
39
0.47
72
0.35
49
0.50
108
0.50
103
0.30
81
0.49
37
0.29
49
0.56
47
0.44
66
0.45
34
0.34
50
0.48
150
1.16
30
0.68
23
0.55
41
0.46
36
0.47
19
0.41
38
0.58
30
0.39
13
0.39
58
0.41
81
0.48
47
0.36
38
1.09
69
0.50
48
MLG-Stereo_test3two views0.52
37
0.48
31
0.27
29
0.29
34
0.38
67
0.24
26
0.12
20
0.34
23
0.20
30
1.12
163
0.30
37
0.54
45
0.19
25
0.31
61
1.85
78
0.92
42
0.52
35
0.52
47
1.17
79
0.39
32
0.70
41
0.75
46
0.18
17
0.24
37
0.38
24
0.31
25
0.90
51
0.44
39
AIO_rvctwo views0.53
38
0.71
71
0.38
48
0.34
45
0.22
26
0.34
51
0.16
36
0.57
42
0.28
47
0.38
32
0.22
24
0.56
46
0.24
36
0.27
43
1.96
93
1.04
59
0.48
30
0.40
29
1.28
87
0.47
57
0.79
58
0.95
69
0.39
58
0.22
32
0.46
38
0.28
21
0.72
36
0.33
28
AASNettwo views0.53
38
0.74
81
0.46
70
0.35
49
0.61
135
0.51
108
0.42
130
0.65
56
0.26
38
0.41
34
0.50
76
0.39
25
0.31
47
0.41
109
1.02
25
0.69
24
0.53
38
0.60
70
0.67
33
0.51
61
0.60
31
0.87
58
0.41
66
0.41
81
0.50
51
0.40
45
0.70
33
0.45
41
LG-G_1two views0.54
40
0.70
64
0.32
37
0.36
54
0.39
69
0.32
44
0.16
36
0.41
30
0.21
33
0.29
22
0.34
46
0.50
36
0.35
56
0.32
64
2.09
113
1.07
66
0.51
33
0.58
66
0.75
43
0.59
87
0.78
55
1.24
86
0.17
11
0.22
32
0.46
38
0.39
43
0.60
20
0.48
44
LG-Gtwo views0.54
40
0.70
64
0.32
37
0.36
54
0.39
69
0.32
44
0.16
36
0.41
30
0.21
33
0.29
22
0.34
46
0.50
36
0.35
56
0.32
64
2.09
113
1.07
66
0.51
33
0.58
66
0.75
43
0.59
87
0.78
55
1.24
86
0.17
11
0.22
32
0.46
38
0.39
43
0.60
20
0.48
44
AANet_RVCtwo views0.54
40
0.45
29
0.40
52
0.33
44
0.61
135
0.28
35
0.31
85
0.61
47
0.58
140
0.44
37
0.41
61
0.39
25
0.48
86
0.33
69
1.16
30
0.79
34
0.55
41
0.53
56
0.56
28
0.52
65
0.46
17
0.49
19
0.34
42
0.38
67
0.57
67
0.57
74
1.05
66
0.97
133
LGtest1two views0.57
43
0.81
116
0.46
70
0.26
25
0.30
40
0.28
35
0.12
20
0.43
32
0.26
38
0.34
29
0.56
92
0.50
36
0.30
46
0.28
47
2.04
106
1.24
102
0.57
48
0.65
94
0.74
41
0.46
56
0.72
45
1.41
96
0.29
35
0.30
44
0.54
60
0.35
36
0.65
28
0.52
52
MaDis-Stereotwo views0.57
43
0.47
30
0.30
32
0.16
12
0.26
34
0.21
17
0.17
43
0.44
33
0.32
56
1.08
161
0.22
24
0.51
40
0.22
35
0.19
22
1.83
75
1.19
94
0.62
57
0.59
69
1.09
75
0.45
52
0.81
59
0.94
65
0.37
54
0.25
39
0.63
78
0.67
89
0.60
20
0.82
106
LG-Stereo_L2two views0.58
45
0.69
58
0.43
62
0.28
30
0.35
60
0.24
26
0.13
26
0.62
52
0.26
38
0.70
75
0.39
58
0.71
85
0.34
50
0.28
47
1.83
75
1.32
113
0.57
48
0.51
45
0.96
60
0.41
38
0.74
50
1.06
75
0.32
38
0.27
40
0.52
57
0.38
41
0.62
26
0.64
75
LG-Stereo_L1two views0.58
45
0.69
58
0.41
56
0.24
20
0.35
60
0.25
30
0.12
20
0.62
52
0.27
45
0.72
81
0.32
40
0.69
77
0.34
50
0.29
50
1.82
72
1.36
119
0.57
48
0.52
47
1.14
78
0.42
42
0.70
41
1.11
78
0.29
35
0.30
44
0.51
54
0.33
32
0.66
29
0.65
79
AIO_testtwo views0.59
47
0.77
100
0.45
65
0.44
86
0.25
30
0.35
55
0.20
51
0.61
47
0.27
45
0.43
36
0.30
37
0.57
47
0.28
41
0.29
50
2.01
99
1.46
145
0.49
31
0.42
32
0.86
52
0.49
60
1.02
85
1.01
71
0.40
62
0.24
37
0.47
44
0.49
59
1.00
62
0.35
30
MMNettwo views0.59
47
0.58
39
0.44
63
0.38
59
0.55
122
0.42
76
0.29
79
0.60
45
0.40
76
0.38
32
0.55
91
0.63
60
0.32
48
0.51
162
1.51
44
0.75
30
0.72
84
0.58
66
0.76
46
0.55
74
0.62
35
0.41
15
0.40
62
0.52
126
0.51
54
0.49
59
1.49
101
0.50
48
IGEV-Stereo+two views0.60
49
1.04
208
0.24
28
0.49
95
0.32
46
0.29
38
0.13
26
0.51
38
0.26
38
0.79
108
0.94
168
0.57
47
0.26
38
0.28
47
1.64
51
1.19
94
0.59
54
0.61
75
1.19
82
0.43
45
0.90
74
1.17
81
0.48
100
0.20
27
0.41
31
0.31
25
0.56
17
0.40
35
UniTT-Stereotwo views0.60
49
0.44
28
0.32
37
0.21
16
0.25
30
0.34
51
0.17
43
0.61
47
0.31
52
0.75
90
0.27
32
0.62
59
0.34
50
0.21
30
1.77
67
1.44
138
0.57
48
0.61
75
1.53
104
0.44
50
0.91
75
1.14
80
0.37
54
0.29
43
0.50
51
0.54
69
0.52
13
0.58
59
CVANet_RVCtwo views0.60
49
0.67
53
0.81
138
0.81
179
0.53
118
0.66
156
0.55
157
1.15
132
0.39
69
0.44
37
0.79
147
0.80
110
0.44
81
0.43
124
0.69
15
0.67
22
0.55
41
0.53
56
0.55
27
0.57
79
0.63
37
0.57
28
0.40
62
0.41
81
0.46
38
0.40
45
0.72
36
0.55
53
DMCAtwo views0.63
52
0.73
78
0.63
103
0.40
71
0.49
99
0.52
111
0.33
100
0.59
44
0.52
116
0.80
112
0.63
108
0.70
81
0.40
68
0.47
144
1.48
41
0.92
42
0.69
72
0.67
100
0.67
33
0.51
61
0.67
40
0.59
30
0.48
100
0.45
96
0.48
47
0.52
67
1.04
65
0.62
70
RAFT_CTSACEtwo views0.64
53
0.94
172
0.31
35
0.37
57
0.34
56
0.33
48
0.23
57
1.23
143
0.26
38
0.64
65
0.29
35
0.71
85
0.57
113
0.34
74
1.57
49
1.07
66
0.52
35
0.43
33
0.72
38
0.33
23
0.85
64
1.72
104
0.42
72
0.30
44
0.46
38
0.41
50
1.58
113
0.39
34
GANettwo views0.64
53
0.67
53
0.63
103
0.57
120
0.58
126
0.95
201
0.55
157
0.78
76
0.46
93
0.57
50
0.61
102
1.83
212
0.36
60
0.41
109
0.81
21
0.69
24
0.76
97
0.73
120
0.58
29
0.40
36
0.53
25
0.49
19
0.47
97
0.48
112
0.56
66
0.41
50
0.83
47
0.69
84
DFGA-Nettwo views0.65
55
0.64
44
0.36
44
0.51
102
0.33
53
0.43
78
0.29
79
0.88
102
0.34
60
2.05
222
0.38
56
0.52
41
0.29
42
0.22
34
1.35
37
1.07
66
0.76
97
0.49
40
0.96
60
0.35
27
0.71
43
0.71
42
0.36
50
0.41
81
0.57
67
0.38
41
1.81
126
0.43
37
HCRNettwo views0.66
56
0.78
104
0.41
56
0.54
113
0.27
36
0.41
74
0.39
114
0.63
54
0.31
52
1.62
197
0.59
100
0.67
73
0.29
42
0.41
109
1.99
97
0.73
27
0.60
56
0.47
37
0.65
32
0.43
45
0.78
55
0.62
34
0.36
50
0.34
56
0.42
34
0.43
55
2.14
150
0.50
48
plaintwo views0.67
57
0.87
138
0.33
41
0.31
40
0.59
128
0.33
48
0.30
81
0.89
103
0.34
60
0.72
81
0.24
27
0.65
67
0.34
50
0.19
22
1.95
86
1.57
165
0.71
79
0.69
106
0.94
58
0.39
32
1.28
107
1.20
84
0.33
41
0.33
54
0.59
74
0.60
76
0.72
36
0.74
89
MIF-Stereo (partial)two views0.69
58
0.76
95
0.33
41
0.27
28
0.37
65
0.35
55
0.31
85
0.53
39
0.40
76
0.62
61
0.32
40
0.50
36
0.39
63
0.23
36
2.08
109
1.51
154
0.68
67
0.71
111
0.77
48
0.43
45
1.10
91
0.94
65
0.39
58
0.32
51
0.57
67
0.71
92
2.25
169
0.87
119
test_5two views0.69
58
0.91
156
0.30
32
0.38
59
0.26
34
0.35
55
0.19
47
1.79
219
0.31
52
0.58
53
1.20
192
0.75
97
0.73
160
0.32
64
1.36
38
1.10
77
0.54
39
0.54
60
1.01
65
0.37
29
0.61
32
1.37
95
0.29
35
0.34
56
0.41
31
0.40
45
1.72
120
0.44
39
FINETtwo views0.69
58
0.65
48
0.67
112
0.65
141
0.49
99
0.48
98
0.45
139
0.75
68
0.59
142
0.61
58
0.48
71
0.82
116
0.57
113
0.43
124
1.71
57
1.08
72
0.77
100
0.57
63
1.07
72
0.56
76
0.88
68
0.65
38
0.43
77
0.50
119
0.62
77
0.56
73
0.96
59
0.64
75
raft+_RVCtwo views0.71
61
0.73
78
0.70
117
0.41
75
0.34
56
0.49
100
0.30
81
1.48
182
0.43
86
0.62
61
0.62
104
0.65
67
0.39
63
0.26
41
1.74
62
1.16
87
0.69
72
0.53
56
1.57
110
0.51
61
0.85
64
1.06
75
0.44
80
0.38
67
0.68
90
0.62
78
0.85
48
0.69
84
IGEV-BASED-STEREO-two views0.73
62
0.86
136
0.36
44
0.43
83
0.32
46
0.30
40
0.19
47
0.71
62
0.32
56
0.70
75
0.33
44
0.63
60
0.57
113
0.41
109
2.03
105
1.91
188
0.63
59
0.68
104
1.00
62
0.45
52
1.86
143
1.87
107
0.40
62
0.23
36
0.49
49
0.37
40
1.09
69
0.55
53
GMStereopermissivetwo views0.73
62
0.99
191
0.39
49
0.49
95
0.47
90
0.55
120
0.41
124
0.77
70
0.43
86
0.55
45
0.48
71
0.81
115
0.38
61
0.34
74
1.60
50
0.95
47
0.74
94
0.52
47
1.88
118
0.57
79
1.07
86
0.73
44
0.42
72
0.51
121
0.72
100
0.47
58
1.87
133
0.57
58
Haofei Xu, Jing Zhang, Jianfei Cai, Hamid Rezatofighi, Fisher Yu, Dacheng Tao, Andreas Geiger: Unifying Flow, Stereo and Depth Estimation. TPAMI 2023
UPFNettwo views0.73
62
0.69
58
0.79
133
0.54
113
0.65
146
0.58
135
0.54
153
0.72
63
0.54
127
0.59
55
0.57
95
0.61
56
0.47
83
0.62
193
1.80
70
0.96
49
0.72
84
0.68
104
0.91
56
0.72
136
0.64
38
0.55
25
0.53
133
0.52
126
0.58
71
0.51
64
2.19
159
0.59
65
AFF-stereotwo views0.76
65
0.69
58
0.59
96
0.30
38
0.32
46
0.52
111
0.18
46
0.86
95
0.41
78
1.37
182
0.43
64
0.60
55
0.34
50
0.24
38
1.76
66
1.13
82
0.57
48
0.62
79
2.81
163
0.43
45
0.77
52
0.63
35
0.41
66
0.32
51
0.70
94
0.67
89
2.38
184
0.56
55
TestStereotwo views0.77
66
0.93
169
0.79
133
0.56
117
0.46
86
0.66
156
0.33
100
1.22
141
0.42
85
0.90
137
0.52
84
0.84
120
0.54
102
0.39
99
1.50
43
0.92
42
0.73
89
0.51
45
1.38
94
0.56
76
1.25
104
0.82
53
0.44
80
0.44
94
0.77
110
0.79
103
1.34
86
0.79
99
MIM_Stereotwo views0.78
67
0.77
100
0.53
88
0.43
83
0.38
67
0.46
87
0.22
56
1.50
185
0.31
52
0.55
45
0.38
56
0.64
64
0.27
40
0.32
64
1.77
67
1.09
74
0.63
59
0.73
120
3.30
188
0.57
79
1.19
100
0.91
62
0.34
42
0.36
62
0.49
49
0.41
50
1.95
138
0.58
59
DEFOM-Stereo_RVCtwo views0.80
68
0.75
89
0.48
76
0.38
59
0.33
53
0.25
30
0.16
36
0.68
60
0.30
51
0.72
81
0.42
63
0.77
105
0.35
56
0.30
53
1.81
71
1.08
72
0.65
63
0.56
61
1.71
114
0.48
58
1.60
129
4.30
147
0.49
111
0.39
74
0.60
76
0.49
59
0.95
58
0.65
79
CFNettwo views0.80
68
0.84
129
0.79
133
0.76
164
0.70
158
0.60
142
0.46
143
0.84
92
0.48
101
0.66
69
0.71
130
0.92
138
0.61
127
0.43
124
1.75
64
0.84
36
0.70
75
0.64
91
0.90
55
0.78
152
0.89
72
0.72
43
0.45
86
0.51
121
0.87
134
0.83
111
1.67
119
1.15
160
G2L-Stereotwo views0.81
70
0.69
58
0.60
99
0.57
120
0.78
175
0.50
103
0.37
111
0.77
70
0.53
121
0.69
74
0.78
145
0.70
81
0.63
130
0.54
164
2.08
109
0.96
49
0.73
89
0.63
88
1.23
84
0.61
100
1.22
102
0.66
39
0.57
152
0.48
112
0.77
110
0.89
124
1.98
141
0.80
102
HGLStereotwo views0.83
71
0.64
44
0.75
126
0.52
106
0.67
152
0.56
126
0.45
139
0.66
59
0.50
110
1.72
204
0.96
172
0.64
64
0.56
109
0.54
164
1.65
54
1.18
91
0.80
110
0.76
129
1.05
68
0.66
119
0.99
80
1.36
94
0.49
111
0.54
136
0.71
97
0.76
99
1.59
115
0.82
106
S2M2_XLtwo views0.85
72
0.50
33
0.64
106
0.24
20
0.30
40
0.35
55
0.28
76
0.61
47
0.43
86
0.56
47
0.35
52
0.65
67
0.59
118
0.34
74
2.56
156
1.65
173
0.69
72
0.47
37
0.72
38
0.54
67
4.94
185
2.28
119
0.48
100
0.30
44
0.55
65
0.51
64
0.74
40
0.74
89
UNettwo views0.85
72
0.76
95
0.74
123
0.60
129
0.60
131
0.61
145
0.53
151
0.90
104
0.58
140
1.21
168
0.68
118
0.71
85
0.56
109
0.67
201
1.72
61
1.11
80
0.79
107
0.72
118
1.13
77
0.82
162
0.84
62
0.69
40
0.62
172
0.58
149
0.64
80
0.77
100
2.48
193
0.95
130
RASNettwo views0.85
72
0.72
74
0.89
159
0.61
131
0.62
142
0.66
156
0.41
124
0.98
115
0.61
146
1.21
168
0.64
109
0.74
90
0.67
144
0.40
103
1.23
34
1.31
111
0.72
84
0.66
97
1.00
62
0.70
132
1.09
89
1.43
97
0.43
77
0.75
193
0.68
90
0.79
103
2.17
155
0.93
128
anonymousdsp2two views0.86
75
0.84
129
0.84
145
0.43
83
0.44
84
0.56
126
0.32
96
1.17
134
0.36
65
0.66
69
0.67
115
0.69
77
0.40
68
0.49
155
1.46
39
1.36
119
0.67
66
0.62
79
2.12
127
0.60
97
1.36
115
2.66
127
0.36
50
0.44
94
0.71
97
0.51
64
1.86
132
0.64
75
ddtwo views0.86
75
0.80
110
0.51
79
1.05
207
0.44
84
0.85
187
0.44
137
0.85
93
0.39
69
0.83
117
0.40
59
1.23
178
0.39
63
0.47
144
2.21
129
0.98
52
0.97
169
0.71
111
2.00
125
0.61
100
0.84
62
0.77
48
0.49
111
0.64
174
0.70
94
0.53
68
1.73
122
1.47
187
RAFT-Stereo + iAFFtwo views0.86
75
0.72
74
0.84
145
0.41
75
0.39
69
0.54
117
0.21
54
0.99
116
0.52
116
1.54
192
0.57
95
0.73
89
0.39
63
0.26
41
2.15
117
1.17
89
0.64
62
0.50
42
2.66
157
0.57
79
0.88
68
0.90
60
0.47
97
0.39
74
0.86
130
0.72
94
2.54
205
0.66
81
DMCA-RVCcopylefttwo views0.86
75
0.74
81
0.73
120
0.61
131
0.77
171
0.56
126
0.70
177
0.77
70
1.43
231
1.38
184
0.69
121
0.87
125
0.54
102
0.55
170
1.66
56
1.05
62
0.81
119
0.74
124
0.95
59
0.73
139
0.89
72
0.93
64
0.51
125
0.58
149
0.59
74
0.62
78
1.82
129
0.91
125
Former-RAFT_DAM_RVCtwo views0.87
79
0.64
44
0.54
91
0.44
86
0.41
78
0.38
63
0.26
70
1.26
149
0.49
105
0.85
123
0.62
104
0.75
97
0.54
102
0.34
74
1.75
64
1.50
153
0.68
67
0.70
108
1.17
79
0.56
76
1.52
122
3.83
138
0.39
58
0.37
63
0.75
106
1.18
171
0.68
32
0.77
96
RAFT+CT+SAtwo views0.87
79
0.97
185
0.40
52
0.45
89
0.29
38
0.38
63
0.20
51
1.64
208
0.33
58
0.72
81
0.30
37
0.88
130
0.65
138
0.40
103
1.56
48
1.21
98
0.56
45
0.57
63
2.08
126
0.40
36
0.83
61
5.00
160
0.32
38
0.37
63
0.47
44
0.42
54
1.56
106
0.49
47
DSFCAtwo views0.87
79
0.84
129
0.73
120
0.65
141
0.77
171
0.61
145
0.78
182
0.75
68
0.78
172
0.77
98
0.83
156
0.75
97
0.48
86
0.43
124
1.89
83
1.14
84
0.85
128
0.87
163
1.00
62
0.74
141
1.00
84
1.05
74
0.72
205
0.63
171
0.83
121
0.95
137
1.88
134
0.85
115
IERtwo views0.88
82
0.82
119
0.55
92
0.49
95
0.51
110
0.56
126
0.45
139
0.80
81
0.49
105
1.15
166
0.77
140
1.03
153
0.50
92
0.79
221
3.66
212
1.04
59
0.73
89
0.64
91
0.87
53
0.78
152
0.73
48
0.82
53
0.60
167
0.53
132
0.63
78
1.00
148
2.05
146
0.74
89
rafts_anoytwo views0.88
82
0.81
116
0.86
151
0.44
86
0.49
99
0.51
108
0.46
143
1.58
201
0.48
101
0.61
58
0.70
128
0.70
81
0.47
83
0.30
53
2.51
153
1.38
122
0.76
97
0.78
136
2.36
137
0.61
100
1.28
107
0.99
70
0.49
111
0.49
116
0.85
127
0.90
129
0.93
56
1.00
146
ARAFTtwo views0.89
84
0.72
74
0.47
72
0.35
49
0.34
56
0.42
76
0.24
60
0.64
55
0.34
60
2.25
234
0.57
95
0.58
49
0.29
42
0.39
99
2.14
116
1.42
132
0.71
79
0.74
124
2.68
159
0.54
67
1.86
143
1.93
108
0.42
72
0.33
54
0.83
121
0.40
45
1.98
141
0.56
55
HITNettwo views0.90
85
0.65
48
0.62
102
0.68
149
0.50
108
0.39
66
0.32
96
1.26
149
0.89
183
0.70
75
0.70
128
0.91
136
0.49
89
0.39
99
1.96
93
1.02
56
0.66
65
0.64
91
0.79
50
0.61
100
1.53
123
3.85
139
0.46
88
0.52
126
0.58
71
0.64
81
1.81
126
0.81
104
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
TestStereo1two views0.93
86
0.98
188
0.39
49
0.38
59
0.36
63
0.39
66
0.25
63
1.02
118
0.39
69
0.79
108
0.34
46
0.58
49
0.73
160
0.54
164
3.06
189
1.47
148
0.71
79
0.52
47
2.91
166
0.54
67
1.34
110
1.84
105
0.35
45
0.39
74
0.54
60
1.06
153
2.53
203
0.60
66
SA-5Ktwo views0.93
86
0.98
188
0.39
49
0.38
59
0.36
63
0.39
66
0.25
63
1.02
118
0.39
69
0.79
108
0.34
46
0.58
49
0.73
160
0.54
164
3.06
189
1.47
148
0.71
79
0.52
47
2.91
166
0.54
67
1.34
110
1.84
105
0.35
45
0.39
74
0.54
60
1.06
153
2.53
203
0.60
66
RALCasStereoNettwo views0.93
86
0.82
119
0.93
164
0.53
110
0.53
118
0.60
142
0.45
139
1.48
182
0.44
90
1.03
154
0.75
137
0.89
135
0.49
89
0.32
64
2.31
136
1.43
136
0.78
103
0.75
126
1.50
101
0.58
83
1.18
99
2.21
118
0.49
111
0.57
145
0.86
130
1.13
165
0.90
51
1.16
161
CFNet_RVCtwo views0.94
89
0.84
129
0.89
159
0.76
164
0.80
180
0.71
166
0.49
145
0.74
67
0.63
153
0.88
132
0.94
168
0.87
125
0.57
113
0.50
156
1.96
93
1.12
81
0.79
107
0.79
140
1.27
85
0.73
139
1.26
105
1.52
100
0.48
100
0.64
174
0.98
156
1.11
159
1.92
137
1.23
169
DLCB_ROBtwo views0.94
89
0.90
152
0.88
154
0.73
157
0.80
180
0.69
163
0.69
176
0.87
99
0.72
168
0.94
145
0.86
160
1.02
149
0.91
199
0.69
208
1.48
41
1.06
65
0.97
169
0.72
118
0.88
54
0.74
141
1.21
101
1.21
85
0.78
214
0.71
188
1.26
204
1.26
179
1.49
101
0.95
130
AACVNettwo views0.95
91
0.87
138
0.69
114
0.91
189
0.91
192
0.72
170
0.59
167
0.87
99
0.60
143
0.73
86
0.88
163
0.79
109
0.64
133
0.60
186
1.77
67
1.37
121
0.84
126
0.83
153
1.12
76
0.77
148
1.36
115
1.13
79
0.70
198
0.65
176
0.87
134
1.12
162
1.90
135
1.31
177
DISCOtwo views0.96
92
0.98
188
0.56
94
0.57
120
0.61
135
0.81
183
0.79
185
0.77
70
0.81
173
2.06
225
0.86
160
0.66
70
0.70
149
0.42
119
1.87
81
1.27
106
0.99
173
0.80
145
1.80
116
0.80
156
0.92
76
1.33
91
0.57
152
0.51
121
0.72
100
0.84
116
2.02
144
0.80
102
GLC_STEREOtwo views0.97
93
0.89
149
0.85
149
0.56
117
0.60
131
0.48
98
0.40
120
1.70
211
0.47
95
0.77
98
0.67
115
0.78
108
0.63
130
0.61
188
2.53
154
1.65
173
0.88
138
0.60
70
1.57
110
0.70
132
2.48
153
1.17
81
0.44
80
0.43
90
0.67
83
0.55
71
2.36
180
0.88
122
TESTrafttwo views0.98
94
0.96
183
0.42
59
0.41
75
0.33
53
0.40
69
0.25
63
1.13
129
0.39
69
0.97
150
0.35
52
0.61
56
0.75
169
0.54
164
3.18
199
1.42
132
0.70
75
0.50
42
2.86
165
0.53
66
1.08
87
3.15
132
0.35
45
0.40
79
0.52
57
1.18
171
2.52
199
0.61
68
psm_uptwo views0.99
95
0.86
136
0.99
178
0.78
171
0.89
190
0.75
174
0.58
164
1.33
167
1.03
201
0.88
132
0.69
121
0.99
148
0.72
155
0.76
217
1.89
83
1.10
77
0.91
149
0.81
148
1.93
121
0.81
159
1.08
87
0.90
60
0.49
111
0.85
213
1.01
161
1.06
153
1.62
116
1.10
154
STTStereotwo views0.99
95
0.95
178
0.82
141
0.77
169
0.77
171
0.69
163
0.87
195
0.86
95
1.53
240
1.27
174
0.79
147
1.13
169
0.69
147
0.93
238
2.19
123
1.03
58
0.72
84
0.70
108
1.05
68
0.63
112
1.15
97
0.86
57
0.58
161
0.56
144
0.73
103
1.21
175
1.74
124
1.41
185
coex_refinementtwo views1.02
97
1.02
202
0.76
127
0.66
146
0.85
184
0.71
166
0.50
148
0.81
83
1.04
202
0.67
71
1.01
181
0.94
139
0.44
81
0.46
139
3.49
208
0.95
47
0.78
103
0.71
111
3.74
197
0.77
148
0.85
64
0.75
46
0.63
177
0.52
126
0.87
134
0.93
133
1.75
125
0.94
129
NLCA_NET_v2_RVCtwo views1.02
97
0.93
169
0.80
137
0.72
154
0.79
178
0.65
154
1.02
209
1.07
124
2.31
270
2.00
218
0.74
135
0.97
144
0.56
109
0.94
240
1.82
72
0.96
49
0.68
67
0.67
100
1.31
88
0.65
114
0.88
68
0.94
65
0.57
152
0.57
145
0.73
103
1.60
220
1.43
94
1.27
175
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CAStwo views1.05
99
0.80
110
0.40
52
0.50
101
0.48
96
0.37
60
0.30
81
0.55
40
0.44
90
1.13
165
0.77
140
0.64
64
0.95
209
0.31
61
2.68
169
1.79
183
0.96
166
0.82
151
1.08
73
0.61
100
2.91
160
5.06
163
0.44
80
0.30
44
0.81
115
0.92
132
1.18
77
1.16
161
AF-Nettwo views1.05
99
0.83
122
0.94
165
0.76
164
0.91
192
0.98
207
1.68
244
1.52
192
1.06
204
0.57
50
0.96
172
1.34
184
0.64
133
0.74
212
1.71
57
0.99
53
0.80
110
0.60
70
1.64
112
0.72
136
0.72
45
2.35
120
0.63
177
0.62
165
0.89
142
0.82
109
1.57
111
1.25
172
Nwc_Nettwo views1.05
99
0.83
122
0.94
165
0.76
164
0.91
192
0.98
207
1.68
244
1.52
192
1.06
204
0.57
50
0.96
172
1.34
184
0.64
133
0.74
212
1.71
57
0.99
53
0.80
110
0.60
70
1.64
112
0.72
136
0.72
45
2.35
120
0.63
177
0.62
165
0.89
142
0.82
109
1.57
111
1.25
172
LMCR-Stereopermissivemany views1.06
102
0.83
122
0.84
145
0.53
110
0.62
142
0.64
152
0.33
100
1.12
127
0.60
143
0.83
117
0.79
147
0.91
136
0.49
89
0.41
109
2.53
154
1.54
160
1.03
184
0.75
126
2.16
128
1.42
221
1.68
134
3.87
141
0.49
111
0.65
176
0.75
106
0.83
111
1.10
73
0.88
122
PDISCO_ROBtwo views1.06
102
0.87
138
0.60
99
0.80
176
0.68
155
0.53
116
0.59
167
0.93
108
0.69
163
1.80
209
1.00
180
0.74
90
0.63
130
0.66
199
1.87
81
1.44
138
0.89
140
1.10
223
1.53
104
0.80
156
1.56
126
2.40
123
0.52
132
0.63
171
1.19
189
0.79
103
2.56
206
0.81
104
SAtwo views1.07
104
0.90
152
0.42
59
0.55
115
0.53
118
0.49
100
0.24
60
1.60
202
0.46
93
0.71
80
0.41
61
0.69
77
0.58
117
0.62
193
1.74
62
1.41
129
0.78
103
0.79
140
3.17
177
0.65
114
1.24
103
4.73
152
0.34
42
0.51
121
0.75
106
1.12
162
2.64
213
0.72
88
PS-NSSStwo views1.07
104
1.44
254
0.69
114
1.20
227
0.91
192
1.16
225
0.93
202
0.80
81
0.55
129
0.74
89
0.49
74
1.98
220
1.03
216
0.91
235
1.54
47
0.92
42
0.83
124
0.73
120
1.45
99
0.62
107
0.94
77
0.63
35
1.68
272
0.50
119
1.00
159
0.95
137
3.21
238
1.11
157
HSMtwo views1.07
104
0.75
89
0.97
173
0.78
171
0.77
171
0.54
117
0.54
153
1.87
228
0.60
143
0.76
94
0.85
159
0.87
125
0.67
144
0.56
171
2.24
130
1.05
62
0.92
155
0.71
111
2.57
145
0.71
134
1.80
141
2.08
116
0.56
149
0.72
191
0.90
146
0.97
141
2.08
148
1.03
147
LL-Strereo2two views1.08
107
0.65
48
0.59
96
0.40
71
0.34
56
0.31
43
0.23
57
1.48
182
0.38
67
0.68
73
0.58
99
0.63
60
0.32
48
0.64
197
1.65
54
1.13
82
0.63
59
0.53
56
1.32
90
0.66
119
1.35
113
11.05
262
0.44
80
0.34
56
0.64
80
0.60
76
1.05
66
0.56
55
raftrobusttwo views1.11
108
0.65
48
0.92
163
0.55
115
0.49
99
0.44
80
0.33
100
1.55
198
0.47
95
0.94
145
0.72
133
0.82
116
0.53
97
0.36
88
2.91
180
1.71
178
0.71
79
0.70
108
4.37
205
0.65
114
1.69
136
3.95
143
0.59
165
0.42
89
0.95
154
0.85
118
0.99
61
0.85
115
UCFNet_RVCtwo views1.11
108
1.26
236
0.85
149
0.88
186
0.93
199
0.77
178
0.58
164
0.78
76
0.67
160
0.93
143
0.80
151
1.25
179
0.93
204
0.48
150
2.17
121
1.09
74
0.78
103
0.82
151
2.60
152
0.80
156
1.32
109
1.66
102
1.31
260
0.67
180
1.05
169
1.11
159
1.44
96
2.13
218
test_4two views1.13
110
0.74
81
0.77
129
0.42
81
0.32
46
0.34
51
0.26
70
0.78
76
0.33
58
0.75
90
0.40
59
0.87
125
0.35
56
0.40
103
2.10
115
1.55
161
0.65
63
0.69
106
1.50
101
0.51
61
1.12
94
10.25
236
0.41
66
0.37
63
0.58
71
0.70
91
2.73
218
0.62
70
S2M2two views1.14
111
0.87
138
1.13
209
0.46
92
0.37
65
0.43
78
0.28
76
0.60
45
0.52
116
1.85
213
0.34
46
0.63
60
0.40
68
0.43
124
2.36
138
1.91
188
0.70
75
0.60
70
1.06
71
0.58
83
4.38
174
4.69
150
0.49
111
0.37
63
0.64
80
0.89
124
3.07
233
0.79
99
Sa-1000two views1.14
111
0.75
89
0.47
72
0.49
95
0.61
135
0.50
103
0.27
73
1.70
211
0.52
116
0.73
86
0.48
71
0.66
70
0.67
144
0.79
221
2.17
121
1.43
136
0.92
155
0.93
184
3.23
178
0.58
83
1.55
125
4.86
155
0.35
45
0.59
156
1.14
185
1.24
176
2.35
178
0.76
95
RALAANettwo views1.14
111
0.70
64
0.84
145
0.53
110
0.53
118
0.60
142
0.41
124
1.30
156
0.50
110
0.94
145
0.65
111
0.72
88
0.59
118
0.33
69
1.97
96
1.32
113
0.75
96
0.89
173
1.96
122
0.85
165
3.07
162
5.37
171
0.53
133
0.62
165
0.82
118
1.03
151
2.08
148
0.78
98
CASnettwo views1.15
114
0.91
156
0.49
77
0.40
71
0.43
82
0.38
63
0.20
51
0.91
106
0.49
105
0.77
98
0.56
92
0.88
130
0.53
97
0.35
79
2.15
117
1.24
102
0.72
84
0.50
42
1.34
92
0.54
67
7.12
221
5.37
171
0.41
66
0.38
67
1.21
191
0.49
59
1.45
97
0.79
99
Junhong Min, Youngpil Jeon: Confidence Aware Stereo Matching for Realistic Cluttered Scenario. ICIP 2024 submissions (1861)
iResNet_ROBtwo views1.16
115
0.83
122
0.82
141
0.65
141
0.59
128
0.67
159
0.58
164
2.65
278
0.53
121
1.73
205
0.76
139
0.87
125
0.78
179
0.47
144
3.77
220
1.45
140
0.87
134
0.86
161
2.81
163
0.65
114
1.26
105
0.87
58
0.57
152
0.73
192
0.81
115
0.95
137
2.65
215
1.03
147
RPtwo views1.18
116
1.02
202
1.24
228
0.94
193
1.08
211
0.84
184
1.17
222
1.25
147
1.31
223
0.61
58
1.16
189
1.21
176
0.75
169
0.68
202
3.34
203
1.04
59
0.89
140
0.67
100
1.20
83
0.79
154
0.88
68
2.85
129
0.59
165
0.71
188
0.86
130
0.98
145
2.51
198
1.21
167
trnettwo views1.20
117
0.91
156
0.94
165
0.52
106
0.42
80
0.47
93
0.25
63
1.41
177
0.61
146
0.88
132
0.75
137
0.97
144
0.72
155
0.37
90
2.66
166
3.31
234
0.86
131
0.61
75
2.41
139
0.60
97
3.93
172
3.14
131
0.50
123
0.47
100
1.03
165
0.86
121
1.72
120
0.99
141
APVNettwo views1.21
118
1.02
202
0.64
106
0.69
150
0.78
175
0.86
188
0.84
190
0.78
76
0.71
167
0.92
141
0.82
154
0.86
123
0.59
118
0.58
178
2.67
168
1.65
173
1.11
193
0.98
199
3.23
178
0.85
165
1.62
130
4.73
152
0.55
142
0.84
212
0.77
110
0.80
106
1.90
135
0.98
135
iinet-ftwo views1.22
119
1.08
212
0.64
106
0.93
192
0.46
86
0.68
161
0.57
161
0.79
80
0.48
101
2.11
230
1.35
204
0.83
118
0.64
133
0.35
79
3.95
223
1.80
185
0.77
100
0.66
97
2.93
172
1.00
186
1.53
123
3.24
133
0.64
183
0.53
132
1.10
180
0.63
80
2.23
168
0.90
124
PA-Nettwo views1.22
119
0.95
178
1.13
209
0.75
160
1.31
234
0.68
161
0.84
190
0.82
88
1.18
217
0.83
117
0.77
140
0.76
101
0.78
179
0.91
235
3.00
185
1.21
98
0.68
67
0.77
132
1.02
66
0.82
162
1.13
96
4.67
149
0.66
187
0.82
207
1.00
159
2.10
254
1.24
79
2.13
218
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
NCC-stereotwo views1.25
121
1.24
230
1.10
201
0.99
200
1.05
205
0.96
202
1.53
238
1.79
219
1.59
243
0.60
56
1.34
201
1.17
173
1.03
216
0.74
212
2.44
144
1.07
66
0.89
140
0.99
202
1.54
106
0.91
173
0.99
80
2.46
124
0.80
222
0.76
195
1.26
204
1.59
217
1.39
91
1.61
195
Abc-Nettwo views1.25
121
1.24
230
1.10
201
0.99
200
1.05
205
0.96
202
1.53
238
1.79
219
1.59
243
0.60
56
1.34
201
1.17
173
1.03
216
0.74
212
2.44
144
1.07
66
0.89
140
0.99
202
1.54
106
0.91
173
0.99
80
2.46
124
0.80
222
0.76
195
1.26
204
1.59
217
1.39
91
1.61
195
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
CEStwo views1.27
123
0.77
100
0.56
94
0.45
89
0.56
123
0.51
108
0.21
54
1.50
185
0.70
165
0.78
101
0.80
151
0.84
120
0.90
198
0.33
69
3.45
207
2.96
224
1.14
197
1.04
215
1.32
90
1.08
195
4.63
180
4.87
156
0.63
177
0.38
67
0.85
127
0.83
111
1.02
63
1.16
161
GMOStereotwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
error versiontwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
test-vtwo views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
test-2two views1.28
124
0.74
81
0.45
65
0.62
134
0.52
112
0.46
87
0.39
114
1.54
194
0.47
95
0.87
126
0.47
67
0.74
90
0.59
118
0.35
79
2.01
99
1.45
140
0.80
110
0.87
163
2.92
168
0.69
125
1.78
137
10.98
258
0.46
88
0.41
81
1.09
175
0.72
94
1.56
106
0.58
59
GANetREF_RVCpermissivetwo views1.28
124
1.18
223
0.95
170
1.18
226
1.04
203
1.00
212
0.79
185
1.25
147
1.10
209
1.29
176
0.77
140
2.28
236
0.91
199
0.63
195
2.00
98
1.14
84
1.01
178
0.98
199
2.44
141
0.82
162
1.98
147
1.33
91
0.78
214
1.05
228
1.28
209
1.27
180
2.63
212
1.49
188
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
AMNettwo views1.29
129
1.12
215
1.05
188
1.13
215
1.12
216
1.24
234
1.08
217
1.36
171
1.13
213
1.10
162
1.11
186
1.51
200
1.26
228
1.20
260
1.52
45
1.57
165
1.35
222
1.21
243
1.37
93
1.22
208
1.35
113
1.19
83
1.25
253
1.19
237
1.23
199
1.72
230
1.54
105
1.65
199
raft_robusttwo views1.30
130
0.93
169
0.53
88
0.59
127
0.47
90
0.57
132
0.37
111
2.06
248
0.52
116
1.69
203
0.53
86
0.76
101
0.82
187
0.47
144
2.16
120
1.52
158
0.84
126
0.84
159
5.71
226
0.59
87
2.50
154
5.04
162
0.46
88
0.51
121
0.99
157
1.05
152
1.58
113
0.99
141
IPLGR_Ctwo views1.31
131
0.71
71
0.68
113
0.57
120
0.46
86
0.52
111
0.31
85
0.81
83
0.53
121
0.76
94
0.69
121
1.03
153
0.53
97
0.59
182
2.62
161
1.33
116
0.88
138
0.63
88
3.25
184
0.61
100
1.64
133
10.69
249
0.55
142
0.53
132
0.89
142
0.57
74
2.40
186
0.62
70
ACREtwo views1.31
131
0.70
64
0.66
111
0.58
126
0.47
90
0.52
111
0.32
96
0.81
83
0.53
121
0.76
94
0.69
121
1.04
157
0.52
96
0.59
182
2.66
166
1.32
113
0.89
140
0.63
88
3.25
184
0.61
100
1.62
130
10.69
249
0.55
142
0.52
126
0.92
149
0.55
71
2.40
186
0.62
70
SACVNettwo views1.31
131
0.94
172
0.95
170
0.90
187
1.10
213
0.87
190
0.92
201
1.50
185
0.81
173
1.23
173
0.71
130
0.94
139
0.69
147
0.68
202
1.83
75
1.40
126
1.12
196
0.83
153
2.20
130
0.94
179
2.13
148
5.87
181
0.65
184
0.82
207
1.04
166
1.06
153
2.02
144
1.30
176
4D-IteraStereotwo views1.32
134
0.61
43
1.07
194
0.49
95
0.43
82
0.40
69
0.25
63
1.44
180
0.37
66
0.75
90
0.56
92
0.75
97
0.43
73
0.43
124
2.29
135
1.38
122
0.68
67
0.66
97
2.70
160
0.59
87
3.21
164
10.86
257
0.46
88
0.40
79
0.69
92
0.83
111
2.34
176
0.64
75
CIPLGtwo views1.32
134
0.70
64
0.69
114
0.57
120
0.46
86
0.52
111
0.33
100
0.81
83
0.55
129
0.76
94
0.69
121
1.03
153
0.53
97
0.59
182
2.91
180
1.33
116
0.89
140
0.62
79
3.23
178
0.62
107
1.62
130
10.69
249
0.55
142
0.53
132
0.90
146
0.54
69
2.37
183
0.61
68
DN-CSS_ROBtwo views1.32
134
0.83
122
1.03
184
0.87
185
0.86
185
0.47
93
0.36
109
2.00
242
0.57
138
1.56
194
1.81
216
0.96
143
0.77
177
0.38
95
2.15
117
1.40
126
1.03
184
0.93
184
5.27
214
0.66
119
2.56
155
2.82
128
0.54
139
0.86
215
0.79
113
0.81
107
2.07
147
1.33
180
UDGNettwo views1.34
137
1.00
196
0.76
127
1.64
251
1.38
239
1.69
255
1.25
226
1.22
141
0.69
163
0.63
64
0.84
158
0.83
118
0.41
71
1.62
271
2.02
104
1.19
94
0.81
119
0.87
163
1.98
123
0.92
176
1.68
134
5.69
177
1.26
256
0.47
100
1.21
191
0.95
137
2.15
152
1.03
147
CREStereotwo views1.37
138
0.91
156
0.94
165
0.52
106
0.42
80
0.47
93
0.26
70
1.43
179
0.66
158
0.87
126
0.83
156
0.95
141
0.73
160
0.36
88
2.98
184
4.38
258
0.85
128
0.56
61
2.41
139
0.62
107
5.52
198
4.71
151
0.53
133
0.47
100
1.02
163
0.87
122
1.73
122
0.98
135
Jiankun Li, Peisen Wang, Pengfei Xiong, Tao Cai, Ziwei Yan, Lei Yang, Jiangyu Liu, Haoqiang Fan, Shuaicheng Liu: Practical Stereo Matching via Cascaded Recurrent Network with Adaptive Correlation. CVPR 2022
FADNet-RVC-Resampletwo views1.37
138
0.87
138
0.99
178
0.72
154
0.81
182
0.63
149
1.02
209
1.06
123
0.91
186
0.99
151
0.99
178
1.69
208
0.73
160
1.02
246
4.06
225
1.41
129
1.02
181
1.62
267
1.55
108
1.04
190
1.37
117
5.03
161
0.57
152
1.14
234
0.88
138
1.99
247
1.45
97
1.54
191
FADNet-RVCtwo views1.38
140
0.71
71
0.88
154
0.77
169
1.09
212
0.58
135
2.16
261
0.92
107
0.57
138
1.03
154
0.72
133
1.48
195
0.64
133
0.61
188
5.02
232
1.56
163
0.85
128
0.90
176
2.24
132
1.52
237
2.20
149
4.08
145
0.51
125
0.77
197
1.48
233
1.14
167
1.43
94
1.35
181
PMTNettwo views1.39
141
0.94
172
0.99
178
0.48
94
0.49
99
0.47
93
0.32
96
0.83
89
0.66
158
0.83
117
0.62
104
0.88
130
0.50
92
0.35
79
2.72
172
4.30
255
0.91
149
0.57
63
2.40
138
0.54
67
6.12
204
5.45
174
0.57
152
0.38
67
1.99
266
1.00
148
1.09
69
1.19
166
GEStwo views1.40
142
0.73
78
0.79
133
0.78
171
0.71
159
0.80
181
0.59
167
1.37
173
0.97
191
1.66
200
0.94
168
0.74
90
0.65
138
0.63
195
2.40
141
1.55
161
0.98
171
0.89
173
5.45
220
1.14
201
3.99
173
3.85
139
0.65
184
0.83
210
0.75
106
0.81
107
1.52
104
1.72
202
LoS_RVCtwo views1.42
143
1.25
233
0.86
151
0.31
40
0.49
99
0.37
60
0.33
100
0.73
65
0.56
134
2.10
228
0.68
118
0.67
73
0.70
149
0.33
69
3.08
192
3.79
245
0.89
140
2.10
287
3.01
175
0.66
119
4.40
175
6.44
186
0.51
125
0.43
90
0.82
118
0.85
118
0.90
51
0.99
141
tt_lltwo views1.42
143
1.25
233
0.86
151
0.31
40
0.49
99
0.37
60
0.33
100
0.73
65
0.56
134
2.10
228
0.68
118
0.67
73
0.70
149
0.33
69
3.08
192
3.79
245
0.89
140
2.10
287
3.01
175
0.66
119
4.40
175
6.44
186
0.51
125
0.43
90
0.82
118
0.85
118
0.90
51
0.99
141
sAnonymous2two views1.42
143
0.76
95
0.52
86
0.41
75
0.47
90
0.71
166
0.41
124
1.28
153
0.98
194
0.65
66
0.89
164
1.08
162
0.95
209
0.37
90
2.20
124
2.28
207
1.10
189
1.04
215
3.71
194
0.92
176
4.94
185
6.73
192
0.62
172
0.55
142
0.83
121
1.39
192
1.25
80
1.24
170
CroCo_RVCtwo views1.42
143
0.76
95
0.52
86
0.41
75
0.47
90
0.71
166
0.41
124
1.28
153
0.98
194
0.65
66
0.89
164
1.08
162
0.95
209
0.37
90
2.20
124
2.28
207
1.10
189
1.04
215
3.71
194
0.92
176
4.94
185
6.73
192
0.62
172
0.55
142
0.83
121
1.39
192
1.25
80
1.24
170
RGCtwo views1.43
147
1.30
242
1.99
270
1.14
220
1.18
224
1.16
225
1.01
206
1.20
139
1.08
207
0.91
138
1.70
215
1.18
175
1.24
227
0.87
229
3.10
196
1.18
91
0.98
171
0.86
161
1.81
117
1.02
188
1.39
118
3.87
141
0.76
207
0.90
219
1.14
185
1.53
212
2.17
155
1.85
206
YMNettwo views1.44
148
0.79
108
0.41
56
0.51
102
0.61
135
0.59
138
1.36
232
0.77
70
0.56
134
1.28
175
0.36
54
0.67
73
2.20
245
0.56
171
19.21
263
1.49
151
0.77
100
0.65
94
0.74
41
0.39
32
0.61
32
1.27
89
0.23
27
0.38
67
0.69
92
0.46
56
0.81
46
0.66
81
castereotwo views1.44
148
0.88
147
0.96
172
0.46
92
0.47
90
0.33
48
0.27
73
0.77
70
0.50
110
0.80
112
0.64
109
1.04
157
0.48
86
0.38
95
2.25
131
2.81
219
1.03
184
0.76
129
2.67
158
0.62
107
7.90
234
7.11
199
0.57
152
0.52
126
1.04
166
1.25
178
1.03
64
1.21
167
FADNettwo views1.44
148
0.83
122
0.83
144
0.82
181
1.03
202
0.61
145
1.88
255
0.97
113
0.73
169
0.93
143
0.92
167
1.16
172
0.76
174
0.74
212
3.69
216
1.34
118
0.91
149
1.03
212
2.63
153
1.49
230
2.87
159
4.93
157
0.49
111
0.65
176
1.54
242
1.70
229
1.51
103
1.83
205
stereogantwo views1.44
148
1.33
245
1.05
188
1.11
211
1.28
232
1.11
219
0.97
203
1.26
149
1.05
203
1.22
172
1.10
184
1.62
206
0.89
196
0.66
199
2.34
137
1.31
111
0.94
160
0.81
148
1.72
115
0.95
181
1.10
91
8.04
206
0.71
200
0.77
197
0.83
121
1.06
153
2.36
180
1.38
183
MGS-Stereotwo views1.48
152
0.99
191
0.47
72
0.40
71
0.35
60
0.40
69
0.36
109
0.65
56
0.26
38
0.52
44
0.43
64
0.52
41
0.38
61
0.43
124
23.31
271
0.93
46
0.73
89
0.79
140
0.93
57
0.65
114
1.10
91
1.25
88
0.44
80
0.48
112
0.72
100
0.49
59
1.29
84
0.77
96
NCCL2two views1.48
152
1.28
240
1.10
201
1.11
211
1.43
242
0.78
179
0.90
198
1.05
122
1.14
215
1.86
215
1.27
197
1.02
149
0.81
182
0.80
224
3.43
205
1.42
132
1.14
197
0.87
163
1.31
88
0.89
172
1.94
146
3.37
135
1.48
268
1.02
224
1.50
237
1.35
187
3.80
260
1.85
206
TANstereotwo views1.49
154
1.06
209
0.88
154
0.67
147
0.73
162
0.87
190
0.33
100
0.86
95
0.61
146
0.70
75
0.69
121
0.59
53
0.59
118
1.02
246
2.75
173
2.89
221
0.94
160
1.13
231
1.43
97
1.28
211
5.13
192
5.06
163
1.35
262
0.46
98
0.54
60
0.89
124
5.92
280
0.74
89
XX-TBDtwo views1.49
154
1.06
209
0.88
154
0.67
147
0.73
162
0.87
190
0.33
100
0.86
95
0.61
146
0.70
75
0.69
121
0.59
53
0.59
118
1.02
246
2.75
173
2.89
221
0.94
160
1.13
231
1.43
97
1.28
211
5.13
192
5.06
163
1.35
262
0.46
98
0.54
60
0.89
124
5.92
280
0.74
89
LoStwo views1.51
156
0.79
108
0.59
96
0.52
106
0.56
123
0.65
154
0.38
113
2.56
274
0.88
181
1.21
168
0.94
168
0.97
144
0.88
195
0.35
79
3.04
188
3.41
236
1.24
209
0.93
184
2.19
129
0.68
124
5.96
200
7.00
197
0.62
172
0.47
100
1.14
185
0.98
145
1.06
68
0.87
119
Kunhong Li, Longguang Wang, Ye Zhang, Kaiwen Xue, Shunbo Zhou, Yulan Guo: LoS: Local Structure-guided Stereo Matching.
ICVPtwo views1.51
156
0.74
81
1.07
194
0.75
160
0.75
166
0.84
184
0.54
153
1.10
125
0.86
178
1.37
182
1.15
188
0.88
130
1.08
222
0.53
163
1.90
85
1.91
188
1.22
206
0.99
202
1.56
109
0.96
183
3.89
171
10.50
243
0.68
194
0.77
197
0.91
148
1.19
173
1.42
93
1.14
159
Kwon, Oh-Hun and Zell, Eduard: Image-Coupled Volume Propagation for Stereo Matching. 2023 IEEE International Conference on Image Processing (ICIP)
BEATNet_4xtwo views1.53
158
0.77
100
0.77
129
0.75
160
0.67
152
0.47
93
0.40
120
1.23
143
1.32
224
0.83
117
0.77
140
0.95
141
0.74
165
0.59
182
5.02
232
2.40
214
1.64
235
1.43
261
1.27
85
0.85
165
4.54
177
8.28
208
0.48
100
0.91
220
0.70
94
0.77
100
1.85
130
0.99
141
iResNetv2_ROBtwo views1.57
159
0.87
138
0.70
117
1.13
215
0.65
146
0.72
170
0.49
145
2.63
277
0.64
155
1.77
208
0.87
162
1.30
183
0.75
169
0.40
103
4.81
231
1.26
105
0.91
149
0.71
111
4.58
208
0.81
159
7.66
227
1.62
101
0.58
161
0.80
200
0.81
115
0.83
111
3.12
237
0.91
125
MyStereo04two views1.58
160
0.90
152
0.97
173
0.78
171
0.89
190
0.57
132
0.40
120
1.57
200
0.97
191
2.23
233
0.89
164
1.34
184
0.54
102
0.41
109
2.94
183
2.47
215
0.86
131
0.92
180
5.37
216
1.50
233
4.62
179
3.51
136
0.92
240
0.81
204
1.21
191
1.61
222
2.58
208
0.95
130
AE-Stereotwo views1.61
161
0.85
133
1.23
227
0.81
179
0.51
110
0.57
132
0.75
181
0.83
89
0.49
105
0.79
108
0.54
88
1.29
180
0.72
155
0.47
144
2.05
108
2.96
224
0.99
173
0.92
180
2.63
153
0.86
168
4.61
178
11.92
280
0.50
123
0.80
200
1.26
204
1.34
186
1.95
138
0.86
117
castereo++two views1.62
162
0.76
95
0.78
132
0.59
127
0.41
78
0.34
51
0.25
63
0.85
93
0.43
86
0.81
115
0.62
104
1.02
149
0.51
94
0.38
95
1.86
80
2.57
216
1.01
178
0.73
120
3.23
178
0.62
107
7.09
220
6.35
185
0.63
177
0.58
149
0.99
157
1.01
150
7.61
293
1.63
198
dadtwo views1.63
163
0.97
185
0.65
109
2.18
268
1.19
226
1.01
213
3.99
281
1.66
209
0.55
129
1.21
168
0.50
76
1.12
168
2.01
241
0.58
178
3.09
194
1.16
87
1.11
193
0.76
129
2.70
160
0.77
148
1.34
110
1.48
98
0.71
200
0.88
217
2.48
275
0.71
92
5.52
279
3.80
255
CC-Net-ROBtwo views1.63
163
1.81
267
1.19
222
1.85
257
1.77
259
2.27
268
1.56
240
0.93
108
0.96
190
1.29
176
0.67
115
5.48
281
2.51
251
1.43
269
1.64
51
0.87
38
1.34
219
1.17
235
2.46
142
0.88
170
1.09
89
1.35
93
3.34
288
0.63
171
1.22
196
1.15
168
1.47
99
1.57
193
XPNet_ROBtwo views1.63
163
1.57
261
1.09
200
0.91
189
1.13
219
1.01
213
0.88
196
0.95
112
1.14
215
1.07
160
1.82
217
4.03
267
0.72
155
0.78
218
1.82
72
1.51
154
1.52
232
0.94
187
1.42
95
1.04
190
2.20
149
7.75
204
0.86
236
0.80
200
0.94
150
1.29
183
3.34
245
1.56
192
DeepPruner_ROBtwo views1.64
166
0.75
89
0.91
161
0.85
183
0.88
188
0.75
174
1.75
248
1.26
149
0.91
186
1.49
190
1.65
213
0.85
122
0.81
182
0.56
171
3.12
198
1.49
151
1.02
181
1.02
209
2.33
136
0.75
145
7.42
224
6.70
190
0.81
226
0.69
183
0.88
138
1.45
200
2.17
155
0.87
119
CFNet_pseudotwo views1.65
167
0.78
104
0.82
141
0.82
181
0.79
178
0.69
163
0.42
130
0.93
108
0.53
121
0.95
148
0.81
153
0.88
130
0.81
182
0.81
225
15.70
258
1.39
124
0.74
94
0.71
111
7.24
261
0.77
148
0.97
78
1.50
99
0.69
197
0.57
145
0.88
138
0.89
124
1.47
99
1.12
158
GCAP-BATtwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
test_for_modeltwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
testlalala2two views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
testlalalatwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
testlalala_basetwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
GCAP-Stereotwo views1.68
168
0.92
162
0.51
79
0.38
59
0.40
72
0.45
81
0.31
85
1.31
159
0.41
78
0.78
101
0.51
78
2.09
222
0.43
73
0.30
53
1.95
86
1.95
193
13.44
313
0.62
79
2.57
145
0.59
87
8.07
238
1.98
109
0.48
100
0.47
100
0.67
83
0.64
81
2.20
161
0.83
109
SGD-Stereotwo views1.69
174
0.50
33
0.36
44
0.28
30
0.30
40
0.30
40
0.17
43
0.57
42
0.28
47
0.44
37
0.21
23
0.69
77
0.39
63
0.25
39
31.04
274
1.51
154
0.73
89
0.52
47
0.68
35
0.45
52
1.43
121
1.32
90
0.41
66
0.30
44
0.45
37
0.46
56
0.87
49
0.63
74
test-3two views1.73
175
1.00
196
1.08
197
0.63
139
0.60
131
0.55
120
0.43
133
1.99
238
0.39
69
0.86
124
0.54
88
1.45
192
0.53
97
0.41
109
2.20
124
1.41
129
0.81
119
0.79
140
6.57
242
0.69
125
5.20
196
11.52
274
0.46
88
0.54
136
0.86
130
0.97
141
3.11
234
0.98
135
test_1two views1.73
175
1.01
198
1.08
197
0.63
139
0.60
131
0.55
120
0.43
133
1.99
238
0.39
69
0.86
124
0.54
88
1.45
192
0.54
102
0.41
109
2.20
124
1.42
132
0.80
110
0.79
140
6.57
242
0.69
125
5.20
196
11.52
274
0.46
88
0.54
136
0.87
134
0.97
141
3.11
234
0.98
135
test_3two views1.73
175
1.02
202
1.05
188
0.65
141
0.61
135
0.55
120
0.43
133
1.96
234
0.38
67
0.88
132
0.52
84
1.45
192
0.54
102
0.40
103
2.20
124
1.40
126
0.81
119
0.81
148
6.56
241
0.71
134
5.08
189
11.49
271
0.43
77
0.49
116
0.96
155
1.09
158
3.23
239
0.98
135
CREStereo++_RVCtwo views1.73
175
0.91
156
1.03
184
0.51
102
0.56
123
0.40
69
0.28
76
1.37
173
0.51
114
0.83
117
0.61
102
0.76
101
0.85
192
0.34
74
2.78
175
3.07
227
0.92
155
0.61
75
2.72
162
0.55
74
5.01
188
5.69
177
0.53
133
0.38
67
0.94
150
0.84
116
12.80
309
0.98
135
Junpeng Jing, Jiankun Li, Pengfei Xiong, Jiangyu Liu, Shuaicheng Liu, Yichen Guo, Xin Deng, Mai Xu, Lai Jiang, Leonid Sigal: Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo Matching. ICCV2023
GEStereo_RVCtwo views1.80
179
0.96
183
0.99
178
1.02
203
0.87
186
1.12
220
1.03
212
1.66
209
0.82
175
0.91
138
0.79
147
1.34
184
0.75
169
0.61
188
2.25
131
2.14
204
1.14
197
1.23
247
4.06
202
1.22
208
4.66
181
11.41
270
0.71
200
0.95
222
0.88
138
0.97
141
2.49
196
1.65
199
NaN_ROBtwo views1.84
180
1.11
214
1.04
187
0.95
194
1.77
259
0.86
188
0.91
200
1.32
166
10.70
317
1.00
153
1.38
207
2.45
241
0.89
196
1.12
255
4.34
228
1.29
108
0.92
155
0.88
172
1.49
100
1.14
201
1.42
120
2.02
115
0.76
207
1.03
225
1.30
210
2.01
248
2.38
184
3.27
248
sCroCo_RVCtwo views1.85
181
0.67
53
0.55
92
0.37
57
0.49
99
0.75
174
0.41
124
0.94
111
1.56
242
1.51
191
0.78
145
1.04
157
0.94
207
0.48
150
2.49
148
5.07
266
1.26
212
1.22
244
2.53
144
1.37
216
7.95
236
11.14
263
0.45
86
0.60
158
0.94
150
1.12
162
2.34
176
1.05
150
ETE_ROBtwo views1.85
181
1.93
272
1.18
219
1.04
205
1.33
236
1.26
236
1.12
220
1.11
126
2.30
269
1.36
181
3.26
244
3.18
255
0.94
207
1.14
257
2.62
161
1.51
154
2.14
259
0.99
202
2.50
143
1.15
203
3.67
168
5.74
180
0.86
236
1.03
225
1.21
191
1.36
189
2.30
170
1.68
201
LALA_ROBtwo views1.85
181
2.17
276
1.13
209
1.05
207
1.26
228
1.16
225
1.01
206
1.17
134
1.46
234
2.06
225
2.82
236
3.47
257
0.92
202
0.93
238
3.90
222
1.46
145
1.36
223
1.18
238
2.20
130
1.31
214
2.84
158
5.10
166
0.77
212
1.01
223
1.24
200
1.41
195
3.89
264
1.77
204
MLCVtwo views1.91
184
0.87
138
0.97
173
1.33
236
1.13
219
0.99
209
0.74
180
2.14
251
0.77
171
2.02
219
4.44
255
1.60
203
1.56
235
0.45
135
2.63
163
1.79
183
1.11
193
0.96
195
6.71
248
1.05
192
4.69
183
5.60
175
0.66
187
1.60
249
1.14
185
1.35
187
2.31
172
1.06
152
RAFT + AFFtwo views1.96
185
0.49
32
0.42
59
0.41
75
0.20
21
0.41
74
0.19
47
0.65
56
0.23
35
0.56
47
0.27
32
0.77
105
0.21
32
0.29
50
39.69
278
0.90
41
0.62
57
0.35
15
1.92
120
0.38
31
0.77
52
0.57
28
0.32
38
0.27
40
0.71
97
0.33
32
0.58
18
0.29
25
DDUNettwo views2.05
186
2.73
283
2.03
271
2.92
280
2.66
284
3.04
281
2.76
268
1.17
134
1.11
211
1.60
195
1.21
195
2.23
233
1.69
238
2.81
284
2.04
106
1.25
104
2.78
266
2.42
300
2.63
153
2.90
279
1.92
145
2.11
117
2.77
286
0.92
221
1.01
161
0.93
133
2.50
197
1.10
154
CASStwo views2.08
187
1.02
202
1.16
217
1.28
231
0.99
200
0.88
194
3.39
276
1.42
178
1.02
200
1.30
178
2.46
235
1.14
170
0.81
182
0.46
139
2.70
170
2.38
213
3.41
272
1.10
223
3.40
190
1.18
205
8.01
237
8.63
212
0.66
187
0.69
183
1.49
235
1.27
180
2.52
199
1.41
185
Junhong Min, Youngpil Jeon: Confidence-Aware Symmetric Stereo Matching via U-Net Transformer.
HUFtwo views2.12
188
0.70
64
0.53
88
0.35
49
0.25
30
0.29
38
0.16
36
0.81
83
0.29
49
0.49
42
0.24
27
0.61
56
0.43
73
0.27
43
21.42
266
21.17
325
0.56
45
0.52
47
2.25
133
0.54
67
1.58
128
1.03
72
0.42
72
0.34
56
0.51
54
0.30
24
0.76
42
0.47
43
s12784htwo views2.23
189
1.12
215
1.32
233
1.12
213
0.91
192
0.59
138
0.39
114
1.37
173
0.65
156
1.05
158
0.82
154
1.08
162
0.95
209
0.37
90
2.80
177
4.82
262
0.93
159
0.71
111
3.28
187
0.58
83
7.80
229
8.40
211
0.51
125
0.54
136
1.50
237
1.13
165
11.58
303
3.94
256
R-Stereo Traintwo views2.23
189
1.01
198
1.14
212
0.96
195
0.63
144
0.73
172
0.31
85
1.30
156
1.01
198
1.68
201
4.49
256
1.29
180
0.70
149
0.42
119
2.49
148
3.99
250
1.66
236
1.02
209
6.77
250
1.11
196
7.83
230
12.24
285
0.49
111
0.54
136
1.42
225
1.66
225
1.34
86
1.93
211
RAFT-Stereopermissivetwo views2.23
189
1.01
198
1.14
212
0.96
195
0.63
144
0.73
172
0.31
85
1.30
156
1.01
198
1.68
201
4.49
256
1.29
180
0.70
149
0.42
119
2.49
148
3.99
250
1.66
236
1.02
209
6.77
250
1.11
196
7.83
230
12.24
285
0.49
111
0.54
136
1.42
225
1.66
225
1.34
86
1.93
211
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
EGLCR-Stereotwo views2.26
192
0.87
138
1.17
218
0.45
89
0.48
96
0.61
145
0.23
57
0.83
89
0.55
129
0.72
81
0.53
86
0.80
110
0.66
141
0.41
109
2.36
138
2.92
223
0.90
148
1.10
223
3.35
189
0.60
97
5.09
190
12.56
298
0.47
97
0.45
96
0.89
142
0.91
131
20.21
317
0.86
117
cross-rafttwo views2.26
192
0.88
147
1.08
197
0.73
157
0.68
155
0.64
152
0.44
137
2.04
246
0.61
146
0.95
148
1.30
198
1.03
153
0.76
174
0.43
124
2.58
158
5.15
267
0.99
173
0.78
136
7.00
257
1.80
250
12.15
278
10.30
240
0.65
184
0.60
158
1.60
247
1.92
241
1.66
118
2.36
228
AnonymousMtwo views2.27
194
0.64
44
0.44
63
0.51
102
0.32
46
0.49
100
0.24
60
1.70
211
0.48
101
0.75
90
2.06
228
0.70
81
0.47
83
0.39
99
2.47
147
3.26
232
0.99
173
1.03
212
1.88
118
2.37
270
4.85
184
6.68
189
0.57
152
0.47
100
0.53
59
0.65
88
11.71
305
14.52
297
LG-Stereo_Zeroshottwo views2.31
195
1.03
207
0.50
78
1.41
240
2.53
279
3.20
284
1.05
215
1.71
214
0.49
105
4.85
298
3.84
251
4.79
277
0.65
138
0.42
119
2.38
140
3.97
248
0.82
123
0.78
136
2.26
134
0.74
141
7.86
232
8.88
219
0.53
133
0.34
56
0.85
127
1.42
196
1.98
141
2.99
240
Anonymous3two views2.32
196
0.85
133
0.88
154
0.56
117
1.10
213
0.89
197
0.70
177
2.45
269
1.12
212
1.05
158
0.98
177
2.57
246
1.14
225
0.56
171
4.14
227
9.30
294
1.50
230
1.47
262
5.33
215
1.49
230
6.83
214
10.10
230
0.71
200
0.67
180
1.08
171
1.38
190
2.32
173
1.35
181
RAFT-Testtwo views2.37
197
0.85
133
1.14
212
1.02
203
0.65
146
0.58
135
0.51
149
2.18
256
0.70
165
1.12
163
5.37
266
0.97
144
0.92
202
0.45
135
2.50
151
5.29
272
0.99
173
0.80
145
6.96
256
1.11
196
10.85
275
10.83
256
0.67
190
0.58
149
1.51
239
1.82
236
1.38
90
2.18
222
RYNettwo views2.42
198
0.40
23
0.35
43
0.29
34
0.32
46
0.40
69
0.25
63
0.61
47
0.55
129
0.33
27
0.36
54
0.40
29
0.26
38
0.27
43
52.29
318
0.69
24
0.47
29
1.00
207
0.54
24
0.29
19
0.50
20
0.37
12
0.38
56
0.32
51
0.57
67
1.24
176
1.31
85
0.50
48
CSANtwo views2.48
199
1.26
236
1.12
207
1.46
246
1.78
262
1.13
221
0.90
198
1.50
185
10.52
316
2.40
241
3.81
250
4.12
268
2.51
251
0.96
242
3.83
221
1.27
106
1.29
215
1.05
219
3.24
183
1.70
246
3.71
169
4.45
148
0.79
217
1.38
244
1.39
220
3.93
280
2.43
188
2.96
239
ADLNettwo views2.50
200
0.99
191
0.73
120
0.62
134
0.75
166
0.63
149
0.53
151
1.12
127
0.61
146
0.58
53
0.71
130
1.61
205
0.61
127
0.87
229
46.09
295
1.02
56
0.70
75
0.67
100
0.85
51
0.74
141
0.75
51
1.07
77
0.51
125
0.47
100
0.94
150
0.93
133
1.63
117
0.70
86
Any-RAFTtwo views2.54
201
0.94
172
1.27
231
0.75
160
0.75
166
0.50
103
0.40
120
1.99
238
0.56
134
0.87
126
6.98
297
1.50
197
0.51
94
0.40
103
2.50
151
3.41
236
0.91
149
0.90
176
6.78
252
0.75
145
14.26
311
10.61
247
0.67
190
0.59
156
1.63
248
1.83
237
2.17
155
4.22
258
GwcNet-ADLtwo views2.54
201
1.23
229
1.55
246
1.22
228
1.26
228
0.97
205
0.78
182
1.50
185
0.84
177
3.20
265
6.67
283
1.86
213
1.05
219
0.79
221
4.58
229
4.90
264
1.47
229
0.90
176
5.20
213
1.95
258
6.39
209
10.33
241
0.91
239
1.12
233
1.22
196
1.93
242
2.15
152
2.70
233
Reg-Stereo(zero)two views2.60
203
0.80
110
1.38
234
0.70
152
0.75
166
0.56
126
0.62
171
3.07
286
0.68
161
3.56
273
6.85
293
1.50
197
0.84
189
1.38
267
2.08
109
5.28
270
1.28
213
0.83
153
6.55
239
1.51
235
5.18
194
13.34
310
0.60
167
0.60
158
1.08
171
1.44
197
4.02
267
3.66
252
HItwo views2.60
203
0.80
110
1.38
234
0.70
152
0.75
166
0.56
126
0.62
171
3.07
286
0.68
161
3.56
273
6.85
293
1.50
197
0.84
189
1.38
267
2.08
109
5.28
270
1.28
213
0.83
153
6.55
239
1.51
235
5.18
194
13.34
310
0.60
167
0.60
158
1.08
171
1.44
197
4.02
267
3.66
252
EAI-Stereotwo views2.60
203
0.90
152
1.57
247
0.90
187
1.31
234
0.84
184
1.31
229
2.22
259
1.34
226
0.81
115
5.69
269
1.37
188
0.83
188
0.50
156
4.76
230
5.32
273
0.91
149
0.94
187
7.45
263
1.11
196
9.07
255
10.78
255
0.62
172
0.85
213
1.45
232
2.06
249
3.36
246
1.90
209
PSMNet-ADLtwo views2.61
206
0.95
178
1.12
207
1.14
220
1.18
224
0.97
205
0.85
193
1.78
218
1.26
219
3.49
272
6.09
275
1.43
191
2.78
258
0.56
171
2.93
182
10.59
297
1.31
216
0.96
195
5.96
230
1.20
207
6.66
211
9.11
222
0.86
236
0.82
207
1.10
180
1.44
197
2.85
223
1.10
154
PWC_ROBbinarytwo views2.61
206
1.20
227
1.48
241
0.96
195
1.05
205
1.21
232
1.79
251
1.24
146
1.94
260
1.81
210
3.61
249
2.12
228
2.96
261
0.91
235
9.88
244
4.30
255
1.97
254
1.95
280
3.72
196
1.62
241
5.58
199
7.59
202
0.81
226
1.98
268
1.35
215
1.27
180
3.11
234
3.07
243
MSMDNettwo views2.69
208
0.87
138
1.07
194
0.57
120
0.65
146
0.59
138
0.49
145
2.03
244
0.62
152
1.03
154
0.97
176
1.05
160
12.04
297
0.50
156
2.60
159
5.56
275
1.05
187
0.80
145
6.93
255
1.42
221
11.49
277
12.49
295
0.67
190
0.58
149
1.48
233
1.83
237
1.28
82
1.97
214
HHtwo views2.75
209
0.67
53
1.42
237
0.80
176
0.71
159
0.88
194
1.09
218
1.86
226
0.87
179
5.19
312
0.66
113
1.91
215
0.86
193
0.57
176
2.65
164
8.48
292
0.87
134
0.94
187
6.36
234
1.39
219
13.52
298
12.32
287
0.79
217
0.58
149
1.38
217
1.63
223
3.81
261
2.06
216
HanStereotwo views2.75
209
0.67
53
1.42
237
0.80
176
0.71
159
0.88
194
1.09
218
1.86
226
0.87
179
5.19
312
0.66
113
1.91
215
0.86
193
0.57
176
2.65
164
8.48
292
0.87
134
0.94
187
6.36
234
1.39
219
13.52
298
12.32
287
0.79
217
0.58
149
1.38
217
1.63
223
3.81
261
2.06
216
MSKI-zero shottwo views2.77
211
0.80
110
1.10
201
0.74
159
0.59
128
0.67
159
0.54
153
1.87
228
0.97
191
0.88
132
6.73
285
1.60
203
0.72
155
0.43
124
3.38
204
7.92
290
1.20
205
0.87
163
6.85
254
4.65
292
10.45
272
12.15
282
0.55
142
0.71
188
1.49
235
1.96
246
1.85
130
3.12
245
PWCDC_ROBbinarytwo views2.78
212
0.70
64
0.65
109
0.61
131
0.87
186
0.63
149
0.57
161
1.04
121
1.59
243
0.65
66
1.88
218
0.80
110
3.28
266
0.73
210
41.04
282
2.18
205
1.23
208
0.98
199
1.52
103
0.97
184
2.56
155
5.26
170
0.68
194
0.81
204
0.74
105
0.94
136
1.13
74
0.97
133
GANet-ADLtwo views2.79
213
0.89
149
1.20
225
1.00
202
1.00
201
1.20
231
0.80
188
1.20
139
1.00
196
3.59
275
6.59
282
1.06
161
0.76
174
0.48
150
12.27
249
4.90
264
1.57
233
0.92
180
6.59
244
1.66
244
6.93
218
11.51
273
0.68
194
0.80
200
1.09
175
1.40
194
2.47
192
1.85
206
iResNettwo views2.79
213
0.95
178
0.91
161
1.35
238
1.69
254
1.41
242
1.02
209
1.81
223
1.09
208
2.62
246
5.14
263
1.80
211
2.38
247
0.46
139
10.35
245
7.64
288
1.36
223
1.23
247
6.83
253
1.78
249
10.05
265
4.09
146
0.61
170
2.02
269
1.10
180
1.50
208
2.80
221
1.39
184
NVstereo2Dtwo views2.81
215
0.82
119
0.74
123
0.69
150
0.78
175
0.92
199
0.81
189
1.18
138
0.76
170
0.91
138
1.06
182
0.80
110
0.55
108
0.71
209
52.63
320
1.47
148
0.86
131
0.83
153
1.42
95
0.69
125
1.12
94
0.94
65
0.76
207
0.83
210
1.08
171
0.78
102
0.98
60
0.74
89
DCVSM-stereotwo views2.89
216
0.92
162
1.57
247
1.31
235
1.04
203
1.53
248
0.99
204
2.96
284
1.33
225
3.46
270
6.20
276
6.77
289
2.59
253
0.87
229
2.25
131
4.01
252
1.37
225
1.11
227
7.05
259
4.27
287
6.91
215
6.70
190
1.25
253
2.64
293
1.30
210
1.73
231
3.46
250
2.47
229
MIPNettwo views2.89
216
0.91
156
0.77
129
0.49
95
0.65
146
0.55
120
0.57
161
1.34
170
0.53
121
2.05
222
0.99
178
0.80
110
0.77
177
0.48
150
40.89
281
1.61
169
1.15
201
0.94
187
3.25
184
1.19
206
1.15
97
9.31
223
0.57
152
0.62
165
1.24
200
1.51
209
2.90
227
0.82
106
DAStwo views2.93
218
0.99
191
1.06
192
1.13
215
1.05
205
1.03
215
1.04
213
1.74
216
1.81
255
3.32
267
5.70
270
2.61
247
3.08
263
0.50
156
3.19
200
7.47
285
1.83
243
1.23
247
5.90
227
1.83
251
12.92
288
10.26
237
0.76
207
1.94
264
1.32
212
1.51
209
2.60
209
1.31
177
SepStereotwo views2.93
218
0.99
191
1.06
192
1.13
215
1.05
205
1.03
215
1.04
213
1.74
216
1.81
255
3.32
267
5.70
270
2.61
247
3.08
263
0.50
156
3.19
200
7.47
285
1.83
243
1.23
247
5.90
227
1.83
251
12.92
288
10.26
237
0.76
207
1.94
264
1.32
212
1.51
209
2.60
209
1.31
177
model_zeroshottwo views2.99
220
0.75
89
1.18
219
1.86
258
0.74
164
0.59
138
0.56
159
1.94
232
0.63
153
3.88
283
6.88
295
1.41
190
0.66
141
0.68
202
5.34
235
4.82
262
1.18
203
0.96
195
7.09
260
1.03
189
12.99
291
9.02
220
0.54
139
0.65
176
5.42
293
1.66
225
2.16
154
6.22
276
IPLGtwo views3.01
221
0.75
89
0.63
103
0.42
81
0.52
112
0.54
117
0.51
149
1.63
206
0.35
63
0.62
61
0.59
100
0.77
105
0.66
141
0.46
139
51.49
312
1.67
177
1.02
181
0.92
180
3.51
192
0.63
112
0.99
80
5.97
182
0.49
111
0.48
112
0.80
114
1.16
169
2.86
224
0.71
87
MFMNet_retwo views3.01
221
1.41
249
1.48
241
1.53
249
1.87
267
1.96
263
2.01
258
2.67
280
2.16
266
1.60
195
1.98
222
3.57
259
2.65
255
1.02
246
6.96
241
4.19
254
2.67
264
1.96
281
6.48
238
2.40
272
14.04
305
4.97
158
1.86
276
1.97
266
1.38
217
1.33
185
3.31
244
1.94
213
test-1two views3.02
223
0.66
52
1.14
212
0.60
129
0.58
126
0.75
174
0.63
173
1.96
234
0.82
175
4.00
285
5.48
267
2.18
231
0.80
181
0.41
109
4.00
224
7.32
284
1.18
203
1.19
240
6.72
249
7.57
306
10.78
273
12.94
307
0.54
139
0.60
158
1.40
223
1.78
233
2.89
226
2.52
230
RTSCtwo views3.08
224
0.95
178
1.25
230
0.76
164
0.91
192
0.96
202
1.84
253
1.15
132
1.34
226
2.37
238
2.12
229
1.11
166
0.99
213
1.02
246
41.50
284
1.94
192
1.88
247
1.22
244
4.09
203
1.06
193
2.76
157
4.02
144
0.63
177
1.03
225
0.83
121
0.99
147
2.44
189
1.98
215
pcwnet_v2two views3.22
225
0.81
116
0.94
165
0.92
191
1.12
216
0.94
200
0.70
177
1.17
134
0.88
181
2.04
221
1.10
184
1.09
165
1.00
214
1.27
263
47.63
298
1.56
163
0.96
166
0.87
163
6.63
245
0.81
159
2.45
152
3.52
137
1.01
245
0.75
193
1.04
166
1.16
169
2.44
189
2.23
225
IPLGRtwo views3.25
226
0.89
149
0.81
138
0.65
141
0.66
151
0.50
103
0.42
130
1.14
131
0.44
90
2.02
219
1.30
198
0.86
123
0.74
165
0.47
144
50.44
307
1.86
186
1.15
201
1.11
227
3.23
178
1.37
216
1.41
119
7.71
203
0.56
149
0.70
187
1.39
220
1.55
214
3.46
250
0.92
127
IGEV_Zeroshot_testtwo views3.38
227
0.83
122
1.84
261
2.82
278
0.69
157
2.37
272
1.26
228
2.23
260
0.94
189
4.40
290
6.76
286
2.28
236
1.01
215
0.45
135
2.83
178
7.72
289
0.87
134
0.77
132
5.93
229
1.87
253
8.49
251
12.88
306
0.58
161
0.69
183
1.40
223
1.57
215
14.84
315
2.99
240
SHDtwo views3.38
227
1.01
198
1.68
253
1.14
220
1.07
210
1.14
222
1.78
250
1.61
205
1.66
246
2.40
241
3.05
240
1.63
207
2.43
249
0.84
227
40.11
279
2.04
200
1.74
238
1.40
259
4.17
204
1.88
254
3.81
170
5.43
173
0.70
198
1.67
252
1.86
262
1.46
201
1.97
140
1.59
194
FADNet_RVCtwo views3.44
229
1.21
228
1.19
222
1.40
239
1.78
262
0.99
209
1.75
248
1.50
185
1.19
218
1.35
180
2.01
226
1.96
218
1.63
236
1.66
273
22.11
267
3.36
235
1.83
243
2.82
309
5.63
224
1.76
248
6.35
208
9.50
224
0.77
212
1.39
246
1.21
191
1.48
202
12.05
306
2.87
237
FC-DCNNcopylefttwo views3.48
230
1.59
262
4.19
305
2.76
277
2.30
271
3.10
283
1.73
247
2.57
275
1.72
248
2.88
255
1.36
205
2.15
229
1.21
226
0.68
202
6.32
237
1.61
169
1.31
216
1.03
212
7.90
267
0.95
181
8.85
253
8.73
215
0.82
230
1.69
256
3.19
283
2.50
265
4.67
272
16.15
301
HSM-Net_RVCpermissivetwo views3.49
231
1.07
211
1.10
201
1.70
253
1.17
223
0.90
198
0.61
170
2.29
266
1.07
206
2.77
251
5.82
272
41.08
324
1.35
233
0.50
156
2.40
141
1.74
180
1.10
189
0.77
132
1.99
124
1.13
200
6.78
213
6.90
195
0.80
222
2.23
278
1.64
250
1.49
205
2.14
150
1.75
203
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
RTStwo views3.53
232
1.15
218
0.98
176
0.97
198
1.26
228
1.33
238
3.31
273
1.33
167
1.50
238
2.37
238
1.20
192
1.75
209
1.12
223
0.88
232
42.78
287
2.37
211
1.94
251
1.33
256
3.94
198
1.62
241
3.62
166
5.21
168
1.02
246
1.09
231
1.83
260
5.05
286
2.33
174
2.13
218
RTSAtwo views3.53
232
1.15
218
0.98
176
0.97
198
1.26
228
1.33
238
3.31
273
1.33
167
1.50
238
2.37
238
1.20
192
1.75
209
1.12
223
0.88
232
42.78
287
2.37
211
1.94
251
1.33
256
3.94
198
1.62
241
3.62
166
5.21
168
1.02
246
1.09
231
1.83
260
5.05
286
2.33
174
2.13
218
XQCtwo views3.58
234
1.29
241
1.21
226
1.28
231
1.43
242
1.29
237
1.93
256
1.60
202
1.45
232
2.47
243
3.06
241
1.48
195
4.17
269
1.23
262
44.68
293
2.35
209
1.60
234
1.18
238
3.95
201
1.43
223
3.22
165
4.97
158
0.84
233
1.24
239
1.43
228
2.09
253
2.30
170
1.52
189
FCDSN-DCtwo views3.63
235
0.94
172
2.84
291
1.29
233
1.30
233
1.03
215
1.00
205
0.90
104
0.91
186
1.04
157
0.74
135
1.21
176
0.74
165
0.58
178
52.59
319
2.04
200
1.24
209
1.13
231
1.05
68
0.79
154
6.62
210
10.01
228
0.78
214
2.18
273
1.20
190
1.67
228
1.20
78
1.05
150
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
MFN_U_SF_DS_RVCtwo views3.64
236
1.48
256
1.03
184
1.98
263
1.75
258
2.09
266
5.14
288
2.15
252
2.23
267
1.73
205
1.57
211
2.49
243
4.83
272
5.73
303
12.78
250
1.73
179
1.22
206
1.06
220
5.43
218
1.54
238
12.24
281
9.06
221
1.52
269
1.16
235
2.29
268
3.46
276
3.05
232
7.63
281
NOSS_ROBtwo views3.67
237
1.38
248
0.81
138
1.15
224
1.16
222
1.15
223
0.65
174
2.25
262
1.41
230
4.85
298
6.68
284
6.78
290
1.06
220
0.82
226
11.52
248
14.58
309
1.34
219
1.17
235
2.93
172
0.98
185
14.13
306
12.82
302
0.79
217
1.48
247
1.13
184
1.48
202
3.41
247
1.25
172
FC-DCNN v2copylefttwo views3.76
238
1.64
263
4.17
304
2.93
282
2.32
273
3.38
285
1.67
243
2.65
278
2.92
279
2.86
254
1.36
205
2.62
249
1.33
231
0.68
202
6.35
238
1.65
173
1.31
216
1.00
207
8.25
268
0.94
179
8.74
252
8.73
215
0.82
230
1.68
253
4.68
290
3.34
275
7.40
291
15.96
300
gcap-zeroshottwo views3.80
239
0.78
104
1.44
239
1.88
259
0.67
152
1.15
223
1.31
229
2.09
250
0.65
156
5.43
318
7.00
298
2.87
252
0.70
149
0.31
61
2.44
144
5.25
269
0.94
160
0.91
179
36.08
307
1.25
210
8.46
250
10.60
246
4.00
293
0.62
165
1.44
229
1.49
205
1.34
86
1.53
190
AIO-Stereo-zeroshotpermissivetwo views3.88
240
1.16
222
2.03
271
1.15
224
0.83
183
1.77
258
1.13
221
2.03
244
3.32
287
2.90
256
7.02
299
2.32
238
2.01
241
0.38
95
3.61
210
9.96
295
1.34
219
1.07
221
6.67
246
6.11
301
8.45
249
12.70
299
0.56
149
1.27
241
1.76
257
1.48
202
16.62
316
5.17
266
UDGtwo views3.91
241
2.76
284
2.09
273
2.92
280
2.64
282
2.99
280
2.71
266
1.31
159
1.13
213
1.65
199
1.96
220
2.20
232
1.68
237
2.77
283
48.81
302
1.57
165
3.02
270
2.26
290
2.65
156
2.91
280
3.00
161
3.09
130
2.64
281
1.05
228
1.02
163
1.19
173
2.36
180
1.16
161
PVDtwo views4.10
242
1.44
254
2.12
275
1.41
240
1.58
249
1.68
254
2.10
260
3.06
285
2.66
275
2.85
253
4.32
253
2.46
242
3.63
268
1.27
263
40.43
280
2.72
218
2.19
260
2.11
289
4.71
209
2.46
274
6.18
205
6.10
184
1.02
246
1.74
257
2.32
271
2.44
263
2.90
227
2.66
232
SAMSARAtwo views4.13
243
1.32
243
1.53
244
1.48
247
1.35
237
1.47
246
2.74
267
2.23
260
1.83
257
2.26
235
3.47
248
2.01
221
8.60
282
1.76
277
38.24
276
2.88
220
1.82
242
1.41
260
4.99
211
1.91
255
5.10
191
5.71
179
0.94
241
1.80
259
3.33
285
3.84
278
4.16
269
3.30
250
iRaft-Stereo_20wtwo views4.16
244
1.13
217
2.10
274
2.66
274
1.55
248
1.55
249
1.17
222
1.96
234
1.27
220
5.53
319
6.77
287
1.52
201
1.34
232
0.43
124
3.03
186
5.32
273
0.95
164
0.77
132
5.49
221
1.46
228
8.20
245
12.75
301
0.61
170
0.60
158
1.63
248
25.36
321
11.64
304
5.58
272
SGM-Foresttwo views4.18
245
1.24
230
0.74
123
2.12
266
1.35
237
1.42
243
0.56
159
1.36
171
0.90
184
4.89
301
0.96
172
2.51
245
12.92
300
0.61
188
16.38
259
3.12
229
0.79
107
0.65
94
7.04
258
0.76
147
6.77
212
10.03
229
0.84
233
0.81
204
1.66
252
1.78
233
4.79
277
25.96
316
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
ccs_robtwo views4.23
246
1.10
213
1.53
244
1.14
220
0.92
198
1.19
230
1.05
215
2.86
283
1.27
220
4.20
287
35.77
324
8.95
300
1.29
229
0.73
210
3.10
196
6.47
278
1.50
230
1.17
235
5.98
231
1.44
225
10.44
271
11.78
277
0.74
206
2.24
279
1.07
170
1.30
184
2.65
215
2.20
223
DeepPrunerFtwo views4.30
247
1.53
257
0.72
119
2.93
282
5.08
312
2.43
275
3.38
275
0.87
99
4.11
295
0.80
112
1.17
190
0.66
70
0.56
109
0.61
188
45.12
294
2.02
199
1.01
178
0.78
136
2.32
135
0.88
170
1.56
126
1.70
103
0.84
233
0.67
180
29.00
324
1.78
233
2.48
193
1.17
165
MSC_U_SF_DS_RVCtwo views4.33
248
2.25
280
1.45
240
2.41
271
1.94
269
1.93
261
4.82
287
1.96
234
2.59
273
2.96
259
1.96
220
2.49
243
8.10
280
9.76
311
14.02
253
3.47
239
2.04
258
1.98
282
14.27
285
3.33
284
7.23
223
7.20
200
2.89
287
1.85
262
2.43
274
2.85
270
2.19
159
6.62
278
FAT-Stereotwo views4.35
249
1.18
223
2.25
277
1.48
247
1.81
265
1.42
243
1.49
237
3.57
294
1.84
258
3.66
278
6.22
277
6.70
288
2.76
257
1.07
254
6.82
240
15.24
315
2.03
257
2.49
301
5.43
218
8.81
315
13.23
294
12.34
291
0.95
242
2.79
301
1.26
204
2.25
258
2.96
230
5.48
269
ITSA-stereotwo views4.40
250
1.26
236
1.18
219
1.64
251
1.64
251
0.99
209
1.38
234
1.99
238
1.47
236
3.68
280
6.79
288
2.16
230
1.42
234
1.36
266
8.32
242
6.93
281
2.19
260
1.94
279
6.40
236
5.42
296
7.43
225
10.74
254
1.29
257
2.39
285
1.53
241
5.02
285
23.63
320
8.74
283
MFN_U_SF_RVCtwo views4.44
251
1.91
271
1.83
260
2.19
269
1.82
266
2.38
274
4.61
285
2.39
268
1.94
260
4.48
292
11.47
315
3.74
265
2.50
250
4.72
298
20.32
265
3.66
242
1.91
249
1.83
275
11.50
280
3.25
283
7.86
232
6.73
192
1.25
253
3.20
310
1.86
262
3.84
278
2.83
222
3.94
256
RainbowNettwo views4.65
252
3.75
299
2.70
289
4.56
293
2.98
294
4.16
291
8.75
300
2.05
247
2.01
263
1.90
216
1.12
187
3.61
263
3.00
262
3.60
295
2.70
170
1.89
187
2.97
269
1.54
265
15.27
288
8.73
314
11.07
276
11.30
269
10.70
319
2.22
275
1.73
254
2.30
259
2.76
219
6.13
275
S-Stereotwo views4.68
253
1.15
218
1.74
257
1.75
254
1.63
250
1.65
252
2.24
263
2.75
282
2.15
265
3.32
267
11.59
316
5.97
282
1.74
239
0.88
232
19.04
262
16.28
317
1.81
241
2.39
298
5.64
225
9.35
320
7.13
222
12.52
296
1.61
271
2.64
293
1.24
200
2.08
252
2.88
225
3.26
247
MADNet+two views4.78
254
2.02
275
1.87
264
2.01
264
2.36
275
1.47
246
4.28
283
2.47
271
1.99
262
2.66
247
2.13
230
3.56
258
2.85
260
2.34
280
41.14
283
5.66
276
3.48
274
1.53
264
4.54
207
3.38
285
13.07
293
7.34
201
1.72
273
3.48
312
2.93
279
2.17
256
3.24
241
3.29
249
ADCReftwo views4.84
255
1.42
252
1.01
182
0.78
171
1.77
259
1.21
232
1.62
242
0.99
116
5.58
304
1.85
213
1.08
183
1.02
149
0.91
199
1.17
259
54.35
324
1.92
191
1.10
189
1.04
215
3.49
191
1.32
215
1.80
141
3.27
134
2.13
279
0.87
216
2.30
269
4.60
282
2.48
193
29.71
321
SQANettwo views4.87
256
4.55
305
2.13
276
19.76
313
2.63
280
4.99
300
3.29
272
1.63
206
1.45
232
1.20
167
1.40
208
3.22
256
2.40
248
2.76
282
3.09
194
1.20
97
5.19
283
1.07
221
19.89
293
1.28
211
12.48
282
10.73
252
11.37
322
1.49
248
1.57
245
2.32
261
2.66
217
5.86
273
FBW_ROBtwo views4.93
257
2.40
281
2.44
283
2.67
275
2.86
288
2.30
271
4.71
286
1.79
219
1.10
209
2.54
244
2.92
237
4.12
268
5.31
273
6.61
304
50.17
304
1.18
91
1.44
227
0.95
193
8.76
271
1.43
223
8.26
246
5.68
176
4.20
294
1.75
258
1.42
225
1.95
244
1.81
126
2.20
223
ADCP+two views5.07
258
1.54
258
1.72
254
1.08
209
1.54
246
1.18
228
2.02
259
1.02
118
2.72
278
4.05
286
2.23
233
2.24
234
0.61
127
0.94
240
54.46
325
1.52
158
0.83
124
0.95
193
3.94
198
0.87
169
2.22
151
2.57
126
0.71
200
0.62
165
2.48
275
11.25
305
7.85
294
23.66
312
CBMVpermissivetwo views5.08
259
1.41
249
1.15
216
1.44
245
1.42
241
1.24
234
0.78
182
2.27
264
1.47
236
3.04
261
6.44
280
7.74
293
9.07
285
0.60
186
12.81
251
13.79
306
1.99
255
1.29
253
9.56
273
1.15
203
9.82
260
12.54
297
0.82
230
1.84
261
1.44
229
1.83
237
4.39
271
25.76
315
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
otakutwo views5.09
260
5.20
306
2.27
278
18.45
311
2.89
289
5.73
302
3.63
278
1.44
180
1.46
234
1.31
179
1.42
209
3.59
261
2.63
254
3.22
289
3.07
191
1.30
109
5.55
285
1.14
234
20.28
294
1.49
230
13.81
302
11.25
268
11.85
324
1.91
263
1.56
244
2.06
249
2.52
199
6.49
277
ACVNet_1two views5.24
261
3.87
301
3.60
302
13.80
307
3.48
303
6.00
307
10.57
305
1.60
202
1.79
252
1.55
193
1.30
198
4.40
273
2.80
259
5.43
301
2.42
143
1.39
124
11.59
303
1.72
272
20.91
298
1.50
233
14.41
316
8.16
207
7.22
306
2.84
303
1.73
254
2.19
257
2.61
211
2.72
234
Ntrotwo views5.35
262
6.19
311
2.38
282
8.06
302
2.91
291
4.88
298
6.70
294
1.40
176
1.53
240
1.44
189
1.19
191
3.58
260
2.73
256
3.12
288
3.66
212
1.17
89
6.56
293
1.19
240
32.62
304
1.60
240
14.27
313
11.82
278
11.41
323
2.54
290
1.64
250
2.30
259
2.45
191
5.00
263
EKT-Stereotwo views5.41
263
0.97
185
1.10
201
0.72
154
0.74
164
0.87
190
1.17
222
2.02
243
1.00
196
1.41
187
2.92
237
1.11
166
0.81
182
0.46
139
72.33
334
14.74
310
1.14
197
1.37
258
5.61
223
7.76
307
9.80
259
10.61
247
0.53
133
0.61
164
1.39
220
1.11
159
2.56
206
1.08
153
pmcnntwo views5.52
264
1.54
258
1.51
243
2.64
273
3.13
296
2.07
264
10.40
304
2.61
276
2.65
274
2.55
245
6.41
279
6.23
286
15.93
309
0.58
178
6.75
239
14.92
312
3.87
277
3.34
311
7.45
263
7.76
307
13.60
301
10.19
233
6.30
304
2.29
282
1.57
245
3.30
274
4.69
273
4.80
260
DPSNettwo views5.60
265
1.54
258
1.19
222
1.76
255
2.44
278
2.08
265
1.81
252
1.95
233
2.93
280
2.09
227
5.15
264
9.82
303
6.09
275
8.98
308
14.30
254
12.14
303
4.12
281
3.60
312
17.82
290
8.28
311
12.18
279
14.58
314
3.71
291
3.09
307
2.30
269
2.42
262
2.52
199
2.24
226
ADCMidtwo views5.63
266
2.23
278
2.63
286
1.42
243
2.89
289
2.37
272
3.73
279
1.92
230
2.97
281
1.91
217
3.16
242
2.33
239
2.31
246
1.48
270
50.97
311
3.74
243
1.84
246
1.86
277
7.38
262
1.99
262
4.66
181
5.18
167
2.70
283
1.38
244
2.33
272
8.75
301
6.81
290
21.02
308
ADCLtwo views5.69
267
1.88
268
1.63
250
1.29
233
1.40
240
1.59
251
2.22
262
1.23
143
5.20
302
3.04
261
2.01
226
1.14
170
0.84
189
1.04
252
50.40
306
1.63
172
1.45
228
1.79
273
2.94
174
1.38
218
3.19
163
2.35
120
1.23
252
1.07
230
9.47
309
11.74
307
11.34
302
29.10
320
SANettwo views5.69
267
2.22
277
1.77
258
1.84
256
2.37
276
2.28
269
1.43
235
4.49
304
7.61
311
2.05
222
4.86
261
8.34
299
11.81
296
1.70
274
43.86
291
1.62
171
5.96
287
1.51
263
4.43
206
1.70
246
8.97
254
8.28
208
1.20
250
2.60
291
1.94
265
6.02
294
3.42
249
9.29
286
SPS-STEREOcopylefttwo views5.78
269
1.73
266
1.86
262
2.48
272
1.67
253
2.19
267
1.60
241
2.72
281
1.76
250
3.63
277
6.80
290
4.12
268
2.19
244
1.21
261
13.01
252
12.86
304
2.91
268
2.01
283
47.66
319
2.04
264
14.17
308
13.06
309
1.43
265
2.27
281
2.40
273
1.94
243
3.66
257
2.80
235
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
ACVNet_2two views5.79
270
3.52
294
2.90
292
21.94
317
3.38
301
4.55
293
8.18
298
1.84
224
1.76
250
1.84
211
1.98
222
3.88
266
3.20
265
3.03
286
2.85
179
1.46
145
12.77
309
1.56
266
33.59
305
1.68
245
10.81
274
7.91
205
6.79
305
2.68
299
3.13
282
2.65
267
3.23
239
3.11
244
edge stereotwo views5.88
271
1.88
268
3.14
296
2.14
267
1.80
264
2.47
277
2.43
264
4.51
305
3.45
289
3.97
284
4.84
260
6.45
287
17.40
310
1.04
252
5.09
234
14.91
311
1.80
239
1.66
269
37.39
309
6.28
303
5.99
202
12.74
300
1.44
266
2.02
269
2.12
267
2.11
255
3.75
258
5.99
274
Deantwo views5.89
272
3.71
298
2.59
284
34.77
322
3.99
307
4.60
296
10.86
307
2.26
263
2.39
271
2.16
231
1.55
210
4.68
276
4.76
271
3.30
291
3.03
186
1.76
181
12.09
306
1.65
268
9.86
276
2.04
264
14.16
307
9.89
227
7.35
307
2.66
298
3.36
286
2.91
271
3.53
254
3.13
246
AnyNet_C32two views6.05
273
1.43
253
1.39
236
1.26
230
1.64
251
1.36
240
2.92
269
1.55
198
5.28
303
2.67
249
4.61
258
1.90
214
1.29
229
1.29
265
55.18
326
3.43
238
1.96
253
2.08
286
3.65
193
1.91
255
6.94
219
8.77
217
1.20
250
1.68
253
6.02
296
14.92
313
6.12
283
20.86
307
DDVStwo views6.06
274
1.18
223
1.31
232
1.12
213
1.54
246
1.18
228
1.01
206
2.45
269
1.75
249
3.31
266
80.70
332
6.22
285
1.76
240
1.15
258
3.67
215
6.50
279
2.01
256
1.29
253
5.56
222
4.99
295
10.09
267
12.94
307
0.81
226
1.16
235
1.11
183
1.53
212
4.71
274
2.62
231
G-Nettwo views6.29
275
1.69
264
1.86
262
1.42
243
1.70
256
1.45
245
1.19
225
4.71
306
8.56
312
3.16
263
4.70
259
7.94
294
6.89
277
0.85
228
15.45
257
8.15
291
1.92
250
2.75
305
5.41
217
6.49
304
9.16
257
11.23
267
1.46
267
2.81
302
1.81
258
19.84
317
6.51
288
30.80
322
TRStereotwo views6.31
276
1.25
233
1.93
265
0.85
183
0.61
135
2.29
270
0.86
194
2.21
258
0.54
127
4.40
290
1.34
201
2.24
234
0.75
169
0.45
135
4.08
226
6.55
280
0.80
110
0.85
160
6.04
232
1.45
227
7.60
226
12.13
281
0.55
142
0.49
116
1.44
229
103.74
337
3.24
241
1.61
195
HBP-ISPtwo views6.40
277
1.33
245
2.30
280
1.91
262
1.51
244
1.65
252
0.79
185
2.50
273
1.29
222
4.91
302
6.80
290
1.37
188
0.74
165
14.59
318
52.98
321
19.59
321
1.24
209
1.10
223
6.08
233
8.03
310
12.73
284
16.75
320
0.79
217
1.19
237
1.81
258
2.06
249
3.90
265
2.87
237
SGM-ForestMtwo views6.44
278
10.17
321
6.98
320
4.69
294
2.91
291
6.90
310
9.70
303
7.26
315
4.59
300
4.81
297
6.31
278
9.50
302
9.35
287
0.78
218
3.65
211
1.30
109
6.50
291
0.89
173
11.21
279
1.44
225
6.08
203
6.02
183
1.58
270
1.68
253
9.47
309
11.34
306
12.07
307
16.58
302
CBMV_ROBtwo views6.60
279
1.41
249
1.59
249
2.38
270
1.74
257
1.90
260
1.86
254
6.44
311
1.69
247
5.02
306
7.03
300
9.95
309
11.26
293
0.65
198
38.55
277
7.04
282
2.78
266
1.12
230
9.67
275
2.45
273
9.46
258
11.60
276
0.80
222
1.37
243
4.92
291
12.01
308
4.73
275
18.79
305
ADCStwo views6.69
280
1.97
273
1.94
266
1.41
240
2.24
270
1.84
259
3.00
270
2.08
249
3.97
292
2.66
247
3.26
244
3.01
254
11.48
294
2.01
279
53.18
322
11.65
301
2.72
265
2.59
302
5.10
212
2.24
268
10.43
270
8.65
213
1.76
274
1.97
266
2.57
277
10.58
303
7.51
292
18.68
304
anonymitytwo views6.71
281
0.80
110
1.73
256
1.09
210
0.88
188
0.79
180
0.68
175
2.17
254
0.90
184
3.78
282
97.20
333
1.95
217
0.93
204
0.44
134
2.57
157
7.16
283
0.95
164
0.83
153
6.70
247
1.07
194
7.93
235
12.47
294
0.67
190
0.57
145
1.51
239
1.60
220
20.99
319
2.80
235
ADCPNettwo views7.09
282
1.18
223
3.04
295
1.33
236
3.12
295
1.36
240
8.88
301
2.15
252
3.24
285
4.23
288
7.84
307
1.96
218
15.92
308
1.71
275
49.61
303
3.53
241
1.89
248
1.25
251
19.14
292
3.03
282
5.96
200
4.75
154
4.72
295
1.29
242
3.95
288
5.33
288
3.87
263
27.01
317
IMH-64-1two views7.17
283
3.27
289
3.53
299
4.69
294
3.29
298
4.58
294
5.71
290
3.51
291
3.09
282
1.39
185
1.98
222
4.90
278
10.92
289
4.82
299
52.00
313
4.78
260
3.66
275
2.27
291
12.32
281
1.96
259
6.91
215
10.55
244
7.77
312
2.22
275
6.05
297
4.73
283
13.45
311
9.13
284
IMH-64two views7.17
283
3.27
289
3.53
299
4.69
294
3.29
298
4.58
294
5.71
290
3.51
291
3.09
282
1.39
185
1.98
222
4.90
278
10.92
289
4.82
299
52.00
313
4.78
260
3.66
275
2.27
291
12.32
281
1.96
259
6.91
215
10.55
244
7.77
312
2.22
275
6.05
297
4.73
283
13.45
311
9.13
284
AnyNet_C01two views7.20
285
2.24
279
2.27
278
2.95
284
1.92
268
1.58
250
5.39
289
3.73
299
5.63
305
3.17
264
4.41
254
4.59
275
6.09
275
1.88
278
58.66
328
14.24
307
5.46
284
3.69
313
4.79
210
3.02
281
8.40
248
10.33
241
2.45
280
2.24
279
5.77
294
2.65
267
8.81
298
17.99
303
WAO-6two views7.36
286
2.83
286
2.64
287
8.38
304
2.78
286
3.59
288
8.61
299
3.51
291
3.36
288
1.84
211
2.45
234
5.99
283
8.70
284
3.06
287
50.70
308
2.35
209
13.44
313
1.82
274
8.79
272
2.15
267
14.26
311
12.40
293
3.35
289
2.64
293
7.87
303
5.84
291
4.30
270
11.17
293
WAO-7two views8.11
287
2.98
287
5.46
314
29.83
320
2.32
273
3.09
282
9.23
302
2.48
272
4.20
296
4.67
296
7.60
303
7.98
295
11.78
295
1.64
272
22.32
268
2.11
203
12.00
305
2.79
308
44.95
316
2.13
266
10.06
266
10.12
231
1.37
264
2.49
289
2.97
281
4.35
281
2.94
229
5.06
265
AIO-Stereo-zeroshot1permissivetwo views8.38
288
1.15
218
1.98
268
1.25
229
1.24
227
1.74
256
1.31
229
2.17
254
7.44
310
3.47
271
7.09
301
2.38
240
2.08
243
0.37
90
3.49
208
11.36
300
1.39
226
0.99
202
136.53
332
6.21
302
8.35
247
12.33
289
0.55
142
0.88
217
1.22
196
1.95
244
2.35
178
4.96
262
SGM_RVCbinarytwo views8.49
289
2.77
285
1.77
258
2.88
279
2.31
272
3.42
286
2.70
265
7.78
320
3.92
291
5.57
320
8.42
308
9.89
305
12.92
300
0.68
202
3.72
217
2.10
202
6.63
294
1.11
227
40.78
310
5.93
300
9.99
263
10.27
239
1.97
277
2.17
272
8.79
308
2.97
272
27.36
322
40.51
328
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
SFCPSMtwo views8.92
290
1.34
247
1.05
188
1.13
215
1.12
216
1.10
218
0.89
197
1.28
153
1.79
252
2.71
250
5.63
268
4.32
272
7.90
279
1.01
245
5.47
236
5.23
268
1.80
239
1.19
240
162.18
334
4.49
289
7.79
228
9.52
225
0.81
226
1.64
250
1.33
214
1.76
232
3.30
243
3.06
242
ELAS_RVCcopylefttwo views9.07
291
3.30
291
5.65
315
4.08
288
3.41
302
7.21
312
4.01
282
7.69
317
3.75
290
4.97
304
7.74
304
9.89
305
11.00
291
3.00
285
47.69
299
4.33
257
6.53
292
9.70
321
9.64
274
2.89
278
13.54
300
15.79
317
2.75
284
4.07
315
18.38
318
23.86
319
4.94
278
5.18
267
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
IMHtwo views9.11
292
3.31
292
3.55
301
4.46
291
3.30
300
4.60
296
6.29
293
3.48
289
3.12
284
1.42
188
1.88
218
5.38
280
15.63
307
51.61
332
52.03
315
3.06
226
3.92
278
2.32
294
20.77
296
2.01
263
6.25
206
9.58
226
8.07
316
2.21
274
7.69
302
5.96
293
3.77
259
10.35
291
PWCKtwo views9.19
293
3.84
300
2.76
290
4.81
298
3.48
303
7.14
311
7.79
296
3.92
300
4.66
301
4.66
295
5.84
273
24.68
320
8.47
281
3.24
290
10.95
247
3.27
233
9.48
300
2.36
296
72.75
326
4.94
294
14.76
319
6.95
196
3.68
290
2.40
286
8.01
304
7.55
297
6.35
284
9.51
288
MADNet++two views9.22
294
4.13
304
6.16
317
4.32
290
5.78
316
3.96
289
8.14
297
7.09
314
6.83
309
5.28
315
7.83
306
7.65
292
8.62
283
12.90
313
19.42
264
21.00
324
7.04
296
6.27
316
10.40
277
7.97
309
14.29
314
18.67
323
3.96
292
5.12
319
5.80
295
22.29
318
9.32
299
8.69
282
MeshStereopermissivetwo views9.30
295
2.68
282
2.31
281
4.19
289
2.81
287
4.05
290
1.96
257
8.24
322
9.28
313
5.13
309
8.64
309
11.19
312
12.84
299
0.78
218
52.26
317
15.80
316
4.59
282
1.92
278
22.33
299
1.58
239
15.40
323
19.41
324
1.06
249
2.12
271
8.69
307
5.55
289
10.68
300
15.59
299
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
ELAScopylefttwo views10.16
296
3.54
295
5.12
313
4.49
292
4.32
311
5.01
301
4.33
284
6.88
313
4.09
294
4.97
304
7.74
304
9.90
307
11.01
292
3.51
294
52.19
316
4.52
259
7.15
297
9.65
320
8.69
270
2.38
271
13.33
296
14.95
316
2.75
284
3.64
314
17.76
317
27.24
324
13.13
310
21.93
309
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
notakertwo views10.31
297
13.11
322
4.84
308
18.55
312
6.95
320
7.98
315
14.39
316
3.69
298
3.28
286
2.90
256
2.15
231
30.28
322
43.63
320
4.40
297
9.01
243
2.66
217
12.71
307
2.73
304
42.35
312
2.87
277
14.87
320
10.21
234
7.77
312
3.03
305
2.66
278
2.98
273
3.46
250
4.84
261
JetBluetwo views10.90
298
9.40
319
6.23
318
8.34
303
6.82
319
10.07
320
10.58
306
5.04
309
3.97
292
2.95
258
4.09
252
9.83
304
9.32
286
8.12
306
48.65
301
14.50
308
6.76
295
5.08
315
7.66
265
3.76
286
13.23
294
17.58
322
8.19
317
3.58
313
11.41
312
18.49
315
12.08
308
28.49
319
LVEtwo views10.96
299
3.63
297
2.68
288
55.15
331
4.03
310
7.50
313
88.91
335
1.93
231
2.44
272
2.26
235
1.69
214
4.48
274
4.75
270
3.42
293
3.44
206
2.21
206
6.03
289
1.84
276
50.68
322
1.97
261
10.14
268
12.19
284
5.54
296
3.12
308
3.75
287
2.46
264
2.99
231
6.76
280
XX-Stereotwo views11.10
300
0.72
74
1.24
228
1.04
205
0.52
112
0.80
181
0.84
190
1.13
129
0.51
114
4.53
294
6.79
288
1.54
202
1.06
220
0.42
119
2.78
175
5.82
277
0.96
166
0.94
187
6.43
237
0.91
173
6.26
207
8.36
210
0.58
161
0.43
90
237.38
337
1.38
190
2.64
213
3.61
251
DGSMNettwo views11.16
301
1.98
274
1.98
268
1.90
261
1.52
245
2.46
276
1.47
236
3.07
286
2.11
264
12.67
326
102.10
334
3.59
261
18.94
313
18.97
323
16.50
260
15.09
313
12.73
308
10.36
322
13.79
284
4.57
290
12.99
291
14.32
313
7.77
312
3.43
311
1.75
256
6.25
295
3.48
253
5.53
270
ACVNet-4btwo views11.58
302
3.99
302
2.60
285
44.40
327
2.71
285
4.98
299
62.31
331
1.85
225
1.79
252
1.63
198
1.25
196
4.22
271
58.75
328
3.34
292
2.27
134
1.21
98
13.33
312
1.70
271
49.50
320
1.93
257
14.47
318
13.72
312
7.40
308
3.13
309
1.55
243
1.89
240
2.20
161
4.61
259
LSM0two views11.61
303
1.70
265
2.94
293
2.71
276
2.41
277
2.76
278
6.88
295
4.22
302
4.26
297
3.67
279
7.57
302
7.41
291
9.43
288
0.98
243
64.90
333
78.60
336
3.43
273
2.37
297
20.39
295
4.80
293
14.29
314
16.21
319
1.30
259
3.06
306
3.29
284
12.44
309
6.06
282
25.31
314
UNDER WATER-64two views11.75
304
7.29
317
4.90
309
17.03
310
7.40
321
8.44
316
16.49
319
8.25
323
4.32
298
4.51
293
3.21
243
17.72
315
15.23
305
8.81
307
46.52
297
10.69
298
13.57
320
3.01
310
12.74
283
8.66
313
14.20
309
12.82
302
11.01
320
4.40
316
6.45
300
18.67
316
8.71
297
22.29
310
SGM+DAISYtwo views11.81
305
3.22
288
3.47
297
3.83
287
3.15
297
4.25
292
3.52
277
7.70
318
10.88
319
5.57
320
9.00
313
9.94
308
13.12
302
1.74
276
22.71
270
18.99
320
3.23
271
2.28
293
15.35
289
8.91
316
15.05
321
17.02
321
1.32
261
4.58
317
24.50
322
31.01
327
32.60
328
41.83
331
MDST_ROBtwo views12.03
306
32.81
327
1.72
254
20.74
316
2.64
282
5.90
306
1.72
246
4.06
301
1.35
228
3.76
281
6.53
281
2.75
251
42.83
319
0.54
164
50.83
310
1.22
101
1.08
188
0.75
126
18.95
291
1.00
186
12.75
287
11.49
271
1.29
257
1.26
240
22.72
321
11.17
304
31.24
325
31.81
324
WAO-8two views12.07
307
5.33
307
4.83
306
26.48
318
4.01
308
6.22
308
11.73
313
3.65
296
6.39
307
28.97
331
41.01
326
8.08
296
18.91
311
20.68
326
3.75
218
3.24
230
9.46
298
2.01
283
53.81
323
5.76
298
9.83
261
11.16
264
6.04
302
2.43
287
8.05
305
7.74
298
6.36
285
9.95
289
Venustwo views12.07
307
5.33
307
4.83
306
26.48
318
4.01
308
6.22
308
11.73
313
3.65
296
6.39
307
28.97
331
41.01
326
8.08
296
18.91
311
20.68
326
3.75
218
3.24
230
9.46
298
2.01
283
53.81
323
5.76
298
9.83
261
11.16
264
6.04
302
2.43
287
8.05
305
7.74
298
6.36
285
9.95
289
JetRedtwo views12.50
309
6.96
316
7.76
321
4.77
297
6.78
318
9.35
318
10.92
308
5.31
310
4.54
299
5.85
322
3.28
246
8.17
298
7.48
278
9.74
310
50.80
309
15.21
314
10.30
301
7.93
317
7.83
266
5.44
297
18.10
326
24.48
327
11.12
321
4.60
318
11.97
313
25.85
322
24.78
321
28.17
318
TorneroNet-64two views13.24
310
6.25
312
5.07
312
34.05
321
3.72
305
9.38
319
16.75
320
3.49
290
12.26
322
2.27
237
5.98
274
17.67
314
34.24
317
14.37
316
47.92
300
3.76
244
13.18
311
2.40
299
36.34
308
9.15
319
13.85
304
12.35
292
5.65
297
2.64
293
14.28
316
14.51
312
3.41
247
12.48
294
ACV-stereotwo views13.36
311
1.90
270
1.63
250
2.10
265
1.15
221
2.97
279
1.36
232
1.72
215
1.86
259
2.96
259
4.89
262
3.67
264
43.88
321
1.13
256
54.14
323
17.43
318
2.38
262
1.31
255
170.74
335
4.64
291
12.73
284
14.68
315
0.97
243
1.83
260
1.25
203
1.49
205
3.53
254
2.32
227
MANEtwo views14.22
312
9.62
320
6.93
319
4.94
300
5.72
315
7.88
314
11.48
310
7.38
316
9.90
315
4.92
303
6.89
296
8.98
301
12.13
298
3.67
296
50.37
305
17.85
319
11.82
304
20.17
327
10.46
278
6.55
305
12.22
280
12.86
304
1.77
275
11.33
324
24.83
323
30.99
326
31.42
326
40.73
329
DispFullNettwo views15.85
313
3.61
296
5.00
311
3.30
285
2.93
293
3.51
287
3.20
271
6.49
312
2.71
277
5.17
310
6.80
290
90.79
332
15.55
306
2.73
281
28.89
273
23.38
326
4.02
279
3.86
314
138.92
333
28.91
327
12.60
283
11.86
279
2.69
282
2.31
283
4.30
289
2.71
269
6.80
289
5.05
264
UNDER WATERtwo views16.39
314
7.86
318
4.99
310
15.68
309
10.73
326
8.76
317
38.30
326
8.07
321
6.02
306
4.25
289
2.98
239
18.63
316
96.18
333
14.44
317
32.70
275
10.29
296
13.91
321
2.75
305
43.73
314
8.62
312
16.83
325
12.33
289
17.08
327
5.55
320
6.06
299
14.49
311
6.37
287
15.05
298
STStereotwo views16.49
315
3.48
293
5.91
316
44.25
326
5.60
314
39.03
330
13.11
315
7.74
319
10.72
318
5.19
312
8.92
310
24.73
321
30.22
316
1.03
251
59.92
331
11.74
302
2.59
263
1.26
252
40.79
311
2.25
269
10.02
264
8.79
218
2.06
278
11.31
323
22.61
320
16.05
314
20.57
318
35.39
325
PSMNet_ROBtwo views16.63
316
5.59
309
2.97
294
3.47
286
2.63
280
5.86
305
6.18
292
2.20
257
2.29
268
5.39
317
141.45
335
97.59
333
6.02
274
33.78
328
3.23
202
1.58
168
4.09
280
1.69
270
20.81
297
2.75
275
12.93
290
7.08
198
63.80
335
2.60
291
2.95
280
3.67
277
2.77
220
3.66
252
DGTPSM_ROBtwo views17.21
317
6.49
313
18.05
324
4.91
299
8.87
322
5.73
302
11.48
310
5.02
307
12.05
320
5.03
308
9.34
314
12.62
313
56.51
327
15.29
319
43.82
290
20.47
322
19.26
324
16.28
324
24.70
300
20.05
324
13.50
297
22.25
325
6.00
300
12.55
325
12.71
314
32.01
329
14.20
313
35.61
327
KSHMRtwo views20.05
318
6.71
315
4.01
303
99.31
335
5.91
317
17.09
323
71.12
333
3.62
295
9.75
314
3.59
275
3.39
247
6.07
284
84.38
332
17.14
321
22.70
269
3.97
248
6.29
290
2.76
307
90.60
329
2.83
276
12.73
284
10.14
232
9.05
318
2.74
300
21.08
319
5.85
292
8.10
295
10.46
292
DPSM_ROBtwo views21.05
319
17.19
323
22.69
326
10.13
305
9.29
324
13.96
321
14.50
317
11.66
324
15.25
324
9.00
323
8.97
311
10.35
310
13.24
303
19.90
324
59.73
329
26.35
327
18.76
322
21.26
328
14.74
286
15.50
322
28.56
329
27.85
329
7.42
309
16.13
327
34.05
327
39.30
332
37.97
330
44.48
332
DPSMtwo views21.05
319
17.19
323
22.69
326
10.13
305
9.29
324
13.96
321
14.50
317
11.66
324
15.25
324
9.00
323
8.97
311
10.35
310
13.24
303
19.90
324
59.73
329
26.35
327
18.76
322
21.26
328
14.74
286
15.50
322
28.56
329
27.85
329
7.42
309
16.13
327
34.05
327
39.30
332
37.97
330
44.48
332
MaskLacGwcNet_RVCtwo views21.23
321
1.32
243
1.63
250
1.89
260
1.69
254
1.93
261
3.75
280
2.27
264
2.66
275
5.02
306
29.10
322
216.12
337
51.87
326
5.44
302
3.66
212
4.09
253
5.59
286
13.75
323
28.77
301
1.47
229
14.44
317
12.86
304
0.98
244
2.33
284
1.88
264
7.40
296
145.78
337
5.57
271
DPSMNet_ROBtwo views22.61
322
6.50
314
18.06
325
4.95
301
8.88
323
5.76
304
11.54
312
5.02
307
12.08
321
5.17
310
28.67
321
19.69
317
163.24
337
15.38
320
43.87
292
20.66
323
19.56
325
16.59
325
35.50
306
20.17
325
13.82
303
22.26
326
6.02
301
12.56
326
12.82
315
32.01
329
14.23
314
35.60
326
DLNR_Zeroshot_testpermissivetwo views23.11
323
81.98
336
1.97
267
102.16
336
0.49
99
0.55
120
81.36
334
2.30
267
0.50
110
4.87
300
2.22
232
2.99
253
0.93
204
12.17
312
96.90
335
144.02
337
34.28
329
19.61
326
8.60
269
4.35
288
8.08
244
6.53
188
0.51
125
0.69
183
1.37
216
1.57
215
1.16
76
1.90
209
TorneroNettwo views24.73
324
6.18
310
3.52
298
95.34
334
3.93
306
27.05
326
29.02
323
4.44
303
18.13
326
2.20
232
37.99
325
77.85
331
72.31
329
18.15
322
41.78
286
3.07
227
13.11
310
2.35
295
87.85
327
9.06
318
15.44
324
12.17
283
5.94
299
2.64
293
52.32
331
8.18
300
3.59
256
14.11
296
LRCNet_RVCtwo views25.94
325
30.78
326
14.74
323
35.18
324
31.16
330
36.52
329
29.93
325
23.08
328
12.70
323
36.15
333
33.37
323
37.24
323
28.56
315
37.11
329
17.47
261
7.61
287
31.06
327
26.75
331
67.49
325
29.07
328
23.47
328
10.73
252
39.23
330
30.61
331
7.37
301
2.53
266
11.22
301
9.31
287
ktntwo views26.84
326
3.99
302
95.18
337
14.39
308
5.44
313
18.02
324
17.50
321
19.69
327
67.27
335
2.84
252
5.30
265
171.03
336
80.75
331
7.72
305
10.93
246
3.48
240
20.95
326
2.71
303
90.26
328
29.10
329
15.05
321
10.23
235
7.60
311
2.93
304
5.12
292
5.83
290
4.73
275
6.62
278
LE_ROBtwo views28.97
327
25.29
325
36.16
329
34.90
323
56.86
336
18.61
325
58.99
330
32.08
331
41.72
330
5.37
316
27.57
320
46.00
325
49.67
324
13.72
315
14.83
255
3.84
247
5.96
287
1.22
244
46.43
317
36.35
332
10.19
269
11.19
266
48.45
331
22.49
329
30.18
325
31.59
328
31.60
327
40.87
330
PMLtwo views39.07
328
38.06
330
12.06
322
39.32
325
29.04
329
40.62
331
11.06
309
14.14
326
100.08
336
27.87
330
166.26
337
107.74
334
159.39
336
13.53
314
15.41
256
10.75
299
35.75
330
8.64
318
42.84
313
10.61
321
14.22
310
16.14
318
5.89
298
7.21
322
53.08
332
13.95
310
42.26
332
19.02
306
FlowAnythingtwo views42.31
329
34.65
329
45.90
331
20.47
315
18.91
328
28.11
328
28.64
322
23.30
330
30.84
328
18.76
329
18.33
318
20.84
319
27.00
314
39.89
330
119.49
336
52.59
334
37.35
331
42.63
334
29.06
302
31.53
331
57.38
335
56.78
337
14.49
325
32.64
333
68.29
334
78.93
335
76.07
333
89.56
336
CasAABBNettwo views42.72
330
34.60
328
45.66
330
20.17
314
18.55
327
28.05
327
29.13
324
23.25
329
30.69
327
18.73
328
18.11
317
20.72
318
37.90
318
39.93
331
120.54
337
52.80
335
37.72
332
42.56
333
29.30
303
30.56
330
57.58
336
56.66
336
14.58
326
32.34
332
68.46
335
79.09
336
76.31
334
89.48
335
HaxPigtwo views44.53
331
46.75
332
47.32
332
47.72
328
48.79
332
47.60
332
48.40
327
49.50
332
47.10
331
49.76
334
50.31
328
49.00
326
45.26
322
54.49
333
41.50
284
40.24
330
50.15
333
52.05
335
44.74
315
43.04
333
46.61
332
44.38
334
51.78
332
45.43
334
33.92
326
25.30
320
28.66
323
22.43
311
AVERAGE_ROBtwo views46.12
332
48.49
333
48.31
333
49.34
329
50.25
333
48.63
333
49.80
328
50.74
334
48.67
332
51.68
335
52.55
329
50.28
327
47.20
323
55.70
334
43.00
289
40.99
331
52.42
334
54.59
336
47.27
318
45.45
334
48.77
333
44.06
333
52.90
333
46.98
335
35.80
329
26.72
323
30.77
324
23.81
313
HanzoNettwo views47.37
333
45.54
331
75.64
336
62.53
332
47.97
331
62.03
335
90.57
336
55.02
336
58.34
334
15.60
327
22.00
319
75.72
330
107.47
334
172.14
337
23.65
272
13.02
305
62.42
336
9.26
319
134.39
331
22.45
326
19.74
327
25.78
328
31.84
329
5.57
321
9.72
311
9.49
302
8.54
296
12.61
295
MEDIAN_ROBtwo views49.56
334
51.66
334
50.91
334
52.80
330
53.76
334
52.08
334
53.35
329
54.28
335
52.25
333
54.89
336
55.89
330
53.59
328
50.09
325
58.85
335
46.45
296
44.55
332
55.81
335
57.90
337
50.55
321
48.85
335
52.07
334
46.79
335
56.69
334
50.01
336
39.10
330
30.23
325
33.56
329
31.26
323
BEATNet-Init1two views52.60
335
76.96
335
24.06
328
87.02
333
56.48
335
86.86
336
68.77
332
49.65
333
34.71
329
11.93
325
56.24
331
64.63
329
78.72
330
9.65
309
58.40
327
51.35
333
32.72
328
23.00
330
101.24
330
71.98
337
46.49
331
39.72
332
28.67
328
24.23
330
59.12
333
38.23
331
77.99
335
61.49
334
DPSimNet_ROBtwo views111.84
336
179.62
337
74.81
335
195.40
337
165.93
337
136.63
337
98.05
337
126.48
337
138.79
337
82.31
337
148.57
336
159.77
335
157.57
335
78.29
336
64.65
332
40.10
329
142.61
337
34.98
332
195.20
336
69.76
336
154.10
337
32.63
331
82.12
336
98.24
337
71.10
336
51.68
334
117.83
336
122.56
337
ASD4two views105.89
338
STTRV1_RVCtwo views1.26
236
1.01
182
1.62
250
1.11
215
1.76
257
1.25
226
1.50
185
1.40
229
1.75
207
1.60
212
2.72
250
3.31
267
1.00
244
2.61
160
1.77
182
11.19
302
0.96
195
9.01
317
9.10
256
8.68
214
1.66
251
1.68
253
1.59
217
3.90
265
5.32
268