This table lists the benchmark results for the low-res two-view scenario. This benchmark evaluates the Middlebury stereo metrics (for all metrics, smaller is better):

The mask determines whether the metric is evaluated for all pixels with ground truth, or only for pixels which are visible in both images (non-occluded).
The coverage selector allows to limit the table to results for all pixels (dense), or a given minimum fraction of pixels.

Methods with suffix _ROB may participate in the Robust Vision Challenge.

Click one or more dataset result cells or column headers to show visualizations. Most visualizations are only available for training datasets. The visualizations may not work with mobile browsers.




Method Infoalllakes. 1llakes. 1ssand box 1lsand box 1sstora. room 1lstora. room 1sstora. room 2lstora. room 2sstora. room 2 1lstora. room 2 1sstora. room 2 2lstora. room 2 2sstora. room 3lstora. room 3stunnel 1ltunnel 1stunnel 2ltunnel 2stunnel 3ltunnel 3s
sorted bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort bysort by
CREStereotwo views0.28
1
0.15
1
0.24
1
0.27
1
0.17
1
0.37
2
0.25
3
0.51
1
0.72
11
0.42
1
0.51
1
0.32
1
0.26
1
0.38
1
0.25
2
0.16
11
0.11
4
0.12
1
0.08
1
0.12
1
0.11
1
PMTNettwo views0.32
2
0.16
2
0.24
1
0.29
2
0.18
4
0.45
7
0.22
1
0.56
2
0.63
5
0.46
2
0.54
2
0.39
2
0.34
4
0.48
5
0.24
1
0.75
135
0.10
1
0.12
1
0.08
1
0.12
1
0.11
1
Gwc-CoAtRStwo views0.34
3
0.17
3
0.44
23
0.39
14
0.23
12
0.34
1
0.22
1
0.70
3
0.75
13
0.60
3
0.59
3
0.58
7
0.29
2
0.45
4
0.26
3
0.14
2
0.11
4
0.14
6
0.12
7
0.12
1
0.12
3
DPM-Stereotwo views0.39
4
0.21
6
0.50
32
0.41
27
0.28
32
0.62
25
0.27
4
0.77
7
0.40
3
0.64
5
0.86
13
0.52
4
0.33
3
0.66
18
0.42
8
0.15
4
0.13
15
0.17
19
0.14
13
0.15
7
0.15
9
R-Stereo Traintwo views0.39
4
0.18
4
0.42
19
0.42
31
0.26
25
0.40
3
0.32
9
0.72
5
0.34
1
0.89
44
1.28
80
0.57
5
0.35
5
0.42
2
0.32
4
0.15
4
0.12
7
0.14
6
0.12
7
0.14
4
0.13
6
RAFT-Stereopermissivetwo views0.39
4
0.18
4
0.42
19
0.42
31
0.26
25
0.40
3
0.32
9
0.72
5
0.34
1
0.89
44
1.28
80
0.57
5
0.35
5
0.42
2
0.32
4
0.15
4
0.12
7
0.14
6
0.12
7
0.14
4
0.13
6
Lahav Lipson, Zachary Teed, and Jia Deng: RAFT-Stereo: Multilevel Recurrent Field Transforms for Stereo Matching. 3DV
HITNettwo views0.41
7
0.26
29
0.45
25
0.33
3
0.17
1
0.63
28
0.30
8
0.93
21
0.64
6
0.71
16
0.82
5
0.64
10
0.52
11
0.59
9
0.43
9
0.14
2
0.10
1
0.15
11
0.13
11
0.19
26
0.12
3
Vladimir Tankovich, Christian Häne, Yinda Zhang, Adarsh Kowdle, Sean Fanello, Sofien Bouaziz: HITNet: Hierarchical Iterative Tile Refinement Network for Real-time Stereo Matching. CVPR 2021
FENettwo views0.42
8
0.22
9
0.38
8
0.39
14
0.24
17
0.55
12
0.32
9
0.79
9
0.70
9
0.71
16
0.72
4
0.63
9
0.57
17
0.62
12
0.44
11
0.19
25
0.13
15
0.19
26
0.17
23
0.18
18
0.19
36
DN-CSS_ROBtwo views0.43
9
0.26
29
0.62
50
0.40
21
0.29
39
0.44
5
0.27
4
0.77
7
0.75
13
0.72
19
1.09
56
0.48
3
0.43
7
0.69
24
0.37
6
0.15
4
0.12
7
0.21
34
0.19
29
0.18
18
0.16
20
DMCAtwo views0.45
10
0.26
29
0.50
32
0.38
10
0.28
32
0.51
10
0.34
16
0.93
21
0.68
7
0.75
23
0.83
7
0.79
19
0.53
12
0.51
6
0.54
31
0.21
37
0.16
38
0.21
34
0.16
20
0.19
26
0.21
44
ACVNettwo views0.46
11
0.23
14
0.36
4
0.39
14
0.28
32
0.58
17
0.40
35
0.87
13
0.80
21
0.64
5
0.96
31
0.79
19
0.60
25
0.63
16
0.67
46
0.17
15
0.15
28
0.16
14
0.15
16
0.18
18
0.15
9
BEATNet_4xtwo views0.46
11
0.32
47
0.56
43
0.37
6
0.19
5
0.63
28
0.35
19
1.01
35
0.72
11
0.77
25
0.83
7
0.70
12
0.59
23
0.68
21
0.53
28
0.16
11
0.12
7
0.16
14
0.14
13
0.24
47
0.16
20
MLCVtwo views0.47
13
0.24
20
0.61
48
0.37
6
0.17
1
0.61
21
0.33
14
0.80
10
0.87
31
0.94
55
1.13
63
0.72
13
0.43
7
0.89
57
0.51
23
0.13
1
0.10
1
0.13
4
0.11
5
0.14
4
0.12
3
GANet-RSSMtwo views0.47
13
0.21
6
0.37
7
0.38
10
0.25
19
0.58
17
0.36
21
1.07
54
0.78
19
0.68
12
1.01
39
0.86
29
0.67
42
0.62
12
0.44
11
0.21
37
0.15
28
0.18
23
0.18
26
0.18
18
0.17
25
cf-rtwo views0.47
13
0.23
14
0.41
15
0.39
14
0.23
12
0.59
19
0.37
22
0.88
17
0.85
26
0.72
19
1.05
47
0.94
44
0.62
30
0.56
7
0.54
31
0.21
37
0.14
21
0.17
19
0.19
29
0.15
7
0.15
9
CFNet_RVCtwo views0.48
16
0.23
14
0.36
4
0.40
21
0.26
25
0.64
30
0.37
22
0.87
13
0.85
26
0.64
5
1.00
37
1.01
52
0.64
36
0.61
10
0.53
28
0.23
50
0.15
28
0.24
50
0.21
41
0.23
42
0.18
30
PSMNet-RSSMtwo views0.48
16
0.22
9
0.38
8
0.42
31
0.25
19
0.50
8
0.37
22
1.10
58
0.77
18
0.70
13
1.06
51
0.84
26
0.64
36
0.62
12
0.47
17
0.23
50
0.15
28
0.23
44
0.25
70
0.20
31
0.19
36
CFNet-ftpermissivetwo views0.48
16
0.23
14
0.36
4
0.40
21
0.26
25
0.64
30
0.37
22
0.87
13
0.85
26
0.64
5
1.00
37
1.01
52
0.64
36
0.61
10
0.53
28
0.23
50
0.15
28
0.24
50
0.21
41
0.23
42
0.18
30
iResNettwo views0.49
19
0.29
41
0.79
83
0.42
31
0.21
6
0.61
21
0.40
35
0.82
11
0.99
56
0.87
41
1.12
61
0.69
11
0.53
12
0.78
38
0.51
23
0.15
4
0.11
4
0.14
6
0.12
7
0.17
14
0.15
9
GwcNet-RSSMtwo views0.49
19
0.24
20
0.42
19
0.40
21
0.23
12
0.55
12
0.38
28
0.93
21
0.93
45
0.71
16
1.16
70
0.86
29
0.60
25
0.62
12
0.66
44
0.21
37
0.14
21
0.19
26
0.20
35
0.16
12
0.15
9
ccstwo views0.49
19
0.23
14
0.42
19
0.35
4
0.25
19
0.44
5
0.34
16
1.28
94
1.21
86
0.60
3
0.82
5
0.75
15
0.55
14
0.56
7
0.47
17
0.26
66
0.17
42
0.26
59
0.24
66
0.26
53
0.26
61
AdaStereotwo views0.50
22
0.32
47
0.47
28
0.48
59
0.25
19
0.67
37
0.32
9
1.17
71
0.88
35
0.75
23
0.99
36
0.75
15
0.49
10
0.67
20
0.46
15
0.27
71
0.12
7
0.28
73
0.18
26
0.23
42
0.18
30
Xiao Song, Guorun Yang, Xinge Zhu, Hui Zhou, Zhe Wang, Jianping Shi: AdaStereo: A Simple and Efficient Approach for Adaptive Stereo Matching. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2021.
ccs_robtwo views0.50
22
0.24
20
0.40
14
0.36
5
0.22
9
0.76
49
0.33
14
1.01
35
0.96
53
0.81
28
1.05
47
0.94
44
0.57
17
0.70
25
0.44
11
0.20
32
0.15
28
0.22
38
0.23
56
0.18
18
0.17
25
DMCA-RVCcopylefttwo views0.51
24
0.30
44
0.59
46
0.50
71
0.32
52
0.54
11
0.38
28
0.86
12
0.68
7
0.94
55
0.86
13
0.91
43
0.68
47
0.70
25
0.59
35
0.23
50
0.18
47
0.31
87
0.23
56
0.26
53
0.19
36
acv_fttwo views0.51
24
0.23
14
0.56
43
0.44
41
0.28
32
0.86
66
0.39
31
0.91
19
0.80
21
0.97
61
0.96
31
0.79
19
0.59
23
0.63
16
0.87
70
0.17
15
0.15
28
0.16
14
0.15
16
0.17
14
0.15
9
HSMtwo views0.51
24
0.24
20
0.41
15
0.39
14
0.24
17
0.75
48
0.40
35
1.22
82
0.75
13
0.81
28
0.91
26
1.21
74
0.69
49
0.87
51
0.46
15
0.17
15
0.13
15
0.17
19
0.14
13
0.17
14
0.17
25
CFNettwo views0.51
24
0.29
41
0.46
26
0.41
27
0.27
29
0.70
41
0.32
9
1.13
63
1.00
59
0.72
19
1.07
53
0.85
28
0.60
25
0.76
33
0.52
26
0.19
25
0.14
21
0.23
44
0.23
56
0.21
35
0.16
20
iResNetv2_ROBtwo views0.52
28
0.27
35
0.69
68
0.38
10
0.25
19
0.62
25
0.35
19
1.17
71
1.01
62
0.99
64
1.06
51
0.88
38
0.67
42
0.66
18
0.39
7
0.19
25
0.13
15
0.15
11
0.11
5
0.18
18
0.16
20
ac_64two views0.52
28
0.22
9
0.50
32
0.45
51
0.28
32
0.80
55
0.45
48
1.02
40
0.61
4
0.91
50
0.83
7
1.07
62
0.68
47
0.74
31
0.70
51
0.21
37
0.18
47
0.20
29
0.19
29
0.18
18
0.15
9
iResNet_ROBtwo views0.52
28
0.21
6
0.53
37
0.37
6
0.21
6
0.61
21
0.29
7
1.51
117
1.32
99
0.90
46
1.02
42
0.80
22
0.62
30
0.76
33
0.43
9
0.16
11
0.12
7
0.13
4
0.09
3
0.15
7
0.18
30
DeepPruner_ROBtwo views0.53
31
0.34
61
0.59
46
0.41
27
0.30
40
0.50
8
0.43
43
1.19
74
0.70
9
0.85
36
1.05
47
0.86
29
0.55
14
0.84
48
0.51
23
0.29
80
0.23
74
0.22
38
0.22
49
0.26
53
0.25
57
HSM-Net_RVCpermissivetwo views0.53
31
0.22
9
0.35
3
0.37
6
0.21
6
0.85
64
0.37
22
1.23
85
0.93
45
0.90
46
1.15
66
1.26
78
0.63
32
0.72
28
0.48
20
0.17
15
0.13
15
0.16
14
0.15
16
0.17
14
0.15
9
Gengshan Yang, Joshua Manela, Michael Happold, and Deva Ramanan: Hierarchical Deep Stereo Matching on High-resolution Images. CVPR 2019
UPFNettwo views0.53
31
0.24
20
0.51
35
0.45
51
0.38
69
0.84
63
0.49
56
0.99
29
0.75
13
0.87
41
0.88
20
0.86
29
0.64
36
0.80
40
0.71
53
0.20
32
0.20
61
0.20
29
0.20
35
0.19
26
0.15
9
RASNettwo views0.53
31
0.22
9
0.52
36
0.38
10
0.22
9
0.68
39
0.38
28
0.97
26
0.88
35
0.73
22
1.04
45
1.03
56
0.92
80
0.90
58
0.86
66
0.16
11
0.14
21
0.14
6
0.17
23
0.15
7
0.13
6
NLCA_NET_v2_RVCtwo views0.53
31
0.32
47
0.64
54
0.44
41
0.30
40
0.66
35
0.44
45
1.04
47
0.88
35
0.91
50
0.91
26
0.99
51
0.60
25
0.68
21
0.60
36
0.21
37
0.17
42
0.22
38
0.22
49
0.21
35
0.21
44
Zhibo Rao, Mingyi He, Yuchao Dai, Zhidong Zhu, Bo Li, and Renjie He.: NLCA-Net: A non-local context attention network for stereo matching.
CC-Net-ROBtwo views0.53
31
0.32
47
0.64
54
0.44
41
0.30
40
0.65
32
0.44
45
1.02
40
0.88
35
0.92
53
0.92
28
0.98
49
0.61
29
0.68
21
0.61
37
0.21
37
0.17
42
0.22
38
0.21
41
0.21
35
0.21
44
UNettwo views0.54
37
0.26
29
0.66
61
0.44
41
0.40
75
0.99
79
0.41
41
0.98
28
0.75
13
0.83
35
0.89
23
1.04
57
0.72
57
0.73
29
0.62
40
0.19
25
0.14
21
0.20
29
0.17
23
0.20
31
0.17
25
delettwo views0.55
38
0.24
20
0.55
41
0.44
41
0.33
57
1.07
89
0.50
57
1.00
31
0.86
29
0.85
36
0.96
31
0.90
42
0.63
32
0.83
46
0.74
56
0.18
21
0.18
47
0.20
29
0.21
41
0.16
12
0.15
9
MMNettwo views0.55
38
0.25
27
0.61
48
0.43
37
0.34
59
1.07
89
0.39
31
0.87
13
0.91
42
0.91
50
0.93
29
0.86
29
0.76
60
0.81
42
0.76
58
0.15
4
0.14
21
0.18
23
0.19
29
0.20
31
0.16
20
STTStereotwo views0.55
38
0.37
70
0.76
78
0.44
41
0.31
48
0.60
20
0.44
45
0.96
24
0.86
29
0.99
64
0.90
24
0.96
46
0.58
20
0.71
27
0.61
37
0.25
58
0.23
74
0.26
59
0.32
99
0.24
47
0.23
53
DSFCAtwo views0.55
38
0.25
27
0.62
50
0.40
21
0.36
63
0.74
46
0.52
65
1.04
47
0.82
23
1.06
74
0.84
10
0.89
40
0.63
32
0.99
67
0.58
33
0.25
58
0.21
66
0.21
34
0.21
41
0.21
35
0.19
36
hitnet-ftcopylefttwo views0.55
38
0.27
35
0.39
11
0.41
27
0.28
32
0.78
51
0.40
35
0.92
20
0.90
41
0.82
31
1.01
39
1.13
71
0.70
53
0.78
38
0.67
46
0.28
74
0.20
61
0.28
73
0.22
49
0.29
65
0.26
61
psm_uptwo views0.55
38
0.26
29
0.47
28
0.49
63
0.32
52
0.65
32
0.56
73
1.04
47
0.82
23
0.82
31
0.88
20
1.01
52
0.94
84
0.74
31
0.61
37
0.21
37
0.25
82
0.26
59
0.23
56
0.21
35
0.20
43
FADNet_RVCtwo views0.55
38
0.37
70
1.17
104
0.44
41
0.31
48
0.56
14
0.34
16
1.06
53
0.88
35
0.67
10
0.90
24
0.61
8
0.65
40
0.93
62
0.70
51
0.21
37
0.18
47
0.26
59
0.23
56
0.31
74
0.28
68
FADNet-RVC-Resampletwo views0.56
45
0.33
56
1.16
103
0.49
63
0.34
59
0.71
42
0.43
43
1.01
35
0.93
45
0.82
31
0.87
16
0.74
14
0.67
42
0.73
29
0.45
14
0.18
21
0.18
47
0.26
59
0.27
81
0.26
53
0.27
66
HGLStereotwo views0.56
45
0.28
38
0.57
45
0.50
71
0.37
66
0.80
55
0.45
48
1.02
40
0.78
19
0.86
39
1.14
64
0.89
40
0.82
69
0.76
33
0.73
54
0.21
37
0.20
61
0.19
26
0.18
26
0.19
26
0.21
44
AANet_RVCtwo views0.57
47
0.32
47
0.54
38
0.45
51
0.27
29
0.57
16
0.48
52
1.00
31
1.28
95
0.86
39
1.33
82
0.87
34
0.58
20
1.07
77
0.75
57
0.18
21
0.12
7
0.15
11
0.13
11
0.18
18
0.18
30
TDLMtwo views0.57
47
0.33
56
0.49
31
0.51
78
0.30
40
0.66
35
0.73
98
1.03
44
1.01
62
0.82
31
1.10
58
0.84
26
0.70
53
0.86
50
0.58
33
0.28
74
0.17
42
0.25
55
0.22
49
0.26
53
0.19
36
CVANet_RVCtwo views0.57
47
0.33
56
0.44
23
0.47
57
0.32
52
0.67
37
0.61
79
1.05
51
0.93
45
0.85
36
1.04
45
1.01
52
0.73
58
0.83
46
0.52
26
0.29
80
0.19
57
0.27
68
0.25
70
0.31
74
0.21
44
NOSS_ROBtwo views0.57
47
0.39
79
0.39
11
0.44
41
0.30
40
0.73
45
0.54
68
1.03
44
1.08
74
0.67
10
0.87
16
0.76
18
0.57
17
0.77
36
0.47
17
0.38
115
0.38
120
0.44
117
0.42
118
0.37
96
0.34
89
DLCB_ROBtwo views0.58
51
0.28
38
0.47
28
0.49
63
0.32
52
0.77
50
0.50
57
0.99
29
0.92
43
1.04
71
1.14
64
1.21
74
0.69
49
0.88
54
0.69
49
0.20
32
0.20
61
0.22
38
0.22
49
0.21
35
0.18
30
StereoDRNet-Refinedtwo views0.58
51
0.32
47
0.54
38
0.46
55
0.30
40
0.96
74
0.40
35
1.00
31
0.94
50
1.12
81
1.08
54
0.96
46
0.67
42
0.90
58
0.89
79
0.17
15
0.13
15
0.22
38
0.21
41
0.20
31
0.19
36
Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs: StereoDRNet. CVPR
CBMV_ROBtwo views0.59
53
0.37
70
0.38
8
0.39
14
0.28
32
0.74
46
0.28
6
1.00
31
0.98
54
0.94
55
1.25
78
0.81
23
0.78
62
0.87
51
0.50
21
0.36
111
0.37
118
0.43
115
0.40
115
0.33
83
0.30
76
NVstereo2Dtwo views0.60
54
0.30
44
0.75
76
0.48
59
0.43
89
0.89
67
0.48
52
1.05
51
1.15
80
0.66
9
0.86
13
0.88
38
0.70
53
0.99
67
0.65
43
0.32
97
0.15
28
0.28
73
0.20
35
0.40
102
0.36
96
FADNet-RVCtwo views0.60
54
0.53
110
1.14
102
0.46
55
0.39
71
0.61
21
0.39
31
1.12
62
0.87
31
0.70
13
0.84
10
1.04
57
0.55
14
0.94
66
0.69
49
0.26
66
0.25
82
0.28
73
0.28
84
0.31
74
0.31
79
FADNettwo views0.61
56
0.51
103
1.10
99
0.45
51
0.44
93
0.65
32
0.41
41
1.19
74
1.05
66
0.70
13
0.84
10
0.98
49
0.66
41
0.82
43
0.50
21
0.29
80
0.30
98
0.27
68
0.30
89
0.46
116
0.35
94
SGM-Foresttwo views0.62
57
0.32
47
0.39
11
0.43
37
0.30
40
1.02
83
0.55
69
1.09
57
1.05
66
1.06
74
1.18
72
1.10
66
0.67
42
0.88
54
0.62
40
0.31
87
0.33
113
0.33
96
0.30
89
0.30
70
0.28
68
Johannes L. Schönberger, Sudipta Sinha, Marc Pollefeys: Learning to Fuse Proposals from Multiple Scanline Optimizations in Semi-Global Matching. ECCV 2018
PSMNet_ROBtwo views0.64
58
0.37
70
0.65
58
0.56
92
0.42
85
0.97
75
0.83
104
1.21
79
0.92
43
0.79
26
1.02
42
1.08
64
0.63
32
0.82
43
0.91
82
0.29
80
0.20
61
0.31
87
0.31
95
0.26
53
0.23
53
CBMVpermissivetwo views0.64
58
0.35
62
0.41
15
0.42
31
0.25
19
1.01
81
0.77
102
1.13
63
1.09
75
1.17
85
1.22
75
1.04
57
0.75
59
0.88
54
0.63
42
0.28
74
0.30
98
0.34
98
0.30
89
0.26
53
0.26
61
Konstantinos Batsos, Changjiang Cai, Philippos Mordohai: CBMV: A Coalesced Bidirectional Matching Volume for Disparity Estimation. Computer Vision and Pattern Recognition (CVPR) 2018
StereoDRNettwo views0.64
58
0.33
56
0.68
64
0.51
78
0.43
89
1.03
85
0.53
66
1.47
113
0.99
56
1.10
79
0.87
16
1.07
62
0.71
56
0.82
43
0.88
72
0.23
50
0.19
57
0.25
55
0.23
56
0.27
61
0.19
36
DRN-Testtwo views0.66
61
0.32
47
0.66
61
0.50
71
0.39
71
1.15
98
0.61
79
1.49
114
1.01
62
1.12
81
1.08
54
1.06
60
0.69
49
0.77
36
0.94
83
0.23
50
0.17
42
0.26
59
0.25
70
0.25
50
0.21
44
PA-Nettwo views0.67
62
0.43
86
0.83
85
0.50
71
0.53
109
0.94
71
0.68
89
1.10
58
1.14
79
0.80
27
0.88
20
0.87
34
0.77
61
1.02
71
0.88
72
0.24
56
0.41
125
0.29
80
0.44
119
0.26
53
0.34
89
Zhibo Rao, Mingyi He, Yuchao Dai, Zhelun Shen: Patch Attention Network with Generative Adversarial Model for Semi-Supervised Binocular Disparity Prediction.
GwcNetcopylefttwo views0.69
63
0.36
67
1.10
99
0.51
78
0.42
85
1.08
93
0.50
57
1.21
79
1.16
81
1.00
66
1.37
85
1.06
60
0.79
64
0.92
61
0.94
83
0.25
58
0.24
77
0.24
50
0.22
49
0.23
42
0.26
61
NaN_ROBtwo views0.69
63
0.44
90
0.69
68
0.51
78
0.33
57
0.97
75
1.06
121
1.22
82
1.19
83
1.24
92
0.96
31
1.08
64
0.78
62
1.20
88
0.67
46
0.24
56
0.30
98
0.23
44
0.24
66
0.23
42
0.25
57
XPNet_ROBtwo views0.70
65
0.35
62
0.68
64
0.52
83
0.40
75
0.79
53
0.85
108
1.16
69
0.94
50
1.33
97
1.15
66
1.38
94
0.83
71
1.03
72
0.90
80
0.32
97
0.25
82
0.26
59
0.24
66
0.31
74
0.28
68
ETE_ROBtwo views0.70
65
0.49
97
0.73
73
0.56
92
0.36
63
0.79
53
0.87
109
1.14
66
0.93
45
1.19
87
1.18
72
1.39
95
0.82
69
0.99
67
0.80
61
0.26
66
0.21
66
0.31
87
0.26
80
0.33
83
0.34
89
GANettwo views0.70
65
0.37
70
0.55
41
0.51
78
0.34
59
0.94
71
0.96
115
1.08
56
0.94
50
1.04
71
1.98
113
1.13
71
0.88
76
1.12
82
0.66
44
0.25
58
0.26
87
0.27
68
0.22
49
0.31
74
0.22
52
DISCOtwo views0.70
65
0.26
29
0.68
64
0.44
41
0.31
48
1.14
96
0.51
62
1.23
85
1.23
89
0.81
28
1.05
47
1.50
105
0.85
72
1.82
121
1.03
94
0.19
25
0.15
28
0.18
23
0.16
20
0.24
47
0.23
53
DANettwo views0.71
69
0.45
91
0.91
89
0.59
97
0.40
75
0.81
59
0.40
35
0.97
26
0.84
25
1.20
89
1.22
75
1.33
88
0.88
76
1.16
85
1.24
106
0.27
71
0.23
74
0.31
87
0.25
70
0.35
93
0.32
82
RYNettwo views0.72
70
0.35
62
0.64
54
0.53
86
0.67
126
1.31
106
0.67
86
1.20
77
1.18
82
1.05
73
0.87
16
1.27
79
0.93
83
0.93
62
1.27
109
0.22
49
0.16
38
0.26
59
0.23
56
0.40
102
0.39
106
NCCL2two views0.72
70
0.41
83
0.65
58
0.64
108
0.44
93
0.98
78
1.20
124
1.11
60
1.00
59
0.98
63
0.96
31
1.49
104
0.87
75
0.90
58
0.79
60
0.31
87
0.26
87
0.39
111
0.39
113
0.32
79
0.32
82
FAT-Stereotwo views0.73
72
0.33
56
0.75
76
0.49
63
0.37
66
0.71
42
0.59
75
1.36
103
1.30
97
1.03
70
1.40
88
1.59
112
1.15
98
0.87
51
0.86
66
0.28
74
0.28
91
0.28
73
0.23
56
0.28
63
0.38
104
LALA_ROBtwo views0.74
73
0.43
86
0.69
68
0.54
89
0.40
75
1.01
81
0.95
114
1.21
79
1.07
72
1.22
90
1.12
61
1.56
110
0.79
64
1.04
73
0.86
66
0.33
101
0.22
68
0.35
100
0.30
89
0.35
93
0.31
79
S-Stereotwo views0.74
73
0.35
62
0.96
91
0.56
92
0.45
97
0.82
62
0.60
76
1.24
89
1.60
118
0.96
58
1.41
89
1.12
69
0.94
84
0.80
40
1.04
97
0.26
66
0.31
106
0.28
73
0.25
70
0.32
79
0.47
121
Anonymous Stereotwo views0.75
75
0.54
111
1.78
119
0.57
95
0.56
116
0.62
25
1.25
126
0.96
24
0.99
56
0.96
58
0.95
30
0.83
25
0.58
20
1.27
95
1.21
105
0.31
87
0.30
98
0.31
87
0.33
102
0.33
83
0.36
96
edge stereotwo views0.76
76
0.38
76
0.74
75
0.52
83
0.43
89
0.80
55
0.53
66
1.28
94
1.06
71
1.28
93
1.38
87
1.81
115
1.11
96
1.08
78
0.85
65
0.33
101
0.32
108
0.41
114
0.28
84
0.32
79
0.36
96
RPtwo views0.76
76
0.36
67
0.63
53
0.66
116
0.58
122
0.80
55
0.55
69
1.14
66
1.22
88
0.97
61
1.65
102
1.43
99
1.32
110
1.01
70
0.84
63
0.33
101
0.30
98
0.36
104
0.30
89
0.34
89
0.34
89
Abc-Nettwo views0.78
78
0.40
81
0.76
78
0.61
104
0.67
126
0.81
59
0.69
92
1.54
120
1.11
76
0.90
46
1.36
83
1.33
88
1.16
99
1.19
86
0.88
72
0.31
87
0.30
98
0.37
107
0.48
124
0.33
83
0.33
86
Xing Li, Yangyu Fan, Guoyun Lv, and Haoyue Ma: Area-based Correlation and Non-local Attention Network for Stereo Matching. The Visual Computer
Nwc_Nettwo views0.78
78
0.38
76
0.73
73
0.60
102
0.55
113
1.05
88
0.55
69
1.67
127
1.05
66
0.88
43
1.86
109
1.40
97
1.09
94
1.10
80
0.87
70
0.30
85
0.25
82
0.36
104
0.38
110
0.29
65
0.29
73
NCC-stereotwo views0.78
78
0.40
81
0.76
78
0.61
104
0.67
126
0.81
59
0.69
92
1.54
120
1.11
76
0.90
46
1.36
83
1.33
88
1.16
99
1.19
86
0.88
72
0.31
87
0.30
98
0.37
107
0.48
124
0.33
83
0.33
86
RGCtwo views0.79
81
0.59
115
0.71
71
0.65
113
0.65
125
0.92
70
0.58
74
1.29
96
1.05
66
1.07
77
1.45
96
1.47
102
1.03
90
1.21
90
0.88
72
0.32
97
0.30
98
0.48
124
0.40
115
0.37
96
0.37
99
ADCReftwo views0.80
82
0.43
86
1.32
113
0.50
71
0.45
97
1.07
89
0.51
62
1.07
54
0.98
54
1.17
85
1.42
90
0.87
34
0.91
79
0.85
49
3.19
125
0.18
21
0.16
38
0.23
44
0.23
56
0.22
41
0.21
44
GANetREF_RVCpermissivetwo views0.80
82
0.75
125
0.86
88
0.66
116
0.42
85
1.15
98
0.98
116
1.14
66
1.19
83
1.01
68
1.02
42
1.10
66
0.90
78
1.15
84
0.76
58
0.48
126
0.39
122
0.57
132
0.38
110
0.63
131
0.46
119
Zhang, Feihu and Prisacariu, Victor and Yang, Ruigang and Torr, Philip HS: GA-Net: Guided Aggregation Net for End- to-end Stereo Matching. CVPR 2019
stereogantwo views0.80
82
0.31
46
0.71
71
0.59
97
0.50
103
1.72
123
0.48
52
1.35
101
1.37
102
1.00
66
1.46
97
1.56
110
0.95
86
1.29
97
0.84
63
0.28
74
0.29
95
0.29
80
0.25
70
0.38
100
0.38
104
AF-Nettwo views0.81
85
0.39
79
0.68
64
0.64
108
0.54
111
0.91
68
0.51
62
1.61
124
1.31
98
0.96
58
2.02
114
1.46
100
1.26
109
1.11
81
0.99
91
0.32
97
0.24
77
0.39
111
0.27
81
0.30
70
0.25
57
psmorigintwo views0.82
86
0.51
103
2.09
123
0.49
63
0.41
81
0.85
64
0.50
57
1.04
47
0.88
35
1.45
100
1.43
93
1.50
105
1.06
92
1.22
91
0.97
88
0.31
87
0.32
108
0.27
68
0.27
81
0.33
83
0.42
110
aanetorigintwo views0.83
87
0.56
112
1.87
120
0.49
63
0.38
69
0.56
14
0.66
85
0.70
3
1.00
59
2.42
125
2.02
114
1.31
83
1.18
102
0.93
62
1.13
102
0.20
32
0.18
47
0.20
29
0.19
29
0.27
61
0.30
76
CSANtwo views0.83
87
0.49
97
0.77
82
0.60
102
0.41
81
1.14
96
1.06
121
1.19
74
1.46
111
1.32
95
1.43
93
1.37
93
1.19
103
1.27
95
0.86
66
0.39
117
0.31
106
0.36
104
0.37
107
0.35
93
0.34
89
RTSCtwo views0.87
89
0.48
94
1.23
108
0.52
83
0.37
66
1.13
95
0.50
57
1.34
99
1.79
121
1.51
102
1.24
77
1.12
69
0.81
67
1.62
114
2.16
122
0.25
58
0.19
57
0.23
44
0.24
66
0.30
70
0.31
79
PWC_ROBbinarytwo views0.87
89
0.52
107
1.28
110
0.50
71
0.32
52
0.91
68
0.37
22
1.36
103
1.46
111
1.61
107
2.59
125
1.16
73
1.01
89
1.34
100
1.40
114
0.25
58
0.18
47
0.28
73
0.20
35
0.29
65
0.28
68
FBW_ROBtwo views0.88
91
0.50
101
0.85
86
0.55
91
0.40
75
1.17
100
0.78
103
1.50
115
1.37
102
1.33
97
1.27
79
1.48
103
1.00
88
2.57
133
0.98
90
0.25
58
0.32
108
0.45
118
0.30
89
0.34
89
0.28
68
DeepPrunerFtwo views0.89
92
0.52
107
3.43
131
0.68
122
0.81
130
0.72
44
0.72
97
1.22
82
1.99
124
0.93
54
1.01
39
0.87
34
0.86
73
1.08
78
0.95
85
0.34
107
0.28
91
0.43
115
0.39
113
0.30
70
0.32
82
PWCDC_ROBbinarytwo views0.89
92
0.49
97
0.80
84
0.74
128
0.40
75
1.03
85
0.39
31
1.33
98
2.35
130
1.02
69
3.77
131
0.81
23
0.92
80
1.20
88
0.90
80
0.34
107
0.22
68
0.24
50
0.20
35
0.34
89
0.29
73
XQCtwo views0.89
92
0.65
122
1.31
112
0.67
119
0.52
108
1.22
101
0.68
89
1.26
93
1.52
113
1.14
83
1.11
59
1.28
80
1.04
91
1.40
106
1.77
118
0.38
115
0.24
77
0.37
107
0.31
95
0.53
127
0.47
121
PASMtwo views0.90
95
0.64
121
1.69
117
0.69
124
0.69
129
0.78
51
0.84
106
1.03
44
1.26
94
1.19
87
1.15
66
1.31
83
0.98
87
1.24
92
1.03
94
0.52
130
0.56
134
0.59
134
0.66
133
0.56
130
0.54
131
MDST_ROBtwo views0.91
96
0.27
35
0.85
86
0.63
107
0.41
81
2.53
130
0.71
96
1.60
123
1.13
78
2.83
128
1.73
105
0.97
48
0.69
49
1.61
113
0.73
54
0.25
58
0.22
68
0.32
92
0.28
84
0.25
50
0.24
56
PDISCO_ROBtwo views0.91
96
0.48
94
1.06
96
0.99
134
0.97
136
1.67
122
0.63
81
1.64
125
1.59
117
1.06
74
1.18
72
1.31
83
0.79
64
1.55
108
0.97
88
0.49
128
0.22
68
0.45
118
0.40
115
0.45
113
0.37
99
SHDtwo views0.93
98
0.50
101
1.18
105
0.59
97
0.46
99
0.97
75
0.48
52
1.70
128
2.15
126
1.58
104
1.37
85
1.42
98
1.19
103
1.31
98
1.60
115
0.31
87
0.26
87
0.32
92
0.33
102
0.40
102
0.42
110
STTStereo_v2two views0.95
99
0.46
92
1.04
94
0.64
108
0.48
100
2.12
128
0.64
83
1.01
35
0.87
31
1.75
113
2.82
127
1.30
81
1.64
121
1.06
74
0.96
86
0.36
111
0.29
95
0.35
100
0.25
70
0.45
113
0.42
110
G-Nettwo views0.95
99
0.46
92
1.04
94
0.64
108
0.48
100
2.12
128
0.64
83
1.01
35
0.87
31
1.75
113
2.82
127
1.30
81
1.64
121
1.06
74
0.96
86
0.36
111
0.29
95
0.35
100
0.25
70
0.45
113
0.42
110
SGM_RVCbinarytwo views0.97
101
0.28
38
0.41
15
0.39
14
0.22
9
1.55
115
0.73
98
1.51
117
1.25
93
2.25
123
1.92
110
2.58
128
1.56
119
2.02
128
1.19
104
0.27
71
0.27
90
0.27
68
0.25
70
0.25
50
0.25
57
Heiko Hirschmueller: Stereo processing by semiglobal matching and mutual information. TPAMI 2008, Volume 30(2), pp. 328-341
DPSNettwo views0.99
102
0.42
85
1.88
121
0.53
86
0.41
81
1.59
118
1.26
127
2.21
136
1.43
107
1.10
79
1.11
59
1.46
100
1.95
128
1.34
100
1.26
107
0.34
107
0.25
82
0.25
55
0.21
41
0.46
116
0.37
99
MFN_U_SF_DS_RVCtwo views1.02
103
0.57
114
1.51
115
0.67
119
0.50
103
2.57
131
1.66
135
1.20
77
1.43
107
1.38
99
1.57
101
1.33
88
0.92
80
1.64
117
0.88
72
0.37
114
0.39
122
0.46
121
0.60
132
0.41
107
0.40
108
ADCPNettwo views1.03
104
0.48
94
2.70
126
0.54
89
0.42
85
1.40
108
0.75
100
1.13
63
1.07
72
1.22
90
1.42
90
1.68
114
1.09
94
1.36
103
3.45
126
0.30
85
0.28
91
0.29
80
0.32
99
0.37
96
0.35
94
SuperBtwo views1.04
105
0.37
70
4.81
133
0.43
37
0.31
48
0.99
79
0.46
50
1.02
40
2.09
125
1.09
78
1.09
56
0.75
15
0.81
67
1.06
74
1.76
117
0.19
25
0.15
28
0.17
19
0.15
16
2.82
141
0.26
61
ADCLtwo views1.04
105
0.38
76
1.35
114
0.50
71
0.39
71
1.61
119
0.89
110
1.29
96
1.39
105
1.29
94
1.50
98
1.24
77
1.24
106
1.37
104
4.87
133
0.21
37
0.19
57
0.25
55
0.25
70
0.29
65
0.27
66
ADCP+two views1.06
107
0.35
62
1.51
115
0.49
63
0.51
106
1.45
112
0.55
69
1.25
92
1.03
65
1.16
84
1.15
66
1.10
66
1.07
93
1.56
110
6.75
139
0.19
25
0.16
38
0.23
44
0.21
41
0.28
63
0.21
44
SAMSARAtwo views1.07
108
0.65
122
1.19
106
1.06
137
0.90
132
1.76
124
1.76
136
1.46
112
1.44
109
1.51
102
1.16
70
2.00
122
1.14
97
1.48
107
1.31
111
0.39
117
0.44
130
0.35
100
0.38
110
0.49
120
0.49
126
SANettwo views1.07
108
0.41
83
1.06
96
0.48
59
0.30
40
1.41
109
0.94
113
1.42
109
3.36
137
1.58
104
2.43
120
2.33
126
1.70
123
1.34
100
1.07
99
0.28
74
0.24
77
0.26
59
0.23
56
0.34
89
0.30
76
MFN_U_SF_RVCtwo views1.09
110
0.59
115
1.97
122
0.67
119
0.44
93
1.93
125
0.60
76
1.85
130
1.36
100
1.61
107
1.54
100
1.95
121
1.37
112
1.64
117
1.73
116
0.40
120
0.37
118
0.45
118
0.48
124
0.44
110
0.44
116
MFMNet_retwo views1.14
111
0.97
135
1.19
106
0.99
134
0.95
135
1.25
104
1.22
125
1.39
106
1.55
116
1.69
112
1.67
104
1.21
74
1.53
117
1.12
82
0.99
91
0.87
137
0.75
138
0.79
136
0.75
135
0.90
135
0.94
136
WCMA_ROBtwo views1.14
111
0.36
67
0.76
78
0.49
63
0.44
93
1.23
102
0.67
86
1.11
60
1.23
89
2.84
129
3.95
135
3.28
132
1.83
126
1.25
93
0.99
91
0.44
122
0.34
115
0.34
98
0.37
107
0.41
107
0.40
108
ADCMidtwo views1.14
111
0.52
107
2.23
124
0.53
86
0.43
89
1.07
89
0.75
100
1.23
85
1.05
66
2.15
121
1.44
95
1.50
105
1.43
116
1.56
110
5.01
134
0.26
66
0.24
77
0.29
80
0.31
95
0.37
96
0.33
86
AnyNet_C32two views1.16
114
0.62
120
2.40
125
0.57
95
0.55
113
1.41
109
1.34
128
1.18
73
1.24
91
1.49
101
1.42
90
1.39
95
1.20
105
1.55
108
4.82
132
0.29
80
0.28
91
0.29
80
0.34
104
0.38
100
0.42
110
MSMD_ROBtwo views1.21
115
0.49
97
0.62
50
0.59
97
0.50
103
1.62
120
0.67
86
1.23
85
1.24
91
2.45
126
3.77
131
3.09
131
2.98
135
1.32
99
0.81
62
0.45
123
0.41
125
0.49
127
0.51
129
0.47
118
0.44
116
pmcnntwo views1.23
116
0.29
41
0.96
91
0.40
21
0.23
12
0.95
73
0.69
92
1.16
69
1.28
95
1.67
111
2.33
117
11.15
142
0.86
73
0.93
62
0.88
72
0.15
4
0.12
7
0.12
1
0.10
4
0.15
7
0.15
9
NVStereoNet_ROBtwo views1.24
117
0.90
130
1.13
101
0.86
131
0.88
131
1.11
94
0.99
117
1.42
109
1.53
114
1.59
106
2.48
121
2.24
124
1.53
117
1.96
127
1.30
110
0.76
136
0.70
136
0.78
135
1.00
140
0.71
133
0.88
134
Nikolai Smolyanskiy, Alexey Kamenev, Stan Birchfield: On the Importance of Stereo for Accurate Depth Estimation: An Efficient Semi-Supervised Deep Neural Network Approach. Arxiv
SPS-STEREOcopylefttwo views1.25
118
0.93
131
1.06
96
1.04
136
1.03
138
1.41
109
0.91
112
1.51
117
1.19
83
2.09
120
1.83
107
1.94
120
1.39
113
1.62
114
1.39
113
0.97
138
0.94
139
0.90
137
0.89
137
0.96
137
0.96
137
K. Yamaguchi, D. McAllester, R. Urtasun: Efficient Joint Segmentation, Occlusion Labeling, Stereo and Flow Estimation. ECCV 2014
PVDtwo views1.28
119
0.67
124
1.28
110
0.74
128
0.62
124
1.50
113
0.84
106
1.99
133
2.96
135
2.18
122
2.36
119
1.85
118
1.95
128
1.92
124
1.94
119
0.39
117
0.36
117
0.49
127
0.37
107
0.51
123
0.64
132
MeshStereopermissivetwo views1.34
120
0.43
86
0.54
38
0.44
41
0.34
59
1.66
121
0.60
76
1.94
131
1.37
102
4.47
136
3.25
129
4.71
136
1.94
127
1.92
124
1.17
103
0.35
110
0.35
116
0.37
107
0.31
95
0.32
79
0.32
82
C. Zhang, Z. Li, Y. Cheng, R. Cai, H. Chao, Y. Rui: MeshStereo: A Global Stereo Model with Mesh Alignment Regularization for View Interpolation. ICCV 2015
MSC_U_SF_DS_RVCtwo views1.34
120
0.87
129
1.76
118
0.86
131
0.56
116
4.29
138
1.79
137
1.50
115
1.98
123
1.61
107
1.85
108
1.84
116
1.41
114
1.89
123
1.36
112
0.48
126
0.40
124
0.56
131
0.57
131
0.69
132
0.48
123
SGM+DAISYtwo views1.35
122
0.94
132
1.25
109
0.96
133
1.00
137
1.52
114
1.02
120
1.34
99
1.21
86
2.64
127
2.65
126
2.44
127
1.56
119
1.64
117
1.26
107
0.97
138
0.95
140
0.90
137
0.90
138
0.94
136
0.96
137
FCDSN-DCtwo views1.39
123
0.56
112
0.65
58
0.74
128
0.59
123
1.38
107
0.63
81
1.35
101
1.39
105
3.26
131
4.50
136
4.61
134
2.63
133
1.58
112
1.03
94
0.46
124
0.42
127
0.48
124
0.47
123
0.50
122
0.50
127
Dominik Hirner, Friedrich Fraundorfer: FCDSN-DC: An accurate but lightweight end-to-end trainable neural network for stereo estimation with depth completion.
EDNetEfficienttwo views1.46
124
0.80
127
6.12
134
0.47
57
0.39
71
0.69
40
0.83
104
0.90
18
2.77
134
3.50
133
1.96
112
1.66
113
2.03
130
1.26
94
4.18
130
0.21
37
0.18
47
0.21
34
0.20
35
0.41
107
0.39
106
ADCStwo views1.51
125
0.61
117
3.42
130
0.59
97
0.51
106
1.27
105
1.08
123
1.59
122
1.81
122
1.91
118
1.66
103
1.51
108
1.42
115
1.94
126
8.60
140
0.33
101
0.32
108
0.33
96
0.36
106
0.44
110
0.42
110
AnyNet_C01two views1.56
126
1.05
136
7.45
135
0.64
108
0.54
111
1.99
126
1.38
129
1.43
111
1.36
100
1.63
110
1.92
110
1.84
116
1.33
111
2.40
131
4.03
127
0.33
101
0.32
108
0.32
92
0.34
104
0.44
110
0.45
118
FC-DCNNcopylefttwo views1.59
127
0.51
103
0.66
61
0.61
104
0.49
102
1.56
116
0.70
95
1.66
126
1.53
114
4.64
137
4.62
137
5.85
138
3.34
136
1.84
122
1.11
101
0.46
124
0.42
127
0.47
122
0.46
120
0.48
119
0.46
119
ELAS_RVCcopylefttwo views1.60
128
0.61
117
1.01
93
0.70
125
0.56
116
2.00
127
1.89
138
1.96
132
2.65
132
3.33
132
3.26
130
3.03
130
3.41
137
2.49
132
2.09
121
0.52
130
0.45
131
0.50
129
0.48
124
0.54
128
0.52
129
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
DispFullNettwo views1.60
128
2.63
141
2.75
127
2.56
141
1.79
139
1.24
103
0.47
51
1.37
105
1.45
110
1.87
115
1.50
98
1.55
109
2.46
132
2.04
129
1.04
97
0.59
133
0.18
47
2.32
140
0.68
134
2.29
139
1.14
139
ELAScopylefttwo views1.63
130
0.61
117
0.95
90
0.68
122
0.55
113
3.01
137
1.55
134
2.39
137
2.33
129
3.64
134
3.89
134
2.75
129
2.90
134
2.15
130
2.27
124
0.52
130
0.45
131
0.50
129
0.48
124
0.54
128
0.52
129
A. Geiger, M. Roser, R. Urtasun: Efficient large-scale stereo matching. ACCV 2010
PWCKtwo views1.92
131
1.66
138
3.12
129
1.65
139
0.91
133
2.84
135
2.26
139
2.10
134
2.41
131
2.36
124
2.31
116
2.22
123
1.82
125
3.43
134
2.03
120
1.61
140
0.71
137
1.51
139
0.82
136
1.69
138
0.91
135
RTStwo views1.98
132
0.96
133
11.36
139
0.65
113
0.57
120
2.77
133
1.40
130
1.39
106
2.26
127
1.89
116
2.56
123
1.32
86
1.25
107
5.20
136
4.05
128
0.31
87
0.22
68
0.29
80
0.29
87
0.40
102
0.37
99
RTSAtwo views1.98
132
0.96
133
11.36
139
0.65
113
0.57
120
2.77
133
1.40
130
1.39
106
2.26
127
1.89
116
2.56
123
1.32
86
1.25
107
5.20
136
4.05
128
0.31
87
0.22
68
0.29
80
0.29
87
0.40
102
0.37
99
MADNet+two views2.23
134
2.43
139
10.85
138
1.22
138
0.91
133
2.76
132
1.40
130
2.12
135
1.67
120
1.32
95
1.74
106
1.86
119
1.74
124
6.25
138
4.41
131
0.65
134
0.64
135
0.58
133
0.54
130
0.80
134
0.76
133
DPSimNet_ROBtwo views3.58
135
2.45
140
8.57
136
2.53
140
2.37
140
2.88
136
3.77
141
3.14
138
3.23
136
4.71
138
3.86
133
4.68
135
4.87
139
4.07
135
5.62
135
2.33
141
2.33
141
2.47
141
2.52
141
2.51
140
2.64
140
MADNet++two views4.03
136
2.70
142
3.44
132
3.72
142
3.44
141
4.44
139
3.52
140
3.95
140
3.61
138
4.46
135
4.98
139
4.10
133
4.58
138
7.00
139
5.89
136
3.74
142
3.67
142
3.27
142
2.71
142
3.70
142
3.66
141
SGM-ForestMtwo views4.04
137
0.32
47
0.46
26
0.43
37
0.27
29
7.50
141
1.45
133
3.84
139
4.24
139
8.19
142
6.76
140
19.00
143
9.08
140
10.74
143
6.62
138
0.31
87
0.33
113
0.32
92
0.32
99
0.29
65
0.29
73
MANEtwo views4.13
138
0.51
103
0.64
54
0.66
116
0.56
116
6.89
140
0.99
117
7.55
141
12.04
140
6.68
141
8.57
141
10.69
141
9.45
141
7.59
140
6.39
137
0.49
128
0.43
129
0.48
124
0.98
139
0.49
120
0.48
123
LE_ROBtwo views4.42
139
0.24
20
2.75
127
0.42
31
0.23
12
1.57
117
0.90
111
1.71
129
17.88
146
16.56
145
4.88
138
5.17
137
18.85
146
1.63
116
14.62
141
0.17
15
0.14
21
0.16
14
0.16
20
0.19
26
0.17
25
LSMtwo views4.74
140
0.77
126
10.16
137
0.70
125
56.56
148
1.02
83
1.00
119
1.24
89
1.62
119
2.04
119
2.34
118
1.33
88
1.17
101
1.38
105
1.09
100
0.33
101
0.49
133
0.39
111
0.46
120
0.51
123
10.09
142
EDNetEfficientorigintwo views9.93
141
1.15
137
175.16
149
0.48
59
0.36
63
1.04
87
0.68
89
1.24
89
2.69
133
3.17
130
2.50
122
2.30
125
2.07
131
1.76
120
2.21
123
0.20
32
0.18
47
0.24
50
0.19
29
0.51
123
0.50
127
DGTPSM_ROBtwo views12.07
142
8.00
143
20.99
141
8.93
143
16.78
142
10.67
142
30.87
145
9.01
142
15.16
142
6.50
139
15.41
144
9.04
139
14.85
142
9.25
141
21.67
143
4.57
143
8.57
143
5.08
143
9.28
143
5.90
143
10.95
143
DPSMNet_ROBtwo views12.08
143
8.00
143
21.00
142
8.97
144
16.79
143
10.67
142
30.89
146
9.02
143
15.17
143
6.51
140
15.41
144
9.04
139
14.85
142
9.27
142
21.67
143
4.58
144
8.57
143
5.09
144
9.29
144
5.90
143
10.95
143
BEATNet-Init1two views15.13
144
0.82
128
50.86
148
0.72
127
0.53
109
38.10
148
7.03
142
11.83
144
14.25
141
29.78
147
30.17
147
48.21
149
22.64
147
26.78
146
18.11
142
0.42
121
0.38
120
0.47
122
0.46
120
0.51
123
0.48
123
DPSMtwo views17.78
145
18.63
146
24.31
143
20.90
145
19.47
144
25.97
144
36.21
147
21.23
145
16.24
144
13.38
143
14.06
142
19.18
144
16.30
144
20.78
144
25.67
145
9.38
145
9.23
145
9.49
145
9.82
145
13.51
145
11.91
145
DPSM_ROBtwo views17.78
145
18.63
146
24.31
143
20.90
145
19.47
144
25.97
144
36.21
147
21.23
145
16.24
144
13.38
143
14.06
142
19.18
144
16.30
144
20.78
144
25.67
145
9.38
145
9.23
145
9.49
145
9.82
145
13.51
145
11.91
145
MEDIAN_ROBtwo views37.38
147
40.85
150
40.60
146
32.31
147
31.85
146
27.20
146
24.55
143
29.10
147
33.19
148
42.09
149
41.76
149
33.35
146
34.39
149
39.78
148
37.07
147
43.64
149
44.10
149
44.12
149
43.40
149
41.51
149
42.76
149
AVERAGE_ROBtwo views37.58
148
40.13
149
40.15
145
34.81
148
33.82
147
28.55
147
25.10
144
32.02
148
34.06
149
41.28
148
40.66
148
34.46
147
34.81
150
39.18
147
37.57
148
42.78
148
43.44
148
43.82
148
43.03
148
40.47
148
41.51
148
LSM0two views38.95
149
37.60
148
48.58
147
43.57
149
91.06
149
52.57
149
72.57
149
43.17
149
32.63
147
26.97
146
27.97
146
38.65
148
32.94
148
41.86
149
51.78
149
18.89
147
18.41
147
19.13
147
19.63
147
27.29
147
33.77
147
MSMDNettwo views0.43
7
ASD4two views8.86
145