-
Notifications
You must be signed in to change notification settings - Fork 291
/
distance.md
148 lines (96 loc) · 4.04 KB
/
distance.md
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
# MachingLearning中的距离和相似性计算以及python实现
---
* # 欧氏距离 {#欧氏距离}
也称欧几里得距离,是指在m维空间中两个点之间的真实距离。欧式距离在ML中使用的范围比较广,也比较通用,就比如说利用k-Means对二维平面内的数据点进行聚类,对魔都房价的聚类分析(price/m^2 与平均房价)等。
两个n维向量a\($$x_{11},x_{12}.....x_{1n}$$\)与 b\($$x_{21},x_{22}.....x_{2n}$$\)间的欧氏距离
python 实现为:
```
def distance(a,b):
sum = 0
for i in range(len(a)):
sum += (a[i]-b[i])**2
return sqrt(sum)
print 'a,b 多维距离为:',distance((1,1,2,2),(2,2,4,4))
```
这里传入的参数可以是任意维的,该公式也适应上边的二维和三维
* # 曼哈顿距离 {#曼哈顿距离}
$$D_{12}=\sum_{k=1}^{n}|x_{1k}-x_{2k}|$$
python 实现为:
```
def threeMHDdis(a,b):
return abs(a[0]-b[0])+abs(a[1]-b[1]) + abs(a[2]-b[2])
print 'a,b 三维曼哈顿距离为:', threeMHDdis((1,1,1),(2,2,2))
```
* # 切比雪夫距离 {#切比雪夫距离}
切比雪夫距离(Chebyshev Distance)的定义为:max\( \| x2-x1 \| , \|y2-y1 \| , … \), 切比雪夫距离用的时候数据的维度必须是三个以上
python 实现为:
```
def moreQBXFdis(a,b):
maxnum = 0
for i in range(len(a)):
if abs(a[i]-b[i]) > maxnum:
maxnum = abs(a[i]-b[i])
return maxnum
print 'a,b多维切比雪夫距离:' , moreQBXFdis((1,1,1,1),(3,4,3,4))
```
* # 马氏距离 {#马氏距离}
有M个样本向量X1~Xm,协方差矩阵记为S,均值记为向量μ,则其中样本向量X到u的马氏距离表示为
$$D(x)=\sqrt {(X-u)^TS^{-1}(X-u)}$$
* # 夹角余弦 {#夹角余弦}
$$cos \theta = \frac {a*b} {|a||b|}$$ $$cos \theta = \frac {\sum_{k=1}^{n}x_{1k}x_{2k}} {\sqrt {\sum_{k=1}^{n}x_{1k}^2}\sqrt {\sum_{k=1}^{n}x_{2k}^2}}$$
```
def moreCos(a,b):
sum_fenzi = 0.0
sum_fenmu_1,sum_fenmu_2 = 0,0
for i in range(len(a)):
sum_fenzi += a[i]*b[i]
sum_fenmu_1 += a[i]**2
sum_fenmu_2 += b[i]**2
return sum_fenzi/( sqrt(sum_fenmu_1) * sqrt(sum_fenmu_2) )
print 'a,b 多维夹角余弦距离:',moreCos((1,1,1,1),(2,2,2,2))
```
* # 闵可夫斯基距离 {#闵可夫斯基距离}
$$p\sqrt{\sum_{k=1}^{n}|x_{1k}-x_{2k}|^p}$$
当p=1时,就是曼哈顿距离
当p=2时,就是欧氏距离
当p→∞时,就是切比雪夫距离
* # 汉明距离 {#汉明距离}
两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数
```
def hanmingDis(a,b):
sumnum = 0
for i in range(len(a)):
if a[i]!=b[i]:
sumnum += 1
return sumnum
print 'a,b 汉明距离:',hanmingDis((1,1,2,3),(2,2,1,3))
```
* # 杰卡德距离 & 杰卡德相似系数 {#杰卡德距离-杰卡德相似系数}
杰卡德距离,杰卡德距离用两个集合中不同元素占所有元素的比例来衡量两个集合的区分度。
$$J_{\delta}(A, B)=\frac{|A \cup B|-|A \cap B|}{|A \cup B|}$$
```
def jiekadeDis(a,b):
set_a = set(a)
set_b = set(b)
dis = float(len( (set_a | set_b) - (set_a & set_b) ) )/ len(set_a | set_b)
return dis
print 'a,b 杰卡德距离:', jiekadeDis((1,2,3),(2,3,4))
```
杰卡德相似系数
两个集合A和B的交集元素在A,B的并集中所占的比例,称为两个集合的杰卡德相似系数,用符号J\(A,B\)表示。
$$J(A, B)=\frac{|A \cap B|}{|A \cup B|}$$
```
def jiekadeXSDis(a,b):
set_a = set(a)
set_b = set(b)
dis = float(len(set_a & set_b) )/ len(set_a | set_b)
return dis
print 'a,b 杰卡德相似系数:', jiekadeXSDis((1,2,3),(2,3,4))
```
* # 相关系数 & 相关距离 {#相关系数-相关距离}
相关 系数
$$\rho_{X Y}=\frac{\operatorname{Cov}(X, Y)}{\sqrt{D(X)} \sqrt{D(Y)}}=\frac{E((X-E X)(Y-E Y))}{\sqrt{D(X)} \sqrt{D(Y)}}$$
* # 信息熵 {#信息熵}
衡量分布的混乱程度或分散程度的一种度量.
$$(X)=\sum_{i=1}^{n}-p_{i} \log _{2} p_{i}$$
![](/assets/machinelearningdist1.png)![](/assets/machinelearingdist2.png)