kmeans 聚类 (代码为: 博客数据聚类) (python )

kmeans聚类  迭代时间远比层次聚类的要少,处理大数据,kmeans优势极为突出.。

对博客数据进行聚类,实验测试了: 层次聚类的列聚类(单词聚类)几乎要上1小时,而kmeans对列聚类只需要迭代4次!! 快速极多。

如图:包含两个聚类的kmean聚类过程:

总思路:

将所有要聚类的博客,全部用word表示成一个向量,即每篇博客都是由单词组成的,然后形成了一个单词-博客 的矩阵,矩阵里的权重值就是单词在当前博客出现的总次数。

这样kmeans就是要将这些词频矩阵进行聚类。其实kmeans这里用到的距离相似度是用pearson。

聚类之前,先读取数据文件blogdata.txt.文本如下:

源文件第一列是博客名。第一行从第二列起,是这些博客的单词列表的所有单词。所以这里便有个wordlist。

这里的博客内容全部用单词表示,从第二行开始,每一行都是表示一篇博客。

def readfile(filename):
    #取得文件的所有内容,用数组存文件的每行数据
    lines = [line for line in file(filename)]
    
    #获取矩阵的第一行数据,用数组列表columnames存储 所有列名
    columnnames = []
    columnnames = lines[0].strip().split('\t')[1:]  #从数组下标为1的开始取,不要 下标为0的,因为下标为0,是“Blog”,删去,返回的是数组列表
    
    rownames = []
    data = []
    splitwords = []
    datatemp = []
    for line in lines[1:]:   #从下标为1的line数组里取各行,即从矩阵第二行开始去
        splitwords = line.strip().split('\t')
        #每行的第一列是行名 ,rownames存的是所有行名
        rownames.append(splitwords[0])
        #剩下部分是该行对应的数据

# data.append(splitwords[1:]) #这里数据虽然是数字,但添加的是string类型,但是应该改成添加float类型 datatemp = [float(x) for x in splitwords[1:]] #即,datatemp存的是所有x的数组:[x]。 等式右边的一开始[]号不能省略啊 data.append(datatemp) # 最终data里的每个元素都是一个datatemp数组,也就是data每个元素就存着 矩阵一行,在本例,data每个元素就是存着一个博客的数据 return rownames,columnnames,rowsdata #rownames是博客名,方便以后将结果树状打印

 这里的rownames将是wordnames:

 rowsdata就是:

所以kmeans就是对上面这一串数字rowdata进行聚类的。

kmeans聚类步骤:

def kmeanscluster(rowsdata,distance = pearson , finalclusternumberK = 4):

1.随机创建k个中心点(对应博客聚类,则是创k个中心类似博客,但是这k个中心类似博客基本不会命中原来的博客,这k个中心点是新创建的

  

    # 中心值博客的所有列的值(即单词的值)就是最小最大博客的平均值。 
    例如: 所有行里,对所有列 求出每列的最小大值,然后将两者平均,则中心博客 的所有列就是这些平均值
    
    如:原数据为: 每行表示一个博客,列表示单词。数字表示单词在博客出现的次数。
        0  0   2  1  ...
        2  3   4  10 ...
        4  6   0  0  ...
        
  则对每列进行最小最大值,求出最大最小值博客:
 最小值: 0  0  0   0 
 最大值:4  6  4   10
则中心博客的各列是 最小值博客 和最大值博客的 平均:
       2  3  2    5
 代码中,rangeslistofAllWords存储则会是:[ (0,4) ,(0,6) ,(0,4),(0,10)...... ] 所以[2,3 , 2, 5....] 就设为中心点

'''
但在下面代码实现中,求中心博客,并不是简单求平均值,而是引用了随机数!!即如radom()*(max-min)  + min
若radom()是0.2,则
最终中心博客是;
    (0.4  0.6 0.4  1 ) + (0 0 0 0) 
为:  0.4  0.6 0.4  1
 '''


代码如下:
    #确定每个点的最小、大值,即确定一个单词 出现次数的最大最小值。即创2行单词数列 的二维数组,定义如下:
    rangeslistofAllWords=[]      
    for i in range(len(rowsdata[0])):       #对所有列进行遍历,每一列的最大最小值找出来,也就是每一个单词的最大最小出现次数找出来 
        minvalue = min(line[i] for line in rowsdata)  
        maxvalue = max(line[i] for line in rowsdata)
        Elementofcolumn =(minvalue,maxvalue)
        rangeslistofAllWords.append(Elementofcolumn)  #rangslistofallwords 每个元素里是一个元组
   
  #随机创建k个中心点(对应博客聚类,则是创k个中心类似博客)。
    meancluster =[ [(rangeslistofAllWords[j][1] - rangeslistofAllWords[j][0]) *  random.random()  + rangeslistofAllWords[j][0]
                    for j in range(len(rowsdata[0]))]   
                    for i in range(0,finalclusternumberK)]  # 创建i行 j列二维数组,i*j

2. 遍历数据所有行(即遍历所有博客),为每行找到匹配的中心点。 计算每行与每个中心点的距离(这里用的pearson距离),
对每行,匹配中心点,找出与该行距离最小的中心点,从而归入到该中心点的簇去,即放进lowestDistanceMatches[]去。记住放进去的是ID,而不是这些行本身。这样会简洁很多

 #设置匹配列表   (如果用字典表示,怎样实现呢???? 
        lowestDistanceMatches =[[]for i in range (finalclusternumberK)]  #初始化:二维数组,列表套列表  = ,并定义它列表的长度
        
        #遍历数据的所有行,为每行找到匹配的中心点 (即距离该行最小的中心点)
        for j in range(len(rowsdata)):  #遍历所有行
            row = rowsdata[j]   #方便记住row该行对应的id :j
            IndexofBestMatchmeancluster = 0   
            lowestdistance = distance(row,meancluster[0]) #初始化最小距离
              
            for i in range(finalclusternumberK):   #遍历所有的中心点
                if distance(row,meancluster[i])< lowestdistance:
                    lowestdistance = distance(row,meancluster[i])
                    IndexofBestMatchmeancluster = i         # 只传下标ID, 跟选择排序一样。
            lowestDistanceMatches[IndexofBestMatchmeancluster].append(j)   # j是该行的下标,IndexofBestMatchmeancluster 为该行匹配的中心点的下标

3.把中心点变成其所有成员的平均位置处

      #中心点重新分布,中心点为所在簇的平均值
        for i in range(finalclusternumberK):   #遍历所有的中心点
            newmeanrowforallWords = [0.0]*len(rowsdata[0])#很重要!! 初始化了数组列表,并且定义 数组列表的长度 ,为什么不[for i range(len(rowsdata))]呢??
    
            #遍历同一个簇下的所有行,从而求得 平均值的行 
            if len(lowestDistanceMatches[i] )>0:    #有一些中心点是聚不到元素
                for rowid in lowestDistanceMatches[i]: #lowestDistanceMatches[i] 存储着那些 聚敛在一起的博客行  。相当与二维数组[i][rowid]
                #             print 'one '
                    for colid in range(len(rowsdata[0])):  # 遍历中心点的所有列
                        newmeanrowforallWords[colid]+= rowsdata[rowid][colid]
                         
                    for j in range(len(newmeanrowforallWords)): #求平均
                        newmeanrowforallWords[j]/=len(lowestDistanceMatches[i])
                #                 print newmeanrowforallWords       
                meancluster[i]=newmeanrowforallWords

4. 迭代第2,3步,直到 lowestDistanceMatches[]里的元素不再变化。(要比较是否变化,就要多设一个以前匹配列表lastmatches来比较)

lastmatches = None
    for times in range(100):
        print '迭代 第%d 次:' % times

#在这里插入第2,3 步的 代码。第2,3步代码都与上一句print对齐,同属for times的内容。 最好是将下面终止条件一段代码,放在第2,3步代码 之间,可以早点break迭代
     #终止条件: lowestDistanceMatches 匹配结果没变过,则说明聚类完成,结束   
        if lowestDistanceMatches == lastmatches:
            break
        lastmatches = lowestDistanceMatches 

最终的目的就是求出lowestDistancematches[]

return lowestDistanceMatches

到此,kmean函数定义完成。


定义pearson距离 函数:

def pearson(v1,v2):
  # Simple sums
  sum1=sum(v1)
  sum2=sum(v2)
  
  # Sums of the squares
  sum1Sq=sum([pow(v,2) for v in v1])
  sum2Sq=sum([pow(v,2) for v in v2])    
  
  # Sum of the products
  pSum=sum([v1[i]*v2[i] for i in range(len(v1))])
  
  # Calculate r (Pearson score)
  num=pSum-(sum1*sum2/len(v1))
  den=sqrt((sum1Sq-pow(sum1,2)/len(v1))*(sum2Sq-pow(sum2,2)/len(v1)))
  if den==0: return 0

  return 1.0-num/den

对列聚类,定义转置矩阵 rotatematrix 即可。

最后,运行kmeans函数:

 
blognames ,wordnames, rowsdata = HierarchicalCluster.readfile("blogdata.txt")
 
choice  = int (raw_input(' 请输入:1表示行聚类:博客聚类; 输入2表示列聚类,单词kmeans聚类: '))
if choice == 1 :   #为什么加了一个if ,运行就有问题???
    print '行聚类:博客聚类 开始:'
    clusters = kmeanscluster(rowsdata, finalclusternumberK=4)
    #遍历结果,输出结果
    for i in range(len(clusters)):
        print [ blognames[j] for j in clusters[i]]   #一句输出等于下面三句!
#     for j in clusters[i]:
#             print '%s ,'% blognames[j],
#         print '\n'
  
else:
    print '列聚类(单词kmeans聚类)如下:'
    colsdata = rotatematrix(rowsdata)  
    clusters = kmeanscluster(colsdata, finalclusternumberK=10)
    #遍历结果,输出结果
    for i in range(len(clusters)):
        print [ wordnames[j] for j in clusters[i]]   #一句输出等于下面三句!

运行结果:

缺点:

结果并不能如层次聚类那样图形化展示出来,还没找到这样第三方库,

树状图展示结果,效果会更好


附层次聚类代码:

def hcluster(rowsdata , distance = pearson):
    '''层次聚类:所有原始数据项当做一组聚类,最终所有组至底向上地聚类成一个聚类。
    这里对 矩阵行 (行表示博客) 进行聚类,每一行数据当成一组。即对博客进行聚类,相似的博客聚在一起
    循环体遍历计算:
        每一组可能的配对 并计算它们的相关度closest,以此找到最佳配对。 相关度 用pearson距离来衡量
        最佳匹配的两个聚类合并成一个聚类, 新生成的聚类所包含数据   等于  两个旧聚类的数据 求均值 的结果
  一直循环直到只剩下一个聚类cluster[0]为止
  
变量定义:
distances是一个字典,存储所有距离的计算值
id =i  表示第i个博客,
lowestDistacePair =(i,j)表示一个元组,当前最小距离的一对,这一对簇即将合并成一个簇。
   rowsdata[i]和vec存的内容都是:[0.0, 1.0, 0.0, 3.0,
    ''' 
    currentclustid = -1
    distancesDic = {}   #distances是一个字典,存储所有距离的计算值 。如果是行聚类,存储距离的字典不会很大,因为是博客作为key.而如果是列聚类,字典会很大,因为单词word作为key.所以列聚类就不存储 这些距离了。直接比较 。
    
    #最开始的聚类是数据集的行
    '''所有聚类都放在一个数组cluster里,数组rowsdata会传到bicluster类的vec参数去。
    clust是一个列表数组,该数组每个元素就是存着rowsdata一个元素,而rowsdata存的是矩阵一行的元素,
        总之,clust数组存的是博客数组,一个元素存的是一个博客。clust数组一个元素就是矩阵一行
  '''
    clust = [bicluster(rowsdata[i],id = i) for i in range(len(rowsdata))]  
    '''id =i 这一步很重要  ,第几个博客,则id为几。 等于第i行数据
    clust存的是矩阵的每行。rowsdata每个元素赋给vec。
    rowsdata[i]和vec存的内容都是:[0.0, 1.0, 0.0, 3.0,'''

    while len(clust)>1:         #当聚类还剩最后一个,则跳出循环
        lowestDistacePair = (0,1)
        closestness = distance(clust[0].vec , clust[1].vec)  #先对矩阵第一行和第二行聚类,即对第一个博客、第二个博客聚类.
      
        #遍历每一个配对,寻找最小距离的一对,即找 lowestDistancePair
        for i in range(len(clust)):     #一个clust[i]就代表一个博客
            for j in range(i+1,len(clust)):       #range(i,)添加 i很重要,这样就不用重复计算以计算好的距离,因为计算<i,j>距离和<j,i>距离是一样的,所以添加一个范围(i,)就省下极多时间

                '''上面的字典distancesDic 那五句代码,可以不用,只用下面一句代码代替即可,只用下面
                                            一句代码意思是,不需要存储距离'''
                d = distance(clust[i].vec ,clust[j].vec)  
                
                if d<closestness :
                    closestness = d
                    lowestDistacePair = (i,j)

        #计算两个聚类的平均值  (在找到了最小距离的一对lowerstDistancePair后),作为新合并簇的博客值 vec
        mergevec = [] #mergevec是数组
        mergevec = [
                    (clust[lowestDistacePair[0]].vec[i] + clust[lowestDistacePair[1]].vec[i]) /2.0
                    for i in range(len(clust[0].vec))
                    ]   #vec内容是:[0.0, 1.0, 0.0, 3.0,.....所以vec也是一个数组

        #建立新的聚类簇,更新该簇信息
        newcluster = bicluster( mergevec,left = clust[lowestDistacePair[0]],
                                right = clust[lowestDistacePair[1]],
                                distance = closestness, id = currentclustid
                                ) #新合并的簇的id都是负数,currentclustid都是负数
        
        #不在原始集合中的聚类(即新合并的聚类),其id为负数。
        currentclustid -=1
        #删去在clust的已经被合并的最小聚类。每次都删去最小的一对,以找下一对。。
        #del数组是先要del[1],再del[0].顺序不能反。
        #不然出错IndexError: list assignment index out of range:引用超过list最大索引。删除一定要先删除下标最大的,再删除下标最小的??是吗?
        del clust[lowestDistacePair[1]]
        del clust[lowestDistacePair[0]]    
        clust.append(newcluster)
        #最终是将clust数组里所有元素都删掉,直到clust元素还剩下一个,即clust[0].
    return clust[0]
原文地址:https://www.cnblogs.com/lifegoesonitself/p/3065196.html