Python【8】-分析json文件

一、本节用到的基础知识

1.逐行读取文件

for line in open('E:Demopythonjson.txt'):
    print line

2.解析json字符串

Python中有一些内置模块可以非常便捷地将json字符串转换为Python对象。比如json模块中的json.relaods()方法可以将json字符串解析为相应的字典。

import json

s='{ "a": "GoogleMaps/RochesterNY", "c": "US", "nk": 0, "tz": "America/Denver", "gr": "UT", "g": "mwszkS", "h": "mwszkS", "l": "bitly", "hh": "1.usa.gov", "r": "http://www.AwareMap.com/", "u": "http://www.monroecounty.gov/etc/911/rss.php", "t": 1331926741, "hc": 1308262393, "cy": "Provo", "ll": [ 40.218102, -111.613297 ] }'
o=json.loads(s)
print o

运行结果:

{u'a': u'GoogleMaps/RochesterNY', u'c': u'US', u'nk': 0, u'tz': u'America/Denver', u'gr': u'UT', u'g': u'mwszkS', u'h': u'mwszkS', u'cy': u'Provo', u'l': u'bitly', u'hh': u'1.usa.gov', u'r': u'http://www.AwareMap.com/', u'u': u'http://www.monroecounty.gov/etc/911/rss.php', u't': 1331926741, u'hc': 1308262393, u'll': [40.218102, -111.613297]}

3.列表生成式

详见:http://www.cnblogs.com/janes/p/5530979.html

二、将json文件解析为字典列表

要对json文件进行分析,首先我们逐行读取该文件,并把每行转换成对应的字典对象,然后组成一个列表。

import json
#读取文件并解析为字典组成的列表
dicList=[json.loads(line) for line in open('E:Demopythonjson.txt')]
#打印第一个字典元素
print dicList[0]
#打印第一个元素中的时区
print dicList[0]['tz']

运行结果:

{u'a': u'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.78 Safari/535.11', u'c': u'US', u'nk': 1, u'tz': u'America/New_York', u'gr': u'MA', u'g': u'A6qOVH', u'h': u'wfLQtf', u'cy': u'Danvers', u'l': u'orofrog', u'al': u'en-US,en;q=0.8', u'hh': u'1.usa.gov', u'r': u'http://www.facebook.com/l/7AQEFzjSi/1.usa.gov/wfLQtf', u'u': u'http://www.ncbi.nlm.nih.gov/pubmed/22415991', u't': 1331923247, u'hc': 1331822918, u'll': [42.576698, -70.954903]}

America/New_York

三、利用Python标准库统计json文件中的时区数据

1.首先将所有时区数据放在一个列表中

#获取所有时区数据
timezones=[item['tz'] for item in dicList if 'tz' in item]
#测试打印前五条
print timezones[0:5]

运行结果:

[u'America/New_York', u'America/Denver', u'America/New_York', u'America/Sao_Paulo', u'America/New_York']

2.然后将时区列表转换为时区计数字典,key为时区名,value为出现次数。

#自定义函数,统计时区出现次数
def countZone(timezones):
    count_zone={}
    for tz in timezones:
        if(tz in count_zone):
            count_zone[tz]+=1
        else:
            count_zone[tz]=1
    return count_zone

#自定义函数,返回top N
def countTop(dicCount,n):
    valueKeyItems=[(value,key) for key,value in dicCount.items()]
    valueKeyItems.sort()
    return valueKeyItems[-n:]
    
#测试并打印出现次数最多的5个时区    
count=countZone(timezones)
print countTop(count,5)

运行结果:

[(191, u'America/Denver'), (382, u'America/Los_Angeles'), (400, u'America/Chicago'), (521, u''), (1251, u'America/New_York')]

3.利用defaultdict简化函数countZone函数

Python标准库collections对一些数据结构进行了拓展操作,使用起来更加便捷,其中defaultdict可以给字典赋值默认value。

from collections import defaultdict,Counter
def countZone(timezones):
    count_zone=defaultdict(int)
    for tz in timezones:
        count_zone[tz]+=1
    return count_zone

4.利用collections.Counter简化countTop函数

from collections import Counter

def countTop(dicCount,n):
    return Counter(dicCount).most_common(n)

5.完整代码

# -*- coding: utf-8 -*-
import json
#1.读取文件并转换为字典列表
#读取文件并解析为字典组成的列表
dicList=[json.loads(line) for line in open('E:Demopythonjson.txt')]

#2.统计时区
#获取所有时区数据
timezones=[item['tz'] for item in dicList if 'tz' in item]

#统计时区出现次数
from collections import defaultdict,Counter
def countZone(timezones):
    count_zone=defaultdict(int)
    for tz in timezones:
        count_zone[tz]+=1
    return count_zone

#返回top N
def countTop(dicCount,n):
    return Counter(dicCount).most_common(n)
    
#测试并打印出现次数最多的5个时区    
count=countZone(timezones)
print countTop(count,5)

#运行结果:[(u'America/New_York', 1251), (u'', 521), (u'America/Chicago', 400), (u'America/Los_Angeles', 382), (u'America/Denver', 191)]

四 利用pandas统计json文件中的时区数据

1.运用DataFrame统计时区数据

①DataFrame是pandas中很常用的数据结构,它把数据转换为一个类似表格的结构。

# -*- coding: utf-8 -*-
import json
from pandas import DataFrame
dicList=[json.loads(line) for line in open('E:Demopythonjson.txt')]
frame=DataFrame(dicList)
#测试打印时区列表中前5个元素
print frame['tz'][:5]

运行结果:

0     America/New_York

1       America/Denver

2     America/New_York

3    America/Sao_Paulo

4     America/New_York

②frame['tz']有value_counts()函数,可以直接返回对应的计数。

#打印出现次数最多的5个时区

print frame['tz'].value_counts()[:5]

运行结果:

America/New_York       1251

                                 521

America/Chicago         400

America/Los_Angeles     382

America/Denver          191

③为不存在时区数据或者时区为空字符串的数据补全默认值。

fillna()函数可以补全不存在的字段;空字符串可以通过布尔型索引的形式进行替换。

tzList=frame['tz'].fillna('Missing')
tzList[tzList =='']='Unknown'
print tzList.value_counts()[:5]

运行结果:

America/New_York       1251

Unknown                 521

America/Chicago         400

America/Los_Angeles     382

America/Denver          191

这样我们就完成了之前用标准Python库相同的工作,完整代码如下:

# -*- coding: utf-8 -*-
import json
from pandas import DataFrame
dicList=[json.loads(line) for line in open('E:Demopythonjson.txt')]
frame=DataFrame(dicList)
#打印出现次数最多的5个时区
print frame['tz'].value_counts()[:5]

#补全时区不存在或者为空的情况
tzList=frame['tz'].fillna('Missing')
tzList[tzList =='']='Unknown'
print tzList.value_counts()[:5]

2.利用plot方法绘制垂直条形图

参考:http://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html

tzList.value_counts()[:5].plot(kind='bar',rot=0)

运行:我们可以利用%paste命令将代码粘贴运行。

命令行:

ipython

%pylab

%paste

运行结果:

Image

本文用到的json文件:点此下载

参考:《利用Python进行数据分析》

如需转载,请标明出处:http://www.cnblogs.com/janes/p/5546673.html

原文地址:https://www.cnblogs.com/janes/p/5546673.html