用 Python 一键分析你的上网行为, 看是在认真工作还是摸鱼
簡介
想看看你最近一年都在干嘛?看看你平時上網是在摸魚還是認真工作?想寫年度匯報總結,但是苦于沒有數據?現在,它來了。
這是一個能讓你了解自己的瀏覽歷史的Chrome瀏覽歷史記錄分析程序,當然了,他僅適用于Chrome瀏覽器或者以Chrome為內核的瀏覽器。
在該頁面中你將可以查看有關自己在過去的時間里所訪問瀏覽的域名、URL以及忙碌天數的前十排名以及相關的數據圖表。
部分截圖
代碼思路
1. 目錄結構
首先,我們先看一下整體目錄結構
Code ├─ app_callback.py 回調函數,實現后臺功能 ├─ app_configuration.py web服務器配置 ├─ app_layout.py web前端頁面配置 ├─ app_plot.py web圖表繪制 ├─ app.py web服務器的啟動 ├─ assets web所需的一些靜態資源文件 │ ├─ css web前端元素布局文件 │ │ ├─ custum-styles_phyloapp.css │ │ └─ stylesheet.css │ ├─ image web前端logo圖標 │ │ ├─ GitHub-Mark-Light.png │ └─ static web前端幫助頁面 │ │ ├─ help.html │ │ └─ help.md ├─ history_data.py 解析chrome歷史記錄文件 └─ requirement.txt 程序所需依賴庫- app_callback.py
該程序基于python,使用dash web輕量級框架進行部署。app_callback.py主要用于回調,可以理解為實現后臺功能。 - app_configuration.py
顧名思義,對web服務器的一些配置操作。 - app_layout…py
web前端頁面配置,包含html, css元素。 - app_plot.py
這個主要是為實現一些web前端的圖表數據。 - app.py
web服務器的啟動。 - assets
靜態資源目錄,用于存儲一些我們所需要的靜態資源數據。 - history_data.py
通過連接sqlite數據庫,并解析Chrome歷史記錄文件。 - requirement.txt
運行本程序所需要的依賴庫。
2. 解析歷史記錄文件數據
與解析歷史記錄文件數據有關的文件為history_data.py文件。我們一一分析。
''' 遇到問題沒人解答?小編創建了一個Python學習交流QQ群:857662006 尋找有志同道合的小伙伴,互幫互助,群里還有不錯的視頻學習教程和PDF電子書! ''' # 查詢數據庫內容 def query_sqlite_db(history_db, query):# 查詢sqlite數據庫# 注意,History是一個文件,沒有后綴名。它不是一個目錄。conn = sqlite3.connect(history_db)cursor = conn.cursor()# 使用sqlite查看軟件,可清晰看到表visits的字段url=表urls的字段id# 連接表urls和visits,并獲取指定數據select_statement = query# 執行數據庫查詢語句cursor.execute(select_statement)# 獲取數據,數據格式為元組(tuple)results = cursor.fetchall()# 關閉cursor.close()conn.close()return results該函數的代碼流程為:
該函數的代碼流程為:
3. web服務器基本配置
與web服務器基本配置有關的文件為app_configuration.py和app.py文件。包括設置web服務器的端口號,訪問權限,靜態資源目錄等。
4. 前端頁面部署
與前端部署有關的文件為app_layout.py和app_plot.py以及assets目錄。
前端布局主要包括以下幾個元素:
- 上傳歷史記錄文件組件
- 繪制頁面訪問次數組件
- 繪制頁面訪問停留總時間排名組件
- 每日頁面訪問次數散點圖組件
- 某日不同時刻訪問次數散點圖組件
- 訪問次數最多的10個URL組件
- 搜索關鍵詞排名組件
- 搜索引擎使用情況組件
在app_layout.py中,這些組件的配置大多一樣,和平常的html, css配置一樣,所以我們僅僅以配置頁面訪問次數排名組件為例子。
# 頁面訪問次數排名 html.Div(style={'margin-bottom':'150px'},children=[html.Div(style={'border-top-style':'solid','border-bottom-style':'solid'},className='row',children=[html.Span(children='頁面訪問次數排名, ',style={'font-weight': 'bold', 'color':'red'}),html.Span(children='顯示個數:',),dcc.Input(id='input_website_count_rank',type='text',value=10,style={'margin-top':'10px', 'margin-bottom':'10px'}),]),html.Div(style={'position': 'relative', 'margin': '0 auto', 'width': '100%', 'padding-bottom': '50%', },children=[dcc.Loading(children=[dcc.Graph(id='graph_website_count_rank',style={'position': 'absolute', 'width': '100%', 'height': '100%', 'top': '0','left': '0', 'bottom': '0', 'right': '0'},config={'displayModeBar': False},),],type='dot',style={'position': 'absolute', 'top': '50%', 'left': '50%', 'transform': 'translate(-50%,-50%)'}),],)] )可以看到,雖然是python編寫的,但是只要具備前端經驗的人,都可以輕而易舉地在此基礎上新增或者刪除一些元素,所以我們就不詳細講如何使用html和css了。
在app_plot.py中,主要是以繪制圖表相關的。使用的是plotly庫,這是一個用于具有web交互的畫圖組件庫。
這里以繪制頁面訪問頻率排名 柱狀圖為例子,講講如何使用plotly庫進行繪制。
該函數的代碼流程為:
而assets目錄下包含的數據為image和css,都是用于前端布局。
5. 后臺部署
與后臺部署有關的文件為app_callback.py文件。這個文件使用回調的方式對前端頁面布局進行更新。
首先,我們看看關于頁面訪問頻率排名的回調函數:
# 頁面訪問頻率排名 @app.callback(dash.dependencies.Output('graph_website_count_rank', 'figure'),[dash.dependencies.Input('input_website_count_rank', 'value'),dash.dependencies.Input('store_memory_history_data', 'data')] ) def update(value, store_memory_history_data):# 正確獲取到歷史記錄文件if store_memory_history_data:history_data = store_memory_history_data['history_data']figure = plot_bar_website_count_rank(value, history_data)return figureelse:# 取消更新頁面數據raise dash.exceptions.PreventUpdate("cancel the callback")該函數的代碼流程為:
還有一個需要說的就是關于上次文件的過程,這里我們先貼出代碼:
# 上傳文件回調 @app.callback(dash.dependencies.Output('store_memory_history_data', 'data'),[dash.dependencies.Input('dcc_upload_file', 'contents')] ) def update(contents):if contents is not None:# 接收base64編碼的數據content_type, content_string = contents.split(',')# 將客戶端上傳的文件進行base64解碼decoded = base64.b64decode(content_string)# 為客戶端上傳的文件添加后綴,防止文件重復覆蓋# 以下方式確保文件名不重復suffix = [str(random.randint(0,100)) for i in range(10)]suffix = "".join(suffix)suffix = suffix + str(int(time.time()))# 最終的文件名file_name = 'History_' + suffix# print(file_name)# 創建存放文件的目錄if (not (exists('data'))):makedirs('data')# 欲寫入的文件路徑path = 'data' + '/' + file_name# 寫入本地磁盤文件with open(file=path, mode='wb+') as f:f.write(decoded)# 使用sqlite讀取本地磁盤文件# 獲取歷史記錄數據history_data = get_history_data(path)# 獲取搜索關鍵詞數據search_word = get_search_word(path)# 判斷讀取到的數據是否正確if (history_data != 'error'):# 找到date_time = time.strftime('%Y-%m-%d %H:%M:%S', time.localtime(time.time()))print('新接收到一條客戶端的數據, 數據正確, 時間:{}'.format(date_time))store_data = {'history_data': history_data, 'search_word': search_word}return store_dataelse:# 沒找到date_time = time.strftime('%Y-%m-%d %H:%M:%S', time.localtime(time.time()))print('新接收到一條客戶端的數據, 數據錯誤, 時間:{}'.format(date_time))return Nonereturn None該函數的代碼流程為:
首先判斷用戶上傳的數據contents是否不為空,接著將客戶端上傳的文件進行base64解碼。并且,為客戶端上傳的文件添加后綴,防止文件重復覆蓋,最終將客戶端上傳的文件寫入本地磁盤文件。
寫入完畢后,使用sqlite讀取本地磁盤文件,若讀取正確,則返回解析后的數據,否則返回None
接下來,就是我們數據提取最核心的部分了,即從Chrome歷史記錄文件中提取出我們想要的數據。由于Chrome歷史記錄文件是一個sqlite數據庫,所以我們需要使用數據庫語法提取出我們想要的內容。
''' 遇到問題沒人解答?小編創建了一個Python學習交流QQ群:857662006 尋找有志同道合的小伙伴,互幫互助,群里還有不錯的視頻學習教程和PDF電子書! ''' # 獲取排序后的歷史數據 def get_history_data(history_file_path):try:# 獲取數據庫內容# 數據格式為元組(tuple)select_statement = "SELECT urls.id, urls.url, urls.title, urls.last_visit_time, urls.visit_count, visits.visit_time, visits.from_visit, visits.transition, visits.visit_duration FROM urls, visits WHERE urls.id = visits.url;"result = query_sqlite_db(history_file_path, select_statement)# 將結果按第1個元素進行排序# sort和sorted內建函數會優先排序第1個元素,然后再排序第2個元素,依此類推result_sort = sorted(result, key=lambda x: (x[0], x[1], x[2], x[3], x[4], x[5], x[6], x[7], x[8]))# 返回排序后的數據return result_sortexcept:# print('讀取出錯!')return 'error'上面select_statement指的是查詢數據庫的規則,規則如下:
這里我們列出每個字段代表的意思:
| urls.id | url的編號 |
| urls.url | url的地址 |
| urls.title | url的標題 |
| urls.last_visit_time | url的最后訪問時間 |
| urls.visit_count | url的訪問次數 |
| urls.visit_time | url的訪問時間 |
| urls.from_visit | 從哪里訪問到這個url |
| urls.transition | url的跳轉 |
| urls.visit_duration | url的停留時間 |
6. 如何獲取Chrome歷史記錄文件
如何運行
在線演示程序:http://39.106.118.77:8090(普通服務器,勿測壓)
運行本程序十分簡單,只需要按照以下命令即可運行:
# 跳轉到當前目錄 cd 目錄名 # 先卸載依賴庫 pip uninstall -y -r requirement.txt # 再重新安裝依賴庫 pip install -r requirement.txt # 開始運行 python app.py# 運行成功后,通過瀏覽器打開http://localhost:8090總結
以上是生活随笔為你收集整理的用 Python 一键分析你的上网行为, 看是在认真工作还是摸鱼的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python爬虫之selenium,谷歌
- 下一篇: 用Python 给你的个人微信朋友圈数据