當前位置:首頁 » 編程語言 » python數據提取

python數據提取

發布時間: 2022-08-11 10:14:57

『壹』 python進行資料庫查詢時怎麼把結果提取出來

  1. 設置索引欄位。在開始提取數據前,先將member_id列設置為索引欄位。然後開始提取數據。

  2. 按行提取信息。第一步是按行提取數據,例如提取某個用戶的信息。

  3. 按列提取信息。第二步是按列提取數據,例如提取用戶工作年限列的所有信息。

  4. 按行與列提取信息。第三步是按行和列提取信息,把前面兩部的查詢條件放在一起,查詢特定用戶的特定信息。

  5. 在前面的基礎上繼續增加條件,增加一行同時查詢兩個特定用戶的貸款金額信息。

  6. 在前面的代碼後增加sum函數,對結果進行求和。

  7. 除了增加行的查詢條件以外,還可以增加列的查詢條件。

  8. 多個列的查詢也可以進行求和計算,在前面的代碼後增加sum函數,對這個用戶的貸款金額和年收入兩個欄位求和,並顯示出結果。

  9. 提取特定日期的信息。數據提取中還有一種很常見的需求就是按日期維度對數據進行匯總和提取,如按月,季度的匯總數據提取和按特定時間段的數據提取等等。

  10. 設置索引欄位。首先將索引欄位改為數據表中的日期欄位,這里將issue_d設置為數據表的索引欄位。按日期進行查詢和數據提取。

『貳』 怎樣用python爬取疫情數據

import requests
from bs4 import BeautifulSoup
import re
import json

# 1.發送請求,獲取疫情首頁(數據來源於丁香園)
response = requests.get('https://ncov.dxy.cn/ncovh5/view/pneumonia')
home_page = response.content.decode()

# 2.從疫情首頁提取最近一日數據
soup = BeautifulSoup(home_page, 'lxml')
script = soup.find(id='getAreaStat')
text = script.string

# 3.提取數據獲取json格式數據
json_str = re.findall(r'\[.+\]', text)[0]

# 4.把json格式轉換為python類型
last_day_corona_virus = json.loads(json_str)

# 5.以json格式保存最近一日數據
with open('data/last_day_coronavirus.json', 'w') as fp:
json.mp(last_day_corona_virus, fp, ensure_ascii=False)

『叄』 python提取excel表中的數據兩列

1、首先打開excel表格,在單元格中輸入兩列數據,需要將這兩列數據進行比對相同數據。

2、然後在C1單元格中輸入公式:=VLOOKUP(B1,A:A,1,0),意思是比對B1單元格中A列中是否有相同數據。

3、點擊回車,即可將公式的計算結果顯示出來,可以看到C1中顯示的是B1在A列中找到的相同數據。

4、將公式向下填充,即可發現C列中顯示出的數字即為有相同數據的,顯示「#N/A」的為沒有找到匹配數據的。

5、將C1-C4中的數據進行復制並粘貼成數值,即可完成相同數據的提取操作。
在實際研究中,我們經常需要獲取大量數據,而這些數據很大一部分以pdf表格的形式呈現,如公司年報、發行上市公告等。面對如此多的數據表格,採用手工復制黏貼的方式顯然並不可取。那麼如何才能高效提取出pdf文件中的表格數據呢?

Python提供了許多可用於pdf表格識別的庫,如camelot、tabula、pdfplumber等。綜合來看,pdfplumber庫的性能較佳,能提取出完整、且相對規范的表格。因此,本推文也主要介紹pdfplumber庫在pdf表格提取中的作用。

作為一個強大的pdf文件解析工具,pdfplumber庫可迅速將pdf文檔轉換為易於處理的txt文檔,並輸出pdf文檔的字元、頁面、頁碼等信息,還可進行頁面可視化操作。使用pdfplumber庫前需先安裝,即在cmd命令行中輸入:

pip install pdfplumber

pdfplumber庫提供了兩種pdf表格提取函數,分別為.extract_tables( )及.extract_table( ),兩種函數提取結果存在差異。為進行演示,我們網站上下載了一份短期融資券主體信用評級報告,為pdf格式。任意選取某一表格,其界面如下:

接下來,我們簡要分析兩種提取模式下的結果差異。

(1).extract_tables( )

可輸出頁面中所有表格,並返回一個嵌套列表,其結構層次為table→row→cell。此時,頁面上的整個表格被放入一個大列表中,原表格中的各行組成該大列表中的各個子列表。若需輸出單個外層列表元素,得到的便是由原表格同一行元素構成的列表。例如,我們執行如下程序:

輸出結果:

(2).extract_table( )

返回多個獨立列表,其結構層次為row→cell。若頁面中存在多個行數相同的表格,則默認輸出頂部表格;否則,僅輸出行數最多的一個表格。此時,表格的每一行都作為一個單獨的列表,列表中每個元素即為原表格的各個單元格內容。若需輸出某個元素,得到的便是具體的數值或字元串。如下:

輸出結果:

在此基礎上,我們詳細介紹如何從pdf文件中提取表格數據。其中一種思路便是將提取出的列表視為一個字元串,結合Python的正則表達式re模塊進行字元串處理後,將其保存為以標准英文逗號分隔、可被Excel識別的csv格式文件,即進行如下操作:

輸出結果:

盡管能獲得完整的表格數據,但這種方法相對不易理解,且在處理結構不規則的表格時容易出錯。由於通過pdfplumber庫提取出的表格數據為整齊的列表結構,且含有數字、字元串等數據類型。因此,我們可調用pandas庫下的DataFrame( )函數,將列表轉換為可直接輸出至Excel的DataFrame數據結構。DataFrame的基本構造函數如下:

DataFrame([data,index, columns])

三個參數data、index和columns分別代表創建對象、行索引和列索引。DataFrame類型可由二維ndarray對象、列表、字典、元組等創建。本推文中的data即指整個pdf表格,提取程序如下:

其中,table[1:]表示選定整個表格進行DataFrame對象創建,columns=table[0]表示將表格第一行元素作為列變數名,且不創建行索引。輸出Excel表格如下:

通過以上簡單程序,我們便提取出了完整的pdf表格。但需注意的是,面對不規則的表格數據提取,創建DataFrame對象的方法依然可能出錯,在實際操作中還需進行核對。

關於我們

微信公眾號「爬蟲俱樂部」分享實用的stata命令,歡迎轉載、打賞。爬蟲俱樂部是由李春濤教授領導下的研究生及本科生組成的大數據分析和數據挖掘團隊。

投稿要求:

1)必須原創,禁止抄襲;

2)必須准確,詳細,有例子,有截圖;

『肆』 Python爬蟲常用的幾種數據提取方式

數據解析方式
- 正則
- xpath
- bs4
數據解析的原理:
標簽的定位
提取標簽中存儲的文本數據或者標簽屬性中存儲的數據

『伍』 如何用Python爬取數據

方法/步驟

  • 在做爬取數據之前,你需要下載安裝兩個東西,一個是urllib,另外一個是python-docx。

  • 7

    這個爬下來的是源代碼,如果還需要篩選的話需要自己去添加各種正則表達式。

『陸』 python怎麼從一堆數據中取數

數據存放在MySQL裡面,在資料庫裡面查詢發現有個欄位的數據是JSON格式,不方便進行後續的操作,比方說:統計分析,特徵提取等。所以想把這個欄位裡面的JSON格式數據進行解析,解析成功後,然後把以結構化表的形式存放到MySQL資料庫。

具體步驟:

  • 通過Python3連接MySQL,

  • 獲取MySQL數據集,

  • 利用Python的相應庫解析JSON格式數據,

  • 把解析好數據放到數據框,並回存到MySQL資料庫。

熱點內容
微信視頻如何重新緩存 發布:2025-01-21 04:44:41 瀏覽:879
pdf壓縮文件大小 發布:2025-01-21 04:40:24 瀏覽:798
linux解壓文件到指定 發布:2025-01-21 04:38:36 瀏覽:874
自己做的安卓app怎麼下載 發布:2025-01-21 04:35:07 瀏覽:163
機頂盒加密頻道 發布:2025-01-21 04:26:48 瀏覽:318
騰訊應用加密 發布:2025-01-21 04:24:38 瀏覽:988
無法訪問f 發布:2025-01-21 04:24:36 瀏覽:539
sql實時 發布:2025-01-21 04:24:27 瀏覽:998
怎麼在linux伺服器上配ip地址 發布:2025-01-21 04:22:10 瀏覽:251
咖搭姆編程 發布:2025-01-21 04:19:45 瀏覽:674