pythonwget
打開終端,輸入:wget https://www.python.org/ftp/python/3.5.0/Python-3.5.0b4.tgz
下載完畢後 輸入解壓命令:tar –zxvf Python-3.5.0b4.tgz
切換到解壓的目錄:cd Python*
接下來就是安裝:
./configure
make
make install
然後查看一下就知道了:
Python 3.5.0 (#1, Aug 06 2015, 14:04:52)
[GCC 4.1.1 20061130 (Red Hat 4.1.1-43)] on linux2
Type 「help」, 「right」, 「credits」 or 「license」 for more information.
就說明成功了,因為linux系統可能不一樣,第二行有可能不同哈。
『貳』 python錯誤
你文件保存路徑出問題了,前面加個r轉義,
wget.download(url, r'c:/users/LikeGeeks/downloads/pythonLogo.png')
『叄』 python編程遇到的幾個坑
1. 爬個別特定網站,不一定得用python寫爬蟲,多數情況wget一條命令多數網站就能爬的不錯,真的玩到自己寫爬蟲了,最終遇到的無非是如何做大做壯,怎麼做分布式爬蟲。scrapy這種價值接近0,非同步或者多線程搞抓取,選一個成熟的基於磁碟的隊列庫,kafka之類的,scrapy幫了啥?
2. http庫眾多,還有gevent庫monkey patch以後coroutine的玩這一選擇,規模千萬的話urllib3很好。
3. 對付網站的諸如登錄、ajax,這種不過是體力民工活,不展開了。
4. 速度很重要,放ec2或者國內的雲上跑,很重要的指標是你每一億網頁爬下來成本多少,爬的時候比如4核一個虛擬機節點,你能inbound貸款用足100mbps嗎。
5. beautifulsoup太慢,全網的爬,encoding的分析也要要快,c實現的chardet還行
最關鍵的,永遠是爬下來以後的信息的提取、分析、使用,就是另外一個話題了。
1.學會使用chrome瀏覽器查看通信以及查看元素格式
2.增加User-Agent, 這是最簡單的反爬措施了
3.寫爬蟲最好使用Ipython,在互動式的環境下,可以時刻了解自己問題具體出在哪裡
4.使用requests
5.用get或者post下好html之後,要確認你需要的東西html裡面有,而不是之後用ajax或者javascript載入的。
6.解析的話,BeautifulSoup不錯。對於少數非常特殊的,可以考慮用re。
7,需要大量採集數據的話,學會使用框架,比如scrapy。
進階:
加入網站需要模擬登陸,裡面使用了很多ajax或者javascript,或者反爬蟲厲害,用requests的session,注意F12查看到底發送了什麼數據。
實在不會,就使用模擬瀏覽器吧,推薦selenium,雖然速度慢點,內存多點,但是真的很省力,而且基本查不出來。
最後,爬蟲速度不要太快,加上time.sleep(1),盡量少用多線程,別人建站也不容易,(尤其是小站)你不給別人帶來很大的麻煩,別人也就睜一隻眼閉一隻眼了,否則封IP不是好玩的。
有些頁面喜歡使用redirect,然而requests的get和post方法中默認是直接跳轉的!很可能你就帶著錯誤的cookies和headers跳轉了,所以務必將allow_redirects參數設為false
『肆』 如何安裝python3.6.2
下載python安裝包,然後雙擊運行,彈出如下對話框,記得勾選最後一項「Add python 3.6 to PATH",然後點擊」Customize installatiion「自定義安裝。
最後點擊」確定「按鈕完成設置。
『伍』 如何在linux系統中安裝python
linux系統中安裝python包括以下三個步驟:
『陸』 python 如何使用wget
你可以使用 subprocess 模塊,檢查執行 subprocess.call("Your-Command") 後的返回值:
『柒』 ubuntu 下怎樣安裝python
1.先檢查當前系統中是否已經安裝python,直接使用python -V查看