當前位置:首頁 » 編程語言 » pythonforosx

pythonforosx

發布時間: 2025-02-01 08:43:50

⑴ mac怎麼安裝python2.7

Mac OSX 正確地同時安裝Python 2.7 和Python3

ABOUT 6 MINUTES TO READ/11/29/2015/CANDY TSAI/0 COMMENTS

Python3出來了(其實已經出來很久了,暈)!

但是還是有很多library還是使用Python2.7,所以要怎麼在Mac裡面同時裝這兩個版本,並且和系統所使用的Python區分開來呢?今天要寫的是如何第一次就正確安裝好,並且切換預設版本,不在誤用系統的Python。

主要就這幾個步驟而已,不會太困難的(或許有些你本來就裝好了)

Step 1 安裝Xcode

Step 2 安裝套件管理工具Homebrew

Step 3 安裝Pytho

Step 4 設定路徑$PATH(不跟系統Python 打架)

Step 5 完成啰!確認安裝結果~

Step 1 安裝Xcode

可以到App Store搜尋Xcode並安裝安裝好了之後就把Xcode打開~第一次開啟的時候會需要同意他的License Agreement之類的東西。然後到terminal輸入來安裝Xcode command line tool:

這時,再打一次

echo$PATH

為什麼沒有變!?

因為要開一個新的terminal才會更新唷!

開新式窗後再輸入一次就會看到我們剛剛修改的結果了。

Step 5 完成啰!確認安裝結果~

這樣就完成啰!

其實python3本身比較不會跟其他人打架

因為他就是獨立的python3

所以我們主要是要確認是不是讀到我們用brew裝的pytho

whichpytho

這時候看到

/usr/local/bin/pytho

再來看看python3 吧

whichpython3

應該會是

/usr/local/bin/python3

就代表讀到剛剛裝好的python啰!

當然如果你要跑系統本身的pytho

(應該是用不到啦~)

就輸入

/usr/bin/pytho

總之就是…大功告成啰!

⑵ python爬圖片最多可以下載多少張(利用Python批量爬取網頁圖片)

導讀:本篇文章首席CTO筆記來給大家介紹有關python爬圖片最多可以下載多少張的相關內容,希望對大家有所幫助,一起來看看吧。

python:爬圖並下載到本地指定文件夾

(爬圖片簡易版)

環境:python3IDLE

(ps:其他網站注意圖片懶載入與分頁等問題)

python多線程作用

總結起來,使用多線程編程具有如下幾個優點:

進程之間不能共享內存,但線程之間共享內存非常容易。

操作系統在創建進程時,需要為該進程重新分配系統資源,但創建線程的代價則小得多。因此,使用多線程來實現多任務並發執行比使用多進程的效率高。

Python語言內置了多線程功能支持,而不是單純地作為底層操作系統的調度方式,從而簡化了Python的多線程編程。

在實際應用中,多線程是非常有用的。比如一個瀏覽器必須能同時下載多張圖片;一個Web伺服器必須能同時響應多個用戶請求;圖形用戶界面(GUI)應用也需要啟動單獨的線程,從主機環境中收集用戶界面事件……總之,多線程在實際編程中的應用是非常廣泛的。

怎樣用python爬新浪微博大V所有數據

我是個微博重度用戶,工作學習之餘喜歡刷刷timeline看看有什麼新鮮事發生,也因此認識了不少高質量的原創大V,有分享技術資料的,比如好東西傳送門;有時不時給你一點人生經驗的,比如石康;有高產的段子手,比如銀教授;有黃圖黃段子小能手,比如阿良哥哥?木木蘿希木?初犬餅…

好吧,我承認,爬黃圖黃段子才是我的真實目的,前三個是掩人耳目的…(捂臉,跑開)

另外說點題外話,我一開始想使用SinaWeiboAPI來獲取微博內容,但後來發現新浪微博的API限制實在太多,大家感受一下:

只能獲取當前授權的用戶(就是自己),而且只能返回最新的5條,WTF!

所以果斷放棄掉這條路,改為『生爬』,因為PC端的微博是Ajax的動態載入,爬取起來有些困難,我果斷知難而退,改為對移動端的微博進行爬取,因為移動端的微博可以通過分頁爬取的方式來一次性爬取所有微博內容,這樣工作就簡化了不少。

最後實現的功能:

輸入要爬取的微博用戶的user_id,獲得該用戶的所有微博

文字內容保存到以%user_id命名文本文件中,所有高清原圖保存在weibo_image文件夾中

具體操作:

首先我們要獲得自己的cookie,這里只說chrome的獲取方法。

用chrome打開新浪微博移動端

option+command+i調出開發者工具

點開Network,將Preservelog選項選中

輸入賬號密碼,登錄新浪微博

找到m.weibo.cn-Headers-Cookie,把cookie復制到代碼中的#yourcookie處

cookie

然後再獲取你想爬取的用戶的user_id,這個我不用多說啥了吧,點開用戶主頁,地址欄裡面那個號碼就是user_id

將python代碼保存到weibo_spider.py文件中

定位到當前目錄下後,命令行執行pythonweibo_spider.pyuser_id

當然如果你忘記在後面加user_id,執行的時候命令行也會提示你輸入

最後執行結束

iTerm

小問題:在我的測試中,有的時候會出現圖片下載失敗的問題,具體原因還不是很清楚,可能是網速問題,因為我宿舍的網速實在太不穩定了,當然也有可能是別的問題,所以在程序根目錄下面,我還生成了一個userid_imageurls的文本文件,裡面存儲了爬取的所有圖片的下載鏈接,如果出現大片的圖片下載失敗,可以將該鏈接群一股腦導進迅雷等下載工具進行下載。

另外,我的系統是OSXEICapitan10.11.2,Python的版本是2.7,依賴庫用sudopipinstallXXXX就可以安裝,具體配置問題可以自行stackoverflow,這里就不展開講了。

下面我就給出實現代碼(嚴肅臉)

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

??

#-*-coding:utf8-*-

importre

importstring

importsys

importos

importurllib

importurllib2

frombs4importBeautifulSoup

importrequests

fromlxmlimportetree

reload(sys)

sys.setdefaultencoding('utf-8')

if(len(sys.argv)=2):

user_id=(int)(sys.argv[1])

else:

user_id=(int)(raw_input(u"請輸入user_id:"))

cookie={"Cookie":"#yourcookie"}

url='d?filter=1page=1'%user_id

html=requests.get(url,cookies=cookie).content

selector=etree.HTML(html)

pageNum=(int)(selector.xpath('//input[@name="mp"]')[0].attrib['value'])

result=""

urllist_set=set()

word_count=1

image_count=1

printu'爬蟲准備就緒...'

forpageinrange(1,pageNum+1):

#獲取lxml頁面

url='hu/%d?filter=1page=%d'%(user_id,page)

lxml=requests.get(url,cookies=cookie).content

#文字爬取

selector=etree.HTML(lxml)

content=selector.xpath('//span[@class="ctt"]')

foreachincontent:

text=each.xpath('string(.)')

ifword_count=4:

text="%d:"%(word_count-3)+text+" "

else:

text=text+" "

result=result+text

word_count+=1

#圖片爬取

soup=BeautifulSoup(lxml,"lxml")

urllist=soup.find_all('a',href=re.compile(r'^mblog/oripic',re.I))

first=0

forimgurlinurllist:

urllist_set.add(requests.get(imgurl['href'],cookies=cookie).url)

image_count+=1

fo=open("/Users/Personals/%s"%user_id,"wb")

fo.write(result)

word_path=os.getcwd()+'/%d'%user_id

printu'文字微博爬取完畢'

link=""

fo2=open("/Users/Personals/%s_imageurls"%user_id,"wb")

foreachlinkinurllist_set:

link=link+eachlink+" "

fo2.write(link)

printu'圖片鏈接爬取完畢'

ifnoturllist_set:

printu'該頁面中不存在圖片'

else:

#下載圖片,保存在當前目錄的pythonimg文件夾下

image_path=os.getcwd()+'/weibo_image'

ifos.path.exists(image_path)isFalse:

os.mkdir(image_path)

x=1

forimgurlinurllist_set:

temp=image_path+'/%s.jpg'%x

printu'正在下載第%s張圖片'%x

try:

urllib.urlretrieve(urllib2.urlopen(imgurl).geturl(),temp)

except:

printu"該圖片下載失敗:%s"%imgurl

x+=1

printu'原創微博爬取完畢,共%d條,保存路徑%s'%(word_count-4,word_path)

printu'微博圖片爬取完畢,共%d張,保存路徑%s'%(image_count-1,image_path)

??

Python3.xx中寫爬蟲,下載圖片除了urlretrieve方法,還有什麼庫的什麼方法呢?

Part1.urllib2

urllib2是Python標准庫提供的與網路相關的庫,是寫爬蟲最常用的一個庫之一。

想要使用Python打開一個網址,最簡單的操作即是:

your_url=""html=urllib2.urlopen(your_url).read()12

這樣所獲得的就是對應網址(url)的html內容了。

但有的時候這么做還不夠,因為目前很多的網站都有反爬蟲機制,對於這么初級的代碼,是很容易分辨出來的。例如本文所要下載圖片的網站,上述代碼會返回HTTPError:HTTPError403:Forbidden錯誤。

那麼,在這種情況下,下載網路圖片的爬蟲(雖然只有幾行代碼,但一個也可以叫做爬蟲了吧,笑),就需要進一步的偽裝。

要讓爬蟲偽裝成瀏覽器訪問指定的網站的話,就需要加入消息頭信息。所謂的消息頭信息就是在瀏覽器向網路伺服器發送請求時一並發送的請求頭(RequestHeaders)信息和伺服器返回的響應頭(ResponseHeaders)信息。

例如,使用FireFox打開時所發送的RequestHeaders的部分內容如下:

Host:"publicdomainarchive.com/"User-Agent:"Mozilla/5.0(WindowsNT10.0;WOW64;rv:50.0)Gecko/20100101Firefox/50.0"Accept:"text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8"...1234

還有一些其他屬性,但其中偽裝成瀏覽器最重要的部分已經列出來了,即User-Agent信息。

要使用Headers信息,就不能再僅僅向urlopen方法中傳入一個地址了,而是需要將HTTPRequest的Headers封裝後傳入:

headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:50.0)Gecko/20100101Firefox/50.0'}req=urllib2.Request(url=url,headers=headers)content=urllib2.urlopen(req).read()123

這樣,就獲得了網站的html內容。

接下來,就需要從html去獲取圖片的鏈接。

Part2.HTMLParser

HTMLParser是Python提供的HTML解析庫之一。

但Python提供的這個類中很多方法都沒有實現,因而基本上這個庫只負責進行解析,但解析完了什麼都不做。所以如果需要對HTML中的某些元素進行加工的話,就需要用戶自己去實現其中的一些方法。本文僅實現其中的handle_starttag方法:

classMyHTMLParser(HTMLParser):#繼承HTMLParser類

def__init__(self):#初始化

HTMLParser.__init__(self)defhandle_starttag(self,tag,attrs):

#參數tag即由HTMLParser解析出的開始標簽,attrs為該標簽的屬性

iftag=="img":#下載圖片所需要的img標簽

iflen(attrs)==0:pass

else:for(variable,value)inattrs:#在attrs中找到src屬性,並確定其是我們所要下載的圖片,最後將圖片下載下來(這個方法當然也有其他的寫法)

ifvariable=="src"andvalue[0:4]=='http'andvalue.find('x')=0:

pic_name=value.split('/')[-1]printpic_name

down_image(value,pic_name)123456789101112131415

Part3.下載圖片

從handle_starttag方法中,我們已經獲得了圖片的url,那麼,最後一步,我們要下載圖片了。

當然,要獲得網路上的圖片,自然也需要向伺服器發送請求,一樣需要用到urllib2這個庫,也需要用到上面所用到的請求頭。

以下是down_image()方法的主要代碼:

binary_data=urllib2.urlopen(req).read()

temp_file=open(file_name,'wb')

temp_file.write(binary_data)

temp_file.close()1234

因為這次打開的網址是個圖片,所以urllib2.urlopen(req).read()所獲取的就是圖片的數據,將這些數據需要以二進制的方式寫入本地的圖片文件,即將圖片下載下來了。

因為圖片的url的最後一部分是圖片的名字,所以可以直接用做本地的文件名,不用擔心命名沖突,也不用擔心後綴不符,很是方便。

Part4.getFreeImages.py

這個下載圖片的腳本的完整代碼如下:

importurllib2,

classMyHTMLParser(HTMLParser):

def__init__(self):

HTMLParser.__init__(self)#self.links={}

defhandle_starttag(self,tag,attrs):

#print"Encounteredthebeginningofa%stag"%tag

iftag=="img":iflen(attrs)==0:pass

else:for(variable,value)inattrs:ifvariable=="src"andvalue[0:4]=='http'andvalue.find('x')=0:

pic_name=value.split('/')[-1]printpic_name

down_image(value,pic_name)defdown_image(url,file_name):

globalheaders

req=urllib2.Request(url=url,headers=headers)

binary_data=urllib2.urlopen(req).read()

temp_file=open(file_name,'wb')

temp_file.write(binary_data)

temp_file.close()if__name__=="__main__":

img_dir="D:\Downloads\domainimages"

ifnotos.path.isdir(img_dir):

os.mkdir(img_dir)

os.chdir(img_dir)printos.getcwd()

url=""

headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:50.0)Gecko/20100101Firefox/50.0'}

all_links=[]

hp=MyHTMLParser()foriinrange(1,30):

url=''+str(i)+'/'

req=urllib2.Request(url=url,headers=headers)

content=urllib2.urlopen(req).read()

hp.feed(content)

hp.close()041424344454647484950

有大神知道怎麼使用python往ftp伺服器上連續上傳下載多張圖片嗎?

例:下載、上傳文件

#?coding:?utf-8

from?ftplib?import?FTP

import?time

import?tarfile

import?os

#?!/usr/bin/python

#?-*-?coding:?utf-8?-*-

from?ftplib?import?FTP

def?ftpconnect(host,?username,?password):

????ftp?=?FTP()

????#?

????(host,?21)

????(username,?password)

????return?ftp

#從ftp下載文件

def?downloadfile(ftp,?remotepath,?localpath):

????bufsize?=?1024

????fp?=?open(localpath,?'wb')

????('RETR?'?+?remotepath,?fp.write,?bufsize)

????

????fp.close()

#從本地上傳文件到ftp

def?uploadfile(ftp,?remotepath,?localpath):

????bufsize?=?1024

????fp?=?open(localpath,?'rb')

????('STOR?'?+?remotepath,?fp,?bufsize)

????

????fp.close()

if?__name__?==?"__main__":

????ftp?=?ftpconnect("113.105.139.xxx",?"ftp***",?"Guest***")

????downloadfile(ftp,?"Faint.mp4",?"C:/Users/Administrator/Desktop/test.mp4")

????#調用本地播放器播放下載的視頻

????os.system('start?"C:Program?FilesWindows?Media?Playerwmplayer.exe"?"C:/Users/Administrator/Desktop/test.mp4"')

????uploadfile(ftp,?"C:/Users/Administrator/Desktop/test.mp4",?"test.mp4")

????

Python爬蟲爬坑路(二)——B站圖片,咸魚的正確GET姿勢

昨天在寫完入門級爬蟲之後,馬上就迫不及待的著手開始寫B站的圖片爬蟲了,真的很喜歡這個破站呢(? ̄△ ̄)?

這里不涉及到Python爬蟲的高級技

⑶ python 集成開發環境哪個好

1. Pydev+Eclipse–最好的免費python IDE

Pydev的是PythonIDE中使用最普遍的,原因很簡單,它是免費的,同時還提供很多強大的功能來支持高效的Python編程。Pydev是一個運行在eclipse上的開源插件,它把python帶進了eclipse的王國,如果你本來就是是一個eclipse的用戶那麼Pydev將給你家裡一樣的感覺。

Pydev能高居榜首,得益於這些關鍵功能,包括Django集成、自動代碼補全、多語言支持、集成的Python調試、代碼分析、代碼模板、智能縮進、括弧匹配、錯誤標記、源代碼控制集成、代碼折疊、UML編輯和查看和單元測試整合等。

2. PyCharm–最好的商業python IDE

PyCharm是專業的python集成開發環境,有兩個版本。一個是免費的社區版本,另一個是面向企業開發者的更先進的專業版本。

大部分的功能在免費版本中都是可用的,包括智能代碼補全、直觀的項目導航、錯誤檢查和修復、遵循PEP8規范的代碼質量檢查、智能重構,圖形化的調試器和運行器。它還能與IPython
notebook進行集成,並支持Anaconda及其他的科學計算包,比如matplotlib和NumPy。

PyCharm專業版本支持更多高級的功能,比如遠程開發功能、資料庫支持以及對web開發框架的支持等。

3.VIM

VIM是一個很先進的文本編輯器,在python開發者社區中很受歡迎。它是一個開源軟體並遵循GPL協議,所以你可以免費的使用它。

雖然VIM是最好的文本編輯器,但是它提供的功能不亞於此,經過正確的配置後它可以成為一個全功能的Python開發環境。此外VIM還是一個輕量級的、模塊化、快速響應的工具,非常適合那些很牛的程序員—編程從不用滑鼠的人。

4. Wing IDE

Wing IDE是另外一個商業的、面向專業開發人員的python集成開發環境,可以運行在windows、OSX和linux系統上,支持最新版本的python,包括stackless Python。Wing
IDE分三個版本:免費的基礎版,個人版以及更強大的專業版。

調試功能是WingIDE的一大亮點,包括多線程調試,線程代碼調試,自動子進程調試,斷點,單步代碼調試,代碼數據檢查等功能,此外還提供了在樹莓派上進行遠程調試的功能。

5.Spyder Python

SpyderPython是一個開源的python集成開發環境,非常適合用來進行科學計算方面的python開發。是一個輕量級的軟體,是用python開發的,遵循MIT協議,可免費使用。

Spyder python的基本功能包括多語言編輯器、互動式控制台、文件查看、variable explorer、文件查找、文件管理等。SpyderIDE也可以運行於windows、Mac或者Linux系統之上。

6.Komodo IDE

Komodo是Activestate公司開發的一個跨平台的集成開發環境,支持多種語言包括python。它是商用產品,但是提供了開源的免費版本叫KomodoEdit,能夠安裝在Mac、Windows和Linux系統上。

和大多數的專業pythonIDE一樣,Komodo也提供了代碼重構,自動補全,調用提示,括弧匹配,代碼瀏覽器,代碼跳轉,圖形化調試,多進程調試,多線程調試,斷點,代碼分析,集成測試單元等功能,並且集成其他的第三方庫,比如pyWin32。

7.PTVS-Best Python IDE for Windows

PTVS集成在Visual Studio中,就像Pydev可以集成在eclipse中一樣。PTVS將Visual
Studio變成了一個強大的、功能豐富的python集成開發環境,並且它是開源的,完全的免費。PTVS發布於2015年,由社區和微軟自己在維護。

8.Eric Python

Eric是一個開源python代碼編輯器和集成開發環境,提供很多高效編程需要的功能。它是純python編寫的,基於QtGUI並集成強大的Scintilla編輯器功能。

Eric由DetlevOffenbach創建,遵循GPL協議,免費使用。經過多年的開發完善Eric已經成為一個常用的、功能豐富的集成開發環境。它提供一個可靠的插件管理系統,可以通過插件來擴展功能。

Eric提供所有的基礎功能,比如調用提示、代碼折疊、代碼高亮、類瀏覽器、代碼覆蓋及分析等等。

9.Sublime Text3

Sublime Text3是目前為止功能最強大的跨平台的、輕量級的代碼編輯器。通過添加插件Sublime Text3可以成一個全功能的pythonIDE。

10.Emacs-Python Editor cum IDE

Emacs有屬於它自己的生態系統,它是一個可擴展的並能高度定製的GNU文本編輯器。它可以配置為一個全功能的免費的python集成開發環境。

Emacs在python開發中很受歡迎,他通過python-mode提供開箱即用的python。Emacs可以通過額外的擴展包來增加更多的高級功能。

⑷ 如何在OSX系統上安裝Opencv3和Python2.7

setp1

安裝CodeX,不解釋,在AppStop中搜索安裝即可

setp2

安裝Homebrew

Homebrew即MacOSX上的apt-get

按照官網的安裝方式,在terminal中輸入下列命令即可完成安裝

cd ~
ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"

setp3

使用Homebrew安裝Python,注意:避免使用系統Python解釋器作為我們自己的主解析器,尤其是在使用virtualenv和virtualenvwrapper的時候。安裝命令:

$ brew install python

注意安裝結束後會有下列提示,提示我們把/usr/local/opt/python/libexec/bin增加到環境變數中,此舉正是為了我們在使用python時,使用的是用Homebrew安裝的python而不是系統python。

If you wish to have this formula's python executable in your PATH then add

the following to ~/.bash_profile:

export PATH="/usr/local/opt/python/libexec/bin:$PATH"

這是重要的一步,請不要跳過。

setp4

安裝 virtualenv 和 virtualenvwrapper

這兩個工具是為了創建獨立的python環境,不了解的朋友請自行Google

值得注意的是,這兩個工具對於搭建opencv3.0+python2.7運行環境來說不是必須的,但是強烈建議安裝,以保證python環境的干凈,易於管理。

安裝只需執行命令:

$ pip install virtualenv virtualenvwrapper

安裝完成後,在~/.bash_profile文件中追加如下內容:

# Virtualenv/VirtualenvWrapper
source /usr/local/bin/virtualenvwrapper.sh

然後執行命令:

$ source ~/.bash_profile

至此,virtualenv 和virtualenvwrapper已經正確完成安裝。我們可以使用如下命令創建一個獨立的python環境:

$ mkvirtualenv cv

setp5

我們開始安裝一些必須的python包,安裝NumPy

We need to install NumPy since the OpenCV Python bindings represent images as multi-dimensional NumPy arrays

安裝方式:

$ pip install numpy

注意:如果你使用了step4中的virtualenv創建python虛擬環境,則需要在您之前創建的虛擬環境中安裝需要的python包

step6

之前的步驟,主要目的是建立和配置編譯安裝OpenCv的環境,從這一步開始,我們開始真正的工作。

首先,我們使用brew安裝需要的開發者工具,例如CMake。

$ brew install cmake pkg-config

還有一些必要的圖像I/O包,這些包可以使我們能夠載入各種不同類型的圖像文件例如JPEG,PNG,TIFF等。

$ brew install jpeg libpng libtiff openexr

And finally, let』s install libraries that are used to optimize various operations within OpenCV (if we so choose):

$ brew install eigen tbb

setp7

恭喜,截止目前系統已經搭建完成,我們開始著手編譯和安裝python支持的opencv。下載代碼:

$ cd ~
$ git clone https://github.com/Itseez/opencv.git
$ cd opencv
$ git checkout 3.0.0

最後一個命令$ git checkout 3.0.0其中的3.0.0可以替換成你需要的版本號

之後下載opencv_contrib代碼,這部分不是必須的,但是強烈建議同時下載,原因是opencv_contrib包含很多有用的功能,包括:

feature detection, local invariant descriptors (SIFT, SURF, etc.), text detection in natural images, line descriptors, and more

$ cd ~
$ git clone https://github.com/Itseez/opencv_contrib
$ cd opencv_contrib
$ git checkout 3.0.0

請確保checkout opencv_contrib的版本號要與上面checkout opencv的版本號相同

step8

創建一個bulid目錄:

$ cd ~/opencv
$ mkdir build
$ cd build

使用CMake配置我們的構建:

$ cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local \
-D PYTHON2_PACKAGES_PATH=~/.virtualenvs/cv/lib/python2.7/site-packages \
-D PYTHON2_LIBRARY=/usr/local/Cellar/python/2.7.13_1/Frameworks/Python.framework/Versions/2.7/bin \
-D PYTHON2_INCLUDE_DIR=/usr/local/Frameworks/Python.framework/Headers \
-D INSTALL_C_EXAMPLES=ON -D INSTALL_PYTHON_EXAMPLES=ON \
-D BUILD_EXAMPLES=ON \
-D OPENCV_EXTRA_MODULES_PATH=~/opencv_contrib/moles ..

注意:在執行上述命令之前,請務必切換到之前建立的虛擬python環境cv:

workon cv

cmake命令執行完成後,需要關注它的總結輸出,尤其是其中的Opencv moles部分:

-- OpenCV moles:
-- To be built: core flann imgproc ml objdetect photo video dnn imgcodecs shape videoio highgui superres ts features2d calib3d stitching videostab python2
-- Disabled: world
-- Disabled by dependency: -
-- Unavailable: cudaarithm cudabgsegm cudacodec cudafeatures2d cudafilters cudaimgproc cudalegacy cubjdetect cuptflow cudastereo cudawarping cudev java python3 viz

-- Python 2:
-- Interpreter: /Users/zhuangyuan/.virtualenvs/cv/bin/python2.7 (ver 2.7.13)
-- Libraries: /usr/local/Cellar/python/2.7.13_1/Frameworks/Python.framework/Versions/2.7/bin (ver 2.7.13)
-- numpy: /Users/zhuangyuan/.virtualenvs/cv/lib/python2.7/site-packages/numpy/core/include (ver 1.13.1)
-- packages path: /Users/zhuangyuan/.virtualenvs/cv/lib/python2.7/site-packages

如果python2部分的信息不完整,或者python2沒有出現在OpenCV moles的To be built:後面,而是出現在Unvailable:後面,則說明Cmake沒有正確完成,需要檢查此步驟中Cmake命令的參數中的路徑是否正確已經是否確實切換到了我們為opencv建立的虛擬python環境中。

再次提醒,此步驟中參數路徑必須仔細核對,如果錯誤,後續的編譯將無法成功

這時候可以開始編譯了:

$ make -j4

這里的4是利用4核CPU全速並行編譯,也可以不帶-j4參數,或者把4修改成你的CPU核心數

編譯完成後,進行安裝:

make install

如果有錯誤,加上sudo再執行:

sudo make install

setp9

檢查一下~/.virtualenvs/cv/lib/python2.7/site-packages/路徑下可以看到cv2.so就說明安裝成功了:

$ cd ~/.virtualenvs/cv/lib/python2.7/site-packages/
$ ls -l cv2.so
-rwxr-xr-x 1 adrian staff 2013052 Jun 5 15:20 cv2.so

用一下吧:

(cv) promote:lib zhuangyuan$ python
Python 2.7.13 (default, Jul 18 2017, 09:17:00)
[GCC 4.2.1 Compatible Apple LLVM 8.1.0 (clang-802.0.42)] on darwin
Type "help", "right", "credits" or "license" for more information.
>>> import cv2
>>> cv2.__version__
'3.3.0'

恭喜,OSX系統下opencv3 with python2.7環境搭建成功。

⑸ python for mac2.7.3中 build applet如何使用

沒有試驗過。只是給你一個猜想。
applet是一種運行方式。另外有一種OSX方式運行python腳本。我想build applet應該不是用來執行python的。可能是轉換用的。

我去找個mac虛擬機映像,下載後,安裝試一下。
====
折騰了一天,終於下載了個別人安裝好的image,用vmwareplayer非商業版本啟動。似乎不太行。還在試驗。
------
安裝上了。的確有一個build applet選項。也的確py文件是灰色的。打開幫助後,找到了build applet的功能。它是用於將script變成一個本地獨立件的工具。我試驗了一下。

它需要打開的是一個目錄。但是直接打開又不成。做一個軟鏈接就可以了。比如建立一個test目錄。然後把你的腳本放在裡面。可能還需要其它的配置,比如__init__.py或者是其它等等。你可以看一下py2app這個文檔的幫助。

ln -s建立軟鏈接到這個目錄上。然後就可以用build applet打開這個軟鏈接了。

另外還需要一個setup.py放在子目錄里

#setup.py
from setuptools import setup
import sys
if sys.platform == 'darwin':
setup(
app = ["xxx.py"],
setup_requires=["py2app"],
)

⑹ 如何配置appium環境python

appium是什麼?

1,appium是開源的移動端自動化測試框架;
2,appium可以測試原生的、混合的、以及移動端的web項目;
3,appium可以測試ios,android應用(當然了,還有firefox os);
4,appium是跨平台的,可以用在osx,windows以及linux桌面系統上;

這里我們配置Android端的測試環境。

對於Android移動端的測試我們首先需要安裝的是兩個:

1、JDK的安裝,這個就不贅述了,自行網路
2、Android SDK的安裝配置

一、安裝node.js

1、到官網下載node.js:

2、獲取到安裝文件後,直接雙擊安裝文件,根據程序的提示,完成nodejs的安裝。

3、安裝完成後,運行cmd,輸入node –v,如果安裝成功,會輸出如下版本信息:

五、安裝selenium

安裝方法有兩種:
1)下載selenium安裝包,進入到解壓目錄cmd:python setup.py install。
2)cmd命令:pip install selenium

安裝成功後打開python的shell或者IDEL界面 ,輸入from selenium import webdriver 如果不報錯那就說明已經安裝selenium成功了。

六、安裝Appium-Python-Client

安裝方法有兩種:

1)下載安裝包,進入到解壓目錄cmd:python setup.py install。
2)cmd命令:pip install Appium-Python-Client

至此appium的python環境完成。

熱點內容
微信如何設置訪問限制 發布:2025-02-01 10:43:06 瀏覽:335
b站緩存視頻下架還有嗎 發布:2025-02-01 10:37:52 瀏覽:940
e卡通初始密碼是多少 發布:2025-02-01 10:31:55 瀏覽:127
phppost上傳文件 發布:2025-02-01 10:26:42 瀏覽:105
伺服器不能寫入ip地址 發布:2025-02-01 10:18:56 瀏覽:129
青驕如何重置賬號密碼 發布:2025-02-01 09:57:51 瀏覽:520
阿里雲伺服器鏡像市場 發布:2025-02-01 09:46:04 瀏覽:525
任子行伺服器管理口默認地址 發布:2025-02-01 09:42:58 瀏覽:996
設備作為FTP客戶端時 發布:2025-02-01 09:35:07 瀏覽:936
安卓如何登錄ios明日之後 發布:2025-02-01 09:31:59 瀏覽:306