当前位置:首页 » 编程语言 » pythonforosx

pythonforosx

发布时间: 2025-02-01 08:43:50

⑴ mac怎么安装python2.7

Mac OSX 正确地同时安装Python 2.7 和Python3

ABOUT 6 MINUTES TO READ/11/29/2015/CANDY TSAI/0 COMMENTS

Python3出来了(其实已经出来很久了,晕)!

但是还是有很多library还是使用Python2.7,所以要怎么在Mac里面同时装这两个版本,并且和系统所使用的Python区分开来呢?今天要写的是如何第一次就正确安装好,并且切换预设版本,不在误用系统的Python。

主要就这几个步骤而已,不会太困难的(或许有些你本来就装好了)

Step 1 安装Xcode

Step 2 安装套件管理工具Homebrew

Step 3 安装Pytho

Step 4 设定路径$PATH(不跟系统Python 打架)

Step 5 完成啰!确认安装结果~

Step 1 安装Xcode

可以到App Store搜寻Xcode并安装安装好了之后就把Xcode打开~第一次开启的时候会需要同意他的License Agreement之类的东西。然后到terminal输入来安装Xcode command line tool:

这时,再打一次

echo$PATH

为什么没有变!?

因为要开一个新的terminal才会更新唷!

开新式窗后再输入一次就会看到我们刚刚修改的结果了。

Step 5 完成啰!确认安装结果~

这样就完成啰!

其实python3本身比较不会跟其他人打架

因为他就是独立的python3

所以我们主要是要确认是不是读到我们用brew装的pytho

whichpytho

这时候看到

/usr/local/bin/pytho

再来看看python3 吧

whichpython3

应该会是

/usr/local/bin/python3

就代表读到刚刚装好的python啰!

当然如果你要跑系统本身的pytho

(应该是用不到啦~)

就输入

/usr/bin/pytho

总之就是…大功告成啰!

⑵ python爬图片最多可以下载多少张(利用Python批量爬取网页图片)

导读:本篇文章首席CTO笔记来给大家介绍有关python爬图片最多可以下载多少张的相关内容,希望对大家有所帮助,一起来看看吧。

python:爬图并下载到本地指定文件夹

(爬图片简易版)

环境:python3IDLE

(ps:其他网站注意图片懒加载与分页等问题)

python多线程作用

总结起来,使用多线程编程具有如下几个优点:

进程之间不能共享内存,但线程之间共享内存非常容易。

操作系统在创建进程时,需要为该进程重新分配系统资源,但创建线程的代价则小得多。因此,使用多线程来实现多任务并发执行比使用多进程的效率高。

Python语言内置了多线程功能支持,而不是单纯地作为底层操作系统的调度方式,从而简化了Python的多线程编程。

在实际应用中,多线程是非常有用的。比如一个浏览器必须能同时下载多张图片;一个Web服务器必须能同时响应多个用户请求;图形用户界面(GUI)应用也需要启动单独的线程,从主机环境中收集用户界面事件……总之,多线程在实际编程中的应用是非常广泛的。

怎样用python爬新浪微博大V所有数据

我是个微博重度用户,工作学习之余喜欢刷刷timeline看看有什么新鲜事发生,也因此认识了不少高质量的原创大V,有分享技术资料的,比如好东西传送门;有时不时给你一点人生经验的,比如石康;有高产的段子手,比如银教授;有黄图黄段子小能手,比如阿良哥哥?木木萝希木?初犬饼…

好吧,我承认,爬黄图黄段子才是我的真实目的,前三个是掩人耳目的…(捂脸,跑开)

另外说点题外话,我一开始想使用SinaWeiboAPI来获取微博内容,但后来发现新浪微博的API限制实在太多,大家感受一下:

只能获取当前授权的用户(就是自己),而且只能返回最新的5条,WTF!

所以果断放弃掉这条路,改为‘生爬’,因为PC端的微博是Ajax的动态加载,爬取起来有些困难,我果断知难而退,改为对移动端的微博进行爬取,因为移动端的微博可以通过分页爬取的方式来一次性爬取所有微博内容,这样工作就简化了不少。

最后实现的功能:

输入要爬取的微博用户的user_id,获得该用户的所有微博

文字内容保存到以%user_id命名文本文件中,所有高清原图保存在weibo_image文件夹中

具体操作:

首先我们要获得自己的cookie,这里只说chrome的获取方法。

用chrome打开新浪微博移动端

option+command+i调出开发者工具

点开Network,将Preservelog选项选中

输入账号密码,登录新浪微博

找到m.weibo.cn-Headers-Cookie,把cookie复制到代码中的#yourcookie处

cookie

然后再获取你想爬取的用户的user_id,这个我不用多说啥了吧,点开用户主页,地址栏里面那个号码就是user_id

将python代码保存到weibo_spider.py文件中

定位到当前目录下后,命令行执行pythonweibo_spider.pyuser_id

当然如果你忘记在后面加user_id,执行的时候命令行也会提示你输入

最后执行结束

iTerm

小问题:在我的测试中,有的时候会出现图片下载失败的问题,具体原因还不是很清楚,可能是网速问题,因为我宿舍的网速实在太不稳定了,当然也有可能是别的问题,所以在程序根目录下面,我还生成了一个userid_imageurls的文本文件,里面存储了爬取的所有图片的下载链接,如果出现大片的图片下载失败,可以将该链接群一股脑导进迅雷等下载工具进行下载。

另外,我的系统是OSXEICapitan10.11.2,Python的版本是2.7,依赖库用sudopipinstallXXXX就可以安装,具体配置问题可以自行stackoverflow,这里就不展开讲了。

下面我就给出实现代码(严肃脸)

Python

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

??

#-*-coding:utf8-*-

importre

importstring

importsys

importos

importurllib

importurllib2

frombs4importBeautifulSoup

importrequests

fromlxmlimportetree

reload(sys)

sys.setdefaultencoding('utf-8')

if(len(sys.argv)=2):

user_id=(int)(sys.argv[1])

else:

user_id=(int)(raw_input(u"请输入user_id:"))

cookie={"Cookie":"#yourcookie"}

url='d?filter=1page=1'%user_id

html=requests.get(url,cookies=cookie).content

selector=etree.HTML(html)

pageNum=(int)(selector.xpath('//input[@name="mp"]')[0].attrib['value'])

result=""

urllist_set=set()

word_count=1

image_count=1

printu'爬虫准备就绪...'

forpageinrange(1,pageNum+1):

#获取lxml页面

url='hu/%d?filter=1page=%d'%(user_id,page)

lxml=requests.get(url,cookies=cookie).content

#文字爬取

selector=etree.HTML(lxml)

content=selector.xpath('//span[@class="ctt"]')

foreachincontent:

text=each.xpath('string(.)')

ifword_count=4:

text="%d:"%(word_count-3)+text+" "

else:

text=text+" "

result=result+text

word_count+=1

#图片爬取

soup=BeautifulSoup(lxml,"lxml")

urllist=soup.find_all('a',href=re.compile(r'^mblog/oripic',re.I))

first=0

forimgurlinurllist:

urllist_set.add(requests.get(imgurl['href'],cookies=cookie).url)

image_count+=1

fo=open("/Users/Personals/%s"%user_id,"wb")

fo.write(result)

word_path=os.getcwd()+'/%d'%user_id

printu'文字微博爬取完毕'

link=""

fo2=open("/Users/Personals/%s_imageurls"%user_id,"wb")

foreachlinkinurllist_set:

link=link+eachlink+" "

fo2.write(link)

printu'图片链接爬取完毕'

ifnoturllist_set:

printu'该页面中不存在图片'

else:

#下载图片,保存在当前目录的pythonimg文件夹下

image_path=os.getcwd()+'/weibo_image'

ifos.path.exists(image_path)isFalse:

os.mkdir(image_path)

x=1

forimgurlinurllist_set:

temp=image_path+'/%s.jpg'%x

printu'正在下载第%s张图片'%x

try:

urllib.urlretrieve(urllib2.urlopen(imgurl).geturl(),temp)

except:

printu"该图片下载失败:%s"%imgurl

x+=1

printu'原创微博爬取完毕,共%d条,保存路径%s'%(word_count-4,word_path)

printu'微博图片爬取完毕,共%d张,保存路径%s'%(image_count-1,image_path)

??

Python3.xx中写爬虫,下载图片除了urlretrieve方法,还有什么库的什么方法呢?

Part1.urllib2

urllib2是Python标准库提供的与网络相关的库,是写爬虫最常用的一个库之一。

想要使用Python打开一个网址,最简单的操作即是:

your_url=""html=urllib2.urlopen(your_url).read()12

这样所获得的就是对应网址(url)的html内容了。

但有的时候这么做还不够,因为目前很多的网站都有反爬虫机制,对于这么初级的代码,是很容易分辨出来的。例如本文所要下载图片的网站,上述代码会返回HTTPError:HTTPError403:Forbidden错误。

那么,在这种情况下,下载网络图片的爬虫(虽然只有几行代码,但一个也可以叫做爬虫了吧,笑),就需要进一步的伪装。

要让爬虫伪装成浏览器访问指定的网站的话,就需要加入消息头信息。所谓的消息头信息就是在浏览器向网络服务器发送请求时一并发送的请求头(RequestHeaders)信息和服务器返回的响应头(ResponseHeaders)信息。

例如,使用FireFox打开时所发送的RequestHeaders的部分内容如下:

Host:"publicdomainarchive.com/"User-Agent:"Mozilla/5.0(WindowsNT10.0;WOW64;rv:50.0)Gecko/20100101Firefox/50.0"Accept:"text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8"...1234

还有一些其他属性,但其中伪装成浏览器最重要的部分已经列出来了,即User-Agent信息。

要使用Headers信息,就不能再仅仅向urlopen方法中传入一个地址了,而是需要将HTTPRequest的Headers封装后传入:

headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:50.0)Gecko/20100101Firefox/50.0'}req=urllib2.Request(url=url,headers=headers)content=urllib2.urlopen(req).read()123

这样,就获得了网站的html内容。

接下来,就需要从html去获取图片的链接。

Part2.HTMLParser

HTMLParser是Python提供的HTML解析库之一。

但Python提供的这个类中很多方法都没有实现,因而基本上这个库只负责进行解析,但解析完了什么都不做。所以如果需要对HTML中的某些元素进行加工的话,就需要用户自己去实现其中的一些方法。本文仅实现其中的handle_starttag方法:

classMyHTMLParser(HTMLParser):#继承HTMLParser类

def__init__(self):#初始化

HTMLParser.__init__(self)defhandle_starttag(self,tag,attrs):

#参数tag即由HTMLParser解析出的开始标签,attrs为该标签的属性

iftag=="img":#下载图片所需要的img标签

iflen(attrs)==0:pass

else:for(variable,value)inattrs:#在attrs中找到src属性,并确定其是我们所要下载的图片,最后将图片下载下来(这个方法当然也有其他的写法)

ifvariable=="src"andvalue[0:4]=='http'andvalue.find('x')=0:

pic_name=value.split('/')[-1]printpic_name

down_image(value,pic_name)123456789101112131415

Part3.下载图片

从handle_starttag方法中,我们已经获得了图片的url,那么,最后一步,我们要下载图片了。

当然,要获得网络上的图片,自然也需要向服务器发送请求,一样需要用到urllib2这个库,也需要用到上面所用到的请求头。

以下是down_image()方法的主要代码:

binary_data=urllib2.urlopen(req).read()

temp_file=open(file_name,'wb')

temp_file.write(binary_data)

temp_file.close()1234

因为这次打开的网址是个图片,所以urllib2.urlopen(req).read()所获取的就是图片的数据,将这些数据需要以二进制的方式写入本地的图片文件,即将图片下载下来了。

因为图片的url的最后一部分是图片的名字,所以可以直接用做本地的文件名,不用担心命名冲突,也不用担心后缀不符,很是方便。

Part4.getFreeImages.py

这个下载图片的脚本的完整代码如下:

importurllib2,

classMyHTMLParser(HTMLParser):

def__init__(self):

HTMLParser.__init__(self)#self.links={}

defhandle_starttag(self,tag,attrs):

#print"Encounteredthebeginningofa%stag"%tag

iftag=="img":iflen(attrs)==0:pass

else:for(variable,value)inattrs:ifvariable=="src"andvalue[0:4]=='http'andvalue.find('x')=0:

pic_name=value.split('/')[-1]printpic_name

down_image(value,pic_name)defdown_image(url,file_name):

globalheaders

req=urllib2.Request(url=url,headers=headers)

binary_data=urllib2.urlopen(req).read()

temp_file=open(file_name,'wb')

temp_file.write(binary_data)

temp_file.close()if__name__=="__main__":

img_dir="D:\Downloads\domainimages"

ifnotos.path.isdir(img_dir):

os.mkdir(img_dir)

os.chdir(img_dir)printos.getcwd()

url=""

headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64;rv:50.0)Gecko/20100101Firefox/50.0'}

all_links=[]

hp=MyHTMLParser()foriinrange(1,30):

url=''+str(i)+'/'

req=urllib2.Request(url=url,headers=headers)

content=urllib2.urlopen(req).read()

hp.feed(content)

hp.close()041424344454647484950

有大神知道怎么使用python往ftp服务器上连续上传下载多张图片吗?

例:下载、上传文件

#?coding:?utf-8

from?ftplib?import?FTP

import?time

import?tarfile

import?os

#?!/usr/bin/python

#?-*-?coding:?utf-8?-*-

from?ftplib?import?FTP

def?ftpconnect(host,?username,?password):

????ftp?=?FTP()

????#?

????(host,?21)

????(username,?password)

????return?ftp

#从ftp下载文件

def?downloadfile(ftp,?remotepath,?localpath):

????bufsize?=?1024

????fp?=?open(localpath,?'wb')

????('RETR?'?+?remotepath,?fp.write,?bufsize)

????

????fp.close()

#从本地上传文件到ftp

def?uploadfile(ftp,?remotepath,?localpath):

????bufsize?=?1024

????fp?=?open(localpath,?'rb')

????('STOR?'?+?remotepath,?fp,?bufsize)

????

????fp.close()

if?__name__?==?"__main__":

????ftp?=?ftpconnect("113.105.139.xxx",?"ftp***",?"Guest***")

????downloadfile(ftp,?"Faint.mp4",?"C:/Users/Administrator/Desktop/test.mp4")

????#调用本地播放器播放下载的视频

????os.system('start?"C:Program?FilesWindows?Media?Playerwmplayer.exe"?"C:/Users/Administrator/Desktop/test.mp4"')

????uploadfile(ftp,?"C:/Users/Administrator/Desktop/test.mp4",?"test.mp4")

????

Python爬虫爬坑路(二)——B站图片,咸鱼的正确GET姿势

昨天在写完入门级爬虫之后,马上就迫不及待的着手开始写B站的图片爬虫了,真的很喜欢这个破站呢(? ̄△ ̄)?

这里不涉及到Python爬虫的高级技

⑶ python 集成开发环境哪个好

1. Pydev+Eclipse–最好的免费python IDE

Pydev的是PythonIDE中使用最普遍的,原因很简单,它是免费的,同时还提供很多强大的功能来支持高效的Python编程。Pydev是一个运行在eclipse上的开源插件,它把python带进了eclipse的王国,如果你本来就是是一个eclipse的用户那么Pydev将给你家里一样的感觉。

Pydev能高居榜首,得益于这些关键功能,包括Django集成、自动代码补全、多语言支持、集成的Python调试、代码分析、代码模板、智能缩进、括号匹配、错误标记、源代码控制集成、代码折叠、UML编辑和查看和单元测试整合等。

2. PyCharm–最好的商业python IDE

PyCharm是专业的python集成开发环境,有两个版本。一个是免费的社区版本,另一个是面向企业开发者的更先进的专业版本。

大部分的功能在免费版本中都是可用的,包括智能代码补全、直观的项目导航、错误检查和修复、遵循PEP8规范的代码质量检查、智能重构,图形化的调试器和运行器。它还能与IPython
notebook进行集成,并支持Anaconda及其他的科学计算包,比如matplotlib和NumPy。

PyCharm专业版本支持更多高级的功能,比如远程开发功能、数据库支持以及对web开发框架的支持等。

3.VIM

VIM是一个很先进的文本编辑器,在python开发者社区中很受欢迎。它是一个开源软件并遵循GPL协议,所以你可以免费的使用它。

虽然VIM是最好的文本编辑器,但是它提供的功能不亚于此,经过正确的配置后它可以成为一个全功能的Python开发环境。此外VIM还是一个轻量级的、模块化、快速响应的工具,非常适合那些很牛的程序员—编程从不用鼠标的人。

4. Wing IDE

Wing IDE是另外一个商业的、面向专业开发人员的python集成开发环境,可以运行在windows、OSX和linux系统上,支持最新版本的python,包括stackless Python。Wing
IDE分三个版本:免费的基础版,个人版以及更强大的专业版。

调试功能是WingIDE的一大亮点,包括多线程调试,线程代码调试,自动子进程调试,断点,单步代码调试,代码数据检查等功能,此外还提供了在树莓派上进行远程调试的功能。

5.Spyder Python

SpyderPython是一个开源的python集成开发环境,非常适合用来进行科学计算方面的python开发。是一个轻量级的软件,是用python开发的,遵循MIT协议,可免费使用。

Spyder python的基本功能包括多语言编辑器、交互式控制台、文件查看、variable explorer、文件查找、文件管理等。SpyderIDE也可以运行于windows、Mac或者Linux系统之上。

6.Komodo IDE

Komodo是Activestate公司开发的一个跨平台的集成开发环境,支持多种语言包括python。它是商用产品,但是提供了开源的免费版本叫KomodoEdit,能够安装在Mac、Windows和Linux系统上。

和大多数的专业pythonIDE一样,Komodo也提供了代码重构,自动补全,调用提示,括号匹配,代码浏览器,代码跳转,图形化调试,多进程调试,多线程调试,断点,代码分析,集成测试单元等功能,并且集成其他的第三方库,比如pyWin32。

7.PTVS-Best Python IDE for Windows

PTVS集成在Visual Studio中,就像Pydev可以集成在eclipse中一样。PTVS将Visual
Studio变成了一个强大的、功能丰富的python集成开发环境,并且它是开源的,完全的免费。PTVS发布于2015年,由社区和微软自己在维护。

8.Eric Python

Eric是一个开源python代码编辑器和集成开发环境,提供很多高效编程需要的功能。它是纯python编写的,基于QtGUI并集成强大的Scintilla编辑器功能。

Eric由DetlevOffenbach创建,遵循GPL协议,免费使用。经过多年的开发完善Eric已经成为一个常用的、功能丰富的集成开发环境。它提供一个可靠的插件管理系统,可以通过插件来扩展功能。

Eric提供所有的基础功能,比如调用提示、代码折叠、代码高亮、类浏览器、代码覆盖及分析等等。

9.Sublime Text3

Sublime Text3是目前为止功能最强大的跨平台的、轻量级的代码编辑器。通过添加插件Sublime Text3可以成一个全功能的pythonIDE。

10.Emacs-Python Editor cum IDE

Emacs有属于它自己的生态系统,它是一个可扩展的并能高度定制的GNU文本编辑器。它可以配置为一个全功能的免费的python集成开发环境。

Emacs在python开发中很受欢迎,他通过python-mode提供开箱即用的python。Emacs可以通过额外的扩展包来增加更多的高级功能。

⑷ 如何在OSX系统上安装Opencv3和Python2.7

setp1

安装CodeX,不解释,在AppStop中搜索安装即可

setp2

安装Homebrew

Homebrew即MacOSX上的apt-get

按照官网的安装方式,在terminal中输入下列命令即可完成安装

cd ~
ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"

setp3

使用Homebrew安装Python,注意:避免使用系统Python解释器作为我们自己的主解析器,尤其是在使用virtualenv和virtualenvwrapper的时候。安装命令:

$ brew install python

注意安装结束后会有下列提示,提示我们把/usr/local/opt/python/libexec/bin增加到环境变量中,此举正是为了我们在使用python时,使用的是用Homebrew安装的python而不是系统python。

If you wish to have this formula's python executable in your PATH then add

the following to ~/.bash_profile:

export PATH="/usr/local/opt/python/libexec/bin:$PATH"

这是重要的一步,请不要跳过。

setp4

安装 virtualenv 和 virtualenvwrapper

这两个工具是为了创建独立的python环境,不了解的朋友请自行Google

值得注意的是,这两个工具对于搭建opencv3.0+python2.7运行环境来说不是必须的,但是强烈建议安装,以保证python环境的干净,易于管理。

安装只需执行命令:

$ pip install virtualenv virtualenvwrapper

安装完成后,在~/.bash_profile文件中追加如下内容:

# Virtualenv/VirtualenvWrapper
source /usr/local/bin/virtualenvwrapper.sh

然后执行命令:

$ source ~/.bash_profile

至此,virtualenv 和virtualenvwrapper已经正确完成安装。我们可以使用如下命令创建一个独立的python环境:

$ mkvirtualenv cv

setp5

我们开始安装一些必须的python包,安装NumPy

We need to install NumPy since the OpenCV Python bindings represent images as multi-dimensional NumPy arrays

安装方式:

$ pip install numpy

注意:如果你使用了step4中的virtualenv创建python虚拟环境,则需要在您之前创建的虚拟环境中安装需要的python包

step6

之前的步骤,主要目的是建立和配置编译安装OpenCv的环境,从这一步开始,我们开始真正的工作。

首先,我们使用brew安装需要的开发者工具,例如CMake。

$ brew install cmake pkg-config

还有一些必要的图像I/O包,这些包可以使我们能够加载各种不同类型的图像文件例如JPEG,PNG,TIFF等。

$ brew install jpeg libpng libtiff openexr

And finally, let’s install libraries that are used to optimize various operations within OpenCV (if we so choose):

$ brew install eigen tbb

setp7

恭喜,截止目前系统已经搭建完成,我们开始着手编译和安装python支持的opencv。下载代码:

$ cd ~
$ git clone https://github.com/Itseez/opencv.git
$ cd opencv
$ git checkout 3.0.0

最后一个命令$ git checkout 3.0.0其中的3.0.0可以替换成你需要的版本号

之后下载opencv_contrib代码,这部分不是必须的,但是强烈建议同时下载,原因是opencv_contrib包含很多有用的功能,包括:

feature detection, local invariant descriptors (SIFT, SURF, etc.), text detection in natural images, line descriptors, and more

$ cd ~
$ git clone https://github.com/Itseez/opencv_contrib
$ cd opencv_contrib
$ git checkout 3.0.0

请确保checkout opencv_contrib的版本号要与上面checkout opencv的版本号相同

step8

创建一个bulid目录:

$ cd ~/opencv
$ mkdir build
$ cd build

使用CMake配置我们的构建:

$ cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local \
-D PYTHON2_PACKAGES_PATH=~/.virtualenvs/cv/lib/python2.7/site-packages \
-D PYTHON2_LIBRARY=/usr/local/Cellar/python/2.7.13_1/Frameworks/Python.framework/Versions/2.7/bin \
-D PYTHON2_INCLUDE_DIR=/usr/local/Frameworks/Python.framework/Headers \
-D INSTALL_C_EXAMPLES=ON -D INSTALL_PYTHON_EXAMPLES=ON \
-D BUILD_EXAMPLES=ON \
-D OPENCV_EXTRA_MODULES_PATH=~/opencv_contrib/moles ..

注意:在执行上述命令之前,请务必切换到之前建立的虚拟python环境cv:

workon cv

cmake命令执行完成后,需要关注它的总结输出,尤其是其中的Opencv moles部分:

-- OpenCV moles:
-- To be built: core flann imgproc ml objdetect photo video dnn imgcodecs shape videoio highgui superres ts features2d calib3d stitching videostab python2
-- Disabled: world
-- Disabled by dependency: -
-- Unavailable: cudaarithm cudabgsegm cudacodec cudafeatures2d cudafilters cudaimgproc cudalegacy cubjdetect cuptflow cudastereo cudawarping cudev java python3 viz

-- Python 2:
-- Interpreter: /Users/zhuangyuan/.virtualenvs/cv/bin/python2.7 (ver 2.7.13)
-- Libraries: /usr/local/Cellar/python/2.7.13_1/Frameworks/Python.framework/Versions/2.7/bin (ver 2.7.13)
-- numpy: /Users/zhuangyuan/.virtualenvs/cv/lib/python2.7/site-packages/numpy/core/include (ver 1.13.1)
-- packages path: /Users/zhuangyuan/.virtualenvs/cv/lib/python2.7/site-packages

如果python2部分的信息不完整,或者python2没有出现在OpenCV moles的To be built:后面,而是出现在Unvailable:后面,则说明Cmake没有正确完成,需要检查此步骤中Cmake命令的参数中的路径是否正确已经是否确实切换到了我们为opencv建立的虚拟python环境中。

再次提醒,此步骤中参数路径必须仔细核对,如果错误,后续的编译将无法成功

这时候可以开始编译了:

$ make -j4

这里的4是利用4核CPU全速并行编译,也可以不带-j4参数,或者把4修改成你的CPU核心数

编译完成后,进行安装:

make install

如果有错误,加上sudo再执行:

sudo make install

setp9

检查一下~/.virtualenvs/cv/lib/python2.7/site-packages/路径下可以看到cv2.so就说明安装成功了:

$ cd ~/.virtualenvs/cv/lib/python2.7/site-packages/
$ ls -l cv2.so
-rwxr-xr-x 1 adrian staff 2013052 Jun 5 15:20 cv2.so

用一下吧:

(cv) promote:lib zhuangyuan$ python
Python 2.7.13 (default, Jul 18 2017, 09:17:00)
[GCC 4.2.1 Compatible Apple LLVM 8.1.0 (clang-802.0.42)] on darwin
Type "help", "right", "credits" or "license" for more information.
>>> import cv2
>>> cv2.__version__
'3.3.0'

恭喜,OSX系统下opencv3 with python2.7环境搭建成功。

⑸ python for mac2.7.3中 build applet如何使用

没有试验过。只是给你一个猜想。
applet是一种运行方式。另外有一种OSX方式运行python脚本。我想build applet应该不是用来执行python的。可能是转换用的。

我去找个mac虚拟机映像,下载后,安装试一下。
====
折腾了一天,终于下载了个别人安装好的image,用vmwareplayer非商业版本启动。似乎不太行。还在试验。
------
安装上了。的确有一个build applet选项。也的确py文件是灰色的。打开帮助后,找到了build applet的功能。它是用于将script变成一个本地独立件的工具。我试验了一下。

它需要打开的是一个目录。但是直接打开又不成。做一个软链接就可以了。比如建立一个test目录。然后把你的脚本放在里面。可能还需要其它的配置,比如__init__.py或者是其它等等。你可以看一下py2app这个文档的帮助。

ln -s建立软链接到这个目录上。然后就可以用build applet打开这个软链接了。

另外还需要一个setup.py放在子目录里

#setup.py
from setuptools import setup
import sys
if sys.platform == 'darwin':
setup(
app = ["xxx.py"],
setup_requires=["py2app"],
)

⑹ 如何配置appium环境python

appium是什么?

1,appium是开源的移动端自动化测试框架;
2,appium可以测试原生的、混合的、以及移动端的web项目;
3,appium可以测试ios,android应用(当然了,还有firefox os);
4,appium是跨平台的,可以用在osx,windows以及linux桌面系统上;

这里我们配置Android端的测试环境。

对于Android移动端的测试我们首先需要安装的是两个:

1、JDK的安装,这个就不赘述了,自行网络
2、Android SDK的安装配置

一、安装node.js

1、到官网下载node.js:

2、获取到安装文件后,直接双击安装文件,根据程序的提示,完成nodejs的安装。

3、安装完成后,运行cmd,输入node –v,如果安装成功,会输出如下版本信息:

五、安装selenium

安装方法有两种:
1)下载selenium安装包,进入到解压目录cmd:python setup.py install。
2)cmd命令:pip install selenium

安装成功后打开python的shell或者IDEL界面 ,输入from selenium import webdriver 如果不报错那就说明已经安装selenium成功了。

六、安装Appium-Python-Client

安装方法有两种:

1)下载安装包,进入到解压目录cmd:python setup.py install。
2)cmd命令:pip install Appium-Python-Client

至此appium的python环境完成。

热点内容
微信如何设置访问限制 发布:2025-02-01 10:43:06 浏览:335
b站缓存视频下架还有吗 发布:2025-02-01 10:37:52 浏览:940
e卡通初始密码是多少 发布:2025-02-01 10:31:55 浏览:127
phppost上传文件 发布:2025-02-01 10:26:42 浏览:105
服务器不能写入ip地址 发布:2025-02-01 10:18:56 浏览:129
青骄如何重置账号密码 发布:2025-02-01 09:57:51 浏览:520
阿里云服务器镜像市场 发布:2025-02-01 09:46:04 浏览:525
任子行服务器管理口默认地址 发布:2025-02-01 09:42:58 浏览:996
设备作为FTP客户端时 发布:2025-02-01 09:35:07 浏览:936
安卓如何登录ios明日之后 发布:2025-02-01 09:31:59 浏览:306