python獲取訪問伺服器的ip地址
① 如何使用python製作網站伺服器,讓客戶通過網址,訪問我電腦的文件
首先糾正幾個名詞問題.
伺服器是指的硬體,PYthon作為一個編程語言是無法製作硬體的.
網址更確切的說應該是域名服務,網址是一個指向地址,指向的是伺服器的IP地址.
python只能製作網站後台程序,目前已經有現成的py庫可以快速搭建網站服務.如:Django,Flask,Bottle 等框架都可以實現.
通過網址訪問,則需要域名服務,需要從域名服務商購買域名,並將域名解析到,網站伺服器上,通過80埠訪問通過網站程序搭建的網站.
網址從服務商處注冊,是需要一定費用的,可以根據自己的需要在服務商處選擇.
域名是可以自己自定義選擇的,不過一定得是別人沒有注冊過的才行.
伺服器也是需要付費的.
② Python 如何獲取共享文件訪問者ip 地址
在django官方文檔中有一段對request.META的解釋:
HttpRequest.META
A standard Python dictionary containing all available HTTP headers. Available headers depend on the client
and server, but here are some examples:
•CONTENT_LENGTH – The length of the request body (as a string).
•CONTENT_TYPE – The MIME type of the request body.
•HTTP_ACCEPT – Acceptable content types for the response.
•HTTP_ACCEPT_ENCODING – Acceptable encodings for the response.
•HTTP_ACCEPT_LANGUAGE – Acceptable languages for the response.
•HTTP_HOST – The HTTP Host header sent by the client.
•HTTP_REFERER – The referring page, if any.
•HTTP_USER_AGENT – The client』s user-agent string.
•QUERY_STRING – The query string, as a single (unparsed) string.
•REMOTE_ADDR – The IP address of the client.
•REMOTE_HOST – The hostname of the client.
•REMOTE_USER – The user authenticated by the Web server, if any.
•REQUEST_METHOD – A string such as "GET" or "POST".
•SERVER_NAME – The hostname of the server.
•SERVER_PORT – The port of the server (as a string).
With the exception of CONTENT_LENGTH and CONTENT_TYPE, as given above, any HTTP headers in the
request are converted to META keys by converting all characters to uppercase, replacing any hyphens with
underscores and adding an HTTP_ prefix to the name. So, for example, a header called X-Bender would be
mapped to the META key HTTP_X_BENDER.
Note that runserver strips all headers with underscores in the name, so you won』t see them in META. This
prevents header-spoofing based on ambiguity between underscores and dashes both being normalizing to under-
scores in WSGI environment variables. It matches the behavior of Web servers like Nginx and Apache 2.4+.
③ 在python中怎麼匹配IP地址
④ python 怎麼獲取本機的外網ip
>>> import socket
>>> hostname = socket.gethostname()
>>> print hostname
LuciferYang.local
>>> ip = socket.gethostbyname(hostname)
>>> print ip
10.101.8.171
>>> ipList = socket.gethostbyname_ex(hostname)
>>> print ipList
('luciferyang.local', [], ['10.101.8.171'])
理論上,不是伺服器的話不用有直接外網IP到機器,辦公室環境或者家庭環境都是區域網環境,外網IP都在路由器上面
⑤ 兩台機器同時訪問伺服器 從伺服器端如何獲取這兩台機器的ip 使用python語言
import os
os.system('who > who.log')
text = open('who.log').read()
print text
⑥ python:我問一下那個web伺服器所在的web地址要怎麼知道
伺服器的IP地址在伺服器上面查看就行了,
在命令行輸入ipconfig就可以看到自己電腦的IP地址。
如果你是只在自己電腦做測試的話,直接用 127.0.0.1 就可以訪問到自己的電腦。
⑦ python怎樣獲取連接的IP的設備信息
以前是有這樣的工具,它會通過常用協議去刺探設備類型。比如windows的版本,計算機名等。現在不知道還有沒有這樣的工具,搜索一下看。
哦。這個應該相當容易了。因為相機是專業設備。所以通常會有一個控制協議。因為是專業的,所以這個socket應該是加密的。 你只需要連接上後,隨便發一個命令,如果被斷開。很可能就是這個相機了。
另外相機通常都是有MAC地址的。如果你發現它在你預計的MAC地址范圍內,也可以知道是它。 相機是專業抓拍的。通常不會放在互聯網上,應該是區域網。你可以排除區域網上的其它計算機,自然了也就知道哪些是相機了。
這些都不是難題。你首先掃描所有的IP地址。再掃描它們的埠數量。如果埠數量多通常是計算機,如果埠只有1-2個就是專業設備。掃描不到的,應該就是計算機啦。
試試,並不難。
⑧ python中,進行爬蟲抓取怎麼樣能夠使用代理IP
網路數據量越來越大,從網頁中獲取信息變得越來越困難,如何有效地抓取並利用信息,已成為網路爬蟲一個巨大的挑戰。下面IPIDEA為大家講明爬蟲代理IP的使用方法。
1.利用爬蟲腳本每天定時爬取代理網站上的ip,寫入MongoDB或者其他的資料庫中,這張表作為原始表。
2.使用之前需要做一步測試,就是測試這個ip是否有效,方法就是利用curl訪問一個網站查看返回值,需要創建一張新表,循環讀取原始表有效則插入,驗證之後將其從原始表中刪除,驗證的同時能夠利用響應時間來計算這個ip的質量,和最大使用次數,有一個演算法能夠參考一種基於連接代理優化管理的多線程網路爬蟲處理方法。
3.把有效的ip寫入ip代理池的配置文件,重新載入配置文件。
4.讓爬蟲程序去指定的dailiy的服務ip和埠,進行爬取。
⑨ Python中 伺服器端獲取webservice客戶端IP地址
你的什麼伺服器?應該可以直接取到地址的。REMOTE_ADDR, REMOTE_HOST。環境變數。
⑩ 使用Python獲取網頁上出現的所以IP地址,並保存到TXT文檔中,如何做到啊 。。。
假設文本放在在一個文本字元串里html, 如果你沒有獲得只有URL可以這樣
import urllib2, re
html=urllib2.urlibopen(url).read()
ips=re.findall("(?isu)\d+\.\d+\.\d+\.\d+",html)
if ips: open("ips.txt","wb").write("\r\n".join(ips))