rabbitmqpython
Ⅰ 請教python與java之間rpc通信,rabbitmq相關
JSON 簡單粗暴
msgPack格式, 支持廣泛, 類似 JSON , 但是效率更高
Thrift 全家桶, 爽爽爽
protobuf + gRpc
以我個人偏好, 推薦Thrift, 該做好的都做好了, 讓你專注在代碼邏輯上
顯然, 正常人是不會用pickle的, 這種格式只能在Python的世界才能玩得轉( 而且還有版本兼容問題 ). 然而現在一個稍微大點的項目, 幾種語言開發真的太常見了( 標配 ), pickle 哪有用武之地( 也就當個玩具耍耍 )
Ⅱ 在linux下安裝rabbitmq失敗怎麼解決
RabbitMQ 是由 LShift 提供的一個 Advanced Message Queuing Protocol (AMQP) 的開源實現,由以高性能、健壯以及可伸縮性出名的 Erlang 寫成,因此也是繼承了這些優點。
AMQP 里主要要說兩個組件:Exchange 和 Queue (在 AMQP 1.0 里還會有變動),如下圖所示,綠色的 X 就是 Exchange ,紅色的是 Queue ,這兩者都在 Server 端,又稱作 Broker ,這部分是 RabbitMQ 實現的,而藍色的則是客戶端,通常有 Procer 和 Consumer 兩種類型:
1:mq的安裝需要Erlang,所以首先下載Erlang,下載地址:http://www.erlang.org/download.html直接下載源碼,編譯安裝即可。
將下載好的tar包解壓編譯安裝,如下命令:
tar -zxvf otp_src_R16B03-1.tar.gz
cd otp_src_R16B03-1
./configure && make install
安裝過程中可能出現如下錯誤:
configure:error:
No curses library functions found
configure: error:/bin/sh'/home/niewf/software/erlang_R13B01/erts/configure'
failed for erts
解決方法:
yum list|grep ncurses
yum -y install ncurses-devel
yum install ncurses-devel
或者直接下載ncurses包編譯安裝。
下載地址:http://download.chinaunix.net/download/0008000/7242.shtml
tar zxvf ncurses.tar.gz #解壓縮並且釋放 文件包
cd ncurses #進入解壓縮的目錄(注意版本)
./configure #按照你的系統環境製作安裝配置文件
make #編譯源代碼並且編譯NCURSES庫
su root #切換到root用戶環境
make install #安裝編譯好的NCURSES庫
完成後繼續返回上一步操作。
2:安裝python,如果系統中python版本低於2.5的話需要升級python到2.6以上,具體可參考:http://gavinshaw.blog.51cto.com/385947/610585
3:安裝simplejson,直接下載simplejson源碼包編譯安裝即可,下載地址:https://pypi.python.org/pypi/simplejson/。
下載simplejson源碼包後,運行python setup.py install即可完成安裝。
4:安裝rabbit mq,下載地址:https://www.rabbitmq.com/install-generic-unix.html
下載後放入相應目錄解壓,進入%RABBITMQ_HOME%/sbin目錄下運行:./rabbitmq-server start即可啟動mq。
如果遇到如下錯誤,則參考http://leeon.me/a/rabbitmq-start-fail-note解決方案
ERROR: epmd error for host "xxx": address (cannot connect to host/port)
到此mq已經安裝完成。
在%RABBITMQ_HOME%/sbin目錄運行./rabbitmqctl status可查看當前mq狀態。
同時mq也提供了界面查看當前mq狀態,但是需要啟用該插件功能,運行如下命令:
rabbitmq-plugins enable rabbitmq_management,然後在瀏覽器中輸入:http://host-name:15672/#/即可訪問,頁面結果如下:
Ⅲ python怎麼實現rabbitmq的confirm模式
一、通過Python模擬收發消息
1、在各個節點上安裝epel源
# yum install epel* -y11
2、安裝python庫
# yum --enablerepo=epel -y install python2-pika11
3、在rabbitmq-server節點上
1)、創建用戶
# rabbitmqctl add_user wuyeliang password 11
2)、創建虛擬主機
# rabbitmqctl add_vhost /my_vhost11
3)、賦予許可權
# rabbitmqctl set_permissions -p /my_vhost wuyeliang ".*" ".*" ".*" 11
4、在rabbitmq節點上模擬發消息,代碼如下
# vi send_msg.py
#!/usr/bin/env python
import pika
credentials = pika.PlainCredentials('wuyeliang', 'password') #注意用戶名及密碼
connection = pika.BlockingConnection(pika.ConnectionParameters(
'localhost',
5672,
'/my_vhost',
credentials))
channel = connection.channel()
channel.queue_declare(queue='Hello_World')
channel.basic_publish(exchange='',
routing_key='Hello_World',
body='Hello RabbitMQ World!')
print(" [x] Sent 'Hello_World'")
connection.close()
4、在client節點上模擬收消息,代碼如下
# vi receive_msg.py
#!/usr/bin/env python
import signal
import pika
signal.signal(signal.SIGPIPE, signal.SIG_DFL)
signal.signal(signal.SIGINT, signal.SIG_DFL)
credentials = pika.PlainCredentials('wuyeliang', 'password')
connection = pika.BlockingConnection(pika.ConnectionParameters(
'dlp.srv.world',
5672,
'/my_vhost',
credentials))
channel = connection.channel()
channel.queue_declare(queue='Hello_World')
def callback(ch, method, properties, body):
print(" [x] Received %r" % body)
channel.basic_consume(callback,
queue='Hello_World',
no_ack=True)
print(' [*] Waiting for messages. To exit press CTRL+C')
channel.start_consuming()
Ⅳ python rabbitmq 怎麼發送文件
原創: 失敗原因可能有如下:1、主機與郵件伺服器網路不通;2、郵件發送賬號密碼未設置或者設置不正確;3、python語法不正確 解決辦法:1、主機與郵件伺服器網路不通:需要保證主機可以正常訪問外網,這樣就可以訪問到郵件伺服器了。
Ⅳ python相關,librabbitmq可以用pypy嗎
rabbitmq的python綁定其實是用c語言寫的主體,然後python調用,使用pypy加速其實多此一舉的。
_librabbitmq在python目錄肯定是.pyd文件,如果一定想使用pypy,可以切換到rabbitmq源碼目錄,試試pypy setup.py install 是否可以把c源代碼編譯成pypy的二進制擴展,如果報錯就是不支持了,你可以學習怎麼寫pypy的c擴展
Ⅵ rabb.it有哪些用戶值得關注
關於RabbitMQ的文章網上轉來轉去最多的是一篇<<[RabbitMQ+Python入門經典] 兔子和兔子窩>>(隨便給個鏈接了).這篇文章的講解是很風趣,很適合用來理解一些基礎概念.理解了概念以後就要進行一些實際性的實驗了.原文給的python的例子.不是筆者想要的,筆者要用php的.
關於php和rabbitmq網上又有一篇被轉來轉去的文章<<安裝 php-rabbit: RabbitMQ 的 PHP 擴展>>.文章里提到的php-rabbit,筆者死活是訪問不了:
讓幾個不同地方的哥們幫著訪問下載,都下載不了,推斷可能是這個項目被刪除了.問一個哥們兒,說他們那用的是php-amqp.從官方下的庫竟然不好使.於是死皮懶臉的管哥們要了他們正在用的版本和示例,又鑒於網上 php-amqp版本的rabbit操作細節甚少(可以說沒有么?),於是有了今天這份兒總結.
測試平台:
Distributor ID: Ubuntu
Description: Ubuntu 9.10
Release: 9.10
Codename: karmic
既然是ubuntu,安裝rabbitmq服務端是很easy的事情,一條命令搞定:
apt-get install rabbitmq-server
接下來的就是折騰了將近兩天的心得體會了.
1.必需掌握的指令
添加用戶:
rabbitmqctl add_user rainbird password
添加許可權:
rabbitmqctl set_permissions -p "/" rainbird ".*" ".*" ".*"
刪除測試用戶:
rabbitmqctl delete_user guest
所有指令列表(很簡單的英文):
add_user <UserName> <Password>
delete_user <UserName>
change_password <UserName> <NewPassword>
list_users
add_vhost <VHostPath>
delete_vhost <VHostPath>
list_vhosts
set_permissions [-p <VHostPath>] <UserName> <Regexp> <Regexp> <Regexp>
clear_permissions [-p <VHostPath>] <UserName>
list_permissions [-p <VHostPath>]
list_user_permissions <UserName>
list_queues [-p <VHostPath>] [<QueueInfoItem> ...]
list_exchanges [-p <VHostPath>] [<ExchangeInfoItem> ...]
list_bindings [-p <VHostPath>]
list_connections [<ConnectionInfoItem> ...]
2.vhost / 不能刪除
刪除/以後,新建立的vhost不能正常使用(即便不刪除/,新建立的vhost也是不能正常使用).不知道為什麼,有待研究.
3.關於持久化
示例里沒有一點兒和持久化相關的東東,而這卻是筆者最關心的,想想作為消息伺服器如果不能保證消息一定被接收到,算什麼事兒啊?比著網上狂轉的python版本從php-amqp的庫里一點一點兒翻,找到了如下持久化的設置:
接收端聲明隊列和交換機自動建立:
$ch->queue_declare($_QUEUE,false,true,false,false);
第三個參數設置true保證伺服器重啟後,自動建立隊列
第五個參數設置成false防止接收端沒連接的時候丟失消息
$ch->exchange_declare($EXCHANGE, 'direct', false, true, false);
第四個參數設置true保證重啟後,自動建立交換機
第五個參數設置false防止接收端斷開後,交換機被刪除
發布端聲明消息持久:
$message = new AMQPMessage(serialize($object), array('content_type' => 'text/plain', 'delivery_mode' => 2));
同時滿足了上面三個條件,就可以保證未接收的消息在伺服器意外重啟以後依然存在了.
4.持久化的後遺症
比如說你初始化了一個隊列msgs.你會發現它真的持久了!每次伺服器端重啟後,通過list_queues命令查看的時候都存在.但是時間久了,這個msgs我們並不需要了,怎麼辦呢?筆者發現,想清除這個隊列只能刪除它所在的vhost,然後再重建vhost,再設置vhost的許可權.
rabbitmqctl delete_vhost /
rabbitmqctl add_vhost /
rabbitmqctl set_permissions -p / rainbird '.*' '.*' '.*'
要注意,如果這個操作過程中有接收端處於連接狀態它們不會自動斷開,但也不會再收到消息,需要手動重新連接一下.
5.關於修改監聽ip和監聽埠
出於一些需要,比如我們有多個ip,我們希望rabbitmq僅運行在指定的ip上.或者考慮到安全問題,我們希望修改一下rabbitmq的監聽埠.默認安裝完成以後,在/etc下面會有一個rabbitmq的空目錄,這時候我們需要手工創建rabbitmq.conf,並寫入相關內容.
vi /etc/rabbitmq/rabbitmq.conf
RABBITMQ_NODE_IP_ADDRESS=0.0.0.0
RABBITMQ_NODE_PORT=2222
保存以後重啟服務就生效了.
這個東東網上又沒介紹,翻了半天+無限嘗試才搞出來.
6.關於運行接收端cpu100%問題
第一眼看到接收端會運行一個while等待消息的時候,筆者就知道這個進程肯定cpu佔用會100%.在代碼里幾處while嘗試添加usleep無效後,筆者最後還是在官方的問題列表裡找到了答案:
vi +286 amqp_wire.inc
293 while ($read < $n && (false !== ($buf = fread($this->sock, $n - $read))))
294 {
295 usleep(50000);
296 $read += strlen($buf);
297 $res .= $buf;
298 }
筆者的出發點是對的,只是沒找對while.可能有人會奇怪為什麼要用usleep(50000)呢?實際上筆者有遇到運行php起來的daemon導致cpu100%的情況.當時筆者加的是usleep(500000)也就是半秒鍾.這樣就可以使進程看上去cpu佔用為0.沒想到再降一個數量級也是可以正常的,這次算賺到了.
7.學到了error_log函數
以前有見過這個函數,以為是向系統日誌里寫log的時候才用得到呢,沒想到還可以像下面這樣用:
function debug_msg($s)
{
//error_log($s);
}
在不同的地方寫上debug_msg,最後不用的時候時候,直接注釋掉error_log,不錯的小技巧!
暫時就摸索出來這么多東西了,准備拿幾個不重要的任務跑跑穩定性試試.
Ⅶ python中怎麼使用rabbitmq的ttl
RabbitMQ可以當做一個消息代理,它的核心原理非常簡單:即接收和發送消息,可以把它想像成一個郵局:我們把信件放入郵箱,郵遞員就會把信件投遞到你的收件人處,RabbitMQ就是一個郵箱、郵局、投遞員功能綜合體,整個過程就是:郵箱接收信件,郵局轉發信件,投遞員投遞信件到達收件人處。
RabbitMQ和郵局的主要區別就是RabbitMQ接收、存儲和發送的是二進制數據----消息。
rabbitmq基本管理命令:
一步啟動Erlang node和Rabbit應用:sudo rabbitmq-server
在後台啟動Rabbit node:sudo rabbitmq-server -detached
關閉整個節點(包括應用):sudo rabbitmqctl stop
add_user <UserName> <Password>
delete_user <UserName>
change_password <UserName> <NewPassword>
list_users
add_vhost <VHostPath>
delete_vhost <VHostPath>
list_vhosts
set_permissions [-p <VHostPath>] <UserName> <Regexp> <Regexp> <Regexp>
clear_permissions [-p <VHostPath>] <UserName>
list_permissions [-p <VHostPath>]
list_user_permissions <UserName>
list_queues [-p <VHostPath>] [<QueueInfoItem> ...]
list_exchanges [-p <VHostPath>] [<ExchangeInfoItem> ...]
list_bindings [-p <VHostPath>]
list_connections [<ConnectionInfoItem> ...]
Demo:
procer.py
#!/usr/bin/env python
# -*- coding: utf_ -*-
import pika
import sys
#創建連接connection到localhost
con = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
#創建虛擬連接channel
cha = con.channel()
#創建隊列anheng,rable參數為真時,隊列將持久化;exclusive為真時,建立臨時隊列
result=cha.queue_declare(queue='anheng',rable=True,exclusive=False)
#創建名為yanfa,類型為fanout的exchange,其他類型還有direct和topic,如果指定rable為真,exchange將持久化
cha.exchange_declare(rable=False,
exchange='yanfa',
type='direct',)
#綁定exchange和queue,result.method.queue獲取的是隊列名稱
cha.queue_bind(exchange='yanfa',
queue=result.method.queue,
routing_key='',)
#公平分發,使每個consumer在同一時間最多處理一個message,收到ack前,不會分配新的message
cha.basic_qos(prefetch_count=)
#發送信息到隊列『anheng'
message = ' '.join(sys.argv[:])
#消息持久化指定delivery_mode=;
cha.basic_publish(exchange='',
routing_key='anheng',
body=message,
properties=pika.BasicProperties(
delivery_mode = ,
))
print '[x] Sent %r' % (message,)
#關閉連接
con.close()
consumer.py
#!/usr/bin/env python
# -*- coding: utf_ -*-
import pika
#建立連接connection到localhost
con = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
#創建虛擬連接channel
cha = con.channel()
#創建隊列anheng
result=cha.queue_declare(queue='anheng',rable=True)
#創建名為yanfa,類型為fanout的交換機,其他類型還有direct和topic
cha.exchange_declare(rable=False,
exchange='yanfa',
type='direct',)
#綁定exchange和queue,result.method.queue獲取的是隊列名稱
cha.queue_bind(exchange='yanfa',
queue=result.method.queue,
routing_key='',)
#公平分發,使每個consumer在同一時間最多處理一個message,收到ack前,不會分配新的message
cha.basic_qos(prefetch_count=)
print ' [*] Waiting for messages. To exit press CTRL+C'
#定義回調函數
def callback(ch, method, properties, body):
print " [x] Received %r" % (body,)
ch.basic_ack(delivery_tag = method.delivery_tag)
cha.basic_consume(callback,
queue='anheng',
no_ack=False,)
cha.start_consuming()
一、概念:
Connection: 一個TCP的連接。Procer和Consumer都是通過TCP連接到RabbitMQ Server的。程序的起始處就是建立這個TCP連接。
Channels: 虛擬連接。建立在上述的TCP連接中。數據流動都是在Channel中進行的。一般情況是程序起始建立TCP連接,第二步就是建立這個Channel。
二、隊列:
首先建立一個Connection,然後建立Channels,在channel上建立隊列
建立時指定rable參數為真,隊列將持久化;指定exclusive為真,隊列為臨時隊列,關閉consumer後該隊列將不再存在,一般情況下建立臨時隊列並不指定隊列名稱,rabbitmq將隨機起名,通過result.method.queue來獲取隊列名:
result = channel.queue_declare(exclusive=True)
result.method.queue
區別:rable是隊列持久化與否,如果為真,隊列將在rabbitmq服務重啟後仍存在,如果為假,rabbitmq服務重啟前不會消失,與consumer關閉與否無關;
而exclusive是建立臨時隊列,當consumer關閉後,該隊列就會被刪除
三、exchange和bind
Exchange中rable參數指定exchange是否持久化,exchange參數指定exchange名稱,type指定exchange類型。Exchange類型有direct,fanout和topic。
Bind是將exchange與queue進行關聯,exchange參數和queue參數分別指定要進行bind的exchange和queue,routing_key為可選參數。
Exchange的三種模式:
Direct:
任何發送到Direct Exchange的消息都會被轉發到routing_key中指定的Queue
1.一般情況可以使用rabbitMQ自帶的Exchange:」」(該Exchange的名字為空字元串);
2.這種模式下不需要將Exchange進行任何綁定(bind)操作;
3.消息傳遞時需要一個「routing_key」,可以簡單的理解為要發送到的隊列名字;
4.如果vhost中不存在routing_key中指定的隊列名,則該消息會被拋棄。
Demo中雖然聲明了一個exchange='yanfa'和queue='anheng'的bind,但是在後面發送消息時並沒有使用該exchange和bind,而是採用了direct的模式,沒有指定exchange,而是指定了routing_key的名稱為隊列名,消息將發送到指定隊列。
如果一個exchange 聲明為direct,並且bind中指定了routing_key,那麼發送消息時需要同時指明該exchange和routing_key.
Fanout:
任何發送到Fanout Exchange的消息都會被轉發到與該Exchange綁定(Binding)的所有Queue上
1.可以理解為路由表的模式
2.這種模式不需要routing_key
3.這種模式需要提前將Exchange與Queue進行綁定,一個Exchange可以綁定多個Queue,一個Queue可以同多個Exchange進行綁定。
4.如果接受到消息的Exchange沒有與任何Queue綁定,則消息會被拋棄。
Demo中創建了一個將一個exchange和一個queue進行fanout類型的bind.但是發送信息時沒有用到它,如果要用到它,只要在發送消息時指定該exchange的名稱即可,該exchange就會將消息發送到所有和它bind的隊列中。在fanout模式下,指定的routing_key是無效的 。
Topic:
任何發送到Topic Exchange的消息都會被轉發到所有關心routing_key中指定話題的Queue上
1.這種模式較為復雜,簡單來說,就是每個隊列都有其關心的主題,所有的消息都帶有一個「標題」(routing_key),Exchange會將消息轉發到所有關注主題能與routing_key模糊匹配的隊列。
2.這種模式需要routing_key,也許要提前綁定Exchange與Queue。
3.在進行綁定時,要提供一個該隊列關心的主題,如「#.log.#」表示該隊列關心所有涉及log的消息(一個routing_key為」MQ.log.error」的消息會被轉發到該隊列)。
4.「#」表示0個或若干個關鍵字,「*」表示一個關鍵字。如「log.*」能與「log.warn」匹配,無法與「log.warn.timeout」匹配;但是「log.#」能與上述兩者匹配。
5.同樣,如果Exchange沒有發現能夠與routing_key匹配的Queue,則會拋棄此消息。
四、任務分發
1.Rabbitmq的任務是循環分發的,如果開啟兩個consumer,procer發送的信息是輪流發送到兩個consume的。
2.在procer端使用cha.basic_publish()來發送消息,其中body參數就是要發送的消息,properties=pika.BasicProperties(delivery_mode = 2,)啟用消息持久化,可以防止RabbitMQ Server 重啟或者crash引起的數據丟失。
3.在接收端使用cha.basic_consume()無限循環監聽,如果設置no-ack參數為真,每次Consumer接到數據後,而不管是否處理完成,RabbitMQ Server會立即把這個Message標記為完成,然後從queue中刪除了。為了保證數據不被丟失,RabbitMQ支持消息確認機制,即acknowledgments。為了保證數據能被正確處理而不僅僅是被Consumer收到,那麼我們不能採用no-ack。而應該是在處理完數據後發送ack。
在處理數據後發送的ack,就是告訴RabbitMQ數據已經被接收,處理完成,RabbitMQ可以去安全的刪除它了。如果Consumer退出了但是沒有發送ack,那麼RabbitMQ就會把這個Message發送到下一個Consumer。這樣就保證了在Consumer異常退出的情況下數據也不會丟失。
這里並沒有用到超時機制。RabbitMQ僅僅通過Consumer的連接中斷來確認該Message並沒有被正確處理。也就是說,RabbitMQ給了Consumer足夠長的時間來做數據處理。
Demo的callback方法中ch.basic_ack(delivery_tag = method.delivery_tag)告訴rabbitmq消息已經正確處理。如果沒有這條代碼,Consumer退出時,Message會重新分發。然後RabbitMQ會佔用越來越多的內存,由於RabbitMQ會長時間運行,因此這個「內存泄漏」是致命的。去調試這種錯誤,可以通過一下命令列印un-acked Messages:
sudo rabbitmqctl list_queues name messages_ready messages_unacknowledged
4.公平分發:設置cha.basic_qos(prefetch_count=1),這樣RabbitMQ就會使得每個Consumer在同一個時間點最多處理一個Message。換句話說,在接收到該Consumer的ack前,他它不會將新的Message分發給它。
五、注意:
生產者和消費者都應該聲明建立隊列,網上教程上說第二次創建如果參數和第一次不一樣,那麼該操作雖然成功,但是queue的屬性並不會被修改。
可能因為版本問題,在我的測試中如果第二次聲明建立的隊列屬性和第一次不完全相同,將報類似這種錯406, "PRECONDITION_FAILED - parameters for queue 'anheng' in vhost '/' not equivalent"
如果是exchange第二次創建屬性不同,將報這種錯406, "PRECONDITION_FAILED - cannot redeclare exchange 'yanfa' in vhost '/' with different type, rable, internal or autodelete value"
如果第一次聲明建立隊列也出現這個錯誤,說明之前存在名字相同的隊列且本次聲明的某些屬性和之前聲明不同,可通過命令sudo rabbitmqctl list_queues查看當前有哪些隊列。解決方法是聲明建立另一名稱的隊列或刪除原有隊列,如果原有隊列是非持久化的,可通過重啟rabbitmq服務刪除原有隊列,如果原有隊列是持久化的,只能刪除它所在的vhost,然後再重建vhost,再設置vhost的許可權(先確認該vhost中沒有其他有用隊列)。
sudo rabbitmqctl delete_vhost /
sudo rabbitmqctl add_vhost /
sudo rabbitmqctl set_permissions -p / username '.*' '.*' '.*'
以上內容是小編給大家介紹的利用Python學習RabbitMQ消息隊列,希望大家喜歡。
Ⅷ 大型的PHP應用,通常使用什麼應用做消息隊列
一、消息隊列概述
消息隊列中間件是分布式系統中重要的組件,主要解決應用耦合,非同步消息,流量削鋒等問題。實現高性能,高可用,可伸縮和最終一致性架構。是大型分布式系統不可缺少的中間件。
目前在生產環境,使用較多的消息隊列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ等。
二、消息隊列應用場景
以下介紹消息隊列在實際應用中常用的使用場景。非同步處理,應用解耦,流量削鋒和消息通訊四個場景。
2.1非同步處理
場景說明:用戶注冊後,需要發注冊郵件和注冊簡訊。傳統的做法有兩種1.串列的方式;2.並行方式。
(1)串列方式:將注冊信息寫入資料庫成功後,發送注冊郵件,再發送注冊簡訊。以上三個任務全部完成後,返回給客戶端。(架構KKQ:466097527,歡迎加入)
(2)並行方式:將注冊信息寫入資料庫成功後,發送注冊郵件的同時,發送注冊簡訊。以上三個任務完成後,返回給客戶端。與串列的差別是,並行的方式可以提高處理的時間。
假設三個業務節點每個使用50毫秒鍾,不考慮網路等其他開銷,則串列方式的時間是150毫秒,並行的時間可能是100毫秒。
因為CPU在單位時間內處理的請求數是一定的,假設CPU1秒內吞吐量是100次。則串列方式1秒內CPU可處理的請求量是7次(1000/150)。並行方式處理的請求量是10次(1000/100)。
小結:如以上案例描述,傳統的方式系統的性能(並發量,吞吐量,響應時間)會有瓶頸。如何解決這個問題呢?
引入消息隊列,將不是必須的業務邏輯,非同步處理。改造後的架構如下:
按照以上約定,用戶的響應時間相當於是注冊信息寫入資料庫的時間,也就是50毫秒。注冊郵件,發送簡訊寫入消息隊列後,直接返回,因此寫入消息隊列的速度很快,基本可以忽略,因此用戶的響應時間可能是50毫秒。因此架構改變後,系統的吞吐量提高到每秒20 QPS。比串列提高了3倍,比並行提高了兩倍。
2.2應用解耦
場景說明:用戶下單後,訂單系統需要通知庫存系統。傳統的做法是,訂單系統調用庫存系統的介面。如下圖:
傳統模式的缺點:
1) 假如庫存系統無法訪問,則訂單減庫存將失敗,從而導致訂單失敗;
2) 訂單系統與庫存系統耦合;
如何解決以上問題呢?引入應用消息隊列後的方案,如下圖:
訂單系統:用戶下單後,訂單系統完成持久化處理,將消息寫入消息隊列,返回用戶訂單下單成功。
庫存系統:訂閱下單的消息,採用拉/推的方式,獲取下單信息,庫存系統根據下單信息,進行庫存操作。
假如:在下單時庫存系統不能正常使用。也不影響正常下單,因為下單後,訂單系統寫入消息隊列就不再關心其他的後續操作了。實現訂單系統與庫存系統的應用解耦。
2.3流量削鋒
流量削鋒也是消息隊列中的常用場景,一般在秒殺或團搶活動中使用廣泛。
應用場景:秒殺活動,一般會因為流量過大,導致流量暴增,應用掛掉。為解決這個問題,一般需要在應用前端加入消息隊列。
可以控制活動的人數;
可以緩解短時間內高流量壓垮應用;
用戶的請求,伺服器接收後,首先寫入消息隊列。假如消息隊列長度超過最大數量,則直接拋棄用戶請求或跳轉到錯誤頁面;
秒殺業務根據消息隊列中的請求信息,再做後續處理。
2.4日誌處理
日誌處理是指將消息隊列用在日誌處理中,比如Kafka的應用,解決大量日誌傳輸的問題。架構簡化如下:
日誌採集客戶端,負責日誌數據採集,定時寫受寫入Kafka隊列;
Kafka消息隊列,負責日誌數據的接收,存儲和轉發;
日誌處理應用:訂閱並消費kafka隊列中的日誌數據;
以下是新浪kafka日誌處理應用案例:
(1)Kafka:接收用戶日誌的消息隊列。
(2)Logstash:做日誌解析,統一成JSON輸出給Elasticsearch。
(3)Elasticsearch:實時日誌分析服務的核心技術,一個schemaless,實時的數據存儲服務,通過index組織數據,兼具強大的搜索和統計功能。
(4)Kibana:基於Elasticsearch的數據可視化組件,超強的數據可視化能力是眾多公司選擇ELK stack的重要原因。
2.5消息通訊
消息通訊是指,消息隊列一般都內置了高效的通信機制,因此也可以用在純的消息通訊。比如實現點對點消息隊列,或者聊天室等。
點對點通訊:
客戶端A和客戶端B使用同一隊列,進行消息通訊。
聊天室通訊:
客戶端A,客戶端B,客戶端N訂閱同一主題,進行消息發布和接收。實現類似聊天室效果。
以上實際是消息隊列的兩種消息模式,點對點或發布訂閱模式。模型為示意圖,供參考。
三、消息中間件示例
3.1電商系統
消息隊列採用高可用,可持久化的消息中間件。比如Active MQ,Rabbit MQ,Rocket Mq。(1)應用將主幹邏輯處理完成後,寫入消息隊列。消息發送是否成功可以開啟消息的確認模式。(消息隊列返回消息接收成功狀態後,應用再返回,這樣保障消息的完整性)
(2)擴展流程(發簡訊,配送處理)訂閱隊列消息。採用推或拉的方式獲取消息並處理。
(3)消息將應用解耦的同時,帶來了數據一致性問題,可以採用最終一致性方式解決。比如主數據寫入資料庫,擴展應用根據消息隊列,並結合資料庫方式實現基於消息隊列的後續處理。
3.2日誌收集系統
分為Zookeeper注冊中心,日誌收集客戶端,Kafka集群和Storm集群(OtherApp)四部分組成。
Zookeeper注冊中心,提出負載均衡和地址查找服務;
日誌收集客戶端,用於採集應用系統的日誌,並將數據推送到kafka隊列;
四、JMS消息服務
講消息隊列就不得不提JMS 。JMS(Java Message Service,Java消息服務)API是一個消息服務的標准/規范,允許應用程序組件基於JavaEE平台創建、發送、接收和讀取消息。它使分布式通信耦合度更低,消息服務更加可靠以及非同步性。
在EJB架構中,有消息bean可以無縫的與JM消息服務集成。在J2EE架構模式中,有消息服務者模式,用於實現消息與應用直接的解耦。
4.1消息模型
在JMS標准中,有兩種消息模型P2P(Point to Point),Publish/Subscribe(Pub/Sub)。
4.1.1 P2P模式
P2P模式包含三個角色:消息隊列(Queue),發送者(Sender),接收者(Receiver)。每個消息都被發送到一個特定的隊列,接收者從隊列中獲取消息。隊列保留著消息,直到他們被消費或超時。
P2P的特點
每個消息只有一個消費者(Consumer)(即一旦被消費,消息就不再在消息隊列中)
發送者和接收者之間在時間上沒有依賴性,也就是說當發送者發送了消息之後,不管接收者有沒有正在運行,它不會影響到消息被發送到隊列
接收者在成功接收消息之後需向隊列應答成功
如果希望發送的每個消息都會被成功處理的話,那麼需要P2P模式。(架構KKQ:466097527,歡迎加入)
4.1.2 Pub/sub模式
包含三個角色主題(Topic),發布者(Publisher),訂閱者(Subscriber) 。多個發布者將消息發送到Topic,系統將這些消息傳遞給多個訂閱者。
Pub/Sub的特點
每個消息可以有多個消費者
發布者和訂閱者之間有時間上的依賴性。針對某個主題(Topic)的訂閱者,它必須創建一個訂閱者之後,才能消費發布者的消息。
為了消費消息,訂閱者必須保持運行的狀態。
為了緩和這樣嚴格的時間相關性,JMS允許訂閱者創建一個可持久化的訂閱。這樣,即使訂閱者沒有被激活(運行),它也能接收到發布者的消息。
如果希望發送的消息可以不被做任何處理、或者只被一個消息者處理、或者可以被多個消費者處理的話,那麼可以採用Pub/Sub模型。
4.2消息消費
在JMS中,消息的產生和消費都是非同步的。對於消費來說,JMS的消息者可以通過兩種方式來消費消息。
(1)同步
訂閱者或接收者通過receive方法來接收消息,receive方法在接收到消息之前(或超時之前)將一直阻塞;
(2)非同步
訂閱者或接收者可以注冊為一個消息監聽器。當消息到達之後,系統自動調用監聽器的onMessage方法。
JNDI:Java命名和目錄介面,是一種標準的Java命名系統介面。可以在網路上查找和訪問服務。通過指定一個資源名稱,該名稱對應於資料庫或命名服務中的一個記錄,同時返回資源連接建立所必須的信息。
JNDI在JMS中起到查找和訪問發送目標或消息來源的作用。(架構KKQ:466097527,歡迎加入)
4.3JMS編程模型
(1) ConnectionFactory
創建Connection對象的工廠,針對兩種不同的jms消息模型,分別有QueueConnectionFactory和TopicConnectionFactory兩種。可以通過JNDI來查找ConnectionFactory對象。
(2) Destination
Destination的意思是消息生產者的消息發送目標或者說消息消費者的消息來源。對於消息生產者來說,它的Destination是某個隊列(Queue)或某個主題(Topic);對於消息消費者來說,它的Destination也是某個隊列或主題(即消息來源)。
所以,Destination實際上就是兩種類型的對象:Queue、Topic可以通過JNDI來查找Destination。
(3) Connection
Connection表示在客戶端和JMS系統之間建立的鏈接(對TCP/IP socket的包裝)。Connection可以產生一個或多個Session。跟ConnectionFactory一樣,Connection也有兩種類型:QueueConnection和TopicConnection。
(4) Session
Session是操作消息的介面。可以通過session創建生產者、消費者、消息等。Session提供了事務的功能。當需要使用session發送/接收多個消息時,可以將這些發送/接收動作放到一個事務中。同樣,也分QueueSession和TopicSession。
(5) 消息的生產者
消息生產者由Session創建,並用於將消息發送到Destination。同樣,消息生產者分兩種類型:QueueSender和TopicPublisher。可以調用消息生產者的方法(send或publish方法)發送消息。
(6) 消息消費者
消息消費者由Session創建,用於接收被發送到Destination的消息。兩種類型:QueueReceiver和TopicSubscriber。可分別通過session的createReceiver(Queue)或createSubscriber(Topic)來創建。當然,也可以session的creatDurableSubscriber方法來創建持久化的訂閱者。
(7) MessageListener
消息監聽器。如果注冊了消息監聽器,一旦消息到達,將自動調用監聽器的onMessage方法。EJB中的MDB(Message-Driven Bean)就是一種MessageListener。
深入學習JMS對掌握JAVA架構,EJB架構有很好的幫助,消息中間件也是大型分布式系統必須的組件。本次分享主要做全局性介紹,具體的深入需要大家學習,實踐,總結,領會。
五、常用消息隊列
一般商用的容器,比如WebLogic,JBoss,都支持JMS標准,開發上很方便。但免費的比如Tomcat,Jetty等則需要使用第三方的消息中間件。本部分內容介紹常用的消息中間件(Active MQ,Rabbit MQ,Zero MQ,Kafka)以及他們的特點。
5.1 ActiveMQ
ActiveMQ 是Apache出品,最流行的,能力強勁的開源消息匯流排。ActiveMQ 是一個完全支持JMS1.1和J2EE 1.4規范的 JMS Provider實現,盡管JMS規范出台已經是很久的事情了,但是JMS在當今的J2EE應用中間仍然扮演著特殊的地位。
ActiveMQ特性如下:
⒈ 多種語言和協議編寫客戶端。語言: Java,C,C++,C#,Ruby,Perl,Python,PHP。應用協議: OpenWire,Stomp REST,WS Notification,XMPP,AMQP
⒉ 完全支持JMS1.1和J2EE 1.4規范 (持久化,XA消息,事務)
⒊ 對spring的支持,ActiveMQ可以很容易內嵌到使用Spring的系統裡面去,而且也支持Spring2.0的特性
⒋ 通過了常見J2EE伺服器(如 Geronimo,JBoss 4,GlassFish,WebLogic)的測試,其中通過JCA 1.5 resource adaptors的配置,可以讓ActiveMQ可以自動的部署到任何兼容J2EE 1.4 商業伺服器上
⒌ 支持多種傳送協議:in-VM,TCP,SSL,NIO,UDP,JGroups,JXTA
⒍ 支持通過JDBC和journal提供高速的消息持久化
⒎ 從設計上保證了高性能的集群,客戶端-伺服器,點對點
⒏ 支持Ajax
⒐ 支持與Axis的整合
⒑ 可以很容易得調用內嵌JMS provider,進行測試
5.2 RabbitMQ
RabbitMQ是流行的開源消息隊列系統,用erlang語言開發。RabbitMQ是AMQP(高級消息隊列協議)的標准實現。支持多種客戶端,如:Python、Ruby、.NET、Java、JMS、C、PHP、ActionScript、XMPP、STOMP等,支持AJAX,持久化。用於在分布式系統中存儲轉發消息,在易用性、擴展性、高可用性等方面表現不俗。
幾個重要概念:
Broker:簡單來說就是消息隊列伺服器實體。
Exchange:消息交換機,它指定消息按什麼規則,路由到哪個隊列。
Queue:消息隊列載體,每個消息都會被投入到一個或多個隊列。
Binding:綁定,它的作用就是把exchange和queue按照路由規則綁定起來。
Routing Key:路由關鍵字,exchange根據這個關鍵字進行消息投遞。
vhost:虛擬主機,一個broker里可以開設多個vhost,用作不同用戶的許可權分離。
procer:消息生產者,就是投遞消息的程序。
consumer:消息消費者,就是接受消息的程序。
channel:消息通道,在客戶端的每個連接里,可建立多個channel,每個channel代表一個會話任務。
消息隊列的使用過程,如下:
(1)客戶端連接到消息隊列伺服器,打開一個channel。
(2)客戶端聲明一個exchange,並設置相關屬性。
(3)客戶端聲明一個queue,並設置相關屬性。
(4)客戶端使用routing key,在exchange和queue之間建立好綁定關系。
(5)客戶端投遞消息到exchange。
exchange接收到消息後,就根據消息的key和已經設置的binding,進行消息路由,將消息投遞到一個或多個隊列里。
5.3 ZeroMQ
號稱史上最快的消息隊列,它實際類似於Socket的一系列介面,他跟Socket的區別是:普通的socket是端到端的(1:1的關系),而ZMQ卻是可以N:M 的關系,人們對BSD套接字的了解較多的是點對點的連接,點對點連接需要顯式地建立連接、銷毀連接、選擇協議(TCP/UDP)和處理錯誤等,而ZMQ屏蔽了這些細節,讓你的網路編程更為簡單。ZMQ用於node與node間的通信,node可以是主機或者是進程。
引用官方的說法: 「ZMQ(以下ZeroMQ簡稱ZMQ)是一個簡單好用的傳輸層,像框架一樣的一個socket library,他使得Socket編程更加簡單、簡潔和性能更高。是一個消息處理隊列庫,可在多個線程、內核和主機盒之間彈性伸縮。ZMQ的明確目標是「成為標准網路協議棧的一部分,之後進入Linux內核」。現在還未看到它們的成功。但是,它無疑是極具前景的、並且是人們更加需要的「傳統」BSD套接字之上的一 層封裝。ZMQ讓編寫高性能網路應用程序極為簡單和有趣。」
特點是:
高性能,非持久化;
跨平台:支持Linux、Windows、OS X等。
多語言支持; C、C++、Java、.NET、Python等30多種開發語言。
可單獨部署或集成到應用中使用;
可作為Socket通信庫使用。
與RabbitMQ相比,ZMQ並不像是一個傳統意義上的消息隊列伺服器,事實上,它也根本不是一個伺服器,更像一個底層的網路通訊庫,在Socket API之上做了一層封裝,將網路通訊、進程通訊和線程通訊抽象為統一的API介面。支持「Request-Reply 「,」Publisher-Subscriber「,」Parallel Pipeline」三種基本模型和擴展模型。
ZeroMQ高性能設計要點:
1、無鎖的隊列模型
對於跨線程間的交互(用戶端和session)之間的數據交換通道pipe,採用無鎖的隊列演算法CAS;在pipe兩端注冊有非同步事件,在讀或者寫消息到pipe的時,會自動觸發讀寫事件。
2、批量處理的演算法
對於傳統的消息處理,每個消息在發送和接收的時候,都需要系統的調用,這樣對於大量的消息,系統的開銷比較大,zeroMQ對於批量的消息,進行了適應性的優化,可以批量的接收和發送消息。
3、多核下的線程綁定,無須CPU切換
區別於傳統的多線程並發模式,信號量或者臨界區, zeroMQ充分利用多核的優勢,每個核綁定運行一個工作者線程,避免多線程之間的CPU切換開銷。
5.4 Kafka
Kafka是一種高吞吐量的分布式發布訂閱消息系統,它可以處理消費者規模的網站中的所有動作流數據。 這種動作(網頁瀏覽,搜索和其他用戶的行動)是在現代網路上的許多社會功能的一個關鍵因素。 這些數據通常是由於吞吐量的要求而通過處理日誌和日誌聚合來解決。 對於像Hadoop的一樣的日誌數據和離線分析系統,但又要求實時處理的限制,這是一個可行的解決方案。Kafka的目的是通過Hadoop的並行載入機制來統一線上和離線的消息處理,也是為了通過集群機來提供實時的消費。
Kafka是一種高吞吐量的分布式發布訂閱消息系統,有如下特性:
通過O(1)的磁碟數據結構提供消息的持久化,這種結構對於即使數以TB的消息存儲也能夠保持長時間的穩定性能。(文件追加的方式寫入數據,過期的數據定期刪除)
高吞吐量:即使是非常普通的硬體Kafka也可以支持每秒數百萬的消息。
支持通過Kafka伺服器和消費機集群來分區消息。
支持Hadoop並行數據載入。
Kafka相關概念
Broker
Kafka集群包含一個或多個伺服器,這種伺服器被稱為broker[5]
Topic
每條發布到Kafka集群的消息都有一個類別,這個類別被稱為Topic。(物理上不同Topic的消息分開存儲,邏輯上一個Topic的消息雖然保存於一個或多個broker上但用戶只需指定消息的Topic即可生產或消費數據而不必關心數據存於何處)
Partition
Parition是物理上的概念,每個Topic包含一個或多個Partition.
Procer
負責發布消息到Kafka broker
Consumer
消息消費者,向Kafka broker讀取消息的客戶端。
Consumer Group
每個Consumer屬於一個特定的Consumer Group(可為每個Consumer指定group name,若不指定group name則屬於默認的group)。
一般應用在大數據日誌處理或對實時性(少量延遲),可靠性(少量丟數據)要求稍低的場景使用。
Ⅸ 如何利用python查看rabbitmq隊列長度
在linux中,程序的載入,涉及到兩個工具,linker 和loader。Linker主要涉及動態鏈接庫的使用,loader主要涉及軟體的載入。 exec執行一個程序 elf為現在非常流行的可執行文件的格式,它為程序運行劃分了兩個段,一個段是可以執行的代碼段