當前位置:首頁 » 操作系統 » storm演算法

storm演算法

發布時間: 2022-04-18 11:43:17

❶ hadoop,storm和spark的區別,比較

Spark已經取代Hadoop成為最活躍的開源大數據項目,但是,在選擇大數據框架時,企業不能因此就厚此薄彼
近日,著名大數據專家Bernard Marr在一篇文章中分析了Spark和 Hadoop 的異同
Hadoop和Spark均是大數據框架,都提供了一些執行常見大數據任務的工具,但確切地說,它們所執行的任務並不相同,彼此也並不排斥
雖然在特定的情況下,Spark據稱要比Hadoop快100倍,但它本身沒有一個分布式存儲系統
而分布式存儲是如今許多大數據項目的基礎,它可以將 PB 級的數據集存儲在幾乎無限數量的普通計算機的硬碟上,並提供了良好的可擴展性,只需要隨著數據集的增大增加硬碟
因此,Spark需要一個第三方的分布式存儲,也正是因為這個原因,許多大數據項目都將Spark安裝在Hadoop之上,這樣,Spark的高級分析應用程序就可以使用存儲在HDFS中的數據了
與Hadoop相比,Spark真正的優勢在於速度,Spark的大部分操作都是在內存中,而Hadoop的MapRece系統會在每次操作之後將所有數據寫回到物理存儲介質上,這是為了確保在出現問題時能夠完全恢復,但Spark的彈性分布式數據存儲也能實現這一點
另外,在高級數據處理(如實時流處理、機器學習)方面,Spark的功能要勝過Hadoop
在Bernard看來,這一點連同其速度優勢是Spark越來越受歡迎的真正原因
實時處理意味著可以在數據捕獲的瞬間將其提交給分析型應用程序,並立即獲得反饋
在各種各樣的大數據應用程序中,這種處理的用途越來越多,比如,零售商使用的推薦引擎、製造業中的工業機械性能監控
Spark平台的速度和流數據處理能力也非常適合機器學習演算法,這類演算法可以自我學習和改進,直到找到問題的理想解決方案
這種技術是最先進製造系統(如預測零件何時損壞)和無人駕駛汽車的核心
Spark有自己的機器學習庫MLib,而Hadoop系統則需要藉助第三方機器學習庫,如Apache Mahout
實際上,雖然Spark和Hadoop存在一些功能上的重疊,但它們都不是商業產品,並不存在真正的競爭關系,而通過為這類免費系統提供技術支持贏利的公司往往同時提供兩種服務
例如,Cloudera 就既提供 Spark服務也提供 Hadoop服務,並會根據客戶的需要提供最合適的建議
Bernard認為,雖然Spark發展迅速,但它尚處於起步階段,安全和技術支持基礎設施方還不發達,在他看來,Spark在開源社區活躍度的上升,表明企業用戶正在尋找已存儲數據的創新用法

❷ Storm與Spark,Hadoop相比是否有優勢

Spark由Scala寫成,Spark基於map rece演算法實現的分布式計算,擁有Hadoop MapRece所具有的優點。
storm的優點是全內存計算,因為內存定址速度是硬碟的百萬倍以上,所以storm的速度相比較hadoop非常快。
hadoop是實現了maprece的思想,將數據切片計算來處理大量的離線數據數據。hadoop處理的數據必須是已經存放在hdfs上或者類似hbase的資料庫中,所以hadoop實現的時候是通過移動計算到這些存放數據的機器上來提高效率。

❸ 大數據主要學什麼

大數據分析挖掘與處理、移動開發與架構、軟體開發、雲計算等前沿技術等。

主修課程:面向對象程序設計、Hadoop實用技術、數據挖掘、機器學習、數據統計分析、高等數學、Python編程java編程、資料庫技術、Web開發、linux操作系統、大數據平台搭建及運維、大數據應用開發、可視化設計與開發等。

旨在培養學生系統掌握數據管理及數據挖掘方法,成為具備大數據分析處理、數據倉庫管理、大數據平台綜合部署、大數據平台應用軟體開發和數據產品的可視化展現與分析能力的高級專業大數據技術人才。

(3)storm演算法擴展閱讀:

越來越多的行業對大數據應用持樂觀的態度,大數據或者相關數據分析解決方案的使用在互聯網行業,比如網路、騰訊、淘寶、新浪等公司已經成為標准。而像電信、金融、能源這些傳統行業,越來越多的用戶開始嘗試或者考慮怎麼樣使用大數據解決方案,來提升自己的業務水平。

在「大數據」背景之下,精通「大數據」的專業人才將成為企業最重要的業務角色,「大數據」從業人員薪酬持續增長,人才缺口巨大。

❹ 大數據開發怎麼學習

按照下面五個階段開始學習,循序漸進!
階段一、大數據基礎——java語言基礎方面
(1)Java語言基礎
Java開發介紹、熟悉Eclipse開發工具、Java語言基礎、Java流程式控制制、Java字元串、Java數組與類和對象、數字處理類與核心技術、I/O與反射、多線程、Swing程序與集合類

需要大數據學習教程,關注我主頁有資料
(2) HTML、CSS與JavaScript
PC端網站布局、HTML5+CSS3基礎、WebApp頁面布局、原生JavaScript交互功能開發、Ajax非同步交互、jQuery應用
(3)JavaWeb和資料庫
資料庫、JavaWeb開發核心、JavaWeb開發內幕
階段二、 Linux&Hadoop生態體系
Linux體系、Hadoop離線計算大綱、分布式資料庫Hbase、數據倉庫Hive、數據遷移工具Sqoop、Flume分布式日誌框架
階段三、 分布式計算框架和Spark&Strom生態體系
(1)分布式計算框架
Python編程語言、Scala編程語言、Spark大數據處理、Spark—Streaming大數據處理、Spark—Mlib機器學習、Spark—GraphX 圖計算、實戰一:基於Spark的推薦系統(某一線公司真實項目)、實戰二:新浪網(www.sina.com.cn)
(2)storm技術架構體系
Storm原理與基礎、消息隊列kafka、Redis工具、zookeeper詳解、實戰一:日誌告警系統項目、實戰二:猜你喜歡推薦系統實戰
階段四、 大數據項目實戰(一線公司真實項目)
數據獲取、數據處理、數據分析、數據展現、數據應用
階段五、 大數據分析 —AI(人工智慧)
Data Analyze工作環境准備&數據分析基礎、數據可視化、Python機器學習
1、Python機器學習2、圖像識別&神經網路、自然語言處理&社交網路處理、實戰項目:戶外設備識別分析
以上就是分享的大數據自學課程,祝願每一位小夥伴都能成為真正的大數據技術人才!
學習大數據,就來北京尚學堂,多年的大數據授課經驗,扎實的課程理論助你在大數據方面快人一步。

❺ 以道大數據課程體系都講什麼

大數據技術在如今應用非常廣泛,許多想入行學習大數據培訓的童鞋不知從何學起,從哪兒開始學首先要根據你的基本情況而定,如果你是零基礎的也不需要擔心,先從基礎開始學起就好了,接下來學習基礎java開始、數據結構、關系型資料庫、linux系統操作,夯實基礎之後,再進入大數據的學習,例如:hadoop離線分析、Storm實時計算、spark內存計算的學習,以道教育大數據課程體系可以如下:
第一階段 WEB 開發基礎
HTML基礎
1、Html基本介紹
2、HTML語法規范
3、基本標簽介紹
4、HTML編輯器/文本文檔/WebStrom/elipse
5、HTML元素和屬性
6、基本的HTML元素
6.1 標題
6.2 段落
6.3 樣式和style屬性
6.3 鏈接 a
6.4 圖像 img
6.5 表格 table
6.6 列表 ul/ol/dl
7、 HTML注釋
8、表單介紹
9、Table標簽
10、DIV布局介紹
11、HTML列表詳解
HTML布局和Bootstrap
1、 HTML塊元素(block)和行內元素(inline)
2、使用div實現網頁布局
3、響應式WEB設計(Responsive Web Design)
4、使用bootstrap實現響應式布局
HTML表單元素
1、HTML表單 form
2、HTML表單元素
3、 HTML input的類型 type
4、 Html input的屬性
CSS基礎
1、CSS簡介及基本語法
2、在HTML文檔中使用CSS
3、CSS樣式
4、CSS選擇器
5、盒子模型
6、布局及定位
CSS高級/CSS3
1、尺寸和對齊
2、分類(clear/cursor/display/float/position/visibility)
3、導航欄
4、圖片庫
5、圖片透明
6、媒介類型 @media
7、CSS3
8、CSS3動畫效果
JavaScript基礎
1、JavaScript簡介
2、基本語法規則
3、在HTML文檔中使用JS
4、JS變數
5、JS數據類型
6、JS函數
7、JS運算符
8、流程式控制制
9、JS錯誤和調試
JavaScript對象和作用域
1、數字 Number
2、字元串String
3、日期 Date
4、數組
5、數學 Math
6、DOM對象和事件
7、BOM對象
8、Window對象
9、作用域和作用域鏈
10、JSON
Javascript庫
1、Jquery
2、Prototype
3、Ext Js
Jquery
1、Jquery基本語法
2、Jquery選擇器
3、Jquery事件
4、Jquery選擇器
5、Jquery效果和動畫
6、使用Jquery操作HTML和DOM
7、Jquery遍歷
8、Jquery封裝函數
9、Jquery案例
表單驗證和Jquery Validate
1、用Js對HTML表單進行驗證
2、Jquery Validata基本用法
3、默認校驗規則和提示信息
4、debug和ignore
5、更改錯誤信息顯示位置和樣式
6、全部校驗通過後的執行函數
7、修改驗證觸發方式
8、非同步驗證
9、自定義校驗方法
10、radio 和 checkbox、select 的驗證
Java基礎
1、關於Java
2、Java運行機制
3、第一個Java程序,注釋
4、Javac,Java,Javadoc等命令
5、標識符與關鍵字
6、變數的聲明,初始化與應用
7、變數的作用域
8、變數重名
9、基本數據類型
10、類型轉換與類型提升
11、各種數據類型使用細節
12、轉義序列
13、各種運算符的使用
流程式控制制
1、選擇控制語句if-else
2、選擇控制語句switch-case
3、循環控制語句while
4、循環控制語句do-while
5、循環控制語句for與增強型for
6、break,continue,return
7、循環標簽
8、數組的聲明與初始化
9、數組內存空間分配
10、棧與堆內存
11、二維(多維)數組
12、Arrays類的相關方法
13、main方法命令行參數
面向對象
1、面向對象的基本思想
2、類與對象
3、成員變數與默認值
4、方法的聲明,調用
5、參數傳遞和內存圖
6、方法重載的概念
7、調用原則與重載的優勢
8、構造器聲明與默認構造器
9、構造器重載
10、this關鍵字的使用
11、this調用構造器原則
12、實例變數初始化方式
13、可變參數方法
訪問許可權控制
1、包 package和庫
2、訪問許可權修飾符private/protected/public/包訪問許可權
3、類的訪問許可權
4、抽象類和抽象方法
5、介面和實現
6、解耦
7、Java的多重繼承
8、通過繼承來擴展介面
錯誤和異常處理
1、概念:錯誤和異常
2、基本異常
3、捕獲異常 catch
4、創建自定義異常
5、捕獲所有異常
6、Java標准異常
7、使用finally進行清理
8、異常的限制
9、構造器
10、異常匹配
11、異常使用指南
資料庫基礎(Mysql
資料庫基礎(MySQL)
JDBC
1、Jdbc基本概念
2、使用Jdbc連接資料庫
3、使用Jdbc進行crud操作
4、使用Jdbc進行多表操作
5、Jdbc驅動類型
6、Jdbc異常和批量處理
7、Jdbc儲存過程
Servlet和JSP
1、Servlet簡介
2、Request對象
3、Response對象
4、轉發和重定向
5、使用Servlet完成Crud
6、Session和Coolie簡介
7、ServletContext和Jsp
8、El和Jstl的使用
Ajax
1、什麼是Ajax
2、XMLHttpRequest對象(XHR)
3、XHR請求
4、XHR響應
5、readystate/onreadystatechange
6、Jquery Ajax
7、JSON
8、案例:對用戶名是否可用進行伺服器端校驗
綜合案例
1、項目開發一般流程介紹
2、模塊化和分層
3、DButils
4、QueryRunner
5、ResultSetHandle
6、案例:用戶登錄/注冊,從前端到後端
第二階段 Java SE
訪問許可權和繼承
1、包的聲明與使用
2、import與import static
3、訪問許可權修飾符
4、類的封裝性
5、static(靜態成員變數)
6、final(修飾變數,方法)
7、靜態成員變數初始化方式
8、類的繼承與成員繼承
9、super的使用
10、調用父類構造器
11、方法的重寫與變數隱藏
12、繼承實現多態和類型轉換
13、instanceof
抽象類與介面
1、抽象類
2、抽象方法
3、繼承抽象類
4、抽象類與多態
5、介面的成員
6、靜態方法與默認方法
7、靜態成員類
8、實例成員類
9、局部類
10、匿名類
11、eclipse的使用與調試
12、內部類對外圍類的訪問關系
13、內部類的命名
Lambda表達式與常用類
1、函數式介面
2、Lambda表達式概念
3、Lambda表達式應用場合
4、使用案例
5、方法引用
6、枚舉類型(編譯器的處理)
7、包裝類型(自動拆箱與封箱)
8、String方法
9、常量池機制
10、String講解
11、StringBuilder講解
12、Math,Date使用
13、Calendars使用
異常處理與泛型
1、異常分類
2、try-catch-finally
3、try-with-resources
4、多重捕獲multi-catch
5、throw與throws
6、自定義異常和優勢
7、泛型背景與優勢
8、參數化類型與原生類型
9、類型推斷
10、參數化類型與數組的差異
11、類型通配符
12、自定義泛型類和類型擦出
13、泛型方法重載與重寫
集合
1 、常用數據結構
2 、Collection介面
3 、List與Set介面
4 、SortedSet與NavigableSet
5 、相關介面的實現類
6 、Comparable與Comparator
7、Queue介面
8 、Deque介面
9 、Map介面
10、NavigableMap
11、相關介面的實現類
12、流操作(聚合操作)
13、Collections類的使用
I/O流與反射
1 、File類的使用
2 、位元組流
3 、字元流
4 、緩存
5 、轉換流
6 、數據流
7、對象流
8、類載入,鏈接與初始化
9 、ClassLoader的使用
10、Class類的使用
11、通過反射調用構造器
12、安全管理器
網路編程模型與多線程
1、進程與線程
2、創建線程的方式
3、線程的相關方法
4、線程同步
5、線程死鎖
6、線程協作操作
7、計算機網路(IP與埠)
8、TCP協議與UDP協議
9、URL的相關方法
10、訪問網路資源
11、TCP協議通訊
12、UDP協議通訊
13、廣播
SSM-Spring
1.Spring/Spring MVC
2.創建Spring MVC項目
3.Spring MVC執行流程和參數
SSM-Spring.IOC
1.Spring/Spring MVC
2.創建Spring MVC項目
3.Spring MVC執行流程和參數
SSM-Spring.AOP
1.Spring/Spring MVC
2.創建Spring MVC項目
3.Spring MVC執行流程和參數
SSM-Spring.Mybatis
1.MyBatis簡介
2.MyBatis配置文件
3.用MyBatis完成CRUD
4.ResultMap的使用
5.MyBatis關聯查詢
6.動態SQL
7.MyBatis緩沖
8.MyBatis-Generator
Socket編程
1.網路通信和協議
2.關於Socket
3.Java Socket
4.Socket類型
5.Socket函數
6.WebSocket
7.WebSocket/Spring MVC/WebSocket Ajax
IO/非同步
window對象
全局作用域
窗口關系及框架
窗口位置和大小
打開窗口
間歇調用和超時調用(靈活運用)
系統對話框
location對象
navigator對象
screen對象
history對象
NIO/AIO
1.網路編程模型
2.BIO/NIO/AIO
3.同步阻塞
4.同步非阻塞
5.非同步阻塞
6.非同步非阻塞
7.NIO與AIO基本操作
8.高性能IO設計模式
第三階段 Java 主流框架
MyBatis
1.mybatis框架原理分析
2.mybatis框架入門程序編寫
3.mybatis和hibernate的本質區別和應用場景
4.mybatis開發方法
5.SqlMapConfig配置文件講解
6.輸入映射-pojo包裝類型的定義與實現
7.輸出映射-resultType、resultMap
8.動態sql
9.訂單商品數據模型分析
10.高級映射的使用
11.查詢緩存之一級緩存、二級緩存
12.mybatis與spring整合
13. mybatis逆向工程自動生成代碼
Spring/Spring MVC
1. springmvc架構介紹
2. springmvc入門程序
3. spring與mybatis整合
4. springmvc註解開發—商品修改功能分析
5. springmvc註解開發—RequestMapping註解
6. springmvc註解開發—Controller方法返回值
7. springmvc註解開發—springmvc參數綁定過程分析
8. springmvc註解開發—springmvc參數綁定實例講解
9. springmvc與struts2的區別
10. springmvc異常處理
11. springmvc上傳圖片
12. springmvc實現json交互
13. springmvc對RESTful支持
14. springmvc攔截器
第四階段 關系型資料庫/MySQL/NoSQL
SQL基礎
1.SQL及主流產品
2.MySQL的下載與安裝(sinux/windows)
3.MySql的基本配置/配置文件
4.基本的SQL操作 DDL
5.基本的SQL操作 DML
6.基本的SQL操作 DCL
7.MySQL客戶端工具
8.MySQL幫助文檔
MySQL數據類型和運算符
1 數值類型
2 日期時間類型
3 字元串類型
4 CHAR 和 VARCHAR 類型
5 BINARY 和 VARBINARY 類型
6 ENUM 類型
7 SET 類型
8 算術運算符
9 比較運算符
10 邏輯運算符
11 位運算
12 運算符的優先順序
MySQL函數
1 字元串函數
2 數值函數
3 日期和時間函數
4 流程函數
5 其他常用函數
MySQL存儲引擎
1.MySQL支持的存儲引擎及其特性
2.MyISAM
3.InnoDB
4.選擇合適的存儲引擎
選擇合適的數據類型
1 CHAR 與 VARCHAR
2 TEXT 與 BLOB
3 浮點數與定點數
4 日期類型選擇
字元集
1 字元集概述
2 Unicode字元集
3 漢字及一些常見字元集
4 選擇合適的字元集
5 MySQL 支持的字元集
6 MySQL 字元集的設置 .
索引的設計和使用
1.什麼是索引
2.索引的類型
3.索引的數據結構 BTree B+Tree Hash
4.索引的存儲
5.MySQL索引
6.查看索引的使用情況
7.索引設計原則
視圖/存儲過程/函數/觸發器
1. 什麼是視圖
2. 視圖操作
3. 什麼是存儲過程
4. 存儲過程操作
5. 什麼是函數
6. 函數的相關操作
7. 觸發器
事務控制/鎖
1. 什麼是事務
2. 事務控制
3. 分布式事務
4. 鎖/表鎖/行鎖
5. InnoDB 行鎖爭用
6. InnoDB 的行鎖模式及加鎖方法7
7 InnoDB 行鎖實現方式7
8 間隙鎖(Next-Key 鎖)
9 恢復和復制的需要,對 InnoDB 鎖機制的影響
10 InnoDB 在不同隔離級別下的一致性讀及鎖的差異
11 表鎖
12 死鎖
SQL Mode和安全問題
1. 關於SQL Mode
2. MySQL中的SQL Mode
3. SQL Mode和遷移
4. SQL 注入
5. 開發過程中如何避免SQL注入
SQL優化
1.通過 show status 命令了解各種 SQL 的執行頻率
2. 定位執行效率較低的 SQL 語句
3. 通過 EXPLAIN 分析低效 SQL 的執行計劃
4. 確定問題並採取相應的優化措施
5. 索引問題
6.定期分析表和檢查表
7.定期優化表
8.常用 SQL 的優化
MySQL資料庫對象優化
1. 優化表的數據類型
2 散列化
3 逆規范化
4 使用中間表提高統計查詢速度
5. 影響MySQL性能的重要參數
6. 磁碟I/O對MySQL性能的影響
7. 使用連接池
8. 減少MySQL連接次數
9. MySQL負載均衡
MySQL集群
MySQL管理和維護
MemCache
Redis
在Java項目中使用MemCache和Redis
第五階段:操作系統/Linux、雲架構
Linux安裝與配置
1、安裝Linux至硬碟
2、獲取信息和搜索應用程序
3、進階:修復受損的Grub
4、關於超級用戶root
5、依賴發行版本的系統管理工具
6、關於硬體驅動程序
7、進階:配置Grub
系統管理與目錄管理
1、Shell基本命令
2、使用命令行補全和通配符
3、find命令、locate命令
4、查找特定程序:whereis
5、Linux文件系統的架構
6、移動、復制和刪除
7、文件和目錄的許可權
8、文件類型與輸入輸出
9、vmware介紹與安裝使用
10、網路管理、分區掛載
用戶與用戶組管理
1、軟體包管理
2、磁碟管理
3、高級硬碟管理RAID和LVM
4、進階:備份你的工作和系統
5、用戶與用戶組基礎
6、管理、查看、切換用戶
7、/etc/...文件
8、進程管理
9、linux VI編輯器,awk,cut,grep,sed,find,unique等
Shell編程
1、 SHELL變數
2、傳遞參數
3、數組與運算符
4、SHELL的各類命令
5、SHELL流程式控制制
6、SHELL函數
7、SHELL輸入/輸出重定向
8、SHELL文件包含
伺服器配置
1、系統引導
2、管理守護進程
3、通過xinetd啟動SSH服務
4、配置inetd
5、Tomcat安裝與配置
6、MySql安裝與配置
7、部署項目到Linux
第六階段:Hadoop生態系統
Hadoop基礎
1、大數據概論
2、 Google與Hadoop模塊
3、Hadoop生態系統
4、Hadoop常用項目介紹
5、Hadoop環境安裝配置
6、Hadoop安裝模式
7、Hadoop配置文件
HDFS分布式文件系統
1、認識HDFS及其HDFS架構
2、Hadoop的RPC機制
3、HDFS的HA機制
4、HDFS的Federation機制
5、 Hadoop文件系統的訪問
6、JavaAPI介面與維護HDFS
7、HDFS許可權管理
8、hadoop偽分布式
Hadoop文件I/O詳解
1、Hadoop文件的數據結構
2、 HDFS數據完整性
3、文件序列化
4、Hadoop的Writable類型
5、Hadoop支持的壓縮格式
6、Hadoop中編碼器和解碼器
7、 gzip、LZO和Snappy比較
8、HDFS使用shell+Java API
MapRece工作原理
1、MapRece函數式編程概念
2、 MapRece框架結構
3、MapRece運行原理
4、Shuffle階段和Sort階段
5、任務的執行與作業調度器
6、自定義Hadoop調度器
7、 非同步編程模型
8、YARN架構及其工作流程
MapRece編程
1、WordCount案例分析
2、輸入格式與輸出格式
3、壓縮格式與MapRece優化
4、輔助類與Streaming介面
5、MapRece二次排序
6、MapRece中的Join演算法
7、從MySQL讀寫數據
8、Hadoop系統調優
Hive數據倉庫工具
1、Hive工作原理、類型及特點
2、Hive架構及其文件格式
3、Hive操作及Hive復合類型
4、Hive的JOIN詳解
5、Hive優化策略
6、Hive內置操作符與函數
7、Hive用戶自定義函數介面
8、Hive的許可權控制
Hive深入解讀
1 、安裝部署Sqoop
2、Sqoop數據遷移
3、Sqoop使用案例
4、深入了解資料庫導入
5、導出與事務
6、導出與SequenceFile
7、Azkaban執行工作流
Sqoop與Oozie
1 、安裝部署Sqoop
2、Sqoop數據遷移
3、Sqoop使用案例
4、深入了解資料庫導入
5、導出與事務
6、導出與SequenceFile
7、Azkaban執行工作流
Zookeeper詳解
1、Zookeeper簡介
2、Zookeeper的下載和部署
3、Zookeeper的配置與運行
4、Zookeeper的本地模式實例
5、Zookeeper的數據模型
6、Zookeeper命令行操作範例
7、storm在Zookeeper目錄結構
NoSQL、HBase
1、HBase的特點
2、HBase訪問介面
3、HBase存儲結構與格式
4、HBase設計
5、關鍵演算法和流程
6、HBase安裝
7、HBase的SHELL操作
8、HBase集群搭建
第七階段:Spark生態系統
Spark
1.什麼是Spark
2.Spark大數據處理框架
3.Spark的特點與應用場景
4.Spark SQL原理和實踐
5.Spark Streaming原理和實踐
6.GraphX SparkR入門
7.Spark的監控和調優
Spark部署和運行
1.WordCount准備開發環境
2.MapRece編程介面體系結構
3.MapRece通信協議
4.導入Hadoop的JAR文件
5.MapRece代碼的實現
6.打包、部署和運行
7.打包成JAR文件
Spark程序開發
1、啟動Spark Shell
2、載入text文件
3、RDD操作及其應用
4、RDD緩存
5、構建Eclipse開發環境
6、構建IntelliJ IDEA開發環境
7、創建SparkContext對象
8、編寫編譯並提交應用程序
Spark編程模型
1、RDD特徵與依賴
2、集合(數組)創建RDD
3、存儲創建RDD
4、RDD轉換 執行 控制操作
5、廣播變數
6、累加器
作業執行解析
1、Spark組件
2、RDD視圖與DAG圖
3、基於Standalone模式的Spark架構
4、基於YARN模式的Spark架構
5、作業事件流和調度分析
6、構建應用程序運行時環境
7、應用程序轉換成DAG
Spark SQL與DataFrame
1、Spark SQL架構特性
2、DataFrame和RDD的區別
3、創建操作DataFrame
4、RDD轉化為DataFrame
5、載入保存操作與Hive表
6、Parquet文件JSON數據集
7、分布式的SQL Engine
8、性能調優 數據類型
深入Spark Streaming
1、Spark Streaming工作原理
2、DStream編程模型
3、Input DStream
4、DStream轉換 狀態 輸出
5、優化運行時間及內存使用
6、文件輸入源
7、基於Receiver的輸入源
8、輸出操作
Spark MLlib與機器學習
1、機器學習分類級演算法
2、Spark MLlib庫
3、MLlib數據類型
4、MLlib的演算法庫與實例
5、ML庫主要概念
6、演算法庫與實例
GraphX與SparkR
1、Spark GraphX架構
2、GraphX編程與常用圖演算法
3、GraphX應用場景
4、SparkR的工作原理
5、R語言與其他語言的通信
6、SparkR的運行與應用
7、R的DataFrame操作方法
8、SparkR的DataFrame
Scala編程開發
1、Scala語法基礎
2、idea工具安裝
3、maven工具配置
4、條件結構、循環、高級for循環
5、數組、映射、元組
6、類、樣例類、對象、伴生對象
7、高階函數與函數式編程
Scala進階
1、 柯里化、閉包
2、模式匹配、偏函數
3、類型參數
4、協變與逆變
5、隱式轉換、隱式參數、隱式值
6、Actor機制
7、高級項目案例
Python編程
1、Python編程介紹
2、Python的基本語法
3、Python開發環境搭建
4、Pyhton開發Spark應用程序
第八階段:Storm生態系統
storm簡介與基本知識
1、storm的誕生誕生與成長
2、storm的優勢與應用
3、storm基本知識概念和配置
4、序列化與容錯機制
5、可靠性機制—保證消息處理
6、storm開發環境與生產環境
7、storm拓撲的並行度
8、storm命令行客戶端
Storm拓撲與組件詳解
1、流分組和拓撲運行
2、拓撲的常見模式
3、本地模式與stormsub的對比
4、 使用非jvm語言操作storm
5、hook、組件基本介面
6、基本抽象類
7、事務介面
8、組件之間的相互關系
spout詳解 與bolt詳解
1、spout獲取數據的方式
2、常用的spout
3、學習編寫spout類
4、bolt概述
5、可靠的與不可靠的bolt
6、復合流與復合anchoring
7、 使用其他語言定義bolt
8、學習編寫bolt類
storm安裝與集群搭建
1、storm集群安裝步驟與准備
2、本地模式storm配置命令
3、配置hosts文件、安裝jdk
4、zookeeper集群的搭建
5、部署節點
6、storm集群的搭建
7、zookeeper應用案例
8、Hadoop高可用集群搭建
Kafka
1、Kafka介紹和安裝
2、整合Flume
3、Kafka API
4、Kafka底層實現原理
5、Kafka的消息處理機制
6、數據傳輸的事務定義
7、Kafka的存儲策略
Flume
1、Flume介紹和安裝
2、Flume Source講解
3、Flume Channel講解
4、Flume Sink講解
5、flume部署種類、流配置
6、單一代理、多代理說明
7、flume selector相關配置
Redis
1、Redis介紹和安裝、配置
2、Redis數據類型
3、Redis鍵、字元串、哈希
4、Redis列表與集合
5、Redis事務和腳本
6、Redis數據備份與恢復
7、Redis的SHELL操作

❻ storm到底適用哪些場景,不適用的場景又是什麼

Storm優勢就在於Storm是實時的連續性的分布式的計算框架,一旦運行起來,除非你將它殺掉,否則它一直處理計算或等待計算的狀態.Spark和hadoop都做不到.
當然它們各自都有其應用場景,各有各的優勢.可以配合使用.
下面我轉一份別人的資料,講的很清楚.
Storm與Spark、Hadoop這三種框架,各有各的優點,每個框架都有自己的最佳應用場景。
所以,在不同的應用場景下,應該選擇不同的框架。
Storm是最佳的流式計算框架,Storm由Java和Clojure寫成,Storm的優點是全內存計算,所以它的定位是分布式實時計算系統,按照Storm作者的說法,Storm對於實時計算的意義類似於Hadoop對於批處理的意義。
Storm的適用場景:
1)流數據處理
Storm可以用來處理源源不斷流進來的消息,處理之後將結果寫入到某個存儲中去。
2)分布式RPC。由於Storm的處理組件是分布式的,而且處理延遲極低,所以可以作為一個通用的分布式RPC框架來使用。
SparkSpark是一個基於內存計算的開源集群計算系統,目的是更快速的進行數據分析。Spark由加州伯克利大學AMP實驗室Matei為主的小團隊使用Scala開發開發,類似於Hadoop MapRece的通用並行計算框架,Spark基於Map Rece演算法實現的分布式計算,擁有Hadoop MapRece所具有的優點,但不同於MapRece的是Job中間輸出和結果可以保存在內存中,從而不再需要讀寫HDFS,因此Spark能更好地適用於數據挖掘與機器學習等需要迭代的Map Rece的演算法。
Spark的適用場景:
1)多次操作特定數據集的應用場合
Spark是基於內存的迭代計算框架,適用於需要多次操作特定數據集的應用場合。需要反復操作的次數越多,所需讀取的數據量越大,受益越大,數據量小但是計算密集度較大的場合,受益就相對較小。
2)粗粒度更新狀態的應用
由於RDD的特性,Spark不適用那種非同步細粒度更新狀態的應用,例如Web服務的存儲或者是增量的Web爬蟲和索引。就是對於那種增量修改的應用模型不適合。
總的來說Spark的適用面比較廣泛且比較通用。
Hadoop是實現了MapRece的思想,將數據切片計算來處理大量的離線數據數據。Hadoop處理的數據必須是已經存放在HDFS上或者類似HBase的資料庫中,所以Hadoop實現的時候是通過移動計算到這些存放數據的機器上來提高效率。
Hadoop的適用場景:
1)海量數據的離線分析處理
2)大規模Web信息搜索
3)數據密集型並行計算
簡單來說:
Hadoop適合於離線的批量數據處理適用於對實時性要求極低的場景
Storm適合於實時流數據處理,實時性方面做得極好
Spark是內存分布式計算框架,試圖吞並Hadoop的Map-Rece批處理框架和Storm的流處理框架,但是Spark已經做得很不錯了,批處理方面性能優於Map-Rece,但是流處理目前還是弱於Storm,產品仍在改進之中

❼ 有了spark的streaming,還有必要學習storm嗎

你再把它和hadoop比較快慢。

兩個框架都用於處理大量數據的並行計算。

所以這是把過程傳遞給數據,metaQ、hadoop:Hadoop使用磁碟作為中間交換的介質.容錯性,再小的話hdfs上會一堆小文件),而是比較的吞吐了,在於rece任務通過網路拖過去運算:
1,只需實現一個簡單的Storm通信協議即可,數據直接通過網路導入內存,產生一行就通過一個傳輸系統發給流式計算系統。Storm保證每個消息至少能得到一次完整處理、多份復制等。二者在延時和吞吐上沒太大區別。但是吞吐也低於maprece,可以在處理過程中完全模擬Storm集群,基於流,facebook的puma就是基於hadoop做的流計算系統。而maprece一般需要整個運算結束後將結果批量導入到結果集中,而storm的數據是一直在內存中流轉的,目前典型的處理處理策略,盡管並非完全一樣。類似於MapRece降低了並行批處理復雜性,資料庫,Hadoop可以看作是純凈水.Storm為什麼被稱之為流式計算系統
3;而Storm是用水管、Ruby和Python,這時候,其時延必然比hadoop的通過hdfs傳輸低得多。

storm的網路直傳,比較慢
C. 數據計算(涉及計算中的中間存儲),Storm降低了進行實時處理的復雜性、內存計算.本地模式。讀寫內存比讀寫磁碟速度快n個數量級,除了積極使用內存來避免I#47,Storm之於實時處理。默認支持Clojure;O操作。你可以在Storm之上使用各種編程語言。下面對流計算和批處理系統流程

這個個數據處理流程來說大致可以分三個階段。storm是典型的流計算系統,進行計算時。
3。
以水為例。
3,在資源充足時可以在毫秒級別完成.水平擴展,Spark基於in-memory管理可以進行快訊掃描。
5,像storm的trident也有批概念、數據壓縮:
1,也省去了作業調度的時延。所以從時延上來看,假設機器特別多。
2,什麼情況下使用hadoop
4。

--------------------------------------------------------------------------------------------------------------------------------
Storm的主工程師Nathan
Marz表示,一般來說storm的延時低於maprece: stom每個計算單元之間數據之間通過網路(zeromq)直接傳輸,其實比較的不是時延,水就源源不斷地流出來了。

從原理角度來講。

Storm 基於ZeroMQ這個高性能的消息通訊庫。Storm有一個「本地模式」,tasktacker啟動相關的運算進程
B。
Storm的主要特點如下, 指數據從產生到運算產生結果的時間。
而流式計算則是數據產生時,然後作業運行起來,當然也有使用消息隊列的。
6:數據的產生系統一般出自頁面打點和解析DB的log:Hadoop是磁碟級計算。要增加對其他語言的支持,然後再開始調度任務又花了一分鍾,需要進行一些ETL操作存入一個資料庫。Storm是一個分布式流計算引擎;因為storm是服務型的作業。

總結下。

--------------------------------------------------------------------------------------------------------------------------------
在消耗資源相同的情況下。

為什麼storm比hadoop快,批處理一系統一般會攢一大批後批量導入到計算系統(hadoop)。
4. 吞吐: storm 進程是常駐的,下面舉一個應用場景
說一個典型的場景,流計算將數據採集中消息隊列(比如kafaka,Jobtracker計算任務分配、排序。

Spark工作於現有的數據全集(如Hadoop數據)已經被導入Spark集群。更棒的是你可以使用任意編程語言來做開發。每個節點實現一個基本的計算過程。

不過Spark流模塊(Streaming Mole)倒是和Storm相類似(都是流計算引擎),有些map操作沒有意義的

3)數據結果展現
流計算一般運算結果直接反饋到最終結果集中(展示頁面。我們暫且把消息隊列和文件系統稱為預處理存儲,效率較低,按每一分鍾切一個文件的粒度來算(這個粒度已經極端的細了?

為了區別hadoop和Storm。根據Harvard CS61課件,maprece是典型的批處理系統,這樣。

--------------------------------------------------------------------------------------------------------------------------------
最主要的方面。和Spark相反,每秒可以處理數以百萬計的消息。這和Hadoop map#47,一個是批量處理,搜索引擎的索引)、Java。任務失敗時,數據在磁碟上, 題主中的「那些方面決定」應該主要是指這個階段處理方式,基於任務調度的,則需要先存入hdfs。每個節點存儲(或緩存)它的數據集。這讓你可以快速進行開發和單元測試。

同時說一下另外一個場景、Storm該選哪一個。

Shark只是一個基於Spark的查詢引擎(支持ad-hoc臨時性的分析查詢)

而Storm的架構和Spark截然相反,而數據項在互相連接的網路節點中流進流出: 對於復雜運算
storm的運算模型直接支持DAG(有向無環圖)
maprece 需要肯多個MR過程組成。

假設利用hadoop,則有一個程序去一直監控日誌的產生,hadoop開始計算時。
2,而Storm是只要接收到數據就實時處理並分發,有數據就可以進行實時的處理
maprece 數據攢一批後由作業管理系統啟動任務,幾鈔鍾就算完了。

注釋,這個是把數據傳遞給過程,流計算系統(storm)的延時低主要有一下幾個方面(針對題主的問題)
A,然後任務被提交給節點。系統的設計保證了消息能得到快速的處理,1分鍾已經過去了,每條數據從產生到寫入資料庫.hadoop。

不確定哪種方式在數據吞吐量上要具優勢.簡單的編程模型。

Spark流模塊先匯聚批量數據然後進行數據塊分發(視作不可變數據進行處理),預先接好(Topology)。Storm保證每個消息都會得到處理;R基於HDFS,使用MQ作為其底層消息隊列. 延時 。所以Storm更快。
7。
2)數據計算階段,不過Storm計算時間延遲要小:
Storm可以方便地在一個計算機集群中編寫與擴展復雜的實時計算.什麼是吞吐量

首先整體認識。
兩者面向的領域也不完全相同,幾千個日誌生產方產生日誌文件,然後打開水龍頭,該部分將回答如下問題;rece非常相似,把它放到storm上進行流式的處理.可靠的消息處理,storm的流式處理. 數據結果展現(反饋)

1)數據採集階段,而maprece可以將每次運算的數據集縮小(比如幾分鍾啟動一次),流計算一般在實時的讀取消息隊列進入流計算系統(storm)的數據進行運算。Storm會管理工作進程和節點的故障,「快」應該主要指這個,不持久化數據,它會負責從消息源重試消息,需要切分輸入數據:
1。

實際流計算和批處理系統沒有本質的區別.快速. 數據採集與准備
2。

Storm在動態處理大量生成的「小數據塊」上要更好(比如在Twitter數據流上實時計算一些匯聚功能或分析),timetunle)等。

二,這里就有了延時的區別。計算是在多個線程,需要讀寫磁碟.hadoop適合什麼場景,而Spark Steaming才和Storm類似,一桶桶地搬,然後寫資料庫假設也花了很少的時間,storm要快於hadoop,並最小化迭代演算法的全局I#47, 指系統單位時間處理的數據量、進程和伺服器之間並行進行的、Storm各是什麼運算
2,當數據龐大時:
如果一個大文件的wordcount,而且它很快——在一個小集群中,磁碟訪問延遲約為內存訪問延遲的75000倍。批處理系統一般將數據採集進分布式文件系統(比如HDFS),就好比Hadoop之於批處理,這時,省去了批處理的收集數據的時間、產生中間數據文件,等所有已有數據處理完才讓storm輸出結果;當計算模型比較適合流式時,Spark和Storm設計相反。相對來說多了磁碟讀寫,把計算過程傳遞給數據要比把數據傳遞給計算過程要更富效率:

Hadoop M#47,接下來從這個預處理存儲進入到數據計算階段有很大的區別;Storm是內存級計算,從數據產生到最後可以使用已經過去了至少兩分多鍾,而後者需要自己去維護這個窗口.可以使用各種編程語言,處理完之後直接寫入資料庫,然後流式計算系統直接處理。
maprece map任務運算的結果要寫入到HDFS:
1,前者有數據平滑窗口(sliding window),以使得迭代演算法(前一步計算輸出是下一步計算的輸入)性能更高;O操作、高性能並行計算引擎Storm和Spark比較

Spark基於這樣的理念;另外一個是實時處理一

❽ 什麼是大數據技術大數據的概念

大數據技術是指大數據的應用技術,涵蓋各類大數據平台、大數據指數體系等大數據應用技術。

大數據是指無法在一定時間范圍內用常規軟體工具進行捕捉、管理和處理的數據集合。是需要新處理模式才能具有更強的決策力、洞察發現力和流程優化能力的海量、高增長率和多樣化的信息資產。

隨著雲時代的來臨,大數據也吸引了越來越多的關注。分析師團隊認為,大數據通常用來形容一個公司創造的大量非結構化數據和半結構化數據,這些數據在下載到關系型資料庫用於分析時會花費過多時間和金錢。

大數據分析常和雲計算聯繫到一起,因為實時的大型數據集分析需要像MapRece一樣的框架來向數十、數百或甚至數千的電腦分配工作。

(8)storm演算法擴展閱讀:

大數據的三個層面:

1、理論,理論是認知的必經途徑,也是被廣泛認同和傳播的基線。在這里從大數據的特徵定義理解行業對大數據的整體描繪和定性;從對大數據價值的探討來深入解析大數據的珍貴所在;洞悉大數據的發展趨勢;從大數據隱私這個特別而重要的視角審視人和數據之間的長久博弈。

2、技術,技術是大數據價值體現的手段和前進的基石。在這里分別從雲計算、分布式處理技術、存儲技術和感知技術的發展來說明大數據從採集、處理、存儲到形成結果的整個過程。

3、實踐,實踐是大數據的最終價值體現。在這里分別從互聯網的大數據,政府的大數據,企業的大數據和個人的大數據四個方面來描繪大數據已經展現的美好景象及即將實現的藍圖。

參考資料來源:網路-大數據

❾ 請描述下大數據三大平台hadoop,storm,spark的區別和應用場景

Hadoop 當前大數據管理標准之一,運用在當前很多商業應用系統。可以輕松地集成結構化、半結構化甚至非結構化數據集還是離線處理,批處理比較多,用的比較廣的是hive
Storm 用於處理高速、大型數據流的分布式實時計算系統。為Hadoop添加了可靠的實時數據處理功能
spark基於內存的,吞吐量比storm大一點。而且spark集成的sparkSQL,MLlib,Graph貌似比較方便 !

❿ 大數據包括哪些

簡單來說,從大數據的生命周期來看,無外乎四個方面:大數據採集、大數據預處理、大數據存儲、大數據分析,共同組成了大數據生命周期里最核心的技術,下面分開來說:

一、大數據採集

大數據採集,即對各種來源的結構化和非結構化海量數據,所進行的採集。

  • 資料庫採集:流行的有Sqoop和ETL,傳統的關系型資料庫MySQL和Oracle 也依然充當著許多企業的數據存儲方式。當然了,目前對於開源的Kettle和Talend本身,也集成了大數據集成內容,可實現hdfs,hbase和主流Nosq資料庫之間的數據同步和集成。

  • 網路數據採集:一種藉助網路爬蟲或網站公開API,從網頁獲取非結構化或半結構化數據,並將其統一結構化為本地數據的數據採集方式。

  • 文件採集:包括實時文件採集和處理技術flume、基於ELK的日誌採集和增量採集等等。

  • 二、大數據預處理

    大數據預處理,指的是在進行數據分析之前,先對採集到的原始數據所進行的諸如「清洗、填補、平滑、合並、規格化、一致性檢驗」等一系列操作,旨在提高數據質量,為後期分析工作奠定基礎。數據預處理主要包括四個部分:數據清理、數據集成、數據轉換、數據規約。

  • 數據清理:指利用ETL等清洗工具,對有遺漏數據(缺少感興趣的屬性)、噪音數據(數據中存在著錯誤、或偏離期望值的數據)、不一致數據進行處理。

  • 數據集成:是指將不同數據源中的數據,合並存放到統一資料庫的,存儲方法,著重解決三個問題:模式匹配、數據冗餘、數據值沖突檢測與處理。

  • 數據轉換:是指對所抽取出來的數據中存在的不一致,進行處理的過程。它同時包含了數據清洗的工作,即根據業務規則對異常數據進行清洗,以保證後續分析結果准確性。

  • 數據規約:是指在最大限度保持數據原貌的基礎上,最大限度精簡數據量,以得到較小數據集的操作,包括:數據方聚集、維規約、數據壓縮、數值規約、概念分層等。

  • 三、大數據存儲

    大數據存儲,指用存儲器,以資料庫的形式,存儲採集到的數據的過程,包含三種典型路線:

    1、基於MPP架構的新型資料庫集群

    採用Shared Nothing架構,結合MPP架構的高效分布式計算模式,通過列存儲、粗粒度索引等多項大數據處理技術,重點面向行業大數據所展開的數據存儲方式。具有低成本、高性能、高擴展性等特點,在企業分析類應用領域有著廣泛的應用。

    較之傳統資料庫,其基於MPP產品的PB級數據分析能力,有著顯著的優越性。自然,MPP資料庫,也成為了企業新一代數據倉庫的最佳選擇。

    2、基於Hadoop的技術擴展和封裝

    基於Hadoop的技術擴展和封裝,是針對傳統關系型資料庫難以處理的數據和場景(針對非結構化數據的存儲和計算等),利用Hadoop開源優勢及相關特性(善於處理非結構、半結構化數據、復雜的ETL流程、復雜的數據挖掘和計算模型等),衍生出相關大數據技術的過程。

    伴隨著技術進步,其應用場景也將逐步擴大,目前最為典型的應用場景:通過擴展和封裝 Hadoop來實現對互聯網大數據存儲、分析的支撐,其中涉及了幾十種NoSQL技術。

    3、大數據一體機

    這是一種專為大數據的分析處理而設計的軟、硬體結合的產品。它由一組集成的伺服器、存儲設備、操作系統、資料庫管理系統,以及為數據查詢、處理、分析而預安裝和優化的軟體組成,具有良好的穩定性和縱向擴展性。

    四、大數據分析挖掘

    從可視化分析、數據挖掘演算法、預測性分析、語義引擎、數據質量管理等方面,對雜亂無章的數據,進行萃取、提煉和分析的過程。

    1、可視化分析

    可視化分析,指藉助圖形化手段,清晰並有效傳達與溝通信息的分析手段。主要應用於海量數據關聯分析,即藉助可視化數據分析平台,對分散異構數據進行關聯分析,並做出完整分析圖表的過程。
    具有簡單明了、清晰直觀、易於接受的特點。

    2、數據挖掘演算法

    數據挖掘演算法,即通過創建數據挖掘模型,而對數據進行試探和計算的,數據分析手段。它是大數據分析的理論核心。

    數據挖掘演算法多種多樣,且不同演算法因基於不同的數據類型和格式,會呈現出不同的數據特點。但一般來講,創建模型的過程卻是相似的,即首先分析用戶提供的數據,然後針對特定類型的模式和趨勢進行查找,並用分析結果定義創建挖掘模型的最佳參數,並將這些參數應用於整個數據集,以提取可行模式和詳細統計信息。

    3、預測性分析

    預測性分析,是大數據分析最重要的應用領域之一,通過結合多種高級分析功能(特別統計分析、預測建模、數據挖掘、文本分析、實體分析、優化、實時評分、機器學習等),達到預測不確定事件的目的。

    幫助分用戶析結構化和非結構化數據中的趨勢、模式和關系,並運用這些指標來預測將來事件,為採取措施提供依據。

    4、語義引擎

    語義引擎,指通過為已有數據添加語義的操作,提高用戶互聯網搜索體驗。

    5、數據質量管理

    指對數據全生命周期的每個階段(計劃、獲取、存儲、共享、維護、應用、消亡等)中可能引發的各類數據質量問題,進行識別、度量、監控、預警等操作,以提高數據質量的一系列管理活動。

    以上是從大的方面來講,具體來說大數據的框架技術有很多,這里列舉其中一些:

    文件存儲:Hadoop HDFS、Tachyon、KFS

    離線計算:Hadoop MapRece、Spark

    流式、實時計算:Storm、Spark Streaming、S4、Heron

    K-V、NOSQL資料庫:HBase、Redis、MongoDB

    資源管理:YARN、Mesos

    日誌收集:Flume、Scribe、Logstash、Kibana

    消息系統:Kafka、StormMQ、ZeroMQ、RabbitMQ

    查詢分析:Hive、Impala、Pig、Presto、Phoenix、SparkSQL、Drill、Flink、Kylin、Druid

    分布式協調服務:Zookeeper

    集群管理與監控:Ambari、Ganglia、Nagios、Cloudera Manager

    數據挖掘、機器學習:Mahout、Spark MLLib

    數據同步:Sqoop

    任務調度:Oozie

    ······

想要學習更多關於大數據的知識可以加群和志同道合的人一起交流一下啊[https://sourl.cn/d9wRmb ]

熱點內容
linux是免費的嗎 發布:2024-11-15 15:53:44 瀏覽:616
多控存儲 發布:2024-11-15 15:52:42 瀏覽:282
一年級數學分解演算法 發布:2024-11-15 15:41:08 瀏覽:410
安卓個人熱點怎麼分享 發布:2024-11-15 15:40:16 瀏覽:263
墊錢解壓 發布:2024-11-15 15:38:54 瀏覽:335
miui4相當於安卓什麼系統 發布:2024-11-15 15:37:54 瀏覽:708
rc4android 發布:2024-11-15 15:27:25 瀏覽:741
電腦伺服器機箱圖片 發布:2024-11-15 15:27:18 瀏覽:114
網頁緩存文件提取 發布:2024-11-15 15:24:42 瀏覽:144
sqlserver提高 發布:2024-11-15 15:24:40 瀏覽:659