hive元資料庫
1. hive 元數據是什麼
管理hive的數據,所有的表名,庫名,都是存儲在元數據中的
2. 如何使用RDS創建Hive元資料庫
用戶可以使用不同的資料庫客戶端或命令行語句訪問RDS資料庫。下面分別介紹Mysql和SQL Server的訪問方法。
一、提供3種訪問MySQL資料庫方法
點擊了解如何提升RDS響應速度
方法1:客戶端:Mysql-Front
首先,啟動Mysql-Front後會有一個添加對話的對話框彈出,在名稱處可輸入任意名稱。
其次,點擊「連接」選項卡。
在伺服器處:填寫RDS的數據實例鏈接名(如example201108.mysql.alibabalabs.com)。
在埠處:3306。
然後,點擊注冊選項卡,在用戶和密碼處輸入申請資料庫時填寫的資料庫用戶名和密碼後,點擊下圖箭頭所示的小方框,就可以選取要連接的資料庫
最後,彈出資料庫登錄的對話框時,請繼續點擊確定按鈕。便可鏈接並使用RDS資料庫。
方法2:Navicat_mysql
在連接輸入框中輸入數據實例鏈接地址,埠(默認3306),資料庫用戶名和資料庫密碼後,點擊確定即可。
方法3:Mysql命令登錄
用戶安裝MySQL客戶端後,可進入命令行方式鏈接資料庫。
命令格式:mysql -u user_name -h example.mysql.alibabalabs.com -P3306 -pxxxx
其中,-u 指定的是用戶名, -h指定的是主機名, -P指定的是埠, -p指定的是密碼。
二、訪問SQL Server資料庫方法
使用SQL Server Management Studio訪問RDS SQL Server數據,輸入RDS實例連接地址,埠號,資料庫用戶名和密碼。鏈接埠號請輸入3433
3. 拿到hive的元資料庫許可權能否拿到所有用戶的數據
概述
一、存儲Hive版本的元數據表(VERSION)
二、Hive資料庫相關的元數據表(DBS、DATABASE_PARAMS)
1、DBS
2、DATABASE_PARAMS
三、Hive表和視圖相關的元數據表
1、TBLS
2、TABLE_PARAMS
3、TBL_PRIVS
四、Hive文件存儲信息相關的元數據表
1、SDS
2、SD_PARAMS
3、SERDES
4、SERDE_PARAMS
五、Hive表欄位相關的元數據表
1、COLUMNS_V2
六、Hive表分區相關的元數據表
1、PARTITIONS
2、PARTITION_KEYS
3、PARTITION_KEY_VALS
4、PARTITION_PARAMS
七、其他不常用的元數據表
4. python怎麼讀取hive元數據,執行大sql
#!/usr/bin/env pythonimport syssys.path.append('/usr/local/hive-0.10.0/lib/py')from hive_service import ThriftHivefrom hive_service.ttypes import HiveServerExceptionfrom thrift import Thriftfrom thrift.transport import TSocketf...
5. Hive元資料庫是用來做什麼的,存儲哪些信息
本質上只是用來存儲hive中有哪些資料庫,哪些表,表的模式,目錄,分區,索引以及命名空間。為資料庫創建的目錄一般在hive數據倉庫目錄下。
6. hive的元數據存儲在derby和mysql 中有什麼區別
hive的元數據如果放在derby,一般只能允許1個會話連接;而mysql則沒有這個限制;為了共享知識,請點個贊支持下
7. 遠程連接元資料庫hive.metastore.uris怎麼寫
hive配置遠程metastore的方法:
1)首先配置hive使用本地MySQL存儲metastore(伺服器A 111.121.21.23)(也可以使用遠程mysql存儲)
2)配置完成後,在伺服器A啟動服務:/etc/init.d/Hadoop-hive-metastore start (默認監聽埠是:9083)
3)配置hive客戶端,修改hive-site.xml:(伺服器B-需要有hadoop環境)
<property>
<name>hive.metastore.local</name>
<value>false</value>
<description>controls whether to connect to remote metastore server or open a new metastore server in Hive Client JVM</description>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://127.0.0.1:9083</value>
<description></description>
</property>
4)hive 執行測試hql
8. 如何查看hive的元數據存儲位置
導入數據設置HADOOP_HOME
$ HADOOP_HOME=/path/to/some/hadoop sqoop import --arguments...
下載合適的Sqoop並解壓到硬碟,所謂合適即Sqoop的版本應該和Hadoop的版本相匹配。筆者的Hadoop版本是1.03,下載的Sqoop是版本1.4.2。
$ tar zvxf sqoop-1.4.2.bin__hadoop-1.0.0.tar.gz
下載合適的JDBC驅動,將下載的JDBC的驅動放到Sqoop的lib文件夾下。
導入數據
$ sqoop import --hive-import --connect jdbc:oracle:thin:@192.168.56.111:1521:DBNAME --username USERNAME --password PASSWORD --verbose -m 1 --table TABLENAME
DBNAME:資料庫名
USERNAME:用戶名
PASSWORD:密碼
TABLENAME:表名
-m:導入數據的進程的並發數,默認是4。如果導入的數據不大的話,不妨設置成1,這樣導入更快。一般來說Sqoop會使用主鍵來平均地分割數據。並發導入的時候可以設置相關的分割列等等,具體的做法參考官方的文檔。
如果Oracle是安裝在遠程的電腦上,要確保Sqoop可以ping通Oracle所在的電腦。例如如果Oracle安裝在Win7上面,可能需要關閉Win7的防火牆。另外,需要將Oracle配置成可以遠程訪問的。
注意,用戶名和表名應該要是大寫的,除非它們在創建的時候是名字是放在引號中的大小寫混合的形式。