ob資料庫
A. OB10資料庫工具不支持oracle11g了嗎
在安裝oracle11g創建的默認資料庫ORCL可以使用的,只不過需要配置監聽。為ORCL這個資料庫SID配置監聽的方法如下:
1、利用netmgr命令來啟動圖形化Oracle網路管理器,Windows下啟動Net Manager圖形窗口如下圖示:
2、輸入Net服務名,如myoracle,點擊下一步,進入下圖示對話框:
3、選中TCP/IP(Internet協議),點擊下一步,如下圖示:
4、輸入主機名與埠號。注意這里的主機名與埠號必須與資料庫伺服器端監聽器配置的主機名和埠號相同。點擊下一步,如下圖示:
5、
選
中(Oracle8i或更高版本)服務名,輸入服務名。這里的服務名實際上就是資料庫伺服器端監聽器配置中的全局資料庫名,前者與後者必須相同。連接類型
通常選專用伺服器,這要視資料庫伺服器的配置而定,如果配置的共享資料庫伺服器,這里的連接類型就要選共享伺服器,否則建議選專用伺服器(關於專用伺服器
的介紹請參閱相關文檔)。配置好後點擊下一步,如下圖示:
如
果資料庫伺服器端相關服務啟動了,可以點擊測試按鈕進行連接測試。Oracle默認是通過scott/tiger用戶進行測試連接,由於scott用戶是
Oracle自帶的示例用戶,對於正式的業務資料庫或專業測試資料庫可能沒有配置這個用戶,所以需要更改成有效的用戶登錄才可能測試成功。如果這里測試連
接不成功,也不要緊,先點完成按鈕結束配置。
回到Oracle網路管理器(Oracle Net
Manager)主窗口,保存配置,默認即可在Oracle安裝目錄下找到本地服務名配置文件
(Windows下如D:.ora,Linux/Unix下$
ORACLE_HOME/network/admin/ tnsnames.ora)。
B. 英國大學ob與澳大利亞的ob學的一樣嗎
(1)∵以點O為圓心,OB為半徑的⊙O交邊AD於點E,∴OB=OE,∵四邊形ABCD是正方形,∴∠A=90°,∴AO2+AE2=OE2,即(8-x)2+y2=x2,∵y>0,∴y=4x?4(4<x<8);(2)△EFD的周長不變.理由如下:∵EF⊥OE,∴∠AEO+∠DEF=90°,∵∠D=∠A=90°,∴∠AEO+∠AOE=90°,∴∠D。
C. obca是什麼考試
OBCA (OceanBase 資料庫認證專員)認證主要講解 OceanBase 的發展歷程、應用案例、產品架構、核心功能、部署安裝等知識。
D. 資料庫的連接採用ado,net,ado,ole-ob,odbc哪種方式較好
ODBC和ADO區別、
ODBC(Open DataBase Connection)開放式系統互連,是一種資料庫訪問協議,提供了訪問資料庫的API介面。基於ODBC的應用程序,對資料庫操作不依賴於具體的DBMS,不直接與DBMS打交道,所有資料庫操作由對應DBMS的ODBC驅動程序完成,即:系統中不需要安裝DBMS系統,如sql SERVER 2005,但必須有SQL SERVER 2005的ODBC驅動程序,然後在ODBC管理器中注冊數據源後,就可以在應用程序中通過ODBC API訪問該資料庫。
ODBC資料庫訪問技術只適用於windows系統,因為需要在ODBC驅動程序管理器中進行數據源注冊,而只有windows才集成了ODBC驅動程序管理器(「控制面板/管理工具/數據源」)。
ADO(ActiveX Data Object)具有跨系統平台特性,它直接對DBMS資料庫進行操作,即系統中必須有DBMS,但不需要驅動程序,不需要注冊數據源,所以具有很好的可移植性。
VC++6中這兩種技術所涉及到的MFC類:
MFC ODBC類包括CDatabase類 CRecordSet類 CRecoreView類 CFieldExchange類 CDBException類,具體說明請詳見任何一本講述資料庫編程技術的參考書。
ADO是data object,即數據對象的意思,先看一些它包括哪些常用對象:
Command對象
Connection對象
Error對象
RecordSet對象
Field對象
Parameter對象,對應到MFC ADO類,
主要有_ConnectionPtr _RecordsetPtr等類。
基於ODBC和ADO的VC++應用程序設計概述
習慣上建立基於文檔視圖的應用程序時,使用ODBC訪問方法,創建應用程序時,需要在step 2 of 6 what database support would you like to include中選擇"database view with file support"載入你要訪問的資料庫,如果在此選擇None,後期編程載入資料庫相當麻煩,請注意。(如果一個資料庫中有多個表,可在此選擇一個表進行類定義,默認類名為"工程名+Set",可在應用程序創建完成前最後一步進行改名;然後在編程時建立其他基於CRecordSet的資料庫表類)
如果在step 2中設置訪問的資料庫和表,則在生成的應用程序框架的XXSet類中會自動載入對資料庫和表的連接訪問操作,當然最好重新進行定義;系統只有在必要時才會調用GetDefaultConnection和GetDefaultSQL返回預設的資料庫連接定義和SQL語句。
當然也可以建立基於對話框的資料庫訪問應用程序,思路差不多。
習慣上當建立基於對話框的應用程序時,選擇使用ADO技術。對於小程序,在StdAfx.h中引入ADO動態連接庫,在C***APP中應初始化COM庫環境,創建和關閉ADO連接。對於大型項目,通過自定義的ADOConnection類封裝資料庫操作的各種介面。
E. 求sciencedirect資料庫一篇文章,急需!!
Preparation and Photocatalytic Activity of Ag@AgCl Modified 這篇sci通過qq離線文件發給你了,注意查收
F. 現在用綠色版ob10.exe連接資料庫提示錯誤,而且錯誤消息是亂碼
將OB中的oci.dll文件拷貝至Oracle安裝目錄中的bin文件夾下,bin文件夾下有同名oci.dll文件,注意備份
G. Cloob是什麼
Cloob.com是波斯語的社交網站,主要流行於伊朗。之後,在本地(和國際)熱門社交網站Orkut的被封鎖的伊朗政府,一系列的本地站點和網路,包括Cloob,出現填補了國內空白。它的主要頁麵包含標題伊朗虛擬社會與規定,所有內容控制在按照伊朗法律,目的是降低政府審查的風險的政策。
該網站號稱擁有大約100萬成員,每月超過100萬的頁面瀏覽量。用戶可以訪問相同的特徵:內部電子郵件(個別朋友,朋友和社區成員團體),社區和社區討論(俱樂部),個人及社區相冊,文章歸檔社區,實時通訊和聊天室,社區,博客,就業和恢復資料庫,虛擬貨幣(叫做coroob),收入/支出記賬為個人會員,網上商店提供的商品和服務,分類廣告,問題和答案,鏈接和內容共享,新聞,會員更新及廣泛的許可權設置功能。
一些服務消費的虛擬貨幣。例如,在社區討論,先進的會員搜索,收到電子郵件訊息,輪廓遊客名單和一些其他服務高級搜索將使用不同數量的會員提供虛擬貨幣。這是可能購買虛擬貨幣或將其轉讓給其他用戶。
Cloob是由伊朗政府審查零零八年三月七日(議會選舉期間)。然而,經過什麼樣的Cloob管理所謂的「拆除非法和有爭議的內容」,進入恢復伊朗互聯網用戶在2008年4月29日於2009年12月25日它被再次審查,並持續了一段時間,但截至2011年Cloob似乎是在一次工作秩序。
H. OBMS什麼意思
資料庫管理系統
I. 數據倉庫與ODS的區別,數據倉庫和ODS並存方案
一直想整理一下這塊內容,既然是漫談,就想起什麼說什麼吧。我一直是在互聯網行業,就以互聯網行業來說。先大概列一下互聯網行業數據倉庫、數據平台的用途:
整合公司所有業務數據,建立統一的數據中心;
提供各種報表,有給高層的,有給各個業務的;
為網站運營提供運營上的數據支持,就是通過數據,讓運營及時了解網站和產品的運營效果;
為各個業務提供線上或線下的數據支持,成為公司統一的數據交換與提供平台;
分析用戶行為數據,通過數據挖掘來降低投入成本,提高投入效果;比如廣告定向精準投放、用戶個性化推薦等;
開發數據產品,直接或間接為公司盈利;
建設開放數據平台,開放公司數據;
。。。。。。
上面列出的內容看上去和傳統行業數據倉庫用途差不多,並且都要求數據倉庫/數據平台有很好的穩定性、可靠性;但在互聯網行業,除了數據量大之外,越來越多的業務要求時效性,甚至很多是要求實時的 ,另外,互聯網行業的業務變化非常快,不可能像傳統行業一樣,可以使用自頂向下的方法建立數據倉庫,一勞永逸,它要求新的業務很快能融入數據倉庫中來,老的下線的業務,能很方便的從現有的數據倉庫中下線;
其實,互聯網行業的數據倉庫就是所謂的敏捷數據倉庫,不但要求能快速的響應數據,也要求能快速的響應業務;
建設敏捷數據倉庫,除了對架構技術上的要求之外,還有一個很重要的方面,就是數據建模,如果一上來就想著建立一套能兼容所有數據和業務的數據模型,那就又回到傳統數據倉庫的建設上了,很難滿足對業務變化的快速響應。應對這種情況,一般是先將核心的持久化的業務進行深度建模(比如:基於網站日誌建立的網站統計分析模型和用戶瀏覽軌跡模型;基於公司核心用戶數據建立的用戶模型),其它的業務一般都採用維度+寬表的方式來建立數據模型。這塊是後話。
整體架構下面的圖是我們目前使用的數據平台架構圖,其實大多公司應該都差不多:
邏輯上,一般都有數據採集層、數據存儲與分析層、數據共享層、數據應用層。可能叫法有所不同,本質上的角色都大同小異。
我們從下往上看:
數據採集數據採集層的任務就是把數據從各種數據源中採集和存儲到數據存儲上,期間有可能會做一些簡單的清洗。
數據源的種類比較多:
網站日誌:
作為互聯網行業,網站日誌占的份額最大,網站日誌存儲在多台網站日誌伺服器上,
一般是在每台網站日誌伺服器上部署flume agent,實時的收集網站日誌並存儲到HDFS上;
業務資料庫:
業務資料庫的種類也是多種多樣,有Mysql、Oracle、SqlServer等,這時候,我們迫切的需要一種能從各種資料庫中將數據同步到HDFS上的工具,Sqoop是一種,但是Sqoop太過繁重,而且不管數據量大小,都需要啟動MapRece來執行,而且需要Hadoop集群的每台機器都能訪問業務資料庫;應對此場景,淘寶開源的DataX,是一個很好的解決方案(可參考文章 《異構數據源海量數據交換工具-Taobao DataX 下載和使用》),有資源的話,可以基於DataX之上做二次開發,就能非常好的解決,我們目前使用的DataHub也是。
當然,Flume通過配置與開發,也可以實時的從資料庫中同步數據到HDFS。
來自於Ftp/Http的數據源:
有可能一些合作夥伴提供的數據,需要通過Ftp/Http等定時獲取,DataX也可以滿足該需求;
其他數據源:
比如一些手工錄入的數據,只需要提供一個介面或小程序,即可完成;
數據存儲與分析毋庸置疑,HDFS是大數據環境下數據倉庫/數據平台最完美的數據存儲解決方案。
離線數據分析與計算,也就是對實時性要求不高的部分,在我看來,Hive還是首當其沖的選擇,豐富的數據類型、內置函數;壓縮比非常高的ORC文件存儲格式;非常方便的SQL支持,使得Hive在基於結構化數據上的統計分析遠遠比MapRece要高效的多,一句SQL可以完成的需求,開發MR可能需要上百行代碼;
當然,使用Hadoop框架自然而然也提供了MapRece介面,如果真的很樂意開發Java,或者對SQL不熟,那麼也可以使用MapRece來做分析與計算;Spark是這兩年非常火的,經過實踐,它的性能的確比MapRece要好很多,而且和Hive、Yarn結合的越來越好,因此,必須支持使用Spark和SparkSQL來做分析和計算。因為已經有Hadoop Yarn,使用Spark其實是非常容易的,不用單獨部署Spark集群,關於Spark On Yarn的相關文章,可參考:《Spark On Yarn系列文章》
實時計算部分,後面單獨說。
數據共享這里的數據共享,其實指的是前面數據分析與計算後的結果存放的地方,其實就是關系型資料庫和NOSQL資料庫;
前面使用Hive、MR、Spark、SparkSQL分析和計算的結果,還是在HDFS上,但大多業務和應用不可能直接從HDFS上獲取數據,那麼就需要一個數據共享的地方,使得各業務和產品能方便的獲取數據;和數據採集層到HDFS剛好相反,這里需要一個從HDFS將數據同步至其他目標數據源的工具,同樣,DataX也可以滿足。
另外,一些實時計算的結果數據可能由實時計算模塊直接寫入數據共享。
數據應用
業務產品
業務產品所使用的數據,已經存在於數據共享層,他們直接從數據共享層訪問即可;
報表
同業務產品,報表所使用的數據,一般也是已經統計匯總好的,存放於數據共享層;
即席查詢
即席查詢的用戶有很多,有可能是數據開發人員、網站和產品運營人員、數據分析人員、甚至是部門老大,他們都有即席查詢數據的需求;
這種即席查詢通常是現有的報表和數據共享層的數據並不能滿足他們的需求,需要從數據存儲層直接查詢。
即席查詢一般是通過SQL完成,最大的難度在於響應速度上,使用Hive有點慢,目前我的解決方案是SparkSQL,它的響應速度較Hive快很多,而且能很好的與Hive兼容。
當然,你也可以使用Impala,如果不在乎平台中再多一個框架的話。
OLAP
目前,很多的OLAP工具不能很好的支持從HDFS上直接獲取數據,都是通過將需要的數據同步到關系型資料庫中做OLAP,但如果數據量巨大的話,關系型資料庫顯然不行;
這時候,需要做相應的開發,從HDFS或者HBase中獲取數據,完成OLAP的功能;
比如:根據用戶在界面上選擇的不定的維度和指標,通過開發介面,從HBase中獲取數據來展示。
其它數據介面
這種介面有通用的,有定製的。比如:一個從Redis中獲取用戶屬性的介面是通用的,所有的業務都可以調用這個介面來獲取用戶屬性。
實時計算現在業務對數據倉庫實時性的需求越來越多,比如:實時的了解網站的整體流量;實時的獲取一個廣告的曝光和點擊;在海量數據下,依靠傳統資料庫和傳統實現方法基本完成不了,需要的是一種分布式的、高吞吐量的、延時低的、高可靠的實時計算框架;Storm在這塊是比較成熟了,但我選擇Spark Streaming,原因很簡單,不想多引入一個框架到平台中,另外,Spark Streaming比Storm延時性高那麼一點點,那對於我們的需要可以忽略。
我們目前使用Spark Streaming實現了實時的網站流量統計、實時的廣告效果統計兩塊功能。
做法也很簡單,由Flume在前端日誌伺服器上收集網站日誌和廣告日誌,實時的發送給Spark Streaming,由Spark Streaming完成統計,將數據存儲至Redis,業務通過訪問Redis實時獲取。
任務調度與監控在數據倉庫/數據平台中,有各種各樣非常多的程序和任務,比如:數據採集任務、數據同步任務、數據分析任務等;
這些任務除了定時調度,還存在非常復雜的任務依賴關系,比如:數據分析任務必須等相應的數據採集任務完成後才能開始;數據同步任務需要等數據分析任務完成後才能開始;這就需要一個非常完善的任務調度與監控系統,它作為數據倉庫/數據平台的中樞,負責調度和監控所有任務的分配與運行。
前面有寫過文章,《大數據平台中的任務調度與監控》,這里不再累贅。
總結在我看來架構並不是技術越多越新越好,而是在可以滿足需求的情況下,越簡單越穩定越好。目前在我們的數據平台中,開發更多的是關注業務,而不是技術,他們把業務和需求搞清楚了,基本上只需要做簡單的SQL開發,然後配置到調度系統就可以了,如果任務異常,會收到告警。這樣,可以使更多的資源專注於業務之上。