i7源碼
① 求高手編寫一個通達信用:個股每日「成交額」的指標源碼
總購買量:dynainfo (23) * C;
總銷售額:dynainfo (22) * C;
Stickline(總購買金額 < > 0,0,總購買金額,5,0),顏色為紅色;
Stickline(總銷售額 < > 0,總購買量,總銷售額,5,0),顏色綠色;
Stickline(總購買量,0,0,總購買量,5,0),紅色
詳細信息:操作數沒有對應的運算符匹配!
錯誤起始位置:48; 長度:1
拓展資料
1.股票技術指標屬於統計范疇。它們是一些用來衡量一切的數據指標,用數據來展示股票走勢、交易等。通過指數代碼,股票軟體可以用公式自動計算出股票技術指數。估計只能手動操作了。
2.首先選擇通大信報價,按7,選擇深滬A股,列出股票,點擊上方的增加一兩次。一次按股價漲幅排列股票後,在屏幕上右擊選擇「批量操作」,在新對話框中選擇「全選」,然後「添加到板塊」和「新板塊」,然後重復上一步,依次將90隻股票加入新版塊,返回通大信報價主界面,中下邊自定義。單擊後,將出現列表。選擇剛才新建的板塊,90隻股票都在裡面。在菜單欄中選擇第二個「功能」,選擇「報價分析」。左上角有一個尖銳的向下的小三角形。單擊並選擇「平均值」以等待計算。
3.除非您使用超級計算機,否則對垂直統計的需求會導致您的計算機速度急劇下降。一般計算機不推薦使用縱向統計。 i7沒測試過,8核電腦測試過,涉及縱向統計。電腦只是卡住了。可以按指標排序,對交易金額進行排序,並附上上述指標。符合條件的另存為另一盤這比那快得多
4.股票是股份公司發行的所有權憑證,是股份公司為籌集資金而發行給各個股東作為持股憑證並藉以取得股息和紅利的一種有價證券。每股股票都代表股東對企業擁有一個基本單位的所有權。每支股票背後都有一家上市公司。換言之,每家上市公司都會發行股票。同一類別的每一份股票所代表的公司所有權是相等的。每個股東所擁有的公司所有權份額的大小,取決於其持有的股票數量占公司總股本的比重。股票是股份公司資本的構成部分,可以轉讓、買賣或作價抵押,是資本市場的主要長期信用工具,但不能要求公司返還其出資。
5.股票投資是一種沒有期限的長期投資。股票一經買入,只要在股票發行公司存在,任何股票持有者都不能退股,即不能向股票發行公司要求抽回本金。同樣,股票持有者的股東身份和股東權益就不能改變,但他可以通過股票交易市場將股票賣出,使股份轉讓給其他投資者,以收回自己原來的投資。
② solr和elasticsearch對比,有啥差別嗎
從兩個方面對ElasticSearch和Solr進行對比,從關系型資料庫中的導入速度和模糊查詢的速度。
單機對比
1. Solr 發布了4.0-alpha,試了一下,發現需要自己修改schema,好處是它自帶一個data importer。在自己的計算機上測試了一下,導入的性能大概是:14分鍾導入 3092730 條記錄,約合 3682條/秒。
2. 3百萬條記錄的情況下,模糊查詢和排序基本都在1秒內返回
3. 剛才的測試,是每個field單獨存儲,現在修改了一下配置文件,增加了一個Field,所有的field都拷貝一份到text這個field裡面去,導入的性能大概是:19分鍾導入了3092730 條記錄,約合 2713條/秒
4. 3百萬條記錄的情況下,針對text的模糊查詢基本在1秒內返回,但是針對所有記錄的排序,大概要2~3秒
5. 使用 elasticsearch 0.19.8,預設配置,用單任務導入,導入性能是:20分鍾導入了3092730 條記錄,約合2577條/秒
6. 3百萬條記錄的情況下,查詢基本上在1秒內返回,但是模糊查詢比較慢,第一次要10秒,後來大概要1~3秒。加上排序大概需要5秒,整體排序基本100ms
查詢及排序的指令:
{
"query": {
"query_string": {
"query": "*999*"
}
},
"sort": [
{
"TIME_UP": {
"order": "asc"
}
}
]
}
7. Es0.19.8,用兩個任務導入,導入性能是:13分鍾導入了3092730 條記錄,約合3965條/秒
8. Solr全部建好索引後,佔用磁碟空間是1.2G,es佔用磁碟空間是4G
單機對比2
在一台Intel i7,32G內存的機器上,重新跑這兩個的對比。不過有個重大的區別在於,Solr是在這台性能很好的機器上跑,而es的導入進程則是在一台Intel 四核 2.5G,4G內存的機器上跑的,也許會有性能的差異。ES版本0.19.8,Solr版本4.0-ALPHA。
1. Solr的導入性能:3400萬條記錄,用時62分鍾,平均9140條/秒,佔用空間12.75G
2. 使用 *999* 這樣的模糊查詢,3秒以內返回,稍長一點的查詢條件 *00100014*,也是2~3秒返回
3. Es的導入性能(設置Xmx為10G):3400萬條記錄,用時40分鍾,平均14167條/秒,佔用空間33.26G,客戶端採用4個並發。
4. 使用 *999* 這樣的模糊查詢,9秒返回,稍長一點的查詢條件 *00100014*,11.8秒返回
5. 如果不是針對所有欄位查詢,而是針對某個特定欄位,比如 SAM_CODE: *00100014*,那麼也是1秒以內返回。
6. 結論:es的查詢效率也可以很高,只是我們還不會用。
7. 結論2:es有個設置是把所有欄位放一塊的那個,預設是放一起,但是不知道為什麼沒起到應有的作用。
備註:
1. Solr第一次的那個內存使用的是預設設置,這次改為10G,結果導入性能反而變差了,400萬條記錄,用了8分鍾,平均8333條/秒,不知道為什麼。
2. 改回預設的內存配置,導入速度仍然慢。
3. 重啟Linux,用10G的內存配置,再導入,5030萬條記錄,用時92分,約9112條/秒,說明導入速度和內存配置沒有大差別
4. 在10G配置的情況下,檢索速度也差別不大。
5. 為了搞清楚lucene4.0和solr4.0的進步有多大,下載了solr3.6.1,所幸的是4.0的配置文件在3.6.1上也可以用,所以很快就搭起來進行測試,導入性能為:3400萬條記錄,用時55分鍾,約10303條/秒,佔用空間13.85G。查詢性能:*999*第一次11.6s,*00100014* 27.3s,相比4.0ALPHA的結果(5000萬結果當中,*999*第一次2.6s,*00100014*第一次2.5s)來說,慢了很多,與es的性能差不多,因此,也許lucene4.0真的對性能有大幅提升?
集群對比:
採用4台同樣配置(Intel i7,32G內存)的Centos 6.3組成的集群,進行對比。
1. 首先是es,很方便的就組成了一個Cluster,等上一個3400萬條的Index全部均衡負載之後進行測試,導入到另外一個Index當中。
2. 導入性能:8500萬條記錄,用時72分鍾,約為19676條/秒。在前5千萬條記錄導入時的速度在2萬/條以上,初始的速度在2.2萬/條。佔用空間78.6G(由於有冗餘,實際佔用空間為157.2G)
3. 查詢性能:
*999*第一次13.5秒,第二次19.5秒,第三次7.4秒,第四次7.1秒,第五次7.1秒
*00100014*第一次17.2秒,第二次16.6秒,第三次17.9秒,第四次16.7秒,第五次17.1秒
SAM_CODE:*999*,0.8s,1.3s,0.02s,0.02s,0.02s
SAM_CODE: *00100014*,0.1s,0.1s,0.02s,0.03s,0.05s
4. Solr4.0-ALPHA,SolrCloud的配置還算簡單,啟動一個ZooKeeper,然後其他三台機器訪問這個地址,就可以組成一個Cloud:
機器1: nohup java -Xms10G -Xmx10G -Xss256k -Djetty.port=8983 -Dsolr.solr.home="./example-DIH/solr/" -Dbootstrap_confdir=./example-DIH/solr/db/conf/ -Dcollection.configName=xabconf3 -DzkRun -DnumShards=4 -jar start.jar &
其他機器:nohup java -Xms10G -Xmx10G -Dsolr.solr.home="./example-DIH/solr/" -DzkHost=192.168.2.11:9983 -jar start.jar &
但是在執行 data import 的時候,頻繁出現 OutOfMemoryError: unable to create new native thread。查了很多資料,把Linux的ulimit當中的nproc改成10240,把Xss改成256K,都解決不了問題。暫時沒有辦法進行。
結論
1. 導入性能,es更強
2. 查詢性能,solr 4.0最好,es與solr 3.6持平,可以樂觀的認為,等es採用了lucene4之後,性能會有質的提升
3. Es採用SAM_CODE這樣的查詢性能很好,但是用_all性能就很差,而且差別非常大,因此,個人認為在目前的es情況下,仍然有性能提升的空間,只是現在還沒找到方法。
③ 一分鍾之內讓cpu燒毀的代碼有木有
您好,我來自英特爾中國研究中心研發部,有幸回答您的問題。
去年,處理器內置的防病毒硬體截獲了一個代碼,他可以使處理器不斷循環解析,導致CPU資源大量佔用,但是這個源代碼是以JAVA應用程序的二進制64位源代碼。
,目前所有處理器都免疫病毒以及惡意代碼。
英特爾與你共創未來。
④ i73930K為什麼比其它6核處理器便宜得多有什麼缺點嗎
因為主流應用沒有這個數據量。多核心、多線程CPU要發揮性能,前提是必須要有足夠多的線程。但多線程開發是個坑活,不是簡單fork出來個線程就能多線程的。數據鎖定、同步、線程間通信,全都是坑。
單核性能是上不去,但事實上是你不玩大型游戲、多開掛機,不剪視頻,不搞3D渲染,不玩虛擬機集群,不三天兩頭編譯一個GCC級別的應用,輕薄本上的4核CPU都沒什麼機會滿載,除了屏幕小點外,很多人根本不覺得輕薄本和台式機使用上有什麼區別。
只有數據量足夠大了,例如1080P 24FPS規格的視頻解碼後一分鍾有近9 GB數據,需要對如此大量的數據進行壓縮編碼的視頻剪輯;根據3D模型和紋理光源設置渲染出這個數據量的CG渲染,類似這樣的天然就是海量數據的應用,才會有大批數據可以用相同的處理過程去分批處理——然後很自然就可以用多個線程,每個線程處理一批,最後匯總結果即可。或者是超過10W個源碼文件的GCC——通常是編譯後還要用編譯出來的二進製程序再編譯一到兩次,天然就是大量任務並且每個任務可以用獨立線程處理。
需要說一下的是雖然大型3D游戲也是需要實時渲染出這個數據量的畫面,而且往往數據更大量——畢竟24 FPS的游戲體驗很差,60 FPS都不一定滿意,144 FPS還沒到頭。但大部分計算是由GPU負擔,CPU只是處理一些GPU不方便處理的計算以及運行GPU的驅動程序而已。這些GPU不方便處理的計算任務通常包括但不限於用戶輸入響應、網路數據傳輸、游戲AI等,每一項任務都可以分配給不同的線程去處理,但單項任務往往不適合再進一步拆分開來使用多個線程來處理——適合多線程處理的任務通常也適合用性能更強的GPU計算。這些任務的數量總是有限的,某些任務的計算量是很小的,因此CPU核心再多往往也無法發揮。