重慶分公司,新征程啟航
為企業(yè)提供網(wǎng)站建設(shè)、域名注冊、服務(wù)器等服務(wù)
為企業(yè)提供網(wǎng)站建設(shè)、域名注冊、服務(wù)器等服務(wù)
如何優(yōu)化操作大數(shù)據(jù)量數(shù)據(jù)庫
創(chuàng)新互聯(lián)建站專注于額爾古納企業(yè)網(wǎng)站建設(shè),成都響應(yīng)式網(wǎng)站建設(shè)公司,商城網(wǎng)站建設(shè)。額爾古納網(wǎng)站建設(shè)公司,為額爾古納等地區(qū)提供建站服務(wù)。全流程按需規(guī)劃網(wǎng)站,專業(yè)設(shè)計(jì),全程項(xiàng)目跟蹤,創(chuàng)新互聯(lián)建站專業(yè)和態(tài)度為您提供的服務(wù)
下面以關(guān)系數(shù)據(jù)庫系統(tǒng)Informix為例,介紹改善用戶查詢計(jì)劃的方法。
1.合理使用索引
索引是數(shù)據(jù)庫中重要的數(shù)據(jù)結(jié)構(gòu),它的根本目的就是為了提高查詢效率?,F(xiàn)在大多數(shù)的數(shù)據(jù)庫產(chǎn)品都采用IBM最先提出的ISAM索引結(jié)構(gòu)。索引的使用要恰到好處,其使用原則如下:
●在經(jīng)常進(jìn)行連接,但是沒有指定為外鍵的列上建立索引,而不經(jīng)常連接的字段則由優(yōu)化器自動(dòng)生成索引。
●在頻繁進(jìn)行排序或分組(即進(jìn)行g(shù)roup by或order by操作)的列上建立索引。
●在條件表達(dá)式中經(jīng)常用到的不同值較多的列上建立檢索,在不同值少的列上不要建立索引。比如在雇員表的“性別”列上只有“男”與“女”兩個(gè)不同值,因此就無必要建立索引。如果建立索引不但不會(huì)提高查詢效率,反而會(huì)嚴(yán)重降低更新速度。
●如果待排序的列有多個(gè),可以在這些列上建立復(fù)合索引(pound index)。
●使用系統(tǒng)工具。如Informix數(shù)據(jù)庫有一個(gè)tbcheck工具,可以在可疑的索引上進(jìn)行檢查。在一些數(shù)據(jù)庫服務(wù)器上,索引可能失效或者因?yàn)轭l繁操作而使得讀取效率降低,如果一個(gè)使用索引的查詢不明不白地慢下來,可以試著用tbcheck工具檢查索引的完整性,必要時(shí)進(jìn)行修復(fù)。另外,當(dāng)數(shù)據(jù)庫表更新大量數(shù)據(jù)后,刪除并重建索引可以提高查詢速度。
2.避免或簡化排序
應(yīng)當(dāng)簡化或避免對大型表進(jìn)行重復(fù)的排序。當(dāng)能夠利用索引自動(dòng)以適當(dāng)?shù)拇涡虍a(chǎn)生輸出時(shí),優(yōu)化器就避免了排序的步驟。以下是一些影響因素:
●索引中不包括一個(gè)或幾個(gè)待排序的列;
●group by或order by子句中列的次序與索引的次序不一樣;
●排序的列來自不同的表。
為了避免不必要的排序,就要正確地增建索引,合理地合并數(shù)據(jù)庫表(盡管有時(shí)可能影響表的規(guī)范化,但相對于效率的提高是值得的)。如果排序不可避免,那么應(yīng)當(dāng)試圖簡化它,如縮小排序的列的范圍等。
3.消除對大型表行數(shù)據(jù)的順序存取
在嵌套查詢中,對表的順序存取對查詢效率可能產(chǎn)生致命的影響。比如采用順序存取策略,一個(gè)嵌套3層的查詢,如果每層都查詢1000行,那么這個(gè)查詢就要查詢10億行數(shù)據(jù)。避免這種情況的主要方法就是對連接的列進(jìn)行索引。例如,兩個(gè)表:學(xué)生表(學(xué)號、姓名、年齡……)和選課表(學(xué)號、課程號、成績)。如果兩個(gè)表要做連接,就要在“學(xué)號”這個(gè)連接字段上建立索引。
還可以使用并集來避免順序存取。盡管在所有的檢查列上都有索引,但某些形式的where子句強(qiáng)迫優(yōu)化器使用順序存取。下面的查詢將強(qiáng)迫對orders表執(zhí)行順序操作:
SELECT * FROM orders WHERE (customer_num=104 AND order_num1001) OR order_num=1008
雖然在customer_num和order_num上建有索引,但是在上面的語句中優(yōu)化器還是使用順序存取路徑掃描整個(gè)表。因?yàn)檫@個(gè)語句要檢索的是分離的行的 *** ,所以應(yīng)該改為如下語句:
SELECT * FROM orders WHERE customer_num=104 AND order_num1001
UNION
SELECT * FROM orders WHERE order_num=1008
這樣就能利用索引路徑處理查詢。
4.避免相關(guān)子查詢
一個(gè)列的標(biāo)簽同時(shí)在主查詢和where子句中的查詢中出現(xiàn),那么很可能當(dāng)主查詢中的列值改變之后,子查詢必須重新查詢一次。查詢嵌套層次越多,效率越低,因此應(yīng)當(dāng)盡量避免子查詢。如果子查詢不可避免,那么要在子查詢中過濾掉盡可能多的行。
5.避免困難的正規(guī)表達(dá)式
MATCHES和LIKE關(guān)鍵字支持通配符匹配,技術(shù)上叫正規(guī)表達(dá)式。但這種匹配特別耗費(fèi)時(shí)間。例如:SELECT * FROM customer WHERE zipcode LIKE “98_ _ _”
即使在zipcode字段上建立了索引,在這種情況下也還是采用順序掃描的方式。如果把語句改為SELECT * FROM customer WHERE zipcode “98000”,在執(zhí)行查詢時(shí)就會(huì)利用索引來查詢,顯然會(huì)大大提高速度。
另外,還要避免非開始的子串。例如語句:SELECT * FROM customer WHERE zipcode[2,3]“80”,在where子句中采用了非開始子串,因而這個(gè)語句也不會(huì)使用索引。
6.使用臨時(shí)表加速查詢
把表的一個(gè)子集進(jìn)行排序并創(chuàng)建臨時(shí)表,有時(shí)能加速查詢。它有助于避免多重排序操作,而且在其他方面還能簡化優(yōu)化器的工作。例如:
SELECT cust.name,rcvbles.balance,……other columns
FROM cust,rcvbles
WHERE cust.customer_id = rcvlbes.customer_id
AND rcvblls.balance0
AND cust.postcode“98000”
ORDER BY cust.name
如果這個(gè)查詢要被執(zhí)行多次而不止一次,可以把所有未付款的客戶找出來放在一個(gè)臨時(shí)文件中,并按客戶的名字進(jìn)行排序:
SELECT cust.name,rcvbles.balance,……other columns
FROM cust,rcvbles
WHERE cust.customer_id = rcvlbes.customer_id
AND rcvblls.balance0
ORDER BY cust.name
INTO TEMP cust_with_balance
然后以下面的方式在臨時(shí)表中查詢:
SELECT * FROM cust_with_balance
WHERE postcode“98000”
臨時(shí)表中的行要比主表中的行少,而且物理順序就是所要求的順序,減少了磁盤I/O,所以查詢工作量可以得到大幅減少。
注意:臨時(shí)表創(chuàng)建后不會(huì)反映主表的修改。在主表中數(shù)據(jù)頻繁修改的情況下,注意不要丟失數(shù)據(jù)。
7.用排序來取代非順序存取
非順序磁盤存取是最慢的操作,表現(xiàn)在磁盤存取臂的來回移動(dòng)。SQL語句隱藏了這一情況,使得我們在寫應(yīng)用程序時(shí)很容易寫出要求存取大量非順序頁的查詢。
有些時(shí)候,用數(shù)據(jù)庫的排序能力來替代非順序的存取能改進(jìn)查詢。
實(shí)例分析
下面我們舉一個(gè)制造公司的例子來說明如何進(jìn)行查詢優(yōu)化。制造公司數(shù)據(jù)庫中包括3個(gè)表,模式如下所示:
1.part表
零件號?????零件描述????????其他列
(part_num)?(part_desc)??????(other column)
102,032???Seageat 30G disk?????……
500,049???Novel 10M neork card??……
……
2.vendor表
廠商號??????廠商名??????其他列
(vendor _num)?(vendor_name) (other column)
910,257?????Seageat Corp???……
523,045?????IBM Corp?????……
……
3.parven表
零件號?????廠商號?????零件數(shù)量
(part_num)?(vendor_num)?(part_amount)
102,032????910,257????3,450,000
234,423????321,001????4,000,000
……
下面的查詢將在這些表上定期運(yùn)行,并產(chǎn)生關(guān)于所有零件數(shù)量的報(bào)表:
SELECT part_desc,vendor_name,part_amount
FROM part,vendor,parven
WHERE part.part_num=parven.part_num
AND parven.vendor_num = vendor.vendor_num
ORDER BY part.part_num
如果不建立索引,上述查詢代碼的開銷將十分巨大。為此,我們在零件號和廠商號上建立索引。索引的建立避免了在嵌套中反復(fù)掃描。關(guān)于表與索引的統(tǒng)計(jì)信息如下:
表?????行尺寸???行數(shù)量?????每頁行數(shù)量???數(shù)據(jù)頁數(shù)量
(table)?(row size)?(Row count)?(Rows/Pages)?(Data Pages)
part????150?????10,000????25???????400
Vendor???150?????1,000???? 25???????40
Parven???13????? 15,000????300?????? 50
索引?????鍵尺寸???每頁鍵數(shù)量???頁面數(shù)量
(Indexes)?(Key Size)?(Keys/Page)???(Leaf Pages)
part?????4??????500???????20
Vendor????4??????500???????2
Parven????8??????250???????60
看起來是個(gè)相對簡單的3表連接,但是其查詢開銷是很大的。通過查看系統(tǒng)表可以看到,在part_num上和vendor_num上有簇索引,因此索引是按照物理順序存放的。parven表沒有特定的存放次序。這些表的大小說明從緩沖頁中非順序存取的成功率很小。此語句的優(yōu)化查詢規(guī)劃是:首先從part中順序讀取400頁,然后再對parven表非順序存取1萬次,每次2頁(一個(gè)索引頁、一個(gè)數(shù)據(jù)頁),總計(jì)2萬個(gè)磁盤頁,最后對vendor表非順序存取1.5萬次,合3萬個(gè)磁盤頁??梢钥闯鲈谶@個(gè)索引好的連接上花費(fèi)的磁盤存取為5.04萬次。
hibernate如何優(yōu)化大數(shù)據(jù)量操作?
建議你直接用Jdbc好了,用batch,這樣是最快的。
如何實(shí)現(xiàn)大數(shù)據(jù)量數(shù)據(jù)庫的歷史數(shù)據(jù)歸檔
打開數(shù)據(jù)庫
con.Open();
讀取數(shù)據(jù)
OdbcDataReader reader = cmd.ExecuteReader();
把數(shù)據(jù)加載到臨時(shí)表
dt.Load(reader);
在使用完畢之后,一定要關(guān)閉,要不然會(huì)出問題
reader.Close();
這個(gè)問題是這樣的:
首先你要明確你的插入是正常業(yè)務(wù)需求么?如果是,那么只能接受這樣的數(shù)據(jù)插入量。
其次你說數(shù)據(jù)庫存不下了 那么你可以讓你的數(shù)據(jù)庫上限變大 這個(gè)你可以在數(shù)據(jù)庫里面設(shè)置的 里面有個(gè)數(shù)據(jù)庫文件屬性 maxsize
最后有個(gè)方法可以使用,如果你的歷史數(shù)據(jù)不會(huì)對目前業(yè)務(wù)造成很大影響 可以考慮歸檔處理 定時(shí)將不用的數(shù)據(jù)移入歷史表 或者另外一個(gè)數(shù)據(jù)庫。
注意平時(shí)對數(shù)據(jù)庫的維護(hù) 定期整理索引碎片
時(shí)間維度分區(qū)表,然后定情按照規(guī)則將屬于歷史的分區(qū)數(shù)據(jù)遷移到,歷史庫上,寫個(gè)存儲(chǔ)自動(dòng)維護(hù)分區(qū)表。
如何用java jdbc 向數(shù)據(jù)庫表插入大數(shù)據(jù)量
一次性插入大量數(shù)據(jù),只能使用循環(huán),
如:游標(biāo),while 循環(huán)語句
下面介紹While 循環(huán)插入數(shù)據(jù),
SQL 代碼如下:
IF OBJECT_ID('dbo.Nums') IS NOT NULL
DROP TABLE dbo.Nums;
GO
CREATE TABLE dbo.Nums(n INT NOT NULL PRIMARY KEY);
DECLARE @max AS INT, @rc AS INT;
SET @max = 5000000;
SET @rc = 1;
INSERT INTO Nums VALUES(1);
WHILE @rc * 2 = @max
BEGIN
INSERT INTO dbo.Nums SELECT n + @rc FROM dbo.Nums;
SET @rc = @rc * 2;
END
INSERT INTO dbo.Nums SELECT n + @rc FROM dbo.Nums WHERE n + @rc = @max;
--以上函數(shù)取自Inside SQL Server 2005: T-SQL Query一書。
INSERT dbo.Sample SELECT n, RAND(CAST(NEWID() AS BINARY(16))) FROM Nums
php 怎么解決 大數(shù)據(jù)量 插入數(shù)據(jù)庫
ini_set('max_execution_time','0');
$pdo = new PDO("mysql:host=localhost;dbname=test","root","123456");
$sql = "insert into test(name,age,state,created_time) values";
for($i=0; $i100000; $i++){
$sql .="('zhangsan',21,1,'2015-09-17')";
}
$sql = substr($sql,0,strlen($sql)-1);
var_dump($sql);
if($pdo - exec($sql)){
echo "插入成功!";
echo $pdo - lastinsertid();
}
試試吧。10萬條1分鐘多,我覺得還行
請教如何通過WCF傳輸大數(shù)據(jù)量數(shù)據(jù)
就是直接把DataSet 類型作為參數(shù)直接傳遞給服務(wù)端
WCF默認(rèn)支持這么做,直接傳Datatable不行。
你看一下 “服務(wù)引用設(shè)置”中你選的 *** 類型是什么,我選的是System.Array
字典 *** 類型是默認(rèn)第一項(xiàng) System.Collections.Generic.Dictionary
又是一個(gè)把自己架在火上烤的需求啊,
如果不考慮傳輸因素,可以調(diào)整wcf配置,提升傳遞的容量,如果是對象傳遞可能還要調(diào)整對象層次的深度
在使用PhpMyAdmin的時(shí)候經(jīng)常用到數(shù)據(jù)的導(dǎo)入和導(dǎo)出(Export/Import),但是在導(dǎo)入大數(shù)據(jù)的時(shí)候由于php上傳文件的限制和腳本響應(yīng)時(shí)間的限制,導(dǎo)致phpMyAdmin無法導(dǎo)入大數(shù)據(jù)。很多時(shí)候都是由于文件過大,從本地瀏覽上傳導(dǎo)入,容易中斷失敗,有沒有更好的方法呢?
方法:
在phpMyAdmin的目錄下,找到根目錄的config.inc.php文件,
打開config.inc.php文件,查找$cfg['UploadDir'],這個(gè)參數(shù)就是設(shè)定導(dǎo)入文件存放的目錄,這里把值設(shè)定為:ImportSQLFile。
在phpMyAdmin目錄下,建立以ImportSQLFile命名的文件夾,
把我們需要導(dǎo)入的數(shù)據(jù)文件,放到ImportSQLFile文件夾下面,非常簡單,
登入phpMyAdmin,選擇需要導(dǎo)入的數(shù)據(jù),點(diǎn)擊導(dǎo)航條上面的“導(dǎo)入”按鈕,
選中“從網(wǎng)站服務(wù)器上傳文件夾ImportSQLFile/中選擇:”選項(xiàng),并需要導(dǎo)入的數(shù)據(jù)文件,
最后點(diǎn)擊“執(zhí)行”,即可導(dǎo)入成功。
注意事項(xiàng)
如果在config.inc.php文件,沒有找到$cfg['UploadDir'],可以自己在文件中添加上去即可。
ini_set('max_execution_time','0');
$pdo
=
new
PDO("mysql:host=localhost;dbname=test","root","123456");
$sql
=
"insert
into
test(name,age,state,created_time)
values";
for($i=0;
$i100000;
$i++){
$sql
.="('zhangsan',21,1,'2015-09-17')";
}
$sql
=
substr($sql,0,strlen($sql)-1);
var_dump($sql);
if($pdo
-
exec($sql)){
echo
"插入成功!";
echo
$pdo
-
lastinsertid();
}
試試吧。10萬條1分鐘多,我覺得還行