老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

重慶分公司,新征程啟航

為企業提供網站建設、域名注冊、服務器等服務

mysql大分頁怎么優化 mysql uuid分頁優化

MySQL 百萬級分頁優化(Mysql千萬級快速分頁)

一般剛開始學SQL的時候,會這樣寫

創新互聯是一家集網站建設,仁壽企業網站建設,仁壽品牌網站建設,網站定制,仁壽網站建設報價,網絡營銷,網絡優化,仁壽網站推廣為一體的創新建站企業,幫助傳統企業提升企業形象加強企業競爭力。可充分滿足這一群體相比中小企業更為豐富、高端、多元的互聯網需求。同時我們時刻保持專業、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們為更多的企業打造出實用型網站。

代碼如下:

SELECT * FROM table ORDER BY id LIMIT 1000, 10;

但在數據達到百萬級的時候,這樣寫會慢死

代碼如下:

SELECT * FROM table ORDER BY id LIMIT 1000000, 10;

也許耗費幾十秒

網上很多優化的方法是這樣的

代碼如下:

SELECT * FROM table WHERE id = (SELECT id FROM table LIMIT 1000000, 1) LIMIT 10;

是的,速度提升到0.x秒了,看樣子還行了

可是,還不是完美的!

以下這句才是完美的!

代碼如下:

SELECT * FROM table WHERE id BETWEEN 1000000 AND 1000010;

比上面那句,還要再快5至10倍

另外,如果需要查詢 id 不是連續的一段,最佳的方法就是先找出 id ,然后用 in 查詢

代碼如下:

SELECT * FROM table WHERE id IN(10000, 100000, 1000000...);

再分享一點

查詢字段一較長字符串的時候,表設計時要為該字段多加一個字段,如,存儲網址的字段

查詢的時候,不要直接查詢字符串,效率低下,應該查看該字串的crc32或md5

如何優化Mysql千萬級快速分頁

Limit 1,111 數據大了確實有些性能上的問題,而通過各種方法給用上where id = XX,這樣用上索引的id號可能速度上快點兒。By:jack

Mysql limit分頁慢的解決辦法(Mysql limit 優化,百萬至千萬條記錄實現快速分頁)

MySql 性能到底能有多高?用了php半年多,真正如此深入地去思考這個問題還是從前天開始。有過痛苦有過絕望,到現在充滿信心!MySql 這個數據庫絕對是適合dba級的高手去玩的,一般做一點1萬篇新聞的小型系統怎么寫都可以,用xx框架可以實現快速開發。可是數據量到了10萬,百萬至千 萬,它的性能還能那么高嗎?一點小小的失誤,可能造成整個系統的改寫,甚至更本系統無法正常運行!好了,不那么多廢話了。用事實說話,看例子:

數 據表 collect ( id, title ,info ,vtype) 就這4個字段,其中 title 用定長,info 用text, id 是逐漸,vtype是tinyint,vtype是索引。這是一個基本的新聞系統的簡單模型。現在往里面填充數據,填充10萬篇新聞。

最后collect 為 10萬條記錄,數據庫表占用硬盤1.6G。OK ,看下面這條sql語句:

select id,title from collect limit 1000,10; 很快;基本上0.01秒就OK,再看下面的

select id,title from collect limit 90000,10; 從9萬條開始分頁,結果?

8-9秒完成,my god 哪出問題了????其實要優化這條數據,網上找得到答案。看下面一條語句:

select id from collect order by id limit 90000,10; 很快,0.04秒就OK。 為什么?因為用了id主鍵做索引當然快。網上的改法是:

select id,title from collect where id=(select id from collect order by id limit 90000,1) limit 10;

這就是用了id做索引的結果。可是問題復雜那么一點點,就完了。看下面的語句

select id from collect where vtype=1 order by id limit 90000,10; 很慢,用了8-9秒!

到 了這里我相信很多人會和我一樣,有崩潰感覺!vtype 做了索引了啊?怎么會慢呢?vtype做了索引是不錯,你直接 select id from collect where vtype=1 limit 1000,10; 是很快的,基本上0.05秒,可是提高90倍,從9萬開始,那就是0.05*90=4.5秒的速度了。和測試結果8-9秒到了一個數量級。從這里開始有人 提出了分表的思路,這個和dis #cuz 論壇是一樣的思路。思路如下:

建一個索引表: t (id,title,vtype) 并設置成定長,然后做分頁,分頁出結果再到 collect 里面去找info 。 是否可行呢?實驗下就知道了。

10萬條記錄到 t(id,title,vtype) 里,數據表大小20M左右。用

select id from t where vtype=1 order by id limit 90000,10; 很快了。基本上0.1-0.2秒可以跑完。為什么會這樣呢?我猜想是因為collect 數據太多,所以分頁要跑很長的路。limit 完全和數據表的大小有關的。其實這樣做還是全表掃描,只是因為數據量小,只有10萬才快。OK, 來個瘋狂的實驗,加到100萬條,測試性能。

加了10倍的數據,馬上t表就到了200多M,而且是定長。還是剛才的查詢語句,時間是0.1-0.2秒完成!分表性能沒問題?錯!因為我們的limit還是9萬,所以快。給個大的,90萬開始

select id from t where vtype=1 order by id limit 900000,10; 看看結果,時間是1-2秒!

why ?? 分表了時間還是這么長,非常之郁悶!有人說定長會提高limit的性能,開始我也以為,因為一條記錄的長度是固定的,mysql 應該可以算出90萬的位置才對啊? 可是我們高估了mysql 的智能,他不是商務數據庫,事實證明定長和非定長對limit影響不大? 怪不得有人說 discuz到了100萬條記錄就會很慢,我相信這是真的,這個和數據庫設計有關!

難道MySQL 無法突破100萬的限制嗎???到了100萬的分頁就真的到了極限???

答案是: NO !!!! 為什么突破不了100萬是因為不會設計mysql造成的。下面介紹非分表法,來個瘋狂的測試!一張表搞定100萬記錄,并且10G 數據庫,如何快速分頁!

好了,我們的測試又回到 collect表,開始測試結論是: 30萬數據,用分表法可行,超過30萬他的速度會慢到你無法忍受!當然如果用分表+我這種方法,那是絕對完美的。但是用了我這種方法后,不用分表也可以完美解決!

答 案就是:復合索引! 有一次設計mysql索引的時候,無意中發現索引名字可以任取,可以選擇幾個字段進來,這有什么用呢?開始的select id from collect order by id limit 90000,10; 這么快就是因為走了索引,可是如果加了where 就不走索引了。抱著試試看的想法加了 search(vtype,id) 這樣的索引。然后測試

select id from collect where vtype=1 limit 90000,10; 非常快!0.04秒完成!

再測試: select id ,title from collect where vtype=1 limit 90000,10; 非常遺憾,8-9秒,沒走search索引!

再測試:search(id,vtype),還是select id 這個語句,也非常遺憾,0.5秒。

綜上:如果對于有where 條件,又想走索引用limit的,必須設計一個索引,將where 放第一位,limit用到的主鍵放第2位,而且只能select 主鍵!

完美解決了分頁問題了。可以快速返回id就有希望優化limit , 按這樣的邏輯,百萬級的limit 應該在0.0x秒就可以分完。看來mysql 語句的優化和索引是非常重要的!

好了,回到原題,如何將上面的研究成功快速應用于開發呢?如果用復合查詢,我的輕量級框架就沒得用了。分頁字符串還得自己寫,那多麻煩?這里再看一個例子,思路就出來了:

select * from collect where id in (9000,12,50,7000); 竟然 0秒就可以查完!

mygod ,mysql 的索引竟然對于in語句同樣有效!看來網上說in無法用索引是錯誤的!

有了這個結論,就可以很簡單的應用于輕量級框架了:

代碼如下:

復制代碼代碼如下:

$db=dblink();

$db-pagesize=20;

$sql=”select id from collect where vtype=$vtype”;

$db-execute($sql);

$strpage=$db-strpage(); //將分頁字符串保存在臨時變量,方便輸出

while($rs=$db-fetch_array()){

$strid.=$rs['id'].',';

}

$strid=substr($strid,0,strlen($strid)-1); //構造出id字符串

$db-pagesize=0; //很關鍵,在不注銷類的情況下,將分頁清空,這樣只需要用一次數據庫連接,不需要再開;

$db-execute(“select id,title,url,sTime,gTime,vtype,tag from collect where id in ($strid)”);

?php while($rs=$db-fetch_array()): ?

?php echo $rs['id'];?

?php echo $rs['url'];?

?php echo $rs['sTime'];?

?php echo $rs['gTime'];?

?php echo $rs['vtype'];?

” target=”_blank”?php echo $rs['title'];?

?php echo $rs['tag'];?

?php endwhile; ?

?php

echo $strpage;

Mysql使用limit深度分頁優化

mysql使用select * limit offset, rows分頁在深度分頁的情況下。性能急劇下降。

limit用于數據的分頁查詢,當然也會用于數據的截取,下面是limit的用法:

1. 模仿百度、谷歌方案(前端業務控制)

類似于分段。我們給每次只能翻100頁、超過一百頁的需要重新加載后面的100頁。這樣就解決了每次加載數量數據大 速度慢的問題了

2. 記錄每次取出的最大id, 然后where id 最大id

select * from table_name Where id 最大id limit 10000, 10;

這種方法適用于:除了主鍵ID等離散型字段外,也適用連續型字段datetime等

最大id由前端分頁pageNum和pageIndex計算出來。

3. IN獲取id

4. join方式 + 覆蓋索引(推薦)

如果對于有where 條件,又想走索引用limit的,必須設計一個索引,將where 放第一位,limit用到的主鍵放第2位,而且只能select 主鍵!

1. jdbcpagingReader使用方式

2. db索引分區器使用方式

入參1: 表名 如test_table

入參2: 排序索引字段 可以是主鍵,也可以是其他索引。需要保證是唯一索引即可。如:id

入參3: 主鍵可手動傳入,也可以根據表名計算出來:現在只支持單列主鍵的。 如:id

入參4: 具體表 要分多少塊。如:4

MySQL百萬級數據量分頁查詢方法及其優化建議

offset+limit方式的分頁查詢,當數據表超過100w條記錄,性能會很差。

主要原因是offset limit的分頁方式是從頭開始查詢,然后舍棄前offset個記錄,所以offset偏移量越大,查詢速度越慢。

比如: 讀第10000到10019行元素(pk是主鍵/唯一鍵).

使用order by id可以在查詢時使用主鍵索引。

但是這種方式在id為uuid的時候就會出現問題。可以使用where in的方式解決:

帶條件的查詢:

如果在分頁查詢中添加了where條件例如 type = 'a’這樣的條件,sql變成 :

這種情況因為type沒有使用索引也會導致查詢速度變慢。但是只添加type為索引查詢速度還是很慢,是因為查詢的數據量太多了。這個時候考慮添加組合索引,組合索引的順序要where條件字段在前,id在后,如 (type,id),因為組合索引查詢時用到了type索引,而type跟id是組合索引的關系,如果只select id ,那么直接就可以按組合索引返回id,而不需要再進行一次查詢去返回id

使用uuid作為主鍵不僅會帶來性能上的問題,在查詢時也會遇到問題。

因為在使用select id from table limit 10000,10 查詢id數據時,默認是對id進行排序,返回的是排序后的id結果,如果我們想按插入順序查詢結果,這樣查詢出來的結果就與我們的需求不相符。

聚集索引跟非聚集索引:聚集索引類似與新華字典的拼音,根據拼音搜索到的信息都是連續的,可以很快獲取到它前后的信息。非聚集索引類似于部首查詢,信息存放的位置可能不在一個區域。對經常使用范圍查詢的字段考慮使用聚集索引。

InnoDB中索引分為聚簇索引(主鍵索引)和非聚簇索引(非主鍵索引),聚簇索引的葉子節點中保存的是整行記錄,而非聚簇索引的葉子節點中保存的是該行記錄的主鍵的值。

如果您的表上定義有主鍵,該主鍵索引是聚集索引。

如果你不定義為您的表的主鍵時,MySQL取第一個唯一索引(unique)而且只含非空列(NOT NULL)作為主鍵,InnoDB使用它作為聚集索引。

如果沒有這樣的列,InnoDB就自己產生一個這樣的ID值,

優先選index key_len小的索引進行count(*),盡量不使用聚簇索引

在沒有where條件的情況下,count(*)和count(常量),如果有非聚簇索引,mysql會自動選擇非聚簇索引,因為非聚簇索引所占的空間小,如果沒有非聚簇索引會使用聚集索引。count(primary key)主鍵id為聚集索引,使用聚集索引。有where條件的情況下,是否使用索引會根據where條件判斷。


新聞標題:mysql大分頁怎么優化 mysql uuid分頁優化
新聞來源:http://www.xueling.net.cn/article/hgcoss.html

其他資訊

在線咨詢
服務熱線
服務熱線:028-86922220
TOP
主站蜘蛛池模板: 丰满人妻一区二区三区视频53 | 国产精品福利区一区二区三区四区 | 国产人妻人伦精品无码.麻豆 | 日韩欧美久久 | 性一交一乱一乱一视频 | 国产亚洲亚洲 | 强奷乱码欧妇女中文字幕熟女 | 欧美日韩在线播放视频 | 国产高清无码在线一区二区 | 视频一区视频二区在线观看 | 97免费人做人爱在线看视频 | 免费无码又爽又刺激A片涩涩 | 欧美精品久久久久久久久 | 亚洲一区二区三区国产精品 | 国产精品video | 色狠狠色狠狠综合天天 | 午夜精品一区二区三区在线视 | 免费观看丰满少妇做爰 | 超碰在线国产97 | 亚洲综合久久av一区二区三区 | 国产精品久久久久久久久久红粉 | 欧美一区二区三区的 | 日韩欧美在线观看一区二区三区 | 亚洲精品.www | 国产精品盗摄!偷窥盗摄 | 91日韩精品久久久久身材苗条 | 在线观看国精产品一区 | aaa大片免费观看 | 年轻的朋友3中文 | 无码无遮挡又大又爽又黄的视频 | 超碰中文字幕 | 免费成人av网站 | 国语对白做受XXXXX在线中国 | 午夜精品久久久久久久99热浪潮 | 无码超乳爆乳中文字幕久久 | 午夜影院啊啊啊 | 日本一区二区三区四区在线播放 | 动漫女的被到爽羞羞 | 91久久久精品国产一区二区蜜臀 | 尤物99国产成人精品视频 | 中文字幕在线播放一区 |