老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

重慶分公司,新征程啟航

為企業提供網站建設、域名注冊、服務器等服務

Zblog問答系統 zblogwiki

SEO初學者使用哪種CMS系統建站比較好

SEO新手根據站點屬性選擇建站程序:

在寧化等地區,都構建了全面的區域性戰略布局,加強發展的系統性、市場前瞻性、產品創新能力,以專注、極致的服務理念,為客戶提供做網站、網站設計 網站設計制作按需網站開發,公司網站建設,企業網站建設,成都品牌網站建設,營銷型網站建設,成都外貿網站建設公司,寧化網站建設費用合理。

1、個人博客,推薦的程序Wordpress(php的程序,比較強大),Zblog(asp的程序,比較簡單)

2、門戶網站(內容管理系統CMS)

推薦的程序:dedecms DEDECMS模板站推薦,我搭建的很多企業站都是織夢程序的,比如。

3、企業網站

推薦的程序:織夢、米拓網站管理系統、YIQIcms(php的,比較簡單,能夠很大程度的結合SEO工作)

英文的企業站推薦:Wordpess

企業網站首選采用php的(因為從安全角度考慮,php語言的網站相對比較安全些,我目前搭建所以的網站都是php的)

asp網站程序推薦采用(asp網站語言程序是比較適合做動態互動)推薦:

4、論壇,推薦的程序:Discuz (另外一款phpwind 結構也符合SEO)

5、網店,推薦程序:shopex ecshop銷售給shopex并停止更新。

6、外貿網站

推薦程序:在線商場做零售B2C,Zencart、(教程地址)magento 做工廠批發B2B,推薦采用wordpress。

7、B2B網站,推薦程序:destoon

8、淘寶客,推薦程序:淘寶帝國

9、人才系統,推薦程序:74CMS

10、點評類程序:modoer

11、類似百度知道的問答系統:tipask

如何在公司內部搭建快速問答FAQ系統

尋找專門的問答系統服務商,直接快速開發搭建,現在這種在線問答系統越來越成熟,已經成為企業社交的一部分,對企業內部文化建設也是非常有幫助。

關于zblog博客程序的安裝問題。

一般大致分為倆種情況,是服務器還是本地。zblog安裝所在文件夾的寫權限很重要。而zblog的另一個要求臨時文件夾的寫權限,這一點在服務器一般都是默認,而如果是XP系統,同時C盤使用的是NTFS格式的話,就需要設置了。解決zblog數據庫連接錯誤的步驟:

1、zblog安裝文件目錄的寫權限。

如果你的網站是在虛擬主機上,而又無法運行zblog,這個步驟需要和技術人員溝通,使你獲得對自己主機空間文件夾的修改權限。

如果是zblog本地安裝調試那么需要自己完成如下操作:zblog所在磁盤是FT32格式的話,此處不需要設置。如果是NTFS格式,則需要開啟整個zblog所在文件夾(包括子文件夾)的everyone寫權限。你可以按照以下步驟來完成設定。操作:雙擊打開“我的電腦”—“工具”菜單—“文件夾選項”—“查看”—去掉“使用簡單文件共享”前面的對勾。右鍵zblog安裝的文件目錄—“屬性”—“安全”—選擇“everyone”帳戶,勾選下面的允許“修改”對應的勾(同時你會發現自動勾選了很多,不要管)。點擊確定,并應用于子文件夾(有提示)。如果沒有everyone賬戶,點擊添加—高級—立即查找,找到Everyone,選擇即可。一般能夠解決,如不行請看下面。

2、zblog需要系統目錄的temp文件夾的寫權限。

如果是虛擬主機,一般不需要此步操作。如果是本地調試此步驟需要完成本步操作。使用和步驟1相同的方法設定“C:\WINDOWS”下temp文件夾的everyone的修改屬性。

3、重新安裝zblog。

設定完以上兩個文件夾的寫權限后,需重新通過瀏覽器打開網站,數據庫鏈接錯誤問題一般都會解決。若你發現完成以上倆步后zblog提示你安裝配置zblog的數據庫名和帳戶密碼,那么上一次的配置并沒有被寫到數據庫里,否則不會提示你重新安裝了。這也就是為何你無法登陸zblog,并提示“數據庫錯誤”的原因了。如果你是一個有心人,這時打開zblog安裝目錄下的data文件夾,zblog的默認數據庫文件zblog.mdb仍然躺在那里而不是一個很長的文件名。而一般情況下,正常安裝zblog后,這個zblog.mdb一定會更換為一個很長的文件名字。

切記不可刪除zblog文件夾,然后重新復制一個過來,此時zblog文件夾仍然沒有everyone寫權限。如果上面的步驟不可以,你可以嘗試此操作,一定要重新設定一遍zblog的寫權限(包括子文件夾),然后就可正常使用。

關于更多zblog技巧看我空間。

問答系統介紹

?這是我的第一篇技術博客,也是對近期學習的問答系統進行一個小結,方便回顧所學。文章難免有錯誤之處,歡迎大家批評指正,不勝感激。

下面將從兩個方面對問答系統進行小結:

一、常見的問答系統種類及介紹

二、問答系統中的常用技術

1.根據問題所屬的知識領域來分類:

(1) 開放域閑聊性。? ? ? ? 舉例:微軟小冰

(2)??面向FAQ和任務型。舉例:京東JIMI、蘋果Siri

(3)限定域知識型。? ? ? ? ?舉例:左手醫生(問答模型、信息檢索)

2.根據答案生成階段的技術分類:

(1)檢索式? ? ? ? ? ? ? ? ? ? (2)生成式

3.依據答案來源分類:

(1)基于知識圖譜問答系統

(2)機器閱讀理解的問答系統

(3)基于問答對的問答系統

? ? 定義:給定自然語言處理問題,通過對問題進行語義理解和解析,進而利用知識庫進行查詢、推理得出答案。對事實性問答任務而言(如政策問題)這種做法依賴于知識圖譜,準確率比較高。要求知識圖譜是比較大規模的,因為KB-QA無法給出在知識圖譜之外的答案。下面給出常見分類:

(1)基于符號表示的KB-QA(傳統的語義解析方法)

(2)基于向量表示的KB-QA(知識表示學習的方法)

評價標準:召回率(Recall)、精確率(Precision)、F1

常用數據集:WebQuestion、SimpleQuestion、NLPCC KBQA數據集(中文)

(1)基于符號表示的KB-QA(傳統的語義解析方法)

? ? 定義:該方法是一種偏語言學的方法,主體思想是將自然語言轉化為一系列形式化的邏輯形式,通過對邏輯形式進行自底向上的解析,得到一種可以表達整個問題語義的邏輯形式,通過相應的查詢語句在知識庫中進行查詢,從而得出答案。

語義解析傳統方法:

? ? ? ? ? ?問題-短語檢測-資源映射-語義組合-邏輯表達式

語義解析目前一般做法:

? ? ? ? ? ?建圖-主題詞鏈接-確定核心推導鏈-增加約束和聚合函數

將語義解析簡化為查詢圖生成,將其表述為具有分階段狀態和動作的搜索問題。

(2)基于向量表示的KB-QA(基于表示學習的方法)

? ? 定義:把知識庫問答看做一個語義匹配過程。通過表示學習知識庫以及用戶問題的語義表示,得到低維空間的數值向量,再通過數值計算,直接匹配與用戶問句語義最相似的答案。即問答任務就可以看成問句語義向量與知識庫中實體、邊的語義向量相似度計算的過程。

? ? ?隨著深度學習的發展,基于表示學習的知識庫問答取得了較好的效果。

一般做法:

問題和答案映射向量-向量匹配-計算問題-答案score-優化問題-候選答案選擇

詳細過程:

問題和答案映射向量:

? ? ?如何學習問題向量:把問題用LSTM進行建模

? ? ?如何學習答案向量:答案不能簡單映射成詞向量,一般是利用到答案實體,答案類型,答案路徑,答案關系,答案上下文信息。分別和問句向量做相似度計算,最終的相似度為幾種相似度之和。代表性的論文? [1]Dong, ACL. Question answering over freebase with multi-column convolutional neural networks.2015提出Multi-column CNN,在答案端加入了更多信息,答案類型、答案路徑以及答案周圍的實體和關系三種特征向量分別和問句向量做相似度計算,最終的相似度為三種相似度之和。

向量匹配、計算問題-答案score:把這些特征分別映射成不同的向量,作為答案的其中一個向量(而不是直接拼接起來),最后用這些特征向量依次和問題做匹配,把score加起來作為總的score。

優化問題、候選答案選擇:一般用Margin Loss,極大化問題對正確答案的score,同時極小化問題對錯誤答案的score。當模型訓練完成后,通過score進行篩選,取最高分的作為最終答案。

? ? 早期方法使用記憶網絡來做,論文:Bordes, arXiv. Large-scale simple question answering with memory networks.2015.首先通過Input模塊來處理問題,加入知識庫信息,將三元組通過輸入模塊變換為一條一條的記憶向量,再通過匹配主語獲得候選記憶,進行cos匹配來獲取最終記憶,將最終記憶中的賓語輸出作為答案。在WebQuestions上得到了42.4的F1-score,在SimpleQuestions上得到了63.9的Accuracy。

? ? ?接著,又有很多位學者提出了其他基于知識表示學習的方法。其中論文[Xie.2018]提出一種基于深度學習的主題實體抽取模型,結合了問句單詞級別和字符級別的嵌入表示來學習問題的序列表示,并利用雙向LSTM對單詞序列編碼,最后使用CNN網絡根據單詞的上下文信息預測單詞是否為主題詞。在答案選擇部分,文章提出一種基于自注意力機制的深度語義表示模型。使用雙向LSTM和CNN網絡來構建深度語義模型,并提出一種基于局部和全局上下文的自注意力機制用于計算單詞的注意力權重。考慮語義表示學習和實體抽取任務之間的具有相互輔助作用,文章提出深度融合模型,將基于自注意力機制的深度語義表示模型與主題實體抽取模型結合,用多任務學習的方式進行聯合訓練。在NLPCC-ICCPOL 2016數據集上得到了83.45的F1-score。

? ? ?今年,Huang, WSDM. Knowledge graph embedding based question answering.2019 提出KEQA模型,不同于以往的直接計算問句和答案語義相似度的方法,本文嘗試通過關系和實體學習模型從問句分別重構出實體和關系的知識表示,并進一步重構出三元組的知識表示,最終答案為知識庫中與重構三元組最接近的三元組。同時文章也評估了不同的知識表示學習方法TransE,TransH, TransR對KEQA模型精度的影響。

1)基于符號的方法,缺點是需要大量的人工規則,構建難度相對較大。優點是通過規則可以回答更加復雜的問題,有較強的可解釋性.

2)基于向量的方法,缺點是目前只能回答簡單問題,可解釋性差。優點是不需要人工規則,構建難度相對較小。

1)復雜問句,目前End2End的模型只能解決簡單問答。

2)多源異構知識庫問答。對于開放域問答,單一的知識庫不能完全回答所有問題。

3)訓練語料,知識庫中有實體和關系,除此之外還可能有描述實體的文本信息,或許可以結合結構化知識和非結構化文本。

4)對話中的自然語言形式回復。傳統的自動問答都是采用一問一答的形式。然而在很多場景下,需要提問者和系統進行多輪對話交互,實現問答過程。這時,需要系統返回用戶的答案不再只是單一實體、概念、關系的形式,而是需要是以自然語言的形式返回答案。這就需要自動生成自然語言的回復。現有方法多利用 sequence-to-sequence 模型進行自然語言生成,在這一過程中,如何與知識庫相結合,將知識庫問答的答案加入自然語言回復中,仍是亟待解決的問題。

? ? ?機器閱讀理解在 NLP 領域近年來備受關注,自 2016 年 EMNLP 最佳數據集論文 SQuAD 發表后,各大企業院校都加入評測行列。利用機器閱讀理解技術進行問答即是對非結構化文章進行閱讀理解得到答案,可以分成匹配式QA,抽取式QA和生成式QA,目前絕大部分是抽取式QA。閱讀理解花樣很多,但是基本框架差異不大。

? ? ?SQuAD(斯坦福問答數據集):這是一個閱讀理解數據集,由眾包人員基于一系列維基百科文章的提問和對應的答案構成,其中每個問題的答案是相關文章中的文本片段或區間。SQuAD 一共有 107,785 個問題,以及配套的 536 篇文章。

(1)匹配式QA

? ? ?給定文章、問題和一個候選答案集(一般是實體或者單詞),從候選答案中選一個score最高的作為答案。這種形式比較像選擇題型,已經基本上沒人做了。

(2)抽取式 QA

? ? ? 讓用戶輸入若干篇非結構化文本及若干個問題,機器自動在閱讀理解的基礎上,在文本中自動尋找答案來回答用戶的問題。抽取式 QA 的某個問題的答案肯定出現在某篇文章中。抽取式 QA 的經典數據集是 SQuAD。

(3)生成式QA

目前只有MSRA的MS MARCO數據集,針對這個數據集,答案形式是這樣的:

1)答案完全在某篇原文

2)答案分別出現在多篇文章中

3)答案一部分出現在原文,一部分出現在問題中

4)答案的一部分出現在原文,另一部分是生成的新詞

5)答案完全不在原文出現(Yes / No 類型)

? ? ?隨著互聯網技術的成熟和普及, 網絡上出現了常問問題(frequent asked questions, FAQ)數據, 特別是在 2005 年末以來大量 的社區問答(community based question answering, CQA)數據(例如 Yahoo!Answer)出現在網絡上, 即有了大量的問題答案對數據, 問答系統進入了開放領域、基于問題答案對時期。

一般過程:問題分析 -信息檢索-答案抽取

問題分析階段:和基于自由文本的問答系統的問題分析部分基本一樣, 不過還多了幾個不同的研究點:

(1)問題主客觀的判斷? ?

(2)問題的緊急性(通常在CQA數據中)

信息檢索階段:該階段目標是如何根據問題的分析結果去縮小答案 可能存在的范圍,其中存在兩個關鍵問題:

(1)檢索模型(找到和問題類似的問題)

(2)兩個問題相似性判斷(返回答案或返回相似問題列表)

答案抽取部分:在答案抽取部分, 由于問題答案對已經有了答案, 答案抽取最重要的工作就是判斷答案的質量.研究怎么從問題的眾多答案中選擇一個最好的答案.

下面網址給出了一些論文和近期研究成果:

參考文獻:

[1]Berant.EMNLP.Semantic parsing on freebase from question-answer pairs.2013

[2]Yih.ACL.Semantic Parsing via Staged Query Graph Generation:Question Answering with Knowledge Base.2015

[3]Dong, ACL. Question answering over freebase with multi-column convolutional neural networks.2015

[4]Hao, ACL. An end-to-end model for question answering over knowledge base with cross-attention combining global knowledge.

[5]Bordes, arXiv. Large-scale simple question answering with memory networks.2015

[6]Huang, WSDM. Knowledge graph embedding based question answering.2019

[8]Susht.知乎.一份關于問答系統的小結.2018


新聞標題:Zblog問答系統 zblogwiki
URL分享:http://www.xueling.net.cn/article/ddsciej.html

其他資訊

在線咨詢
服務熱線
服務熱線:028-86922220
TOP
主站蜘蛛池模板: 国产成人超碰人人澡人人澡 | 91网页入口 | 精品入口麻豆88视频 | 国产中文成人精品久久久 | 三个男人躁我一个爽公交车上 | 精品人妻系列无码专区久久 | 国产尤物小视频在线观看 | 亚洲欧美另类激情综合区 | 狠狠综合网 | 欧洲成在人线视频免费 | 91麻豆久久久 | 久久亚洲成人网 | 亚洲免费图区在线视频 | 久久精品天天中文字幕人妻 | 久久免费高清视频 | 免费观看欧美猛交视频黑人 | 国产一区二区三区成人久久片老牛 | 自拍视频在线播放 | 91嫩草欧美久久久九九九 | 网色国产 | 亚洲中文字幕永久在线不卡 | 亚洲经典一区二区 | 视频免费观看在线 | 久久综合五月丁香六月丁香 | 欧美专区日韩视频人妻 | 91视频一区二区 | 嫩草研究院在线 | 亚洲人精品| 亚洲精品无码AV在线观看 | 国产人澡人澡澡澡人碰视 | 91在线精品视频 | 91精品国产综合久久小仙女图片 | 精品国产日韩欧美一区二区 | 国产XXXX99真实实拍 | 四虎最新影院 | 一级毛片影视 | 环太平洋免费看 | 国产97精品一区二区在线观看 | 性高湖久久久久久久久 | 在线观看亚洲 | 成人A片产无码免费奶头 |