1. 分詞是指將一段句子切分成一個(gè)個(gè)單獨的詞項,對于英文來(lái)講,單詞作為詞項,由于英文的書(shū)寫(xiě)格式,詞與詞之間必須有空格,這樣搜索引擎很容易將一段句子處理成詞項的集合;但是中文來(lái)講,詞之間沒(méi)有空格,搜索引擎不能夠直接將句子處理成詞項的集合,需要一個(gè)分詞過(guò)程,這里簡(jiǎn)單介紹搜索引擎中文分詞的方法。
一、基于詞典的分詞方法
也叫“機械分詞法”,將分詞的句子與詞典中的詞語(yǔ)進(jìn)行匹配,如果匹配成功,則將匹配的部分作為一個(gè)詞,最后生成一個(gè)詞語(yǔ)序列,根據分詞的方向與優(yōu)先長(cháng)度不同可分為一下四種方法:
1、正向匹配法
根絕句子的正序(由左至右)進(jìn)行匹配,例如:發(fā)展中國家,切分為:發(fā)展/中國/家。
2、逆向匹配法
根據句子的逆序(由右至左)進(jìn)行匹配,例如:發(fā)展中國家,切分為:發(fā)展/中/國家。
3、最大匹配法
根據詞典中最長(cháng)的詞語(yǔ)的長(cháng)度確切分,如果不是,則在使用次一級長(cháng)度去切分,假設字典中最長(cháng)的詞語(yǔ)是4個(gè),以“發(fā)展中國家”為例,首先截取前四個(gè)“發(fā)展中國”判斷,如果與字典中的詞匹配,那么就是詞項,如果不匹配,那就截取前三個(gè)詞“發(fā)展中”來(lái)判斷,以此類(lèi)推直至切分出詞項。
4、最小匹配法
同最大匹配法剛好相反。
二、基于理解分詞的方法
為了解決分詞中的歧義問(wèn)題,搜索引擎完全模擬人理解句子的過(guò)程,對句子進(jìn)行句法分析與語(yǔ)義分析,這個(gè)方法需要大量的語(yǔ)言知識和信息,計算過(guò)程比較復雜,對搜索引擎的基礎硬件要求比較高。
三、基于統計分詞的方法
隨著(zhù)時(shí)代與互聯(lián)網(wǎng)的發(fā)展,會(huì )產(chǎn)生很多新的詞匯,例如一些人名、新科技名詞、新事件名(比如XX門(mén)、XX帝等),這些詞匯未被詞典收錄,這些詞成為“未登錄詞”,這些詞匯的切分就要依靠統計分詞的方法,搜索引擎通過(guò)統計這些字在整個(gè)語(yǔ)料庫中出現的頻率,例如在語(yǔ)料庫中發(fā)現“S”、“E”、“O”同時(shí)出現的次數非常高,那么搜索引擎就判定”SEO”是一個(gè)詞匯。
功能性能 功能描述:1.新詞自動(dòng)識別 對詞典中不存在的詞,可以自動(dòng)識別,對詞典的依賴(lài)較小;2.詞性輸出 分詞結果中帶有豐富的詞性;3.動(dòng)態(tài)詞性輸出 分詞結果中的詞性并非固定,會(huì )根據不同的語(yǔ)境,賦予不同的詞性;4.特殊詞識別 比如化學(xué)、藥品等行業(yè)詞匯,地名、品牌、媒體名等;5.智能歧義解決 根據內部規則,智能解決常見(jiàn)分詞歧義問(wèn)題;6.多種編碼識別 自動(dòng)識別各種單一編碼,并支持混合編碼;7.數詞量詞優(yōu)化 自動(dòng)識別數量詞; 性能介紹:處理器:AMD Athlon II x2 250 3GHZ 單線(xiàn)程大于833KB/s,多線(xiàn)程安全。
一個(gè)PHP函數實(shí)現中文分詞。使分詞更容易,使用如下圖: Paoding(庖丁解牛分詞)基于Java的開(kāi)源中文分詞組件,提供lucene和solr 接口,具有極 高效率和 高擴展性。
引入隱喻,采用完全的面向對象設計,構思先進(jìn)。高效率:在PIII 1G內存個(gè)人機器上,1秒可準確分詞 100萬(wàn)漢字。
采用基于 不限制個(gè)數的詞典文件對文章進(jìn)行有效切分,使能夠將對詞匯分類(lèi)定義。能夠對未知的詞匯進(jìn)行合理解析。
僅支持Java語(yǔ)言。 MMSEG4J基于Java的開(kāi)源中文分詞組件,提供lucene和solr 接口:1.mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法實(shí)現的中文分詞器,并實(shí)現 lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使用。
2.MMSeg 算法有兩種分詞方法:Simple和Complex,都是基于正向最大匹配。Complex 加了四個(gè)規則過(guò)慮。
官方說(shuō):詞語(yǔ)的正確識別率達到了 98.41%。mmseg4j 已經(jīng)實(shí)現了這兩種分詞算法。
盤(pán)古分詞是一個(gè)基于.net 平臺的開(kāi)源中文分詞組件,提供lucene(.net 版本) 和HubbleDotNet的接口 高效:Core Duo 1.8 GHz 下單線(xiàn)程 分詞速度為 390K 字符每秒 準確:盤(pán)古分詞采用字典和統計結合的分詞算法,分詞準確率較高。功能:盤(pán)古分詞提供中文人名識別,簡(jiǎn)繁混合分詞,多元分詞,英文詞根化,強制一元分詞,詞頻優(yōu)先分詞,停用詞過(guò)濾,英文專(zhuān)名提取等一系列功能。
jcseg是使用Java開(kāi)發(fā)的一個(gè)中文分詞器,使用流行的mmseg算法實(shí)現。 1。
mmseg四種過(guò)濾算法,分詞準確率達到了98.4%以上。2。
支持自定義詞庫。在lexicon文件夾下,可以隨便添加/刪除/更改詞庫和詞庫內容,并且對詞庫進(jìn)行了分類(lèi),詞庫整合了《現代漢語(yǔ)詞典》和cc-cedict辭典。
3。詞條拼音和同義詞支持,jcseg為所有詞條標注了拼音,并且詞條可以添加同義詞集合,jcseg會(huì )自動(dòng)將拼音和同義詞加入到分詞結果中。
4。中文數字和分數識別,例如:"四五十個(gè)人都來(lái)了,三十分之一。
"中的"四五十"和"三十分之一",并且jcseg會(huì )自動(dòng)將其轉換為對應的阿拉伯數字。5。
支持中英混合詞的識別。例如:B超,x射線(xiàn)。
6。支持基本單字單位的識別,例如2012年。
7。良好的英文支持,自動(dòng)識別電子郵件,網(wǎng)址,分數,小數,百分數……。
8。智能圓角半角轉換處理。
9。特殊字母識別:例如:Ⅰ,Ⅱ10。
特殊數字識別:例如:①,⑩11。配對標點(diǎn)內容提取:例如:最好的Java書(shū)《java編程思想》,‘暢想杯黑客技術(shù)大賽’,被《,‘,“,『標點(diǎn)標記的內容。
12。智能中文人名識別。
中文人名識別正確率達94%以上。jcseg佩帶了jcseg.properties配置文檔,使用文本編輯器就可以自主的編輯其選項,配置適合不同應用場(chǎng)合的分詞應用。
例如:最大匹配分詞數,是否開(kāi)啟中文人名識別,是否載入詞條拼音,是否載入詞條同義詞……。 friso是使用c語(yǔ)言開(kāi)發(fā)的一個(gè)中文分詞器,使用流行的mmseg算法實(shí)現。
完全基于模塊化設計和實(shí)現,可以很方便的植入到其他程序中,例如:MySQL,PHP等。并且提供了一個(gè)php中文分詞擴展robbe。
1。只支持UTF-8編碼。
【源碼無(wú)需修改就能在各種平臺下編譯使用,加載完20萬(wàn)的詞條,內存占用穩定為14M。】。
2。mmseg四種過(guò)濾算法,分詞準確率達到了98.41%。
3。支持自定義詞庫。
在dict文件夾下,可以隨便添加/刪除/更改詞庫和詞庫詞條,并且對詞庫進(jìn)行了分類(lèi)。4。
詞庫使用了friso的Java版本jcseg的簡(jiǎn)化詞庫。5。
支持中英混合詞的識別。例如:c語(yǔ)言,IC卡。
7。很好的英文支持,電子郵件,網(wǎng)址,小數,分數,百分數。
8。支持阿拉伯數字基本單字單位的識別,例如2012年,5噸,120斤。
9。自動(dòng)英文圓角/半角,大寫(xiě)/小寫(xiě)轉換。
并且具有很高的分詞速度:簡(jiǎn)單模式:3.7M/秒,復雜模式:1.8M/秒。
1.每次從一個(gè)完整的句子里,按照從左向右的順序,識別出多種不同的3個(gè)詞的組合;然后根據下面的4條消歧規則,確定最佳的備選詞組合;選擇備選詞組合中的第1個(gè)詞,作為1次迭代的分詞結果;剩余的2個(gè)詞繼續進(jìn)行下一輪的分詞運算。采用這種辦法的好處是,為傳統的前向最大匹配算法加入了上下文信息,解決了其每次選詞只考慮詞本身,而忽視上下文相關(guān)詞的問(wèn)題。4條消歧規則包括,
1)備選詞組合的長(cháng)度之和最大。
2)備選詞組合的平均詞長(cháng)最大;
3)備選詞組合的詞長(cháng)變化最小;
4)備選詞組合中,單字詞的出現頻率統計值最高。
CRF方法是目前公認的效果最好的分詞算法。但,具體效果是否好,也依賴(lài)于你使用的訓練模型。
而百度中文分詞就是把詞按照一定的規格,將一個(gè)長(cháng)尾詞分割成幾個(gè)部分,從而概括一段話(huà)的主要內容。
在百度中文分詞中,百度強調的是:一、字符串匹配的分詞方法。我們需要有一定的字符串做基礎,就是一段詞用字符分開(kāi),比如標點(diǎn)符號,空格等。
才能夠進(jìn)行分詞匹配,我們把這些字符串叫做機械詞典。機械詞典的個(gè)數不定。
由每個(gè)搜索引擎自己確定。每個(gè)機械詞典之間還會(huì )有優(yōu)先級。
字符串匹配的分詞方法最常用的有幾種:1、正向最大匹配法(由左到右的方向)2、逆向最大匹配法(由右到左的方向)3、最少切分(使每一句中切出的詞數最小)百度中文分詞基于字符串匹配舉例給大家說(shuō)明一下:“我想去澳大利亞旅游”正向最大匹配:我想去,澳大利亞旅游逆向最大匹配:我想,想去,澳大利亞,旅游。最少切分:我把上面哪句話(huà)分成的詞要是最少的“我想去,澳大利亞旅游”這就是最短路徑分詞法,分出來(lái)就只有2個(gè)詞了。
另外,不同的搜索的詞典不同,分出來(lái)的詞也不同。二、理解的分詞方法。
這種分詞方法不需要機械詞典。這種其實(shí)就是一種機器語(yǔ)音判斷的分詞方法。
很簡(jiǎn)單,進(jìn)行句法、語(yǔ)義分析,利用句法信息和語(yǔ)義信息來(lái)處理歧義現象來(lái)分詞,這種分詞方法,現在還不成熟。處在測試階段。
三、統計的分詞方法。這個(gè)顧名思義,就是根據詞組的統計,發(fā)現那些相鄰的字出現的頻率高,那么這個(gè)詞就很重要。
可以作為用戶(hù)提供字符串中的分隔符。比如,“我的,你的,許多的,這里,這一,那里”。
等等,這些詞出現的比較多,就從這些詞里面分開(kāi)來(lái)。四、對于百度中文分詞的理解:基于統計的分詞方法得到的詞或者句子的權重要高于基于字符串匹配得到的。
就是全字匹配得到的詞的權重會(huì )高于分開(kāi)的詞的權重。根據自己的觀(guān)察現在百度大部分都是使用的是正向匹配。
百度分詞對于一句話(huà)分詞之后,還會(huì )去掉句子中的沒(méi)有意義的詞語(yǔ)。
中文分詞技術(shù)屬于自然語(yǔ)言處理技術(shù)范疇,對于一句話(huà),人可以通過(guò)自己的知識來(lái)明白哪些是詞,哪些不是詞,但如何讓計算機也能理解?其處理過(guò)程就是分詞算法。
現有的分詞算法可分為三大類(lèi):基于字符串匹配的分詞方法、基于理解的分詞方法和基于統計的分詞方法。 1、基于字符串匹配的分詞方法 這種方法又叫做機械分詞方法,它是按照一定的策略將待分析的漢字串與一個(gè)“充分大的”機器詞典中的詞條進(jìn)行配,若在詞典中找到某個(gè)字符串,則匹配成功(識別出一個(gè)詞)。
按照掃描方向的不同,串匹配分詞方法可以分為正向匹配和逆向匹配;按照不同長(cháng)度優(yōu)先匹配的情況,可以分為最大(最長(cháng))匹配和最小(最短)匹配;按照是否與詞性標注過(guò)程相結合,又可以分為單純分詞方法和分詞與標注相結合的一體化方法。常用的幾種機械分詞方法如下: 1)正向最大匹配法(由左到右的方向); 2)逆向最大匹配法(由右到左的方向); 3)最少切分(使每一句中切出的詞數最小)。
還可以將上述各種方法相互組合,例如,可以將正向最大匹配方法和逆向最大匹配方法結合起來(lái)構成雙向匹配法。由于漢語(yǔ)單字成詞的特點(diǎn),正向最小匹配和逆向最小匹配一般很少使用。
一般說(shuō)來(lái),逆向匹配的切分精度略高于正向匹配,遇到的歧義現象也較少。統計結果表明,單純使用正向最大匹配的錯誤率為1/169,單純使用逆向最大匹配的錯誤率為1/245。
但這種精度還遠遠不能滿(mǎn)足實(shí)際的需要。實(shí)際使用的分詞系統,都是把機械分詞作為一種初分手段,還需通過(guò)利用各種其它的語(yǔ)言信息來(lái)進(jìn)一步提高切分的準確率。
一種方法是改進(jìn)掃描方式,稱(chēng)為特征掃描或標志切分,優(yōu)先在待分析字符串中識別和切分出一些帶有明顯特征的詞,以這些詞作為斷點(diǎn),可將原字符串分為較小的串再來(lái)進(jìn)機械分詞,從而減少匹配的錯誤率。另一種方法是將分詞和詞類(lèi)標注結合起來(lái),利用豐富的詞類(lèi)信息對分詞決策提供幫助,并且在標注過(guò)程中又反過(guò)來(lái)對分詞結果進(jìn)行檢驗、調整,從而極大地提高切分的準確率。
對于機械分詞方法,可以建立一個(gè)一般的模型,在這方面有專(zhuān)業(yè)的學(xué)術(shù)論文,這里不做詳細論述。 2、基于理解的分詞方法 這種分詞方法是通過(guò)讓計算機模擬人對句子的理解,達到識別詞的效果。
其基本思想就是在分詞的同時(shí)進(jìn)行句法、語(yǔ)義分析,利用句法信息和語(yǔ)義信息來(lái)處理歧義現象。它通常包括三個(gè)部分:分詞子系統、句法語(yǔ)義子系統、總控部分。
在總控部分的協(xié)調下,分詞子系統可以獲得有關(guān)詞、句子等的句法和語(yǔ)義信息來(lái)對分詞歧義進(jìn)行判斷,即它模擬了人對句子的理解過(guò)程。這種分詞方法需要使用大量的語(yǔ)言知識和信息。
由于漢語(yǔ)語(yǔ)言知識的籠統、復雜性,難以將各種語(yǔ)言信息組織成機器可直接讀取的形式,因此目前基于理解的分詞系統還處在試驗階段。 3、基于統計的分詞方法 從形式上看,詞是穩定的字的組合,因此在上下文中,相鄰的字同時(shí)出現的次數越多,就越有可能構成一個(gè)詞。
因此字與字相鄰共現的頻率或概率能夠較好的反映成詞的可信度。可以對語(yǔ)料中相鄰共現的各個(gè)字的組合的頻度進(jìn)行統計,計算它們的互現信息。
定義兩個(gè)字的互現信息,計算兩個(gè)漢字X、Y的相鄰共現概率。互現信息體現了漢字之間結合關(guān)系的緊密程度。
當緊密程度高于某一個(gè)閾值時(shí),便可認為此字組可能構成了一個(gè)詞。這種方法只需對語(yǔ)料中的字組頻度進(jìn)行統計,不需要切分詞典,因而又叫做無(wú)詞典分詞法或統計取詞方法。
但這種方法也有一定的局限性,會(huì )經(jīng)常抽出一些共現頻度高、但并不是詞的常用字組,例如“這一”、“之一”、“有的”、“我的”、“許多的”等,并且對常用詞的識別精度差,時(shí)空開(kāi)銷(xiāo)大。實(shí)際應用的統計分詞系統都要使用一部基本的分詞詞典(常用詞詞典)進(jìn)行串匹配分詞,同時(shí)使用統計方法識別一些新的詞,即將串頻統計和串匹配結合起來(lái),既發(fā)揮匹配分詞切分速度快、效率高的特點(diǎn),又利用了無(wú)詞典分詞結合上下文識別生詞、自動(dòng)消除歧義的優(yōu)點(diǎn)。
到底哪種分詞算法的準確度更高,目前并無(wú)定論。對于任何一個(gè)成熟的分詞系統來(lái)說(shuō),不可能單獨依靠某一種算法來(lái)實(shí)現,都需要綜合不同的算法。
筆者了解,海量科技的分詞算法就采用“復方分詞法”,所謂復方,相當于用中藥中的復方概念,即用不同的藥材綜合起來(lái)去醫治疾病,同樣,對于中文詞的識別,需要多種算法來(lái)處理不同的問(wèn)題。 分詞中的難題 有了成熟的分詞算法,是否就能容易的解決中文分詞的問(wèn)題呢?事實(shí)遠非如此。
中文是一種十分復雜的語(yǔ)言,讓計算機理解中文語(yǔ)言更是困難。在中文分詞過(guò)程中,有兩大難題一直沒(méi)有完全突破。
1、歧義識別 歧義是指同樣的一句話(huà),可能有兩種或者更多的切分方法。例如:表面的,因為“表面”和“面的”都是詞,那么這個(gè)短語(yǔ)就可以分成“表面 的”和“表 面的”。
這種稱(chēng)為交叉歧義。像這種交叉歧義十分常見(jiàn),前面舉的“和服”的例子,其實(shí)就是因為交叉歧義引起的錯誤。
“化妝和服裝”可以分成“化妝 和 服裝”或者“化妝 和服 裝”。由于沒(méi)有人的知識去理解,計算機很難知道到底哪個(gè)方案正確。
交叉歧義相對組合歧義來(lái)說(shuō)是還算比較容易處理,組。
在自然語(yǔ)言處理技術(shù)中,中文處理技術(shù)比西文處理技術(shù)要落后很大一段距離,許多西文的處理方法中文不能直接采用,就是因為中文必需有分詞這道工序。中文分詞是其他中文信息處理的基礎,搜索引擎只是中文分詞的一個(gè)應用。其他的比如機器翻譯(MT)、語(yǔ)音合成、自動(dòng)分類(lèi)、自動(dòng)摘要、自動(dòng)校對等等,都需要用到分詞。因為中文需要分詞,可能會(huì )影響一些研究,但同時(shí)也為一些企業(yè)帶來(lái)機會(huì ),因為國外的計算機處理技術(shù)要想進(jìn)入中國市場(chǎng),首先也是要解決中文分詞問(wèn)題。
分詞準確性對搜索引擎來(lái)說(shuō)十分重要,但如果分詞速度太慢,即使準確性再高,對于搜索引擎來(lái)說(shuō)也是不可用的,因為搜索引擎需要處理數以?xún)|計的網(wǎng)頁(yè),如果分詞耗用的時(shí)間過(guò)長(cháng),會(huì )嚴重影響搜索引擎內容更新的速度。因此對于搜索引擎來(lái)說(shuō),分詞的準確性和速度,二者都需要達到很高的要求。研究中文分詞的大多是科研院校,清華、北大、哈工大、中科院、北京語(yǔ)言學(xué)院、山西大學(xué)、東北大學(xué)、IBM研究院、微軟中國研究院等都有自己的研究隊伍,而真正專(zhuān)業(yè)研究中文分詞的商業(yè)公司除了海量科技以外,幾乎沒(méi)有了。科研院校研究的技術(shù),大部分不能很快產(chǎn)品化,而一個(gè)專(zhuān)業(yè)公司的力量畢竟有限,看來(lái)中文分詞技術(shù)要想更好的服務(wù)于更多的產(chǎn)品,還有很長(cháng)一段路。
功能性能 功能描述:1.新詞自動(dòng)識別對詞典中不存在的詞,可以自動(dòng)識別,對詞典的依賴(lài)較小;2.詞性輸出分詞結果中帶有豐富的詞性;3.動(dòng)態(tài)詞性輸出分詞結果中的詞性并非固定,會(huì )根據不同的語(yǔ)境,賦予不同的詞性;4.特殊詞識別比如化學(xué)、藥品等行業(yè)詞匯,地名、品牌、媒體名等;5.智能歧義解決根據內部規則,智能解決常見(jiàn)分詞歧義問(wèn)題;6.多種編碼識別自動(dòng)識別各種單一編碼,并支持混合編碼;7.數詞量詞優(yōu)化自動(dòng)識別數量詞; 性能介紹:處理器:AMD Athlon II x2 250 3GHZ單線(xiàn)程大于833KB/s,多線(xiàn)程安全。
一個(gè)PHP函數實(shí)現中文分詞。使分詞更容易,使用如下圖: Paoding(庖丁解牛分詞)基于Java的開(kāi)源中文分詞組件,提供lucene和solr 接口,具有極 高效率和 高擴展性。
引入隱喻,采用完全的面向對象設計,構思先進(jìn)。高效率:在PIII 1G內存個(gè)人機器上,1秒可準確分詞 100萬(wàn)漢字。
采用基于 不限制個(gè)數的詞典文件對文章進(jìn)行有效切分,使能夠將對詞匯分類(lèi)定義。能夠對未知的詞匯進(jìn)行合理解析。
僅支持Java語(yǔ)言。 MMSEG4J基于Java的開(kāi)源中文分詞組件,提供lucene和solr 接口:1.mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法實(shí)現的中文分詞器,并實(shí)現 lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使用。
2.MMSeg 算法有兩種分詞方法:Simple和Complex,都是基于正向最大匹配。Complex 加了四個(gè)規則過(guò)慮。
官方說(shuō):詞語(yǔ)的正確識別率達到了 98.41%。mmseg4j 已經(jīng)實(shí)現了這兩種分詞算法。
盤(pán)古分詞是一個(gè)基于.net 平臺的開(kāi)源中文分詞組件,提供lucene(.net 版本) 和HubbleDotNet的接口高效:Core Duo 1.8 GHz 下單線(xiàn)程 分詞速度為 390K 字符每秒準確:盤(pán)古分詞采用字典和統計結合的分詞算法,分詞準確率較高。功能:盤(pán)古分詞提供中文人名識別,簡(jiǎn)繁混合分詞,多元分詞,英文詞根化,強制一元分詞,詞頻優(yōu)先分詞,停用詞過(guò)濾,英文專(zhuān)名提取等一系列功能。
jcseg是使用Java開(kāi)發(fā)的一個(gè)中文分詞器,使用流行的mmseg算法實(shí)現。 1。
mmseg四種過(guò)濾算法,分詞準確率達到了98.4%以上。2。
支持自定義詞庫。在lexicon文件夾下,可以隨便添加/刪除/更改詞庫和詞庫內容,并且對詞庫進(jìn)行了分類(lèi),詞庫整合了《現代漢語(yǔ)詞典》和cc-cedict辭典。
3。詞條拼音和同義詞支持,jcseg為所有詞條標注了拼音,并且詞條可以添加同義詞集合,jcseg會(huì )自動(dòng)將拼音和同義詞加入到分詞結果中。
4。中文數字和分數識別,例如:"四五十個(gè)人都來(lái)了,三十分之一。
"中的"四五十"和"三十分之一",并且jcseg會(huì )自動(dòng)將其轉換為對應的阿拉伯數字。5。
支持中英混合詞的識別。例如:B超,x射線(xiàn)。
6。支持基本單字單位的識別,例如2012年。
7。良好的英文支持,自動(dòng)識別電子郵件,網(wǎng)址,分數,小數,百分數……。
8。智能圓角半角轉換處理。
9。特殊字母識別:例如:Ⅰ,Ⅱ10。
特殊數字識別:例如:①,⑩11。配對標點(diǎn)內容提取:例如:最好的Java書(shū)《java編程思想》,‘暢想杯黑客技術(shù)大賽’,被《,‘,“,『標點(diǎn)標記的內容。
12。智能中文人名識別。
中文人名識別正確率達94%以上。jcseg佩帶了jcseg.properties配置文檔,使用文本編輯器就可以自主的編輯其選項,配置適合不同應用場(chǎng)合的分詞應用。
例如:最大匹配分詞數,是否開(kāi)啟中文人名識別,是否載入詞條拼音,是否載入詞條同義詞……。 friso是使用c語(yǔ)言開(kāi)發(fā)的一個(gè)中文分詞器,使用流行的mmseg算法實(shí)現。
完全基于模塊化設計和實(shí)現,可以很方便的植入到其他程序中,例如:MySQL,PHP等。并且提供了一個(gè)php中文分詞擴展robbe。
1。只支持UTF-8編碼。
【源碼無(wú)需修改就能在各種平臺下編譯使用,加載完20萬(wàn)的詞條,內存占用穩定為14M。】。
2。mmseg四種過(guò)濾算法,分詞準確率達到了98.41%。
3。支持自定義詞庫。
在dict文件夾下,可以隨便添加/刪除/更改詞庫和詞庫詞條,并且對詞庫進(jìn)行了分類(lèi)。4。
詞庫使用了friso的Java版本jcseg的簡(jiǎn)化詞庫。5。
支持中英混合詞的識別。例如:c語(yǔ)言,IC卡。
7。很好的英文支持,電子郵件,網(wǎng)址,小數,分數,百分數。
8。支持阿拉伯數字基本單字單位的識別,例如2012年,5噸,120斤。
9。自動(dòng)英文圓角/半角,大寫(xiě)/小寫(xiě)轉換。
并且具有很高的分詞速度:簡(jiǎn)單模式:3.7M/秒,復雜模式:1.8M/秒。
分詞的提出和定義
漢語(yǔ)文本是基于單字的,漢語(yǔ)的書(shū)面表達方式也是以漢字作為最小單位的,詞與詞之間沒(méi)有顯性的界限標志,因此分詞是漢語(yǔ)文本分析處理中首先要解決的問(wèn)題
添加合適的顯性的詞語(yǔ)邊界標志使得所形成的詞串反映句子的本意,這個(gè)過(guò)程就是通常所說(shuō)的分詞
~~~~~~~~~~~~~~~~~~~~~~~
分詞的意義
正確的機器自動(dòng)分詞是正確的中文信息處理的基礎
~~~~~~~~~~~~~~~~~~~~~~~
文本檢索
和服 | 務(wù) | 于三日后裁制完畢,并呈送將軍府中。
王府飯店的設施 | 和 | 服務(wù) | 是一流的。如果不分詞或者“和服務(wù)”分詞有誤,都會(huì )導致荒謬的檢索結果。
文語(yǔ)轉換
他們是來(lái) | 查 | 金泰 | 撞人那件事的。(“查”讀音為cha)
行俠仗義的 | 查金泰 | 遠近聞名。(“查”讀音為zha)
~~~~~~~~~~~~~~~~~~~~~~~
分詞面臨的主要難題
如何面向大規模開(kāi)放應用是漢語(yǔ)分詞研究亟待解決的主要問(wèn)題
如何識別未登錄詞
如何低廉地獲取語(yǔ)言學(xué)知識
詞語(yǔ)邊界歧義處理
實(shí)時(shí)性應用中的效率問(wèn)題
~~~~~~~~~~~~~~~~~~~~~~~
分詞歧義
交集型切分歧義
組合型切分歧義
~~~~~~~~~~~~~~~~~~~~~~~
分詞規范
詞是自然語(yǔ)言的一種客觀(guān)存在
漢語(yǔ)書(shū)寫(xiě)過(guò)程中并不分詞連寫(xiě),對詞組和詞、單字語(yǔ)素和單字詞的劃分因人而異,甚至因時(shí)而異
漢語(yǔ)信息處理現在需要制訂統一的分詞標準,否則將嚴重影響計算機的處理
《信息處理用現代漢語(yǔ)分詞規范及自動(dòng)分詞方法》:結合緊密、使用頻繁
~~~~~~~~~~~~~~~~~~~~~~~
具體的分詞標準實(shí)例
二字或三字詞,以及結合緊密、使用穩定的:發(fā)展 可愛(ài) 紅旗 對不起 自行車(chē) 青霉素
四字成語(yǔ)一律為分詞單位:胸有成竹 欣欣向榮
四字詞或結合緊密、使用穩定的四字詞組:社會(huì )主義 春夏秋冬 由此可見(jiàn)
五字和五字以上的諺語(yǔ)、格言等,分開(kāi)后如不違背原有組合的意義,應予切分:
時(shí)間/就/是/生命/
失敗/是/成功/之/母
結合緊密、使用穩定的詞組則不予切分:不管三七二十一
慣用語(yǔ)和有轉義的詞或詞組,在轉義的語(yǔ)言環(huán)境下,一律為分詞單位:
婦女能頂/半邊天/
他真小氣,象個(gè)/鐵公雞/
略語(yǔ)一律為分詞單位:科技 奧運會(huì ) 工農業(yè)
分詞單位加形成兒化音的“兒” :花兒 悄悄兒 玩兒
阿拉伯數字等,仍保留原有形式:1234 7890
現代漢語(yǔ)中其它語(yǔ)言的漢字音譯外來(lái)詞,不予切分:巧克力 吉普
不同的語(yǔ)言環(huán)境中的同形異構現象,按照具體語(yǔ)言環(huán)境的語(yǔ)義進(jìn)行切分:
把/手/抬起來(lái)
這個(gè)/把手/是木制的
聲明:本網(wǎng)站尊重并保護知識產(chǎn)權,根據《信息網(wǎng)絡(luò )傳播權保護條例》,如果我們轉載的作品侵犯了您的權利,請在一個(gè)月內通知我們,我們會(huì )及時(shí)刪除。
蜀ICP備2020033479號-4 Copyright ? 2016 學(xué)習?shū)B(niǎo). 頁(yè)面生成時(shí)間:2.996秒