1. 分詞是指將一段句子切分成一個個單獨的詞項,對于英文來講,單詞作為詞項,由于英文的書寫格式,詞與詞之間必須有空格,這樣搜索引擎很容易將一段句子處理成詞項的集合;但是中文來講,詞之間沒有空格,搜索引擎不能夠直接將句子處理成詞項的集合,需要一個分詞過程,這里簡單介紹搜索引擎中文分詞的方法。
一、基于詞典的分詞方法
也叫“機械分詞法”,將分詞的句子與詞典中的詞語進行匹配,如果匹配成功,則將匹配的部分作為一個詞,最后生成一個詞語序列,根據(jù)分詞的方向與優(yōu)先長度不同可分為一下四種方法:
1、正向匹配法
根絕句子的正序(由左至右)進行匹配,例如:發(fā)展中國家,切分為:發(fā)展/中國/家。
2、逆向匹配法
根據(jù)句子的逆序(由右至左)進行匹配,例如:發(fā)展中國家,切分為:發(fā)展/中/國家。
3、最大匹配法
根據(jù)詞典中最長的詞語的長度確切分,如果不是,則在使用次一級長度去切分,假設字典中最長的詞語是4個,以“發(fā)展中國家”為例,首先截取前四個“發(fā)展中國”判斷,如果與字典中的詞匹配,那么就是詞項,如果不匹配,那就截取前三個詞“發(fā)展中”來判斷,以此類推直至切分出詞項。
4、最小匹配法
同最大匹配法剛好相反。
二、基于理解分詞的方法
為了解決分詞中的歧義問題,搜索引擎完全模擬人理解句子的過程,對句子進行句法分析與語義分析,這個方法需要大量的語言知識和信息,計算過程比較復雜,對搜索引擎的基礎硬件要求比較高。
三、基于統(tǒng)計分詞的方法
隨著時代與互聯(lián)網(wǎng)的發(fā)展,會產(chǎn)生很多新的詞匯,例如一些人名、新科技名詞、新事件名(比如XX門、XX帝等),這些詞匯未被詞典收錄,這些詞成為“未登錄詞”,這些詞匯的切分就要依靠統(tǒng)計分詞的方法,搜索引擎通過統(tǒng)計這些字在整個語料庫中出現(xiàn)的頻率,例如在語料庫中發(fā)現(xiàn)“S”、“E”、“O”同時出現(xiàn)的次數(shù)非常高,那么搜索引擎就判定”SEO”是一個詞匯。
功能性能 功能描述:1.新詞自動識別 對詞典中不存在的詞,可以自動識別,對詞典的依賴較?。?.詞性輸出 分詞結果中帶有豐富的詞性;3.動態(tài)詞性輸出 分詞結果中的詞性并非固定,會根據(jù)不同的語境,賦予不同的詞性;4.特殊詞識別 比如化學、藥品等行業(yè)詞匯,地名、品牌、媒體名等;5.智能歧義解決 根據(jù)內(nèi)部規(guī)則,智能解決常見分詞歧義問題;6.多種編碼識別 自動識別各種單一編碼,并支持混合編碼;7.數(shù)詞量詞優(yōu)化 自動識別數(shù)量詞; 性能介紹:處理器:AMD Athlon II x2 250 3GHZ 單線程大于833KB/s,多線程安全。
一個PHP函數(shù)實現(xiàn)中文分詞。使分詞更容易,使用如下圖: Paoding(庖丁解牛分詞)基于Java的開源中文分詞組件,提供lucene和solr 接口,具有極 高效率和 高擴展性。
引入隱喻,采用完全的面向對象設計,構思先進。高效率:在PIII 1G內(nèi)存?zhèn)€人機器上,1秒可準確分詞 100萬漢字。
采用基于 不限制個數(shù)的詞典文件對文章進行有效切分,使能夠將對詞匯分類定義。能夠對未知的詞匯進行合理解析。
僅支持Java語言。 MMSEG4J基于Java的開源中文分詞組件,提供lucene和solr 接口:1.mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法實現(xiàn)的中文分詞器,并實現(xiàn) lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使用。
2.MMSeg 算法有兩種分詞方法:Simple和Complex,都是基于正向最大匹配。Complex 加了四個規(guī)則過慮。
官方說:詞語的正確識別率達到了 98.41%。mmseg4j 已經(jīng)實現(xiàn)了這兩種分詞算法。
盤古分詞是一個基于.net 平臺的開源中文分詞組件,提供lucene(.net 版本) 和HubbleDotNet的接口 高效:Core Duo 1.8 GHz 下單線程 分詞速度為 390K 字符每秒 準確:盤古分詞采用字典和統(tǒng)計結合的分詞算法,分詞準確率較高。功能:盤古分詞提供中文人名識別,簡繁混合分詞,多元分詞,英文詞根化,強制一元分詞,詞頻優(yōu)先分詞,停用詞過濾,英文專名提取等一系列功能。
jcseg是使用Java開發(fā)的一個中文分詞器,使用流行的mmseg算法實現(xiàn)。 1。
mmseg四種過濾算法,分詞準確率達到了98.4%以上。2。
支持自定義詞庫。在lexicon文件夾下,可以隨便添加/刪除/更改詞庫和詞庫內(nèi)容,并且對詞庫進行了分類,詞庫整合了《現(xiàn)代漢語詞典》和cc-cedict辭典。
3。詞條拼音和同義詞支持,jcseg為所有詞條標注了拼音,并且詞條可以添加同義詞集合,jcseg會自動將拼音和同義詞加入到分詞結果中。
4。中文數(shù)字和分數(shù)識別,例如:"四五十個人都來了,三十分之一。
"中的"四五十"和"三十分之一",并且jcseg會自動將其轉換為對應的阿拉伯數(shù)字。5。
支持中英混合詞的識別。例如:B超,x射線。
6。支持基本單字單位的識別,例如2012年。
7。良好的英文支持,自動識別電子郵件,網(wǎng)址,分數(shù),小數(shù),百分數(shù)……。
8。智能圓角半角轉換處理。
9。特殊字母識別:例如:Ⅰ,Ⅱ10。
特殊數(shù)字識別:例如:①,⑩11。配對標點內(nèi)容提?。豪纾鹤詈玫腏ava書《java編程思想》,‘暢想杯黑客技術大賽’,被《,‘,“,『標點標記的內(nèi)容。
12。智能中文人名識別。
中文人名識別正確率達94%以上。jcseg佩帶了jcseg.properties配置文檔,使用文本編輯器就可以自主的編輯其選項,配置適合不同應用場合的分詞應用。
例如:最大匹配分詞數(shù),是否開啟中文人名識別,是否載入詞條拼音,是否載入詞條同義詞……。 friso是使用c語言開發(fā)的一個中文分詞器,使用流行的mmseg算法實現(xiàn)。
完全基于模塊化設計和實現(xiàn),可以很方便的植入到其他程序中,例如:MySQL,PHP等。并且提供了一個php中文分詞擴展robbe。
1。只支持UTF-8編碼。
【源碼無需修改就能在各種平臺下編譯使用,加載完20萬的詞條,內(nèi)存占用穩(wěn)定為14M?!?。
2。mmseg四種過濾算法,分詞準確率達到了98.41%。
3。支持自定義詞庫。
在dict文件夾下,可以隨便添加/刪除/更改詞庫和詞庫詞條,并且對詞庫進行了分類。4。
詞庫使用了friso的Java版本jcseg的簡化詞庫。5。
支持中英混合詞的識別。例如:c語言,IC卡。
7。很好的英文支持,電子郵件,網(wǎng)址,小數(shù),分數(shù),百分數(shù)。
8。支持阿拉伯數(shù)字基本單字單位的識別,例如2012年,5噸,120斤。
9。自動英文圓角/半角,大寫/小寫轉換。
并且具有很高的分詞速度:簡單模式:3.7M/秒,復雜模式:1.8M/秒。
1.每次從一個完整的句子里,按照從左向右的順序,識別出多種不同的3個詞的組合;然后根據(jù)下面的4條消歧規(guī)則,確定最佳的備選詞組合;選擇備選詞組合中的第1個詞,作為1次迭代的分詞結果;剩余的2個詞繼續(xù)進行下一輪的分詞運算。采用這種辦法的好處是,為傳統(tǒng)的前向最大匹配算法加入了上下文信息,解決了其每次選詞只考慮詞本身,而忽視上下文相關詞的問題。4條消歧規(guī)則包括,
1)備選詞組合的長度之和最大。
2)備選詞組合的平均詞長最大;
3)備選詞組合的詞長變化最小;
4)備選詞組合中,單字詞的出現(xiàn)頻率統(tǒng)計值最高。
CRF方法是目前公認的效果最好的分詞算法。但,具體效果是否好,也依賴于你使用的訓練模型。
而百度中文分詞就是把詞按照一定的規(guī)格,將一個長尾詞分割成幾個部分,從而概括一段話的主要內(nèi)容。
在百度中文分詞中,百度強調(diào)的是:一、字符串匹配的分詞方法。我們需要有一定的字符串做基礎,就是一段詞用字符分開,比如標點符號,空格等。
才能夠進行分詞匹配,我們把這些字符串叫做機械詞典。機械詞典的個數(shù)不定。
由每個搜索引擎自己確定。每個機械詞典之間還會有優(yōu)先級。
字符串匹配的分詞方法最常用的有幾種:1、正向最大匹配法(由左到右的方向)2、逆向最大匹配法(由右到左的方向)3、最少切分(使每一句中切出的詞數(shù)最?。┌俣戎形姆衷~基于字符串匹配舉例給大家說明一下:“我想去澳大利亞旅游”正向最大匹配:我想去,澳大利亞旅游逆向最大匹配:我想,想去,澳大利亞,旅游。最少切分:我把上面哪句話分成的詞要是最少的“我想去,澳大利亞旅游”這就是最短路徑分詞法,分出來就只有2個詞了。
另外,不同的搜索的詞典不同,分出來的詞也不同。二、理解的分詞方法。
這種分詞方法不需要機械詞典。這種其實就是一種機器語音判斷的分詞方法。
很簡單,進行句法、語義分析,利用句法信息和語義信息來處理歧義現(xiàn)象來分詞,這種分詞方法,現(xiàn)在還不成熟。處在測試階段。
三、統(tǒng)計的分詞方法。這個顧名思義,就是根據(jù)詞組的統(tǒng)計,發(fā)現(xiàn)那些相鄰的字出現(xiàn)的頻率高,那么這個詞就很重要。
可以作為用戶提供字符串中的分隔符。比如,“我的,你的,許多的,這里,這一,那里”。
等等,這些詞出現(xiàn)的比較多,就從這些詞里面分開來。四、對于百度中文分詞的理解:基于統(tǒng)計的分詞方法得到的詞或者句子的權重要高于基于字符串匹配得到的。
就是全字匹配得到的詞的權重會高于分開的詞的權重。根據(jù)自己的觀察現(xiàn)在百度大部分都是使用的是正向匹配。
百度分詞對于一句話分詞之后,還會去掉句子中的沒有意義的詞語。
中文分詞技術屬于自然語言處理技術范疇,對于一句話,人可以通過自己的知識來明白哪些是詞,哪些不是詞,但如何讓計算機也能理解?其處理過程就是分詞算法。
現(xiàn)有的分詞算法可分為三大類:基于字符串匹配的分詞方法、基于理解的分詞方法和基于統(tǒng)計的分詞方法。 1、基于字符串匹配的分詞方法 這種方法又叫做機械分詞方法,它是按照一定的策略將待分析的漢字串與一個“充分大的”機器詞典中的詞條進行配,若在詞典中找到某個字符串,則匹配成功(識別出一個詞)。
按照掃描方向的不同,串匹配分詞方法可以分為正向匹配和逆向匹配;按照不同長度優(yōu)先匹配的情況,可以分為最大(最長)匹配和最?。ㄗ疃蹋┢ヅ?;按照是否與詞性標注過程相結合,又可以分為單純分詞方法和分詞與標注相結合的一體化方法。常用的幾種機械分詞方法如下: 1)正向最大匹配法(由左到右的方向); 2)逆向最大匹配法(由右到左的方向); 3)最少切分(使每一句中切出的詞數(shù)最小)。
還可以將上述各種方法相互組合,例如,可以將正向最大匹配方法和逆向最大匹配方法結合起來構成雙向匹配法。由于漢語單字成詞的特點,正向最小匹配和逆向最小匹配一般很少使用。
一般說來,逆向匹配的切分精度略高于正向匹配,遇到的歧義現(xiàn)象也較少。統(tǒng)計結果表明,單純使用正向最大匹配的錯誤率為1/169,單純使用逆向最大匹配的錯誤率為1/245。
但這種精度還遠遠不能滿足實際的需要。實際使用的分詞系統(tǒng),都是把機械分詞作為一種初分手段,還需通過利用各種其它的語言信息來進一步提高切分的準確率。
一種方法是改進掃描方式,稱為特征掃描或標志切分,優(yōu)先在待分析字符串中識別和切分出一些帶有明顯特征的詞,以這些詞作為斷點,可將原字符串分為較小的串再來進機械分詞,從而減少匹配的錯誤率。另一種方法是將分詞和詞類標注結合起來,利用豐富的詞類信息對分詞決策提供幫助,并且在標注過程中又反過來對分詞結果進行檢驗、調(diào)整,從而極大地提高切分的準確率。
對于機械分詞方法,可以建立一個一般的模型,在這方面有專業(yè)的學術論文,這里不做詳細論述。 2、基于理解的分詞方法 這種分詞方法是通過讓計算機模擬人對句子的理解,達到識別詞的效果。
其基本思想就是在分詞的同時進行句法、語義分析,利用句法信息和語義信息來處理歧義現(xiàn)象。它通常包括三個部分:分詞子系統(tǒng)、句法語義子系統(tǒng)、總控部分。
在總控部分的協(xié)調(diào)下,分詞子系統(tǒng)可以獲得有關詞、句子等的句法和語義信息來對分詞歧義進行判斷,即它模擬了人對句子的理解過程。這種分詞方法需要使用大量的語言知識和信息。
由于漢語語言知識的籠統(tǒng)、復雜性,難以將各種語言信息組織成機器可直接讀取的形式,因此目前基于理解的分詞系統(tǒng)還處在試驗階段。 3、基于統(tǒng)計的分詞方法 從形式上看,詞是穩(wěn)定的字的組合,因此在上下文中,相鄰的字同時出現(xiàn)的次數(shù)越多,就越有可能構成一個詞。
因此字與字相鄰共現(xiàn)的頻率或概率能夠較好的反映成詞的可信度??梢詫φZ料中相鄰共現(xiàn)的各個字的組合的頻度進行統(tǒng)計,計算它們的互現(xiàn)信息。
定義兩個字的互現(xiàn)信息,計算兩個漢字X、Y的相鄰共現(xiàn)概率?;ガF(xiàn)信息體現(xiàn)了漢字之間結合關系的緊密程度。
當緊密程度高于某一個閾值時,便可認為此字組可能構成了一個詞。這種方法只需對語料中的字組頻度進行統(tǒng)計,不需要切分詞典,因而又叫做無詞典分詞法或統(tǒng)計取詞方法。
但這種方法也有一定的局限性,會經(jīng)常抽出一些共現(xiàn)頻度高、但并不是詞的常用字組,例如“這一”、“之一”、“有的”、“我的”、“許多的”等,并且對常用詞的識別精度差,時空開銷大。實際應用的統(tǒng)計分詞系統(tǒng)都要使用一部基本的分詞詞典(常用詞詞典)進行串匹配分詞,同時使用統(tǒng)計方法識別一些新的詞,即將串頻統(tǒng)計和串匹配結合起來,既發(fā)揮匹配分詞切分速度快、效率高的特點,又利用了無詞典分詞結合上下文識別生詞、自動消除歧義的優(yōu)點。
到底哪種分詞算法的準確度更高,目前并無定論。對于任何一個成熟的分詞系統(tǒng)來說,不可能單獨依靠某一種算法來實現(xiàn),都需要綜合不同的算法。
筆者了解,海量科技的分詞算法就采用“復方分詞法”,所謂復方,相當于用中藥中的復方概念,即用不同的藥材綜合起來去醫(yī)治疾病,同樣,對于中文詞的識別,需要多種算法來處理不同的問題。 分詞中的難題 有了成熟的分詞算法,是否就能容易的解決中文分詞的問題呢?事實遠非如此。
中文是一種十分復雜的語言,讓計算機理解中文語言更是困難。在中文分詞過程中,有兩大難題一直沒有完全突破。
1、歧義識別 歧義是指同樣的一句話,可能有兩種或者更多的切分方法。例如:表面的,因為“表面”和“面的”都是詞,那么這個短語就可以分成“表面 的”和“表 面的”。
這種稱為交叉歧義。像這種交叉歧義十分常見,前面舉的“和服”的例子,其實就是因為交叉歧義引起的錯誤。
“化妝和服裝”可以分成“化妝 和 服裝”或者“化妝 和服 裝”。由于沒有人的知識去理解,計算機很難知道到底哪個方案正確。
交叉歧義相對組合歧義來說是還算比較容易處理,組。
在自然語言處理技術中,中文處理技術比西文處理技術要落后很大一段距離,許多西文的處理方法中文不能直接采用,就是因為中文必需有分詞這道工序。中文分詞是其他中文信息處理的基礎,搜索引擎只是中文分詞的一個應用。其他的比如機器翻譯(MT)、語音合成、自動分類、自動摘要、自動校對等等,都需要用到分詞。因為中文需要分詞,可能會影響一些研究,但同時也為一些企業(yè)帶來機會,因為國外的計算機處理技術要想進入中國市場,首先也是要解決中文分詞問題。
分詞準確性對搜索引擎來說十分重要,但如果分詞速度太慢,即使準確性再高,對于搜索引擎來說也是不可用的,因為搜索引擎需要處理數(shù)以億計的網(wǎng)頁,如果分詞耗用的時間過長,會嚴重影響搜索引擎內(nèi)容更新的速度。因此對于搜索引擎來說,分詞的準確性和速度,二者都需要達到很高的要求。研究中文分詞的大多是科研院校,清華、北大、哈工大、中科院、北京語言學院、山西大學、東北大學、IBM研究院、微軟中國研究院等都有自己的研究隊伍,而真正專業(yè)研究中文分詞的商業(yè)公司除了海量科技以外,幾乎沒有了??蒲性盒Q芯康募夹g,大部分不能很快產(chǎn)品化,而一個專業(yè)公司的力量畢竟有限,看來中文分詞技術要想更好的服務于更多的產(chǎn)品,還有很長一段路。
功能性能 功能描述:1.新詞自動識別對詞典中不存在的詞,可以自動識別,對詞典的依賴較??;2.詞性輸出分詞結果中帶有豐富的詞性;3.動態(tài)詞性輸出分詞結果中的詞性并非固定,會根據(jù)不同的語境,賦予不同的詞性;4.特殊詞識別比如化學、藥品等行業(yè)詞匯,地名、品牌、媒體名等;5.智能歧義解決根據(jù)內(nèi)部規(guī)則,智能解決常見分詞歧義問題;6.多種編碼識別自動識別各種單一編碼,并支持混合編碼;7.數(shù)詞量詞優(yōu)化自動識別數(shù)量詞; 性能介紹:處理器:AMD Athlon II x2 250 3GHZ單線程大于833KB/s,多線程安全。
一個PHP函數(shù)實現(xiàn)中文分詞。使分詞更容易,使用如下圖: Paoding(庖丁解牛分詞)基于Java的開源中文分詞組件,提供lucene和solr 接口,具有極 高效率和 高擴展性。
引入隱喻,采用完全的面向對象設計,構思先進。高效率:在PIII 1G內(nèi)存?zhèn)€人機器上,1秒可準確分詞 100萬漢字。
采用基于 不限制個數(shù)的詞典文件對文章進行有效切分,使能夠將對詞匯分類定義。能夠對未知的詞匯進行合理解析。
僅支持Java語言。 MMSEG4J基于Java的開源中文分詞組件,提供lucene和solr 接口:1.mmseg4j 用 Chih-Hao Tsai 的 MMSeg 算法實現(xiàn)的中文分詞器,并實現(xiàn) lucene 的 analyzer 和 solr 的TokenizerFactory 以方便在Lucene和Solr中使用。
2.MMSeg 算法有兩種分詞方法:Simple和Complex,都是基于正向最大匹配。Complex 加了四個規(guī)則過慮。
官方說:詞語的正確識別率達到了 98.41%。mmseg4j 已經(jīng)實現(xiàn)了這兩種分詞算法。
盤古分詞是一個基于.net 平臺的開源中文分詞組件,提供lucene(.net 版本) 和HubbleDotNet的接口高效:Core Duo 1.8 GHz 下單線程 分詞速度為 390K 字符每秒準確:盤古分詞采用字典和統(tǒng)計結合的分詞算法,分詞準確率較高。功能:盤古分詞提供中文人名識別,簡繁混合分詞,多元分詞,英文詞根化,強制一元分詞,詞頻優(yōu)先分詞,停用詞過濾,英文專名提取等一系列功能。
jcseg是使用Java開發(fā)的一個中文分詞器,使用流行的mmseg算法實現(xiàn)。 1。
mmseg四種過濾算法,分詞準確率達到了98.4%以上。2。
支持自定義詞庫。在lexicon文件夾下,可以隨便添加/刪除/更改詞庫和詞庫內(nèi)容,并且對詞庫進行了分類,詞庫整合了《現(xiàn)代漢語詞典》和cc-cedict辭典。
3。詞條拼音和同義詞支持,jcseg為所有詞條標注了拼音,并且詞條可以添加同義詞集合,jcseg會自動將拼音和同義詞加入到分詞結果中。
4。中文數(shù)字和分數(shù)識別,例如:"四五十個人都來了,三十分之一。
"中的"四五十"和"三十分之一",并且jcseg會自動將其轉換為對應的阿拉伯數(shù)字。5。
支持中英混合詞的識別。例如:B超,x射線。
6。支持基本單字單位的識別,例如2012年。
7。良好的英文支持,自動識別電子郵件,網(wǎng)址,分數(shù),小數(shù),百分數(shù)……。
8。智能圓角半角轉換處理。
9。特殊字母識別:例如:Ⅰ,Ⅱ10。
特殊數(shù)字識別:例如:①,⑩11。配對標點內(nèi)容提?。豪纾鹤詈玫腏ava書《java編程思想》,‘暢想杯黑客技術大賽’,被《,‘,“,『標點標記的內(nèi)容。
12。智能中文人名識別。
中文人名識別正確率達94%以上。jcseg佩帶了jcseg.properties配置文檔,使用文本編輯器就可以自主的編輯其選項,配置適合不同應用場合的分詞應用。
例如:最大匹配分詞數(shù),是否開啟中文人名識別,是否載入詞條拼音,是否載入詞條同義詞……。 friso是使用c語言開發(fā)的一個中文分詞器,使用流行的mmseg算法實現(xiàn)。
完全基于模塊化設計和實現(xiàn),可以很方便的植入到其他程序中,例如:MySQL,PHP等。并且提供了一個php中文分詞擴展robbe。
1。只支持UTF-8編碼。
【源碼無需修改就能在各種平臺下編譯使用,加載完20萬的詞條,內(nèi)存占用穩(wěn)定為14M?!?。
2。mmseg四種過濾算法,分詞準確率達到了98.41%。
3。支持自定義詞庫。
在dict文件夾下,可以隨便添加/刪除/更改詞庫和詞庫詞條,并且對詞庫進行了分類。4。
詞庫使用了friso的Java版本jcseg的簡化詞庫。5。
支持中英混合詞的識別。例如:c語言,IC卡。
7。很好的英文支持,電子郵件,網(wǎng)址,小數(shù),分數(shù),百分數(shù)。
8。支持阿拉伯數(shù)字基本單字單位的識別,例如2012年,5噸,120斤。
9。自動英文圓角/半角,大寫/小寫轉換。
并且具有很高的分詞速度:簡單模式:3.7M/秒,復雜模式:1.8M/秒。
分詞的提出和定義
漢語文本是基于單字的,漢語的書面表達方式也是以漢字作為最小單位的,詞與詞之間沒有顯性的界限標志,因此分詞是漢語文本分析處理中首先要解決的問題
添加合適的顯性的詞語邊界標志使得所形成的詞串反映句子的本意,這個過程就是通常所說的分詞
~~~~~~~~~~~~~~~~~~~~~~~
分詞的意義
正確的機器自動分詞是正確的中文信息處理的基礎
~~~~~~~~~~~~~~~~~~~~~~~
文本檢索
和服 | 務 | 于三日后裁制完畢,并呈送將軍府中。
王府飯店的設施 | 和 | 服務 | 是一流的。如果不分詞或者“和服務”分詞有誤,都會導致荒謬的檢索結果。
文語轉換
他們是來 | 查 | 金泰 | 撞人那件事的。(“查”讀音為cha)
行俠仗義的 | 查金泰 | 遠近聞名。(“查”讀音為zha)
~~~~~~~~~~~~~~~~~~~~~~~
分詞面臨的主要難題
如何面向大規(guī)模開放應用是漢語分詞研究亟待解決的主要問題
如何識別未登錄詞
如何低廉地獲取語言學知識
詞語邊界歧義處理
實時性應用中的效率問題
~~~~~~~~~~~~~~~~~~~~~~~
分詞歧義
交集型切分歧義
組合型切分歧義
~~~~~~~~~~~~~~~~~~~~~~~
分詞規(guī)范
詞是自然語言的一種客觀存在
漢語書寫過程中并不分詞連寫,對詞組和詞、單字語素和單字詞的劃分因人而異,甚至因時而異
漢語信息處理現(xiàn)在需要制訂統(tǒng)一的分詞標準,否則將嚴重影響計算機的處理
《信息處理用現(xiàn)代漢語分詞規(guī)范及自動分詞方法》:結合緊密、使用頻繁
~~~~~~~~~~~~~~~~~~~~~~~
具體的分詞標準實例
二字或三字詞,以及結合緊密、使用穩(wěn)定的:發(fā)展 可愛 紅旗 對不起 自行車 青霉素
四字成語一律為分詞單位:胸有成竹 欣欣向榮
四字詞或結合緊密、使用穩(wěn)定的四字詞組:社會主義 春夏秋冬 由此可見
五字和五字以上的諺語、格言等,分開后如不違背原有組合的意義,應予切分:
時間/就/是/生命/
失敗/是/成功/之/母
結合緊密、使用穩(wěn)定的詞組則不予切分:不管三七二十一
慣用語和有轉義的詞或詞組,在轉義的語言環(huán)境下,一律為分詞單位:
婦女能頂/半邊天/
他真小氣,象個/鐵公雞/
略語一律為分詞單位:科技 奧運會 工農(nóng)業(yè)
分詞單位加形成兒化音的“兒” :花兒 悄悄兒 玩兒
阿拉伯數(shù)字等,仍保留原有形式:1234 7890
現(xiàn)代漢語中其它語言的漢字音譯外來詞,不予切分:巧克力 吉普
不同的語言環(huán)境中的同形異構現(xiàn)象,按照具體語言環(huán)境的語義進行切分:
把/手/抬起來
這個/把手/是木制的
聲明:本網(wǎng)站尊重并保護知識產(chǎn)權,根據(jù)《信息網(wǎng)絡傳播權保護條例》,如果我們轉載的作品侵犯了您的權利,請在一個月內(nèi)通知我們,我們會及時刪除。
蜀ICP備2020033479號-4 Copyright ? 2016 學習鳥. 頁面生成時間:2.996秒