
語言是人類區(qū)別其他動物的本質(zhì)特性,也是人工智能的一個重要,甚至核心部分。用自然語言與計算機進行通信,這是人們長期以來所追求的。這就是涉及到了小編今天給大家推薦的這篇文章:詳解自然語言處理(NLP)5大語義分析技術及14類應用(建議收藏),希望這篇文章對于大家NLP的理解和應用有所幫助。
作者:達觀數(shù)據(jù)
來源:大數(shù)據(jù)DT(ID:hzdashuju)
內(nèi)容摘編自《智能RPA實戰(zhàn)》
導讀:自然語言處理(Natural Language Processing,NLP)技術是與自然語言的計算機處理有關的所有技術的統(tǒng)稱,其目的是使計算機能夠理解和接受人類用自然語言輸入的指令,完成從一種語言到另一種語言的翻譯功能。
自然語言處理技術的研究,可以豐富計算機知識處理的研究內(nèi)容,推動人工智能技術的發(fā)展。
01 語義分析技術
自然語言處理技術的核心為語義分析。語義分析是一種基于自然語言進行語義信息分析的方法,不僅進行詞法分析和句法分析這類語法水平上的分析,而且還涉及單詞、詞組、句子、段落所包含的意義,目的是用句子的語義結構來表示語言的結構。語義分析技術具體包括如下幾點。
1. 詞法分析
詞法分析包括詞形分析和詞匯分析兩個方面。一般來講,詞形分析主要表現(xiàn)在對單詞的前綴、后綴等進行分析,而詞匯分析則表現(xiàn)在對整個詞匯系統(tǒng)的控制,從而能夠較準確地分析用戶輸入信息的特征,最終準確地完成搜索過程。
2. 句法分析
句法分析是對用戶輸入的自然語言進行詞匯短語的分析,目的是識別句子的句法結構,以實現(xiàn)自動句法分析的過程。
3. 語用分析
語用分析相對于語義分析又增加了對上下文、語言背景、語境等的分析,即從文章的結構中提取出意象、人際關系等附加信息,是一種更高級的語言學分析。它將語句中的內(nèi)容與現(xiàn)實生活中的細節(jié)關聯(lián)在一起,從而形成動態(tài)的表意結構。
4. 語境分析
語境分析主要是指對原查詢語篇之外的大量“空隙”進行分析,以便更準確地解釋所要查詢語言的技術。這些“空隙”包括一般的知識、特定領域的知識以及查詢用戶的需求等。
5. 自然語言生成
AI驅(qū)動的引擎能夠根據(jù)收集的數(shù)據(jù)生成描述,通過遵循將數(shù)據(jù)中的結果轉(zhuǎn)換為散文的規(guī)則,在人與技術之間創(chuàng)建無縫交互的軟件引擎。結構化性能數(shù)據(jù)可以通過管道傳輸?shù)阶匀徽Z言引擎中,以自動編寫內(nèi)部和外部的管理報告。
自然語言生成接收結構化表示的語義,以輸出符合語法的、流暢的、與輸入語義一致的自然語言文本。早期大多采用管道模型研究自然語言生成,管道模型根據(jù)不同的階段將研究過程分解為如下三個子任務。
早期基于規(guī)則的自然語言生成技術,在每個子任務上均采用了不同的語言學規(guī)則或領域知識,實現(xiàn)了從輸入語義到輸出文本的轉(zhuǎn)換。
鑒于基于規(guī)則的自然語言生成系統(tǒng)存在的不足之處,近幾年來,學者們開始了基于數(shù)據(jù)驅(qū)動的自然語言生成技術的研究,從淺層的統(tǒng)計機器學習模型,到深層的神經(jīng)網(wǎng)絡模型,對語言生成過程中每個子任務的建模,以及多個子任務的聯(lián)合建模,開展了相關的研究,目前主流的自然語言生成技術主要有基于數(shù)據(jù)驅(qū)動的自然語言生成技術和基于深度神經(jīng)網(wǎng)絡的自然語言生成技術。
02 自然語言處理應用
自然語言處理應用的技術體系主要包括字詞級別的自然語言處理,句法級別的自然語言處理和篇章級別的自然語言處理。
1. 中文分詞
中文分詞是計算機根據(jù)語義模型,自動將漢字序列切分為符合人類語義理解的詞匯。分詞就是將連續(xù)的字序列按照一定的規(guī)范重新組合成詞序列的過程。
在英文的行文中,單詞之間是以空格作為自然分界符的,而中文只是字、句和段能夠通過明顯的分界符來進行簡單的劃界,唯獨詞沒有一個形式上的分界符,雖然英文也同樣存在短語的劃分問題,不過在詞這一層面上,中文比英文要復雜得多、困難得多。
2. 命名實體識別
命名實體識別又稱作“專名識別”(NER),是指對具有特定意義的實體進行自動識別的技術,是信息提取、知識圖譜、問答系統(tǒng)、句法分析、搜索引擎、機器翻譯等應用的重要基礎。
3. 詞性標注
詞性標注(Part-of-Speech tagging或POS tagging)又稱詞類標注,是指為分詞結果中的每個單詞標注一個正確的詞性的程序。具體來說就是,確定每個詞是名詞、動詞、形容詞或者是其他詞性的過程(如圖3-2所示)。
▲圖3-2 詞性標注
在漢語中,詞性標注比較簡單,因為漢語詞匯詞性多變的情況比較少見,大多數(shù)詞語只有一個詞性,或者出現(xiàn)頻次最高的詞性遠遠高于第二位的詞性。常用的方法有:基于最大熵的詞性標注、基于統(tǒng)計的最大概率輸出詞性、基于隱馬爾可夫模型(HMM)的詞性標注。
4. 同義詞分析
由于不同地區(qū)的文化差異,輸入的查詢文字很可能會出現(xiàn)描述不一致的問題。此時,業(yè)務系統(tǒng)需要對用戶的輸入做同義詞、糾錯、歸一化處理。同義詞挖掘是一項基礎工作,同義詞算法包括詞典、百科詞條、元搜索數(shù)據(jù)、上下文相關性挖掘,等等。
5. 詞向量分析
詞向量技術是指將詞轉(zhuǎn)化為稠密向量,相似的詞對應的詞向量也相近。在自然語言處理應用中,詞向量作為深度學習模型的特征進行輸入。因此,最終模型的效果在很大程度上取決于詞向量的效果。一般來說,字詞表示有兩種方式:one-hot及分布式表示。
詞向量的生成可分為兩種方法:基于統(tǒng)計方法(例如,共現(xiàn)矩陣、奇異值分解(SVD)和基于語言模型(例如,word2vec中使用的CBOW、Skip-gram等)。
6. 依存文法分析
依存文法通過分析語言單位內(nèi)成分之前的依存關系解釋其句法結構,主張句子中的核心謂語動詞是支配其他成分的中心成分。而它本身卻不會受到其他任何成分的支配,所有受支配的成分都以某種關系從屬于支配者,如圖3-3所示。
▲圖3-3 依存文法分析距離
從分析結果中我們可以看到,句子的核心謂語動詞為“召開”,主語是“民航局”,“召開”的賓語是“會”,“會”的修飾語是“通用航空發(fā)展工作專題”。有了上面的句法分析結果,我們就可以比較容易地看到,是“民航局”“召開”了會議,而不是“促進”了會議,即使“促進”距離“會”更近。
7. 詞位置分析
文章中不同位置的詞對文章語義的貢獻度也不同。文章首尾出現(xiàn)的詞成為主題詞、關鍵詞的概率要大于出現(xiàn)在正文中的詞。對文章中的詞的位置進行建模,賦予不同位置不同的權重,從而能夠更好地對文章進行向量化表示。
8. 語義歸一化
語義歸一化通常是指從文章中識別出具有相同意思的詞或短語,其主要的任務是共指消解。共指消解是自然語言處理中的核心問題,在機器翻譯、信息抽取以及問答等領域都有著非常重要的作用。
就拿常見的信息抽取的一個成型系統(tǒng)來講,微軟的學術搜索引擎會存有一些作者的檔案資料,這些信息可能有一部分就是根據(jù)共指對象抽取出來的。比如,在一個教授的訪談錄中,教授的名字可能只會出現(xiàn)一兩次,更多的可能是“我”“某某博士”“某某教授”或“他”之類的代稱,不出意外的話,這其中也會有一些同樣的詞代表記者,如何將這些詞對應到正確的人,將會成為信息抽取的關鍵所在。
9. 文本糾錯
文本糾錯任務指的是,對于自然語言在使用過程中出現(xiàn)的錯誤進行自動地識別和糾正。文本糾錯任務主要包含兩個子任務,分別為錯誤識別和錯誤修正。錯誤識別的任務是指出錯誤出現(xiàn)的句子的位置,錯誤修正是指在識別的基礎上自動進行更正。
相比于英文糾錯來說,中文糾錯的主要困難在于中文的語言特性:中文的詞邊界以及中文龐大的字符集。由于中文的語言特性,兩種語言的錯誤類型也是不同的。
英文的修改操作包括插入、刪除、替換和移動(移動是指兩個字母交換順序等),而對于中文來說,因為每一個中文漢字都可獨立成詞,因此插入、刪除和移動的錯誤都只是作為語法錯誤。由于大部分的用戶均為母語用戶,且輸入法一般會給出正確提示,語法錯誤的情況一般比較少,因此,中文輸入糾錯主要集中在替換錯誤上。
10. 標簽提取
文檔的標簽通常是幾個詞語或者短語,并以此作為對該文檔主要內(nèi)容的提要。標簽是人們快速了解文檔內(nèi)容、把握主題的重要方式,在科技論文、信息存儲、新聞報道中具有極其廣泛的應用。文檔的標簽通常具有可讀性、相關性、覆蓋度等特點。
11. 文本相似度
文本相似度在不同領域受到了廣泛的討論,然而由于應用場景的不同,其內(nèi)涵也會有差異,因此沒有統(tǒng)一的定義。
從信息論的角度來看,相似度與文本之間的共性和差異度有關,共性越大、差異度越小,則相似度越高;共性越小、差異度越大,則相似度越低;相似度最大的情況是文本完全相同。
相似度計算一般是指計算事物的特征之間的距離,如果距離小,那么相似度就大;如果距離大,那么相似度就小。
相似度計算的方法可以分為四大類:基于字符串的方法、基于語料庫的方法、基于知識的方法和其他方法。
12. 主題模型
主題分析模型(Topic Model)是以非監(jiān)督學習的方式對文檔的隱含語義結構進行統(tǒng)計和聚類,以用于挖掘文本中所蘊含的語義結構的技術。隱含狄利克雷分布(Latent Dirichlet Allocation,LDA)是常用的主題模型計算方法。
13. 文本分類
按照特定行業(yè)的文檔分類體系,計算機自動閱讀文檔的內(nèi)容并將其歸屬到相應類目的技術體系下。其典型的處理過程可分為訓練和運轉(zhuǎn)兩種。即計算機預先閱讀各個類目的文檔并提取特征,完成有監(jiān)督的學習訓練,在運轉(zhuǎn)階段識別新文檔的內(nèi)容并完成歸類。
14. 文本聚類
文本聚類主要是依據(jù)著名的聚類假設:同類的文檔相似度較大,而不同類的文檔相似度較小。作為一種無監(jiān)督的機器學習方法,聚類由于不需要訓練過程,以及不需要預先對文檔的類別進行手工標注,因此具有一定的靈活性和較高的自動化處理能力。
文本聚類已經(jīng)成為對文本信息進行有效地組織、摘要和導航的重要手段。文本聚類的方法主要有基于劃分的聚類算法、基于層次的聚類算法和基于密度的聚類算法。
關于作者:達觀數(shù)據(jù),中國智能RPA領域的龍頭企業(yè),獨立開發(fā)了全套“RPA+AI”系統(tǒng),擁有核心知識產(chǎn)權。達觀智能RPA產(chǎn)品是業(yè)界不依賴微軟底層開發(fā)框架、未使用第三方開源框架的RPA產(chǎn)品。
本文摘編自《智能RPA實戰(zhàn)》,經(jīng)出版方授權發(fā)布。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
SQL Server 中 CONVERT 函數(shù)的日期轉(zhuǎn)換:從基礎用法到實戰(zhàn)優(yōu)化 在 SQL Server 的數(shù)據(jù)處理中,日期格式轉(zhuǎn)換是高頻需求 —— 無論 ...
2025-09-18MySQL 大表拆分與關聯(lián)查詢效率:打破 “拆分必慢” 的認知誤區(qū) 在 MySQL 數(shù)據(jù)庫管理中,“大表” 始終是性能優(yōu)化繞不開的話題。 ...
2025-09-18CDA 數(shù)據(jù)分析師:表結構數(shù)據(jù) “獲取 - 加工 - 使用” 全流程的賦能者 表結構數(shù)據(jù)(如數(shù)據(jù)庫表、Excel 表、CSV 文件)是企業(yè)數(shù)字 ...
2025-09-18DSGE 模型中的 Et:理性預期算子的內(nèi)涵、作用與應用解析 動態(tài)隨機一般均衡(Dynamic Stochastic General Equilibrium, DSGE)模 ...
2025-09-17Python 提取 TIF 中地名的完整指南 一、先明確:TIF 中的地名有哪兩種存在形式? 在開始提取前,需先判斷 TIF 文件的類型 —— ...
2025-09-17CDA 數(shù)據(jù)分析師:解鎖表結構數(shù)據(jù)特征價值的專業(yè)核心 表結構數(shù)據(jù)(以 “行 - 列” 規(guī)范存儲的結構化數(shù)據(jù),如數(shù)據(jù)庫表、Excel 表、 ...
2025-09-17Excel 導入數(shù)據(jù)含缺失值?詳解 dropna 函數(shù)的功能與實戰(zhàn)應用 在用 Python(如 pandas 庫)處理 Excel 數(shù)據(jù)時,“缺失值” 是高頻 ...
2025-09-16深入解析卡方檢驗與 t 檢驗:差異、適用場景與實踐應用 在數(shù)據(jù)分析與統(tǒng)計學領域,假設檢驗是驗證研究假設、判斷數(shù)據(jù)差異是否 “ ...
2025-09-16CDA 數(shù)據(jù)分析師:掌控表格結構數(shù)據(jù)全功能周期的專業(yè)操盤手 表格結構數(shù)據(jù)(以 “行 - 列” 存儲的結構化數(shù)據(jù),如 Excel 表、數(shù)據(jù) ...
2025-09-16MySQL 執(zhí)行計劃中 rows 數(shù)量的準確性解析:原理、影響因素與優(yōu)化 在 MySQL SQL 調(diào)優(yōu)中,EXPLAIN執(zhí)行計劃是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 對象的 text 與 content:區(qū)別、場景與實踐指南 在 Python 進行 HTTP 網(wǎng)絡請求開發(fā)時(如使用requests ...
2025-09-15CDA 數(shù)據(jù)分析師:激活表格結構數(shù)據(jù)價值的核心操盤手 表格結構數(shù)據(jù)(如 Excel 表格、數(shù)據(jù)庫表)是企業(yè)最基礎、最核心的數(shù)據(jù)形態(tài) ...
2025-09-15Python HTTP 請求工具對比:urllib.request 與 requests 的核心差異與選擇指南 在 Python 處理 HTTP 請求(如接口調(diào)用、數(shù)據(jù)爬取 ...
2025-09-12解決 pd.read_csv 讀取長浮點數(shù)據(jù)的科學計數(shù)法問題 為幫助 Python 數(shù)據(jù)從業(yè)者解決pd.read_csv讀取長浮點數(shù)據(jù)時的科學計數(shù)法問題 ...
2025-09-12CDA 數(shù)據(jù)分析師:業(yè)務數(shù)據(jù)分析步驟的落地者與價值優(yōu)化者 業(yè)務數(shù)據(jù)分析是企業(yè)解決日常運營問題、提升執(zhí)行效率的核心手段,其價值 ...
2025-09-12用 SQL 驗證業(yè)務邏輯:從規(guī)則拆解到數(shù)據(jù)把關的實戰(zhàn)指南 在業(yè)務系統(tǒng)落地過程中,“業(yè)務邏輯” 是連接 “需求設計” 與 “用戶體驗 ...
2025-09-11塔吉特百貨孕婦營銷案例:數(shù)據(jù)驅(qū)動下的精準零售革命與啟示 在零售行業(yè) “流量紅利見頂” 的當下,精準營銷成為企業(yè)突圍的核心方 ...
2025-09-11CDA 數(shù)據(jù)分析師與戰(zhàn)略 / 業(yè)務數(shù)據(jù)分析:概念辨析與協(xié)同價值 在數(shù)據(jù)驅(qū)動決策的體系中,“戰(zhàn)略數(shù)據(jù)分析”“業(yè)務數(shù)據(jù)分析” 是企業(yè) ...
2025-09-11Excel 數(shù)據(jù)聚類分析:從操作實踐到業(yè)務價值挖掘 在數(shù)據(jù)分析場景中,聚類分析作為 “無監(jiān)督分組” 的核心工具,能從雜亂數(shù)據(jù)中挖 ...
2025-09-10統(tǒng)計模型的核心目的:從數(shù)據(jù)解讀到?jīng)Q策支撐的價值導向 統(tǒng)計模型作為數(shù)據(jù)分析的核心工具,并非簡單的 “公式堆砌”,而是圍繞特定 ...
2025-09-10