前言
自然語言處理是人工智能領(lǐng)域的一個(gè)重要分支,它是一門融語言學(xué)、計(jì)算機(jī)科學(xué)、數(shù)學(xué)于一體的科學(xué)。自然語言處理并不是一般地研究自然語言,而在于研制能有效地實(shí)現(xiàn)自然語言通信的計(jì)算機(jī)系統(tǒng),特別是其中的軟件系統(tǒng)。自然語言處理主要應(yīng)用于機(jī)器翻譯、輿情監(jiān)測、自動(dòng)摘要、觀點(diǎn)提取、文本分類、問題回答、文本語義對比、語音識別、中文OCR等領(lǐng)域。
或許你已經(jīng)看過了很多的深度學(xué)習(xí),人工智能,自然語言處理知識,但是依舊實(shí)戰(zhàn)能力欠缺。
有三AI今年大力推出各種經(jīng)典任務(wù)的項(xiàng)目實(shí)戰(zhàn)課程,所謂項(xiàng)目課,就是以簡單的原理回顧+詳細(xì)的項(xiàng)目實(shí)戰(zhàn)的模式,針對具體的某一個(gè)主題,進(jìn)行代碼級的實(shí)戰(zhàn)講解。
本次我們給大家介紹現(xiàn)在已經(jīng)上線的自然語言處理方向的項(xiàng)目實(shí)戰(zhàn)課程!
基于TextCNN的文本分類實(shí)戰(zhàn)
文本分類是自然語言處理領(lǐng)域最活躍的研究方向之一,目前文本分類在工業(yè)界的應(yīng)用場景非常普遍,從新聞的分類、商品評論信息的情感分類到微博信息打標(biāo)簽輔助推薦系統(tǒng),了解文本分類技術(shù)是NLP初學(xué)者比較好的切入點(diǎn),較簡單且應(yīng)用場景高頻。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景和解決方案的設(shè)計(jì)。
第2部分:模型選擇,包括機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)模型比較,模型搭建部分的代碼講解。
第3部分:數(shù)據(jù)讀取與預(yù)處理(代碼),包括數(shù)據(jù)讀取和數(shù)據(jù)預(yù)處理兩部分內(nèi)容,以及相關(guān)的代碼講解。
第4部分:模型訓(xùn)練與推理(代碼),包括模型訓(xùn)練和模型測評兩部分內(nèi)容,還有相關(guān)的代碼講解。
第5部分:總結(jié)與展望,總結(jié)了TextCNN 的優(yōu)缺點(diǎn)以及模型的改進(jìn)。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
基于TextRank的文本摘要抽取實(shí)戰(zhàn)
自動(dòng)文本摘要的技術(shù)主要分為抽取式和生成式,本實(shí)戰(zhàn)項(xiàng)目課程將介紹抽取式文本摘要的經(jīng)典模型 — TextRank。TextRank 創(chuàng)造性的將 PageRank (網(wǎng)頁排序算法)這一圖算法的思想運(yùn)用于文本中。通過學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握 TextRank 在新聞分類實(shí)戰(zhàn)中的運(yùn)用,并掌握文本摘要的發(fā)展和技術(shù)要點(diǎn)。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問題建模,本部分內(nèi)容可以免費(fèi)收聽。
第2部分:模型選擇與搭建,包括有監(jiān)督抽取式文本摘要方案、無監(jiān)督抽取式文本摘要方案、TextRank模型搭建部分的代碼講解。
第3部分:數(shù)據(jù)讀取與預(yù)處理(代碼),包括數(shù)據(jù)集選擇和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容,以及相關(guān)的代碼講解。
第4部分:模型訓(xùn)練與推理(代碼),包括模型訓(xùn)練和模型評測兩部分內(nèi)容,還有相關(guān)的代碼講解。
第5部分:總結(jié)與展望,總結(jié)了TextRank的優(yōu)缺點(diǎn)以及模型的優(yōu)化方向。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
基于HuggingFace的Bert情感分析實(shí)戰(zhàn)
情感分析是 NLP 中的一個(gè)重要領(lǐng)域,在輔助公共政策、企業(yè)決策、產(chǎn)品優(yōu)化等都有應(yīng)用。BERT 是 NLP 歷史上一個(gè)有 “里程碑”意義的模型,通過預(yù)訓(xùn)練-微調(diào)的方式,使其可以適用于多種下游任務(wù),包括情感分析。本實(shí)戰(zhàn)項(xiàng)目課程將介紹情感分析發(fā)展歷程,問題建模分析,以及 BERT 實(shí)現(xiàn)情感分析任務(wù)代碼講解,學(xué)生通過學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程可以把握情感分析的發(fā)展及落地實(shí)現(xiàn)。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問題建模,本部分內(nèi)容可以免費(fèi)收聽。
第2部分:模型原理說明,包括BERT的基本介紹、BERT的輸入、BERT預(yù)訓(xùn)練任務(wù)、BERT微調(diào)。
第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。
第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。
第5部分:總結(jié)與展望,總結(jié)了BERT的優(yōu)缺點(diǎn)以及前沿進(jìn)展。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
基于BiLSTM的命名實(shí)體識別實(shí)戰(zhàn)
命名實(shí)體識別(Named Entity Recognition,簡稱NER)是指從文本中識別出具有特定意義的實(shí)體,如人名、地名、機(jī)構(gòu)名、專有名詞等。NER是 NLP 中的重要的基礎(chǔ)工具,很大程度上輔助了 NLP 走向?qū)嵱妙I(lǐng)域。通過學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握 NER 基于 BiLSTM + CRF 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握 NER 的發(fā)展和技術(shù)要點(diǎn)。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問題建模,本部分內(nèi)容可以免費(fèi)收聽。
第2部分:模型原理說明,包括BiLSTM+CRF的基本介紹、BiLSTM+CRF的輸入等內(nèi)容。
第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。
第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。
第5部分:總結(jié)與展望,總結(jié)了BiLSTM+CRF的優(yōu)缺點(diǎn)以及前沿進(jìn)展。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
基于Seq2Seq與Attention的
機(jī)器翻譯實(shí)戰(zhàn)
機(jī)器翻譯(machine translation)是利用計(jì)算機(jī)實(shí)現(xiàn)不同語言之間的自動(dòng)轉(zhuǎn)換,是自然語言處理重要研究方向,也是目前互聯(lián)網(wǎng)常用服務(wù)之一。對于機(jī)器翻譯的研究由來已久,機(jī)器翻譯走過了基于規(guī)則、基于實(shí)例、基于統(tǒng)計(jì)的模式,如今在神經(jīng)網(wǎng)絡(luò)的加持下,迸發(fā)出新的活力。機(jī)器翻譯有很多應(yīng)用場景,如翻譯中心、即時(shí)通訊、視頻字幕等。通過學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握機(jī)器翻譯基于 seq2seq attention 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握機(jī)器翻譯的發(fā)展和技術(shù)要點(diǎn)。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問題建模,本部分內(nèi)容可以免費(fèi)收聽。
第2部分:模型原理說明,包括Seq2Seq and Attention的基本內(nèi)容介紹。
第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。
第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。
第5部分:總結(jié)與展望,總結(jié)了Seq2Seq and Attention的優(yōu)缺點(diǎn)以及前沿進(jìn)展。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
基于transformer的關(guān)系抽取實(shí)戰(zhàn)
關(guān)系抽取 (relation extraction) 是分析實(shí)體之間關(guān)聯(lián)的一種自然語言處理技術(shù)。關(guān)系抽取可以用于自動(dòng)構(gòu)建知識庫,理解和分析用戶查詢意圖等,因此擁有十分廣闊的應(yīng)用前景。通過學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握關(guān)系抽取基于 transformer 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握關(guān)系抽取的發(fā)展和技術(shù)要點(diǎn)。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問題建模,本部分內(nèi)容可以免費(fèi)收聽。
第2部分:模型原理說明,包括總體內(nèi)容介紹,Encoder,Attention,Decoder。
第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。
第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。
第5部分:總結(jié)與展望,總結(jié)了 transformer 的優(yōu)缺點(diǎn)以及前沿進(jìn)展。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
基于LCF-ATEPC的
屬性級情感分析實(shí)戰(zhàn)
屬性級情感分析(Aspect-based Sentiment Analysis, ABSA)是一類細(xì)粒度情感分析任務(wù),常用于評論分析中,幫助商家深入理解用戶偏好,同時(shí)也在搜索、個(gè)性化推薦、商業(yè)智能、內(nèi)容安全等十多個(gè)業(yè)務(wù)場景中有著廣泛的應(yīng)用。通過學(xué)習(xí)本實(shí)戰(zhàn)項(xiàng)目課程學(xué)生將掌握 ABSA 基于 LCF-ATEPC 的實(shí)戰(zhàn)實(shí)現(xiàn),并掌握 ABSA 的發(fā)展和技術(shù)要點(diǎn)。
下面我們來簡單看一下各部分的內(nèi)容:
第1部分:項(xiàng)目背景介紹,講解項(xiàng)目背景、項(xiàng)目難點(diǎn)、總體方案和問題建模,本部分內(nèi)容可以免費(fèi)收聽。
第2部分:模型原理說明,包括LCF-ATEPC內(nèi)容介紹,Bert,Multi-head Self-Attention,情感級性分類等。
第3部分:數(shù)據(jù)源與數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)源和文本數(shù)據(jù)預(yù)處理兩部分內(nèi)容。
第4部分:代碼講解,本部分專門進(jìn)行課程相關(guān)代碼的講解。
第5部分:總結(jié)與展望,總結(jié)了一些新的思路以及發(fā)展。
內(nèi)容試聽以及訂閱請直接掃如下二維碼:
講師介紹
NLP課程講師為Monica,某互聯(lián)網(wǎng)大廠高級算法工程師、美名校本碩數(shù)學(xué)專業(yè),資深A(yù)I課程講師。
小鵝通學(xué)習(xí)平臺(tái)
一直以來,有三AI所有的直播與錄播視頻課程都在小鵝通平臺(tái),小鵝通是一個(gè)很成熟的知識付費(fèi)平臺(tái),我們有唯一的小鵝通知識店鋪賬號。
由于有很多用戶之前不熟悉小鵝通,首先我們給大家介紹一下登錄方式和課程觀看方式。
1 小鵝通目前有多種登錄與課程學(xué)習(xí)方式,建議大家使用以下兩種: