97成人免费视频,97视频免费公开成人福利,免费视频99,99婷婷,国产伊人久久,亚洲视频欧美,国产精品福利久久

您當(dāng)前的位置是:  首頁 > 資訊 > 文章精選 >
 首頁 > 資訊 > 文章精選 >

深度 | AI 建模實際應(yīng)用場景及效益

2020-04-23 09:30:03   作者:   來源:CTI論壇   評論:0  點(diǎn)擊:


  隨著AI科技的發(fā)展,過去很多無法應(yīng)用計算機(jī)算法分析的場景現(xiàn)在已經(jīng)成為可能,并且能經(jīng)由AI的算法帶來實際的業(yè)務(wù)效益,提升營收。本文將以普強(qiáng)的AI建模、語義理解、語音識別等相關(guān)技術(shù)為核心所建立的一套優(yōu)化商業(yè)場景機(jī)制,在行業(yè)中的實際應(yīng)用所產(chǎn)生的效益做詳細(xì)闡述。
  國內(nèi)一名列世界500強(qiáng)的保險公司(以下簡稱“A保險公司”),擁有龐大的電銷團(tuán)隊,雇傭了上萬名電銷人員,每月電銷電話撥打量達(dá)到千萬通。由于客戶名單基本為白名單,即沒有客戶的信息,傳統(tǒng)的格式化維度分析無法應(yīng)用,所以A保險公司在沒有客戶信息的情況下,實行全量撥打,這樣的撥打效果成交率在千分之一以下。另一方面,全量撥打的電銷電話也給客戶帶來不良的印象,對客戶造成不必要的干擾。近年來,監(jiān)管力度逐年上升,對電銷電話管控嚴(yán)度加大。為能有效運(yùn)營電銷就需要有特定對象,向有購買保險意愿的客戶精準(zhǔn)的撥打。
 
  隨著AI科技的進(jìn)步,普強(qiáng)AI建模產(chǎn)品的核心運(yùn)用了最新的AI語音轉(zhuǎn)譯和語義理解技術(shù),為這樣的場景提供了一個極佳的解決方案,能夠讓A保險公司和有類似業(yè)務(wù)場景公司的電銷人員將資源集中在有潛在購買意愿的客戶。一方面,避免撥打全量的電話,減少人力資源和電信話費(fèi),另一方面,能有效減少對沒有購買意愿客戶的干擾。當(dāng)客戶有意愿和需求購買保險時,電銷的外呼電話不被認(rèn)為是干擾;相反,對沒有購買意愿或能力的人,這樣的電話即成為客戶的干擾。
  事實上,經(jīng)過AI建模的分析,在數(shù)百萬的客戶名單中,有購買意愿的大約在15%左右,因此80%以上的電話都是不必要撥打的。這樣的應(yīng)用給A保險公司和有類似應(yīng)用場景的公司省下巨大的成本。接下來,將會對此做詳盡的描述。
  1、語音語義理解可獲取有價值的客戶特征
  雖然沒有客戶的固定維度信息,但是有許多已撥打過的錄音,A保險公司擁有海量的客戶通話錄音,錄音內(nèi)含有寶貴的客戶信息、客戶特征等。這些數(shù)據(jù)都可以作為篩選客戶的依據(jù),例如在電銷的過程中可以得知:
  買過保險:“謝謝,我已經(jīng)有保險了”。
  可能有車:“對不起,我正在開車,不方便講話”。
  有房人士:“我目前房貸壓力大,沒有閑錢買保險”。
  還有許多類似的特征都可以從電銷人員和客戶的通話中獲取,做成客戶畫像。普強(qiáng)過去積累了許多成功案例,其中就包含大量這樣有價值的客戶特征。從各樣的案例中,電銷人員重點(diǎn)關(guān)注擁有這些特征的客戶,撥打給這類有較高意愿的客戶并提高銷售力度,增加撥打次數(shù)和跟進(jìn),從而提升銷售成交率。因此,若能將這些寶貴的客戶信息特征挖掘出來,也就能更進(jìn)一步找出潛在客戶,從而將電銷團(tuán)隊的大量資源(人力、時間、電話費(fèi)用……)做最有效的運(yùn)用,達(dá)到最大收益。
  2、AI語音轉(zhuǎn)譯和語義理解
  自從2010年蘋果電腦、手機(jī)發(fā)布Siri應(yīng)用后,語音識別技術(shù)不斷的更新、突破。其主要是源于一種計算機(jī)算法架構(gòu)的技術(shù)突破:深度神經(jīng)網(wǎng)絡(luò)。使用神經(jīng)網(wǎng)絡(luò)的技術(shù),研究人員不斷推進(jìn)許多人工智能以前不能突破的障礙,例如語音識別、圖像識別、語義理解等三大領(lǐng)域。借助神經(jīng)網(wǎng)絡(luò)架構(gòu),這些領(lǐng)域里的問題都大大提升了應(yīng)用上的效果。這樣的突破主要由以下幾個因素造成:
  • 數(shù)據(jù)量的徒增:借著互聯(lián)網(wǎng)的發(fā)展,大量的用戶將語音、圖像、照片、文字上傳到大型的數(shù)據(jù)中心。
  • 大型云計算中心超級的運(yùn)算能力:能儲存、處理、分析這些海量的數(shù)據(jù)。
  • 算法的突破:借助前兩項,算法得以不斷的被驗證、優(yōu)化、迭代更新,創(chuàng)新的神經(jīng)網(wǎng)絡(luò)架構(gòu)不斷的被提出并被驗證。
  在語音識別方面,2017年微軟研究院的技術(shù)達(dá)到了與人翻譯的結(jié)果相同的里程碑。在電話對話的數(shù)據(jù)集(Switchboard),微軟的研究員們使用了多個神經(jīng)網(wǎng)絡(luò)模型來翻譯使結(jié)果達(dá)到最優(yōu),翻譯的字錯誤率與4位專業(yè)翻譯人士共同翻譯的錯誤率基本相同。2018年谷歌的DeepMind使用了大型的CNN-RNN-CTC神經(jīng)網(wǎng)絡(luò)架構(gòu),翻譯結(jié)果比翻譯專家好六倍。同時在圖像識別方面,也同樣有重大突破,使得自動駕駛這樣復(fù)雜的工作,變得可實現(xiàn)。
  語音、圖像識別持續(xù)突破,在語義理解方面,使用神經(jīng)網(wǎng)絡(luò)架構(gòu)的算法也突破了人的水平。著名的史丹佛大學(xué)語義理解競賽的文本問答數(shù)據(jù)集,內(nèi)有10萬條問答,都是從維基百科摘選的文章片段,然后對每一片段由真人提出問題,并在文章片段內(nèi)找出答案的位置。準(zhǔn)確率由2017年前的60%迅速攀升到最新的90%以上,遠(yuǎn)遠(yuǎn)超過人的水平,人的水平為86.8%,而準(zhǔn)確率最高的神經(jīng)網(wǎng)絡(luò)是94.6%。它所使用的神經(jīng)網(wǎng)絡(luò)架構(gòu)為一種稱為Transformer的網(wǎng)絡(luò),疊加24次,形成一個深度大型的網(wǎng)絡(luò)(BERT),并使用了兆級數(shù)量的詞匯做訓(xùn)練。在其它常用的語義任務(wù)上,神經(jīng)網(wǎng)絡(luò)也都極大的提升了準(zhǔn)確率,例如命名實體識別(NER)、關(guān)系識別、文本蘊(yùn)含(textentailment)等。
  這些人工智能的科技突破,讓許多以往計算機(jī)不能應(yīng)用到的場景成為新的應(yīng)用。在語音方面,企業(yè)存儲的海量錄音,以往是黑盒子,無法進(jìn)行分析整理。不像結(jié)構(gòu)化的數(shù)據(jù),使用大型的數(shù)據(jù)庫,可以做查詢、統(tǒng)計、分析、圖表化等工作。如今,可以經(jīng)由語音識別成為文字,然后再經(jīng)由語義理解做分析,產(chǎn)生實際的應(yīng)用效益。接下來將對最新的語音、語義技術(shù)在人工智能科技的應(yīng)用作案例分析。
  3、語音語義分析現(xiàn)行科技狀況
  語音識別相對比較容易理解和定義,其任務(wù)就是將聲音轉(zhuǎn)成文字,而轉(zhuǎn)化的效果可以簡易的用字錯誤率來界定。但是識別的準(zhǔn)確率與諸多因素相關(guān),可以用人的體驗來做比喻,因為人工智能基本就是模仿人的智能:
  • 專業(yè)領(lǐng)域:如果在一個不同的專業(yè)領(lǐng)域,例如醫(yī)學(xué),許多的用語不是一般常用的,一個非醫(yī)學(xué)專業(yè)的人士不容易理解這些醫(yī)學(xué)的用語,做文字轉(zhuǎn)化的也會出錯。
  • 口音/方言:嚴(yán)重的方言口音或是方言。
  • 傳播媒介:如電話信道。
  • 背景聲音:如吵雜的環(huán)境。
  這些都會影響識別的結(jié)果,就像人需要時間適應(yīng)后才能聽懂一個新環(huán)境里的對話交流。所以要降低語音轉(zhuǎn)譯的錯誤率,必須要能對專業(yè)或應(yīng)用領(lǐng)域有足夠的認(rèn)識,熟悉地域的口音、方言等。
  普強(qiáng)的語音轉(zhuǎn)譯專注于固定領(lǐng)域來積累領(lǐng)域的專業(yè)話語,也同時積累了大量的語音覆蓋了口音、方言、傳播媒介特性、背景聲音等因素,來優(yōu)化語音轉(zhuǎn)譯的正確率。
  另一方面,語義理解任務(wù)相對的就比較不容易定義和理解,有一組學(xué)術(shù)界定義的語義理解相關(guān)的問題(GLUE):
  • CoLA:單句的二分類問題,判斷一個英文句子在語法上是不是可接受的。
  • SST-2:單句的二分類問題,句子的來源于人們對一部電影的評價,判斷這個句子的情感。
  • MRPC:句子對來源于對同一條新聞的評論,判斷這一對句子在語義上是否相同。
  • STS-B:這是一個類似回歸的問題,給出一對句子,使用1~5的評分評價兩者在語義上的相似程度。
  • QQP:這是一個二分類數(shù)據(jù)集,目的是判斷兩個來自于Quora的問題句子在語義上是否是等價的。
  • MNLI-m:語型內(nèi)匹配。推斷兩個句子是意思相近,矛盾,還是無關(guān)的。
  • MNLI-mm:跨語型匹配。推斷兩個句子是意思相近,矛盾,還是無關(guān)的。
  • QNLI:也是一個二分類問題,兩個句子是一個(question,answer)對,正樣本為answer是對應(yīng)question的答案,負(fù)樣本則相反。
  • RTE:是一個二分類問題,類似于MNLI,但是數(shù)據(jù)量少很多。
  • WNLI:推斷兩個句子是意思相近,矛盾,還是無關(guān)的。
  • AX:QA型圖像數(shù)據(jù)庫。
  這些任務(wù)都有許多應(yīng)用場景,但是語義理解的應(yīng)用范疇也有很多不能直接應(yīng)用這些任務(wù),例如從一段對話文本中來判斷一個人是否結(jié)婚,如下面的對話:
  A:您好,我想跟您談下我們公司最近的一個產(chǎn)品的活動,這個產(chǎn)品能夠......
  B:嗯,謝謝,不過我需要和我老婆商量商量...。
  明顯的從這段對話里,可以判定B是已經(jīng)結(jié)過婚的人。再例如,服務(wù)業(yè)里常有禁忌的用語如:
  A-先聽我說or A-是誰說or A-怎么知道or A-誰告訴你or A-有沒有搞錯or A-你弄錯了or A-說重點(diǎn)or A-你必須or A-本來應(yīng)該or A-這個部門很差勁or A-這個部門差勁or A-到底需要不需要or A-你不要跟我喊or A-你明白了嗎or A-那您覺得呢or A-我說的很清楚了or A-剛才不是對你說了
  這樣的語義理解應(yīng)用均不是GLUE里面的任務(wù)能夠直接應(yīng)用的,并且在GLUE里表現(xiàn)良好的神經(jīng)網(wǎng)絡(luò)架構(gòu)也不能保證在真實應(yīng)用的場景里達(dá)到產(chǎn)生業(yè)務(wù)價值的效果。
  2018年底,谷歌發(fā)布了一種神經(jīng)網(wǎng)絡(luò)架構(gòu)BERT,一種基于Transformer架構(gòu)的多層疊加的神經(jīng)網(wǎng)絡(luò),BERT提出兩種版本,基本版(BASE)和大型版(LARGE),參數(shù)如下:
  BERTBASE:L=12,H=768,A=12,TotalParameters=110M
  BERTLARGE:L=24,H=1024,A=16,TotalParameters=34
  使用了3.3Giga的詞匯作預(yù)訓(xùn)練,然后再按任務(wù)作微調(diào)訓(xùn)練,硬件使用了谷歌TPUV2.0的處理器,BERT的基礎(chǔ)版(BASE)需要16個TPU芯片,BERT的LARGE版使用了64個TPU芯片,預(yù)訓(xùn)練需要4天。
  在GLUE的許多任務(wù)上均優(yōu)于此前的神經(jīng)網(wǎng)絡(luò)架構(gòu)(如上表所列)。BERT在語音識別和圖像識別突破后帶來了語義理解的突破。此后在BERT的基礎(chǔ)上,在語義理解的許多應(yīng)用上都帶來了突破。然而由于BERT和后續(xù)的神經(jīng)網(wǎng)絡(luò)都需要龐大的計算資源和時間,給私有化部署的應(yīng)用帶來高昂的成本,除非能夠使用云端共享的BERT計算資源。由于數(shù)據(jù)保密的要求,許多應(yīng)用的數(shù)據(jù)無法上傳到云端,例如金融業(yè)的客戶數(shù)據(jù)等。
  如前所述,這樣的科技還需要經(jīng)過再創(chuàng)新才能應(yīng)用在實際的商業(yè)場景里。普強(qiáng)在這個方面做了十年的科研投入,不斷的將最新的科技應(yīng)用在實際的商業(yè)場景上。
  4、普強(qiáng)語音語義框架
  當(dāng)前人工智能算法均屬在高維度的空間中尋找線性/非線性復(fù)合函數(shù)的最優(yōu)值點(diǎn),其最核心的架構(gòu)設(shè)計實為設(shè)計此高維度空間里的數(shù)學(xué)復(fù)合函數(shù),許多的復(fù)合函數(shù)/神經(jīng)網(wǎng)絡(luò)框架都在不同的任務(wù)中被驗證有應(yīng)用的效益,下面列舉了幾個重要的類別:
  全聯(lián)多層的神經(jīng)網(wǎng)絡(luò):每層的神經(jīng)元均與下一層的所有神經(jīng)元相連,邏輯回歸等算法均使用此種網(wǎng)絡(luò)。
  • 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN):是一類包含卷積計算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks),是深度學(xué)習(xí)(deeplearning)的代表算法之一。卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)(representation learning)能力,能夠按其階層結(jié)構(gòu)對輸入信息進(jìn)行平移不變分類(shift-invariant classification),因此也被稱為“平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)(Shift-Invariant Artificial Neural Networks,SIANN)。卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)在視覺辨識里達(dá)到了極優(yōu)的效果。
  • 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN):是一類以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursiveneuralnetwork)。循環(huán)神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80-90年代,并在二十一世紀(jì)初發(fā)展為深度學(xué)習(xí)(deeplearning)算法之一,其中雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BidirectionalRNN,Bi-RNN)和長短期記憶網(wǎng)絡(luò)(Long Short-Term Memorynetworks,LSTM)是常見的的循環(huán)神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶性、參數(shù)共享并且圖靈完備(Turingcompleteness),因此在對序列的非線性特征進(jìn)行學(xué)習(xí)時具有一定優(yōu)勢。循環(huán)神經(jīng)網(wǎng)絡(luò)在自然語言處理(Natural Language Processing,NLP),例如語音識別、語言建模、機(jī)器翻譯等領(lǐng)域有應(yīng)用,也被用于各類時間序列預(yù)報。引入了卷積神經(jīng)網(wǎng)絡(luò)(Convoutional Neural Network,CNN)構(gòu)筑的循環(huán)神經(jīng)網(wǎng)絡(luò)可以處理包含序列輸入的計算機(jī)視覺問題。
  • Transformer神經(jīng)網(wǎng)絡(luò):拋棄了傳統(tǒng)的CNN和RNN,整個網(wǎng)絡(luò)結(jié)構(gòu)完全是由Attention機(jī)制組成。更準(zhǔn)確地講,Transformer由且僅由Self-Attenion和FeedForward Neural Network組成。一個基于Transformer的可訓(xùn)練的神經(jīng)網(wǎng)絡(luò)可以通過堆疊Transformer的形式進(jìn)行搭建,作者的實驗是通過搭建編碼器和解碼器各6層,總共12層的Encoder-Decoder,并在機(jī)器翻譯中取得了BLEU值得新高。
  • CTC(Connectionis ttemporal classification):傳統(tǒng)的語音識別的聲學(xué)模型訓(xùn)練,對于每一幀的數(shù)據(jù),需要知道對應(yīng)的label才能進(jìn)行有效的訓(xùn)練,在訓(xùn)練數(shù)據(jù)之前需要做語音對齊的預(yù)處理。而語音對齊的過程本身就需要進(jìn)行反復(fù)多次的迭代,來確保對齊更準(zhǔn)確,這本身就是一個比較耗時的工作。與傳統(tǒng)的聲學(xué)模型訓(xùn)練相比,采用CTC作為損失函數(shù)的聲學(xué)模型訓(xùn)練,是一種完全端到端的聲學(xué)模型訓(xùn)練,不需要預(yù)先對數(shù)據(jù)做對齊,只需要一個輸入序列和一個輸出序列即可以訓(xùn)練。這樣就不需要對數(shù)據(jù)對齊和一一標(biāo)注,并且CTC直接輸出序列預(yù)測的概率,不需要外部的后處理。
  以上僅就目前人工智能應(yīng)用領(lǐng)域里經(jīng)常使用并產(chǎn)生實際應(yīng)用效益的網(wǎng)絡(luò)做了簡介,當(dāng)應(yīng)用到各個實際場景里時,還有基于上述網(wǎng)絡(luò)衍生的眾多版本和彼此之間的結(jié)合版,不能一一詳述。
  深度學(xué)習(xí)里的神經(jīng)網(wǎng)絡(luò)架構(gòu)及其參數(shù)和超參數(shù)均需按實際場景和數(shù)據(jù)的情況作調(diào)試優(yōu)化,方能達(dá)到理想的效果以產(chǎn)生實際應(yīng)用價值。然而實際的場景雖然都有相似之處,但也有諸多不同的細(xì)節(jié),為能滿足每一應(yīng)用場景的應(yīng)用效益要求,以過往往需要由資深的算法工程師做深度的調(diào)試,此種模式耗時且效率低,常常不能滿足客戶快速的迭代需求。
  大型人工智能科技公司提倡將大量的數(shù)據(jù)存儲在它們的云計算平臺上,并同時按采集到的海量數(shù)據(jù)調(diào)試一個能廣泛應(yīng)用的平臺。此種商業(yè)模式,雖有可行性,但同時也面臨著一些根本的挑戰(zhàn)。例如如何能保證數(shù)據(jù)的安全,特別是金融行業(yè)和其它對數(shù)據(jù)保密要求高的行業(yè),同時這些大型的人工智能公司現(xiàn)今也不斷的擴(kuò)張他們的業(yè)務(wù)領(lǐng)域,將數(shù)據(jù)提供給此類的云平臺,也加速了他們的競爭力來切入不同的商業(yè)領(lǐng)域,這樣的擔(dān)憂也是使得這樣的方法無法獲得更多商業(yè)應(yīng)用的數(shù)據(jù),從而不能提供一個通用的應(yīng)用人工智能系統(tǒng)。
  據(jù)此普強(qiáng)提出發(fā)展一種可重復(fù)復(fù)用的機(jī)制,將這個機(jī)制靈活的應(yīng)用到每一個客戶業(yè)務(wù)場景上,當(dāng)這個機(jī)制應(yīng)用到特定場景上時,會按已成功的案例,做梳理業(yè)務(wù)邏輯并同時在客戶內(nèi)的私有云上采集數(shù)據(jù),再用成功案例的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),機(jī)器學(xué)習(xí)算法架構(gòu)來訓(xùn)練、測試、驗證模型,最終上線運(yùn)行業(yè)務(wù)邏輯,提升業(yè)務(wù)價值及效益。這樣的機(jī)制主要包含兩項重要元素,方法論和計算技術(shù)框架:
  • 方法論:對行業(yè)及業(yè)務(wù)場景整理出流程和規(guī)則,并按此流程和規(guī)則采集積累海量的數(shù)據(jù)。
  • 計算技術(shù)框架:按實際應(yīng)用場景,建立算法框架,框架是由各類已驗證后的神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)算法構(gòu)成的體系,對每一應(yīng)用場景作全框架計算測試評估,研判出最優(yōu)的神經(jīng)網(wǎng)絡(luò)架構(gòu)和機(jī)器學(xué)習(xí)算法,并同時調(diào)試參數(shù)和配置。
  普強(qiáng)在金融及相關(guān)領(lǐng)域,積累十年以上的人工智能行業(yè)落地經(jīng)驗,專注于垂直領(lǐng)域,歸納成功的案例、相關(guān)的業(yè)務(wù)流程規(guī)則和算法算力需求,建立起一套完整的機(jī)制。隨著客戶的業(yè)務(wù)需求變化和成功案例積累,不斷的擴(kuò)充加強(qiáng)優(yōu)化此機(jī)制,作快速的迭代。
  5、成功案例分享
  A保險公司為名列世界500強(qiáng)的保險公司(在本文開頭已有提及),普強(qiáng)將語義分析機(jī)制應(yīng)用在A保險公司的電銷業(yè)務(wù)里,項目一期應(yīng)用在A保險公司兩個主要的業(yè)務(wù)區(qū):BJ市和TJ市。對大約250萬的客戶電銷通話錄音(約400萬通錄音)作落地實施,其中包括了下列的步驟:
  • 業(yè)務(wù)梳理:與客戶業(yè)務(wù)人員交流,以對客戶的業(yè)務(wù)做深度的了解,與普強(qiáng)機(jī)制框架對接。
  • 分析流程建立:分析客戶業(yè)務(wù),建立流程,優(yōu)化流程。
  • 客戶特征篩選:基于普強(qiáng)的業(yè)務(wù)成功案例,使用大數(shù)據(jù)分析,抽取潛在具有購買意愿客戶特征。
  • 成交相關(guān)度計算:經(jīng)由普強(qiáng)大數(shù)據(jù)分析框架計算客戶特征與成交的相關(guān)度,排序客戶特征的優(yōu)先順序。
  • 模型建模/訓(xùn)練:普強(qiáng)計算技術(shù)框架對最優(yōu)最先進(jìn)的神經(jīng)網(wǎng)絡(luò)架構(gòu)和機(jī)器學(xué)習(xí)算法,作架構(gòu)和算法評估,測試不同架構(gòu)和算法的效益優(yōu)劣,及計算資源需求以及是否能達(dá)到客戶的時效要求等工作,最終推薦最優(yōu)的架構(gòu)/算法。
  • 測試:使用海量的數(shù)據(jù)不斷的測試,并調(diào)優(yōu)參數(shù),達(dá)到準(zhǔn)確率、召回率等測試標(biāo)準(zhǔn)的要求,并依照業(yè)務(wù)模式計算相對的業(yè)務(wù)效益。
  • 驗證:實際推送普強(qiáng)業(yè)務(wù)流程算法推薦的潛在客戶,驗證成交率。
  • 上線:將最終驗證通過的整體機(jī)制上線,進(jìn)入實際業(yè)務(wù)運(yùn)行。
  與使用普強(qiáng)機(jī)制前業(yè)務(wù)情況對比的成效如下:
  • 精準(zhǔn)的推薦占總量約15%的潛在有購買意愿的優(yōu)質(zhì)客戶。
  • 推薦的15%的客戶覆蓋了90%的業(yè)績。
  • 節(jié)省了80%+的電銷電話,人員時間。
  • 并減少了對沒有意向購買客戶的干擾。
  • 確定了潛在購買客戶的特征,作話術(shù)優(yōu)化的依據(jù),有定向的與客戶對話以確認(rèn)是否是有所確定的特征。
  • 發(fā)掘了電銷流程的缺失:發(fā)現(xiàn)高購買意向客戶的跟蹤力度不及時或遺漏的情況,建立追蹤系統(tǒng)及時找回遺漏的潛在客戶并跟進(jìn)。
  6、結(jié)語
  隨著計算力和云存儲容量的大幅提升,海量數(shù)據(jù)的收集,使得以往不能突破的人工智能問題均得到突破:如語音識別、圖像識別、語義理解等領(lǐng)域。借著這些突破,許多商業(yè)場景都能應(yīng)用這些最新的人工智能突破,而產(chǎn)生實際的商業(yè)效應(yīng)。
  本文中敘述了語音識別和語義理解在特定的垂直領(lǐng)域中的應(yīng)用,并詳述案例和其應(yīng)用的效益。此種效應(yīng)隨著科技的進(jìn)步和突破,必能擴(kuò)及更多的場景和商業(yè)應(yīng)用。本文中所述的方法論和技術(shù)計算框架也必定會不斷的迭代更新和擴(kuò)充,帶給實際的業(yè)務(wù)更多的效益。
 
【免責(zé)聲明】本文僅代表作者本人觀點(diǎn),與CTI論壇無關(guān)。CTI論壇對文中陳述、觀點(diǎn)判斷保持中立,不對所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔(dān)全部責(zé)任。

專題

CTI論壇會員企業(yè)

西贡区| 邳州市| 那坡县| 大方县| 邢台市| 关岭| 永兴县| 丹江口市| 通辽市| 珲春市| 耒阳市| 隆德县| 承德县| 仁布县| 翼城县| 万宁市| 胶南市| 贵港市| 广安市| 都匀市| 施甸县| 柘城县| 芜湖市| 高唐县| 府谷县| 六盘水市| 凤翔县| 兴城市| 阿瓦提县| 凤庆县| 平原县| 夏河县| 遵义县| 夏河县| 丁青县| 河津市| 杭州市| 斗六市| 乐东| 易门县| 江西省|