天天看點

AI助力語音克隆,人和自己“對話”的障礙在哪?

如果有一天,你可以将你的聲音通過人工智能技術“克隆”出來,而且你還能和“你”進行各種對話,你是否願意嘗試?

這個場景并不遙遠,不久前,“AI First”的谷歌表示,其最新版本的人工智能語音合成系統——Tacotron2合成出來的語音幾乎和真人聲音一模一樣。它擁有兩個深度神經網絡,第一個能夠将文本轉化為頻譜圖,第二個則負責将頻譜圖生成相應的音頻。

而麻省理工評論則認為百度的技術則更進一步,百度在最近釋出的新論文中表示,該技術隻要通過一個半小時的語音資料的學習,就能“克隆”出原對象的聲音。雖然以前百度的“Deep Voice”也能夠生成語音,但讓生成出來的語音附帶不同的語言特色正是語音生成的一大突破,而且它除了能“克隆”之外,還能對該聲音的性别或口音進行更改,甚至還能賦予該克隆聲音一些簡單的情感。

語音克隆技術是什麼?又能做些什麼?

語音合成的技術有三種,但隻有AI技術才能稱為語音克隆

最早的語音合成技術通過預先錄制好的字詞、短句來實作的,把各個部分串成一行,以此産生完整的句子。生活中各種服務熱線的自助語音系統就是用這種方式實作的,是以會經常存在卡頓,音色不一樣等問題,語氣也很冰冷。

第二種手段雖然能夠使語音更加自然,但其中也需要大量的人工處理,首先是制作語音庫,确定音色、風格、特性、角色等要求後,投入音庫生産線,設計錄音腳本、訓練錄音資源、進行效果優化,在輸出的時候還要進行各類語言處理,包括文本規整、詞的切分,然後是韻律處理,為其劃出音段特征,如音高、音長和音強等等,使合成的語音給人的感覺更加自然些。

但這類合成系統因為進行韻律預測處理方面的工作量巨大、是以也存在表現能力不足等問題,如合成語音對不同情感的表達會不夠恰當,使得合成語音聽起來缺乏人情味。而語音合成的技術發展不僅要讓說話的聲音達到真人水準,也應當在情感表達方面有所突破,使語音互動帶有情感,達到更好的交流體驗。

最近爆出的百度Deep Voice技術,則是通過深度學習技術實作“語音克隆”的,通過真實語音的訓練,能在“聽”的過程中學會每個人說話時字詞、音位和句子的發音特點,并通過模仿這個人聲音中的情感和語調,“說”出全新的語句;“一聽一說”之間,整個過程基本不用人工幹預,深度學習技術可以自行完成所有工作。

具體來說,百度的研究人員是通過兩種具體的方法來實作的:說話人适應(speaker adaption)和說話人編碼(speaker encoding)。它們可以隻用最少的音頻資料來完成任務,并且在深度語音系統中,即使處于一個多揚聲器模型,也不會降低品質。

其中“說話人适應”是使用多個克隆樣本,基于反向傳播的優化方法對多個說話人語音生成模型做精細調節。這個方法可以隻作用于低次元的說話人嵌入,或者作用于整個模型;在低緯度的嵌入時,每個說話人所需的參數量比較少,而且需要較長的克隆時間,生成語音的品質也會差一些。

其中“說話人編碼”則需要訓練一個單獨的模型,用它直接從語音樣本中推斷出一個新的嵌入資料,然後再把這個嵌入資料用在多個講話人語音生成的模型中。而且這個方法還帶有時域和頻域的處理子產品,可以從音頻樣本分析中提取到有關說話人的身份資訊,然後用注意力子產品把各種資訊以最優的方式結合起來。這個方法的好處是克隆耗時少、标明說話人資訊所需要的參數少,使得這種方法在輸入資源有限的場景中也能夠使用。

AI助力語音克隆,人和自己“對話”的障礙在哪?

語音克隆的功與過

在人機互動的個性化場景中,研究人員預期語音克隆可能會有很重要的作用,如可以用來訂制個人AI助手、讀書音頻以及殘障人士語音系統等,且對有語言障礙人來說,這個程式能幫助他們練習發聲,使他們更容易與人交流,這種過程就像是在和一個善解人意的朋友在聊天一樣,可能會成為一個重要的社交工具。

而在心理醫療領域,如果能複原出逝者的聲音,這對于痛失親人後在心理上造成了創傷的人們來說,也無疑是巨大的安慰。

不過語音克隆也會帶來一些麻煩,它可能會被用來對公衆人物進行惡意攻擊;也可能會使聲紋識别形同虛設,因為據《新科學家》報道,使用人工智能技術做出聲音識别軟體,在測試中,準确率已經超過了95%;也可能破壞錄音作為法律證據的可信度;還可能會用來假冒他人身份,成為語音詐騙的幫兇。它預示着未來的聲音可能會像照片一樣,可以很容易地進行僞造。

但克隆出的人類聲音,這其中還是會有些細微差别,經不起詳細推敲——驗證專家可能會通過分析語音中的數字簽名,進而證明其為合成語音;而研究人員也開始在研究一種“聲紋”系統,以期其能很容易的分辨出原聲和生成的語音;不過語音克隆還是存在着很多隐患,因為在普通的生活當中,足以造成相當嚴重的誤導性效果。

要實作“完美”的語音克隆,最大的一道坎在哪?

智能相對論(微信ID:aixdlun)認為,完美的語音克隆,也應該能夠克隆出說話人攜帶的情感,而不僅僅是音色等表象的元素,就像是這個聲音擁有自己的靈魂。而目前語音克隆能夠進行的情感表達,更多的是研究人員修改完成的,而且還需要對各類情感進行标注

谷歌的Tacotron2系統也還隻能進行模式化的情感表達,如根據輸入文本的标點符号的不同而在語氣上有所區分;在讀大寫單詞時加重語氣等。

百度和谷歌的語音合成技術暫時不能達到自行合成情感,這也是語音克隆其技術本身所限,要實作合成出的每一句話有其恰當的情感,這裡面有情感識别、情感自動标注、、語氣調整等大量的資料和工程難度,費用和技術也暫時難以逾越。

而更進一步,想要和機器進行有情感語音的互動就更加困難了,因為這并不是單一技術所能完成的,它除了能輸出情感之外,還必須要求自然語言處理技術能夠識别出人類表達中的各種情感,以此作為回應的前提,而這已經超出了語音克隆的技術範圍。

在語音互動中,讓機器能夠自然、順暢的說話是人機互動的一大要求,表現力、音質、複雜度和自然度一直是語音合成所追求的。

而随着AI技術的發展,語音互動的音質、流暢度、自然度都得到了很大的提高,但在表現力方面依舊是其最大的痛點,不過随着各大廠商的持續發力,未來使機器也能像朗讀者一樣,抑揚頓挫、情感起伏、拿捏到位也不是夢想。

繼續閱讀