導航:首頁 > 源碼編譯 > 聲音合成演算法

聲音合成演算法

發布時間:2022-09-11 07:49:38

⑴ 如何用fdpsola演算法做語音合成

(a)原公式中m是0到N-1-k,當k=0時求和是從0到N-1,共有N個數據點。
(b)當m必須從1開始,k也必須從1開始,還是當(a)中的k=0時,現在變為k=1。如果按LZ所述m是1到N-k求和,則在k=1時是對m從1至N-1間求和,只有N-1個數據點。所以必須是N-k+1,才變成對N點求和。

⑵ 語音合成器是什麼

語音合成是將人類語音用人工的方式所產生。若是將電腦系統用在語音合成上,則稱為語音合成器,而語音合成器可以用軟/硬體所實現。文字轉語音(text-to-speech, TTS)系統則是將一般語言的文字轉換為語音,其他的系統可以描繪語言符號的表示方式,就像音標轉換至語音一樣。

而合成後的語音則是利用在資料庫內的許多已錄好的語音連接起來。系統則因為儲存的語音單元大小不同而有所差異,若是要儲存phone以及 diphone的話,系統必須提供大量的儲存空間,但是在語意上或許會不清楚。而用在特定的使用領域上,儲存整字或整句的方式可以達到高品質的語音輸出。另外,包含了聲道模型以及其他的人類聲音特徵參數的合成器則可以創造出完整的合成聲音輸出。

一個語音合成器的品質通常是決定於人聲的相似度以及語意是否能被了解。一個清晰的文字轉語音程式應該提供人類在視覺受到傷害或是得到失讀症時,能夠聽到並且在個人電腦上完成工作。從80年代早期開始,許多的電腦操作系統已經包含了語音合成器了。
早在17世紀就有法國人研發機械式的說話裝置。[來源請求]直到19世紀,貝爾實驗室對於電子語音合成技術的研究,才開啟近代語音合成技術的發展。貝爾實驗室在1939年製作出第一個電子語音合成器VODER[1],是一種利用共振峰原理所製作的合成器。

1960年,瑞典語言學家G. Fant則提出利用線性預測編碼技術(LPC)來作為語音合成分析技術,並推動了日後的發展。後來1980年代Moulines E和Charpentier F提出新的語音合成演算法PSOLA,此技術可以合成比較自然的語音。

⑶ 什麼軟體能把兩種不同的聲音合成一種聲音

可以合成的軟體不少,比如使用音頻編輯軟體Adobe Audition
Adobe Audition,它是一個專業音頻編輯和混合環境,原名為Cool Edit Pro. 被Adobe 公司收購後,改名為Adobe Audition。
Audition專為在照相室、廣播設備和後期製作設備方面工作的音頻和視頻專業人員設計,可提供先進的音頻混合、編輯、控制和效果處理功能。最多混合 128 個聲道,可編輯單個音頻文件,創建迴路並可使用 45 種以上的數字信號處理效果。Audition 是一個完善的多聲道錄音室,可提供靈活的工作流程並且使用簡便。無論是要錄制音樂、無線電廣播,還是為錄像配音,Audition中的恰到好處的工具均可為您提供充足動力,以創造可能的最高質量的豐富、 細微音響。它是 Cool Edit Pro 2.1 的更新版和增強版。此漢化程序已達到98%的信息漢化程度。
(2)操作流程
①打開Adobe Audition,選擇「文件--新建--多軌合成項目」,在彈出窗口可以設置項目名稱與路徑
②按住滑鼠左鍵不放將要合成音樂文件拖入到合成的音軌中,倆個音樂放在同一個音軌上並且不重合即首位相接
③選擇「文件--導出--多軌混縮--整個項目」,在彈出菜單里設可以置名稱、格式等
④打開倆個音樂合成的文件,已經成為一首音樂了

⑷ 斯坦福大學新模型演算法是如何實現數秒內為VR環境不同對象創建模擬聲音的

在虛擬現實中創造這樣的感覺實際上是不可能的,因為VR是沒有腳本的。很難預測一個物體可能產生什麼噪音,或者它們可能被聽到的地方。為了使VR聽起來更逼真,工程師必須創建大量的「聲音模型」 - 計算機化的預錄制等效物

⑸ AI技術背後有哪些聲音的應用

這個潮流的最近一次上演,是幾天前的網路AI開發者大會上,李彥宏現場播放了網路AI客服邀請開發者的真實電話錄音。

當時我就在現場,第一通電話里那位開發者方言比較重,到底說了什麼我基本沒聽懂。但網路的AI卻應對自如,在電話中回答了各種問題。

第二通電話更神了,那位女開發者發現了小度的AI身份,直接問網路給ta發錢嗎,結果被小度用一句「網路給我免費充電」,巧妙的「回撩」了過去。

在眾人的驚嘆中,我們很容易發現讓AI打電話已經成為了「兵家必爭」之地。前不久谷歌I/O大會上Google Assistant演示AI打電話訂餐廳,一句「嗯哼」也安排得明明白白。幾天之後微軟的AI大會上馬上反擊,不僅上演電話秀,還高調Diss谷歌,表示微軟小冰已經打過60多萬次電話了。

打電話這件事就這么重要嗎?引三大AI巨頭都不惜電話費也要硬杠一下?

事實上,在這個AI跟陌生人直接進行有效溝通的場景里,隱藏著兩個AI語音與NLP技術的核心關卡,足夠給今天AI公司的軍備競賽提供完美肌肉秀。而AI打電話同時也指向另一個問題:AI到底能幹什麼,是不是在很多領域已經可以完全代替真實的產業勞動?

打個call的功夫,這些復雜的競爭與技術炫技就都顯露了出來。

一顰一笑都有來歷:為什麼已經聽不出AI還是真人?

AI打電話第一關:怎麼讓AI聲音聽起來不別扭?

我們知道,人和人之間的交流,其實絕大部分依靠的是簡單的詞彙量+大量復雜的情感詞、語氣詞、助動詞。如果我們把日常說話直接轉化為文字,會發現文檔里80%的話都是「無效信息」。

但怎麼讓AI學會這些東西,像真人一樣有感情、有頓挫,有語氣詞,甚至有呼吸節奏地與人交流,是一門巨大的技術挑戰。

網路AI開發者大會前,網路AI客服給大量開發者打了電話,其中很多開發者一開始壓根沒有發現這是位AI小姐姐。而這其實是建立在它沒有刻意修飾機器音的基礎上。

如何讓AI聽起來像人一樣,這需要在語音合成與語序修飾上下一番功夫。而這也是各家展現本領的時刻。

根據資料,谷歌I/O大會上的打電話AI,使用了生成式 TTS 引擎。能根據不同的情境控制語音的語調,並生成一些語氣詞。當然,這背後還有DeepMind的WaveNet自然語音合成演算法作法

⑹ TTS是什麼意思呢

TTS是指一項語音合成技術。

語音合成是將人類語音用人工的方式所產生。若是將電腦系統用在語音合成上,則稱為語音合成器,而語音合成器可以用軟/硬體所實現。

文字轉語音系統則是將一般語言的文字轉換為語音,其他的系統可以描繪語言符號的表示方式,就像音標轉換至語音一樣。

(6)聲音合成演算法擴展閱讀:

發展歷史

1、17世紀法國人研發機械式的說話裝置,直到19世紀,貝爾實驗室對於電子語音合成技術的研究,才開啟近代語音合成技術的發展。

2、貝爾實驗室在1939年製作出第一個電子語音合成器VODER,是一種利用共振峰原理所製作的合成器。

3、1960年,瑞典語言學家G. Fant則提出利用線性預測編碼技術(LPC)來作為語音合成分析技術,並推動了日後的發展。

4、1980年代Moulines E和Charpentier F提出新的語音合成演算法PSOLA,此技術可以合成比較自然的語音。

⑺ 音樂合成是什麼傣女的音樂是什麼

音樂合成:
自1976年應用調頻(FM)音樂合成技術以來,其樂音已經很逼真。1984年又開發出另一種更真實的音樂合成技術--波形表(Wavetable)合成。 
   一個樂音,包括必備的三要素:音高、音色和響度。若把一個樂音放在運動的旋律中,它還應具備時值--持續時間。這些要素的理想配合是產生優美動聽的旋律的必要條件。   音高:音高指聲波的基頻。基頻越低,給人的感覺越低沉。對於平均律(一種普遍使用的音律)來說,各音的對應頻率如圖所示。知道了音高與頻率的關系,我們就能夠設法產生規定音高的單音了。 
  音色:具有固定音高和相同諧波的樂音,有時給人的感覺仍有很大差異。比如人們能夠分辨具有相同音高的鋼琴和小提琴聲音,這正是因為他們的音色不同。音色是由聲音的頻譜決定的:各階諧波的比例不同,隨時間衰減的程度不同,音色就不同。「小號」的聲音之所以具有極強的穿透力和明亮感,只因「小號」聲音中高次諧波非常豐富。各種樂器的音色是由其自身結構特點決定的。用計算機模擬具有強烈真實感的旋律,音色的變化是非常重要的。    響度和時值:響度是對聲音強度的衡量,它是聽判樂音的基礎。人耳對於聲音細節的分辨與響度直接有關:只有在響度適中時,人耳辨音才最靈敏。如果音響度太低,便難以正確差別它的音高和音色;而音響度過高,會影響差別的准確性。時值具有明顯的相對性,一個音只有在包含了比它更短的音的旋律中才會顯得長。時值的變化導致旋律的進行,或平緩、均勻;或跳躍、顛簸,以表達不同的情感。      FM音樂合成 
  音樂合成器的先驅Robert Moog採用了模擬電子器件生成了復雜的樂音。20世紀80年代初,美國斯坦福大學(Stanford University)的一名叫John Chowning的研究生發明了一種產生樂音的新方法,這種方法稱為數字式頻率調制合成法(digital frequency molation 

synthesis),簡稱為FM合成器。他把幾種樂音的波形用數字來表達,並且用數字計算機而不是用模擬電子器件把它們組合起來,通過數模轉換器(digital to analog convertor,DAC)來生成樂音。斯坦福大學得到了發明專利,並且把專利權授給Yamaha公司,該公司把這種技術做在集成電路晶元里,成了世界市場上的熱門產品。FM合成法的發明使合成音樂工業發生了一次革命。 
  FM合成器生成樂音的基本原理如下圖2.41-1所示。它由5個基本模塊組成:數字載波器、調制器、聲音包絡發生器、數字運算器和數模轉換器。數字載波器用了3個參數:音調(pitch)、音量(volume)和各種波形(wave);調制器用了6個參數:頻率(frequency)、調制深度(depth)、波形的類型(type)、反饋量(feedback)、顫音(vibrato)和音效(effect);樂器聲音除了有它自己的波形參數外,還有它自己的比較典型的聲音包絡線,聲音包絡發生器用來調制聲音的電平,這個過程也稱為幅度調制(amplitude molation),並且作為數字式音量控制旋鈕,它的4個參數寫成ADSR,這條包絡線也稱為音量升降維持靜音包絡線(Attack,decay,sustain,release,ADSR)。  
 
圖2.41-1 FM聲音合成器的工作原理  
  在樂音合成器中,數字載波波形和調制波形有很多種,不同型號的FM合成器所選用的波形也不同。下圖是Yamaha OPL-III數字式FM合成器採用的波形。  
 
聲音合成器的波形  

  各種不同樂音的產生是通過組合各種波形和各種波形參數並採用各種不同的方法實現的。用什麼樣的波形作為數字載波波形、用什麼樣的波形作為調制波形、用什麼樣的波形參數去組合才能產生所希望的樂音,這就是FM合成器的演算法。 
  通過改變圖2.41-1中所示的參數,可以生成不同的樂音,例如: 
  (1) 改變數字載波頻率可以改變樂音的音調,改變它的幅度可以改變它的音量。 
  (2) 改變波形的類型,如用正弦波、半正弦波或其它波形,會影響基本音調的完整性。   (3) 快速改變調制波形的頻率(即音調周期)可以改變顫音的特性。   (4) 改變反饋量,就會改變正常的音調,產生刺耳的聲音。 
  (5) 選擇的演算法不同,載波器和調制器的相互作用也不同,生成的音色也不同。   在多媒體計算機中,圖2.41-1中的13個聲音參數和演算法共14個控制參數以位元組的形式存儲在聲音卡的ROM中。播放某種樂音時,計算機就發送一個信號,這個信號被轉換成ROM的地址,從該地址中取出的數據就是用於產生樂音的數據。FM合成器利用這些數據產生的樂音是否真實,它的真實程度有多高,這就取決於可用的波形源的數目、演算法和波形的類型。 

⑻ 現在有能模擬特定人聲音的演算法嗎

如果是從文字到語音,那麼叫做「語音合成」;如果是從一個人的語音到另一個人的語音,那麼叫「語音轉換」。這兩件事情都有人在研究,其中「語音合成」大家可能更為熟悉,比如Siri的聲音就是合成出來的。語音合成或轉換的軟體發布時,一般會內置幾個人的聲音,文字或別人的聲音可以比較容易地轉換成這些內置聲音。但如果要轉換成用戶自己的聲音,就需要錄制用戶自己的聲音作為訓練數據了。我不知道有什麼現成的軟體可以讓小白也能簡單地完成這件事。就像完美地P出一張圖一樣,雖然可行,能以假亂真,但總會有不完美的地方。

⑼ 怎樣對聲音素材進行刪除.合並,復制處理

第5章 音頻素材製作與處理

本章主要學習音頻相關的基礎知識,包括模擬音頻與數字音頻的概念和各自的特點;數字音頻所具有的優勢;模擬音頻轉換為數字音頻的過程和技術指標;常用的數字音頻文件格式;語音合成技術與識別技術的基本原理。本章需要在實驗環節掌握Adobe Audition 2.0音頻處理軟體的基本操作,主要包括錄音、編輯和效果處理三個方面。

& 學習指導

1、模擬音頻 聲音是振動的波,是隨時間連續變化的物理量。因此,自然界的聲音信號是連續的模擬信號,即模擬音頻信號。

聲波與普通波形一樣,可以用三個物理量來描述:振幅、周期和頻率。

(1)振幅:振幅是聲音波形振動的幅度,表示聲音的強弱。

(2)周期:周期是聲音波形完成一次全振動的時間。

(3)頻率:頻率是聲音波形在一秒鍾內完成全振動的次數,表示聲音的音調。

聲音具有三個要素:音調、音色和音強。

(1)音調:音調代表聲音的高低。與頻率有關,頻率越高,音調越高。

(2)音色:音色是聲音的特色。聲音分純音和復音兩種類型。純音的振幅和周期均為常數;復音是具有不同頻率和不同振幅的混合聲音,是影響聲音特色的主要因素。自然界的大部分聲音是復音。在復音中,頻率最低的聲音是「基音」,是聲音的基調。其他頻率的聲音是「諧音」。基音和諧音是構成聲音音色的重要因素。人的聲音、其它生物的聲音以及自然界各種聲響都具有自己獨特的音色。人們往往是依據音色來辨別聲源種類的。

(3)音強:音強是聲音的強度。音強與聲波的振幅成正比,振幅越大,音強越大。

2、模擬音頻的特點

(1)頻率范圍:模擬音頻信號由許多頻率不同的信號組成,每個信號都有各自的頻率范圍,稱為「頻域」或「頻帶」。人耳可聽到的聲音頻率在20Hz-20KHz之間,稱為「可聽域」。頻率高於20KHz的聲音信號稱為「超音頻信號」,頻率低於20Hz的聲音信號稱為「亞音信號」或者「次音信號」。多媒體技術所處理的聲音信號主要是20Hz-20KHz的音頻信號,它包括音樂、語音及自然界的各種聲響。另外,不同種類的聲源頻帶是不同的,例如人類語音頻帶在100Hz -10KHz;高級音響設備頻帶在20Hz-20KHz;而寬頻音響設備的頻帶在10Hz-40KHz。總之,頻帶越寬聲音的表現力越好。

(2)模擬音頻具有連續性。

(3)模擬音頻抗干擾能力差:模擬信號的一個重要的缺點就是雜訊容限較低,抗干擾能力差,雜訊是影響模擬音頻錄音質量的重要原因。音頻信號幅度與雜訊幅度的比值越大越好。音響放大器和揚聲器等還原設備的質量能夠直接影響重放的音質。音質與音色和頻率范圍有關。悅耳的音色、寬廣的頻率范圍,能夠獲得更好的音質。

3、數字音頻 數字音頻是以二進制的方式記錄的音頻,是模擬音頻的數字化表達。

4、數字音頻的優勢 相比模擬音頻信號,數字音頻信號具有很多優勢。

(1)在聲音存儲方面。模擬音頻記錄在磁帶或者唱片等模擬介質中。模擬介質難保存、易老化,造成音質下降。同時,磁帶的存儲效率很低,音頻錄制往往需要大量的磁帶介質進行存儲,成本很高。數字音頻可以文件的形式存儲在光存儲介質或磁存儲介質中,可以實現永久保存,並且存儲成低。

(2)在聲音處理方面。模擬音頻錄制難度高,需要盡量做到一次成功,後期處理難度大。數字音頻技術在聲音處理方面具有極大的優勢,在後期的音頻處理過程中,可以非常容易地進行多種修正以及加工。

(3)在聲音的壓縮方面。模擬音頻的壓縮率很難提高。數字音頻的壓縮優勢明顯。例如目前流行的MP3音頻格式,壓縮率達到10%左右的同時還能保持良好的音質,利於在互聯網上傳播。

5、模擬音頻/數字音頻轉換 模擬音頻信號轉換為數字音頻信號的過程就是對於模擬音頻信號的數字化過程。模擬音頻信號的數字化過程與普通模擬信號數字化過程類似,需要三個步驟:采樣、量化和編碼。

(1)采樣:采樣就是每隔一定的時間間隔T,抽取模擬音頻信號的一個瞬時幅度值樣本,實現對模擬音頻信號在時間上的離散化處理。

(2)量化:量化就是將采樣後的聲音幅度劃分成為多個幅度區間,將落入同一區間的采樣樣本量化為同一個值。量化實現了對模擬信號在幅度上的離散化處理。

(3)編碼:編碼就是將采樣和量化之後的音頻信號轉換為「1」和「0」代表的數字信號。

6、模/數轉換質量的技術指標 影響模/數轉換後的數字音頻信號質量的技術指標主要包括采樣頻率、采樣精度、聲道數和編碼演算法。

(1)采樣頻率。采樣頻率是對聲音波形每秒鍾進采樣的次數。奈奎斯特理論指出:采樣頻率不應低於模擬音頻信號最高頻率的兩倍,這樣才能將數字化的聲音還原為原始聲音。采樣頻率越高,聲音失真越小,音頻數據量越大。

(2)采樣精度。采樣精度表示對聲音振幅的量化精度,即將聲音波形的幅度劃分為多少個幅度區間。8位量化表示,將聲音波形的幅度劃分為28個區間。

(3)聲道數。聲道數表示同一時間產生的聲音波形數。如果每次生成一個聲波數據,稱為單聲道;每次生成二個聲波數據,稱為立體聲。立體聲表達的聲音效果豐富,但存儲空間會增加一倍。

(4)編碼演算法。編碼演算法的作用一方面是採用一定的格式來記錄數據,二是採用一定的演算法來壓縮數據。壓縮比是壓縮編碼的基本指標,表示壓縮的程度,是壓縮後的音頻數據量與壓縮前的音頻數據量的比值。壓縮程度越大,信息丟失越多、信號還原後失真越大。根據不同的應用,應該選用不同的壓縮編碼演算法。

7、數字音頻的存儲空間 模擬音頻數字化過程中的采樣頻率和采樣精度越高,結果越接近原始聲音,但記錄數字聲音所需存儲空間也隨之增加。未經壓縮的音頻文件所需的存儲空間的計算公式如下:

存儲容量(位元組)=(采樣頻率×采樣精度)/8×聲道數×時間

8、數字音頻文件格式 數字化音頻以文件的形式存儲在計算機內。由於音頻數字化過程中採用的技術指標不同,產生了不同的音頻文件格式。常見的數字音頻格式如下:

(1)WAV格式。微軟公司開發的一種聲音文件格式,也叫波形聲音文件,是最早的數字音頻格式。

(2)MIDI格式。也稱作樂器數字介面,是數字音樂/電子合成樂器的統一國際標准。MIDI文件中存儲的是一些指令,由音效卡按照指令將聲音合成出來。

(3)CDA格式。CDA格式是CD音樂格式,取樣頻率為44.1kHz,16位量化位數,CDA格式記錄的是波形流,是一種近似無損的格式。

(4)MP3格式。MP3格式是MPEG-1 Audio Layer 3,能夠以高音質、低采樣率對數字音頻文件進行壓縮。

(5)WMA格式。是微軟公司開發的網路音頻格式。

(6)MP4格式。採用了「知覺編碼」壓縮技術,加入了保護版權的編碼技術。MP4的壓縮比高於MP3,但音質卻沒有下降。

(7)QuickTime格式。蘋果公司推出的一種數字流媒體。

(8)RealAudio格式。Real Networks公司推出的一種文件格式,可以實時傳輸音頻信息。RealAudio文件格式主要有RA、RM、RMX三種,能夠隨著網路帶寬的不同而調整聲音的質量,在保證大多數人聽到流暢聲音的前提下,令帶寬較寬的聽眾獲得更好的音質。

(9)VOC格式。常用在DOS程序和游戲中,是隨音效卡一起產生的數字聲音文件。

(10)AU 格式。應用於互聯網上的多媒體聲音,是UNIX操作系統下的數字聲音文件。

(11)MAC格式。蘋果公司開發的聲音文件格式,廣泛應用與Macintosh平台軟體。

(12)AAC格式。是MPEG-2規范的一部分。壓縮能力強、壓縮質量高。可以在比MP3文件縮小30%的前提下提供更好的音質。

9、語音合成 語音合成是指利用計算機合成語音的一種技術,使計算機能夠產生高清晰度、高自然度的連續語音,具有類似於人一樣的說話的能力。

語音合成可以通過將預先錄制並存儲的語音信號重新播放來實現。也可以採用數字信號處理的方法,通過激勵一個類似人們發聲時聲道諧振特性的時變數字濾波器,調整濾波器的相關參數,生成各種音調的語音。

語音合成可分為三個層次,分別是文字到語音、概念到語音、意向到語音。要合成出高質量的語言,必須遵循人類語言的表達規則,如語義學規則、詞彙規則、語音學規則。

10、語音合成技術分類 按照合成方法分類。分為參數合成法、基音同步疊加法和基於資料庫的語音合成法。

(1)參數合成法。通過調整合成器參數實現語音合成。

(2)基音同步疊加法。通過對時域波形拼接實現語音合成。

(3)基於資料庫的語音合成法。採用預先錄制語音單元並保存在資料庫中,再從資料庫中選擇並拼接出各種語音內容。

按照技術方式分類。分為波形編輯合成、參數分析合成以及規則合成。

(1)波形編輯合成。將語句、短語、詞或音節作為合成單元。這些單元被分別錄音後進行壓縮編碼,組成一個語音庫。重放時,取出相應單元的波形數據,串接或編輯在一起,經解碼還原出語音。這種合成方式也稱為錄音編輯合成。

(2)參數分析合成。以音節、半音節或音素為合成單元。按照語音理論,對所有合成單元的語音進行分析,提取有關語音參數,這些參數經編碼後組成一個合成語音庫;輸出時,根據待合成的語音的信息,從語音庫中取出相應的合成參數,經編輯和連接,順序送入語音合成器。在合成器中,通過合成參數的控制,將語音波形重新還原出來。

(3)規則合成。規則合成存儲的是較小的語音單位,如音素、雙音素、半音節或音節的聲學參數,以及由音素組成音節、再由音節組成詞或句子的各種規則。當輸入字母符號時,合成系統利用規則自動地將它們轉換成連續的語音波形。

11、文語轉換系統 文語轉換系統是語音合成的第一個層次,是將文字內容轉換為語音輸出的語音合成系統。

12、語音合成技術的需求和特點 語音合成技術具有四個方面的需求和特點:自然度、清晰度、表現力和復雜度。

13、語音識別 語音識別技術是讓計算機通過識別和理解,將語音轉變為文本或命令的技術,讓計算機能夠聽懂人類的語言。

14、語音識別系統分類 語音識別系統按照其構成與規模有多種不同的分類標准。根據對說話人說話方式的要求,可以分為孤立字語音識別系統,連接字語音識別系統以及連續語音識別系統;根據對說話人的依賴程度可以分為特定人和非特定人語音識別系統;根據詞彙量大小,可以分為小詞彙量、中等詞彙量、大詞彙量以及無限詞彙量語音識別系統。

15、語音識別的關鍵技術 語音識別技術主要包括特徵提取技術、模式匹配技術及模型訓練技術。此外,還涉及到語音識別單元的選取。語音識別單元有單詞、音節和音素三種。

(1)特徵提取技術。在豐富的語音信號中提取出對語音識別有用的信息,通過對語音信號進行分析處理,去除對語音識別無關緊要的冗餘信息,獲得影響語音識別的重要信息。

(2)模型訓練技術。按照一定準則,從已知模式中獲取表徵該模式本質特徵的模型參數。

(3)模式匹配技術。根據一定準則,使未知模式與模型庫中的某一個模型獲得最佳匹配。

16、音頻處理軟體Adobe Audition 該軟體是集音頻的錄制、混合、編輯和控制於一身的音頻處理工具軟體。可以輕松創建音樂、製作廣播短片、修復錄制缺陷。基本功能包括以下方面:

(1)錄音。

(2)混音。將不同音軌中的聲音混合在一起,綜合輸出經過混合的聲音效果。

(3)聲音編輯。例如聲音的淡入淡出、聲音移動和剪輯、音調調整、播放速度調整等。

(4)效果處理。軟體帶有不同類型的效果器,如壓縮器、限制器、均衡器、合唱效果器、延遲效果器、回升效果器等,能夠實時處理聲音的效果。

(5)降噪:實現在不影響音質的情況下,去除雜訊。

(6)聲音壓縮。軟體具有支持目前幾乎所有流行的音頻文件類型,並能夠實現類型的轉換和文件壓縮。

(7)協同創作。能夠與多種音樂軟體協同運行,實現音樂創作。

17、音頻處理軟體Adobe Audition基本操作 Adobe Audition 2.0 音頻處理軟體具有三種編輯模式界面,分別是多軌編輯模式、單軌編輯模式以及CD模式。多軌與單軌界面大致可以分為菜單欄、工具欄、文件/效果器列表欄、音軌顯示區、基本功能區和電平顯示區。

常用的音頻編輯方法主要是對音頻波形進行裁剪、切分、合並、鎖定、編組、刪除、復制以及對音頻進行包絡編輯和時間伸縮編輯。

音頻特效處理主要使用各種效果器,主要包括均衡效果處理、混響效果處理、壓限效果處理、延遲效果處理等。

& 習題解析

一、單選題

1.人耳可以聽到的聲音頻率范圍為 。

A)20-20kHz
B)200-15 kHz

C)50-20 kHz
D)10-20 kHz

答案:A

解析:人耳聽到的聲音頻帶范圍是有限的,頻率低於20Hz和高於20000Hz的聲音信號人類聽不到,即表示人耳的可聽域在20-20000Hz之間。

2. 格式的數字音頻是微軟公司開發的網路音頻格式。

A)WAV
B)WMA

C)MP3
D)RM

答案:B

解析:WMA格式是Windows Media Audio的縮寫,是微軟公司開發的網路音頻格式。其壓縮率一般可以達到1:18。

3.聲音的三個要素中不包括 。

A)音調
B)音質

C)音色
D)音強

答案:B

解析:聲音具有三個要素:音調、音色和音強。

4.描述模擬音頻信號的三個物理量中, 表示聲音的音調。

A)振幅
B)音色

C)頻率
D)音強

答案:C

解析:自然界的聲音信號是連續的模擬信號,可以用三個物理量來描述:振幅、周期、頻率。其中,頻率是聲音波形在一秒鍾內完成全振動的次數,表示聲音的音調。

5.描述模擬音頻信號的三個物理量中, 表示聲音的強弱。

A)振幅
B)音色

C)頻率
D)周期

答案:A

解析:自然界的聲音信號是連續的模擬信號,可以用三個物理量來描述:振幅、周期、頻率。其中,振幅是聲音波形振動的幅度,表示聲音的強弱。

6.人們主要依據聲音的 特點來區分和辨別聲源的種類。

A)振幅
B)音色

C)音強
D)音調

答案:B

解析:人的聲音、其它生物的聲音以及自然界各種聲響都具有自己獨特的音色。人們往往是依據音色來辨別聲源種類的。

7.人類語音的頻帶寬度是 Hz。

A)200-3400
B)100-10000

C)20-20000
D)20-15000

答案:B

解析:人類語音的頻帶寬度為100Hz-10000Hz。

8.模擬音頻的聲音質量主要與音色和 有關。

A)聲音強度
B)頻率范圍

C)聲音音調
D)基音

答案:B

解析:模擬音頻的聲音質量簡稱「音質」,與音色和頻率范圍有關。悅耳的音色、寬廣的頻率范圍,能夠獲得更好的音質。

9.將模擬聲音信號轉換為數字音頻信號的數字化過程是 。

A)采樣→編碼→量化
B)編碼→采樣→量化

C)量化→編碼→采樣
D)采樣→量化→編碼

答案:D

解析:模擬音頻信號的數字化過程與普通模擬信號數字化過程類似,需要三個步驟:采樣、量化和編碼。

10.將模擬音頻信號在時間上進行離散化處理,這一過程叫 。

A)量化
B)編碼

C)采樣
D)壓縮

答案:C

解析:要使模擬音頻信號數字化,首先要在時間上對其進行離散化處理,這一過程叫采樣。

11.以下數字音頻文件格式中, 稱為樂器數字介面,是數字音樂/電子合成樂器的統一國際標准。

A)MP3
B)WAV

C)MIDI
D)QuickTime

答案:C

解析:MIDI格式是Musical Instrument Digital Interface的縮寫,又稱作樂器數字介面,是數字音樂/電子合成樂器的統一國際標准。在MIDI文件中存儲的是一些指令,把這些指令發送給音效卡,由音效卡按照指令將聲音合成出來。

12.影響數字音頻信號質量的主要技術指標是 。

A)采樣頻率和量化精度
B)壓縮和解壓

C)錄音和播放
D)模擬和壓縮

答案:A

解析:影響數字音頻信號質量的主要技術指標主要包括采樣頻率、采樣精度、聲道數和編碼演算法。這些指標決定了數字化音頻的質量。

13.奈奎斯特采樣理論指出,采樣頻率不低於聲音信號最高頻率的 倍。

A)3
B)1/2

C)1/3
D)2

⑽ 音樂音效軟體合成

音效卡的技術指標很多,以下是各種具體指標的具體含義。如果您是個專業級的音響發燒友,這些牽涉到聲音質量的具體指標可不能不看。

目錄 [隱藏]
1 S/PDIF
2 采樣位數與采樣頻率
3 復音數
4 動態范圍
5 API介面
6 HRTF
7 ASIO
8 AC-3
9 DLS技術
10 SB1394標准

[編輯] S/PDIF
S/PDIF是SONY、PHILIPS家用數字音頻介面的簡稱,可以傳輸PCM流和Dolby Digital、dts這類環繞聲壓縮音頻信號,所以在音效卡上添加S/PDIF功能的最重大意義就在於讓電腦音效卡具備更加強大的設備擴展能力。S/PDIF技術應用在音效卡上的表現即是音效卡提供了S/PDIF In、S/PDIF Out介面,如果有數字解碼器或者帶有數字音頻解碼的音箱,你就可以使用S/PDIF介面作為數碼音頻輸出,使用外置的DAC(Digital-Analog Converter:數字→模擬轉換器,簡稱數模轉換器)進行解碼,以達到更好的音質。

S/PDIF介面一般有兩種,一種是RCA同軸介面,另一種是TOSLINK光纜介面。其中RCA介面(是非標準的,它的優點是阻抗恆定、有較寬的傳輸帶寬。在國際標准中,S/PDIF需要BNC介面75歐姆電纜傳輸,然而很多廠商由於各種原因頻頻使用RCA介面甚至使用3.5mm的小型立體聲介面進行S/PDIF傳輸。

在多媒體音效卡上,S/PDIF分為輸出和輸入兩種形式,也就是通常所說的S/PDIF OUT和S/PDIF IN。音效卡的S/PDIF OUT主要功能是將來自電腦的數字音頻信號傳輸到各種外接設備。在目前的主流產品中,S/PDIF OUT功能已經非常普及,通常以同軸或者光纖介面的方式做在音效卡主卡或者數字子卡上。而S/PDIF IN在音效卡中主要功能則是接收來自其它設備的PCM信號,最典型的應用就是CD唱片的數字播放。雖然所有CD-ROM都具有CD播放能力,但效果有優劣之分。主要原因在於CD-ROM所採用的DAC品質不同,從而造成了效果上的差異。但如果你的音效卡上擁有一個兩針的S/PDIF IN插口,那麼就可以通過一條兩芯的數字CD信號傳輸線連接到CD-ROM的Audio Digital Out介面。這樣當播放CD唱片的時候,CD上的PCM信號就不經過DAC,而直接被輸出到音效卡上,隨後再由音效卡進行D/A轉換或者通過S/PDIF OUT輸出。一般音效卡CODEC晶元的D/A轉換品質總是好過CD-ROM上的DAC,因此通過S/PDIF技術,CD播放質量就被有效提高了。

[編輯] 采樣位數與采樣頻率
音頻信號是連續的模擬信號,而電腦處理的卻只能是數字信號。因此,電腦要對音頻信號進行處理,首先必須進行模/數(A/D)的轉換。這個轉換過程實際上就是對音頻信號的采樣和量化過程,即把時間上連續的模擬信號轉變為時間上不連續的數字信號,只要在連續量上等間隔的取足夠多的點,就能逼真地模擬出原來的連續量。這個「取點」的過程我們稱為采樣(sampling),采樣精度越高(「取點」越多)數字聲音越逼真。其中信號幅度(電壓值)方向采樣精度,我們稱之為采樣位數(sampling resolution),時間方向的采樣精度稱為采樣頻率(sampling frequency)。

采樣位數指的是每個采樣點所代表音頻信號的幅度。8bit的位數可以描述256種狀態,而16bit則可以表示65536種狀態。對於同一信號幅度而言,使用16bit的量化級來描述自然要比使用8bit來描述精確得多。其情形就尤如使用毫米為單位進行度量要比使用厘米為單位要精確一樣。一般來說采樣位數越高,聲音就越清析。

采樣頻率是指每秒鍾對音頻信號的采樣次數。單位時間內采樣次數越多,即采樣頻率越高,數字信號就越接近原聲。采樣頻率只要達到信號最高頻率的兩倍,就能精確描述被采樣的信號。一般來說,人耳的聽力范圍在20hz到20Khz之間,因此,只要采樣頻率達到20Khz×2=40Khz時,就可以滿足人們的要求。現時大多數音效卡的采樣頻率都已達到44.1或48Khz,即達到所謂的CD音質水平了。

[編輯] 復音數
在各類音效卡的命名中,我們經常會發現諸如64、128之類的數字。有些用戶乃至商家將它們誤認為是64位、128位音效卡,是代表采樣位數。其實64、128代表的只是此卡在MIDI合成時可以達到的最大復音數。所謂"復音"是指MIDI樂曲在一秒鍾內發出的最大聲音數目。波表支持的復音值如果太小,一些比較復雜的MIDI樂曲在合成時就會出現某些聲部被丟失的情況,直接影響到播放效果。復音越多,音效越逼真,但這與采樣位數無關,如今的波表音效卡可以提供128以上的復音值。

另外需要注意的是"硬體支持復音"和"軟體支持復音"之間的區別。所謂"硬體支持復音"是指其所有的復音數都由音效卡晶元所生成,而"軟體支持復音"則是在"硬體復音"的基礎上以軟體合成的方法,加大復音數,但這是需要CPU來帶動的。眼下主流音效卡所支持的最大硬體復音為64,而軟體復音則可高達1024。

[編輯] 動態范圍
動態范圍指當聲音的增益發生瞬間態突變,也就是當音量驟然或突然毫米波時,設備所有名承受的最大變化范圍。這個數值越大,則表示音效卡的動態范圍越廣,就越能表現出作品的情緒和起伏。一般音效卡的動態范圍在85dB左右,能夠做到90dB以上動態范圍的音效卡是非常好的音效卡了。

==Wave音效與MIDI音樂==

WAVE音效合成與MIDI音樂的合成是音效卡最主要的功能。其中WAVE音效合成是由音效卡的ADC模數轉換器和DAC數模轉換器來完成的。模擬音頻信號經ADC轉換後為數字音頻後,以文件形式存放在磁碟等介質上,就成為聲音文件。這類文件我們稱之為wave form文件,通常以.wav為擴展名,因此也稱為wav文件。WAVE音效可以逼真地模擬出自然界的各種聲音效果。可惜的是wav文件需要佔用很大的貯存空間,也正是這個缺點,造就了MP3的成長。

MIDI,即樂器數字化介面,是一種用於電腦與電子樂器之間進行數據交換的通信標准。MIDI文件(通常以.mid為文件擴展名)記錄了用於合成MIDI音樂的各種控制指令,包括發聲樂器、所用通道、音量大小等。由於MIDI文件本身不包含任何數字音頻信號,因而所佔的貯存空間比wav文件要小得多。MIDI文件回放需要通過音效卡的MIDI合成器合成為不同的聲音,而合成的方式有FM(調頻)與Wave table(波表)兩種。

大多數廉價的音效卡都採用的FM合成方式,FM合成是通過振盪器產生正弦波,然後再疊加成各種樂器的波形。由於振盪器成本較高,即使是OPL3這類高檔的FM合成器也只提供了4個振盪器,僅能產生20種復音,所以發出音樂聽起來生硬呆板,帶有明顯的人工合成色彩。與FM合成不同,波表合成是採用真實的聲音樣本進行回放。聲音樣本記錄了各種真實樂器的波形采樣,並保存在音效卡上的ROM或RAM中(要分辨一塊音效卡是否波表音效卡,只需看卡上有沒有ROM或RAM存儲器即可)。目前中高檔音效卡大都採用了波表合成技術。

==輸出信噪比==

「輸出信噪比」是衡量音效卡音質的一個重要因素,其概念為——輸出信號電壓與同時輸出的噪音電壓的比例,單位是分貝。這個數值越大,代表輸出時信號中被摻入的噪音越小,音質就越純凈。音效卡作為電腦的主要輸出音源,對信噪比要求是相對較高的。由於聲音通過音效卡輸出,需要通過一系列復雜的處理,所以決定一塊音效卡信噪比大小的因素也有很多。由於計算機內部的電磁輻射干擾很嚴重,所以集成音效卡的信噪比很難做到很高,一般其的信噪比在80dB左右。PCI音效卡一般擁有較高的信噪比(大多數可以輕易達到90dB),有的高達195dB以上。較高的信噪比保證了聲音輸出時的音色更純,可以將雜音減少到最低限度。而音色的好壞則取決於產品所選用的音效晶元和卡的做工。如果可能的話,購買音效卡前最好先進行試聽,如果實在沒有得試聽的話,可以多留意周圍媒體對它的評價,或許對你的選購有一些幫助。

[編輯] API介面
API就是是編程介面的意思,其中包含了許多關於聲音定位與處理的指令與規范。它的性能將直接影響三維音效的表現力,主要有下面幾種:

Direct Sound 3D
Direct Sound 3D,是微軟公司提出的3D效果定位技術,它最大特點就是硬體無關性,在音效卡出現初期,許多音效卡晶元沒有自己的硬體3D音效處理能力,都是使用這種Direct Sound 3D來模擬出立體聲。它所產生的效果均由CPU通過即時運算產生,比較耗費CPU資源,所以,此後推出的音效卡都擁有了一個所謂的「硬體支持DS3D」能力。如果你在選購音效卡時聽銷售商說音效卡支持D3D多麼好的話,千萬不要就輕信這是一塊好音效卡,其實際聽覺效果要看音效卡自身採用的HRTF演算法能力的強弱而定。
A3D
A3D是Aureal公司開發的一項專利技術。它是在Direct Sound 3D的API介面基礎上發展起來的。A3D最大特點是能以精確定位(Positional)的3D音效增加新一代游戲軟體交互的真實感,這就是通常所說的3D定位技術。A3D目前有1.0、2.0和A3D3.0三個版本。1.0版包括A3D Surround和A3D Interactive兩大應用領域,特別強調在立體聲硬體環境下就可以得到真實的聲場模擬,A3D 1.0中同時間內只能處理8個音源,取樣頻率是22kHz,AUREAL音效卡中的AU8820晶元使用的就是這種技術。2.0則是在1.0基礎上加入了聲波追蹤技術,進一步加強了性能,A3D 2.0同時則可以處理16個音源,取樣頻率已達48kHz,它是當今定位效果最好的3D音頻技術之一,AU8830晶元就支持這種技術。至於3.0版本早就被提出了,不過由於Aureal公司已經被創新收購,A3D3.0的前途還是個未知數。
由於Aureal的A3D技術在3D定位及交互性聲音處理(這是兩大關鍵部分)方面具有優勢,加之支持Direct Sound 3D硬體加速,因而很多游戲開發商都是基於A3D進行3D游戲開發的。不過由於實現起來成本頗高,因而並不是每塊PCI音效卡都支持該技術。

A3D Surround
A3D Surround吸收了A3D技術和環繞聲解碼技術(如Dolby的 ProLogic和AC-3)之精華,突出特點是只使用兩只普通音箱(或一副耳機)在環繞三維空間中,進行聲音的精確定位(也就是說可產生與五個「虛擬音箱」相同的效果)。當然,這五組音頻流並不像傳統的「家庭影院」那樣需要用5個實際的音箱進行回放,它實際上只是經過A3D Surround處理後用兩個音箱播放出來的。這一技術被杜比實驗室授予「Virtual Dolby」認證。
EAX
EAX是由創新公司在其SB LIVE!系列音效卡中提出的標准,全名為Environmental Audio Extension,即環境音效。EAX是建立在DS3D上的,只是在後者的基礎上增加了幾種獨有的聲音效果命令。EAX的特點是著重對各種聲音在不同環境條件下的變化和表現進行渲染,但對聲音的定位能力不如A3D,EAX建議用戶配備4聲道環繞音箱系統。現在支持EAX2的主要就是EMU10K1和MU10K2晶元,它們分別為創新著名的SB Live!和Audigy系列音效卡所採用,該晶元同時還支持A3D1、HRTF等技術,是目前流行兼容音效卡中的精品。
註:目前,A3D和EAX是API介面中的兩大流派,你在購買的時候,最好弄清楚選擇的音效卡支持哪些音效,所支持的版本是多少,是軟體模擬還是硬體支持,這些都是十分關鍵的。

[編輯] HRTF
HRTF是Head Related Transfer Function的縮寫,中文意思是「頭部對應傳輸功能」,它也是實現三維音效比較重要的一個因素。簡單講,HRTF是一種音效定位演算法,它的實際作用在於用數字和演算法欺騙我們的耳朵,使我們認為自己處了一個真實的聲音環境中。3D定位是通過音效卡晶元採用的HRTF演算法實現的,定位效果也是由HRTF演算法決定的。象Aureal和Creative這樣的大公司,他們既能夠開發出強大指令集規范,同時也可以開發出先進的HRTF演算法並集成在自己的晶元中。當然也有一些廠商專門出售或者為音效卡訂定各種各樣的HRTF演算法,比較有名的就要算Sensaura 3D和Qsound。Sensaura 3D是由CRT公司提供的。Sensaura,支持包括A3D 1.0和EAX、DS3D在內的大部分主流3D音頻API,此技術主要運用於ESS、YAMAHA和CMI的音效卡晶元上。而QSound開發的Q3D,主要包括三個部分,第一部分是3D音效和聽覺環境模型,第二部分是立體音樂加強,第三個部分是虛擬的環境音效,可以提供一個與EAX相仿的環境模擬功能,但效果還比較單一,與Sensaura大而全的性能指標相比稍遜一籌。此外C-MEDIA在CMI8738上則使用自己的HRTF演算法,稱為C3DX,支持EAX和DS3D,實際效果很一般。

==IAS== IAS是Interactive Around-Sound的縮寫,它是 EAR(Extreme Audio Reality)公司在開發者和硬體廠商的協助下開發出來的專利音頻技術,該技術可以滿足測試系統硬體、管理所有的音效平台的需求。開發者只需寫一套音效代碼,所有基於Windows 95/98/2000的音頻硬體將通過同樣的編程介面來獲得支持。IAS為音效設計者管理所有的音效資源,提供了DS3D(Direct Sound 3D)支持。此外,它的音效輸出引擎會自動配置最佳的3D音頻解決方案,其中有四信道模式的音效卡將是首要的目標。而DS3D 可以在現有的雙喇叭平台上獲得支持。

[編輯] ASIO
ASIO是Audio Stream Input Output的縮寫,可翻譯為「音頻流輸入/輸出」的意思。通常這是專業音效卡或高檔音頻工作站才會具備的性能。採用ASIO技術可以減少系統對音頻流信號的延遲,增強音效卡硬體的音頻處理能力。同樣一塊音效卡,假設使用 MME 驅動時的延遲時間為750毫秒,那麼當換成ASIO驅動後延遲量就有可能會降低到40毫秒以下。

但是並非所有的音效卡都能夠支持ASIO。ASIO不僅定義驅動標准,還必須要求音效卡主晶元的硬體支持才能夠得以實現。只有那些價格高貴的專業音效卡,在設計中才會考慮到對ASIO的支持。我們常所用的音效卡,包括創新過去的SB Live!系列都屬於民用卡的范疇,沒有配備了ASIO驅動的。不過創新SoundBlaster Audigy已經開始全面支持ASIO技術。

註:SB Live!的主晶元EMU10K1本身支持ASIO,只是這一性能並未在創新自帶的LiveWare! 3.0驅動中體現出來。因此,當你將SB Live!的驅動程序換成採用同樣規格設計的E_mu APS錄音卡的驅動後,音頻處理軟體就會報告說找到ASIO!另外CMI8738本身也是具備ASIO的潛質,只不過至今還沒有合適的驅動將其發揮出來。

[編輯] AC-3
AC-3是完全數字式的編碼信號,所以正式英文名為「Dolby Digital」,是由著名的美國杜比實驗室(Dolby Laboratories)。Dolby的一個環繞聲標准。AC-3規定了6個相互獨立的聲軌,分別是——前置兩聲道,後置環繞兩聲道,一個中置聲道和一個低音增強聲道。其中前置、環繞和中置五個聲道建議為全頻帶揚聲器,低音炮負責傳送低與80Hz的超重低音。早期的AC-3最高只能支持5.1聲道,在經過不斷的升級改進,目前AC-3的6.1 EX系統增加了後部環繞中置的設計,讓用戶可以體驗到更加精準的定位。

對於AC-3,目前通過硬體解碼和軟體解碼這兩種方式實現。硬體解碼是通過支持AC-3信號傳輸音效卡中的解碼器,將聲間進行5.1聲道分離後通過5.1音箱輸出。軟體解碼就是通過軟體來進行解碼的,(如DVD播放軟體WinDVD、PowerDVD都可以支持AC-3解碼,當然音效卡也必須支持模擬六聲道輸出。),不過這種工作方式比較大的缺陷在於解碼運算需要通過CPU來完成,會增加了系統負擔,而且軟解碼的定位能力依然較遜色,聲場相對較散。

雖然軟體模擬AC-3存在著缺陷,其成本相對低廉,目前中低檔的音效卡大都是使用這種方式。

[編輯] DLS技術
DLS全稱為"Down Loadable Sample",意為「可供下載的采樣音色庫」。其原理與軟波表頗有異曲同工之處,也是將音色庫存貯在硬碟中,待播放時調入系統內存。但不同點在於運用DLS技術後,合成MIDI時並不利用CPU來運算,而依靠音效卡自己的音頻處理晶元進行合成。其中原因在於PCI音效卡的數據寬頻達到133Mb/秒,大大加寬了系統內存與音效卡之間的傳輸通道,PCI音效卡就可使用先進的DLS技術,將波表音色儲存於硬碟中,通過音效卡晶元處理,在播放MIDI時調入內存。從而既免去了傳統ISA波表音效卡所要配備的音色庫內存,又大大降低了播放MIDI時的CPU佔用率。這樣不但提供了良好的MIDI合成效果又可免去ISA波表音效卡上必須配備的音色庫內存,而且這種波表庫可以隨時更新,並利用DLS音色編輯軟體進行修改,這都是傳統波表所無法比擬的優勢。

[編輯] SB1394標准
SB1394是創新公司為達到高速數字音頻傳送(約400Mbps)所提出的IEEE1394兼容標准。創新的SB1394標準保證通過SB1394連接的1394介面設備可發揮最大效能,傳輸速度高達400Mbps,使主機與外設之間大文件的高速傳送成為可能。Sound Blaster Audigy2音效卡就內置SB1394,可通過IEEE 1394標准介面外接設備如DV攝象機等,並可連接63台電腦進行低延遲的聯網游戲

閱讀全文

與聲音合成演算法相關的資料

熱點內容
卡爾曼濾波演算法書籍 瀏覽:764
安卓手機怎麼用愛思助手傳文件進蘋果手機上 瀏覽:841
安卓怎麼下載60秒生存 瀏覽:800
外向式文件夾 瀏覽:233
dospdf 瀏覽:428
怎麼修改騰訊雲伺服器ip 瀏覽:385
pdftoeps 瀏覽:490
為什麼鴻蒙那麼像安卓 瀏覽:733
安卓手機怎麼拍自媒體視頻 瀏覽:183
單片機各個中斷的初始化 瀏覽:721
python怎麼集合元素 瀏覽:477
python逐條解讀 瀏覽:829
基於單片機的濕度控制 瀏覽:496
ios如何使用安卓的帳號 瀏覽:880
程序員公園采訪 瀏覽:809
程序員實戰教程要多長時間 瀏覽:972
企業數據加密技巧 瀏覽:132
租雲伺服器開發 瀏覽:811
程序員告白媽媽不同意 瀏覽:333
攻城掠地怎麼查看伺服器 瀏覽:600