Ⅰ python如何從文件讀取數據
1.1 讀取整個文件
要讀取文件,需要一個包含幾行文本的文件(文件PI_DESC.txt與file_reader.py在同一目錄下)
PI_DESC.txt
3.1415926535
8979323846
2643383279
5028841971
file_reader.py
with open("PI_DESC.txt") as file_object:
contents = file_object.read()
print(contents)
我們可以看出,讀取文件時,並沒有使用colse()方法,那麼未妥善的關閉文件,會不會導致文件收到損壞呢?在這里是不會的,因為我們在open()方法前邊引入了關鍵字with,該關鍵字的作用是:在不需要訪問文件後將其關閉
1.2文件路徑
程序在讀取文本文件的時候,如果不給定路徑,那麼它會先在當前目錄下進行檢索,有時候我們需要讀取其他文件夾中的路徑,例如:
Ⅱ python實時獲取麥克風輸入音量
import sounddevice as sd
import numpy as np
ration = 10 # 延遲(單位秒)def print_sound(indata, outdata, frames, time, status):
volume_norm = np.linalg.norm(indata)*10
print "|" * int(volume_norm)with sd.Stream(callback=print_sound):
sd.sleep(ration * 1000)
Ⅲ python3.0怎樣讀取另一台電腦的系統聲音,並在本機上報警提示
python版本切換全局版本切換:pyenv global anaconda-2.4.0全局切換為anaconda科學計算環境,因為,我現在也不做其他python開發,所以,無需再安裝其他環境了。查看現在的python版本:michael@michael-ThinkCentre-XXXX:~$ pyenv versionssystem2.7.13.4.1* anaconda-2.4.0 (set by /home/michael/.pyenv/version)有全局版本切換,當然也會有局部環境的切換:在test文件夾下希望切換到python3.4.1:pyenv local python3.4.1
Ⅳ Python語音識別,調用的是哪個客戶端介面函數
調用騰訊雲的語音識別(一句話識別)介面-Python版。
安裝語音識別,語音識別器編碼,處理Ubuntu伺服器,處理WSL。
要運行我們代碼的語音識別庫,我們首先需要安裝語音識別,然後還必須安裝PyAudio。首先,我們從主包開始:sudo pip3 install SpeechRecognition安裝應該遵循完全相同的格式,但我似乎缺少了讓它正常工作的軟體包,試圖安裝PyAudio會出錯。這些軟體包應該刪除該錯誤。那時我不需要更新apt,但先更新它並不壞處。sudo apt-get install libasound-dev portaudio19-dev libportaudio2libportaudiocpp0有了它,您應該可以安裝PyAudio:sudo pip3 install PyAudio語音識別器編碼。
運行WSL(Linux版Windows子系統)的Windows機器。它也使用了Ubuntu 16.04,所以安裝過程是一樣的。不過說到使用麥克風,WSL並不那麼簡單。為了通過Ubuntu終端應用程序控制麥克風,需要安裝PulseAudio。
Ⅳ 用Python實現類似語音助手的功能有什麼好的思路及工具庫
有趣的話題,高級的思路等牛人來說。
我說一個笨思路,不斷的錄音片段,不斷的比對波形。
已答就不要重復邀請了哇。另外你想要持續匹配必然是不斷錄音不斷匹配,現實世界中並沒有如同推送服務一樣的功能,可以出現了什麼聲音再調用你的程序。你只能是看看如何設計優化這個匹配和錄音的平衡,並且優化你的匹配速度:比方說你試試錄音能否多進程(線程)?如果能雙開,那麼交替覆蓋空白時間也是其中一種演算法。
你思考一下蘋果的語音助手(老版本)和安卓的語音助手,是不是都要先按一個按鈕才能開始語音助手服務?說明只有持續監聽才能解決問題,但是手機為了保證續航,又不能做持續監聽。
後來,蘋果想了個什麼辦法呢,他自己設計了一個晶元,其中有一個功能就是可以捕捉麥克風收聽到「hey siri」就調用語音助手的功能,具體的技術細節我不太清楚,有可能是讓麥克風只要收到超過多少分貝的聲音就開始小范圍匹配「hey siri」之類的吧
至於減噪,網上有不少關於用電腦軟體調節波形文件來降噪的方法教程,雖然你不能直接用,但是提供了思路
計算聲音的相似性,我個人認為可以通過計算波形的特徵來完成,我個人才疏學淺,沒有這方面的經驗,如果是語音識別,推薦你用訊飛的api試試,訊飛在這一塊技術還是蠻強的。
但是,像人類一樣可以很精準的從人群中識別出熟人聲音的功能,那個屬於人工智慧的范疇,目前研究水平還不夠到可以應用的地步。
Ⅵ 怎麼用python實現語音識別
是想語音識別的參考方法如下:
1、打開文字識別軟體,關閉提示窗;
2、點擊上面的語音識別功能;
以上便是實現語音識別的方法了,希望可以幫助到您,感謝觀看!
Ⅶ Python用什麼模塊開發語音識別系統
推薦使用YQ5969,這個語音識別模塊可以支持1--8個咪頭,還可以支持本地和雲端識別不同需求。5米內本地識別率 93%以上,雲端識別率97%。這個語音識別模塊可以濾除雜訊。由於我們生活在一個相對的噪音環境里,
在遠場識別中,用戶和設備有一定距離,很多時候雜訊源距離麥克風的位置比人更近,在某種程度中也為錄制聲音帶來了一定的困難。
Ⅷ 如何使用python在文件中讀取數據
withopen('f:/C.txt')asfid:
forlineinfid:
line=line.split()
print(line[1])
>>>
3000
2000
1000
Ⅸ 如何優雅的用Python玩轉語音聊天機器人
所需硬體:
樹莓派B+
人體紅外線感應模塊
內置麥克風攝像頭(實測樹莓派免驅淘寶鏈接)
申請API:
網路語音api
圖靈api
語音聊天機器人實現原理:當有人來到跟前時--》觸發聊天功能,開始以每2s檢測錄制語音--》通過網路語音api合成文字--》傳遞給圖靈api返回回答信息--》通過網路語音合成播放
【人體感應識別部分Python代碼renti.py】
#/usr/bin/python#coding:utf-8import RPi.GPIO as GPIOimport timeimport osimport signalimport atexitGPIO.setmode(GPIO.BCM) GPIO_PIR = 14 GPIO.setup(GPIO_PIR,GPIO.IN) # Echojing = 0dong = 0 sum = 0sum1 = 0oldren = 0sleep = 0def ganying(): i = 0 ok = 0 error = 0 while i < 10: if GPIO.input(GPIO_PIR) == 1 : ok = ok + 1 if GPIO.input(GPIO_PIR) == 0 : error = error + 1 time.sleep(0.01) i = i + 1 ren = ok/(error+1) return ren
1
GPIO_PIR = 14
為 紅外線檢測模塊與樹莓派的針腳,腳本函數返回0表示無人,>0 為有人
【Python語音識別聊天部分robot.py】
#/usr/bin/python# -*- coding:utf-8 -*-import sysreload(sys)sys.setdefaultencoding( "utf-8" )import urllibimport urllib2import jsonimport uuidimport base64import osimport timefrom renti import * #獲取網路tokenappid=7647466apikey="網路API"secretkey="網路API" _url="h.com/oauth/2.0/token?grant_type=client_credentials&client_id=" + apikey + "&client_secret=" + secretkey; y_post=urllib2.urlopen(_url)y_read=y_post.read()y_token=json.loads(y_read)['access_token']#print y_read#print y_token #------------------function------------- def luyin(): os.system('arecord -D plughw:1,0 -c 1 -d 2 1.wav -r 8000 -f S16_LE 2>/dev/null') def fanyi():
#---------------語音識別部分 mac_address="haogeoyes" with open("1.wav",'rb') as f: s_file = f.read() speech_base64=base64.b64encode(s_file).decode('utf-8') speech_length=len(s_file) data_dict = {'format':'wav', 'rate':8000, 'channel':1, 'cuid':mac_address, 'token':y_token, 'lan':'zh', 'speech':speech_base64, 'len':speech_length} json_data = json.mps(data_dict).encode('utf-8') json_length = len(json_data) asr_server = 'm/server_api' request = urllib2.Request(url=asr_server) request.add_header("Content-Type", "application/json") request.add_header("Content-Length", json_length) fs = urllib2.urlopen(url=request, data=json_data) result_str = fs.read().decode('utf-8') json_resp = json.loads(result_str) if json_resp.has_key('result'): out_txt=json_resp['result'][0] else: out_txt="Null" return out_txt def tuling(b): f=urllib.urlopen("23.com/openapi/api?key="此處為圖靈API"&info=%s" % b) f=json.loads(f.read())['text'] return f def hecheng(text,y_token): #text="你好我是機器人牛牛很高興能夠認識你" geturl="u.com/text2audio?tex="+text+"&lan=zh&per=1&pit=9&spd=6&cuid=CCyo6UGf16ggKZGwGpQYL9Gx&ctp=1&tok="+y_token return os.system('omxplayer "%s" > /dev/null 2>&1 '%(geturl)) #return os.system('omxplayer "%s" > /dev/null 2>&1 '%(geturl)) def nowtime(): return time.strftime('%Y-%m-%d %H:%M:%S ') #---------------main-----------------num=0 #num用來判斷是第一次說話,還是在對話過程中first=1 #判斷是不是第一說話 當1000次沒有人動認為是第一次while True: if ganying()!=0: run=open('run.log','a') if first==0: hecheng("你好,我是牛牛機器人,你可以和我聊天,不過說話的時候你必須靠近話筒近一點,",y_token) hecheng("說點什麼吧,2秒鍾內說完哦.",y_token) first=1 #為1一段時間就不執行 num=0 #從新計數 #print ganying() run.write(nowtime()+"說點神馬吧..........."+'\n') print nowtime()+"說點神馬吧.........." luyin() #開始錄音 out=fanyi().encode("utf-8") #翻譯文字 run.write(nowtime()+"我說:"+out+'\n') print nowtime()+"我說:"+out if out == "Null": text="沒有聽清楚你說什麼" os.system('omxplayer "shenme.wav" > /dev/null 2>&1 ') else: text=tuling(out) hecheng(text,y_token) print nowtime()+"牛牛:"+text run.write(nowtime()+"牛牛:"+text+'\n') run.close() else: #print ganying() #調試查看是否為0有人沒人 #print num num=num+1 #num長時間增大說明沒有人在旁邊 if num > 1000: first=0 #0表示第一次說話
萬事俱備 運行nohup python robot.py 哈哈就可以脫離屏幕開始愉快的語音聊天啦
下面看看聊天的日誌記錄吧
後續更新。。。。。。Python如何用語音優雅的控制小車