導航:首頁 > 編程語言 > python層次聚類分析

python層次聚類分析

發布時間:2024-05-10 05:00:49

1. pythonr型聚類和q型聚類圖怎麼看

pythonr型聚類和q型聚類圖要從數據挖掘的悉旁備則角度看。pythonr型聚類和q型聚類是一種定量方法,可以從數據挖掘的角度來看。q型聚類是對樣本進行定量分析的多元統計方法,可以分為劃分聚類、層次聚類、基於密度睜滾橡的聚類、基於網格的聚類。

2. python數據挖掘工具包有什麼優缺點

【導讀】python數據挖掘工具包就是scikit-learn,scikit-learn是一個基於NumPy, SciPy,
Matplotlib的開源機器學習工具包,主要涵蓋分類,回歸和聚類演算法,例如SVM,
邏輯回歸,樸素貝葉斯,隨機森林,k-means等演算法,代碼和文檔都非常不錯,在許多Python項目中都有應用。

優點:

1、文檔齊全:官方文檔齊全,更新及時。

2、介面易用:針對所有演算法提供了一致的介面調用規則,不管是KNN、K-Means還是PCA.

3、演算法全面:涵蓋主流機器學習任務的演算法,包括回歸演算法、分類演算法、聚類分析、數據降維處理等。

缺點:

缺點是scikit-learn不支持分布式計算,不適合用來處理超大型數據。

Pandas是一個強大的時間序列數據處理工具包,Pandas是基於Numpy構建的,比Numpy的使用更簡單。最初開發的目的是為了分析財經數據,現在已經廣泛應用在Python數據分析領域中。Pandas,最基礎的數據結構是Series,用它來表達一行數據,可以理解為一維的數組。另一個關鍵的數據結構為DataFrame,它表示的是二維數組

Pandas是基於NumPy和Matplotlib開發的,主要用於數據分析和數據可視化,它的數據結構DataFrame和R語言里的data.frame很像,特別是對於時間序列數據有自己的一套分析機制。有一本書《Python
for Data Analysis》,作者是Pandas的主力開發,依次介紹了iPython, NumPy,
Pandas里的相關功能,數據可視化,數據清洗和加工,時間數據處理等,案例包括金融股票數據挖掘等,相當不錯。

Mlpy是基於NumPy/SciPy的Python機器學習模塊,它是Cython的擴展應用。

關於python數據挖掘工具包的優缺點,就給大家介紹到這里了,scikit-learn提供了一致的調用介面。它基於Numpy和scipy等Python數值計算庫,提供了高效的演算法實現,所以想要學習python,以上的內容得學會。

3. 減法聚類如何用Python實現

下面是一個k-means聚類演算法在python2.7.5上面的具體實現,你需要先安裝Numpy和Matplotlib:
from numpy import *
import time
import matplotlib.pyplot as plt

# calculate Euclidean distance
def euclDistance(vector1, vector2):
return sqrt(sum(power(vector2 - vector1, 2)))
# init centroids with random samples
def initCentroids(dataSet, k):
numSamples, dim = dataSet.shape
centroids = zeros((k, dim))
for i in range(k):
index = int(random.uniform(0, numSamples))
centroids[i, :] = dataSet[index, :]
return centroids
# k-means cluster
def kmeans(dataSet, k):
numSamples = dataSet.shape[0]
# first column stores which cluster this sample belongs to,
# second column stores the error between this sample and its centroid
clusterAssment = mat(zeros((numSamples, 2)))
clusterChanged = True
## step 1: init centroids
centroids = initCentroids(dataSet, k)
while clusterChanged:
clusterChanged = False
## for each sample
for i in xrange(numSamples):
minDist = 100000.0
minIndex = 0
## for each centroid
## step 2: find the centroid who is closest
for j in range(k):
distance = euclDistance(centroids[j, :], dataSet[i, :])
if distance < minDist:
minDist = distance
minIndex = j

## step 3: update its cluster
if clusterAssment[i, 0] != minIndex:
clusterChanged = True
clusterAssment[i, :] = minIndex, minDist**2
## step 4: update centroids
for j in range(k):
pointsInCluster = dataSet[nonzero(clusterAssment[:, 0].A == j)[0]]
centroids[j, :] = mean(pointsInCluster, axis = 0)
print 'Congratulations, cluster complete!'
return centroids, clusterAssment
# show your cluster only available with 2-D data
def showCluster(dataSet, k, centroids, clusterAssment):
numSamples, dim = dataSet.shape
if dim != 2:
print "Sorry! I can not draw because the dimension of your data is not 2!"
return 1
mark = ['or', 'ob', 'og', 'ok', '^r', '+r', 'sr', 'dr', '<r', 'pr']
if k > len(mark):
print "Sorry! Your k is too large! please contact Zouxy"
return 1
# draw all samples
for i in xrange(numSamples):
markIndex = int(clusterAssment[i, 0])
plt.plot(dataSet[i, 0], dataSet[i, 1], mark[markIndex])
mark = ['Dr', 'Db', 'Dg', 'Dk', '^b', '+b', 'sb', 'db', '<b', 'pb']
# draw the centroids
for i in range(k):
plt.plot(centroids[i, 0], centroids[i, 1], mark[i], markersize = 12)
plt.show()

4. python如何做數據分析

Python做數據分析比較好用且流行的是numpy、pandas庫,有興趣的話,可以深入了解、學習一下。

5. python數據分析與應用-Python數據分析與應用 pdf 內部全資料版

給大家帶來的一篇關於Python數據相關的電子書資源,介紹了關於Python方面的內容,本書是由人民郵電出版社出版,格式為PDF,資源大小281 MB,黃紅梅 張良均編寫,目前豆瓣、亞馬遜、當當、京東等電子書綜合評分為:7.8。

內容介紹

目錄

第1章Python數據分析概述1

任務1.1認識數據分析1

1.1.1掌握數據分析的概念2

1.1.2掌握數據分析的流程2

1.1.3了解數據分析應用場景4

任務1.2熟悉Python數據分析的工具5

1.2.1了解數據分析常用工具6

1.2.2了解Python數據分析的優勢7

1.2.3了解Python數據分析常用類庫7

任務1.3安裝Python的Anaconda發行版9

1.3.1了解Python的Anaconda發行版9

1.3.2在Windows系統中安裝Anaconda9

1.3.3在Linux系統中安裝Anaconda12

任務1.4掌握Jupyter Notebook常用功能14

1.4.1掌握Jupyter Notebook的基本功能14

1.4.2掌握Jupyter Notebook的高 級功能16

小結19

課後習題19

第2章NumPy數值計算基礎21

任務2.1掌握NumPy數組對象ndarray21

2.1.1創建數組對象21

2.1.2生成隨機數27

2.1.3通過索引訪問數組29

2.1.4變換數組的形態31

任務2.2掌握NumPy矩陣與通用函數34

2.2.1創建NumPy矩陣34

2.2.2掌握ufunc函數37

任務2.3利用NumPy進行統計分析41

2.3.1讀/寫文件41

2.3.2使用函數進行簡單的統計分析44

2.3.3任務實現48

小結50

實訓50

實訓1創建數組並進行運算50

實訓2創建一個國際象棋的棋盤50

課後習題51

第3章Matplotlib數據可視化基礎52

任務3.1掌握繪圖基礎語法與常用參數52

3.1.1掌握pyplot基礎語法53

3.1.2設置pyplot的動態rc參數56

任務3.2分析特徵間的關系59

3.2.1繪制散點圖59

3.2.2繪制折線圖62

3.2.3任務實現65

任務3.3分析特徵內部數據分布與分散狀況68

3.3.1繪制直方圖68

3.3.2繪制餅圖70

3.3.3繪制箱線圖71

3.3.4任務實現73

小結77

實訓78

實訓1分析1996 2015年人口數據特徵間的關系78

實訓2分析1996 2015年人口數據各個特徵的分布與分散狀況78

課後習題79

第4章pandas統計分析基礎80

任務4.1讀/寫不同數據源的數據80

4.1.1讀/寫資料庫數據80

4.1.2讀/寫文本文件83

4.1.3讀/寫Excel文件87

4.1.4任務實現88

任務4.2掌握DataFrame的常用操作89

4.2.1查看DataFrame的常用屬性89

4.2.2查改增刪DataFrame數據91

4.2.3描述分析DataFrame數據101

4.2.4任務實現104

任務4.3轉換與處理時間序列數據107

4.3.1轉換字元串時間為標准時間107

4.3.2提取時間序列數據信息109

4.3.3加減時間數據110

4.3.4任務實現111

任務4.4使用分組聚合進行組內計算113

4.4.1使用groupby方法拆分數據114

4.4.2使用agg方法聚合數據116

4.4.3使用apply方法聚合數據119

4.4.4使用transform方法聚合數據121

4.4.5任務實現121

任務4.5創建透視表與交叉表123

4.5.1使用pivot_table函數創建透視表123

4.5.2使用crosstab函數創建交叉表127

4.5.3任務實現128

小結130

實訓130

實訓1讀取並查看P2P網路貸款數據主表的基本信息130

實訓2提取用戶信息更新表和登錄信息表的時間信息130

實訓3使用分組聚合方法進一步分析用戶信息更新表和登錄信息表131

實訓4對用戶信息更新表和登錄信息表進行長寬表轉換131

課後習題131

第5章使用pandas進行數據預處理133

任務5.1合並數據133

5.1.1堆疊合並數據133

5.1.2主鍵合並數據136

5.1.3重疊合並數據139

5.1.4任務實現140

任務5.2清洗數據141

5.2.1檢測與處理重復值141

5.2.2檢測與處理缺失值146

5.2.3檢測與處理異常值149

5.2.4任務實現152

任務5.3標准化數據154

5.3.1離差標准化數據154

5.3.2標准差標准化數據155

5.3.3小數定標標准化數據156

5.3.4任務實現157

任務5.4轉換數據158

5.4.1啞變數處理類別型數據158

5.4.2離散化連續型數據160

5.4.3任務實現162

小結163

實訓164

實訓1插補用戶用電量數據缺失值164

實訓2合並線損、用電量趨勢與線路告警數據164

實訓3標准化建模專家樣本數據164

課後習題165

第6章使用scikit-learn構建模型167

任務6.1使用sklearn轉換器處理數據167

6.1.1載入datasets模塊中的數據集167

6.1.2將數據集劃分為訓練集和測試集170

6.1.3使用sklearn轉換器進行數據預處理與降維172

6.1.4任務實現174

任務6.2構建並評價聚類模型176

6.2.1使用sklearn估計器構建聚類模型176

6.2.2評價聚類模型179

6.2.3任務實現182

任務6.3構建並評價分類模型183

6.3.1使用sklearn估計器構建分類模型183

6.3.2評價分類模型186

6.3.3任務實現188

任務6.4構建並評價回歸模型190

6.4.1使用sklearn估計器構建線性回歸模型190

6.4.2評價回歸模型193

6.4.3任務實現194

小結196

實訓196

實訓1使用sklearn處理wine和wine_quality數據集196

實訓2構建基於wine數據集的K-Means聚類模型196

實訓3構建基於wine數據集的SVM分類模型197

實訓4構建基於wine_quality數據集的回歸模型197

課後習題198

第7章航空公司客戶價值分析199

任務7.1了解航空公司現狀與客戶價值分析199

7.1.1了解航空公司現狀200

7.1.2認識客戶價值分析201

7.1.3熟悉航空客戶價值分析的步驟與流程201

任務7.2預處理航空客戶數據202

7.2.1處理數據缺失值與異常值202

7.2.2構建航空客戶價值分析關鍵特徵202

7.2.3標准化LRFMC模型的5個特徵206

7.2.4任務實現207

任務7.3使用K-Means演算法進行客戶分群209

7.3.1了解K-Means聚類演算法209

7.3.2分析聚類結果210

7.3.3模型應用213

7.3.4任務實現214

小結215

實訓215

實訓1處理信用卡數據異常值215

實訓2構造信用卡客戶風險評價關鍵特徵217

實訓3構建K-Means聚類模型218

課後習題218

第8章財政收入預測分析220

任務8.1了解財政收入預測的背景與方法220

8.1.1分析財政收入預測背景220

8.1.2了解財政收入預測的方法222

8.1.3熟悉財政收入預測的步驟與流程223

任務8.2分析財政收入數據特徵的相關性223

8.2.1了解相關性分析223

8.2.2分析計算結果224

8.2.3任務實現225

任務8.3使用Lasso回歸選取財政收入預測的關鍵特徵225

8.3.1了解Lasso回歸方法226

8.3.2分析Lasso回歸結果227

8.3.3任務實現227

任務8.4使用灰色預測和SVR構建財政收入預測模型228

8.4.1了解灰色預測演算法228

8.4.2了解SVR演算法229

8.4.3分析預測結果232

8.4.4任務實現234

小結236

實訓236

實訓1求取企業所得稅各特徵間的相關系數236

實訓2選取企業所得稅預測關鍵特徵237

實訓3構建企業所得稅預測模型237

課後習題237

第9章家用熱水器用戶行為分析與事件識別239

任務9.1了解家用熱水器用戶行為分析的背景與步驟239

9.1.1分析家用熱水器行業現狀240

9.1.2了解熱水器採集數據基本情況240

9.1.3熟悉家用熱水器用戶行為分析的步驟與流程241

任務9.2預處理熱水器用戶用水數據242

9.2.1刪除冗餘特徵242

9.2.2劃分用水事件243

9.2.3確定單次用水事件時長閾值244

9.2.4任務實現246

任務9.3構建用水行為特徵並篩選用水事件247

9.3.1構建用水時長與頻率特徵248

9.3.2構建用水量與波動特徵249

9.3.3篩選候選洗浴事件250

9.3.4任務實現251

任務9.4構建行為事件分析的BP神經網路模型255

9.4.1了解BP神經網路演算法原理255

9.4.2構建模型259

9.4.3評估模型260

9.4.4任務實現260

小結263

實訓263

實訓1清洗運營商客戶數據263

實訓2篩選客戶運營商數據264

實訓3構建神經網路預測模型265

課後習題265

附錄A267

附錄B270

參考文獻295

學習筆記

Jupyter Notebook(此前被稱為 IPython notebook)是一個互動式筆記本,支持運行 40 多種編程語言。 Jupyter Notebook 的本質是一個 Web 應用程序,便於創建和共享文學化程序文檔,支持實時代碼,數學方程,可視化和 markdown。 用途包括:數據清理和轉換,數值模擬,統計建模,機器學習等等 。 定義 (推薦學習:Python視頻教程) 用戶可以通過電子郵件,Dropbox,GitHub 和 Jupyter Notebook Viewer,將 Jupyter Notebook 分享給其他人。 在Jupyter Notebook 中,代碼可以實時的生成圖像,視頻,LaTeX和JavaScript。 使用 數據挖掘領域中最熱門的比賽 Kaggle 里的資料都是Jupyter 格式 。 架構 Jupyter組件 Jupyter包含以下組件: Jupyter Notebook 和 ……

本文實例講述了Python實現的微信好友數據分析功能。分享給大家供大家參考,具體如下: 這里主要利用python對個人微信好友進行分析並把結果輸出到一個html文檔當中,主要用到的python包為 itchat , pandas , pyecharts 等 1、安裝itchat 微信的python sdk,用來獲取個人好友關系。獲取的代碼 如下: import itchatimport pandas as pdfrom pyecharts import Geo, Baritchat.login()friends = itchat.get_friends(update=True)[0:]def User2dict(User): User_dict = {} User_dict["NickName"] = User["NickName"] if User["NickName"] else "NaN" User_dict["City"] = User["City"] if User["City"] else "NaN" User_dict["Sex"] = User["Sex"] if User["Sex"] else 0 User_dict["Signature"] = User["Signature"] if User["Signature"] else "NaN" ……

基於微信開放的個人號介面python庫itchat,實現對微信好友的獲取,並對省份、性別、微信簽名做數據分析。 效果: 直接上代碼,建三個空文本文件stopwords.txt,newdit.txt、unionWords.txt,下載字體simhei.ttf或刪除字體要求的代碼,就可以直接運行。 #wxfriends.py 2018-07-09import itchatimport sysimport pandas as pdimport matplotlib.pyplot as pltplt.rcParams['font.sans-serif']=['SimHei']#繪圖時可以顯示中文plt.rcParams['axes.unicode_minus']=False#繪圖時可以顯示中文import jiemport jieba.posseg as psegfrom scipy.misc import imreadfrom wordcloud import WordCloudfrom os import path#解決編碼問題non_bmp_map = dict.fromkeys(range(0x10000, sys.maxunicode + 1), 0xfffd) #獲取好友信息def getFriends():……

Python數據分析之雙色球基於線性回歸演算法預測下期中獎結果示例

本文實例講述了Python數據分析之雙色球基於線性回歸演算法預測下期中獎結果。分享給大家供大家參考,具體如下: 前面講述了關於雙色球的各種演算法,這里將進行下期雙色球號碼的預測,想想有些小激動啊。 代碼中使用了線性回歸演算法,這個場景使用這個演算法,預測效果一般,各位可以考慮使用其他演算法嘗試結果。 發現之前有很多代碼都是重復的工作,為了讓代碼看的更優雅,定義了函數,去調用,頓時高大上了 #!/usr/bin/python# -*- coding:UTF-8 -*-#導入需要的包import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport operatorfrom sklearn import datasets,linear_modelfrom sklearn.linear_model import LogisticRegression#讀取文件d……

以上就是本次介紹的Python數據電子書的全部相關內容,希望我們整理的資源能夠幫助到大家,感謝大家對鬼鬼的支持。

注·獲取方式:私信(666)

6. 如何用Python進行大數據挖掘和分析

如何用Python進行大數據挖掘和分析?快速入門路徑圖
大數據無處不在。在時下這個年代,不管你喜歡與否,在運營一個成功的商業的過程中都有可能會遇到它。
什麼是 大數據 ?
大數據就像它看起來那樣——有大量的數據。單獨而言,你能從單一的數據獲取的洞見窮其有限。但是結合復雜數學模型以及強大計算能力的TB級數據,卻能創造出人類無法製造的洞見。大數據分析提供給商業的價值是無形的,並且每天都在超越人類的能力。
大數據分析的第一步就是要收集數據本身,也就是眾所周知的「數據挖掘」。大部分的企業處理著GB級的數據,這些數據有用戶數據、產品數據和地理位置數據。今天,我將會帶著大家一起探索如何用 Python 進行大數據挖掘和分析?
為什麼選擇Python?
Python最大的優點就是簡單易用。這個語言有著直觀的語法並且還是個強大的多用途語言。這一點在大數據分析環境中很重要,並且許多企業內部已經在使用Python了,比如Google,YouTube,迪士尼等。還有,Python是開源的,並且有很多用於數據科學的類庫。
現在,如果你真的要用Python進行大數據分析的話,毫無疑問你需要了解Python的語法,理解正則表達式,知道什麼是元組、字元串、字典、字典推導式、列表和列表推導式——這只是開始。
數據分析流程
一般可以按「數據獲取-數據存儲與提取-數據預處理-數據建模與分析-數據可視化」這樣的步驟來實施一個數據分析項目。按照這個流程,每個部分需要掌握的細分知識點如下:
數據獲取:公開數據、Python爬蟲
外部數據的獲取方式主要有以下兩種。
第一種是獲取外部的公開數據集,一些科研機構、企業、政府會開放一些數據,你需要到特定的網站去下載這些數據。這些數據集通常比較完善、質量相對較高。
另一種獲取外部數據的方式就是爬蟲。
比如你可以通過爬蟲獲取招聘網站某一職位的招聘信息,爬取租房網站上某城市的租房信息,爬取豆瓣評分評分最高的電影列表,獲取知乎點贊排行、網易雲音樂評論排行列表。基於互聯網爬取的數據,你可以對某個行業、某種人群進行分析。
在爬蟲之前你需要先了解一些 Python 的基礎知識:元素(列表、字典、元組等)、變數、循環、函數………
以及,如何用 Python 庫(urllib、BeautifulSoup、requests、scrapy)實現網頁爬蟲。
掌握基礎的爬蟲之後,你還需要一些高級技巧,比如正則表達式、使用cookie信息、模擬用戶登錄、抓包分析、搭建代理池等等,來應對不同網站的反爬蟲限制。
數據存取:SQL語言
在應對萬以內的數據的時候,Excel對於一般的分析沒有問題,一旦數據量大,就會力不從心,資料庫就能夠很好地解決這個問題。而且大多數的企業,都會以SQL的形式來存儲數據。
SQL作為最經典的資料庫工具,為海量數據的存儲與管理提供可能,並且使數據的提取的效率大大提升。你需要掌握以下技能:
提取特定情況下的數據
資料庫的增、刪、查、改
數據的分組聚合、如何建立多個表之間的聯系
數據預處理:Python(pandas)
很多時候我們拿到的數據是不幹凈的,數據的重復、缺失、異常值等等,這時候就需要進行數據的清洗,把這些影響分析的數據處理好,才能獲得更加精確地分析結果。
對於數據預處理,學會 pandas (Python包)的用法,應對一般的數據清洗就完全沒問題了。需要掌握的知識點如下:
選擇:數據訪問
缺失值處理:對缺失數據行進行刪除或填充
重復值處理:重復值的判斷與刪除
異常值處理:清除不必要的空格和極端、異常數據
相關操作:描述性統計、Apply、直方圖等
合並:符合各種邏輯關系的合並操作
分組:數據劃分、分別執行函數、數據重組
Reshaping:快速生成數據透視表
概率論及統計學知識
需要掌握的知識點如下:
基本統計量:均值、中位數、眾數、百分位數、極值等
其他描述性統計量:偏度、方差、標准差、顯著性等
其他統計知識:總體和樣本、參數和統計量、ErrorBar
概率分布與假設檢驗:各種分布、假設檢驗流程
其他概率論知識:條件概率、貝葉斯等
有了統計學的基本知識,你就可以用這些統計量做基本的分析了。你可以使用 Seaborn、matplotlib 等(python包)做一些可視化的分析,通過各種可視化統計圖,並得出具有指導意義的結果。
Python 數據分析
掌握回歸分析的方法,通過線性回歸和邏輯回歸,其實你就可以對大多數的數據進行回歸分析,並得出相對精確地結論。這部分需要掌握的知識點如下:
回歸分析:線性回歸、邏輯回歸
基本的分類演算法:決策樹、隨機森林……
基本的聚類演算法:k-means……
特徵工程基礎:如何用特徵選擇優化模型
調參方法:如何調節參數優化模型
Python 數據分析包:scipy、numpy、scikit-learn等
在數據分析的這個階段,重點了解回歸分析的方法,大多數的問題可以得以解決,利用描述性的統計分析和回歸分析,你完全可以得到一個不錯的分析結論。
當然,隨著你實踐量的增多,可能會遇到一些復雜的問題,你就可能需要去了解一些更高級的演算法:分類、聚類。
然後你會知道面對不同類型的問題的時候更適合用哪種演算法模型,對於模型的優化,你需要去了解如何通過特徵提取、參數調節來提升預測的精度。
你可以通過 Python 中的 scikit-learn 庫來實現數據分析、數據挖掘建模和分析的全過程。
總結
其實做數據挖掘不是夢,5步就能讓你成為一個Python爬蟲高手!

7. python數據分析的一般步驟是什麼

下面是用python進行數據分析的一般步驟:
一:數據抽取
從外部源數據中獲取數據
保存為各種格式的文件、資料庫等
使用Scrapy爬蟲等技術
二:數據載入
從資料庫、文件中提取數據,變成DataFrame對象
pandas庫的文件讀取方法
三:數據處理
數據准備:
對DataFrame對象(多個)進行組裝、合並等操作
pandas庫的操作
數據轉化:
類型轉化、分類(面元等)、異常值檢測、過濾等
pandas庫的操作
數據聚合:
分組(分類)、函數處理、合並成新的對象
pandas庫的操作
四:數據可視化
將pandas的數據結構轉化為圖表的形式
matplotlib庫
五:預測模型的創建和評估
數據挖掘的各種演算法:
關聯規則挖掘、回歸分析、聚類、分類、時序挖掘、序列模式挖掘等
六:部署(得出結果)
從模型和評估中獲得知識
知識的表示形式:規則、決策樹、知識基、網路權值
更多技術請關注python視頻教程。

閱讀全文

與python層次聚類分析相關的資料

熱點內容
腰椎壓縮性骨折吧 瀏覽:324
安卓怎麼把軟體改成火影忍者 瀏覽:702
手機如何切換軟體商店伺服器 瀏覽:325
江蘇省python二級題型 瀏覽:231
文件編譯器在哪 瀏覽:26
選擇目錄時此電腦的文件夾怎麼刪 瀏覽:25
狗狗幣加密支付服務 瀏覽:897
怎麼使用指南針APP確定方向 瀏覽:372
php讀取圖片並輸出 瀏覽:321
如何組合多個pdf文件 瀏覽:669
工作表格excel取消加密 瀏覽:133
真空壓縮袋手泵怎麼用 瀏覽:426
鏡面的命令 瀏覽:203
51單片機藍牙模塊有延遲 瀏覽:115
b解壓葯 瀏覽:569
跳空缺口指標源碼怎麼寫 瀏覽:701
怎麼殺掉伺服器上所有進程 瀏覽:180
c語言中水仙花數的演算法分析 瀏覽:495
心煩時玩兒的解壓神器 瀏覽:497
linux安裝的庫文件 瀏覽:920