導航:首頁 > 源碼編譯 > hadoop源碼剖析電子版

hadoop源碼剖析電子版

發布時間:2025-06-02 11:00:14

A. 常見的大數據分析工具有哪些

大數據分析的前瞻性使得很多公司以及企業都開始使用大數據分析對公司的決策做出幫助,而大數據分析是去分析海量的數據,所以就不得不藉助一些工具去分析大數據,。一般來說,數據分析工作中都是有很多層次的,這些層次分別是數據存儲層、數據報表層、數據分析層、數據展現層。對於不同的層次是有不同的工具進行工作的。下面小編就對大數據分析工具給大家好好介紹一下。
首先我們從數據存儲來講數據分析的工具。我們在分析數據的時候首先需要存儲數據,數據的存儲是一個非常重要的事情,如果懂得資料庫技術,並且能夠操作好資料庫技術,這就能夠提高數據分析的效率。而數據存儲的工具主要是以下的工具。
1、MySQL資料庫,這個對於部門級或者互聯網的資料庫應用是必要的,這個時候關鍵掌握資料庫的庫結構和SQL語言的數據查詢能力。
2、SQL Server的最新版本,對中小企業,一些大型企業也可以採用SQL Server資料庫,其實這個時候本身除了數據存儲,也包括了數據報表和數據分析了,甚至數據挖掘工具都在其中了。
3、DB2,Oracle資料庫都是大型資料庫了,主要是企業級,特別是大型企業或者對數據海量存儲需求的就是必須的了,一般大型資料庫公司都提供非常好的數據整合應用平台;
接著說數據報表層。一般來說,當企業存儲了數據後,首先要解決報表的問題。解決報表的問題才能夠正確的分析好資料庫。關於數據報表所用到的數據分析工具就是以下的工具。
1、Crystal Report水晶報表,Bill報表,這都是全球最流行的報表工具,非常規范的報表設計思想,早期商業智能其實大部分人的理解就是報表系統,不藉助IT技術人員就可以獲取企業各種信息——報表。
2、Tableau軟體,這個軟體是近年來非常棒的一個軟體,當然它已經不是單純的數據報表軟體了,而是更為可視化的數據分析軟體,因為很多人經常用它來從資料庫中進行報表和可視化分析。
第三說的是數據分析層。這個層其實有很多分析工具,當然我們最常用的就是Excel,我經常用的就是統計分析和數據挖掘工具;
1、Excel軟體,首先版本越高越好用這是肯定的;當然對Excel來講很多人只是掌握了5%Excel功能,Excel功能非常強大,甚至可以完成所有的統計分析工作!但是我也常說,有能力把Excel玩成統計工具不如專門學會統計軟體;
2、SPSS軟體:當前版本是18,名字也改成了PASW Statistics;我從3.0開始Dos環境下編程分析,到現在版本的變遷也可以看出SPSS社會科學統計軟體包的變化,從重視醫學、化學等開始越來越重視商業分析,現在已經成為了預測分析軟體。
最後說表現層的軟體。一般來說表現層的軟體都是很實用的工具。表現層的軟體就是下面提到的內容。
1、PowerPoint軟體:大部分人都是用PPT寫報告。
2、Visio、SmartDraw軟體:這些都是非常好用的流程圖、營銷圖表、地圖等,而且從這里可以得到很多零件;
3、Swiff Chart軟體:製作圖表的軟體,生成的是Flash

B. 大數據分析一般用什麼工具分析

大數據分析是一個含義廣泛的術語,是指數據集,如此龐大而復雜的,他們需要專門設計的硬體和軟體工具進行處理。該數據集通常是萬億或EB的大小。這些數據集收集自各種各樣的來源:感測器,氣候信息,公開的信息,如雜志,報紙,文章。大數據分析產生的其他例子包括購買交易記錄,網路日誌,病歷,軍事監控,視頻和圖像檔案,及大型電子商務。

大數據分析,他們對企業的影響有一個興趣高漲。大數據分析是研究大量的數據的過程中尋找模式,相關性和其他有用的信息,可以幫助企業更好地適應變化,並做出更明智的決策。

一、Hadoop

Hadoop是一個開源框架,它允許在整個集群使用簡單編程模型計算機的分布式環境存儲並處理大數據。它的目的是從單一的伺服器到上千台機器的擴展,每一個台機都可以提供本地計算和存儲。

Hadoop 是一個能夠對大量數據進行分布式處理的軟體框架。但是 Hadoop 是以一種可靠、高效、可伸縮的方式進行處理的。Hadoop
是可靠的,即使計算元素和存儲會失敗,它維護多個工作數據副本,確保能夠針對失敗的節點重新分布處理。Hadoop是高效的,它採用並行的方式工作,通過並行處理加快處理速度。Hadoop
還是可伸縮的,能夠處理 PB 級數據。此外,Hadoop 依賴於社區伺服器,因此它的成本比較低,任何人都可以使用。


Pentaho BI 平台,Pentaho Open BI
套件的核心架構和基礎,是以流程為中心的,因為其中樞控制器是一個工作流引擎。工作流引擎使用流程定義來定義在BI
平台上執行的商業智能流程。流程可以很容易的被定製,也可以添加新的流程。BI
平台包含組件和報表,用以分析這些流程的性能。目前,Pentaho的主要組成元素包括報表生成、分析、數據挖掘和工作流管理等等。這些組件通過
J2EE、WebService、SOAP、HTTP、java、JavaScript、Portals等技術集成到Pentaho平台中來。
Pentaho的發行,主要以Pentaho SDK的形式進行。

Pentaho
SDK共包含五個部分:Pentaho平台、Pentaho示例資料庫、可獨立運行的Pentaho平台、Pentaho解決方案示例和一個預先配製好的
Pentaho網路伺服器。其中Pentaho平台是Pentaho平台最主要的部分,囊括了Pentaho平台源代碼的主體;Pentaho資料庫為
Pentaho平台的正常運行提供的數據服務,包括配置信息、Solution相關的信息等等,對於Pentaho平台來說它不是必須的,通過配置是可以用其它資料庫服務取代的;可獨立運行的Pentaho平台是Pentaho平台的獨立運行模式的示例,它演示了如何使Pentaho平台在沒有應用伺服器支持的情況下獨立運行;

Pentaho解決方案示例是一個Eclipse工程,用來演示如何為Pentaho平台開發相關的商業智能解決方案。

Pentaho BI 平台構建於伺服器,引擎和組件的基礎之上。這些提供了系統的J2EE
伺服器,安全,portal,工作流,規則引擎,圖表,協作,內容管理,數據集成,分析和建模功能。這些組件的大部分是基於標準的,可使用其他產品替換之。

七、Druid

Druid是實時數據分析存儲系統,Java語言中最好的資料庫連接池。Druid能夠提供強大的監控和擴展功能。


八、Ambari

大數據平台搭建、監控利器;類似的還有CDH

1、提供Hadoop集群

Ambari為在任意數量的主機上安裝Hadoop服務提供了一個逐步向導。

Ambari處理集群Hadoop服務的配置。

2、管理Hadoop集群

Ambari為整個集群提供啟動、停止和重新配置Hadoop服務的中央管理。

3、監視Hadoop集群

Ambari為監視Hadoop集群的健康狀況和狀態提供了一個儀錶板。


九、Spark

大規模數據處理框架(可以應付企業中常見的三種數據處理場景:復雜的批量數據處理(batch data
processing);基於歷史數據的互動式查詢;基於實時數據流的數據處理,Ceph:Linux分布式文件系統。


十、Tableau Public

1、什麼是Tableau Public - 大數據分析工具

這是一個簡單直觀的工具。因為它通過數據可視化提供了有趣的見解。Tableau
Public的百萬行限制。因為它比數據分析市場中的大多數其他玩家更容易使用票價。使用Tableau的視覺效果,您可以調查一個假設。此外,瀏覽數據,並交叉核對您的見解。

2、Tableau Public的使用

您可以免費將互動式數據可視化發布到Web;無需編程技能;發布到Tableau
Public的可視化可以嵌入到博客中。此外,還可以通過電子郵件或社交媒體分享網頁。共享的內容可以進行有效硫的下載。這使其成為最佳的大數據分析工具。

3、Tableau Public的限制

所有數據都是公開的,並且限制訪問的范圍很小;數據大小限制;無法連接到[R ;讀取的唯一方法是通過OData源,是Excel或txt。

十一、OpenRefine

1、什麼是OpenRefine - 數據分析工具

以前稱為GoogleRefine的數據清理軟體。因為它可以幫助您清理數據以進行分析。它對一行數據進行操作。此外,將列放在列下,與關系資料庫表非常相似。

2、OpenRefine的使用

清理凌亂的數據;數據轉換;從網站解析數據;通過從Web服務獲取數據將數據添加到數據集。例如,OpenRefine可用於將地址地理編碼到地理坐標。

3、OpenRefine的局限性

Open Refine不適用於大型數據集;精煉對大數據不起作用

十二、KNIME

1、什麼是KNIME - 數據分析工具

KNIME通過可視化編程幫助您操作,分析和建模數據。它用於集成各種組件,用於數據挖掘和機器學習。

2、KNIME的用途

不要寫代碼塊。相反,您必須在活動之間刪除和拖動連接點;該數據分析工具支持編程語言;事實上,分析工具,例如可擴展運行化學數據,文本挖掘,蟒蛇,和[R

3、KNIME的限制

數據可視化不佳

十三、Google Fusion Tables

1、什麼是Google Fusion Tables

對於數據工具,我們有更酷,更大版本的Google Spreadsheets。一個令人難以置信的數據分析,映射和大型數據集可視化工具。此外,Google
Fusion Tables可以添加到業務分析工具列表中。這也是最好的大數據分析工具之一。

2、使用Google Fusion Tables

在線可視化更大的表格數據;跨越數十萬行進行過濾和總結;將表與Web上的其他數據組合在一起;您可以合並兩個或三個表以生成包含數據集的單個可視化;

3、Google Fusion Tables的限制

表中只有前100,000行數據包含在查詢結果中或已映射;在一次API調用中發送的數據總大小不能超過1MB。

十四、NodeXL

1、什麼是NodeXL

它是關系和網路的可視化和分析軟體。NodeXL提供精確的計算。它是一個免費的(不是專業的)和開源網路分析和可視化軟體。NodeXL是用於數據分析的最佳統計工具之一。其中包括高級網路指標。此外,訪問社交媒體網路數據導入程序和自動化。

2、NodeXL的用途

這是Excel中的一種數據分析工具,可幫助實現以下方面:

數據導入;圖形可視化;圖形分析;數據表示;該軟體集成到Microsoft Excel
2007,2010,2013和2016中。它作為工作簿打開,包含各種包含圖形結構元素的工作表。這就像節點和邊緣;該軟體可以導入各種圖形格式。這種鄰接矩陣,Pajek
.net,UCINet .dl,GraphML和邊緣列表。

3、NodeXL的局限性

您需要為特定問題使用多個種子術語;在稍微不同的時間運行數據提取。

十五、Wolfram Alpha

1、什麼是Wolfram Alpha

它是Stephen Wolfram創建的計算知識引擎或應答引擎。

2、Wolfram Alpha的使用

是Apple的Siri的附加組件;提供技術搜索的詳細響應並解決微積分問題;幫助業務用戶獲取信息圖表和圖形。並有助於創建主題概述,商品信息和高級定價歷史記錄。

3、Wolfram Alpha的局限性

Wolfram Alpha只能處理公開數字和事實,而不能處理觀點;它限制了每個查詢的計算時間;這些數據分析統計工具有何疑問?

十六、Google搜索運營商

1、什麼是Google搜索運營商

它是一種強大的資源,可幫助您過濾Google結果。這立即得到最相關和有用的信息。

2、Google搜索運算符的使用

更快速地過濾Google搜索結果;Google強大的數據分析工具可以幫助發現新信息。

十七、Excel解算器

1、什麼是Excel解算器

Solver載入項是Microsoft Office Excel載入項程序。此外,它在您安裝Microsoft
Excel或Office時可用。它是excel中的線性編程和優化工具。這允許您設置約束。它是一種先進的優化工具,有助於快速解決問題。

2、求解器的使用

Solver找到的最終值是相互關系和決策的解決方案;它採用了多種方法,來自非線性優化。還有線性規劃到進化演算法和遺傳演算法,以找到解決方案。

3、求解器的局限性

不良擴展是Excel Solver缺乏的領域之一;它會影響解決方案的時間和質量;求解器會影響模型的內在可解性;

十八、Dataiku DSS

1、什麼是Dataiku DSS

這是一個協作數據科學軟體平台。此外,它還有助於團隊構建,原型和探索。雖然,它可以更有效地提供自己的數據產品。

2、Dataiku DSS的使用

Dataiku DSS - 數據分析工具提供互動式可視化界面。因此,他們可以構建,單擊,指向或使用SQL等語言。

3、Dataiku DSS的局限性

有限的可視化功能;UI障礙:重新載入代碼/數據集;無法輕松地將整個代碼編譯到單個文檔/筆記本中;仍然需要與SPARK集成

以上的工具只是大數據分析所用的部分工具,小編就不一一列舉了,下面把部分工具的用途進行分類:

1、前端展現

用於展現分析的前端開源工具有JasperSoft,Pentaho, Spagobi, Openi, Birt等等。

用於展現分析商用分析工具有Style Intelligence、RapidMiner Radoop、Cognos, BO, Microsoft
Power BI, Oracle,Microstrategy,QlikView、 Tableau 。

國內的有BDP,國雲數據(大數據分析魔鏡),思邁特,FineBI等等。

2、數據倉庫

有Teradata AsterData, EMC GreenPlum, HP Vertica 等等。

3、數據集市

有QlikView、 Tableau 、Style Intelligence等等。

C. 做大數據分析一般用什麼工具呢

Java :只要了解一些基礎即可,做大數據不需要很深的Java 技術,學java SE 就相當於有學習大數據。基礎
Linux:因為大數據相關軟體都是在Linux上運行的,所以Linux要學習的扎實一些,學好Linux對你快速掌握大數據相關技術會有很大的幫助,能讓你更好的理解hadoop、hive、hbase、spark等大數據軟體的運行環境和網路環境配置,能少踩很多坑,學會shell就能看懂腳本這樣能更容易理解和配置大數據集群。還能讓你對以後新出的大數據技術學習起來更快。
好說完基礎了,再說說還需要學習哪些大數據技術,可以按我寫的順序學下去。
Hadoop:這是現在流行的大數據處理平台幾乎已經成為大數據的代名詞,所以這個是必學的。Hadoop裡麵包括幾個組件HDFS、MapRece和YARN,HDFS是存儲數據的地方就像我們電腦的硬碟一樣文件都存儲在這個上面,MapRece是對數據進行處理計算的,它有個特點就是不管多大的數據只要給它時間它就能把數據跑完,但是時間可能不是很快所以它叫數據的批處理。
記住學到這里可以作為你學大數據的一個節點。
Zookeeper:這是個萬金油,安裝Hadoop的HA的時候就會用到它,以後的Hbase也會用到它。它一般用來存放一些相互協作的信息,這些信息比較小一般不會超過1M,都是使用它的軟體對它有依賴,對於我們個人來講只需要把它安裝正確,讓它正常的run起來就可以了。
Mysql:我們學習完大數據的處理了,接下來學習學習小數據的處理工具mysql資料庫,因為一會裝hive的時候要用到,mysql需要掌握到什麼層度那?你能在Linux上把它安裝好,運行起來,會配置簡單的許可權,修改root的密碼,創建資料庫。這里主要的是學習SQL的語法,因為hive的語法和這個非常相似。
Sqoop:這個是用於把Mysql里的數據導入到Hadoop里的。當然你也可以不用這個,直接把Mysql數據表導出成文件再放到HDFS上也是一樣的,當然生產環境中使用要注意Mysql的壓力。
Hive:這個東西對於會SQL語法的來說就是神器,它能讓你處理大數據變的很簡單,不會再費勁的編寫MapRece程序。有的人說Pig那?它和Pig差不多掌握一個就可以了。
Oozie:既然學會Hive了,我相信你一定需要這個東西,它可以幫你管理你的Hive或者MapRece、Spark腳本,還能檢查你的程序是否執行正確,出錯了給你發報警並能幫你重試程序,最重要的是還能幫你配置任務的依賴關系。我相信你一定會喜歡上它的,不然你看著那一大堆腳本,和密密麻麻的crond是不是有種想屎的感覺。
Hbase:這是Hadoop生態體系中的NOSQL資料庫,他的數據是按照key和value的形式存儲的並且key是唯一的,所以它能用來做數據的排重,它與MYSQL相比能存儲的數據量大很多。所以他常被用於大數據處理完成之後的存儲目的地。
Kafka:這是個比較好用的隊列工具,隊列是干嗎的?排隊買票你知道不?數據多了同樣也需要排隊處理,這樣與你協作的其它同學不會叫起來,你干嗎給我這么多的數據(比如好幾百G的文件)我怎麼處理得過來,你別怪他因為他不是搞大數據的,你可以跟他講我把數據放在隊列里你使用的時候一個個拿,這樣他就不在抱怨了馬上灰流流的去優化他的程序去了,因為處理不過來就是他的事情。而不是你給的問題。當然我們也可以利用這個工具來做線上實時數據的入庫或入HDFS,這時你可以與一個叫Flume的工具配合使用,它是專門用來提供對數據進行簡單處理,並寫到各種數據接受方(比如Kafka)的。
Spark:它是用來彌補基於MapRece處理數據速度上的缺點,它的特點是把數據裝載到內存中計算而不是去讀慢的要死進化還特別慢的硬碟。特別適合做迭代運算,所以演算法流們特別稀飯它。它是用scala編寫的。Java語言或者Scala都可以操作它,因為它們都是用JVM的。

D. 黑馬java培訓課程目錄(黑馬java課程大綱)

Java培訓班的課程內容一般都有哪些?

Java培訓班的課程內容一般都有以下幾個課程:

1、掌握Java語言的使用

語言語法、程序邏輯,OOP(面向對象)思想,封裝、繼承、多態,集合框架、泛型、FileIO技術,多線程技術、socket網路編程,XML技術。編程有關的操作系統基本使用,HTML5規范、HTML5文檔結構、HTML5元素、Web語義化;CSS3規范、CSS3選擇器、層疊與繼承、盒模型與視覺格式化模型、現代CSS布局、CSS3基本屬性。

2、掌握JavaWeb開發技術

Java開發中使用到的Web前端技術,HTML5+CSS3,JavaScript操作BOM和DOM,JQuery的選擇器、事件處理、動畫效果,MySQL資料庫技術,JDBC技術、JSP、Servlet、EL和JSTL、過濾器和監聽器、Ajax非同步請求等,Linux技術、SVN、Linux環境下項目發布部署等。

3、掌握使用流行框架SSMSSH技術實現企業級項目開發

重點學習MyBatis、Spring、SpringMVC框架的應用,Git、Java設計模式等,重點學習Struts2、Spring、Hibernate框架的應用,Maven、Oracle資料庫應用技術,了解大數據生態體系,Hadoop基礎入門。

想要了解更多這方面的相關信息,推薦咨詢千鋒教育。千鋒企合作部整合大量企業客戶資源,緊抓當下企業需求,將技術和項目完美結合千鋒課程體系,力求培養更多優質人才服務企業,不斷提升學員競爭力,鏈接企業用人標準的培訓課程及實戰項目,讓企業招聘用人的技術要求與千鋒學員的技術充分對接。近年來不斷引進阿里釘釘小程序技術、紅帽認證、騰訊雲、亞馬遜等,通過與企業的深度融合實現千鋒教研和就業服務的迭代升級,專業性值得信賴。

Java培訓課程有哪些

java作為一個主流的開發語言,應用相對比較普遍,java課程涵蓋的知識內容是比較豐富多樣的,所以學習起來也需要一定的時間。下面小編就詳細的為大家簡單的來介紹一下,java培訓課程都有哪些內容。

第一階段:Java核心基礎

掌握Java語法基礎,建立邏輯思維能力;

掌握面向對象編程思維能力面向對象、數據結構與演算法、異常處理;

掌握Java編程高級技術的運用IO框架、多線程、網路編程、設計模式、Java新特性等技術。

第二階段:資料庫核心技術

掌握資料庫設計思想與設計工具的使用能力MySQL資料庫、MySQL資料庫設計、E-R圖;

掌握資料庫與Java程序的連接技術能力JDBC技術、JDBC生產環境封裝、事務處理;

掌握連接池技術能力、連接池原理分析等;

第三階段:JavaWeb核心技術

掌握Web開發技術,建立B/S結構設計思想HTML/CSS/JS、XML與Tomcat中間件、HTTP協議、GIT版本控制;

掌握三層架構項目設計能力Servlet與JSP、Filter與ListenerSession與Cookie、MVC、AJAX、JQuery、Bootstrap;

第四階段:企業必備技術

掌握核心框架SSM及源碼思想Maven、MyBatis使用和源碼、Spring使用和源碼、SpringMVC使用和源碼、Springboot、安全驗證框架;

掌握Linux與反向代理技術Nginx、Linux系統常用操作、Nginx技術;

掌握HamonyOS開發技術、HarmonyOS組件開發與布局、HarmonyOS音樂播放器開發;

第五階段:Java大廠提升技能

掌握微服務架構開發思想與實現Docker、Redis、Elasticsearch、MQ、Mycat/Sharding-Sphere、SpringCloud、微服務架構、分布式全局ID;

掌握項目瓶頸優化之MySQL;

掌握項目瓶頸優化之JVM;

第六階段:大型項目與解決方案

掌握大型分布式項目開發經驗項目需求分析、項目任務分解、開發環境搭建、編碼開發測試、站立會議進行項目進度控制、問題解決、驗收項目、項目中面試問題分析和解答;

掌握大廠項目復雜解決方案經驗任務調度系統技術解決方案、精準搜索技術解決方案、千人千面技術解決方案、日均百億消息量消息積壓解決方案;

第七階段:大廠必備面試

掌握大廠技術面試深度題解方法-大廠技術面試題深度剖析、項目面試指導、真實面試要求模擬。

黑馬程序員Java班的課程有哪些內容?

主要包含

JavaSE基礎、Java網站的一站式解決方案、主流前言前端開發技術、市場佔用率最大的數據伺服器技術、流行的分布式微服務中間件的使用等

Java程序員培訓都有哪些課程內容?

全能型Java工程師的進階課程

第一階段:JavaSE:Java基礎語法;面向對象編程思想;Java常用API

第二階段:資料庫(MySQL/Oracle)與JDBC技術:MySQL/Oracle;JDBC

第三階段:JavaWeb開發技術:JavaWeb前端;JavaWeb基礎;JavaWeb高級

第四階段:大型項目實戰-CMS系統:JavaScript增強;Struts2;Spring基礎和IoC(XML配置)

第五階段:大型項目實戰-企業ERP/進銷存項目:JPA/Hibernate;項目管理及用例分析;AJAX/JSON/jQuery

第六階段:大型項目實戰-CRM/客戶關系管理系統:JavaScript高級/jQueryEasyUI;SpringMVC;Mybatis

第七階段:大型項目實戰-B2C/商城項目:微信開發;HTML5/CSS3/BootStrap;Linux與阿里雲

黑馬程序員軟體測試課程主要包含哪些?

對這個不是很清楚,給你說說我們的。

啄木鳥學院軟體測試培訓課具體課程大綱:

第一階段:基礎測試。掌握測試從業者必備的基礎技能,能夠更加高效的輔助測試工作。

第二階段:編程語言。java和python編程語言,具備最基本的編程思維、掌握基礎的編程技術、結合自動化框架相關技術才能達到企業的用人標准。

第三階段:web自動化。熟練掌握Selenium框架、UnitTest、PageObject模式、數據驅動和日誌收集、可滿足企業級的Web自動化測試工作。

第四階段:App自動化。熟練掌握appium框架、pytest、PO模式、數據驅動和持續集成。

第五階段:介面測試。熟練掌握postman、JMeter、requests、UnitTest、Mock測試和資料庫操作。

第六階段:性能測試。熟練掌握性能測試的理論和流程、能夠使用Loadrunner開發對應的性能測試腳本。

第七階段:數據結構+單元測試+sell腳本。對前幾個階段的總結以及延伸。學習完成後能更好的找到工作。

閱讀全文

與hadoop源碼剖析電子版相關的資料

熱點內容
伺服器集群如何實現硬碟共享 瀏覽:404
長虹空調壓縮機多少錢 瀏覽:15
pdf是動圖 瀏覽:726
matlab聚類分析演算法 瀏覽:337
ue4引擎程序員 瀏覽:175
App番茄英語怎麼樣 瀏覽:163
神策Python 瀏覽:254
cto壓縮炭的危害 瀏覽:217
小數點加減乘除法演算法 瀏覽:328
肯德基app怎麼找人工 瀏覽:642
網易有道優課編程課 瀏覽:339
一鍵網站伺服器地址 瀏覽:573
工行app怎麼注冊 瀏覽:781
中央空調渦旋壓縮機 瀏覽:120
linux飛秋 瀏覽:828
海爾電視頁面怎麼換app 瀏覽:461
研究生程序員30歲轉行 瀏覽:343
手機文件夾看圖片模糊 瀏覽:338
編程軟體排行榜河馬編程 瀏覽:115
ubuntuandroid程序 瀏覽:717