導航:首頁 > 程序命令 > lzo解壓命令

lzo解壓命令

發布時間:2023-06-06 15:52:53

Ⅰ hadoop-lzo安裝有什麼作用

lzo壓縮格式有很快的壓縮/解壓速度和合理的壓縮率,並且支持分塊(split),所以lzo是目前在Hadoop中最流行的壓縮格式。hadoop中的lzo不是自帶的,如果要支持lzo,需要另外安裝。

Ⅱ 求個能解壓 EXE安裝包的 軟體

uniextract -EXE,UniExtract 全稱是 Universal Extractor
一般exe都是需要安裝才能得到它的文件,可使用UniExtract可以直接解開各種包文件,這樣就可以不用安裝直接提取所需文件就能使用了。比較常用的是對付捆綁了插件的那些軟體,可以讓系統更干凈。

下面是官方列出的支持的壓縮包格式:
.7z .exe .ace .arc .arj .bin .cue .bz2 .tbz2 .tar .bz2 .cpio .deb .b64 .uu .uue .xx .xxe .yenc .ntx
.gz .tgz .tar .gz .img .cab .1 .lib .iso .kgb .kge .lzh .lha .Z .tz .tar.Z .lzo .mht .sis .zip .rar

Ⅲ centos7中在官網下載一個lzo,但是在終端用tar解壓時發現無法找到文件,請問該怎麼解決

ls -l 看看當前路徑下文件是否存在
如果沒有,你到下載路徑下解壓

linux下怎麼打開lzo文件查看文件內容

lzo 是壓縮文件。
一般 Linux 下面的壓縮都是流壓縮,也就是只能壓縮一個文件。這種文件是沒辦法看內容的,只能直接解壓縮。

圖形界面雙擊即可。

Ⅳ 壓縮方法有哪些各有什麼優缺點,壓縮比是多少呢主要是在linux下代碼壓縮的rar或zip大部分都是win下

壓縮比率很難說,未壓縮數據的復雜程度會影響這個比率。
常見壓縮演算法按壓縮比率由大到小排:
paq系 > lzma系 > rar > bzip2 > lz系(gz、zip) > lzo

paq相當費時而且耗內存,有點不值得使用;lzma是目前硬體水平可接受的高壓縮比演算法(7z就屬於此類洐生品);rar沒什麼好說的,商業演算法,我覺得比bzip2費時上還好點;lzo雖然壓縮比率不那麼歷害,但高速、內存需求極少是其亮點,在需要實時壓縮、解壓的場合非常受歡迎,例如網路通迅、資料庫。

linux中最常用tar.gz格式(winrar支持解壓)。
命令通常是這樣: tar czvf abc.tar.gz name1 name2 ...
解釋一下參數czvf
c 建立
v 詳細信息
f 輸出文件,後面一定跟生成的壓縮文件名。
z 用gz壓縮
(其它壓縮還有:
Z compress壓縮,幾乎沒人用的老舊lz演算法
j bzip2壓縮
J xz壓縮,lzma的改進演算法
也可在最後加參數 --lzop 或 --lzip 或 --lzma)

生成tar.gz其實經過兩個處理過程的,首先tar將所有文件的信息集合成一個無壓縮的tar格式(無需寫到磁碟),再用gz壓縮演算法處理(很像rar的solid選項)。這樣的壞處是,如果你只要解壓其中一個文件,解壓時也要讀取壓縮文件前面很大部分內容。

Ⅵ linux版本的解壓縮指令都一樣嗎

壓縮解壓縮軟體做的事,只要裝了相同的軟體,指令就是一樣的。

Ⅶ HDFS文件

Hadoop支持的文件系統由很多(見下圖),HDFS只是其中一種實現。java抽象類 org.apache.hadoop.fs.FileSystem 定義了Hadoop中一個文件系統的客戶端介面,並且該抽象類有幾個具體實現。Hadoop一般使用URI(下圖)方案來選取合適的文件系統實例進行交互。

特別的,HDFS文件系統的操作可以使用 FsSystem shell 、客戶端(http rest api、Java api、C api等)。

FsSystem shell 的用法基本同本地shell類似,命令可參考 FsSystem shell

Hadoop是用Java寫的,通過Java Api( FileSystem 類)可以調用大部分Hadoop文件系統的交互操作。更詳細的介紹可參考 hadoop Filesystem 。

非Java開發的應用可以使用由WebHDFS協議提供的HTTP REST API,但是HTTP比原生的Java客戶端要慢,所以不到萬不得已盡量不要使用HTTP傳輸特大數據。通過HTTP來訪問HDFS有兩種方法:

兩種如圖

在第一種情況中,namenode和datanode內嵌的web服務作為WebHDFS的端節點運行(是否啟用WebHDFS可通過dfs.webhdfs.enabled設置,默認為true)。文件元數據在namenode上,文件讀寫操作首先被發往namenode,有namenode發送一個HTTP重定向至某個客戶端,指示以流的方式傳輸文件數據的目的或源datanode。

第二種方法依靠一個或多個獨立代理伺服器通過HTTP訪問HDFS。所有集群的網路通信都需要通過代理,因此客戶端從來不直接訪問namenode或datanode。使用代理後可以使用更嚴格的防火牆策略和帶寬策略。

HttpFs代理提供和WebHDFS相同的HTTP介面,這樣客戶端能夠通過webhdfs URI訪問介面。HttpFS代理啟動獨立於namenode和datanode的守護進程,使用httpfs.sh 腳本,默認在一個不同的埠上監聽(14000)。

下圖描述了

讀文件時客戶端與 HDFS 中的 namenode, datanode 之間的數據流動。

對上圖的解釋如下:

在讀取過程中, 如果 FSDataInputStream 在和一個 datanode 進行交流時出現了一個錯誤,他就去試一試下一個最接近的塊,他當然也會記住剛才發生錯誤的 datanode 以至於之後不會再在這個 datanode 上進行沒必要的嘗試。 DFSInputStream 也會在 datanode 上傳輸出的數據上核查檢查數(checknums).如果損壞的塊被發現了, DFSInputStream 就試圖從另一個擁有備份的 datanode 中去讀取備份塊中的數據。

在這個設計中一個重要的方面就是客戶端直接從 datanode 上檢索數據,並通過 namenode 指導來得到每一個塊的最佳 datanode。這種設計允許 HDFS 擴展大量的並發客戶端,因為數據傳輸只是集群上的所有 datanode 展開的。期間,namenode 僅僅只需要服務於獲取塊位置的請求(塊位置信息是存放在內存中,所以效率很高)。如果不這樣設計,隨著客戶端數據量的增長,數據服務就會很快成為一個瓶頸。

我們知道,相對於客戶端(之後就是 maprece task 了),塊的位置有以下可能性:

我們認為他們對於客戶端的帶寬遞減,距離遞增(括弧中表示距離)。示意圖如下:

如果集群中的機器都在同一個機架上,我們無需其他配置,若集群比較復雜,由於hadoop無法自動發現網路拓撲,所以需要額外配置網路拓撲。

基本讀取程序,將文件內容輸出到console

FileSystemCat

隨機讀取

展開原碼

下圖描述了寫文件時客戶端與 HDFS 中的 namenode, datanode 之間的數據流動。

對上圖的解釋如下:

如果在任何一個 datanode 在寫入數據的時候失敗了,接下來所做的一切對客戶端都是透明的:首先, pipeline 被關閉,在確認隊列中的剩下的包會被添加進數據隊列的起始位置上,以至於在失敗的節點下游的任 何節點都不會丟失任何的包。然後與 namenode 聯系後,當前在一個好的 datanode 會聯系 namenode, 給失敗節點上還未寫完的塊生成一個新的標識ID, 以至於如果這個失敗的 datanode 不久後恢復了,這個不完整的塊將會被刪除。失敗節點會從 pipeline 中移除,然後剩下兩個好的 datanode 會組成一個的新的 pipeline ,剩下的 這些塊的包(也就是剛才放在數據隊列隊首的包)會繼續寫進 pipeline 中好的 datanode 中。最後,namenode 注意到塊備份數小於規定的備份數,他就安排在另一個節點上創建完成備份,直接從已有的塊中復制就可以。然後一直到滿足了備份數( dfs.replication )。如果有多個節點的寫入失敗了,如果滿足了最小備份數的設置( dfs.namenode.repliction.min ),寫入也將會成功,然後剩下的備份會被集群非同步的執行備份,直到滿足了備份數( dfs.replication )。

創建目錄

文件壓縮有兩大好處:

Hadoop 對於壓縮格式的是自動識別。如果我們壓縮的文件有相應壓縮格式的擴展名(比如 lzo,gz,bzip2 等)。Hadoop 會根據壓縮格式的擴展名自動選擇相對應的解碼器來解壓數據,此過程完全是 Hadoop 自動處理,我們只需要確保輸入的壓縮文件有擴展名。

Hadoop中有多種壓縮格式、演算法和工具,下圖列出了常用的壓縮方法。

表中的「是否可切分」表示對應的壓縮演算法是否支持切分,也就是說是否可以搜索數據流的任意位置並進一步往下讀取數據,可切分的壓縮格式尤其適合MapRece。

所有的壓縮演算法都需要權衡空間/時間:壓縮和解壓縮速度更快,其代價通常是只能節省少量的空間。不同的壓縮工具有不同的特性:

更詳細的比較如下

1.壓縮性能比較

2.優缺點

另外使用hadoop原生(native)類庫比其他java實現有更快的壓縮和解壓縮速度。特徵比較如下:

使用容器文件格式結合壓縮演算法也能更好的提高效率。順序文件、Arvo文件、ORCFiles、Parqurt文件同時支持壓縮和切分。

壓縮舉例(Java)

壓縮

解壓縮

六、文件序列化

序列化是指將結構化數據轉換為位元組流以便在網路上傳輸或寫到磁碟進行永久存儲。反序列化獅子將位元組流轉換回結構化對象的逆過程。

序列化用於分布式數據處理的兩大領域:進程間通信和永久存儲。

對序列化的要求時是格式緊湊(高效使用存儲空間)、快速(讀寫效率高)、可擴展(可以透明地讀取老格式數據)且可以互操作(可以使用不同的語言讀寫數據)。

Hadoop使用的是自己的序列化格式 Writable ,它絕對緊湊、速度快,但不太容易用java以外的語言進行擴展或使用。

當然,用戶也可以使用其他序列化框架或者自定義序列化方式,如 Avro 框架。

Hadoop內部還使用了 Apache Thrift 和 Protocal Buffers 來實現RPC和數據交換。

閱讀全文

與lzo解壓命令相關的資料

熱點內容
示波器app怎麼看 瀏覽:612
米家app英文怎麼改 瀏覽:605
學習編程你有什麼夢想 瀏覽:886
農行信用報告解壓密碼 瀏覽:217
小程序員調試信息 瀏覽:183
電腦打代碼自帶編譯嗎 瀏覽:273
和平怎麼在和平營地轉安卓 瀏覽:463
我的世界中如何查看伺服器的人數 瀏覽:618
台式機改為網路伺服器有什麼好處 瀏覽:960
騰訊雲輕量應用伺服器如何登陸 瀏覽:620
考研復試c語言編譯器 瀏覽:150
安卓的字體怎麼變粗 瀏覽:253
java錯誤無法載入主類 瀏覽:348
程序員考試考什麼文憑 瀏覽:883
pdf版破解 瀏覽:522
安卓系統如何重啟 瀏覽:174
小天才app鬧鍾怎麼改 瀏覽:962
司馬彥PDF 瀏覽:885
動力轉向編程 瀏覽:831
史瓦格期貨基本分析pdf 瀏覽:811