導航:首頁 > 源碼編譯 > 編譯集群伺服器選型

編譯集群伺服器選型

發布時間:2022-10-06 12:59:23

A. 求集群管理的相關知識!

集群技術案例介紹和具體操作

集群技術案例介紹和具體操作
中國科學院西安網路中心 中科紅旗linux培訓認證中心
集群技術
1.1 什麼是集群
簡單的說,集群(cluster)就是一組計算機,它們作為一個整體向用戶提
供一組網路資源。這些單個的計算機系統就是集群的節點(node)。一個理想的
集群是,用戶從來不會意識到集群系統底層的節點,在他/她們看來,集群是一
個系統,而非多個計算機系統。並且集群系統的管理員可以隨意增加和刪改集群
系統的節點。
1.2 為什麼需要集群
集群並不是一個全新的概念,其實早在七十年代計算機廠商和研究機構就
開始了對集群系統的研究和開發。由於主要用於科學工程計算,所以這些系統並
不為大家所熟知。直到Linux集群的出現,集群的概念才得以廣為傳播。
對集群的研究起源於集群系統良好的性能可擴展性(scalability)。提高CPU
主頻和匯流排帶寬是最初提供計算機性能的主要手段。但是這一手段對系統性能的
提供是有限的。接著人們通過增加CPU個數和內存容量來提高性能,於是出現了
向量機,對稱多處理機(SMP)等。但是當CPU的個數超過某一閾值,象SMP這些
多處理機系統的可擴展性就變的極差。主要瓶頸在於CPU訪問內存的帶寬並不能
隨著CPU個數的增加而有效增長。與SMP相反,集群系統的性能隨著CPU個數的
增加幾乎是線性變化的。圖1顯示了這中情況。
圖1. 幾種計算機系統的可擴展性
對於關鍵業務,停機通常是災難性的。因為停機帶來的損失也是巨大的。下
面的統計數字列舉了不同類型企業應用系統停機所帶來的損失。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
應用系統每分鍾損失(美元)
呼叫中心(Call Center) 27000
企業資源計劃(ERP)系統13000
供應鏈管理(SCM)系統11000
電子商務(eCommerce)系統10000
客戶服務(Customer Service Center)系統27000
圖2:停機給企業帶來的損失
隨著企業越來越依賴於信息技術,由於系統停機而帶來的損失也越拉越大。
集群系統的優點並不僅在於此。下面列舉了集群系統的主要優點:
高可擴展性:如上所述。
高可用性:集群中的一個節點失效,它的任務可傳遞給其他節點。可以有效防止單點失效。
高性能:負載平衡集群允許系統同時接入更多的用戶。
高性價比:可以採用廉價的符合工業標準的硬體構造高性能的系統。
2.1 集群系統的分類
雖然,根據集群系統的不同特徵可以有多種分類方法,但是一般把集群系統分為兩類:
(1)、高可用(High Availability)集群,簡稱HA集群。
這類集群致力於提供高度可靠的服務。就是利用集群系統的容錯性對外提供7*24小時不間
斷的服務,如高可用的文件伺服器、資料庫服務等關鍵應用。
目前已經有在Linux下的高可用集群,如Linux HA項目。
負載均衡集群:使任務可以在集群中盡可能平均地分攤不同的計算機進行處理,充分利
用集群的處理能力,提高對任務的處理效率。
在實際應用中這幾種集群類型可能會混合使用,以提供更加高效穩定的服務。如在一個使
用的網路流量負載均衡集群中,就會包含高可用的網路文件系統、高可用的網路服務。
(2)、性能計算(High Perfermance Computing)集群,簡稱HPC集群,也稱為科學計算
集群。
在這種集群上運行的是專門開發的並行應用程序,它可以把一個問題的數據分布到多
台的計算機上,利用這些計算機的共同資源來完成計算任務,從而可以解決單機不能勝任
的工作(如問題規模太大,單機計算速度太慢)。
這類集群致力於提供單個計算機所不能提供的強大的計算能力。如天氣預報、石油勘探與油
藏模擬、分子模擬、生物計算等。這些應用通常在並行通訊環境MPI、PVM等中開發,由於MPI
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
是目前的標准,故現在多使用MPI為並行環境。
比較有名的集群Beowulf就是一種科學計算集群項目。
3、集群系統轉發方式和調度演算法
3.1轉發方式
目前LVS主要有三種請求轉發方式和八種調度演算法。根據請求轉發方式的不同,所構
架集群的網路拓撲、安裝方式、性能表現也各不相同。用LVS主要可以架構三種形式的集群,
分別是LVS/NAT、LVS/TUN和LVS/DR,可以根據需要選擇其中一種。
(1)、網路地址轉換(LVS/NAT)
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(2)、直接路由
(3)、IP隧道
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
三種轉發方式的比較:
3.2、調度演算法
在選定轉發方式的情況下,採用哪種調度演算法將決定整個負載均衡的性能表現,不同
的演算法適用於不同的應用場合,有時可能需要針對特殊場合,自行設計調度演算法。LVS的算
法是逐漸豐富起來的,最初LVS只提供4種調度演算法,後來發展到以下八種:
1.輪叫調度(Round Robin)
調度器通過「輪叫」調度演算法將外部請求按順序輪流分配到集群中的真實伺服器上,它均
等地對待每一台伺服器,而不管伺服器上實際的連接數和系統負載。
2.加權輪叫(Weighted Round Robin)
調度器通過「加權輪叫」調度演算法根據真實伺服器的不同處理能力來調度訪問請求。這樣
可以保證處理能力強的伺服器能處理更多的訪問流量。調度器可以自動詢問真實伺服器的
負載情況,並動態地調整其權值。
3.最少鏈接(Least Connections)
調度器通過「最少連接」調度演算法動態地將網路請求調度到已建立的鏈接數最少的伺服器
上。如果集群系統的真實伺服器具有相近的系統性能,採用「最小連接」調度演算法可以較
好地均衡負載。
4.加權最少鏈接(Weighted Least Connections)
在集群系統中的伺服器性能差異較大的情況下,調度器採用「加權最少鏈接」調度演算法優
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
化負載均衡性能,具有較高權值的伺服器將承受較大比例的活動連接負載。調度器可以自
動詢問真實伺服器的負載情況,並動態地調整其權值。
5.基於局部性的最少鏈接(Locality-Based Least Connections)
「基於局部性的最少鏈接」調度演算法是針對目標IP地址的負載均衡,目前主要用於Cache
集群系統。該演算法根據請求的目標IP地址找出該目標IP地址最近使用的伺服器,若該服務
器是可用的且沒有超載,將請求發送到該伺服器;若伺服器不存在,或者該伺服器超載且
有伺服器處於一半的工作負載,則用「最少鏈接」的原則選出一個可用的伺服器,將請求
發送到該伺服器。
6. 帶復制的基於局部性最少鏈接( Locality-Based Least Connections with
Replication)
「帶復制的基於局部性最少鏈接」調度演算法也是針對目標IP地址的負載均衡,目前主要
用於Cache集群系統。它與LBLC演算法的不同之處是它要維護從一個目標IP地址到一組服務
器的映射,而LBLC演算法維護從一個目標IP地址到一台伺服器的映射。該演算法根據請求的目
標IP地址找出該目標IP地址對應的伺服器組,按「最小連接」原則從伺服器組中選出一
台伺服器,若伺服器沒有超載,將請求發送到該伺服器;若伺服器超載,則按「最小連接
」原則從這個集群中選出一台伺服器,將該伺服器加入到伺服器組中,將請求發送到該服
務器。同時,當該伺服器組有一段時間沒有被修改,將最忙的伺服器從伺服器組中刪除,
以降低復制的程度。
7.目標地址散列(Destination Hashing)
「目標地址散列」調度演算法根據請求的目標IP地址,作為散列鍵(Hash Key)從靜態分
配的散列表找出對應的伺服器,若該伺服器是可用的且未超載,將請求發送到該伺服器,
否則返回空。
8.源地址散列(Source Hashing)
「源地址散列」調度演算法根據請求的源IP地址,作為散列鍵(Hash Key)從靜態分配的
散列表找出對應的伺服器,若該伺服器是可用的且未超載,將請求發送到該伺服器,否則
返回空。
了解這些演算法原理能夠在特定的應用場合選擇最適合的調度演算法,從而盡可能地保持
Real Server的最佳利用性。當然也可以自行開發演算法,不過這已超出本文范圍,請參考有
關演算法原理的資料。
4.1、什麼是高可用性
計算機系統的可用性(availability)是通過系統的可靠性(reliability)和可維護性
(maintainability)來度量的。工程上通常用平均無故障時間(MTTF)來度量系統的可靠性,
用平均維修時間(MTTR)來度量系統的可維護性。於是可用性被定義為:
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
MTTF/(MTTF+MTTR)*100%
業界根據可用性把計算機系統分為如下幾類:
可用比例
(Percent
Availability)
年停機時間
(downtime/year
)
可用性分類
99.5 3.7天
常規系統
(Conventional)
99.9 8.8小時可用系統(Available)
99.99 52.6分鍾
高可用系統(Highly
Available)
99.999 5.3分鍾Fault Resilient
99.9999 32秒Fault Tolerant
為了實現集群系統的高可用性,提高系統的高可性,需要在集群中建立冗餘機制。一個功
能全面的集群機構如下圖所示
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
負載均衡伺服器的高可用性
為了屏蔽負載均衡伺服器的失效,需要建立一個備份機。主伺服器和備份機上都運行
High Availability監控程序,通過傳送諸如「I am alive」這樣的信息來監控對方的運
行狀況。當備份機不能在一定的時間內收到這樣的信息時,它就接管主伺服器的服務IP並
繼續提供服務;當備份管理器又從主管理器收到「I am alive」這樣的信息是,它就釋放
服務IP地址,這樣的主管理器就開開始再次進行集群管理的工作了。為在住伺服器失效的
情況下系統能正常工作,我們在主、備份機之間實現負載集群系統配置信息的同步與備份,
保持二者系統的基本一致。
HA的容錯備援運作過程
自動偵測(Auto-Detect)階段 由主機上的軟體通過冗餘偵測線,經由復雜的監聽程序。邏
輯判斷,來相互偵測對方運行的情況,所檢查的項目有:
主機硬體(CPU和周邊)
主機網路
主機操作系統
資料庫引擎及其它應用程序
主機與磁碟陣列連線
為確保偵測的正確性,而防止錯誤的判斷,可設定安全偵測時間,包括偵測時間間隔,
偵測次數以調整安全系數,並且由主機的冗餘通信連線,將所匯集的訊息記錄下來,以供
維護參考。
自動切換(Auto-Switch)階段 某一主機如果確認對方故障,則正常主機除繼續進行原來的
任務,還將依據各種容錯備援模式接管預先設定的備援作業程序,並進行後續的程序及服
務。
自動恢復(Auto-Recovery)階段 在正常主機代替故障主機工作後,故障主機可離線進行修
復工作。在故障主機修復後,透過冗餘通訊線與原正常主機連線,自動切換回修復完成的
主機上。整個回復過程完成由EDI-HA自動完成,亦可依據預先配置,選擇回復動作為半自
動或不回復。
4.2、HA三種工作方式:
(1)、主從方式 (非對稱方式)
工作原理:主機工作,備機處於監控准備狀況;當主機宕機時,備機接管主機的一切工作,
待主機恢復正常後,按使用者的設定以自動或手動方式將服務切換到主機上運行,數據的
一致性通過共享存儲系統解決。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(2)、雙機雙工方式(互備互援)
工作原理:兩台主機同時運行各自的服務工作且相互監測情況,當任一台主機宕機時,另
一台主機立即接管它的一切工作,保證工作實時,應用服務系統的關鍵數據存放在共享存
儲系統中。
(3)、集群工作方式(多伺服器互備方式)
工作原理:多台主機一起工作,各自運行一個或幾個服務,各為服務定義一個或多個備用
主機,當某個主機故障時,運行在其上的服務就可以被其它主機接管。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
相關文檔
http://tech.sina.com.cn/it/2004-04-09/1505346805.shtml
http://stonesoup.esd.ornl.gov
LINUX下的集群實列應用
最近有客戶需要一個負載均衡方案,筆者對各種軟硬體的負載均衡方案進行了調查和
比較,從IBM sServer Cluster、Sun Cluster PlatForm 等硬體集群,到中軟、紅旗、
TurboLinux的軟體集群,發現無論採用哪個廠商的負載均衡產品其價格都是該客戶目前所
不能接受的。於是筆者想到了開放源項目Linux Virtual Server(簡稱LVS)。經過對LVS的研
究和實驗,終於在Red Hat 9.0上用LVS成功地構架了一組負載均衡的集群系統。整個實
現過程整理收錄如下,供讀者參考。
選用的LVS實際上是一種Linux操作系統上基於IP層的負載均衡調度技術,它在操
作系統核心層上,將來自IP層的TCP/UDP請求均衡地轉移到不同的伺服器,從而將一組
伺服器構成一個高性能、高可用的虛擬伺服器。使用三台機器就可以用LVS實現最簡單的集
群,如圖1所示。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
圖1 LVS實現集群系統結構簡圖
圖1顯示一台名為Director的機器在集群前端做負載分配工作;後端兩台機器稱之為
Real Server,專門負責處理Director分配來的外界請求。該集群的核心是前端的Director
機器,LVS就是安裝在這台機器上,它必須安裝Linux。Real Server則要根據其選用的負
載分配方式而定,通常Real Server上的設置比較少。接下來介紹Director機器上LVS的
安裝過程。
安裝
LVS的安裝主要是在Director機器上進行,Real Server只需針對不同的轉發方式做簡單
的設定即可。特別是對LVS的NAT方式,Real Server惟一要做的就是設一下預設的網關。
所以構架集群的第一步從安裝Director機器開始。
首先,要在Director機器上安裝一個Linux操作系統。雖然早期的一些Red Hat版本,
如6.2、7.2、8.0等自帶Red Hat自己的集群軟體,或者是在內核中已經支持LVS,但是為
了更清楚地了解LVS的機制,筆者還是選擇自行將LVS編入Linux內核的方式進行安裝,
Linux版本採用Red Hat 9.0。
如果用戶對Red Hat的安裝比較了解,可以選擇定製安裝,並只安裝必要的軟體包。
安裝中請選擇GRUB 做為啟動引導管理軟體。因為GRUB 在系統引導方面的功能遠比
LILO強大,在編譯Linux內核時可以體會它的方便之處。
LVS是在Linux內核中實現的,所以要對原有的Linux內核打上支持LVS的內核補丁,
然後重新編譯內核。支持LVS 的內核補丁可以從LVS 的官方網
http://www.linuxvirtualserver.org 下載,下載時請注意使用的Linux核心版本,必須下載和
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
使用的Linux內核版本相一致的LVS內核補丁才行。對於Red Hat 9.0,其Linux內核版本
是2.4.20,所以對應內核補丁應該是http://www.linuxvirtualserver.org/software/kernel-
2.4/linux-2.4.20-ipvs-1.0.9.patch.gz。筆者經過多次實驗,使用Red Hat 9.0自帶的Linux
源代碼無法成功編譯LVS 的相關模組。由於時間關系筆者沒有仔細研究,而是另外從
kernel.org上下載了一個tar包格式的2.4.20內核來進行安裝,順利完成所有編譯。下面是
整個內核的編譯過程:
1.刪除Red Hat自帶的Linux源代碼
# cd /usr/src
# rm -rf linux*
2.下載2.4.20內核
# cd /usr/src
# wget ftp://ftp.kernel.org/pub/linux/kernel/v2.4/linux-2.4.20.tar.bz2
3.解壓到當前目錄/usr/src
# cd /usr/src
# tar -xjpvf linux-2.4.20.tar.bz2
4.建立鏈接文件
# cd /usr/src # ln -s linux-2.4.20 linux-2.4 # ln -s linux-2.4.20 linux
5.打上LVS的內核補丁
# cd /usr/src
#wget http://www.linuxvirtualserver.org/software/kernel-2.4/linux-2.4.20-ipvs-
1.0.9.patch.gz
# gzip -cd linux-2.4.20-ipvs-1.0.9.patch.gz
# cd /usr/src/linux
# patch -p1 < ../linux-2.4.20-ipvs-1.0.9.patch
在打補丁時,注意命令執行後的信息,不能有任何錯誤信息,否則核心或模組很可能
無法成功編譯。
6.打上修正ARP問題的內核補丁
# cd /usr/src
# wget http://www.ssi.bg/~ja/hidden-2.4.20pre10-1.diff
# cd /usr/src/linux
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
# patch -p1 < ../hidden-2.4.20pre10-1.diff
這一步在Director機器上可以不做,但是在使用LVS/TUN和LVS/DR方式的Real Server
上必須做。
7.為新核心命名
打開/usr/src/linux/Makefile。注意,在開始部分有一個變數EXTRAVERSION可以自行定
義。修改這個變數,比如改成「EXTRAVERSION=-LVS」後,編譯出的核心版本號就會顯
示成2.4.20-LVS。這樣給出有含義的名稱將有助於管理多個Linux核心。
8.檢查源代碼
# make mrproper
這一步是為確保源代碼目錄下沒有不正確的.o文件及文件的互相依賴。因為是新下載的內
核,所以在第一次編譯時,這一步實際可以省略。
9.配置核心選項
# make menuconfig
命令執行後會進入一個圖形化的配置界面,可以通過這個友好的圖形界面對內核進行定製。
此過程中,要注意對硬體驅動的選擇。Linux支持豐富的硬體,但對於伺服器而言,用不到
的硬體驅動都可以刪除。另外,像Multimedia devices、Sound、Bluetooth support、Amateur
Radio support等項也可以刪除。
注意,以下幾項配置對LVS非常重要,請確保作出正確的選擇:
(1)Code maturity level options項
對此項只有以下一個子選項,請選中為*,即編譯到內核中去。
Prompt for development and/or incomplete code/drivers
(2)Networking options項
對此項的選擇可以參考以下的配置,如果不清楚含義可以查看幫助:
<*> Packet socket
[ ] Packet socket: mmapped IO
< > Netlink device emulation
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
Network packet filtering (replaces ipchains)
[ ] Network packet filtering debugging
Socket Filtering
<*> Unix domain sockets
TCP/IP networking
IP: multicasting
IP: advanced router
IP: policy routing
[ ] IP: use netfilter MARK value as routing key
[ ] IP: fast network address translation
<M> IP: tunneling
IP: broadcast GRE over IP
[ ] IP: multicast routing
[ ] IP: ARP daemon support (EXPERIMENTAL)
[ ] IP: TCP Explicit Congestion Notification support
[ ] IP: TCP syncookie support (disabled per default)
IP: Netfilter Configuration --->
IP: Virtual Server Configuration --->
(3)Networking options項中的IP: Virtual Server Configuration項
如果打好了LVS的內核補丁,就會出現此選項。進入Virtual Server Configuration選項,
有以下子選項:
<M> virtual server support (EXPERIMENTAL)
IP virtual server debugging
(12) IPVS connection table size (the Nth power of 2)
--- IPVS scheler
<M> round-robin scheling
<M> weighted round-robin scheling
<M> least-connection scheling scheling
<M> weighted least-connection scheling
<M> locality-based least-connection scheling
<M> locality-based least-connection with replication scheling
<M> destination hashing scheling
<M> source hashing scheling
<M> shortest expected delay scheling
<M> never queue scheling
--- IPVS application helper
<M> FTP protocol helper
以上所有項建議全部選擇。
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(4)Networking options項中的IP: Netfilter Configuration項
對於2.4版本以上的Linux Kernel來說,iptables是取代早期ipfwadm和ipchains的
更好選擇,所以除非有特殊情況需要用到對ipchains和ipfwadm的支持,否則就不要選它。
本文在LVS/NAT方式中,使用的就是iptables,故這里不選擇對ipchains和ipfwadm的
支持:
< > ipchains (2.2-style) support
< > ipfwadm (2.0-style) support
10. 編譯內核
(1)檢查依賴關系
# make dep
確保關鍵文件在正確的路徑上。
(2)清除中間文件
# make clean
確保所有文件都處於最新的版本狀態下。
(3)編譯新核心
# make bzImage
(4)編譯模組
# make moles
編譯選擇的模組。
(5)安裝模組
# make moles_install
# depmod -a
生成模組間的依賴關系,以便modprobe定位。
(6)使用新模組
# cp System.map /boot/System.map-2.4.20-LVS
# rm /boot/System.map
# ln -s /boot/System.map-2.4.20-LVS /boot/System.map
# cp arch/i386/boot/bzImage /boot/vmlinuz-2.4.20-LVS
# rm /boot/vmlinuz
# ln -s /boot/vmlinuz-2.4.20-LVS /boot/vmlinuz
# new-kernel-pkg --install --mkinitrd --depmod 2.4.20-LVS
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
(7)修改GRUB,以新的核心啟動
執行完new-kernel-pkg命令後,GRUB的設置文件/etc/grub.conf中已經增加了新核心的
啟動項,這正是開始安裝Linux時推薦使用GRUB做引導程序的原因。
grub.conf中新增內容如下:
title Red Hat Linux (2.4.20-LVS)
root (hd0,0)
kernel /boot/vmlinuz-2.4.20LVS ro root=LABEL=/
initrd /boot/initrd-2.4.20LVS.img
將Kernel項中的root=LABEL=/改成 root=/dev/sda1 (這里的/dev/sda1是筆者Linux的根
分區,讀者可根據自己的情況進行不同設置)。
保存修改後,重新啟動系統:
# reboot
系統啟動後,在GRUB的界面上會出現Red Hat Linux(2.4.20-LVS)項。這就是剛才編譯的
支持LVS的新核心,選擇此項啟動,看看啟動過程是否有錯誤發生。如果正常啟動,ipvs
將作為模塊載入。同時應該注意到,用LVS的內核啟動後在/proc目錄中新增了一些文件,
比如/proc/sys/net/ipv4/vs/*。
11.安裝IP虛擬伺服器軟體ipvsadm
用支持LVS的內核啟動後,即可安裝IP虛擬伺服器軟體ipvsadm了。用戶可以用tar包或
RPM 包安裝,tar 包可以從以下地址http://www.linuxvirtualserver.org/software/kernel-
2.4/ipvsadm-1.21.tar.gz 下載進行安裝。
這里採用源RPM包來進行安裝:
# wget http://www.linuxvirtualserver.org/software/kernel-2.4/ipvsadm-1.21-7.src.rpm
# rpmbuild --rebuild ipvsadm-1.21-7.src.rpm
# rpm -ivh /usr/src/redhat/RPMS/i386/ipvsadm-1.21-7.i386.rpm
注意:高版本的rpm命令去掉了--rebuild這個參數選項,但提供了一個rpmbuild命令來實
現它。這一點和以前在Red Hat 6.2中以rpm—rebuild XXX.src.rpm來安裝源RPM包的習
慣做法有所不同。
安裝完,執行ipvsadm命令,應該有類似如下的信息出現:
# ipvsadm
中科紅旗linux技術支持服務中心---西安站 http://linux.xab.ac.cn
中國科學院西安網路中心 中科紅旗linux培訓認證中心
IP Virtual Server version 1.0.9 (size=4096)
Prot LocalAddress:Port Scheler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
出現類似以上信息,表明支持LVS 的內核和配置工具ipvsadm 已完全安裝,這台
Director機器已經初步安裝完成,已具備構架各種方式的集群的條件。
實例
理解了上述關於請求轉發方式和調度演算法的基本概念後,就可以運用LVS來具體實現
幾種不同方式的負載均衡的集群系統。LVS的配置是通過前面所安裝的IP虛擬伺服器軟體
ipvsadm來實現的。ipvsadm與LVS的關系類似於iptables和NetFilter的關系,前者只是
一個建立和修改規則的工具,這些命令的作用在系統重新啟動後就消失了,所以應該將這
些命令寫到一個腳本里,然後讓它在系統啟動後自動執行。網上有不少配置LVS的工具,
有的甚至可以自動生成腳本。但是自己手工編寫有助於更深入地了解,所以本文的安裝沒
有利用其它第三方提供的腳本,而是純粹使用ipvsadm命令來配置。
下面就介紹一下如何配置LVS/NAT、LVS/TUN、LVS/DR方式的負載均衡集群。
1.設定LVS/NAT方式的負載均衡集群
NAT是指Network Address Translation,它的轉發流程是:Director機器收到外界請求,
改寫數據包的目標地址,按相應的調度演算法將其發送到相應Real Server上,Real Server
處理完該請求後,將結果數據包返回到其默認網關,即Director機器上,Dire

B. 伺服器的基本配置

要組建一個網站伺服器,伺服器系統是必需的。現在基本上家用電腦都安裝了WINDOWS系統,WINDOW系統自身帶有IIS伺服器,所以一般不必要去另外安裝伺服器了。只需要啟動IIS伺服器即可用於存放ASP程序網站了。【如果要存放PHP程序網站需要搭建PHP+MYSQL環境】

第二步:網站域名與伺服器的動態解析

家用電腦一般的上網方式為「貓」或者路由器,那麼每台電腦的IP地址是不斷變化的。每次我們重啟一下「貓」或者路由器就是生成一個新的IP地址。

如果我們要用自己的電腦做伺服器來做網站就必須讓網站域名解析到伺服器IP上,可現在我們的電腦的IP是不斷變化的,怎麼解析呢?這時就需要使用「動態解析」了。「動態解析」就需要電腦先安裝一個「動態解析器」。

1、首先應該配置伺服器的外部介面。你應該已經知道如何做到這一點,並且可能已經完成了。如果你不這樣做,那麼現在就這樣做。

2、現在我們調出內部介面。根據我們選擇的數字,伺服器的內部介面是192.168.40.254。所以我們必須配置該介面。

3、設置路線。 我們現在可以與當地網路上的機器通信,但我們無法訪問其他內部網路。這需要更多的代碼行。

4、任何發往192.168.0.0網路的流量都應該輸出eth1,並且它應該交給思科。我們的本地網路的流量仍然可以達到應有的位置,因為路由表按網路掩碼的大小排序。如果我們在我們的網路中有其他內部網路,我們將為每個網路提供如上所述的線路。

5、現在我們可以訪問我們可能需要的每台機器,我們需要編寫允許或拒絕通過VPN伺服器訪問的防火牆過濾規則。

6、對於家庭用戶來說,一切都可以在這里工作。但是對於遠程辦公室,我們需要做一些路由。首先,我們需要告訴主路由器或思科,遠程辦公室是VPN伺服器的後面。因此,請指定Cisco上的路由,告知它將發往遠程辦公室的流量發送到VPN伺服器。現在,我們必須告訴VPN伺服器如何處理發往遠程辦公室的流量。

7、為此,我們在伺服器上運行 route命令。唯一的問題是為了路線命令工作,鏈接必須是up,如果它關閉,路由將丟失。解決方案是在客戶端連接時添加路由,或者更簡單地,經常運行路由命令,因為運行它不是必要的問題。

C. 如何最快搭建LINUX伺服器集群

1.2.並行技術
這是一個非常簡單的建造四節點的小集群系統的例子,它是構建在Linux操作系統上,通過MPICH軟體包實現的,希望這個小例子能讓大家對集群系統的構建有一個最基本的了解。
2.使用MPICH構建一個四節點的集群系統
這是一個非常簡單的建造四節點的小集群系統的例子,它是構建在Linux操作系統上,通過MPICH軟體包實現的,希望這個小例子能讓大家對集群系統的構建有一個最基本的了解。
2.1 所需設備
1).4台採用Pentium II處理器的PC機,每台配
置64M內存,2GB以上的硬碟,和EIDE介面的光碟驅動器。
2).5塊100M快速乙太網卡,如SMC 9332 EtherPower 10/100(其中四塊卡用於連接集群中的結點,另外一塊用於將集群中的其中的一個節點與其它網路連接。)
3).5根足夠連接集群系統中每個節點的,使用5類非屏蔽雙絞線製作的RJ45纜線
4).1個快速乙太網(100BASE-Tx)的集線器或交換機
5).1張Linux安裝盤
2.2 構建說明
對計算機硬體不熟的人,實施以下這些構建步驟會感到吃力。如果是這樣,請找一些有經驗的專業人士尋求幫助。
1. 准備好要使用的採用Pentium II處理器的PC機。確信所有的PC機都還沒有接上電源,打開PC機的機箱,在准備與網路上的其它設備連接的PC機上安裝上兩塊快速乙太網卡,在其它的 PC機上安裝上一塊快速乙太網卡。當然別忘了要加上附加的內存。確定完成後蓋上機箱,接上電源。
2. 使用4根RJ45線纜將四台PC機連到快速乙太網的集線器或交換機上。使用剩下的1根RJ45線將額外的乙太網卡(用於與其它網路相連的那塊,這樣機構就可以用上集群)連接到機構的區域網上(假定你的機構區域網也是快速乙太網),然後打開電源。
3. 使用LINUX安裝盤在每一台PC機上安裝。請確信在LINUX系統中安裝了C編譯器和C的LIB庫。當你配置TCP/IP時,建議你為四台PC分別指定為192.168.1.1、192.168.1.2、192.168.1.3、192.168.1.4。第一台PC為你的伺服器節點(擁有兩塊網卡的那台)。在這個伺服器節點上的那塊與機構區域網相連的網卡,你應該為其指定一個與機構區域網吻合的IP地址。
4.當所有PC都裝好Linux系統後,編輯每台機器的/etc/hosts文件,讓其包含以下幾行:
192.168.1.1 node1 server
192.168.1.2 node2
192.168.1.3 node3
192.168.1.4 node4
編輯每台機器的/etc/hosts.equiv文件,使其包含以下幾行:
node1
node2
node3
node4
$p#
以下的這些配置是為了讓其能使用MPICH』s p4策略去執行分布式的並行處理應用。
1. 在伺服器節點
,建一個/mirror目錄,並將其配置成為NFS伺服器,並在/etc/exports文件中增加一行:
/mirror node1(rw) node2(rw) node3(rw) node4(rw)
2. 在其他節點上,也建一個/mirror目錄,關在/etc/fstab文件中增加一行:
server:/mirror /mirror nfs rw,bg,soft 0 0
3. /mirror這個目錄從伺服器上輸出,裝載在各個客戶端,以便在各個節點間進行軟體任務的分發。
4. 在伺服器節點上,安裝MPICH。MPICH的文檔可在
5.任何一個集群用戶(你必須在每一個節點新建一個相同的用戶),必須在/mirror目錄下建一個屬於它的子目錄,如 /mirror/username,用來存放MPI程序和共享數據文件。這種情況,用戶僅僅需要在伺服器節點上編譯MPI程序,然後將編譯後的程序拷貝到在/mirror目錄下屬於它的的子目錄中,然後從他在/mirror目錄下屬於它的的子目錄下使用p4 MPI策略運行MPI程序。
2.3 MPICH安裝指南
1.如果你有gunzip,就d下載mpich.tar.gz,要不然就下載mpich.tar.Z。你可以到http://www.mcs.anl.gov/mpi/mpich/downloa下載,也可以使用匿名FTP到ftp.mcs.anl.gov的pub/mpi目錄拿。(如果你覺得這個東西太大,你可以到pub/mpi/mpisplit中取分隔成塊的幾個小包,然後用cat命令將它們合並)
2.解壓:gunzip ;c mpich.tar.gz tar xovf-(或zcat mpich.tar.Ztar xovf-)
3.進入mpich目錄
4.執行:./configure為MPICH選擇一套適合你的實際軟硬體環境的參數組,如果你對這些默認選擇的參數不滿意,可以自己進行配置(具體參見MPICH的配置文檔)。最好選擇一個指定的目錄來安裝和配置MPICH,例如:
./configure -prefix=/usr/local/mpich-1.2.0
5.執行:make >&make.log 這會花一段較長的時間,不同的硬體環境花的時間也就不同,可能從10分鍾到1個小時,甚至更多。
6.(可選)在工作站網路,或是一台單獨的工作站,編輯mpich/util/machines/machines.xxx(xxx是MPICH對你機器體系結構取的名稱,你能很容易的認出來)以反映你工作站的當地主機名。你完全可以跳過這一步。在集群中,這一步不需要。
7.(可選)編譯、運行一個簡單的測試程序:
cd examples/basic
make cpi
ln ;s ../../bin/mpirun mpirun
./mpirun ;np 4 cpi
此時,你就在你的系統上運行了一個MPI程序。
8.(可選)構建MPICH其餘的環境,為ch_p4策略使
用安全的服務會使得任何啟動速度加快,你可以執行以下命令構建:
make serv_p4
(serv_p4是一個較新的P4安全服務的版本,它包含在MPICH 1.2.0版中),nupshot程序是upshot程序的一個更快版本,但他需要tk 3.6版的源代碼。如果你有這個包,你就用以下命令可以構建它:
make nupshot
9.(可選)如果你想將MPICH安裝到一個公用的地方讓其它人使用它,你可以執行:
make install 或 bin/mpiinstall
你可以使用-prefix選項指定MPICH安裝目錄。安裝後將生成include、lib、bin、sbin、www和man目錄以及一個小小的示例目錄,
到此你可以通告所有的用戶如何編譯、執行一個MPI程序。

D. java搭建分布式集群項目大概需要多少台伺服器

超過一台都可以叫集群,只有一台也可以算分布式,需要多少台伺服器,主要看你的項目有多少模塊,需要多高的性能。沒有什麼硬性要求,不用糾結

E. 如何搭建android編譯集群

編譯配置編譯前 (不建議寫到環境變數中) 在"build/core/combo"文件夾下 TARGET_linux-arm.mk文件: select.mk文件: 啟動編譯 監視編譯 distcc自帶distccmon-text,可以啟動文本化監視 也可使用distccmon-gnome啟動圖形化監視程序

F. 構建資料庫系統選擇什麼樣的伺服器和存儲設備

遵循以下幾個原則:
1)高性能原則
保證所選購的伺服器,不僅能夠滿足運營系統的運行和業務處理的需要,而且能夠滿足一定時期的業務量增長的需要。一般可以根據經驗公式計算出所需的伺服器TpmC值,然後比較各伺服器廠商和TPC組織公布的TpmC值,選擇相應的機型。同時,用伺服器的市場價/報價除去計算出來的TpmC值得出單位TpmC值的價格,進而選擇高性能價格比的伺服器。
2)可靠性原則
可靠性原則是所有選擇設備和系統中首要考慮的,尤其是在大型的、有大量處理要求的、需要長期運行的系統。考慮伺服器系統的可靠性,不僅要考慮伺服器單個節點的可靠性或穩定性,而且要考慮伺服器與相關輔助系統之間連接的整體可靠性,如:網路系統、安全系統、遠程列印系統等。在必要時,還應考慮對關鍵伺服器採用集群技術,如:雙機熱備份或集群並行訪問技術。
比如,要保證系統(硬體和操作系統)在99.98%的時間內都能夠正常運作(包括維修時間),則故障停機時間六個月不得超過0.5個小時。伺服器需7×24小時連續運行,因而要求其具有很高的安全可靠性。系統整機平均無故障時間(MTBF)不低於80000小時。伺服器如出現CPU損壞或其它機械故障,都能在20分鍾內由備用的機器自動代替工作,無須人員操作,保證數據完整。
3)可擴展性原則
保證所選購的伺服器具有優秀的可擴展性原則。因為伺服器是所有系統處理的核心,要求具有大數據吞吐速率,包括:I/O速率和網路通訊速率,而且伺服器需要能夠處理一定時期的業務發展所帶來的數據量,需要伺服器能夠在相應時間對其自身根據業務發展的需要進行相應的升級,如:CPU型號升級、內存擴大、硬碟擴大、更換網卡、增加終端數目、掛接磁碟陣列或與其它伺服器組成對集中數據的並發訪問的集群系統等。這都需要所選購的伺服器在整體上具有一個良好的可擴充餘地。一般資料庫和計費應用伺服器在大型計費系統的設計中就會採用集群方式來增加可靠性,其中掛接的磁碟存儲系統,根據數據量和投資考慮,可以採用DAS、NAS或SAN等實現技術。
4)安全性原則
伺服器處理的大都是相關系統的核心數據,其上存放和運行著關鍵的交易和重要的數據。這些交易和數據對於擁有者來說是一筆重要的資產,他們的安全性就非常敏感。伺服器的安全性與系統的整體安全性密不可分,如:網路系統的安全、數據加密、密碼體制等。伺服器在其自身,包括軟硬體,都應該從安全的角度上設計考慮,在藉助於外界的安全設施保障下,更要保證本身的高安全性。
5)可管理性原則
伺服器既是核心又是系統整體中的一個節點部分,就像網路系統需要進行管理維護一樣,也需要對伺服器進行有效的管理。這需要伺服器的軟硬體對標準的管理系統支持,尤其是其上的操作系統,也包括一些重要的系統部件。

G. 誰能幫我推薦一款性能高的伺服器,最好帶配置參數

IBM System p5�6�4 570 伺服器旨在以轉變 IT 經濟的價位提供出色的性能。該伺服器具備先進的 64 位 POWER5 和 POWER5+�6�4 處理器,對稱多處理(SMP)配置,為具有苛刻需求的一系列復雜的關鍵業務型應用程序提供了強大的處理能力 - 從資料庫服務到企業資源規劃(ERP)和事務處理。它可以同時運行 AIX 5L�6�4 和 Linux 操作系統,從而具備了企業為實現其目標而運行所需應用程序的靈活性。同時,秉承大型機的可靠性、可用性和可維護性功能有助於確保系統為企業全天候運行。
p5-570 伺服器可以通過容量隨需應變(CoD)選項激活那些已安裝在系統結構中且處於非活動狀態的處理器或內存。只有在激活這些資源時才需要付費。通過CoD,可以毫不費力地應對臨時的峰值需求或長期增加的工作負載。
p5-570 伺服器可以利用通過虛擬化引擎系統技術和操作系統(OS)實現的邏輯分區(LPAR)技術。各處理器可以獨立運行工作負載,從而有助於降低成本。分區採用相互間隔離的設計方法,從而具備高級別的數據安全性,並提高了應用程序的可用性。動態LPAR 允許客戶動態地將系統資源分配給應用程序分區,而無需重新引導,從而提高了可用性。
p5-570還包含高級POWER 虛擬化,它提供了Micro-PartitioningTM 和虛擬I/O 伺服器(VIOS)功能,這使企業能在確保應用程序持續獲得所需資源的同時提高系統利用率。利用這些虛擬化技術,可以在同一個系統上運行多個操作系統的副本,從而減少所需伺服器的數量,這有助於降低軟體許可證成本。
p5-570伺服器具備在獨立的微分區中分別運行AIX 5L 和Linux 應用程序的靈活性。這可以整合資源,從而有助於減少IT 總支出。
AIX 5L 操作系統是企業級的IBM UNIX環境,針對關鍵業務型應用程序進行了調優,並具有卓越的安全性、可靠性和可用性功能。它增強了JavaTM 技術、Web 性能和可伸縮性,可以管理各種規模的系統- 從單個伺服器到大型、復雜的電子商務安裝。基於Web 的遠程管理工具使管理員能夠集中控制系統,使他們能夠監控關鍵資源,包括適配器和網路可用性、文件系統狀態和處理器工作負載。
AIX 5L 還包含了工作負載管理器,這是一種資源管理工具,可以指明工作負載的相對重要性,以均衡競爭資源的各個工作負載的需求並提高系統資源利用率。工作負載管理器可以幫助確保關鍵應用程序在系統需求峰值期間仍能作出響應。

建議採用IBM的P570企業級伺服器承擔系統的資料庫系統的硬體平台,由於資料庫系統的計算特性要求硬體平台具有支持大負載和大用戶連接的的負載負載需求,要求硬體平台具有較強的大內存訪問和高IO吞吐能力的系統。而IBM P570擁有全球16路CPU系統的TPCC基準測試結果的冠軍,達到1,025,170 tpc-c,而且具有可以支持512GB內存、163個PCI-X插槽的企業級伺服器的高擴展能力。完全適合中國建銀投資證券有限責任公司-集中交易系統的資料庫硬體平台。
通過IBM的主機集群軟體HACMP組合成高可用的支持並發方式主機雙機集群系統,可以共享獨立的存儲系統,實現數據的物理整合,又可以解決單機的高可用安全問題。如此,還可以實現兩伺服器間的大容量數據交換不需要消耗過多的網路帶寬,和實現集中的高效和低成本的管理模式。

諸如VIOS 之類的創新技術允許共享昂貴的磁碟驅動器、通信和光纖通道適配器,以幫助降低復雜性和系統/管理費用。共享的處理器池能不受干擾地自動均衡分配給共享池的各分區間的處理能力- 從而提高吞吐量和利用率。IBM System StorageTM 技術在p5-570 存儲基礎架構內提供了額外的虛擬化和分區能力。TotalStorage○RDS8000TM 產品系列具有兩個存儲分區,每個分區處理不同的苛刻工作負載。這使得伺服器分區或兩台伺服器能夠共享一個物理存儲伺服器,從而有助於提供更為經濟有效的環境和更高的投資回報率。而IBM SAN Volume Controller 通過創建虛擬大型存儲池來簡化SAN 磁碟陣列的管理,從而有助於提高利用率和降低總體擁有成本。 每個p5-570 系統都必須連接一個IBM 硬體管理控制台(HMC)。HMC 是專用系統部件,為系統管理員提供了一個配置和管理p5-570 資源的界面。支持兩個HMC 連接以用於冗餘功能。HMC 的先進控制功能包括虛擬化技術、容量隨需應變和集群環境管理。HMC 還提供用於問題確定和服務支持的工具。可以利用這些功能來動態地調整伺服器資源,使企業能夠更快地響應需求的變化。另外,可在每台伺服器上整合更多的服務- 這可以降低許可證成本、減少伺服器管理的復雜性並提高吞吐量和系統利用率。

p5-570 伺服器旨在為關鍵業務型應用程序提供全新的廣受認可的、秉承大型機技術的RAS 功能。它具備多個資源,能快速發現並幫助解決系統問題。在運行期間,錯誤檢查和更正(ECC)會檢查數據以查找錯誤,並實時更正它們。首次故障數據捕獲(FFDC)功能記錄問題的起源和根本原因以防止間歇性故障的重現(這類故障在診斷時難以重現)。同時,動態處理器釋放和動態PCI-X 匯流排插槽的釋放有助於在發現即將出現故障時重新分配系統資源,以便使應用程序不受干擾地繼續運行。
p5-570 還包含一些結構化元素,從而有助於確保卓越的可用性和可維護性。I/O 擴展抽屜包括熱交換磁碟支架和熱插拔/可任何交換PCI-X 插槽,允許管理員在I/O 擴展抽屜中修復、替換或安裝適配器,從而有助於預防系統中斷和提高可用性。冗餘的熱插拔電源和冷卻子系統可以在單元出現故障時繼續提供電源和冷卻系統,並且易於替換。在整個電源出現故障的情況下,「早期電源關閉警報」功能用來有序地進行斷電。另外,還可以選用主備用和冗餘備用電池電源子系統。
冗餘服務處理器通過持續監控系統的運行並採取預防措施以快速解決問題,從而幫助標准服務處理器防止停機的發生和識別故障組件。動態固件更新功能(可選)使管理員能夠有選擇地更新系統固件,而無需使伺服器停機。為了使伺服器可用性達到最高,p5-570 可與旨在提供近乎不間斷的可用性的HACMP 集群在一起。另外,IBM System Storage 以及IBM Tivoli○R 軟體和服務還提供了大量的高可用性選項,如從集群伺服器環境中本地鏡像進行更快的恢復。

p5-570 伺服器具備在獨立的微分區中分別運行AIX 5L 和Linux 應用程序的靈活性。這可以整合資源,從而有助於減少IT 總支出。
AIX 5L 操作系統是企業級的IBM UNIX環境,針對關鍵業務型應用程序進行了調優,並具有卓越的安全性、可靠性和可用性功能。它增強了JavaTM 技術、Web 性能和可伸縮性,可以管理各種規模的系統- 從單個伺服器到大型、復雜的電子商務安裝。基於Web 的遠程管理工具使管理員能夠集中控制系統,使他們能夠監控關鍵資源,包括適配器和網路可用性、文件系統狀態和處理器工作負載。
AIX 5L 還包含了工作負載管理器,這是一種資源管理工具,可以指明工作負載的相對重要性,以均衡競爭資源的各個工作負載的需求並提高系統資源利用率。工作負載管理器可以幫助確保關鍵應用程序在系統需求峰值期間仍能作出響應。 通過支持Linux OS,p5-570 使您有機會能極大地節約成本。由於Linux 是一種開放源碼技術,所以它在許可證方面的費用比許多專用操作系統要低很多。隨著可用的Linux 應用程序的增多,企業可以按自己需要自由地使用合適的應用程序。可以從IBM 和選定的Linux 分發商訂購Linux 操作系統,其中包含許多開放源碼工具和應用程序。IBM 堅決支持Linux 並提供專業的服務和支持。

H. 支持大型資料庫的伺服器需要什麼配置

選擇資料庫伺服器的原則:

1、高性能原則:保證所選購的伺服器,不僅能夠滿足運營系統的運行和業務處理的需要,而且能夠滿足一定時期業務量的增長。一般可以根據經驗公式計算出所需的伺服器TpmC值(Tpmc是衡量計算機系統的事務處理能力的程序)。

後比較各伺服器廠商和TPC組織公布的TpmC值,選擇相應的機型。同時,用伺服器的市場價/報價除去計算出來的TpmC值得出單位TpmC值的價格,進而選擇高性能價格比的伺服器。

2、可靠性原則:可靠性原則是所有選擇設備和系統中首要考慮的,尤其是在大型的、有大量處理要求的、需要長期運行的系統上。考慮伺服器系統的可靠性,不僅要考慮伺服器單個節點的可靠性或穩定性,而且要考慮伺服器與相關輔助系統之間連接的整體可靠性。

(8)編譯集群伺服器選型擴展閱讀:

優點:

1、編程量減少

資料庫伺服器提供了用於數據操縱的標准介面API(Application Programming Interface,應用程序編程接 口)。

2、資料庫安全高

資料庫伺服器提供監控性能、並發控制等工具。由DBA(Database Administrator,資料庫管理員)統一負 責授權訪問資料庫及網路管理。

3、數據可靠性管理

資料庫伺服器提供統一的資料庫備份/恢復、啟動/停止資料庫的管理工具。

4、計算機資源利用充分

資料庫伺服器把數據管理及處理工作從客戶機上分離出來,使網路中各計算機資源能靈活分配、各盡其用。

I. 伺服器有幾種類型呢

目前按照外形結構劃分,伺服器可分為塔式、機架式、刀片式三種類型。
塔式伺服器
一般的塔式伺服器機箱和我們常用的PC機箱差不多,而大型的塔式機箱就要粗大很多,總的來說外形尺寸沒有固定標准。
機架式伺服器
機架式伺服器是由於滿足企業的密集部署,形成的以19英寸機架作為標准寬度的伺服器類型,高度則從1U到數U。將伺服器放置到機架上,並不僅僅有利於日常的維護及管理,也可能避免意想不到的故障。首先,放置伺服器不佔用過多空間。機架伺服器整齊地排放在機架中,不會浪費空間。其次,連接線等也能夠整齊地收放到機架里。電源線和LAN線等全都能在機櫃中布好線,可以減少堆積在地面上的連接線,從而防止腳踢掉電線等事故的發生。
規定的尺寸是伺服器的寬(48.26cm=19英寸)與高(4.445cm的倍數)。由於寬為19英寸,所以有時也將滿足這一規定的機架稱為「19英寸機架」。
刀片式伺服器
刀片伺服器是一種HAHD(High Availability High Density,高可用高密度)的低成本伺服器平台,是專門為特殊應用行業和高密度計算機環境設計的,其中每一塊「刀片」實際上就是一塊系統母板,類似於一個個獨立的伺服器。在這種模式下,每一個母板運行自己的系統,服務於指定的不同用戶群,相互之間沒有關聯。不過可以使用系統軟體將這些母板集合成一個伺服器集群。在集群模式下,所有的母板可以連接起來提供高速的網路環境,可以共享資源,為相同的用戶群服務。

J. 伺服器有哪幾種

機架式伺服器
機架式伺服器的外形看來不像計算機,而像交換機,有1U(1U=1.75英寸=4.445CM)、2U、4U等規格。機架式伺服器安裝在標準的19英寸機櫃裡面。這種結構的多為功能型伺服器。對於信息服務企業(如ISP/ICP/ISV/IDC)而言,選擇伺服器時首先要考慮伺服器的體積、功耗、發熱量等物理參數,因為信息服務企業通常使用大型專用機房統一部署和管理大量的伺服器資源,機房通常設嚴密的保安措施、良好的冷卻系統、多重備份的供電系統,其機房的造價相當昂貴。如何在有限的空間內署更多的伺服器直接關繫到企業的服務成本,通常選用機械尺寸符合19英寸工業標準的機架式伺服器。機架式伺服器也有多種規格,例如1U(4.45cm高)、2U、4U、6U、8U等。通常1U的機架式伺服器最節省空間,但性能和可擴展性較差,適合一些業務相對固定的使用領域。4U以上的產品性能較高,可擴展性好,一般支持4個以上的高性能處理器和大量的標准熱插拔部件。管理也十分方便,廠商通常提供人相應的管理和監控工具,適合大訪問量的關鍵應用,但體積較大,空間利用率不高。
刀片伺服器
所謂刀片伺服器(准確的說應叫做刀片式伺服器)是指在標准高度的機架式機箱內可插裝多個卡式的伺服器單元,實現高可用和高密度。每一塊"刀片"實際上就是一塊系統主板。它們可以通過"板載"硬碟啟動自己的操作系統,如Windows NT/2000、Linux等,類似於一個個獨立的伺服器,在這種模式下,每一塊母板運行自己的系統,服務於指定的不同用戶群,相互之間沒有關聯,因此相較於機架式伺服器和機櫃式伺服器,單片母板的性能較低。不過,管理員可以使用系統軟體將這些母板集合成一個伺服器集群。在集群模式下,所有的母板可以連接起來提供高速的網路環境,並同時共享資源,為相同的用戶群服務。在集群中插入新的"刀片",就可以提高整體性能。而由於每塊"刀片"都是熱插拔的,所以,系統可以輕松地進行替換,並且將維護時間減少到最小。
塔式伺服器
塔式伺服器應該是大家見得最多,也最容易理解的一種伺服器結構類型,因為它的外形以及結構都跟我們平時使用的立式PC差不多,當然,由於伺服器的主板擴展性較強、插槽也多出一堆,所以個頭比普通主板大一些,因此塔式伺服器的主機機箱也比標準的ATX機箱要大,一般都會預留足夠的內部空間以便日後進行硬碟和電源的冗餘擴展。由於塔式伺服器的機箱比較大,伺服器的配置也可以很高,冗餘擴展更可以很齊備,所以它的應用范圍非常廣,應該說使用率最高的一種伺服器就是塔式伺服器。我們平時常說的通用伺服器一般都是塔式伺服器,它可以集多種常見的服務應用於一身,不管是速度應用還是存儲應用都可以使用塔式伺服器來解決。
機櫃式伺服器
在一些高檔企業伺服器中由於內部結構復雜,內部設備較多,有的還具有許多不同機櫃式伺服器的 設備單元或幾個伺服器都放在一個機櫃中,這種伺服器就是機櫃式伺服器。機櫃式通常由機架式、刀片式伺服器再加上其它設備組合而成。對於證券、銀行、郵電等重要企業,則應採用具有完備的故障自修復能力的系統,關鍵部件應採用冗餘措施,對於關鍵業務使用的伺服器也可以採用雙機熱備份高可用系統或者是高性能計算機,這樣的系統可用性就可以得到很好的保證。

閱讀全文

與編譯集群伺服器選型相關的資料

熱點內容
安陽少兒編程市場 瀏覽:496
雲伺服器建設原理 瀏覽:258
javajunit4for 瀏覽:845
華為伺服器如何進陣列卡配置 瀏覽:435
apache伺服器ip地址訪問 瀏覽:718
如何買到安卓手機預裝軟體 瀏覽:537
冤罪百度雲不要壓縮 瀏覽:87
蘇州雲存儲伺服器 瀏覽:177
解壓收納原聲 瀏覽:386
java注冊驗證 瀏覽:375
火花app怎麼上推薦 瀏覽:981
什麼app能游戲投屏到電視上 瀏覽:455
伺服器託管到雲端是什麼意思 瀏覽:836
app保存草稿怎麼用 瀏覽:808
安卓如何進入proumb 瀏覽:144
主機虛擬雲伺服器 瀏覽:619
刪除分區加密的空間會不會恢復 瀏覽:706
京東app客戶上門怎麼看搜索量 瀏覽:741
怎麼在農行app購買黃金 瀏覽:46
c型開發板和單片機 瀏覽:146