1. 如何對低硬體配置的中小型php網站進行性能優化
本人對php不熟悉,現在採用PHP的magento開源項目來做,在盡量少代碼修改的情況下讓頁面載入快些(期望日IP少於2,000,PV少於50,000,首頁打開3s以內)。網站是運行在Digital ocean的VPS(1GB 內存,30GB SSD硬碟)上的,不能做負載均衡。
這個站的圖片比較多,也比較大,但總體數據量在10GB以下。在chrome下監控了打開速度,發現首頁文件等待時間達到了5s,而接收時間為幾百毫秒。另外一些靜態文件(JS,CSS很大,並且都在head內)也block住了其他頁面元素的下載和頁面渲染。所以需要對頁面和伺服器同時進行優化。
我的想法是從以下幾個方面來做:
1.首先從架構上使用lanmp(偏向這個)或者lamp。
打算使用網上的一鍵安裝包,不太清楚這幾個之間最佳的版本組合是什麼樣的(都用最新版本?)? 是自己單獨編譯還是一鍵安裝好?
2.服務端優化,主要使用緩存手段
1)Zend Optimizer優化PHP
2)APC、eaccelerator或者XCache對PHP緩存以及最新出來的Opcache。哪個比較好?
3)Varnish配合Nginx進行緩存靜態資源緩存。相對於squid,哪個比較好?
4)memcached進行資料庫緩存
1-4項同時使用不知道會不會有沒有沖突?或者有沒有更好的方案。因為不想對代碼進行大改,所以服務端緩存最佳實踐這塊請重點給出意見。
3. 使用CDN加速靜態資源
4. 優化靜態資源,使用minify來合並壓縮CSS,JS這些靜態資源
5. 啟用gzip
6. 對圖片和JS等靜態資源增加Expires頭,這條應該算頁面優化吧,放到後面來。
參考了一些資料後發現優化方法有很多,用的太多方法(特別是緩存手段)隱患越大,有沒有優化的最佳策略或者方法論(而不僅僅從工具上)?
2. PHP開發中如何提高系統的穩定性和可靠性
PHP 應用的高性優化,很多時候我們把業務代碼做一些優化,反而是簡單又高效的。
業務的非同步解耦,比如,我們把耗時的多個分表數據的排行榜,通過其他服務做分布統計,然後再綜合,最終輸出到redis list中,那我們前端 PHP 在調用數據的時候,就不用實時計算了。
緩存的多級處理,業務復雜以後,經常看到一份相同的數據讀取 N 次,盡管是有緩存伺服器,但是讀取的時候也會有網路 I/O 的開銷,考慮到我們 PHP 一般使用場景下都是單進程,使用頻率高的,則應該優先使用進程內緩存。然後再本地緩存,然後再到網路緩存。
單例的運用,不要小看了對象的構造,很多時候我們在同一進程中,會發現同時構造了 N 多相同的對象。每一次的初始化都是一塊內存的開辟和 CPU 的消耗。
高性能,一個就是運行環境的優化,另一個是代碼本身的優化。
運行環境的優化,覆蓋面也很廣,包括系統層面的內核,文件系統類型,資料庫及緩存服務本身的性能優化,再到PHP解釋器的性能優化等等,PHP不同運行方式的差異(比如Apache模塊,還有PHP-FPM等等)。
代碼優化方面,我覺得可維護性和代碼可讀性的重要性大於高性能。代碼優化可以藉助profiling工具來分析,找到真實訪問條件下,處理瓶頸在哪裡,再去做針對性的優化。當然自己在初次設計和實現的時候,就需要做一定的整體考慮,例如怎麼設計能夠減少資料庫的查詢次數,如何減少重復的操作,了解同一問題的多種解決辦法哪一種效率更高(包括演算法上的差異,以及PHP的不同方式導致的差異等等),如何設計緩存來提高緩存命中率等等。有一些設計需要在體驗和效率上做個權衡。
保證穩定性,同樣也分運行環境和代碼本身。前者要對線上服務做完整的監控,這個有很多完善和強大的開源工具可以使用,保障基礎環境是穩定可控的,並且能夠及時發現問題,進行修復。至於代碼,除了盡量做完整的測試,開發的時候就需要考慮可能的問題。另外針對PHP,開發環境可以把error_reporting完全打開。還有需要知道常見的安全問題(XSS,SQL注入,CSRF,越權等),畢竟安全問題也是穩定的一部分。
3. 如何提高Windows主機上PHP性能
在使用操作WIN10系統是,是否會經常感覺到win10系統運行緩慢,而迫切的想要來提高系統的運行速度,充分發揮電腦效能,今天就來教大家如何使用性能優化來優化win10系統。
1.關閉家庭組,因為這功能會導致硬碟和CPU處於高負荷狀態
關閉方法:Win+C – 設置 – 更改電腦設置 – 家庭組 – 離開
如果用不到家庭組可以直接把家庭組服務也給關閉了:控制面板 – 管理工具 – 服務 – HomeGroup Listener 和 HomeGroup Provider 禁用
2.關閉Windows Defender 全盤掃描系統,否則打開文件夾會卡頓。
然後可以排除信任的EXE程序,建議排除explorer.exe(資源管理器進程),如果你不用系統自帶的殺毒軟體,也可以直接關閉它。
Win+X – 控制面板 – Windows Defender – 設置 – 實施保護 -去掉勾 和 管理員 – 啟用 Windows Defender – 去掉勾。
控制面板 – 管理工具 – 服務 - Windows Defender Service 禁用。
3.用好索引選項,減少硬碟壓力。
控制面板 – 索引選項 – 選中索引項 – 修改 – 取消不想索引的位置。(索引服務對系統性能的影響)
如果習慣用 everything 這款神器來搜索文件,可以關閉索引功能。控制面板 – 管理工具 – 服務 - Windows Search 禁用。
4.關閉磁碟碎片整理計劃
用好磁碟碎片整理可以提高磁碟性能,如果習慣手動整理,可以關閉整理計劃,避免在你工作的時候自動整理,影響性能。
資源管理器,選中磁碟 - 屬性 – 工具 – 對驅動器進行優化和碎片整理 – 優化 – 更改設置 – 取消選擇按計劃運行
5.設置好Superfetch服務
控制面板 – 管理工具 – 服務 – Superfetch - 啟動類型 – 自動(延遲啟動),可以避免剛啟動好Win10對硬碟的頻繁訪問。
6.如果覆蓋或者升級安裝Win10,需要清理產生的Windows.old文件夾,騰出C盤空間。
方法1:快捷鍵Win+X - 命令提示符 – 輸入 rd X:windows.old /s (X代表盤符)
方法2(推薦):C盤 – 右鍵 – 屬性 - 磁碟清理 - 選中 以前的 Windows 安裝 復選框 – 確定清理。
7.設置Win10 自動登陸,省去輸入密碼步驟,開機更快
快捷鍵Win+R – 輸入 netplwiz - 取消使用計算機必須輸入用戶名和密碼的選項 – 然後雙擊需要自動登錄的賬戶 – 輸入密碼。
8.關閉ipv6
部分網卡驅動開啟 ipv6會導致開機系統未響應,假死。如果不是ipv6用戶建議關閉,否則就更新網卡驅動試試看。
網路共享中心 – 網路連接 – 乙太網 – 屬性 – 取消 ipv6 。
9.開啟Hybrid Boot
win10啟動飛快 。默認是啟動的,如果沒有啟動,可以到控制面板 – 電源選項 – 選擇電源按鈕的功能 – 更改當前不可用的設置 – 關機設置 – 勾上啟用快速啟動。
如果沒有看到這功能,請先開啟休眠:Win+X – 命令提示符 – 輸入 powercfg -h on
10.關閉性能特效
系統屬性 – 高級 - 性能 - 設置 – 關閉淡出淡入效果。打開文件夾,小軟體之類的,唰唰的快!反正Win10都反璞歸真,取消了Aero磨砂效果,不在乎這點特效了,直接關閉吧。
總結:Win10其它系統一樣,默認安裝有很多系統自帶程序是無需要開啟的,通過優化關閉一些用不到的項目,從而提升系統載入時間,這樣就可以更有效的提升Win10運行速度了。
4. PHP加密工具選擇,ioncube和ZendOptimizer各自的優點是什麼
他們各自的優缺點是: ZendOptimizer(Zend Guard): 1、Zend Guard只能對帶有PHP標記或源碼的文件進行加密,對於其他不帶有PHP標記的文本方式保存的文件不能進行加密操作 2、ZendGuard只能用於配置了ZendOptimizer的環境中,不能獨立運行 3、ZendGuard在PHP4下的錯誤,對於PHP4的絕對路徑及相對路徑在加密時會出現較大的差別。 4、支持PHP4.2.X~5.2.X版本的加密 5、使用的ZendOptimizer(PHP引擎)可以提高源碼20~50%以上的速度優化,結合ZendGuard可以提高至50%以上的性能速度 優化,且ZendOptimizer可以安裝於當前較多主流系統中ionCube:1、ionCube不僅可以加密帶有PHP標記或源碼的php文件還可以對非php文件的以text方式保存的文件進行加密操作,如xml,js,css等。(但是讀寫時必須使用 ionCube所提供的讀入API進行讀寫操作。) 2、ionCube在功能方面經過測試可以優勝於Zend公司的 ZendGuard,不僅支持期限,注冊碼,等加密方式,還支持對IP,MAC地址等復雜的加密方式 3、可加密的PHP版本從PHP4.0.6~5.2.X(比ZendGuard高2個級別) 4、ionCube與Zend一樣,為了提高PHP性能優化也提供了相應的PHP引擎,可以為大多數操作系統提供PHP優化功能,但是可惜的是,至今未提供Windows版本的PHP引擎。 5、ZendGuard在PHP4下的錯誤,在ionCube中沒有出現,可以看出ionCube相對穩定 6對於ionCube來說,對帶有PHP標記或源碼的文件採用壓縮加密方式處理,對於非php的文本類文件則採用加密方式處理。在讀入時必須使用 「ioncube_read_file/ ioncube_write_file」讀寫文件。
5. 如何進行網站性能優化
一、前端優化
網站性能優化是一個很綜合的話題,涉及到伺服器的配置和網站前後端程序等各個方面,我只是從實際經歷出發,分享一下自己所嘗試過的網站性能優化方法。之所以在標題上掛一個web2.0,是因為本文更偏重於中小網站的性能優化,我所使用的系統也是典型web2.0的LAMP架構。
首先講講前端的優化,用戶訪問網頁的等待時間,有80%是發生在瀏覽器前端,特別是頁面和頁面中各種元素(圖片、CSS、javascript、 flash…)的下載之上。因此在很多情況下,相對於把大量的時間花在艱苦而繁雜的程序改進上,前端的優化往往能起到事半功倍的作用。雅虎最近將內部使用的性能測試工具yslow向第三方公開,並發布了著名的網站性能優化的十三條規則,建議你下載並安裝yslow,並作為測評網站優化效果的工具。下面我挑其中特別有價值的具體說明一下優化的方法:
對於第一次訪問您網站,尚未在瀏覽器cache中緩存您網站內容的用戶,我們可以做的事情包括:
1)減少一個頁面訪問所產生的http連接次數
對於第一次訪問你網站的用戶,頁面所產生的http連接次數是影響性能的一個關鍵瓶頸。
對策:
- 盡量簡潔的頁面設計,最大程度減少圖片的使用,通過放棄一些不必要的頁面特效來減少javascript的使用。
- 使用一些優化技巧,比如利用圖片的背景位移減少圖片的個數;image map技術;使用Inline images將css圖片捆綁到網頁中。
- 盡量合並js和css文件,減少獨立文件個數。
2) 使用gzip壓縮網頁內容
使用gzip來壓縮網頁中的靜態內容,能夠顯著減少用戶訪問網頁時的等待時間(據說可達到60%)。主流的web伺服器都支持或提供gzip壓縮,如果使用apache伺服器,只需要在配置文件中開啟 mod_gzip(apache1.x)或mod_deflate(apache2.x)即可。凡是靜態的頁面,使用gzip壓縮都能夠顯著提高伺服器效率並減少帶寬支出,注意圖片內容本身已經是壓縮格式了,務必不要再進行壓縮。
3)將CSS放在頁面頂端,JS文件放在頁面底端
CSS的引用要放在html的頭部header中,JS文件引用盡量放在頁面底端標簽的後面,主要的思路是讓核心的頁面內容盡早顯示出來。不過要注意,一些大量使用js的頁面,可能有一些js文件放在底端會引起一些難以預料的問題,根據實際情況適當運用即可。
4)使JS文件內容最小化
具體來說就是使用一些javascript壓縮工具對js腳本進行壓縮,去除其中的空白字元、注釋,最小化變數名等。在使用gzip壓縮的基礎上,對js內容的壓縮能夠將性能再提高5%。
5)盡量減少外部腳本的使用,減少DNS查詢時間
不要在網頁中引用太多的外部腳本,首先,一次dns的解析過程會消耗20-120毫秒的時間;其次,如果在頁面中引用太多的外部文件(如各種廣告、聯盟等代碼),可能會因為外部文件的響應速度而將你的網站拖得很慢。如果不得不用,那麼就盡量將這些腳本放在頁腳吧。不過有一點需要提及,就是瀏覽器一般只能並行處理同一域名下的兩個請求,而對於不同子的域名則不受此限制,因此適當將本站靜態內容(css,js)放在其他的子域名下(如 static.xxx.com)會有利於提高瀏覽器並行下載網頁內容的能力。
對於您網站的經常性訪問用戶,主要的優化思路就是最大限度利用用戶瀏覽器的cache來減少伺服器的開銷。
1)在header中添加過期時間(Expires Header)
在header中給靜態內容添加一個較長的過期時間,這樣可以使用戶今後訪問只讀取緩存中的文件,而不會與伺服器產生任何的交互。不過這樣做也存在一些問題,當圖片、CSS和js文件更新時,用戶如果不刷新瀏覽器,就無法獲得此更新。這樣,我們在對圖片、css和js文件修改時,必須要進行重命名,才能保證用戶訪問到最新的內容。這可能會給開發造成不小的麻煩,因為這些文件可能被站點中的許多文件所引用。flickr提出的解決辦法是通過url rewrite使不同版本號的URL事實上指向同一個文件,這是一個聰明的辦法,因為url級別的操作效率是很高的,可以給開發過程提供不少便利。
要理解為什麼這樣做,必須要了解瀏覽器訪問url時的工作機制:
a. 第一次訪問url時,用戶從伺服器段獲取頁面內容,並把相關的文件(images,css,js…)放在高速緩存中,也會把文件頭中的expired time,last modified, ETags等相關信息也一同保留下來。
b. 用戶重復訪問url時,瀏覽器首先看高速緩存中是否有本站同名的文件,如果有,則檢查文件的過期時間;如果尚未過期,則直接從緩存中讀取文件,不再訪問伺服器。
c. 如果緩存中文件的過期時間不存在或已超出,則瀏覽器會訪問伺服器獲取文件的頭信息,檢查last modifed和ETags等信息,如果發現本地緩存中的文件在上次訪問後沒被修改,則使用本地緩存中的文件;如果修改過,則從伺服器上獲取最新版本。
我的經驗,如果可能,盡量遵循此原則給靜態文件添加過期時間,這樣可以大幅度減少用戶對伺服器資源的重復訪問。
2)將css和js文件放在獨立外部文件中引用
將css和js文件放在獨立文件中,這樣它們會被單獨緩存起來,在訪問其他頁面時可以從瀏覽器的高速緩存中直接讀取。一些網站的首頁可能是例外的,這些首頁的自身瀏覽可能並不大,但卻是用戶訪問網站的第一印象以及導向到其他頁面的起點,也可能這些頁面本身使用了大量的ajax局部刷新及技術,這時可以將 css和js文件直接寫在頁面中。
3)去掉重復的腳本
在IE中,包含重復的js腳本會導致瀏覽器的緩存不被使用,仔細檢查一下你的程序,去掉重復引用的腳本應該不是一件很難的事情。
4)避免重定向的發生
除了在header中人為的重定向之外,網頁重定向常在不經意間發生,被重定向的內容將不會使用瀏覽器的緩存。比如用戶在訪問,伺服器會通過301轉向到/,在後面加了一個「/」。如果伺服器的配置不好,這也會給伺服器帶來額外的負擔。通過配置apache的 alias或使用mod_rewrite模塊等方法,可以避免不必要的重定向。
還有一些,比如使用CDN分發機制、避免CSS表達式等、避免使用ETags等,因為不太常用,這里就不再贅述了。
做完了上述的優化,可以試著用yslow測試一下網頁的性能評分,一般都可以達到70分以上了。
當然,除了瀏覽器前端和靜態內容的優化之外,還有針對程序腳本、伺服器、資料庫、負載的優化,這些更深層次的優化方法對技術有更高的要求。本文的後半部分將重點探討後端的優化。
二、後端優化
上次寫完web2.0網站前端優化篇之後,一直想寫寫後端優化的方法,今天終於有時間將思路整理了出來。
前端優化可以避免我們造成無謂的伺服器和帶寬資源浪費,但隨著網站訪問量的增加,僅靠前端優化已經不能解決所有問題了,後端軟體處理並行請求的能力、程序運 行的效率、硬體性能以及系統的可擴展性,將成為影響網站性能和穩定的關鍵瓶頸所在。優化系統和程序的性能可以從以下的方面來入手:
1)apache、mysql等軟體的配置的優化
盡管apache和mysql等軟體在安裝後使用的默認設置足以使你的網站運行起來,但是通過調整mysql和apache的一些系統參數,還是可以追求更高的效率和穩定性。這個領域中有很多專業的文章和論壇(比如: ),要想掌握也需要進行深入的研究和實踐,這里就不重點討論了。
2)應用程序環境加速
這里僅以我最常應用的php開發環境為例,有一些工具軟體可以通過優化PHP運行環境來達到提速的目的,其基本原理大致是將PHP代碼預編譯並緩存起來,而不需要改變任何代碼,所以比較簡單,可以將php的運行效率提升50%以上。比較常用的php加速工具有:APC( http: //pecl.php.net/package-info.php?package=APC)、Turck MMCache( )、php accelebrator(),還有收費的Zend Performance Suite
3)將靜態內容和動態內容分開處理
apache是一個功能完善但比較龐大的web server,它的資源佔用基本上和同時運行的進程數呈正比,對伺服器內存的消耗比較大,處理並行任務的效率也一般。在一些情況下,我們可以用比較輕量級的web server來host靜態的圖片、樣式表和javascript文件,這樣可以大大提升靜態文件的處理速度,還可以減少對內存佔用。我使用的web server是來自俄羅斯的nginx,其他選擇方案還包括lighttpd和thttpd等。
4)基於反向代理的前端訪問負載均衡
當一台前端伺服器不足以應付用戶訪問時,通過前端機實現web訪問的負載均衡是最快速可行的方案。通過apache的mod_proxy可以實現基於反向代理的負載均衡,這里推薦使用nginx做代理伺服器,處理速度較apache更快一些。
5)應用緩存技術提高資料庫效能,文件緩存和分布式緩存
資料庫訪問處理並發訪問的能力是很多網站應用的關鍵瓶頸,在想到使用主從結構和多farm的方式構建伺服器集群之前,首先應該確保充分使用了資料庫查詢的緩存。一些資料庫類型(如mysql的innoDB)自身內置對緩存的支持,此外,還可以利用程序方法將常用的查詢通過文件或內存緩存起來。比如通過 php中的ob_start和文件讀寫函數可以很方便的實現文件形式的緩存,而如果你擁有多台伺服器,可以通過memcache技術通過分布式共享內存來對資料庫查詢進行緩存,不僅效率高而且擴展性好,memcache技術在livejournal和Craigslist.org等知名網站應用中都得到了檢驗。
6)伺服器運行狀態的檢測,找到影響性能的瓶頸所在
系統優化沒有一勞永逸的方法,需要通過檢測伺服器的運行狀態來及時發現影響性能的瓶頸,以及可能存在的潛在問題,因為網站的性能,永遠取決於木桶中的短板。可以編寫一些腳本來檢測web服務的運行,也有一些開源的軟體也提供了很好的功能
7)良好的擴展架構是穩定和性能的基礎
一些技巧和竅門可以幫你度過眼前的難關,但要想使網站具備應付大規模訪問的能力,則需要從系統架構上進行徹底的規劃,好在很多前人無私的把他們架構
網站的經驗分享給我們,使我們可以少走甚多彎路。我最近讀到的兩篇有啟發的文章:
- 從LiveJournal後台發展看大規模網站性能優化方法
- Myspace的六次重構
最後不得不提到程序編碼和資料庫結構對性能的影響,一系列糟糕的循環語句,一個不合理的查詢語句、一張設計不佳的數據表或索引表,都足以會使應用程序運行的速度成倍的降低。培養全局思考的能力,養成良好的編程習慣,並對資料庫運行機制有所了解,是提高編程質量的基礎。
6. 如何設置BT寶塔面板並優化php伺服器性能
設置寶塔面板需要安裝組件,然後參考寶塔面板優化 php 伺服器性能,按照裡面的設置,一項項的操作完畢,就差不多了。
寶塔面板把優化php已經變成一件很簡單的事情了。
7. 網站性能優化怎麼辦
一、前端優化
網站性能優化是一個很綜合的話題,涉及到伺服器的配置和網站前後端程序等各個方面,我只是從實際經歷出發,分享一下自己所嘗試過的網站性能優化方法。之所以在標題上掛一個web2.0,是因為本文更偏重於中小網站的性能優化,我所使用的系統也是典型web2.0的LAMP架構。
首先講講前端的優化,用戶訪問網頁的等待時間,有80%是發生在瀏覽器前端,特別是頁面和頁面中各種元素(圖片、CSS、Javascript、 flash…)的下載之上。因此在很多情況下,相對於把大量的時間花在艱苦而繁雜的程序改進上,前端的優化往往能起到事半功倍的作用。雅虎最近將內部使用的性能測試工具yslow向第三方公開,並發布了著名的網站性能優化的十三條規則,建議你下載並安裝yslow,並作為測評網站優化效果的工具。下面我挑其中特別有價值的具體說明一下優化的方法:
對於第一次訪問您網站,尚未在瀏覽器cache中緩存您網站內容的用戶,我們可以做的事情包括:
1)減少一個頁面訪問所產生的http連接次數
對於第一次訪問你網站的用戶,頁面所產生的http連接次數是影響性能的一個關鍵瓶頸。
對策:
- 盡量簡潔的頁面設計,最大程度減少圖片的使用,通過放棄一些不必要的頁面特效來減少javascript的使用。
- 使用一些優化技巧,比如利用圖片的背景位移減少圖片的個數;image map技術;使用Inline images將css圖片捆綁到網頁中。
- 盡量合並js和css文件,減少獨立文件個數。
2) 使用gzip壓縮網頁內容
使用gzip來壓縮網頁中的靜態內容,能夠顯著減少用戶訪問網頁時的等待時間(據說可達到60%)。主流的web伺服器都支持或提供gzip壓縮,如果使用apache伺服器,只需要在配置文件中開啟 mod_gzip(apache1.x)或mod_deflate(apache2.x)即可。凡是靜態的頁面,使用gzip壓縮都能夠顯著提高伺服器效率並減少帶寬支出,注意圖片內容本身已經是壓縮格式了,務必不要再進行壓縮。
3)將CSS放在頁面頂端,JS文件放在頁面底端
CSS的引用要放在html的頭部header中,JS文件引用盡量放在頁面底端標簽的後面,主要的思路是讓核心的頁面內容盡早顯示出來。不過要注意,一些大量使用js的頁面,可能有一些js文件放在底端會引起一些難以預料的問題,根據實際情況適當運用即可。
4)使JS文件內容最小化
具體來說就是使用一些javascript壓縮工具對js腳本進行壓縮,去除其中的空白字元、注釋,最小化變數名等。在使用gzip壓縮的基礎上,對js內容的壓縮能夠將性能再提高5%。
5)盡量減少外部腳本的使用,減少DNS查詢時間
不要在網頁中引用太多的外部腳本,首先,一次dns的解析過程會消耗20-120毫秒的時間;其次,如果在頁面中引用太多的外部文件(如各種廣告、聯盟等代碼),可能會因為外部文件的響應速度而將你的網站拖得很慢。如果不得不用,那麼就盡量將這些腳本放在頁腳吧。不過有一點需要提及,就是瀏覽器一般只能並行處理同一域名下的兩個請求,而對於不同子的域名則不受此限制,因此適當將本站靜態內容(css,js)放在其他的子域名下(如 static.xxx.com)會有利於提高瀏覽器並行下載網頁內容的能力。
對於您網站的經常性訪問用戶,主要的優化思路就是最大限度利用用戶瀏覽器的cache來減少伺服器的開銷。
1)在header中添加過期時間(Expires Header)
在header中給靜態內容添加一個較長的過期時間,這樣可以使用戶今後訪問只讀取緩存中的文件,而不會與伺服器產生任何的交互。不過這樣做也存在一些問題,當圖片、CSS和js文件更新時,用戶如果不刷新瀏覽器,就無法獲得此更新。這樣,我們在對圖片、css和js文件修改時,必須要進行重命名,才能保證用戶訪問到最新的內容。這可能會給開發造成不小的麻煩,因為這些文件可能被站點中的許多文件所引用。flickr提出的解決辦法是通過url rewrite使不同版本號的URL事實上指向同一個文件,這是一個聰明的辦法,因為url級別的操作效率是很高的,可以給開發過程提供不少便利。
要理解為什麼這樣做,必須要了解瀏覽器訪問url時的工作機制:
a. 第一次訪問url時,用戶從伺服器段獲取頁面內容,並把相關的文件(images,css,js…)放在高速緩存中,也會把文件頭中的expired time,last modified, ETags等相關信息也一同保留下來。
b. 用戶重復訪問url時,瀏覽器首先看高速緩存中是否有本站同名的文件,如果有,則檢查文件的過期時間;如果尚未過期,則直接從緩存中讀取文件,不再訪問伺服器。
c. 如果緩存中文件的過期時間不存在或已超出,則瀏覽器會訪問伺服器獲取文件的頭信息,檢查last modifed和ETags等信息,如果發現本地緩存中的文件在上次訪問後沒被修改,則使用本地緩存中的文件;如果修改過,則從伺服器上獲取最新版本。
我的經驗,如果可能,盡量遵循此原則給靜態文件添加過期時間,這樣可以大幅度減少用戶對伺服器資源的重復訪問。
2)將css和js文件放在獨立外部文件中引用
將css和js文件放在獨立文件中,這樣它們會被單獨緩存起來,在訪問其他頁面時可以從瀏覽器的高速緩存中直接讀取。一些網站的首頁可能是例外的,這些首頁的自身瀏覽可能並不大,但卻是用戶訪問網站的第一印象以及導向到其他頁面的起點,也可能這些頁面本身使用了大量的ajax局部刷新及技術,這時可以將 css和js文件直接寫在頁面中。
3)去掉重復的腳本
在IE中,包含重復的js腳本會導致瀏覽器的緩存不被使用,仔細檢查一下你的程序,去掉重復引用的腳本應該不是一件很難的事情。
4)避免重定向的發生
除了在header中人為的重定向之外,網頁重定向常在不經意間發生,被重定向的內容將不會使用瀏覽器的緩存。比如用戶在訪問www.xxx.com,伺服器會通過301轉向到www.xxx.com/,在後面加了一個「/」。如果伺服器的配置不好,這也會給伺服器帶來額外的負擔。通過配置apache的 alias或使用mod_rewrite模塊等方法,可以避免不必要的重定向。
還有一些,比如使用CDN分發機制、避免CSS表達式等、避免使用ETags等,因為不太常用,這里就不再贅述了。
做完了上述的優化,可以試著用yslow測試一下網頁的性能評分,一般都可以達到70分以上了。
當然,除了瀏覽器前端和靜態內容的優化之外,還有針對程序腳本、伺服器、資料庫、負載的優化,這些更深層次的優化方法對技術有更高的要求。本文的後半部分將重點探討後端的優化。
二、後端優化
上次寫完web2.0網站前端優化篇之後,一直想寫寫後端優化的方法,今天終於有時間將思路整理了出來。
前端優化可以避免我們造成無謂的伺服器和帶寬資源浪費,但隨著網站訪問量的增加,僅靠前端優化已經不能解決所有問題了,後端軟體處理並行請求的能力、程序運 行的效率、硬體性能以及系統的可擴展性,將成為影響網站性能和穩定的關鍵瓶頸所在。優化系統和程序的性能可以從以下的方面來入手:
1)apache、mysql等軟體的配置的優化
盡管apache和mysql等軟體在安裝後使用的默認設置足以使你的網站運行起來,但是通過調整mysql和apache的一些系統參數,還是可以追求更高的效率和穩定性。這個領域中有很多專業的文章和論壇(比如: http://www.mysqlperformanceblog.com/),要想掌握也需要進行深入的研究和實踐,這里就不重點討論了。
2)應用程序環境加速
這里僅以我最常應用的php開發環境為例,有一些工具軟體可以通過優化PHP運行環境來達到提速的目的,其基本原理大致是將PHP代碼預編譯並緩存起來,而不需要改變任何代碼,所以比較簡單,可以將php的運行效率提升50%以上。比較常用的免費php加速工具有:APC( http: //pecl.php.net/package-info.php?package=APC)、Turck MMCache( http://turck-mmcache.sourceforge.net)、php accelebrator(www.php-accelerator.co.uk),還有收費的Zend Performance Suite
3)將靜態內容和動態內容分開處理
apache是一個功能完善但比較龐大的web server,它的資源佔用基本上和同時運行的進程數呈正比,對伺服器內存的消耗比較大,處理並行任務的效率也一般。在一些情況下,我們可以用比較輕量級的web server來host靜態的圖片、樣式表和javascript文件,這樣可以大大提升靜態文件的處理速度,還可以減少對內存佔用。我使用的web server是來自俄羅斯的nginx,其他選擇方案還包括lighttpd和thttpd等。
4)基於反向代理的前端訪問負載均衡
當一台前端伺服器不足以應付用戶訪問時,通過前端機實現web訪問的負載均衡是最快速可行的方案。通過apache的mod_proxy可以實現基於反向代理的負載均衡,這里推薦使用nginx做代理伺服器,處理速度較apache更快一些。
5)應用緩存技術提高資料庫效能,文件緩存和分布式緩存
資料庫訪問處理並發訪問的能力是很多網站應用的關鍵瓶頸,在想到使用主從結構和多farm的方式構建伺服器集群之前,首先應該確保充分使用了資料庫查詢的緩存。一些資料庫類型(如mysql的innoDB)自身內置對緩存的支持,此外,還可以利用程序方法將常用的查詢通過文件或內存緩存起來。比如通過 php中的ob_start和文件讀寫函數可以很方便的實現文件形式的緩存,而如果你擁有多台伺服器,可以通過memcache技術通過分布式共享內存來對資料庫查詢進行緩存,不僅效率高而且擴展性好,memcache技術在livejournal和Craigslist.org等知名網站應用中都得到了檢驗。
6)伺服器運行狀態的檢測,找到影響性能的瓶頸所在
系統優化沒有一勞永逸的方法,需要通過檢測伺服器的運行狀態來及時發現影響性能的瓶頸,以及可能存在的潛在問題,因為網站的性能,永遠取決於木桶中的短板。可以編寫一些腳本來檢測web服務的運行,也有一些開源的軟體也提供了很好的功能
7)良好的擴展架構是穩定和性能的基礎
一些技巧和竅門可以幫你度過眼前的難關,但要想使網站具備應付大規模訪問的能力,則需要從系統架構上進行徹底的規劃,好在很多前人無私的把他們架構
網站的經驗分享給我們,使我們可以少走甚多彎路。我最近讀到的兩篇有啟發的文章:
- 從LiveJournal後台發展看大規模網站性能優化方法
- Myspace的六次重構
最後不得不提到程序編碼和資料庫結構對性能的影響,一系列糟糕的循環語句,一個不合理的查詢語句、一張設計不佳的數據表或索引表,都足以會使應用程序運行的速度成倍的降低。培養全局思考的能力,養成良好的編程習慣,並對資料庫運行機制有所了解,是提高編程質量的基礎。
8. php ob_start提高多少速度
由於PHP是「一邊編譯一邊執行」的腳本語言,某種程度上也提供了一種相當方便的結果集緩存使用方法—通過動態include相應的數據定義代碼段的方式使用緩存。
近來做了一陣子程序性能的優化工作,有個比較有意思的想法,想提出來和大家交流一下。
Cache是「以空間換時間」策略的典型應用模式,是提高系統性能的一種重要方法。緩存的使用在大訪問量的情況下能夠極大的減少對資料庫操作的次數,明顯降低系統負荷提高系統性能。相比頁面的緩存,結果集是一種「原始數據」不包含格式信息,數據量相對較小,而且可以再進行格式化,所以顯得相當靈活。由於PHP是「一邊編譯一邊執行」的腳本語言,某種程度上也提供了一種相當方便的結果集緩存使用方法——通過動態include相應的數據定義代碼段的方式使用緩存。如果在「RamDisk」上建緩存的話,效率應該還可以得到進一步的提升。以下是一小段示例代碼,供參考。
// load data with cache
function
load_data($id,$cache_lifetime) {
// the return data
$data =
array();
// make cache filename
$cache_filename =
『cache_『.$id.『.php『;
// check cache file『s last modify time
$cache_filetime = filemtime($cache_filename);
if (time() -
$cache_filetime <= $cache_lifetime) {
//** the cache is not expire
include($cache_filename);
} else {
//** the cache is
expired
// load data from database
// ...
while
($dbo->nextRecord()) {
// $data[] = ...
}
// format
the data as a php file
$data_cache = "
while (list($key, $val) =
each($data)) {
$data_cache .= "\$data[『$key『]=array(『";
$data_cache .= "『NAME『=>\"".qoute($val[『NAME『])."\","
$data_cache .= "『VALUE『=>\"".qoute($val[『VALUE『])."\""
$data_cache .= ";);\r\n";
}
$data_cache = "?>\r\n";
// save the data to the cache file
if ($fd =
fopen($cache_filename,『w+『)) {
fputs($fd,$data_cache);
fclose($fd);
}
}
return $data;
}
?> 適用情況:
1.數據相對比較穩定,主要是讀取操作。
2.文件操作要比資料庫操作快。
3.復雜數據訪問,大數據量訪問,密集數據訪問,系統資料庫負載極重。
4.Web/DB分離結構或者多Web單DB結構。
未經證實的問題:
1.並發訪問時對文件的讀寫是否會引起鎖定問題。
2.涉及到的數據文件太多時,性能如何。
擴展思路:
1.生成JavaScript數據定義代碼,在客戶端調用。
2.還未想到……
望共同探討。
緩存
如果你想要讓自己龐大的PHP應用有更好的性能表現,採用緩存也是一種很好的方法。現在已經有許多緩存方案可供選擇,其中包括:Zend
Cache,APC,和Afterburner Cache。
所有這些產品都屬於「緩存模塊」。當第一次出現對.php文件的請求時,它們會在Web伺服器內存中保存PHP的中間代碼,此後就用「經過編譯」的版本響應後繼的請求。這種方法確實能夠改善應用的性能,因為它使得磁碟訪問量減低到了最少的程度(代碼已經讀取和解析),代碼直接在內存中運行使得伺服器響應請求的速度大大提高。當然,緩存模塊還會監視PHP源文件的變化,必要時重新緩存頁面,從而防止了用戶得到的頁面仍舊由過時的PHP代碼生成。由於緩存模塊能夠明顯地降低伺服器的負載、提高PHP應用的響應效率,因此它們非常適合於負載較大的網站使用。
如何選擇這些緩存產品
Zend Cache是Zend Technologies公司的商業軟體,而Zend
Technologies就是前面提到的那個為我們提供PHP引擎和免費Zend Optimizer的公司。Zend
Cache確實是名不虛傳!對於大型的PHP頁面,你可以感覺到第一次運行之後速度就會有所提高,而且伺服器也會有更多的可用資源。遺憾的是這個產品並不免費,不過在有些情形下它仍舊是物超所值。
Afterburner Cache是來自Bware Technologies的免費緩存模塊,當前這個產品還是Beta版。Afterburner
Cache的做法看起來與Zend Cache差不多,但它對性能的改善程度(還)不能與Zend Cache相比,而且它還不能與Zend
Optimizer一起工作。
APC是Alternative PHP Cache的縮寫,它是來自Community
Connect的又一個免費緩存模塊。這個產品已經具有足夠的穩定性供正式場合使用,而且它看起來也能在很大程度上提高響應請求的速度。
有關壓縮
來自Remote
Communications的免費Apache模塊mod_gzip就具有為支持這類內容編碼的瀏覽器壓縮靜態Web內容的能力。對於絕大多數靜態Web內容,mod_gzip都非常有效。mod_gzip可以方便地編譯到Apache裡面,也可以作為DSO使用。據Remote
communications公司說,mod_gzip也能夠壓縮來自mod_php、mod_perl等的動態內容。我試了一次又一次,但看來還是不行。我看了許多關於mod_gzip的論壇和文章,看來到了mod_gzip的下一個版本(可能是1.3.14.6f)這個問題有望得到解決。在此之前,我們可以在網站的靜態部分使用mod_gzip。
然而有時我們確實蹊要壓縮動態內容,所以必須找找其他辦法。有一種辦法是使用class.gzip_encode.php,這是一個可以用來壓縮頁面內容的PHP類,具體方法是在PHP腳本的開頭和末尾調用該類的某些函數。如果要在網站級實現這個方案,可以從php.ini文件的auto_prepend以及auto_append指令調用這些函數。這種方法雖然有效,但它無疑為高負載的網站帶來了更多的開銷。關於如何使用這個類的詳細說明,請參見它的源代碼。它的源代碼說明相當完善,作者告訴了你所有你必須知道的事情。
PHP
4.0.4有一個新的輸出緩存句柄ob_gzhandler,它與前面的類相似,但用法不同。使用ob_gzhandler時要在php.ini中加入的內容如下:
output_handler = ob_gzhandler
;
這行代碼使得PHP激活輸出緩存,並壓縮它發送出去的所有內容。如果由於某種原因你不想在php.ini中加上這行代碼,你還可以通過PHP源文件所在目錄的.htaccess文件改變默認的伺服器行為(不壓縮),語法如下:
php_value
output_handler ob_gzhandler
或者是從PHP代碼調用,如下所示:
ob_start("ob_gzhandler");
採用輸出緩存句柄的方法確實非常有效,而且不會給伺服器帶來什麼特殊的負荷。但必須注意的是,Netscape
Communicator對壓縮圖形的支持不佳,因此除非你能夠保證所有用戶都使用IE瀏覽器,否則你應該禁止壓縮JPEG和GIF圖形。一般地,對於所有其他文件,這種壓縮都有效,但建議你針對各種瀏覽器都分別進行測試,特別是當你使用了特殊的插件或者數據查看器時這一點尤其重要。
閱讀提示:PEAR 的緩沖包提供了緩沖動態內容,資料庫查詢和 PHP 函數調用的框架。本文介紹如何採用 PEAR 來緩沖 PHP 程序
採用 PEAR 來緩沖 PHP 程序
PHP 世界中緩沖是一個熱門的話題,因為 PHP 產生的動態頁面,每次用戶請求都需要重新計算,不論請求的結果是否一樣,同時,PHP
每次都會編譯一次腳本。這樣的超負荷運轉對一個流量很高的網站來說肯定難以忍受。幸運的是, Web 的結果可以緩沖,而不需要重新運行和編譯腳本,商品化的產品像
ZendCache 或者開源的 Alternate PHP Cache都提供了把 PHP 腳本編譯為位元組代碼並緩沖的辦法。
PEAR
的緩沖包提供了緩沖動態內容,資料庫查詢和 PHP 函數調用的框架。
就像 Perl 有 CPAN, TeX 有 CTAN,PHP
也有自己的中心資源庫,存放類,庫和模塊。這個庫稱為 PEAR(PHP Extension and Add-On
Repository)。
本文假設你已經安裝了 PEAR 環境,如果沒有的話,可以去 PHP 網站下載。PEAR
的緩沖包包含一個總體的緩沖類和幾個特別的子類。緩沖類使用容器類來存貯和管理緩沖數據。
下面是 PEAR
緩沖當前所包含的容器,以及各自的參數:
file -- file 容器在文件系統存儲了緩沖的數據,是最快的容器。
cache_dir
-- 這是容器存儲文件的目錄。
filename_prefix -- 緩沖文件的前綴,例如:"cache_"。
shm -- shm
容器把緩沖數據放入共享內存,基準測試顯示,目前的實現下,這個容器的速度要比文件容器慢。
shm_key --
共享內存使用的鍵值。
shm_perm -- 使用共享內存數據段的許可權。
shm_size --
分配共享內存的大小。
sem_key -- 信號燈的鍵值。
sem_perm -- 信號燈的許可權。
db --
PEAR 的資料庫抽象層。
dsn -- 資料庫連接的 DSN 。可以參考 PEAR 的 DB 文檔。
cache_table --
表的名字。
phplib -- phplib
容器使用資料庫抽象層存儲緩沖。
db_class
db_file
db_path
local_file
local_path
ext/dbx
-- PHP
的資料庫抽象層擴展,如果像把緩沖存入資料庫,可以採用這個容器。
mole
host
db
username
password
cache_table
persistent
使用
PEAR Cache 所得到的性能提升取決於你所選擇的緩沖容器,例如,把資料庫的結果再次存入資料庫緩沖中就顯得毫無意義。
PEAR Cache
的函數緩沖模塊能把任何函數或者方法的結果緩沖,不論是 PHP
的內置函數還是用戶自定義函數,他預設採用文件容器,把緩沖數據放入到一個叫做function_cache 的目錄。
Cache_Function
類的構造器可以有三個可選的參數:
$container :緩沖容器的名字。
$container_options
:緩沖容器的數組參數。
$expires:緩沖對象過期的時間(秒數)。
普通的函數調用採用 Cache_Function 類的
call() 方法時,就能觸發緩沖。調用 call()
很容易,的一個參數是函數的名字,然後是函數的參數,第二個參數是要調用函數中的第一個,依此類推,我們來看例子:
例1
緩沖函數和方法的調用
// 調用 PEAR Cache 的函數緩沖。
require_once
'Cache/Function.php';
// 定義一些類和函數。
class foo {
function
bar($test) {
echo
"foo::bar($test)
";
}
}
class bar {
function
foobar($object) {
echo
'$'.$object.'->foobar('.$object.')
';
}
}
$bar =
new bar;
function foobar() {
echo 'foobar()';
}
//
取得 Cache_Function 對象
$cache = new Cache_Function();
// 對 foo
類的靜態函數 bar() 作緩沖(foo::bar())。
$cache->call('foo::bar',
'test');
// $bar->foobar()
$cache->call('bar->foobar',
'bar');
$cache->call('foobar');
?>
下面我們採用
Cache_Output 來把輸出作緩沖:
例2 緩沖腳本的輸出
// 載入 PEAR
Cache 的輸出緩沖
require_once 'Cache/Output.php';
$cache = new
Cache_Output('file', array('cache_dir' => '.') );
//
計算要緩沖頁面的標記,我們假定頁面的緩沖取決於
// URL, HTTP GET 和 POST 變數以及
cookies。
$cache_id = $cache->generateID(
array('url' =>
$REQUEST_URI, '
post' => $HTTP_POST_VARS, 'cookies' =>
$HTTP_COOKIE_VARS) );
// 查詢緩沖
if ($content =
$cache->start($cache_id)) {
// 緩沖命中
echo
$content;
die();
}
// 緩沖丟失
// -- 在這里插入內容產生代碼
--
// 把頁面存入緩沖
echo $cache->end();
?>
利用 Cache_Output 類,很容易把一個動態的資料庫驅動的網站應用轉化為靜態,從而極大的提升站點的性能。越來越多的站點在採用 GZIP 壓縮
HTML 內容,這樣減少了伺服器的帶寬消耗,對於使用 Modem 上網的用戶來說也能受益不少。
Cache_OutputCompression
擴展了 Cache_Output 類的功能,他把 GZIP 壓縮的 HTML 內容進行緩沖,從而節省了 CPU 壓縮的時間。
閱讀提示:在本篇文章中,我們將對PHP應用程序的分析、如何改變腳本代碼以及比較優化前後的各種參數值進行簡要的介紹。
PHP應用程序的性能優化
使用PHP編程的最大好處是學習這種編程語言非常容易以及其豐富的庫。即使對需要使用的函數不是十分了解,我們也能夠猜測出如何完成一個特定的任務。
盡管PHP非常簡單易學,但我們仍然需要花費一點時間來學習PHP的一些編程技巧,尤其是與性能和內存佔用相關的技巧。在PHP中,有許多小技巧能夠使我們減少內存的佔用,並提高應用程序的性能。在本篇文章中,我們將對PHP應用程序的分析、如何改變腳本代碼以及比較優化前後的各種參數值進行簡要的介紹。
通過在程序中設置計時的程序,並反復執行這些代碼,我們可以獲得有關程序執行速度的一組數據,這些數據可以可以用來發現程序中的瓶頸,以及如何進行優化,提高應用程序的性能。
也許讀者曾經聽說過PEAR庫吧。我們將使用PEAR庫創建在分析時需要使用的例子,這也是對現有的代碼進行分析的最簡單的方法,它使我們無需使用商用產品就能對代碼進行分析。
我們要使用的庫的名字是PEAR::Benchmark,它對於對代碼進行分析和性能測試非常有用。這個庫提供一個名字為Benchmark_Timer()的類,能夠記錄一個函數調用和下一個函數調用之間的時間。在對代碼的性能進行測試時,我們可以得到一個詳細的腳本執行結果,它非常簡單,如下所示:
include_once("Benchmark/Timer.php");
$bench
= new Benchmark_Timer;
$bench-> start();
$bench->
setMarker('Start of the script');
//
現在處於睡眠狀態幾分鍾
sleep(5);
$bench-> stop();
//
從計時器中獲得分析信息
print_r($bench->
getProfiling());
?>
上面代碼執行後的輸出如下所示:
Array
(
[0] => Array
(
[name] =>
Start
[time] => 1013214253.05751200
[diff] =>
-
[total] => 0
)
[1] =>
Array
(
[name] => Start of the script
[time] =>
1013214253.05761100
[diff] => 9.8943710327148E-05
[total]
=> 9.8943710327148E-05
)
[2] =>
Array
(
[name] => Stop
[time] =>
1013214258.04920700
[diff] => 4.9915959835052
[total] =>
4.9916949272156
)
)
上面的數字似乎是一組雜亂無章的數字,但如果程序的規模更大,這些數字就十分地有用了。
也許廣大讀者也能猜測到,數組的第一個表目是實際調用Benchmark_Timer()類的方法,例如
$bench->
start()、$bench-> setMarker()和$bench->
stop(),與這些表目有關的數字是相當簡單的,現在我們來仔細地研究這些數字:
[0] => Array
(
[name] => Start
[time] => 1013214253.05751200
[diff] => -
[total] => 0
)
time表目指的是何時對Benchmark_Timer()的start()方法調用的UNIX的timestamp,diff表目表示這次調用和上次調用之間的時間間隔,由於這里沒有上一次,因此顯示出了一個破折號,total表目指的是自測試開始到這一特定的調用之前代碼運行的總的時間。下面我們來看看下一個數組的輸出:
[1]
=> Array
(
[name] => Start of the script
[time] => 1013214253.05761100
[diff] =>
9.8943710327148E-05
[total] => 9.8943710327148E-05
)
從上面的數字我們可以看出,在調用$bench->
start()之後,程序運行了9.8943710327148E-05秒(也就是0.0000989秒)後開始調用$bench->
setMarker(....)。
一次真實的性能測試經歷
盡管上面的例子不錯,但在對於決定如何優化你的站點代碼設計方面,它真的不能算是一個好例子。下面我將用我自己作為網站技術人員的一段親身經歷來說明如何解決性能方面存在的問題。
我並不大理解網站使用的代碼,因為它是根據特殊的需求,歷經多年開發而成的━━其中的一個模塊包括網站轉換代碼,另一個模塊記錄網站的使用情況,其他的模塊也各有各的作用。我和網站的主要開發者都意識到網站的代碼需要優化,但又不清楚問題出在哪兒。
為了盡快地完成任務,我開始研究網站的主要腳本代碼,並在全部腳本代碼以及其包含文件中添加了一些$bench->
setMarker()命令,然後分析$bench->
getProfiling()的輸出,並對得到的結果大吃一驚,原來問題出在一個與獲得特定語言名字(例如en代表english)的轉換代碼的函數調用中,該函數在每個頁面上都會被使用數百次。每次調用該函數時,腳本代碼都會對一個MySQL資料庫進行查詢,從一個資料庫表中獲得真正的語言名字。
於是我們這一類的信息創建了一個緩沖系統。經過短短2天時間的工作,我們使系統的性能得到了很大的提高,第一周內頁面的瀏覽量也因此而增加了40%。當然了,這只是一個有關分析代碼能夠提高互聯網應用或互聯網網站性能的例子。
性能測試函數調用
在分析一個腳本或網頁(以及其包含文件)時,盡管Benchmark_Timer()特別有用,但它並不科學,因為要獲得分析的數據我們必須多次載入腳本,而且它也不是針對某個類或函數調用的。
PEAR::Benchmark庫中的另一個被稱作Benchmark_Iterator的類能夠很好地解決這一個問題,它能夠針對特定的函數或類的方法,顯示其分析信息。它的用途是能夠能夠從測試中獲得一致的結果,因為我們知道,如果運行一段腳本一次,其運行時間為10秒,並不意味著它每次的運行時間總是10秒。
In
any case, let's see some examples:
//
連接資料庫的代碼
include_once("DB.php");
$dsn = array(
'phptype'
=> 'mysql',
'hostspec' => 'localhost',
'database'
=> 'database_name',
'username' =>
'user_name',
'password' => 'password'
);
$dbh =
DB::connect($dsn);
function getCreatedDate($id)
{
global
$dbh;
> $stmt = "SELECT created_date FROM users WHERE
id=$id";
// 在這里使用PEAR::DB
$created_date = $dbh->
getOne($stmt);
if ((PEAR::isError($created_date)) ||
(empty($created_date))) {
return false;
} else
{
return $created_date;
}
}
include_once
'Benchmark/Iterate.php';
$bench = new Benchmark_Iterate;
//
運行getDate函數10次
$bench-> run(10, 'getCreatedDate', 1);
//
列印分析信息
print_r($bench-> get());
?> 運行上面的代碼能夠產生與下面相似的結果:
Array
(
[1] => 0.055413007736206
[2] =>
0.0012860298156738
[3] => 0.0010279417037964
[4] =>
0.00093603134155273
[5] => 0.00094103813171387
[6] =>
0.00092899799346924
[7] => 0.0010659694671631
[8] =>
0.00096404552459717
[9] => 0.0010690689086914
[10] =>
0.00093603134155273
[mean] => 0.0064568161964417
[iterations]
=> 10
)
上面的這些數字很好理解,mean條目表示getCreatedDate()函數10次運行的平均時間。在進行實際測試時,應該至少運行1000次,但這個例子得出的結果已經足夠說明問題了。
9. 怎樣提高php運行效率
1,資料庫模型很重要,建表要做好索引,以及數據拆分
2,緩存,適當運用緩存
3,盡可能使用官方的函數,不要自己造車
10. PHP中4個加速,緩存擴展的區別和選用建議
1、eAccelerator
eAccelerator是一個自由開放源碼PHP加速器,優化和動態內容緩存,提高了PHP腳本的緩存性能,使得PHP腳本在編譯的狀態下,對伺服器的開銷幾乎完全消除。 它還有對腳本起優化作用,以加快其執行效率。使PHP程序代碼執效率能提高1-10倍。從文字上可以理解為:eAccelerator是PHP加速器擴展。
2、memcached
Memcached 是一個高性能的分布式內存對象緩存系統,用於動態Web應用以減輕資料庫負載。它通過在內存中緩存數據和對象來減少讀取資料庫的次數,從而提供動態、資料庫驅動網站的速度。從文字上可以理解為:內存緩存擴展,並且針對於集群伺服器使用較多,主要用於分布式緩存,算是資料庫緩存。
3、Alternative PHP Cache(APC緩存)
Alternative PHP Cache (APC緩存)是一種對PHP有效的開放源高速緩沖儲存器工具,他能夠緩存Opcode(目標文件)的PHP中間碼。 APC的緩存分兩部分:系統緩存和用戶數據緩存. 系統緩存 是自動使用的,是指APC把PHP文件源碼的編譯結果緩存起來,然後在再次調用時先對比時間標記。如果未過期,則使用緩存代碼運行。默認緩存 3600s(一小時).但是這樣仍會浪費大量CPU時間.因此可以在php.ini中設置system緩存為永不過期(apc.ttl=0).不過如果這樣設置,改運PHP代碼後需要restart一下您的web伺服器(比如apache…).目前對APC的性能測試一般指的是這一層cache;從文字上理到:Alternative PHP Cache(APC緩存)也算是一種內存緩存擴展,算是資料庫緩存擴展。
4、Xcache
是一個開源的opcode緩存器/優化器, 他能夠提高伺服器上的PHP性能,他通過把編譯PHP後的數據緩沖到共享內存從而避免重復的編譯過程, 能夠直接使用緩沖區已編譯的代碼從而提高速度. 通常能夠提高您的頁面生成速率2到5倍, 降低伺服器負載。 其實它與eAccelerator一樣是PHP加速器擴展。
以上就是他們的作用與區別,簡單一點就是:eAccelerator,xcache是PHP緩存擴展,memcached、APC緩存是資料庫緩存擴展,一般兩者只有要安裝其中一個即可,不要貪多。另外,實際測試中發現當Cache數量超過一定閥值的時候,APC的性能不如Memcache。所以在擴展的選擇上,本人一般會選擇xcache+memcached這個組合。