導航:首頁 > 編程語言 > phpsockethttps

phpsockethttps

發布時間:2025-07-21 11:30:04

php新手如何成為PHP大牛

不知道你的php技術怎麼樣,如果是完全零基礎的新手,建議你最需要做的就是快速入門。

編程其實就是一門手藝活,這和其他行業的道理是一樣的。現在的社會都講求匠人精神,但我們的傳統文化其實一直不缺匠人精神,還記得曾經學過的那篇叫賣油翁的文章嗎?賣油翁說的一句話就道出了精髓,無他唯手熟而,說的直白點就是練的多了。編程這種東西其實也一樣,你練的多了自然就能悟出其中的道理,別人看上去非常神奇,但在你看來簡直輕而易舉。

當達到這種境界的時候,你也就是真正的高手了。而成為高手後,只要舉一反三,其他編程語言也是同樣的道理。

② 502 Bad Gateway的可能原因,及解決方法

一:可能的原因是php-fpm未開啟,查看php-fpm狀態,若未開啟,開啟後重試

開啟php-fpm,查看狀態

systemctl start php73-php-fpm

systemctl status php73-php-fpm

重新打開網頁

第二次遇到502

第二次遇到502,上面的方法試了,但是問題沒有解決

感覺有可能是配置問題,最終參照  https://blog.csdn.net/ucmir183/article/details/80240112  的解決方法,解決了

我的配置裡面是這樣的

location ~* \.php$ {

fastcgi_pass     127.0.0.1:9000;

fastcgi_index     index.php;

include              fastcgi_params;

fastcgi_param   SCRIPT_FILENAME   $document_root$fastcgi_script_name;

fastcgi_param   SCRIPT_NAME    $fastcgi_script_name;

}

輸入命令   netstat -tlnp | grep 9000     並沒有監聽9000的程序

Nginx和PHP-FPM的進程間通信有兩種方式,一種是TCP,一種是UNIX Domain Socket.

其中TCP是IP加埠,可以跨伺服器.而UNIX Domain Socket不經過網路,只能用於Nginx跟PHP-FPM都在同一伺服器的場景.用哪種取決於你的PHP-FPM配置:

方式1:

php-fpm.conf: listen = 127.0.0.1:9000

nginx.conf: fastcgi_pass 127.0.0.1:9000;

方式2:

php-fpm.conf: listen = /tmp/php-fpm.sock

nginx.conf: fastcgi_pass unix:/tmp/php-fpm.sock;

在配置文件中看了一下,發現初始化時就有一個文件

查閱了自己以前的配置,以前使用php7.2與php7.3時是沒有這個文件的

於是把這個文件刪除是了一下,重啟nginx報錯

好奇心驅使,進入文件看了一下

於是進入自己配置的文件中,修改

重啟nginx伺服器,問題解決

參考地址:https://blog.csdn.net/ucmir183/article/details/80240112

③ 一鍵安裝並啟用 telnet服務

通過telnet方式連接到其他機器,進行遠程操作

本文實現了一鍵安裝,並開啟telnet服務。

默認情況下,telnet連接不能用root賬號登陸,需要用普通用戶的賬號連接

2.1 安裝服務包

安裝xinted,telnet,telnet-server三個包

2.2 開啟xinetd

Cent OS 6

service xinetd restart

CentOS7

systemctl restart xinetd

2.3 開啟telnet

如果以上的telnet已經安裝,但是還是如果出現如下報錯

[root@localhost ~]#telnet 172.18.50.62

Trying 172.18.50.62...

telnet: connect to address 172.18.50.62: Connection refused

應該是服務沒有啟用

主要是要查看23埠是否有被打開

可以用 netstat -ntulp | grep 23查看

解決辦法

CentOS6

chkconfig --list 查看telnet是否是on狀態,如果狀態為off,

用命令 chkconfig telnet on設置開機啟動。centOS6不需要重啟telnet服務,只需要確保這個狀態是開啟的就可以,因為該進程是有xinet監聽,如果telnet已經是on狀態,可以嘗試重啟xinet服務

CentOS7

查看telnet-server 是否已經啟動

systemctl status telnet.socket

如果顯示inactive則表示沒有打開請執行

systemctl enable telnet.socket 加入開機啟動

啟動telnet 服務 systemctl start telnet.socket  注意7這邊是telnet.socket,和6不一樣

如果打了以下的命令,就會出現模塊不存在的報錯,因為命令打錯了,telnet少了socket這個後綴

[root@localhost ~]#systemctl start telnet

Failed to start telnet.service: Unit not found.

3 一鍵安裝腳本如下

​將yum源配置好,且可用的前提下,可以直接運行以下腳本,實現一鍵安裝和啟用服務的功能

rpm -q xinetd &>/dev/null || yum -y install xinetd &>/dev/null

rpm -q telnet &>/dev/null || yum -y install telnet &>/dev/null

rpm -q telnet-server &>/dev/null ||  yum -y install telnet-server &>/dev/null

iptables -I INPUT -p tcp --dport 23 -jACCEPT

iptables -I INPUT -p udp --dport 23 -jACCEPT

os_version=`cat /etc/system-release | grep -o " [0-9]"| cut -d " " -f2`

grep_port (){

read -p "please input which port you want check: " port

if  netstat -nutlp | grep ":$port " &>/dev/null;then

echo "Telnet service is open now,the host can be telnet now"

else

echo "Telnet port $port is not open,please check"

fi

};

case $os_version in

6)

chkconfig xinetd on;

chkconfig telnet on;

service xinetd restart;

grep_port

;;

7)

systemctl enable telnet.socket;

systemctl start telnet.socket;

systemctl enable xinetd;

systemctl restart xinetd;

grep_port

;;

*)

echo "Please check your system version,it not 6 or 7"

exit

;;

esac

4 附錄

本文的編寫,參考以下兩個鏈接。如需更詳細信息,建議查看以下兩個文章

http://www.linuxdiyf.com/viewarticle.php?id=422702

https://yq.aliyun.com/articles/58310

④ workerman有什麼用



Workerman是一款純PHP開發的開源高性能的PHP socket 服務框架。 (推薦學習: workerman教程)
Workerman不是重復造輪子,它不是一個MVC框架,而是一個更底層更通用的socket服務框架,你可以用它開發tcp代理、梯子代理、做游戲伺服器、郵件伺服器、ftp伺服器、甚至開發一個php版本的redis、php版本的資料庫、php版本的nginx、php版本的php-fpm等等。
Workerman可以說是PHP領域的一次創新,讓開發者徹底擺脫了PHP只能做WEB的束縛。
實際上Workerman類似一個PHP版本的nginx,核心也是多進程+Epoll+非阻塞IO。
Workerman每個進程能維持上萬並發連接。由於本身常住內存,不依賴Apache、nginx、php-fpm這些容器,擁有超高的性能。
同時支持TCP、UDP、UNIXSOCKET,支持長連接,支持Websocket、HTTP、WSS、HTTPS等通訊協以及各種自定義協議。擁有定時器、非同步socket客戶端、非同步Mysql、非同步Redis、非同步Http、非同步消息隊列等眾多高性能組件。
Workerman的一些應用方向如下:
1、即時通訊類 例如網頁即時聊天、即時消息推送、微信小程序、手機app消息推送、PC軟體消息推送等等 [示例 workerman-chat聊天室 、 web消息推送 、 小蝌蚪聊天室]
2、物聯網類 例如Workerman與列印機通訊、與單片機通訊、智能手環、智能家居、共享單車等等。 [客戶案例如 易聯雲、易泊時代等]
3、游戲伺服器類 例如棋牌游戲、MMORPG游戲等等。[示例 browserquest-php]
4、SOA服務化 利用Workerman將現有業務不同功能單元封裝起來,以服務的形式對外提供統一的介面,達到系統松耦合、易維護、高可用、易伸縮。[示例 workerman-json-rpc、 workerman-thrift]
5、其它伺服器軟體 例如 GatewayWorker,PHPSocket.IO,http代理,sock5代理,分布式通訊組件,分布式變數共享組件,消息隊列、DNS伺服器、WebServer、CDN伺服器、FTP伺服器等等
6、中間件 例如非同步MySQL組件,非同步redis組件,非同步http組件,非同步消息隊列組件,非同步dns組件,文件監控組件,還有很多第三方開發的組件框架等等

⑤ Linux系統下wget命令的使用教程

一、Linux wget簡介

wget是linux上的命令行的下載工具。這是一個GPL許可證下的自由軟體。Linux wget支持HTTP和FTP協議,支持代理伺服器和斷點續傳功能,能夠自動遞歸遠程主機的目錄,找到合乎條件的文件並將其下載到本地硬碟上;如果必要,Linux wget將恰當地轉換頁面中的超級連接以在本地生成可瀏覽的鏡像。由於沒有互動式界面,Linux wget可在後台運行,截獲並忽略HANGUP信號,因此在用戶推出登錄以後,仍可繼續運行。通常,Linux wget用於成批量地下載Internet網站上的文件,或製作遠程網站的鏡像。

二、實例

下載下載192.168.1.168首頁並且顯示下載信息Linux wget -d http://192.168.1.168下載192.168.1.168首頁並且不顯示任何信息wget -q http://192.168.1.168下載filelist.txt中所包含的鏈接的所有文件wget -i filelist.txt

下載到指定目錄wget -P/tmp ftp://user:passwd@url/file把文件file下載到/tmp目錄下。Linux wget是一個命令行的下載工具。對於我們這些 Linux 用戶來說,幾乎每天都在使用它。下面為大家介紹幾個有用的 Linux wget 小技巧,可以讓你更加高效而靈活的使用 Linux wget。

*

復制代碼代碼如下:$ wget -r -np -nd http://example.com/packages/這條命令可以下載 http://example.com 網站上 packages 目錄中的所有文件。其中,-np 的作用是不遍歷父目錄,-nd 表示不在本機重新創建目錄結構。

*

復制代碼代碼如下:$ wget -r -np -nd --accept=iso http://example.com/centos-5/i386/與上一條命令相似,但多加了一個 --accept=iso 選項,這指示Linux wget僅下載 i386 目錄中所有擴展名為 iso 的文件。你也可以指定多個擴展名,只需用逗號分隔即可。

*

復制代碼代碼如下:$ wget -i filename.txt此命令常用於批量下載的情形,把所有需要下載文件的地址放到 filename.txt 中,然後 Linux wget就會自動為你下載所有文件了。

*

復制代碼代碼如下:$ wget -c http://example.com/really-big-file.iso這里所指定的 -c 選項的作用為斷點續傳。

*

復制代碼代碼如下:$ wget -m -k (-H) http://www.example.com/該命令可用來鏡像一個網站,Linux wget將對鏈接進行轉換。如果網站中的圖像是放在另外的站點,那麼可以使用 -H 選項。

三、參數

代碼:

復制代碼代碼如下:$ wget --helpGNU Wget 1.9.1,非互動式的網路文件下載工具。用法:Linux wget[選項]... [URL]...長選項必須用的參數在使用短選項時也是必須的。

啟動:

-V, --version 顯示 Wget 的版本並且退出。
-h, --help 列印此幫助。
-b, -background 啟動後進入後台操作。
-e, -execute=COMMAND 運行『.wgetrc』形式的命令。
日誌記錄及輸入文件:

-o, --output-file=文件 將日誌消息寫入到指定文件中。
-a, --append-output=文件 將日誌消息追加到指定文件的末端。
-d, --debug 列印調試輸出。
-q, --quiet 安靜模式(不輸出信息)。
-v, --verbose 詳細輸出模式(默認)。
-nv, --non-verbose 關閉詳細輸出模式,但不進入安靜模式。
-i, --input-file=文件 下載從指定文件中找到的 URL。
-F, --force-html 以 HTML 方式處理輸入文件。
-B, --base=URL 使用 -F -i 文件選項時,在相對鏈接前添加指定的 URL。
下載:

-t, --tries=次數 配置重試次數(0 表示無限)。
--retry-connrefused 即使拒絕連接也重試。
-O --output-document=文件 將數據寫入此文件中。
-nc, --no-clobber 不更改已經存在的文件,也不使用在文件名後添加 .#(# 為數字)的方法寫入新的文件。
-c, --continue 繼續接收已下載了一部分的文件。
--progress=方式 選擇下載進度的表示方式。
-N, --timestamping 除非遠程文件較新,否則不再取回。
-S, --server-response 顯示伺服器回應消息。
--spider 不下載任何數據。
-T, --timeout=秒數 配置讀取數據的超時時間 (秒數)。
-w, --wait=秒數 接收不同文件之間等待的秒數。
--waitretry=秒數 在每次重試之間稍等一段時間 (由 1 秒至指定的 秒數不等)。
--random-wait 接收不同文件之間稍等一段時間(由 0 秒至 2*WAIT 秒不等)。
-Y, --proxy=on/off 打開或關閉代理伺服器。
-Q, --quota=大小 配置接收數據的限額大小。
--bind-address=地址 使用本機的指定地址 (主機名稱或 IP) 進行連接。
--limit-rate=速率 限制下載的速率。
--dns-cache=off 禁止查找存於高速緩存中的 DNS。
--restrict-file-names=OS 限制文件名中的字元為指定的 OS (操作系統) 所允許的字元。
目錄:

-nd --no-directories 不創建目錄。
-x, --force-directories 強制創建目錄。
-nH, --no-host-directories 不創建含有遠程主機名稱的目錄。
-P, --directory-prefix=名稱 保存文件前先創建指定名稱的目錄。
--cut-dirs=數目 忽略遠程目錄中指定數目的目錄層。
HTTP 選項:

--http-user=用戶 配置 http 用戶名。
--http-passwd=密碼 配置 http 用戶密碼。
-C, --cache=on/off (不)使用伺服器中的高速緩存中的數據 (默認是使用的)。
-E, --html-extension 將所有 MIME 類型為 text/html 的文件都加上 .html 擴展文件名。
--ignore-length 忽略「Content-Length」文件頭欄位。
--header=字元串 在文件頭中添加指定字元串。
--proxy-user=用戶 配置代理伺服器用戶名。
--proxy-passwd=密碼 配置代理伺服器用戶密碼。
--referer=URL 在 HTTP 請求中包含「Referer:URL」頭。
-s, --save-headers 將 HTTP 頭存入文件。
-U, --user-agent=AGENT 標志為 AGENT 而不是 Wget/VERSION。
--no-http-keep-alive 禁用 HTTP keep-alive(持久性連接)。
--cookies=off 禁用 cookie。
--load-cookies=文件 會話開始前由指定文件載入 cookie。
--save-cookies=文件 會話結束後將 cookie 保存至指定文件。
--post-data=字元串 使用 POST 方法,發送指定字元串。
--post-file=文件 使用 POST 方法,發送指定文件中的內容。
HTTPS (SSL) 選項:

--sslcertfile=文件 可選的客戶段端證書。
--sslcertkey=密鑰文件 對此證書可選的「密鑰文件」。
--egd-file=文件 EGD socket 文件名。
--sslcadir=目錄 CA 散列表所在的目錄。
--sslcafile=文件 包含 CA 的文件。
--sslcerttype=0/1 Client-Cert 類型 0=PEM (默認) / 1=ASN1 (DER)
--sslcheckcert=0/1 根據提供的 CA 檢查伺服器的證書
--sslprotocol=0-3 選擇 SSL 協議;0=自動選擇,
1=SSLv2 2=SSLv3 3=TLSv1
FTP 選項:

-nr, --dont-remove-listing 不刪除「.listing」文件。
-g, --glob=on/off 設置是否展開有通配符的文件名。
--passive-ftp 使用「被動」傳輸模式。
--retr-symlinks 在遞歸模式中,下載鏈接所指示的文件(連至目錄則例外)。
遞歸下載:

-r, --recursive 遞歸下載。
-l, --level=數字 最大遞歸深度(inf 或 0 表示無限)。
--delete-after 刪除下載後的文件。
-k, --convert-links 將絕對鏈接轉換為相對鏈接。
-K, --backup-converted 轉換文件 X 前先將其備份為 X.orig。
-m, --mirror 等效於 -r -N -l inf -nr 的選項。
-p, --page-requisites 下載所有顯示完整網頁所需的文件,例如圖像。
--strict-comments 打開對 HTML 備注的嚴格(SGML)處理選項。
遞歸下載時有關接受/拒絕的選項:

-A, --accept=列表 接受的文件樣式列表,以逗號分隔。
-R, --reject=列表 排除的文件樣式列表,以逗號分隔。
-D, --domains=列表 接受的域列表,以逗號分隔。
--exclude-domains=列表 排除的域列表,以逗號分隔。
--follow-ftp 跟隨 HTML 文件中的 FTP 鏈接。
--follow-tags=列表 要跟隨的 HTML 標記,以逗號分隔。
-G, --ignore-tags=列表 要忽略的 HTML 標記,以逗號分隔。
-H, --span-hosts 遞歸時可進入其它主機。
-L, --relative 只跟隨相對鏈接。
-I, --include-directories=列表 要下載的目錄列表。
-X, --exclude-directories=列表 要排除的目錄列表。
-np, --no-parent 不搜索上層目錄。

四、實例:用Wget批量下載遠程FTP伺服器上的文件
昨天買了個VPS,把虛擬主機遷移到VPS了,遷移過程肯定是要轉移數據的。以前虛擬主機遷移數據的模式是非常低效率的,舊主機打包下載->新主機上傳再解壓縮,由於家庭網路帶寬非常低,而且ADSL的上行速率512kbps萬年不變,導致以前遷移網站絕對是體力活...

現在有了VPS,有了shell,這個過程就無比簡單了,藉助機房的大帶寬,直接機房對機房互傳文件看著簡直就是一種享受啊

好了,講一下方法:

1、舊虛擬主機打包備份整站 site.tar.gz

2、在VPS的shell中利用wget下載舊虛擬主機中的site.tar.gz,使用FTP協議

復制代碼代碼如下:
wget --ftp-user=username --ftp-password=password -m -nh ftp://xxx.xxx.xxx.xxx/xxx/xxx/site.tar.gz
wget --ftp-user=username --ftp-password=password -r -m -nh ftp://xxx.xxx.xxx.xxx/xxx/xxx/*

上面就是命令了,FTP用戶名密碼參數不解釋;

-r 可選,表示遞歸下載,如果直接下載整個目錄就需要該參數;

-m 表示鏡像,不解釋;

-nh表示不生成那一堆層級目錄,直接從當前目錄開始顯示,非常好的參數;

後面是ftp的地址,斜杠後的 * 表示下載該目錄下的所有文件,如果只是一個文件,直接輸入文件名即可。

五、Q&A

A.使用wget工具linux所以的主要版本都自帶了Linux wget這個下載工具.bash$ wget http://place.your.url/here它還能控制ftp來下載整個web站點的各級目錄,當然,如果你不小心,可能會把整個網站以及其他和他做鏈接的網站全部下載下來.bash$ wget -m http://target.web.site/subdirectory由於這個工具具有很強的下載能力,所以可以在伺服器上把它用作鏡像網站的工具.讓它按照」robots.txt」的規定來執行.有很多參數用來控制它如何正確地做鏡像,可以限制鏈接的類型和下載文件的類型等等.例如:只下載有聯系的鏈接並且忽略GIF圖片:

復制代碼代碼如下:bash$ wget -m -L –reject=gif http://target.web.site/subdirectory

Linux wget也能夠實現斷點續傳(-c參數),當然,這種操作是需要遠程伺服器支持的.

復制代碼代碼如下:bash$ wget -c http://the.url.of/incomplete/file可以把斷點續傳和鏡像功能結合起來,這樣可以在以前斷過多次的情況下繼續鏡像一個有大量選擇性文件的站點.如何自動實現這個目的我們在後面會討論得更多.

如果你覺得下載時老是斷線會影響你辦公的話,你可以限制Linux wget重試的次數.

復制代碼代碼如下:bash$ wget -t 5 http://place.your.url/here這樣重試五次後就放棄了.用」-t inf」參數表示永遠不放棄.不停地重試.

B.那對於代理服務該怎麼辦呢?可以使用http代理的參數或者在.wgetrc配置文件里指定一個如何通過代理去下載的途徑.但是有這么一個問題,如果通過代理來進行斷點續傳的話可能會有幾次失敗.如果有一次通過代理下載的過程發生中斷,那麼代理伺服器上緩存里保存是那個完整的文件拷貝. 所以當你用」wget -c」來下載剩餘部分的時候代理伺服器查看它的緩存,並錯誤地認為你已經下載了整個文件.於是就發出了錯誤的信號.這個時候你可以用添加一個特定的請求參數來促使代理伺服器清除他們的緩存:

復制代碼代碼如下:bash$ wget -c –header=」Pragma: no-cache」 http://place.your.url/here

這個」–header」參數能夠以各種數字,各種方式添加。通過它我們可以更改web伺服器或者代理伺服器的某些屬性。有些站點不提供外部連接的文件服務,只有通過同一個站點上其他的一些頁面時內容才會被提交。這個時候你可以用加上」Referer:」參數:bash$ wget –header=」Referer: http://coming.from.this/page」 http://surfing.to.this/page有些特殊的網站只支持某種特定的瀏覽器,這個時候可以用」User-Agent:」參數

復制代碼代碼如下:bash$ wget –header=」User-Agent: Mozilla/4.0 (compatible; MSIE 5.0;Windows NT; DigExt)」 http://msie.only.url/here

C.那我怎麼設定下載時間呢?
如果你需要在你的辦公電腦上通過和其他同事共享的一個連接來下載一些很大的文件,而且你希望你的同事不會因為網路速度的減慢而收到影響,那你就應該盡量避開高峰時段。當然,不需要在辦公室里等到所以人都走掉,也不需要在家裡用完晚飯後還惦記著要上網下載一次。用at來就可以很好的定製工作時間:bash$ at 23:00warning: commands will be executed using /bin/shat> wget http://place.your.url/hereat> press Ctrl-D這樣,我們設定了下載工作在晚上11點進行。為了使這個安排能夠正常進行,請確認atd這個後台程序正在運行。

D.下載要花很多時間?
當你需要下載大量的數據,而且你又沒有享有足夠的帶寬,這個時候你會經常發現在你安排的下載任務還沒有完成,一天的工作卻又要開始了。
作為一個好同事,你只能停掉了這些任務,而開始另外的工作。然後你又需要反復地重復使用」wget -c」來完成你的下載。這樣肯定太繁瑣了,所以最好是用crontab來自動執行。創建一個純文本文件,叫做」crontab.txt」,包含下面的內容:0 23 * * 1-5 wget -c -N http://place.your.url/here0 6 * * 1-5 killall wgetz這個crontab文件指定某些任務定期地執行。前五列聲明是什麼時候執行這個命令,而每行的剩餘部分則告訴crontab執行什麼內容。

前兩列指定了每天一到晚上11點就開始用Linux wget下載,一到早上6點就停止一切Linux wget下載。第三四列的*表示每個月的每一天都執行這個任務。第五列則指定了一個星期的哪幾天來執行這個程序。 –」1-5″表示從星期一到星期五。這樣在每個工作日的晚上11點,下載工作開始,到了上午的6點,任何的Linux wget任務就被停掉了。你可以用下面的命令來執行

復制代碼代碼如下:crontab:bash$ crontab crontab.txt

Linux wget的這個」-N」參數將會檢查目標文件的時間戳,如果匹配了,下載程序就會停止,因為它說明整個文件已經下載完全了。用」crontab -r」可以刪除這個計劃安排。我已經多次採用這種方法,通過共享的電話撥號來下載過很多的ISO鏡像文件,還是比較實用的。

E.如何下載動態變化的網頁
有些網頁每天都要根據要求變化好幾次.所以從技術上講,目標不再是一個文件,它沒有文件長度.因此」-c」這個參數也就失去了意義.例如:一個PHP寫的並且經常變動的linux周末新聞網頁:

復制代碼代碼如下:bash$ wget http://lwn.net/bigpage.php3

我辦公室里的網路條件經常很差,給我的下載帶了很大的麻煩,所以我寫了個簡單的腳本來檢測動態頁面是否已經完全更新了.

復制代碼代碼如下:
#!/bin/bash
#create it if absent
touch bigpage.php3
#check if we got the whole thing
while ! grep -qi bigpage.php3
do
rm -f bigpage.php3
#download LWN in one big page
wget http://lwn.net/bigpage.php3
done
這個腳本能夠保證持續的下載該網頁,直到網頁裡面出現了" ",這就表示該文件已經完全更新了.

F.對於ssl和Cookies怎麼辦?
如果你要通過ssl來上網,那麼網站地址應該是以」https://」來開頭的.在這樣的情況下你就需要另外一種下載工具,叫做curl,它能夠很容易獲得.有些網站迫使網友在瀏覽的時候必須使用cookie.所以你必須從在網站上得到的那個 Cookie裡面得到」Cookie:」這個參數.這樣才能保證下載的參數正確.對於lynx和Mozilla的Cookie的文件格式,用下面的:

復制代碼代碼如下:bash$ cookie=$( grep nytimes ~/.lynx_cookies |awk {printf(」%s=%s;」,$6,$7)} )就可以構造一個請求Cookie來下載http://www.nytimes.com上的內容.當然,你要已經用這個瀏覽器在該網站上完成注冊.w3m使用了一種不同的,更小巧的Cookie文件格式:
復制代碼代碼如下:bash$ cookie=$( grep nytimes ~/.w3m/cookie |awk {printf(」%s=%s;」,$2,$3)} )
現在就可以用這種方法來下載了:
復制代碼代碼如下:bash$ wget –header=」Cookie: $cookie」 http://www.nytimes.com/reuters/technology/tech-tech-supercomput.html
或者用curl工具:
復制代碼代碼如下:bash$ curl -v -b $cookie -o supercomp.html http://www.nytimes.com/reuters/technology/tech-tech-supercomput.htm

G.如何建立地址列表?
到現在為止我們下載的都是單個文件或者是整個網站.有的時候我們需要下載某個網頁上鏈接的大量文件,但沒有必要把它整個網站都鏡像下來.比如說我們想從一個依次排列的100首歌裡面下載前20首.注意,這里」–accept」和」–reject」參數是不會起作用的, 因為他們只對文件操作起作用.所以一定要用」lynx -mp」參數來代替.

復制代碼代碼如下:bash$ lynx -mp ftp://ftp.ssc.com/pub/lg/ |grep gz$ |tail -10 |awk {print $2} > urllist.txt
lynx的輸出結果可以被各種GNU文本處理工具過慮.在上面的例子里,我們的鏈接地址是以」gz」結尾的,並且把最後10個文件地址放到urllist.txt文件里.然後我們可以寫一個簡單的bash腳本來自動下載這個文件里的目標文件:

復制代碼代碼如下:
bash$ for x in $(cat urllist.txt)
> do
> wget $x
> done
這樣我們就能夠成功下載Linux Gazette網站(ftp://ftp.ssc.com/pub/lg/)上的最新10個論題.

H.擴大使用的帶寬
如果你選擇下載一個受帶寬限制的文件,那你的下載會因為伺服器端的限制而變得很慢.下面這個技巧會大大縮短下載的過程.但這個技巧需要你使用curl並且遠程伺服器有多個鏡像可以供你下載.例如,假設你想從下面的三個地址下載Mandrake 8.0:

復制代碼代碼如下:
url1=http://ftp.eecs.umich.e/pub/linux/mandrake/iso/Mandrake80-inst.iso
url2=http://ftp.rpmfind.net/linux/Mandrake/iso/Mandrake80-inst.iso
url3=http://ftp.wayne.e/linux/mandrake/iso/Mandrake80-inst.iso
這個文件的長度是677281792個位元組,所以用curl程序加」–range」參數來建立三個同時進行的下載:

復制代碼代碼如下:
bash$ curl -r 0-199999999 -o mdk-iso.part1 $url1 &
bash$ curl -r 200000000-399999999 -o mdk-iso.part2 $url2 &
bash$ curl -r 400000000- -o mdk-iso.part3 $url3 &
這樣就創建了三個後台進程.每個進程從不同的伺服器傳輸這個ISO文件的不同部分.這個」-r」參數指定目標文件的位元組范圍.當這三個
進程結束後,用一個簡單的cat命令來把這三個文件銜接起來– cat mdk-iso.part? > mdk-80.iso.(強烈建議在刻盤之前先檢查md5)
你也可以用」–verbose」參數來使每個curl進程都有自己的窗口來顯示傳輸的過程.
閱讀全文

與phpsockethttps相關的資料

熱點內容
圖形化編程萬花尺圖解 瀏覽:792
at命令手冊 瀏覽:611
如何增加安卓系統功能 瀏覽:68
命令方塊顯示字幕指令顏色 瀏覽:941
圖片加密記事本 瀏覽:243
編譯kernel設置時間 瀏覽:793
安卓中art是什麼 瀏覽:744
鋼桶活塞式壓縮機 瀏覽:42
程序員的未來前景薪資 瀏覽:425
首飾繪pdf 瀏覽:595
dhcp伺服器ip地址沖突嗎 瀏覽:625
c盤無法加密驅動器 瀏覽:680
java關鍵字native 瀏覽:491
php常量輸出 瀏覽:987
ftp站點搭建php 瀏覽:186
怎麼找到編譯器路徑 瀏覽:924
耐力壓縮機電路問題 瀏覽:777
精通CCJava 瀏覽:579
python神書演算法解析 瀏覽:750
廣告屏安卓系統如何返回 瀏覽:64