① 如何抓取某个网页上的目录下的所有数据
用火车头采集器(www.locoy.com)之类的采集工具就可以,采集页面,自动下载图片。(但使用要求懂点html、js和正则表达式)先分析列表页,取得所有书的内容页,再从内容页中获取需要的每一个内容,图片、价格、作者什么的。这是个标准的采集流程。火车头免费版采集的内容是采到access里的
② 怎么下载一个网站目录下的所有文件
你可以选择网际快车,里边有个资源探索器。。。输入网站地址直接回车就能看到目录了
不敢保证百分百都能看,我原来用过
③ 请教怎样获取一个网站的根目录下目录树(或者文件夹/文件结构)
能否支持查看目录树,必须需要web服务器的支持的。
一般IIS默认情况下是不支持目录树的。
下列图片中的“目录浏览”选项就是决定是否支持目录树的。所以你在不支持目录树的网站上是看不了的
④ php获取网站根目录有几种方法
方法1:
在global.inc 里定义根目录
define("APP_ROOT",dirname(__FILE__));
在任何PHP文件中可以引用该常量
require_once(APP_ROOT."/inc/head.php");
方法2:
<?php
$PHP_SELF=$_SERVER['PHP_SELF'] ? $_SERVER['PHP_SELF'] : $_SERVER['SCRIPT_NAME'];
$url='http://'.$_SERVER['HTTP_HOST'].substr($PHP_SELF,0,strrpos($PHP_SELF, '/')+1);
echo $url;
方法3:
$basepath=$_SERVER['PHP_SELF'];
$basepath=substr($basepath,0,strpos($basepath,"文件夹名称"));
echo $basepath;
如:你把文件保存为a.php并路径为:/wjj/wjj1/wjj2/a.php
上面的例子就写成:
$basepath=$_SERVER['PHP_SELF'];
$basepath=substr($basepath,0,strpos($basepath,"wjj1"));
echo $basepath;
方法4:
$basepath=$_SERVER['PHP_SELF'];
preg_match("/(\/)?([^\/]+)/",$basepath,$wjm);
echo $wjm[0];
⑤ 怎么获取网站的绝对路径
比如你的网站在C盘下的WEB目录
绝对路径就是C:/WEB/index.html
相对路径就是网站根目录的路径 比如你的网站目录是WEB 里面有一个叫A的文件夹
相对路径就是/A/*.jpg
⑥ 如何搜索网站所有目录下的文件
命令提示符程序
using System;
using System.Collections.Generic;
using System.Text;
using System.IO;
using System.Collections;
namespace ConsoleApplication1
{
class Program
{
static void Main(string[] args)
{
Console.WriteLine("请输入搜索目录:");
string searchFolder = Console.ReadLine();
Console.WriteLine("请输入复制的目标目录:");
string toFolder = Console.ReadLine();
Console.WriteLine("请输入复制的文件类型:");
string fileType = Console.ReadLine();
CopyAllFiles(searchFolder, toFolder, fileType);
Console.Read();
}
static void CopyAllFiles(string fpath, string tpath, string filetype)
{
if (Directory.Exists(fpath))
{
foreach (string f in Directory.GetFiles(fpath, "*." + filetype))
{
string filename = Path.GetFileName(f);
Console.WriteLine(",", f, filename);
File.Copy(f, Path.Combine(tpath, filename), true);
}
foreach (string f in Directory.GetDirectories(fpath))
{
CopyAllFiles(f, tpath, filetype);
}
}
}
}
}
⑦ 如何获取一个网站文件夹里的所有文件(大牛进)
可以很负责的告诉你,除了那些静态的东西,比如图片,flash,静态页面等可以被下载之外,其它的都无法下载 补充: 如果要通过HTTP协议下载,那你必须要知道完整的路径,如果你有ftp账号密码,直接用 ftp工具 去下载 追问: 那个文件夹里都是flash 我只知道那个文件夹的地址. 里面有一千多个文件(文件名只能一个个的查看到, 不能一下子全部知道). 没办 法下载 吗? 回答: 是的,那就没办法了,除非他 服务器 本身提供了允许浏览文件夹,一般这个都关闭的 追问: 这么说只能一个一个的下载了... 回答: 那是 追问: 我会找到办法的.
⑧ 如何批量抓取网页目录下的所有文件
1、首先,如图所示,我们找到目标文件夹,我们需要把文件夹内的所有文件的文件名批量复制。
⑨ 获取一个网站的根目录下目录树,网络爬虫是否可以办到 高分求助!
理论可以实现的,像webzip不就是按类似的方式实现的么.
基本思路是抓取页面全部链接\图片\媒体\css等各种文件信息,然后根据路径就能够分析出基本目录结构了,不过得到的信息一般都不会有直接浏览目录的全