如何屏蔽搜索引擎?

如何屏蔽搜索引擎?我不想让他们收录我的网站
但我也不想给网站上放robots.txt此类用户可以看到的东西

有没有什么办法?我试下了封网络蜘蛛的IP,不过好像没什么效果?
meta name="Robots"这类标记和robots.txt都不要

除这两个外什么可以以

或都通过ASP程序实现

我们在做网站时,有些目录或者文件不希望搜索引擎蜘蛛搜索到,比如后台,重要页面或文件。那么我们这时该怎么办呢?最简单的方法是修改robots.txt文件和网页中的robots Meta标签。
robots.txt文件是做什么的,robots文件又称robots协议(也称为爬虫协议、爬虫规则、机器人协议等)robots协议是告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议不是命令,它只是一个网站国际互联网界通行的道德规范,知名的引擎蜘蛛都会遵守这个协议,只有一些缺乏职业道德的搜索引擎会绕开它。所以修改这个协议也不是万能保险的。
robots.txt文件是一个放置在网站根目录下的记事本文件,当搜索蜘蛛访问网站时,它会先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
robots文件屏蔽的写法
下面是一个网站的robots文件的代码样式。
===================================================================================
User-agent: *
Disallow: /plus/ad_js.php
Disallow: /plus/advancedsearch.php
Disallow: /plus/car.php
Disallow: /plus/carbuyaction.php
Disallow: /plus/shops_buyaction.php
Disallow: /plus/erraddsave.php
Disallow: /plus/posttocar.php
Disallow: /plus/disdls.php
Disallow: /plus/feedback_js.php
Disallow: /plus/mytag_js.php
Disallow: /plus/rss.php
Disallow: /plus/search.php
Disallow: /plus/recommend.php
Disallow: /plus/stow.php
Disallow: /plus/count.php
Disallow: /include
Disallow: /templets
===================================================================================

我们来看一下它的意思。
robots文件中应同时包含2个域,“User-agent:”和“Disallow:”,其中User-agent:代表允许、 Disallow: 代表禁止。每条指令独立一行。并且User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。
User-agent:
User-agent:指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如:
User-agent: Googlebot
只允许Google的蜘蛛抓取。
User-agent: baiduspider
只允许百度的蜘蛛抓取。
User-agent: *
这个是指允许所有蜘蛛抓取,*为通配符,代表所有。
Disallow:
这个是表示禁止蜘蛛抓取的,以上面的robots文件为例。
Disallow: /plus/ad_js.php
这个是指禁止引擎蜘蛛抓取网站中plus目录中的ad_js.php文件
Disallow: /include
这个是指禁止引擎蜘蛛抓取网站中include整个目录,它和Disallow: /include/不是等同的。
Disallow: /include/
这个是指禁止引擎蜘蛛抓取网站中include目录下面的目录,但include目录中的文件蜘蛛仍然可以抓取。
Disallow: /cgi-bin/*.htm
禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
Disallow: /*?*
禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$
禁止抓取网页所有的.jpg格式的图片
Allow:
这是允许的意思。
Allow: /include/ 
这里是允许爬寻include目录下面的目录
Allow: /include
这里是允许爬寻include整个目录
Allow: .htm$
仅允许访问以".htm"为后缀的URL。
Allow: .gif$
允许抓取网页和gif格式图片
Sitemap:
网站地图 告诉爬虫这个页面是网站地图
robot文件的常见用法
例1. 禁止所有搜索引擎访问整个网站。
User-agent: *
Disallow: /
例2.禁止百度蜘蛛访问整个网站。
User-agent: baiduspider
Disallow: /
例3.允许所有搜索引擎访问(也可以建立一个空robots.txt文件或者不建立robots文件)
User-agent: *
Allow: /
User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
robots Meta标签屏蔽法
robots.txt是放在网站中,文件级的网络蜘蛛授权;而robots Meta标签是放在网页中,一般用于部分网页需要单独设置的情况下。两者的功能是一样的。
Meta robots标签必须放在<head>和</head>之间,格式:
<meta name=”robots” content=”index,follow” />
content中的值决定允许抓取的类型,必须同时包含两个值:是否允许索引(index)和是否跟踪链接(follow,也可以理解为是否允许沿着网页中的超级链接继续抓取)。共有4个参数可选,组成4个组合:
index,follow:允许抓取本页,允许跟踪链接。
index,nofollow:允许抓取本页,但禁止跟踪链接。
noindex,follow:禁止抓取本页,但允许跟踪链接。
noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接。
以上1和4还有另一种写法:
index,follow可以写成all,如:
<meta name=”robots” content=”all” />
noindex,nofollow可以写成none,如:
<meta name=”robots” content=”none” />
需要注意的是,robots Meta标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取。所以,尽可能的使用robots.txt文件来限制抓取。
温馨提示:答案为网友推荐,仅供参考
第1个回答  推荐于2017-11-27
楼主你好,我理解你的意思,你可以在头文件中加上屏蔽搜索引擎的信息。

你在网页头文件中加入下面一行就可以屏蔽搜索引擎了!

<meta name="Robots" content="noindex,nofollow”>

这样就行了,希望对你有帮助!

要注意的是:Robots META标签限制搜索引擎机器人(ROBOTS)抓取站点内容的办法只是一种规则,需要搜索引擎机器人的配合才行,并不是每个ROBOTS都遵守的。
目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以 限制GOOGLE是否保留网页快照。
例如:<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>

祝你天天开心,工作顺利,家庭幸福!本回答被提问者采纳
第2个回答  2009-04-10
搜索引擎的网络爬虫 相当于用机器模拟了用户访问网络资源 他遵守一定的约定 但除去以上两种方法外 不会有其他方法 如果能骗过爬虫 同样也就意味着用户不能正常访问!
第3个回答  2020-12-22

如何屏蔽网页上的广告,别一直以为第一个就是正确的网站了,搜索第一个都是广告!!

第4个回答  2009-04-12
怎样让搜索引擎快速收录?
相似回答