佛山E网工作室
www.gdasp.com
专业网站建设和推广 信心保证
热线电话:0757-6331 5297,158 1783 3537
琛屼笟璧勮 - 浣涘北E缃

琛屼笟璧勮

浜嗚В鏈鏂扮殑琛屼笟璧勮鍜岀綉缁滆惀閿鐭ヨ瘑

鏂伴椈鍒楄〃

绗 1 椤碉紝鍏 46 椤

鍒嗙被 鏍囬 鍙戝竷鏃ユ湡
SEO浼樺寲 骞翠腑浼樻儬锛屾満涓嶅彲澶憋細鏍囧噯鍨嬪椁(浜у搧灞曠ず鍨) 1800鍏冿紝0鍏冨欢闀夸竴骞寸綉绔 2012-12-28
缃戠珯寤鸿 鎵嬫満缃戦〉璁捐鎸囧崡 2012-12-28
缃戠粶鎺ㄥ箍 浣涘北姘哥綉锛圗缃戝伐浣滃锛2013骞存槬鑺備紤鍋囬氱煡 2012-12-28
鍩熷悕绌洪棿 鐧惧害鏀舵定4.83% 鑲′环鍐嶄笂100缇庡厓 杩戞湡娉㈠姩杈冨ぇ 2012-12-28
寤虹珯妗堜緥 Facebook闄峰叆鎶勮椋庢尝 绀句氦娓告垙鎴愭妱琚噸鐏惧尯 2012-12-28
SEO浼樺寲 浜笢鍟嗗煄闄峰叆璋冩暣婕╂丁 CMO钃濈儴鎺ョ寮鏀惧钩鍙 2012-12-28
缃戠珯寤鸿 鍞搧浼氬懆鍥涜穼5.32% 鎶ユ敹16.9缇庡厓 2012-12-28
缃戠粶鎺ㄥ箍 缇庡浗鐢靛晢娑堣垂鑰呮弧鎰忓害璋冩煡缁撴灉鍑虹倝锛氫簹椹婄涓 2012-12-28
鍩熷悕绌洪棿 骞村簳鐢靛晢涔辫薄锛氶樋閲2015骞翠笂甯 浜笢闄风鑱屾疆 2012-12-28
寤虹珯妗堜緥 浼犫滃紑蹇冨啘鍦衡濆紑鍙戝洟闃熲滀簲鍒嗛挓鈥濇槑骞1鏈堝叧闂 2012-12-28
SEO浼樺寲 鏉ㄥ厓搴嗗噺鎸2900涓囪仈鎯抽泦鍥㈣偂浠 濂楃幇2浜挎腐甯 2012-12-28
缃戠珯寤鸿 寮犺繎涓滃洖搴旇嫃瀹佹棤鐢靛晢鍩哄洜锛氫笉鏄細鍙戝嚑鏉″井鍗氬氨鏈 2012-12-28
缃戠粶鎺ㄥ箍 鏂版氮璋冩暣鏋舵瀯鍒掑垎闂ㄦ埛鍙婂井鍗氫袱澶т笟鍔 鏉滅孩璐熻矗闂ㄦ埛 2013-02-06
鍩熷悕绌洪棿 鏇瑰浗浼熼偖浠舵洕鍏夋柊娴2013骞存牳蹇冩垬鐣ワ細绉诲姩涓哄厛 2013-06-20
寤虹珯妗堜緥 浜哄ぇ甯稿浼氫粖鏃ヨ〃鍐冲姞寮虹綉缁滀俊鎭繚鎶ょ殑鍐冲畾 2013-07-16
SEO浼樺寲 鍒嗘瀽绉版柊娴井鍗氭垨灏嗚笍涓婂皝闂箣璺 2012-07-25
缃戠珯寤鸿 浼犻樋閲屽反宸存垬鐣ユ姇璧勬柊娴井鍗 鍗犺偂15%-20% 2012-07-25
缃戠粶鎺ㄥ箍 鐧惧害甯傚奸娆¤秴瓒婅吘璁 浠呮浜庤胺姝屼簹椹 2012-07-25
鍩熷悕绌洪棿 CNNIC锛氫腑鍥界綉姘戣妯¤揪4.85浜 绋冲眳涓栫晫绗竴 2012-10-21
寤虹珯妗堜緥 璋锋瓕鍦板浘鍗囩骇鏂板2500涓囧骇寤虹瓚鐗 瀹樻柟绉版洿缁嗚嚧 2012-10-21
SEO浼樺寲 璋锋瓕涓嶄細鍚戠敤鎴烽忛湶鐨10浠朵簨 2012-10-21
缃戠珯寤鸿 璋锋瓕椋庢姇绗笁瀛e害瀹屾垚21椤规姇璧 2012-10-21
缃戠粶鎺ㄥ箍 澶╃尗鑱斿悎48瀹剁數鍟嗚繋鎴樷11.11鈥 澶囪揣20浜 2012-10-21
鍩熷悕绌洪棿 涓氱晫鍛煎悂瑙嗛缃戠珯鎺掕缁熶竴鏍囧噯 2012-10-21
寤虹珯妗堜緥 缃戠粶鍏徃鍦ㄥ姙鍏湴鐐瑰吇缇 鐢ㄧ儰鍏ㄧ緤瀹磋瀹㈡埛 2012-10-21
SEO浼樺寲 涓叴閫氳20浜垮厓宸ㄤ簭 缇庡浗瀹夊叏璋冩煡缁撴潫鎬濈鍚堜綔 2012-10-21
缃戠珯寤鸿 鐧惧害鎴愮珛LBS浜嬩笟閮 鎷ユ湁鍦板浘灏辨嫢鏈夌敤鎴 2012-10-21
缃戠粶鎺ㄥ箍 鏈濋矞涓囧悕绉戞妧浜烘墠鍏ュ崕锛氭湀宸ヨ祫1500鍏 60%涓婄即缁勭粐 2012-10-21
鍩熷悕绌洪棿 Twitter闃愯堪鏈潵鍙戝睍鏂瑰悜锛氬寮烘湇鍔″疄鐢ㄦ 2012-12-28
寤虹珯妗堜緥 璋锋瓕6鏈堣潐鑱斿叏缇庤闂噺绗竴瀹濆骇 2012-12-28
      最新资讯
年中优惠,机不可失:标
手机网页设计指南
佛山永网(E网工作室)
百度收涨4.83% 股
Facebook陷入抄
京东商城陷入调整漩涡
唯品会周四跌5.32%
美国电商消费者满意度调
年底电商乱象:阿里20
传“开心农场”开发团队
杨元庆减持2900万联
张近东回应苏宁无电商基
新浪调整架构划分门户及
曹国伟邮件曝光新浪20
人大常委会今日表决加强
分析称新浪微博或将踏上
传阿里巴巴战略投资新浪
百度市值首次超越腾讯
CNNIC:中国网民规
谷歌地图升级新增250
         行业资讯 >> 如何使用robots.txt
如何使用robots.txt
发布人:管理员  发布时间:2008年4月10日  浏览 2973 次
分享 |


  robots.txt 文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的 robots.txt 文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt 是一个简单有效的工具。这里简单介绍一下怎么使用它。

  如何放置 Robots.txt 文件

  robots.txt自身是一个文本文件。它必须位于域名的根目录中并 被命名为"robots.txt"。位于子目录中的 robots.txt 文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.fsasp.cn/robots.txt 是有效位置,http://www.fsasp.cn/mysite/robots.txt 则不是。

  这里举一个robots.txt的例子:

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~name/

  使用 robots.txt 文件拦截或删除整个网站

  要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

  User-agent: *
  Disallow: /

  要只从 Google 中删除您的网站,并只是防止 Googlebot 将来抓取您的网站,请将以下 robots.txt 文件放入您服务器的根目录:

  User-agent: Googlebot
  Disallow: /

  每个端口都应有自己的 robots.txt 文件。尤其是您通过 http 和 https 托管内容的时候,这些协议都需要有各自的 robots.txt 文件。例如,要让 Googlebot 只为所有的 http 网页而不为 https 网页编制索引,应使用下面的 robots.txt 文件。

  对于 http 协议 (http://www.fsasp.cn/robots.txt):

  User-agent: *
  Allow: /

  对于 https 协议 (http://www.fsasp.cn/robots.txt):

  User-agent: *
  Disallow: /

  允许所有的漫游器访问您的网页

  User-agent: *
  Disallow:

  (另一种方法: 建立一个空的 "/robots.txt" 文件, 或者不使用robot.txt。)

  使用 robots.txt 文件拦截或删除网页

  您可以使用 robots.txt 文件来阻止 Googlebot 抓取您网站上的网页。 例如,如果您正在手动创建 robots.txt 文件以阻止 Googlebot 抓取某一特定目录下(例如,private)的所有网页,可使用以下 robots.txt 条目:

  User-agent: Googlebot
  Disallow: /private

  要阻止 Googlebot 抓取特定文件类型(例如,.gif)的所有文件,可使用以下 robots.txt 条目:

  User-agent: Googlebot
  Disallow: /*.gif$

  要阻止 Googlebot 抓取所有包含 ? 的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:

  User-agent: Googlebot
  Disallow: /*?

  尽管我们不抓取被 robots.txt 拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指 向该网站的链接中的定位文字,有可能会出现在 Google 搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。

  作为网站管理员工具的一部分,Google提供了robots.txt分析工具 。它可以按照 Googlebot 读取 robots.txt 文件的相同方式读取该文件,并且可为 Google user-agents(如 Googlebot)提供结果。我们强烈建议您使用它。 在创建一个 robots.txt 文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。 这样的话,通过合理地使用 robots.txt , 搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。




    (本站大部分文章来自网络收集和整理,如有侵权请联系我们,24小时内处理.)



佛山市红盾信息网
网络110报警