忽略具有特定参数的robot.txt中的url?

我想谷歌忽略像这样的url:

http://www.mydomain.com/new-printers?dir=asc&order=price&p=3

所有具有参数dir,order和price的url都应该被忽略,但是我没有Robots.txt的经验。

任何想法?

如果你想禁止查询string,这里有一个解决scheme:

Disallow: /*?* 

或者如果你想更精确的查询string:

 Disallow: /*?dir=*&order=*&p=* 

您也可以添加到robots.txt要允许的url

 Allow: /new-printer$ 

$将确保只有/new-printer将被允许​​。

更多信息:

http://code.google.com/web/controlcrawlindex/docs/robots_txt.html

http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/

您可以使用以下几行来阻止这些特定的查询string参数

 Disallow: /*?*dir= Disallow: /*?*order= Disallow: /*?*p= 

因此,如果任何URL包含dir=order=p=查询string中的任何地方 ,它将被阻止。

使用Google WebMaster工具注册您的网站。 在那里你可以告诉Google如何处理你的参数。

站点configuration – > URL参数

你应该有包含这些参数的页面表明,他们应该被排除在索引通过机器人meta标签。 例如