如何停止Google索引我的Github存储库

我使用Github来存储我的一个网站的文本,但问题是谷歌索引Github中的文本。 所以相同的文本将显示在我的网站和Github上。 例如这个search最热门的是我的网站。 第二个命中是Github存储库。

我不介意人们是否看到消息来源,但我不希望Google将其编入索引(也许会对重复的内容进行处罚)。除了将存储库私有化之外,还有什么方法可以告诉Google停止对其进行索引吗?

在Github页面的情况下会发生什么? 这些是源代码在Github存储库中的网站。 他们是否有同样的重复问题?

采取这个search最高的命中导致马尔帕网站,但我没有看到在search结果中列出的来源 。 怎么样?

GitHub的https://github.com/robots.txt文件允许在“主”分支中对斑点进行索引,但限制了所有其他分支。; 所以,如果你没有“主”分支,谷歌不应该索引你的网页。

如何删除“主”分支:

在你的克隆中创build一个新的分支 – 让我们称之为“主”,并将其推送到GitHub

git checkout -b main git push -u origin main 

在GitHub上更改默认分支(请参阅您的存储库的设置部分)或在这里https://github.com/blog/421-pick-your-default-branch

然后从您的克隆和GitHub中删除主分支:

 git branch -d master git push origin :master 

让其他可能已经分叉你的仓库的人也这样做。

另外,如果你想在财务上支持GitHub,你可以去私人https://help.github.com/articles/making-a-public-repository-private

如果想坚持主分支,似乎没有办法使用私人回购(和向上销售您的GitHub帐户)或使用另一种服务,如Bitbucket免费提供私人回购。

简单的答案:使您的回购私人。

https://help.github.com/articles/making-a-public-repository-private

短芒。 是的,你可以用robots.txt。

如果您想阻止Googlebot抓取您网站上的内容,则可以使用一些选项,包括使用robots.txt阻止访问服务器上的文件和目录。

只有当您的网站包含您不希望search引擎build立索引的内容时,您才需要一个robots.txt文件。 如果您希望search引擎将您的网站中的所有内容都编入索引,则不需要robots.txt文件(甚至不需要空文件)。

虽然Google不会抓取robots.txt阻止的网页内容或将其编入索引,但如果我们在networking上的其他网页上find这些url,我们仍可能会将这些url编入索引。 因此,Googlesearch结果中可能会出现该网页的url以及潜在的其他公开信息,例如网站链接中的定位文字或开放式目录项目(www.dmoz.org)中的标题。

资料来源:

http://support.google.com/webmasters/bin/answer.py?hl=zh_CN&answer=93708 http://support.google.com/webmasters/bin/answer.py?hl=zh_CN&answer=156449