应用开发
主题开发
主题商城
主题开发 2.0
Online Store 3.0 主题
APIs & References
Admin Rest API
Webhook
Admin GraphQL API
Storefront API
Ajax API
Handlebars
Sline
简体中文
English
简体中文
合作伙伴后台
菜单
应用开发
主题开发
主题商城
主题开发 2.0
Online Store 3.0 主题
APIs & References
Admin Rest API
Webhook
Admin GraphQL API
Storefront API
Ajax API
Handlebars
Sline
主题开发 > 主题开发 2.0
简体中文
English
简体中文
合作伙伴后台
[{"value":"要求","id":"要求","hLevel":2,"level":1},{"value":"资源","id":"资源","hLevel":2,"level":1},{"value":"自定义robots.txt","id":"自定义robotstxt","hLevel":2,"level":1,"children":[{"value":"向现有组添加新规则","id":"向现有组添加新规则","hLevel":3,"level":2},{"value":"从现有组中删除规则","id":"从现有组中删除规则","hLevel":3,"level":2},{"value":"添加自定义规则","id":"添加自定义规则","hLevel":3,"level":2}]}]
自定义 robots.txt
该 robots.txt 文件告诉搜索引擎可以或不能在网站上抓取哪些页面。它包含这样做的规则组,每个组具有三个主要组成部分:
用户代理,记录规则组适用于哪个爬虫。例如,adsbot-google。
规则本身,它记录了爬虫可以或不能访问的特定 URL。
一个可选的站点地图 URL。
提示
要了解有关
robots.txt