set supprt for automatic heading permalink

This commit is contained in:
A.C.Sukazyo Eyre 2023-01-27 19:13:14 +08:00
parent 9965e18ad9
commit bbbaffcc0d
Signed by: Eyre_S
GPG Key ID: C17CE40291207874

View File

@ -10,7 +10,6 @@ ph-Bookshelf 提供了 `site.robots` 配置节点,可以允许站点管理员
支持设置值为 `allow` | `deny` | `custom` | `file`,或其它任何值。
{ #allow }
## allow
当设置为 **`allow`** 时,将设置 robots.txt 为以下内容,这将允许任何爬虫访问网站的任何页面。
@ -22,7 +21,6 @@ User-agent: *
Allow: /
```
{ #deny }
## deny
当设置为 **`deny`** 时,将设置 robots.txt 为以下内容,这将允许任何爬虫访问网站的任何页面。
@ -32,7 +30,6 @@ User-agent: *
Allow: /
```
{ #file }
## custom / file
当设置为 **`custom`** 或是 **`file`** 时ph-Bookshelf 将会使用站点数据根目录中的 `robots.txt` 文件作为站点 robots.txt。
@ -40,9 +37,8 @@ Allow: /
> 如果你的数据目录中没有这个文件,那么将会不产生任何内容。
> <small>除非你的 PHP 的配置文件中 `display_error=On`:页面将输出 PHP 错误。</small>
{ #others }
## 其它任何值
当填入的值不为以上任何值时,**ph-Bookshelf** 将会把填入的值作为 robots.txt 的内容输出。
因此,你可以使用 `<![CDATA[]]>` 直接在这里填入你想要设置的 robots.txt 内容。<small>虽然我们仍然推荐使用 [`file`](#file) 方式而非这样的方式。</small>
因此,你可以使用 `<![CDATA[]]>` 直接在这里填入你想要设置的 robots.txt 内容。<small>虽然我们仍然推荐使用 [`file`](#custom--file) 方式而非这样的方式。</small>