为 Next.js 应用生成 robots.txt 和 sitemap.xml

原文发布于 https://www.imlc.me/p/generate-robots-txt-and-sitemap-xml-in-next-js-zh

为了优化 SEO,生成 robots.txt 和 sitemap.xml 是必不可少的功能。
Next.js 自身并不提供生成 robots.txt 和 sitemap.xml 的特性,因此须要本身实现。javascript

Server Side Render(SSR)

sitemap.xml.js

pages/ 目录下建立 sitemap.xml.js。当浏览器访问 http://<your-domain>/sitemap.xml 路径时, Next.js 会调用 sitemap.xml.js 处理请求并响应。
在下面的例子中,我请求后台 API 获取 sitemap 数据,并返回给浏览器。java

import React, { Component } from "react";
import fetch from 'isomorphic-unfetch';

export default class SiteMap extends Component {
    static async getInitialProps({req, res}) {
        if(res) {
            const response = await fetch(`http://${req.headers['host']}/api/sitemap`);
            const text = await response.text();
            res.setHeader("Content-Type", "text/xml");
            res.write(text);
            res.end();
        }

    }
}

robots.txt

一样地,在 pages/ 目录下建立 robots.txt 文件。react

import React, { Component } from "react";

export default class Robots extends Component {
    static getInitialProps({ res }) {
        res.setHeader("Content-Type", "text/plain");
        res.write(`User-agent: *
Disallow:
Sitemap: https://www.imlc.me/sitemap.xml`);
        res.end();
    }
}

Static Export

若是你是以生成静态文件的方式部署你的网站,那么事情就至关简单了。
由于生成的静态文件都在 out/ 目录下,你只须要写个简单的脚本生成 robots.txt 和 sitemap.xml,并置于 out/ 目录下。
具体方法我想没必要多言。git

References

https://github.com/zeit/next.js/issues/751#issuecomment-526303138
next.js/examples/with-sitemap-and-robots-express-server at canary · zeit/next.js · GitHub
Sitemaps - Wikipediagithub

相关文章
相关标签/搜索