基于 Asio 的 C++ 网络编程

环境: Boost v1.66, VS 2013 & 2015html

说明:
这篇教程造成于 Boost v1.62 时代,最近(2018/01)针对 v1.66 作了一次大的更新。
此外,在代码风格上,C++11 用得更多了。git


概述

近期学习 Boost Asio,依葫芦画瓢,写了很多例子,对这个「轻量级」的网络库算是有了必定理解。可是秉着理论与实践结合的态度,决定写一篇教程,把脑子里只知其一;不知其二的东西,试图说清楚。github

Asio,即「异步 IO」(Asynchronous Input/Output),本是一个 独立的 C++ 网络程序库,彷佛并不为人所知,后来由于被 Boost 相中,才声名鹊起。segmentfault

从设计上来看,Asio 类似且重度依赖于 Boost,与 thread、bind、smart pointers 等结合时,体验顺滑。从使用上来看,依然是重组合而轻继承,一向的 C++ 标准库风格。缓存

什么是「异步 IO」?服务器

简单来讲,就是你发起一个 IO 操做,却不用等它结束,你能够继续作其余事情,当它结束时,你会获得通知。网络

固然这种表述是不精确的,操做系统并无直接提供这样的机制。以 Unix 为例,有五种 IO 模型可用:异步

  • 阻塞 I/O
  • 非阻塞 I/O
  • I/O 多路复用(multiplexing)(selectpoll
  • 信号驱动 I/O(SIGIO
  • 异步 I/O(POSIX aio_ 系列函数)

这五种模型的定义和比较,详见「Unix Network Programming, Volume 1: The Sockets Networking API」一书 6.2 节,或者可参考 这篇笔记socket

Asio 封装的正是「I/O 多路复用」。具体一点,epoll 之于 Linux,kqueue 之于 Mac 和 BSD。epollkqueueselectpoll 更高效。固然在 Windows 上封装的则是 IOCP(完成端口)。async

Asio 的「I/O 操做」,主要仍是指「网络 IO」,好比 socket 读写。因为网络传输的特性,「网络 IO」相对比较费时,设计良好的服务器,不可能同步等待一个 IO 操做的结束,这太浪费 CPU 了。

对于普通的「文件 IO」,操做系统并无提供“异步”读写机制,libuv 的作法是用线程模拟异步,为网络和文件提供了一致的接口。Asio 并无这样作,它专一于网络。提供机制而不是策略,这很符合 C++ 哲学。

下面以示例,由浅到深,由简单到复杂,逐一介绍 Asio 的用法。
简单起见,头文件一概省略。

I/O Context

每一个 Asio 程序都至少有一个 io_context 对象,它表明了操做系统的 I/O 服务(io_context 在 Boost 1.66 以前一直叫 io_service),把你的程序和这些服务连接起来。

下面这个程序空有 io_context 对象,却没有任何异步操做,因此它其实什么也没作,也没有任何输出。

int main() {
  boost::asio::io_context ioc;
  ioc.run();
  return 0;
}

io_context.run 是一个阻塞(blocking)调用,姑且把它想象成一个 loop(事件循环),直到全部异步操做完成后,loop 才结束,run 才返回。可是这个程序没有任何异步操做,因此 loop 直接就结束了。

Timer

有了 io_context 还不足以完成 I/O 操做,用户通常也不跟 io_context 直接交互。

根据 I/O 操做的不一样,Asio 提供了不一样的 I/O 对象,好比 timer(定时器),socket,等等。
Timer 是最简单的一种 I/O 对象,能够用来实现异步调用的超时机制,下面是最简单的用法:

void Print(boost::system::error_code ec) {
  std::cout << "Hello, world!" << std::endl;
}

int main() {
  boost::asio::io_context ioc;
  boost::asio::deadline_timer timer(ioc, boost::posix_time::seconds(3));
  timer.async_wait(&Print);
  ioc.run();
  return 0;
}

先建立一个 deadline_timer,指定时间 3 秒,而后异步等待这个 timer,3 秒后,timer 超时结束,Print 被调用。

如下几点须要注意:

  • 全部 I/O 对象都依赖 io_context,通常在构造时指定。
  • async_wait 初始化了一个异步操做,可是这个异步操做的执行,要等到 io_context.run 时才开始。
  • Timer 除了异步等待(async_wait),还能够同步等待(wait)。同步等待是阻塞的,直到 timer 超时结束。基本上全部 I/O 对象的操做都有同步和异步两个版本,也许是出于设计上的完整性。
  • async_wait 的参数是一个函数对象,异步操做完成时它会被调用,因此也叫 completion handler,简称 handler,能够理解成回调函数。
  • 全部 I/O 对象的 async_xyz 函数都有 handler 参数,对于 handler 的签名,不一样的异步操做有不一样的要求,除了官方文档里的说明,也能够直接查看 Boost 源码。

async_wait 的 handler 签名为 void (boost::system::error_code),若是要传递额外的参数,就得用 bind。不妨修改一下 Print,让它每隔一秒打印一次计数,从 0 递增到 3

void Print(boost::system::error_code ec,
           boost::asio::deadline_timer* timer,
           int* count) {
  if (*count < 3) {
    std::cout << *count << std::endl;
    ++(*count);

    timer->expires_at(timer->expires_at() + boost::posix_time::seconds(1));
    
    timer->async_wait(std::bind(&Print, std::placeholders::_1, timer, count));
  }
}

与前版相比,Print 多了两个参数,以便访问当前计数及重启 timer。

int main() {
  boost::asio::io_context ioc;
  boost::asio::deadline_timer timer(ioc, boost::posix_time::seconds(1));
  int count = 0;
  timer.async_wait(std::bind(&Print, std::placeholders::_1, &timer, &count));

  ioc.run();
  return 0;
}

调用 bind 时,使用了占位符(placeholder)std::placeholders::_1。数字占位符共有 9 个,_1 - _9。占位符也有不少种写法,这里就不详述了。

Echo Server

Socket 也是一种 I/O 对象,这一点前面已经说起。相比于 timer,socket 更为经常使用,毕竟 Asio 是一个网络程序库。

下面以经典的 Echo 程序为例,实现一个 TCP Server。所谓 Echo,就是 Server 把 Client 发来的内容原封不动发回给 Client。

先从同步方式开始,异步太复杂,慢慢来。

同步方式

Session 表明会话,负责管理一个 client 的链接。参数 socket 传的是值,可是会用到 move 语义来避免拷贝。

void Session(tcp::socket socket) {
  try {
    while (true) {
      boost::array<char, BUF_SIZE> data;

      boost::system::error_code ec;
      std::size_t length = socket.read_some(boost::asio::buffer(data), ec);

      if (ec == boost::asio::error::eof) {
        std::cout << "链接被 client 妥善的关闭了" << std::endl;
        break;
      } else if (ec) {
        // 其余错误
        throw boost::system::system_error(ec);
      }

      boost::asio::write(socket, boost::asio::buffer(data, length));
    }
  } catch (const std::exception& e) {
    std::cerr << "Exception: " <<  e.what() << std::endl;
  }
}

其中,tcpboost::asio::ip::tcpBUF_SIZE 定义为 enum { BUF_SIZE = 1024 };。这些都是细节,后面的例子再也不赘述。

int main(int argc, char* argv[]) {
  if (argc != 2) {
    std::cerr << "Usage: " << argv[0] << " <port>" << std::endl;
    return 1;
  }

  unsigned short port = std::atoi(argv[1]);

  boost::asio::io_context ioc;

  // 建立 Acceptor 侦听新的链接
  tcp::acceptor acceptor(ioc, tcp::endpoint(tcp::v4(), port));

  try {
    // 一次处理一个链接
    while (true) {
      Session(acceptor.accept());
    }
  } catch (const std::exception& e) {
    std::cerr << "Exception: " <<  e.what() << std::endl;
  }

  return 0;
}

启动时,经过命令行参数指定端口号,好比:

$ echo_server_sync 8080

由于 Client 部分还未实现,先用 netcat 测试一下:

$ nc localhost 8080
hello
hello

如下几点须要注意:

  • tcp::acceptor 也是一种 I/O 对象,用来接收 TCP 链接,链接端口由 tcp::endpoint 指定。
  • 数据 buffer 以 boost::array<char, BUF_SIZE> 表示,也能够用 char data[BUF_SIZE],或 std::vector<char> data(BUF_SIZE)。事实上,用 std::vector 是最推荐的,由于它不但能够动态调整大小,还支持 Buffer Debugging
  • 同步方式下,没有调用 io_context.run,由于 acceptread_somewrite 都是阻塞的。这也意味着一次只能处理一个 Client 链接,可是能够连续 echo,除非 Client 断开链接。
  • 写回数据时,没有直接调用 socket.write_some,由于它不能保证一次写完全部数据,可是 boost::asio::write 能够。我以为这是 Asio 接口设计不周,应该提供 socket.write
  • acceptor.accept 返回一个新的 socket 对象,利用 move 语义,直接就转移给了 Session 的参数,期间并无拷贝开销。

异步方式

异步方式下,困难在于对象的生命周期,能够用 shared_ptr 解决。

为了同时处理多个 Client 链接,须要保留每一个链接的 socket 对象,因而抽象出一个表示链接会话的类,叫 Session

class Session : public std::enable_shared_from_this<Session> {
public:
  Session(tcp::socket socket) : socket_(std::move(socket)) {
  }

  void Start() {
    DoRead();
  }

  void DoRead() {
    auto self(shared_from_this());
    socket_.async_read_some(
        boost::asio::buffer(buffer_),
        [this, self](boost::system::error_code ec, std::size_t length) {
          if (!ec) {
            DoWrite(length);
          }
        });
  }

  void DoWrite(std::size_t length) {
    auto self(shared_from_this());
    boost::asio::async_write(
        socket_,
        boost::asio::buffer(buffer_, length),
        [this, self](boost::system::error_code ec, std::size_t length) {
          if (!ec) {
            DoRead();
          }
        });
  }

private:
  tcp::socket socket_;
  std::array<char, BUF_SIZE> buffer_;
};

就代码风格来讲,有如下几点须要注意:

  • 优先使用 STL,好比 std::enable_shared_from_thisstd::bindstd::array,等等。
  • 定义 handler 时,尽可能使用匿名函数(lambda 表达式)。
  • 以 C++ std::size_t 替 C size_t

刚开始,你可能会不习惯,我也是这样,过了很久才慢慢拥抱 C++11 乃至 C++14。

Session 有两个成员变量,socket_ 与 Client 通讯,buffer_ 是接收 Client 数据的缓存。只要 Session 对象在,socket 就在,链接就不断。Socket 对象是构造时传进来的,并且是经过 move 语义转移进来的。

虽然还没看到 Session 对象是如何建立的,但能够确定的是,它必须用 std::shared_ptr 进行封装,这样才能保证异步模式下对象的生命周期。

此外,在 Session::DoReadSession::DoWrite 中,由于读写都是异步的,一样为了防止当前 Session 不被销毁(由于超出做用域),因此要增长它的引用计数,即 auto self(shared_from_this()); 这一句的做用。

至于读写的逻辑,基本上就是把 read_some 换成 async_read_some,把 write 换成 async_write,而后以匿名函数做为 completion handler。

接收 Client 链接的代码,提取出来,抽象成一个类 Server

class Server {
public:
  Server(boost::asio::io_context& ioc, std::uint16_t port)
      : acceptor_(ioc, tcp::endpoint(tcp::v4(), port)) {
    DoAccept();
  }

private:
  void DoAccept() {
    acceptor_.async_accept(
        [this](boost::system::error_code ec, tcp::socket socket) {
          if (!ec) {
            std::make_shared<Session>(std::move(socket))->Start();
          }
          DoAccept();
        });
  }

private:
  tcp::acceptor acceptor_;
};

一样,async_accept 替换了 acceptasync_accept 再也不阻塞,DoAccept 即刻就会返回。
为了保证 Session 对象继续存在,使用 std::shared_ptr 代替普通的栈对象,同时把新接收的 socket 对象转移过去。

最后是 main()

int main(int argc, char* argv[]) {
  if (argc != 2) {
    std::cerr << "Usage: " << argv[0] << " <port>" << std::endl;
    return 1;
  }

  std::uint16_t port = std::atoi(argv[1]);

  boost::asio::io_context ioc;
  Server server(ioc, port);

  ioc.run();
  return 0;
}

Echo Client

虽然用 netcat 测试 Echo Server 很是方便,可是本身动手写一个 Echo Client 仍然十分必要。
仍是先考虑同步方式。

同步方式

首先经过 hostport 解析出 endpoints(对,是复数!):

tcp::resolver resolver(ioc);
auto endpoints = resolver.resolve(tcp::v4(), host, port);

resolve 返回的 endpoints 类型为 tcp::resolver::results_type,代之以 auto 能够简化代码。类型推导应适当使用,至于连 int 都用 auto 就没有必要了。
hostport 经过命令行参数指定,好比 localhost8080

接着建立 socket,创建链接:

tcp::socket socket(ioc);
boost::asio::connect(socket, endpoints);

这里没有直接调用 socket.connect,由于 endpoints 可能会有多个,boost::asio::connect 会挨个尝试,逐一调用 socket.connect 直到链接成功。

其实这样说不太严谨,根据个人测试,resolve 在没有指定 protocol 时,确实会返回多个 endpoints,一个是 IPv6,一个是 IPv4。可是咱们已经指定了 protocol 为 tcp::v4()

resolver.resolve(tcp::v4(), host, port)

因此,应该只有一个 endpoint。

接下来,从标准输入(std::cin)读一行数据,而后经过 boost::asio::write 发送给 Server:

char request[BUF_SIZE];
    std::size_t request_length = 0;
    do {
      std::cout << "Enter message: ";
      std::cin.getline(request, BUF_SIZE);
      request_length = std::strlen(request);
    } while (request_length == 0);

    boost::asio::write(socket, boost::asio::buffer(request, request_length));

do...while 是为了防止用户直接 Enter 致使输入为空。boost::asio::write 是阻塞调用,发送完才返回。

从 Server 同步接收数据有两种方式:

  • 使用 boost::asio::read(对应于 boost::asio::write);
  • 使用 socket.read_some

二者的差异是,boost::asio::read 读到指定长度时,就会返回,你须要知道你想读多少;而 socket.read_some 一旦读到一些数据就会返回,因此必须放在循环里,而后手动判断是否已经读到想要的长度,不然没法退出循环。

下面分别是两种实现的代码。

使用 boost::asio::read

char reply[BUF_SIZE];
    std::size_t reply_length = boost::asio::read(
        socket,
        boost::asio::buffer(reply, request_length));

    std::cout.write(reply, reply_length);

使用 socket.read_some

std::size_t total_reply_length = 0;
    while (true) {
      std::array<char, BUF_SIZE> reply;
      std::size_t reply_length = socket.read_some(boost::asio::buffer(reply));

      std::cout.write(reply.data(), reply_length);

      total_reply_length += reply_length;
      if (total_reply_length >= request_length) {
        break;
      }
    }

不难看出,socket.read_some 用起来更为复杂。
Echo 程序的特殊之处就是,你能够假定 Server 会原封不动的把请求发回来,因此你知道 Client 要读多少。
可是不少时候,咱们不知道要读多少数据。
因此,socket.read_some 反倒更为实用。

此外,在这个例子中,咱们没有为各函数指定输出参数 boost::system::error_code,而是使用了异常,把整个代码块放在 try...catch 中。

try {
  // ...
} catch (const std::exception& e) {
  std::cerr << e.what() << std::endl;
}

Asio 的 API 基本都经过重载(overload),提供了 error_codeexception 两种错误处理方式。使用异常更易于错误处理,也能够简化代码,可是 try...catch 该包含多少代码,并非那么明显,新手很容易误用,什么都往 try...catch 里放。

通常来讲,异步方式下,使用 error_code 更方便一些。因此 complete handler 的参数都有 error_code

异步方式

就 Client 来讲,异步也许并不是必要,除非想同时链接多个 Server。

异步读写前面已经涉及,咱们就先看 async_resolveasync_connect

首先,抽取出一个类 Client

class Client {
public:
  Client(boost::asio::io_context& ioc,
         const std::string& host, const std::string& port)
      : socket_(ioc), resolver_(ioc) {
  }

private:
  tcp::socket socket_;
  tcp::resolver resolver_;

  char cin_buf_[BUF_SIZE];
  std::array<char, BUF_SIZE> buf_;
};

resolver_ 是为了 async_resolve,做为成员变量,生命周期便获得了保证,不会由于函数结束而失效。

下面来看 async_resolve 实现(代码在构造函数中):

Client(...) {
  resolver_.async_resolve(tcp::v4(), host, port,
                          std::bind(&Client::OnResolve, this,
                                    std::placeholders::_1,
                                    std::placeholders::_2));
}

async_resolve 的 handler:

void OnResolve(boost::system::error_code ec,
               tcp::resolver::results_type endpoints) {
  if (ec) {
    std::cerr << "Resolve: " << ec.message() << std::endl;
  } else {
    boost::asio::async_connect(socket_, endpoints,
                               std::bind(&Client::OnConnect, this,
                                         std::placeholders::_1,
                                         std::placeholders::_2));
  }
}

async_connect 的 handler:

void OnConnect(boost::system::error_code ec, tcp::endpoint endpoint) {
  if (ec) {
    std::cout << "Connect failed: " << ec.message() << std::endl;
    socket_.close();
  } else {
    DoWrite();
  }
}

链接成功后,调用 DoWrite,从标准输入读取一行数据,而后异步发送给 Server。
下面是异步读写相关的函数,一并给出:

void DoWrite() {
  std::size_t len = 0;
  do {
    std::cout << "Enter message: ";
    std::cin.getline(cin_buf_, BUF_SIZE);
    len = strlen(cin_buf_);
  } while (len == 0);

  boost::asio::async_write(socket_,
                           boost::asio::buffer(cin_buf_, len),
                           std::bind(&Client::OnWrite, this,
                                     std::placeholders::_1));
}

void OnWrite(boost::system::error_code ec) {
  if (!ec) {
    std::cout << "Reply is: ";

    socket_.async_read_some(boost::asio::buffer(buf_),
                            std::bind(&Client::OnRead, this,
                                      std::placeholders::_1,
                                      std::placeholders::_2));
  }
}

void OnRead(boost::system::error_code ec, std::size_t length) {
  if (!ec) {
    std::cout.write(buf_.data(), length);
    std::cout << std::endl;
    // 若是想继续下一轮,能够在这里调用 DoWrite()。
  }
}

异步读写在异步 Server 那一节已经介绍过,这里就再也不赘述了。

最后是 main()

int main(int argc, char* argv[]) {
  if (argc != 3) {
    std::cerr << "Usage: " << argv[0] << " <host> <port>" << std::endl;
    return 1;
  }

  const char* host = argv[1];
  const char* port = argv[2];

  boost::asio::io_context ioc;
  Client client(ioc, host, port);

  ioc.run();
  return 0;
}

至此,异步方式的 Echo Client 就算实现了。

为了不文章太长,Asio 的介绍暂时先告一段落。如有补遗,会另行记录。

完整及更加丰富的示例代码,请移步 GitHub

相关文章
相关标签/搜索