https://blog.csdn.net/tennysonsky/article/details/45621341web
基于 TCP 的网络编程开发分为服务器端和客户端两部分,常见的核心步骤和流程以下:编程
对于客户端的 connect() 函数,该函数的功能为客户端主动链接服务器,创建链接是经过三次握手,而这个链接的过程是由内核完成,不是这个函数完成的,这个函数的做用仅仅是通知 Linux 内核,让 Linux 内核自动完成 TCP 三次握手链接(三次握手详情,请看《浅谈 TCP 三次握手》),最后把链接的结果返回给这个函数的返回值(成功链接为0, 失败为-1)。服务器
一般的状况,客户端的 connect() 函数默认会一直阻塞,直到三次握手成功或超时失败才返回(正常的状况,这个过程很快完成)。网络
对于服务器,它是被动链接的。举一个生活中的例子,一般的状况下,移动的客服(至关于服务器)是等待着客户(至关于客户端)电话的到来。而这个过程,须要调用listen()函数。并发
#include<sys/socket.h>
int listen(int sockfd, int backlog);
listen() 函数的主要做用就是将套接字( sockfd )变成被动的链接监听套接字(被动等待客户端的链接),至于参数 backlog 的做用是设置内核中链接队列的长度(这个长度有什么用,后面作详细的解释),TCP 三次握手也不是由这个函数完成,listen()的做用仅仅告诉内核一些信息。socket
这里须要注意的是,listen()函数不会阻塞,它主要作的事情为,将该套接字和套接字对应的链接队列长度告诉 Linux 内核,而后,listen()函数就结束。函数
这样的话,当有一个客户端主动链接(connect()),Linux 内核就自动完成TCP 三次握手,将创建好的连接自动存储到队列中,如此重复。高并发
因此,只要 TCP 服务器调用了 listen(),客户端就能够经过 connect() 和服务器创建链接,而这个链接的过程是由内核完成。测试
下面为测试的服务器和客户端代码,运行程序时,要先运行服务器,再运行客户端:this
服务器:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
int main(int argc, char *argv[])
{
unsigned short port = 8000;
int sockfd;
sockfd = socket(AF_INET, SOCK_STREAM, 0);// 建立通讯端点:套接字
if(sockfd < 0)
{
perror("socket");
exit(-1);
}
struct sockaddr_in my_addr;
bzero(&my_addr, sizeof(my_addr));
my_addr.sin_family = AF_INET;
my_addr.sin_port = htons(port);
my_addr.sin_addr.s_addr = htonl(INADDR_ANY);
int err_log = bind(sockfd, (struct sockaddr*)&my_addr, sizeof(my_addr));
if( err_log != 0)
{
perror("binding");
close(sockfd);
exit(-1);
}
err_log = listen(sockfd, 10);
if(err_log != 0)
{
perror("listen");
close(sockfd);
exit(-1);
}
printf("listen client @port=%d...\n",port);
sleep(10); // 延时10s
system("netstat -an | grep 8000"); // 查看链接状态
return 0;
}
客户端:
#include <stdio.h>
#include <unistd.h>
#include <string.h>
#include <stdlib.h>
#include <arpa/inet.h>
#include <sys/socket.h>
#include <netinet/in.h>
int main(int argc, char *argv[])
{
unsigned short port = 8000; // 服务器的端口号
char *server_ip = "10.221.20.12"; // 服务器ip地址
int sockfd;
sockfd = socket(AF_INET, SOCK_STREAM, 0);// 建立通讯端点:套接字
if(sockfd < 0)
{
perror("socket");
exit(-1);
}
struct sockaddr_in server_addr;
bzero(&server_addr,sizeof(server_addr)); // 初始化服务器地址
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(port);
inet_pton(AF_INET, server_ip, &server_addr.sin_addr);
//server_addr.sin_addr.s_addr=inet_addr(server_ip);
int err_log = connect(sockfd, (struct sockaddr*)&server_addr, sizeof(server_addr));
// 主动链接服务器
if(err_log != 0)
{
perror("connect");
close(sockfd);
exit(-1);
}
system("netstat -an | grep 8000"); // 查看链接状态
while(1);
return 0;
}
运行程序时,要先运行服务器,再运行客户端,运行结果以下:
这里详细的介绍一下 listen() 函数的第二个参数( backlog)的做用:告诉内核链接队列的长度。
为了更好的理解 backlog 参数,咱们必须认识到内核为任何一个给定的监听套接口维护两个队列:
一、未完成链接队列(incomplete connection queue),每一个这样的 SYN 分节对应其中一项:已由某个客户发出并到达服务器,而服务器正在等待完成相应的 TCP 三次握手过程。这些套接口处于 SYN_RCVD 状态。
二、已完成链接队列(completed connection queue),每一个已完成 TCP 三次握手过程的客户对应其中一项。这些套接口处于 ESTABLISHED 状态。
当来自客户的 SYN 到达时,TCP 在未完成链接队列中建立一个新项,而后响应以三次握手的第二个分节:服务器的 SYN 响应,其中稍带对客户 SYN 的 ACK(即SYN+ACK),这一项一直保留在未完成链接队列中,直到三次握手的第三个分节(客户对服务器 SYN 的 ACK )到达或者该项超时为止(曾经源自Berkeley的实现为这些未完成链接的项设置的超时值为75秒)。
若是三次握手正常完成,该项就从未完成链接队列移到已完成链接队列的队尾。
backlog 参数历史上被定义为上面两个队列的大小之和,大多数实现默认值为 5,当服务器把这个完成链接队列的某个链接取走后,这个队列的位置又空出一个,这样来回实现动态平衡,但在高并发 web 服务器中此值显然不够。
accept()函数功能是,从处于 established 状态的链接队列头部取出一个已经完成的链接,若是这个队列没有已经完成的链接,accept()函数就会阻塞,直到取出队列中已完成的用户链接为止。
若是,服务器不能及时调用 accept() 取走队列中已完成的链接,队列满掉后会怎样呢?UNP(《unix网络编程》)告诉咱们,服务器的链接队列满掉后,服务器不会对再对创建新链接的syn进行应答,因此客户端的 connect 就会返回 ETIMEDOUT。但实际上Linux的并非这样的!
下面为测试代码,服务器 listen() 函数只指定队列长度为 2,客户端有 6 个不一样的套接字主动链接服务器,同时,保证客户端的 6 个 connect()函数都先调用完毕,服务器的 accpet() 才开始调用。
服务器:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
int main(int argc, char *argv[])
{
unsigned short port = 8000;
int sockfd = socket(AF_INET, SOCK_STREAM, 0);
if(sockfd < 0)
{
perror("socket");
exit(-1);
}
struct sockaddr_in my_addr;
bzero(&my_addr, sizeof(my_addr));
my_addr.sin_family = AF_INET;
my_addr.sin_port = htons(port);
my_addr.sin_addr.s_addr = htonl(INADDR_ANY);
int err_log = bind(sockfd, (struct sockaddr*)&my_addr, sizeof(my_addr));
if( err_log != 0)
{
perror("binding");
close(sockfd);
exit(-1);
}
err_log = listen(sockfd, 2); // 等待队列为2
if(err_log != 0)
{
perror("listen");
close(sockfd);
exit(-1);
}
printf("after listen\n");
sleep(20); //延时 20秒
printf("listen client @port=%d...\n",port);
int i = 0;
while(1)
{
struct sockaddr_in client_addr;
char cli_ip[INET_ADDRSTRLEN] = "";
socklen_t cliaddr_len = sizeof(client_addr);
int connfd;
connfd = accept(sockfd, (struct sockaddr*)&client_addr, &cliaddr_len);
if(connfd < 0)
{
perror("accept");
continue;
}
inet_ntop(AF_INET, &client_addr.sin_addr, cli_ip, INET_ADDRSTRLEN);
printf("-----------%d------\n", ++i);
printf("client ip=%s,port=%d\n", cli_ip,ntohs(client_addr.sin_port));
char recv_buf[512] = {0};
while( recv(connfd, recv_buf, sizeof(recv_buf), 0) > 0 )
{
printf("recv data ==%s\n",recv_buf);
break;
}
close(connfd); //关闭已链接套接字
//printf("client closed!\n");
}
close(sockfd); //关闭监听套接字
return 0;
}
客户端:
#include <stdio.h>
#include <unistd.h>
#include <string.h>
#include <stdlib.h>
#include <arpa/inet.h>
#include <sys/socket.h>
#include <netinet/in.h>
void test_connect()
{
unsigned short port = 8000; // 服务器的端口号
char *server_ip = "10.221.20.12"; // 服务器ip地址
int sockfd;
sockfd = socket(AF_INET, SOCK_STREAM, 0);// 建立通讯端点:套接字
if(sockfd < 0)
{
perror("socket");
exit(-1);
}
struct sockaddr_in server_addr;
bzero(&server_addr,sizeof(server_addr)); // 初始化服务器地址
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(port);
inet_pton(AF_INET, server_ip, &server_addr.sin_addr);
int err_log = connect(sockfd, (struct sockaddr*)&server_addr, sizeof(server_addr)); // 主动链接服务器
if(err_log != 0)
{
perror("connect");
close(sockfd);
exit(-1);
}
printf("err_log ========= %d\n", err_log);
char send_buf[100]="this is for test";
send(sockfd, send_buf, strlen(send_buf), 0); // 向服务器发送信息
system("netstat -an | grep 8000"); // 查看链接状态
//close(sockfd);
}
int main(int argc, char *argv[])
{
pid_t pid;
pid = fork();
if(0 == pid){
test_connect(); // 1
pid_t pid = fork();
if(0 == pid){
test_connect(); // 2
}else if(pid > 0){
test_connect(); // 3
}
}else if(pid > 0){
test_connect(); // 4
pid_t pid = fork();
if(0 == pid){
test_connect(); // 5
}else if(pid > 0){
test_connect(); // 6
}
}
while(1);
return 0;
}
一样是先运行服务器,在运行客户端,服务器 accept()函数前延时了 20 秒, 保证了客户端的 connect() 所有调用完毕后再调用 accept(),运行结果以下:
服务器运行效果图:
客户端运行效果图:
按照 UNP 的说法,链接队列满后(这里设置长度为 2,发了 6 个链接),之后再调用 connect() 应该通通超时失败,但实际上测试结果是:有的 connect()马上成功返回了,有的通过明显延迟后成功返回了。对于服务器 accpet() 函数也是这样的结果:有的立马成功返回,有的延迟后成功返回。
对于上面服务器的代码,咱们把lisen()的第二个参数改成 0 的数,从新运行程序,发现:
客户端 connect() 所有返回链接成功(有些会延时):
服务器 accpet() 函数却不能把链接队列的全部链接都取出来:
对于上面服务器的代码,咱们把lisen()的第二个参数改成大于 6 的数(如 10),从新运行程序,发现,客户端 connect() 立马返回链接成功, 服务器 accpet() 函数也立马返回成功。
TCP 的链接队列满后,Linux 不会如书中所说的拒绝链接,只是有些会延时链接,并且accept()未必能把已经创建好的链接所有取出来(如:当队列的长度指定为 0 ),写程序时服务器的 listen() 的第二个参数最好仍是根据须要填写,写太大很差(具体能够看cat /proc/sys/net/core/somaxconn,默认最大值限制是 128),浪费资源,写过小也很差,延时创建链接。