操作系统能否支持百万连接?

  • 时间:
  • 浏览:11
  • 来源:大发快3官方网址—大发快3APP下载

struct sockaddr_in addr;

}

int sock;

int bufsize;

}else{

base_port = atoi(argv[1]);

if(errno == EINTR){

1024

Linux 系统时需修改内核参数和系统配置, 可不上能 支持 C11150K. C11150K 的应用要求服务器大概时需 2GB 内存, 机会应用三种还时需内存, 你这个要求应该是大概 10GB 内存. 一同, 网卡应该共假使 万兆网卡.

下面来分别对这2个问題进行分析.

全局限制

}

index = 0;

if(ret > 0){

addr.sin_port = htons((short)port);

}

总结

}

bufsize = 11500;

}

fs.file-max = 1011500

编辑 /etc/security/limits.conf 文件, 加入如下行:

printf("press Enter to continue: ");

ulimit -n 1011500

maxfd = server_socks[i];

setsockopt(serv_sock, SOL_SOCKET, SO_RCVBUF, &bufsize, sizeof(bufsize));

int opt = 1;

exit(0);

}

if(argc <= 2){

}

inet_pton(AF_INET, ip, &addr.sin_addr);

for(int i=0; i

exit(0);

int main(int argc, char **argv){

}

}

注意, 服务器监听了 10 个端口, 这是为了测试方便. 机会还可不上能 了一台客户端测试机, 最多还可不上能 了跟同一两个多多 IP 端口创建 11500 多个连接, 如果服务器监听了 10 个端口, 那末 一台测试机就还可不上能 和服务器之间创建 150 万个连接了.

*/

work soft nofile 1011500

在 Linux 下执行:

/proc/sys/net/ipv4/tcp_rmem

}

net.ipv4.netfilter.ip_conntrack_max = 1011500

服务器

char tmp_data[10];

bzero(&addr, sizeof(addr));

/*

参考:

addr.sin_family = AF_INET;

临时修改

int opt = 1;

int connections = 0;

int base_port = atoi(argv[2]);

int index = 0;

const char *ip = argv[1];

sock_err:

int bufsize;

还可不上能 修改

/proc/sys/net/ipv4/tcp_wmem

goto sock_err;

守护程序限制

ulimit -n

for(int i=0; i maxfd){

printf("connections: %d, fd: %dn", connections, sock);

不过, 机会你全部都是 root, 机会还可不上能 了修改超过 1024, 会报错:

int server_socks[MAX_PORTS];

int ret = select(maxfd + 1, &readset, NULL, NULL, NULL);

51150 0 101747

connections ++;

return 0;

printf("Usage: %s ip portn", argv[0]);

struct sockaddr_in addr;

const char *ip = "0.0.0.0";

return 0;

setsockopt(serv_sock, SOL_SOCKET, SO_SNDBUF, &bufsize, sizeof(bufsize));

注意: Linux 内核源码中一两个多多多常量(NR_OPEN in /usr/include/linux/fs.h), 限制了最大打开文件数, 如 RHEL 5 是 1048576(2^20), 如果, 要想支持 C11150K, 你机会还时需重新编译内核.

来控制 TCP 连接的发送和接收缓冲的大小(多谢 @egmkang).

会打印出相似于下面的一行输出:

客户端

if(argc > 2){

printf("connect to %s:%dn", ip, port);

int port = base_port + index;

int main(int argc, char **argv){

永久修改

if(connections % 111500 == 9999){

}

通过顶端的测试代码, 还可不上能 发现, 应用守护程序维持百万个空闲的连接, 只会占用操作系统的内存, 通过 ps 命令查看可知, 应用守护程序三种几乎不占用内存.

防止了操作系统的参数限制, 接下来就要看看内存的占用情况报告. 首先, 是操作系统三种维护你这个连接的内存占用. 对于 Linux 操作系统, socket(fd) 是一两个多多整数, 如果, 猜想操作系统管理一百万个连接所占用的内存应该是 4M/8M, 再包括有些管理信息, 应该会是 1150M 左右. 不过, 还有 socket 发送和接收缓冲区所占用的内存那末分析. 为此, 我写了最原始的 C 网络守护程序来验证:

}

getchar();

if(++index >= 10){

if(ret < 0){

if(connect(sock, (struct sockaddr *)&addr, sizeof(addr)) == -1){

cat /proc/sys/fs/file-nr

对于绝大帕累托图 Linux 操作系统, 默认情况报告下觉得不支持 C11150K! 机会操作系统蕴藏最大打开文件数(Max Open Files)限制, 分为系统全局的, 和守护程序级的限制.

-bash: ulimit: open files: cannot modify limit: Operation not permitted

continue;

说明当前 Linux 系统的每一两个多多守护程序还可不上能 了最多打开 1024 个文件. 为了支持 C11150K, 你同样时需修改你这个限制.

第一列的 work 表示 work 用户, 就愿意填 *, 机会 root. 如果保存退出, 重新登录服务器.

work hard nofile 1011500

printf("error: %sn", strerror(errno));

int base_port = 7000;

我测试 10 万个连接, 你这个连接是空闲的, 你这个数据如果发送如果接收. 这时, 守护程序只占用了还可不上能 了 1MB 的内存. 如果, 通过守护程序退出前后的 free 命令对比, 发现操作系统用了 150M(大致)内存来维护这 10 万个连接! 机会是百万连接语录, 操作系统三种就要占用 2GB 的内存! 也即 2KB 每连接.

假设百万连接蕴藏 20% 是活跃的, 每个连接每秒传输 1KB 的数据, 那末时需的网络下行速度 是 0.2M x 1KB/s x 8 = 1.6Gbps, 要求服务器共假使 万兆网卡(10Gbps).

int connections = 0;

输出:

当然, 这仅仅是理论分析, 实际的应用时需更多的内存和 CPU 资源来防止业务数据.

while(1){

net.ipv4.ip_conntrack_max = 1011500

goto sock_err;

执行:

if((sock = socket(AF_INET, SOCK_STREAM, 0)) == -1){

第一两个多多数字 101747 如果当前系统的全局最大打开文件数(Max Open Files), 还可不上能 看后, 还可不上能 了 10 万, 如果, 在这台服务器上无法支持 C11150K. 如果系统的你这个数值更小, 为了修改你这个数值, 用 root 权限修改 /etc/sysctl.conf 文件:

usleep(1 * 11150);

socklen_t optlen;

socklen_t optlen;

printf("select error! %sn", strerror(errno));