当前位置: 首页 > news >正文

【DevOps】Linux 内核网络子系统全面指南与性能调优

目录

一、Linux 内核网络子系统

1. Netfilter

主要特性

工作流程

2. Traffic Control (TC)

主要特性

工作流程

3. Socket

主要特性

工作流程

二、内核参数优化

1. net.ipv4.tcp_window_scaling

2. net.core.netdev_max_backlog

3. net.ipv4.tcp_rmem 和 net.ipv4.tcp_wmem

4. net.ipv4.tcp_fin_timeout

5. net.core.rmem_default 和 net.core.wmem_default

一、Linux 内核网络子系统

Linux 内核的网络子系统是其架构中非常复杂和强大的部分,负责处理所有网络相关的操作。这些操作包括数据包过滤、地址转换、流量控制、服务质量保证,以及为应用程序提供网络通信的接口。下面我们详细介绍几个关键的网络子系统:Netfilter、Traffic Control 和 Socket。

1. Netfilter

Netfilter 是 Linux 内核中一个非常重要的网络子系统,主要用于在内核中实现包过滤、网络地址转换 (NAT) 和其他网络相关的钩子功能。Netfilter 提供了一系列的钩子(hook),这些钩子位于网络协议栈的不同位置,可以捕获网络协议栈中的数据包,进行处理或决定数据包的去向。

主要特性
  • 数据包过滤:Netfilter 通过与 iptables(在较新的内核中是 nftables)的配合,可以实现包括但不限于 IP 地址、端口号、协议类型等条件的数据包过滤。

  • 网络地址转换 (NAT):Netfilter 支持源 NAT (SNAT)、目的 NAT (DNAT) 和端口映射,这对于路由器和防火墙的功能是非常关键的。

  • 状态跟踪:Netfilter 可以跟踪每个网络连接的状态,这使得它可以识别和处理每个连接的数据包,如区分新连接、已建立的连接和结束的连接。

  • 用户空间通信:Netfilter 可以通过 nfnetlink 与用户空间程序通信,允许用户空间程序动态地更改过滤规则或收集网络状态信息。

工作流程

Netfilter 提供了五个主要的钩子点,它们位于网络协议栈的不同层次:

  1. NF_IP_PRE_ROUTING:在路由决策之前,对进入的数据包进行处理。
  2. NF_IP_LOCAL_IN:在确定数据包目的地为本机后进行处理。
  3. NF_IP_FORWARD:在进行路由转发决策后,对需要转发的数据包进行处理。
  4. NF_IP_LOCAL_OUT:在本机产生的数据包即将发送出去前进行处理。
  5. NF_IP_POST_ROUTING:在数据包即将离开网卡前进行处理。

2. Traffic Control (TC)

Traffic Control (TC) 是 Linux 内核的另一个网络子系统,用于实现网络流量控制和服务质量(QoS)。TC 允许 Linux 内核对网络接口的数据包发送队列进行控制,包括带宽限制、延迟管理和数据包排队策略。

主要特性
  • 带宽管理:通过诸如令牌桶过滤器 (TBF)、随机早期检测 (RED) 等机制,控制数据流的速率。

  • 排队策略:包括 FIFO、Stochastic Fairness Queueing (SFQ)、Hierarchical Token Bucket (HTB) 等,用于控制数据包的发送顺序和方式。

  • 分类:TC 使用分类器将数据包分流到不同的类和队列,允许对不同类型的流量实施不同的控制策略。

  • 过滤:通过过滤器确定数据包属于哪个类,过滤器可以基于多种条件,如协议、端口号、IP 地址等。

工作流程
  1. 分类:数据包首先通过分类器进行分类,判定进入哪个类。
  2. 排队:每个类有自己的队列,数据包按照策略进入相应的队列。
  3. 调度:调度器根据策略从队列中取出数据包发送。

3. Socket

Socket 是 Linux 内核提供的用于网络通信的基本接口,属于网络子系统中的应用层接口部分。Socket 抽象了网络通信的细节,使应用程序可以通过标准的接口发送和接收数据,而无需关心底层网络协议的具体实现。

主要特性
  • 多种类型:支持多种类型的 Socket,包括流式套接字 (SOCK_STREAM)、数据报套接字 (SOCK_DGRAM) 和原始套接字 (SOCK_RAW)。

  • 多种协议:支持多种网络协议,如 IPv4、IPv6、TCP、UDP 等。

  • 阻塞与非阻塞操作:Socket 可以在阻塞模式和非阻塞模式下工作,允许应用根据需要选择合适的工作方式。

  • 安全特性:支持通过 SSL/TLS 等协议提供加密通信。

工作流程
  1. 创建 Socket:应用程序通过 socket() 系统调用创建一个 Socket。
  2. 配置 Socket:通过各种系统调用 (如 bind()listen()connect()) 配置 Socket 的属性和行为。
  3. 数据传输:使用 send() 和 recv() (或 write() 和 read()) 系统调用进行数据的发送和接收。
  4. 关闭 Socket:通过 close() 系统调用关闭 Socket。

这些子系统合作,形成了 Linux 内核中强大而灵活的网络功能,支持从简单的数据传输到复杂的网络应用。

二、内核参数优化

在 Linux 系统中,通过调整内核参数来优化网络性能是一种常见且有效的方法。内核参数可以控制 TCP/IP 栈和其他网络子系统的行为,从而改善网络吞吐量、降低延迟、增加连接的稳定性和响应速度。下面是对您提到的两个参数的详细介绍,以及其他一些常用的内核参数和它们的优化作用。

1. net.ipv4.tcp_window_scaling

  • 参数说明net.ipv4.tcp_window_scaling 是一个布尔值参数,用于启用或禁用 TCP 窗口缩放功能。

  • 作用:TCP 窗口缩放是一种机制,允许 TCP 连接动态调整其接收窗口大小,从而适应不同的网络延迟和带宽条件。这个功能在高延迟或高带宽的网络环境(如卫星通信、长距离光纤连接)中尤其重要,可以显著提高数据传输效率。

  • 默认值:通常默认为 1(启用)。

  • 调整建议

    • 在网络环境稳定且网络延迟较低的局域网环境中,这个选项的效果不明显,但在宽带较大的网络中,启用窗口缩放可以提高传输性能。
    • 如果要启用 TCP 窗口缩放,确保 sysctl 设置为 net.ipv4.tcp_window_scaling = 1

2. net.core.netdev_max_backlog

  • 参数说明net.core.netdev_max_backlog 设置了在内核处理之前,网络设备驱动能够队列的接收包的最大数量。

  • 作用:这个参数决定了网络设备接收队列的最大长度,对于高速网络或是在突发大量网络请求时,增加这个参数的值可以减少因队列溢出而导致的丢包,从而提高网络性能。

  • 默认值:默认值可能在 1000 左右,具体值依据不同的内核和系统配置而变化。

  • 调整建议

    • 在高速网络环境中或大量并发连接的服务器上,可以适当增加这个值,例如设置为 2000 或更高,如 3000
    • 修改方式:sysctl -w net.core.netdev_max_backlog=2000 或通过编辑 /etc/sysctl.conf 文件添加 net.core.netdev_max_backlog = 2000 并重新加载配置 sysctl -p

3. net.ipv4.tcp_rmem 和 net.ipv4.tcp_wmem

  • 参数说明

    • net.ipv4.tcp_rmem:这个参数控制 TCP 接收缓冲区的最小值、默认值和最大值,单位是字节。
    • net.ipv4.tcp_wmem:这个参数控制 TCP 发送缓冲区的最小值、默认值和最大值,单位是字节。
  • 作用:调整这些参数可以优化 TCP 的缓冲区大小,适应不同的网络环境,特别是在高带宽和高延迟的网络中,增大这些值可以提高网络性能。

  • 默认值:通常形式为 4096 87380 6291456

  • 调整建议

    • 对于高性能服务器,可以将这些值调整为更大,例如 4096 65536 16777216(对应最小、默认、最大)。
    • 修改方式:
      sysctl -w net.ipv4.tcp_rmem="4096 65536 16777216"
      sysctl -w net.ipv4.tcp_wmem="4096 65536 16777216"
      

4. net.ipv4.tcp_fin_timeout

  • 参数说明net.ipv4.tcp_fin_timeout 指定了等待一个 TCP 连接完全终止前的超时时间,单位是秒。

  • 作用:这个参数影响 TIME-WAIT 状态的持续时间。减少这个值可以快速回收套接字,但是太小可能导致旧的重复数据段出现在新的连接中。

  • 默认值:通常默认为 60 秒。

  • 调整建议

    • 对于处理大量短连接的服务器,可以适当减少这个值,例如设置为 30 或更低,如 15
    • 修改方式:sysctl -w net.ipv4.tcp_fin_timeout=30

5. net.core.rmem_default 和 net.core.wmem_default

  • 参数说明

    • net.core.rmem_default:指定接收套接字缓冲区的默认大小(字节)。
    • net.core.wmem_default:指定发送套接字缓冲区的默认大小(字节)。
  • 作用:这些参数控制非 TCP 套接字的默认缓冲区大小,对于 UDP 通信等场景下,增大这些值可以提高性能。

  • 默认值:通常为 212992

  • 调整建议

    • 对于需要大量 UDP 通信的应用,可以增加这些值,如设置为 262144 或更大。
    • 修改方式:
      sysctl -w net.core.rmem_default=262144
      sysctl -w net.core.wmem_default=262144
      

通过合理调整这些参数,可以显著提高 Linux 系统的网络性能,尤其是在高负载、高并发的网络服务器环境中。每一次调整后,都应该进行充分的测试,以确保新的配置不仅提升了性能,而且保持了系统的稳定性和可靠性。

http://www.lryc.cn/news/349618.html

相关文章:

  • mybatis-plus-ui代码生成器
  • 项目进度总结
  • CheckStyle静态样式之道
  • 2024中国振威化工装备展
  • Docker操作之启动多个相同容器实例并nginx负载均衡
  • 本地的git仓库和远程仓库
  • Google I/O 2024 干货全解读:Gemini AI 横空出世,智能未来触手可及!
  • 深入理解JVM:介绍JVM的工作原理,包括类加载机制,内存模型,垃圾回收机制等
  • Springboot+Vue项目-基于Java+MySQL的民族婚纱预定系统(附源码+演示视频+LW)
  • Java面经学习2
  • Java bin目录中的文件如何执行?
  • Kafka和Spark Streaming的组合使用学习笔记(Spark 3.5.1)
  • 5.9网络协议
  • QT客户端开发的注意事项
  • k8s源码编译失败:Makefile:1: *** 缺失分隔符。 停止。
  • 服务器数据恢复—拯救raid5阵列数据行动,raid5数据恢复案例分享
  • 旅游集市数仓建设
  • vue实现点击高亮效果
  • uniapp 配置请求代理+请求封装
  • 代码随想录算法训练营第二十八天|​216.组合总和III​、17.电话号码的字母组合
  • 大模型prompt实例:知识库信息质量校验模块
  • 正则表达式和lambda表达式
  • pyenv 之 python 多版本管理(win11)
  • nodemon运行ts文件
  • 内网渗透瑞士军刀-impacket工具解析(二)
  • huggingface 笔记:pipeline
  • 玩转Matlab-Simscape(初级)-01-从一个简单模型开始学习之旅
  • 电脑录屏软件有哪些?这3款神器必须要知道
  • 如何在华企盾DSC防泄密系统中设置文件自动加密?
  • 【DevOps】Dockerfile详解,做自己的docker镜像