哈喽大家好,我是咸鱼
我们在跟别人网上聊天的时候,有没有想过你发送的信息是怎么传到对方的电脑上的
又或者我们在上网冲浪的时候,有没有想过 HTML 页面是怎么显示在我们的电脑屏幕上的
无论是我们跟别人聊天还是上网冲浪,其实都依靠于计算机网络这项技术
计算机网络是指将多台计算机通过通信设备和传输介质连接在一起,使得它们之间能够相互通信、资源共享和协同工作
而计算机之间是通过数据包来实现信息传输和信息交换的,数据包是计算机网络中传输数据的基本单位
今天咸鱼将以 Linux 为例来给大家介绍一下 Linux 是如何实现网络接收数据包
在正文开始之前,我们先来了解一下 Linux 中的网络协议模型和网络子系统
在 Linux 中,Linux 网络协议栈分成了五层
其中:
应用层提供 socket 接口来供用户进程访问内核空间的网络协议栈
传输层、网络层协议由 Linux 内核网络协议栈实现
链路层协议靠网卡驱动来实现
物理层协议由硬件网卡实现
网络子系统(网络架构)
网络子系统是 Linux 内核中的一部分,由多个模块和驱动程序组成,它负责管理和控制系统的网络功能以实现网络通信
通过 Linux 网络子系统(网络架构)来实现上述网络协议模型
其中
当 Linux 接收一个数据包的时候,这个包是怎么经过 Linux 的内核从而被应用程序拿到的呢?
首先数据包到达网卡之后,网卡会校验接收到的数据包中的目的 MAC 地址是不是自己的 MAC 地址,如果不是的话通常就会丢弃掉
这种只接受发送给自己的数据包(其余的扔掉)的工作模式称为非混杂模式(Non-Promiscuous Mode)
混杂模式(Promiscuous Mode)则是网卡会接收通过网络传输的所有数据包,而不仅仅是发送给它自己的数据包
非混杂模式是网卡默认的工作模式,可以尽可能的保护网络安全和减少网络负载
网卡在校验完 MAC 地址之后还会校验数据帧(Data Frame)中校验字段 FCS 来一次确保接收到的数据包是正确的
当网卡接收到数据包时,它将数据包的内容存储在硬件缓冲区中,然后通过 DMA 将接收到的数据从硬件缓冲区传输到系统内存中的指定位置,这个位置通常是一个环形缓冲区( ring buffer)
DMA(直接内存访问,Direct Memory Access)
DMA是一种数据传输技术,允许外设(如网卡、硬盘控制器、显卡等)直接访问计算机内存,而无需经过 CPU
通过 DMA 可以大大提高数据传输的效率,减轻 CPU 的负担
当网卡将数据包 DMA 到用于接收的环形缓冲区(rx_ring)之后,就会触发一个硬中断来告诉 CPU 数据包收到了
什么时候会触发一个硬中断,可以通过下面的参数来进行配置:
上面的参数配置可以通过下面的命令来查看
# 以 CentOS 7 为例
ethtool -c <网卡名称>
当 ring buffer 满了之后,新来的数据包将给丢弃
ifconfig 查看网卡的时候,可以里面有个 overruns,表示因为环形队列满而被丢弃的包
CPU 收到硬中断之后就会停止手中的活,保存上下文,然后去调用网卡驱动注册的硬中断处理函数
为数据包分配 skb_buff
,并将接收到的数据拷贝到 skb_buff
缓冲区中
当一个数据包经过了网卡引起中断之后,每一个包都会在内存中分配一块区域,称为
sk_buff
(套接字缓存,socket buffer )
sk_buff
是 Linux 网络的一个核心数据结构
网卡的硬中断处理函数处理完之后驱动先 disable 硬中断,然后 enable 软中断
ps:待 ring buffer 中的所有数据包被处理完成后,enable 网卡的硬中断,这样下次网卡再收到数据的时候就会通知 CPU
内核负责软中断进程 ksoftirqd
发现有软中断请求到来,进行下面的一些操作
# 查看软中断进程
[root@localhost ~]# ps -ef | grep ksoftirqd
调用 net_rx_action
函数
它会通过 poll
函数去 rx_ring
中拿数据帧,获取的时候顺便把 rx_ring
上的数据给删除
static void net_rx_action(struct softirq_action *h)
{
struct softnet_data *sd = &__get_cpu_var(softnet_data);
unsigned long time_limit = jiffies + 2;
int budget = netdev_budget;
void *have;
local_irq_disable();
while (!list_empty(&sd->poll_list)) {
......
n = list_first_entry(&sd->poll_list, struct napi_struct, poll_list);
work = 0;
if (test_bit(NAPI_STATE_SCHED, &n->state)) {
work = n->poll(n, weight);
trace_napi_poll(n);
}
budget -= work;
}
}
除此之外,poll
函数会把 ring buffer
中的数据包转换成内核网络模块能够识别的 skb 格式(即 socket kernel buffer
)
socket kernel buffer (skb) 是 Linux 内核网络栈处理网络包(packets)所使用的 buffer,它的类型是 sk_buffer
3、最后进入 netif _receive_skb
处理流程,它是数据链路层接收数据帧的最后一关
根据注册在全局数组 ptype_all
和 ptype_base
里的网络层数据帧类型去调用第三层协议的接收函数处理
例如对于 ip 包来讲,就会进入到
ip_rcv
;如果是 arp 包的话,会进入到arp_rcv
IP 层的入口函数在 ip_rcv
函数,调用 ip_rcv
函数进入三层协议栈
首先会对数据包进行各种检查(检查 IP Header),然后调用 netfilter
中的钩子函数: NF_INET_PRE_ROUTING
netfilter: 是 Linux 内核中进行数据包过滤,连接跟踪(Connect Track),网络地址转换(NAT)等功能的主要实现框架
该框架在网络协议栈处理数据包的关键流程中定义了一系列钩子点(Hook 点),并在这些钩子点中注册一系列函数对数据包进行处理
这些注册在钩子点的函数即为设置在网络协议栈内的数据包通行策略,也就意味着,这些函数可以决定内核是接受还是丢弃某个数据包
NF_INET_PRE_ROUTING
会根据预设的规则对数据包进行判断并根据判断结果做相关的处理(修改或者丢弃数据包)
处理完成后,数据包交由 ip_rcv_finish
处理,该函数根据路由判决结果,决定数据包是交由本机上层应用处理,还是需要进行转发
如果是交由本机处理,则会交由 ip_local_deliver
本地上交流程;如果需要转发,则交由 ip_forward
函数走转发流程
传输层 TCP 处理入口在 tcp_v4_rcv
函数,首先检查数据包的 TCP 头部等信息,确保数据包的完整性和正确性
然后去查找该数据包对应的已经打开的 socket ,如果找不到匹配的 socket,表示该数据包不属于任何一个已建立的连接,因此该数据包会被丢弃
如果找到了匹配的 socket,TCP 会进一步检查该 socket 和连接的状态,如果状态正常,TCP 会将数据包从内核传输到用户空间,放入 socket 的接收缓冲区(socket receive buffer)
当数据包到达操作系统内核的传输层时,应用程序可以从套接字的接收缓冲区(socket receive buffer)中读取数据包
一般有两种方式读取数据,一种是 recvfrom
函数阻塞在那里等着数据来,这种情况下当 socket 收到通知后,recvfrom
就会被唤醒,然后读取接收队列的数据
另一种是通过 epoll 或者 select 监听相应的 socket,当收到通知后,再调用 recvfrom
函数去读取接收队列的数据
网络模块可以说是 Linux 内核中最复杂的模块了
看起来一个简简单单的收包过程就涉及到许多内核组件之间的交互,如网卡驱动、协议栈,内核ksoftirqd 线程等
咸鱼原本打算把收包和发包的流程都写上的,但是光是写收包流程就就要了我半条命了,等下次有机会把发包的流程也写一下
总结一下 Linux 网络收包流程:
ring buffer
中,然后触发硬中断skb_buffer
),然后触发软中断ksoftirqd
执行一系列操作(例如把数据帧从 ring ruffer
上取下来)然后将数据送到三层协议栈中