[转帖]cpu上下文切换

cpu,上下文,切换 · 浏览次数 : 0

小编点评

**CPU上下文切换** CPU上下文切换是指在进程切换过程中保存和加载新任务的上下文的过程。它主要分为以下几个场景: * **进程上下文切换**:进程的切换只能发生在内核态。 * **线程上下文切换**:线程是进程的调度基本单位,而进程是资源拥有的基本单位。 * **中断上线文切换**:当进程通过睡眠函数sleep这样的方法将自己主动挂起时,会进行上下文切换。 **进程上下文切换和线程上下文切换的主要区别**: * **进程上下文切换**:多个线程属于同一个进程,资源共享。 * **线程上下文切换**:多个线程属于不同进程,资源独立。 **中断上下文切换的性能问题**: * 频繁的上下文切换会导致寄存器、内核栈和虚拟内存等数据的频繁保存和恢复,降低效率。 * 过多的上下文切换会导致性能下降。

正文

https://www.jianshu.com/p/280778660ffc

 

cpu上下文切换,就是先把前一个任务的cpu上下文(cpu寄存器和程序计数器)保存起来,然后加载新任务的上下文到这些寄存器和程序计数器,最后跳转到程序计数器所指的新位置,运行新任务。根据任务的不同,cpu上下文切换可以分为几个不同的场景,也就是进程上下文切换、线程上下文切换以及中断上线文切换

进程上下文切换

linux按照特权等级,把进程的运行空间分为内核空间和用户空间,分别对应着下图汇总,cpu特权等级的Ring0和Ring3

  • 内核空间:具有最高权限,可以直接访问所有资源

  • 用户空间:只能访问受限资源,不能直接访问内存等硬件设备,必须通过系统调用陷入到内核中,才能访问这些特权资源

     
    image.png

    换个角度说,进程既可以在用户空间运行,又可以在内核空间运行。进程在用户空间运行时,被称为进程的用户态,而陷入内核空间的时候,被称为进程内核态。从用户态到内核态的转变,是一个系统调用的过程,通常被称为特权模式切换。

     

  • 系统调用和进程上下文切换区别:首先,进程是由内核来管理和调度的,进程的切换只能发生在内核态;所以进程的上线文不仅包括虚拟内存、栈、全局变量等用户空间的资源,还包括内核堆栈、寄存器等内核空间的状态;因此进程的上下文切换就比系统调用时多了一步:在保存当前进程的内核状态和cpu寄存器之前,需要先把该进程的虚拟内存、栈等保存下来;而加载了下一进程的内核态后,还需要刷新进程的虚拟内存和用户栈。

  • 哪些场景会处罚进程调度:

1、为了保证所有进程可以得到公平调度,cpu时间被划分为一段段的时间片,这些时间片再被轮流分配给各个进程;这样某个进程的时间片耗尽了,就会被系统挂起,切换到其他正在等待cpu的进程运行
2、进程在系统资源不足(如内存不足)时,要等到资源满足后才可以运行,这个时候进程也会被挂起,并由系统调度其他进程运行
3、当进程通过睡眠函数sleep这样的方法将自己主动挂起时,自然也会重新调度。
4、当有优先级更高的进程运行时,为了保证高优先级的运行,当前进程会被挂起,由高优先级进程来运行
5、发生硬件中断时,cpu上的进程会被中断挂起,转而执行内核中的中断服务程序

了解这几个场景非常有必要,因为一旦出现上下文切换的性能问题,它们就是幕后凶手

线程上下文切换

线程和进程的最大区别在于,线程是调度的基本单位,而进程是资源拥有的基本单位;所谓内核汇总的任务调度,实际上的调度对象是线程;而进程只是给线程提供了虚拟内存、全局变量等资源。
我们可以这么理解:

1、当进程只有一个线程时,可以认为进程就等于线程
2、当进程拥有多个线程时,这些线程会共享相同的虚拟内存和全局变量等资源。这些资源在上下文切换是不需要修改的。

另外,线程也有自己的私有数据,比如栈和寄存器等,这些在上下文切换时也是需要保存的。
所以线程的上下文切换分为两种情况:

1、前后两个线程属于不同进程。此时,因为资源不共享,所以切换过程就跟进程上下文切换是一样的
2、前后两个线程属于同一个进程。此时,因为虚拟内存和全局变量是共享的,所以在切换时,虚拟内容这些资源就保持不动,只需要切换线程的私有数据、寄存器等不共享的数据。就会消耗更少的资源,而这正是多线程代替多进程的一个优势

中断上下文切换

为了快速响应硬件的事件,中断处理会打断进程的正常调度和执行,转而调用中断处理程序,响应设备时间。而在打断其进程时,就需要将进程的当前状态保存下来,这样在中断结束后,进程仍可以从原来的状态恢复运行
跟进程上下文不同,中断上下文切换并不涉及到进程的用户态。所以即便中断了一个正处在用户态的进程,也不需要保存和恢复这个进程的虚拟内存、全局变量等用户态资源。中断上下文,其实只包括内核态中断服务程序执行所必须的状态,包括cpu寄存器,内核堆栈、硬件终端参数等

对同一个cpu来说,终端处理比进程拥有更高的优先级,所以终端上下文切换并不会与进程上下文切换同时发生。跟进程上下文切换一样,中断上下文切换也需要消耗cpu,切换次数过多也会耗费大量的cpu,甚至严重降低系统的整体性能。所以,当你发现中断次数过多时,就需要注意去排查它是否会给你的系统带来严重的性能问题。

总结
  1. cpu上下文切换,是保证linux系统正常工作的核心功能之一,一般情况下不需要我们特别关注
  2. 但过多的上下文切换,会把cpu时间消耗在寄存器、内核栈以及虚拟内存等数据的保存和恢复上,从而缩短进程真正运行的时间,导致系统的整体性能大幅下降

与[转帖]cpu上下文切换相似的内容:

[转帖]cpu上下文切换

https://www.jianshu.com/p/280778660ffc cpu上下文切换,就是先把前一个任务的cpu上下文(cpu寄存器和程序计数器)保存起来,然后加载新任务的上下文到这些寄存器和程序计数器,最后跳转到程序计数器所指的新位置,运行新任务。根据任务的不同,cpu上下文切换可以分为

[转帖]Linux—CPU核数、上下文切换介绍及pidstat等命令详解

https://www.jianshu.com/p/0ae0c1153c34 关注:CodingTechWork,一起学习进步。 引言 并发编程 并发编程的目的是为了改善串行程序执行慢问题,但是,并不是启动更多线程就能够让程序执行更快。因为在并发时,容易受到软硬件资源等限制,从而导致上下文切换慢,频

[转帖]Linux性能分析(二):理解CPU上下文切换

在计算机中,上下文切换是指存储进程或线程的状态,以便以后可以还原它并从同一点恢复执行。这允许多个进程共享一个CPU,这是多任务操作系统的基本功能。 Linux 是一个多任务操作系统,它支持远大于 CPU 数量的任务同时运行,这依赖于CPU上下文切换。CPU 上下文切换,就是先把前一个任务的 CPU

[转帖]通过实战理解CPU上下文切换

Linux是一个多任务的操作系统,可以支持远大于CPU数量的任务同时运行,但是我们都知道这其实是一个错觉,真正是系统在很短的时间内将CPU轮流分配给各个进程,给用户造成多任务同时运行的错觉。所以这就是有一个问题,在每次运行进程之前CPU都需要知道进程从哪里加载、从哪里运行,也就是说需要系统提前帮它设

[转帖]《Linux性能优化实战》笔记(二)—— CPU 上下文切换(上)

上一篇的最后一个例子,在多个进程竞争CPU时,我们看到每个进程实际上%usr部分只有20%多,70%多是在wait,但是load远远高于单个进程使用CPU达到100%。 这让我想到之前看的RWP公开课,里面有一篇连接池管理。为什么相同的业务量,起6千个连接(进程)远远要慢于200个连接,因为绝大多数

[转帖]《Linux性能优化实战》笔记(三)—— CPU 上下文切换(下)

上篇介绍了三种CPU 上下文切换以及它们可能造成的问题和原因,这一篇来看看在系统中如何发现CPU 上下文切换问题。 一、 查看上下文切换情况 主要使用两个命令:vmstat以及之前用过的pidstat。 1. vmstat # 每隔5秒输出1组数据vmstat 5 procs memory swap

【转帖】Linux性能优化(十三)——CPU性能测试

一、CPU上下文切换测试场景 使用sysbench模拟多线程调度: sysbench --threads=10 --time=300 threads run 使用vmstat查看CPU上下文切换: cs列上下文切换次数超过150万次。 r列就绪队列长度最大达到8,超过系统CPU的个数4,存在大量的C

[转帖]如何分析上下文切换问题

https://www.jianshu.com/p/40188dff99e9 vmstat vmstat:是一个常用的系统性能分析工具,主要用来分析系统的内存使用情况,也常用来分析cpu上下文切换和中断次数 [wanchao@localhost ~]$ vmstat 5 procs memory s

[转帖]如何分析上下文切换问题

https://www.jianshu.com/p/40188dff99e9 vmstat vmstat:是一个常用的系统性能分析工具,主要用来分析系统的内存使用情况,也常用来分析cpu上下文切换和中断次数 [wanchao@localhost ~]$ vmstat 5 procs memory s

[转帖]疑问:进程在竞争CPU时并没有真正运行,为什么还会导致系统的负载升高?

疑问:进程在竞争CPU时并没有真正运行,为什么还会导致系统的负载升高? 因为存在CPU上下文切换。 linux系统说明 Linux是一个多任务操作系统,它支持远大于CPU数量的任务同时运行。当然,这些任务实际上并不是真的在同时运行,而是因为系统在很短的时间内,将CPU轮流分配给他们,造成多任务同时运