基于Python的性能分析

python · 浏览次数 : 0

小编点评

**1.2、statprof统计式性能分析优点** - 分析的数据更少:对程序执行过程中进行抽样,不用保留每一条数据。 - 对性能造成的影响更小:使用抽样式(用操作系统中断),目标程序的性能遭受的干扰更小。 **3.1、单进程分析** - 使用 `memory_profiler` 模块创建大矩阵并将其写入队列中。 - 使用 `matplotlib` 可视化矩阵数据。 **3.2、多进程分析** - 使用 `multiprocessing` 模块创建多个进程,并使用 `Queue` 作为通信方式。 - 使用 `matplotlib` 可视化进程内存使用情况。 **4.总结** - cProfile 主要用于统计函数调用次数、执行时间等。 - 使用 `memory_profiler` 模块进行内存分析。 - 使用 `matplotlib` 可视化程序运行过程中的内存使用情况。

正文

1、什么是性能分析

字面意思就是对程序的性能,从用户角度出发就是运行的速度占用的内存

通过对以上情况的分析,来决定程序的哪部份能被优化。提高程序的速度以及内存的使用效率。

首先我们要弄清楚造成时间方面性能低的原因有哪些

  1. 沉重的I/O操作,比如读取分析大文件,长时间执行数据库查询,调用外部服务例如请求。
  2. 出现了内存泄露,消耗了所有内存,导致没有内存使用程序崩溃。
  3. 未经过优化的代码被频繁执行。
  4. 密集的操作在可以缓存的时没有缓存,占用大量资源。

大部分的性能瓶颈都是由I/O关联的代码引起

2、运行时间分析

1.1、cProfile性能分析器

这个工具并不关心内存消耗等信息。

import cProfile

def is_prime(n)-> bool:
    '''
    判断一个数是否为素数
    - n : 待判断的数
    '''
    if n <= 1:
        return False
    for i in range(2, int(n**0.5) + 1):
        if n % i == 0:
            return False
    return True

def sum_of_primes_below_n(n)-> bool:
    '''
    计算小于等于 n 的所有素数的和
    - n : 待计算的数
    - return : 所有素数的和
    '''
    total = 0
    for i in range(2, n + 1):
        if is_prime(i):
            total += i
    return total

def factorial(n)-> int:
    '''
    计算 n 的阶乘
    - n : 待计算的数
    - return : n 的阶乘
    '''
    if n == 0:
        return 1
    return n * factorial(n - 1)

def fibonacci(n)-> int:
    '''
    计算斐波那契数列的第 n 个数
    - n : 待计算的数
    - return : 第 n 个斐波那契数
    '''
    if n <= 1:
        return n
    return fibonacci(n - 1) + fibonacci(n - 2)

def main():
    cProfile.run('sum_of_primes_below_n(1000)')
    cProfile.run('factorial(20)')
    cProfile.run('fibonacci(20)')

if __name__ == "__main__":
    main()

image.png
这里用于统计函数的调用次数以及允许的时间,用于排查程序的瓶颈。

这里只作为举例,感兴趣的可以自行下去了解。

1.1.1、Profile类

这里只需要修改部分代码即可。

不存在透明的性能分析器,虽然cProfile只消耗极小的性能分析器,仍然会对代码造成影响。如果大量使用会对程序造成很大影响。

if __name__ == "__main__":
    pro = cProfile.Profile()
    pro.enable()
    main()
    pro.create_stats()
    pro.print_stats()

  • ncalls: 函数调用的次数。
  • tottime: 函数的总运行时间。
  • percall: 平均每次函数调用的运行时间(tottime除以ncalls)。
  • cumtime: 函数及其所有子函数调用的总运行时间。
  • percall: 平均每次函数调用的累积运行时间(cumtime除以ncalls)。
  • filename:lineno(function): 函数所在的文件名、行号以及函数名。

这里很显然更详细,更可靠。这里补充一些其他方法,感兴趣的可以下去自行了解。

enable() 开始收集性能分析数据
disable() 停止收集性能分析数据
create_stats() 停止收集数据,并为已收集的数据创建stats对象
print_stats(sort=-1) 创建一个stats对象,打印分析结果
dump_stats(filename) 把当前性能分析的内容写进一个文件
run(cmd) 将指定函数的性能分析结果打印出来
runctx(cmd,globals,locals) 在指定的全局和局部命名空间中运行一个字符串表示的 Python 命令,并对其进行性能分析
runcall(func,*args,**kwargs) 收集被调用函数func的性能分析信息

1.1.2、Sats类

用于分析 Profile 收集的数据。

if __name__ == "__main__":
    pro = cProfile.Profile()
    pro.enable()
    main()
    pro.create_stats()
    p = pstats.Stats(pro)
    p.print_stats(3,1.0,'.*.py.*')

  • 3: 限制打印输出的行数,仅打印前10行。
  • 1.0: 限制仅打印累积运行时间占总运行时间的1%以上的函数。
  • '.*.py.*': 使用正则表达式过滤函数名,仅打印包含'.py.'的函数。

这里还有许多其他的用法,这里只是简单举例。感兴趣的可以自行了解。

1.2、statprof统计式性能分析

优点:

  • 分析的数据更少:对程序执行过程中进行抽样,不用保留每一条数据。
  • 对性能造成的影响更小:使用抽样式(用操作系统中断),目标程序的性能遭受的干扰更小。
import statprof
def is_prime(n)-> bool:
    '''
    判断一个数是否为素数
    - n : 待判断的数
    '''
    if n <= 1:
        return False
    for i in range(2, int(n**0.5) + 1):
        if n % i == 0:
            return False
    return True

def sum_of_primes_below_n(n)-> bool:
    '''
    计算小于等于 n 的所有素数的和
    - n : 待计算的数
    - return : 所有素数的和
    '''
    total = 0
    for i in range(2, n + 1):
        if is_prime(i):
            total += i
    return total

def factorial(n)-> int:
    '''
    计算 n 的阶乘
    - n : 待计算的数
    - return : n 的阶乘
    '''
    if n == 0:
        return 1
    return n * factorial(n - 1)

def fibonacci(n)-> int:
    '''
    计算斐波那契数列的第 n 个数
    - n : 待计算的数
    - return : 第 n 个斐波那契数
    '''
    if n <= 1:
        return n
    return fibonacci(n - 1) + fibonacci(n - 2)

def main():
    sum_of_primes_below_n(1000)
    factorial(100)
    fibonacci(30)

if __name__ == "__main__":
    statprof.start()
    main()
    statprof.stop()
    statprof.display()
 

Sample count: 72 这里表示采样的次数,statprof一共采样了72次
Total time: 0.210000 seconds 整个性能分析的总时间
time 这一列为占用程序的百分比
seconds 这一列为函数在调用栈中的累积时间
seconds 这一列为函数自身消耗的时间,不包括调用其他函数
name 这一列为函数的名称

这里不必将整个程序运行完毕,更节省时间(在性能需要优化的情况下)。其次采样分析,数据更加可靠。

这里依然只是做个简单的例子,感兴趣的可以自行下去了解。

总结:cProfile主要用于统计函数调用次数、执行时间等。相对来说性能开销是比较小的。并且有多种输出格式,例如JSON等数据格式,这里只是举例,感兴趣的可以自行了解。

3、运行内存分析

这里使用模块memory_profiler举例,用对程序运行时的内存监控。

可以分别对单进程、多进程、记录子进程内存占用,多进程记录子进程内存占用。

并且可以使用matplotlib进行数据的可视化,支持多种可视化样式。这里分别做简单解释。

3.1、单进程分析

这里为了便于理解,就不涉及复杂的代码,所以可能效果没有这么明显,感兴趣可以自己去了解

import numpy as np
import time

def create_large_array(n):
    '''创建n*n的矩阵
    - param size: 矩阵大小
    - return: 矩阵'''
    return np.zeros((n, n))

def modify_array(arr):
    '''修改矩阵的值
    arr: 矩阵'''
    size = arr.shape[0]
    arr[:size//2, :size//2] += 1
         
if __name__ == "__main__":
    large_array = create_large_array(1000)
    for i in range(10):
        modify_array(large_array)
        time.sleep(1)
        large_array = create_large_array(1000 + i * 100)   

运行mprof run main.py

会生成一个.dat文件。可以使用matplotlib进行可视化,效果更明显。

如果只有一个dat文件的话,可以直接运行mprof plot

如果有多个dat文件的话,需要接文件名mprof plot filename.dat

可以清晰的看到程序运行时间段的内存使用情况,情况在业务中远比这复杂的多。

3.2、多进程分析

import numpy as np
import time
from multiprocessing import Process, Queue

def create_large_array(n, queue):
    '''创建n*n的矩阵并将其放入队列中
    - param n: 矩阵大小
    - param queue: 进程通信队列
    '''
    arr = np.zeros((n, n))
    queue.put(arr)

def modify_array(arr):
    '''修改矩阵的值
    arr: 矩阵'''
    size = arr.shape[0]
    arr[:size//2, :size//2] += 1

if __name__ == "__main__":
    queue = Queue()
    create_large_array(1000, queue)

    for i in range(5):
        large_array = queue.get()
        process = Process(target=modify_array, args=(large_array,))
        process.start()
        time.sleep(1)
        create_large_array(1000 + i * 100, queue)
        process.join()

mprof run --include-children --multiprocess filename.py

生成dat分析文件,使用matplotlib可视化

可以很直观的感受程序中各进程的内存使用情况,可以看到是下降趋势的,说明没有出现内存泄露,如果是一直规律的向上增长,那么你可能需要注意啦。

这里使用matplotlib绘图还有各种各样的样式,感兴趣的可以下去了解。包括各式各样的分析工具。

4、总结

这里主要简单分析程序的运行的运行时间和程序在运行过程中的内存使用情况。

时间方面,可以函数分析也可以逐句分析。这里大家可以自行下去了解。

内存方面,主要是要避免出现内存泄露,通过分析进程、线程的内存使用情况,判断瓶颈。

实际情况可能远比这复杂的多,这里的代码都只是用于简单示例,感兴趣的可以去研究一下。

顺便分享一下我在实际项目中对内存分析的结果。

与基于Python的性能分析相似的内容:

基于Python的性能分析

1、什么是性能分析 字面意思就是对程序的性能,从用户角度出发就是运行的速度,占用的内存。 通过对以上情况的分析,来决定程序的哪部份能被优化。提高程序的速度以及内存的使用效率。 首先我们要弄清楚造成时间方面性能低的原因有哪些 沉重的I/O操作,比如读取分析大文件,长时间执行数据库查询,调用外部服务例如

python轻量级性能工具-Locust

Locust基于python的协程机制,打破了线程进程的限制,可以能够在一台测试机上跑高并发 性能测试基础 1.快慢:衡量系统的处理效率:响应时间 2.多少:衡量系统的处理能力:单位时间内能处理多少个事务(tps) 性能测试根据测试需求最常见的分为下面三类 1 负载测试load testing 不断

基于k6和python进行自动化性能测试

摘要:在性能测试中,达到相应的性能指标对于一个软件来说十分重要,在本文中,将介绍一种现代化性能测试工具k6。 本文分享自华为云社区《基于k6和python进行自动化性能测试》,作者: 风做了云的梦。 当我们开发完成一个应用程序时,往往需要对其进行性能测试,以帮助我们更好的优化程序以及发现程序中的一些

算法金 | 必会的机器学习评估指标

构建机器学习模型的关键步骤是检查其性能,这是通过使用验证指标来完成的。 选择正确的验证指标就像选择一副水晶球:它使我们能够以清晰的视野看到模型的性能。 在本指南中,我们将探讨分类和回归的基本指标和有效评估模型的知识。 学习何时使用每个指标、优点和缺点以及如何在 Python 中实现它们 1 分类指标

基于Python的性能优化

通过多线程、协程和多进程可以显著提升程序的性能。多线程适用于I/O密集型任务,尽管受限于Python的GIL,但能在I/O等待期间提高并发性。协程则更为轻量和高效,特别适合处理大量异步I/O操作。

Dubbo3应用开发—XML形式的Dubbo应用开发和SpringBoot整合Dubbo开发

Dubbo3程序的初步开发 Dubbo3升级的核心内容 易⽤性 开箱即⽤,易⽤性⾼,如 Java 版本的⾯向接⼝代理特性能实现本地透明调⽤功能丰富,基于原⽣库或轻量扩展即可实现绝⼤多数的 微服务治理能⼒。更加完善了多语言支持(GO PYTHON RUST) 超⼤规模微服务实践 ⾼性能通信(Tripl

性能的极致,Rust的加持,Zed-Dev编辑器快速搭建Python3.10开发环境

快就一个字,甚至比以快著称于世的Sublime 4编辑器都快,这就是Zed.dev编辑器。其底层由 Rust 编写,比基于Electron技术微软开源的编辑器VSCode快一倍有余,性能上无出其右,同时支持多人编辑代码。 安装和配置Zed.dev Zed.dev编辑器还在灰度测试阶段,暂时只释出了M

深入理解Python多进程:从基础到实战

title: 深入理解Python多进程:从基础到实战 date: 2024/4/29 20:49:41 updated: 2024/4/29 20:49:41 categories: 后端开发 tags: 并发编程 多进程管理 错误处理 资源调度 性能优化 异步编程 Python并发库 引言 在P

[python] 基于PyWaffle库绘制华夫饼图

华夫饼图Waffle chart是一种独特而直观的图表,用于表示分类数据。它采用网格状排列的等大小方格或矩形,每个方格或矩形分配不同的颜色或阴影来表示不同的类别。这种可视化方法有效地传达了每个类别在整个数据集中的相对比例。本文介绍如何使用基于Python的PyWaffle库绘制华夫饼图。PyWaff

聊聊神经网络的基础知识

来自《深度学习入门:基于Python的理论与实现》 张量 Numpy、TensorFlow、Pytorch等框架主要是为了计算张量或是基于张量计算。 标量:0阶张量;12,4,3, 向量:一阶张量;[12,4,3] 矩阵:二阶张量;[ [12,4,3], [11,2,3] ] 多阶张量:多维数组;