当前位置: 首页 > news >正文

利用Python和Sprak求曲线与X轴上方的面积

有n组标本(1, 2, 3, 4), 每组由m个( , , ...)元素( , )组成(m值不定), . 各组样本的分布 曲线如下图所示. 通过程序近似实现各曲线与oc, cd直线围成的⾯积.

在这里插入图片描述

思路

  1. 可以将图像分成若干个梯形,每个梯形的底边长为(Xn+1 - Xn-1),面积为矩形的一半,其面积 = (底边长 X 高)/2,即S = (Xn+1 - Xn-1) * (Yn+1 + Yn+2),对于整个图形,面积为所有梯形面积之和。
    [图片]
  2. 求曲线与其下方x轴的面积,本质上是一个求积分的过程。可以对所有点进行积分,可以调用np.tapz(x, y)来求

代码

"""Calculate the area between the coordinates and the X-axis
"""import typing
from pandas import read_parquetdef calc_area(file_name: str) -> typing.Any:"""⾯积计算.Args:file_name: parquet⽂件路径, eg: data.parquetReturns:计算后的结果"""res = []# Load data from .parquetinitial_data = read_parquet(file_name)# Get number of groupsgroup_numbers = initial_data["gid"].drop_duplicates().unique()# Loop through the results for each groupfor i in group_numbers:data = initial_data[initial_data["gid"] == i]data = data.reset_index(drop=True)# Extract the list of x\yx_coordinates = data["x"]y_coordinates = data["y"]# Calculate area between (x[i], y[i]) and (x[i+1], y[i+1])rect_areas = [(x_coordinates[i + 1] - x_coordinates[i])* (y_coordinates[i + 1] + y_coordinates[i])/ 2for i in range(len(x_coordinates) - 1)]# Sum the total arearesult = sum(rect_areas)res.append(result)# Also we can use np for convenience# import numpy as np# result_np = np.trapz(y_coordinates, x_coordinates)return rescalc_area("./data.parquet")

或者使用pyspark

"""Calculate the area between the coordinates and the X-axis
"""import typing
from pyspark.sql import Window
from pyspark.sql.functions import lead, lit
from pyspark.sql import SparkSessiondef calc_area(file_name: str) -> typing.Any:"""⾯积计算.Args:file_name: parquet⽂件路径, eg: data.parquetReturns:计算后的结果"""res = []# Create a session with sparkspark = SparkSession.builder.appName("Area Calculation").getOrCreate()# Load data from .parquetinitial_data = spark.read.parquet(file_name, header=True)# Get number of groupsdf_unique = initial_data.dropDuplicates(subset=["gid"]).select("gid")group_numbers = df_unique.collect()# Loop through the results for each groupfor row in group_numbers:# Select a set of datadata = initial_data.filter(initial_data["gid"] == row[0])# Adds a column of delta_x to the data frame representing difference# from the x value of an adjacent data pointwindow = Window.orderBy(data["x"])data = data.withColumn("delta_x", lead("x").over(window) - data["x"])# Calculated trapezoidal areadata = data.withColumn("trap",(data["delta_x"]* (data["y"] + lit(0.5) * (lead("y").over(window) - data["y"]))),)result = data.agg({"trap": "sum"}).collect()[0][0]res.append(result)return rescalc_area("./data.parquet")

提高计算的效率

  • 可以使用更高效的算法,如自适应辛普森方法或者其他更快的积分方法
  • 可以在数据上进行并行化处理,对pd DataFrame\spark DataFrame进行分区并使用分布式计算
  • 在使用spark的时候可以为window操作制定分区来提高性能
  • 以下为与本例无关的笼统的提高效率的方法:
  1. 并行计算:使用多核CPU或分布式计算系统,将任务分解成多个子任务并行处理。
  2. 数据压缩:压缩大数据以减少存储空间和带宽,加快读写速度。
  3. 数据分块:对大数据进行分块处理,可以减小内存需求并加快处理速度。
  4. 缓存优化:优化缓存策略,减少磁盘访问和读取,提高计算效率。
  5. 算法优化:使用高效率的算法,比如基于树的算法和矩阵算法,可以提高计算效率。
http://www.lryc.cn/news/18886.html

相关文章:

  • 利用机器学习(mediapipe),进行人手的21个3D手关节坐标检测
  • 【添砖java】谁说编程第一步是hello world
  • el-table大数据量渲染卡顿问题
  • MyBatis-Plus 实现分页的几种写法
  • 记一次Binder内存不足导致的应用被杀
  • Zabbix4.0架构理解-zabbix的工作方式
  • MySQL中的一些非常实用的函数、语法
  • RT-Thread移植到STM32F407
  • VR全景到底有多全能?为何屡受关注?
  • 剑指 Offer 30. 包含min函数的栈
  • stm32f407探索者开发板(二十二)——通用定时器基本原理讲解
  • cmake 入门三 常用变量和指令
  • Linux基础命令-find搜索文件位置
  • 获取浏览器硬件资源的媒体数据(拍照、录音、录频、屏幕共享)
  • Java入门教程||Java 日期时间||Java 正则表达式
  • 详解八大排序算法
  • python库streamlit学习笔记
  • C/C++开发,无可避免的内存管理(篇一)-约束好跳脱的内存
  • 在React项目中引入字体文件并使用
  • STM32 CubeMX按键点灯
  • 2023链动2+1模式到底是什么?带你了解核心规则
  • 【Java面试八股文宝典之基础篇】备战2023 查缺补漏 你越早准备 越早成功!!!——Day14
  • K8S篇-搭建kubenetes集群
  • 文本生成图像简述4——扩散模型、自回归模型、生成对抗网络的对比调研
  • 财务共享建设,为什么需要电子影像系统?
  • 「RISC-V Arch」SBI 规范解读(下)
  • Android framework socketpair
  • 腾讯在海外游戏和短视频广告领域的新增长机会
  • 查找该学号学生的成绩。
  • 为Webpack5项目引入Buffer Polyfill