百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

esProc SPL 分组运算史上最强,没有之一

ccwgpt 2025-02-26 11:17 34 浏览 0 评论

分组是常见的结构化数据计算,SQL 和 Python 都有相应的语句和函数来处理。不过,和 esProc SPL 提供的分组运算相比,这些语言都弱得多了。

常规的分组一般都会伴随着聚合,比如要计算各部门的员工人数,用 SQL 写出来是这样的:

select DEPT,count(1) emp_count from employee group by DEPT


这种基本的分组聚合运算,SPL 当然也会提供:

T("employee.csv").groups(DEPT;count(1):emp_count)

和 SQL 差不多。

除此之外,SPL 还有更丰富的分组运算,下面列举两种情况:

1.分组子集

有时候我们不仅关心分组聚合值,还关心每组包含的明细数据,也就是分组子集。

比如,要查出人数大于 10 的部门有哪些员工,很简单的思路是按部门把全部员工拆成若干子集合,形成一个集合的集合,再从中过滤出长度大于 10 的分组子集,最后把这些子集合并,得到需要的结果。

这就不能在分组后强制聚合了,要保持分组子集。

SPL 支持分组子集:

T("employee.csv").group(DEPT).select(~.len()>10).conj()


group 函数按照部门拆分分组子集,select 过滤出长度大于 10 的子集,conj 合并这些子集。

SQL 分组总是和聚合绑定,没有分组子集的概念,这个问题的最简单解法要遍历两次:

select *
from employee
where DEPT in
    (select DEPT
     from employee
     group by DEPT
     having count(1)>10)
order by DEPT


先用子查询分组找出人数大于 10 的部门,再在外层查询中重新过滤出员工明细数据。

Python 本质上也没有分组子集的对象, groupby 返回结果并不是分组子集构成的集合,不过当前这个问题只要做一步过滤,还可以借助 lambda 语法较简洁地解决:

import pandas as pd
employee = pd.read_csv('employee.csv')
groups = employee.groupby('DEPT').filter(lambda x: len(x) > 10)
result = groups.sort_values(by='DEPT')


看起来和 SPL 的运算逻辑是一样的,相当于实现了分组子集概念,这里 lambda 里的 x 和 SPL 中的 ~ 有同样意义。但不同的是,filter 返回的不是集合的集合,而是自动拼成了单层集合,所以不像 SPL 那样还需要用 conj 做合并。

这样,filter 的结果就不再是分组子集的集合,而无法继续参与分组子集相关的运算了。

我们来进一步针对分组子集做更多操作:找出人数大于 10 的部门后,将这些部门按照其员工平均薪酬从大到小排列,部门内员工也按薪酬从大到小排列。

这就需要对分组子集构成的集合连续操作,先过滤后排序,再对每个子集排序。

SPL 可以很自然的接着刚才的代码继续实现这个过程:

=T("employee.csv").group(DEPT).select(~.len()>10).sort(-~.avg(SALARY)).(~.sort(-SALARY)).conj()


没有分组子集的 SQL 还是要遍历两次,而且还要配合 join:

select * from employee
join (
    select DEPT,avg(SALARY) as avg_salary,
    from employee
    group by DEPT
    having count(1) > 10
) dept_stats on employee.DEPT = dept_stats.DEPT
order by 
    dept_stats.avg_salary desc,
SALARY desc

子查询计算平均薪酬,内外层查询要改成 join 连接,代码有点绕。

Python 的分组子集机制此时也无能为力了,分组后再做的操作都会把结果变成单层表,如果要继续针对分组子集计算,就要再次分组以重新生成分组子集:

import pandas as pd
employee = pd.read_csv('employee.csv')
groups = employee.groupby('DEPT').filter(lambda x: len(x) > 10)
dept_avg_salary = groups.groupby('DEPT')['SALARY'].mean().reset_index(name='avg_salary')
merged_df = pd.merge(groups, dept_avg_salary, on='DEPT') 
sorted_df = merged_df.sort_values(by=['avg_salary', 'SALARY'], ascending=[False, False])
final_result = sorted_df[employee.columns]


第一步 filter 返回了单层表,之后要再次分组来计算聚合值。后面的代码还要延用前面 SQL 中的部分思路,用 merge 或者 join 将聚合值拼上才能实现排序的目标。

Python 并没有真正的分组子集机制,借助 Lambda 语法可以在一步运算中实现分组子集的效果,从而实现较复杂的聚合运算,这当然比 SQL 有优势得多,但和 SPL 相比还是差很远。

对于这个问题,Python 一定要只分组一次的话,也可以全部用前面 SQL 的思路,但仍会遍历两次,而且代码更繁琐,这里就不写了。

用到分组子集的计算非常常见,在著名的问答网站上很容易找出相关问题,比如:

https://stackoverflow.com/questions/78324132/how-do-i-perform-recursive-search-in-oracle

https://stackoverflow.com/questions/78346354/adding-tuple-rows-to-each-subtuple-group-in-sql

https://stackoverflow.com/questions/78456365/column-comparison-between-rows-of-the-same-group-used-in-partition-by-clause

2.有序分组

分组子集常常会和有序分组相关。

比如求某支股票最长连涨天数,除了直接遍历的计算方法之外,还可以用分组来解决:将股票收盘价按日期排序后遍历数据,当某天上涨了,就把这一天和前一天分到一个组中,某天下跌了,则产生一个新组。遍历完成后,连续上涨的日期被分到了同一组,接下来只要考查哪一组成员数最多就可以了。

但是,这个分组并不是常规的等值分组,而是在遍历过程中按照条件变化有序分组。

SPL 就支持这种根据条件变化的有序分组:

stock.sort(Date).group@i(Price<=Price[-1]).max(~.len())


group 加上 @i 选项,会在表达式 Price<=Price[-1] 为真时,也就是股票没有涨价的情况下,产生新的分组。SPL 支持跨行引用,Price[-1] 是上一行的收盘价。

SQL 没有这种运算,就会麻烦很多:

SELECT MAX(ContinuousDays)
FROM(
    SELECT COUNT(*) AS ContinuousDays
    FROM (
        SELECT SUM(RisingFlag) OVER (ORDER BY Date) AS NoRisingDays
        FROM(
            SELECT Date, 
                    CASE WHEN Price > LAG(Price) OVER (ORDER BY Date) THEN 0
                    ELSE 1 END AS RisingFlag
            FROM stock
			)
         )
    )
GROUP BY NoRisingDays


由于没有有序分组,SQL 只能借助“累计未上涨天数”转换成普通的等值分组,整个过程非常绕。判断上涨和计算累计值都需要窗口函数配合子查询才能实现,结果就是两个窗口函数且嵌套四层的情况,代码难写难懂。

Python 也没有直接的有序分组,要像 SQL 一样衍生出一列累积值再转换成等值分组,思路同样绕,只是 Python 有更强的相邻计算,代码会比 SQL 简洁一些:

stock = pd.read_csv('stock.csv')
stock.sort_values(by=['Date'], inplace=True)
stock['NoRisingDays'] = stock['Price'].diff() > 0
grouped=stock.groupby((~stock['NoRisingDays']).cumsum())['NoRisingDays'].cumsum().where(stock['NoRisingDays'], 0)
max_increase_days = grouped.max()


涉及有序分组的实际问题也有很多,比如:

https://stackoverflow.com/questions/78442803/list-of-all-the-last-people-to-enter-the-elevator

https://stackoverflow.com/questions/78232342/sql-query-to-track-production-operations-outcome-progression-with-conditional-nu

https://stackoverflow.com/questions/64099063/oracle-sql-data-migration-row-to-column-based-in-month

分组子集和有序分组还有可能出现嵌套。

比如我们想统计每支股票的最长连涨天数,可以先按照股票代码分组,保持每个股票的分组子集,然后在每个子集内采用上述有序分组的办法计算最长连涨天数。

SPL 有真正意义上的分组子集概念,也支持有序分组,轻松实现两者的嵌套计算:

stock.sort(Date).group(Code;~.group@i(Price<=Price[-1]).max(~.len()):max_increase_days)


简单把前面两种用法组合起来就可以了。

SQL 则要在窗口函数中增加股票代码用来做分区字段:

SELECT Code, MAX(ContinuousDays)
FROM(
    SELECT Code, COUNT(*) AS ContinuousDays
    FROM(
        SELECT Code, Date, SUM(RisingFlag) OVER (PARTITION BY Code ORDER BY Code, Date) AS NoRisingDays
        FROM(
            SELECT Code, Date, 
                    CASE WHEN Price > LAG(Price) OVER (PARTITION BY Code ORDER BY Code, Date)  THEN 0
                    ELSE 1 END AS RisingFlag
            FROM stock
        	)
        )
    GROUP BY Code, NoRisingDays
    )
GROUP BY Code  


前面代码理解后,这样修改倒不是很难,但代码更繁琐了。

Python 既无法实现分组子集的连续操作,也不支持有序分组,只能用前面的办法把有序分组转换成等值分组,再加上多次重复分组实现:

import pandas as pd
stock = pd.read_csv('stock.csv')
stock.sort_values(by=['Code', 'Date'], inplace=True)
stock['NoRisingDays']=stock.groupby('Code')['Price'].diff().fillna(0).le(0).astype(int).cumsum()
grouped=stock.groupby(['Code','NoRisingDays']).size().reset_index(name='ContinuousDays')
max_increase_days = grouped.groupby('Code')['ContinuousDays'].max()
max_rise_df = max_increase_days.reset_index(name='max_increase_days')


代码很绕而且繁琐。

分组子集嵌套有序分组的实际问题也有不少:

https://stackoverflow.com/questions/78319976/postgresql-how-to-calculate-swipe-in-and-swipe-out-time

https://stackoverflow.com/questions/64116840/sql-formatting-to-user-friendly-date

https://stackoverflow.com/questions/78422651/identify-groups-of-sequential-records

SPL 还有对位分组,枚举分组,序号分组等更多业界独特的分组方法,远比 SQL 和 Python 丰富的多,是名副其实的史上最强。

SPL已开源免费,欢迎前往乾学院了解更多!

相关推荐

用Deepseek扩写土木工程毕业论文实操指南

用Deepseek扩写毕业论文实操指南一、前期准备整理现有论文初稿/提纲列清楚论文核心框架(背景、现状、意义、方法、数据、结论等)梳理好关键文献,明确核心技术路线二、Deepseek扩写核心思路...

985学霸亲授,DeepSeek也能绘6大科研图表,5分钟就出图

在实验数据处理中,高效可视化是每个科研人的必修课。传统绘图软件操作复杂、耗时费力,而智能工具DeepSeek的出现彻底改变了这一现状。本文将详解如何用DeepSeek一键生成六大科研常用图表,从思维导...

AI写论文刷屏?大学生正在丢掉的思考力

一、宿舍深夜:当论文变成"Ctrl+C+V"凌晨两点的大学宿舍,小王对着电脑屏幕叹气。本该三天前开始写的近代史论文,此刻还一片空白。他熟练打开某AI写作网站,输入"论五四运动的...

Grok在辅助论文写作上能不能既“聪明”又“可怕”?!

AcademicIdeas-学境思源AI初稿写作随着人工智能技术的飞速发展,论文写作这一学术任务正迎来新的助力。2025年2月18日,美国xAI公司推出了备受瞩目的Grok3模型,其创始人埃隆·...

大四论文沟通场景!音频转文字难题听脑AI来化解

大四学生都知道,写论文时和导师沟通修改意见,简直是“过关斩将”。电话、语音沟通完,想把导师说的修改方向、重点要求记下来,麻烦事儿可不少。手写记不全,用普通录音转文字工具,转完还得自己慢慢找重点,稍不注...

论文写作 | 技术路线图怎么画?(提供经典优秀模板参考)

技术路线图是一种图表或文字说明,用于描述研究目标、方法和实施计划。它展示了研究的整体框架和步骤,有助于读者理解研究的逻辑和进展。在课题及论文中,技术路线图是常见的一部分,甚至是一个类似心脏一样的中枢器...

25年信息系统项目管理师考试第2批论文题目写作建议思路框架

25年信息系统项目管理师考试第2批论文题目写作建议思路框架--马军老师

微信购物应尽快纳入法律框架(微信购物管辖)

符向军近日,甘肃省工商行政管理局发布《2016年上半年信息分析报告》。报告显示,微信网购纠纷迅猛增长,网络购物投诉呈上升趋势。投诉的主要问题有出售的商品质量不过关、消费者通过微信付款后对方不发货、购买...

泛珠三角区域网络媒体与腾讯微信签署《战略合作框架协议》

新海南客户端、南海网7月14日消息(记者任桐)7月14日上午,参加第四届泛珠三角区域合作网络媒体论坛的区域网络媒体负责人及嘉宾一行到腾讯微信总部座谈交流,并签署《战略合作框架协议》(以下简称《框架协...

离线使用、植入微信-看乐心Mambo手环如何打破框架

从2014年开始智能手环就成功进入人们的生活,至今已经演变出数据监测、信息推送、心率监测等诸多五花八门的功能,人们选择智能手环并不指望其能够改变身体健康情况,更多的是通过数据来正视自身运动情况和身体健...

微信私域电商运营策略与框架(微信私域怎么做)

...

华专网络:如何零基础制作一个网站出来?

#如何零基础制作一个网站出来?#你是不是觉得网站建设很复杂,觉得自己是小白,需求不明确、流程搞不懂、怕被外包公司坑……这些问题我都懂!今天华专网络就用大白话给你捋清楚建站的全流程,让你轻松get网站制...

WAIC2024丨明日上午9点,不见不散!共同探讨智能社会与全球治理框架

大咖云集,硕果闪耀WAIC2024世界人工智能大会智能社会论坛将于7月5日9:00-12:00与你相约直播间WAIC2024上海杨浦同济大学哔哩哔哩多平台同步直播探讨智能社会与全球治理框架WAIC...

约基奇:森林狼换来戈贝尔时大家都在嘲笑 他们的阵容框架很不错

直播吧5月4日讯西部季后赛半决赛,掘金将迎战森林狼,约基奇赛前接受采访。约基奇说道:“当蒂姆-康纳利(森林狼总经理、前掘金总经理&曾选中约基奇)做了那笔交易(换来戈贝尔)时,每个人都在嘲笑他...

视频号带货为什么一个流量都没有?顶级分析框架送给你

视频号带货为什么一个流量都没有?遇到问题,一定是步步来分析内容,视频号带货一个流量都没有,用另外一个意思来讲,就可以说是零播放。为什么视频号带货一个流量都没有?跟你说再多,都不如来个分析框架。1、是否...

取消回复欢迎 发表评论: