Excel 数据挖掘

  • Excel筛选复杂,统计耗时,无法快速挖掘数据价值
  • 1.数据筛选核心:df.loc与df.iloc,精准定位你想要的数据
    • 1.1基于条件筛选:过滤数据中的不恰当因素
    • 1.2 多条件组合筛选:精确锁定目标数据
    • 1.3字符串匹配筛选:查找包含特定关键词的数据
  • 2. 数据聚合与分组统计:数据汇总的关键groupby
    • 2.1 按单列分组统计:快速掌握分类数据概况
    • 2.2按多列分组统计:多维度交叉分析数据
    • 2.3应用多种聚合函数:从不同角度解读数据
  • 3.高级统计:透视表与交叉表自动化生成
    • 3.1pivot_table:轻松生成复杂数据透视表
    • 3.2crosstab:自动化构建交叉分析表
  • 4.你的“Excel数据分析利器”!
  • 5.尾声:数据分析自动化,让决策更精准!

Excel筛选复杂,统计耗时,无法快速挖掘数据价值

Excel筛选复杂,统计耗时,无法快速挖掘数据价值!

在职场中, 我们经常被海量Excel数据“淹没”?

想统计每个部门的平均工资、每个产品的总销量,却要在Excel中手动插入复杂公式,或者拖拽半天才能看到结果。

更恼人的是,辛辛苦苦整理出的数据,往往只能得到表面的数字,却无法快速从中看出“哪个产品最畅销?”、“哪个区域业绩下滑最严重?”这些真正有价值的数据洞察,从而难以辅助决策!

这种Excel筛选复杂、统计耗时的痛点,是许多职场数据分析的噩梦。
数据分析

今天,我将带你进入Python数据分析的世界!我们将手把手教你如何利用数据处理的“瑞士军刀”——Pandas库,轻松实现:

Python筛选Excel: 精准定位你想要的数据。

数据分组统计: 轻松实现数据汇总,从宏观角度看清数据。

自动化生成透视表与交叉表: 高级统计报表,一键呈现复杂分析结果。

最终,你将拥有一个强大的Excel数据分析利器”,全面提升办公自动化能力。

1.数据筛选核心:df.loc与df.iloc,精准定位你想要的数据

在Python筛选Excel中,能够精确地从海量数据中提取出你需要的部分,是Python数据分析的第一步。

Pandas的DataFrame提供了多种强大的筛选方法,其中df.loc和df.iloc是最常用的手段。

功能:
df.loc:主要通过**标签(列名、行索引名)**进行筛选,也支持布尔条件。

df.iloc:主要通过**整数位置(行号、列号)**进行筛选。

布尔条件筛选: 最常用,根据数据的真/假值来选择行。

1.1基于条件筛选:过滤数据中的不恰当因素

场景: 你有一份销售订单表,只想看“销售额大于20000”的记录,或者“区域”是“东北”的订单。

方案: Pandas的布尔条件筛选能让你像在Excel中设置筛选器一样,通过简单的逻辑表达式,精准定位你想要的数据,过滤掉无关数据

代码:

import pandas as pd
import osdef filter_data_by_condition(file_path, output_path, condition_type="sales_amount"):"""根据条件筛选Excel数据。这是Python筛选Excel和数据自动化处理的基础。:param file_path: 源Excel文件路径:param output_path: 筛选后Excel文件的输出路径:param condition_type: 筛选条件类型 ("sales_amount", "region", "multi_condition")"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在根据条件筛选文件 '{os.path.basename(file_path)}'...")print("   --- 原始数据头部 ---")print(df.head())df_filtered = Noneif condition_type == "sales_amount":# 筛选销售额大于5000的记录df_filtered = df[df['销售额'] > 20000]print("   ℹ️ 筛选条件:销售额 > 20000")elif condition_type == "region":# 筛选区域为“华东”的记录df_filtered = df[df['区域'] == '东北']print("   ℹ️ 筛选条件:区域 == '东北'")elif condition_type == "multi_condition":# 组合条件筛选:区域是“华南” 并且 销售额大于5000df_filtered = df[(df['区域'] == '华南') & (df['销售额'] >5000)]print("   ℹ️ 筛选条件:区域 == '华南' AND 销售额 > 8000")else:print("⚠️ 未知筛选条件类型。")returnos.makedirs(os.path.dirname(output_path), exist_ok=True)df_filtered.to_excel(output_path, index=False)print(f"✅ 数据筛选成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 筛选后数据头部 ---")print(df_filtered.head())except Exception as e:print(f"❌ 数据筛选失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data.xlsx")pd.DataFrame({'区域': ['华东', '华南', '华北', '华东', '华南'], '销售额': [6000, 9000, 4000, 12000, 7500], '产品': ['A', 'B', 'C', 'D', 'E']}).to_excel(test_excel_path, index=False)print("--- 示例1:筛选销售额大于5000 ---")filter_data_by_condition(test_excel_path, os.path.expanduser("~/Desktop/sales_gt_5000.xlsx"), "sales_amount")print("\n--- 示例2:筛选华东区域 ---")filter_data_by_condition(test_excel_path, os.path.expanduser("~/Desktop/sales_huadong.xlsx"), "region")

步骤:

准备Excel文件: 在桌面创建sales_data.xlsx,输入一些销售数据(包含区域、销售额等)。

修改代码路径和筛选条件: 修改 test_excel_path 等,并选择 condition_type。

运行: 运行 python filter_data.py。

展示:
基于条件筛选

1.2 多条件组合筛选:精确锁定目标数据

当你的筛选条件不止一个时,Pandas可以轻松通过逻辑运算符(&代表“且”,|代表“或”,~代表“非”)进行多条件组合筛选。

场景: 你需要找到华东南域所有销售额大于5000的产品,或者找出所有“耳机”或“背包”的销售记录。

代码:

import pandas as pd
import osdef multi_condition_filter_excel(file_path, output_path):"""根据多个条件组合筛选Excel数据。这是Python筛选Excel的高级技巧,实现精准数据洞察。:param file_path: 源Excel文件路径:param output_path: 筛选后Excel文件的输出路径"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在根据多条件组合筛选文件 '{os.path.basename(file_path)}'...")# 示例:筛选“区域”是华南 AND “销售额”大5000 的记录condition_and = (df['区域'] == '华南') & (df['销售额'] > 5000)df_and_filtered = df[condition_and]print("\n   --- 筛选结果 (华南 AND 销售额 > 5000) ---")print(df_and_filtered)# 示例:筛选“区域”是华北 OR “产品”是C 的记录condition_or = (df['区域'] == '华北') | (df['产品'] == 'C')df_or_filtered = df[condition_or]print("\n   --- 筛选结果 (华北 OR 产品 == C) ---")print(df_or_filtered)# 最终保存第一个结果作为演示os.makedirs(os.path.dirname(output_path), exist_ok=True)df_and_filtered.to_excel(output_path, index=False)print(f"✅ 多条件筛选成功!结果保存到:'{os.path.basename(output_path)}'")except Exception as e:print(f"❌ 多条件筛选失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data.xlsx") # 使用1.1节创建的文件output_filtered_path = os.path.expanduser("~/Desktop/sales_multi_filtered.xlsx")multi_condition_filter_excel(test_excel_path, output_filtered_path)

展示:
多条件组合 筛选

1.3字符串匹配筛选:查找包含特定关键词的数据

场景: 你想找出所有产品名称中包含“智能”或“Pro”的订单,或者所有地址中包含“街道”的客户。

方案: Pandas的str.contains()方法可以进行模糊匹配,查找包含特定字符串的行。

代码:

import pandas as pd
import osdef string_match_filter_excel(file_path, output_path, column_name="产品", keyword="键"):"""根据字符串内容(模糊匹配)筛选Excel数据。这是Python筛选Excel中处理文本数据的实用功能。:param file_path: 源Excel文件路径:param output_path: 筛选后Excel文件的输出路径:param column_name: 要进行字符串匹配的列名:param keyword: 要匹配的关键词"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在根据关键词 '{keyword}' 筛选列 '{column_name}' 中的数据...")# **核心操作:str.contains()进行字符串模糊匹配**# na=False 处理缺失值,case=False 忽略大小写df_filtered = df[df[column_name].str.contains(keyword, na=False, case=False)]os.makedirs(os.path.dirname(output_path), exist_ok=True)df_filtered.to_excel(output_path, index=False)print(f"✅ 字符串匹配筛选成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 筛选后数据头部 ---")print(df_filtered.head())except Exception as e:print(f"❌ 字符串匹配筛选失败:{e}")if __name__ == "__main__":# 使用1.1节的 sales_data.xlsxtest_excel_path = os.path.expanduser("~/Desktop/sales_data.xlsx") output_filtered_path = os.path.expanduser("~/Desktop/sales_keyword_filtered.xlsx")# 示例调用:筛选产品名称中包含“键”的记录string_match_filter_excel(test_excel_path, output_filtered_path, column_name="产品", keyword="键")

展示:
字符串筛选

2. 数据聚合与分组统计:数据汇总的关键groupby

场景: 你有海量订单数据,想知道每个产品类别的总销售额、每个区域的平均利润、或者每个员工的订单数量。手动筛选、复制、粘贴、求和,耗时耗力还容易错!

方案: Pandas的groupby()方法是数据分组统计的主要手段,它能让你像操作Excel数据透视表一样,但更灵活高效地进行数据汇总和聚合分析,实现Excel数据分析自动化!

实现:
groupby()操作分为三步:

Splitting (分组): 根据一个或多个键将DataFrame拆分成多个组。

Applying (应用): 对每个组独立应用一个函数(如求和、求平均)。

Combining (组合): 将结果组合成一个DataFrame。

2.1 按单列分组统计:快速掌握分类数据概况

场景: 你想知道每个区域的总销售额是多少?哪个区域销售额最高?

方案: groupby()结合聚合函数(如sum(),mean(),count())能快速帮你按单列进行数据汇总。

代码:

import pandas as pd
import osdef group_by_single_column(file_path, output_path, group_col="区域", agg_col="销售额", agg_func="sum"):"""按单列进行数据分组统计。这是Python数据分析入门和数据分组统计的核心功能。:param file_path: 源Excel文件路径:param output_path: 统计结果Excel文件的输出路径:param group_col: 用于分组的列名:param agg_col: 要聚合的列名:param agg_func: 聚合函数 ("sum", "mean", "count", "min", "max")"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在按列 '{group_col}' 分组,并对列 '{agg_col}' 进行 '{agg_func}' 统计...")# **核心操作:groupby() + 聚合函数**if agg_func == "sum":grouped_data = df.groupby(group_col)[agg_col].sum()elif agg_func == "mean":grouped_data = df.groupby(group_col)[agg_col].mean()elif agg_func == "count":grouped_data = df.groupby(group_col)[agg_col].count()elif agg_func == "min":grouped_data = df.groupby(group_col)[agg_col].min()elif agg_func == "max":grouped_data = df.groupby(group_col)[agg_col].max()else:print("⚠️ 未知聚合函数。")return# 将Series转换为DataFrame以便保存到Excelgrouped_df = grouped_data.reset_index() os.makedirs(os.path.dirname(output_path), exist_ok=True)grouped_df.to_excel(output_path, index=False)print(f"✅ 分组统计成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 分组统计结果 ---")print(grouped_df)except Exception as e:print(f"❌ 分组统计失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data_full.xlsx")# 创建包含区域、产品、销售额、订单日期等列的复杂数据,以便进行分组统计pd.DataFrame({'区域': ['华东', '华南', '华北', '华东', '华南', '华东', '华北'], '销售额': [6000, 9000, 4000, 12000, 7500, 8000, 5000], '产品': ['A', 'B', 'C', 'D', 'E', 'A', 'F'],'订单日期': pd.to_datetime(['2023-01-01', '2023-01-10', '2023-02-01', '2023-02-15', '2023-03-01', '2023-03-10', '2023-04-01'])}).to_excel(test_excel_path, index=False)print("--- 示例1:按区域统计总销售额 ---")group_by_single_column(test_excel_path, os.path.expanduser("~/Desktop/sales_by_region_sum.xlsx"), group_col="区域", agg_col="销售额", agg_func="sum")print("\n--- 示例2:按产品统计平均销售额 ---")group_by_single_column(test_excel_path, os.path.expanduser("~/Desktop/sales_by_product_mean.xlsx"), group_col="产品", agg_col="销售额", agg_func="mean")

步骤: 准备包含区域、销售额、产品等列的Excel文件,修改路径,运行脚本。

展示:
单列分组统计

2.2按多列分组统计:多维度交叉分析数据

场景: 你不仅想知道每个区域的总销售额,还想细化到每个区域的每个产品的销售额。
方案: groupby()方法支持传入一个列名列表,实现多维度交叉分析,让你从更细致的角度挖掘洞察。
代码:

import pandas as pd
import osdef group_by_multiple_columns(file_path, output_path, group_cols, agg_col="销售额", agg_func="sum"):"""按多列进行数据分组统计。这是Python数据分析中多维度交叉分析的关键。:param file_path: 源Excel文件路径:param output_path: 统计结果Excel文件的输出路径:param group_cols: 用于分组的列名列表 (e.g., ['区域', '产品']):param agg_col: 要聚合的列名:param agg_func: 聚合函数 ("sum", "mean", "count")"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在按列 {group_cols} 分组,并对列 '{agg_col}' 进行 '{agg_func}' 统计...")# **核心操作:groupby() 传入列表 + 聚合函数**if agg_func == "sum":grouped_data = df.groupby(group_cols)[agg_col].sum()elif agg_func == "mean":grouped_data = df.groupby(group_cols)[agg_col].mean()# ... 其他聚合函数grouped_df = grouped_data.reset_index() os.makedirs(os.path.dirname(output_path), exist_ok=True)grouped_df.to_excel(output_path, index=False)print(f"✅ 多列分组统计成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 多列分组统计结果 ---")print(grouped_df)except Exception as e:print(f"❌ 多列分组统计失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data_full.xlsx") # 使用2.1节创建的文件output_path = os.path.expanduser("~/Desktop/sales_by_region_product.xlsx")# 示例调用:按区域和产品统计总销售额group_by_multiple_columns(test_excel_path, output_path, group_cols=['区域', '产品'], agg_col="销售额", agg_func="sum")

展示:
多列统计

2.3应用多种聚合函数:从不同角度解读数据

场景: 你不仅想知道每个区域的总销售额,还想同时知道销售额的平均值、最大值、最小值以及订单数量。

方案: groupby().agg()方法能让你一次性对多个列应用多种聚合函数,从不同角度全面解读数据,为职场决策提供更丰富的数据支持。

代码:

import pandas as pd
import osdef group_by_with_multiple_agg_funcs(file_path, output_path, group_col="区域"):"""按单列分组,并应用多种聚合函数进行统计。这是Python数据分析中获取多维度洞察的强大功能。:param file_path: 源Excel文件路径:param output_path: 统计结果Excel文件的输出路径:param group_col: 用于分组的列名"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在按列 '{group_col}' 分组,并应用多种聚合函数...")# **核心操作:groupby() + agg() 方法**# 对 '销售额' 列进行求和、平均值、计数、最大值、最小值统计grouped_data = df.groupby(group_col).agg(总销售额=('销售额', 'sum'),平均销售额=('销售额', 'mean'),订单数量=('销售额', 'count'),最高销售额=('销售额', 'max'),最低销售额=('销售额', 'min'))grouped_df = grouped_data.reset_index() os.makedirs(os.path.dirname(output_path), exist_ok=True)grouped_df.to_excel(output_path, index=False)print(f"✅ 多聚合函数分组统计成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 多聚合函数统计结果 ---")print(grouped_df)except Exception as e:print(f"❌ 多聚合函数分组统计失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data_full.xlsx") # 使用2.1节创建的文件output_path = os.path.expanduser("~/Desktop/sales_multi_agg.xlsx")# 示例调用:按区域统计多种销售指标group_by_with_multiple_agg_funcs(test_excel_path, output_path, group_col="区域")

展示:
多种聚合函数的是使用

3.高级统计:透视表与交叉表自动化生成

数据透视表和交叉表是Excel中非常强大的数据分析工具。它们能让你以多维度、动态的方式汇总数据,发现数据间的深层联系。而Python,可以帮你自动化生成这些复杂的自动化报表!

实现:

pivot_table(): 用于创建数据透视表,可以指定行、列、值和聚合函数。
crosstab(): 用于创建交叉表,统计两个或多个因素之间的频次分布。

3.1pivot_table:轻松生成复杂数据透视表

场景: 你需要生成一个报表,行是“区域”,列是“产品”,单元格是“销售额的总和”。这在Excel中需要拖拽字段,而在Python中,一行代码搞定!

方案: pd.pivot_table()方法能让你用代码精准构建复杂的数据透视表,实现Excel数据分析中的高级报表自动化。

代码:

import pandas as pd
import osdef generate_pivot_table(file_path, output_path, index_col, columns_col, values_col, agg_func="sum"):"""生成Excel数据透视表。这是Python数据分析和自动化报表的强大功能。:param file_path: 源Excel文件路径:param output_path: 透视表Excel文件的输出路径:param index_col: 用作行索引的列名:param columns_col: 用作列索引的列名:param values_col: 用作聚合值的列名:param agg_func: 聚合函数 ("sum", "mean", "count")"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在生成透视表,行索引:'{index_col}',列索引:'{columns_col}',值:'{values_col}',聚合函数:'{agg_func}'...")# **核心操作:pd.pivot_table()**pivot_df = pd.pivot_table(df, index=index_col,      # 行索引columns=columns_col,  # 列索引values=values_col,    # 聚合值aggfunc=agg_func)     # 聚合函数os.makedirs(os.path.dirname(output_path), exist_ok=True)pivot_df.to_excel(output_path) # 保存透视表,index=True因为索引就是行标签print(f"✅ 数据透视表生成成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 透视表头部 ---")print(pivot_df.head())except Exception as e:print(f"❌ 数据透视表生成失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data_full.xlsx") # 使用2.1节创建的文件output_path = os.path.expanduser("~/Desktop/pivot_table_report.xlsx")# 示例调用:按区域和产品统计销售额generate_pivot_table(test_excel_path, output_path, index_col="区域", columns_col="产品", values_col="销售额", agg_func="sum")

展示:
数据透视表

3.2crosstab:自动化构建交叉分析表

场景: 你想快速统计不同区域的客户,他们购买了哪些产品,以及不同产品在不同区域的销售频次。

方案: pd.crosstab()方法能方便地构建交叉表(也叫列联表),统计两个或多个因素之间的频次分布,是快速进行数据洞察的工具。

代码:

import pandas as pd
import osdef generate_crosstab_report(file_path, output_path, index_col, columns_col, values_col=None, agg_func=None):"""生成Excel交叉分析表。这是Python数据分析和自动化报表的另一种强大功能。:param file_path: 源Excel文件路径:param output_path: 交叉表Excel文件的输出路径:param index_col: 用作行索引的列名:param columns_col: 用作列索引的列名:param values_col: 可选,用于聚合的列名(如果需要计算非频次的值):param agg_func: 可选,聚合函数"""if not os.path.exists(file_path): return print(f"❌ Excel文件不存在:{file_path}")try:df = pd.read_excel(file_path)print(f"🚀 正在生成交叉表,行:'{index_col}',列:'{columns_col}'...")# **核心操作:pd.crosstab()**# values和aggfunc可选,用于计算非频次的值if values_col and agg_func:crosstab_df = pd.crosstab(index=df[index_col], columns=df[columns_col], values=df[values_col], aggfunc=agg_func)else:crosstab_df = pd.crosstab(index=df[index_col], columns=df[columns_col])os.makedirs(os.path.dirname(output_path), exist_ok=True)crosstab_df.to_excel(output_path)print(f"✅ 交叉表生成成功!结果保存到:'{os.path.basename(output_path)}'")print("\n   --- 交叉表头部 ---")print(crosstab_df.head())except Exception as e:print(f"❌ 交叉表生成失败:{e}")if __name__ == "__main__":test_excel_path = os.path.expanduser("~/Desktop/sales_data_full.xlsx") # 使用2.1节创建的文件output_path = os.path.expanduser("~/Desktop/crosstab_report.xlsx")# 示例1:统计不同区域的产品销售频次generate_crosstab_report(test_excel_path, output_path, index_col="区域", columns_col="产品")# 示例2:统计不同区域的产品总销售额# generate_crosstab_report(test_excel_path, output_path, index_col="区域", columns_col="产品", values_col="销售额", agg_func="sum")

显示:

自动生成交叉表

4.你的“Excel数据分析利器”!

我们深入学习了Pandas库在Excel数据分析中的应用,掌握了如何:
数据挖掘

Python筛选Excel: 运用df.loc和df.iloc,实现基于条件、多条件组合、字符串匹配的精准数据筛选。

数据分组统计: 运用groupby()玩转数据汇总,按单列、多列分组,并应用多种聚合函数,从不同维度获取数据洞察。

自动化报表: 运用pivot_table()和crosstab(),自动化生成复杂透视表与交叉表,让数据呈现更专业、决策更精准。

5.尾声:数据分析自动化,让决策更精准!

通过本篇文章,你已经掌握了Python智能筛选与统计的强大能力,为你的办公自动化之旅又增添了一个重量级技能!你学会了如何利用Pandas这个Python实用工具,高效地进行Excel中的数据分析。

除了今天学到的筛选、分组、透视表功能,你还希望Python能帮你实现哪些Excel自动化操作?比如自动发送报表邮件?数据预警通知?在评论区分享你的需求和想法,你的建议可能会成为我们下一篇文章的灵感来源!

敬请期待! 在下一篇文章中,我们将继续深入Excel的自动化世界,探索如何利用Python实现Excel自动化报表的最终章,包括图表生成和报表自动化发送等,让你的数据呈现和分发工作效率翻倍!同时,本系列所有代码都将持续更新并汇总在我的GitHub仓库中,敬请关注!未来,这个**“Python职场效率专家实战包”还将包含更多开箱即用、功能强大**的自动化工具

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/web/89066.shtml
繁体地址,请注明出处:http://hk.pswp.cn/web/89066.shtml
英文地址,请注明出处:http://en.pswp.cn/web/89066.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

小木的机器学习日记——KNN

核心知识点总结与星级排序我为你梳理了这节课的精髓,并按照重要性进行了星级评定(★★★★★为最高)。★★★★★ 核心思想:回归 (Regression) 到底是什么?是否关键:是必须了解:是必须记住&…

Product Hunt 每日热榜 | 2025-07-15

1. OpenArt One-Click Video Story 标语:一键即可将任何内容转换为可随时发布的视频。 介绍:有一个创意、剧本、节奏,或者喜欢的角色吗?OpenArt可以将它们变成一个视觉故事—完整的画面、音乐和叙事结构,轻松实现&am…

Dubbo高阶难题:异步转同步调用链上全局透传参数的丢失问题

​问题场景​: 在分布式电商系统中,下单服务通过Dubbo调用库存服务(异步接口返回CompletableFuture),同时在Gateway层通过RpcContext设置traceId。你发现:当库存服务内部同步调用其他服务时,tra…

实测两款效率工具:驾考刷题和证件照处理的免费方案

今天阿灿给大家推荐两款实用的软件,一款是驾考助手,另一款是证件照制作软件。第一款:驾考助手以前考驾照,很多人担心过不了关,还会花冤枉钱买VIP练习,精选500题。其实,只要用对工具,…

Python 函数的维护性与复用性

目录 一、从“能跑就行”到“能改不怕”——维护性的第一要义 二、单一职责与最小惊讶——维护性的纵深防御 三、可组合的乐高——复用性的第一阶梯 四、面向协议设计——复用性的第二阶梯 五、异常策略与日志——维护性的隐形护盾 七、测试金字塔——维护性的最后护城河…

C++中的模板参数 vs 函数参数:编译期与运行期的分界线

引言 在日常开发中,我们经常接触 函数参数,这是控制函数行为的最直接方式。但在 C 中还有一种强大的机制 —— 模板参数(Template Parameters),它赋予了我们在编译期就生成代码结构的能力。 本文将通过直观的类比&…

Elasticsearch 9.x 搜索执行过程(源码解析)

1. Elasticsearch 9.x 搜索执行过程 - 源码解析 #mermaid-svg-Vp6WKKBLo3omajeq {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-Vp6WKKBLo3omajeq .error-icon{fill:#552222;}#mermaid-svg-Vp6WKKBLo3omajeq .error…

简单易懂,操作系统的内存管理机制是如何实现的

系统地梳理一下操作系统在“内存管理”这个重要领域中,到底扮演了什么角色,需要完成哪些核心任务。想象一下,操作系统是一位经验丰富的高级公寓管理员。内存:就是这栋高级公寓大楼。进程:一个个想要入住的租户。内存管…

《大数据技术原理与应用》实验报告一 熟悉常用的Linux操作和Hadoop操作

目 录 一、实验目的 二、实验平台 三、 实验内容和要求 1. 安装虚拟机 2. 熟悉常用的 Linux 命令 3. 进行 Hadoop 伪分布式安装 4. 熟悉常用的 Hadoop 操作 四、实验环境 五、实验内容与完成情况 1. 安装虚拟机 2. 熟悉常用的 Linux 命令 3. 进行 Hadoop 伪分布式…

I/O 多路复用详解笔记

I/O 多路复用笔记 什么是I/O多路复用 I/O多路复用(I/O Multiplexing)是一种**允许单个线程(或进程)监听多个I/O描述符(fd)**上是否就绪(可读/可写/异常)的方法。这种方式可以有效地管…

李白周游记50篇

https://mp.weixin.qq.com/s/7MThy1kCOATS-8ZWc09_1g 李白周游记50篇 卡西莫多 2025年07月15日 安徽 李白周游记50篇记录,现在写了50个小朋友,觉得有趣愿意加进这个连载的欢迎告知大名和出生年月,限20岁以下6岁以上的小朋友,慢…

文心一言开源版部署及多维度测评实例

文章目录第一章 文心一言开源模型简介第二章 模型性能深度实测2.1 通用能力基准测试2.1.1 文本生成质量2.1.2 数学推理能力2.2 极端场景压力测试2.2.1 高并发性能2.2.2 长上下文记忆第三章 中文特色能力解析3.1.2 文化特定理解3.2 行业术语处理3.2.1 法律文书解析3.2.2 医疗报告…

ARM单片机OTA解析(二)

文章目录二、Bootloader加载启动App代码讲解二、Bootloader加载启动App代码讲解 代码详细解析: typedef void (*pFunction)(void);static void DrvInit(void) {RS485DrvInit();DelayInit();SystickInit(); }#define RAM_START_ADDRESS 0x20000000 #define RAM_S…

深度解读virtio:Linux IO虚拟化核心机制

当你在虚拟机中流畅传输文件时,是否想过背后是谁在高效调度 IO 资源?当云计算平台承载千万级并发请求时,又是谁在底层保障数据通路的稳定?答案藏在一个低调却关键的技术里 ——virtio。作为 Linux IO 虚拟化的 “隐形引擎”&#…

大宗现货电子盘交易系统核心功能代码解析

系统架构设计交易系统采用分布式微服务架构,核心模块包括订单匹配引擎、风控系统、清算结算模块、行情推送服务和用户管理接口。系统设计遵循高并发、低延迟原则,使用事件驱动模型处理交易流程。订单匹配引擎实现订单簿数据结构采用红黑树或跳表实现&…

AAAI-2025 | 同济大学面向嘈杂环境的音频视觉导航!BeDAViN:大规模音频-视觉数据集与多声源架构研究

作者:Zhanbo Shi, Lin Zhang, Linfei Li, Ying Shen单位:同济大学计算机学院论文标题:Towards Audio-visual Navigation in Noisy Environments: A Large-scale Benchmark Dataset and An Architecture Considering Multiple Sound-Sources论…

【推荐】前端低端机和弱网环境下性能优化

下面从设计、技术选型到具体实现,为你详细阐述前端低端机和弱网环境下的性能优化方案。一、设计阶段 1. 降级策略分级 根据设备性能和网络质量将设备分为3个等级: 高性能设备:内存≥4GB、CPU核心数≥4、网络RTT≤200ms中等性能设备&#xff1…

HP LoadRunner 12.02 语言包安装教程(含下载/汉化步骤)

想给HP LoadRunner 12.02安装语言包(比如中文汉化)?按照这个教程一步步操作就行,包含下载、安装和切换语言的详细步骤,轻松搞定多语言支持!适合需要本地化使用的测试人员。 先找到安装文件 安装包下载&am…

java volatile关键字使用详解

介绍 在 Java 中,volatile 是一个关键字,用于修饰变量,主要解决多线程环境下共享变量的可见性和指令重排序问题。它提供了一种轻量级的同步机制,但需注意其适用场景和限制。只保证单次读写的原子性,不保证复合读写的原…

Java-70 深入浅出 RPC Dubbo 详细介绍 上手指南

点一下关注吧!!!非常感谢!!持续更新!!! 🚀 AI篇持续更新中!(长期更新) AI炼丹日志-29 - 字节跳动 DeerFlow 深度研究框斜体样式架 私有…