• 1.1.3 金融机构信用评估系统中的业务数据审核流程设计

    某金融机构计划引入智能信用评估系统,通过分析客户的历史交易数据和信用记录,使用机器学习算法预测客户的信用风险等级,从而辅助贷款审批和风险控制。为了确保数据的准确性和可靠性,该机构需要设计并实现一套全面的业务数据审核流程,确保数据在进入信用评估系统之前经过严格的审核和清洗。

    我们提供一个客户信用数据集(credit_data.csv),包含以下字段:

    CustomerID: 客户ID

    Name: 客户姓名

    Age: 年龄

    Income: 收入

    LoanAmount: 贷款金额

    LoanTerm: 贷款期限(月)

    CreditScore: 信用评分

    Default: 是否违约(0: 否,1: 是)

    TransactionHistory: 历史交易记录(JSON格式)

    1. 数据完整性审核:检查数据集中的每个字段是否存在缺失值和重复值。将上述审核结果截图以jpg的格式保存,命名为“1.1.3-1”。
    2. 数据合理性审核:对不合理的数据进行标记,并将审核结果截图以jpg的格式保存,命名为“1.1.3-2”。
      • 年龄:应在18到70岁之间。
      • 收入:应大于2000。
      • 贷款金额:应小于收入的5倍。
      • 信用评分:应在300到850之间。
    3. 对数据进行清洗,处理异常值。具体要求如下:将不合理的数据进行标记,并对异常值所在行进行删除;清洗后的数据保存为新文件cleaned_credit_data.csv。
    import pandas as pd
    import numpy as np
    # import matplotlib.pyplot as plt
    # 读取数据集
    data = pd.read_csv('credit_data.csv')
    
    # 1. 数据完整性审核
    missing_values = data.isnull().sum()     #数据缺失值统计 2分
    duplicate_values = data.duplicated().sum()     #数据重复值统计 2分
    # 输出结果
    print("缺失值统计:")
    print(missing_values)
    print("重复值统计:")
    print(duplicate_values)
    
    # 2. 数据合理性审核
    data['is_age_valid'] = data['Age'].between(18, 70)              #Age数据的合理性审核 2分
    data['is_income_valid'] = data['Income'] > 2000                 #Income数据的合理性审核 2分
    data['is_loan_amount_valid'] = data['LoanAmount'] < (data['Income'] * 5)      #LoanAmount数据的合理性审核 2分
    data['is_credit_score_valid'] = data['CreditScore'].between(300, 850)   #CreditScore数据的合理性审核 2分
    # 合理性检查结果
    validity_checks = data[['is_age_valid', 'is_income_valid', 'is_loan_amount_valid', 'is_credit_score_valid']].all(axis=1)
    data['is_valid'] = validity_checks
    # 输出结果
    print("数据合理性检查:")
    print(data[['is_age_valid', 'is_income_valid', 'is_loan_amount_valid', 'is_credit_score_valid', 'is_valid']].describe())
    
    # 3. 数据清洗和异常值处理
    # 标记不合理数据
    invalid_rows = data[~data['is_valid']]
    # 删除不合理数据行
    cleaned_data = data[data['is_valid']]
    # 删除标记列
    cleaned_data = cleaned_data.drop(columns=['is_age_valid', 'is_income_valid', 'is_loan_amount_valid', 'is_credit_score_valid', 'is_valid'])
    # 保存清洗后的数据
    cleaned_data.to_csv('cleaned_credit_data.csv', index=False)
    print("数据清洗完成,已保存为 'cleaned_credit_data.csv'")

  • 1.1.2 智能农业系统中的业务数据采集和处理流程设计

    某农业公司计划引入智能农业系统,通过安装在农田中的各种传感器(如温度传感器、湿度传感器、土壤传感器等)实时监控农田环境,收集数据并进行分析,以优化作物管理和提高产量。

    传感器数据集(sensor_data.csv),包含以下字段:

    SensorID: 传感器ID

    Timestamp: 时间戳

    SensorType: 传感器类型(Temperature温度, Humidity湿度, SoilMoisture土壤水分, SoilPH土壤酸碱度, Light光传感器)

    Value: 传感器读数

    Location: 传感器安装位置:

    1. 分别统计每种传感器的数据数量和平均值。将上述统计结果截图以jpg的格式保存,命名为“1.1.2-1”。
    2. 统计每个位置的温度和湿度传感器数据的平均值。将上述统计结果截图以jpg的格式保存,命名为“1.1.2-2”。
    3. 对数据进行清洗,处理异常值。具体要求如下:
      • 将明显异常的温度(< -10 或 > 50)和湿度(< 0 或 > 100)数据进行标记并统计。
      • 对缺失值使用前面数据的值(如果前面值没有采用后面数据的值)进行填补。
      • 将清洗后的数据保存为新文件cleaned_sensor_data.csv。
    import pandas as pd
    import numpy as np
    import matplotlib.pyplot as plt
    # 读取数据集 2分
    data = pd.read_csv('sensor_data.csv')
    
    # 1. 传感器数据统计
    # 对传感器类型进行分组,并计算每个组的数据数量和平均值 3分
    sensor_stats = data.groupby('SensorType')['Value'].agg(['count', 'mean'])
    # 输出结果
    print("传感器数据数量和平均值:")
    print(sensor_stats)
    
    # 2. 按位置统计温度和湿度数据
    # 筛选出温度和湿度数据,然后按位置和传感器类型分组,计算每个组的平均值 2分
    location_stats = data[data['SensorType'].isin(['Temperature','Humidity'])].groupby(['Location', 'SensorType'])['Value'].mean().unstack()
    # 输出结果
    print("每个位置的温度和湿度数据平均值:")
    print(location_stats)
    
    # 3. 数据清洗和异常值处理
    # 标记异常值 3分
    data['is_abnormal'] = np.where(
        ((data['SensorType'] == 'Temperature') & ((data['Value'] < -10) | (data['Value'] > 50))) |
        ((data['SensorType'] == 'Humidity') & ((data['Value'] < 0) | (data['Value'] > 100))),
        True, False
    )
    # 输出异常值数量 2分
    print("异常值数量:", data['is_abnormal'].sum())
    # 填补缺失值
    # 使用前向填充和后向填充的方法填补缺失值 4分
    data['Value'].ffill(limit=1, inplace=True)
    data['Value'].bfill(limit=1, inplace=True)
    # 保存清洗后的数据
    # 删除用于标记异常值的列,并将清洗后的数据保存到新的CSV文件中 4分
    cleaned_data = data.drop(columns=['is_abnormal'])
    cleaned_data.to_csv('cleaned_sensor_data.csv', index=False)
    print("数据清洗完成,已保存为 'cleaned_sensor_data.csv'")

  • 1.1.1 智能医疗系统中的业务数据处理流程设计

    某医疗机构计划引入智能医疗系统,以提升诊断效率和准确性。通过分析患者的历史数据,使用机器学习算法预测患者的健康风险,从而辅助医生进行诊断和治疗。

    患者数据集(patient_data.csv),包含以下字段:

    1. 分别统计住院天数超过7天的患者数量以及其占比。这类患者被定义为高风险患者,反之为低风险患者。将上述统计结果截图以jpg的格式保存,命名为“1.1.1-1”。
    2. 统计不同BMI区间中高风险患者的比例和统计不同BMI区间中的患者数。BMI区间分类设置为:偏瘦(低于18.5),正常(18.5~23.9),超重(24.0~27.9),肥胖(28.0及以上),将上述统计结果截图以jpg的格式保存,命名为“1.1.1-2”。
    3. 统计不同年龄区间中高风险患者的比例和统计不同年龄区间中的患者数。年龄区间分类设置为:年龄区间分类设置为:≤25岁,26-35岁,36-45岁,46-55岁,56-65岁,>65岁,将上述统计结果截图以jpg的格式保存,命名为“1.1.1-3”。
    import pandas as pd
    import numpy as np
    
    # 读取数据集 1分
    data = pd.read_csv('patient_data.csv')
    
    # 1. 统计住院天数超过7天的患者数量及其占比
    # 创建新列'RiskLevel',根据住院天数判断风险等级 3分
    data['Risklevel'] = np.where(data['DaysInHospital']>7, '高风险患者', '低风险患者')
    # 统计不同风险等级的患者数量 2分
    risk_counts = data['Risklevel'].value_counts()
    # 计算高风险患者占比 1分
    high_risk_ratio = risk_counts['高风险患者'] / len(data)
    # 计算低风险患者占比 1分
    low_risk_ratio = risk_counts['低风险患者'] / len(data)
    
    # 输出结果
    print("高风险患者数量:", risk_counts['高风险患者'])
    print("低风险患者数量:", risk_counts['低风险患者'])
    print("高风险患者占比:", high_risk_ratio)
    print("低风险患者占比:", low_risk_ratio)
    
    # 2. 统计不同BMI区间中高风险患者的比例和统计不同BMI区间中的患者数
    # 定义BMI区间和标签
    bmi_bins = [0, 18.5, 24, 28, np.inf]
    bmi_labels = ['偏瘦', '正常', '超重', '肥胖']
    # 根据BMI值划分指定区间 4分
    data['BMIRange'] = pd.cut(data['BMI'], bmi_bins, labels=bmi_labels, right=False)  # 使用左闭右开区间
    # 计算每个BMI区间中高风险患者的比例 2分
    bmi_risk_rate = data.groupby('BMIRange')['Risklevel'].apply(lambda x: (x == '高风险患者').mean())
    # 统计每个BMI区间的患者数量 1分
    bmi_patient_count = data['BMIRange'].value_counts()
    
    # 输出结果
    print("BMI区间中高风险患者的比例和患者数:")
    print(bmi_risk_rate) 
    print(bmi_patient_count)
    
    # 3. 统计不同年龄区间中高风险患者的比例和统计不同年龄区间中的患者数
    # 定义年龄区间和标签
    age_bins = [0, 26, 36, 46, 56, 66, np.inf]
    age_labels = ['≤25岁', '26-35岁', '36-45岁', '46-55岁', '56-65岁', '>65岁']
    # 根据年龄值划分指定区间 4分
    data['AgeRange'] = pd.cut(data['Age'], age_bins, labels=age_labels, right=False)  # 使用左闭右开区间
    # 计算每个年龄区间中高风险患者的比例 2分
    age_risk_rate = data.groupby('AgeRange')['Risklevel'].apply(lambda x: (x == '高风险患者').mean())
    # 统计每个年龄区间的患者数量 1分
    age_patient_count = data['AgeRange'].value_counts()
    
    # 输出结果
    print("年龄区间中高风险患者的比例和患者数:")
    print(age_risk_rate) 
    print(age_patient_count) 

  • 通过Spring AI 访问本地AI model 和避坑指南

    Spring 脚手架的准备

    通过 spring initializr 在线创建 agentdemo

    下载copy到项目目录并解压,Initializr 已经创建了项目框架和下面的入口文件和配置文件

    通过VS code 自带的agent, 添加spring AI的依赖和 ollama 依赖

    这里会创建三个文件并修改pom.xml


    OllamaConfig.java 主要作用是通过OllamaChatModel 的builder构建Spring AI 的 ChatClient(类似如果是OpenAI等其他AI service,应该是相同的结构)

    ChatController 主要通过注入Chatclient 对外提供对话的RESTful 服务

    application.yml 主要定义外部model 和 swagger 等资源

    pom.xml 中添加下面两个依赖

    安装依赖并执行:

    ./mvnw clean install -U
    ./mvnw spring-boot:run


    测试效果

    坑点:
    1. Spring AI 版本, 正式版是1.0.0,是2025年五月19发布的,AI Agent 不能直接识别,使用的是1.0.0-M3, M3 不在中央仓储,在milestone里面,所以直接install 回找不到


    2. M3 版本中的ChatClient 和 正式版的构造方法不一样,M版本中的构造在正式版中不兼容,正式版参考正文截图(通过OllamaAPI 和 OllamaOptions来实现)

    @Bean
    public ChatClient chatClient() {
        OllamaChatModel ollamaChatModel = OllamaChatModel.builder()
            .baseUrl(baseUrl)
            .model(modelName)
            .build();
        return ChatClient.builder(ollamaChatModel).build();
    }
  • 缪胥哲的暑假安排

    暑假作业,上午 9:00 – 10:00,
    11:00-12:00

    14:30 – 15:30

    眼保健操 13:00

    读书 13:30 – 2:30

  • AI Agent 工作模式

    想借助AI 整理一下AI Agent的工作模式,结果问了豆包,元宝,Kimi, DS, 每一家的回答都不一样。
    为什么答案都不一样?
    一个应该是分类的标准不一样

    AI Agent 是不是也像人类社会的分工一样,有不同的工作模式,而人类的工作模式何其之多。

    明确分类标准之后DS的答案就合理得多,如下:


    下面是原始的回答(有点乱):
    豆包的回答

    元宝的回答

    Kimi的回答

    DS 的回答

  • Deepseek-GPU版-本地跑起来啦!

    成功啦!

    坑点1. 是Ollama 先与GPU安装,GPU插上去之后,总是会调用CPU而不是GPU
    坑点2. 国内Ollama官方 下载的速度,绝了大部分重装的勇气

    官方安装路径: curl -fsSL https://ollama.com/install.sh | sh

    解决方法: snap 安装 (缺点是只能装到0.9.0,官方应该是0.9.2)

    sudo snap install ollama

    关于GPU内存使用:

    1.7G的是 允许的deepseek-r1:1.5b的模型

    6.7G的是deepseek-r1:8B的模型

    速度真的快

    https://msw.mba/