作者: richardmiao

  • 使用MCP Market

    火山: https://www.volcengine.com/mcp-marketplace
    Trae 里面直接使用 @Build with MCP 可以打开


    MCP 市场: http://mcpmarket.cn/

    腾讯MCP
    https://tcb.cloud.tencent.com/mcp-server

  • 大都会的新朋友

    参加LPTC(Life planning training course, Metlife -保险行业的黄埔军校的岗前培训)遇到了一些有趣的灵魂。

    先说班主任,老吴, 很严格,即使讲笑话也让大家有压力的感觉~

    培训部的主管朱总,做保险就是做人,让客户愿意与你交流。

    个业务部门的主管们,各领风骚吧。崔A,不买保险因为不了解,很有激情和感染力。陈昊东,我的主管,个儿最高。沈总,来自互联网的大佬,不记得他讲了什么了,感觉就很忙。

    讲师:史宏萍总,很和善,乐于发积分卡,于是课堂很热烈。

    罗小燕总,来自证券咨询的大佬,26个月升A,教授了如何通过学,做,复制的模式实现自己的职业目标。 我们担心跨界的失败,更多是相信的力量不够。

    五组的小伙伴们:

    邹有:来自多年建筑行业的女孩,喜欢查理芒格

    唐馨:从事广告设计多年,服务过比亚迪,蔚来汽车等大客户

    唐培德: 喜欢带娃和养生的大男孩

    顾烨荣: 五组的big bang,班级最壮的大哥大,卷够了大厂,喜欢养生

    齐文玥:海归审计师

    夜训的老大:韩陆总,分享了超多干货,很风趣。上篇的干货大半来自韩总。


    学习, 总是能遇到让自己开心起来的理由。加油,明天!

  • 个人购买保险的优先级

    你有没有遇到过想买保险,但是未来那么多不确定,不知道从哪里开始买?
    有没有遇到过,资金有限,买了一个保险之后后悔应该买另外一个?

    那么我们应该怎么买保险呢?
    下面的分析主要来源于大都会人寿的Agency Director: 韩陆

    回答这个问题,先要理清楚保险保障的风险种类

    大病(72.18%), 意外伤残, 死亡(100%),养老(84%)

    ()中的是人一生中遇到这个情况的概率

    人一生中得大病重疾的概率高达72.18%, 死亡的概率是100%, 能活到60岁养老的只有84%,早亡的16%里面, 有12%是病故,4%是意外。(基于最近的统计数据)

    购买的逻辑

    那么有了种类,我们得寻找一个逻辑主线: 时间发生的先后

    对于能买保险的您来说,明天不会发生的是什么? 是不是养老,于是我们把养老放到第四位

    剩下是不是死亡? 我们需要把死亡分成早亡(16%) 和驾鹤西去(财富传承)两个类型分开谈。
    对于驾鹤,一般是不是在养老后面? 于是我们把财富传承放到第5位。

    那么早亡跟大病,意外的顺序呢?

    参考我们上面的分析,早亡的原因是疾病和意外,于是早亡变成了第三名。
    剩下的是大病和意外伤残了。按照发生的概率,大病更容易发生,所以大病排第一,意外排第二。但是通常意外会有大的杠杠,比如低保费高保额,所以通常采用大病和意外组合的方案。
    于是我们得到了下面的优先级

    (大病重疾,意外伤残), 早亡, 养老, 财富管理

    我们再回忆一下自己买的保险,如果把有限的钱配置在低级别的产品上,是不是更容易后悔?

    一个小问题: 孩子的教育金应该排在哪?

    购买保险的原则

    1. 人优先于财
    2. 大人优先于小孩
    3. 重保额,轻保费
    4. 重服务,轻产品
    5. 按照优先级:病,残,早亡,教育,养老, 财富

    其他一些比较有意思的点:

    保险究竟保的是哪些风险?

    保险是骗人的吗?

    工具本身会骗人吗?对保险的误解来自于信息差
    比如地震,财险的地震是免责条款,寿险是可以理赔的

    比如自杀,寿险要求两年之后,经过了两年,当时轻生的念头还在吗?

    比如大街上走路突然摔倒了,算意外吗?从保险条款的描述上,一般是不算的~

    保险公司的收益究竟从哪里来的?
    三差

    三差类型对比维度盈利条件
    死差实际死亡率 vs 预定死亡率实际死亡率 < 预定死亡率
    利差实际投资收益率 vs 预定利率实际投资收益率 > 预定利率
    费差实际费用率 vs 预定费用率实际费用率 < 预定费用率
    • 早期保险市场:以死差益为主(如传统寿险),因风险定价能力是核心竞争力;
    • 成熟保险市场:以利差益为主(如分红险、万能险),因投资收益成为差异化关键;
    • 互联网保险时代:费差益占比提升(如线上销售压缩渠道费用),同时通过大数据优化死差定价。

    保险公司的养老保险为什么能做到年化 4% 以上? 现在一年期的定期存款利率才 1%。

    资金运作的 “时间杠杆”

    久期匹配下的收益积累

  • AI 与领导力

    AI 正在重塑组织结构,尤其是中层管理着,那么哪些工作更容易被AI替代,我们要具备哪些能力,要进行怎样的思维转变来拥抱AI新时代。 (PPT 来自于复旦大学管理学院 刘圣明教授)

    红色的部分正在被AI替代,这些工作偏事务性,作为管理者,我们要更focus 蓝色部分的工作。

    这一页感触比较深,项目经理是技术,AI 与业务之间的纽带,对AI技术影响的敏感性,更开放地去拥抱变化,是我们核心的能力

    数据思维决策

    成长性思维

    协同赋能他人

    情感优于任务

  • 一张图读懂内网穿透-FRP

    前提条件:云端有ubuntu服务器,且开启公网访问,防火墙开启 7000 + 其它端口,如图中6000(ssh), 7500(dashboard),8080(应用端口)

    内网机器可以是Ubuntu,也可是是windows

    通过FRP 7000端口,FRP client 与 FRP 服务端建立连接

    FRP 在server 端通过端口7500,提供Dashboard 来监控网络情况

    如图,其他应用通过在client 端配置端口映射来个服务端建立连接


    用户可以通过云端的服务器域名/IP:port 的方式来访问部署在内网的应用,比如Deepseek 本地模型部署 (这个后面单独写一篇)

    安装教程:
    云端:
    1. 安装FRP

    wget https://github.com/fatedier/frp/releases/download/v0.49.0/frp_0.49.0_linux_amd64.tar.gz
    tar -zxvf frp_0.49.0_linux_amd64.tar.gz
    cd frp_0.49.0_linux_amd64

    2. 配置服务端

    [common]
    bind_port = 7000          # 服务端与客户端通信端口(默认7000,可自定义)
    dashboard_port = 7500     # 仪表盘端口(默认7500,可自定义)
    dashboard_user = admin    # 改成自己的
    dashboard_pwd = admin     # 改成自己的
    # 可选:设置日志级别
    log_level = info
    log_max_days = 3

    3. 启动服务端服务

    # 前台运行(测试用)
    ./frps -c frps.ini
    
    # 后台运行(推荐)
    nohup ./frps -c frps.ini &

    4. 开启防火墙

    # UFW防火墙示例(放行7000,7500,8080端口)
    sudo ufw allow 7000/tcp
    sudo ufw allow 6000/tcp
    sudo ufw allow 7500/tcp
    sudo ufw allow 8080/tcp

    本地

    1. 安装FRP(同云端一样,只是配置文件不一样)
    wget https://github.com/fatedier/frp/releases/download/v0.49.0/frp_0.49.0_linux_amd64.tar.gz
    tar -zxvf frp_0.49.0_linux_amd64.tar.gz
    cd frp_0.49.0_linux_amd64

    2. 配置FRP

    [common]
    server_addr = 云端服务器公网IP   # 替换为云端Ubuntu的公网IP
    server_port = 7000                # 服务端的bind_port
    
    # SSH转发规则(重点!)
    [ssh]
    type = tcp                        # 转发类型为TCP
    local_ip = 127.0.0.1              # 本地SSH服务IP(内网Ubuntu的SSH地址,通常是127.0.0.1或内网IP)
    local_port = 22                   # 本地SSH端口(默认22)
    remote_port = 6000                # 云端服务器映射的公网端口(可自定义,需与服务端防火墙放行)
    
    [web]
    type = tcp                        # Web应用通常使用TCP协议
    local_ip = 127.0.0.1              # 内网Web应用所在IP(通常是本机)
    local_port = 3000                 # 内网Web应用端口
    remote_port = 8080                # 云端服务器映射的公网端口(自定义,需确保未被占用)

    3. 启动客户端服务

    # 前台运行(测试用)
    ./frpc -c frpc.ini
    
    # 后台运行(推荐,需创建systemd服务)
    # 1. 创建服务文件
    sudo nano /etc/systemd/system/frpc.service

    4. 配置系统服务,允许自动启动

    修改frpc.ini 文件

    [Unit]
    Description=frp client
    After=network.target
    
    [Service]
    Type=simple
    User=root
    ExecStart=/path/to/frpc -c /path/to/frpc.ini  # 替换为实际路径
    Restart=on-failure
    
    [Install]
    WantedBy=multi-user.target

    保存后启动服务

    sudo systemctl daemon-reload
    sudo systemctl start frpc
    sudo systemctl enable frpc  # 开机自启

    测试

    云端通过7500端口访问Dashboard

    云端通过6000 端口ssh 内网机器
    云端通过8080 端口访问web服务

    改进:配置安全连接(两端都需要配置)

    # 服务端(frps.ini)
    [common]
    token = your_secure_token  # 设置连接密钥,增强安全性
    
    # 客户端(frpc.ini)
    [common]
    token = your_secure_token  # 与服务端一致
    compress = true            # 启用数据压缩,减少流量

  • localhost VS 127.0.0.1

    碰到一个无语的bug,调了半天…

    一切正常,没有server 错,没有cors 错, 如图


    但是就是没有数据


    折腾,折腾,再折腾…

    回滚到线上版本还是不行,奇了怪了

    不卖关子啦,原来我开的地址是: 127.0.0.1

    但是 在cors 的白名单里面,配的是localhost

    改过来就正常了…

  • 破解深度学习-跟梗直哥学习AI

    听了8节免费课,感觉懂了点,又感觉没懂!先记下来


    什么是深度学习 – 深度神经网络的权重参数学习

    从系统论来看,万事万物可以看成下面的基础结构(多层感知机)

    从 Y = f(Wx + b)
    到 Y = fnfn-1…fo(Wx + b)

    深度学习就是 求这个W
    深度就是线性模型外面套激活函数,一层一层来逼近目标

    CNN,卷积神经网络->空间维度的一个截面- 把W通过w卷积

    RNN:循环神经网络 -> 考虑时间/时序维度的关系

    Yn = f(Ux + WYn-1 + B )

    注意力网络: Transformer -> 认知科学维度,聚焦关键特征

    Y = softmax(QK / [d])V

    AIGC

    机器视觉 CV

    语音

    NLP – 文本,以及背后的语义,逻辑,情感,意图等 -> LLM -> AI2.0

    多模态 – 多媒体 – 文本,图形,视频,语音的生成和交互

    线性代数 – 数据表达 – 前向传播

    概率统计 – 损失函数 – 优化引擎

    微积分 -链式法则- 反向传播

    向量和矩阵:数据在AI领域的数字表达
    神经网络的核心操作是线性变换 + 非线性激活,就是前面讲的:输入向量 x 通过权重矩阵 W 完成线性变换 y=Wx+b

    卷积神经网络(CNN)中的卷积操作可视为稀疏矩阵乘法,利用局部连接和权值共享减少计算量

    AI 模型(如神经网络)通过损失函数(如交叉熵)衡量预测误差,需利用微积分中的导数找到使损失最小的参数。
    梯度(Gradient)是损失函数对参数的偏导数向量,指引参数更新的方向(沿梯度反方向更新可最快降低损失)

    反向传播算法(Backpropagation)本质是链式法则的应用,递归计算每个参数的梯度,实现端到端的优化。

    动量法(Momentum)引入梯度的一阶惯性(类似物理中的动量),通过指数加权平均加速收敛;

    Adam 算法结合梯度的一阶矩(均值)和二阶矩(方差),自适应调整学习率,其推导依赖泰勒展开、牛顿法等微积分理论。

    为了使用梯度下降优化,激活函数(如 ReLU、Sigmoid、Tanh)必须可导(或近似可导)。

    微积分支持对连续变量的建模(如回归问题预测房价、温度等连续值),而离散优化(如组合问题)常通过连续松弛(如将 0-1 变量松弛为 [0,1] 区间的实数)转化为微积分问题求解。

    分类模型通过 Sigmoid 函数将线性变换结果映射为概率(如二分类中 \(P(y=1|X) = \sigma(\mathbf{w}^T\mathbf{x})\)),损失函数(交叉熵)对应极大似然估计的优化目标

    生成模型变分自编码器(VAE)假设隐变量 z 服从先验分布(如标准正态分布),通过编码器 \(q(z|X)\) 近似后验分布 \(p(z|X)\),解码器 \(p(X|z)\) 生成新样本,目标是最大化对数似然的变分下界

    归一化流(Normalizing Flow)通过可逆变换将简单分布(如高斯分布)转化为复杂数据分布,利用概率密度变换公式(雅可比行列式)计算似然

    多头注意力机制(Multi-Head Attention)通过线性变换(矩阵乘法)将查询(Query)、键(Key)、值(Value)映射到多个子空间,计算注意力权重时使用点积(内积)和 Softmax 函数(归一化概率分布)

    位置编码(Positional Encoding)利用正弦余弦函数(微积分中的周期函数)引入序列顺序信息,避免纯线性变换的排列不变性

    总结:微积分中的链式法则支撑反向传播算法,而线性代数中的矩阵求导(如雅可比矩阵、海森矩阵)提供参数梯度的计算框架,概率论中的期望运算(如损失函数的数学期望)将样本层面的优化扩展到总体分布。

  • Ubuntu 搭建局域网文件服务器

    黑群的文件突然不能用了,修了半天没搞定,所有就想自己搭建文件服务器,这样家里所有的电脑都能连上,好处

    方便在不同设备上共享传输

    存储空间大

    主要其实就是搭建一个Samba 服务器

    安装 Samba:在终端输入sudo apt-get update更新软件源,然后输入sudo apt-get install samba安装 Samba 服务器软件

    创建用户组和用户

    sudo groupadd smbgroup
    sudo useradd -M -G smbgroup richardmiao 
    sudo smbpasswd -a richardmiao #这是samb的密码,跟Ubuntu系统不共享

    创建共享文件夹

    sudo mkdir -p /srv/shared
    sudo chown nobody:nogroup /srv/shared
    sudo chmod 775 /srv/shared

    配置 Samba:输入sudo nano /etc/samba/smb.conf打开配置文件,在文件底部添加共享相关配置

    # 公共只读共享
    [public]
        path = /srv/shared
        comment = Public Share
        browseable = yes
        read only = yes
        guest ok = yes
        create mask = 0644
        directory mask = 0755
    
    # 可写共享(需要用户名密码)
    [private]
        path = /srv/shared
        comment = Private Share
        browseable = yes
        read only = no
        valid users = @smbgroup
        force group = smbgroup
        create mask = 0660
        directory mask = 0770
        writable = yes

    保存退出 Nano, ctrl + o => enter => ctrl + x

    启动与设置开机自启:启动 Samba 服务器,再设置开机自启动

    sudo systemctl restart smbd
    sudo systemctl status smbd  # 检查服务状态
    
    sudo systemctl enable smbd

    测试

    • Windows:\\192.168.8.110\public 或 \\192.168.8.110\private
    • macOS:Finder > 前往 > 连接服务器 > smb://服务器IP/public

    不出所料,没成功,public 可以访问,private 再输入用户名密码之后报错

    服务测试,通过 服务器上运行,检查服务是OK的

    smbclient //localhost/private -U richardmiao

    进入下面的交互界面,就说明服务是OK的

    windows 端检查

    Windows 会缓存与 Samba 服务器的连接会话,若之前用不同凭据连过,可能冲突。

    打开凭据管理,删除所有这个地址值下的凭据,找到 Windows 凭据 中与 192.168.8.110 相关的条目,删除,还是不行呀

    Samba 与 Windows 的 SMB 协议版本可能不兼容,导致权限判断异常。

    操作步骤(Windows 侧,管理员权限):

    1. 打开 本地组策略编辑器Win+R → 输入 gpedit.msc 回车,Win 家庭版需手动安装);
    2. 依次进入 计算机配置 → 管理模板 → 网络 → Lanman 工作站
    3. 找到 “启用 不安全的来宾登录” ,设置为 已启用

    4. 按 Win+S 搜索 启用或关闭 Windows 功能找到并勾选「SMB 1.0/CIFS 文件共享支持」

    结果来啦


    映射到磁盘方便使用

    话说,黑群里的资料咋整回来…

  • 基于Deepseek,搭建本地知识库


    基础环境:Windows, Anaconda, Docker

    Chat 大模型:deepseek-r1:1.5b

    知识库:Open Web UI

    先配置基础环境

    下载Anacondahttps://www.anaconda.com/download/success

    安装并被指国内镜像: https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/

    # 创建名为ai_knowledge的环境
    conda create -n ai_knowledge -y
    conda activate ai_knowledge
    


    下载并安装 ollama,全默认就可以

    模型的版本在这里找

    # 下载模型
    ollama pull deepseek-r1:1.5b
    
    # powershell  启动 ollama 服务
    Start-Process -FilePath "ollama" -ArgumentList "serve" -NoNewWindow

    这里也可以通过run 命令启动,同时可以打开ollama的对话窗口


    下载并安装好docker desktop,一路店到底

    #下载 并运行 open webUI
    docker pull ghcr.nju.edu.cn/open-webui/open-webui:main
    
    docker run -d -p 3000:8080 --restart no -v open-webui:/app/backend/data --name open-webui ghcr.nju.edu.cn/open-webui/open-webui:main

    或者直接点图中的run 来运行

    打开 http://localhost:3000/auth?redirect=%2F


    Open WebUI 自动与本地的ollama 连接好了

    测试一下效果


    开始创建知识库,看步骤1234

    上传文件到具体的知识库

    build 自己的模型,需要选择基础模型,权限,知识库,偷懒一起选了


    测试


    大功告成!


    注意事项:
    1. 上传文件很慢,因为要进行向量转换,所以笔记本的话就老老实实一个一个传

    2. 关注一下CPU 和内存

    API 的调用方式 后面继续更新….

  • AI 考证课程-第一天的资源

    提示词教程:

    1. LangGPT 结构化提示词
    2. 🔥中文 prompt 精选🔥,ChatGPT 使用指南,提升 ChatGPT 可玩性和可用性!🚀
    3. Anthropic 官方提示词库
    4. DeepSeek 官方提示词库



    安装 Docker

    下载并运行 Open WebUI

    docker pull ghcr.nju.edu.cn/open-webui/open-webui:main

    docker run -d -p 3000:8080 --restart no -v open-webui:/app/backend/data --name open-webui ghcr.nju.edu.cn/open-webui/open-webui:main

    如果有cuda: docker run -d -p 3000:8080 --gpus all --restart no -v open-webui:/app/backend/data --name open-webui ghcr.nju.edu.cn/open-webui/open-webui:cuda

    Ollama 把模型安装在其D盘
    创建模型存储文件夹:在 D 盘创建一个用于存放 Ollama 模型的文件夹,例如 “D:\OllamaAI”。
    设置环境变量:在系统设置中搜索 “系统变量” 并进入相关设置页面。在 “系统变量” 下方点击 “新建”,创建一个新的环境变量。变量名设置为 “OLLAMA_MODELS”,变量值设置为刚才在 D 盘创建的文件夹路径 “D:\OllamaAI”,点击 “确定” 保存设置。
    重启电脑:使环境变量设置生效。
    下载模型:重启后,按快捷键 Win+R,输入 “cmd” 并确定,打开命令提示符窗口。输入 “ollama run + 模型名称”,然后按回车键开始下载模型,例如 “ollama run deepseek – r1:7b”。下载完成后,模型会存储在 D 盘指定的文件夹中。


    ollama 安装
    下载链接:https://ollama.com/download

    pip install ollama

    💻 动手学 Ollama 🦙:https://datawhalechina.github.io/handy-ollama/

    1. miniconda 下载链接:https://www.anaconda.com/download/success
    2. 配置镜像:https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/
    3. 文档: