火山: https://www.volcengine.com/mcp-marketplace
Trae 里面直接使用 @Build with MCP 可以打开

MCP 市场: http://mcpmarket.cn/
火山: https://www.volcengine.com/mcp-marketplace
Trae 里面直接使用 @Build with MCP 可以打开
MCP 市场: http://mcpmarket.cn/
参加LPTC(Life planning training course, Metlife -保险行业的黄埔军校的岗前培训)遇到了一些有趣的灵魂。
先说班主任,老吴, 很严格,即使讲笑话也让大家有压力的感觉~
培训部的主管朱总,做保险就是做人,让客户愿意与你交流。
个业务部门的主管们,各领风骚吧。崔A,不买保险因为不了解,很有激情和感染力。陈昊东,我的主管,个儿最高。沈总,来自互联网的大佬,不记得他讲了什么了,感觉就很忙。
讲师:史宏萍总,很和善,乐于发积分卡,于是课堂很热烈。
罗小燕总,来自证券咨询的大佬,26个月升A,教授了如何通过学,做,复制的模式实现自己的职业目标。 我们担心跨界的失败,更多是相信的力量不够。
五组的小伙伴们:
邹有:来自多年建筑行业的女孩,喜欢查理芒格
唐馨:从事广告设计多年,服务过比亚迪,蔚来汽车等大客户
唐培德: 喜欢带娃和养生的大男孩
顾烨荣: 五组的big bang,班级最壮的大哥大,卷够了大厂,喜欢养生
齐文玥:海归审计师
夜训的老大:韩陆总,分享了超多干货,很风趣。上篇的干货大半来自韩总。
学习, 总是能遇到让自己开心起来的理由。加油,明天!
你有没有遇到过想买保险,但是未来那么多不确定,不知道从哪里开始买?
有没有遇到过,资金有限,买了一个保险之后后悔应该买另外一个?
那么我们应该怎么买保险呢?
下面的分析主要来源于大都会人寿的Agency Director: 韩陆
回答这个问题,先要理清楚保险保障的风险种类。
大病(72.18%), 意外伤残, 死亡(100%),养老(84%)
()中的是人一生中遇到这个情况的概率
人一生中得大病重疾的概率高达72.18%, 死亡的概率是100%, 能活到60岁养老的只有84%,早亡的16%里面, 有12%是病故,4%是意外。(基于最近的统计数据)
购买的逻辑
那么有了种类,我们得寻找一个逻辑主线: 时间发生的先后
对于能买保险的您来说,明天不会发生的是什么? 是不是养老,于是我们把养老放到第四位
剩下是不是死亡? 我们需要把死亡分成早亡(16%) 和驾鹤西去(财富传承)两个类型分开谈。
对于驾鹤,一般是不是在养老后面? 于是我们把财富传承放到第5位。
那么早亡跟大病,意外的顺序呢?
参考我们上面的分析,早亡的原因是疾病和意外,于是早亡变成了第三名。
剩下的是大病和意外伤残了。按照发生的概率,大病更容易发生,所以大病排第一,意外排第二。但是通常意外会有大的杠杠,比如低保费高保额,所以通常采用大病和意外组合的方案。
于是我们得到了下面的优先级
(大病重疾,意外伤残), 早亡, 养老, 财富管理
我们再回忆一下自己买的保险,如果把有限的钱配置在低级别的产品上,是不是更容易后悔?
一个小问题: 孩子的教育金应该排在哪?
购买保险的原则
其他一些比较有意思的点:
保险究竟保的是哪些风险?
保险是骗人的吗?
工具本身会骗人吗?对保险的误解来自于信息差
比如地震,财险的地震是免责条款,寿险是可以理赔的
比如自杀,寿险要求两年之后,经过了两年,当时轻生的念头还在吗?
比如大街上走路突然摔倒了,算意外吗?从保险条款的描述上,一般是不算的~
保险公司的收益究竟从哪里来的?三差
三差类型 | 对比维度 | 盈利条件 |
---|---|---|
死差 | 实际死亡率 vs 预定死亡率 | 实际死亡率 < 预定死亡率 |
利差 | 实际投资收益率 vs 预定利率 | 实际投资收益率 > 预定利率 |
费差 | 实际费用率 vs 预定费用率 | 实际费用率 < 预定费用率 |
保险公司的养老保险为什么能做到年化 4% 以上? 现在一年期的定期存款利率才 1%。
资金运作的 “时间杠杆”
久期匹配下的收益积累
AI 正在重塑组织结构,尤其是中层管理着,那么哪些工作更容易被AI替代,我们要具备哪些能力,要进行怎样的思维转变来拥抱AI新时代。 (PPT 来自于复旦大学管理学院 刘圣明教授)
红色的部分正在被AI替代,这些工作偏事务性,作为管理者,我们要更focus 蓝色部分的工作。
这一页感触比较深,项目经理是技术,AI 与业务之间的纽带,对AI技术影响的敏感性,更开放地去拥抱变化,是我们核心的能力
数据思维决策
成长性思维
协同赋能他人
情感优于任务
前提条件:云端有ubuntu服务器,且开启公网访问,防火墙开启 7000 + 其它端口,如图中6000(ssh), 7500(dashboard),8080(应用端口)
内网机器可以是Ubuntu,也可是是windows
通过FRP 7000端口,FRP client 与 FRP 服务端建立连接
FRP 在server 端通过端口7500,提供Dashboard 来监控网络情况
如图,其他应用通过在client 端配置端口映射来个服务端建立连接
用户可以通过云端的服务器域名/IP:port 的方式来访问部署在内网的应用,比如Deepseek 本地模型部署 (这个后面单独写一篇)
安装教程:
云端:
1. 安装FRP
wget https://github.com/fatedier/frp/releases/download/v0.49.0/frp_0.49.0_linux_amd64.tar.gz
tar -zxvf frp_0.49.0_linux_amd64.tar.gz
cd frp_0.49.0_linux_amd64
2. 配置服务端
[common]
bind_port = 7000 # 服务端与客户端通信端口(默认7000,可自定义)
dashboard_port = 7500 # 仪表盘端口(默认7500,可自定义)
dashboard_user = admin # 改成自己的
dashboard_pwd = admin # 改成自己的
# 可选:设置日志级别
log_level = info
log_max_days = 3
3. 启动服务端服务
# 前台运行(测试用)
./frps -c frps.ini
# 后台运行(推荐)
nohup ./frps -c frps.ini &
4. 开启防火墙
# UFW防火墙示例(放行7000,7500,8080端口)
sudo ufw allow 7000/tcp
sudo ufw allow 6000/tcp
sudo ufw allow 7500/tcp
sudo ufw allow 8080/tcp
本地:
wget https://github.com/fatedier/frp/releases/download/v0.49.0/frp_0.49.0_linux_amd64.tar.gz
tar -zxvf frp_0.49.0_linux_amd64.tar.gz
cd frp_0.49.0_linux_amd64
2. 配置FRP
[common]
server_addr = 云端服务器公网IP # 替换为云端Ubuntu的公网IP
server_port = 7000 # 服务端的bind_port
# SSH转发规则(重点!)
[ssh]
type = tcp # 转发类型为TCP
local_ip = 127.0.0.1 # 本地SSH服务IP(内网Ubuntu的SSH地址,通常是127.0.0.1或内网IP)
local_port = 22 # 本地SSH端口(默认22)
remote_port = 6000 # 云端服务器映射的公网端口(可自定义,需与服务端防火墙放行)
[web]
type = tcp # Web应用通常使用TCP协议
local_ip = 127.0.0.1 # 内网Web应用所在IP(通常是本机)
local_port = 3000 # 内网Web应用端口
remote_port = 8080 # 云端服务器映射的公网端口(自定义,需确保未被占用)
3. 启动客户端服务
# 前台运行(测试用)
./frpc -c frpc.ini
# 后台运行(推荐,需创建systemd服务)
# 1. 创建服务文件
sudo nano /etc/systemd/system/frpc.service
4. 配置系统服务,允许自动启动
修改frpc.ini 文件
[Unit]
Description=frp client
After=network.target
[Service]
Type=simple
User=root
ExecStart=/path/to/frpc -c /path/to/frpc.ini # 替换为实际路径
Restart=on-failure
[Install]
WantedBy=multi-user.target
保存后启动服务
sudo systemctl daemon-reload
sudo systemctl start frpc
sudo systemctl enable frpc # 开机自启
测试
云端通过7500端口访问Dashboard
云端通过6000 端口ssh 内网机器
云端通过8080 端口访问web服务
改进:配置安全连接(两端都需要配置)
# 服务端(frps.ini)
[common]
token = your_secure_token # 设置连接密钥,增强安全性
# 客户端(frpc.ini)
[common]
token = your_secure_token # 与服务端一致
compress = true # 启用数据压缩,减少流量
碰到一个无语的bug,调了半天…
一切正常,没有server 错,没有cors 错, 如图
但是就是没有数据
折腾,折腾,再折腾…
回滚到线上版本还是不行,奇了怪了
不卖关子啦,原来我开的地址是: 127.0.0.1
但是 在cors 的白名单里面,配的是localhost
改过来就正常了…
听了8节免费课,感觉懂了点,又感觉没懂!先记下来
什么是深度学习 – 深度神经网络的权重参数学习
从系统论来看,万事万物可以看成下面的基础结构(多层感知机)
从 Y = f(Wx + b)
到 Y = fnfn-1…fo(Wx + b)
深度学习就是 求这个W
深度就是线性模型外面套激活函数,一层一层来逼近目标
CNN,卷积神经网络->空间维度的一个截面- 把W通过w卷积
RNN:循环神经网络 -> 考虑时间/时序维度的关系
Yn = f(Ux + WYn-1 + B )
注意力网络: Transformer -> 认知科学维度,聚焦关键特征
Y = softmax(QK / [d])V
AIGC
机器视觉 CV
语音
NLP – 文本,以及背后的语义,逻辑,情感,意图等 -> LLM -> AI2.0
多模态 – 多媒体 – 文本,图形,视频,语音的生成和交互
线性代数 – 数据表达 – 前向传播
概率统计 – 损失函数 – 优化引擎
微积分 -链式法则- 反向传播
向量和矩阵:数据在AI领域的数字表达
神经网络的核心操作是线性变换 + 非线性激活,就是前面讲的:输入向量 x 通过权重矩阵 W 完成线性变换 y=Wx+b
卷积神经网络(CNN)中的卷积操作可视为稀疏矩阵乘法,利用局部连接和权值共享减少计算量
AI 模型(如神经网络)通过损失函数(如交叉熵)衡量预测误差,需利用微积分中的导数找到使损失最小的参数。
梯度(Gradient)是损失函数对参数的偏导数向量,指引参数更新的方向(沿梯度反方向更新可最快降低损失)
反向传播算法(Backpropagation)本质是链式法则的应用,递归计算每个参数的梯度,实现端到端的优化。
动量法(Momentum)引入梯度的一阶惯性(类似物理中的动量),通过指数加权平均加速收敛;
Adam 算法结合梯度的一阶矩(均值)和二阶矩(方差),自适应调整学习率,其推导依赖泰勒展开、牛顿法等微积分理论。
为了使用梯度下降优化,激活函数(如 ReLU、Sigmoid、Tanh)必须可导(或近似可导)。
微积分支持对连续变量的建模(如回归问题预测房价、温度等连续值),而离散优化(如组合问题)常通过连续松弛(如将 0-1 变量松弛为 [0,1] 区间的实数)转化为微积分问题求解。
分类模型通过 Sigmoid 函数将线性变换结果映射为概率(如二分类中 \(P(y=1|X) = \sigma(\mathbf{w}^T\mathbf{x})\)),损失函数(交叉熵)对应极大似然估计的优化目标
生成模型变分自编码器(VAE)假设隐变量 z 服从先验分布(如标准正态分布),通过编码器 \(q(z|X)\) 近似后验分布 \(p(z|X)\),解码器 \(p(X|z)\) 生成新样本,目标是最大化对数似然的变分下界
归一化流(Normalizing Flow)通过可逆变换将简单分布(如高斯分布)转化为复杂数据分布,利用概率密度变换公式(雅可比行列式)计算似然
多头注意力机制(Multi-Head Attention)通过线性变换(矩阵乘法)将查询(Query)、键(Key)、值(Value)映射到多个子空间,计算注意力权重时使用点积(内积)和 Softmax 函数(归一化概率分布)
位置编码(Positional Encoding)利用正弦余弦函数(微积分中的周期函数)引入序列顺序信息,避免纯线性变换的排列不变性
总结:微积分中的链式法则支撑反向传播算法,而线性代数中的矩阵求导(如雅可比矩阵、海森矩阵)提供参数梯度的计算框架,概率论中的期望运算(如损失函数的数学期望)将样本层面的优化扩展到总体分布。
黑群的文件突然不能用了,修了半天没搞定,所有就想自己搭建文件服务器,这样家里所有的电脑都能连上,好处
方便在不同设备上共享传输
存储空间大
主要其实就是搭建一个Samba 服务器
安装 Samba:在终端输入sudo apt-get update
更新软件源,然后输入sudo apt-get install samba
安装 Samba 服务器软件
创建用户组和用户:
sudo groupadd smbgroup
sudo useradd -M -G smbgroup richardmiao
sudo smbpasswd -a richardmiao #这是samb的密码,跟Ubuntu系统不共享
创建共享文件夹:
sudo mkdir -p /srv/shared
sudo chown nobody:nogroup /srv/shared
sudo chmod 775 /srv/shared
配置 Samba:输入sudo nano /etc/samba/smb.conf
打开配置文件,在文件底部添加共享相关配置
# 公共只读共享
[public]
path = /srv/shared
comment = Public Share
browseable = yes
read only = yes
guest ok = yes
create mask = 0644
directory mask = 0755
# 可写共享(需要用户名密码)
[private]
path = /srv/shared
comment = Private Share
browseable = yes
read only = no
valid users = @smbgroup
force group = smbgroup
create mask = 0660
directory mask = 0770
writable = yes
保存退出 Nano, ctrl + o => enter => ctrl + x
启动与设置开机自启:启动 Samba 服务器,再设置开机自启动
sudo systemctl restart smbd
sudo systemctl status smbd # 检查服务状态
sudo systemctl enable smbd
测试
\\192.168.8.110\public
或 \\192.168.8.110
\private
smb://服务器IP/public
不出所料,没成功,public 可以访问,private 再输入用户名密码之后报错
服务测试,通过 服务器上运行,检查服务是OK的
smbclient //localhost/private -U richardmiao
进入下面的交互界面,就说明服务是OK的
windows 端检查
Windows 会缓存与 Samba 服务器的连接会话,若之前用不同凭据连过,可能冲突。
打开凭据管理,删除所有这个地址值下的凭据,找到 Windows 凭据 中与 192.168.8.110
相关的条目,删除,还是不行呀
Samba 与 Windows 的 SMB 协议版本可能不兼容,导致权限判断异常。
Win+R
→ 输入 gpedit.msc
回车,Win 家庭版需手动安装);4. 按 Win+S
搜索 启用或关闭 Windows 功能, 找到并勾选「SMB 1.0/CIFS 文件共享支持」
结果来啦
映射到磁盘方便使用
话说,黑群里的资料咋整回来…
基础环境:Windows, Anaconda, Docker
Chat 大模型:deepseek-r1:1.5b
知识库:Open Web UI
先配置基础环境
下载Anaconda:https://www.anaconda.com/download/success
安装并被指国内镜像: https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/
# 创建名为ai_knowledge的环境
conda create -n ai_knowledge -y
conda activate ai_knowledge
下载并安装 ollama,全默认就可以
模型的版本在这里找
# 下载模型
ollama pull deepseek-r1:1.5b
# powershell 启动 ollama 服务
Start-Process -FilePath "ollama" -ArgumentList "serve" -NoNewWindow
这里也可以通过run 命令启动,同时可以打开ollama的对话窗口
下载并安装好docker desktop,一路店到底
#下载 并运行 open webUI
docker pull ghcr.nju.edu.cn/open-webui/open-webui:main
docker run -d -p 3000:8080 --restart no -v open-webui:/app/backend/data --name open-webui ghcr.nju.edu.cn/open-webui/open-webui:main
或者直接点图中的run 来运行
打开 http://localhost:3000/auth?redirect=%2F
Open WebUI 自动与本地的ollama 连接好了
测试一下效果
开始创建知识库,看步骤1234
上传文件到具体的知识库
build 自己的模型,需要选择基础模型,权限,知识库,偷懒一起选了
测试
大功告成!
注意事项:
1. 上传文件很慢,因为要进行向量转换,所以笔记本的话就老老实实一个一个传
2. 关注一下CPU 和内存
API 的调用方式 后面继续更新….
提示词教程:
安装 Docker
下载并运行 Open WebUI
docker pull ghcr.nju.edu.cn/open-webui/open-webui:main
docker run -d -p 3000:8080 --restart no -v open-webui:/app/backend/data --name open-webui ghcr.nju.edu.cn/open-webui/open-webui:main
如果有cuda: docker run -d -p 3000:8080 --gpus all --restart no -v open-webui:/app/backend/data --name open-webui ghcr.nju.edu.cn/open-webui/open-webui:cuda
Ollama 把模型安装在其D盘
创建模型存储文件夹:在 D 盘创建一个用于存放 Ollama 模型的文件夹,例如 “D:\OllamaAI”。
设置环境变量:在系统设置中搜索 “系统变量” 并进入相关设置页面。在 “系统变量” 下方点击 “新建”,创建一个新的环境变量。变量名设置为 “OLLAMA_MODELS”,变量值设置为刚才在 D 盘创建的文件夹路径 “D:\OllamaAI”,点击 “确定” 保存设置。
重启电脑:使环境变量设置生效。
下载模型:重启后,按快捷键 Win+R,输入 “cmd” 并确定,打开命令提示符窗口。输入 “ollama run + 模型名称”,然后按回车键开始下载模型,例如 “ollama run deepseek – r1:7b”。下载完成后,模型会存储在 D 盘指定的文件夹中。
ollama 安装
下载链接:https://ollama.com/download
pip install ollama
💻 动手学 Ollama 🦙:https://datawhalechina.github.io/handy-ollama/