蛋奶烤吐司的制作方法
原料
面包 3-4 片(看厚度)
鸡蛋 2 个
糖 5 克
炼乳 10 克
牛奶 150ml
黄油少量
细沙糖少量
做法
鸡蛋,糖,炼乳,牛奶混合
加面包丁(最好去面包皮)
刷黄油
烤箱 180 度 25min
撒细沙糖
参考链接:戴安娜王妃最爱的吐司蛋奶布丁,烤完整个房间都是蛋奶香~
手抓羊肉的制作步骤
羊肉用水泡半小时
冷水下锅,煮沸后撇去血沫
加花椒 白胡椒 香叶 盐 糖 葱 姜
和羊肉中小火同煮一小时(快到时间再放盐)
迁移Docker数据步骤
相看 docker 存储位置
看数据存哪了
1docker info | grep "Docker Root Dir"
不同类型的数据对应不同子目录:
镜像层(image layers):/var/lib/docker/overlay2/
构建缓存(build cache):/var/lib/docker/buildkit/
容器文件系统:/var/lib/docker/containers/
网络配置:/var/lib/docker/network/
卷(volumes):/var/lib/docker/volumes/
迁移 docker 数据
1. 停掉 Docker 服务
12sudo systemctl stop dockersudo systemctl stop docker.socket
确认已停:
1systemctl status docker
2. 创建新的目标目录
1sudo mkdir -p /mnt/data/docker
(确保 /mnt/data 是挂载到大分区的)
3. 把原目录完整复制过去
推荐用 rsync,避免软链接时出 ...
Linux系统磁盘清理指南
清理日志:/var/log/journal/ 1sudo journalctl --vacuum-size=100M
删除已停止的容器 1docker container prune -f
删除 build cache(中间构建缓存、非常占空间):
1docker builder prune -a
清理 dangling images(构建失败或被覆盖的层) 1docker image prune
金融相关的强化学习工具
在金融强化学习中,我们既可以自己实现环境,也可以利用现有工具快速搭建实验平台。本文重点介绍如何使用现成工具来简化金融
RL 实践。
1 选择金融的 RL 库
方式
代码量
学习成本
复用性
回测功能
适用场景
FinRL / gym-anytrading
低
低
高
完善
教学、快速实验、科研
自写 gym.Env 极简环境
中
低
低
需自写
简单实验
完全自研环境和回测
高
高
低
需自写
高度定制的金融研究
现成工具推荐:
gym-anytrading:适合快速上手和教学实验,带示例数据(如
Open/High/Low/Close/Volume)。
FinRL:适合多资产、真实市场数据回测、科研和产业应用。3_FinRL系列开源工具
quantgym:适合专业衍生品市场建模,需要金融衍生品基础。
新手建议使用 gym-anytrading,快速完成实验,降低开发成本。
2 gym-anytrading 简介
gym-anytrading (https://github.com/AminHP/gym-anytrading) 2.3k ...
论文阅读_FinRL-DeepSeek:大语言模型赋能的风险敏感强化学习交易代理
1234567英文名称:FinRL-DeepSeek: LLM-Infused Risk-Sensitive Reinforcement Learning for Trading Agents中文名称:FinRL-DeepSeek:大语言模型赋能的风险敏感强化学习交易代理链接: https://arxiv.org/pdf/2502.07393v1 (5页短论文)作者: Mostapha Benhenda机构: LAGA — Laboratoire Analyse, Géométrie et Applications, Université Paris 8, CNRS开源项目:https://github.com/benstaf/FinRL_DeepSeek (287 Star)日期:2025-02-11
1 读后感
最近市场波动较大,不少人感到压力,如何降低资产波动性、实现平稳增长显得尤为重要。这篇论文介绍了一种将强化学习与大模型结合的方法,通过整合新闻等文本信息,优化交易推荐和风险评估。与传统强化学习方法相比,论文通过修改PPO公式,引入模型输出的微调动作和惩罚项,虽收益未显著提升, ...
AI 炒股到底靠不靠谱——从 Alpha Arena 看大模型的能力边界
## Alpha Arena 简介
Alpha Arena 是近来讨论度很高的 AI
交易比赛。六大主流大模型(Qwen、DeepSeek、GPT、Gemini、Claude、Grok)各拿
1
万美元,在同一个交易所、同样的数据和提示词下自主做短线交易。近期官方又开启了
1.5
赛季,更贴近我们平时炒股的节奏:把战场从加密市场搬到了美股(纳斯达克科技股),规则更复杂,引入新闻和情绪,参赛选手也更多,关注度再次升高。
这个比赛的有趣点在于:模型没有任何人为干预,全靠自己理解行情、解读数据、管理仓位、控制风险。换句话说,它更像是在测试“大模型能否用自己的理解,在真实市场里活下来”。
随着比赛火起来,也出现了一些开源工具,把 Alpha Arena
的流程简单复刻:喂给模型数据,让它自己给出买卖点。于是一个问题自然就冒出来了:我们是不是现在就能跟着大模型炒股了?
本文想结合这个问题,看看:
大模型现在到底能做到哪一步?
哪些环节它很强?哪些地方暂时解决不了,为什么?
在现阶段,我们能采用的相对“最优”的使用方式是什么?
提示词
和其它调用大模型的任务一样,在不做微调的前提下,提示词就 ...
如何在长期持有中降低成本
1 长线持股,也能很主动
很多人对“长线投资”的理解,是买完躺平一年,但实际市场从不会奖励这种佛系。
真正稳健的做法,是 长期逻辑 +
结构化调仓——底层逻辑不变,但仓位和成本永远在优化。
这篇文章想分享的是一套“长线、自动化、分股性”的方法论,既不折腾,也不被动挨打。
2 先决定持有什么
不是嘴上看好,是“条件式看好”。能长期持有超过一年的行业或公司,必须同时满足三个条件:
逻辑能站住脚:是结构性成长、或周期即将回升,而不是靠情绪炒作。
财务能兑现:ROE、现金流、负债结构都在可接受区间,不出现质变。
竞争格局能稳定:头部企业地位没被撼动,行业没有突然变成价格战泥潭。
只要这三件事不破,长期持有就是合理的。
这里可以结合:
人工判断
LLM 辅助分析(如新闻、研报)
财务数据过滤(ROE、现金流、杠杆)
长线不是“相信”,是“确认”。
3 操作方法
3.1 高波 / 低波:简单定义
3.1.1 高波品种
涨得猛、跌得狠、拉升与回撤都剧烈。主要行业:新能源、AI、半导体。
操作方法: 稳底仓 → 小额分批买 → 大波动做差 →
不追、不梭、不重仓赌方向。
3.1.2 低波品 ...
选股不靠信仰,用数据说话
1 如何选股
很多人选股会先看两个指标:
PE(市盈率)大概告诉你这家公司“贵不贵”、是不是已经涨得有点离谱;
ROE(净资产收益率)反映它赚钱的效率,是不是一家有经营能力的公司。
这两个能给到最基本的判断,但还不够。真正决定“能不能买、值不值得拿着”的,其实是它在市场中处于什么位置。比如:这支股票相比整个A股、相比同行,到底是表现稳定、赚钱能力强,还是只是听起来不错。
我的具体做法是:抓取 A 股 5000 多支股票,从 2023.01.01 到 2025.10.20
的数据,按年切成三段(23年跌,24年波动,24年涨),分别按年统计每支股票的:波动率、最大回撤、夏普比率、年内最高涨幅、期末涨幅。然后再看目标股票在整体分布中的位置,判断它是不是值得持有。
今天在做风险评估时,某只股票的最大回撤为20%,不确定这算大还是小,也不能拍脑袋定阈值。于是对所有股票进行统计,做完觉得有些收获,分享一下。
2 年度比较
2.1 波动率
波动率(Volatility)是把这段时间里每天的涨跌幅算标准差,标准差越大,说明走势越“跳”。
直方图展示了三年的波动率分布。因为波动率是长尾分布,将 ...
对谈_25042x_剃头技巧
[!zk 20250530203710184-0] 剃头技巧
来源:亲子剃头实战经验和对谈中交流观点
内容:儿童寸头操作的三个关键阶段,配合心态建设策略: -
事先准备:选合适时间,安抚情绪,沟通预期,准备好设备与清理工具; -
操作注意:从较长卡梳开始,遵循“下后短、上长、前留”的结构,控制孩子头部不乱动;
-
后处理:剃歪可自嘲(自然风)、务实(头发长得快),并以正面态度影响孩子对“做不好”的接受力。
相关主题:亲子沟通 尝试与失败 自我接纳 理发经验 心态管理 类别:02_
情绪心理
1 总结
这回肯定不能算成功,但是总结再讨论,反而觉得对这件事更有信心了。
2 精华
下次我会更好,但前提是:我要允许这一次不那么好。
真正拉开人与人差距的,不是失败次数,而是愿意再试的次数。 ## 3
对谈
3.1 我
昨天给娃剃了一个头,结果左边看着还行,右边跟狗啃的似的。中间提取了一些经验教训:
寸头一般是下后和两边最短,逐渐过渡,后中上和上面长度正常,前面留长一点。
开始的时候不要用最短的卡梳,至少用 0.5cm
以上的,否则很容易不小心局部剃秃,无法补救。
给小朋友剃头,一定按住 ...
