自建 NAS 系统指南
1 NAS
NAS,全称为 Network Attached
Storage,是一种连接至网络即可使用的专属存储服务器,特点包括:
文件集中存储
局域网和外网的访问
多设备同步(手机、电脑、电视)
数据备份和权限管理
2 PVE
Proxmox Virtual Environment
这是一个基于 Linux
的开源虚拟化系统,能同时管理虚拟机(KVM)和容器(LXC),并配备网页管理界面。
有了一台服务器,安装 PVE 就可以运行多个系统(Windows、Linux、NAS
等)。常用于搭建个人私有云数据中心。
3 飞牛 fnOS
fnOS,即飞牛操作系统(官方常称为 FlyNAS 或 FlyNAS
OS),主要用于个人或家庭的 NAS 存储设备。
飞牛是中国玩家常用的 NAS
品牌之一,具备存储、观看、备份以及运行轻量级服务的功能。
为什么我们总是卖飞
1 引言
最近回测策略时发现一些有意思的事。刷到个视频,说散户拿不住牛股,震荡几下就跑了,大肉都没吃着。其实数据也印证了这一点:股票一旦起飞,真能拿住的人非常少。无论基本面、技术面还是消息面,中间都有太多下车点。这篇就聊聊,为什么我们总是卖飞,以及能怎么改。
## 2 实操复盘
以下是这波大牛市里,我买过的最好的一支股票,问题是在它涨的过程中我一直卖,还没涨起来就卖掉了大部分。我的操作如图:
红色是买入点,绿色是卖出点,蓝色是仓位。可以看到从 24
年初我就开始买,在将近一年的横盘微跌中一直加仓;7
月开始涨,我就开始卖,涨了还没三分之一,我已经卖掉大半了——典型卖飞。这种情况下收益是
61%(不计本金)。
3 最好的操作
这种情况下最赚钱的策略是持有。假设我在第一次操作时就把用在这支股票上的所有资金买入,并在最后一次操作时全部卖出,相当于一直满仓,这种情况下的收益是
258%。
但实话说,谁也没有后眼。一支从来没买过的股票,也不会一开始就满仓。只是想说明:最大的损失并不是选错股,而是没拿住好股。
4 回测规则交易
你也可以说,可能就是我目光短浅,心理素质不行……于是我测了 MAC ...
GitHub Copilot用量优化指南
1 问题概述
最近几个月,GitHub Copilot 对部分模型开始限量:10
美金的套餐常常在月底前就耗尽了,被迫退回到“无限用但效率低”的模型。用量上其实差距不大——就是最后三五天总差那么一点儿,就很烦人。我也愿意为多出来的部分按量计费,但找不到在哪里设置。于是只好想一些节流的办法。
### 2 原因分析
使用大量Agent无疑是主要原因,不过仍有一些节省空间。
VSCode 插件/Session
常进入“死循环”式请求:模型在某个方向反复尝试和输出,导致 token
的浪费。
生成了过多的测试、示例和说明文件,同时还扩展了一些用不上的功能。
目前的 VSCode 1.105
版本在交互方面已经有很大提升,比如它边改我边确认,在思考过程中还可以叫停。但仍有人与模型协作时不够协调的问题。常见的问题包括:我没有把大目标拆分成小目标,没有及时清理上下文等等。
3 实操建议(可直接复用)
先搭框架:人工先写好项目/函数骨架,再让模型填充实现细节(可使用
Ask 方式讨论确定框架)。
小步提交:大目标拆成若干小目标,一次别改太多文件或太多逻辑。
频繁“商量”再执行:多用 ask(询 ...
选股中的财务指标运用
12少点概念,多点逻辑,聚焦能落地的决策。学以致用,不能用的就不学。
1 为什么要看这篇
投资指标的解释,书上已经讲烂了:定义、公式、优点缺点……但看完往往还是不知道怎么用。在这里,不是为了“学会指标”,而是为了用指标赚钱。
这篇(以及本系列文章)想做的事情更简单粗暴:
不按教科书逻辑讲指标
从投资者真实场景入手解决问题
形成能用的选股与买卖套路
结构以问答为主,每个问题都来自实操中的“盲点时刻”;边写边做,边做边改,策略会随着实践迭代——像更新代码一样升级自己的投资系统。
2 相关概念简介
先把后面会用到的几个核心指标,用一句话讲清楚:
ROE(净资产收益率):股东投入的资金一年能赚回多少利润
PE(市盈率):市场为当前盈利水平付出的价格(估值贵不贵)
PB(市净率):市场为公司净资产付出的价格(有没有低估)
回撤(Max
Drawdown):从高点跌到低点的最大亏损幅度
波动率:价格的上下波动程度,越大越不稳定
成交量(Volume):市场参与度,资金是否正在涌入
换手率:股票在市场上流通的活跃程度
MA 均线(Moving
Average):价格趋势的参考线,多头说明趋势 ...
指标学习与应用
1 概念
MA(均线)用来观察趋势的方向和结构,MACD
用来判断趋势的动量变化和潜在拐点。简单理解:MA
是位置,MACD 是速度变化。
指标
反应周期
主要看什么
特点
MA5 / MA10 / MA20
直接反映价格走势
趋势方向与支撑阻力
直观、简单、滞后
MACD
综合短中期均线差
动能变化与节奏强弱
能提前反映趋势变化
1.1 MA
MA(如
MA5、MA10、MA20)是直接对价格做平均,看趋势的方向和强弱。
1.2 EMA
EMA(Exponential Moving Average,指数移动平均线)是
MA
的改良版。越“新”的价格,权重越大;越“旧”的价格,权重越小。
1.3 MACD
MACD(Moving Average Convergence
Divergence,移动平均线收敛发散指标)是一种看趋势 +
看节奏的指标。
它由三部分组成:
快线(DIF):代表短期情绪变化,比如最近几天市场很兴奋或很冷淡。
慢线(DEA):代表相对长期的平均情绪,是一种“主流观点”。
柱状图(MACD
柱):快线减去慢线的差距,表现出情绪的 ...
股票_相关知识
1 港股相关
1.1 港币“强保 / 弱保”的含义
这是 港币联系汇率制度(Linked Exchange Rate System,
LERS)里的两个关键锚点:
弱方保证(Weak-side Convertibility Undertaking,简称弱保)
水平:1 美元 = 7.85 港元
含义:如果港元 贬值到 7.85(即 1
美元要换更多港币),香港金融管理局(HKMA)会无上限卖美元、买入港元,支撑汇率不再继续贬。
强方保证(Strong-side Convertibility Undertaking,简称强保)
水平:1 美元 = 7.75 港元
含义:如果港元 升值到 7.75(即 1 美元只要换更少港币),HKMA
会无上限买美元、卖出港元,避免港币过度升值。
联系汇率制度的目标是保持港币与美元稳定挂钩。
区间范围:7.75–7.85
中点:7.80
港元汇率可以在这个区间自由浮动,但一旦触及上下限,金管局就会入市干预。
强保 / 弱保的功能
弱保(7.85):防止资本大规模外流 →
港币贬值过快,会让资金恐慌性离开香港。金管局必须撑住。
强保(7. ...
什么情况下使用强化学习
1.
深度学习与深度强化学习的核心区别
深度学习与深度强化学习的“核心”都是用神经网络,通过训练调整参数,让模型对输入数据
X 有更好的输出
Y。而它们本质上的区别主要在于:数据来源、训练目标、反馈方式。
深度学习更像是在“背标准答案”,用现成的数据直接学;深度强化学习更像是在“玩游戏”,通过不断试错、和环境互动,自己摸索什么行为最优。
2.
从预测到决策:金融中的两种学习方式
如果只预测股票涨跌幅度,那是深度学习或者机器学习;而学习通过择时选择不同动作,以获得收益最大化,则是强化学习。
方面
深度学习(DL)
深度强化学习(DRL)
数据来源
预先准备的静态数据
交互环境中动态产生的数据
目标
预测已知标签
最大化长期累计奖励
反馈
明确的标签/损失
间接的奖励/反馈
训练过程
直接优化损失
需探索 - 收集 - 利用经验
数据分布
固定(i.i.d.)
不断变化,依赖策略
3. 连续决策:强化学习的真正难点
与深度学习的“单次预测”不同,强化学习关注的是连续决策过程:一个动作会影响后续状态与奖励。模型不仅要考虑当前结果,更要权衡“现在做什么” ...
围棋经典算法与股票市场预测
一谈到强化学习,脑子里第一个出现的就是 AlphaGo 和 AlphaZero
的“围棋神话”。但现实是,它并不是所有 RL
应用的通用范本。下面,我们就来讨论一下为什么围棋中的经典强化学习算法无法应用于股票市场预测,以及在现实中有没有更好的方法可供推荐。
1 蒙特卡洛树搜索
蒙特卡洛树搜索(Monte Carlo Tree Search,
MCTS)是一种用于决策和规划的搜索算法,经常用于下棋
AI(如围棋、国际象棋)等需要“选最优动作”的场景。
1.1 基本思想
核心思想:在一个决策树中,通过不断模拟(随机走子)和回溯统计,估计每个动作/路径的优劣,从而指导实际的决策选择。
适用于:环境模型已知、可以模拟、状态和动作是有限/可枚举的场景。
1.2 树的结构
节点(Node):代表一个状态(比如棋盘某一局面)。
边(Edge):代表一个动作(从当前状态采取的一个可能操作)。
根节点是当前的实际状态。
从根出发,每走一步棋(做一个动作)就往下生成一个新节点,连一条边。
1.3 搜索过程(四大步骤)
选择(Selection)
沿着树从根节点开始,按照某种策略(如
UCB,上置 ...
强化学习工具及优化方法
1 说明
在量化交易或金融强化学习项目中,很多人会好奇到底需要关注算法本身,还是环境建模和数据处理。实际上,绝大多数场景下,重点是如何设计环境和构造特征,而不是修改
RL 算法。只有在算法研究、论文复现或特殊需求时,才需要动手改算法。
本文将以 stable-baselines + gym
为例,介绍强化学习在股票策略训练中的实践重点和流程。
2 stable-baselines
stable-baselines3(简称 SB3)是一个基于 PyTorch
的强化学习库,专注于实现和优化主流深度强化学习算法。它的目标是让用户能够方便地训练、评估和部署
RL 智能体。
2.1 主要特点
易用性:API 设计简洁,类似
scikit-learn,便于上手。
主流算法:内置 PPO、A2C、DQN、SAC、TD3
等常用算法。
可扩展性:支持自定义环境(如 gym
环境)、网络结构和回调。
社区活跃:文档完善,支持良好。
2.2 适用场景
股票/量化交易
游戏智能体
机器人控制
其他序列决策问题 ### 2.3 基本用法
定义环境(如 gym 或自定义环境)
选择算法并初始化模型 ...
强化学习的核心概念与实践应用
核心:价值与奖励、策略与动作、价值与状态之间有什么关系?
1 核心概念
状态(State):环境的某个完整描述,比如“现在是周一上午 10
点,账户余额 10 万,持有 A 股 1000 股”。
动作(Action):在当前状态下可以做出的选择,比如“买入、卖出、持有”。
奖励(Reward):环境在每一步给你的“即时反馈”或“即时得分”。
策略(Policy):是一个“状态→动作”的映射规则,也可以是一个概率分布,决定你在每个状态下选什么动作。
价值(Value):给定当前状态(或状态 +
动作),在当前策略下未来总奖励的期望。
12状态 --(执行 策略)--> 动作 --(环境反馈)--> 奖励 ↘-------------- 价值 ------------↗
状态、策略和动作决定了你怎么走
奖励是每步的即时反馈,价值是“展望未来”的累计总奖励
2
价值(Value)和奖励(Reward)的区别
奖励(Reward):是环境在每一步给你的“即时反馈”或“即时得分”。
比如:每走一步路时地上的小金币。
价值(Value):是“从某个状态(或状态 +
...
