普通视图

发现新文章,点击刷新页面。
昨天以前お前はどこまで見えている

波动率与换手率中的牛熊密码

作者 hotarugali
2024年5月20日 15:57

1. 简介

传统的择时方法主要使用价格数据,比如均线择时、通道择时等,都是对价格趋势的判断。本文介绍一种用波动率和换手率数据区分市场状态进行择时的方法。

1.1 波动率

波动率是过去一定时间内收益率的标准差。波动率是衡量资产收益不确定性和风险水平的常用指标,用来反映资产价格的波动程度。

一般而言,波动率与市场状态之间有如下关系:

  • 市场下跌和上涨时波动率会增加。
  • 长期的波动率更能反映市场的长期趋势。

1.2 换手率

换手率是指一定时间内市场中股票转手买卖的频率。它是反映股票流动性强弱和交易活跃度的指标之一。换手率可以用当天成交量占流通总股本的比例来计算。

一般而言,换手率与市场走势存在正相关性。这意味着在市场上涨时,换手率往往会增加;而在市场下跌时,换手率往往会减少。

2. 投资时钟

通过波动率和换手率两个维度构建的投资时钟,可以作为判断市场状态的工具。根据波动率和换手率,可以将市场分为四种类型:

  • 波动率和换手率同时上行:通常代表市场处于典型的牛市状态。在这种状态下,市场的快速上涨导致波动率上升,同时投资者的交易热情高涨,使得换手率也上升。
  • 波动率和换手率同时下行:可能代表市场处于震荡市状态,市场方向不明确。在这种状态下,市场可能震荡下跌,也可能震荡上涨,具体方向难以判断。
  • 波动率上行,换手率下行:典型的熊市特征。市场下跌导致波动率上升,同时成交量萎缩,使得换手率下降。
  • 波动率下行,换手率上行:通常代表市场表现较好,可能是牛市的初期或者是熊市之后的反弹阶段。在这种状态下,市场的波动趋于稳定,而投资者的交易热情上升。

3. 牛熊指标

基于波动率和换手率构建牛熊指标的方法为计算波动率与换手率的比值:

牛熊指标=波动率/换手率牛熊指标 = 波动率 / 换手率

其中,波动率为某个时间段内股票/其他资产的日收率的标准差,换手率为同一时间段内股票/其他资产的换手率的移动平均值。

以沪深 300 指数为例,以一年为周期计算的牛熊指标走势如下图所示:

从上图可以看出:

  • 牛熊指标与股票指数的走势大体上呈现负相关性。当牛熊指标上升时,通常表明市场处于下跌状态,因为波动动率的增加速度快于换手率的增加速度。当牛熊指标下降时,市场往往处于上涨状态,因为换手率的增加速度超过了波动率的增加速度。
  • 选择较长时间周期构建的牛熊指标平稳性较好,不会因为市场短期波动而频繁变动,有助于更好地识别市场中长期趋势,适合中长线资金和资产配置。

4. 择时策略

牛熊指标与股票指数的走势呈现负相关,这意味着当牛熊指标趋势向上时,市场往往处于下跌状态;反之,当牛熊指标趋执向下时,市场往往处于上涨状态。

因此可以据此来进行择时操作,当牛熊指标趋势向上时空仓,当牛熊指标趋势向下时开仓

4.1 斜率择时

计算若干日指标值拟合直线的斜率,如果斜率为正值可能意味着牛熊指标的趋势向上,反之意味着牛熊指标的趋势向下。

4.2 单均线择时

通过计算牛熊指标若干日的移动平均线,如果当日的均线值大于上一日的均线值,可能说明指标趋势向上,反之说明指标趋势向下。

4.3 双均线择时

计算牛熊指标的长短两条均线,当短均线位于长均线上方时可能意味着牛熊指标为上涨的趋势;反之意味着牛熊指标为下跌的趋势。

4.4 通道突破择时

计算牛熊指标的通道值,如果指标值突破通道上轨,可能说明牛熊指标进行上涨趋势;如果指标值跌破通道下轨,则说明牛熊指标进入下跌趋势。

参考资料

你当像鸟飞往你的山

作者 hotarugali
2023年10月12日 16:36

《你当像鸟飞往你的山》— 塔拉·韦斯特弗

「负罪感源于一个人对自身不幸的恐惧,与他人无关。」

「过去是一个幽灵,虚无缥缈,没什么影响力。只有未来才有分量。」

「见证和体验超越父亲所给予我的更多的真理,并用这些真理构建我自己的思想。」

「当生活本身已经如此荒唐,谁知道什么才能算作疯狂。」

「尽管我已经弃绝了父亲的世界,却从未寻找到生活在这个世界上的勇气。」

「消极自由是不外部限制或阻碍的自由。积极自由是自制,由自我掌控的自我统治。拥有积极自由就是控制自己的思想,从非理性的恐惧和信仰中解放出来,从上瘾、迷信和所有其他形式的自我强迫中解脱出来。」

「我只是无法忍受别人拍着我的背,对我说多么令人印象深刻。我希望过有意义的生活,而在我看来,交代那些没有任何意义。」

「无论你成为谁,无论你把自己变成了什么,那就是你本来的样子。它一直在你心中, 不是在其他任何地方,而是在于你自己。」

「比起仁慈,我更能容忍任何形式的残忍。赞美于我来说是一种毒药,我被它噎住了。」

「承认不确定性,就是被迫承认自己的软弱和无能,但也意味着你相信你自己。」

「对我来说重要的不是爱情或友情,而是我自欺欺人的能力:相信自己很坚强。」

「我再也不允许自己在一场我并不理解的冲突中首当其冲。」

「有的人反对平等的大潮,有的人必须从某些人那里夺取自由。」

「过去总是美好的,因为一个人从来都意识不到当时的情绪;它后来扩展开来,因此我们只对过去,而非现在,拥有完整的情绪。」

简介

塔拉是一个在拥有众多兄弟姊妹的摩门教家庭中长大的女孩,她们家地处爱达荷州的偏远山区。山区的闭塞,加上父亲的权威,让她对父亲所说的一切都深信不疑。巴克峰孕育了她的青少年,培养了她的灵性。生活本该一如既往,但时间却总是单向流淌,身边兄弟姐妹的成长与离别,开始唤醒她内心的思考。当她决定走出家乡,到城里上大学,她命运的齿轮终于开始转动。城市的生活,和家乡的生活,不仅是距离上的隔阂,更是精神上的撕裂。游走于两个世界的她,开始理解自己,理解人性,知道了自己害怕什么,恐惧什么,渴望什么。她开始独立思考,拥有自己意志,开始作为一个独立的人,而不是别的附属物,而存在于这个世间。正如她自己所说:「我曾怯懦、崩溃、自我怀疑,内心里有什么东西腐烂了,恶臭熏天。直到我逃离大山,打开另一个世界。那是教育给我的新世界,那是我生命的无限可能。」

感想

人从一出生开始,就开始被套上各种名为「标签」的枷锁,它们困住的不是我们肉体,而是无形的灵魂。惟有认识自己、了解自己、改变自己,才能从这无形的锁链中挣脱。只是这个过程必然是极其艰难,且痛苦的。这世间没有什么是永恒不变的,除了「改变」本身。精神世界重塑之际,便是物质世界的我们重生之时。

LightGBM算法详解

作者 hotarugali
2023年7月20日 15:17

1. 简介

LightGBM 是一个高性能的分布式梯度提升决策树框架,可以用于分类、回归、排序任务等,属于监督学习算法。LightGBM 属于 Boosting 的一种,Boosting 是指用一系列的模型线性组合起来完成模型任务。Boosting 分为两种:

  • Ada Boost:根据当前的 Loss 来改变样本权重,比如这个样本在学习中误差比较大,则获得一个大的权重,反之获得更小的权重,从而控制后续子模型的产生。
  • Gradient Boost:直接修改样本 Label,新的样本 Label 将变成原来的 Label 和已知形成的的模型预测值之间的残差。Gradient Boost 更倾向于降低训练误差的角度去完成算法优化。

而 GBDT = Gradient Boosting + Decision Tree,即在 Gradient Boosting 中,每一个 base learner 都是一个 decision tree。

2. 决策树

决策树的学习过程可以分为两种:

  • Leaf-wise Learning:在学习过程中,我们需要不断地寻找分类后收益最大的叶子节点,然后对其进行进一步的分裂,从而生长树。这种方法能够更加快速有效地寻找模型,但是整个生长过程都是顺序的不方便加速。
  • Level-wise Learning:这种方式树是按层生长的,不需要每次去挑选生长的节点,只需要按层级顺序去生长。这种方法在每个 Level 中各个节点的分类可以并行的完成,有天然的并行性,但是会产生很多没必要的分类,造成更大的计算代价。

逻辑斯谛回归

作者 hotarugali
2022年12月22日 21:17

1. 简介

逻辑斯谛回归是统计学习中的经典分类方法。

2. 逻辑斯谛分布

  • 定义:设 XX 是连续随机变量,XX 服从逻辑斯谛分布是指 XX 具有下列分布函数和密度函数:

    F(x)=P(Xx)=11+e(xμ)/γf(x)=F(x)=e(xμ)/γγ(1+e(xμ)/γ)2F(x) = P(X \leq x) = \frac{1}{1 + e^{-(x-\mu)/\gamma}} \\f(x) = F^{'}(x) = \frac{e^{-(x-\mu)/\gamma}}{\gamma(1 + e^{-(x-\mu)/\gamma})^2}

    其中,μ\mu 是位置参数,γ>0\gamma > 0 为形状参数。

逻辑斯谛分布的 PDF 和 CDF 函数曲线如下图所示:

3. 二项逻辑斯谛回归模型

二项逻辑斯谛回归模型是一种分类模型,其由条件概率分布 P(YX)P(Y | X) 表示,形式为参数化的逻辑斯谛分布。随机变量 XX 取值为实数,随机变量 YY 取值为 1100,我们通过监督学习的方法来估计模型参数。

  • 定义:二项逻辑斯谛回归模型是如下的条件概率分布:

    P(Y=1x)=exp(wx+b)1+exp(wx+b)P(Y=0x)=11+exp(wx+b)P(Y = 1 | x) = \frac{\exp(w \cdot x + b)}{1 + \exp(w \cdot x + b)} \\P(Y = 0 | x) = \frac{1}{1 + \exp(w \cdot x + b)}

    其中,xRnx \in \mathbf{R}^n 为输入,Y{0,1}Y \in \{0, 1\} 为输出,wRnw \in \mathbf{R}^nbRb \in \mathbf{R} 为模型参数,ww 为权值向量,bb 为偏置,wbw \cdot b 表示 wwbb 的内积。

对于给定实例 xx,按照上式分别计算 P(Y=1x)P(Y = 1 | x)P(Y=0x)P(Y = 0 | x),然后比较两个条件概率值,将实例 xx 分到概率值较大的那一类。

几率:一个事件的几率是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率是 pp,那么该事件的几率是 p1p\frac{p}{1-p},该事件的对数几率或 logit 函数是

logit(p)=logp1p\mathrm{logit}(p) = \log{\frac{p}{1-p}}

对于二项逻辑斯谛回归模型,其 logit 函数为

logP(Y=1x)1P(Y=1x)=wx+b\log{\frac{P(Y = 1 | x)}{1 - P(Y = 1 | x)}} = w \cdot x + b

也即是说,输入 Y=1Y = 1 的对数几率是由输入 xx 的线性函数表示的模型,即逻辑斯谛回归模型。

  • 参数估计:对于给定的训练数据集 T={(x1,y1),(x2,y2),,(xN,yN)}T = \{(x_1, y_1), (x_2, y_2), \cdots, (x_N, y_N)\},其中 xiRnx_i \in \mathbf{R}^nyi{0,1}y_i \in \{0, 1\},可以应用极大似然估计法估计二项逻辑斯谛模型参数。设 P(Y=1x)=π(x),P(Y=0x)=1π(x)P(Y = 1 | x) = \pi(x), P(Y = 0 | x) = 1 - \pi(x),似然函数为 i=1N[π(xi)]yi[1π(xi)]1yi\prod_{i=1}^N [\pi(x_i)]^{y_i} [1-\pi(x_i)]^{1-y_i},则对数似然函数为

    L(w)=i=1N[yilogπ(xi)+(1yi)log(1π(xi))]=i=1N[yilogπ(xi)1π(xi)+log(1π(xi))]=i=1N[yi(wx+b)log(1+exp(wx+b))]\begin{aligned}L(w) & = \sum_{i=1}^N [y_i \log{\pi(x_i)} + (1-y_i) \log{(1-\pi(x_i))}] \\& = \sum_{i=1}^N \left[ y_i \log{\frac{\pi(x_i)}{1 - \pi(x_i)} + \log{(1-\pi(x_i))}} \right] \\& = \sum_{i=1}^N [y_i (w \cdot x + b) - \log{(1 + \exp(w \cdot x +b))}]\end{aligned}

    L(w)L(w) 求极大值,即可得到 ww 的估计值。

    L(w)-L(w) 即对应交叉熵损失。

这样,问题就变成了以对数似然函数为目标函数的最优化问题。逻辑斯谛回归学习中通常采用的方法是梯度下降法或拟牛顿法。

4. 多项逻辑斯谛回归

二项逻辑斯谛回归可以推广为多项逻辑斯谛回归模型,用于多类分类。假设离散型随机变量 YY 的取值集合为 {1,2,,K}\{1, 2, \cdots, K\},那么多项逻辑斯谛回归模型是

P(Y=kx)=exp(wkx)1+k=1K1exp(wkx),k=1,2,,K1P(Y=Kx)=11+k=1K1exp(wkx)P(Y = k | x) = \frac{\exp(w_k \cdot x)}{1 + \sum_{k=1}^{K-1} \exp(w_k \cdot x)}, k = 1, 2, \cdots, K-1 \\P(Y = K | x) = \frac{1}{1 + \sum_{k=1}^{K-1} \exp(w_k \cdot x)}

其中,为了简便,wk=(wk(1),,wk(n),b)Tw_k = (w_k^{(1)}, \cdots, w_k^{(n)}, b)^Tx=(x(1),,x(n),1)Tx = (x^{(1)}, \cdots, x^{(n)}, 1)^TxRn+1,wkRn+1x \in \mathbf{R}^{n+1}, w_k \in \mathbf{R}^{n+1}。二项逻辑斯谛回归模型的参数估计方法也可以推广到多项逻辑斯谛回归模型中。

附录

  • 《统计学习方法》by 李航
❌
❌