django_验证用户身份
1 常用的用户验证方法
基本身份验证(Basic Authentication):
这是最简单的身份验证方式之一。客户端在请求头中包含用户名和密码的 Base64
编码
Token 身份验证: 使用 Token
身份验证,客户端在请求中提供一个令牌(token),服务器在收到请求后验证令牌的有效性。
OAuth 认证: OAuth
是一种流行的开放标准,用于授权第三方应用程序访问用户的数据。
JSON Web Token(JWT): JWT
是一种用于在网络应用之间安全传递声明的开放标准。JWT
由三部分组成:头部、载荷和签名。
SSL/TLS: 使用 SSL/TLS 加密协议来保护通信是保护 API
免受未经授权访问的重要手段之一,这也是常用的 Session/Cookie 方法。
2 选型
由于我的服务端基本已用 Django 写好,自带比较完善的用户管理,使用
Session/Cookie 方法,修改最小,理论上只需要在请求时设置 withCredentials
即可。
但由于我的前后端分离,且使用一个后端和多个前端的模式,因此产生了跨域请求问题。需要将
http 改为
ht ...
大模型词嵌入方法_Embedding
1 介绍
模型 Embedding
是一种将高维数据转换为低维向量的技术,通常用于自然语言处理和机器学习领域。比如在自然语言处理中,就是把一句或一段话转成一个多维向量。它能捕捉词汇或数据之间的语义关系。在词嵌入中,类似意义的词会被映射到相近的向量空间中。
Embedding
常常用于信息检索、文本分类、语义匹配等场景中。比如建立本地知识库时,一般会先将文本切分,再进行
Embedding,然后将其存储在向量数据库中,以便后续查找和使用。
2 方法
嵌入方法有很多种。比如,可以调用 OpenAI
提供的嵌入方法,这需要花钱;也可以使用 Ollama
方法调用本地嵌入模型,这需要在本地搭建 Ollama
服务;或者直接在程序中调用模型,无需依赖其它工具。
2.1 最简单的 Embedding 方法
在程序中直接使用模型生成嵌入
1234from sentence_transformers import SentenceTransformermodel = SentenceTransformer('uer/sbert-base-chinese-nli')sentences ...
血糖一小时内忽然减半是什么感受?
结论先行:当我的血糖忽然减半时,我并没有感觉到任何不适。同理,吃多了血糖翻倍时也无感。噢对,吃嗨了可能会有点开心。
1 我的测试数据
最近断食减脂,经常半夜醒来并且感到非常烦躁。刷 B
站有一个医生小哥哥推荐减肥时检测血糖。刚好 618
促销,我就购买了一个动态血糖仪。这个血糖仪安装后可以连续使用半个月,每 4
分钟就测一次血糖,并且可以连接手机显示数据。或者可能我就是好奇吧。
昨天和前天轻断食,血糖低且平稳。今天我恢复了正常饮食,早上吃了三片丹麦曲奇,半片全麦面包,和一包速溶咖啡(含奶含糖),我的血糖升至
9.9。此时开始运动。一小时后,血糖下降至 4.9。
2 现象&分析
我也没想到血糖会变化得这么快,猜想可能是由于以下几个因素:
我在前两天控制了总摄入量并且选择了低 GI
食物,这让我的身体对糖分更加敏感。
早餐中的食物含糖量高,且升糖速度快,所以血糖迅速上升。
由于我吃得不多,吃完一个小时后,升糖的过程就变慢了。
当血糖上升到 9
以上,我的身体启动了降糖机制,比如开始分泌胰岛素。
运动骑行约一小时,平均心率 120+,也有助于降低血糖。
几个因素结合在一起,使血 ...
为啥现在用大模型这么便宜
1 引言
今年四五月,新模型不断发布。4.18 发布的是 Llama3,5.13 的
Gpt-4o,5.14 的 Gemini Flask 1.5。还有国内模型 5.7 发布 DeepSeek
V2,5.15
的豆包模型,而且价格也越来越便宜。今天我们就来对比一下各家的性价比,以及降价背后的原因。
2 当前价格
240517 收集的数据对比如下,以各个版本的 ChatGPT 作为基准,按照 7
的汇率进行计算,
Model
Input
Output
gpt-4o
$5.00 / 1M tokens
$15.00 / 1M tokens
gpt-4-turbo
$10.00 / 1M tokens
$30.00 / 1M tokens
gpt-4
$30.00 / 1M tokens
$60.00 / 1M tokens
gpt-3.5-turbo-0125
$0.50 / 1M tokens
$1.50 / 1M tokens
gpt-3.5-turbo-instruct
$1.50 / 1M tokens
$2.00 / 1M tokens ...
navicat平替dbeaver
源码地址:https://github.com/dbeaver/dbeaver
安装
123$ wget -O - https://dbeaver.io/debs/dbeaver.gpg.key | sudo apt-key add - echo "deb https://dbeaver.io/debs/dbeaver-ce /" | sudo tee /etc/apt/sources.list.d/dbeaver.list$ sudo apt update$ sudo apt install dbeaver-ce
启动
1$ dbeaver
复制表内容
选被复制的表 ->导入数据 ->选择输入对象 ->选源表
->下一步/继续
FreeGPT35
源码地址:https://github.com/missuo/FreeGPT35
建议在位于美国的服务器上设置环境,其中 image 大约需要 150G
的空间。
1docker run --rm -p 3344:3040 -d ghcr.io/missuo/freegpt35
试连接
12345678910curl http://127.0.0.1:3344/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer any_string_you_like" -d '{ "model": "gpt-3.5-turbo", "messages": [ { "role": "user", "content ...
论文阅读_大模型优化_YOCO架构
123456英文名称: You Only Cache Once: Decoder-Decoder Architectures for Language Models中文名称: 只缓存一次:用于语言模型的解码器-解码器架构链接: http://arxiv.org/abs/2405.05254v2作者: Yutao Sun, Li Dong, Yi Zhu, Shaohan Huang, Wenhui Wang, Shuming Ma, Quanlu Zhang, Jianyong Wang, Furu Wei机构: 微软研究院, 清华大学日期: 2024-05-08
读后感
这篇论文介绍了一种大模型优化的方法。并非专为某个特定的模型设计,而是可以用来优化当前大多数的大模型。该方法在
GPU 内存的使用和模型生成的速度上都有显著的改善。
在 Transformer 方法中,存储 Attention 的 KV
值占用了大量的资源。目前已有许多针对此问题的优化方法,这篇论文也是其中之一。其主要思想是重复利用
KV 缓存。其核心是对 Decoder-Decoder
架构的改进,并不复杂,可以与其 ...
基于解码器的时间序列预测基础模型
12345678英文名称: A DECODER-ONLY FOUNDATION MODEL FOR TIME-SERIES FORECASTING中文名称: 基于解码器的时间序列预测基础模型链接: http://arxiv.org/abs/2310.10688v4代码: https://github.com/google-research/timesfm作者: Abhimanyu Das, Weihao Kong, Rajat Sen, Yichen Zhou机构: 谷歌研究日期: 2023-10-14
摘要
目标:基于大型语言模型在自然语言处理中的进展,设计一个用于预测的时间序列基础模型。
方法:基于对大型时间序列语料库进行预训练的修补解码器风格注意力模型。
结论:该模型在多个公共数据集上的开箱即用零射击性能接近各个数据集的最先进监督预测模型的准确性。能够很好地适用于不同的预测历史长度、预测长度和时间粒度。
读后感
这是一个单变量预测工具,我觉得只是验证了一种可能性,实用性不是很强。其基础模型参数大小为
200M,预训练数据大小为
100B。该工具的零样本性能可以与全监督方法在处 ...
论文阅读_大模型优化_DeepSeek-V2
1234567英文名称: DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model中文名称: DeepSeek-V2:强大、经济高效的专家混合语言模型链接: http://arxiv.org/abs/2405.04434v2代码: https://github.com/deepseek-ai/DeepSeek-V2作者: DeepSeek-AI机构: DeepSeek-AI 深度探索公司日期: 2024-05-07
1 读后感
DeepSeek 最近推出的 V2
版本,无疑是当前性价比最高的选择。直观地讲:KIMI 的价格是 12 元/M
tokens,Chat 的价格约为 3.5 元/M,GPT 4o 的价格约为 35
元/M。然而,DeepSeek 的价格仅为 1
元/M(这是按照输入计算的,输出通常是输入的两倍,美元兑换按 7
计算)。
我在之前调研代码模型的时候就注意到 DeepSeek
的单模型在排名中很靠前。从论文和网站数据可以看到模型效果在开源领域,甚至在国内开源
...
Obsidian+llama3:终于搭建了自己的知识库
1 引言
这两周,价格更亲民的 gpt-4o 和性能显著提升的 llama3
的推出,使许多东西发生了变化。就像古代人在收割麦子时,扭头看见一收割机。想到自己的那些微小的优化,与这些新技术相比,又算得了什么呢?也会开始怀疑自己的方向和价值。
不过,相信大家都有过想要尝试之前无法完成的事情的冲动。优化过程中又发现了一个神仙插件:Obsidian
的 Smart
Connections,超出了我原本的预期,于是结合新模型非常方便地搭建了我的个人知识库。之前老是炫着玩儿,现在是真能解决具体问题了。
具体优势如下:
操作简便,无需自己建立向量数据库或进行向量转换
可针对特定文档提问
具有基于向量的模糊搜索能力
可通过 ollama 调用本地模型,使用它不产生任何费用(除了电费)
2 思考过程
2.1 搜索
很早就觉得 Obsidian
搜索实在太费劲了。因为我的内容比较多,查找非常费时;还必须输入完全一致的关键词;如果查找一个常见词,则会返回大量不排序的文档。虽然后来使用的
ominisearch
插件用机器学习算法来建立索引,搜索效果有所改善,但与基于词义的大模型搜索相比,仍然相差很远。 ...