有勇气的牛排

LangChain教程

有勇气的牛排
70次
2025-07-12 21:33:31

Milvus向量数据库介绍、安装与配置

Milvus 是一个开源的向量数据库,专门用于处理海量高维向量数据的相似度搜索。它适用于 AI、推荐系统、图像检索、自然语言处理(NLP)等需要处理嵌入向量的场景。

有勇气的牛排
142次
2025-07-10 22:39:37

大模型训练|模型精调|什么是强化学习RLHF

RLHF 是Reinforcement Learning from Human Feedback(来自人类反馈的强化学习)的缩写,是近年来在人工智能,特别是大预言模型(LLM)如ChatGPT、Gpt-4中非常关键的一项技术。它结合了强化学习和人类监督的有点,用来训练更加符合人类期望的智能体。

有勇气的牛排
324次
2025-04-20 21:58:06

自定义大模型训练 监督微调SFT

SFT 是Supervised Fine-Tuning 的缩写,中文叫做监督微调。它是大模型训练过程中一个关键的阶段,特别是在RLHF(人类反馈强化学习)流程中是第一步。

有勇气的牛排
636次
2025-04-20 19:56:19

大模型RAG检索增强生成

在大模型(如ChatGPT、LLMs)中,RAG是Retrieval-Augmented Genration(检索增强生成)的缩写,它是一种结合了信息检索和生成式模型的技术,用于提升语言模型在问答、知识生成等任务中的表现。

有勇气的牛排
205次
2025-04-20 13:54:49

Elasticsearch8向量搜索|Python教程案例

Elasticsearch 的 向量搜索(Vector Search) 是近年来为了支持语义搜索、推荐系统、图像搜索等 AI 场景而引入的重要功能。

有勇气的牛排
452次
2025-04-19 22:35:13

SentenceTransformer 句子、段落、文本转换成向量 embedding

SentenceTransformer是一个基于封装的高级库,专门用来将句子、段落、文本转换成向量(Embedding)

有勇气的牛排
782次
2025-04-19 21:03:47

Linux 系统层面定期释放、内存释放

Linux 系统层面定期释放,通常是指 内存(Memory)的定期释放,尤其是缓存(cache)、缓冲区(buffers)和页缓存(page cache)。这类释放行为,有助于系统在长期运行时保持良好的内存使用状态,避免内存占用持续升高。

有勇气的牛排
235次
2025-04-19 20:55:53

RabbitMQ关于队列与交换机的作用说明

在 RabbitMQ 中,“队列(Queue)” 和 “交换机(Exchange)” 是两个核心概念,它们承担不同的职责,彼此配合完成消息传递任务。

有勇气的牛排
207次
2025-03-26 21:17:12

RabbitMQ 入门安装到Python场景应用

RabbitMQ 是一个开源的 消息中间件,基于 AMQP(Advanced Message Queuing Protocol)高级消息队列协议 开发,用于在分布式系统中传递消息、解耦模块、削峰填谷、实现异步处理。 简单理解:RabbitMQ 就像一个快递中转站,负责接收消息、存储消息、转发消息。

有勇气的牛排
236次
2025-03-25 21:07:05

gunicorn启动fastapi项目

Gunicorn(Green Unicorn)是一个 Python WSGI HTTP 服务器,用于生产环境运行 Python Web 应用(如 Flask、Django、FastAPI)。 特点: 支持多进程(worker) 支持日志、信号处理、守护进程等 稳定高效,广泛用于部署生产环境服务

有勇气的牛排
487次
2025-04-14 22:26:50

docker配置加速镜像

docerk配置国内加速镜像源

有勇气的牛排
274次
2025-04-13 21:21:16

CentOS源失效,yum、epel仓库更换阿里源

CentOS停止维护后,很多yum源无法使用,可以自定义更改到阿里提供的源。

有勇气的牛排
248次
2025-04-13 21:14:24

MySql 导出A表数据,B表记录用户专属数据,查询A与B所有数据

MySql 导出A表数据,B表记录用户专属数据,查询A表所有数据,关联出B表用户修改过的数据。

有勇气的牛排
238次
2025-04-11 22:22:35

Ollama安装本地deepseek与API调用

首先需要安装Ollama。 Ollama 是一个开源的 AI 平台,它通过提供高效的模型训练和推理支持,致力于简化 AI 应用的开发过程。Ollama 使得开发者能够在本地环境中运行高效的 AI 模型,无需依赖云端服务。它支持多种 AI 模型架构,提供简单的 API 来进行集成与部署。

有勇气的牛排
609次
2025-03-01 21:33:35
专栏
加入群聊