有勇气的牛排博客

AI大模型

大模型训练|模型精调|什么是强化学习RLHF

RLHF 是Reinforcement Learning from Human Feedback(来自人类反馈的强化学习)的缩写,是近年来在人工智能,特别是大预言模型(LLM)如ChatGPT、Gpt-4中非常关键的一项技术。它结合了强化学习和人类监督的有点,用来训练更加符合人类期望的智能体。

有勇气的牛排
73次
AI大模型
2025-04-20 21:58:06

自定义大模型训练 监督微调SFT

SFT 是Supervised Fine-Tuning 的缩写,中文叫做监督微调。它是大模型训练过程中一个关键的阶段,特别是在RLHF(人类反馈强化学习)流程中是第一步。

有勇气的牛排
115次
AI大模型
2025-04-20 19:56:19

大模型RAG检索增强生成

在大模型(如ChatGPT、LLMs)中,RAG是Retrieval-Augmented Genration(检索增强生成)的缩写,它是一种结合了信息检索和生成式模型的技术,用于提升语言模型在问答、知识生成等任务中的表现。

有勇气的牛排
61次
AI大模型
2025-04-20 13:54:49

Elasticsearch8向量搜索|Python教程案例

Elasticsearch 的 向量搜索(Vector Search) 是近年来为了支持语义搜索、推荐系统、图像搜索等 AI 场景而引入的重要功能。

有勇气的牛排
111次
AI大模型
2025-04-19 22:35:13

SentenceTransformer 句子、段落、文本转换成向量 embedding

SentenceTransformer是一个基于封装的高级库,专门用来将句子、段落、文本转换成向量(Embedding)

有勇气的牛排
115次
AI大模型
2025-04-19 21:03:47

Ollama安装本地deepseek与API调用

首先需要安装Ollama。 Ollama 是一个开源的 AI 平台,它通过提供高效的模型训练和推理支持,致力于简化 AI 应用的开发过程。Ollama 使得开发者能够在本地环境中运行高效的 AI 模型,无需依赖云端服务。它支持多种 AI 模型架构,提供简单的 API 来进行集成与部署。

有勇气的牛排
320次
AI大模型
2025-03-01 21:33:35
  • « 上一页
  • 1
  • 下一页 »
专栏
加入群聊