Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
【理论+实战】带你全面了解 RAG,深入探讨其核心范式、关键技术及未来趋势
写在前面 大家好 关于RAG实战文章已经写了三篇了 有兴趣可以自行去看一下 用通俗易懂的方式讲解 在 Langchain 中建立一个多模态的 RAG 管道 用通俗易懂的方式讲解 大模型 RAG 在 LangChain 中的应用实战 用通俗易
大模型理论与实战
大模型
langchain
多模态
大语言模型
目前最火的大模型训练框架 DeepSpeed 详解来了
目前 大模型的发展已经非常火热 关于大模型的训练 微调也是各个公司重点关注方向 但是大模型训练的痛点是模型参数过大 动辄上百亿 如果单靠单个GPU来完成训练基本不可能 所以需要多卡或者分布式训练来完成这项工作 一 分布式训练 1 1 目前主
机器学习
自然语言
大模型
大语言模型
模型训练
超详细!大模型面经指南(附答案)
大模型应该算是目前当之无愧的最有影响力的AI技术 它正在革新各个行业 包括自然语言处理 机器翻译 内容创作和客户服务等 成为未来商业环境的重要组成部分 截至目前大模型已超过100个 大模型纵横的时代 不仅大模型越来越卷 就连大模型相关面试也
大模型实战
大模型
自然语言处理
人工智能
大语言模型
基于大语言模型的垂直领域知识问答系统流程学习
什么是垂直领域大语言模型应用 当前基于大模型的知识问答十分火热 大模型虽然能回答大多数通用问题 但在垂直领域中 回答的深度 准确度及时效性均有限 因此为了解决这一问题 可以结合 本地 知识结合大模型来解决 垂直领域即在某个领域内专有的知识问
大语言模型
【AI实战】大语言模型(LLM)有多强?还需要做传统NLP任务吗(分词、词性标注、NER、情感分类、知识图谱、多伦对话管理等)
AI实战 大语言模型 LLM 有多强 还需要做传统NLP任务吗 分词 词性标注 NER 情感分类 多伦对话管理等 大语言模型 大语言模型有多强 分词 词性标注 NER 情感分类 多伦对话管理 知识图谱 总结 大语言模型 大语言模型 LLM
大语言模型
自然语言处理
LLM
lmg_Model Links and Torrents
lmg Model Links and Torrents Changelog MDY 4 bit GPU Model Requirements 4 bit CPU llama cpp RAM Requirements LLaMA 16 bi
gpt
大语言模型
人工智能
网络
服务器
开源LLM「RWKV」想要打造AI领域的Linux和Android|ChatAI
RWKV想逐步成为最强开源模型 中期计划取代Transformer 能如愿吗 我们没有护城河 OpenAI也是 近期 谷歌内部人士在Discord社区匿名共享了一份内部文件 点破了谷歌和OpenAI正面临的来自开源社区的挑战 尽管经外媒Se
大语言模型
AI
gpt
人工智能
开源
chatglm2外挂知识库问答的简单实现
一 背景 大语言模型应用未来一定是开发热点 现在一个比较成功的应用是外挂知识库 相比chatgpt这个知识库比较庞大 效果比较好的接口 外挂知识库 大模型的方式可以在不损失太多效果的条件下获得数据安全 二 原理 现在比较流行的一个方案是la
ChatGLM
大语言模型
大模型应用开发
文本向量化
03 什么是预训练(Transformer 前奏)
博客配套视频链接 https space bilibili com 383551518 spm id from 333 1007 0 0 b 站直接看 配套 github 链接 https github com nickchen121 Pr
大语言模型
gpt
管理体系
Transformer
深度学习
chatGLM介绍
一 简述 清华大学推出的ChatGLM的第二代版本 支持中文 效果好 清华大学的ChatGLM应该是中文大语言模型中最好的 要求低 可以在消费级的显卡上运行 二 链接 工程 https github com THUDM ChatGLM2 6
大语言模型
gpt
管理体系
语言模型
深度学习
Lion闭源大语言模型的对抗蒸馏框架实践
Lion闭源大语言模型的对抗蒸馏框架实践 概述 对抗蒸馏框架概述 我们基于高级闭源LLM的基础上提炼一个学生LLM 该LLM具有三个角色 教师 裁判和生成器 有三个迭代阶段 模仿阶段 对于一组指令 将学生的响应与老师的响应对齐 区分阶段 识
大语言模型
gpt
AI
语言模型
人工智能
RLHF 技术:如何能更有效?又有何局限性?
编者按 自ChatGPT推出后 基于人类反馈的强化学习 RLHF 技术便成为大模型构建和应用人员关注的热点 但该方法一些情况下效果却差强人意 有些基础模型经RLHF调优后反而表现更差 RLHF技术的适用性和具体操作细节似乎成谜 这篇文章探讨
技术干货
人工智能
大语言模型
RLHF
白海科技
Alpaca构建方式探秘:低成本构造指令数据增强LLM
官方介绍 Alpaca A Strong Replicable Instruction Following Model github地址 https github com tatsu lab stanford alpaca Alpaca简介
大语言模型
LLaMA
alpaca
国产版ChatGPT大盘点
我们看到 最近 国内大厂开始密集发布类ChatGPT产品 一方面 是因为这是最近10年最大的趋势和机会 另一方面 国内的AI 不能别国外卡了脖子 那在类ChatGPT赛道上 哪些中国版的ChatGPT能快速顶上 都各有哪些困境需要突破呢 本
gpt
大语言模型
管理体系
ChatGPT
人工智能
大语言模型介绍(一)
什么是大语言模型 由于ChatGPT的火爆把大语言模型这个新名词推到了大众的视野里 那么 什么是大语言模型 什么是GPT WIKI百科对大语言模型是这样解释的 大语言模型 英语 large language model LLM 是一种语言模
大语言模型
语言模型
人工智能
深度学习
自然语言处理
CodeLlama本地部署的实战方案
大家好 我是herosunly 985院校硕士毕业 现担任算法研究员一职 热衷于机器学习算法研究与应用 曾获得阿里云天池比赛第一名 CCF比赛第二名 科大讯飞比赛第三名 拥有多项发明专利 对机器学习和深度学习拥有自己独到的见解 曾经辅导过若
类GPT工具使用技巧和论文解读
AIGC
大语言模型
codellama
LLaMA
【AI实战】llama.cpp 量化部署 llama-33B
AI实战 llama cpp 量化部署 llama 33B llama cpp 量化介绍 环境配置 安装 llama cpp 拉取 llama cpp 仓库代码 编译llama cpp 生成量化版本模型 模型准备 将上述 pth模型权重转换
大语言模型
LLaMA
llamacpp
大模型量化
【AI实战】开源大语言模型LLMs汇总
AI实战 开源大语言模型LLM汇总 大语言模型 开源大语言模型 1 LLaMA 2 ChatGLM 6B 3 Alpaca 4 PandaLLM 5 GTP4ALL 6 DoctorGLM MedicalGPT zh v2 7 Medica
大语言模型
LLM
LLaMA
ChatGLM
独步潮流!如何在私有数据集上塑造GPT式大型语言模型的独特风格!
导读 Fine tune 是一种能够以成本效益的方式调整预训练 LLM 的技巧 本文主要比较了用于最新的开源 LLM Falcon 的不同参数高效微调方法 并为大家介绍如何使用单个 GPU 并在一天内对开源的大语言模型 Falcon 进行微
gpt
大语言模型
语言模型
人工智能
05 神经网络语言模型(独热编码+词向量的起源)
博客配套视频链接 https space bilibili com 383551518 spm id from 333 1007 0 0 b 站直接看 配套 github 链接 https github com nickchen121 Pr
管理体系
大语言模型
神经网络
语言模型
人工智能
1
2
3
»