Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Augmented Language Models(增强语言模型)
Augmented Language Models A Survey 先上地址 https arxiv org pdf 2302 07842 pdf 概率论难以支撑通用人工智能技术的诞生 Yann LeCun LLMs取得的巨大进展不再多说
深度学习
预训练
大模型
语言模型
增强语言模型
Paper Reading:《LISA: Reasoning Segmentation via Large Language Model》
目录 简介 目标 创新点 方法 训练 实验 总结 简介 LISA Reasoning Segmentation via Large Language Model 基于大型语言模型的推理分割 日期 2023 8 1 v1 单位 香港中文大学
paper reading
语言模型
人工智能
自然语言处理
计算机视觉
LegalAI领域大规模预训练语言模型的整理、总结及介绍(持续更新ing…)
诸神缄默不语 个人CSDN博文目录 文章目录 1 通用大规模预训练语言模型 2 对话模型 3 分句 4 文本分类 5 信息抽取 6 案例检索 7 文本摘要 1 通用大规模预训练语言模型 英语 LegalBERT 原始论文 2020 EMNL
人工智能学习笔记
语言模型
legalAI
LLM
大规模预训练语言模型
llama2模型部署方案的简单调研-GPU显存占用(2023年7月25日版)
先说结论 全精度llama2 7B最低显存要求 28GB 全精度llama2 13B最低显存要求 52GB 全精度llama2 70B最低显存要求 280GB 16精度llama2 7B预测最低显存要求 14GB 16精度llama2 13
LLaMA
人工智能
自然语言处理
语言模型
ChatGPT
【论文精读】QLORA: Efficient Finetuning of Quantized LLMs
QLORA Efficient Finetuning of Quantized LLMs 前言 Abstract Introduction Background Block wise k bit Quantization Low rank
LLM
人工智能
自然语言处理
LoRa
语言模型
【NLP】通过迁移学习加速 AI 模型训练
大家好 我是Sonhhxg 柒 希望你看完之后 能对你有所帮助 不足请指正 共同学习交流 个人主页 Sonhhxg 柒的博客 CSDN博客 欢迎各位 点赞 收藏 留言 系列专栏 机器学习 ML 自然语言处理 NLP 深度学习 DL fore
自然语言处理(NLP)
LLMs(大型语言模型)
语言模型
人工智能
自然语言处理
闻达(Wenda):基于Chatglm6b的知识库+大语言模型融合项目
背景 随着ChatGPT模型的一炮而红 大语言模型已然风靡全球 成为了全世界闪烁的焦点 目前 越来越多的研发人员投入到大语言模型的扩展开发中 闻达 Wenda 便是其中一项重要成果 闻达源于清华大学开源的ChatGLM6b项目 作为少有的在
语言模型
数学建模
人工智能
轻量级AI语言模型,直接轻松运行在你家电脑上
最近在研究AI语言模型和AI绘画模型 无意间发现了这个轻量级模型 只需要拿到这两个文件 AI exe gpt4all lora quantized bin 双击AI exe就能直接使用 方便快捷 简直不要太爽 上面工作准备好之后 win R
人工智能
语言模型
自然语言处理
OPT-IML:Scaling Language Model Instruction MetaLearning through the Lens of Generalization 论文阅读笔记
OPT IML Scaling Language Model Instruction MetaLearning through the Lens of Generalization 从泛化的角度使用指令元学习扩展语言模型 开源模型 目前在h
语言模型
论文阅读
笔记
Llama 2: Open Foundation and Fine-Tuned Chat Models
文章目录 TL DR Introduction 背景 本文方案 实现方式 预训练 预训练数据 训练细节 训练硬件支持 预训练碳足迹 微调 SFT SFT 训练细节 RLHF 人类偏好数据收集 奖励模型 迭代式微调 RLHF 拒绝采样 Rej
LLaMA
人工智能
语言模型
深度学习
ChatGPT
TinyLlama-1.1B:从零开始训练一个精悍的语言模型
PaperWeekly 原创 作者 StatNLP 单位 新加坡科技设计大学 TinyLlama 项目旨在在 3 万亿 tokens 上进行预训练 构建一个拥有 11 亿参数的 Llama 模型 经过精心优化 我们 仅 需 16 块 A10
语言模型
人工智能
自然语言处理
chatGLM介绍
一 简述 清华大学推出的ChatGLM的第二代版本 支持中文 效果好 清华大学的ChatGLM应该是中文大语言模型中最好的 要求低 可以在消费级的显卡上运行 二 链接 工程 https github com THUDM ChatGLM2 6
大语言模型
gpt
管理体系
语言模型
深度学习
【微调视觉-语言模型】Learning to Prompt for Vision-Language Models
微调视觉 语言模型 Learning to Prompt for Vision Language Models 代码地址 论文简介 动机和思路 具体实现 Vision Language Pre training Context Optimi
多模态VisionLanguage
语言模型
深度学习
人工智能
机器学习
A Survey on Large Language Models for Recommendation
本文是LLM系列的文章 针对 A Survey on Large Language Models for Recommendation 的翻译 大模型用于推荐的综述 摘要 1 引言 2 建模范式和分类 3 判别式LLM用于推荐 4 生成式L
LLM
综述文章
语言模型
人工智能
自然语言处理
ChatGLM-6B部署笔记
前言 本笔记基于ChatGLM 6B开源网站 https github com THUDM ChatGLM 6B 完成ChatGLM的本地部署 首先电脑已经安装python3 10 anaconda pycharm2022 3 如若使用本地
Pytorch
python
深度学习
人工智能
语言模型
Interactive Natural Language Processing
本文是对 Interactive Natural Language Processing 的翻译 交互式自然语言处理 摘要 1 引言 2 交互式对象 2 1 人在环 2 2 KB在环 2 3 模型或工具在环 2 4 环境在环 3 交互界面
综述文章
人工智能
深度学习
语言模型
基于自然语言处理技术的智能化自然语言生成技术应用于智能写作工具开发
文章目录 基于自然语言处理技术的智能化自然语言生成技术应用于智能写作工具开发 1 引言 2 技术原理及概念 2 1 基本概念解释 2 2 技术原理介绍 算法原理 操作步骤 数学公式等 2 2 1 语音识别 2 2 2 自然语言理解 2 2
AI
大数据AI人工智能
自然语言处理
人工智能
语言模型
如何使用大型语言模型与任何 PDF 和图像文件聊天 — 使用代码 构建可以回答有关任何文件的问题的人工智能助手的完整指南
介绍 PDF 和图像文件中蕴藏着如此多有价值的信息 幸运的是 我们拥有强大的大脑 能够处理这些文件以查找特定信息 这实际上很棒 但是 我们中有多少人内心深处不希望有一个工具可以回答有关给定文档的任何问题 项目的一般工作流程 清楚地了解正在构
NVIDIA GPU和大语言模型开发教程
人工智能
语言模型
pdf
中文医学知识语言模型:BenTsao
介绍 BenTsao 原名 华驼 HuaTuo 基于中文医学知识的大语言模型指令微调 本项目开源了经过中文医学指令精调 指令微调 Instruction tuning 的大语言模型集 包括LLaMA Alpaca Chinese Bloom
语言模型
人工智能
自然语言处理
概率图论:了解概率分布、概率独立性和随机化
作者 禅与计算机程序设计艺术 概率图模型 Probabilistic Graphical Model PGM 是现代统计学习中的一个重要工具 它通过描述变量间的依赖关系和概率分布来对复杂系统进行建模 概率图模型由两部分组成 一是概率模型 它
大数据AI人工智能
自然语言处理
人工智能
语言模型
编程实践
«
1
2
3
4
5
6
...12
»