Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
LLM-项目详解-KnowLM:信息抽取大模型
GitHub zjunlp KnowLM Knowledgable Large Language Models Framework 随着深度学习技术的快速发展 大型语言模型如ChatGPT在自然语言处理领域已经取得了显著的成就 然而 这些大
大模型(预训练模型)
人工智能
机器学习
深度学习
开源 LLM (大语言模型)整理(一)
Large Language Model LLM 即大规模语言模型 是一种基于深度学习的自然语言处理模型 它能够学习到自然语言的语法和语义 从而可以生成人类可读的文本 所谓 语言模型 就是只用来处理语言文字 或者符号体系 的 AI 模型 发
大模型(预训练模型)
开源
语言模型
人工智能
大型语言模型(LLMs)的幻觉问题【Answer From chatGPT】
减轻大型语言模型 LLMs 的幻觉问题是一个重要的研究领域 以下是一些减轻LLMs幻觉的方法和建议 更好的数据筛选和预处理 在训练LLMs之前 可以通过更仔细的数据筛选和预处理来减轻幻觉 删除或修复训练数据中的不准确信息和虚假关联可以有助于
大模型(预训练模型)
语言模型
人工智能
机器学习
LLM-项目详解-Chinese-LLaMA-AIpaca(二):代码解读【①prompt指令制作、②合并分词器、③Lora模型与基础模型合并、③模型分片保存】
一 prompt指令制备 crawl prompt py import openai import json import sys import random openai api key you must provide your Ope
大模型(预训练模型)
LLaMA
python
开发语言
LLM-项目详解-Chinese-LLaMA-AIpaca(一):LLM+LoRa微调加速技术原理及基于PEFT的动手实践:一些思考和mt0-large+lora完整案例
如何花费较少的算力成本来进行微调训练 十分重要 当前关于LLaMA Alpaca Instruct微调 LoRa微调等多个概念大家讲的很多 最近也在学习 也看到几个有趣的话题 主要参考于 https github com ymcui Chi
大模型(预训练模型)
LLaMA
深度学习
人工智能
LLM-大模型训练-步骤(二)-预训练/Pre-Training(1):全参数预训练(Full-Param Pre-Training)【对LLaMA等模型进一步全量参数预训练】【中文无监督学习语料】
GitHub项目 KnowLM 一 全参数预训练 Full Param Pre training 使用中文语料对LLaMA等模型进行进一步全量预训练 在尽可能保留原来的英文和代码能力的前提下 进一步提高模型对于中文理解能力和丰富模型的知识储
大模型(预训练模型)
人工智能
中文版LLaMA:Chinese-LLaMA-Alpaca
GitHub GitHub ymcui Chinese LLaMA Alpaca 中文LLaMA Alpaca大语言模型 本地CPU GPU训练部署 Chinese LLaMA Alpaca LLMs 以ChatGPT GPT 4等为代表的
大模型(预训练模型)
LLaMA
人工智能