• llama 摘要 llama在约1 4T的token上 训练出参数量7B到65B的模型 其模型规模如下 在仅使用开源数据集的情况下 llama 13B在多数benchmarks上与GPT 3效果相当 llama 65B也与最好的模型 Chi