news 2026/3/15 10:18:42

Llama、Qwen、DeepSeek bpe算法都不一样 怎么办 AutoTokenizer AutoModelForCausalLM “自动选择并加载正确分词器(tokenizer)”的工具类

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Llama、Qwen、DeepSeek bpe算法都不一样 怎么办 AutoTokenizer AutoModelForCausalLM “自动选择并加载正确分词器(tokenizer)”的工具类

Llama、Qwen、DeepSeek bpe算法都不一样 怎么办 AutoTokenizer AutoModelForCausalLM “自动选择并加载正确分词器(tokenizer)”的工具类

AutoTokenizerAutoModelForCausalLM是 Hugging Facetransformers库中最常用的两个“Auto”类,几乎所有加载大语言模型(LLM)的代码都会同时用到它们。下面用最直白的方式介绍它们的作用、区别和典型用法(2026 年视角,基于 transformers v4.4x ~ v5.x 主流写法)。

1. AutoTokenizer 是什么?

一句话
它是“自动选择并加载正确分词器(tokenizer)”的工具类。

主要功能

  • 把人类可读的文本 → 模型能理解的数字 token id
  • 把 token id → 人类可读的文本(解码)
  • 处理 padding、truncation、attention mask、special tokens 等

为什么用 AutoTokenizer 而不是具体的 XXXTokenizer?

  • 你不需要提前知道模型用的是什么分词方式(BPE、WordPiece、SentencePiece、tiktoken 风格……)
  • 同一个 checkpoint 名字,AutoTokenizer 会自动匹配对应的 tokenizer 类型

最常见写法

fromtransformersimportAutoTokenizer tokenizer=AutoTokenizer.from_pretrained("meta-llama/Llama-3.1-8B-Instruct")# 或 Qwen、DeepSeek、Mistral、Gemma、Phi-4 等任意模型

典型用法示例

text="你好,世界!"inputs=tokenizer(text,return_tensors="pt",# 返回 PyTorch 张量padding=True,truncation=True,max_length=512)print(inputs["input_ids"])# tensor([[ 1, 31514, ..., 198]])print(tokenizer.decode(inputs["input_ids"][0]))# 还原文本

2. AutoModelForCausalLM 是什么?

一句话
它是“自动加载适合自回归因果语言建模(next-token prediction)的模型”的工具类。

核心特点

  • 专门为GPT 风格的自回归生成模型设计(Llama、Qwen、Mistral、Gemma、Phi、DeepSeek、Grok 等几乎所有现代聊天/生成模型都属于这一类)
  • 模型自带LM Head(一个线性层),能直接输出每个位置的下一个 token 的 logits
  • 支持.generate()方法做方便的文本生成

和 AutoModel 的最大区别

类名包含的内容主要用途是否自带生成头(LM Head)是否能直接 .generate()
AutoModel只有 Transformer 骨干(隐藏状态输出)特征提取、embedding、继续预训练
AutoModelForCausalLM骨干 + LM Head(输出 vocab 大小的 logits)文本生成、聊天、SFT、RLHF

简单记忆:
想做聊天、写代码、续写故事→ 用AutoModelForCausalLM
只想拿隐藏状态做下游任务(分类、embedding 等) → 用AutoModel

最常见写法

fromtransformersimportAutoModelForCausalLM model=AutoModelForCausalLM.from_pretrained("deepseek-ai/DeepSeek-R1-Distill-Qwen-32B",torch_dtype="auto",# 自动选择 bf16/fp16device_map="auto"# 自动分布到多卡)

生成文本最经典写法(几乎所有 demo 都这样写):

fromtransformersimportAutoTokenizer,AutoModelForCausalLMimporttorch tokenizer=AutoTokenizer.from_pretrained("Qwen/Qwen2.5-14B-Instruct")model=AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-14B-Instruct",device_map="auto")messages=[{"role":"user","content":"用 Python 写一个快速排序"}]input_text=tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)inputs=tokenizer(input_text,return_tensors="pt").to(model.device)outputs=model.generate(**inputs,max_new_tokens=800,temperature=0.7,top_p=0.9,do_sample=True)print(tokenizer.decode(outputs[0],skip_special_tokens=True))

快速总结对比表

项目AutoTokenizerAutoModelForCausalLM
负责什么文本 ↔ token ids模型权重 + LM head(预测下一个 token)
典型导入方式AutoTokenizer.from_pretrained()AutoModelForCausalLM.from_pretrained()
是否支持 .generate()✓(最方便的生成接口)
主要场景所有模型都用聊天、代码生成、续写、对话类模型
如果误用会怎样AutoModel加载生成模型 → 没有生成能力

一句话口诀:
Tokenizer 管切词,CausalLM 管续写
现代 LLM 推理/微调基本永远是:

tokenizer=AutoTokenizer.from_pretrained(checkpoint)model=AutoModelForCausalLM.from_pretrained(checkpoint,...)

有具体模型或任务想深入了解用法,可以继续问!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/14 3:25:23

【小程序毕设全套源码+文档】基于微信小程序的空巢老人健康管理系统的设计与实现(丰富项目+远程调试+讲解+定制)

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

作者头像 李华
网站建设 2026/3/13 23:48:01

清教主义的世俗化历程:从“山巅之城”到现代美国的精神基因

要理解这一蜕变,首先需明确核心概念:清教主义(Puritanism)是16、17世纪起源于英国的基督教新教分支,核心诉求是“净化”英国国教会,清除其中残留的罗马公教仪式与建制,以《圣经》为唯一权威&…

作者头像 李华
网站建设 2026/3/14 5:33:46

yz-bijini-cosplay开源可部署:模型版本灰度发布与回滚机制

yz-bijini-cosplay开源可部署:模型版本灰度发布与回滚机制 1. 为什么需要LoRA版本管理?——从“试错式生成”到“可控式创作” 你有没有遇到过这样的情况:花半小时调好一个Cosplay提示词,点击生成后发现人物脸型偏瘦、服饰纹理模…

作者头像 李华
网站建设 2026/3/10 9:15:19

GLM-4-9B-Chat-1M保姆级教程:Chainlit导出对话历史+GLM-4-9B-Chat-1M摘要

GLM-4-9B-Chat-1M保姆级教程:Chainlit导出对话历史GLM-4-9B-Chat-1M摘要 你是不是也遇到过这样的问题:和大模型聊着聊着,突然想回看刚才那段关键对话,却发现界面只显示最新几轮?或者需要把上百轮的讨论内容整理成一份…

作者头像 李华
网站建设 2026/3/14 15:41:24

循环链表怎么建立?详解创建与操作方法

循环链表是一种重要的数据结构,它在单向或双向链表的基础上,将尾节点与头节点连接起来,形成一个环。在实际开发中,我经常用它来处理需要周期性访问数据的场景,比如操作系统中的进程调度、游戏中的玩家轮转等。掌握其建…

作者头像 李华