tiktoken
tiktoken 是由
OpenAI 创建的快速 BPE 分词器。tiktoken 来估算使用的 token。对于 OpenAI 模型,它可能会更准确。
- 文本如何分割:通过传入的字符。
- 块大小如何测量:通过
tiktoken分词器。
tiktoken 一起使用。
tiktoken 合并块,请使用其 .from_tiktoken_encoder() 方法。请注意,此方法的分割可能大于 tiktoken 分词器测量的块大小。
.from_tiktoken_encoder() 方法接受 encoding_name 作为参数(例如 cl100k_base),或 model_name(例如 gpt-4)。所有其他参数(如 chunk_size、chunk_overlap 和 separators)用于实例化 CharacterTextSplitter:
RecursiveCharacterTextSplitter.from_tiktoken_encoder,如果分割的大小更大,则每个分割将被递归分割:
TokenTextSplitter 分割器,它直接与 tiktoken 配合使用,并确保每个分割小于块大小。
TokenTextSplitter 可能会在两个块之间分割字符的 token,导致 Unicode 字符格式错误。使用 RecursiveCharacterTextSplitter.from_tiktoken_encoder 或 CharacterTextSplitter.from_tiktoken_encoder 以确保块包含有效的 Unicode 字符串。
spaCy
spaCy 是一个用于高级自然语言处理的开源软件库,使用 Python 和 Cython 编程语言编写。
- 文本如何分割:通过
spaCy分词器。 - 块大小如何测量:按字符数。
SentenceTransformers
SentenceTransformersTokenTextSplitter 是专门用于 sentence-transformer 模型的文本分割器。默认行为是将文本分割成适合您要使用的 sentence transformer 模型的 token 窗口的块。 要根据 sentence-transformers 分词器分割文本并约束 token 计数,请实例化SentenceTransformersTokenTextSplitter。您可以选择指定:
chunk_overlap:token 重叠的整数计数;model_name:sentence-transformer 模型名称,默认为"sentence-transformers/all-mpnet-base-v2";tokens_per_chunk:每个块所需的 token 计数。
NLTK
我们不仅可以在 “\n\n” 上分割,还可以使用NLTK 基于 NLTK 分词器 进行分割。
- 文本如何分割:通过
NLTK分词器。 - 块大小如何测量:按字符数。
KoNLPY
KoNLPy: Python 中的韩语 NLP 是一个用于韩语自然语言处理 (NLP) 的 Python 包。
使用 KoNLPy 的 Kkma 分析器进行韩语 token 分割
对于韩语文本,KoNLPY 包含一个称为Kkma(韩语知识形态素分析器)的形态分析器。Kkma 提供韩语文本的详细形态分析。它将句子分解为单词,将单词分解为各自的形态素,并为每个 token 识别词性。它可以将文本块分割成单独的句子,这对于处理长文本特别有用。
使用注意事项
虽然Kkma 以其详细分析而闻名,但需要注意的是,这种精确性可能会影响处理速度。因此,Kkma 最适合优先考虑分析深度而非快速文本处理的应用。
Hugging Face 分词器
Hugging Face 有许多分词器。 我们使用 Hugging Face 分词器 GPT2TokenizerFast 来计算文本的 token 长度。- 文本如何分割:通过传入的字符。
- 块大小如何测量:通过
Hugging Face分词器计算的 token 数。