NLP模型的vocab.txt

您所在的位置:网站首页 vs是用来干嘛的单词怎么写英文 NLP模型的vocab.txt

NLP模型的vocab.txt

2024-07-14 14:20:32| 来源: 网络整理| 查看: 265

比如词表里面一个字:‘真’ 和 ‘##真’有什么区别啊,就是每个字符x都会有个'##x'存在

原来的单词被分成更小的子单词和字符。这些子单词前面的两个 “#” 号只是我们的tokenizer用来表示这个子单词或字符是一个更大单词的一部分,并在其前面加上另一个子单词的方法。因此,例如,’##bed’ 这个token与 'bed’这个token是分开的,当一个较大的单词中出现’bed’时,使用第一种方法,当一个独立的bed这个token表示 “thing you sleep on”出现时,使用第二种方法。

如预训练模型-词汇表:bert-base-uncased【在其vocab.txt中;共30522个subword】

from pytorch_pretrained_bert import BertTokenizer tokenizer = BertTokenizer.from_pretrained(r'D:\Pretrained_model\bert-base-uncased') text01 = "Here is the sentence I want embeddings for." text02 = "After stealing money from the bank vault, the bank robber was seen fishing on the Mississippi river bank." marked_text = "[CLS] " + text01 + " [SEP] " + text02 + " [SEP]" print('marked_text = ', marked_text) tokenized_text = tokenizer.tokenize(marked_text) print('tokenized_text = ', tokenized_text)

打印结果:

marked_text = [CLS] Here is the sentence I want embeddings for. [SEP] After stealing money from the bank vault, the bank robber was seen fishing on the Mississippi river bank. [SEP] tokenized_text = ['[CLS]', 'here', 'is', 'the', 'sentence', 'i', 'want', 'em', '##bed', '##ding', '##s', 'for', '.', '[SEP]', 'after', 'stealing', 'money', 'from', 'the', 'bank', 'vault', ',', 'the', 'bank', 'robber', 'was', 'seen', 'fishing', 'on', 'the', 'mississippi', 'river', 'bank', '.', '[SEP]']

注意“embeddings”一词是如何表示的:

[‘em’, ‘##bed’, ‘##ding’, ‘##s’]

原来的单词被分成更小的子单词和字符。这些子单词前面的两个 “#” 号只是我们的tokenizer用来表示这个子单词或字符是一个更大单词的一部分,并在其前面加上另一个子单词的方法。因此,例如,’##bed’ 这个token与 'bed’这个token是分开的,当一个较大的单词中出现’bed’时,使用第一种方法,当一个独立的bed这个token表示 “thing you sleep on”出现时,使用第二种方法。

为什么会这样?这是因为BERT tokenizer 是用WordPiece模型创建的。这个模型使用贪心法创建了一个固定大小的词汇表,其中包含单个字符、子单词和最适合我们的语言数据的单词。由于我们的BERT tokenizer模型的词汇量限制大小为30,000,因此,用WordPiece模型生成一个包含所有英语字符的词汇表,再加上该模型所训练的英语语料库中发现的~30,000个最常见的单词和子单词。这个词汇表包含个东西:  

1. 整个单词 2. 出现在单词前面或单独出现的子单词(“em”(如embeddings中的“em”)与“go get em”中的独立字符序列“em”分配相同的向量) 3. 不在单词前面的子单词,在前面加上“##”来表示这种情况 4. 单个字符

要在此模型下对单词进行记号化,

 tokenizer首先检查整个单词是否在词汇表中。如果没有,则尝试将单词分解为词汇表中包含的尽可能大的子单词,最后将单词分解为单个字符。

注意,由于这个原因,我们总是可以将一个单词表示为至少是它的单个字符的集合。

因此,不是将词汇表中的单词分配给诸如“OOV”或“UNK”之类的全集令牌,而是将词汇表中没有的单词分解为子单词和字符令牌,然后我们可以为它们生成嵌入。

因此,我们没有将“embeddings”和词汇表之外的每个单词分配给一个重载的未知词汇表标记,而是将其拆分为子单词标记[’ em ‘、’ ##bed ‘、’ ##ding ‘、’ ##s '],这些标记将保留原单词的一些上下文含义。我们甚至可以平均这些子单词的嵌入向量来为原始单词生成一个近似的向量。

接下来,我们需要调用tokenizer来匹配tokens在tokenizer词汇表中的索引:  

indexed_tokens = tokenizer.convert_tokens_to_ids(tokenized_text) for tup in zip(tokenized_text, indexed_tokens): print("tup = ", tup)

打印结果:

tup = ('[CLS]', 101) tup = ('here', 2182) tup = ('is', 2003) tup = ('the', 1996) tup = ('sentence', 6251) tup = ('i', 1045) tup = ('want', 2215) tup = ('em', 7861) tup = ('##bed', 8270) tup = ('##ding', 4667) tup = ('##s', 2015) tup = ('for', 2005) tup = ('.', 1012) tup = ('[SEP]', 102) tup = ('after', 2044) tup = ('stealing', 11065) tup = ('money', 2769) tup = ('from', 2013) tup = ('the', 1996) tup = ('bank', 2924) tup = ('vault', 11632) tup = (',', 1010) tup = ('the', 1996) tup = ('bank', 2924) tup = ('robber', 27307) tup = ('was', 2001) tup = ('seen', 2464) tup = ('fishing', 5645) tup = ('on', 2006) tup = ('the', 1996) tup = ('mississippi', 5900) tup = ('river', 2314) tup = ('bank', 2924) tup = ('.', 1012) tup = ('[SEP]', 102)



【本文地址】

公司简介

联系我们

今日新闻


点击排行

实验室常用的仪器、试剂和
说到实验室常用到的东西,主要就分为仪器、试剂和耗
不用再找了,全球10大实验
01、赛默飞世尔科技(热电)Thermo Fisher Scientif
三代水柜的量产巅峰T-72坦
作者:寞寒最近,西边闹腾挺大,本来小寞以为忙完这
通风柜跟实验室通风系统有
说到通风柜跟实验室通风,不少人都纠结二者到底是不
集消毒杀菌、烘干收纳为一
厨房是家里细菌较多的地方,潮湿的环境、没有完全密
实验室设备之全钢实验台如
全钢实验台是实验室家具中较为重要的家具之一,很多

推荐新闻


图片新闻

实验室药品柜的特性有哪些
实验室药品柜是实验室家具的重要组成部分之一,主要
小学科学实验中有哪些教学
计算机 计算器 一般 打孔器 打气筒 仪器车 显微镜
实验室各种仪器原理动图讲
1.紫外分光光谱UV分析原理:吸收紫外光能量,引起分
高中化学常见仪器及实验装
1、可加热仪器:2、计量仪器:(1)仪器A的名称:量
微生物操作主要设备和器具
今天盘点一下微生物操作主要设备和器具,别嫌我啰嗦
浅谈通风柜使用基本常识
 众所周知,通风柜功能中最主要的就是排气功能。在

专题文章

    CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭