MindSpore加载文本数据集

2025-07-21 02:31:50

1、准备数据1. 数据如下:Welcome to Beijing!北京欢迎您!我喜欢China!2.创建tokenizer.txt文件并复制文本数据到该文件中,将该文件存放在./test路径中,目录结构如下。└─test └─tokenizer.txt3.导入mindspore.dataset和mindspore.dataset.text模块。import mindspore.dataset as dsimport mindspore.dataset.text as text

2、加载数据集1.配置数据集目录,创建数据集对象。DATA_FILE = "./test/tokenizer.txt"dataset = ds.TextFileDataset(DATA_FILE, shuffle=False)2.创建迭代器,通过迭代器获取数据。for data in dataset.create_dict_iterator(output_numpy=True): print(text.to_str(data['text']))获取到分词前的数据:Welcome to Beijing!北京欢迎您!我喜欢China!

3、数倌栗受绽据分词下面演示使用WhitespaceTokenizer分词器来分词,该分词是按照空格来进行分词。1.创建tokenizer。tokenizer = text.WhitespaceTokenizer()2.执行操作tokenizer。dataset = dataset.map(operations=tokenizer)3.创建迭代器,通过迭代器获取数据。for i in dataset.create_dict_iterator(num_epochs=1, output_numpy=True): token = text.to_str(i['text']).tolist() print(token)获取到分词后的数据:['Welcome', 'to', 'Beijing!']['北京欢迎您!']['我喜欢China!']

声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
猜你喜欢