更改

跳转至: 导航搜索

Huggingface之transformers零基础使用指南

添加44字节, 2023年9月17日 (日) 13:24
无编辑摘要
{{4}}
前几篇博文中介绍了[[Transformer]],由于其优越的性能表现,在工业界使用的越来越广泛,同时,配合迁移学习理论,越来越多的[[Transformer]]预训练模型和源码库逐渐开源,[[预训练模型]]和源码库逐渐开源,'''[[Huggingface]]'''就是其中做的最为出色的一家机构。'''[[Huggingface]]'''是一家在NLP社区做出杰出贡献的纽约创业公司,其所提供的大量预训练模型和代码等资源被广泛的应用于学术研究当中。是一家在NLP社区做出杰出贡献的纽约创业公司,其所提供的大量[[预训练模型]]和代码等资源被广泛的应用于学术研究当中。'''[[Huggingface]]'''所开源的[[Transformers]]提供了数以千计针对于各种任务的预训练模型模型,开发者可以根据自身的需要,选择模型进行训练或微调,也可阅读api文档和源码, 提供了数以千计针对于各种任务的[[预训练模型]]模型,开发者可以根据自身的需要,选择模型进行训练或微调,也可阅读api文档和源码, 快速开发新模型。
本篇博文,我们对'''[[Huggingface]]'''所开源的[[Transformers]]进行介绍。在此之前,请通过下行命令安装[[Transformers]]库:
[[Transformers]]库中提供了上百个算法模型的实现,有BERT模型对应的BertModel类,有BART对应的BartModel类……,每当我们使用对应的预训练模型时,都必须先找到对应类名,然后进行实例化,麻烦吗?非常麻烦!
所以,[[Transformers]]库中提供统一的入口,也就是我们这里说到的“AutoClass”系列的高级对象,通过在调用“AutoClass”的from_pretrained库中提供统一的入口,也就是我们这里说到的“[[AutoClass]]”系列的高级对象,通过在调用“AutoClass”的from_pretrained()方法时指定预训练模型的名称或预训练模型所在目录,即可快速、便捷得完成预训练模型创建。有了“AutoClass”,只需要知道预训练模型的名称,或者将预训练模型下载好,程序将根据预训练模型配置文件中model_type或者预训练模型名称、路径进行模式匹配,自动决定实例化哪一个模型类,不再需要再到该模型在transfors库中对应的类名。“AutoClass”所有类都不能够通过init方法时指定[[预训练模型]]的名称或[[预训练模型]]所在目录,即可快速、便捷得完成[[预训练模型]]创建。有了“[[AutoClass]]”,只需要知道[[预训练模型]]的名称,或者将预训练模型下载好,程序将根据预训练模型配置文件中model_type或者预训练模型名称、路径进行模式匹配,自动决定实例化哪一个模型类,不再需要再到该模型在[[transfors]]库中对应的类名。“[[AutoClass]]”所有类都不能够通过init()方法进行实例化,只能通过from_pretrained()方法实例化指定的类。
如下所示,我们到'''[[Huggingface]]'''官网下载好一个中文BERT预训练模型,模型所有文件存放在当前目录下的“model/bert-base-chinese”路径下。创建预训练模型时,我们将这一路径传递到from_pretrained()方法,即可完成模型创建,创建好的模型为BertModel类的实例。
行政员、groupone、管理员
16,770
个编辑

导航菜单