| 微调预训练 Transformer 生成歌词 |
如何通过微调 GPT-2 模型来生成你喜欢的艺术家风格的歌词 |
Aleksey Korshuk |
 |
| 在 Tensorflow 2 中训练 T5 |
如何使用 Tensorflow 2 训练 T5 模型。本笔记本展示了使用 SQUAD 数据集实现的问答任务 |
Muhammad Harris |
 |
| 在 TPU 上训练 T5 |
如何使用 Transformers 和 Nlp 在 SQUAD 数据集上训练 T5 模型 |
Suraj Patil |
 |
| 微调 T5 用于分类和多选任务 |
如何使用 PyTorch Lightning 以文本到文本格式微调 T5 模型,用于分类和多选任务 |
Suraj Patil |
 |
| 在新数据集和语言上微调 DialoGPT |
如何在新数据集上微调 DialoGPT 模型,用于开放式对话聊天机器人 |
Nathan Cooper |
 |
| 使用 Reformer 处理长序列建模 |
如何使用 Reformer 训练长达 500,000 个标记的序列 |
Patrick von Platen |
 |
| 微调 BART 用于摘要 |
如何使用 fastai 和 blurr 微调 BART 模型,用于摘要 |
Wayde Gilliam |
 |
| 微调预训练 Transformer 生成推文 |
如何通过微调 GPT-2 模型生成你喜欢的 Twitter 账户风格的推文 |
Boris Dayma |
 |
| 使用 Weights & Biases 优化 🤗 Hugging Face 模型 |
完整教程展示如何将 W&B 集成到 Hugging Face 中 |
Boris Dayma |
 |
| 构建 Longformer 预训练模型 |
如何构建现有预训练模型的“长”版本 |
Iz Beltagy |
 |
| 微调 Longformer 用于问答任务 |
如何微调 longformer 模型用于问答任务 |
Suraj Patil |
 |
| 使用 🤗nlp 评估模型 |
如何使用 nlp 评估 longformer 在 TriviaQA 上的性能 |
Patrick von Platen |
 |
| 微调 T5 用于情感跨度提取 |
如何使用 PyTorch Lightning 以文本到文本格式微调 T5 模型,用于情感跨度提取 |
Lorenzo Ampil |
 |
| 微调 DistilBert 用于多类别分类 |
如何使用 PyTorch 微调 DistilBert 模型,用于多类别分类 |
Abhishek Kumar Mishra |
 |
| 微调 BERT 用于多标签分类 |
如何使用 PyTorch 微调 BERT 模型,用于多标签分类 |
Abhishek Kumar Mishra |
 |
| 微调 T5 用于摘要 |
如何使用 PyTorch 微调 T5 模型用于摘要,并使用 WandB 跟踪实验 |
Abhishek Kumar Mishra |
 |
| 使用动态填充/分桶加速 Transformer 微调 |
如何通过动态填充/分桶将微调速度提高两倍 |
Michael Benesty |
 |
| 使用双向自注意力层预训练 Reformer |
如何训练具有双向自注意力层的 Reformer 模型 |
Patrick von Platen |
 |
| 扩展和微调 Sci-BERT |
如何在 CORD 数据集上扩展 AllenAI 预训练的 SciBERT 模型并将其接入管道 |
Tanmay Thakur |
 |
| 使用 Trainer API 微调 BlenderBotSmall 用于摘要 |
如何在自定义数据集上使用 Trainer API 微调 BlenderBotSmall 用于摘要 |
Tanmay Thakur |
 |
| 微调 Electra 并使用集成梯度解释预测 |
如何微调 Electra 模型用于情感分析,并使用 Captum 集成梯度解释预测 |
Eliza Szczechla |
 |
| 使用 Trainer 类微调非英语 GPT-2 模型 |
如何使用 Trainer 类微调非英语 GPT-2 模型 |
Philipp Schmid |
 |
| 微调 DistilBERT 用于多标签分类任务 |
如何微调 DistilBERT 模型用于多标签分类任务 |
Dhaval Taunk |
 |
| 微调 ALBERT 用于句子对分类 |
如何微调 ALBERT 模型或基于 BERT 的其他模型用于句子对分类任务 |
Nadir El Manouzi |
 |
| 微调 Roberta 用于情感分析 |
如何微调 Roberta 模型用于情感分析 |
Dhaval Taunk |
 |
| 评估生成的问题模型 |
你的 seq2seq 变换器模型生成的问题答案有多准确? |
Pascal Zoleko |
 |
| 使用 DistilBERT 和 Tensorflow 分类文本 |
如何使用 TensorFlow 微调 DistilBERT 模型用于文本分类 |
Peter Bayerle |
 |
| 使用 BERT 进行编码器-解码器摘要(CNN/Dailymail) |
如何使用 google-bert/bert-base-uncased 检查点预热 EncoderDecoderModel,用于 CNN/Dailymail 的摘要 |
Patrick von Platen |
 |
| 使用 RoBERTa 进行编码器-解码器摘要(BBC XSum) |
如何使用 FacebookAI/roberta-base 检查点预热共享 EncoderDecoderModel,用于 BBC/XSum 的摘要 |
Patrick von Platen |
 |
| 微调 TAPAS 用于顺序问答(SQA) |
如何使用 tapas-base 检查点微调 TapasForQuestionAnswering,用于顺序问答(SQA)数据集 |
Niels Rogge |
 |
| 评估 TAPAS 用于表格事实检查(TabFact) |
如何使用 🤗 datasets 和 🤗 transformers 库组合评估使用 tapas-base-finetuned-tabfact 检查点微调的 TapasForSequenceClassification |
Niels Rogge |
 |
| 微调 mBART 用于翻译 |
如何使用 Seq2SeqTrainer 微调 mBART 用于印地语到英语的翻译 |
Vasudev Gupta |
 |
| 微调 LayoutLM 用于表格理解数据集 FUNSD |
如何在 FUNSD 数据集上微调 LayoutLMForTokenClassification,用于从扫描文档中提取信息 |
Niels Rogge |
 |
| 微调 DistilGPT2 并生成文本 |
如何微调 DistilGPT2 并生成文本 |
Aakash Tripathi |
 |
| 微调 LED 用于长达 8K 个标记的摘要 |
如何在 pubmed 数据集上微调 LED 用于长距离摘要 |
Patrick von Platen |
 |
| 在 Arxiv 上评估 LED |
如何有效地在长距离摘要上评估 LED |
Patrick von Platen |
 |
| 微调 LayoutLM 用于文档图像分类数据集 RVL-CDIP |
如何在 RVL-CDIP 数据集上微调 LayoutLMForSequenceClassification,用于扫描文档分类 |
Niels Rogge |
 |
| 使用 GPT2 调整 Wav2Vec2 CTC 解码 |
如何使用语言模型调整 CTC 序列解码 |
Eric Lam |
 |
| 使用 Trainer 类微调 BART 用于双语摘要 |
如何使用 Trainer 类微调 BART 用于双语摘要 |
Eliza Szczechla |
 |
| 在 Trivia QA 上评估 Big Bird |
如何在 Trivia QA 上评估 BigBird 模型的长文档问答 |
Patrick von Platen |
 |
| 使用 Wav2Vec2 创建视频字幕 |
如何通过转录音频使用 Wav2Vec 从任何视频创建 YouTube 字幕 |
Niklas Muennighoff |
 |
| 使用 PyTorch Lightning 微调 Vision Transformer 用于 CIFAR-10 |
如何使用 HuggingFace Transformers、Datasets 和 PyTorch Lightning 微调 Vision Transformer(ViT)用于 CIFAR-10 |
Niels Rogge |
 |
| 使用 🤗 Trainer 微调 Vision Transformer 用于 CIFAR-10 |
如何使用 HuggingFace Transformers、Datasets 和 🤗 Trainer 微调 Vision Transformer(ViT)用于 CIFAR-10 |
Niels Rogge |
 |
| 在 Open Entity 数据集上评估 LUKE |
如何在 Open Entity 数据集上评估 LukeForEntityClassification |
Ikuya Yamada |
 |
| 在 TACRED 数据集上评估 LUKE |
如何在 TACRED 数据集上评估 LukeForEntityPairClassification |
Ikuya Yamada |
 |
| 在 CoNLL-2003 数据集上评估 LUKE |
如何在 CoNLL-2003 数据集上评估 LukeForEntitySpanClassification |
Ikuya Yamada |
 |
| 在 PubMed 数据集上评估 BigBird-Pegasus |
如何在 PubMed 数据集上评估 BigBirdPegasusForConditionalGeneration |
Vasudev Gupta |
 |
| 使用 Wav2Vec2 进行语音情感分类 |
如何使用预训练的 Wav2Vec2 模型在 MEGA 数据集上进行情感分类 |
Mehrdad Farahani |
 |
| 使用 DETR 检测图像中的对象 |
如何使用训练好的 DetrForObjectDetection 模型检测图像中的对象并可视化注意力 |
Niels Rogge |
 |
| 在自定义目标检测数据集上微调 DETR |
如何在自定义目标检测数据集上微调 DetrForObjectDetection |
Niels Rogge |
 |
| 微调 T5 用于命名实体识别 |
如何在命名实体识别任务上微调 T5 |
Ogundepo Odunayo |
 |
| 使用 QLoRA 和 PEFT 微调开源大模型 |
如何使用 QLoRA 和 PEFT 以节省内存的方式微调大模型,同时使用 MLflow 管理实验跟踪 |
Yuki Watanabe |
 |