📚 学习资源站
首页
视频课程
学习专栏
电子书库
← 返回专栏列表
000安装
共 108 篇文章
#1
000安装
阅读
#2
001快速上手
阅读
#3
002Pipeline推理
阅读
#4
003使用AutoClass加载预训练实例
阅读
#5
004预处理数据
阅读
#6
005微调预训练模型
阅读
#7
006使用脚本进行训练
阅读
#8
007使用Accelerate 进行分布式训练
阅读
#9
008使用PEFT 加载 adapters
阅读
#10
009分享模型
阅读
#11
010Transformers Agents 快速上手
阅读
#12
011使用 LLMs 生成
阅读
#13
012Agents(代理) and tools(工具)
阅读
#14
013文本分类
阅读
#15
014标记分类(Token Classification)
阅读
#16
015LLM 提示指南
阅读
#17
016自动语音识别 (ASR, Automatic speech recognition)
阅读
#18
017文本转语音 (TTS, Text-to-speech)
阅读
#19
018图像-视觉多模态理解模型 (VLM with image-input, Image-text-to-text)
阅读
#20
019视觉问答 (VQA, Visual Question Answering)
阅读
#21
020文档问答(Document Question Answering, DQA)
阅读
#22
021视频-视觉多模态理解模型 (VLM with video-input, Video-text-to-text)
阅读
#23
022图像描述生成
阅读
#24
023使用缓存优化生成的最佳实践
阅读
#25
024文本生成策略
阅读
#26
025图像分类
阅读
#27
026图像分割
阅读
#28
027以图生图(图像到图像任务)
阅读
#29
028因果语言模型
阅读
#30
029遮蔽语言模型
阅读
#31
030翻译
阅读
#32
031文本摘要
阅读
#33
032多项选择任务
阅读
#34
033问题解答(问答任务)
阅读
#35
034音频分类
阅读
#36
035视频分类
阅读
#37
036目标检测
阅读
#38
037零样本目标检测
阅读
#39
038零样本图像分类
阅读
#40
039单目与多目深度估计的区别
阅读
#41
040图像特征提取
阅读
#42
041掩码生成 (Mask Generation)
阅读
#43
042关键点检测
阅读
#44
043知识蒸馏在计算机视觉中的应用
阅读
#45
044使用 IDEFICS 进行图像任务
阅读
#46
045使用Tokenizers 中的分词器
阅读
#47
046多语言模型推理
阅读
#48
047创建自定义架构(模型架构)
阅读
#49
048创建自定义模型
阅读
#50
049聊天模板
阅读
#51
050Trainer
阅读
#52
051将模型导出为 ONNX 格式
阅读
#53
052将模型导出至 TFLite
阅读
#54
053导出到 TorchScript
阅读
#55
054基准测试
阅读
#56
055Transformers 笔记本
阅读
#57
056社区资源
阅读
#58
057故障排除
阅读
#59
058GGUF 和 Transformer 的交互
阅读
#60
059Tiktoken 与 Transformers 的交互
阅读
#61
060模块化 Transformers
阅读
#62
061如何修改 Transformer 模型
阅读
#63
062量化技术简介
阅读
#64
063bitsandbytes 量化模型|8位与4位量化
阅读
#65
064GPTQ 广义剪枝训练量化
阅读
#66
065AWQ 激活感知权重量化
阅读
#67
066AQLM 加性量化语言模型
阅读
#68
067Optimum-quanto —— PyTorch 多功能量化工具包
阅读
#69
068EETQ —— 高效的 Tensor 量化方法
阅读
#70
069HQQ —— 半二次量化
阅读
#71
070FBGEMM FP8(模型量化至权重为8位,激活为8位)
阅读
#72
071Optimum
阅读
#73
072TorchAO —— 用于 PyTorch 的架构优化库
阅读
#74
073BitNet
阅读
#75
074压缩张量
阅读
#76
075添加新的量化方法
阅读
#77
076性能优化概述(性能与扩展性)
阅读
#78
077大型语言模型推理优化
阅读
#79
078在单个 GPU 上高效训练的方法和工具
阅读
#80
079在多个 GPU 上高效训练
阅读
#81
080完全分片数据并行 (Fully Sharded Data Parallel)
阅读
#82
081DeepSpeed
阅读
#83
082在 CPU 上高效训练
阅读
#84
083在多个 CPU 上高效训练
阅读
#85
084使用 TensorFlow 在 TPU 上进行训练
阅读
#86
085使用 PyTorch 在 Apple 芯片上训练模型
阅读
#87
086使用自定义的硬件进行训练
阅读
#88
087使用 Trainer API 进行超参数搜索
阅读
#89
088通过 CPU 优化推理
阅读
#90
089通过多个 CPU 优化推理
阅读
#91
090GPU 推理优化
阅读
#92
091创建大型模型实例(如何加载大型模型)
阅读
#93
092调试(通过调试解决训练过程中可能遇到的问题)
阅读
#94
093TensorFlow 模型中的 XLA 集成
阅读
#95
094使用 torch.compile() 优化推理速度
阅读
#96
095哲学理念
阅读
#97
096术语表
阅读
#98
097Transformers 库能做什么
阅读
#99
098Transformers 库解决了哪些问题
阅读
#100
099Transformer 模型家族
阅读
#101
100文本分词器概述
阅读
#102
101注意力机制
阅读
#103
102填充与截断
阅读
#104
103BERTology —— 基于 BERT 进行的相关研究
阅读
#105
104困惑度(Perplexity)在固定长度模型中的应用
阅读
#106
105使用 pipelines 为 Web 服务器提供推理服务
阅读
#107
106模型训练剖析
阅读
#108
107优化 LLM 部署的有效技术
阅读