关于 Keras 入门指南 开发者指南 代码示例 计算机视觉 自然语言处理 从零开始的文本分类 使用主动学习的评论分类 使用 FNet 的文本分类 大规模多标签文本分类 使用 Transformer 的文本分类 使用 Switch Transformer 的文本分类 使用决策树和预训练嵌入的推文分类 使用预训练词嵌入 IMDB 上的双向 LSTM 使用 KerasHub 和 tf.distribute 进行数据并行训练 使用 KerasHub 进行英西翻译 使用序列到序列 Transformer 进行英西翻译 字符级循环序列到序列模型 多模态蕴含 使用 Transformer 的命名实体识别 使用 BERT 的文本提取 执行数字加法的序列到序列学习 使用 KerasHub 进行语义相似度 使用 BERT 进行语义相似度 使用 Siamese RoBERTa 网络的句子嵌入 BERT 的端到端掩码语言建模 使用 BART 的抽象文本摘要 使用 Hugging Face Transformers 预训练 BERT 使用 LoRA 对 GPT-2 进行参数高效微调 使用迁移学习的多项选择任务 使用 Hugging Face Transformers 的问答 使用 Hugging Face Transformers 的抽象摘要 结构化数据 时间序列 生成式深度学习 音频数据 强化学习 图数据 Keras 快速指南 Keras 3 API 文档 Keras 2 API 文档 KerasTuner:超参数调优 KerasHub:预训练模型
► 代码示例 / 自然语言处理

自然语言处理

文本分类

★
V3
从零开始的文本分类
V3
使用主动学习的评论分类
V3
使用 FNet 的文本分类
V2
大规模多标签文本分类
V3
使用 Transformer 的文本分类
V3
使用 Switch Transformer 的文本分类
V2
使用决策树和预训练嵌入的推文分类
V3
使用预训练词嵌入
V3
IMDB 上的双向 LSTM
V3
使用 KerasHub 和 tf.distribute 进行数据并行训练

机器翻译

V3
使用 KerasHub 进行英西翻译
★
V3
使用序列到序列 Transformer 进行英西翻译
V3
字符级循环序列到序列模型

蕴含预测

V2
多模态蕴含

命名实体识别

V3
使用 Transformer 的命名实体识别

序列到序列

V2
使用 BERT 的文本提取
V3
执行数字加法的序列到序列学习

文本相似性搜索

V3
使用 KerasHub 进行语义相似度
V3
使用 BERT 进行语义相似度
V3
使用 Siamese RoBERTa 网络的句子嵌入

语言建模

V3
BERT 的端到端掩码语言建模
V3
使用 BART 的抽象文本摘要
V2
使用 Hugging Face Transformers 预训练 BERT

参数高效微调

V3
使用 LoRA 对 GPT-2 进行参数高效微调

其他

V2
使用迁移学习的多项选择任务
V2
使用 Hugging Face Transformers 的问答
V2
使用 Hugging Face Transformers 的抽象摘要

服务条款 | 隐私权政策