无
快速入门
开发者指南
代码示例
计算机视觉
自然语言处理
从头开始进行文本分类
使用主动学习进行评论分类
使用 FNet 进行文本分类
大规模多标签文本分类
使用 Transformer 进行文本分类
使用 Switch Transformer 进行文本分类
使用决策森林和预训练嵌入进行文本分类
使用预训练词嵌入
IMDB 上的双向 LSTM
使用 KerasHub 和 tf.distribute 进行数据并行训练
使用 KerasHub 进行英译西翻译
使用序列到序列 Transformer 进行英译西翻译
字符级循环序列到序列模型
多模态蕴涵
使用 Transformer 进行命名实体识别
使用 BERT 进行文本提取
用于执行数字加法的序列到序列学习
使用 KerasHub 实现语义相似度
使用 BERT 实现语义相似度
使用 Siamese RoBERTa 网络实现句子嵌入
使用 BERT 进行端到端掩码语言建模
使用 BART 进行抽取式文本摘要
使用 LoRA 对 GPT-2 进行参数高效微调
使用迁移学习完成多项选择任务
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
Keras 快速食谱
Keras 3 API 文档
Keras 2 API 文档
KerasTuner:超参数调优
KerasHub:预训练模型
KerasRS
快速入门
指南
API
示例
Keras Tuner
Keras RS
Keras Hub
代码示例
计算机视觉
自然语言处理
从头开始进行文本分类
使用主动学习进行评论分类
使用 FNet 进行文本分类
大规模多标签文本分类
使用 Transformer 进行文本分类
使用 Switch Transformer 进行文本分类
使用决策森林和预训练嵌入进行文本分类
使用预训练词嵌入
IMDB 上的双向 LSTM
使用 KerasHub 和 tf.distribute 进行数据并行训练
使用 KerasHub 进行英译西翻译
使用序列到序列 Transformer 进行英译西翻译
字符级循环序列到序列模型
多模态蕴涵
使用 Transformer 进行命名实体识别
使用 BERT 进行文本提取
用于执行数字加法的序列到序列学习
使用 KerasHub 实现语义相似度
使用 BERT 实现语义相似度
使用 Siamese RoBERTa 网络实现句子嵌入
使用 BERT 进行端到端掩码语言建模
使用 BART 进行抽取式文本摘要
使用 LoRA 对 GPT-2 进行参数高效微调
使用迁移学习完成多项选择任务
结构化数据
时间序列
生成式深度学习
音频数据
强化学习
图数据
Keras 快速食谱
►
代码示例
/ 自然语言处理
自然语言处理
文本分类
★
V3
从头开始进行文本分类
V3
使用主动学习进行评论分类
V3
使用 FNet 进行文本分类
V2
大规模多标签文本分类
V3
使用 Transformer 进行文本分类
V3
使用 Switch Transformer 进行文本分类
V2
使用决策森林和预训练嵌入进行文本分类
V3
使用预训练词嵌入
V3
IMDB 上的双向 LSTM
V3
使用 KerasHub 和 tf.distribute 进行数据并行训练
机器翻译
V3
使用 KerasHub 进行英译西翻译
★
V3
使用序列到序列 Transformer 进行英译西翻译
V3
字符级循环序列到序列模型
蕴涵预测
V2
多模态蕴涵
命名实体识别
V3
使用 Transformer 进行命名实体识别
序列到序列
V2
使用 BERT 进行文本提取
V3
用于执行数字加法的序列到序列学习
文本相似度搜索
V3
使用 KerasHub 实现语义相似度
V3
使用 BERT 实现语义相似度
V3
使用 Siamese RoBERTa 网络实现句子嵌入
语言建模
V3
使用 BERT 进行端到端掩码语言建模
V3
使用 BART 进行抽取式文本摘要
参数高效微调
V3
使用 LoRA 对 GPT-2 进行参数高效微调
其他
V2
使用迁移学习完成多项选择任务