无
快速入门 开发者指南 代码示例 计算机视觉 自然语言处理 从头开始进行文本分类 使用主动学习进行评论分类 使用 FNet 进行文本分类 大规模多标签文本分类 使用 Transformer 进行文本分类 使用 Switch Transformer 进行文本分类 使用决策森林和预训练嵌入进行文本分类 使用预训练词嵌入 IMDB 上的双向 LSTM 使用 KerasHub 和 tf.distribute 进行数据并行训练 使用 KerasHub 进行英译西翻译 使用序列到序列 Transformer 进行英译西翻译 字符级循环序列到序列模型 多模态蕴涵 使用 Transformer 进行命名实体识别 使用 BERT 进行文本提取 用于执行数字加法的序列到序列学习 使用 KerasHub 实现语义相似度 使用 BERT 实现语义相似度 使用 Siamese RoBERTa 网络实现句子嵌入 使用 BERT 进行端到端掩码语言建模 使用 BART 进行抽取式文本摘要 使用 LoRA 对 GPT-2 进行参数高效微调 使用迁移学习完成多项选择任务 结构化数据 时间序列 生成式深度学习 音频数据 强化学习 图数据 Keras 快速食谱 Keras 3 API 文档 Keras 2 API 文档 KerasTuner:超参数调优 KerasHub:预训练模型 KerasRS
keras.io logo
  • 快速入门
  • 指南
  • API
  • 示例
  • Keras Tuner
  • Keras RS
  • Keras Hub
代码示例
计算机视觉 自然语言处理 从头开始进行文本分类 使用主动学习进行评论分类 使用 FNet 进行文本分类 大规模多标签文本分类 使用 Transformer 进行文本分类 使用 Switch Transformer 进行文本分类 使用决策森林和预训练嵌入进行文本分类 使用预训练词嵌入 IMDB 上的双向 LSTM 使用 KerasHub 和 tf.distribute 进行数据并行训练 使用 KerasHub 进行英译西翻译 使用序列到序列 Transformer 进行英译西翻译 字符级循环序列到序列模型 多模态蕴涵 使用 Transformer 进行命名实体识别 使用 BERT 进行文本提取 用于执行数字加法的序列到序列学习 使用 KerasHub 实现语义相似度 使用 BERT 实现语义相似度 使用 Siamese RoBERTa 网络实现句子嵌入 使用 BERT 进行端到端掩码语言建模 使用 BART 进行抽取式文本摘要 使用 LoRA 对 GPT-2 进行参数高效微调 使用迁移学习完成多项选择任务 结构化数据 时间序列 生成式深度学习 音频数据 强化学习 图数据 Keras 快速食谱
► 代码示例 / 自然语言处理

自然语言处理

文本分类

★
V3
从头开始进行文本分类
V3
使用主动学习进行评论分类
V3
使用 FNet 进行文本分类
V2
大规模多标签文本分类
V3
使用 Transformer 进行文本分类
V3
使用 Switch Transformer 进行文本分类
V2
使用决策森林和预训练嵌入进行文本分类
V3
使用预训练词嵌入
V3
IMDB 上的双向 LSTM
V3
使用 KerasHub 和 tf.distribute 进行数据并行训练

机器翻译

V3
使用 KerasHub 进行英译西翻译
★
V3
使用序列到序列 Transformer 进行英译西翻译
V3
字符级循环序列到序列模型

蕴涵预测

V2
多模态蕴涵

命名实体识别

V3
使用 Transformer 进行命名实体识别

序列到序列

V2
使用 BERT 进行文本提取
V3
用于执行数字加法的序列到序列学习

文本相似度搜索

V3
使用 KerasHub 实现语义相似度
V3
使用 BERT 实现语义相似度
V3
使用 Siamese RoBERTa 网络实现句子嵌入

语言建模

V3
使用 BERT 进行端到端掩码语言建模
V3
使用 BART 进行抽取式文本摘要

参数高效微调

V3
使用 LoRA 对 GPT-2 进行参数高效微调

其他

V2
使用迁移学习完成多项选择任务

条款
|
隐私