Учебники по обработке текста TensorFlow содержат пошаговые инструкции для решения распространенных проблем с обработкой текста и естественного языка (NLP).
TensorFlow предоставляет два решения для обработки текста и естественного языка: KerasNLP и TensorFlow Text. KerasNLP — это высокоуровневая библиотека NLP, которая включает в себя все последние модели на основе Transformer, а также утилиты токенизации более низкого уровня. Это рекомендуемое решение для большинства случаев использования НЛП.
Если вам нужен доступ к инструментам обработки текста более низкого уровня, вы можете использовать TensorFlow Text. TensorFlow Text предоставляет набор операций и библиотек, которые помогут вам работать с вводом в текстовой форме, такой как необработанные текстовые строки или документы.
КерасНЛП
- Начало работы с KerasNLP : Изучите KerasNLP, выполняя анализ настроений на прогрессивных уровнях сложности, от использования предварительно обученной модели до создания собственного Transformer с нуля.
Генерация текста
- Генерация текста с помощью RNN : генерируйте текст, используя символьную RNN и набор данных произведений Шекспира.
- Нейронный машинный перевод с вниманием . Обучите модель последовательностей (seq2seq) для перевода с испанского на английский.
- Нейронный машинный перевод с Transformer и Keras : создайте и обучите модель Transformer от последовательности к последовательности для перевода с португальского на английский язык.
- Подписи к изображениям с визуальным вниманием : создавайте подписи к изображениям, используя модель трансформера-декодера, построенную со слоями внимания.
Классификация текстов
- Классифицируйте текст с помощью BERT : точно настройте BERT для выполнения анализа настроений в наборе данных обзоров фильмов IMDb в виде обычного текста.
- Классификация текста с помощью RNN : научите RNN выполнять анализ настроений в обзорах фильмов IMDb.
- Метрики TF.Text : узнайте о метриках, доступных через TensorFlow Text. Библиотека содержит реализации метрик сходства текста, таких как ROUGE-L, которые можно использовать для автоматической оценки моделей генерации текста.
НЛП с BERT
- Решайте задачи GLUE с помощью BERT на TPU : узнайте, как точно настроить BERT для задач из бенчмарка GLUE .
- Тонкая настройка модели BERT : тонкая настройка модели BERT с помощью TensorFlow Model Garden .
- Глубокое изучение языка с учетом неопределенности с помощью BERT-SNGP : примените SNGP к задаче понимания естественного языка (NLU). Используя кодировщик BERT, вы улучшите способность модели NLU обнаруживать запросы, выходящие за рамки области видимости.
Вложения
- Встраивания слов : обучайте свои собственные вложения слов, используя простую модель Keras для задачи классификации настроений, а затем визуализируйте их с помощью Embedding Projector .
- Матрица слоев встраивания с «теплым стартом »: узнайте, как «горячо начать» обучение для модели классификации тональности текста.
- word2vec : Обучите модель word2vec на небольшом наборе данных и визуализируйте обученные встраивания в Embedding Projector .