Samouczki dotyczące przetwarzania tekstu TensorFlow zawierają instrukcje krok po kroku dotyczące rozwiązywania typowych problemów z przetwarzaniem tekstu i języka naturalnego (NLP).
TensorFlow zapewnia dwa rozwiązania do przetwarzania tekstu i języka naturalnego: KerasNLP i TensorFlow Text. KerasNLP to biblioteka NLP wysokiego poziomu, która zawiera wszystkie najnowsze modele oparte na Transformer, jak również narzędzia do tokenizacji niższego poziomu. Jest to zalecane rozwiązanie dla większości przypadków użycia NLP.
Jeśli potrzebujesz dostępu do narzędzi do przetwarzania tekstu niższego poziomu, możesz użyć TensorFlow Text. TensorFlow Text zapewnia zbiór operacji i bibliotek, które pomogą Ci pracować z danymi wejściowymi w formie tekstowej, takiej jak nieprzetworzone ciągi tekstowe lub dokumenty.
KerasNLP
- Pierwsze kroki z KerasNLP : Naucz się KerasNLP, przeprowadzając analizę nastrojów na kolejnych poziomach złożoności, od korzystania z wstępnie wytrenowanego modelu po zbudowanie własnego Transformera od podstaw.
Generowanie tekstu
- Generowanie tekstu za pomocą RNN : Wygeneruj tekst przy użyciu RNN opartego na znakach i zestawu danych pism Szekspira.
- Neuralne tłumaczenie maszynowe z uwagą : wytrenuj model sekwencji do sekwencji (seq2seq) dla tłumaczenia z hiszpańskiego na angielski.
- Neuronowe tłumaczenie maszynowe za pomocą transformatora i Keras : Utwórz i wytrenuj model transformatora sekwencji do sekwencji, aby tłumaczyć język portugalski na angielski.
- Podpisy obrazów z uwagą wizualną : generuj podpisy obrazów za pomocą modelu dekodera transformatora zbudowanego z warstw uwagi.
Klasyfikacja tekstu
- Klasyfikuj tekst za pomocą BERT : Dostosuj BERT, aby przeprowadzać analizę nastrojów na zbiorze danych recenzji filmów IMDb w postaci zwykłego tekstu.
- Klasyfikacja tekstu za pomocą RNN : wyszkol RNN w zakresie przeprowadzania analizy nastrojów w recenzjach filmów IMDb.
- TF.Text Metrics : Dowiedz się więcej o metrykach dostępnych za pośrednictwem TensorFlow Text. Biblioteka zawiera implementacje metryk podobieństwa tekstu, takich jak ROUGE-L, które można wykorzystać do automatycznej oceny modeli generowania tekstu.
NLP z BERT
- Rozwiązuj zadania GLUE za pomocą BERT na TPU : Dowiedz się, jak dostosować BERT do zadań z testu porównawczego GLUE .
- Dostrajanie modelu BERT : Dostrajanie modelu BERT za pomocą TensorFlow Model Garden .
- Głębokie uczenie się języka ze świadomością niepewności za pomocą BERT-SNGP : Zastosuj SNGP do zadania rozumienia języka naturalnego (NLU). Opierając się na koderze BERT, poprawisz zdolność modelu NLU do wykrywania zapytań poza zakresem.
Osadzenia
- Osadzanie słów : Wytrenuj własne osadzania słów przy użyciu prostego modelu Keras dla zadania klasyfikacji tonacji, a następnie wizualizuj je za pomocą projektora osadzania .
- Macierz warstw osadzania na gorąco : Dowiedz się, jak trenować na gorąco w zakresie modelu klasyfikacji tonacji tekstu.
- word2vec : Wytrenuj model word2vec na małym zbiorze danych i wizualizuj wytrenowane osadzenie w Projektorze osadzania .