Zobacz na TensorFlow.org | Uruchom w Google Colab | Wyświetl źródło na GitHub | Pobierz notatnik |
To krótkie wprowadzenie wykorzystuje Kerasa do:
- Załaduj gotowy zestaw danych.
- Zbuduj model uczenia maszynowego sieci neuronowej, który klasyfikuje obrazy.
- Trenuj tę sieć neuronową.
- Oceń dokładność modelu.
Ten samouczek to notatnik Google Colaboratory . Programy w Pythonie są uruchamiane bezpośrednio w przeglądarce — to świetny sposób na naukę i korzystanie z TensorFlow. Aby skorzystać z tego samouczka, uruchom notatnik w Google Colab, klikając przycisk u góry tej strony.
- W Colab połącz się ze środowiskiem wykonawczym Pythona: w prawym górnym rogu paska menu wybierz POŁĄCZ .
- Uruchom wszystkie komórki kodu notatnika: Wybierz Runtime > Uruchom wszystko .
Skonfiguruj TensorFlow
Zaimportuj TensorFlow do swojego programu, aby rozpocząć:
import tensorflow as tf
print("TensorFlow version:", tf.__version__)
TensorFlow version: 2.8.0-rc1
Jeśli podążasz za własnym środowiskiem programistycznym, a nie Colab , zapoznaj się z przewodnikiem instalacji, aby skonfigurować TensorFlow do programowania.
Załaduj zbiór danych
Załaduj i przygotuj zestaw danych MNIST . Przekształć przykładowe dane z liczb całkowitych na liczby zmiennoprzecinkowe:
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0
Zbuduj model uczenia maszynowego
Zbuduj model tf.keras.Sequential
, układając warstwy.
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(28, 28)),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dropout(0.2),
tf.keras.layers.Dense(10)
])
Dla każdego przykładu model zwraca wektor wyników logit lub log-odds , po jednym dla każdej klasy.
predictions = model(x_train[:1]).numpy()
predictions
array([[ 0.2760778 , -0.39324787, -0.17098302, 1.2016621 , -0.03416392, 0.5461229 , -0.7203061 , -0.41886678, -0.59480035, -0.7580608 ]], dtype=float32)
Funkcja tf.nn.softmax
konwertuje te logity na prawdopodobieństwa dla każdej klasy:
tf.nn.softmax(predictions).numpy()
array([[0.11960829, 0.06124588, 0.0764901 , 0.30181262, 0.08770514, 0.15668967, 0.04416083, 0.05969675, 0.05006609, 0.04252464]], dtype=float32)
Zdefiniuj funkcję straty do uczenia przy użyciu losses.SparseCategoricalCrossentropy
, która pobiera wektor logit i indeks True
i zwraca stratę skalarną dla każdego przykładu.
loss_fn = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)
Ta strata jest równa ujemnemu logarytmicznemu prawdopodobieństwu prawdziwej klasy: Strata wynosi zero, jeśli model jest pewien, że klasa jest prawidłowa.
Ten niewytrenowany model daje prawdopodobieństwa bliskie losowości (1/10 dla każdej klasy), więc początkowa strata powinna być bliska -tf.math.log(1/10) ~= 2.3
.
loss_fn(y_train[:1], predictions).numpy()
1.8534881
Przed rozpoczęciem szkolenia skonfiguruj i skompiluj model za pomocą Keras Model.compile
. Ustaw klasę optimizer
na adam
, ustaw loss
na zdefiniowaną wcześniej funkcję loss_fn
i określ metrykę do oceny dla modelu, ustawiając parametr metrics
na accuracy
.
model.compile(optimizer='adam',
loss=loss_fn,
metrics=['accuracy'])
Trenuj i oceniaj swój model
Użyj metody Model.fit
, aby dostosować parametry modelu i zminimalizować straty:
model.fit(x_train, y_train, epochs=5)
Epoch 1/5 1875/1875 [==============================] - 4s 2ms/step - loss: 0.2950 - accuracy: 0.9143 Epoch 2/5 1875/1875 [==============================] - 3s 2ms/step - loss: 0.1451 - accuracy: 0.9567 Epoch 3/5 1875/1875 [==============================] - 4s 2ms/step - loss: 0.1080 - accuracy: 0.9668 Epoch 4/5 1875/1875 [==============================] - 4s 2ms/step - loss: 0.0906 - accuracy: 0.9717 Epoch 5/5 1875/1875 [==============================] - 4s 2ms/step - loss: 0.0749 - accuracy: 0.9761 <keras.callbacks.History at 0x7f062c606850>
Metoda Model.evaluate
sprawdza wydajność modeli, zwykle na „ zestawie walidacyjnym ” lub „ zestawie testowym ”.
model.evaluate(x_test, y_test, verbose=2)
313/313 - 1s - loss: 0.0783 - accuracy: 0.9755 - 588ms/epoch - 2ms/step [0.07825208455324173, 0.9754999876022339]
Klasyfikator obrazu jest teraz wyszkolony do ~98% dokładności w tym zestawie danych. Aby dowiedzieć się więcej, przeczytaj samouczki TensorFlow .
Jeśli chcesz, aby Twój model zwracał prawdopodobieństwo, możesz zawinąć wytrenowany model i dołączyć do niego softmax:
probability_model = tf.keras.Sequential([
model,
tf.keras.layers.Softmax()
])
probability_model(x_test[:5])
<tf.Tensor: shape=(5, 10), dtype=float32, numpy= array([[2.72807270e-08, 2.42517650e-08, 7.75602894e-06, 1.28684027e-04, 7.66215633e-11, 3.54162950e-07, 3.04894151e-14, 9.99857187e-01, 2.32766553e-08, 5.97762892e-06], [7.37396704e-08, 4.73638036e-04, 9.99523997e-01, 7.20633352e-07, 4.54133671e-17, 1.42298268e-06, 5.96959016e-09, 1.23534145e-13, 7.77225608e-08, 6.98619169e-16], [1.95462448e-07, 9.99295831e-01, 1.02249986e-04, 1.86699708e-05, 5.65737491e-06, 1.12115902e-06, 5.32719559e-06, 5.22767776e-04, 4.79981136e-05, 1.76624681e-07], [9.99649286e-01, 1.80224735e-09, 3.73612856e-05, 1.52324446e-07, 1.30824594e-06, 2.82781020e-05, 6.99703523e-05, 3.30940424e-07, 2.13184350e-07, 2.13106396e-04], [1.53770895e-06, 1.72272063e-08, 1.98980865e-06, 3.97882580e-08, 9.97192323e-01, 1.10544443e-05, 1.54713348e-06, 2.81727880e-05, 3.48721733e-06, 2.75991508e-03]], dtype=float32)>
Wniosek
Gratulacje! Wytrenowano model uczenia maszynowego przy użyciu gotowego zestawu danych przy użyciu interfejsu API Keras .
Więcej przykładów korzystania z Keras znajdziesz w samouczkach . Aby dowiedzieć się więcej o budowaniu modeli za pomocą Keras, przeczytaj przewodniki . Jeśli chcesz dowiedzieć się więcej o ładowaniu i przygotowywaniu danych, zapoznaj się z samouczkami dotyczącymi ładowania danych obrazu lub ładowania danych CSV .