Biblioteka tensorflow_hub
umożliwia pobieranie i ponowne wykorzystywanie przeszkolonych modeli w programie TensorFlow przy minimalnej ilości kodu. Głównym sposobem ładowania przeszkolonego modelu jest użycie interfejsu API hub.KerasLayer
.
import tensorflow_hub as hub
embed = hub.KerasLayer("https://tfhub.dev/google/nnlm-en-dim128/2")
embeddings = embed(["A long sentence.", "single-word", "http://example.com"])
print(embeddings.shape, embeddings.dtype)
Uwaga: w tej dokumentacji w przykładach użyto uchwytów URL TFhub.dev. Więcej informacji na temat innych prawidłowych typów uchwytów znajdziesz tutaj .
Ustawianie lokalizacji pamięci podręcznej dla pobranych plików.
Domyślnie tensorflow_hub
używa ogólnosystemowego katalogu tymczasowego do buforowania pobranych i nieskompresowanych modeli. Zobacz Buforowanie , aby zapoznać się z opcjami użycia innych, prawdopodobnie bardziej trwałych lokalizacji.
Stabilność API
Chociaż mamy nadzieję zapobiec istotnym zmianom, projekt ten jest nadal w fazie aktywnego rozwoju i nie ma jeszcze gwarancji, że będzie miał stabilny interfejs API lub format modelu.
Uczciwość
Podobnie jak w przypadku całego uczenia maszynowego, ważną kwestią jest uczciwość . Wiele wstępnie przeszkolonych modeli jest szkolonych na dużych zestawach danych. Podczas ponownego wykorzystywania dowolnego modelu należy pamiętać, na jakich danych model został przeszkolony (i czy istnieją w nim jakieś uprzedzenia) oraz jaki może to mieć wpływ na jego użycie.
Bezpieczeństwo
Ponieważ zawierają dowolne wykresy TensorFlow, modele można traktować jako programy. Korzystanie z TensorFlow Securely opisuje konsekwencje bezpieczeństwa wynikające z odwoływania się do modelu z niezaufanego źródła.