La bibliothèque tensorflow_hub
vous permet de télécharger et de réutiliser des modèles entraînés dans votre programme TensorFlow avec une quantité minimale de code. Le principal moyen de charger un modèle entraîné consiste à utiliser l'API hub.KerasLayer
.
import tensorflow_hub as hub
embed = hub.KerasLayer("https://tfhub.dev/google/nnlm-en-dim128/2")
embeddings = embed(["A long sentence.", "single-word", "http://example.com"])
print(embeddings.shape, embeddings.dtype)
Remarque : Cette documentation utilise les descripteurs d'URL TFhub.dev dans les exemples. Voir plus d’informations sur d’autres types de handles valides ici .
Définition de l'emplacement du cache pour les téléchargements.
Par défaut, tensorflow_hub
utilise un répertoire temporaire à l'échelle du système pour mettre en cache les modèles téléchargés et non compressés. Voir Mise en cache pour connaître les options permettant d'utiliser d'autres emplacements, éventuellement plus persistants.
Stabilité de l'API
Bien que nous espérons éviter des changements radicaux, ce projet est toujours en développement actif et il n'est pas encore garanti qu'il dispose d'une API ou d'un format de modèle stable.
Justice
Comme dans tout apprentissage automatique, l’équité est une considération importante . De nombreux modèles pré-entraînés sont formés sur de grands ensembles de données. Lors de la réutilisation d'un modèle, il est important de garder à l'esprit les données sur lesquelles le modèle a été formé (et s'il existe des biais existants) et comment ceux-ci pourraient avoir un impact sur votre utilisation.
Sécurité
Puisqu’ils contiennent des graphiques TensorFlow arbitraires, les modèles peuvent être considérés comme des programmes. Utiliser TensorFlow en toute sécurité décrit les implications en matière de sécurité du référencement d'un modèle à partir d'une source non fiable.