TensorFlow.org에서 보기 | Google Colab에서 실행 | GitHub에서 소스 보기 | 노트북 다운로드 |
이 튜토리얼에서는 순차 검색 모델을 만들 것입니다. 순차 추천은 사용자가 이전에 상호 작용한 일련의 항목을 보고 다음 항목을 예측하는 인기 있는 모델입니다. 여기에서는 각 시퀀스 내 항목의 순서가 중요하므로 순환 신경망을 사용하여 순차적 관계를 모델링합니다. 자세한 내용은 본을 참조하시기 바랍니다 GRU4Rec 종이 .
수입품
먼저 종속성과 가져오기를 제거해 보겠습니다.
pip install -q tensorflow-recommenders
pip install -q --upgrade tensorflow-datasets
import os
import pprint
import tempfile
from typing import Dict, Text
import numpy as np
import tensorflow as tf
import tensorflow_datasets as tfds
import tensorflow_recommenders as tfrs
데이터세트 준비
다음으로 데이터 세트를 준비해야 합니다. 우리는 활용하려고하는 데이터 생성 유틸리티 이의 TensorFlow 라이트 온 - 디바이스 권고 참조 응용 프로그램을 .
및 movies.dat (열 : MovieID, 제목, 장르) : MovieLens 1M 데이터 ratings.dat (사용자 ID, MovieID, 평가, 타임 스탬프 열)이 포함되어 있습니다. 예제 생성 스크립트는 1M 데이터 세트를 다운로드하고, 두 파일을 모두 사용하고, 2보다 높은 등급만 유지하고, 사용자 영화 상호 작용 타임라인을 형성하고, 샘플 활동을 레이블로, 10개의 이전 사용자 활동을 예측 컨텍스트로 사용합니다.
wget -nc https://raw.githubusercontent.com/tensorflow/examples/master/lite/examples/recommendation/ml/data/example_generation_movielens.py
python -m example_generation_movielens --data_dir=data/raw --output_dir=data/examples --min_timeline_length=3 --max_context_length=10 --max_context_movie_genre_length=10 --min_rating=2 --train_data_fraction=0.9 --build_vocabs=False
--2021-12-02 12:10:29-- https://raw.githubusercontent.com/tensorflow/examples/master/lite/examples/recommendation/ml/data/example_generation_movielens.py Resolving raw.githubusercontent.com (raw.githubusercontent.com)... 185.199.108.133, 185.199.110.133, 185.199.111.133, ... Connecting to raw.githubusercontent.com (raw.githubusercontent.com)|185.199.108.133|:443... connected. HTTP request sent, awaiting response... 200 OK Length: 18040 (18K) [text/plain] Saving to: ‘example_generation_movielens.py’ example_generation_ 100%[===================>] 17.62K --.-KB/s in 0s 2021-12-02 12:10:29 (107 MB/s) - ‘example_generation_movielens.py’ saved [18040/18040] I1202 12:10:32.036267 140629273970496 example_generation_movielens.py:460] Downloading and extracting data. Downloading data from http://files.grouplens.org/datasets/movielens/ml-1m.zip 5922816/5917549 [==============================] - 1s 0us/step 5931008/5917549 [==============================] - 1s 0us/step I1202 12:10:33.549675 140629273970496 example_generation_movielens.py:406] Reading data to dataframes. /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/pandas/util/_decorators.py:311: ParserWarning: Falling back to the 'python' engine because the 'c' engine does not support regex separators (separators > 1 char and different from '\s+' are interpreted as regex); you can avoid this warning by specifying engine='python'. return func(*args, **kwargs) I1202 12:10:37.734699 140629273970496 example_generation_movielens.py:408] Generating movie rating user timelines. I1202 12:10:40.836473 140629273970496 example_generation_movielens.py:410] Generating train and test examples. 6040/6040 [==============================] - 76s 13ms/step I1202 12:11:57.162662 140629273970496 example_generation_movielens.py:421] Writing generated training examples. 844195/844195 [==============================] - 14s 17us/step I1202 12:12:11.266682 140629273970496 example_generation_movielens.py:424] Writing generated testing examples. 93799/93799 [==============================] - 2s 17us/step I1202 12:12:22.758407 140629273970496 example_generation_movielens.py:473] Generated dataset: {'train_size': 844195, 'test_size': 93799, 'train_file': 'data/examples/train_movielens_1m.tfrecord', 'test_file': 'data/examples/test_movielens_1m.tfrecord'}
다음은 생성된 데이터 세트의 샘플입니다.
0 : {
features: {
feature: {
key : "context_movie_id"
value: { int64_list: { value: [ 1124, 2240, 3251, ..., 1268 ] } }
}
feature: {
key : "context_movie_rating"
value: { float_list: {value: [ 3.0, 3.0, 4.0, ..., 3.0 ] } }
}
feature: {
key : "context_movie_year"
value: { int64_list: { value: [ 1981, 1980, 1985, ..., 1990 ] } }
}
feature: {
key : "context_movie_genre"
value: { bytes_list: { value: [ "Drama", "Drama", "Mystery", ..., "UNK" ] } }
}
feature: {
key : "label_movie_id"
value: { int64_list: { value: [ 3252 ] } }
}
}
}
여기에는 일련의 컨텍스트 영화 ID, 레이블 영화 ID(다음 영화), 그리고 영화 연도, 등급 및 장르와 같은 컨텍스트 기능이 포함되어 있음을 알 수 있습니다.
우리의 경우 컨텍스트 영화 ID와 레이블 영화 ID의 시퀀스만 사용할 것입니다. 받는 사람 당신은 참조 할 수 있습니다 을 활용합니다 컨텍스트는 튜토리얼 기능을 추가 상황에 맞는 기능을 추가하는 방법에 대해 더 배우고.
train_filename = "./data/examples/train_movielens_1m.tfrecord"
train = tf.data.TFRecordDataset(train_filename)
test_filename = "./data/examples/test_movielens_1m.tfrecord"
test = tf.data.TFRecordDataset(test_filename)
feature_description = {
'context_movie_id': tf.io.FixedLenFeature([10], tf.int64, default_value=np.repeat(0, 10)),
'context_movie_rating': tf.io.FixedLenFeature([10], tf.float32, default_value=np.repeat(0, 10)),
'context_movie_year': tf.io.FixedLenFeature([10], tf.int64, default_value=np.repeat(1980, 10)),
'context_movie_genre': tf.io.FixedLenFeature([10], tf.string, default_value=np.repeat("Drama", 10)),
'label_movie_id': tf.io.FixedLenFeature([1], tf.int64, default_value=0),
}
def _parse_function(example_proto):
return tf.io.parse_single_example(example_proto, feature_description)
train_ds = train.map(_parse_function).map(lambda x: {
"context_movie_id": tf.strings.as_string(x["context_movie_id"]),
"label_movie_id": tf.strings.as_string(x["label_movie_id"])
})
test_ds = test.map(_parse_function).map(lambda x: {
"context_movie_id": tf.strings.as_string(x["context_movie_id"]),
"label_movie_id": tf.strings.as_string(x["label_movie_id"])
})
for x in train_ds.take(1).as_numpy_iterator():
pprint.pprint(x)
{'context_movie_id': array([b'2589', b'202', b'1038', b'1767', b'951', b'129', b'1256', b'955', b'3097', b'3462'], dtype=object), 'label_movie_id': array([b'3629'], dtype=object)}
이제 우리의 훈련/테스트 데이터 세트에는 일련의 과거 영화 ID와 다음 영화 ID의 레이블만 포함됩니다. 참고 우리가 사용하는 [10]
컨텍스트의 길이가 예 generateion 단계에서 특징으로 tf.Example 파싱시 기능의 형태는 우리가 10으로 지정하기 때문에.
모델 구축을 시작하기 전에 영화 ID에 대한 어휘가 하나 더 필요합니다.
movies = tfds.load("movielens/1m-movies", split='train')
movies = movies.map(lambda x: x["movie_id"])
movie_ids = movies.batch(1_000)
unique_movie_ids = np.unique(np.concatenate(list(movie_ids)))
순차 모델 구현
우리에서 기본 검색 자습서 , 우리는 하나 개의 사용자에 대한 질의 타워 및 후보 영화 후보 견인을 사용합니다. 그러나 2-타워 아키텍처는 일반화할 수 있으며 이에 국한되지 않습니다.
여기서 우리는 여전히 2개의 타워 아키텍처를 사용할 것입니다. Specificially, 우리는 함께 질의 타워를 사용 정문이 재발 단위 (GRU) 계층 역사적 영화의 순서를 인코딩 및 후보 영화 같은 후보 타워를 유지.
embedding_dimension = 32
query_model = tf.keras.Sequential([
tf.keras.layers.StringLookup(
vocabulary=unique_movie_ids, mask_token=None),
tf.keras.layers.Embedding(len(unique_movie_ids) + 1, embedding_dimension),
tf.keras.layers.GRU(embedding_dimension),
])
candidate_model = tf.keras.Sequential([
tf.keras.layers.StringLookup(
vocabulary=unique_movie_ids, mask_token=None),
tf.keras.layers.Embedding(len(unique_movie_ids) + 1, embedding_dimension)
])
메트릭, 작업 및 전체 모델은 기본 검색 모델과 유사하게 정의됩니다.
metrics = tfrs.metrics.FactorizedTopK(
candidates=movies.batch(128).map(candidate_model)
)
task = tfrs.tasks.Retrieval(
metrics=metrics
)
class Model(tfrs.Model):
def __init__(self, query_model, candidate_model):
super().__init__()
self._query_model = query_model
self._candidate_model = candidate_model
self._task = task
def compute_loss(self, features, training=False):
watch_history = features["context_movie_id"]
watch_next_label = features["label_movie_id"]
query_embedding = self._query_model(watch_history)
candidate_embedding = self._candidate_model(watch_next_label)
return self._task(query_embedding, candidate_embedding, compute_metrics=not training)
피팅 및 평가
이제 순차 검색 모델을 컴파일, 훈련 및 평가할 수 있습니다.
model = Model(query_model, candidate_model)
model.compile(optimizer=tf.keras.optimizers.Adagrad(learning_rate=0.1))
cached_train = train_ds.shuffle(10_000).batch(12800).cache()
cached_test = test_ds.batch(2560).cache()
model.fit(cached_train, epochs=3)
Epoch 1/3 67/67 [==============================] - 25s 291ms/step - factorized_top_k/top_1_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_5_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_10_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_50_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_100_categorical_accuracy: 0.0000e+00 - loss: 107448.4467 - regularization_loss: 0.0000e+00 - total_loss: 107448.4467 Epoch 2/3 67/67 [==============================] - 2s 25ms/step - factorized_top_k/top_1_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_5_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_10_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_50_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_100_categorical_accuracy: 0.0000e+00 - loss: 100932.0125 - regularization_loss: 0.0000e+00 - total_loss: 100932.0125 Epoch 3/3 67/67 [==============================] - 2s 25ms/step - factorized_top_k/top_1_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_5_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_10_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_50_categorical_accuracy: 0.0000e+00 - factorized_top_k/top_100_categorical_accuracy: 0.0000e+00 - loss: 99336.2015 - regularization_loss: 0.0000e+00 - total_loss: 99336.2015 <keras.callbacks.History at 0x7f0904d5b410>
model.evaluate(cached_test, return_dict=True)
37/37 [==============================] - 10s 235ms/step - factorized_top_k/top_1_categorical_accuracy: 0.0146 - factorized_top_k/top_5_categorical_accuracy: 0.0780 - factorized_top_k/top_10_categorical_accuracy: 0.1358 - factorized_top_k/top_50_categorical_accuracy: 0.3735 - factorized_top_k/top_100_categorical_accuracy: 0.5058 - loss: 15478.0652 - regularization_loss: 0.0000e+00 - total_loss: 15478.0652 {'factorized_top_k/top_1_categorical_accuracy': 0.014605699107050896, 'factorized_top_k/top_5_categorical_accuracy': 0.07804987579584122, 'factorized_top_k/top_10_categorical_accuracy': 0.1358330100774765, 'factorized_top_k/top_50_categorical_accuracy': 0.3735221028327942, 'factorized_top_k/top_100_categorical_accuracy': 0.5058262944221497, 'loss': 9413.1240234375, 'regularization_loss': 0, 'total_loss': 9413.1240234375}
이것으로 순차 검색 튜토리얼을 마칩니다.