TFX 사용자 가이드

소개

TFX는 TensorFlow를 기반으로 하는 Google 프로덕션 규모의 머신러닝(ML) 플랫폼입니다. 이는 기계 학습 시스템을 정의, 실행 및 모니터링하는 데 필요한 공통 구성 요소를 통합하기 위한 구성 프레임워크와 공유 라이브러리를 제공합니다.

TFX 1.0

TFX 1.0.0 출시를 발표하게 되어 기쁘게 생각합니다. 이는 안정적인 공개 API 및 아티팩트를 제공하는 TFX의 초기 베타 버전 릴리스입니다. 향후 TFX 파이프라인은 이 RFC 에 정의된 호환성 범위 내에서 업그레이드 후에도 계속 작동할 것이라고 확신할 수 있습니다.

설치

파이썬PyPI

pip install tfx

야간 패키지

TFX는 또한 Google Cloud의 https://pypi-nightly.tensorflow.org 에서 Nightly 패키지를 호스팅합니다. 최신 nightly 패키지를 설치하려면 다음 명령을 사용하십시오.

pip install --extra-index-url https://pypi-nightly.tensorflow.org/simple --pre tfx

이렇게 하면 TensorFlow Model Analysis(TFMA), TensorFlow Data Validation(TFDV), TensorFlow Transform(TFT), TFX 기본 공유 라이브러리(TFX-BSL), ML 메타데이터(MLMD)와 같은 TFX의 주요 종속성을 위한 Nightly 패키지가 설치됩니다.

TFX 소개

TFX는 프로덕션 환경에서 ML 워크플로를 구축하고 관리하기 위한 플랫폼입니다. TFX는 다음을 제공합니다.

  • ML 파이프라인 구축을 위한 툴킷입니다. TFX 파이프라인을 사용하면 Apache Airflow, Apache Beam, Kubeflow Pipelines와 같은 여러 플랫폼에서 ML 워크플로를 조정할 수 있습니다.

    TFX 파이프라인에 대해 자세히 알아보세요 .

  • 파이프라인의 일부로 또는 ML 학습 스크립트의 일부로 사용할 수 있는 표준 구성요소 세트입니다. TFX 표준 구성요소는 ML 프로세스 구축을 쉽게 시작하는 데 도움이 되는 검증된 기능을 제공합니다.

    TFX 표준 구성요소에 대해 자세히 알아보세요 .

  • 많은 표준 구성 요소에 대한 기본 기능을 제공하는 라이브러리입니다. TFX 라이브러리를 사용하여 이 기능을 자체 맞춤 구성요소에 추가하거나 별도로 사용할 수 있습니다.

    TFX 라이브러리에 대해 자세히 알아보세요 .

TFX는 TensorFlow를 기반으로 하는 Google 프로덕션 규모의 머신러닝 도구 키트입니다. 이는 기계 학습 시스템을 정의, 실행 및 모니터링하는 데 필요한 공통 구성 요소를 통합하기 위한 구성 프레임워크와 공유 라이브러리를 제공합니다.

TFX 표준 구성요소

TFX 파이프라인은 확장 가능한 고성능 머신러닝 작업을 위해 특별히 설계된 ML 파이프라인을 구현하는 일련의 구성요소입니다. 여기에는 온라인, 기본 모바일 및 JavaScript 대상에 대한 모델링, 교육, 추론 제공 및 배포 관리가 포함됩니다.

TFX 파이프라인에는 일반적으로 다음 구성요소가 포함됩니다.

  • exampleGen은 입력 데이터 세트를 수집하고 선택적으로 분할하는 파이프라인의 초기 입력 구성 요소입니다.

  • StatisticsGen은 데이터 세트에 대한 통계를 계산합니다.

  • SchemaGen은 통계를 검사하고 데이터 스키마를 생성합니다.

  • exampleValidator는 데이터 세트에서 변칙과 누락된 값을 찾습니다.

  • Transform은 데이터 세트에 대한 기능 엔지니어링을 수행합니다.

  • 트레이너가 모델을 훈련합니다.

  • 튜너는 모델의 하이퍼파라미터를 조정합니다.

  • 평가자는 교육 결과에 대한 심층 분석을 수행하고 내보낸 모델의 유효성을 검사하여 해당 모델이 프로덕션에 적용하기에 "충분히 좋은"지 확인하는 데 도움을 줍니다.

  • InfraValidator는 모델이 실제로 인프라에서 제공 가능한지 확인하고 잘못된 모델이 푸시되는 것을 방지합니다.

  • Pusher는 서비스 제공 인프라에 모델을 배포합니다.

  • BulkInferrer는 레이블이 지정되지 않은 추론 요청이 있는 모델에 대해 일괄 처리를 수행합니다.

이 다이어그램은 이러한 구성 요소 간의 데이터 흐름을 보여줍니다.

구성 요소 흐름

TFX 라이브러리

TFX에는 라이브러리와 파이프라인 구성요소가 모두 포함됩니다. 이 다이어그램은 TFX 라이브러리와 파이프라인 구성요소 간의 관계를 보여줍니다.

라이브러리 및 구성 요소

TFX는 파이프라인 구성요소를 만드는 데 사용되는 라이브러리인 여러 Python 패키지를 제공합니다. 코드가 파이프라인의 고유한 측면에 집중할 수 있도록 이러한 라이브러리를 사용하여 파이프라인의 구성 요소를 생성합니다.

TFX 라이브러리에는 다음이 포함됩니다.

  • TFDV(TensorFlow Data Validation)는 머신러닝 데이터를 분석하고 검증하기 위한 라이브러리입니다. 확장성이 뛰어나고 TensorFlow 및 TFX와 잘 작동하도록 설계되었습니다. TFDV에는 다음이 포함됩니다.

    • 훈련 및 테스트 데이터의 요약 통계를 확장 가능하게 계산합니다.
    • 데이터 분포 및 통계를 위한 뷰어와 통합은 물론 데이터 세트 쌍(Facets)의 패싯 비교도 가능합니다.
    • 필수 값, 범위, 어휘와 같은 데이터에 대한 기대치를 설명하는 자동화된 데이터 스키마 생성.
    • 스키마를 검사하는 데 도움이 되는 스키마 뷰어입니다.
    • 몇 가지 예를 들자면 누락된 특징, 범위를 벗어난 값 또는 잘못된 특징 유형과 같은 이상 현상을 식별하는 이상 탐지입니다.
    • 어떤 기능에 이상이 있는지 확인하고 이를 수정하기 위해 자세히 알아볼 수 있는 이상 뷰어입니다.
  • TensorFlow Transform(TFT)은 TensorFlow를 사용하여 데이터를 전처리하기 위한 라이브러리입니다. TensorFlow Transform은 다음과 같이 전체 전달이 필요한 데이터에 유용합니다.

    • 평균과 표준편차로 입력값을 정규화합니다.
    • 모든 입력 값에 대한 어휘를 생성하여 문자열을 정수로 변환합니다.
    • 관찰된 데이터 분포를 기반으로 부동 소수점을 버킷에 할당하여 정수로 변환합니다.
  • TensorFlow는 TFX를 사용한 모델 학습에 사용됩니다. 훈련 데이터와 모델링 코드를 수집하고 SavedModel 결과를 생성합니다. 또한 입력 데이터 전처리를 위해 TensorFlow Transform으로 생성된 기능 엔지니어링 파이프라인을 통합합니다.

    KerasTuner는 모델의 하이퍼파라미터를 조정하는 데 사용됩니다.

  • TFMA(TensorFlow Model Analysis)는 TensorFlow 모델을 평가하기 위한 라이브러리입니다. 이는 TensorFlow와 함께 분석의 기초가 되는 EvalSavedModel을 생성하는 데 사용됩니다. 이를 통해 사용자는 트레이너에 정의된 동일한 측정항목을 사용하여 분산 방식으로 대량의 데이터에 대한 모델을 평가할 수 있습니다. 이러한 측정항목은 다양한 데이터 조각에 대해 계산되고 Jupyter 노트북에서 시각화될 수 있습니다.

  • TensorFlow Metadata(TFMD)는 TensorFlow를 사용하여 기계 학습 모델을 학습할 때 유용한 메타데이터에 대한 표준 표현을 제공합니다. 메타데이터는 입력 데이터 분석 중에 수동으로 또는 자동으로 생성될 수 있으며 데이터 검증, 탐색 및 변환을 위해 사용될 수 있습니다. 메타데이터 직렬화 형식은 다음과 같습니다.

    • 표 형식 데이터를 설명하는 스키마(예: tf.Examples)
    • 해당 데이터세트에 대한 요약 통계 모음입니다.
  • MLMD(ML Metadata)는 ML 개발자 및 데이터 과학자 워크플로와 관련된 메타데이터를 기록하고 검색하기 위한 라이브러리입니다. 대부분의 경우 메타데이터는 TFMD 표현을 사용합니다. MLMD는 SQL-Lite , MySQL 및 기타 유사한 데이터 저장소를 사용하여 지속성을 관리합니다.

지원 기술

필수의

  • Apache Beam은 일괄 및 스트리밍 데이터 병렬 처리 파이프라인을 모두 정의하기 위한 오픈소스 통합 모델입니다. TFX는 Apache Beam을 사용하여 데이터 병렬 파이프라인을 구현합니다. 그런 다음 파이프라인은 Apache Flink, Apache Spark, Google Cloud Dataflow 등을 포함하여 Beam에서 지원되는 분산 처리 백엔드 중 하나에 의해 실행됩니다.

선택 과목

Apache Airflow 및 Kubeflow와 같은 오케스트레이터를 사용하면 ML 파이프라인을 더 쉽게 구성, 운영, 모니터링, 유지 관리할 수 있습니다.

  • Apache Airflow 는 워크플로를 프로그래밍 방식으로 작성, 예약 및 모니터링하는 플랫폼입니다. TFX는 Airflow를 사용하여 작업의 방향성 비순환 그래프(DAG)로 워크플로를 작성합니다. Airflow 스케줄러는 지정된 종속 항목을 따르면서 작업자 배열에서 작업을 실행합니다. 풍부한 명령줄 유틸리티를 사용하면 DAG에 대한 복잡한 수술을 간단하게 수행할 수 있습니다. 풍부한 사용자 인터페이스를 통해 프로덕션에서 실행 중인 파이프라인을 쉽게 시각화하고, 진행 상황을 모니터링하고, 필요할 때 문제를 해결할 수 있습니다. 워크플로를 코드로 정의하면 유지 관리, 버전 관리, 테스트 및 협업이 더욱 용이해집니다.

  • Kubeflow는 Kubernetes에서 기계 학습(ML) 워크플로를 간단하고 이식 가능하며 확장 가능하게 배포하는 데 전념하고 있습니다. Kubeflow의 목표는 다른 서비스를 재현하는 것이 아니라 ML용 최고의 오픈소스 시스템을 다양한 인프라에 배포할 수 있는 간단한 방법을 제공하는 것입니다. Kubeflow Pipelines를 사용하면 실험 및 노트북 기반 경험과 통합된 Kubeflow에서 재현 가능한 워크플로를 구성하고 실행할 수 있습니다. Kubernetes의 Kubeflow Pipelines 서비스에는 호스팅된 메타데이터 저장소, 컨테이너 기반 오케스트레이션 엔진, 노트북 서버, UI가 포함되어 사용자가 규모에 맞게 복잡한 ML 파이프라인을 개발, 실행, 관리하는 데 도움이 됩니다. Kubeflow Pipelines SDK를 사용하면 프로그래밍 방식으로 구성요소와 파이프라인 구성을 생성 및 공유할 수 있습니다.

이식성 및 상호 운용성

TFX는 Apache Airflow , Apache Beam , Kubeflow 를 포함한 여러 환경 및 오케스트레이션 프레임워크에 이식 가능하도록 설계되었습니다. 또한 온프레미스 및 Google Cloud Platform(GCP) 과 같은 클라우드 플랫폼을 포함한 다양한 컴퓨팅 플랫폼으로 이식 가능합니다. 특히 TFX는 학습 및 예측을 위한 Cloud AI Platform , ML 수명 주기의 여러 측면에 대한 분산 데이터 처리를 위한 Cloud Dataflow 와 같은 여러 관리형 GCP 서비스와 상호 운용됩니다.

모델과 저장된 모델

모델

모델은 훈련 과정의 결과물입니다. 훈련과정에서 학습된 가중치를 직렬화된 기록으로 나타낸 것입니다. 이러한 가중치는 이후에 새로운 입력 예에 대한 예측을 계산하는 데 사용될 수 있습니다. TFX 및 TensorFlow의 경우 '모델'은 해당 지점까지 학습된 가중치가 포함된 체크포인트를 나타냅니다.

'모델'은 예측이 계산되는 방식을 표현하는 TensorFlow 계산 그래프(예: Python 파일)의 정의를 참조할 수도 있습니다. 두 가지 의미는 문맥에 따라 상호 교환적으로 사용될 수 있습니다.

저장된모델

  • SavedModel 이란 무엇입니까 ? TensorFlow 모델의 보편적이고 언어 중립적이며 밀폐적이고 복구 가능한 직렬화입니다.
  • 중요한 이유 : 단일 추상화를 사용하여 상위 수준 시스템에서 TensorFlow 모델을 생성, 변환 및 소비할 수 있습니다.

SavedModel은 프로덕션에서 TensorFlow 모델을 제공하거나 기본 모바일 또는 JavaScript 애플리케이션용으로 훈련된 모델을 내보내는 데 권장되는 직렬화 형식입니다. 예를 들어 예측을 위해 모델을 REST 서비스로 전환하려면 모델을 SavedModel로 직렬화하고 TensorFlow Serving을 사용하여 제공할 수 있습니다. 자세한 내용은 TensorFlow 모델 제공을 참조하세요.

개요

일부 TFX 구성요소는 스키마 라고 하는 입력 데이터에 대한 설명을 사용합니다. 스키마는 Schema.proto 의 인스턴스입니다. 스키마는 프로토콜 버퍼 의 한 유형으로, 일반적으로 "protobuf"로 알려져 있습니다. 스키마는 특성 값의 데이터 유형, 특성이 모든 예에 있어야 하는지 여부, 허용되는 값 범위 및 기타 속성을 지정할 수 있습니다. TFDV(TensorFlow Data Validation) 사용의 이점 중 하나는 학습 데이터에서 유형, 카테고리 및 범위를 추론하여 자동으로 스키마를 생성한다는 것입니다.

다음은 스키마 protobuf에서 발췌한 내용입니다.

...
feature {
  name: "age"
  value_count {
    min: 1
    max: 1
  }
  type: FLOAT
  presence {
    min_fraction: 1
    min_count: 1
  }
}
feature {
  name: "capital-gain"
  value_count {
    min: 1
    max: 1
  }
  type: FLOAT
  presence {
    min_fraction: 1
    min_count: 1
  }
}
...

다음 구성요소는 스키마를 사용합니다.

  • TensorFlow 데이터 검증
  • TensorFlow 변환

일반적인 TFX 파이프라인에서 TensorFlow Data Validation은 다른 구성요소에서 사용되는 스키마를 생성합니다.

TFX로 개발

TFX는 로컬 머신에 대한 연구, 실험, 개발부터 배포까지 머신러닝 프로젝트의 모든 단계에 강력한 플랫폼을 제공합니다. 코드 중복을 방지하고 학습/제공 편향 가능성을 제거하려면 모델 학습 및 학습된 모델 배포 모두를 위해 TFX 파이프라인을 구현하고 학습 및 추론 모두에 TensorFlow Transform 라이브러리를 활용하는 Transform 구성요소를 사용하는 것이 좋습니다. 이렇게 하면 동일한 전처리 및 분석 코드를 일관되게 사용하고 훈련에 사용된 데이터와 프로덕션에서 훈련된 모델에 공급된 데이터 간의 차이를 피할 수 있을 뿐만 아니라 해당 코드를 한 번 작성함으로써 이점을 얻을 수 있습니다.

데이터 탐색, 시각화 및 정리

데이터 탐색, 시각화 및 정리

TFX 파이프라인은 일반적으로 입력 데이터를 받아들이고 이를 tf.Examples로 형식화하는 ExampleGen 구성요소로 시작됩니다. 종종 이 작업은 데이터가 훈련 및 평가 데이터 세트로 분할되어 실제로 훈련 및 평가용으로 각각 하나씩, 두 개의 예제Gen 구성 요소 복사본이 있게 된 후에 수행됩니다. 일반적으로 StatisticsGen 구성 요소와 SchemaGen 구성 요소가 뒤따라 데이터를 검사하고 데이터 스키마와 통계를 추론합니다. 스키마와 통계는 데이터의 이상치, 누락된 값, 잘못된 데이터 유형을 찾는 exampleValidator 구성 요소에 의해 사용됩니다. 이러한 모든 구성 요소는 TensorFlow 데이터 검증 라이브러리의 기능을 활용합니다.

TFDV(TensorFlow Data Validation)는 데이터 세트의 초기 탐색, 시각화 및 정리를 수행할 때 유용한 도구입니다. TFDV는 데이터를 검사하고 데이터 유형, 범주, 범위를 추론한 다음 자동으로 이상치와 누락된 값을 식별하는 데 도움을 줍니다. 또한 데이터세트를 조사하고 이해하는 데 도움이 되는 시각화 도구도 제공합니다. 파이프라인이 완료되면 MLMD 에서 메타데이터를 읽고 Jupyter 노트북에서 TFDV의 시각화 도구를 사용하여 데이터를 분석할 수 있습니다.

초기 모델 교육 및 배포 후 TFDV를 사용하여 추론 요청에서 배포된 모델에 이르는 새 데이터를 모니터링하고 이상 현상 및/또는 드리프트를 찾을 수 있습니다. 이는 추세나 계절성으로 인해 시간이 지남에 따라 변하는 시계열 데이터에 특히 유용하며, 데이터 문제가 있거나 새 데이터에 대해 모델을 재교육해야 하는 시기를 알려주는 데 도움이 될 수 있습니다.

데이터 시각화

TFDV(일반적으로 StatisticsGen, SchemaGen 및 exampleValidator)를 사용하는 파이프라인 섹션을 통해 데이터의 첫 번째 실행을 완료한 후 Jupyter 스타일 노트북에서 결과를 시각화할 수 있습니다. 추가 실행의 경우 데이터가 모델 및 애플리케이션에 최적이 될 때까지 조정하면서 이러한 결과를 비교할 수 있습니다.

먼저 MLMD(ML Metadata)를 쿼리하여 이러한 구성요소의 실행 결과를 찾은 다음 TFDV의 시각화 지원 API를 사용하여 노트북에 시각화를 생성합니다. 여기에는 tfdv.load_statistics()tfdv.visualize_statistics() 가 포함됩니다. 이 시각화를 사용하면 데이터 세트의 특성을 더 잘 이해할 수 있으며 필요한 경우 필요에 따라 수정할 수 있습니다.

모델 개발 및 교육

기능 엔지니어링

일반적인 TFX 파이프라인에는 TFT(TensorFlow Transform) 라이브러리의 기능을 활용하여 기능 엔지니어링을 수행하는 Transform 구성요소가 포함됩니다. Transform 구성 요소는 SchemaGen 구성 요소에서 생성된 스키마를 사용하고 데이터 변환을 적용하여 모델 교육에 사용할 기능을 생성, 결합 및 변환합니다. 누락된 값 정리 및 유형 변환도 추론 요청을 위해 전송된 데이터에 존재할 가능성이 있는 경우 변환 구성 요소에서 수행되어야 합니다. TFX 학습을 위한 TensorFlow 코드를 설계할 때 몇 가지 중요한 고려 사항이 있습니다 .

모델링 및 교육

Transform 구성 요소의 결과는 Trainer 구성 요소 중에 TensorFlow의 모델링 코드에서 가져와 사용되는 SavedModel입니다. 이 저장된 모델에는 변환 구성 요소에서 생성된 모든 데이터 엔지니어링 변환이 포함되어 있으므로 훈련 및 추론 중에 동일한 코드를 사용하여 동일한 변환이 수행됩니다. Transform 구성 요소의 SavedModel을 포함한 모델링 코드를 사용하면 교육 및 평가 데이터를 사용하고 모델을 교육할 수 있습니다.

Estimator 기반 모델로 작업할 때 모델링 코드의 마지막 섹션에서는 모델을 SavedModel 및 EvalSavedModel로 저장해야 합니다. EvalSavedModel로 저장하면 훈련 시 사용된 측정항목을 평가 중에도 사용할 수 있습니다(Keras 기반 모델에는 필요하지 않음). EvalSavedModel을 저장하려면 Trainer 구성 요소에서 TFMA(TensorFlow Model Analysis) 라이브러리를 가져와야 합니다.

import tensorflow_model_analysis as tfma
...

tfma.export.export_eval_savedmodel(
        estimator=estimator,
        export_dir_base=eval_model_dir,
        eval_input_receiver_fn=receiver_fn)

모델의 하이퍼파라미터(예: 레이어 수)를 조정하기 위해 Trainer 앞에 선택적 Tuner 구성 요소를 추가할 수 있습니다. 주어진 모델과 하이퍼파라미터의 검색 공간을 사용하여 튜닝 알고리즘은 목표에 따라 최상의 하이퍼파라미터를 찾습니다.

모델 성능 분석 및 이해

모델 분석

초기 모델 개발 및 교육 후에는 모델 성능을 분석하고 실제로 이해하는 것이 중요합니다. 일반적인 TFX 파이프라인에는 이 개발 단계를 위한 강력한 도구 세트를 제공하는 TensorFlow Model Analysis(TFMA) 라이브러리의 기능을 활용하는 Evaluator 구성요소가 포함됩니다. Evaluator 구성 요소는 위에서 내보낸 모델을 사용하며, 모델 성능을 시각화하고 분석할 때 사용할 수 있는 tfma.SlicingSpec 목록을 지정할 수 있습니다. 각 SlicingSpec 범주형 기능에 대한 특정 범주 또는 숫자 기능에 대한 특정 범위와 같이 검사하려는 학습 데이터 조각을 정의합니다.

예를 들어, 이는 연간 구매, 지리적 데이터, 연령 그룹 또는 성별을 기준으로 분류할 수 있는 다양한 고객 세그먼트에 대한 모델 성능을 이해하는 데 중요합니다. 이는 지배적인 그룹의 성능이 중요하지만 규모가 작은 그룹에 대해 허용할 수 없는 성능을 가릴 수 있는 긴 꼬리가 있는 데이터 세트의 경우 특히 중요할 수 있습니다. 예를 들어, 모델이 일반 직원에게는 잘 작동하지만 경영진에게는 비참하게 실패할 수 있으므로 이를 아는 것이 중요할 수 있습니다.

모델 분석 및 시각화

모델 교육을 통해 첫 번째 데이터 실행을 완료하고 교육 결과에 대해 Evaluator 구성 요소( TFMA 활용)를 실행한 후 결과를 Jupyter 스타일 노트북으로 시각화할 수 있습니다. 추가 실행의 경우 결과가 모델 및 응용 프로그램에 가장 적합할 때까지 조정하면서 이러한 결과를 비교할 수 있습니다.

먼저 MLMD(ML Metadata)를 쿼리하여 이러한 구성 요소의 실행 결과를 찾은 다음 TFMA의 시각화 지원 API를 사용하여 노트북에 시각화를 만듭니다. 여기에는 tfma.load_eval_resultstfma.view.render_slicing_metrics 가 포함됩니다. 이 시각화를 사용하면 모델의 특성을 더 잘 이해할 수 있으며 필요한 경우 필요에 따라 수정할 수 있습니다.

모델 성능 검증

모델 성능을 분석하는 과정에서 기준(예: 현재 서비스를 제공하는 모델)을 기준으로 성능을 검증할 수 있습니다. 모델 검증은 후보 모델과 기준 모델을 모두 Evaluator 구성 요소에 전달하여 수행됩니다. 평가자는 해당 diff 메트릭 세트와 함께 후보와 기준 모두에 대한 메트릭(예: AUC, 손실)을 계산합니다. 그런 다음 임계값을 적용하여 모델을 프로덕션으로 푸시하는 데 사용할 수 있습니다.

모델이 제공될 수 있는지 검증

인프라 검증

학습된 모델을 배포하기 전에 모델이 실제로 제공 인프라에서 제공 가능한지 여부를 검증할 수 있습니다. 이는 새로 게시된 모델로 인해 시스템이 예측을 제공하는 데 방해가 되지 않도록 프로덕션 환경에서 특히 중요합니다. InfraValidator 구성 요소는 샌드박스 환경에서 모델의 카나리아 배포를 수행하고 선택적으로 모델이 올바르게 작동하는지 확인하기 위해 실제 요청을 보냅니다.

배포 대상

만족스러운 모델을 개발하고 학습했다면 이제 추론 요청을 받을 하나 이상의 배포 대상에 모델을 배포할 차례입니다. TFX는 세 가지 배포 대상 클래스에 대한 배포를 지원합니다. 저장된 모델로 내보낸 훈련된 모델은 이러한 배포 대상 중 일부 또는 전부에 배포될 수 있습니다.

구성 요소 흐름

추론: TensorFlow Serving

TensorFlow Serving(TFS)은 프로덕션 환경을 위해 설계된 머신러닝 모델을 위한 유연한 고성능 제공 시스템입니다. 저장된 모델을 사용하고 REST 또는 gRPC 인터페이스를 통한 추론 요청을 수락합니다. 이는 동기화 및 분산 계산을 처리하기 위해 여러 고급 아키텍처 중 하나를 사용하여 하나 이상의 네트워크 서버에서 일련의 프로세스로 실행됩니다. TFS 솔루션 개발 및 배포에 대한 자세한 내용은 TFS 설명서를 참조하세요.

일반적인 파이프라인에서는 Trainer 구성 요소에서 훈련된 SavedModel이 먼저 InfraValidator 구성 요소에서 인프라 검증을 받습니다. InfraValidator는 Canary TFS 모델 서버를 시작하여 실제로 SavedModel을 제공합니다. 유효성 검사가 통과되면 Pusher 구성 요소는 최종적으로 저장된 모델을 TFS 인프라에 배포합니다. 여기에는 여러 버전 및 모델 업데이트 처리가 포함됩니다.

네이티브 모바일 및 IoT 애플리케이션의 추론: TensorFlow Lite

TensorFlow Lite는 개발자가 기본 모바일 및 IoT 애플리케이션에서 훈련된 TensorFlow 모델을 사용할 수 있도록 돕는 전용 도구 모음입니다. TensorFlow Serving과 동일한 저장된 모델을 사용하고 양자화 및 정리와 같은 최적화를 적용하여 모바일 및 IoT 장치에서 실행되는 문제에 대해 결과 모델의 크기와 성능을 최적화합니다. TensorFlow Lite 사용에 대한 자세한 내용은 TensorFlow Lite 설명서를 참조하세요.

JavaScript의 추론: TensorFlow JS

TensorFlow JS는 브라우저와 Node.js에서 ML 모델을 훈련하고 배포하기 위한 JavaScript 라이브러리입니다. TensorFlow Serving 및 TensorFlow Lite와 동일한 저장된 모델을 사용하고 이를 TensorFlow.js 웹 형식으로 변환합니다. TensorFlow JS 사용에 대한 자세한 내용은 TensorFlow JS 설명서를 참조하세요.

Airflow를 사용하여 TFX 파이프라인 만들기

자세한 내용은 공기 흐름 워크숍을 확인하세요.

Kubeflow로 TFX 파이프라인 만들기

설정

Kubeflow에서는 파이프라인을 대규모로 실행하기 위해 Kubernetes 클러스터가 필요합니다. Kubeflow 클러스터 배포 옵션을 안내하는 Kubeflow 배포 가이드라인을 참조하세요.

TFX 파이프라인 구성 및 실행

Kubeflow에서 TFX 예시 파이프라인을 실행하려면 Cloud AI Platform 파이프라인의 TFX 튜토리얼을 따르세요. TFX 구성요소는 Kubeflow 파이프라인을 구성하기 위해 컨테이너화되었으며 샘플은 대규모 공개 데이터 세트를 읽고 클라우드에서 대규모로 학습 및 데이터 처리 단계를 실행하도록 파이프라인을 구성하는 기능을 보여줍니다.

파이프라인 작업을 위한 명령줄 인터페이스

TFX는 Apache Airflow, Apache Beam, Kubeflow를 포함한 다양한 조정자에서 파이프라인 생성, 업데이트, 실행, 나열, 삭제와 같은 전체 범위의 파이프라인 작업을 수행하는 데 도움이 되는 통합 CLI를 제공합니다. 자세한 내용을 보려면 다음 지침을 따르세요.