텐서플로우:: 클라이언트 세션
#include <client_session.h>
ClientSession
객체를 사용하면 호출자가 C++ API로 구성된 TensorFlow 그래프를 평가할 수 있습니다.
요약
예:
Scope root = Scope::NewRootScope(); auto a = Placeholder(root, DT_INT32); auto c = Add(root, a, {41}); ClientSession session(root); std::vectoroutputs; Status s = session.Run({ {a, {1} } }, {c}, &outputs); if (!s.ok()) { ... }
생성자와 소멸자 | |
---|---|
ClientSession (const Scope & scope, const string & target) target 으로 지정된 TensorFlow 런타임에 연결하여 scope 에 포함된 그래프를 평가하는 새 세션을 만듭니다. | |
ClientSession (const Scope & scope) 위와 동일하지만 대상 지정으로 빈 문자열("")을 사용합니다. | |
ClientSession (const Scope & scope, const SessionOptions & session_options) session_options 로 구성하여 새 세션을 만듭니다. | |
~ClientSession () |
공개 유형 | |
---|---|
CallableHandle | 형식 정의int64 ClientSession::MakeCallable() 사용하여 생성된 하위 그래프에 대한 핸들입니다. |
FeedType | 형식 정의std::unordered_map< Output , Input::Initializer , OutputHash > Run 호출에 대한 피드를 나타내는 데이터 유형입니다. |
공공 기능 | |
---|---|
MakeCallable (const CallableOptions & callable_options, CallableHandle *out_handle) | Status callable_options 에 의해 정의된 하위 그래프를 호출하기 위한 handle 만듭니다. |
ReleaseCallable ( CallableHandle handle) | Status 이 세션에서 지정된 handle 과 관련된 리소스를 해제합니다. |
Run (const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs) const | Status fetch_outputs 에서 텐서를 평가합니다. |
Run (const FeedType & inputs, const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs) const | Status 위와 동일하지만 inputs 의 매핑을 피드로 사용합니다. |
Run (const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs) const | Status 위와 동일합니다. 추가적으로 run_outputs 작업을 실행합니다. |
Run (const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata) const | Status 성능 프로파일링을 켜려면 run_options 사용하십시오. |
Run (const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata, const thread::ThreadPoolOptions & threadpool_options) const | Status 위와 동일합니다. |
RunCallable ( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata) | Status 주어진 옵션과 입력 텐서를 사용하여 handle 이라는 이름의 하위 그래프를 호출합니다. |
RunCallable ( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata, const thread::ThreadPoolOptions & options) | Status 주어진 옵션과 입력 텐서를 사용하여 handle 이라는 이름의 하위 그래프를 호출합니다. |
공개 유형
피드 유형
std::unordered_map< Output, Input::Initializer, OutputHash > FeedType
Run 호출에 대한 피드를 나타내는 데이터 유형입니다.
이는 연산 생성자가 반환한 Output
개체를 해당 개체에 제공할 값으로 매핑한 것입니다. 피드 값으로 사용할 수 있는 항목에 대한 자세한 내용은 Input::Initializer
참조하세요.
공공 기능
클라이언트 세션
ClientSession( const Scope & scope, const string & target )
target
으로 지정된 TensorFlow 런타임에 연결하여 scope
에 포함된 그래프를 평가하는 새 세션을 만듭니다.
클라이언트 세션
ClientSession( const Scope & scope, const SessionOptions & session_options )
session_options
로 구성하여 새 세션을 만듭니다.
호출 가능하게 만들기
Status MakeCallable( const CallableOptions & callable_options, CallableHandle *out_handle )
callable_options
에 의해 정의된 하위 그래프를 호출하기 위한 handle
만듭니다.
참고: 이 API는 아직 실험적이므로 변경될 수 있습니다.
릴리스호출 가능
Status ReleaseCallable( CallableHandle handle )
이 세션에서 지정된 handle
과 관련된 리소스를 해제합니다.
참고: 이 API는 아직 실험적이므로 변경될 수 있습니다.
달리다
Status Run( const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs ) const
fetch_outputs
에서 텐서를 평가합니다.
값은 outputs
에 Tensor
객체로 반환됩니다. outputs
수와 순서는 fetch_outputs
와 일치합니다.
달리다
Status Run( const FeedType & inputs, const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs ) const
위와 동일하지만 inputs
의 매핑을 피드로 사용합니다.
달리다
Status Run( const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs ) const
위와 동일합니다. 추가적으로 run_outputs
작업을 실행합니다.
달리다
Status Run( const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata ) const
성능 프로파일링을 켜려면 run_options
사용하십시오.
run_metadata
null이 아닌 경우 프로파일링 결과로 채워집니다.
달리다
Status Run( const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata, const thread::ThreadPoolOptions & threadpool_options ) const
위와 동일합니다.
또한 사용자가 ThreadPoolOptions를 통해 사용자 정의 스레드 풀 구현을 제공할 수 있습니다.
실행 호출 가능
Status RunCallable( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata )
주어진 옵션과 입력 텐서를 사용하여 handle
이라는 이름의 하위 그래프를 호출합니다.
feed_tensors
의 텐서 순서는 CallableOptions::feed()
의 이름 순서와 일치해야 하며 fetch_tensors
의 텐서 순서는 이 하위 그래프가 생성될 때 CallableOptions::fetch()
의 이름 순서와 일치합니다. 참고: 이 API는 아직 실험적이므로 변경될 수 있습니다.
실행 호출 가능
Status RunCallable( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata, const thread::ThreadPoolOptions & options )
주어진 옵션과 입력 텐서를 사용하여 handle
이라는 이름의 하위 그래프를 호출합니다.
feed_tensors
의 텐서 순서는 CallableOptions::feed()
의 이름 순서와 일치해야 하며 fetch_tensors
의 텐서 순서는 이 하위 그래프가 생성될 때 CallableOptions::fetch()
의 이름 순서와 일치합니다. 참고: 이 API는 아직 실험적이며 변경될 수 있습니다.
~클라이언트 세션
~ClientSession()