テンソルフロー::クライアントセッション
#include <client_session.h>
ClientSession
オブジェクトを使用すると、呼び出し元は C++ API で構築された TensorFlow グラフの評価を駆動できます。
まとめ
例:
Scope root = Scope::NewRootScope(); auto a = Placeholder(root, DT_INT32); auto c = Add(root, a, {41}); ClientSession session(root); std::vectoroutputs; Status s = session.Run({ {a, {1} } }, {c}, &outputs); if (!s.ok()) { ... }
コンストラクターとデストラクター | |
---|---|
ClientSession (const Scope & scope, const string & target) target で指定された TensorFlow ランタイムに接続して、 scope に含まれるグラフを評価するための新しいセッションを作成します。 | |
ClientSession (const Scope & scope) 上記と同様ですが、ターゲット指定として空の文字列 ("") を使用します。 | |
ClientSession (const Scope & scope, const SessionOptions & session_options) 新しいセッションを作成し、 session_options で構成します。 | |
~ClientSession () |
パブリック型 | |
---|---|
CallableHandle | typedefint64 ClientSession::MakeCallable() で作成されたサブグラフへのハンドル。 |
FeedType | typedefstd::unordered_map< Output , Input::Initializer , OutputHash > Run 呼び出しへのフィードを表すデータ型。 |
公共機能 | |
---|---|
MakeCallable (const CallableOptions & callable_options, CallableHandle *out_handle) | Status callable_options で定義されたサブグラフを呼び出すためのhandle を作成します。 |
ReleaseCallable ( CallableHandle handle) | Status このセッションで指定された handle に関連付けられたリソースを解放します。 |
Run (const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs) const | Status fetch_outputs でテンソルを評価します。 |
Run (const FeedType & inputs, const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs) const | Status 上記と同じですが、 inputs のマッピングをフィードとして使用します。 |
Run (const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs) const | Status 同上。さらに、 run_outputs 内の操作を実行します。 |
Run (const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata) const | Status run_options を使用してパフォーマンス プロファイリングを有効にします。 |
Run (const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata, const thread::ThreadPoolOptions & threadpool_options) const | Status 同上。 |
RunCallable ( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata) | Status 指定されたオプションと入力テンソルを使用して、 handle で指定されたサブグラフを呼び出します。 |
RunCallable ( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata, const thread::ThreadPoolOptions & options) | Status 指定されたオプションと入力テンソルを使用して、 handle で指定されたサブグラフを呼び出します。 |
パブリック型
フィードタイプ
std::unordered_map< Output, Input::Initializer, OutputHash > FeedType
Run 呼び出しへのフィードを表すデータ型。
これは、op-constructor によって返されるOutput
オブジェクトと、それらにフィードする値とのマップです。フィード値として使用できるものの詳細については、 Input::Initializer
を参照してください。
公共機能
クライアントセッション
ClientSession( const Scope & scope, const string & target )
target
で指定された TensorFlow ランタイムに接続して、 scope
に含まれるグラフを評価するための新しいセッションを作成します。
クライアントセッション
ClientSession( const Scope & scope, const SessionOptions & session_options )
新しいセッションを作成し、 session_options
で構成します。
MakeCallable
Status MakeCallable( const CallableOptions & callable_options, CallableHandle *out_handle )
callable_options
で定義されたサブグラフを呼び出すためのhandle
を作成します。
注: この API はまだ実験段階にあるため、変更される可能性があります。
ReleaseCallable
Status ReleaseCallable( CallableHandle handle )
このセッションで指定されたhandle
に関連付けられたリソースを解放します。
注: この API はまだ実験段階にあるため、変更される可能性があります。
走る
Status Run( const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs ) const
fetch_outputs
でテンソルを評価します。
値はoutputs
でTensor
オブジェクトとして返されます。 outputs
の数と順序はfetch_outputs
と一致します。
走る
Status Run( const FeedType & inputs, const std::vector< Output > & fetch_outputs, std::vector< Tensor > *outputs ) const
上記と同じですが、 inputs
のマッピングをフィードとして使用します。
走る
Status Run( const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs ) const
同上。さらに、 run_outputs
内の操作を実行します。
走る
Status Run( const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata ) const
run_options
を使用してパフォーマンス プロファイリングを有効にします。
run_metadata
null でない場合、プロファイリング結果が入力されます。
走る
Status Run( const RunOptions & run_options, const FeedType & inputs, const std::vector< Output > & fetch_outputs, const std::vector< Operation > & run_outputs, std::vector< Tensor > *outputs, RunMetadata *run_metadata, const thread::ThreadPoolOptions & threadpool_options ) const
同上。
さらに、ユーザーは ThreadPoolOptions を介してカスタム スレッドプール実装を提供できます。
RunCallable
Status RunCallable( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata )
指定されたオプションと入力テンソルを使用して、 handle
で指定されたサブグラフを呼び出します。
feed_tensors
のテンソルの順序はCallableOptions::feed()
の名前の順序と一致する必要があり、 fetch_tensors
のテンソルの順序は、このサブグラフが作成されたときのCallableOptions::fetch()
の名前の順序と一致します。注: この API はまだ実験段階にあるため、変更される可能性があります。
RunCallable
Status RunCallable( CallableHandle handle, const std::vector< Tensor > & feed_tensors, std::vector< Tensor > *fetch_tensors, RunMetadata *run_metadata, const thread::ThreadPoolOptions & options )
指定されたオプションと入力テンソルを使用して、 handle
で指定されたサブグラフを呼び出します。
feed_tensors
のテンソルの順序はCallableOptions::feed()
の名前の順序と一致する必要があり、 fetch_tensors
のテンソルの順序は、このサブグラフが作成されたときのCallableOptions::fetch()
の名前の順序と一致します。注: この API はまだ実験段階にあるため、変更される可能性があります。
~クライアントセッション
~ClientSession()