공개 최종 클래스 ParallelDynamicStitch
'데이터' 텐서의 값을 단일 텐서에 인터리브합니다.
다음과 같이 병합된 텐서를 구축합니다.
merged[indices[m][i, ..., j], ...] = data[m][i, ..., j, ...]
예를 들어, 각 `indices[m]`이 스칼라 또는 벡터인 경우 다음과 같습니다. # Scalar indices:
merged[indices[m], ...] = data[m][...]
# Vector indices:
merged[indices[m][i], ...] = data[m][i, ...]
각 `data[i].shape`는 해당 `indices[i].shape`로 시작해야 하며 나머지 `data[i].shape`는 상수 wrt `i`여야 합니다. 즉 `data[i].shape = indices[i].shape + 상수`가 있어야 합니다. 이 `상수` 측면에서 출력 형태는 다음과 같습니다.merged.shape = [최대(인덱스)] + 상수
값은 병렬로 병합될 수 있으므로 `indices[m][i]`와 `indices[n][j]` 모두에 색인이 나타나면 결과가 유효하지 않을 수 있습니다. 이는 해당 경우 동작을 정의하는 일반 DynamicStitch 연산자와 다릅니다.
예를 들어:
indices[0] = 6
indices[1] = [4, 1]
indices[2] = [[5, 2], [0, 3]]
data[0] = [61, 62]
data[1] = [[41, 42], [11, 12]]
data[2] = [[[51, 52], [21, 22]], [[1, 2], [31, 32]]]
merged = [[1, 2], [11, 12], [21, 22], [31, 32], [41, 42],
[51, 52], [61, 62]]
이 방법은 다음 예에 설명된 것처럼 `dynamic_partition`으로 생성된 파티션을 병합하는 데 사용할 수 있습니다. # Apply function (increments x_i) on elements for which a certain condition
# apply (x_i != -1 in this example).
x=tf.constant([0.1, -1., 5.2, 4.3, -1., 7.4])
condition_mask=tf.not_equal(x,tf.constant(-1.))
partitioned_data = tf.dynamic_partition(
x, tf.cast(condition_mask, tf.int32) , 2)
partitioned_data[1] = partitioned_data[1] + 1.0
condition_indices = tf.dynamic_partition(
tf.range(tf.shape(x)[0]), tf.cast(condition_mask, tf.int32) , 2)
x = tf.dynamic_stitch(condition_indices, partitioned_data)
# Here x=[1.1, -1., 6.2, 5.3, -1, 8.4], the -1. values remain
# unchanged.
공개 방법
출력 <T> | 출력 () 텐서의 기호 핸들을 반환합니다. |
정적 <T> ParallelDynamicStitch <T> | |
출력 <T> | 병합됨 () |
상속된 메서드
공개 방법
공개 출력 <T> asOutput ()
텐서의 기호 핸들을 반환합니다.
TensorFlow 작업에 대한 입력은 다른 TensorFlow 작업의 출력입니다. 이 메서드는 입력 계산을 나타내는 기호 핸들을 얻는 데 사용됩니다.
public static ParallelDynamicStitch <T> create ( Scope 범위, Iterable< Operand <Integer>> 인덱스, Iterable< Operand <T>> 데이터)
새로운 ParallelDynamicStitch 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
범위 | 현재 범위 |
---|
보고
- ParallelDynamicStitch의 새로운 인스턴스