중단 | 호출 시 프로세스를 중단하려면 예외를 발생시킵니다. |
모두 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두투모두 <T> | TPU 복제본 간에 데이터를 교환하는 작업입니다. |
익명해시테이블 | 초기화되지 않은 익명 해시 테이블을 만듭니다. |
익명IteratorV2 | 반복자 리소스의 컨테이너입니다. |
익명IteratorV3 | 반복자 리소스의 컨테이너입니다. |
익명메모리캐시 | |
익명MultiDeviceIterator | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명MultiDeviceIteratorV3 | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명변경 가능DenseHash테이블 | 텐서를 백업 저장소로 사용하는 빈 익명 가변 해시 테이블을 만듭니다. |
익명변경 가능해시 테이블 | 비어 있는 익명의 변경 가능한 해시 테이블을 만듭니다. |
익명변경 가능HashTableOfTensors | 벡터 값의 빈 익명 변경 가능 해시 테이블을 만듭니다. |
익명RandomSeedGenerator | |
익명SeedGenerator | |
어느 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
ApplyAdagradV2 <T> | adagrad 체계에 따라 '*var'를 업데이트합니다. |
ApproxTopK <T는 숫자를 확장함> | 입력 피연산자의 최소/최대 k 값과 해당 인덱스를 대략적인 방식으로 반환합니다. |
Assert카디널리티데이터세트 | |
AssertNextDataset | 다음에 어떤 변환이 발생하는지 확인하는 변환입니다. |
AssertPrev데이터 세트 | 이전에 어떤 변환이 발생했는지 확인하는 변환입니다. |
주장하다 | 주어진 조건이 참인지 확인합니다. |
<T> 할당 | 'value'를 할당하여 'ref'를 업데이트합니다. |
할당추가 <T> | 'value'를 추가하여 'ref'를 업데이트합니다. |
할당AddVariableOp | 변수의 현재 값에 값을 추가합니다. |
AssignSub <T> | 'value'를 빼서 'ref'를 업데이트합니다. |
AssignSubVariableOp | 변수의 현재 값에서 값을 뺍니다. |
할당변수작업 | 변수에 새 값을 할당합니다. |
AssignVariableXlaConcatND | 모든 차원에 걸쳐 입력 텐서를 연결합니다. |
AutoShard데이터세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
BandedTriangularSolve <T> | |
장벽 | 다양한 그래프 실행에서 지속되는 장벽을 정의합니다. |
장벽닫기 | 주어진 장벽을 닫습니다. |
장벽불완전한크기 | 주어진 장벽의 불완전한 요소 수를 계산합니다. |
장벽삽입많은 | 각 키에 대해 해당 값을 지정된 구성 요소에 할당합니다. |
배리어준비크기 | 주어진 장벽의 완전한 요소 수를 계산합니다. |
장벽가져다많은 | 장벽에서 주어진 수의 완성된 요소를 가져옵니다. |
일괄 | 모든 입력 텐서를 비결정적으로 일괄 처리합니다. |
BatchMatMulV2 <T> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchMatMulV3 <V> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchToSpace <T> | T 유형의 4차원 텐서에 대한 BatchToSpace. |
BatchToSpaceNd <T> | T 유형의 ND 텐서에 대한 BatchToSpace. |
BesselI0 <T 확장 번호> | |
BesselI1 <T 확장 번호> | |
BesselJ0 <T 확장 번호> | |
BesselJ1 <T 확장 번호> | |
BesselK0 <T 확장 번호> | |
BesselK0e <T 확장 번호> | |
BesselK1 <T 확장 번호> | |
BesselK1e <T 확장 번호> | |
BesselY0 <T 확장 번호> | |
BesselY1 <T 확장 번호> | |
비트캐스트 <U> | 데이터를 복사하지 않고 한 유형에서 다른 유형으로 텐서를 비트캐스트합니다. |
BlockLSTM <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BlockLSTMGrad <T 확장 번호> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMGradV2 <T는 숫자를 확장합니다> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMV2 <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BoostedTreesAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTrees버킷화 | 버킷 경계를 기준으로 각 기능을 버킷화합니다. |
BoostedTreesCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestFeatureSplitV2 | 각 기능에 대한 이득을 계산하고 각 노드에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestGainsPerFeature | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees센터바이어스 | 훈련 데이터(편향)에서 사전을 계산하고 첫 번째 노드를 로짓의 사전으로 채웁니다. |
BoostedTreesCreateEnsemble | 트리 앙상블 모델을 생성하고 이에 대한 핸들을 반환합니다. |
BoostedTreesCreateQuantileStreamResource | Quantile Streams에 대한 리소스를 생성합니다. |
BoostedTreesDeserializeEnsemble | 직렬화된 트리 앙상블 구성을 역직렬화하고 현재 트리를 대체합니다. 앙상블. |
BoostedTreesEnsembleResourceHandleOp | BoostedTreesEnsembleResource에 대한 핸들을 생성합니다. |
BoostedTrees예제디버그 출력 | 각 예제에 대한 디버깅/모델 해석 가능성 출력. |
BoostedTreesFlushQuantile요약 | 각 분위수 스트림 리소스에서 분위수 요약을 플러시합니다. |
BoostedTreesGetEnsembleStates | 나무 앙상블 리소스 스탬프 토큰, 나무 수 및 성장 통계를 검색합니다. |
BoostedTreesMakeQuantile요약 | 배치에 대한 분위수의 요약을 작성합니다. |
BoostedTreesMakeStats요약 | 배치에 대해 누적된 통계를 요약합니다. |
BoostedTree예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 로짓을 계산합니다. |
BoostedTreesQuantileStreamResourceAddSummaries | 각 분위수 스트림 리소스에 분위수 요약을 추가합니다. |
BoostedTreesQuantileStreamResourceDeserialize | 버킷 경계와 준비 플래그를 현재 QuantileAccumulator로 역직렬화합니다. |
BoostedTreesQuantileStreamResourceFlush | 분위수 스트림 리소스에 대한 요약을 플러시합니다. |
BoostedTreesQuantileStreamResourceGetBucketBoundaries | 누적된 요약을 기반으로 각 기능에 대한 버킷 경계를 생성합니다. |
BoostedTreesQuantileStreamResourceHandleOp | BoostedTreesQuantileStreamResource에 대한 핸들을 생성합니다. |
BoostedTreesSerializeEnsemble | 트리 앙상블을 proto로 직렬화합니다. |
BoostedTreesSparseAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTreeSparseCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees훈련예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 캐시된 로짓에 대한 업데이트를 계산합니다. |
BoostedTreesUpdate앙상블 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BoostedTreesUpdateEnsembleV2 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BroadcastDynamicShape <T는 숫자를 확장함> | 브로드캐스트를 사용하여 s0 op s1의 모양을 반환합니다. |
BroadcastGradientArgs <T는 숫자를 확장합니다> | 브로드캐스트를 사용하여 s0 op s1의 기울기를 계산하기 위한 감소 지수를 반환합니다. |
<T> 에 방송 | 호환 가능한 모양에 대한 배열을 브로드캐스트합니다. |
버킷화 | '경계'를 기준으로 '입력'을 버킷화합니다. |
CSRSparseMatrixComponents <T> | 배치 '인덱스'에서 CSR 구성 요소를 읽습니다. |
CSRSparseMatrixToDense <T> | (아마도 일괄 처리된) CSRSparseMatrix를 고밀도로 변환합니다. |
CSRSparseMatrixToSparseTensor <T> | (아마도 일괄 처리된) CSRSparesMatrix를 SparseTensor로 변환합니다. |
CSV데이터세트 | |
CSV데이터세트V2 | |
CTCLossV2 | 각 배치 항목에 대한 CTC 손실(로그 확률)을 계산합니다. |
캐시데이터세트V2 | |
CheckNumericsV2 <T는 숫자를 확장합니다> | NaN, -Inf 및 +Inf 값에 대한 텐서를 확인합니다. |
가장 빠른 데이터 세트 선택 | |
클립바이값 <T> | 텐서 값을 지정된 최소값과 최대값으로 자릅니다. |
한 부씩 인쇄TPU임베딩메모리 | 모든 호스트의 문자열로 인코딩된 메모리 구성 proto를 병합하는 작업입니다. |
CollectiveAllToAllV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 교환합니다. |
CollectiveAllToAllV3 <T는 숫자를 확장합니다> | 동일한 유형과 모양의 여러 텐서를 상호 교환합니다. |
CollectiveAssignGroupV2 | 그룹 할당에 따라 그룹 키를 할당합니다. |
CollectiveBcastRecvV2 <U> | 다른 장치에서 브로드캐스트된 텐서 값을 수신합니다. |
CollectiveBcastSendV2 <T> | 하나 이상의 다른 장치에 텐서 값을 브로드캐스트합니다. |
CollectiveGather <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
CollectiveGatherV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
집단초기화커뮤니케이터 | 집단 작업을 위해 그룹을 초기화합니다. |
CollectivePermute <T> | 복제된 TPU 인스턴스 전체에서 텐서를 순열하는 작업입니다. |
CollectiveReduceScatterV2 <T 확장 숫자> | 동일한 유형과 모양의 여러 텐서를 상호 축소하고 결과를 분산시킵니다. |
CollectiveReduceV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CollectiveReduceV3 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CombinedNonMaxSuppression | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. 이 작업은 모든 클래스에서 배치당 입력에 대해 non_max_suppression을 수행합니다. |
CompositeTensorVariantFromComponents | 'ExtensionType' 값을 'variant' 스칼라 텐서로 인코딩합니다. |
CompositeTensorVariantToComponents | 'variant' 스칼라 Tensor를 'ExtensionType' 값으로 디코딩합니다. |
요소 압축 | 데이터 세트 요소를 압축합니다. |
ComputeBatchSize | 부분 배치가 없는 데이터 세트의 정적 배치 크기를 계산합니다. |
ComputeDedupDataTupleMask | 연산은 임베딩 코어에서 중복 제거 데이터의 튜플 마스크를 계산합니다. |
연결 <T> | 한 차원을 따라 텐서를 연결합니다. |
구성및초기화GlobalTPU | 분산 TPU 시스템의 중앙 집중식 구조를 설정하는 작업입니다. |
분산TPU 구성 | 분산 TPU 시스템의 중앙 집중식 구조를 설정합니다. |
TPU임베딩 구성 | 분산 TPU 시스템에서 TPUEmbedding을 설정합니다. |
TPUEmbeddingHost 구성 | 호스트에서 TPUEmbedding 소프트웨어를 구성하는 작업입니다. |
TPU임베딩메모리 구성 | 호스트에서 TPUEmbedding 소프트웨어를 구성하는 작업입니다. |
ConnectTPUE임베딩호스트 | TPUEmbedding 호스트 소프트웨어 인스턴스 간의 통신을 설정하는 작업 각 호스트에서 ConfigureTPUEmbeddingHost가 호출된 후. |
상수 <T> | 상수 값을 생성하는 연산자입니다. |
소비MutexLock | 이 작업은 `MutexLock`에 의해 생성된 잠금을 사용합니다. |
제어트리거 | 아무것도 하지 않습니다. |
전환 <T 확장 숫자> | (N+1+batch_dims)-D `input` 및 (N+2)-D `filter` 텐서를 사용하여 ND 컨볼루션을 계산합니다. |
Conv2DBackpropFilterV2 <T는 숫자를 확장합니다> | 필터에 대한 컨볼루션의 기울기를 계산합니다. |
Conv2DBackpropInputV2 <T 확장 번호> | 입력에 대한 컨볼루션의 기울기를 계산합니다. |
복사 <T> | CPU에서 CPU로 또는 GPU에서 GPU로 텐서를 복사합니다. |
카피호스트 <T> | 텐서를 호스트에 복사합니다. |
메시에 복사 <T> | |
CopyToMeshGrad <T> | |
CountUpTo <T는 숫자를 확장합니다> | 'limit'에 도달할 때까지 'ref'를 증가시킵니다. |
CrossReplicaSum <T 확장 번호> | 복제된 TPU 인스턴스 전체에서 입력을 합산하는 작업입니다. |
CudnnRNNBackpropV3 <T 확장 번호> | CudnnRNNV3의 역전파 단계. |
CudnnRNNCanonicalToParamsV2 <T는 숫자를 확장합니다> | CudnnRNN 매개변수를 표준 형식에서 사용 가능한 형식으로 변환합니다. |
CudnnRNNParamsToCanonicalV2 <T는 숫자를 확장합니다> | 표준 형식으로 CudnnRNN 매개변수를 검색합니다. |
CudnnRNNV3 <T 확장 번호> | cuDNN이 지원하는 RNN입니다. |
CumulativeLogsumexp <T 확장 숫자> | '축'을 따라 텐서 'x'의 누적 곱을 계산합니다. |
DTensorRestoreV2 | |
DTensorSetGlobalTPUArray | 시스템에 있는 모든 TPU의 전역 ID를 호스트에 알리는 작업입니다. |
DataService데이터 세트 | tf.data 서비스에서 데이터를 읽는 데이터 세트를 생성합니다. |
DataServiceDatasetV2 | tf.data 서비스에서 데이터를 읽는 데이터 세트를 생성합니다. |
데이터 세트 카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
데이터세트FromGraph | 주어진 `graph_def`에서 데이터세트를 생성합니다. |
DatasetToGraphV2 | 'input_dataset'을 나타내는 직렬화된 GraphDef를 반환합니다. |
Dawsn <T 확장 번호> | |
DebugGradientIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
DebugGradientRefIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
디버그 ID <T> | 디버깅을 위해 Ref가 아닌 유형 입력 텐서의 ID 매핑을 제공합니다. |
DebugIdentityV2 <T> | 디버그 ID V2 Op. |
DebugIdentityV3 <T> | 디버깅을 위해 Ref가 아닌 유형 입력 텐서의 ID 매핑을 제공합니다. |
DebugNanCount | NaN 값 카운터 Op. 디버그 |
디버그숫자요약 | 디버그 수치 요약 Op. |
DebugNumericSummaryV2 <U 확장 번호> | 디버그 수치 요약 V2 Op. |
DecodeImage <T는 숫자를 확장합니다> | decode_bmp, decode_gif, decode_jpeg 및 decode_png에 대한 함수입니다. |
DecodePaddedRaw <T는 숫자를 확장합니다> | 문자열의 바이트를 숫자 벡터로 재해석합니다. |
디코드프로토 | 연산은 직렬화된 프로토콜 버퍼 메시지의 필드를 텐서로 추출합니다. |
딥카피 <T> | `x`의 복사본을 만듭니다. |
삭제반복자 | 반복자 리소스의 컨테이너입니다. |
메모리캐시 삭제 | |
다중 장치 반복자 삭제 | 반복자 리소스의 컨테이너입니다. |
삭제RandomSeedGenerator | |
삭제시드 생성기 | |
삭제세션텐서 | 세션의 핸들로 지정된 텐서를 삭제합니다. |
DenseBincount <U 확장 숫자> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
DenseCountSparseOutput <U 확장 숫자> | tf.tensor 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
DenseToCSRSparseMatrix | 조밀한 텐서를 (아마도 일괄 처리된) CSRSparseMatrix로 변환합니다. |
DestroyResourceOp | 핸들에 지정된 리소스를 삭제합니다. |
DestroyTemporary변수 <T> | 임시 변수를 삭제하고 최종 값을 반환합니다. |
DeviceIndex | 작업이 실행되는 장치의 인덱스를 반환합니다. |
DirectedInterleave데이터세트 | 'N' 데이터 세트의 고정 목록에서 'InterleaveDataset'을 대체합니다. |
비활성화CopyOnRead | 읽기 시 복사 모드를 끕니다. |
분산저장 | |
DrawBoundingBoxesV2 <T는 숫자를 확장합니다> | 이미지 배치에 경계 상자를 그립니다. |
더미반복카운터 | |
더미메모리캐시 | |
더미 시드 생성기 | |
DynamicEnqueueTPUEmbeddingArbitraryTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
DynamicEnqueueTPUEmbeddingRaggedTensorBatch | |
동적파티션 <T> | `파티션`의 인덱스를 사용하여 `데이터`를 `num_partitions` 텐서로 분할합니다. |
다이나믹스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
편집거리 | (정규화된) Levenshtein Edit Distance를 계산합니다. |
에이그 <U> | 하나 이상의 정사각 행렬의 고유 분해를 계산합니다. |
아인섬 <T> | 아인슈타인 합산 규칙에 따른 텐서 수축. |
비어 있음 <T> | 주어진 모양으로 텐서를 생성합니다. |
비어있는TensorList | 빈 텐서 목록을 생성하고 반환합니다. |
비어있음TensorMap | 빈 텐서 맵을 생성하고 반환합니다. |
EncodeProto | op는 입력 텐서에 제공된 protobuf 메시지를 직렬화합니다. |
EnqueueTPU임베딩임의TensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingIntegerBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingRaggedTensorBatch | tf.nn.embedding_lookup()을 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingSparseBatch | SparseTensor에서 TPUEmbedding 입력 인덱스를 대기열에 추가하는 작업입니다. |
EnqueueTPUEmbeddingSparseTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
형태 보장 <T> | 텐서의 모양이 예상되는 모양과 일치하는지 확인합니다. |
<T>를 입력하세요 | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
Erfinv <T 확장 번호> | |
유클리드표준 <T> | 텐서의 차원 전체에 걸쳐 요소의 유클리드 노름을 계산합니다. |
TPUEmbeddingPartitioner 실행 | 중앙 구성에서 TPUEmbedding 파티셔너를 실행하는 작업 TPUEmbedding 작업에 필요한 HBM 크기(바이트)를 계산합니다. |
종료 <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
ExpandDim <T> | 텐서의 모양에 1차원을 삽입합니다. |
ExperimentalAutoShard데이터 세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
ExperimentalBytesProducedStatsDataset | StatsAggregator에 있는 'input_dataset'의 각 요소의 바이트 크기를 기록합니다. |
실험적ChooseFastestDataset | |
실험적데이터세트카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
ExperimentalDatasetToTFRecord | TFRecord 형식을 사용하여 지정된 파일에 지정된 데이터세트를 씁니다. |
ExperimentalDenseToSparseBatchDataset | 입력 요소를 SparseTensor로 일괄 처리하는 데이터 세트를 생성합니다. |
실험적 지연 시간 통계 데이터 세트 | StatsAggregator에서 'input_dataset' 요소를 생성하는 지연 시간을 기록합니다. |
ExperimentalMatchingFiles데이터 세트 | |
ExperimentalMaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
ExperimentalParseExampleDataset | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
ExperimentalPrivateThreadPoolDataset | 'input_dataset'을 계산하기 위해 커스텀 스레드 풀을 사용하는 데이터세트를 생성합니다. |
실험적 무작위 데이터세트 | 의사 난수를 반환하는 데이터 세트를 만듭니다. |
ExperimentalRebatch데이터 세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
ExperimentalSetStatsAggregatorDataset | |
ExperimentalSlidingWindowDataset | `input_dataset`에 대한 슬라이딩 윈도우를 전달하는 데이터세트를 생성합니다. |
ExperimentalSqlDataset | SQL 쿼리를 실행하고 결과 집합의 행을 내보내는 데이터 집합을 만듭니다. |
ExperimentalStatsAggregatorHandle | 통계 관리자 리소스를 생성합니다. |
ExperimentalStatsAggregator요약 | 지정된 통계 관리자가 기록한 모든 통계의 요약을 생성합니다. |
ExperimentalUnbatchDataset | 입력 요소를 여러 요소로 분할하는 데이터세트입니다. |
Expint <T는 숫자를 확장합니다> | |
ExtractGlimpseV2 | 입력 텐서에서 엿볼 수 있는 내용을 추출합니다. |
ExtractVolumePatches <T 확장 번호> | `입력`에서 `패치`를 추출하여 `"깊이"` 출력 차원에 넣습니다. |
FFTND <T> | ND 고속 푸리에 변환. |
파일시스템 세트 구성 | 파일 시스템의 구성을 설정합니다. |
채우기 <U> | 스칼라 값으로 채워진 텐서를 생성합니다. |
FinalizeDataset | 'input_dataset'에 tf.data.Options 적용하여 데이터세트를 생성합니다. |
TPU임베딩 마무리 | TPUEmbedding 구성을 마무리하는 작업입니다. |
지문 | 지문 값을 생성합니다. |
FresnelCos <T 확장 번호> | |
FresnelSin <T는 숫자를 확장함> | |
FusedBatchNormGradV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화를 위한 기울기입니다. |
FusedBatchNormV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화. |
GRUBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 순방향 전파를 계산합니다. |
GRUBlockCellGrad <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 역전파를 계산합니다. |
모아 <T> | `indices`에 따라 `params` 축 `axis`에서 슬라이스를 수집합니다. |
집결 <T> | `params`의 조각을 `indices`로 지정된 모양의 Tensor로 수집합니다. |
BoundingBoxProposals 생성 | 이 작업은 arXiv:1506.01497의 eq.2에 따라 주어진 경계 상자(bbox_deltas)로 인코딩된 wrt 앵커로부터 관심 영역을 생성합니다. op는 상위 `pre_nms_topn` 점수 상자를 선택하고 앵커와 관련하여 디코딩하며 `nms_threshold` 교차-결합(iou) 값보다 높은 중첩 상자에 최대 비최대 억제를 적용하고 짧은 변이 `보다 작은 상자를 삭제합니다. 최소_크기`. |
GetElementAtIndex | 데이터세트의 지정된 인덱스에 있는 요소를 가져옵니다. |
GetOptions | `input_dataset`에 연결된 tf.data.Options 반환합니다. |
세션 핸들 가져오기 | 입력 텐서를 현재 세션 상태로 저장합니다. |
GetSessionTensor <T> | 핸들로 지정된 텐서의 값을 가져옵니다. |
보증 상수 <T> | 입력 텐서가 상수임을 TF 런타임에 보장합니다. |
해시테이블 | 초기화되지 않은 해시 테이블을 생성합니다. |
HistogramFixedWidth <U 확장 숫자> | 값의 히스토그램을 반환합니다. |
IFFTND <티> | ND 역고속 푸리에 변환. |
IRFFTND <U 확장 번호> | ND 역실질고속 푸리에 변환. |
신원 <T> | 입력 텐서 또는 값과 모양과 내용이 동일한 텐서를 반환합니다. |
아이덴티티N | 입력과 모양 및 내용이 동일한 텐서 목록을 반환합니다. 텐서. |
오류 무시데이터 세트 | 오류를 무시하고 'input_dataset' 요소가 포함된 데이터세트를 생성합니다. |
ImageProjectiveTransformV2 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImageProjectiveTransformV3 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImmutableConst <T> | 메모리 영역에서 불변 텐서를 반환합니다. |
인피드큐 제거 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
InfeedDequeueTuple | 인피드에서 XLA 튜플로 여러 값을 가져옵니다. |
인피드인큐 | 단일 Tensor 값을 계산에 제공하는 연산입니다. |
InfeedEnqueuePrelinearizedBuffer | 사전 선형화된 버퍼를 TPU 인피드에 추가하는 작업입니다. |
InfeedEnqueueTuple | 여러 Tensor 값을 XLA 튜플로 계산에 입력합니다. |
테이블 초기화 | 키와 값에 각각 두 개의 텐서를 사용하는 테이블 초기화 프로그램입니다. |
TableFromDataset 초기화 | |
TableFromTextFile 초기화 | 텍스트 파일에서 테이블을 초기화합니다. |
내부추가 <T> | x의 지정된 행에 v를 추가합니다. |
InplaceSub <T> | 'x'의 지정된 행에서 'v'를 뺍니다. |
인플레이스업데이트 <T> | 지정된 행 'i'를 값 'v'로 업데이트합니다. |
IsBoostedTreesEnsembleInitialized | 트리 앙상블이 초기화되었는지 확인합니다. |
IsBoostedTreesQuantileStreamResourceInitialized | Quantile 스트림이 초기화되었는지 확인합니다. |
TPUEmbedding초기화됨 | 분산 TPU 시스템에서 TPU 임베딩이 초기화되는지 여부입니다. |
변수가 초기화됨 | 텐서가 초기화되었는지 확인합니다. |
IsotonicRegression <U 확장 숫자> | 일련의 등장성 회귀 문제를 해결합니다. |
IteratorGetDevice | `리소스`가 배치된 장치의 이름을 반환합니다. |
KMC2Chain초기화 | 시드 세트에 추가되어야 하는 데이터 포인트의 인덱스를 반환합니다. |
KmeansPlusPlus초기화 | KMeans++ 기준을 사용하여 num_to_sample개의 입력 행을 선택합니다. |
KthOrder통계 | 데이터 세트의 K차 통계를 계산합니다. |
LMDB데이터세트 | 하나 이상의 LMDB 파일에 키-값 쌍을 내보내는 데이터 세트를 생성합니다. |
LSTMBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 LSTM 셀의 순방향 전파를 계산합니다. |
LSTMBlockCellGrad <T는 숫자를 확장합니다> | 1 시간 단계에 대한 LSTM 셀 역전파를 계산합니다. |
LinSpace <T는 숫자를 확장합니다> | 일정 간격으로 값을 생성합니다. |
목록데이터세트 | 각 '텐서'를 한 번씩 내보내는 데이터세트를 만듭니다. |
LoadAllTPUEmbedding매개변수 | 내장 메모리에 최적화 매개변수를 로드하는 연산입니다. |
TPU임베딩ADAM매개변수 로드 | ADAM 포함 매개변수를 로드합니다. |
LoadTPUEmbeddingAdadelta매개변수 | Adadelta 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩AdagradMomentum매개변수 | Adagrad Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩Adagrad매개변수 | Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingCenteredRMSProp매개변수 | 로드 중심 RMSProp 임베딩 매개변수입니다. |
LoadTPUEmbeddingFTRL매개변수 | FTRL 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingFrequencyEstimator매개변수 | 부하 주파수 추정기 임베딩 매개변수. |
LoadTPUEmbeddingMDLadagradLight매개변수 | MDL Adagrad Light 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingMomentum매개변수 | Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalAdagrad매개변수 | 근위 Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalYogi매개변수 | |
LoadTPUEmbeddingRMSProp매개변수 | RMSProp 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩확률적 경사하강 매개변수 | SGD 내장 매개변수를 로드합니다. |
LookupTableExport <T, U> | 테이블의 모든 키와 값을 출력합니다. |
조회테이블찾기 <U> | 테이블에서 키를 조회하고 해당 값을 출력합니다. |
조회테이블가져오기 | 테이블의 내용을 지정된 키와 값으로 바꿉니다. |
조회테이블삽입 | 키를 값과 연결하도록 테이블을 업데이트합니다. |
조회테이블제거 | 테이블에서 키와 관련 값을 제거합니다. |
조회테이블크기 | 주어진 테이블의 요소 수를 계산합니다. |
LoopCond | 입력을 출력으로 전달합니다. |
LowerBound <U 확장 번호> | 각 행을 따라 lower_bound(sorted_search_values,values)를 적용합니다. |
Lu <T, U 확장 숫자> | 하나 이상의 정사각 행렬의 LU 분해를 계산합니다. |
고유하게 만들기 | 배치가 아닌 차원의 모든 요소를 고유하게 만드십시오. 단, 다음과 \"가까운\" 초기값. |
지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
지도Peek | Op는 지정된 키의 값을 엿봅니다. |
지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
맵스테이지 | 해시테이블처럼 작동하는 기본 컨테이너의 스테이지(키, 값)입니다. |
지도Unstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
지도UnstageNoKey | Op는 임의의 (키, 값)을 제거하고 반환합니다. 기본 컨테이너에서. |
MatrixDiagPartV2 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagPartV3 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagV2 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixDiagV3 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixSetDiagV2 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
MatrixSetDiagV3 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
최대 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
MaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
<T> 병합 | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
데이터 중복 제거 병합 | 작업은 정수 및 부동 소수점 텐서의 요소를 XLA 튜플로 중복 제거 데이터에 병합합니다. |
최소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
미러패드 <T> | 미러링된 값으로 텐서를 채웁니다. |
MirrorPadGrad <T> | 'MirrorPad'에 대한 그라데이션 작업입니다. |
MlirPassthroughOp | main() 함수를 사용하여 모듈로 표현된 임의의 MLIR 계산을 래핑합니다. |
물노난 <T> | x * y 요소별로 반환합니다. |
가변밀도해시테이블 | 텐서를 백업 저장소로 사용하는 빈 해시 테이블을 만듭니다. |
가변해시테이블 | 빈 해시 테이블을 생성합니다. |
MutableHashTableOfTensors | 빈 해시 테이블을 생성합니다. |
뮤텍스 | 'MutexLock'으로 잠글 수 있는 Mutex 리소스를 생성합니다. |
MutexLock | 뮤텍스 리소스를 잠급니다. |
NcclAllReduce <T는 숫자를 확장합니다> | 모든 입력 텐서에 대한 감소를 포함하는 텐서를 출력합니다. |
NcclBroadcast <T는 숫자를 확장합니다> | 출력에 연결된 모든 장치에 '입력'을 보냅니다. |
NcclReduce <T는 숫자를 확장합니다> | 단일 장치에 대한 `reduction`을 사용하여 `num_devices`에서 `input`을 줄입니다. |
Ndtri <T 확장 번호> | |
가장 가까운 이웃 | 각 점에 대해 가장 가까운 k개의 중심을 선택합니다. |
다음 <T 확장 번호> 이후 | 요소별로 `x2` 방향으로 표현 가능한 `x1`의 다음 값을 반환합니다. |
다음반복 <T> | 다음 반복에서 해당 입력을 사용할 수 있도록 합니다. |
작동 안함 | 아무것도 하지 않습니다. |
NonDeterministicInts <U> | 일부 정수를 비결정적으로 생성합니다. |
NonMaxSuppressionV5 <T 확장 숫자> | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. IOU(Intersection-Over-Union)가 높은 상자가 이전에 선택한 상자와 겹치는 부분을 제거합니다. |
직렬화 가능하지 않은 데이터세트 | |
원핫 <U> | 원-핫 텐서를 반환합니다. |
좋아하는 것 <T> | x와 모양과 유형이 동일한 텐서를 반환합니다. |
OptimizeDatasetV2 | `input_dataset`에 관련 최적화를 적용하여 데이터 세트를 생성합니다. |
옵션데이터세트 | tf.data.Options를 `input_dataset`에 연결하여 데이터 세트를 생성합니다. |
주문됨지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
주문된 지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
OrderedMapPeek | Op는 지정된 키의 값을 엿봅니다. |
주문된 지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
OrderedMapStage | 순서가 지정된 것처럼 동작하는 기본 컨테이너의 단계(키, 값) 연관 컨테이너. |
OrderedMapUnstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
OrderedMapUnstageNoKey | Op는 가장 작은 (키, 값) 요소를 제거하고 반환합니다. 기본 컨테이너의 키입니다. |
아웃피드큐 제거 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
OutfeedDequeueTuple | 계산 아웃피드에서 여러 값을 검색합니다. |
OutfeedDequeueTupleV2 | 계산 아웃피드에서 여러 값을 검색합니다. |
OutfeedDequeueV2 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
아웃피드인큐 | 계산 아웃피드에 Tensor를 추가합니다. |
OutfeedEnqueueTuple | 계산 아웃피드에 여러 Tensor 값을 대기열에 넣습니다. |
패드 <T> | 텐서를 채웁니다. |
병렬배치데이터세트 | |
ParallelConcat <T> | 첫 번째 차원을 따라 'N' 텐서 목록을 연결합니다. |
병렬동적스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
ParseExampleDatasetV2 | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
구문 분석ExampleV2 | tf.Example proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
ParseSequenceExampleV2 | tf.io.SequenceExample proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
자리 표시자 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
PlaceholderWithDefault <T> | 출력이 제공되지 않을 때 '입력'을 통과하는 자리 표시자 작업입니다. |
사전선형화 | 하나의 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
사전선형화Tuple | 여러 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
인쇄 | 문자열 스칼라를 인쇄합니다. |
PrivateThreadPoolDataset | 'input_dataset'을 계산하기 위해 커스텀 스레드 풀을 사용하는 데이터세트를 생성합니다. |
프로덕션 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
QuantizeAndDeQuantizeV4 <T는 숫자를 확장합니다> | 텐서를 양자화한 다음 역양자화합니다. |
QuantizeAndDeQuantizeV4Grad <T는 숫자를 확장합니다> | `QuantizeAndDeQuantizeV4`의 기울기를 반환합니다. |
QuantizedConcat <T> | 한 차원을 따라 양자화된 텐서를 연결합니다. |
QuantizedConcatV2 <T> | |
QuantizedConv2DAndRelu <V> | |
QuantizedConv2DAndReluAndReQuantize <V> | |
QuantizedConv2DAndReQuantize <V> | |
QuantizedConv2DPerChannel <V> | 채널당 QuantizedConv2D를 계산합니다. |
QuantizedConv2DWithBias <V> | |
QuantizedConv2DWithBiasAndRelu <V> | |
QuantizedConv2DWithBiasAndReluAndReQuantize <W> | |
QuantizedConv2DWithBiasAndReQuantize <W> | |
QuantizedConv2DWithBiasSignedSumAndReluAndReQuantize <X> | |
QuantizedConv2DWithBiasSumAndRelu <V> | |
QuantizedConv2DWithBiasSumAndReluAndReQuantize <X> | |
QuantizedDepthwiseConv2D <V> | 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBias <V> | Bias를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndRelu <V> | Bias 및 Relu를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndReluAndReQuantize <W> | Bias, Relu 및 ReQuantize를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedMatMulWithBias <W> | 바이어스 덧셈을 사용하여 'a'와 행렬 'b'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndDeQuantize <W 확장 숫자> | |
QuantizedMatMulWithBiasAndRelu <V> | 바이어스 덧셈과 relu 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReluAndReQuantize <W> | 바이어스 덧셈과 relu 및 재양자화 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReQuantize <W> | |
양자화Reshape <T> | Reshape 작업에 따라 양자화된 텐서를 재구성합니다. |
RFFTND <U> | ND 고속 실제 푸리에 변환. |
RaggedBincount <U 확장 번호> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
RaggedCountSparseOutput <U 확장 숫자> | 비정형 텐서 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
RaggedCross <T, U 확장 숫자> | 텐서 목록에서 특성 교차를 생성하고 이를 RaggedTensor로 반환합니다. |
RaggedFillEmptyRows <T> | |
RaggedFillEmptyRowsGrad <T> | |
raggedgather <t는 숫자, u>를 확장합니다 | `indices '에 따라`params` 축`0`에서 울퉁불퉁 한 조각을 수집하십시오. |
RaggedRange <u는 숫자를 확장하고 t는 숫자를 확장합니다. | 지정된 숫자 시퀀스를 포함하는 'raggedtensor'를 반환합니다. |
RaggedTensorfromvariant <u는 숫자, t>를 확장합니다 | `variant` 텐서를 'raggedtensor'로 디코딩합니다. |
Raggedtensortosparse <u> | `raggedtensor '를 동일한 값으로'sparsetensor '로 변환합니다. |
Raggedtensortotensor <u> | 울퉁불퉁 한 텐서에서 밀도가 높은 텐서를 만들어 모양을 바꿀 수 있습니다. |
Raggedtensortovariant | 'raggedtensor'를 '변형'텐서로 인코딩합니다. |
raggedtensortovariant gradient <u> | ``raggedtensortovariant '에 대한 그라디언트를 계산하는 데 사용됩니다. |
RandomDatasetv2 | 의사 숫자를 반환하는 데이터 세트를 만듭니다. |
randomindexshuffle <t는 숫자>를 확장합니다 | [0, ..., max_index]의 순열에서 'value'의 위치를 출력합니다. |
range <t extends 번호> | 일련의 숫자를 만듭니다. |
계급 | 텐서의 순위를 반환합니다. |
readvariableop <t> | 변수의 값을 읽습니다. |
readvariablexlasplitnd <t> | 모든 차원에서 리소스 변수 입력 텐서를 분할합니다. |
RebatchDataset | 배치 크기를 변경하는 데이터 세트를 만듭니다. |
Rebatchdatasetv2 | 배치 크기를 변경하는 데이터 세트를 만듭니다. |
recv <t> | recv_device의 send_device에서 지명 된 텐서를받습니다. |
recvtpuembeddingactivations | TPU에 임베딩 활성화를 수신하는 OP. |
감정 | 텐서의 치수에 걸쳐 "논리적 및 요소"를 계산합니다. |
환원 | 텐서의 치수에 걸쳐 "논리적 또는"요소의 "논리"를 계산합니다. |
ReduceMax <t> | 텐서의 치수에 걸쳐 최대 요소를 계산합니다. |
leducemin <t> | 텐서의 치수에 걸쳐 최소 요소를 계산합니다. |
READGEPROD <T> | 텐서의 치수에 걸쳐 요소의 제품을 계산합니다. |
Reducesum <t> | 텐서의 치수에 걸쳐 요소의 합을 계산합니다. |
리펜터 <t> | 자식 프레임을 생성하거나 찾아서 '데이터'를 어린이 프레임에 사용할 수있게합니다. |
refexit <t> | 현재 프레임을 모래 프레임으로 종료합니다. |
레피 니티 <t> | 입력 참조 텐서와 동일한 심판 텐서를 반환하십시오. |
<t>를 리머링하십시오 | 사용 가능한 텐서의 값을 '입력'에서 '출력'으로 전달합니다. |
refnextiteration <t> | 다음 반복에 입력을 사용할 수 있습니다. |
refselect <t> | `inputs '의'index '요소를'출력 '으로 전달합니다. |
refswitch <t> | Ref Tensor`Data '를`pred`에 의해 결정된 출력 포트로 전달합니다. |
RegisterDataset | tf.data 서비스에 데이터 세트를 등록합니다. |
RegisterDatasetv2 | tf.data 서비스에 데이터 세트를 등록합니다. |
릴레이 아웃 <t> | |
릴레이 아웃 <T> | |
requantizationRangePerChannel | 채널 당 요청 범위를 계산합니다. |
requantizeperChannel <u> | 채널 당 알려진 최소 및 최대 값으로 입력을 요구합니다. |
<t>을 다시 선택하십시오 | 텐서를 재구성합니다. |
ResourceAccumulatorApplygradient | 주어진 축합기에 구배를 적용합니다. |
ResourceAccumulatornumAccumulated | 주어진 축적기에서 집계 된 구배 수를 반환합니다. |
ResourceAccumulatorsetglobalstep | Global_step에 대한 새로운 값으로 축합기를 업데이트합니다. |
Resourceacumulatortakegradient <t> | 주어진 조건부 축적기에서 평균 구배를 추출합니다. |
ResourceApplyAdagradv2 | Adagrad 체계에 따라 '*var'를 업데이트하십시오. |
ResourcePlyAdamwithamsgrad | Adam 알고리즘에 따라 '*var'를 업데이트하십시오. |
ResourceApplyKerasmomentum | 모멘텀 체계에 따라 '*var'를 업데이트하십시오. |
ResourceConditionalAccumulator | 그라디언트 집계를위한 조건부 축합기. |
resourcecountupto <t는 숫자>를 확장합니다 | '리소스'가 '제한'에 도달 할 때까지 '리소스'를 가리키는 변수 증분. |
ResourceGather <u> | 'Indices'에 따라 '자원'에 의해 가리키는 변수에서 슬라이스를 수집하십시오. |
ResourceGathernd <u> | |
Resourcescatteradd | 'resource'에서 참조 된 변수에 희소 업데이트가 추가됩니다. |
Resourcescatterdiv | 스파 스 업데이트를 'Resource'에서 참조 된 변수로 나눕니다. |
Resourcescattermax | `max` 조작을 사용하여 'resource'로 참조 된 변수로 드문 업데이트를 줄입니다. |
Resourcescattermin | Sparse 업데이트는`Min '작업을 사용하여'Resource '에 의해 참조 된 변수로 줄입니다. |
Resourcescattermul | 스파 스 업데이트에 'resource'가 참조 된 변수에 곱합니다. |
Resourcescatterndadd | 변수의 개별 값 또는 슬라이스에 드문 추가를 적용합니다. |
Resourcescatterndmax | |
Resourcescatterndmin | |
Resourcescatterndsub | 변수의 개별 값 또는 슬라이스에 희소 뺄셈을 적용합니다. |
Resourcescatterndupdate | 주어진 내에서 Sporse`update '를 개별 값 또는 슬라이스에 적용합니다. 'indices'에 따라 변수. |
Resourcescattersub | 'resource'에서 참조 된 변수에서 드문 업데이트를 빼냅니다. |
Resourcescatterupdate | 'resource'에서 참조 된 변수에 희소 업데이트를 할당합니다. |
ResourcesParseApplyAdagradv2 | Adagrad 체계에 따라 '*var'및 '*accum'에서 관련 항목을 업데이트하십시오. |
ResourcesParseApplyKerasmomentum | 모멘텀 체계에 따라 '*var'및 '*accum'에서 관련 항목을 업데이트하십시오. |
ResourcestRidedSliceAssign | 'value'를`ref '의 슬라이스 l- 값 참조에 할당하십시오. |
검색자 PuembeddingParameters | 임베딩에서 호스트 메모리까지 최적화 매개 변수를 검색하는 OP. |
검색 푸모 베딩 아담 파라 미터 | Adam 임베딩 매개 변수를 검색합니다. |
restievetpuembeddingadaDeltaparameters | Adadelta 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingadagradgradmomentumparameters | Adagrad 모멘텀 임베딩 매개 변수를 검색하십시오. |
retrievetpuembeddingadagradgarameters | Adagrad 임베딩 매개 변수를 검색하십시오. |
retrievetpuembeddingcenteredrmspropparameters | 중앙 RMSprop 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingftrlparameters | ftrl 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingfrequencyestimatorparameters | 주파수 추정기 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingmdladagradlightparameters | MDL Adagrad Light Embedding 매개 변수를 검색하십시오. |
retrievetpuembeddingmomentumparameters | 모멘텀 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingproximaladagradagradparameters | 근위 adagrad 임베딩 매개 변수를 검색합니다. |
검색 puembeddingproximalyogiparameters | |
retrievetpuembeddingrmspropparameters | RMSPROP 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingstochasticadientDescentParameters | SGD 임베딩 매개 변수를 검색합니다. |
역 <T> | 텐서의 특정 치수를 뒤집습니다. |
Reversesequence <t> | 가변 길이 슬라이스를 뒤집습니다. |
다시 작성 | |
RISCABS <t는 숫자>를 연장합니다 | |
RISCADD <t는 숫자>를 확장합니다 | x + y 요소로 반환합니다. |
riscbinaryarithmetic <t는 숫자>를 확장합니다 | |
Riscbinary Comparison | |
Riscbitcast <u> | |
Riscbroadcast <t> | |
Risccast <u> | |
Riscceil <t는 숫자를 확장합니다 | |
risccholesky <t는 숫자를 확장합니다 | |
RISCCONCAT <T> | |
RISCCONV <t는 숫자를 확장합니다 | |
RISCCOS <t는 숫자를 확장합니다 | |
RISCDIV <t는 숫자>를 확장합니다 | |
RISCDOT <t는 숫자>를 확장합니다 | |
riscexp <t는 숫자>를 확장합니다 | |
RISCFFT <T> | |
RISCFLOOR <t는 숫자를 확장합니다 | |
Riscgather <t> | |
riscimag <u는 숫자를 확장합니다> | |
riscisfinite | |
risclog <t는 숫자>를 확장합니다 | |
risclogicaland | |
risclogicalnot | |
risclogicalor | |
RISCMAX <t는 숫자>를 확장합니다 | max (x, y) 요소 단위를 반환합니다. |
RISCMIN <t는 숫자를 확장합니다 | |
Riscmul <t는 숫자>를 연장합니다 | |
riscneg <t는 숫자>를 연장합니다 | |
RISCPAD <t는 숫자>를 확장합니다 | |
RISCPOOL <t는 번호>를 확장합니다 | |
riscpow <t는 숫자를 확장합니다 | |
riscrandomuniform | |
riscreal <u는 숫자를 확장합니다> | |
riscreduce <t는 숫자>를 확장합니다 | |
Riscrem <t는 숫자를 확장합니다 | |
riscraphape <t는 번호>를 확장합니다 | |
Riscreverse <t는 숫자를 확장합니다 | |
RISCSCATTER <U 확장 번호> | |
RISCPHAPE <U 확장 번호> | |
RISCSIGN <t는 숫자>를 확장합니다 | |
RISCSLICE <t는 숫자를 확장합니다 | |
riscsort <t는 숫자>를 확장합니다 | |
RISCSQUEEZE <T> | |
RISCSUB <t는 숫자>를 확장합니다 | |
risctranspose <t> | |
RISCRINGULARSOLVE <t는 숫자>를 확장합니다 | |
riscunary <t는 숫자를 확장합니다 | |
rngreadandskip | 카운터 기반 RNG의 카운터를 전진하십시오. |
rngskip | 카운터 기반 RNG의 카운터를 전진하십시오. |
롤 <t> | 축을 따라 텐서의 요소를 굴립니다. |
샘플링 다타 세트 | 다른 데이터 세트의 내용의 Bernoulli 샘플을 취하는 데이터 세트를 만듭니다. |
scaleandtranslate | |
scaleandtranslategrad <t는 숫자>를 확장합니다 | |
ScatterAdd <T> | 변수 참조에 희소 업데이트를 추가합니다. |
Scatterdiv <t> | 변수 참조를 Sparse 업데이트로 나눕니다. |
scattermax <t는 숫자>를 연장합니다 | `max` 조작을 사용하여 스파 스 업데이트를 가변 참조로 줄입니다. |
scattermin <t는 숫자>를 연장합니다 | `min '조작을 사용하여 스파 스 업데이트를 가변 참조로 줄입니다. |
Scattermul <t> | 스파 스 업데이트에 변수 참조에 곱합니다. |
Scatternd <u> | `indices '에 따라'Shape '의 텐서에'업데이트 '를 뿌립니다. |
scatterndadd <t> | 변수의 개별 값 또는 슬라이스에 드문 추가를 적용합니다. |
scatterndmax <t> | 요소 별 최대 값을 계산합니다. |
scatterndmin <t> | 요소 별 최소를 계산합니다. |
scatterndnonaliasingaddd <t> | 개별 값 또는 슬라이스를 사용하여 '입력'에 희소 추가를 적용합니다. `indices '에 따라'업데이트 '에서. |
scatterndsub <t> | 변수의 개별 값 또는 슬라이스에 희소 뺄셈을 적용합니다. |
Scatterndupdate <t> | 주어진 내에서 Sporse`update '를 개별 값 또는 슬라이스에 적용합니다. 'indices'에 따라 변수. |
Scattersub <t> | 스파 스 업데이트를 변수 참조로 빼냅니다. |
Scatterupdate <t> | 스파 스 업데이트를 변수 참조에 적용합니다. |
segmentmaxv2 <t는 숫자>를 확장합니다 | 텐서의 세그먼트를 따라 최대 값을 계산합니다. |
segmentminv2 <t는 숫자>를 확장합니다 | 텐서의 세그먼트를 따라 최소값을 계산합니다. |
SegmentProdv2 <t> | 텐서의 세그먼트를 따라 제품을 계산합니다. |
segmentsumv2 <t> | 텐서의 세그먼트를 따라 합계를 계산합니다. |
selectv2 <t> | |
보내다 | send_device에서 recv_device로 지명 된 텐서를 보냅니다. |
sendtpuembeddinggradients | 임베딩 테이블의 그라디언트 업데이트를 수행합니다. |
setDiff1d <t, u는 숫자>를 확장합니다 | 두 숫자 또는 문자열 목록의 차이를 계산합니다. |
setsize | 입력의 마지막 차원을 따라 고유 한 요소의 수. |
모양 <u는 숫자를 확장합니다> | 텐서의 모양을 반환합니다. |
Shapen <u는 숫자를 확장합니다> | 텐서의 모양을 반환합니다. |
샤드 다타 세트 | 이 데이터 세트의 1/`num_shards '만 포함하는'dataset '을 만듭니다. |
ShuffleandrepeatDatasetv2 | |
Shuffledatasetv2 | |
Shuffledatasetv3 | |
셧다운 분배 된tpu | 실행중인 분산 TPU 시스템을 종료합니다. |
셧다운 시스템 | TPU 시스템을 종료하는 OP. |
크기 <U 확장 번호> | 텐서의 크기를 반환합니다. |
건너 뛰기 | 텍스트 파일을 구문 분석하고 예제를 만듭니다. |
수면 | |
슬라이스 <t> | '입력'에서 슬라이스를 반환하십시오. |
슬라이딩 윈도우 다타 세트 | 'input_dataset'을 통해 슬라이딩 창을 전달하는 데이터 세트를 만듭니다. |
스냅 샷 <t> | 입력 텐서의 사본을 반환합니다. |
SnapshotchunkDataset | |
SnapshotDataset | 스냅 샷에 쓰기 / 읽을 데이터 세트를 만듭니다. |
SnapshotDataSetReader | |
SnapshotNestedDatasEtReader | |
SobolSample <t는 숫자를 확장합니다 | 소볼 시퀀스에서 점을 생성합니다. |
spacetobatchnd <t> | T 형의 ND 텐서에 대한 Spacetobatch. |
sparseapplyadagradv2 <t> | Adagrad 체계에 따라 '*var'및 '*accum'에서 관련 항목을 업데이트하십시오. |
sparsebincount <u는 숫자>를 확장합니다 | 정수 배열에서 각 값의 발생 수를 계산합니다. |
sparsecountsparseoutput <u는 숫자를 확장합니다 | 드문 텐서 입력에 대한 희소 출력 빈 계산을 수행합니다. |
Scrsecrosshashed | 희소하고 조밀 한 텐서 목록에서 드문 크로스를 생성합니다. |
Sparsecrossv2 | 희소하고 조밀 한 텐서 목록에서 드문 크로스를 생성합니다. |
sparsematrixadd | 두 개의 CSR 매트릭스의 드문 첨가, C = alpha * a + 베타 * B. |
sparsematrixmatmul <t> | 매트릭스-다소 틸리 조밀 한 매트릭스가있는 드문 매트릭스. |
sparsematrixmul | 밀도가 높은 텐서로 드문 매트릭스의 원소 별 곱셈. |
sparsematrixnnz | `sparse_matrix`의 비제수 수를 반환합니다. |
sparsematrixorderingamd | '입력'의 대략적인 최소도 (AMD) 순서를 계산합니다. |
sparsematrixsoftmax | CSRSPARSEMATRIX의 SoftMax를 계산합니다. |
sparsematrixsoftmaxgrad | sparsematrixsoftmax op의 그라디언트를 계산합니다. |
sparsematrixsparsecholesky | `입력 '의 희소 한 Cholesky 분해를 계산합니다. |
sparsematrixsparsematmul | 드문 매트릭스-다소 클리 2 개의 CSR 매트릭스`a`와`b`. |
sparsematrixtranspose | CSRSPARSEMATRIX의 내부 (매트릭스) 치수를 전송합니다. |
sparsematrixzeros | ``dense_shape '도 모양의 all-zeros csrsparsematrix를 만듭니다. |
sparsesegmentmeangradv2 <t 연장 번호, u는 숫자를 확장합니다. | sparsesegmentmean을위한 그라디언트를 계산합니다. |
sparsesegmentsqrtngradv2 <t 연장 번호, u는 숫자를 확장합니다. | SparseSegmentsqrtn에 대한 그라디언트를 계산합니다. |
sparsesegmentsumgrad <t는 숫자>를 확장합니다 | sparsesegmentsum에 대한 그라디언트를 계산합니다. |
sparsesegmentsumgradv2 <t 연장 번호, U 확장 번호> | sparsesegmentsum에 대한 그라디언트를 계산합니다. |
sparsetensortocsrsparsematrix | sparsetensor를 CSRSPARSEMATRIX로 변환합니다. |
Spence <t는 숫자를 확장합니다 | |
분할 <t> | 텐서를 1 차원을 따라`num_split '텐서로 나눕니다. |
splitdedupdata <t 연장 번호, u는 숫자를 확장합니다> | OP는 입력 중복 제거 데이터 XLA 튜플을 정수 및 부동 소수점 텐서로 분할합니다. |
splitv <t> | 텐서를 1 차원을 따라`num_split '텐서로 나눕니다. |
스퀴즈 <t> | 텐서 모양에서 크기 1의 치수를 제거합니다. |
스택 <t> | `n` rank-`r` 텐서 목록을 하나의 순위 (r+1)`텐서로 포장합니다. |
단계 | 단계 값은 경량 evqueue와 유사합니다. |
스테이 클리어 | OP는 기본 컨테이너의 모든 요소를 제거합니다. |
Peek | OP는 지정된 인덱스의 값을 살펴 봅니다. |
단계적 | OP는 기본 컨테이너의 요소 수를 반환합니다. |
Statefulrandombinomial <V는 숫자를 연장합니다 | |
Statefulardnormal <u> | 정규 분포에서 임의 값을 출력합니다. |
Statefulardnormalv2 <u> | 정규 분포에서 임의 값을 출력합니다. |
State -UncruncatedNormal <u> | 잘린 정규 분포에서 임의 값을 출력합니다. |
StateFulialiform <u> | 균일 한 분포에서 임의 값을 출력합니다. |
StateFulialiformullint <u> | 균일 한 분포에서 임의의 정수를 출력합니다. |
StateFulialiformint <u> | 균일 한 분포에서 임의의 정수를 출력합니다. |
InstantelessParameterizedTruncatedNormal <V는 숫자>를 확장합니다 | |
무국적 란 돔 비노 미미 <w는 숫자를 확장합니다 | 이항 분포에서 결정 론적 유사 란덤 랜덤 숫자를 출력합니다. |
SANTESSRANDOMGAMMAV2 <V는 숫자를 확장합니다 | 감마 분포에서 결정 론적 의사 산소 임의 숫자를 출력합니다. |
SANTESSRANDOMGAMMAV3 <U 확장 번호> | 감마 분포에서 결정 론적 의사 산소 임의 숫자를 출력합니다. |
무국적 란 도메 트 | 장치를 기반으로 최고의 카운터 기반 RNG 알고리즘을 선택합니다. |
InstationsRandgetKeyCounter | 장치를 기반으로 한 최고의 알고리즘을 사용하여 시드를 키와 카운터로 스크램블합니다. |
SANTESSRANDOMGETKEYCOUNTERALG | 장치를 기반으로 최상의 알고리즘을 선택하고 시드를 키와 카운터로 스크램블합니다. |
SANTESSRANDOMNORMALV2 <u는 숫자를 확장합니다 | 정규 분포에서 결정 론적 유사 란덤 값을 출력합니다. |
Instantessrandompoisson <w는 숫자를 확장합니다 | 포아송 분포에서 결정 론적 의사 산소 랜덤 숫자를 출력합니다. |
instationsrandomuniformullint <v는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
instationsrandomuniformullintv2 <u는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
instationsrandomuniformintv2 <u는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
SANTESSRANDOMUNIFORV2 <U 확장 번호> | 균일 한 분포에서 결정 론적 유사 란덤 랜덤 값을 출력합니다. |
stantelesssampledistordboundingbox <t 숫자> | 이미지를 결정적으로 무작위로 왜곡 된 경계 박스를 생성합니다. |
무국적 <t> | 무작위로 그리고 결정적으로 1 차원을 따라 텐서를 섞습니다. |
InstanctionTruncatedNormalv2 <u는 숫자를 확장합니다 | 절단 된 정규 분포에서 결정 론적 유사 란덤 값을 출력합니다. |
StatsaggregatorHandlev2 | |
statsaggreatorsetsummarywriter | stats_aggregator를 사용하여 통계를 기록하려면 summary_writer_interface를 설정하십시오. |
stochasticcasttoint <u는 숫자를 확장합니다 | 수레에서 ints까지 주어진 텐서를 확률 적으로 시전합니다. |
Stopgradient <t> | 그라디언트 계산을 중지합니다. |
striddslice <t> | `입력 '에서 뾰족한 슬라이스를 반환하십시오. |
striddsliceassign <t> | 'value'를`ref '의 슬라이스 l- 값 참조에 할당하십시오. |
striddslicegrad <u> | 'striddslice'의 그라디언트를 반환합니다. |
StringLower | 모든 대문자를 각각의 소문자 교체로 변환합니다. |
StringNgrams <t 숫자> | 울퉁불퉁 한 문자열 데이터에서 ngrams를 만듭니다. |
StringUpper | 모든 소문자를 각각의 대문자 교체로 변환합니다. |
합계 <t> | 텐서의 치수에 걸쳐 요소의 합을 계산합니다. |
Switchcond <t> | 'pred'에 의해 결정된 출력 포트로 'data'를 전달합니다. |
syncdevice | 이 OP가 실행되는 장치를 동기화합니다. |
tfrecorddatasetv2 | 하나 이상의 tfrecord 파일에서 레코드를 방출하는 데이터 세트를 만듭니다. |
tpucompilationResult | TPU 컴파일 결과를 반환합니다. |
tpucompilesucceededAssert | 편집이 성공했다고 주장합니다. |
tpuembeddingactivations | TPU 임베딩의 분화를 가능하게하는 OP. |
tpuexecute | TPU 장치에서 TPU 프로그램을로드하고 실행하는 OP. |
tpuexecuteandupdatevariables | 옵션 인 내장 변수 업데이트가있는 프로그램을 실행하는 OP. |
tpuordinalselector | TPU 코어 선택기 OP. |
tpupartitionEdInput <t> | 분할 된 입력 목록을 함께 그룹화하는 OP. |
TPUPARTITIONEDINPUTV2 <T> | 분할 된 입력 목록을 함께 그룹화하는 OP. |
tpupartitionedOutput <t> | XLA에 의해 파티션 된 목록에 샤드를 깎을 텐서를 demultiplexe하는 OP XLA 계산 외부의 출력. |
tpupartitionedOutputv2 <t> | XLA에 의해 파티션 된 목록에 샤드를 깎을 텐서를 demultiplexe하는 OP XLA 계산 외부의 출력. |
TPUREPLICATEMETADATA | TPU 계산을 어떻게 복제 해야하는지를 나타내는 메타 데이터. |
tpureplicatedInput <t> | N 입력을 N- 웨이 복제 된 TPU 계산에 연결합니다. |
tpureplicatedOutput <t> | N- 웨이 복제 된 TPU 계산에서 N 출력을 연결합니다. |
tpureshardvaribles | OP 기준 TPU 변수를 지정된 상태로 재구성하는 OP. |
tpuroundrobin | TPU 코어의 라운드 로빈 하중 밸런싱. |
임시 평가 <t> | 돌연변이 될 수 있지만 단일 단계 내에서만 지속되는 텐서를 반환합니다. |
TensorArray | 주어진 크기의 텐서 배열. |
TensorArrayClose | 자원 컨테이너에서 TensorArray를 삭제하십시오. |
TensorArrayConcat <t> | TensorArray에서 value`value '로 요소를 연결하십시오. |
TensorArraygather <t> | TensorArray에서 특정 요소를 출력 'value'로 수집하십시오. |
TensorArraygrad | 주어진 핸들에 값의 그라디언트를 저장하기위한 텐소 라 레이를 만듭니다. |
TensorArraygradwithShape | 주어진 핸들에 여러 값의 값을 저장하기위한 텐소 라 레이를 만듭니다. |
TensorArraypack <t> | |
TensorArrayread <T> | TensorArray에서 출력 'value'로 요소를 읽으십시오. |
TensorArrayscatter | 입력 값에서 데이터를 특정 TensorArray 요소로 산출하십시오. |
TensorArraysize | TensorArray의 현재 크기를 얻으십시오. |
TensorArraysplit | 입력 값에서 데이터를 TensorArray 요소로 분할하십시오. |
Tensorarrayunpack | |
TensorArraywrite | Tensor_Array에 요소를 밀어 넣으십시오. |
TensorlistConcat <t> | 0 차원을 따라 목록에있는 모든 텐서. |
Tensorlistconcatlist | |
Tensorlistconcatv2 <u> | 0 차원을 따라 목록에있는 모든 텐서. |
TensorListElementshape <t는 숫자>를 확장합니다 | 텐서로서 주어진 목록의 요소의 모양. |
Tensorlistfromtensor | 쌓을 때``tensor ''의 값을 갖는 Tensorlist를 만듭니다. |
Tensorlistgather <t> | Tensorlist에 인덱싱하여 텐서를 만듭니다. |
TensorlistgetItem <t> | |
Tensorlistlength | 입력 텐서 목록에서 텐서 수를 반환합니다. |
Tensorlistpopback <t> | 입력 목록의 마지막 요소와 해당 요소를 제외한 모든 목록을 반환합니다. |
Tensorlistpushback | 전달 된```````````tensor "가 마지막 요소와`input_handle '의 주어진 목록의 다른 요소가있는 목록을 반환합니다. |
Tensorlistpushbackbatch | |
Tensorlistreserve | 빈 요소가있는 주어진 크기 목록. |
Tensorlistresize | 목록을 크게 조정합니다. |
Tensorlistscatter | 텐서로 인덱싱하여 텐소리스트를 만듭니다. |
TensorlistscatterintoExistinglist | 입력 목록의 지수에서 텐서를 산란시킵니다. |
Tensorlistscatterv2 | 텐서로 인덱싱하여 텐소리스트를 만듭니다. |
TensorlistSetItem | |
Tensorlistsplit | 텐서를 목록으로 나눕니다. |
Tensorliststack <t> | 목록의 모든 텐서를 쌓습니다. |
텐서 페라 제 | 주어진 키가 지워진 항목으로 텐서 맵을 반환합니다. |
Tensormaphaskey | 주어진 키가지도에 존재하는지 여부를 반환합니다. |
Tensormapinsert | 주어진 키 값 쌍이 삽입 한 'input_handle'인 맵을 반환합니다. |
Tensormaplookup <u> | 텐서 맵에서 주어진 키에서 값을 반환합니다. |
Tensormapsize | 입력 텐서 맵에서 텐서 수를 반환합니다. |
Tensormapstackkeys <t> | 텐서 맵에서 모든 키의 텐서 스택을 반환합니다. |
Tensorscatteradd <t> | 'Indices'에 따라 기존 텐서에 Sparse`updates '를 추가합니다. |
Tensorscattermax <t> | 요소 별 최대 값을 취하는 텐서에 드문 업데이트를 적용하십시오. |
Tensorscattermin <t> | |
Tensorscattersub <t> | `indices '에 따라 기존 텐서에서 스파 스`updates'를 빼냅니다. |
Tensorscatterupdate <t> | 'indices'에 따라 '업데이트'를 기존 텐서로 뿌립니다. |
TensorstridedSliceUpdate <t> | 'value'를 '입력'의 슬라이스 된 l- 값 참조에 할당하십시오. |
ThreadPooldataSet | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 만듭니다. |
ThreadPoolhandle | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 만듭니다. |
타일 <t> | 주어진 텐서 타일링하여 텐서를 구축합니다. |
타임스탬프 | Epoch 이후 몇 초 만에 시간을 제공합니다. |
Tobool | 텐서를 스칼라 술어로 변환합니다. |
TopKunique | 배열에서 TOPK 고유 값을 정렬 된 순서로 반환합니다. |
Topkwithunique | 배열의 TOPK 값을 정렬 된 순서로 반환합니다. |
tpuhandletoprotokey | XRT의 UID 핸들을 Tensorflow 친화적 인 입력 형식으로 변환합니다. |
tridiagonalmatmul <t> | Tridiagonal 매트릭스로 제품을 계산하십시오. |
tridiagonalsolve <t> | 방정식의 트리 다이밀 시스템을 해결합니다. |
UNDATH <T> | 단일 출력 텐서에 대한 배치 작동을 뒤집습니다. |
UNDATTHGRAD <T> | UNDATH의 기울기. |
비 압축 | 압축되지 않은 데이터 세트 요소를 압축합니다. |
unicodedecode <t는 숫자>를 확장합니다 | 각 문자열을 '입력'의 유니 코드 코드 포인트 시퀀스로 디코딩합니다. |
Unicodeencode | Ints의 텐서를 유니 코드 문자열로 인코딩합니다. |
균일 한 정당화 <u는 숫자를 확장합니다 | 양자화 된 텐서 '입력'에 대한 quantization을 수행하십시오. |
균일 한 quantize <u> | 텐서 '입력'에서 양자화를 수행하십시오. |
균일 한 quantizedadd <t> | 양자화 된 텐서`lhs`와 양자화 된 텐서`rhs`를 양자화 된 추가를 수행하여 양자화 된 '출력'을 수행하십시오. |
균일 한 quantizedclipbyvalue <t> | 양자화 된 텐서 'Operand'에서 값으로 클립을 수행하십시오. |
균일 한 quantizedconvolution <u> | 양자화 된 텐서`lhs` 및 양자화 된 텐서`rhs '의 양자화 된 컨볼 루션을 수행하십시오. |
균일 한 QuantizedConvolutionHybrid <v는 숫자>를 확장합니다 | 플로트 텐서`lhs`와 양자화 된 텐서`rhs`의 하이브리드 양자화 된 컨볼 루션을 수행하십시오. |
균일 한 QuantizedDot <u> | 양자화 된 텐서`lhs`와 양자화 된 텐서`rhs`의 양자화 된 도트를 수행하여 양자화 된 '출력'을 만듭니다. |
균일 한 QuantizedDothybrid <V는 숫자를 확장합니다 | 플로트 텐서`lhs`와 양자화 된 텐서`rhs '의 하이브리드 양자화 된 도트를 수행하십시오. |
균일 한 대기 <u> | 양자화 된 텐서 '입력'이 주어지면 새로운 양자화 매개 변수로이를 요구합니다. |
고유 <t, v는 숫자를 확장합니다> | 텐서 축을 따라 독특한 요소를 찾습니다. |
iriquedataset | 'input_dataset'의 고유 한 요소가 포함 된 데이터 세트를 만듭니다. |
IliqueWithCounts <t, v는 숫자>를 연장합니다 | 텐서 축을 따라 독특한 요소를 찾습니다. |
UnsavelIndex <t는 숫자>를 확장합니다 | 평평한 지수를 튜플의 좌표 배열로 변환합니다. |
UnsortedSegmentjoin | |
<t>를 풀었다 | 주어진 차원의 랭크‘rant "(r-1)```텐서 (R-1) 텐서로 주어진 차원을 풀립니다. |
무대 | OP는 경량 퇴적물과 유사합니다. |
Unprapdatasetvariant | |
어퍼 바운드 <U 확장 번호> | 각 행을 따라 상류 _bound (sorted_search_values, 값)를 적용합니다. |
varhandleop | 가변 자원에 대한 핸들을 만듭니다. |
varisinitialized | 리소스 핸들 기반 변수가 초기화되었는지 확인합니다. |
변수 <t> | 단계를 가로 질러 지속되는 텐서의 형태로 상태를 유지합니다. |
variableShape <t는 숫자를 확장합니다 | `resource '로 가리키는 변수의 모양을 반환합니다. |
어디 | 텐서에서 0이 아닌 / 실제 값의 위치를 반환합니다. |
여기서 3 <t> | `조건 '에 따라`x` 또는`y`에서 요소를 선택합니다. |
Windowop | |
Workerheartbeat | 노동자 심장 박동 OP. |
WrapdatasetVariant | |
Writerawprotosummary | 직렬화 된 프로토 요약을 작성합니다. |
xlaconcatnd <t> | Concats는 모든 차원에서 텐서를 입력합니다. |
xlarecvfromhost <t> | 호스트로부터 텐서를받는 OP. |
xlarecvtpuembeddingactivations | TPU에 임베딩 활성화를 수신하는 OP. |
xlarecvtpuembeddingduplicationData | 임베딩 코어에서 중복 제거 데이터 (지수 및 가중치)를 수신합니다. |
xlasendtpuembeddinggradients | 임베딩 테이블의 기울기 업데이트를 수행하는 OP. |
xlasendtohost | 텐서를 호스트에게 보내는 OP. |
xlasplitnd <t> | 모든 치수에 입력 텐서를 분할합니다. |
xlog1py <t> | x == 0이면 0을 반환하고 x * log1p (y)는 그렇지 않으면 요소를 반환합니다. |
0 <t> | 같은 모양으로 0의 텐서를 반환하고 x와 유형을 유형합니다. |