중단 | 호출 시 프로세스를 중단하려면 예외를 발생시킵니다. |
모두 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두투모두 <T> | TPU 복제본 간에 데이터를 교환하는 작업입니다. |
익명IteratorV2 | 반복자 리소스의 컨테이너입니다. |
익명메모리캐시 | |
익명MultiDeviceIterator | 다중 장치 반복자 리소스에 대한 컨테이너입니다. |
익명RandomSeedGenerator | |
익명SeedGenerator | |
어느 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
ApplyAdagradV2 <T> | adagrad 체계에 따라 '*var'를 업데이트합니다. |
Assert카디널리티데이터세트 | |
AssertNextDataset | 다음에 어떤 변환이 발생하는지 확인하는 변환입니다. |
주장하다 | 주어진 조건이 참인지 확인합니다. |
<T> 할당 | 'value'를 할당하여 'ref'를 업데이트합니다. |
할당추가 <T> | 'value'를 추가하여 'ref'를 업데이트합니다. |
할당AddVariableOp | 변수의 현재 값에 값을 추가합니다. |
AssignSub <T> | 'value'를 빼서 'ref'를 업데이트합니다. |
AssignSubVariableOp | 변수의 현재 값에서 값을 뺍니다. |
할당변수작업 | 변수에 새 값을 할당합니다. |
AutoShard데이터세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
BandedTriangularSolve <T> | |
장벽 | 다양한 그래프 실행에서 지속되는 장벽을 정의합니다. |
장벽닫기 | 주어진 장벽을 닫습니다. |
장벽불완전한크기 | 주어진 장벽의 불완전한 요소 수를 계산합니다. |
장벽삽입많은 | 각 키에 대해 해당 값을 지정된 구성 요소에 할당합니다. |
배리어준비크기 | 주어진 장벽의 완전한 요소 수를 계산합니다. |
장벽가져다많은 | 장벽에서 주어진 수의 완성된 요소를 가져옵니다. |
일괄 | 모든 입력 텐서를 비결정적으로 일괄 처리합니다. |
BatchMatMulV2 <T> | 두 개의 텐서 조각을 일괄적으로 곱합니다. |
BatchToSpace <T> | T 유형의 4차원 텐서에 대한 BatchToSpace. |
BatchToSpaceNd <T> | T 유형의 ND 텐서에 대한 BatchToSpace. |
BesselI0 <T 확장 번호> | |
BesselI1 <T 확장 번호> | |
BesselJ0 <T 확장 번호> | |
BesselJ1 <T 확장 번호> | |
BesselK0 <T 확장 번호> | |
BesselK0e <T 확장 번호> | |
BesselK1 <T 확장 번호> | |
BesselK1e <T 확장 번호> | |
BesselY0 <T 확장 번호> | |
BesselY1 <T 확장 번호> | |
비트캐스트 <U> | 데이터를 복사하지 않고 한 유형에서 다른 유형으로 텐서를 비트캐스트합니다. |
BlockLSTM <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BlockLSTMGrad <T 확장 번호> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMGradV2 <T는 숫자를 확장합니다> | 전체 시간 시퀀스에 대한 LSTM 셀 역전파를 계산합니다. |
BlockLSTMV2 <T는 숫자를 확장합니다> | 모든 시간 단계에 대해 LSTM 셀의 순방향 전파를 계산합니다. |
BoostedTreesAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTrees버킷화 | 버킷 경계를 기준으로 각 기능을 버킷화합니다. |
BoostedTreesCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestFeatureSplitV2 | 각 기능에 대한 이득을 계산하고 각 노드에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTreesCalculateBestGainsPerFeature | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees센터바이어스 | 훈련 데이터(편향)에서 사전을 계산하고 첫 번째 노드를 로짓의 사전으로 채웁니다. |
BoostedTreesCreateEnsemble | 트리 앙상블 모델을 생성하고 이에 대한 핸들을 반환합니다. |
BoostedTreesCreateQuantileStreamResource | Quantile Streams에 대한 리소스를 생성합니다. |
BoostedTreesDeserializeEnsemble | 직렬화된 트리 앙상블 구성을 역직렬화하고 현재 트리를 대체합니다. 앙상블. |
BoostedTreesEnsembleResourceHandleOp | BoostedTreesEnsembleResource에 대한 핸들을 생성합니다. |
BoostedTrees예제디버그 출력 | 각 예제에 대한 디버깅/모델 해석 가능성 출력. |
BoostedTreesFlushQuantile요약 | 각 분위수 스트림 리소스에서 분위수 요약을 플러시합니다. |
BoostedTreesGetEnsembleStates | 나무 앙상블 리소스 스탬프 토큰, 나무 수 및 성장 통계를 검색합니다. |
BoostedTreesMakeQuantile요약 | 배치에 대한 분위수의 요약을 작성합니다. |
BoostedTreesMakeStats요약 | 배치에 대해 누적된 통계를 요약합니다. |
BoostedTree예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 로짓을 계산합니다. |
BoostedTreesQuantileStreamResourceAddSummaries | 각 분위수 스트림 리소스에 분위수 요약을 추가합니다. |
BoostedTreesQuantileStreamResourceDeserialize | 버킷 경계와 준비 플래그를 현재 QuantileAccumulator로 역직렬화합니다. |
BoostedTreesQuantileStreamResourceFlush | 분위수 스트림 리소스에 대한 요약을 플러시합니다. |
BoostedTreesQuantileStreamResourceGetBucketBoundaries | 누적된 요약을 기반으로 각 기능에 대한 버킷 경계를 생성합니다. |
BoostedTreesQuantileStreamResourceHandleOp | BoostedTreesQuantileStreamResource에 대한 핸들을 생성합니다. |
BoostedTreesSerializeEnsemble | 트리 앙상블을 proto로 직렬화합니다. |
BoostedTreesSparseAggregateStats | 배치에 대해 누적된 통계 요약을 집계합니다. |
BoostedTreeSparseCalculateBestFeatureSplit | 각 기능에 대한 이득을 계산하고 기능에 대해 가능한 최상의 분할 정보를 반환합니다. |
BoostedTrees훈련예측 | 입력 인스턴스에서 여러 가산 회귀 앙상블 예측기를 실행하고 캐시된 로짓에 대한 업데이트를 계산합니다. |
BoostedTreesUpdate앙상블 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BoostedTreesUpdateEnsembleV2 | 성장 중인 마지막 나무에 레이어를 추가하여 나무 앙상블을 업데이트합니다. 또는 새 트리를 시작하여. |
BroadcastDynamicShape <T는 숫자를 확장함> | 브로드캐스트를 사용하여 s0 op s1의 모양을 반환합니다. |
BroadcastGradientArgs <T는 숫자를 확장합니다> | 브로드캐스트를 사용하여 s0 op s1의 기울기를 계산하기 위한 감소 지수를 반환합니다. |
<T> 에 방송 | 호환 가능한 모양에 대한 배열을 브로드캐스트합니다. |
버킷화 | '경계'를 기준으로 '입력'을 버킷화합니다. |
CSRSparseMatrixComponents <T> | 배치 '인덱스'에서 CSR 구성 요소를 읽습니다. |
CSRSparseMatrixToDense <T> | (아마도 일괄 처리된) CSRSparseMatrix를 고밀도로 변환합니다. |
CSRSparseMatrixToSparseTensor <T> | (아마도 일괄 처리된) CSRSparesMatrix를 SparseTensor로 변환합니다. |
CSV데이터세트 | |
CSV데이터세트V2 | |
CTCLossV2 | 각 배치 항목에 대한 CTC 손실(로그 확률)을 계산합니다. |
캐시데이터세트V2 | |
CheckNumericsV2 <T는 숫자를 확장합니다> | NaN, -Inf 및 +Inf 값에 대한 텐서를 확인합니다. |
가장 빠른 데이터 세트 선택 | |
클립바이값 <T> | 텐서 값을 지정된 최소값과 최대값으로 자릅니다. |
CollectiveGather <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축적합니다. |
CollectivePermute <T> | 복제된 TPU 인스턴스 전체에서 텐서를 순열하는 작업입니다. |
CollectiveReduceV2 <T 확장 번호> | 동일한 유형과 모양의 여러 텐서를 상호 축소합니다. |
CombinedNonMaxSuppression | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. 이 작업은 모든 클래스에서 배치당 입력에 대해 non_max_suppression을 수행합니다. |
요소 압축 | 데이터 세트 요소를 압축합니다. |
ComputeBatchSize | 부분 배치가 없는 데이터 세트의 정적 배치 크기를 계산합니다. |
연결 <T> | 한 차원을 따라 텐서를 연결합니다. |
분산TPU 구성 | 분산 TPU 시스템의 중앙 집중식 구조를 설정합니다. |
TPU임베딩 구성 | 분산 TPU 시스템에서 TPUEmbedding을 설정합니다. |
상수 <T> | 상수 값을 생성하는 연산자입니다. |
소비MutexLock | 이 작업은 `MutexLock`에 의해 생성된 잠금을 사용합니다. |
제어트리거 | 아무것도 하지 않습니다. |
복사 <T> | CPU에서 CPU로 또는 GPU에서 GPU로 텐서를 복사합니다. |
카피호스트 <T> | 텐서를 호스트에 복사합니다. |
CountUpTo <T는 숫자를 확장합니다> | 'limit'에 도달할 때까지 'ref'를 증가시킵니다. |
CrossReplicaSum <T 확장 번호> | 복제된 TPU 인스턴스 전체에서 입력을 합산하는 작업입니다. |
CudnnRNNBackpropV3 <T 확장 번호> | CudnnRNNV3의 역전파 단계. |
CudnnRNNCanonicalToParamsV2 <T는 숫자를 확장합니다> | CudnnRNN 매개변수를 표준 형식에서 사용 가능한 형식으로 변환합니다. |
CudnnRNNParamsToCanonicalV2 <T는 숫자를 확장합니다> | 표준 형식으로 CudnnRNN 매개변수를 검색합니다. |
CudnnRNNV3 <T 확장 번호> | cuDNN이 지원하는 RNN입니다. |
CumulativeLogsumexp <T 확장 숫자> | '축'을 따라 텐서 'x'의 누적 곱을 계산합니다. |
DataService데이터 세트 | |
데이터 세트 카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
데이터세트FromGraph | 주어진 `graph_def`에서 데이터세트를 생성합니다. |
DatasetToGraphV2 | 'input_dataset'을 나타내는 직렬화된 GraphDef를 반환합니다. |
Dawsn <T 확장 번호> | |
DebugGradientIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
DebugGradientRefIdentity <T> | 그래디언트 디버깅을 위한 ID 작업입니다. |
디버그 ID <T> | 디버깅을 위해 Ref가 아닌 유형 입력 텐서의 ID 매핑을 제공합니다. |
DebugIdentityV2 <T> | 디버그 ID V2 Op. |
DebugNanCount | NaN 값 카운터 Op. 디버그 |
디버그숫자요약 | 디버그 수치 요약 Op. |
DebugNumericSummaryV2 <U 확장 번호> | 디버그 수치 요약 V2 Op. |
DecodeImage <T는 숫자를 확장합니다> | decode_bmp, decode_gif, decode_jpeg 및 decode_png에 대한 함수입니다. |
DecodePaddedRaw <T는 숫자를 확장합니다> | 문자열의 바이트를 숫자 벡터로 재해석합니다. |
디코드프로토 | 연산은 직렬화된 프로토콜 버퍼 메시지의 필드를 텐서로 추출합니다. |
딥카피 <T> | `x`의 복사본을 만듭니다. |
삭제반복자 | 반복자 리소스의 컨테이너입니다. |
메모리캐시 삭제 | |
다중 장치 반복자 삭제 | 반복자 리소스의 컨테이너입니다. |
삭제RandomSeedGenerator | |
삭제시드 생성기 | |
삭제세션텐서 | 세션의 핸들로 지정된 텐서를 삭제합니다. |
DenseBincount <U 확장 숫자> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
DenseCountSparseOutput <U 확장 숫자> | tf.tensor 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
DenseToCSRSparseMatrix | 조밀한 텐서를 (아마도 일괄 처리된) CSRSparseMatrix로 변환합니다. |
DestroyResourceOp | 핸들에 지정된 리소스를 삭제합니다. |
DestroyTemporary변수 <T> | 임시 변수를 삭제하고 최종 값을 반환합니다. |
DeviceIndex | 작업이 실행되는 장치의 인덱스를 반환합니다. |
DirectedInterleave데이터세트 | 'N' 데이터 세트의 고정 목록에서 'InterleaveDataset'을 대체합니다. |
DrawBoundingBoxesV2 <T는 숫자를 확장합니다> | 이미지 배치에 경계 상자를 그립니다. |
더미반복카운터 | |
더미메모리캐시 | |
더미 시드 생성기 | |
동적파티션 <T> | `파티션`의 인덱스를 사용하여 `데이터`를 `num_partitions` 텐서로 분할합니다. |
다이나믹스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
편집거리 | (정규화된) Levenshtein Edit Distance를 계산합니다. |
에이그 <U> | 하나 이상의 정사각 행렬의 고유 분해를 계산합니다. |
아인섬 <T> | 아인슈타인 합산 규칙에 따른 텐서 수축. |
비어 있음 <T> | 주어진 모양으로 텐서를 생성합니다. |
빈TensorList | 빈 텐서 목록을 생성하고 반환합니다. |
비어있음TensorMap | 빈 텐서 맵을 생성하고 반환합니다. |
EncodeProto | op는 입력 텐서에 제공된 protobuf 메시지를 직렬화합니다. |
EnqueueTPUEmbeddingIntegerBatch | 입력 배치 텐서 목록을 TPUEmbedding에 추가하는 작업입니다. |
EnqueueTPUEmbeddingRaggedTensorBatch | tf.nn.embedding_lookup()을 사용하는 코드 포팅을 쉽게 합니다. |
EnqueueTPUEmbeddingSparseBatch | SparseTensor에서 TPUEmbedding 입력 인덱스를 대기열에 추가하는 작업입니다. |
EnqueueTPUEmbeddingSparseTensorBatch | tf.nn.embedding_lookup_sparse()를 사용하는 코드 포팅을 쉽게 합니다. |
형태 보장 <T> | 텐서의 모양이 예상되는 모양과 일치하는지 확인합니다. |
<T>를 입력하세요 | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
Erfinv <T 확장 번호> | |
유클리드표준 <T> | 텐서의 차원 전체에 걸쳐 요소의 유클리드 노름을 계산합니다. |
종료 <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
ExpandDim <T> | 텐서의 모양에 1차원을 삽입합니다. |
ExperimentalAutoShard데이터 세트 | 입력 데이터 세트를 샤딩하는 데이터 세트를 생성합니다. |
ExperimentalBytesProducedStatsDataset | StatsAggregator에 있는 'input_dataset'의 각 요소의 바이트 크기를 기록합니다. |
실험적ChooseFastestDataset | |
실험적데이터세트카디널리티 | `input_dataset`의 카디널리티를 반환합니다. |
ExperimentalDatasetToTFRecord | TFRecord 형식을 사용하여 지정된 파일에 지정된 데이터세트를 씁니다. |
ExperimentalDenseToSparseBatchDataset | 입력 요소를 SparseTensor로 일괄 처리하는 데이터 세트를 생성합니다. |
실험적 지연 시간 통계 데이터 세트 | StatsAggregator에서 'input_dataset' 요소를 생성하는 지연 시간을 기록합니다. |
ExperimentalMatchingFiles데이터 세트 | |
ExperimentalMaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
ExperimentalParseExampleDataset | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
ExperimentalPrivateThreadPoolDataset | 'input_dataset'을 계산하기 위해 커스텀 스레드 풀을 사용하는 데이터세트를 생성합니다. |
실험적 무작위 데이터세트 | 의사 난수를 반환하는 데이터 세트를 만듭니다. |
ExperimentalRebatch데이터 세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
ExperimentalSetStatsAggregatorDataset | |
ExperimentalSlidingWindowDataset | `input_dataset`에 대한 슬라이딩 윈도우를 전달하는 데이터세트를 생성합니다. |
ExperimentalSqlDataset | SQL 쿼리를 실행하고 결과 집합의 행을 내보내는 데이터 집합을 만듭니다. |
실험적StatsAggregatorHandle | 통계 관리자 리소스를 생성합니다. |
ExperimentalStatsAggregator요약 | 지정된 통계 관리자가 기록한 모든 통계의 요약을 생성합니다. |
ExperimentalUnbatchDataset | 입력 요소를 여러 요소로 분할하는 데이터세트입니다. |
Expint <T는 숫자를 확장합니다> | |
ExtractGlimpseV2 | 입력 텐서에서 엿볼 수 있는 내용을 추출합니다. |
ExtractVolumePatches <T 확장 번호> | `입력`에서 `패치`를 추출하여 `"깊이"` 출력 차원에 넣습니다. |
채우기 <U> | 스칼라 값으로 채워진 텐서를 생성합니다. |
지문 | 지문 값을 생성합니다. |
FresnelCos <T 확장 번호> | |
FresnelSin <T는 숫자를 확장함> | |
FusedBatchNormGradV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화를 위한 기울기입니다. |
FusedBatchNormV3 <T는 숫자 확장, U는 숫자 확장> | 일괄 정규화. |
GRUblockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 순방향 전파를 계산합니다. |
GRUBlockCellGrad <T는 숫자를 확장합니다> | 1시간 단계에 대한 GRU 셀 역전파를 계산합니다. |
모아 <T> | `indices`에 따라 `params` 축 `axis`에서 슬라이스를 수집합니다. |
집결 <T> | `params`의 조각을 `indices`로 지정된 모양의 Tensor로 수집합니다. |
BoundingBoxProposals 생성 | 이 작업은 arXiv:1506.01497의 eq.2에 따라 주어진 경계 상자(bbox_deltas)로 인코딩된 wrt 앵커로부터 관심 영역을 생성합니다. op는 상위 `pre_nms_topn` 점수 상자를 선택하고 앵커와 관련하여 디코딩하며 `nms_threshold` 교차-결합(iou) 값보다 높은 중첩 상자에 최대 비최대 억제를 적용하고 짧은 변이 `보다 작은 상자를 삭제합니다. 최소_크기`. |
세션 핸들 가져오기 | 입력 텐서를 현재 세션 상태로 저장합니다. |
GetSessionTensor <T> | 핸들로 지정된 텐서의 값을 가져옵니다. |
그라데이션 | y s wrt x s의 합의 편도함수를 계산하는 연산을 추가합니다. 즉, d(y_1 + y_2 + ...)/dx_1, d(y_1 + y_2 + ...)/dx_2... Options.dx() 값이 설정되면 일부 손실 함수 L wrt의 초기 기호 편도함수와 같습니다. |
보증 상수 <T> | 입력 텐서가 상수임을 TF 런타임에 보장합니다. |
해시테이블 | 초기화되지 않은 해시 테이블을 생성합니다. |
HistogramFixedWidth <U 확장 숫자> | 값의 히스토그램을 반환합니다. |
신원 <T> | 입력 텐서 또는 값과 모양과 내용이 동일한 텐서를 반환합니다. |
아이덴티티N | 입력과 모양 및 내용이 동일한 텐서 목록을 반환합니다. 텐서. |
오류 무시데이터 세트 | 오류를 무시하고 'input_dataset' 요소가 포함된 데이터세트를 생성합니다. |
ImageProjectiveTransformV2 <T는 숫자를 확장합니다> | 주어진 변환을 각 이미지에 적용합니다. |
ImmutableConst <T> | 메모리 영역에서 불변 텐서를 반환합니다. |
인피드큐 제거 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
InfeedDequeueTuple | 인피드에서 XLA 튜플로 여러 값을 가져옵니다. |
인피드인큐 | 단일 Tensor 값을 계산에 제공하는 연산입니다. |
InfeedEnqueuePrelinearizedBuffer | 사전 선형화된 버퍼를 TPU 인피드에 추가하는 작업입니다. |
InfeedEnqueueTuple | 여러 Tensor 값을 XLA 튜플로 계산에 입력합니다. |
테이블 초기화 | 키와 값에 각각 두 개의 텐서를 사용하는 테이블 초기화 프로그램입니다. |
TableFromDataset 초기화 | |
TableFromTextFile 초기화 | 텍스트 파일에서 테이블을 초기화합니다. |
내부추가 <T> | x의 지정된 행에 v를 추가합니다. |
InplaceSub <T> | 'x'의 지정된 행에서 'v'를 뺍니다. |
인플레이스업데이트 <T> | 지정된 행 'i'를 값 'v'로 업데이트합니다. |
IsBoostedTreesEnsembleInitialized | 트리 앙상블이 초기화되었는지 확인합니다. |
IsBoostedTreesQuantileStreamResourceInitialized | Quantile 스트림이 초기화되었는지 확인합니다. |
변수가 초기화됨 | 텐서가 초기화되었는지 확인합니다. |
IsotonicRegression <U 확장 숫자> | 일련의 등장성 회귀 문제를 해결합니다. |
IteratorGetDevice | `리소스`가 배치된 장치의 이름을 반환합니다. |
KMC2Chain초기화 | 시드 세트에 추가되어야 하는 데이터 포인트의 인덱스를 반환합니다. |
KmeansPlusPlus초기화 | KMeans++ 기준을 사용하여 num_to_sample개의 입력 행을 선택합니다. |
KthOrder통계 | 데이터 세트의 K차 통계를 계산합니다. |
LMDB데이터세트 | 하나 이상의 LMDB 파일에 키-값 쌍을 내보내는 데이터 세트를 생성합니다. |
LSTMBlockCell <T는 숫자를 확장합니다> | 1시간 단계에 대한 LSTM 셀의 순방향 전파를 계산합니다. |
LSTMBlockCellGrad <T는 숫자를 확장합니다> | 1개 시간 단계에 대한 LSTM 셀 역전파를 계산합니다. |
LinSpace <T는 숫자를 확장합니다> | 일정 간격으로 값을 생성합니다. |
TPU임베딩ADAM매개변수 로드 | ADAM 포함 매개변수를 로드합니다. |
LoadTPUEmbeddingADAMParametersGradAccumDebug | 디버그 지원을 통해 ADAM 포함 매개변수를 로드합니다. |
LoadTPUEmbeddingAdadelta매개변수 | Adadelta 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingAdadeltaParametersGradAccumDebug | 디버그 지원을 통해 Adadelta 매개변수를 로드합니다. |
LoadTPUE임베딩Adagrad매개변수 | Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingAdagradParametersGradAccumDebug | 디버그 지원을 통해 Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingCenteredRMSProp매개변수 | 로드 중심 RMSProp 임베딩 매개변수입니다. |
LoadTPUEmbeddingFTRL매개변수 | FTRL 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingFTRLParametersGradAccumDebug | 디버그 지원을 통해 FTRL 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingMDLadagradLight매개변수 | MDL Adagrad Light 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingMomentum매개변수 | Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingMomentumParametersGradAccumDebug | 디버그 지원을 통해 Momentum 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalAdagrad매개변수 | 근위 Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalAdagradParametersGradAccumDebug | 디버그 지원을 통해 근위 Adagrad 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingProximalYogi매개변수 | |
LoadTPUEmbeddingProximalYogiParametersGradAccumDebug | |
LoadTPUEmbeddingRMSProp매개변수 | RMSProp 임베딩 매개변수를 로드합니다. |
LoadTPUEmbeddingRMSPropParametersGradAccumDebug | 디버그 지원을 통해 RMSProp 임베딩 매개변수를 로드합니다. |
LoadTPUE임베딩확률적 경사하강 매개변수 | SGD 내장 매개변수를 로드합니다. |
LoadTPUE임베딩확률적 경사하강 매개변수GradAccumDebug | SGD 내장 매개변수를 로드합니다. |
LookupTableExport <T, U> | 테이블의 모든 키와 값을 출력합니다. |
조회테이블찾기 <U> | 테이블에서 키를 조회하고 해당 값을 출력합니다. |
조회테이블가져오기 | 테이블의 내용을 지정된 키와 값으로 바꿉니다. |
조회테이블삽입 | 키를 값과 연결하도록 테이블을 업데이트합니다. |
조회테이블제거 | 테이블에서 키와 관련 값을 제거합니다. |
조회테이블 크기 | 주어진 테이블의 요소 수를 계산합니다. |
LoopCond | 입력을 출력으로 전달합니다. |
LowerBound <U 확장 번호> | 각 행을 따라 lower_bound(sorted_search_values,values)를 적용합니다. |
Lu <T, U 확장 숫자> | 하나 이상의 정사각 행렬의 LU 분해를 계산합니다. |
고유하게 만들기 | 배치가 아닌 차원의 모든 요소를 고유하게 만드십시오. 단, 다음과 \"가까운\" 초기값. |
지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
지도불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
지도Peek | Op는 지정된 키의 값을 엿봅니다. |
지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
맵스테이지 | 해시테이블처럼 작동하는 기본 컨테이너의 스테이지(키, 값)입니다. |
지도Unstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
지도UnstageNoKey | Op는 임의의 (키, 값)을 제거하고 반환합니다. 기본 컨테이너에서. |
MatrixDiagPartV2 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagPartV3 <T> | 배치 텐서의 배치 대각선 부분을 반환합니다. |
MatrixDiagV2 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixDiagV3 <T> | 주어진 배치 대각선 값을 갖는 배치 대각선 텐서를 반환합니다. |
MatrixSetDiagV2 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
MatrixSetDiagV3 <T> | 새로운 배치 대각선 값을 갖는 배치 행렬 텐서를 반환합니다. |
최대 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
MaxIntraOpParallelismDataset | 최대 작업 내 병렬 처리를 재정의하는 데이터 세트를 만듭니다. |
<T> 병합 | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
최소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
미러패드 <T> | 미러링된 값으로 텐서를 채웁니다. |
MirrorPadGrad <T> | 'MirrorPad'에 대한 그라데이션 작업입니다. |
MlirPassthroughOp | main() 함수를 사용하여 모듈로 표현된 임의의 MLIR 계산을 래핑합니다. |
물노난 <T> | x * y 요소별로 반환합니다. |
가변밀도해시테이블 | 텐서를 백업 저장소로 사용하는 빈 해시 테이블을 만듭니다. |
가변해시테이블 | 빈 해시 테이블을 생성합니다. |
MutableHashTableOfTensors | 빈 해시 테이블을 생성합니다. |
뮤텍스 | 'MutexLock'으로 잠글 수 있는 Mutex 리소스를 생성합니다. |
MutexLock | 뮤텍스 리소스를 잠급니다. |
NcclAllReduce <T는 숫자를 확장합니다> | 모든 입력 텐서에 대한 감소를 포함하는 텐서를 출력합니다. |
NcclBroadcast <T는 숫자를 확장합니다> | 출력에 연결된 모든 장치에 '입력'을 보냅니다. |
NcclReduce <T는 숫자를 확장합니다> | 단일 장치에 대한 `reduction`을 사용하여 `num_devices`에서 `input`을 줄입니다. |
Ndtri <T 확장 번호> | |
가장 가까운 이웃 | 각 점에 대해 가장 가까운 k개의 중심을 선택합니다. |
다음 <T 확장 번호> 이후 | 요소별로 `x2` 방향으로 표현 가능한 `x1`의 다음 값을 반환합니다. |
다음반복 <T> | 다음 반복에서 해당 입력을 사용할 수 있도록 합니다. |
작동 안함 | 아무것도 하지 않습니다. |
NonDeterministicInts <U> | 일부 정수를 비결정적으로 생성합니다. |
NonMaxSuppressionV5 <T 확장 숫자> | 점수의 내림차순으로 경계 상자의 하위 집합을 탐욕스럽게 선택합니다. IOU(Intersection-Over-Union)가 높은 상자가 이전에 선택한 상자와 겹치는 부분을 제거합니다. |
직렬화 가능하지 않은 데이터세트 | |
원핫 <U> | 원-핫 텐서를 반환합니다. |
같은 사람들 <T> | x와 모양과 유형이 동일한 텐서를 반환합니다. |
OptimizeDatasetV2 | `input_dataset`에 관련 최적화를 적용하여 데이터 세트를 생성합니다. |
주문됨지도지우기 | Op는 기본 컨테이너의 모든 요소를 제거합니다. |
OrderedMap불완전한 크기 | Op는 기본 컨테이너의 불완전한 요소 수를 반환합니다. |
OrderedMapPeek | Op는 지정된 키의 값을 엿봅니다. |
주문된 지도 크기 | Op는 기본 컨테이너의 요소 수를 반환합니다. |
OrderedMapStage | 순서가 지정된 것처럼 동작하는 기본 컨테이너의 단계(키, 값) 연관 컨테이너. |
OrderedMapUnstage | Op는 키와 관련된 값을 제거하고 반환합니다. 기본 컨테이너에서. |
OrderedMapUnstageNoKey | Op는 가장 작은 (키, 값) 요소를 제거하고 반환합니다. 기본 컨테이너의 키입니다. |
아웃피드큐 제거 <T> | 계산 아웃피드에서 단일 텐서를 검색합니다. |
OutfeedDequeueTuple | 계산 아웃피드에서 여러 값을 검색합니다. |
아웃피드인큐 | 계산 아웃피드에 Tensor를 추가합니다. |
OutfeedEnqueueTuple | 계산 아웃피드에 여러 Tensor 값을 대기열에 넣습니다. |
패드 <T> | 텐서를 채웁니다. |
ParallelConcat <T> | 첫 번째 차원을 따라 'N' 텐서 목록을 연결합니다. |
병렬동적스티치 <T> | '데이터' 텐서의 값을 단일 텐서에 인터리브합니다. |
ParseExampleDatasetV2 | DT_STRING의 벡터인 'Example' 프로토를 포함하는 'input_dataset'를 구문 분석된 기능을 나타내는 'Tensor' 또는 'SparseTensor' 개체의 데이터세트로 변환합니다. |
구문 분석ExampleV2 | tf.Example proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
ParseSequenceExampleV2 | tf.io.SequenceExample proto의 벡터(문자열)를 형식화된 텐서로 변환합니다. |
자리 표시자 <T> | 계산에 입력될 값에 대한 자리 표시자 작업입니다. |
PlaceholderWithDefault <T> | 출력이 제공되지 않을 때 '입력'을 통과하는 자리 표시자 작업입니다. |
사전선형화 | 하나의 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
사전선형화Tuple | 여러 Tensor 값을 불투명한 변형 텐서로 선형화하는 작업입니다. |
프리미티브Op | 단일 Operation 에 의해 지원되는 Op 구현을 위한 기본 클래스입니다. |
인쇄 | 문자열 스칼라를 인쇄합니다. |
PrivateThreadPoolDataset | 'input_dataset'을 계산하기 위해 커스텀 스레드 풀을 사용하는 데이터세트를 생성합니다. |
프로덕션 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
QuantizedConcat <T> | 한 차원을 따라 양자화된 텐서를 연결합니다. |
QuantizedConv2DAndRelu <V> | |
QuantizedConv2DAndReluAndReQuantize <V> | |
QuantizedConv2DAndReQuantize <V> | |
QuantizedConv2DPerChannel <V> | 채널당 QuantizedConv2D를 계산합니다. |
QuantizedConv2DWithBias <V> | |
QuantizedConv2DWithBiasAndRelu <V> | |
QuantizedConv2DWithBiasAndReluAndReQuantize <W> | |
QuantizedConv2DWithBiasAndReQuantize <W> | |
QuantizedConv2DWithBiasSignedSumAndReluAndReQuantize <X> | |
QuantizedConv2DWithBiasSumAndRelu <V> | |
QuantizedConv2DWithBiasSumAndReluAndReQuantize <X> | |
QuantizedDepthwiseConv2D <V> | 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBias <V> | 바이어스를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndRelu <V> | Bias 및 Relu를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedDepthwiseConv2DWithBiasAndReluAndReQuantize <W> | Bias, Relu 및 ReQuantize를 사용하여 양자화된 깊이별 Conv2D를 계산합니다. |
QuantizedMatMulWithBias <W> | 바이어스 덧셈을 사용하여 'a'와 행렬 'b'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndDeQuantize <W 확장 숫자> | |
QuantizedMatMulWithBiasAndRelu <V> | 바이어스 덧셈과 relu 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReluAndReQuantize <W> | 바이어스 덧셈과 relu 및 재양자화 융합을 사용하여 행렬 'b'로 'a'의 양자화된 행렬 곱셈을 수행합니다. |
QuantizedMatMulWithBiasAndReQuantize <W> | |
양자화Reshape <T> | Reshape 작업에 따라 양자화된 텐서를 재구성합니다. |
RaggedBincount <U 확장 번호> | 정수 배열에서 각 값의 발생 횟수를 셉니다. |
RaggedCountSparseOutput <U 확장 숫자> | 비정형 텐서 입력에 대해 희소 출력 Bin 계산을 수행합니다. |
RaggedCross <T, U 확장 숫자> | 텐서 목록에서 특성 교차를 생성하고 이를 RaggedTensor로 반환합니다. |
RaggedGather <T는 Number, U를 확장합니다> | `indices`에 따라 `params` 축 `0`에서 비정형 슬라이스를 수집합니다. |
RaggedRange <U는 숫자 확장, T는 숫자 확장> | 지정된 숫자 시퀀스를 포함하는 'RaggedTensor'를 반환합니다. |
RaggedTensorFromVariant <U 확장 번호, T> | '변형' Tensor를 'RaggedTensor'로 디코딩합니다. |
RaggedTensorToSparse <U> | `RaggedTensor`를 동일한 값을 가진 `SparseTensor`로 변환합니다. |
비정형TensorToTensor <U> | 비정형 텐서에서 조밀한 텐서를 생성하여 모양을 변경할 수 있습니다. |
비정형TensorToVariant | 'RaggedTensor'를 'variant' Tensor로 인코딩합니다. |
범위 <T는 숫자를 확장합니다> | 일련의 숫자를 생성합니다. |
계급 | 텐서의 순위를 반환합니다. |
ReadVariableOp <T> | 변수의 값을 읽습니다. |
Rebatch데이터세트 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
RebatchDatasetV2 | 배치 크기를 변경하는 데이터세트를 만듭니다. |
수신 <T> | Recv_device의 send_device로부터 명명된 텐서를 받습니다. |
RecvTPUE임베딩 활성화 | TPU에서 임베딩 활성화를 수신하는 작업입니다. |
모두 줄이기 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 및"를 계산합니다. |
모두 감소 | 텐서의 차원 전체에 걸쳐 요소의 "논리적 or"를 계산합니다. |
최대 감소 <T> | 텐서의 차원 전체에서 요소의 최대값을 계산합니다. |
최소 감소 <T> | 텐서의 차원 전체에서 최소 요소를 계산합니다. |
감소생산 <T> | 텐서의 차원에 걸쳐 요소의 곱을 계산합니다. |
합계 감소 <T> | 텐서의 차원 전체에 걸쳐 요소의 합을 계산합니다. |
참조입력 <T> | 하위 프레임을 만들거나 찾고 하위 프레임에서 '데이터'를 사용할 수 있도록 합니다. |
RefExit <T> | 현재 프레임을 상위 프레임으로 종료합니다. |
참조 ID <T> | 입력 참조 텐서와 동일한 참조 텐서를 반환합니다. |
참조병합 <T> | 사용 가능한 텐서의 값을 `inputs`에서 `output`으로 전달합니다. |
RefNext반복 <T> | 다음 반복에서 해당 입력을 사용할 수 있도록 합니다. |
참조선택 <T> | `inputs`의 `index` 번째 요소를 `output`으로 전달합니다. |
참조 스위치 <T> | 참조 텐서 'data'를 'pred'에 의해 결정된 출력 포트로 전달합니다. |
데이터세트 등록 | tf.data 서비스에 데이터 세트를 등록합니다. |
RemoteFusedGraphExecute | 원격 프로세서에서 하위 그래프를 실행합니다. |
재양자화RangePerChannel | 채널당 재양자화 범위를 계산합니다. |
ReQuantizePerChannel <U> | 채널당 알려진 최소 및 최대 값으로 입력을 다시 양자화합니다. |
모양 변경 <T> | 텐서의 형태를 변경합니다. |
ResourceAccumulatorApplyGradient | 지정된 누산기에 그라데이션을 적용합니다. |
ResourceAccumulatorNumAccumulated | 지정된 누산기에서 집계된 그래디언트 수를 반환합니다. |
ResourceAccumulatorSetGlobalStep | global_step에 대한 새 값으로 누산기를 업데이트합니다. |
ResourceAccumulatorTakeGradient <T> | 주어진 ConditionalAccumulator에서 평균 기울기를 추출합니다. |
리소스ApplyAdagradV2 | adagrad 체계에 따라 '*var'를 업데이트합니다. |
자원ApplyAdamWithAmsgrad | Adam 알고리즘에 따라 '*var'를 업데이트합니다. |
ResourceApplyKeras모멘텀 | 모멘텀 체계에 따라 '*var'를 업데이트합니다. |
자원조건부누산기 | 그라디언트 집계를 위한 조건부 누산기입니다. |
ResourceCountUpTo <T 확장 번호> | 'resource'가 가리키는 변수가 'limit'에 도달할 때까지 증가합니다. |
리소스게더 <U> | `indices`에 따라 `resource`가 가리키는 변수에서 조각을 수집합니다. |
리소스게더Nd <U> | |
자원분산추가 | `resource`가 참조하는 변수에 희소 업데이트를 추가합니다. |
ResourceScatterDiv | 희소 업데이트를 'resource'에서 참조하는 변수로 나눕니다. |
ResourceScatterMax | `max` 작업을 사용하여 `resource`가 참조하는 변수에 대한 희소 업데이트를 줄입니다. |
ResourceScatterMin | 'min' 작업을 사용하여 'resource'가 참조하는 변수에 대한 희소 업데이트를 줄입니다. |
ResourceScatterMul | `resource`가 참조하는 변수에 희소 업데이트를 곱합니다. |
ResourceScatterNdAdd | 변수의 개별 값이나 조각에 희소 추가를 적용합니다. |
자원산란NdMax | |
ResourceScatterNdMin | |
ResourceScatterNdSub | 변수의 개별 값이나 조각에 희소 빼기를 적용합니다. |
ResourceScatterNdUpdate | 특정 값 내의 개별 값이나 조각에 희박한 '업데이트'를 적용합니다. '인덱스'에 따라 변수가 달라집니다. |
ResourceScatterSub | `resource`가 참조하는 변수에서 희소 업데이트를 뺍니다. |
ResourceScatter업데이트 | `resource`가 참조하는 변수에 희소 업데이트를 할당합니다. |
ResourceSparseApplyAdagradV2 | adagrad 체계에 따라 '*var' 및 '*accum'의 관련 항목을 업데이트합니다. |
ResourceSparseApplyKerasMomentum | 모멘텀 체계에 따라 '*var'및 '*accum'에서 관련 항목을 업데이트하십시오. |
ResourcestRidedSliceAssign | 'value'를`ref '의 슬라이스 l- 값 참조에 할당하십시오. |
검색 푸모 베딩 아담 파라 미터 | Adam 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingadamparametersgradaccumdebug | 디버그 지원으로 Adam 임베딩 매개 변수를 검색하십시오. |
restievetpuembeddingadaDeltaparameters | Adadelta 임베딩 매개 변수를 검색합니다. |
restievetpuembeddingadaDEtaparametersgradAccumdebug | 디버그 지원으로 Adadelta 임베딩 매개 변수를 검색하십시오. |
retrievetpuembeddingadagradgarameters | Adagrad 임베딩 매개 변수를 검색하십시오. |
retrievetpuembeddingadagradagrametersgradAccumdebug | 디버그 지원으로 Adagrad 포함 매개 변수를 검색하십시오. |
retrievetpuembeddingcenteredrmspropparameters | 중앙 RMSprop 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingftrlparameters | ftrl 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingftrlparametersgradAccumdebug | 디버그 지원으로 ftrl 임베딩 매개 변수를 검색하십시오. |
retrievetpuembeddingmdladagradlightparameters | MDL Adagrad Light Embedding 매개 변수를 검색하십시오. |
retrievetpuembeddingmomentumparameters | 모멘텀 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingmomentumparametersgradAccumdebug | 디버그 지원으로 모멘텀 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingproximaladagradagradparameters | 근위 adagrad 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingproximaladagradagrametersgradaccumdebug | 디버그 지원으로 근위 Adagrad 임베딩 매개 변수를 검색하십시오. |
검색 puembeddingproximalyogiparameters | |
검색 puembeddingproximalyogiparametersgradaccumdebug | |
retrievetpuembeddingrmspropparameters | RMSPROP 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingrmspropparametersgradAccumdebug | 디버그 지원으로 RMSProp Embedding 매개 변수를 검색하십시오. |
retrievetpuembeddingstochasticadientDescentParameters | SGD 임베딩 매개 변수를 검색합니다. |
retrievetpuembeddingStochasticgradientDescentParametersgradAccumdebug | 디버그 지원으로 SGD 임베딩 매개 변수를 검색하십시오. |
역 <T> | 텐서의 특정 치수를 뒤집습니다. |
Reversesequence <t> | 가변 길이 슬라이스를 뒤집습니다. |
rngskip | 카운터 기반 RNG의 카운터를 전진하십시오. |
롤 <t> | 축을 따라 텐서의 요소를 굴립니다. |
RPC | RPC 요청 배치를 수행하십시오. |
샘플링 다타 세트 | 다른 데이터 세트의 내용의 Bernoulli 샘플을 취하는 데이터 세트를 만듭니다. |
scaleandtranslate | |
scaleandtranslategrad <t는 숫자>를 확장합니다 | |
ScatterAdd <T> | 변수 참조에 희소 업데이트를 추가합니다. |
Scatterdiv <t> | 변수 참조를 Sparse 업데이트로 나눕니다. |
scattermax <t는 숫자>를 연장합니다 | `max` 조작을 사용하여 스파 스 업데이트를 가변 참조로 줄입니다. |
scattermin <t는 숫자>를 연장합니다 | `min '조작을 사용하여 스파 스 업데이트를 가변 참조로 줄입니다. |
Scattermul <t> | 스파 스 업데이트에 변수 참조에 곱합니다. |
Scatternd <u> | `indices '에 따라'업데이트 '를 새 텐서로 뿌립니다. |
scatterndadd <t> | 변수의 개별 값 또는 슬라이스에 드문 추가를 적용합니다. |
scatterndmax <t> | 요소 별 최대 값을 계산합니다. |
scatterndmin <t> | 요소 별 최소를 계산합니다. |
scatterndnonaliasingaddd <t> | 개별 값 또는 슬라이스를 사용하여 '입력'에 희소 추가를 적용합니다. `indices '에 따라'업데이트 '에서. |
scatterndsub <t> | 변수의 개별 값 또는 슬라이스에 희소 뺄셈을 적용합니다. |
Scatterndupdate <t> | 주어진 내에서 Sporse`update '를 개별 값 또는 슬라이스에 적용합니다. 'indices'에 따라 변수. |
Scattersub <t> | 스파 스 업데이트를 변수 참조로 빼냅니다. |
Scatterupdate <t> | 스파 스 업데이트를 변수 참조에 적용합니다. |
selectv2 <t> | |
보내다 | send_device에서 recv_device로 지명 된 텐서를 보냅니다. |
sendtpuembeddinggradients | 임베딩 테이블의 그라디언트 업데이트를 수행합니다. |
setDiff1d <t, u는 숫자>를 확장합니다 | 두 숫자 또는 문자열 목록의 차이를 계산합니다. |
setsize | 입력의 마지막 차원을 따라 고유 한 요소의 수. |
모양 <u는 숫자를 확장합니다> | 텐서의 모양을 반환합니다. |
Shapen <u는 숫자를 확장합니다> | 텐서의 모양을 반환합니다. |
샤드 다타 세트 | 이 데이터 세트의 1/`num_shards '만 포함하는'dataset '을 만듭니다. |
ShuffleandrepeatDatasetv2 | |
Shuffledatasetv2 | |
Shuffledatasetv3 | |
셧다운 분배 된tpu | 실행중인 분산 TPU 시스템을 종료합니다. |
크기 <U 확장 번호> | 텐서의 크기를 반환합니다. |
건너 뛰기 | 텍스트 파일을 구문 분석하고 예제를 만듭니다. |
수면 | |
슬라이스 <t> | '입력'에서 슬라이스를 반환하십시오. |
슬라이딩 윈도우 다타 세트 | 'input_dataset'을 통해 슬라이딩 창을 전달하는 데이터 세트를 만듭니다. |
스냅 샷 <t> | 입력 텐서의 사본을 반환합니다. |
SnapshotDataset | 스냅 샷에 쓰기 / 읽을 데이터 세트를 만듭니다. |
SobolSample <t는 숫자를 확장합니다 | 소볼 시퀀스에서 점을 생성합니다. |
spacetobatchnd <t> | T 형의 ND 텐서에 대한 Spacetobatch. |
sparseapplyadagradv2 <t> | Adagrad 체계에 따라 '*var'및 '*accum'에서 관련 항목을 업데이트하십시오. |
sparsebincount <u는 숫자>를 확장합니다 | 정수 배열에서 각 값의 발생 수를 계산합니다. |
sparsecountsparseoutput <u는 숫자를 확장합니다 | 드문 텐서 입력에 대한 희소 출력 빈 계산을 수행합니다. |
Scrsecrosshashed | 희소하고 조밀 한 텐서 목록에서 드문 크로스를 생성합니다. |
Sparsecrossv2 | 희소하고 조밀 한 텐서 목록에서 드문 크로스를 생성합니다. |
sparsematrixadd | 두 개의 CSR 매트릭스의 드문 첨가, C = alpha * a + 베타 * B. |
sparsematrixmatmul <t> | 매트릭스-다소 틸리 조밀 한 매트릭스가있는 드문 매트릭스. |
sparsematrixmul | 밀도가 높은 텐서로 드문 매트릭스의 원소 별 곱셈. |
sparsematrixnnz | `sparse_matrix`의 비제수 수를 반환합니다. |
sparsematrixorderingamd | '입력'의 대략적인 최소도 (AMD) 순서를 계산합니다. |
sparsematrixsoftmax | CSRSPARSEMATRIX의 SoftMax를 계산합니다. |
sparsematrixsoftmaxgrad | sparsematrixsoftmax op의 그라디언트를 계산합니다. |
sparsematrixsparsecholesky | `입력 '의 희소 한 Cholesky 분해를 계산합니다. |
sparsematrixsparsematmul | 드문 매트릭스-다소 클리 2 개의 CSR 매트릭스`a`와`b`. |
sparsematrixtranspose | CSRSPARSEMATRIX의 내부 (매트릭스) 치수를 전송합니다. |
sparsematrixzeros | ``dense_shape '도 모양의 all-zeros csrsparsematrix를 만듭니다. |
sparsetensortocsrsparsematrix | sparsetensor를 CSRSPARSEMATRIX로 변환합니다. |
Spence <t는 숫자를 확장합니다 | |
분할 <t> | 텐서를 1 차원을 따라`num_split '텐서로 나눕니다. |
splitv <t> | 텐서를 1 차원을 따라`num_split '텐서로 나눕니다. |
스퀴즈 <t> | 텐서 모양에서 크기 1의 치수를 제거합니다. |
스택 <t> | `n` rank-`r` 텐서 목록을 하나의 순위 (r+1)`텐서로 포장합니다. |
단계 | 단계 값은 경량 evqueue와 유사합니다. |
스테이 클리어 | OP는 기본 컨테이너의 모든 요소를 제거합니다. |
Peek | OP는 지정된 인덱스의 값을 살펴 봅니다. |
단계적 | OP는 기본 컨테이너의 요소 수를 반환합니다. |
Statefulrandombinomial <V는 숫자를 연장합니다 | |
Statefulardnormal <u> | 정규 분포에서 임의 값을 출력합니다. |
Statefulardnormalv2 <u> | 정규 분포에서 임의 값을 출력합니다. |
State -UncruncatedNormal <u> | 잘린 정규 분포에서 임의 값을 출력합니다. |
StateFulialiform <u> | 균일 한 분포에서 임의 값을 출력합니다. |
StateFulialiformullint <u> | 균일 한 분포에서 임의의 정수를 출력합니다. |
StateFulialiformint <u> | 균일 한 분포에서 임의의 정수를 출력합니다. |
InstantelessParameterizedTruncatedNormal <V는 숫자>를 확장합니다 | |
무국적 란 돔 비노 미미 <w는 숫자를 확장합니다 | 이항 분포에서 결정 론적 유사 란덤 랜덤 숫자를 출력합니다. |
SANTESSRANDOMGAMMAV2 <V는 숫자를 확장합니다 | 감마 분포에서 결정 론적 의사 산소 임의 숫자를 출력합니다. |
Instantessrandompoisson <w는 숫자를 확장합니다 | 포아송 분포에서 결정 론적 의사 산소 랜덤 숫자를 출력합니다. |
instationsrandomuniformullint <v는 숫자>를 확장합니다 | 출력은 균일 한 분포에서 결정 론적 의사 안드 맨 임의의 정수를 산출합니다. |
stantelesssampledistordboundingbox <t 숫자> | 이미지를 결정적으로 무작위로 왜곡 된 경계 박스를 생성합니다. |
StatsaggregatorHandlev2 | |
statsaggreatorsetsummarywriter | stats_aggregator를 사용하여 통계를 기록하려면 summary_writer_interface를 설정하십시오. |
Stopgradient <t> | 그라디언트 계산을 중지합니다. |
striddslice <t> | `입력 '에서 뾰족한 슬라이스를 반환하십시오. |
striddsliceassign <t> | 'value'를`ref '의 슬라이스 l- 값 참조에 할당하십시오. |
striddslicegrad <u> | 'striddslice'의 그라디언트를 반환합니다. |
StringLower | 모든 대문자를 각각의 소문자 교체로 변환합니다. |
StringNgrams <t 숫자> | 울퉁불퉁 한 문자열 데이터에서 ngrams를 만듭니다. |
StringUpper | 모든 소문자를 각각의 대문자 교체로 변환합니다. |
합계 <t> | 텐서의 치수에 걸쳐 요소의 합을 계산합니다. |
Switchcond <t> | 'pred'에 의해 결정된 출력 포트로 'data'를 전달합니다. |
tpucompilationResult | TPU 컴파일 결과를 반환합니다. |
tpucompilesucceededAssert | 편집이 성공했다고 주장합니다. |
tpuembeddingactivations | TPU 임베딩의 분화를 가능하게하는 OP. |
tpuexecute | TPU 장치에서 TPU 프로그램을로드하고 실행하는 OP. |
tpuexecuteandupdatevariables | 옵션 인 내장 변수 업데이트가있는 프로그램을 실행하는 OP. |
tpuordinalselector | TPU 코어 선택기 OP. |
tpupartitionEdInput <t> | 분할 된 입력 목록을 함께 그룹화하는 OP. |
tpupartitionedOutput <t> | XLA에 의해 파티션 된 목록에 샤드를 깎을 텐서를 demultiplexe하는 OP XLA 계산 외부의 출력. |
TPUREPLICATEMETADATA | TPU 계산을 어떻게 복제 해야하는지를 나타내는 메타 데이터. |
tpureplicatedInput <t> | N 입력을 N- 웨이 복제 된 TPU 계산에 연결합니다. |
tpureplicatedOutput <t> | N- 웨이 복제 된 TPU 계산에서 N 출력을 연결합니다. |
임시 평가 <t> | 돌연변이 될 수 있지만 단일 단계 내에서만 지속되는 텐서를 반환합니다. |
TensorArray | 주어진 크기의 텐서 배열. |
TensorArrayClose | 자원 컨테이너에서 TensorArray를 삭제하십시오. |
TensorArrayConcat <t> | TensorArray에서 value`value '로 요소를 연결하십시오. |
TensorArraygather <t> | TensorArray에서 특정 요소를 출력 'value'로 수집하십시오. |
TensorArraygrad | 주어진 핸들에 값의 그라디언트를 저장하기위한 텐소 라 레이를 만듭니다. |
TensorArraygradwithShape | 주어진 핸들에 여러 값의 값을 저장하기위한 텐소 라 레이를 만듭니다. |
TensorArraypack <t> | |
TensorArrayread <T> | TensorArray에서 출력 'value'로 요소를 읽으십시오. |
TensorArrayscatter | 입력 값에서 데이터를 특정 TensorArray 요소로 산출하십시오. |
TensorArraysize | TensorArray의 현재 크기를 얻으십시오. |
TensorArraysplit | 입력 값에서 데이터를 TensorArray 요소로 분할하십시오. |
Tensorarrayunpack | |
TensorArraywrite | Tensor_Array에 요소를 밀어 넣으십시오. |
TensorforestCreateTreevariable | 나무 자원을 생성하고 손잡이를 반환합니다. |
Tensorforesttreedeserialize | 트리 손잡이에 프로토를 삼키는 것입니다 |
Tensorforesttreeisinitializedop | 나무가 초기화되었는지 확인합니다. |
TensorforestTreepredict | 주어진 입력 데이터의 로그를 출력합니다 |
TensorforestPreeSourceHandleop | TensorforestFreeResource에 대한 손잡이를 만듭니다 |
Tensorforesttreeserialize | 트리 핸들을 프로토로 직렬화합니다 |
TensorforestTreesize | 트리에서 노드 수를 얻으십시오 |
TensorlistConcat <t> | 0 차원을 따라 목록에있는 모든 텐서. |
Tensorlistconcatlist | |
Tensorlistconcatv2 <u> | 0 차원을 따라 목록에있는 모든 텐서. |
TensorListElementshape <t는 숫자>를 확장합니다 | 텐서로서 주어진 목록의 요소의 모양. |
Tensorlistfromtensor | 쌓을 때``tensor ''의 값을 갖는 Tensorlist를 만듭니다. |
Tensorlistgather <t> | Tensorlist에 인덱싱하여 텐서를 만듭니다. |
TensorlistgetItem <t> | |
Tensorlistlength | 입력 텐서 목록에서 텐서 수를 반환합니다. |
Tensorlistpopback <t> | 입력 목록의 마지막 요소와 해당 요소를 제외한 모든 목록을 반환합니다. |
Tensorlistpushback | 전달 된```````````tensor "가 마지막 요소와`input_handle '의 주어진 목록의 다른 요소가있는 목록을 반환합니다. |
Tensorlistpushbackbatch | |
Tensorlistreserve | 빈 요소가있는 주어진 크기 목록. |
Tensorlistresize | 목록을 크게 조정합니다. |
Tensorlistscatter | 텐서로 인덱싱하여 텐소리스트를 만듭니다. |
TensorlistscatterintoExistinglist | 입력 목록의 지수에서 텐서를 산란시킵니다. |
Tensorlistscatterv2 | 텐서로 인덱싱하여 텐소리스트를 만듭니다. |
TensorlistSetItem | |
Tensorlistsplit | 텐서를 목록으로 나눕니다. |
Tensorliststack <t> | 목록의 모든 텐서를 쌓습니다. |
Tensormaperase <u> | 주어진 키가 지워진 항목으로 텐서 맵을 반환합니다. |
Tensormaphaskey | 주어진 키가지도에 존재하는지 여부를 반환합니다. |
Tensormapinsert | 주어진 키 값 쌍이 삽입 한 'input_handle'인 맵을 반환합니다. |
Tensormaplookup <u> | 텐서 맵에서 주어진 키에서 값을 반환합니다. |
Tensormapsize | 입력 텐서 맵에서 텐서 수를 반환합니다. |
Tensorscatteradd <t> | 'Indices'에 따라 기존 텐서에 Sparse`updates '를 추가합니다. |
Tensorscattermax <t> | |
Tensorscattermin <t> | |
Tensorscattersub <t> | `indices '에 따라 기존 텐서에서 스파 스`updates'를 빼냅니다. |
Tensorscatterupdate <t> | 'indices'에 따라 '업데이트'를 기존 텐서로 뿌립니다. |
TensorstridedSliceUpdate <t> | 'value'를 '입력'의 슬라이스 된 l- 값 참조에 할당하십시오. |
ThreadPooldataSet | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 만듭니다. |
ThreadPoolhandle | 사용자 정의 스레드 풀을 사용하여 'input_dataset'을 계산하는 데이터 세트를 만듭니다. |
타일 <t> | 주어진 텐서 타일링하여 텐서를 구축합니다. |
타임 스탬프 | Epoch 이후 몇 초 만에 시간을 제공합니다. |
Tobool | 텐서를 스칼라 술어로 변환합니다. |
TopKunique | 배열에서 TOPK 고유 값을 정렬 된 순서로 반환합니다. |
Topkwithunique | 배열의 TOPK 값을 정렬 된 순서로 반환합니다. |
tridiagonalmatmul <t> | Tridiagonal 매트릭스로 제품을 계산하십시오. |
tridiagonalsolve <t> | 방정식의 트리 다이밀 시스템을 해결합니다. |
tryrpc | RPC 요청 배치를 수행하십시오. |
UNDATH <T> | 단일 출력 텐서에 대한 배치 작동을 뒤집습니다. |
UNDATTHGRAD <T> | UNDATH의 기울기. |
비 압축 | 압축되지 않은 데이터 세트 요소를 압축합니다. |
unicodedecode <t는 숫자>를 확장합니다 | 각 문자열을 '입력'의 유니 코드 코드 포인트 시퀀스로 디코딩합니다. |
Unicodeencode | Ints의 텐서를 유니 코드 문자열로 인코딩합니다. |
고유 <t, v는 숫자를 확장합니다> | 텐서 축을 따라 독특한 요소를 찾습니다. |
iriquedataset | 'input_dataset'의 고유 한 요소가 포함 된 데이터 세트를 만듭니다. |
IliqueWithCounts <t, v는 숫자>를 연장합니다 | 텐서 축을 따라 독특한 요소를 찾습니다. |
UnsavelIndex <t는 숫자>를 확장합니다 | 평평한 지수를 튜플의 좌표 배열로 변환합니다. |
UnsortedSegmentjoin | `segment_ids '를 기반으로`inputs'의 요소에 합류합니다. |
<t>를 풀었다 | 주어진 차원의 랭크‘rant "(r-1)```텐서 (R-1) 텐서로 주어진 차원을 풀립니다. |
무대 | OP는 경량 퇴적물과 유사합니다. |
Unprapdatasetvariant | |
어퍼 바운드 <U 확장 번호> | 각 행을 따라 상류 _bound (sorted_search_values, 값)를 적용합니다. |
varhandleop | 가변 자원에 대한 핸들을 만듭니다. |
varisinitialized | 리소스 핸들 기반 변수가 초기화되었는지 확인합니다. |
변수 <t> | 단계를 가로 질러 지속되는 텐서의 형태로 상태를 유지합니다. |
variableShape <t는 숫자를 확장합니다 | `resource '로 가리키는 변수의 모양을 반환합니다. |
어디 | 텐서에서 0이 아닌 / 실제 값의 위치를 반환합니다. |
여기서 3 <t> | `조건 '에 따라`x` 또는`y`에서 요소를 선택합니다. |
Workerheartbeat | 노동자 심장 박동 OP. |
WrapdatasetVariant | |
Writerawprotosummary | 직렬화 된 프로토 요약을 작성합니다. |
xlarecvfromhost <t> | 호스트로부터 텐서를받는 OP. |
xlasendtohost | 텐서를 호스트에게 보내는 OP. |
xlog1py <t> | x == 0이면 0을 반환하고 x * log1p (y)는 그렇지 않으면 요소를 반환합니다. |
0 <t> | `dims`에 의해 주어진 모양의 0으로 일정한 초기화를 생성하는 연산자. |
0 <t> | 같은 모양으로 0의 텐서를 반환하고 x와 유형을 유형합니다. |