org.tensorflow.framework.optimizers
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
클래스
에이다델타 | Adadelta 알고리즘을 구현하는 최적화 프로그램입니다. |
아다그라드 | Adagrad 알고리즘을 구현하는 최적화 프로그램입니다. |
AdaGradDA | Adagrad Dual-Averaging 알고리즘을 구현하는 최적화 프로그램입니다. |
아담 | Adam 알고리즘을 구현하는 최적화 프로그램입니다. |
아다맥스 | Adamax 알고리즘을 구현하는 최적화 프로그램입니다. |
Ftrl | FTRL 알고리즘을 구현하는 최적화 프로그램입니다. |
경사하강법 | 기본 확률적 경사하강법 최적화 프로그램. |
기세 | 확률적 경사하강법과 모멘텀(네스테로프 또는 전통). |
나담 | NAdam 알고리즘을 구현한 Nadam Optimizer입니다. |
옵티마이저 | 그래디언트 최적화 프로그램의 기본 클래스입니다. |
Optimizer.GradAndVar <T는 TType을 확장합니다.> | 한 쌍의 그래디언트와 변수를 보유하는 클래스입니다. |
최적화 프로그램.옵션 | Optimizer 의 선택적 속성 |
RMSProp | RMSProp 알고리즘을 구현하는 최적화 프로그램입니다. |
열거형
옵티마이저 | 기본 매개변수를 사용하여 새 최적화 프로그램을 만드는 데 사용되는 열거자입니다. |
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2024-10-31(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-10-31(UTC)"],[],[]]