공개 클래스 Ftrl
FTRL 알고리즘을 구현하는 최적화 프로그램입니다.
이 버전은 온라인 L2(아래 문서에 제공된 L2 페널티)와 축소형 L2(손실 함수에 L2 페널티를 추가함)를 모두 지원합니다.
또한보십시오
상수
상속된 상수
공공 생성자
공개 방법
끈 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
상속된 메서드
상수
공개 정적 최종 문자열 누산기
상수 값: "gradient_accumulator"
공개 정적 최종 부동 INITIAL_ACCUMULATOR_VALUE_DEFAULT
상수값: 0.1
공개 정적 최종 부동 소수점 L1STRENGTH_DEFAULT
상수값: 0.0
공개 정적 최종 부동 소수점 L2STRENGTH_DEFAULT
상수값: 0.0
공개 정적 최종 부동 소수점 L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
상수값: 0.0
공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT
상수값: 0.001
공개 정적 최종 부동 소수점 LEARNING_RATE_POWER_DEFAULT
상수값: -0.5
공개 정적 최종 문자열 LINEAR_ACCUMULATOR
상수 값: "linear_accumulator"
공공 생성자
public Ftrl ( 그래프 그래프, 문자열 이름, float learningRate)
Ftrl 최적화 프로그램을 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름 |
학습률 | 학습률 |
공개 Ftrl ( 그래프 그래프, 부동 학습률, 부동 학습률, 부동 초기AccumulatorValue, 부동 l1Strength, 부동 l2Strength, 부동 l2ShrinkageRegularizationStrength)
Ftrl 최적화 프로그램을 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률 |
학습률전력 | 훈련 중 학습률이 감소하는 방식을 제어합니다. 고정된 학습률에는 0을 사용하세요. |
초기누산기값 | 누산기의 시작 값입니다. 0 또는 양수 값만 허용됩니다. |
l1강도 | L1 정규화 강도는 0보다 크거나 같아야 합니다. |
l2강도 | L2 정규화 강도는 0보다 크거나 같아야 합니다. |
l2수축정규화강도 | 이는 위의 L2가 안정화 패널티인 반면 L2 수축은 크기 패널티라는 점에서 위의 L2와 다릅니다. 0보다 크거나 같아야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength 또는 l2ShrinkageRegularizationStrength가 0.0보다 작거나 learningRatePower가 0.0보다 큰 경우. |
---|
public Ftrl ( 그래프 그래프, 문자열 이름, float learningRate, float learningRatePower, floatiniAccumulatorValue, float l1Strength, float l2Strength, float l2ShrinkageRegularizationStrength)
Ftrl 최적화 프로그램을 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름 |
학습률 | 학습률 |
학습률전력 | 훈련 중 학습률이 감소하는 방식을 제어합니다. 고정된 학습률에는 0을 사용하세요. |
초기누산기값 | 누산기의 시작 값입니다. 0 또는 양수 값만 허용됩니다. |
l1강도 | L1 정규화 강도는 0보다 크거나 같아야 합니다. |
l2강도 | L2 정규화 강도는 0보다 크거나 같아야 합니다. |
l2수축정규화강도 | 이는 위의 L2가 안정화 패널티인 반면 L2 수축은 크기 패널티라는 점에서 위의 L2와 다릅니다. 0보다 크거나 같아야 합니다. |
던지기
IllegalArgumentException | initialAccumulatorValue, l1RegularizationStrength, l2RegularizationStrength 또는 l2ShrinkageRegularizationStrength가 0.0보다 작거나 learningRatePower가 0.0보다 큰 경우. |
---|
공개 방법
공개 문자열 getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
보고
- 최적화 프로그램 이름입니다.