Trình tối ưu hóa thực hiện thuật toán Adagrad.
Adagrad là một trình tối ưu hóa với tốc độ học theo tham số cụ thể, được điều chỉnh tương ứng với tần suất cập nhật của tham số trong quá trình đào tạo. Tham số càng nhận được nhiều cập nhật thì số lượng cập nhật càng nhỏ.
Hằng số
Sợi dây | TÍCH LŨY | |
trôi nổi | INITIAL_ACCUMULATOR_DEFAULT | |
trôi nổi | LEARNING_RATE_DEFAULT |
Hằng số kế thừa
Nhà xây dựng công cộng
Phương pháp công khai
Sợi dây | getOptimizerName () Lấy tên của trình tối ưu hóa. |
Sợi dây | toString () |
Phương pháp kế thừa
Hằng số
chuỗi tĩnh cuối cùng công khai ACCUMULATOR
float cuối cùng tĩnh công khai INITIAL_ACCUMULATOR_DEFAULT
float cuối cùng tĩnh công khai LEARNING_RATE_DEFAULT
Nhà xây dựng công cộng
AdaGrad công khai (Biểu đồ đồ thị , float learningRate)
Tạo Trình tối ưu hóa AdaGrad
Thông số
đồ thị | đồ thị TensorFlow |
---|---|
tỷ lệ học | tỷ lệ học tập |
AdaGrad công khai (Biểu đồ đồ thị , float learningRate, float initAccumulatorValue)
Tạo Trình tối ưu hóa AdaGrad
Thông số
đồ thị | đồ thị TensorFlow |
---|---|
tỷ lệ học | tỷ lệ học tập |
giá trị tích lũy ban đầu | Giá trị bắt đầu cho bộ tích lũy phải không âm. |
Ném
Ngoại lệ Đối số bất hợp pháp | nếu initAccumulatorValue âm |
---|
AdaGrad công khai (Biểu đồ đồ thị , Tên chuỗi, float learningRate)
Tạo Trình tối ưu hóa AdaGrad
Thông số
đồ thị | đồ thị TensorFlow |
---|---|
tên | tên của Trình tối ưu hóa này (mặc định là 'Adagrad') |
tỷ lệ học | tỷ lệ học tập |
AdaGrad công khai (Biểu đồ đồ thị , Tên chuỗi, float learningRate, float initAccumulatorValue)
Tạo Trình tối ưu hóa AdaGrad
Thông số
đồ thị | đồ thị TensorFlow |
---|---|
tên | tên của Trình tối ưu hóa này (mặc định là 'Adagrad') |
tỷ lệ học | tỷ lệ học tập |
giá trị tích lũy ban đầu | Giá trị bắt đầu cho bộ tích lũy phải không âm. |
Ném
Ngoại lệ Đối số bất hợp pháp | nếu initAccumulatorValue âm |
---|
Phương pháp công khai
Chuỗi công khai getOptimizerName ()
Lấy tên của trình tối ưu hóa.
Trả lại
- Tên trình tối ưu hóa.