org.tensorflow.framework.optimizers
Sử dụng bộ sưu tập để sắp xếp ngăn nắp các trang
Lưu và phân loại nội dung dựa trên lựa chọn ưu tiên của bạn.
Các lớp học
AdaDelta | Trình tối ưu hóa thực hiện thuật toán Adadelta. |
AdaGrad | Trình tối ưu hóa thực hiện thuật toán Adagrad. |
AdaGradDA | Trình tối ưu hóa triển khai thuật toán Trung bình kép Adagrad. |
Adam | Trình tối ưu hóa thực hiện thuật toán Adam. |
Adamax | Trình tối ưu hóa thực hiện thuật toán Adamax. |
Ftrl | Trình tối ưu hóa thực hiện thuật toán FTRL. |
Xuống dốc | Trình tối ưu hóa giảm độ dốc ngẫu nhiên cơ bản. |
Quán tính | Độ dốc giảm dần ngẫu nhiên cộng với động lượng, lồng nhau hoặc truyền thống. |
Nadam | Trình tối ưu hóa Nadam thực hiện thuật toán NAdam. |
Trình tối ưu hóa | Lớp cơ sở cho trình tối ưu hóa độ dốc. |
Trình tối ưu hóa.GradAndVar <T mở rộng TType > | Một lớp chứa một cặp gradient và một biến. |
Trình tối ưu hóa.Options | Thuộc tính tùy chọn cho Optimizer |
RMSProp | Trình tối ưu hóa thực hiện thuật toán RMSProp. |
Enum
Trình tối ưu hóa | Trình liệt kê được sử dụng để tạo Trình tối ưu hóa mới với các tham số mặc định. |
Trừ phi có lưu ý khác, nội dung của trang này được cấp phép theo Giấy phép ghi nhận tác giả 4.0 của Creative Commons và các mẫu mã lập trình được cấp phép theo Giấy phép Apache 2.0. Để biết thông tin chi tiết, vui lòng tham khảo Chính sách trang web của Google Developers. Java là nhãn hiệu đã đăng ký của Oracle và/hoặc các đơn vị liên kết với Oracle.
Cập nhật lần gần đây nhất: 2024-10-31 UTC.
[[["Dễ hiểu","easyToUnderstand","thumb-up"],["Giúp tôi giải quyết được vấn đề","solvedMyProblem","thumb-up"],["Khác","otherUp","thumb-up"]],[["Thiếu thông tin tôi cần","missingTheInformationINeed","thumb-down"],["Quá phức tạp/quá nhiều bước","tooComplicatedTooManySteps","thumb-down"],["Đã lỗi thời","outOfDate","thumb-down"],["Vấn đề về bản dịch","translationIssue","thumb-down"],["Vấn đề về mẫu/mã","samplesCodeIssue","thumb-down"],["Khác","otherDown","thumb-down"]],["Cập nhật lần gần đây nhất: 2024-10-31 UTC."],[],[]]