AdaMax অ্যালগরিদম অনুযায়ী '*var' আপডেট করুন।
m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) ভেরিয়েবল <- পরিবর্তনশীল - লার্নিং_রেট / (1 - beta1^ t) * m_t / (v_t + epsilon)
নেস্টেড ক্লাস
ক্লাস | AdaMax.Options প্রয়োগ করুন | ApplyAdaMax এর জন্য ঐচ্ছিক বৈশিষ্ট্য |
ধ্রুবক
স্ট্রিং | OP_NAME | এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত |
পাবলিক পদ্ধতি
আউটপুট <T> | আউটপুট হিসাবে () টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়। |
স্ট্যাটিক <T TType প্রসারিত করে > ApplyAdaMax <T> | |
আউটপুট <T> | আউট () "var" এর মতোই। |
স্ট্যাটিক ApplyAdaMax.Options | ইউজ লকিং (বুলিয়ান ইউজ লকিং) |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
ধ্রুবক
সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME
এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত
পাবলিক পদ্ধতি
সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।
পাবলিক স্ট্যাটিক ApplyAdaMax <T> তৈরি করুন ( Scope scope, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Operand <T > beta2, Operand <T> epsilon, Operand <T> grad, অপশন... বিকল্প)
একটি নতুন ApplyAdaMax অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানা পদ্ধতি।
পরামিতি
সুযোগ | বর্তমান সুযোগ |
---|---|
var | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
মি | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
v | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
বিটা 1 পাওয়ার | একটি স্কেলার হতে হবে। |
lr | স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে। |
beta1 | মোমেন্টাম ফ্যাক্টর। একটি স্কেলার হতে হবে। |
beta2 | মোমেন্টাম ফ্যাক্টর। একটি স্কেলার হতে হবে। |
epsilon | রিজ শব্দ। একটি স্কেলার হতে হবে। |
স্নাতক | গ্রেডিয়েন্ট। |
বিকল্প | ঐচ্ছিক বৈশিষ্ট্য মান বহন করে |
রিটার্নস
- ApplyAdaMax এর একটি নতুন উদাহরণ
পাবলিক স্ট্যাটিক ApplyAdaMax.Options useLocking (বুলিয়ান ইউজ লকিং)
পরামিতি
লকিং ব্যবহার করুন | যদি 'True' হয়, var, m, এবং v টেনসরগুলির আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে। |
---|