অ্যাডাগ্রাড শেখার হার সহ FOBOS অনুযায়ী '*var' এবং '*accum' আপডেট করুন।
accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = sign(prox_v)/(1+lr l2) সর্বোচ্চ{|prox_v|-lr l1,0}
নেস্টেড ক্লাস
ক্লাস | ApplyProximalAdagrad.Options | ApplyProximalAdagrad এর জন্য ঐচ্ছিক বৈশিষ্ট্য |
ধ্রুবক
স্ট্রিং | OP_NAME | এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত |
পাবলিক পদ্ধতি
আউটপুট <T> | আউটপুট হিসাবে () টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়। |
স্ট্যাটিক <T TType প্রসারিত করে > ApplyProximalAdagrad <T> | |
আউটপুট <T> | আউট () "var" এর মতোই। |
স্ট্যাটিক ApplyProximalAdagrad.Options | ইউজ লকিং (বুলিয়ান ইউজ লকিং) |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
ধ্রুবক
সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME
এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত
পাবলিক পদ্ধতি
সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।
পাবলিক স্ট্যাটিক অ্যাপ্লাইপ্রক্সিমালঅ্যাডাগ্রাড <T> তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> var, অপারেন্ড <T> অ্যাকম, অপারেন্ড <T> lr, অপারেন্ড <T> l1, অপারেন্ড <T> l2, অপারেন্ড <T> গ্র্যাড, বিকল্পগুলি.. বিকল্প )
একটি নতুন ApplyProximalAdagrad অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানার পদ্ধতি।
পরামিতি
সুযোগ | বর্তমান সুযোগ |
---|---|
var | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
accum | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
lr | স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে। |
l1 | L1 নিয়মিতকরণ। একটি স্কেলার হতে হবে। |
l2 | L2 নিয়মিতকরণ। একটি স্কেলার হতে হবে। |
স্নাতক | গ্রেডিয়েন্ট। |
বিকল্প | ঐচ্ছিক বৈশিষ্ট্য মান বহন করে |
রিটার্নস
- ApplyProximalAdagrad এর একটি নতুন উদাহরণ
পাবলিক স্ট্যাটিক ApplyProximalAdagrad.Options useLocking (বুলিয়ান ইউজ লকিং)
পরামিতি
লকিং ব্যবহার করুন | সত্য হলে, var এবং accum tensors আপডেট করা একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে। |
---|