স্থির শেখার হার সহ FOBOS অ্যালগরিদম হিসাবে '*var' আপডেট করুন।
prox_v = var - আলফা ডেল্টা var = চিহ্ন(prox_v)/(1+আলফা l2) সর্বোচ্চ{|prox_v|-আলফা l1,0}
নেস্টেড ক্লাস
ক্লাস | ProximalGradientDescent.Options প্রয়োগ করুন | ApplyProximalGradientDescent এর জন্য ঐচ্ছিক বৈশিষ্ট্য |
ধ্রুবক
স্ট্রিং | OP_NAME | এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত |
পাবলিক পদ্ধতি
আউটপুট <T> | আউটপুট হিসাবে () টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়। |
স্ট্যাটিক <T TType প্রসারিত করে > ApplyProximalGradientDescent <T> | |
আউটপুট <T> | আউট () "var" এর মতোই। |
স্ট্যাটিক ApplyProximalGradientDescent.Options | ইউজ লকিং (বুলিয়ান ইউজ লকিং) |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
ধ্রুবক
সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং OP_NAME
এই অপের নাম, টেনসরফ্লো কোর ইঞ্জিন দ্বারা পরিচিত
পাবলিক পদ্ধতি
সর্বজনীন আউটপুট <T> হিসাবে আউটপুট ()
টেনসরের প্রতীকী হ্যান্ডেল ফেরত দেয়।
TensorFlow অপারেশনের ইনপুট হল অন্য TensorFlow অপারেশনের আউটপুট। এই পদ্ধতিটি একটি প্রতীকী হ্যান্ডেল পেতে ব্যবহৃত হয় যা ইনপুটের গণনাকে প্রতিনিধিত্ব করে।
পাবলিক স্ট্যাটিক অ্যাপ্লাইপ্রক্সিমাল গ্রেডিয়েন্ট ডিসেন্ট <T> তৈরি করুন ( স্কোপ স্কোপ, অপারেন্ড <T> var, অপারেন্ড <T> আলফা, অপারেন্ড <T> l1, অপারেন্ড <T> l2, অপারেন্ড <T> ডেল্টা, বিকল্প... বিকল্প)
একটি নতুন ApplyProximalGradientDescent অপারেশন মোড়ানো একটি ক্লাস তৈরি করার কারখানার পদ্ধতি।
পরামিতি
সুযোগ | বর্তমান সুযোগ |
---|---|
var | একটি পরিবর্তনশীল() থেকে হওয়া উচিত। |
আলফা | স্কেলিং ফ্যাক্টর। একটি স্কেলার হতে হবে। |
l1 | L1 নিয়মিতকরণ। একটি স্কেলার হতে হবে। |
l2 | L2 নিয়মিতকরণ। একটি স্কেলার হতে হবে। |
ডেল্টা | পরিবর্তন. |
বিকল্প | ঐচ্ছিক বৈশিষ্ট্য মান বহন করে |
রিটার্নস
- ApplyProximalGradientDescent এর একটি নতুন উদাহরণ
পাবলিক স্ট্যাটিক ApplyProximalGradientDescent.Options useLocking (বুলিয়ান ইউজ লকিং)
পরামিতি
লকিং ব্যবহার করুন | সত্য হলে, বিয়োগ একটি লক দ্বারা সুরক্ষিত হবে; অন্যথায় আচরণটি অনির্ধারিত, তবে কম বিরোধ প্রদর্শন করতে পারে। |
---|