অপ্টিমাইজার যা অ্যাডাগ্রাড ডুয়াল-অ্যাভারেজিং অ্যালগরিদম প্রয়োগ করে৷
এই অপ্টিমাইজারটি একটি মিনি ব্যাচে অদেখা বৈশিষ্ট্যগুলির নিয়মিতকরণের যত্ন নেয় যখন সেগুলিকে একটি বন্ধ ফর্ম আপডেট নিয়মের সাথে দেখা যায় যা প্রতিটি মিনি-ব্যাচে তাদের আপডেট করার সমতুল্য।
AdagradDA সাধারণত ব্যবহৃত হয় যখন প্রশিক্ষিত মডেলে বড় স্পর্সিটির প্রয়োজন হয়। এই অপ্টিমাইজার শুধুমাত্র রৈখিক মডেলের জন্য স্পার্সিটির গ্যারান্টি দেয়। গভীর নেটওয়ার্কগুলির জন্য AdagradDA ব্যবহার করার সময় সতর্কতা অবলম্বন করুন কারণ এটিকে প্রশিক্ষণের জন্য গ্রেডিয়েন্ট অ্যাকুমুলেটরগুলির সাবধানে শুরু করতে হবে।
ধ্রুবক
স্ট্রিং | সঞ্চয়কারী | |
ভাসা | INITIAL_ACCUMULATOR_DEFAULT | |
ভাসা | L1_STRENGTH_DEFAULT | |
ভাসা | L2_STRENGTH_DEFAULT | |
ভাসা | LEARNING_RATE_DEFAULT | |
স্ট্রিং | SQUARED_ACCUMULATOR |
উত্তরাধিকার সূত্রে প্রাপ্ত ধ্রুবক
পাবলিক কনস্ট্রাক্টর
পাবলিক পদ্ধতি
স্ট্রিং | getOptimizerName () অপ্টিমাইজারের নাম পান। |
স্ট্রিং | স্ট্রিং () |
উত্তরাধিকারসূত্রে প্রাপ্ত পদ্ধতি
ধ্রুবক
পাবলিক স্ট্যাটিক ফাইনাল স্ট্রিং অ্যাকিউমুলেটর
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট INITIAL_ACCUMULATOR_DEFAULT
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট L1_STRENGTH_DEFAULT
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট L2_STRENGTH_DEFAULT
পাবলিক স্ট্যাটিক ফাইনাল ফ্লোট LEARNING_RATE_DEFAULT
সর্বজনীন স্ট্যাটিক চূড়ান্ত স্ট্রিং SQUARED_ACCUMULATOR৷
পাবলিক কনস্ট্রাক্টর
পাবলিক AdaGradDA ( গ্রাফ গ্রাফ)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|
পাবলিক AdaGradDA ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
শেখার হার | শেখার হার |
পাবলিক AdaGradDA ( গ্রাফ গ্রাফ, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু, ফ্লোট l1স্ট্রেংথ, ফ্লোট l2স্ট্রেংথ)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
শেখার হার | শেখার হার |
initialAccumulatorValue | সঞ্চয়কারীদের জন্য শুরুর মান অবশ্যই শূন্যের চেয়ে বেশি হতে হবে। |
l1 শক্তি | l1 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে। |
l2 শক্তি | l2 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে। |
নিক্ষেপ করে
অবৈধ আর্গুমেন্ট ব্যতিক্রম | যদি প্রাথমিক অ্যাকুমুলেটর মান শূন্যের বেশি না হয়, বা l1 শক্তি বা l2 শক্তি শূন্যের কম হয় |
---|
পাবলিক AdaGradDA ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
নাম | এই অপ্টিমাইজারের নাম (ডিফল্ট 'adagrad-da') |
শেখার হার | শেখার হার |
সর্বজনীন AdaGradDA ( গ্রাফ গ্রাফ, স্ট্রিং নাম, ফ্লোট লার্নিং রেট, ফ্লোট ইনিশিয়াল অ্যাকুমুলেটর ভ্যালু, ফ্লোট l1স্ট্রেংথ, ফ্লোট l2স্ট্রেংথ)
একটি AdaGradDA অপ্টিমাইজার তৈরি করে
পরামিতি
চিত্রলেখ | টেনসরফ্লো গ্রাফ |
---|---|
নাম | এই অপ্টিমাইজারের নাম (ডিফল্ট 'adagrad-da') |
শেখার হার | শেখার হার |
initialAccumulatorValue | Accumulators জন্য শুরু মান, অবশ্যই ইতিবাচক হতে হবে |
l1 শক্তি | l1 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে। |
l2 শক্তি | l2 নিয়মিতকরণ শক্তি, শূন্যের চেয়ে বেশি বা সমান হতে হবে। |
নিক্ষেপ করে
অবৈধ আর্গুমেন্ট ব্যতিক্রম | যদি প্রাথমিক অ্যাকুমুলেটর মান শূন্যের বেশি না হয়, বা * l1 শক্তি বা l2 শক্তি শূন্যের কম হয় |
---|
পাবলিক পদ্ধতি
সর্বজনীন স্ট্রিং getOptimizerName ()
অপ্টিমাইজারের নাম পান।
রিটার্নস
- অপ্টিমাইজারের নাম।