آدابوست مخفف بوستینگ تطبیقی بوده و یک الگوریتم یادگیری ماشین است که توسط یاو فروند و رابرت شاپیر ابداع شد.[۱] در واقع آدابوست یک متا الگوریتم است که بمظور ارتقاء عملکرد، و رفع مشکل رده‌های نامتوزان[۲] همراه دیگر الگوریتم‌های یادگیری استفاده می‌شود. در این الگوریتم، طبقه بند هر مرحله جدید به نفع نمونه‌های غلط طبقه‌بندی شده در مراحل قبل تنظیم می‌گردد. آدابوست نسبت به داده‌های نویزی و پرت حساس است؛ ولی نسبت به مشکل بیش برازش از بیشتر الگوریتم‌های یادگیری برتری دارد. طبقه بند پایه که در اینجا استفاده می‌شود فقط کافیست از طبقه بند نصادفی(۵۰٪) بهتر باشد و به این ترتیب بهبود عملکرد الگوریتم با تکرارهای بیشتر بهبود می‌یابد. حتی طبقه بندهای با خطای بالاتر از تصادفی با گرفتن ضریب منفی عملکرد کلی را بهبود می‌بخشند. در الگوریتم آدابوست در هر دور آدابوست یک طبقه بند ضعیف اضافه می‌شود. در هر فراخوانی بر اساس اهمیت نمونه‌ها، وزن‌ها آدابوست بروز می‌شود. در هر دور وزن نمونه‌های غلط طبقه‌بندی شده افزایش و وزن نمونه‌های درست طبقه‌بندی شده کاهش داده می‌شود؛ بنابراین طبقه بند جدید تمرکز بر نمونه‌هایی که سخت تر یادگرفته می‌شوند، خواهند داشت

محتویات

  • ۱الگوریتم طبقه‌بندی دوگانه
  • ۲درک آماری تقویت کردن
  • ۳مطالب مرتبط
  • ۴منابع
  • ۵پیاده‌سازی‌ها
  • ۶پیوند به بیرون

الگوریتم طبقه‌بندی دوگانه

داده شده‌ها:

  • مجموعه یادگیری: آدابوست که آدابوست
  • تعداد تکرارها: آدابوست

مقداردهی اولیه: آدابوست برای آدابوست

  • برای خانواده طبقه بندهای ضعیف ℋ طبقه بند آدابوست را پیدا کن که قدر مطلق اختلاف نرخ خطای وزن دهی شده متناظر آدابوست از ۰٫۵ نسبت به توزیع آدابوست حداکثر شود:

آدابوست که آدابوست. I یک تابع نشانگر است

  • اگر آدابوست که آدابوست یک آستانه تعین شده قبلی است، توقف انجام شود.
  • معمولا مفدار آدابوست برای آدابوست در نظر گرفته می‌شود.
  • بروز رسانی:
آدابوست
که آدابوست یک عامل نرمالیزاسیون با مقدار آدابوست است که موجب می‌شود آدابوست یک توزیع احتمالاتی مجاز را نشان دهد (مجموع روی همه xها یک شود)
خروجی نهایی طبقه بند
آدابوست
توجه شود که معادله بروز رسانی توزیع آدابوست بگونه‌ای بروز می‌شود که
آدابوست

بنابراین بعد از انتخاب بهینه طبقه بند آدابوست برای توزیع آدابوست آندسته از نمونه‌ها آدابوست که طبقه بند آدابوست آنها را غلط طبقه‌بندی می‌کند وزن بیشتری نسبت به بقیه داده می‌شود؛ بنابراین وقتی الگوریتم طبقه بندها را براساس توزیع آدابوست تست می‌کند، طبقه‌بندی انتخاب می‌شود که نمونه‌های غلط طبقه‌بندی شده را بهتر تشخیص دهد.

درک آماری تقویت کردن]

عمل تقویت کردن را می‌توان بصورت حداقل کردن یک تابع هزینه محدب روی یک مجموعه محدب از توابع درنظر گرفت.[۳] بطور خاص تابعی که حداقل می‌شود نمایی است:

آدابوست

و ما بدنبال تابعی به شکل زیر هستیم:

آدابوست

منابع

  1. پرش به بالا↑ Yoav Freund, Robert E. Schapire. “A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting”, 1995
  2. پرش به بالا↑ مهسا المعی نژاد. «روش‌های Bagging و Boosting به منظور رفع مشکل کلاس‌های نامتوازن». گروه داده کاوی ایران. بازبینی‌شده در ۲۶ فبریه ۲۰۱۴.
  3. پرش به بالا↑ T. Zhang, “Statistical behavior and consistency of classification methods based on convex risk minimization”, Annals of Statistics 32 (1), pp. 56-85, 2004.

 

[thrive_leads id='1265']
author-avatar

حدود علی ایوبی

من علی ایوبی هستم متخصص و مدرس بازاریابی اینترنتی، به کسانی که نیاز به دیجیتال مارکتینگ خود را دارند کمک می کنم که بتوانید سیستم بازاریابی آنلاین خود را راه اندازی کنند به نظرم من دلیل شکست شکست کسب و کارها نداشتن سیستمی برای جذب مخاطب(ترافیک) و تبدیل آن به مشتری(تبدیل) است روش کار من استفاده از سیستم قیف های فروش(Funnel) است.

بازگشت به لیست
0 0 رای ها
امتیازدهی به مقاله
اشتراک در
اطلاع از
guest
0 نظرات
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها