Ensembles of gradient boosting recurrent neural network for time series data prediction

بروزرسانی آذر 16, 1404

ثبت کننده نرگس گوهری راد

تعداد بازدید 49

یادگیری عمیق مجموعه‌ای می‌تواند نقاط قوت شبکه‌های عصبی و یادگیری مجموعه‌ای را ترکیب کند و به تدریج به یک جهت تحقیقاتی نوظهور تبدیل می‌شود. با این حال، روش‌های موجود یا فاقد پشتیبانی نظری هستند یا نیاز به مدل‌های یکپارچه بزرگ دارند. برای حل این مشکلات، در این مقاله، مجموعه‌های شبکه عصبی بازگشتی ارتقای گرادیان (EGB-RNN) پیشنهاد می‌شود که چارچوب مجموعه ارتقای گرادیان را با سه نوع مدل شبکه عصبی بازگشتی، یعنی واحد دروازه‌ای حداقلی (MGU)، واحد بازگشتی دروازه‌ای (GRU) و حافظه کوتاه‌مدت طولانی (LSTM) ترکیب می‌کند. مدل RNN به عنوان یادگیرنده پایه برای ادغام یک یادگیرنده مجموعه‌ای از طریق روش ارتقای گرادیان استفاده می‌شود. در همین حال، برای اطمینان از تناسب بهتر مدل مجموعه‌ای با داده‌ها، الگوریتم تکرار مرحله‌ای طراحی شده است تا نرخ یادگیری مناسب پیش از ادغام مدل‌ها پیدا شود. آزمایش‌های مقایسه‌ای بر روی چهار مجموعه داده سری زمانی انجام شده است.نتایج تجربی نشان می‌دهند که با افزایش تعداد ادغام، عملکرد سه نوع مدل EGB-RNN تمایل به همگرا شدن دارد و بهترین مدل EGB-RNN و بهترین درجه‌ی تجمیع با مجموعه داده‌ها متفاوت است. همچنین در نتایج آماری نشان داده شده است که مدل‌های طراحی شده EGB-RNN عملکرد بهتری نسبت به شش مدل پایه دارند.

Ensemble deep learning can combine strengths of neural network and ensemble learning and gradually becomes a new emerging research direction. However, the existing methods either lack theoretical support or demand large integrated models. To solve these problems, in this paper, Ensembles of Gradient Boosting Recurrent Neural Network (EGB-RNN) is proposed, which combines the gradient boosting ensemble framework with three types of recurrent neural network models, namely Minimal Gated Unit (MGU), Gated Recurrent Unit (GRU) and Long Short-Term Memory (LSTM). RNN model is used as base learner to integrate an ensemble learner, through the way of gradient boosting. Meanwhile, for ensuring the ensemble model fit data better, Step Iteration Algorithm is designed to find an appropriate learning rate before models being integrated. Contrast trials are carried out on four time series data sets. Experimental results demonstrate that with the number of integration increasing, the performance of three types of EGB-RNN models tend to converge and the best EGB-RNN model and the best degree of ensemble vary with data sets. It is also shown in statistical results that the designed EGB-RNN models perform better than six baselines.

  • عنوان: مجموعه‌های شبکه عصبی مکرر تقویت گرادیان برای پیش‌بینی داده‌های سری زمانی
  • Title: Ensembles of gradient boosting recurrent neural network for time series data prediction
  • Authors: Shiqing Sang , Fangfang Qu and Pengcheng Nie
  • URL: https://www.researchgate.net/publication/351799078_Ensembles_of_Gradient_Boosting_Recurrent_Neural_Network_for_Time_Series_Data_Prediction
  • DOI URL: http://10.1109/ACCESS.2021.3082519
  • عنوان مقاله: سایر
  • محور مقاله: تکنیک نوین
  • نام ژورنال: IEEE Access
  • افیلیشن نویسنده مسئول: Jiaxing Vocational and Technical College, Jiaxing 314036, China
  • ایمیل نویسنده فقط برای کاربران ورود / عضویت
  • سال انتشار مقاله: 2021
  • زبان: انگلیسی
  • کشور: چین
  • کد مقاله: 24922
  • کلمات کلیدی فارسی: افزایش گرادیان؛ LSTM؛ GRU؛ MGU؛ یادگیری ترکیبی؛ پیش‌بینی داده‌های سری زمانی
  • کلمات کلیدی انگلیسی: Gradient boosting; LSTM; GRU; MGU; Ensemble learning; Time series data prediction
  • لینک کوتاه: https://wikisaffron.org?p=24922

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *