• جزئیات بیشتر مقاله
    • تاریخ ارائه: 1396/11/30
    • تاریخ انتشار در تی پی بین: 1396/11/30
    • تعداد بازدید: 1347
    • تعداد پرسش و پاسخ ها: 0
    • شماره تماس دبیرخانه رویداد: -

    با گسترش علوم در دنیای امروزی، حجم انبوهی از داده ها به وجود آمده است و در هر لحظه تعداد زیادی داده تولید می شود. جهت استخراج و کشف دانش از این داده ها، باید بتوان آن ها را ذخیره و پردازش کرد. داده کاوی یکی از روش هایی است که اطلاعات مفید و روابط مخفی بین داده ها را استخراج می کند ولی به علت حجم بالا و ساختارهای متنوع داده های حجیم امروزی، نمی توان از این روش ها جهت استخراج دانش استفاده کرد. هم چنین ذخیره سازی و پردازش چنین حجمی از داده ها با روش های معمول و قدیمی از نظر زمان و هزینه مقرون به صرفه نیست. بنابراین یا باید ساختار الگوریتم های داده کاوی تغییر کند و یا با روش های جدیدی جایگزین شوند. داده های حجیم به دو صورت دسته ای و جریان های در حال حرکت وجود دارند که باید بتوان با استفاده از موازی سازی سخت افزاری و نرم افزاری و پردازش های جریانی، اطلاعات مفید را از آن ها استخراج کرد. در حال حاضر مهم ترین مدل برای پردازش داده های حجیم، مدل نگاشت- کاهش است که توسط شرکت های زیادی برای پردازش داده هایشان استفاده می شود. نسخه متن باز نگاشت-کاهش توسط هدوپ ارائه شد. در این مقاله ابتدا سیر تکاملی انواع پردازش ها روی داده های حجیم مورد بررسی قرار گرفته و سپس روش های تجزیه و تحلیل این داده ها معرفی شده است و در نهایت الگوریتم k-means که یکی از مهم ترین روش های خوشه بندی است در محیط هدوپ پیاده سازی شده است.

سوال خود را در مورد این مقاله مطرح نمایید :

با انتخاب دکمه ثبت پرسش، موافقت خود را با قوانین انتشار محتوا در وبسایت تی پی بین اعلام می کنم
مقالات جدیدترین رویدادها
مقالات جدیدترین ژورنال ها