تحقیق روشها و تکنیک های داده کاوی (docx) 1 صفحه
دسته بندی : تحقیق
نوع فایل : Word (.docx) ( قابل ویرایش و آماده پرینت )
تعداد صفحات: 1 صفحه
قسمتی از متن Word (.docx) :
وزارت علوم، تحقیقات و فناوری
دانشگاه علوم و فنون مازندران
رشته: فناوری اطلاعات- گرایش مهندسی فناوری اطلاعات
Methods and techniques of data mining
استاد راهنما: دکتر جواد وحیدی
استاد مشاور: دکتر بابک شیرازی
دانشجو: مائده تشکّریان
سپاسگزاری:
اینجانب از پدر و مادر گرامیام که هرچه دارم از زحمات بیدریغ و دعای خیر آنهاست و دو برادر عزیزم که با تشویق و حمایتهای خویش مرا در طی دوران تحصیل یاری نمودند نهایت سپاسگزاری و قدردانی را مینمایم.
نگارنده این پایاننامه همچنین وظیفهی خود میداند که از کلیه عزیزانی که در به ثمر رسیدن این پروژه نقش حیاتی ایفا نمودهاند، به شرح زیر قدردانی نماید:
از استاد راهنمای بزرگوارم دکتر جواد وحیدی که با راهنماییهای ارزنده، در پیشبرد اهداف کار، اینجانب را یاری نمودند صمیمانه سپاسگزارم.
همچنین از استاد مشاور ارجمندم دکتر بابک شیرازی که با پشتیبانیهای علمیشان، اینجانب را مساعدت فرمودند کمال تشکر را دارم.
مائده تشکریان
فهرست رئوس مطالب
2-1- مقدمه7
2-2- دادهکاوی7
2-2-1- خوشهبندی8
2-2-1-1- روشهای تقسيمبندی8
2-2-1-2- روشهای سلسله مراتبی8
2-2-1-3- روشهای مبتنی بر چگالی9
2-2-2- طبقهبندی9
2-2-2-1- طبقهبندی مبتنی بر قواعد10
2-2-3- کشف قواعد انجمنی12
2-2-3-1- تعاریف و مفاهیم اصلی در قواعد انجمنی12
2-2-3-1-1- تقسیم بندی قواعد انجمنی14
2-2-3-1-2- استخراج قواعد تکسطحی تک بعدی دودویی14
2-2-3-1-2-1- مرحله پیوست16
2-2-3-1-2-2- مرحله هرس17
2-2-3-1-3- محاسبه اطمینان و استخراج قواعد نهایی17
2-3- دادهکاوی توزيع شده17
2-6-1- دادهکاوی توزيع شده33
2-6-2- کارهای مهم انجام شده در زمينه دادهکاوی با استفاده از عامل36
2-7- جمعبندی
پیوست منابع و مآخذ
2-2- دادهکاوی
داده کاوی، یک تکنولوژی نوظهور است، که از ابزارها و تکنیکهای مدلسازی و تجزیه و تحلیل آماری، الگوریتمهای ریاضی، و متدهای یادگیری ماشین برای کشف الگوهای معتبر و ناشناخته در مجموعه دادههای حجیم استفاده میکند. هرچند این تکنولوژی دوران نوباوگی خود را طی میکند، اما شرکتها و سازمانهای بسیاری از جمله خردهفروشیها، بانکها، مراکز درمانی، کارخانجات تولیدی، ارتباطات راه دور، و مؤسسات دولتی از ابزارها و تکنیکهای دادهکاوی برای تحلیل دادههایشان و کشف اطلاعات و دانش مفید از آنها استفاده میکنند. ADDIN EN.CITE
Wang2003125[1, 2]1251256Wang, J.Data mining: opportunities and challenges2003Irm Press1931777837Rao201010510510517Rao, V.S.Vidyavathi, S.Distributed Data Mining and Mining Multi-Agent DataIJCSE) International Journal on Computer Science and EngineeringIJCSE) International Journal on Computer Science and Engineering1237-12442042010[1, 2] دادهکاوی اطلاعاتی را از پایگاه دادهها استخراج میکند که از طریق کوئریها و گزارشگیریها قابل دستیابی نیستند.
رشد انفجاری دادههای ذخیره شده در پایگاه دادهها، نیاز به تکنولوژیهای جدید که بتوانند حجم عظیم دادهها را هوشمندانه به دانش مفید تبدیل کنند، را پدید آورده است. ADDIN EN.CITE
Chen1996106[3]10610617Chen, M.S.Han, J.Yu, P.S.Data mining: an overview from a database perspectiveKnowledge and Data Engineering, IEEE Transactions onKnowledge and Data Engineering, IEEE Transactions on866-8838619961041-4347[3] دادهکاوی به معنای يافتن نيمه خودکار الگوهای پنهان در مجموعه دادههای موجود میباشد. ADDIN EN.CITE
Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] این تکنولوژی با دیگر تکنیکهای تحلیل داده، که سیستم، مقادیر اولیه را میگیرد و خود، الگوهایی را تولید میکند، متفاوت است. دادهکاوی توسط ابزارهای الگوریتمیک، الگوها، تغییرات، آنومالیها، قوانین، و ساختارهای مهم آماری، و رویدادها را از مجموعه دادههای عظیم استخراج میکند. ADDIN EN.CITE
R. Grossman1999107[5]10710747R. Grossman,S. Kasif,R. Moore,D. Rocke,J. UllmanData mining research: Opportunities and challengesA Report of Three Workshops on Mining Large, Massive and Distributed Data1999[5] میتوان گفت که داده کاوی در جهت کشف اطلاعات پنهان و روابط موجود در بين دادههای فعلی و پيشبينی موارد نامعلوم و يا مشاهده نشده عمل میکند. برای انجام عمليات کاوش لازم است قبلاً روی دادههای موجود پیش پردازشهایی انجام گيرد. عمل پيش پردازش اطلاعات خود از دو بخش کاهش اطلاعات، و خلاصهسازی و کلیسازی دادهها تشکيل شده است. کاهش اطلاعات عبارت است از توليد يک مجموعه کوچکتر، از دادههای اوليه، که تحت عمليات دادهکاوی نتايج تقریباً یکسانی با نتايج دادهکاوی روی اطلاعات اوليه به دست دهد. ADDIN EN.CITE
Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] پس از انجام عمل کاهش اطلاعات و حذف خصايص غير مرتبط نوبت به خلاصهسازی و کلیسازی دادهها میرسد. دادههای موجود در بانکهای اطلاعاتی معمولاً حاوی اطلاعات در سطوح پايينی هستند، بنابراين خلاصهسازی مجموعه بزرگی از دادهها و ارائه آن به صورت يک مفهوم کلی اهميت بسيار زيادی دارد. کلیسازی اطلاعات، فرآيندی است که تعداد زيادی از رکوردهای يک بانک اطلاعاتی را به صورت مفهومی در سطح بالاتر ارائه مینمايد. تکنیکهای دادهکاوی به چند دسته تقسيم میشوند که سه دسته اصلی عبارتند از خوشهبندی، طبقهبندی و کشف قواعد انجمنی. در ادامه هر يک از اين روشها را به طور کلی معرفی مینماييم.
2-2-1- خوشهبندی
فرآيند خوشهبندی سعی دارد که يک مجموعه داده را به چندين خوشه تقسيم نمايد بطوريکه دادههای قرار گرفته در يک خوشه با يکديگر شبيه بوده و با دادههای خوشههای ديگر متفاوت باشند. در حال حاضر روشهای متعددی برای خوشهبندی دادهها وجود دارد که بر اساس نوع دادهها، شکل خوشهها، فاصله دادهها و غيره عمل خوشهبندی را انجام میدهند. مهمترین روشهای خوشهبندی در زير معرفی شدهاند:
2-2-1-1- روشهای خوشهبندی مبتنی بر تقسيمبندی
این روشها، دادههای موجود در يک مجموعه داده را به k خوشه تقسيم میکنند، بطوريکه هر خوشه دو خصوصيت زير را داراست:
هر خوشه يا گروه حداقل شامل يک داده میباشد.
هر داده موجود در مجموعه داده دقیقاً به يک گروه يا خوشه تعلق دارد.
معيار اصلی در چنين مجموعه دادههايی ميزان شباهت دادههای قرار گرفته در هر خوشه میباشد. در حاليکه دادههای قرار گرفته در دو خوشه مختلف از نظر شباهت با يکديگر فاصله زيادی دارند. مقدار k که به عنوان پارامتر استفاده میگردد، هم میتواند به صورت پويا تعيين گردد و هم اينکه قبل از شروع الگوريتم خوشهبندی مقدار آن مشخص گردد.
2-2-1-2- روشهای سلسله مراتبی
روشهای سلسله مراتبی به دو دسته کلی روشهای پایین به بالا و روشهای بالا به پایین تقسيم میگردند. روشهای سلسله مراتبی پایین به بالا به اين صورت عمل میکنند که در شروع هر کدام از دادهها را در يک خوشه جداگانه قرار میدهد و در طول اجرا سعی میکند تا خوشههايی نزديک به يکديگر را با هم ادغام نمايد. اين عمل ادغام تا زمانی که يا تنها يک خوشه داشته باشيم و يا اينکه شرط خاتمه برقرار گردد، ادامه میيابد. روشهای بالا به پایین دقیقاً به طریق عکس عمل میکنند، به اين طريق که ابتدا تمام دادهها را در يک خوشه قرار میدهد و در هر تکرار از الگوريتم، هر خوشه به خوشههای کوچکتر شکسته میشود و این کار تا زمانی ادامه میيابد که يا هر کدام از خوشهها تنها شامل يک داده باشند و يا شرط خاتمه الگوريتم برقرار گردد. شرط خاتمه معمولاً تعداد کلاستر يا خوشه میباشد.
2-2-1-3- روشهای مبتنی بر چگالی
اکثر روشهای خوشهبندی که به این روش عمل میکنند معمولاً از تابع فاصله به عنوان تابع معيار خود بهره میبرند. استفاده از چنين معياری باعث میگردد که الگوريتم خوشهبندی تنها قادر به ايجاد خوشههايی با اشکال منظم باشد. در صورتيکه خوشههای واقعی در دادهها دارای اشکال غیر منظمی باشند، اين الگوريتمها در خوشهبندی آنها با مشکل مواجه میگردند. برای حل اینگونه مشکلات يکسری از روشها برای خوشهبندی پيشنهاد گرديدهاند که عمل خوشهبندی را بر مبنای چگالی دادهها انجام میدهند. ايدهی اصلی در اين روشها بر اين اساس است که تا زمانی که دادههای قرار گرفته در همسايگی خوشهها از حد معينی بيشتر باشند، آنها رشد میکنند و بزرگ میشوند. چنين روشهايی قادرند خوشههايی با شکلهای نامنظم نيز ايجاد نمايند.
البته دستههای ديگری از روشهای خوشهبندی مانند روشهای مبتنی بر گريد، روشهای مبتنی بر مدل و غیره وجود دارند که میتوانيد آنها را در ADDIN EN.CITE
Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] مطالعه نماييد.
2-2-2- طبقهبندی
فرايند طبقهبندی در واقع نوعی يادگيری با ناظر میباشد که در طی دو مرحله انجام میگردد. در مرحله اول مجموعهای از دادهها که در آن هر داده شامل تعدادی خصوصيت دارای مقدار و يک خصوصيت بنام خصوصيت کلاس میباشد، برای ايجاد يک مدل داده بکار میروند که اين مدل داده در واقع توصيف کننده مفهوم و خصوصيات آن مجموعه دادهها است. مرحله دوم فرآيند طبقهبندی، اعمال يا بکارگيری مدل ايجاد شده، بر روی دادههايی است که شامل تمام خصوصيات دادههايی که برای ايجاد مدل بکار گرفته شدهاند، میباشند، بجز خصوصيت کلاس، و هدف از عمل طبقهبندی نيز تخمين مقدار اين خصوصيت میباشد.
الگوريتمها و روشهای مختلفی برای طبقهبندی تاکنون پيشنهاد شدهاند که برای مثال میتوان از روشهای طبقهبندی با استفاده از درخت تصميم، طبقهبندی بيزين، SVM، طبقهبندی با استفاده از شبکههای عصبی، طبقهبندی مبتنی بر قواعد و غیره نام برد. ADDIN EN.CITE
Mitchell19972[6]2217Mitchell, T.M.Machine learning. 1997Burr Ridge, IL: McGraw HillBurr Ridge, IL: McGraw Hill1997[6] در اينجا ما قصد نداريم وارد مباحث مربوط به الگوريتمها و روشهای طبقهبندی شويم و تنها روش طبقهبندی مبتنی بر قواعد را معرفی خواهيم نمود. در صورت نياز به مطالعه بيشتر میتوانيد به مرجع ADDIN EN.CITE
Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4] مراجعه نماييد.
2-2-2-1- طبقهبندی مبتنی بر قواعد
در اين قسمت قصد داريم نگاهی به بحث طبقهبندی مبتنی بر قواعد داشته باشيم. در این روش، مدل ايجاد شده از روی دادهها به صورت مجموعهای از قواعد میباشد. میتوان گفت که هر قاعده به صورت يک قاعده IF P THEN C میباشد که در آن P مجموعهای از شرايط بوده و C نيز مشخص کننده برچسب يک کلاس يا طبقه خاص میباشد. يک قاعده بدست آمده از مجموعه دادههای آموزشی با استفاده از دو معيار coverage و accuracy میتواند ارزيابی گردد. اين دو معيار به صورت زير تعريف میگردند:
(2-1)(2-2)
که در تعاريف مذکور تعداد دادههايی در مجموعه داده D است که توسط قاعده پوشش داده میشوند. تعداد دادههايی است که توسط قاعده به درستی طبقهبندی شدهاند. |D| تعداد دادههای موجود در D میباشد.
نکته مهمی که بايد اينجا به آن اشاره کرد اين بحث است که چگونه دادهها توسط اين قواعد طبقهبندی میگردند. همانطور که اشاره گرديد اين قواعد دارای يک قسمت شرط (P) و يک قسمت C هستند. P يک الگو به صورت میباشد که هر کدام از piها بيان کنندهی يک محدوديت برای يکی از خصوصيات هستند. اگر خصوصيات دادهای محدوديتهای مذکور قاعدهای را برآورده سازد آنگاه کلاس يا طبقهبند آن داده، کلاس يا طبقهای است که آن قاعده بيان میکند(C). اما مسأله مهمی که اينجا پيش میآيد، اين است که اگر يک داده در قسمت شرط (P) بيش از يک قاعده صدق کند، آنگاه کدام قاعده را بايد انتخاب کرد. بسته به استراتژیهای مختلف، اين مشکل جوابهای مختلفی میتواند داشته باشد. دو نمونه از مهمترین استراتژیهايی که معمولاً برای حل اين مشکل بکار میروند، استراتژیهای مرتبسازی بر اساس اندازه و مرتبسازی بر اساس قاعده میباشند.
در استراتژی مرتبسازی بر اساس اندازه، چنانچه يک داده در بيش از يک قاعده صدق کند، قاعدهای برای طبقهبندی داده انتخاب میشود که خصوصيات بيشتری را برای مشخص نمودن کلاس داده تست کرده باشد. در استراتژی مرتبسازی بر اساس قاعده، پيش قواعد اولويت دهی میشوند و هنگام طبقهبندی، قاعده با اولويت بالاتر، مشخص کننده کلاس داده خواهد بود. اولويتدهی به قواعد هم به طرق مختلفی ممکن است انجام گردد. برای مثال ممکن است که ابتدا کلاسها اولويتدهی شوند و قواعد مربوط به هر کلاس نيز با تأثیر پذيری از اين اولويتدهی، اولويت بگيرند. اولويت کلاسها نيز ممکن است بر اساس اهميت کلاس يا تعداد دادههای متعلق به آن کلاس و يا غیره مشخص گردند. استراتژیهای ديگری نيز در اين زمينه وجود دارند که ما در اينجا درباره آنها صحبت نمیکنيم. مسأله ديگری که ممکن است پيش بيايد اين است که يک داده با هیچکدام از قواعد همخوانی نداشته باشد. برای این مسأله هم میتوان راهحلهايی ارائه نمود. معمولترين راهحل اين است که چنانچه دادهای با هیچیک از قواعد همخوانی نداشت، کلاسی به عنوان کلاس آن داده انتخاب گردد که بيشترين تعداد داده در بين دادهها به آن کلاس تعلق دارد.
مورد ديگری هم که اينجا قابل ذکر است اين مطلب است که قواعدی که برای طبقهبندی استفاده میشوند، چگونه ايجاد میگردند. البته ما نمیخواهيم در اينجا وارد جزئيات مربوط به استخراج قواعد از دادههای آموزشی شويم. برای استخراج قواعد از مجموعه دادههای آموزشی معمولاً از دستهای از الگوريتمها بنام الگوريتمهای SCA استفاده میگردد که اين الگوريتمها در هر مرحله يک قاعده را از دادههای آموزشی یاد گرفته و دادههايی را که از آن قاعده پيروی میکنند را از مجموعه دادههای آموزشی خود حذف میکنند و با دادههای باقیمانده، کار خود را ادامه میدهند. از نمونه الگوريتمهای معروف SCA میتوان به AQ، CN2 و RIPPER اشاره نمود. البته قابل ذکر است که برای کشف قواعد میتوان از روشهای ايجاد درخت تصميم و يا کشف قواعد انجمنی نيز استفاده نمود. در درخت تصميم هر مسير از ريشه تا يک برگ را میتوان به عنوان قسمت P قاعده در نظر گرفت و کلاسی که برگ مشخص میکند، قسمت C خواهد بود. در مورد نحوه استفاده از روشهای کشف قواعد انجمنی و استفاده از آنها برای طبقهبندی نيز میتوانيد به ADDIN EN.CITE
Bing19983[7, 8]3310Bing, Liu.Wynne, Hsu.Yiming, Ma.Integrating classification and association rule miningKDD80-861998New York City, New York, USA.Bing200044417Bing, Liu.Yiming, Ma.Ching Kian, Wong.Improving an association rule based classifierPrinciples of Data Mining and Knowledge DiscoveryPrinciples of Data Mining and Knowledge Discovery293-3172000[7, 8] مراجعه کنيد.
2-2-3- کشف قواعد انجمنی
سازمانهای کسب و کار، اغلب حجم عظیمی از دادهها را از عملیات روزانه جمع آوری میکنند. به عنوان مثال، حجم عظیمی از دادهها از خریدهای روزانه مشتریان در فروشگاههای خرده فروشی بدست میآید. استخراج قواعد انجمنی، نوعی از عملیات داده کاوی است که به تجزیه و تحلیل داده و جستجو برای یافتن ارتباط بین ویژگیها از قبیل اینکه مشتریان کدام اقلام را همزمان خریداری میکنند، میپردازد. نام دیگر روش کشف قواعد انجمنی، تحلیل سبد بازار میباشد. به عبارت دیگر، قواعد انجمنی، مطالعه ویژگیها یا خصوصیاتی میباشد که با یکدیگر همراه بوده و به دنبال استخراج قواعد از میان این خصوصیات میباشد. این روش به دنبال استخراج قواعد به منظور کمی کردن ارتباط میان دو یا چند خصوصیت است. قواعد انجمنی به شکل اگر و آنگاه به همراه دو معیار پشتیبان و اطمینان تعریف میشوند.
در اینجا به مثالهایی از کاربرد قوانین انجمنی اشاره میشود:
بررسی ارتباط بین توانایی خواندن کودکان با خواندن داستان توسط والدین برای آنها.
بررسی اینکه چه اقلامی در یک فروشگاه با یکدیگر خریداری میشوند و اینکه چه اقلامی هیچگاه با یکدیگر خریداری نمیشوند.
تعیین سهم نمونهها در بررسی تأثیرات خطرناک یک داروی جدید.
قواعد انجمنی، ماهیتا قواعد احتمالی هستند. به عبارت دیگر قاعده لزوماً قاعده را نتیجه نمیدهد، زیرا این قاعده ممکن است از شرط حداقل پشتیبان برخوردار نباشد. به طور مشابه قواعد و لزوماً قاعده را نتیجه نمیدهند زیرا قاعده اخیر ممکن است از شرط حداقل اطمینان برخوردار نباشد. ADDIN EN.CITE
Han20051[4]1117Han, J.Kamber, M.Data mining: Concepts and Techniques, 2nd EditionSan Francisco, CA, itd: Morgan KaufmannSan Francisco, CA, itd: Morgan Kaufmann2005[4]
2-2-3-1- تعاریف و مفاهیم اصلی در قواعد انجمنی
I = {I1, I2, …, Im} : مجموعه اقلام خریداری شده است.
T: هر زیرمجموعهای از I میباشد که از آن به عنوان تراکنش یاد میشود.
D: مجموعه تراکنشهای موجود در T است.
TID: شناسه منحصر به فرد و یکتایی است که به هر یک از تراکنشها اختصاص مییابد.
نمای کلی یک قاعده انجمنی به شکل زیر میباشد:
[پشتیبان , اطمینان]
به طوری که داریم:
پشتیبان (X, Y): نشان دهندهی درصد یا تعداد مجموعه تراکنشهای D است که شامل هر دوی X و Y باشند.
اطمینان: میزان وابستگی یک کالای خاص را به دیگری بیان میکند و مطابق فرمول زیر محاسبه میشود:
(2-3)(X) پشتیبان / ()پشتیبان = (Y X,) اطمینان
این شاخص درجهی وابستگی بین دو مجموعه X و Y را محاسبه میکند و به عنوان شاخصی برای اندازهگیری توان یک قاعده در نظر گرفته میشود. غالباً قاعدههایی انتخاب میشوند که عدد اطمینان بزرگی داشته باشند.
فرض کنید اطلاعات مشتریانی که محصول X را خریدهاند، همچنین علاقه دارند در همان زمان از محصول Y نیز بخرند، در قاعده انجمنی زیر نشان داده شده است:
(پشتیبان = 20% و اطمینان = 60%)
شاخصهای اطمینان و پشتیبان قواعد بیانگر جذابیت آنها هستند. این دو شاخص به ترتیب مفید بودن و اطمینان از قواعد مکشوفه را نشان میدهند. پشتیبان 20% برای قاعده انجمنی فوق به این معنی است که 20% همهی تراکنشهای موجود نشان میدهند که کالای X و Y با هم خریداری شدهاند. اطمینان 60% به این معنی است که60% مشتریانی که کالای X را خریدهاند، کالای Y را نیز خریداری کردهاند.
اگر مجموعهای از عناصر حداقل پشتیبانی لازم را داشته باشند مکرر خوانده میشوند. قواعد قوی، قواعدی هستند که به طور توأمان دارای مقدار پشتیبان و اطمینان بیش از مقدار آستانه باشند. با استفاده از این مفاهیم، پیدا کردن قواعد انجمنی در دو گام خلاصه میشود، یعنی پیدا کردن مجموعههای مکرر و استخراج قواعد قوی.
2-2-3-1-1- تقسیم بندی قواعد انجمنی
بر اساس ارزش عناصر درون قواعد، میتوان قواعد را به انواع دودویی و کمی تقسیم کرد، در مثال زیر، قاعده اولی دودویی و دومی، کمی است.
]60% = confidence ,2% Computer Financial management software [sup =
Buys (X, high resolution TV)
بر اساس ابعاد یک قاعده میتوان آن را تک بعدی یا چند بعدی نامید. قاعده زیر، فقط بعد خرید را شامل میشود.
Buys (X, Computer) Buys (X, “Financial management software”)
اما قاعدهی زیر سه بعدی است، و ابعاد سن، درآمد و خرید را شامل میشود.
(X, high resolution TV) Buys ("k48.. k42" X,) and income ("39..30" X,) Age
از آنجایی که دادهها میتوانند در سطوح و یا مقیاسهای مختلف تعریف شوند، قواعد را میتوان بر اساس این سطوح خلاصه نمود. مراتب خلاصهسازی و اینکه آیا قواعد در یک سطح هستند یا در چند سطح، میتواند مبنای تقسیمبندی باشد.
2-2-3-1-2- استخراج قواعد تکسطحی تک بعدی دودویی
قبل از ارائه الگوریتمهای استخراج قواعد، نمادها و قراردادهایی را به منظور درک بهتر این الگوریتمها مطرح میکنیم.
اقلام مطابق با قاعده ترتیب حروف الفبا چیده میشوند، به عنوان مثال، اگر باشد، مطابق این قاعده، باید رابطهی برقرار باشد.
در تمامی این الگوریتمها مراحلی که طی میشوند به قرار زیر میباشند:
گام اول: در اولین گذر، پشتیبان هر یک از اجزا محاسبه شده، و اقلام مکرر (با بیشترین میزان فراوانی) با در نظر گرفتن آستانه حداقل پشتیبان انتخاب میشوند. (LK)
گام دوم: در هر گذر، اقلام مکرر که از فاز قبلی، محاسبه شدهاند برای ایجاد اقلام کاندیدا به کار میروند. (CK)
گام سوم: پشتیبان هر یک از CK ها محاسبه شده، و بزرگترین آنها انتخاب میشود. این کار تا زمانی که هیچ قلم بزرگتری یافت نشود، ادامه مییابد.
در هر فاز پس از یافتن اقلام بزرگ (LK)، میتوان قواعد مطلوب را به صورت زیر استخراج کرد:
برای تمامی اقلام مکرر L همهی زیرمجموعههای غیرتهی آن را (s) در نظر میگیریم. برای تمامی این زیرمجموعهها، یک قاعده به صورت زیر استخراج میکنیم:
"s (L – s)" این قاعده در صورتی برقرار میشود که اطمینان حاصل از آن بزرگتر یا مساوی حداقل اطمینان در نظر گرفته شده توسط کاربر باشد، به بیان دیگر اگر رابطهی زیر برقرار باشد، قاعدهی فوق پذیرفته میشود و در غیر این صورت این قاعده لغو میشود.
(2-4)حداقل اطمینان ( (s) پشتیبان / (L) پشتیبان)
پروسه استخراج قواعد انجمنی عبارت است از:
ابتدا همهی اقلام مکرر را که بیشتر یا مساوی با آستانهی پشتیبان هستند بیابید.
برای تمامی اقلام مکرر، همهی زیر مجموعههای آنها را استخراج کنید.
همهی قواعد ممکن را استخراج کنید.
قواعدی را بپذیرید که از بیشتر و یا آستانهی اطمینان برخوردار باشند.
در اینجا برای پیدا کردن این قواعد از الگوریتم ساده Apriori یا الگوریتم پیشنیاز استفاده میکنیم. فرض کنید که ابتدا باید تمام مجموعههای تک عضوی مکرر را پیدا کنید، سپس بر اساس آن مجموعههای دو عضوی مکرر را پیدا کنید و الی آخر. در هر مرحله باید کل فضا جستجو شود اما این الگوریتم از خصوصیت Apriori استفاده میکند به این صورت که "اگر مجموعهای از عناصر مکرر باشد، تمام زیرمجموعههای غیر تهی آن نیز مکرر خواهند بود".
هر زیر مجموعهی یک مجموعه مکرر، خود نیز مکرر است. این خصوصیت را اینگونه نیز میتوان توصیف کرد: اگر مجموعه I به تعداد مشخصی تکرار شده باشد و اگر ما A را به آن اضافه کنیم تعداد تکرار این مجموعه از مجموعه قبلی بیشتر نخواهد بود. پس اگر اولی مکرر نباشد دومی نیز مکرر نخواهد بود. این الگوریتم از این خصوصیت استفاده میکند و در اینجا عملکرد آن را شرح میدهیم: میدانیم که از یک زیرمجموعه 1-k عضوی یا همان Lk-1 برای به دست آوردن Lk یعنی مجموعههای k عضوی استفاده میشود. این کار در دو مرحله صورت میگیرد، ابتدا باید مجموعهای از اعضا پیدا شود که با ترکیب LK-1 با آنها Lk به دست آید. این مجموعه از عناصر را Ck نامیده و مرحله به دست آوردن آنها را پیوست مینامیم. مرحله بعد اضافه کردن این عناصر به مجموعههای قبلی است که آن را مرحله هرس مینامیم. در زیر این دو مرحله شرح داده میشوند.
2-2-3-1-2-1- مرحله پیوست
ابتدا باید مطمئن شویم که عناصر بر مبنای ترتیب حروف الفبا مرتب شدهاند. دو مجموعه از Lk-1 با یکدیگر قابل پیوست هستند اگر 2-k عنصر اول آنها با یکدیگر برابر باشند. یعنی: توجه کنید که دو عنصر آخر مرتب شدهاند و از وجود عناصر تکراری جلوگیری میکنند. با اجتماع دو مجموعه قابل پیوست، آن دو مجموعه ترکیب میشوند.
با این روش، مجموعه ترکیب شده حاصل k عضو خواهد داشت که البته عنصر آخر (از نظر ترتیبی) از مجموعه دوم خواهد بود. در مثال زیر دو مجموعه (4، 2، 1) و (3، 2، 1) را در نظر بگیرید: مجموعه اول و دوم مرتب هستند و داریم: 4>3>2>1 پس میتوان مجموعه ترکیب شده زیر را به دست آورد.
364680519304000(3 2 1) = مجموعهی اول = LK-1
|| ||
364680518859500(4 3 2 1) = مجموعهی ترکیب شده = Ck
|| ||
(4 2 1) = مجموعهی دوم = LK-1
2-2-3-1-2-2- مرحله هرس
Ck مجموعهای از Lkها است که هر عنصر آن یا مکرر است یا خیر، اما تمام عناصر مکرر در آن قرار دارند. حال تمام عناصر این مجموعه باید بررسی شوند تا مکرر بودن آنها مشخص شود اما چون ممکن است تعداد آنها زیاد باشد لذا برای کاهش حجم محاسبات از اصل Apriori استفاده میشود. به این صورت اگر یکی از زیرمجموعههای این مجموعه مکرر نباشد آن مجموعه نیز مکرر نخواهد بود. بنابراین برای پیدا کردن مجموعههای مکرر کافی است مجموعههای غیر مکرر را از آنها جدا کنیم به این صورت که اگر عضوی از Ck در Lk-1 نباشد مکرر نیز نخواهد بود.
2-2-3-1-3- محاسبه اطمینان و استخراج قواعد نهایی
پس از آنکه مجموعههای قوی استخراج شدند حال نویت استخراج قواعد است:
(2-5) اطمینان
برای هر مجموعه مکرر L تمام زیر مجموعههای غیرتهی را در نظر میگیریم. برای هر زیر مجموعهی s قواعد را به صورت زیر شکل میدهیم. "s (L - s)" سپس اطمینان را حساب کرده و اگر بیشتر از حداقل قابل قبول بود آن را میپذیریم.
2-3- دادهکاوی توزيع شده
دادهکاوی توزيع شده عبارت است از کشف نيمه خودکار الگوهای پنهان موجود در دادهها، در حالتی که دادهها و يا مکانيزمهای استنتاج، به صورت توزيع شده باشند. غيرمتمرکز بودن دادهها بدان معناست که دادهها به صورت توزيع شده بين دو يا چند سايت بوده و هزينه انتقال تمام يا بخشی از دادهها به يک سايت مرکزی، قابل صرفنظر نباشد. توزيع شده بودن مکانيزمهای استنتاج، به معنای لزوم لحاظ کردن هزينه ارتباط بين مکانيزمهای مختلف در حال استخراج دانش میباشد. اين توزیعشدگی ممکن است به دلايل مختلفی از جمله ارائه شدن مکانيزم استخراج دانش در قالب يک سرويس اينترنتی و يا صرفاً ناشی از توزیعشدگی دادهها باشد. چنين رويکردی به دادهکاوی، برخلاف جهت کلی تحقيقات انجام شده است که به طور عمده به تکنيکهای متمرکز پرداخته و نه فقط بر تمرکز، که بر همگونی و ساختار مسطح (در مقابل ساختار رابطهای) دادههای هدف متکی میباشند. مسائلی نظير استخراج دانش در حالت عدم دسترسی به تمام دادههای موجود، برقراری ارتباط موثر و بهينه با ساير مکانيزمهای در حال استخراج دانش و نيز تبادل دانش يا اطلاعات ميانی به جای اطلاعات خام، فقط تعدادی از مسائل اوليه دادهکاوی توزيع شده با توجه به تعريف آن میباشند. بنابراين، دادهکاوی توزيع شده در عين حال که به عنوان راه حلی کليدی برای مشکلات اصلی پيش روی دادهکاوی مطرح میباشد، خود سرمنشأ چالشها و مسائل متعددی گرديده است؛ حل مؤثر اين مشکلات منجر به استفاده هرچه بيشتر از دادهکاوی و ايجاد امکانات جديد و بهرهبرداری از پتانسيلهای موجود در قلمروهائی خواهد شد که عليرغم نياز مبرم به دادهکاوی، استفاده بسيار محدودی از آن به عمل میآورند.
بحث دادهکاوی توزيع شده به طور کلی از دو جهت قابل بررسی میباشد. اول حالتی که در آن دادهها به صورت همسان بين پايگاههای مختلف توزيع شدهاند و دادههای هر پايگاه تمام خصوصيات را دارا هستند. در این حالت دادهها ممکن است ذاتاً توزيع شده باشند و يا اينکه دادههای متمرکز به دلایل امنيتی يا غیره بين پايگاههای مختلف تقسيم شده باشند. اصطلاحاً به اين حالت ، تقسيم شده به صورت افقی نيز گفته میشود. ADDIN EN.CITE
Kargupta20046[9]666Kargupta, H.Joshi, A.Sivakumar, K.Yesha, Y.Data mining: Next generation challenges and future directions2004AAAI Press0262612038[9] حالت دوم حالتی است که در آن دادههای موجود در هر پايگاه داده دارای خصوصيتهای مختلف میباشند. معمولاً در اين موارد دادهها خود بين پایگاههای مختلف تقسيم گرديدهاند و ذاتاً توزيع شده نيستند. از اينرو به این حالت تقسيم شده عمودی نيز گفته میشود. ADDIN EN.CITE
Kargupta20046[9]666Kargupta, H.Joshi, A.Sivakumar, K.Yesha, Y.Data mining: Next generation challenges and future directions2004AAAI Press0262612038[9] برای ايجاد ارتباط بين خصوصيتهای مختلفی که در پايگاههای مختلف نگهداری میشوند اما متعلق به يک داده هستند، معمولاً يک خصوصيت مشترک که به عنوان شناسه مورد استفاده قرار میگيرد، بين تمام پايگاههای مختلف نگهداری میشود که رکوردهای مختلف را بهم ارتباط میدهد.
در دادهکاوی توزيع شده نيز مسأله کشف و استخراج دانش مشابه دادهکاوی عادی در زمينههای خوشهبندی توزيع شده، کشف قواعد وابستگی به صورت توزيع شده و طبقهبندی توزيع شده (که با نام يادگيری توزيع شده طبقهبند هم از آن نام برده میشود) مورد تحقيق و بررسی قرار میگیرد. ضمن اينکه در بحث دادهکاوی توزيع شده، مسأله مربوط به محرمانگی دادهها حتماً بايد مدنظر قرار گيرد. برای مطالعه بيشتر در مورد دادهکاوی توزيع شده میتوانيد به مرجع ADDIN EN.CITE
Kargupta20046[9]666Kargupta, H.Joshi, A.Sivakumar, K.Yesha, Y.Data mining: Next generation challenges and future directions2004AAAI Press0262612038[9] مراجعه نماييد.
2-6- مروری بر کارهای انجام شده
در اين بخش قصد داريم کارهای انجام شده در زمينهی داده کاوی توزیع شده، و استفاده از عامل برای دادهکاوی را بررسی نماييم. قبل از بيان اين موارد ابتدا لازم است تا با ارائه يک ساختار درختی جايگاه کارهای مورد بررسی در حوزه داده کاوی را به صورت کلی نشان دهيم (شکل 2-2). تقریباً اکثر کارهايی که در بخش دادهکاوی توزيع شده و نيز کاربرد عامل برای دادهکاوی انجام شده و در اين گزارش مورد بررسی قرار گرفتهاند، شامل کارهايی هستند که در درخت شکل 2-2 در نود شماره 1.1.2.2 و نودهای فرزند آن قرار میگيرند.
از آنجا که بيشتر کارهای انجام شده در زمينه استفاده از عامل برای دادهکاوی در زمينه دادهکاوی توزيع شده بوده است، لذا اجازه دهيد تا ابتدا بحث دادهکاوی توزيع شده را به همراه برخی از مهمترين کارهای انجام شده مورد بررسی قرار دهيم و سپس به بحث استفاده از عاملها در اين زمينه بپردازيم.
2686685-277495100141052753448051.2001.215430503352801.1001.1283845028765500182880028765500240030030480Data Mining00Data Mining
1399540213360Static00Static3778898213814Dynamic (Active)00Dynamic (Active)
2686050950561.1.2001.1.2781050842611.1.1001.1.11828800254000011144252540000695325406400Central00Central19716757969250014859001254125Vertically partitioned00Vertically partitioned32480251254125Horizontally partitioned00Horizontally partitioned3724275171132500283845017113250024003002139950Data Integration00Data Integration
2352675126171Distributed00Distributed
279082523602600
15144751001361.1.2.1001.1.2.135814001102961.1.2.2001.1.2.2
4533900506061.1.2.2.2001.1.2.2.22266950493361.1.2.2.1001.1.2.2.1
428625082356Model Integration00Model Integration
شکل 2- SEQ شکل_2- \* ARABIC 2: درخت تحقيق مبحث دادهکاوی
2-6-1- دادهکاوی توزيع شده
در ADDIN EN.CITE
Grossman200146[31]464617Grossman, R.A top-ten list for data miningSIAM NewsSIAM News3452001[31] آقای گروسمن، دادهکاوی را استخراج نیمه اتوماتیک مدلها، الگوها، تغییرات، ناهنجاریها، و دیگر ساختارهای مهم آماری از مجموعه دادههای بزرگ تعریف کرده است. کاوش پایگاه دادههای توزیع شده ADDIN EN.CITE
Grossman200146[31-33]464617Grossman, R.A top-ten list for data miningSIAM NewsSIAM News3452001Park20024747476Park, B.Kargupta, H.Distributed data mining: algorithms, systems, and applicationsData Mining Handbook2002Y. NongBhaduri201167676717Bhaduri, K.Das, K.Liu, K.Kargupta, H.Ryan, J.Distributed Data Mining BibliographyDistributed Data Mining BibliographyDistributed Data Mining Bibliography2011[31-33] موضوعی کاربردی است که حجم عظیم تحقیقات انجام شده در این حوزه، سبب پیشرفت چشمگیری در تکنیکهای طبقهبندی ADDIN EN.CITE
Stolfo199748[34-36]484810Stolfo, S.Prodromidis, A.L.Tselepis, S.Lee, W.Fan, D.W.Chan, P.K.JAM: Java agents for meta-learning over distributed databases74-811997Luo200749494910Luo, P.Xiong, H.Lü, K.Shi, Z.Distributed classification in peer-to-peer networks968-9762007ACM1595936092Aoun-Allah200750505010Aoun-Allah, M.Mineau, G.Distributed data mining: why do more than aggregating models2645-26502007[34-36]، خوشهبندی ADDIN EN.CITE
Datta200651[37, 38]515110Datta, S.Giannella, C.Kargupta, H.K-Means Clustering Over a Large, Dynamic Network2006 SIAM Conference on Data Mining2006Gionis200552525210Gionis, A.Mannila, H.Tsaparas, P.Clustering aggregation21st ICDE Conference341-3522005IEEE0769522858[37, 38]، OLAP ADDIN EN.CITE
Chen200553[39, 40]535310Chen, B.C.Chen, L.Lin, Y.Ramakrishnan, R.Prediction cubes31st VLDB Conference982-9932005NorwayVLDB Endowment1595931546Gray199655555510Gray, J.Bosworth, A.Layman, A.Pirahesh, H.Datacube: A relational aggregation operator generalizing group-by, cross-tab, and sub-totals12th ICDE Conference152-1591996[39, 40]، کاوش الگوریتمهای پرتکرار PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5BZ3Jhd2FsPC9BdXRob3I+PFllYXI+MTk5NDwvWWVhcj48
UmVjTnVtPjU8L1JlY051bT48RGlzcGxheVRleHQ+WzQxLTQ0XTwvRGlzcGxheVRleHQ+PHJlY29y
ZD48cmVjLW51bWJlcj41PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk
Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41PC9rZXk+PC9mb3Jl
aWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYt
dHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48
YXV0aG9yPlNyaWthbnQsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRs
ZXM+PHRpdGxlPkZhc3QgYWxnb3JpdGhtcyBmb3IgbWluaW5nIGFzc29jaWF0aW9uIHJ1bGVzPC90
aXRsZT48c2Vjb25kYXJ5LXRpdGxlPlZMREIgQ29uZmVyZW5jZXM8L3NlY29uZGFyeS10aXRsZT48
L3RpdGxlcz48cGFnZXM+NDg3LTQ5OTwvcGFnZXM+PHZvbHVtZT4xMjE1PC92b2x1bWU+PGRhdGVz
Pjx5ZWFyPjE5OTQ8L3llYXI+PC9kYXRlcz48cHViLWxvY2F0aW9uPlNhbnRpYWdvLCBDaGlsZTwv
cHViLWxvY2F0aW9uPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5B
c2hyYWZpPC9BdXRob3I+PFllYXI+MjAwNDwvWWVhcj48UmVjTnVtPjU2PC9SZWNOdW0+PHJlY29y
ZD48cmVjLW51bWJlcj41NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg
ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NTY8L2tleT48L2Zv
cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+
PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPkFzaHJhZmksIE0uWi48L2F1dGhvcj48YXV0
aG9yPlRhbmlhciwgRC48L2F1dGhvcj48YXV0aG9yPlNtaXRoLCBLLjwvYXV0aG9yPjwvYXV0aG9y
cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5PREFNOiBBbiBvcHRpbWl6ZWQgZGlzdHJp
YnV0ZWQgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgYWxnb3JpdGhtPC90aXRsZT48c2Vjb25kYXJ5
LXRpdGxlPkRpc3RyaWJ1dGVkIFN5c3RlbXMgT25saW5lLCBJRUVFPC9zZWNvbmRhcnktdGl0bGU+
PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxp
bmUsIElFRUU8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjx2b2x1bWU+NTwvdm9sdW1lPjxudW1i
ZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA0PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTU0MS00
OTIyPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5DaGV1
bmc8L0F1dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NTc8L1JlY051bT48cmVjb3JkPjxy
ZWMtbnVtYmVyPjU3PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1p
ZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41Nzwva2V5PjwvZm9yZWln
bi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29u
dHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+Q2hldW5nLCBELlcuPC9hdXRob3I+PGF1dGhvcj5O
ZywgVi5ULjwvYXV0aG9yPjxhdXRob3I+RnUsIEEuVy48L2F1dGhvcj48YXV0aG9yPkZ1LCBZLjwv
YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5FZmZpY2llbnQg
bWluaW5nIG9mIGFzc29jaWF0aW9uIHJ1bGVzIGluIGRpc3RyaWJ1dGVkIGRhdGFiYXNlczwvdGl0
bGU+PHNlY29uZGFyeS10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERh
dGEgRW5naW5lZXJpbmc8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVs
bC10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERhdGEgRW5naW5lZXJp
bmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz45MTEtOTIyPC9wYWdlcz48dm9sdW1l
Pjg8L3ZvbHVtZT48bnVtYmVyPjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2Rh
dGVzPjxpc2JuPjEwNDEtNDM0NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxD
aXRlPjxBdXRob3I+SGFuPC9BdXRob3I+PFllYXI+MjAwMDwvWWVhcj48UmVjTnVtPjExOTwvUmVj
TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+MTE5PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtl
eSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij4x
MTk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVk
aW5ncyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEou
PC9hdXRob3I+PGF1dGhvcj5QZWksIEouPC9hdXRob3I+PGF1dGhvcj5ZaW4sIFkuPC9hdXRob3I+
PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk1pbmluZyBmcmVxdWVudCBw
YXR0ZXJucyB3aXRob3V0IGNhbmRpZGF0ZSBnZW5lcmF0aW9uPC90aXRsZT48c2Vjb25kYXJ5LXRp
dGxlPkFDTSBTSUdNT0Q8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MS0xMjwvcGFn
ZXM+PHZvbHVtZT4yOTwvdm9sdW1lPjxkYXRlcz48eWVhcj4yMDAwPC95ZWFyPjwvZGF0ZXM+PHB1
Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48aXNibj4xNTgxMTMyMTc0PC9pc2JuPjx1cmxzPjwvdXJs
cz48L3JlY29yZD48L0NpdGU+PC9FbmROb3RlPn==
ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5BZ3Jhd2FsPC9BdXRob3I+PFllYXI+MTk5NDwvWWVhcj48
UmVjTnVtPjU8L1JlY051bT48RGlzcGxheVRleHQ+WzQxLTQ0XTwvRGlzcGxheVRleHQ+PHJlY29y
ZD48cmVjLW51bWJlcj41PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk
Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41PC9rZXk+PC9mb3Jl
aWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYt
dHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48
YXV0aG9yPlNyaWthbnQsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRs
ZXM+PHRpdGxlPkZhc3QgYWxnb3JpdGhtcyBmb3IgbWluaW5nIGFzc29jaWF0aW9uIHJ1bGVzPC90
aXRsZT48c2Vjb25kYXJ5LXRpdGxlPlZMREIgQ29uZmVyZW5jZXM8L3NlY29uZGFyeS10aXRsZT48
L3RpdGxlcz48cGFnZXM+NDg3LTQ5OTwvcGFnZXM+PHZvbHVtZT4xMjE1PC92b2x1bWU+PGRhdGVz
Pjx5ZWFyPjE5OTQ8L3llYXI+PC9kYXRlcz48cHViLWxvY2F0aW9uPlNhbnRpYWdvLCBDaGlsZTwv
cHViLWxvY2F0aW9uPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5B
c2hyYWZpPC9BdXRob3I+PFllYXI+MjAwNDwvWWVhcj48UmVjTnVtPjU2PC9SZWNOdW0+PHJlY29y
ZD48cmVjLW51bWJlcj41NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg
ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NTY8L2tleT48L2Zv
cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+
PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPkFzaHJhZmksIE0uWi48L2F1dGhvcj48YXV0
aG9yPlRhbmlhciwgRC48L2F1dGhvcj48YXV0aG9yPlNtaXRoLCBLLjwvYXV0aG9yPjwvYXV0aG9y
cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5PREFNOiBBbiBvcHRpbWl6ZWQgZGlzdHJp
YnV0ZWQgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgYWxnb3JpdGhtPC90aXRsZT48c2Vjb25kYXJ5
LXRpdGxlPkRpc3RyaWJ1dGVkIFN5c3RlbXMgT25saW5lLCBJRUVFPC9zZWNvbmRhcnktdGl0bGU+
PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxp
bmUsIElFRUU8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjx2b2x1bWU+NTwvdm9sdW1lPjxudW1i
ZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA0PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTU0MS00
OTIyPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5DaGV1
bmc8L0F1dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NTc8L1JlY051bT48cmVjb3JkPjxy
ZWMtbnVtYmVyPjU3PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1p
ZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij41Nzwva2V5PjwvZm9yZWln
bi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29u
dHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+Q2hldW5nLCBELlcuPC9hdXRob3I+PGF1dGhvcj5O
ZywgVi5ULjwvYXV0aG9yPjxhdXRob3I+RnUsIEEuVy48L2F1dGhvcj48YXV0aG9yPkZ1LCBZLjwv
YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5FZmZpY2llbnQg
bWluaW5nIG9mIGFzc29jaWF0aW9uIHJ1bGVzIGluIGRpc3RyaWJ1dGVkIGRhdGFiYXNlczwvdGl0
bGU+PHNlY29uZGFyeS10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERh
dGEgRW5naW5lZXJpbmc8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVs
bC10aXRsZT5JRUVFIFRyYW5zYWN0aW9ucyBvbiBLbm93bGVkZ2UgYW5kIERhdGEgRW5naW5lZXJp
bmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz45MTEtOTIyPC9wYWdlcz48dm9sdW1l
Pjg8L3ZvbHVtZT48bnVtYmVyPjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2Rh
dGVzPjxpc2JuPjEwNDEtNDM0NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxD
aXRlPjxBdXRob3I+SGFuPC9BdXRob3I+PFllYXI+MjAwMDwvWWVhcj48UmVjTnVtPjExOTwvUmVj
TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+MTE5PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtl
eSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij4x
MTk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVk
aW5ncyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEou
PC9hdXRob3I+PGF1dGhvcj5QZWksIEouPC9hdXRob3I+PGF1dGhvcj5ZaW4sIFkuPC9hdXRob3I+
PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk1pbmluZyBmcmVxdWVudCBw
YXR0ZXJucyB3aXRob3V0IGNhbmRpZGF0ZSBnZW5lcmF0aW9uPC90aXRsZT48c2Vjb25kYXJ5LXRp
dGxlPkFDTSBTSUdNT0Q8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MS0xMjwvcGFn
ZXM+PHZvbHVtZT4yOTwvdm9sdW1lPjxkYXRlcz48eWVhcj4yMDAwPC95ZWFyPjwvZGF0ZXM+PHB1
Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48aXNibj4xNTgxMTMyMTc0PC9pc2JuPjx1cmxzPjwvdXJs
cz48L3JlY29yZD48L0NpdGU+PC9FbmROb3RlPn==
ADDIN EN.CITE.DATA [41-44]، کاوش جریان داده ADDIN EN.CITE
Manjhi200559[45, 46]595910Manjhi, A.Shkapenyuk, V.Dhamdhere, K.Olston, C.Finding (recently) frequent items in distributed data streamsICDE Conference767-7782005IEEE0769522858Sun200660606017Sun, J.Papadimitriou, S.Faloutsos, C.Distributed pattern discovery in multiple streamsAdvances in Knowledge Discovery and Data MiningAdvances in Knowledge Discovery and Data Mining713-7182006[45, 46]، و ارزیابی شباهت پایگاه دادهها ADDIN EN.CITE
Li200361[47, 48]616117Li, T.Ogihara, M.Zhu, S.Association-based similarity testing and its applicationsIntelligent Data AnalysisIntelligent Data Analysis209-2327320031088-467XWebb200362626210Webb, G.I.Butler, S.Newlands, D.On detecting differences between groups9th ACM SIGKDD Conference256-2652003ACM1581137370[47, 48] شده است. تقریباً، در هر حوزه اصلی پژوهشی داده کاوی، حداقل یک ماژول یا الگوریتم کاوش توزیع شده وجود دارد. موضوعات اصلی این فعالیتهای تحقیقاتی، به اشتراک گذاشتن شباهتهاست به این ترتیب که همهی آنها از روش یکپارچه کردن و/ یا مقایسه منابع داده توزیع شده برای رسیدن به هدف مشترک بهره میبرند.
به طور کلی، دو گروه عمده در تحقيقات مربوط به دادهکاوی توزيع شده قابل تشخيص است. گروه اول عبارت است از کارهائي که به از بين بردن مشکل توزيع اطلاعات از راه تجمع اطلاعات در يک نقطه مرکزی با استفاده از الگوريتمها و پروتکلهای بهبود يافته شبکه میپردازند و با فرض اين مسئله که در دادهکاوی توزيع شده دقت و هزينه (ناشی از انتقال اطلاعات) مقابل يکديگر قرار دارند، برای دستیابی به يک راهحل قابل قبول از طريق وضع يک استراتژی افزايش دقت در مقابل حداقل هزينه (در حالتی که هزينه انتقال اطلاعات قابل صرفنظر نيست) تلاش میکنند. سيستم Papyrus بر اين مبنا استوار است. ADDIN EN.CITE
Bailey199941[49]414110Bailey, S.Grossman, R.Sivakumar, H.Turinsky, A.Papyrus: a system for data mining over local and wide area clusters and super-clusters631999ACM1581130910[49] اين دسته از کارها در درخت تحقيق شکل 2-2 در نود 1.1.2.2.1 قرار میگيرند. گروه دوم از کارهای انجام شده در زمينه دادهکاوی توزيع شده، با در نظر گرفتن حالتهای مختلف توزيع اطلاعات، به ارائه روشهایی برای دادهکاوی بدون انتقال اطلاعات خام به يک نقطه مرکزی و معمولاً از طريق جابهجائی اطلاعات ميانی مختلف بين سايتها میپردازند؛ معمولاً در تمام اين روشها، تلاش بر حداقل ساختن ارتباطات است. اين گروه از کارها در درخت تحقيق شکل 2-2 در جايگاه 1.1.2.2.2 قرار دارند. در پژوهش ADDIN EN.CITE
Schuster200442[50]424217Schuster, A.Wolff, R.Communication-efficient distributed mining of association rulesData Mining and Knowledge DiscoveryData Mining and Knowledge Discovery171-1968220041384-5810[50] روشی برای استخراج قواعد وابستگی از اطلاعات توزيع شده، با حداقل ارتباط بين فرآيندهای در حال استخراج قوانين ارائه میکند. همچنين به عنوان نمونهای از تحقيقات انجام شده در زمينه حفظ حريم خصوصی در فرآيند دادهکاوی، میتوان به ADDIN EN.CITE
Schuster200443[51]434310Schuster, A.Wolff, R.Gilburd, B.Privacy-preserving association rule mining in large-scale distributed systems411-4182004IEEE078038430X[51] اشاره نمود. دو نمونه ديگر از کاربردهای دادهکاوی توزيع شده را میتوانيد در ADDIN EN.CITE
Bala200244[52]444410Bala, J.Baik, S.Hadjarian, A.Gogia, BKManthorne, C.Application of a distributed data mining approach to network intrusion detection1419-14202002ACM1581134800[52] و ADDIN EN.CITE
Stolfo200045[53]454510Stolfo, S.J.Fan, W.Lee, W.Prodromidis, A.Chan, P.K.Cost-based modeling for fraud and intrusion detection: Results from the JAM project130-144 vol. 222000IEEE0769504906[53] مشاهده کنيد. در اين دو مرجع با استفاده از مدلهای ايجاد شده به صورت توزيع شده توسط نودهای مختلف در شبکه و سپس ايجاد مدل داده کلی، سعی میشود تا عمليات نفوذ به شبکه شناسايی و خنثی گردد. البته در ADDIN EN.CITE
Stolfo200045[53]454510Stolfo, S.J.Fan, W.Lee, W.Prodromidis, A.Chan, P.K.Cost-based modeling for fraud and intrusion detection: Results from the JAM project130-144 vol. 222000IEEE0769504906[53] در هر نود مذکور در شبکه يک عامل قرار دارد که فعاليتهای مربوط به ايجاد مدل داده و ارتباط با ديگر عاملها را بر عهده دارد.
از دیدگاه طبقهبندی و خوشهبندی، مشکل کشف الگو از پایگاه دادههای توزیع شده ناشی از چگونگی آموزش مدلهای کلی از اطلاعات بدست آمده از چندین پایگاه داده است. برای تحقق این هدف از دو روش میتوان استفاده کرد، جمع آوری دادهها در قالب یک نگاه واحد، و یا یکپارچهسازی مدلهای ساخته شده از پایگاه دادههای مجزا. ADDIN EN.CITE
Fujibuchi200763[54, 55]636317Fujibuchi, W.Kato, T.Classification of heterogeneous microarray data by maximum entropy kernelBMC bioinformaticsBMC bioinformatics2678120071471-2105Merugu200568686810Merugu, S.Ghosh, J.A distributed learning framework for heterogeneous data sourcesThe 11th ACM KDD Conference208-2172005ACM159593135X[54, 55] Kargupta و همکاران یک چارچوب داده کاوی اشتراکی با یک کلید اصلی برای یکپارچه کردن دادهها در یک نگاه واحد پیشنهاد دادند. ADDIN EN.CITE
Kargupta199965[56]656510Kargupta, H.Park, B.H.Hershberger, D.Johnson, E.Collective data mining: A new perspective toward distributed data analysisAdvances in Distributed and Parallel Knowledge Discovery1999Citeseer[56] فرضیات مشابهی برای حفظ حریم خصوصی در داده کاوی ADDIN EN.CITE
Kantarcioglu200271[57, 58]717110Kantarcioglu, M.Clifton, C.Privacy-Preserving Distributed Mining of Association Rules on Horizontally Partitioned DataACM SIGMOD Workshop on Research Issues on Data Mining and Knowledge Discovery (DMKD'02)2002Qiu200772727217Qiu, L.Li, Y.Wu, X.Preserving privacy in association rule mining with bloom filtersJournal of Intelligent Information SystemsJournal of Intelligent Information Systems253-27829320070925-9902[57, 58]، یکدسته کردن و جمع آوری خوشهها ADDIN EN.CITE
Gionis200552[38]525210Gionis, A.Mannila, H.Tsaparas, P.Clustering aggregation21st ICDE Conference341-3522005IEEE0769522858[38]، و یکپارچه سازی مدل برپایهی کرنل ADDIN EN.CITE
Fujibuchi200763[54]636317Fujibuchi, W.Kato, T.Classification of heterogeneous microarray data by maximum entropy kernelBMC bioinformaticsBMC bioinformatics2678120071471-2105[54]، از دادههای ناهمگون ارائه شده است. یین و همکارانش یک کاوشگر عرضی برای طبقهبندی پایگاه دادههای رابطهای چندگانه پیشنهاد داده بودند. ADDIN EN.CITE
Yin200673[59]737317Yin, X.Han, J.Yang, J.Yu, P.Crossmine: Efficient classification across multiple database relationsConstraint-Based Mining and Inductive DatabasesConstraint-Based Mining and Inductive Databases172-1952006[59] وانگ و همکارانش، مشکل تقویت خوشهبندی چند نوع شی بین رابطهای (به عنوان مثال اسناد وب) را مورد بررسی قرار دادند. ADDIN EN.CITE
Wang200374[60]747410Wang, J.Zeng, H.Chen, Z.Lu, H.Tao, L.Ma, W.Y.ReCoM: reinforcement clustering of multi-type interrelated data objectsSIGIR Conference274-2812003ACM1581136463[60] مشکل کاوش الگوی پرتکرار برای پایگاه دادههای توزیع شده به خوبی مورد مطالعه قرار گرفته است PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5TY2h1c3RlcjwvQXV0aG9yPjxZZWFyPjIwMDQ8L1llYXI+
PFJlY051bT40MjwvUmVjTnVtPjxEaXNwbGF5VGV4dD5bNDIsIDQzLCA1MCwgNTYsIDYxLTY3XTwv
RGlzcGxheVRleHQ+PHJlY29yZD48cmVjLW51bWJlcj40MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1r
ZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6
c2ZkdiI+NDI8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRp
Y2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlNjaHVzdGVy
LCBBLjwvYXV0aG9yPjxhdXRob3I+V29sZmYsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJp
YnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbW11bmljYXRpb24tZWZmaWNpZW50IGRpc3RyaWJ1dGVk
IG1pbmluZyBvZiBhc3NvY2lhdGlvbiBydWxlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh
IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz
PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292
ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTcxLTE5NjwvcGFnZXM+PHZvbHVt
ZT44PC92b2x1bWU+PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9k
YXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48
Q2l0ZT48QXV0aG9yPkFzaHJhZmk8L0F1dGhvcj48WWVhcj4yMDA0PC9ZZWFyPjxSZWNOdW0+NTY8
L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjU2PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+
PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2
Ij41Njwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUi
PjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QXNocmFmaSwgTS5a
LjwvYXV0aG9yPjxhdXRob3I+VGFuaWFyLCBELjwvYXV0aG9yPjxhdXRob3I+U21pdGgsIEsuPC9h
dXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9EQU06IEFuIG9w
dGltaXplZCBkaXN0cmlidXRlZCBhc3NvY2lhdGlvbiBydWxlIG1pbmluZyBhbGdvcml0aG08L3Rp
dGxlPjxzZWNvbmRhcnktdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxpbmUsIElFRUU8L3Nl
Y29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5EaXN0cmlidXRl
ZCBTeXN0ZW1zIE9ubGluZSwgSUVFRTwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHZvbHVtZT41
PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9kYXRl
cz48aXNibj4xNTQxLTQ5MjI8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0
ZT48QXV0aG9yPkNoZXVuZzwvQXV0aG9yPjxZZWFyPjE5OTY8L1llYXI+PFJlY051bT41NzwvUmVj
TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NTc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5
IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjU3
PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8
L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5DaGV1bmcsIEQuVy48L2F1
dGhvcj48YXV0aG9yPk5nLCBWLlQuPC9hdXRob3I+PGF1dGhvcj5GdSwgQS5XLjwvYXV0aG9yPjxh
dXRob3I+RnUsIFkuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRp
dGxlPkVmZmljaWVudCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXMgaW4gZGlzdHJpYnV0ZWQg
ZGF0YWJhc2VzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtu
b3dsZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZzwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxw
ZXJpb2RpY2FsPjxmdWxsLXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtub3dsZWRnZSBhbmQg
RGF0YSBFbmdpbmVlcmluZzwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjkxMS05MjI8
L3BhZ2VzPjx2b2x1bWU+ODwvdm9sdW1lPjxudW1iZXI+NjwvbnVtYmVyPjxkYXRlcz48eWVhcj4x
OTk2PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA0MS00MzQ3PC9pc2JuPjx1cmxzPjwvdXJscz48L3Jl
Y29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5LYXJndXB0YTwvQXV0aG9yPjxZZWFyPjE5OTk8L1ll
YXI+PFJlY051bT42NTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NjU8L3JlYy1udW1iZXI+
PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6
dm9zejV6cjAwenNmZHYiPjY1PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNv
bmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3Jz
PjxhdXRob3I+S2FyZ3VwdGEsIEguPC9hdXRob3I+PGF1dGhvcj5QYXJrLCBCLkguPC9hdXRob3I+
PGF1dGhvcj5IZXJzaGJlcmdlciwgRC48L2F1dGhvcj48YXV0aG9yPkpvaG5zb24sIEUuPC9hdXRo
b3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbGxlY3RpdmUgZGF0
YSBtaW5pbmc6IEEgbmV3IHBlcnNwZWN0aXZlIHRvd2FyZCBkaXN0cmlidXRlZCBkYXRhIGFuYWx5
c2lzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFkdmFuY2VzIGluIERpc3RyaWJ1dGVkIGFuZCBQ
YXJhbGxlbCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PGRh
dGVzPjx5ZWFyPjE5OTk8L3llYXI+PC9kYXRlcz48cHVibGlzaGVyPkNpdGVzZWVyPC9wdWJsaXNo
ZXI+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkFncmF3YWw8L0F1
dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NzU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVt
YmVyPjc1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2Rw
cHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij43NTwva2V5PjwvZm9yZWlnbi1rZXlz
PjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0
b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48YXV0aG9yPlNoYWZlciwg
Si5DLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJh
bGxlbCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+
S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBvbjwvc2Vj
b25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3dsZWRnZSBh
bmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0bGU+PC9w
ZXJpb2RpY2FsPjxwYWdlcz45NjItOTY5PC9wYWdlcz48dm9sdW1lPjg8L3ZvbHVtZT48bnVtYmVy
PjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2RhdGVzPjxpc2JuPjEwNDEtNDM0
NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+SGFuPC9B
dXRob3I+PFllYXI+MTk5NzwvWWVhcj48UmVjTnVtPjc2PC9SZWNOdW0+PHJlY29yZD48cmVjLW51
bWJlcj43NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNk
cHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NzY8L2tleT48L2ZvcmVpZ24ta2V5
cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10eXBlPjxj
b250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEUuSC48L2F1dGhvcj48YXV0aG9yPkth
cnlwaXMsIEcuPC9hdXRob3I+PGF1dGhvcj5LdW1hciwgVi48L2F1dGhvcj48L2F1dGhvcnM+PC9j
b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+U2NhbGFibGUgcGFyYWxsZWwgZGF0YSBtaW5pbmcg
Zm9yIGFzc29jaWF0aW9uIHJ1bGVzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFDTSBTSUdNT0Qg
Q29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjx2b2x1bWU+MjY8L3ZvbHVtZT48
bnVtYmVyPjI8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NzwveWVhcj48L2RhdGVzPjxwdWJsaXNo
ZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MDg5NzkxOTExNDwvaXNibj48dXJscz48L3VybHM+PC9y
ZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+TGk8L0F1dGhvcj48WWVhcj4yMDA1PC9ZZWFyPjxS
ZWNOdW0+Nzc8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjc3PC9yZWMtbnVtYmVyPjxmb3Jl
aWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1
enIwMHpzZmR2Ij43Nzwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFs
IEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+TGks
IFMuPC9hdXRob3I+PGF1dGhvcj5XdSwgVC48L2F1dGhvcj48YXV0aG9yPlBvdHRlbmdlciwgVy5N
LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXN0cmli
dXRlZCBoaWdoZXIgb3JkZXIgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgdXNpbmcgaW5mb3JtYXRp
b24gZXh0cmFjdGVkIGZyb20gdGV4dHVhbCBkYXRhPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFD
TSBTSUdLREQgRXhwbG9yYXRpb25zIE5ld3NsZXR0ZXI8L3NlY29uZGFyeS10aXRsZT48L3RpdGxl
cz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5BQ00gU0lHS0REIEV4cGxvcmF0aW9ucyBOZXdzbGV0
dGVyPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MjYtMzU8L3BhZ2VzPjx2b2x1bWU+
Nzwvdm9sdW1lPjxudW1iZXI+MTwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA1PC95ZWFyPjwvZGF0
ZXM+PGlzYm4+MTkzMS0wMTQ1PC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENp
dGU+PEF1dGhvcj5PdGV5PC9BdXRob3I+PFllYXI+MjAwMzwvWWVhcj48UmVjTnVtPjc4PC9SZWNO
dW0+PHJlY29yZD48cmVjLW51bWJlcj43ODwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkg
YXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzg8
L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5n
cyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5PdGV5LCBNLkUu
PC9hdXRob3I+PGF1dGhvcj5XYW5nLCBDLjwvYXV0aG9yPjxhdXRob3I+UGFydGhhc2FyYXRoeSwg
Uy48L2F1dGhvcj48YXV0aG9yPlZlbG9zbywgQS48L2F1dGhvcj48YXV0aG9yPk1laXJhIEpyLCBX
LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5NaW5pbmcg
ZnJlcXVlbnQgaXRlbXNldHMgaW4gZGlzdHJpYnV0ZWQgYW5kIGR5bmFtaWMgZGF0YWJhc2VzPC90
aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklDRE0gQ29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwv
dGl0bGVzPjxwYWdlcz42MTctNjIwPC9wYWdlcz48ZGF0ZXM+PHllYXI+MjAwMzwveWVhcj48L2Rh
dGVzPjxwdWJsaXNoZXI+SUVFRTwvcHVibGlzaGVyPjxpc2JuPjA3Njk1MTk3ODQ8L2lzYm4+PHVy
bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPld1PC9BdXRob3I+PFllYXI+
MjAwMzwvWWVhcj48UmVjTnVtPjc5PC9SZWNOdW0+PHJlY29yZD48cmVjLW51bWJlcj43OTwvcmVj
LW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZn
ZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUg
bmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9y
cz48YXV0aG9yPld1LCBYLjwvYXV0aG9yPjxhdXRob3I+WmhhbmcsIFMuPC9hdXRob3I+PC9hdXRo
b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlN5bnRoZXNpemluZyBoaWdoLWZyZXF1
ZW5jeSBydWxlcyBmcm9tIGRpZmZlcmVudCBkYXRhIHNvdXJjZXM8L3RpdGxlPjxzZWNvbmRhcnkt
dGl0bGU+S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBv
bjwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3ds
ZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0
bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz4zNTMtMzY3PC9wYWdlcz48dm9sdW1lPjE1PC92b2x1bWU+
PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDM8L3llYXI+PC9kYXRlcz48aXNibj4x
MDQxLTQzNDc8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9y
Plpha2k8L0F1dGhvcj48WWVhcj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODA8L1JlY051bT48cmVjb3Jk
PjxyZWMtbnVtYmVyPjgwPC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk
Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44MDwva2V5PjwvZm9y
ZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48
Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+WmFraSwgTS5KLjwvYXV0aG9yPjwvYXV0aG9y
cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJhbGxlbCBhbmQgZGlzdHJpYnV0ZWQg
YXNzb2NpYXRpb24gbWluaW5nOiBBIHN1cnZleTwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5Db25j
dXJyZW5jeSwgSUVFRTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxs
LXRpdGxlPkNvbmN1cnJlbmN5LCBJRUVFPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+
MTQtMjU8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1lPjxudW1iZXI+NDwvbnVtYmVyPjxkYXRlcz48
eWVhcj4xOTk5PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA5Mi0zMDYzPC9pc2JuPjx1cmxzPjwvdXJs
cz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaGFuZzwvQXV0aG9yPjxZZWFyPjIwMDY8
L1llYXI+PFJlY051bT44MTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+ODE8L3JlYy1udW1i
ZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJo
cGV6dm9zejV6cjAwenNmZHYiPjgxPC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9
IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1
dGhvcj5aaGFuZywgUy48L2F1dGhvcj48YXV0aG9yPlpha2ksIE0uSi48L2F1dGhvcj48L2F1dGhv
cnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+TWluaW5nIG11bHRpcGxlIGRhdGEgc291
cmNlczogbG9jYWwgcGF0dGVybiBhbmFseXNpczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh
IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz
PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292
ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTIxLTEyNTwvcGFnZXM+PHZvbHVt
ZT4xMjwvdm9sdW1lPjxudW1iZXI+MjwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA2PC95ZWFyPjwv
ZGF0ZXM+PGlzYm4+MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+
PC9FbmROb3RlPn==
ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5TY2h1c3RlcjwvQXV0aG9yPjxZZWFyPjIwMDQ8L1llYXI+
PFJlY051bT40MjwvUmVjTnVtPjxEaXNwbGF5VGV4dD5bNDIsIDQzLCA1MCwgNTYsIDYxLTY3XTwv
RGlzcGxheVRleHQ+PHJlY29yZD48cmVjLW51bWJlcj40MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1r
ZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6
c2ZkdiI+NDI8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRp
Y2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlNjaHVzdGVy
LCBBLjwvYXV0aG9yPjxhdXRob3I+V29sZmYsIFIuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJp
YnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbW11bmljYXRpb24tZWZmaWNpZW50IGRpc3RyaWJ1dGVk
IG1pbmluZyBvZiBhc3NvY2lhdGlvbiBydWxlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh
IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz
PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292
ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTcxLTE5NjwvcGFnZXM+PHZvbHVt
ZT44PC92b2x1bWU+PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9k
YXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48
Q2l0ZT48QXV0aG9yPkFzaHJhZmk8L0F1dGhvcj48WWVhcj4yMDA0PC9ZZWFyPjxSZWNOdW0+NTY8
L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjU2PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+
PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2
Ij41Njwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUi
PjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+QXNocmFmaSwgTS5a
LjwvYXV0aG9yPjxhdXRob3I+VGFuaWFyLCBELjwvYXV0aG9yPjxhdXRob3I+U21pdGgsIEsuPC9h
dXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9EQU06IEFuIG9w
dGltaXplZCBkaXN0cmlidXRlZCBhc3NvY2lhdGlvbiBydWxlIG1pbmluZyBhbGdvcml0aG08L3Rp
dGxlPjxzZWNvbmRhcnktdGl0bGU+RGlzdHJpYnV0ZWQgU3lzdGVtcyBPbmxpbmUsIElFRUU8L3Nl
Y29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5EaXN0cmlidXRl
ZCBTeXN0ZW1zIE9ubGluZSwgSUVFRTwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHZvbHVtZT41
PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDQ8L3llYXI+PC9kYXRl
cz48aXNibj4xNTQxLTQ5MjI8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0
ZT48QXV0aG9yPkNoZXVuZzwvQXV0aG9yPjxZZWFyPjE5OTY8L1llYXI+PFJlY051bT41NzwvUmVj
TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NTc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5
IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjU3
PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8
L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5DaGV1bmcsIEQuVy48L2F1
dGhvcj48YXV0aG9yPk5nLCBWLlQuPC9hdXRob3I+PGF1dGhvcj5GdSwgQS5XLjwvYXV0aG9yPjxh
dXRob3I+RnUsIFkuPC9hdXRob3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRp
dGxlPkVmZmljaWVudCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXMgaW4gZGlzdHJpYnV0ZWQg
ZGF0YWJhc2VzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtu
b3dsZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZzwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxw
ZXJpb2RpY2FsPjxmdWxsLXRpdGxlPklFRUUgVHJhbnNhY3Rpb25zIG9uIEtub3dsZWRnZSBhbmQg
RGF0YSBFbmdpbmVlcmluZzwvZnVsbC10aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjkxMS05MjI8
L3BhZ2VzPjx2b2x1bWU+ODwvdm9sdW1lPjxudW1iZXI+NjwvbnVtYmVyPjxkYXRlcz48eWVhcj4x
OTk2PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA0MS00MzQ3PC9pc2JuPjx1cmxzPjwvdXJscz48L3Jl
Y29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5LYXJndXB0YTwvQXV0aG9yPjxZZWFyPjE5OTk8L1ll
YXI+PFJlY051bT42NTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+NjU8L3JlYy1udW1iZXI+
PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6
dm9zejV6cjAwenNmZHYiPjY1PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkNv
bmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3Jz
PjxhdXRob3I+S2FyZ3VwdGEsIEguPC9hdXRob3I+PGF1dGhvcj5QYXJrLCBCLkguPC9hdXRob3I+
PGF1dGhvcj5IZXJzaGJlcmdlciwgRC48L2F1dGhvcj48YXV0aG9yPkpvaG5zb24sIEUuPC9hdXRo
b3I+PC9hdXRob3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPkNvbGxlY3RpdmUgZGF0
YSBtaW5pbmc6IEEgbmV3IHBlcnNwZWN0aXZlIHRvd2FyZCBkaXN0cmlidXRlZCBkYXRhIGFuYWx5
c2lzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFkdmFuY2VzIGluIERpc3RyaWJ1dGVkIGFuZCBQ
YXJhbGxlbCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PGRh
dGVzPjx5ZWFyPjE5OTk8L3llYXI+PC9kYXRlcz48cHVibGlzaGVyPkNpdGVzZWVyPC9wdWJsaXNo
ZXI+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkFncmF3YWw8L0F1
dGhvcj48WWVhcj4xOTk2PC9ZZWFyPjxSZWNOdW0+NzU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVt
YmVyPjc1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2Rw
cHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij43NTwva2V5PjwvZm9yZWlnbi1rZXlz
PjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0
b3JzPjxhdXRob3JzPjxhdXRob3I+QWdyYXdhbCwgUi48L2F1dGhvcj48YXV0aG9yPlNoYWZlciwg
Si5DLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJh
bGxlbCBtaW5pbmcgb2YgYXNzb2NpYXRpb24gcnVsZXM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+
S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBvbjwvc2Vj
b25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3dsZWRnZSBh
bmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0bGU+PC9w
ZXJpb2RpY2FsPjxwYWdlcz45NjItOTY5PC9wYWdlcz48dm9sdW1lPjg8L3ZvbHVtZT48bnVtYmVy
PjY8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NjwveWVhcj48L2RhdGVzPjxpc2JuPjEwNDEtNDM0
NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+SGFuPC9B
dXRob3I+PFllYXI+MTk5NzwvWWVhcj48UmVjTnVtPjc2PC9SZWNOdW0+PHJlY29yZD48cmVjLW51
bWJlcj43NjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNk
cHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+NzY8L2tleT48L2ZvcmVpZ24ta2V5
cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10eXBlPjxj
b250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5IYW4sIEUuSC48L2F1dGhvcj48YXV0aG9yPkth
cnlwaXMsIEcuPC9hdXRob3I+PGF1dGhvcj5LdW1hciwgVi48L2F1dGhvcj48L2F1dGhvcnM+PC9j
b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+U2NhbGFibGUgcGFyYWxsZWwgZGF0YSBtaW5pbmcg
Zm9yIGFzc29jaWF0aW9uIHJ1bGVzPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFDTSBTSUdNT0Qg
Q29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjx2b2x1bWU+MjY8L3ZvbHVtZT48
bnVtYmVyPjI8L251bWJlcj48ZGF0ZXM+PHllYXI+MTk5NzwveWVhcj48L2RhdGVzPjxwdWJsaXNo
ZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MDg5NzkxOTExNDwvaXNibj48dXJscz48L3VybHM+PC9y
ZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+TGk8L0F1dGhvcj48WWVhcj4yMDA1PC9ZZWFyPjxS
ZWNOdW0+Nzc8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjc3PC9yZWMtbnVtYmVyPjxmb3Jl
aWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1
enIwMHpzZmR2Ij43Nzwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFs
IEFydGljbGUiPjE3PC9yZWYtdHlwZT48Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+TGks
IFMuPC9hdXRob3I+PGF1dGhvcj5XdSwgVC48L2F1dGhvcj48YXV0aG9yPlBvdHRlbmdlciwgVy5N
LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXN0cmli
dXRlZCBoaWdoZXIgb3JkZXIgYXNzb2NpYXRpb24gcnVsZSBtaW5pbmcgdXNpbmcgaW5mb3JtYXRp
b24gZXh0cmFjdGVkIGZyb20gdGV4dHVhbCBkYXRhPC90aXRsZT48c2Vjb25kYXJ5LXRpdGxlPkFD
TSBTSUdLREQgRXhwbG9yYXRpb25zIE5ld3NsZXR0ZXI8L3NlY29uZGFyeS10aXRsZT48L3RpdGxl
cz48cGVyaW9kaWNhbD48ZnVsbC10aXRsZT5BQ00gU0lHS0REIEV4cGxvcmF0aW9ucyBOZXdzbGV0
dGVyPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MjYtMzU8L3BhZ2VzPjx2b2x1bWU+
Nzwvdm9sdW1lPjxudW1iZXI+MTwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA1PC95ZWFyPjwvZGF0
ZXM+PGlzYm4+MTkzMS0wMTQ1PC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENp
dGU+PEF1dGhvcj5PdGV5PC9BdXRob3I+PFllYXI+MjAwMzwvWWVhcj48UmVjTnVtPjc4PC9SZWNO
dW0+PHJlY29yZD48cmVjLW51bWJlcj43ODwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkg
YXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzg8
L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5n
cyI+MTA8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5PdGV5LCBNLkUu
PC9hdXRob3I+PGF1dGhvcj5XYW5nLCBDLjwvYXV0aG9yPjxhdXRob3I+UGFydGhhc2FyYXRoeSwg
Uy48L2F1dGhvcj48YXV0aG9yPlZlbG9zbywgQS48L2F1dGhvcj48YXV0aG9yPk1laXJhIEpyLCBX
LjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5NaW5pbmcg
ZnJlcXVlbnQgaXRlbXNldHMgaW4gZGlzdHJpYnV0ZWQgYW5kIGR5bmFtaWMgZGF0YWJhc2VzPC90
aXRsZT48c2Vjb25kYXJ5LXRpdGxlPklDRE0gQ29uZmVyZW5jZTwvc2Vjb25kYXJ5LXRpdGxlPjwv
dGl0bGVzPjxwYWdlcz42MTctNjIwPC9wYWdlcz48ZGF0ZXM+PHllYXI+MjAwMzwveWVhcj48L2Rh
dGVzPjxwdWJsaXNoZXI+SUVFRTwvcHVibGlzaGVyPjxpc2JuPjA3Njk1MTk3ODQ8L2lzYm4+PHVy
bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPld1PC9BdXRob3I+PFllYXI+
MjAwMzwvWWVhcj48UmVjTnVtPjc5PC9SZWNOdW0+PHJlY29yZD48cmVjLW51bWJlcj43OTwvcmVj
LW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZn
ZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+Nzk8L2tleT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUg
bmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9y
cz48YXV0aG9yPld1LCBYLjwvYXV0aG9yPjxhdXRob3I+WmhhbmcsIFMuPC9hdXRob3I+PC9hdXRo
b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlN5bnRoZXNpemluZyBoaWdoLWZyZXF1
ZW5jeSBydWxlcyBmcm9tIGRpZmZlcmVudCBkYXRhIHNvdXJjZXM8L3RpdGxlPjxzZWNvbmRhcnkt
dGl0bGU+S25vd2xlZGdlIGFuZCBEYXRhIEVuZ2luZWVyaW5nLCBJRUVFIFRyYW5zYWN0aW9ucyBv
bjwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPktub3ds
ZWRnZSBhbmQgRGF0YSBFbmdpbmVlcmluZywgSUVFRSBUcmFuc2FjdGlvbnMgb248L2Z1bGwtdGl0
bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz4zNTMtMzY3PC9wYWdlcz48dm9sdW1lPjE1PC92b2x1bWU+
PG51bWJlcj4yPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDM8L3llYXI+PC9kYXRlcz48aXNibj4x
MDQxLTQzNDc8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9y
Plpha2k8L0F1dGhvcj48WWVhcj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODA8L1JlY051bT48cmVjb3Jk
PjxyZWMtbnVtYmVyPjgwPC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBk
Yi1pZD0ic2RwcHowMHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44MDwva2V5PjwvZm9y
ZWlnbi1rZXlzPjxyZWYtdHlwZSBuYW1lPSJKb3VybmFsIEFydGljbGUiPjE3PC9yZWYtdHlwZT48
Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+WmFraSwgTS5KLjwvYXV0aG9yPjwvYXV0aG9y
cz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5QYXJhbGxlbCBhbmQgZGlzdHJpYnV0ZWQg
YXNzb2NpYXRpb24gbWluaW5nOiBBIHN1cnZleTwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5Db25j
dXJyZW5jeSwgSUVFRTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxs
LXRpdGxlPkNvbmN1cnJlbmN5LCBJRUVFPC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+
MTQtMjU8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1lPjxudW1iZXI+NDwvbnVtYmVyPjxkYXRlcz48
eWVhcj4xOTk5PC95ZWFyPjwvZGF0ZXM+PGlzYm4+MTA5Mi0zMDYzPC9pc2JuPjx1cmxzPjwvdXJs
cz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaGFuZzwvQXV0aG9yPjxZZWFyPjIwMDY8
L1llYXI+PFJlY051bT44MTwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+ODE8L3JlYy1udW1i
ZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJo
cGV6dm9zejV6cjAwenNmZHYiPjgxPC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9
IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1
dGhvcj5aaGFuZywgUy48L2F1dGhvcj48YXV0aG9yPlpha2ksIE0uSi48L2F1dGhvcj48L2F1dGhv
cnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+TWluaW5nIG11bHRpcGxlIGRhdGEgc291
cmNlczogbG9jYWwgcGF0dGVybiBhbmFseXNpczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRh
IE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVz
PjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEgTWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292
ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48cGFnZXM+MTIxLTEyNTwvcGFnZXM+PHZvbHVt
ZT4xMjwvdm9sdW1lPjxudW1iZXI+MjwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDA2PC95ZWFyPjwv
ZGF0ZXM+PGlzYm4+MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+
PC9FbmROb3RlPn==
ADDIN EN.CITE.DATA [42, 43, 50, 56, 61-67] و سه سازوکار توزیع شمارشی، توزیع دادهها، و توزیع کاندید ارائه شده است. ADDIN EN.CITE
Kargupta199965[56]656510Kargupta, H.Park, B.H.Hershberger, D.Johnson, E.Collective data mining: A new perspective toward distributed data analysisAdvances in Distributed and Parallel Knowledge Discovery1999Citeseer[56] در تمام این فعالیتهای پژوهشی، در درجهی اول، تمرکز بر روی کاوش پایگاه دادههای بزرگ، یا جریانهای داده متوالی (به عبارتی کاوش الگوهای ال)، یا یکپارچه کردن الگوهای کشف شده از پایگاه دادههای مجزا در قالب یک دانش جدید (به عبارتی کاوش الگوهای جی) بوده است. همچنین برخی از معماریهای سیستم به منظور کشف الگوهای پرتکرار از مجموعه دادههای در مقیاس ترابایت که بر روی سیستمهای خوشهای اجرا میشوند ADDIN EN.CITE
Buehrer200782[68]828210Buehrer, G.Parthasarathy, S.Tatikonda, S.Kurc, T.Saltz, J.Toward terabyte pattern mining: an architecture-conscious solution12th ACM SIGPLAN symposium on Principles and practice of parallel programming2-122007ACM1595936025[68]، طراحی شدهاند که از داده ساختارهای فشرده (مشابه درخت FP ADDIN EN.CITE
Han200083[69]838310Han, J.Pei, J.Yin, Y.Mining frequent patterns without candidate generationACM SIGMOD Conf.1-12292000ACM1581132174[69])، و متدهای رمزنگاری مختصر استفاده میکنند. هرچند، این چارچوبها و راه حلها دامنهی کاری خود را به حجم داده محدود میکنند، اما، هیچ سازوکاری برای مطالعهی مقایسهای بر روی پایگاه دادههای متعدد و کشف روابط بین الگوها ندارند.
هنگامی که دادهها در چندین منبع داده (متمرکز یا توزیع شده) وجود دارند، یکی از مهمترین کارها، بررسی شباهت بین پایگاه دادهها برای کشف اطلاعات ساختاری بین آنها به منظور خوشهبندی ADDIN EN.CITE
Zhang199684[70]848410Zhang, T.Ramakrishnan, R.Livny, M.BIRCH: an efficient data clustering method for very large databasesACM SIGMOD Conference103-114251996ACM0897917944[70] یا طبقهبندی ADDIN EN.CITE
Zhu200985[71]858510Zhu, X.Jin, R.Multiple information source cooperative learning21st International Joint Conference on Artificial Intelligence1369–13762009[71] است. آقایان parthasarathy ADDIN EN.CITE
Parthasarathy200086[72]868617Parthasarathy, S.Ogihara, M.Exploiting dataset similarity for distributed miningParallel and Distributed ProcessingParallel and Distributed Processing399-4062000[72] و لی ADDIN EN.CITE
Li200361[47]616117Li, T.Ogihara, M.Zhu, S.Association-based similarity testing and its applicationsIntelligent Data AnalysisIntelligent Data Analysis209-2327320031088-467X[47] مشکل ارزیابی شباهت پایگاه داده با مقایسه قوانین انجمنی از پایگاه دادههای مختلف، به عنوان مثال، قوانین یکسان کشف شده از پایگاه دادههای مختلف، و تعداد تکرار نمونههایی که از آن قانون تبعیت میکنند، را مورد بررسی و مطالعه قرار دادند. اهمیت یافتن اختلافات بین پایگاه دادهها، مسئلهای است که توسط محققان بسیاری مورد مطالعه قرار گرفته است PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5CYXk8L0F1dGhvcj48WWVhcj4yMDAxPC9ZZWFyPjxSZWNO
dW0+ODc8L1JlY051bT48RGlzcGxheVRleHQ+WzQ4LCA3My03NV08L0Rpc3BsYXlUZXh0PjxyZWNv
cmQ+PHJlYy1udW1iZXI+ODc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4i
IGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjg3PC9rZXk+PC9m
b3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBl
Pjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CYXksIFMuRC48L2F1dGhvcj48YXV0aG9y
PlBhenphbmksIE0uSi48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48
dGl0bGU+RGV0ZWN0aW5nIGdyb3VwIGRpZmZlcmVuY2VzOiBNaW5pbmcgY29udHJhc3Qgc2V0czwv
dGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVy
eTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEg
TWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48
cGFnZXM+MjEzLTI0NjwvcGFnZXM+PHZvbHVtZT41PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+
PGRhdGVzPjx5ZWFyPjIwMDE8L3llYXI+PC9kYXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVy
bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkRvbmc8L0F1dGhvcj48WWVh
cj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODg8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjg4PC9y
ZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2
ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44ODwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlw
ZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9y
cz48YXV0aG9ycz48YXV0aG9yPkRvbmcsIEcuPC9hdXRob3I+PGF1dGhvcj5MaSwgSi48L2F1dGhv
cj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+RWZmaWNpZW50IG1pbmlu
ZyBvZiBlbWVyZ2luZyBwYXR0ZXJuczogRGlzY292ZXJpbmcgdHJlbmRzIGFuZCBkaWZmZXJlbmNl
czwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT41dGggQUNNIFNJR0tERCBDb25mZXJlbmNlPC9zZWNv
bmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjQzLTUyPC9wYWdlcz48ZGF0ZXM+PHllYXI+MTk5
OTwveWVhcj48L2RhdGVzPjxwdWJsaXNoZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MTU4MTEzMTQz
NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+V2ViYjwv
QXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT42MjwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1u
dW1iZXI+NjI8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJz
ZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjYyPC9rZXk+PC9mb3JlaWduLWtl
eXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48
Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+V2ViYiwgRy5JLjwvYXV0aG9yPjxhdXRob3I+
QnV0bGVyLCBTLjwvYXV0aG9yPjxhdXRob3I+TmV3bGFuZHMsIEQuPC9hdXRob3I+PC9hdXRob3Jz
PjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9uIGRldGVjdGluZyBkaWZmZXJlbmNlcyBi
ZXR3ZWVuIGdyb3VwczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT45dGggQUNNIFNJR0tERCBDb25m
ZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjI1Ni0yNjU8L3BhZ2VzPjxk
YXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48
aXNibj4xNTgxMTM3MzcwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+
PEF1dGhvcj5ZYW5nPC9BdXRob3I+PFllYXI+MjAwODwvWWVhcj48UmVjTnVtPjg5PC9SZWNOdW0+
PHJlY29yZD48cmVjLW51bWJlcj44OTwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBw
PSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+ODk8L2tl
eT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVm
LXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPllhbmcsIFkuPC9hdXRob3I+PGF1
dGhvcj5XdSwgWC48L2F1dGhvcj48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48L2F1dGhvcnM+PC9j
b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+Q29uY2VwdHVhbCBlcXVpdmFsZW5jZSBmb3IgY29u
dHJhc3QgbWluaW5nIGluIGNsYXNzaWZpY2F0aW9uIGxlYXJuaW5nPC90aXRsZT48c2Vjb25kYXJ5
LXRpdGxlPkRhdGEgJmFtcDsgS25vd2xlZGdlIEVuZ2luZWVyaW5nPC9zZWNvbmRhcnktdGl0bGU+
PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGF0YSAmYW1wOyBLbm93bGVkZ2UgRW5n
aW5lZXJpbmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz40MTMtNDI5PC9wYWdlcz48
dm9sdW1lPjY3PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDg8L3ll
YXI+PC9kYXRlcz48aXNibj4wMTY5LTAyM1g8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwv
Q2l0ZT48L0VuZE5vdGU+
ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5CYXk8L0F1dGhvcj48WWVhcj4yMDAxPC9ZZWFyPjxSZWNO
dW0+ODc8L1JlY051bT48RGlzcGxheVRleHQ+WzQ4LCA3My03NV08L0Rpc3BsYXlUZXh0PjxyZWNv
cmQ+PHJlYy1udW1iZXI+ODc8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4i
IGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjg3PC9rZXk+PC9m
b3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8L3JlZi10eXBl
Pjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CYXksIFMuRC48L2F1dGhvcj48YXV0aG9y
PlBhenphbmksIE0uSi48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48
dGl0bGU+RGV0ZWN0aW5nIGdyb3VwIGRpZmZlcmVuY2VzOiBNaW5pbmcgY29udHJhc3Qgc2V0czwv
dGl0bGU+PHNlY29uZGFyeS10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVy
eTwvc2Vjb25kYXJ5LXRpdGxlPjwvdGl0bGVzPjxwZXJpb2RpY2FsPjxmdWxsLXRpdGxlPkRhdGEg
TWluaW5nIGFuZCBLbm93bGVkZ2UgRGlzY292ZXJ5PC9mdWxsLXRpdGxlPjwvcGVyaW9kaWNhbD48
cGFnZXM+MjEzLTI0NjwvcGFnZXM+PHZvbHVtZT41PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+
PGRhdGVzPjx5ZWFyPjIwMDE8L3llYXI+PC9kYXRlcz48aXNibj4xMzg0LTU4MTA8L2lzYm4+PHVy
bHM+PC91cmxzPjwvcmVjb3JkPjwvQ2l0ZT48Q2l0ZT48QXV0aG9yPkRvbmc8L0F1dGhvcj48WWVh
cj4xOTk5PC9ZZWFyPjxSZWNOdW0+ODg8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVyPjg4PC9y
ZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHowMHIzZjB2
ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij44ODwva2V5PjwvZm9yZWlnbi1rZXlzPjxyZWYtdHlw
ZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRyaWJ1dG9y
cz48YXV0aG9ycz48YXV0aG9yPkRvbmcsIEcuPC9hdXRob3I+PGF1dGhvcj5MaSwgSi48L2F1dGhv
cj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+RWZmaWNpZW50IG1pbmlu
ZyBvZiBlbWVyZ2luZyBwYXR0ZXJuczogRGlzY292ZXJpbmcgdHJlbmRzIGFuZCBkaWZmZXJlbmNl
czwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT41dGggQUNNIFNJR0tERCBDb25mZXJlbmNlPC9zZWNv
bmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjQzLTUyPC9wYWdlcz48ZGF0ZXM+PHllYXI+MTk5
OTwveWVhcj48L2RhdGVzPjxwdWJsaXNoZXI+QUNNPC9wdWJsaXNoZXI+PGlzYm4+MTU4MTEzMTQz
NzwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRlPjxBdXRob3I+V2ViYjwv
QXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT42MjwvUmVjTnVtPjxyZWNvcmQ+PHJlYy1u
dW1iZXI+NjI8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5IGFwcD0iRU4iIGRiLWlkPSJz
ZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjYyPC9rZXk+PC9mb3JlaWduLWtl
eXM+PHJlZi10eXBlIG5hbWU9IkNvbmZlcmVuY2UgUHJvY2VlZGluZ3MiPjEwPC9yZWYtdHlwZT48
Y29udHJpYnV0b3JzPjxhdXRob3JzPjxhdXRob3I+V2ViYiwgRy5JLjwvYXV0aG9yPjxhdXRob3I+
QnV0bGVyLCBTLjwvYXV0aG9yPjxhdXRob3I+TmV3bGFuZHMsIEQuPC9hdXRob3I+PC9hdXRob3Jz
PjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPk9uIGRldGVjdGluZyBkaWZmZXJlbmNlcyBi
ZXR3ZWVuIGdyb3VwczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT45dGggQUNNIFNJR0tERCBDb25m
ZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+PHBhZ2VzPjI1Ni0yNjU8L3BhZ2VzPjxk
YXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5BQ008L3B1Ymxpc2hlcj48
aXNibj4xNTgxMTM3MzcwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+
PEF1dGhvcj5ZYW5nPC9BdXRob3I+PFllYXI+MjAwODwvWWVhcj48UmVjTnVtPjg5PC9SZWNOdW0+
PHJlY29yZD48cmVjLW51bWJlcj44OTwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBw
PSJFTiIgZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+ODk8L2tl
eT48L2ZvcmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVm
LXR5cGU+PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPllhbmcsIFkuPC9hdXRob3I+PGF1
dGhvcj5XdSwgWC48L2F1dGhvcj48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48L2F1dGhvcnM+PC9j
b250cmlidXRvcnM+PHRpdGxlcz48dGl0bGU+Q29uY2VwdHVhbCBlcXVpdmFsZW5jZSBmb3IgY29u
dHJhc3QgbWluaW5nIGluIGNsYXNzaWZpY2F0aW9uIGxlYXJuaW5nPC90aXRsZT48c2Vjb25kYXJ5
LXRpdGxlPkRhdGEgJmFtcDsgS25vd2xlZGdlIEVuZ2luZWVyaW5nPC9zZWNvbmRhcnktdGl0bGU+
PC90aXRsZXM+PHBlcmlvZGljYWw+PGZ1bGwtdGl0bGU+RGF0YSAmYW1wOyBLbm93bGVkZ2UgRW5n
aW5lZXJpbmc8L2Z1bGwtdGl0bGU+PC9wZXJpb2RpY2FsPjxwYWdlcz40MTMtNDI5PC9wYWdlcz48
dm9sdW1lPjY3PC92b2x1bWU+PG51bWJlcj4zPC9udW1iZXI+PGRhdGVzPjx5ZWFyPjIwMDg8L3ll
YXI+PC9kYXRlcz48aXNibj4wMTY5LTAyM1g8L2lzYm4+PHVybHM+PC91cmxzPjwvcmVjb3JkPjwv
Q2l0ZT48L0VuZE5vdGU+
ADDIN EN.CITE.DATA [48, 73-75]، و اکثر روشها بر روی مقایسهی یک جفت پایگاه داده در یک زمان تمرکز دارند. وب و همکارانش، یک روش بر پایهی قانون، به منظور کشف مجموعه تضادهای بین دو پایگاه داده پیشنهاد دادند. ADDIN EN.CITE
Webb200362[48]626210Webb, G.I.Butler, S.Newlands, D.On detecting differences between groups9th ACM SIGKDD Conference256-2652003ACM1581137370[48] Xu و همکارانش، روشی برای کشف انتظارات نسبی بین محصولات از دیدگاه مشتریان پیشنهاد دادند. ADDIN EN.CITE
Xu201190[76]909017Xu, K.Liao, S.S.Li, J.Song, Y.Mining comparative opinions from customer reviews for Competitive IntelligenceDecision support systemsDecision support systems743-75450420110167-9236[76] در مرجع ADDIN EN.CITE
Yang200889[75]898917Yang, Y.Wu, X.Zhu, X.Conceptual equivalence for contrast mining in classification learningData & Knowledge EngineeringData & Knowledge Engineering413-42967320080169-023X[75]، روشهایی برای ارزیابی همارزی مفهومی بین دو پایگاه داده ارائه شده است. جی و همکارانش، روشهایی برای کشف الگوهای متوالی با حداقل تمایز بین دو مجموعه داده، پیشنهاد دادند ADDIN EN.CITE
Ji200591[77]919110Ji, X.Bailey, J.Dong, G.Mining minimal distinguishing subsequence patterns with gap constraintsICDM Conference8 pp.2005IEEE0769522785[77] که در آن الگوها به صورت "پرتکرار در پایگاه دادهی A و به طور قابل توجهی کم تکرار در پایگاه دادهی B"، به عبارت دیگر، {(A≥α) & (B≤β)} وجود دارند. تمام این روشها بر یافتن اختلافات (در قالب اقلام داده و یا الگوها) بین دو مجموعه داده، تمرکز دارند، اما نمیتوانند از جستجوهای پیچیده پشتیبانی کنند.
تحقیقات بسیاری در حوزه جستجوی پایگاه داده، و پشتیبانی از عملیات داده کاوی PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5KaW48L0F1dGhvcj48WWVhcj4yMDA2PC9ZZWFyPjxSZWNO
dW0+OTI8L1JlY051bT48RGlzcGxheVRleHQ+Wzc4LTgxXTwvRGlzcGxheVRleHQ+PHJlY29yZD48
cmVjLW51bWJlcj45MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGIt
aWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTI8L2tleT48L2ZvcmVp
Z24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10
eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5KaW4sIFIuPC9hdXRob3I+PGF1dGhv
cj5BZ3Jhd2FsLCBHLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0
aXRsZT5TeXN0ZW1hdGljIGFwcHJvYWNoIGZvciBvcHRpbWl6aW5nIGNvbXBsZXggbWluaW5nIHRh
c2tzIG9uIG11bHRpcGxlIGRhdGFiYXNlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5JQ0RFIENv
bmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MTctMTc8L3BhZ2VzPjxk
YXRlcz48eWVhcj4yMDA2PC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+
PGlzYm4+MDc2OTUyNTcwOTwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRl
PjxBdXRob3I+QnVjaWzEgzwvQXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT45MzwvUmVj
TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+OTM8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5
IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjkz
PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8
L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CdWNpbMSDLCBDLjwvYXV0
aG9yPjxhdXRob3I+R2VocmtlLCBKLjwvYXV0aG9yPjxhdXRob3I+S2lmZXIsIEQuPC9hdXRob3I+
PGF1dGhvcj5XaGl0ZSwgVy48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxl
cz48dGl0bGU+RHVhbG1pbmVyOiBBIGR1YWwtcHJ1bmluZyBhbGdvcml0aG0gZm9yIGl0ZW1zZXRz
IHdpdGggY29uc3RyYWludHM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+RGF0YSBNaW5pbmcgYW5k
IEtub3dsZWRnZSBEaXNjb3Zlcnk8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNh
bD48ZnVsbC10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvZnVsbC10
aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjI0MS0yNzI8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1l
PjxudW1iZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PGlzYm4+
MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhv
cj5Uc3VyPC9BdXRob3I+PFllYXI+MTk5ODwvWWVhcj48UmVjTnVtPjk0PC9SZWNOdW0+PHJlY29y
ZD48cmVjLW51bWJlcj45NDwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg
ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTQ8L2tleT48L2Zv
cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+
PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlRzdXIsIEQuPC9hdXRob3I+PGF1dGhvcj5V
bGxtYW4sIEouRC48L2F1dGhvcj48YXV0aG9yPkFiaXRlYm91bCwgUy48L2F1dGhvcj48YXV0aG9y
PkNsaWZ0b24sIEMuPC9hdXRob3I+PGF1dGhvcj5Nb3R3YW5pLCBSLjwvYXV0aG9yPjxhdXRob3I+
TmVzdG9yb3YsIFMuPC9hdXRob3I+PGF1dGhvcj5Sb3NlbnRoYWwsIEEuPC9hdXRob3I+PC9hdXRo
b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlF1ZXJ5IGZsb2NrczogYSBnZW5lcmFs
aXphdGlvbiBvZiBhc3NvY2lhdGlvbi1ydWxlIG1pbmluZzwvdGl0bGU+PHNlY29uZGFyeS10aXRs
ZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9k
aWNhbD48ZnVsbC10aXRsZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L2Z1bGwtdGl0bGU+PC9wZXJp
b2RpY2FsPjxwYWdlcz4xLTEyPC9wYWdlcz48dm9sdW1lPjI3PC92b2x1bWU+PG51bWJlcj4yPC9u
dW1iZXI+PGRhdGVzPjx5ZWFyPjE5OTg8L3llYXI+PC9kYXRlcz48aXNibj4wODk3OTE5OTU1PC9p
c2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaHU8L0F1dGhv
cj48WWVhcj4yMDA3PC9ZZWFyPjxSZWNOdW0+OTU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVy
Pjk1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHow
MHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij45NTwva2V5PjwvZm9yZWlnbi1rZXlzPjxy
ZWYtdHlwZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRy
aWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48YXV0aG9yPld1LCBYLjwv
YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXNjb3Zlcmlu
ZyByZWxhdGlvbmFsIHBhdHRlcm5zIGFjcm9zcyBtdWx0aXBsZSBkYXRhYmFzZXM8L3RpdGxlPjxz
ZWNvbmRhcnktdGl0bGU+SUNERSBDb25mZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+
PHBhZ2VzPjcyNi03MzU8L3BhZ2VzPjxkYXRlcz48eWVhcj4yMDA3PC95ZWFyPjwvZGF0ZXM+PHB1
Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+PGlzYm4+MTQyNDQwODAzMjwvaXNibj48dXJscz48L3Vy
bHM+PC9yZWNvcmQ+PC9DaXRlPjwvRW5kTm90ZT5=
ADDIN EN.CITE PEVuZE5vdGU+PENpdGU+PEF1dGhvcj5KaW48L0F1dGhvcj48WWVhcj4yMDA2PC9ZZWFyPjxSZWNO
dW0+OTI8L1JlY051bT48RGlzcGxheVRleHQ+Wzc4LTgxXTwvRGlzcGxheVRleHQ+PHJlY29yZD48
cmVjLW51bWJlcj45MjwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIgZGIt
aWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTI8L2tleT48L2ZvcmVp
Z24ta2V5cz48cmVmLXR5cGUgbmFtZT0iQ29uZmVyZW5jZSBQcm9jZWVkaW5ncyI+MTA8L3JlZi10
eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5KaW4sIFIuPC9hdXRob3I+PGF1dGhv
cj5BZ3Jhd2FsLCBHLjwvYXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0
aXRsZT5TeXN0ZW1hdGljIGFwcHJvYWNoIGZvciBvcHRpbWl6aW5nIGNvbXBsZXggbWluaW5nIHRh
c2tzIG9uIG11bHRpcGxlIGRhdGFiYXNlczwvdGl0bGU+PHNlY29uZGFyeS10aXRsZT5JQ0RFIENv
bmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGFnZXM+MTctMTc8L3BhZ2VzPjxk
YXRlcz48eWVhcj4yMDA2PC95ZWFyPjwvZGF0ZXM+PHB1Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+
PGlzYm4+MDc2OTUyNTcwOTwvaXNibj48dXJscz48L3VybHM+PC9yZWNvcmQ+PC9DaXRlPjxDaXRl
PjxBdXRob3I+QnVjaWzEgzwvQXV0aG9yPjxZZWFyPjIwMDM8L1llYXI+PFJlY051bT45MzwvUmVj
TnVtPjxyZWNvcmQ+PHJlYy1udW1iZXI+OTM8L3JlYy1udW1iZXI+PGZvcmVpZ24ta2V5cz48a2V5
IGFwcD0iRU4iIGRiLWlkPSJzZHBwejAwcjNmMHZmZ2VwNTJocGV6dm9zejV6cjAwenNmZHYiPjkz
PC9rZXk+PC9mb3JlaWduLWtleXM+PHJlZi10eXBlIG5hbWU9IkpvdXJuYWwgQXJ0aWNsZSI+MTc8
L3JlZi10eXBlPjxjb250cmlidXRvcnM+PGF1dGhvcnM+PGF1dGhvcj5CdWNpbMSDLCBDLjwvYXV0
aG9yPjxhdXRob3I+R2VocmtlLCBKLjwvYXV0aG9yPjxhdXRob3I+S2lmZXIsIEQuPC9hdXRob3I+
PGF1dGhvcj5XaGl0ZSwgVy48L2F1dGhvcj48L2F1dGhvcnM+PC9jb250cmlidXRvcnM+PHRpdGxl
cz48dGl0bGU+RHVhbG1pbmVyOiBBIGR1YWwtcHJ1bmluZyBhbGdvcml0aG0gZm9yIGl0ZW1zZXRz
IHdpdGggY29uc3RyYWludHM8L3RpdGxlPjxzZWNvbmRhcnktdGl0bGU+RGF0YSBNaW5pbmcgYW5k
IEtub3dsZWRnZSBEaXNjb3Zlcnk8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9kaWNh
bD48ZnVsbC10aXRsZT5EYXRhIE1pbmluZyBhbmQgS25vd2xlZGdlIERpc2NvdmVyeTwvZnVsbC10
aXRsZT48L3BlcmlvZGljYWw+PHBhZ2VzPjI0MS0yNzI8L3BhZ2VzPjx2b2x1bWU+Nzwvdm9sdW1l
PjxudW1iZXI+MzwvbnVtYmVyPjxkYXRlcz48eWVhcj4yMDAzPC95ZWFyPjwvZGF0ZXM+PGlzYm4+
MTM4NC01ODEwPC9pc2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhv
cj5Uc3VyPC9BdXRob3I+PFllYXI+MTk5ODwvWWVhcj48UmVjTnVtPjk0PC9SZWNOdW0+PHJlY29y
ZD48cmVjLW51bWJlcj45NDwvcmVjLW51bWJlcj48Zm9yZWlnbi1rZXlzPjxrZXkgYXBwPSJFTiIg
ZGItaWQ9InNkcHB6MDByM2YwdmZnZXA1MmhwZXp2b3N6NXpyMDB6c2ZkdiI+OTQ8L2tleT48L2Zv
cmVpZ24ta2V5cz48cmVmLXR5cGUgbmFtZT0iSm91cm5hbCBBcnRpY2xlIj4xNzwvcmVmLXR5cGU+
PGNvbnRyaWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlRzdXIsIEQuPC9hdXRob3I+PGF1dGhvcj5V
bGxtYW4sIEouRC48L2F1dGhvcj48YXV0aG9yPkFiaXRlYm91bCwgUy48L2F1dGhvcj48YXV0aG9y
PkNsaWZ0b24sIEMuPC9hdXRob3I+PGF1dGhvcj5Nb3R3YW5pLCBSLjwvYXV0aG9yPjxhdXRob3I+
TmVzdG9yb3YsIFMuPC9hdXRob3I+PGF1dGhvcj5Sb3NlbnRoYWwsIEEuPC9hdXRob3I+PC9hdXRo
b3JzPjwvY29udHJpYnV0b3JzPjx0aXRsZXM+PHRpdGxlPlF1ZXJ5IGZsb2NrczogYSBnZW5lcmFs
aXphdGlvbiBvZiBhc3NvY2lhdGlvbi1ydWxlIG1pbmluZzwvdGl0bGU+PHNlY29uZGFyeS10aXRs
ZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L3NlY29uZGFyeS10aXRsZT48L3RpdGxlcz48cGVyaW9k
aWNhbD48ZnVsbC10aXRsZT5BQ00tU0lHTU9EIENvbmZlcmVuY2U8L2Z1bGwtdGl0bGU+PC9wZXJp
b2RpY2FsPjxwYWdlcz4xLTEyPC9wYWdlcz48dm9sdW1lPjI3PC92b2x1bWU+PG51bWJlcj4yPC9u
dW1iZXI+PGRhdGVzPjx5ZWFyPjE5OTg8L3llYXI+PC9kYXRlcz48aXNibj4wODk3OTE5OTU1PC9p
c2JuPjx1cmxzPjwvdXJscz48L3JlY29yZD48L0NpdGU+PENpdGU+PEF1dGhvcj5aaHU8L0F1dGhv
cj48WWVhcj4yMDA3PC9ZZWFyPjxSZWNOdW0+OTU8L1JlY051bT48cmVjb3JkPjxyZWMtbnVtYmVy
Pjk1PC9yZWMtbnVtYmVyPjxmb3JlaWduLWtleXM+PGtleSBhcHA9IkVOIiBkYi1pZD0ic2RwcHow
MHIzZjB2ZmdlcDUyaHBlenZvc3o1enIwMHpzZmR2Ij45NTwva2V5PjwvZm9yZWlnbi1rZXlzPjxy
ZWYtdHlwZSBuYW1lPSJDb25mZXJlbmNlIFByb2NlZWRpbmdzIj4xMDwvcmVmLXR5cGU+PGNvbnRy
aWJ1dG9ycz48YXV0aG9ycz48YXV0aG9yPlpodSwgWC48L2F1dGhvcj48YXV0aG9yPld1LCBYLjwv
YXV0aG9yPjwvYXV0aG9ycz48L2NvbnRyaWJ1dG9ycz48dGl0bGVzPjx0aXRsZT5EaXNjb3Zlcmlu
ZyByZWxhdGlvbmFsIHBhdHRlcm5zIGFjcm9zcyBtdWx0aXBsZSBkYXRhYmFzZXM8L3RpdGxlPjxz
ZWNvbmRhcnktdGl0bGU+SUNERSBDb25mZXJlbmNlPC9zZWNvbmRhcnktdGl0bGU+PC90aXRsZXM+
PHBhZ2VzPjcyNi03MzU8L3BhZ2VzPjxkYXRlcz48eWVhcj4yMDA3PC95ZWFyPjwvZGF0ZXM+PHB1
Ymxpc2hlcj5JRUVFPC9wdWJsaXNoZXI+PGlzYm4+MTQyNDQwODAzMjwvaXNibj48dXJscz48L3Vy
bHM+PC9yZWNvcmQ+PC9DaXRlPjwvRW5kTm90ZT5=
ADDIN EN.CITE.DATA [78-81] صورت گرفته است، و زبانهای جستجوی پایگاه داده برای پشتیبانی از عملیات کاوش، گسترش یافتهاند، اما اغلب فعالیتهای پژوهشی بر روی یک پایگاه دادهی مستقل با شرایط جستجوی نسبتاً ساده تمرکز کردهاند. در مرجع ADDIN EN.CITE
Jin200692[78]929210Jin, R.Agrawal, G.Systematic approach for optimizing complex mining tasks on multiple databasesICDE Conference17-172006IEEE0769525709[78] جین و Agrawal، یک سازوکار برپایهی SQL برای کاوش الگوهای پرتکرار بین چندین پایگاه داده، با هدف بهینه سازی جستجوهای کاربران به منظور یافتن الگوهای واجد شرایط ارائه دادند. 3 نکتهای که در مورد این مقاله باید مورد توجه قرار گیرد: 1) فعالیتهای انجام شده در تحقیقات آنها تنها بر روی شمارش برنامههای جستجو و انتخاب موردی که کمترین هزینه را دارد، تمرکز کردهاند. 2) به دلیل محدودیتهای چارچوب کاوش الگوی آنها (که بر روی پایگاه دادههای مستقل کار میکردند)، راه حلی که آنها ارائه دادند، تنها میتواند پاسخگوی جستجوهای ساده باشد، به عبارت دیگر، هر کدام از مؤلفههای این جستجو باید به صراحت یک پایگاه دادهی واحد و مقدار آستانهی متناظر با آن را مشخص کنند، مانند {(Si≥α1) & (Sj≥α2) & (Sk≤β)}. بنابراین روشهای آنها نمیتواند جستجوهای پیچیده را جوابگو باشد، و بنابراین کاربرد آن محدود است؛ و 3 ) روشهای آنها فقط برای پایگاه دادههای متمرکز قابل اجرا هستند، در صورتی که ما قصد داریم داده کاوی و کشف دانش را بر روی پایگاه دادههای توزیع شده انجام دهیم.
2-6-2- کارهای مهم انجام شده در زمينه دادهکاوی با استفاده از عامل
اين دسته از روشها، رويکرد مبتنی بر عامل را در مواجهه با مسئله داده کاوی توزيع شده پيش میگيرند. اگرچه، همانگونه که در ادامه به تفصيل بيان خواهد گرديد، اين رويکرد غالباً به نوع نامگذاری راهحل ارائه شده بازمیگردد و نه به خصايص ذاتی عامل (به خصوص هوشمندی). اين دسته از روشها در درخت تحقیق شکل 2-2 در نود 1.2.2 و به طور دقیقتر در نود 1.1.2.2 قرار میگيرند.
سیستمهای شناخته شده که دادهکاوی توزيع شده را با استفاده از عاملها پيادهسازی میکنند عبارتند از: سیستمهای JAM ADDIN EN.CITE
Prodromidis200196[82]969627Prodromidis, A.L.Stolfo, S.J.Tselepis, S.Truta, T.Sherwin, J.Kalina, D.Distributed data mining: the JAM system architectureTechnical Report, CUCS-007-01, Columbia UniversityTechnical Report, CUCS-007-01, Columbia University2001[82] و PADMA ADDIN EN.CITE
Kargupta199797[83]979710Kargupta, H.Hamzaoglu, I.Stafford, B.PADMA: Parallel data mining agents for scalable text classificationHigh Performance Computing1997Los Alamos National Lab., NM (United States)[83]. عاملهای جاوا برای ابريادگيری (JAM)، نام يک سيستم توزيع شده است که با استفاده از عاملها به دادهکاوی میپردازد. اين سيستم از تعدادی سايت تشکيل شده است که هر سایت دارای بانک اطلاعاتی خاص خود و نيز تعدادی يادگيرنده میباشد. دو گروه کلی از يادگيرندهها وجود دارد: يادگيرندههائی که در سطح اطلاعات خام عمل میکنند و يادگيرندههائی که توانائی ادغام يادگيرندههای ديگر را دارند (ابريادگيرندهها). سایتها با رابط تعريف شدهای با يکديگر ارتباط برقرار کرده و درخواست مواردی نظير ساختار بانک اطلاعاتی يک سايت ديگر (در اينجا صرفاً ساختار يک جدول اطلاعاتی مورد نظر است) و يا فهرست يادگيرندههای آن را مطرح مینمايند. در اينجا قصد نداريم به بررسی نقاط ضعف چنين رويکردی برای دادهکاوی روی اطلاعات ناهمگون بپردازيم، بلکه موضوع را صرفاً از ديد عاملها و سیستمهای چندعامله مورد بررسی قرار میدهيم.
سيستم JAM دارای تعدادی خصيصه مفيد و مهم است. نسبتاً باز بودن سيستم، به اين صورت که هر يادگيرندهای در صورت پيادهسازی يک واسط تعريف شده توسط سيستم، که بسيار ساده بوده و يک يادگيرنده صرف نظر از تمايل آن به حضور در سيستم JAM، بايد دارای چنين واسطی باشد، میتواند در سيستم به کار گرفته شود. به اشتراک گذاشتن يادگيرندهها بين سایتهای مختلف، از ديگر مزايای اين سيستم است که امکان جابهجائی يادگيرندهها (عملاً برنامههای يادگيرنده) را بين سایتهای مختلف امکانپذير میسازد. لازم به ذکر است که چنين امکانی به مفهوم ساخت يک طبقهبندی کننده بر روی دادههای توزيع شده نيست، بلکه صرفاً به معنی امکان بهرهگيری از يادگيرندههای متنوع در حل يک مسئله محلی است.
سيستم JAM، عليرغم مزايايی که برشمرده شد، دچار کاستیهائی است که حتی نحوه نامگذاری آن را نيز با پرسش روبرو میسازند. نخستين نقص به نحوه عملکرد سایتها برمیگردد. سایتها در سيستم JAM، بر اساس وقايع عمل میکنند که هر واقعه يا توسط سرپرست سايت ايجاد شده و يا توسط سایتهای ديگر، که در مورد اخير نيز در نهايت يک کاربر درخواست کار را مطرح نموده است. چنين رويکردی با يکی از اصول بنيادين مطرح در تعريف عامل در تضاد است: خودآغاز بودن و دريافت پيوسته علائم از محيط و عمل بر اساس اين دریافتها. بنابراين اطلاق لفظ عامل به يادگيرندههای مطرح در سيستم JAM با اشکال همراه است. دومين اشکالی که بر اساس تعريف عامل در سيستم مذکور وجود دارد، عدم توجه به مسئله تعادل بين رفتار واکنشی و رفتار پيش فعال است. در اينجا يادگيرندهها صرفاً بر اساس يک الگوريتم يادگيری ماشين، به استخراج دانش از مجموعه اطلاعات ارائه شده به عنوان ورودی پرداخته و هيچ رفتار ديگری برای آنها در نظر گرفته نمیشود.
اگرچه سيستم JAMهرگز اشارهای به مفهوم سیستمهای چندعامله ندارد، اما جهت فراهم آمدن امکان مقايسه بعدی، سيستم مذکور را از اين جنبه نيز مورد توجه قرار میدهيم. در نگاه نخست، JAM دارای خواصی مشابه با سیستمهای چندعامله میباشد: وجود اشياء و قوانين محيطی؛ اما از سوی ديگر، حتی با قبول وجود عاملها (در واقع يادگيرندهها) در سيستم مذکور، با چند مورد نقض تعريف سيستم چندعامله مواجه هستيم. نخست آنکه مفهوم ارتباط بين عاملها فراتر از تعريف يک يا چند واسط مشخص و ثابت، آن گونه که در سيستم JAM انجام شده است، میباشد؛ در واقع در يک سيستم چندعامله به حداقل يک پروتکل ارتباطی که قوانينی را برای مشخص کردن نحوه به کارگيری زبان ارتباطی مشخص مینمايد، نياز داريم. هر عامل بر حسب معماری و هدف خود، با ساير عوامل محيطی ارتباط برقرار خواهد کرد. همچنين مسئله تأثیر عاملها بر محيط نيز در اينجا در نظر گرفته نشده است.
دومين سيستمی که در اينجا مورد بررسی قرار میدهيم، سيستم PADMA (داده کاوی موازی توسط عاملها) میباشد. سيستم مذکور، شامل تعدادی عامل، واسط کاربری و يک هماهنگکننده میباشد. نقش اصلی هماهنگکننده در سيستم، دريافت درخواستهای کاربر و ارجاع آنها به عاملها و سپس جمعآوری و ترکيب نتايج دريافت شده از عاملها میباشد. هر عامل دارای دو توانائی اصلی میباشد: خوشهبندی و پاسخ به پرسوجو، که قابليت اخير امکان دسترسی موازی به اطلاعات ذخيره شده در يک بانک اطلاعاتی را فراهم میآورد. نتايج هر یک از اين دو فرآيند انجام شده توسط هر عامل، به هماهنگکننده منتقل میگردد تا نتيجه نهایی از ترکيب نتايج ميانی حاصل شود. هر عامل به صورت مستقل بر روی اطلاعات در دسترس خود عمل میکند؛ به عبارت ديگر، يکی از خواص سیستمهای چندعامله که عدم دسترسی يک عامل تنها به تمامی منابع لازم برای دستیابی به هدف میباشد، در اينجا رعايت شده است.
سيستم PADMA نيز با کمبودهائی مشابه با سيستم JAM همراه است. همچنان که از تعريف سيستم مشخص است، در اين مورد نيز مسئله خودکار بودن عامل و همچنين تعدد عمليات انجامپذير در هر لحظه، ناديده گرفته شده است و عاملها صرفاً به پرسوجوی کاربر پاسخ میدهند. دخالت مستقيم کاربر در عمليات، با تعريف عامل در تضاد آشکار است. همچنين مسئله ارتباط بين عاملها در مورد سيستم PADMA نيز حل نشده باقی مانده و به جای پروتکل ارتباطی، يک زبان ارتباطی با امکان انتقال اطلاعات خام و گرافهای مفهوم، تعريف شده است. تصميمگيری برای شرکت يا عدم شرکت در يک فرآيند دادهکاوی توزيع شده، به هيچ وجه جزء اختيارات عامل منظور نشده و تنها میتوان نوعی همکاری ساده (در قالب انتقال نتايج به يک هماهنگکننده) را بين عاملها تشخيص داد؛ بديهی است که اين نوع از همکاری، با آنچه در مورد سیستمهای چندعامله مطرح است تفاوت زيادی دارد؛ در اينجا حتی هماهنگی بين عاملها (انجام بعضی عمليات در صورت وقوع شرايط خاص ناشی از اعمال ساير عاملها) نيز ضروری نبوده و صرف ادغام نتايج پس از حصول اطمينان از دريافت نتايج کار تمام عاملها، برای دستیابی به هدف کفايت خواهد کرد. بنا به دلايل فوق، 1) سيستم PADMA بر مبنای سیستمهای چندعامله نيست، اگرچه نويسندگان نيز چنين ادعايی را مطرح نکردهاند و 2) برخلاف نامگذاری انجام شده در مورد PADMA، اين سيستم را نمیتوان مبتنی بر عامل دانست. بديهی است که با توجه به موارد مطرح شده، اطلاق عنوان دادهکاوی توزيع شده از طريق سیستمهای چندعامله به سيستم PADMA صحيح نمیباشد. البته در زمينه بهرهگيری از عاملها برای دادهکاوی کارهای ديگری نيز انجام گرديده است که برای مطالعه بيشتر میتوانيد به ADDIN EN.CITE
Da Silva200599[84]999917Da Silva, J.C.Giannella, C.Bhargava, R.Kargupta, H.Klusch, M.Distributed data mining and agentsEngineering Applications of Artificial IntelligenceEngineering Applications of Artificial Intelligence791-80718720050952-1976[84] مراجعه نماييد.
2-7- جمعبندی
در اين نوشتار ما ابتدا به معرفی دادهکاوی و تکنیکهای آن پرداختیم، تکنیک کاوش قواعد انجمنی را به تفصیل مورد بررسی قرار دادیم، سپس دادهکاوی توزيع شده، عامل و سیستمهای چندعامله، و موارد کاربرد عامل را برای دادهکاوی مورد بررسی قرار داديم، و پس از آن، الگوریتم ژنتیک و مفاهیم بنیادی این حوزه را بیان داشتیم. و در نهایت کارها و تحقیقات انجام شده در این زمینهها را بررسی نمودیم. همانطور که مشاهده گرديد در مبحث مربوط به استفاده از عامل برای دادهکاوی توزيع شده بيشتر خصوصياتی از عامل همچون خودمختاری، خودآغازی و بيشتر از همه بحث متحرک بودن و قابليت استفاده از آن در محیطهای توزيع شده مورد بررسی قرار گرفته است، در حاليکه به بهرهگيری از بسياری از خصوصيات مهم عامل همچون هوشمندی، قابليت يادگيری و استدلال، هدفگرايی و غیره چندان توجهی نشده است.
پیوست منابع و مآخذ
ADDIN EN.REFLIST [1]Wang J., Data mining: opportunities and challenges: Irm Press, 2003.
[2]Rao V.S., Vidyavathi S., "Distributed Data Mining and Mining Multi-Agent Data," IJCSE) International Journal on Computer Science and Engineering, vol. 2, pp. 1237-1244, 2010.
[3]Chen M.S., Han J., Yu P.S., "Data mining: an overview from a database perspective," Knowledge and Data Engineering, IEEE Transactions on, vol. 8, pp. 866-883, 1996.
[4]Han J., Kamber M., "Data mining: Concepts and Techniques, 2nd Edition," San Francisco, CA, itd: Morgan Kaufmann, 2005.
[5]Grossman R., Kasif S., Moore R., Rocke D., Ullman J., "Data mining research: Opportunities and challenges," presented at the A Report of Three Workshops on Mining Large, Massive and Distributed Data, 1999.
[6]Mitchell T.M., "Machine learning. 1997," Burr Ridge, IL: McGraw Hill, 1997.
[7]Bing L., Wynne H., Yiming M., "Integrating classification and association rule mining," in KDD, New York City, New York, USA., 1998, pp. 80-86.
[8]Bing L., Yiming M., Ching Kian W., "Improving an association rule based classifier," Principles of Data Mining and Knowledge Discovery, pp. 293-317, 2000.
[9]Kargupta H., Joshi A., Sivakumar K., Yesha Y., Data mining: Next generation challenges and future directions: AAAI Press, 2004.
[10]Weiss G., Multiagent systems: a modern approach to distributed artificial intelligence: The MIT press, 1999.
[11]Sycara K.P., "Multi-agent Systems," AI magazine, Intelligent Agents, vol. 19, pp. 79-92, 1998.
[12]Chira C., "Software agents," IDIMS Report, February, vol. 21, 2003.
[13]Odell J., "Agents: Technology and usage (Part 1)," Executive Report, vol. 3, 2000.
[14]Wooldridge M., Jennings N.R., "Intelligent agents: Theory and practice," Knowledge engineering review, vol. 10, pp. 115-152, 1995.
[15]Wooldridge M., "Agent-based computing," Interoperable Communication Networks, vol. 1, pp. 71-98, 1998.
[16]Jennings N.R., Norman T.J., Faratin P., "ADEPT: an agent-based approach to business process management," ACM Sigmod Record, vol. 27, pp. 32-39, 1998.
[17]Etzioni O., Weld D.S., "Intelligent agents on the internet: Fact, fiction, and forecast," IEEE expert, vol. 10, pp. 44-49, 1995.
[18]Horn E., Kupries M., Reinke T., "Properties and models of software agents and prefabrication for agent application systems," 1999, p. 10 pp.
[19]Bradshaw J.M., "An introduction to software agents," Software agents, vol. 5, pp. 3-46, 1997.
[20]Bratman M., "Intentions, Plans and Practical Reason," ed: Harvard University Press, Cambridge, MA, 1987.
[21]Bratman M.E., Israel D.J., Pollack M.E., "Plans and resource‐bounded practical reasoning," Computational intelligence, vol. 4, pp. 349-355, 1988.
[22]Jennings N.R., Sycara K., Wooldridge M., "A roadmap of agent research and development," Autonomous agents and multi-agent systems, vol. 1, pp. 7-38, 1998.
[23]Jennings N.R., "On agent-based software engineering," Artificial intelligence, vol. 117, pp. 277-296, 2000.
[24]Newell A., "The knowledge level," Artificial intelligence, vol. 18, pp. 87-127, 1982.
[25]Bussmann S., Mueller J., "A negotiation framework for cooperating agents," 1992 Proceedings of the Special Interest Group on Cooperating KnowledgeBased Systems, pp. 1-17, 1993.
[26]Wooldridge M.J., An introduction to multiagent systems: Wiley, 2009.
[27]Zhang C., Zhang Z., Cao L., "Agents and data mining: mutual enhancement by integration," Autonomous Intelligent Systems: Agents and Data Mining, pp. 259-275, 2005.
[28]Cao L., Data mining and multi-agent integration: Springer, 2009.
[29]Cao L., Gorodetsky V., Liu J., Weiss G., "Agents and data mining interaction: 4th international workshop on agents and data mining interaction," in ADMI 2009, Budapest, Hungary, 2009, pp. 23-35.
[30]Cao L., Gorodetsky V., Mitkas P.A., "Guest Editors' Introduction: Agents and Data Mining," Intelligent Systems, IEEE, vol. 24, pp. 14-15, 2009.
[31]Grossman R., "A top-ten list for data mining," SIAM News, vol. 34, 2001.
[32]Park B., Kargupta H., Distributed data mining: algorithms, systems, and applications: Y. Nong, 2002.
[33]Bhaduri K., Das K., Liu K., Kargupta H., Ryan J., "Distributed Data Mining Bibliography," Distributed Data Mining Bibliography, 2011.
[34]Stolfo S., Prodromidis A.L., Tselepis S., Lee W., Fan D.W., Chan P.K., "JAM: Java agents for meta-learning over distributed databases," 1997, pp. 74-81.
[35]Luo P., Xiong H., Lu K., Shi Z., "Distributed classification in peer-to-peer networks," 2007, pp. 968-976.
[36]Aoun-Allah M., Mineau G., "Distributed data mining: why do more than aggregating models," 2007, pp. 2645-2650.
[37]Datta S., Giannella C., Kargupta H., K-Means Clustering Over a Large, Dynamic Network," in 2006 SIAM Conference on Data Mining, 2006.
[38]Gionis A., Mannila H., Tsaparas P., "Clustering aggregation," in 21st ICDE Conference, 2005, pp. 341-352.
[39]Chen B.C., Chen L., Lin Y., Ramakrishnan R., "Prediction cubes," in 31st VLDB Conference, Norway, 2005, pp. 982-993.
[40]Gray J., Bosworth A., Layman A., Pirahesh H., "Datacube: A relational aggregation operator generalizing group-by, cross-tab, and sub-totals," in 12th ICDE Conference, 1996, pp. 152-159.
[41]Agrawal R., Srikant R., "Fast algorithms for mining association rules," in VLDB Conferences, Santiago, Chile, 1994, pp. 487-499.
[42]Ashrafi M.Z., Taniar D., Smith K., "ODAM: An optimized distributed association rule mining algorithm," Distributed Systems Online, IEEE, vol. 5, 2004.
[43]Cheung D.W., Ng V.T., Fu A.W., Fu Y., "Efficient mining of association rules in distributed databases," IEEE Transactions on Knowledge and Data Engineering, vol. 8, pp. 911-922, 1996.
[44]Han J., Pei J., Yin Y. , "Mining frequent patterns without candidate generation," in ACM SIGMOD, 2000, pp. 1-12.
[45]Manjhi A., Shkapenyuk V., Dhamdhere K., Olston C., "Finding (recently) frequent items in distributed data streams," in ICDE Conference, 2005, pp. 767-778.
[46]Sun J., Papadimitriou S., Faloutsos C., "Distributed pattern discovery in multiple streams," Advances in Knowledge Discovery and Data Mining, pp. 713-718, 2006.
[47]Li T., Ogihara M., Zhu S., "Association-based similarity testing and its applications," Intelligent Data Analysis, vol. 7, pp. 209-232, 2003.
[48]Webb G.I., Butler S., Newlands D., "On detecting differences between groups," in 9th ACM SIGKDD Conference, 2003, pp. 256-265.
[49]Bailey S., Grossman R., Sivakumar H., Turinsky A., "Papyrus: a system for data mining over local and wide area clusters and super-clusters," 1999, p. 63.
[50]Schuster A., Wolff R., "Communication-efficient distributed mining of association rules," Data Mining and Knowledge Discovery, vol. 8, pp. 171-196, 2004.
[51]Schuster A., Wolff R., Gilburd B., "Privacy-preserving association rule mining in large-scale distributed systems," 2004, pp. 411-418.
[52]Bala J., Baik S., Hadjarian A., Gogia B.K., Manthorne C., "Application of a distributed data mining approach to network intrusion detection," 2002, pp. 1419-1420.
[53]Stolfo S.J., Fan W., Lee W., Prodromidis A., Chan P.K., "Cost-based modeling for fraud and intrusion detection: Results from the JAM project," 2000, pp. 130-144 vol. 2.
[54]Fujibuchi W., Kato T., "Classification of heterogeneous microarray data by maximum entropy kernel," BMC bioinformatics, vol. 8, p. 267, 2007.
[55]Merugu S., Ghosh J., "A distributed learning framework for heterogeneous data sources," in The 11th ACM KDD Conference, 2005, pp. 208-217.
[56]Kargupta H., Park B.H., Hershberger D., Johnson E., "Collective data mining: A new perspective toward distributed data analysis," in Advances in Distributed and Parallel Knowledge Discovery, 1999.
[57]Kantarcioglu M., Clifton C., "Privacy-Preserving Distributed Mining of Association Rules on Horizontally Partitioned Data," in ACM SIGMOD Workshop on Research Issues on Data Mining and Knowledge Discovery (DMKD'02), 2002.
[58]Qiu L., Li Y., Wu X., "Preserving privacy in association rule mining with bloom filters," Journal of Intelligent Information Systems, vol. 29, pp. 253-278, 2007.
[59]Yin X., Han J., Yang J., Yu P., "Crossmine: Efficient classification across multiple database relations," Constraint-Based Mining and Inductive Databases, pp. 172-195, 2006.
[60]Wang J., Zeng H., Chen Z., Lu H., Tao L., Ma W.Y., "ReCoM: reinforcement clustering of multi-type interrelated data objects," in SIGIR Conference, 2003, pp. 274-281.
[61]Agrawal R., Shafer J.C., "Parallel mining of association rules," Knowledge and Data Engineering, IEEE Transactions on, vol. 8, pp. 962-969, 1996.
[62]Han E.H., Karypis G., Kumar V., "Scalable parallel data mining for association rules," in ACM SIGMOD Conference, 1997.
[63]Li S., Wu T., Pottenger W.M., "Distributed higher order association rule mining using information extracted from textual data," ACM SIGKDD Explorations Newsletter, vol. 7, pp. 26-35, 2005.
[64]Otey M.E., Wang C., Parthasarathy S., Veloso A., Meira Jr W., "Mining frequent itemsets in distributed and dynamic databases," in ICDM Conference, 2003, pp. 617-620.
[65]Wu X., Zhang S., "Synthesizing high-frequency rules from different data sources," Knowledge and Data Engineering, IEEE Transactions on, vol. 15, pp. 353-367, 2003.
[66]Zaki M.J., "Parallel and distributed association mining: A survey," Concurrency, IEEE, vol. 7, pp. 14-25, 1999.
[67]Zhang S., Zaki M.J., "Mining multiple data sources: local pattern analysis," Data Mining and Knowledge Discovery, vol. 12, pp. 121-125, 2006.
[68]Buehrer G., Parthasarathy S., Tatikonda S., Kurc T., Saltz J., "Toward terabyte pattern mining: an architecture-conscious solution," in 12th ACM SIGPLAN symposium on Principles and practice of parallel programming, 2007, pp. 2-12.
[69]Han J., Pei J., Yin Y., "Mining frequent patterns without candidate generation," in ACM SIGMOD Conf., 2000, pp. 1-12.
[70]Zhang T., Ramakrishnan R., Livny M., "BIRCH: an efficient data clustering method for very large databases," in ACM SIGMOD Conference, 1996, pp. 103-114.
[71]Zhu X., Jin R., "Multiple information source cooperative learning," in 21st International Joint Conference on Artificial Intelligence, 2009, pp. 1369–1376.
[72]Parthasarathy S., Ogihara M., "Exploiting dataset similarity for distributed mining," Parallel and Distributed Processing, pp. 399-406, 2000.
[73]Bay S.D., Pazzani M.J., "Detecting group differences: Mining contrast sets," Data Mining and Knowledge Discovery, vol. 5, pp. 213-246, 2001.
[74]Dong G., Li J., "Efficient mining of emerging patterns: Discovering trends and differences," in 5th ACM SIGKDD Conference, 1999, pp. 43-52.
[75]Yang Y, Wu X., Zhu X., "Conceptual equivalence for contrast mining in classification learning," Data & Knowledge Engineering, vol. 67, pp. 413-429, 2008.
[76]Xu K., Liao S.S., Li J., Song Y., "Mining comparative opinions from customer reviews for Competitive Intelligence," Decision support systems, vol. 50, pp. 743-754, 2011.
[77]Ji X., Bailey J., Dong G., "Mining minimal distinguishing subsequence patterns with gap constraints," in ICDM Conference, 2005, p. 8 pp.
[78]Jin R., Agrawal G., "Systematic approach for optimizing complex mining tasks on multiple databases," in ICDE Conference, 2006, pp. 17-17.
[79]Bucila C., Gehrke J., Kifer D., White W., "Dualminer: A dual-pruning algorithm for itemsets with constraints," Data Mining and Knowledge Discovery, vol. 7, pp. 241-272, 2003.
[80]Tsur D., Ullman J.D., Abiteboul S., Clifton C., Motwani R., Nestorov S., Rosenthal A., "Query flocks: a generalization of association-rule mining," ACM-SIGMOD Conference, vol. 27, pp. 1-12, 1998.
[81]Zhu X., Wu X., "Discovering relational patterns across multiple databases," in ICDE Conference, 2007, pp. 726-735.
[82]Prodromidis A.L., Stolfo S.J., Tselepis S., Truta T., Sherwin J., Kalina D., "Distributed data mining: the JAM system architecture," 2001.
[83]Kargupta H., Hamzaoglu I., Stafford B., "PADMA: Parallel data mining agents for scalable text classification," in High Performance Computing, 1997.
[84]Da Silva J.C., Giannella C., Bhargava R., Kargupta H., Klusch M., "Distributed data mining and agents," Engineering Applications of Artificial Intelligence, vol. 18, pp. 791-807, 2005.
[85]Webb G.I., "Efficient search for association rules," in Proceedings of the sixth ACM SIGKDD international conference on Knowledge discovery and data mining, 2000, pp. 99-107.
[86]Paul S., "An optimized distributed association rule mining algorithm in parallel and distributed data mining with xml data for improved response time," International Journal of Computer Science and Information Technology, vol. 2, 2010.
[87]Prodromidis A.L., "Management of intelligent learning agents in distributed data mining systems," Ph.D., School of Arts and Science, Columbia University, Columbia, 1999.
[88]Zhu X., Li B., Wu X., He D., Zhang C., "CLAP: Collaborative pattern mining for distributed information systems," Decision support systems, 2011.
[89]Ogunde A., Folorunso O., Sodiya A., Ogunleye G., "A Review of Some Issues and Challenges in Current Agent-Based Distributed Association Rule Mining," Asian Journal of Information Technology, vol. 10, pp. 84-95, 2011.
[90]Cao L., Luo C., Zhang C., "Agent-mining interaction: an emerging area," Autonomous Intelligent Systems: Multi-Agents and Data Mining, pp. 60-73, 2007.
[91]Cao L., Luo D., Xiao Y., Zheng Z., "Agent collaboration for multiple trading strategy integration," Agent and Multi-Agent Systems: Technologies and Applications, pp. 361-370, 2008.
[92]Cao L., Yu P., Zhang C., Zhao Y., Domain driven data mining: Springer, 2010.
[93]Rudowsky I., "Intelligent agents," Communications of the Association for Information Systems, vol. 14, p. 275, 2004.
[94]Albashiri K.A., Coenen F., Leng P., "EMADS: An extendible multi-agent data miner," Knowledge-Based Systems, vol. 22, pp. 523-528, 2009.
[95]Jie Y., "Research on Association Rules in Distributed Data Mining," Energy Procedia, vol. 13, pp. 8575-8580, 2011.