۴۳/۰
۰۰۹/۰
۶۹/۰
Deformation
۵۵/۰
۲۱/۰
۰۳/۰
۹۸/۰
۰۱۹/۰
۷۳/۰
۰۰۱۴/۰
۰۰۴/۰
۹۹/۰
DSV
۲۹/۰
۱۹/۰
۱۸/۰
۸۶/۰
۱۷/۰
۷۵/۰
۰۷۵/۰
۰۰۱۷/۰
۹۵/۰
Short- turn
با بهره گرفتن از شکل ۶‑۴ و جدولی مشابه جدول فوق، درختهای تصمیم برای سه حالت ذکر شده سناریو اول ایجاد شده است. درخت تصمیم اول با هشت ورودی که در شکل ۶‑۵ نشان داده شده است، دارای دقتی نزدیک به ۹۸ درصد و اندازه آن برابر ۳۱ میباشد. درخت تصمیم دوم دارای دو ورودی بوده و دارای دقت بسیار کم ۸۰ درصد و اندازه به نسبت بزرگ ۴۱ میباشد. این درخت تصمیم در شکل ۶‑۶ به نمایش در آمده است. علت کم بودن دقت درخت تصمیم دوم را باید در ویژگیهایی که به عنوان ورودی انتخاب شده اند، یافت. مقادیر انرژی و آنتروپی برای سیگنالهای پاسخ فرکانسی در حالات مختلف به هم نزدیک بوده و در نتیجه درخت تصمیم فاقد توانایی تشخیص و تمیز بین حالات مختلف خطا خواهد بود و این امر منجر به کاهش دقت و افزایش اندازه درخت تصمیم شده است. در درخت سوم که بصورت ترکیبی ویژگیهای مختلف را به عنوان ورودی استفاده نموده است دارای دقتی برابر ۹۹ درصد و اندازه ۲۵ میباشد که در شکل ۶‑۷ میتوان آن را مشاهده نمود. این درخت ساختاری مشابه درخت اول خواهد داشت اما چون از دو ویژگی دیگر نیز استفاده نموده است، در نتیجه خروجی بهتری دربر خواهد داشت هر چند که درخت تصمیم دوم دارای دقت پایینتر و اندازه بزرگتری است.
درخت تصمیم علاوه بر اینکه دارای ساختاری ساده وقابل لمس بوده و دقت بالایی دارد، یک ویژگی مهمی را نیز دارا میباشد که میتوان به انتخاب ویژگی[۱۳۸] آن اشاره کرد. بدین معنا که از بین ورودیهای مختلف، ورودیهایی که در طبقه بندی دارای وزن بیشتری بوده و به عنوان ویژگی غالب شناخته میشوند، مشخص خواهد کرد. به عنوان مثال در درخت تصمیم اول از بین هشت ویژگی مختلف مورد استفاده در ورودی، تنها چهار ویژگی ضریب همبستگی، انحراف معیار، مجموع مربعات خطا و قدر مطلق مجموع لگاریتمی خطا به عنوان ویژگی غالب و اثرگذار در طبقه بندی مشخص شده اند. از این خاصیت درخت تصمیم میتوان در مسائلی که فضای ویژگی آن بسیار بزرگ بوده استفاده کرد که در ابتدا با درخت تصمیم، ویژگیهای غالب را انتخاب نمود و در مرحله بعد این ویژگیهای غالب را به عنوان ورودی هر سیستم خبره دلخواه استفاده نمود که با این کار باعث بهبود عملکرد سیستم خبره خواهیم شد.
در سناریو اول هر چند که درخت تصمیم دارای دقت بالایی میباشد، اما اندازه درخت به نسبت بزرگ میباشد. برای کاهش اندازه درخت باید از ویژگیهای دیگری بهره برد که قدرت تفکیکپذیری بالایی برای داده های جمعآوری شده داشته باشد بدین معنا که این ویژگی باید بتواند تا آنجا که قادر است داده ها را با ایجاد شاخهها و برگهای کمتری جداسازی و طبقه بندی نماید. البته باید توجه داشت که در این حالت دقت هم مقدار قابل قبول خود را داشته باشد.
شکل ۶‑۵: درخت تصمیم اول- با هشت ورودی: مقادیر آستانه به ترتیب
a=0/744 ، b=099، c=0/99، d=0/98 ، e=0/07 ، f=0/99 ، z=0/97 ، g=0/993، x=0/992 ، h=0/052، k=0/84 ، j=0/38 ، m=0/18، l=0/53
شکل ۶‑۶: درخت تصمیم دوم- با دو ورودی: مقادیر آستانه به ترتیب
: a=0/33 ، b=0/414، c=0/215، d=0/19 ، e=0/35 ، f=0/23 ، h=0/2 ، g=0/21، j=0/2 ، k=0/61، l=0/23 ، t=0/198 ، m=0/21، n=0/083 e=0/35 ، r=0/23 ، s=0/22 ، w=0/31، x=0/22 ، z=0/28، y=0/21
شکل ۶‑۷: درخت تصمیم سوم- با ده ورودی: مقادیر آستانه به ترتیب :
a=0/74 ، b=0/73، c=0/99، d=0/196 ، e=0/21 f=0/998 ، g=0/999، h=0/06، k=0/84 ، j=0/29 ، l=0/25، m=0/76
سناریو دوم
همانطور که در قسمت آخر بخش قبل بحث شد، به دنبال روشی هستیم که اندازه درخت تصمیم با ثابت ماندن درصد دقت، کاهش یابد. بین منظور روشی که در زیر شرح داده می شود، پیادهسازی خواهد شد.
در بخش مربوط به آنالیز حساسیت بخش۵-۴-، مشاهد شد که هر خطایی در چه رنج فرکانسی اثر بیشتر و قابل لمستری خواهد گذاشت و در چه رنج فرکانسی تاثیر ملموسی نخواهد داشت. با بهره گرفتن از این نکته میتوان هر پاسخ فرکانسی را به سه رنج فرکانسی تقسیم نموده و برای هر رنج فرکانسی ویژگیهای مورد نظر را محاسبه نمود. هر ورودی درخت تصمیم خود شامل چهار ورودی میگردد که شامل رنج فرکانسی پایین، رنج فرکانسی میانی، رنج فرکانسی بالا و کل رنج فرکانسی خواهد شد و بدین ترتیب فضای ویژگی چهار برابر خواهد شد. در این سناریو هم سه حالت در نظر گرفته می شود که در ابتدا تنها ویژگیهای آماری و سپس ویژگیهای سیگنالی و سرانجام ترکیب این دو به عنوان ورودی درخت تصمیم مورد استفاده قرار خواهد گرفت. شکل ۶‑۸ ساختار درختهای تصمیم در سه حالت را با شرایط جدید نشان میدهد.
شکل ۶‑۸: ساختار سه درخت تصمیم متفاوت با ورودی های متفاوت
درخت تصمیم چهارم با ۳۲ ورودی که در شکل ۶‑۹نشان داده شده است، دارای دقتی نزدیک به ۹۸ درصد و اندازه آن برابر ۱۵ میباشد. اندازه این درخت تصمیم در مقایسه با درختهای قسمت قبل اندازه بسیار کمتری دارد و در حالیکه دقت آن در همان حد دلخواه و بالا ثابت باقی مانده است. در این درخت تصمیم ۷ ویژگی ضریبهمبستگی رنج میانی، نرخ مجموع مربعات خطا رنج میانی و بالا، احراف معیار رنج پایین و بالا و سرانجام مجموع قدر مطلق لگاریتمی خطا در رنج بالا به عنوان ویژگیهای غالب انتخاب شده اند. همانطور که از شکل ۶‑۹ میتوان مشاهده نمود، این مسئله میباشد که خطاهایی که در جهت عمودی بوده مانند جا به جایی محوری و تغییر فضای دیسک در رنج فرکانسی پایین و میانی قابل تشخیص خواهند بود اما به علت اثر خطای اتصال کوتاه و تغییر شکل بر کل رنج فرکانسی، نیاز به اطلاعات رنج فرکانسی بالا نیز بوده و این امر باعث رشد بیشتر درخت شده است.
شکل ۶‑۹: درخت تصمیم با ۳۲ ورودی : مقادیر آستانه پارامترها به ترتیب :
a=0/717 ، b=0/067، c=0/99، e=0/576 ، ، h=0/213، d=0/725 ، g=0/0052