دانلود رایگان مقاله هوش مصنوعی

در ابتدا از مسیر های درخت عبور میکنه تا گرهی برگ رو برای یک نمونه پیدا کنه و بعد نسبت نمونههای کلاس k رو در این برگ سایت vector-robot برمیگردونه. درخت های تصمیم شهودی هستند و نتیجهای هم که میدن به راحتی قابل تفسیر هست. درآمد متخصصان هوش مصنوعی بر اساس میزان مهارتشان تفاوتهای اساسی با هم دارد. تا جایی که کمتر روزی است که خبری در حوزهی هوش مصنوعی در پزشکی منتشر نشود. این هرس تا جایی ادامه پیدا میکنه که تمام ریشههای غیرضروری حذف شده باشند. این به این معنی نیست که هیچ پارامتری نداره (اتفاقا پارامترهای زیادی داره) بلکه به این معنی هست که پارامترها قبل از آموزش تعیین نشدند در نتیجه ساختار مدل آزاد هست که خودش رو تا جایی که میتونه به دادهها نزدیک کنه. متاسفانه، پیدا کردن درخت ایدهآل جزء مسائل NP هست: به زمان O(exp(m)) برای حل شدن احتیاج داره که باعث میشه حتی برای ترینینگ ست های کوچیک هم غیر قابل کنترل بشه. این مدل ها معروف به مدل های جعبه سفید هستند. در برابر اونها، مدل های Random Forest و Neural Netwrok هستند که به مدل های جعبه سیاه معروف هستند. لطفا آخرین پیشرفت های حوزه هوش مصنوعی رو هم توی سایتتون بیارید.

پس حدس زدن سریع هست و حتی با بزرگتر شدن اندازه ترینینگ ست، باز هم به این صورت باقی میمونه. برای حدس زدن لازمه که از کل مسیرهای درخت عبور کنیم و از ریشه به برگ برسیم. در این مطلب میخوایم ببینیم چجوری درخت تصمیم رو ترین، مصورسازی و در نهایت برای حدس زدن آماده میکنند. برای مثال، در مطلب قبلی یک DecisionTreeRegressor رو روی دیتاست خانههای کالیفرنیا پیادهسازی کردیم. تا الان متقاعد شدید که درخت تصمیم خوبیهای زیادی داره: فهمیدن و پیادهسازی راحتی داره، راحت میشه استفاده کرد و قدرتمند و وسیع هست. اما در جاهایی که متفاوت هستند،ناخالصی جینی کلاسی که بیشترین تکرار رو داره، در شاخهی درخت خودش ایزوله میکنه در حالیکه آنتروپی درختهای متعادلتری تولید میکنه. مفهوم آنتروپی بعدها در زمینههای دیگهای هم استفاده شد مثل تئوری اطلاعات Shannon که میانگین محتوای اطلاعاتی یک پیام رو اندازهگیری میکنه. درخت تصمیم همچنین میتونه عملیات مربوط به رگرسیون رو هم انجام بده.

الگوریتم Random Forests میتونه این بیثباتی رو با محاسبه میانگین حدسها در درختهای متعدد، برطرف کنه. درخت تصمیم میتونه احتمال تعلق یک نمونه به کلاس k رو تخمین بزنه. تستهای استاندارد آماری مثل Che-Squarred Test برای تخمین احتمال اینکه بهبود خالصی صرفا نتیجه شانس بوده، استفاده میشه. مدل رو Regularize میکنه و احتمال اورفیت شدن رو کم میکنه. مدل رو Regularize میکنه. سپس از الگوریتم CART استفاده میکنیم و میبینیم چطور درختها رو برای رگرسیون Regularize میکنن. همونطور که میبینید الگوریتم CART یک الگوریتم حریصانه هست: بهطور حریصانه برای یک تقسیم مطلوب جستجو میکنه و این روند رو در هر مرحله تکرار میکنه. همونطور که میبینید این مدل خیلی با مدلی که اول ارائه دادیم فرق داره. درخت تصمیم فرضهای کمی درباره ترینینگ ست داره (بر خلاف مدلهای خطی که فرض میکنن دادهها خطی هستند) اگر درخت تصمیم رو منظمسازی نکنیم، ساختار درخت خودش رو با ترینینگ ست وفق میده و خودش رو خیلی خوب با دادهها منطبق میکنه؛ درواقع دچار اورفیت میشه. خب مشخصه که اورفیت شده.

این مقدار در واقع میانگین مقادیر حدس زده شده برای 110 نمونه ترینینگ هست که توی این ریشهی برگ وجود دارند و نتیجهی اون mean squarred error برابر 0.015 هست. گرهی متناظر اون گرهی واقع در سمت چپ عمق 2 هست پس درخت تصمیم این احتمالها رو بعنوان خروجی میده: 0% برای Iris setosa (0/54) 90.7% برای iris versicolor (49/54) و 9.3% برای Iris virginica(5/54). شکل زیر مرزهای تصمیمگیری درخت تصمیم رو نشون میده.خط عمودی زخیم نشون دهنده مرز تصمیم گرهی ریشه واقع در عمق صفر هست: طول گلبرگ برابر 2.45 سانتی متر. حالا فرض کنید یک گل زنبق دیگه دارید و گلبرگ اون بزرگتر از 2.45 سانتی متر هست. درخت تصمیم معمولاً به خوبی بهینه شده در نتیجه طی کردن مسیرهای درخت به O(log(m)) ریشه احتیاج داره(لگاریتم در مبنای 2 هست). اول، همونطور که متوجه شدید، درخت تصمیم مرزهای تصمیمگیری قائم رو خیلی دوست داره (تمام تقسیمبندی ها عمود بر محورها هستند) این باعث میشه که به چرخش دیتاست حساس باشند.

همونطور که میدونید، به این کار میگن Regularization. جهت دانلود فایل به روی گزینه دانلود رایگان کلیک نمایید. یک راه برای حل این مشکل استفاده از Principal Component Analysis هست که باعث میشه ترینینگ ست در یک جهت مناسب قرار بگیره. درست مثل الگوریتمهای SVM، الگوریتم Decision Tree (درخت تصمیم) هم جزء الگوریتمهای همه کارهی ماشین لرنینگ هست که از پس طبقهبندی، رگرسیون و حتی تسکهای دارای چند خروجی برمیاد. هایپرپارامتر های دیگهای هم هستند که در ادامه صحبت میکنیم. به نظر من در ایران هوش مصنوعی بسیار جای پیشرفت داره ولی یکی از بزرگترین گلوگاه های ورود بیشتر کسب و کارها به این حوزه نبود زیرساخت های قوی مثل GPU ها و … اما قسمت سمت راست ناخالصی داره در نتیجه عمق 1 در عرض گلبرگ برابر 1.75 سانتی متر جدا میشه (با خط بریده بریده نشون داده شده). از اونجایی که قسمت سمت چپ خالص هست (فقط شامل نمونههای iris setosa هست)، بیشتر از این نمیشه اون رو جدا کرد. چون هر ریشه باید مقدار یک فیچر رو بررسی کنه، پیچیدگی حدس برابر همین مقدار هست و مستقل از تعداد فیچرهاست. دقت کنید که مقدار حدس زده شده برای هر منطقه همیشه برابر میانگین مقادیر حدس زده شدهی نمونههای اون منطقه هست.

بخاطر همین هست که همیشه باید به یک راه حل خوب قانع باشیم. در واقع چون الگوریتیمی که Scikit-Learn استفاده میکنه Stochastic هست (در هر ریشه بهصورت رندوم مجموعهای از فیچرها رو انتخاب میکنه تا ارزیابی کنه) بخاطر همین روی دیتاست یکسان، به همچین مدل متفاوتی میرسیم. در واقع هم این سیستمهای اولیه چندان برتری در ابزارهای تشخیصی که خود پزشکان انجام میدادند نداشت. مثل طبقهبندی، درخت تصمیم بههنگام رگرسیون هم در خطر اورفیت شدن هست. برای مثال، گرهی پایین سمت راست دارای 0 نمونه از کلاس Iris setosa، یک نمونه از کلاس Iris versicolor و 45 نمونه از کلاس iris virginica هست. مثلا گرهی سمت چپ با عمق 1 چون شامل تمام نمونههای iris setosa میشه، کاملا خالص هست و gini برابر 0 هست. معادلهی پایین مقدار Gini Impurity رو محاسبه میکنه. در یک گره، gini مقدار impurity رو محاسبه میکنه (ناخالصی). 4. مشخصه که مدل سمت چپ اورفیت شده و مدل سمت راست بهتر عمومیسازی میکنه. برای جلوگیری از اورفیت شدن، باید در مرحلهی ترین آزادی درخت تصمیم رو محدود کنید. در واقع به دنبال جفت (k, tk) ای میگرده که خالص ترین زیرمجموعه رو تولید میکنه. امیدوارم مفید واقع شده باشه. یک الگوریتم حریصانه معمولاً یک راهحل خوب ارائه میده اما تضمینی نیست که این راه حل ایدهآل باشه.

تعیین شده باشه به همون اندازه چک میکنه). الگوریتم هر منطقه رو جوری بخش بندی میکنه که بیشتر نمونههای آموزش رو تا حد ممکن به مقدار پیش بینی شده نزدیک کنه. این الگوریتم فرآیند انتخاب طبیعی را منعکس میکند که در آن بهترین افراد برای تولید مثل انتخاب میشوند تا فرزندان نسل بعدی به وجود بیایند. اونوقت اون ریشه غیرضروری محسوب میشه و فرزندان اون حذف میشن. برای مثال، اگر عریضترین Iris versicolor رو از ترینینگ ست حذف کنیم (اونهایی که طول 4.8سانتیمتر و عرض 1.8سانتیمتر دارن) مدل شکل پایین حاصل میشه. بقیه الگوریتمها اول درخت تصمیم رو ترین میکنن بعد ریشههای غیرضروری رو هرس (حذف) میکنن. تصویر زیر دو درخت تصمیم رو نشون میده که روی دیتاست moon ترین شده. فرمول زیر نشون دهنده آنتروپی iامین ریشه هست. انجام میدیم. مقدار دیفالت این هایپرپارامتر None هست. بهزعم بسیاری از متخصصان، این حوزه مهمترین زیرشاخهی AI است. با استفاده از هوش مصنوعی میتوان الگوهایی برای مدیریت این مراکز داشت که خطای بسیاری کمتری داشته باشند. مقاله هوش مصنوعی دانشجویان و کاربران گرامی محتوای این فایل بهتریــن و کاملتریــن مقاله در مورد هوش مصنوعی میباشد که در قالب فایل WORD – (قابـل ویرایـش) و در 46 صفحه بصورت زیبا و منظم توسط تیم وب سایت راهنمای دانشجو تهیه و تنظیم شده است.

اگرچه که هر دو مرز تصمیمگیری بهخوبی با دادهها تطابق پیدا میکنند اما احتمالا مدل سمت راست بهخوبی عمومیسازی نکنه. آنها برای توجیه این اعتقاد اشاره میکنند که کودکان باهوش نمرههای بهتری در دروس خود میگیرند و پیشرفت تحصیلی چشم گیری نسبت به کودکان کم هوش دارند. در این فرمول، p نشون دهنده نسبت نمونههای کلاس k در میان نمونههای گرهی i ام هست. از گرهی ریشه(Root Node) شروع میکنید (عمق صفر، واقع در بالای شکل): این گره میپرسه که آیا طول گلبرگ گل کوچکتر از 2.45 سانتی متر هست یا نه. اگر هست، به سمت گرهی فرزند واقع در سمت چپ حرکت میکنید (عمق یک، واقع در سمت چپ). به گرهی فرزند واقع در سمت راست حرکت میکنیم (عمق یک، واقع در سمت راست) چون این گره برگ نیست، پس باز هم سوال میپرسه: آیا عرض گلبرگ کوچکتر از 1.75 سانتی متر هست؟ یک ریشه که فرزندهای اون همگی گرهی برگ باشن غیرضروری بهحساب میاد اگر افزایش بهبود خلوص از نظر آماری قابل توجیه نباشه. درخت تصمیم همچنین جزء مولفههای اساسی الگوریتم Random Forest بهحساب میاد. این الگوریتم هم جزء الگوریتمهای قدرتمند ماشین لرنینگ هست. این مدلها حدسهای خوبی میزنند و میتونید محاسباتی هم که برای این حدس انجام شده ببینید؛ اما با این وجود معمولاً سخته که بشه توضیح داد چرا این حدس انجام شده.

برای مثال، اگر یک شبکه عصبی بگه که یک شخص خاص در این تصویر حضور داره، سخته که بشه فهمید چه چیزی منجر به این حدس شده: آیا مدل چشمهای شخص رو شناخت؟ برای مثال، فرض کنید گلی داریم با طول گلبرگ 5 و عرض 1.5 سانتی متر. برای مثال، میتوان با استفاده از نرمافزارهای هوش مصنوعی گزارشهایی از وضعیت آبوهوا یا شرایط خاک به دست آورد و بر اساس آن برنامهریزی کرد. به زودی شاهد رشد و پیشرفت های بی شمار در حوزه هوش مصنوعی در کشورمان خواهیم بود? سیستمهای سنتی نرمافزاری این قابلیت را ندارند، در عوض هوش مصنوعی همان چیزی است که میتواند با استخراج دادههای مفید از بین دادههای موجود، چراغ روشنی در دل دادههای تاریک باشد. به طور کلی، اصلی ترین مشکل درخت تصمیم اینه که خیلی به تغییرات و دگرگونیهای داخل دادههای ترینینگ حساس هستند. کتابخانه Scikit-Learn از الگوریتم Classification and Regression Tree برای ترین Decision Tree استفاده میکنه.

True) اما انجام این کار برای ترینینگ ستهای بزرگ مارو با کاهش سرعت روبرو میکنه. روش کار این الگوریتم به این صورت هست که اول ترینینگ ست رو با استفاده از یک فیچر k و یک مرز tk (مثلا طول گلبرگ کوچکتر از 2.45 سانتی متر) به دو زیر مجموعه تقسیم میکنه. معادلهی زیر تابع هزینهی این الگوریتم رو نشون میده. برای مثال شکل زیر رو در نظر بگیرید. برای این کار هایپرپارامتر criterion رو برابر entropy قرار میدیم. در یک گره، value تعداد نمونههای هر کلاس رو که در این گره هستند، نشون میده. در یک گره، sample تعداد نمونههای تمرینی که در اون گره هستند رو نشون میده. الگوریتم CART بهجای اینکه بیاد ترینینگ ست رو طوری تقسیم کنه که ناخالصی رو کاهش بده، تلاش میکنه که ترینینگ ست رو طوری تقسیم کنه که MSE کاهش پیدا کنه. وقتی الگوریتم CART با موفقیت ترینینگ ست رو به دو قسمت تبدیل کرد، با همین منطق دوباره این زیرمجموعهها رو تقسیم میکنه و بههمین صورت بازگشتی ادامه پیدا میکنه. مخالفان این دیدگاه معتقدند کیفیت هوش را نمیتوان به نمرهها و پیشرفت تحصیلی محدود کرد، زیرا موفقیت در مشاغل و نوع کاری که فرد قادر به انجام آن است و به گونه کلی پیشرفت در بیشتر موقعیتهای زندگی بستگی به میزان هوش دارد.

بنابه اعتقاد نظریه پردازان تحلیلی ، هوش توانایی استفاده از پدیدههای رمزی و یا قدرت و رفتار موثر و یا سازگاری با موقعیتهای جدید و تازه و یا تشخیص حالات و کیفیات محیط است. این الگوریتمها قدرت زیادی دارند و میتونند در دیتاستهای پیچیده استفاده بشن. شاید بهترین تعریف تحلیلی هوش به وسیله « دیوید وکسلر » ، روان شناس امریکایی ، پیشنهاد شده باشد که بیان میکند: هوش یعنی تفکر عاقلانه ، عمل منطقی و رفتار موثر در محیط. بدون Regularization (یعنی استفاده از هایپرپارامترهای دیفالت) حدسهامون شکل سمت چپ میشه. 10 به مدل بهتری میرسیم یعنی شکل سمت راست. 3 باشه، شکل سمت راست نسیبتون میشه. در شکل سمت چپ درخت تصمیم به راحتی این کار رو انجام داده اما در شکل سمت راست که دادهها رو 45درجه چرخوندیم، مرز تصمیمگیری بیجهت پیچیده میشه. هایپرپارامترهای Regularization بستگی به الگوریتم دارن اما عموماً میتونید حداکثر عمق الگوریتم رو تعیین کنید. به اعتقاد روانشناسان تربیتی ، هوش کیفیتی است که مسبب موفقیت تحصیلی میشود و از این رو یک نوع استعداد تحصیلی به شمار میرود.

این الگوریتم بررسی نمیکنه که آیا این تقسیم در مراحل پایین تر منجر به ناخالصی کمتر میشه یا نه. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟ مفهوم آنتروپی از ترمودینامیک گرفته شده و معیاری برای بینظمی مولکولهاست: اگر مولکولها ساکن باشند و بهخوبی نظم داشته باشند، آنتروپی نزدیک صفر خواهد بود. در ماشین لرنینگ، آنتروپی معیاری برای محاسبهی ناخالصیه: وقتی یک مجموعه فقط شامل نمونههای یک کلاس باشه، آنتروپی اون مجموعه برابر صفر هست. در اینجا اگر تمام پیغامها یکسان باشند، آنتروپی برابر صفر هست. اصلیترین تفاوت در این هست که بهجای اینکه در هر ریشه یک کلاس حدس بزنه، یک مقدار حدس میزنه. برای فهمیدن درختهای تصمیم، بیاید اول یکی بسازیم و ببینیم که چجوری حدس میزنه. مساله هوش به عنوان یک ویژگی اساسی که تفاوت فردی را بین انسانها موجب میشود، از دیرباز مورد توجه بوده است. زمینه توجه به عامل هوش را در علوم مختلف میتوان مشاهده کرد. برای مثال زیست شناسان ، هوش را به عنوان عامل سازش و بقا مورد توجه قرار دادهاند. فلاسفه بر اندیشههای مجرد به عنوان معنای هوش و متخصصان تعلیم و تربیت ، بر توانایی یادگیری تاکید داشتهاند.

بااینحال، هیچیک از چیزهایی که گفتیم به معنای کمارزش بودن فناوری Ai ضعیف نیست. حال اگر AI امکانی فراهم آورد که بتواند به این افراد، که تعدادشان کم هم نیست، کمک کند چه اتفاقی خواهد افتاد؟ این هم از الگوریتم Decision Tree. در مطالب بعدی به این الگوریتم میپردازیم. به بیان دیگر، به لطف این فناوریها میتوان در آینده نهچندان دور شاهد رباتهای سخنگو و یا وبسایتهایی باشیم که با استفاده از گفتار، کاربران را راهنمایی میکنند. شباهت این دو بخش آنجایی است که هر دو از الگوریتمها استفاده میکنند تا ماشینهایی با کارکردهای ویژه طراحی کنند که نیازی به دخالت عامل انسانی نداشته باشند. واقعیت اینه که بیشتر اوقات تفاوت خاصی بینشون نیست و مارو به یک درخت یکسان میرسونن. اما در مقابل، درخت های تصمیم قوانین طبقه بندی ساده و خوبی دارند که حتی به صورت دستی هم میشه اونها رو پیاده سازی کرد. اگرچه، محدودیتهایی هم دارند. بهصورت دیفالت، از ناخالصی جینی استفاده میشه اما میتونید از معیار ناخالصی آنتروپی هم استفاده کنید.

مشخص میشه) یا وقتی که دیگه نتونه تقسیمی رو پیدا کنه که ناخالصی رو کاهش میده. 0.111 رو حدس میزنیم. حالا ببینیم درختی که در تصویر بالا مشخص شده، چطور حدس میزنه. به ماشینهای اشاره دارد که از سطح هوش انسانی گذشتهاند و دیگر محدودیتهای هوش انسانی را ندارند. نمونههای کامل از این ماشینها را میتوان در فیلمها و رمانهای علمی-تخیلی دید؛ آنجا که رباتها بیهیچ نیازی به انسان کارهای خود را انجام میدهند. 0) اگر تمام نمونههای ترینینگ متعلق به یک کلاس باشند. ادامهی راه این فناوریها به خود ما انسانها بازمیگردد. یا حتی مبلی که این شخص روش نشسته؟ البته در سال 1838 « اسکیرول » به منظور تهیه ضوابطی برای تشخیص و طبقه بندی افراد عقب مانده ذهنی ، روشهای مختلفی را آزمود و به این نتیجه رسید که مهارت کلامی فرد بهترین توانش ذهنی اوست. در مقالهای معتبر که در سال 1904 منتشر شد، « چارلز اسپیرمن » ، روان شناس بریتانیایی ، نخستین کوشش برای تحقیق در ساختمان هوش را با روشهای تجربی و کمی تشریح کرد. در توسعهی استفاده از AI و مسائل مرتبط با آن، مسئلهی مهم ایجاد زیستبومی است که در آن شرکتهای بهوجود بیایند و منافع آیندهشان را در این حوزه درک کنند.

مانند بینایی ماشین، شرکتهای فعال در حوزه پردازش گفتار در ایران نیز در حال پا گرفتن هستند و هر روز بر تعدادشان افزوده میشود. جالب آن که بعدها نیز مهارت کلامی از عوامل اساسی توانش ذهنی شناخته شد و امروز نیز محتوای اکثر تستهای هوش را مواد کلامی تشکیل میدهد. در تعاریف کاربردی ، هوش پدیدهای است که از طریق تستهای هوش سنجیده میشود و شاید عملیترین تعریف برای هوش نیز همین باشد. بطور کلی تعاریف متعددی را که توسط روان شناسان برای هوش ارائه شده است، میتوان به سه گروه تربیتی (تحصیلی) ، تحلیلی و کاربردی تفسیم کرد. به همچین مدلی میگن nonparamteric model (مدل غیر پارامتری). در طرف مقابل، paramteric model (مدل پارامتری)، مثل مدل خطی، تعدادی پارامتر از پیش تعیین شده داره، در نتیجه درجهی آزادی اون محدود شده. فرض کنید یک گل زنبق دارید و میخواید اون رو طبقهبندی کنید. حالا چطور k و tk رو انتخاب میکنه؟ خب حالا باید از ناخالصی جینی استفاده کنیم یا آنتروپی؟