خانه > تازه ها > تازه های هوش مصنوعی > هوش مصنوعی گوگل توضیح می دهد : طبقه بندی کننده تصویر چگونه تصمیمات خود را می گیرد
googles-ai-explains-how-image-classifiers-made-their-decisions

هوش مصنوعی گوگل توضیح می دهد : طبقه بندی کننده تصویر چگونه تصمیمات خود را می گیرد

 

غالباً فرض می شود که با افزایش پیچیدگی یک سیستم هوش مصنوعی ، کمتر می توان آن را تفسیر کرد. اما محققان این ایده را با کتابخانه هایی مانند Captum فیس بوک ، که تصمیمات گرفته شده توسط شبکه های عصبی با چارچوب یادگیری عمیق PyTorch ، و همچنین ابزار IBM AI Explainability 360 toolkit و InterpretML مایکروسافت را توضیح می دهد ، شروع کرده اند.

در تلاش برای ارائه شفاف تر نحوه تصمیم گیری هوش مصنوعی ، تیمی که از گوگل و استنفورد استقبال می کنند ، اخیراً یک مدل یادگیری ماشین را مورد بررسی قرار داده اند – توضیح مبتنی بر مفهوم (ACE)- که بطور خودکار مفاهیم تصویری “دارای معنی انسانی” را با اطلاع از پیش بینی های مدل استخراج می کند.

همانطور که محققان در مقاله ای که جزئیات کار خود را توضیح می دهند ، بیشتر به روش های یادگیری ماشین می پردازند و ویژگی های فردی (مانند پیکسل ها ، ابر پیکسل ها ، وکتورهای کلمه ای) را تغییر می دهند تا اهمیت هر یک از آنها را به مدل هدف نزدیک کند. این یک روش ناقص است ، زیرا حتی با کوچکترین تغییر در ورودی نیز آسیب پذیر است.

در مقابل ، ACE با استفاده از یک طبقه بندی کننده ی تعلیم دیده شده و مجموعه ای از تصاویر به عنوان ورودی درون یک کلاس ، قبل از استخراج مفاهیم و بررسی اهمیت هر یک از افراد ، مفاهیم سطح بالاتر را شناسایی می کند. به طور خاص ، ACE تصاویر را با وضوح چندگانه برای گرفتن چندین سطح از بافت دسته بندی می کند تا ، اجسام و اشیاء قبل از گروه بندی بخش های مشابه به عنوان نمونه هایی از همان مفهوم در نظر گرفته شوند و به بازگرداندن مهمترین مفاهیم کمک کنند.

برای آزمایش استحکام ACE ، این تیم از مدل طبقه بندی تصویر Inception-V3 گوگل که در مجموعه داده های معروف ImageNet آموزش داده شده بود استفاده کردند و زیر مجموعه ای از ۱۰۰ کلاس از ۱۰۰۰ کلاس موجود در مجموعه داده ها را برای اعمال ACE انتخاب کردند. آن ها خاطر نشان می کنند که مفاهیم اصلی شان رسیدن به بینش انسانی هست . برای مثال در این سیستم یک آرم اجرای قانون برای شناسایی یک ون پلیس از آسفالت روی زمین مهمتر است . با این حال همیشه اینطور نیست. در یک مثال ساده تر ، مهمترین مفهوم برای پیش بینی تصاویر بسکتبال ، پیراهن بازیکنان مهم تر از خود بسکتبال بود. و یا وقتی که به طبقه بندی چرخ فلک می رسید ، چراغهای سواری از صندلی ها و قطب های آن شتاب بیشتری داشتند.

محققان معتقدند که ACE به هیچ وجه کامل نیست و تلاش می کنند مفاهیم فوق العاده پیچیده یا دشوار را به طور معناداری استخراج کنند. آنها معتقدند که بینش های موجود در رابطه با همبستگی های آموخته شده مدل ، استفاده ایمن تر از یادگیری ماشین را افزایش می دهد.

محققان می گویند:

ما معنی و انسجام را از طریق آزمایش های انسانی تأیید کردیم که آنها در واقع سیگنال های برجسته ای برای پیش بینی دارند. روش ما به طور خودکار ویژگی های ورودی را به مفاهیم سطح بالا گروه بندی می کند. مفاهیم معنی دار به عنوان نمونه های منسجم ظاهر می شوند و برای پیش بینی درست تصاویر موجود در آنها مهم هستند. مفاهیم کشف شده بینش هایی راجع به همبستگی های بالقوه ی عجیب که مدل آموخته است نشان می دهد.

 

همچنین ببینید:

منبع venturebeat
0/5 ( 0 نظر )

درباره‌ی ابوالفضل وطن پرست

همچنین ببینید

tensorflow

گوگل TensorBoard.dev و TensorFlow Enterprise را معرفی می کند!

گوگل کلود TensorFlow Enterprise را به چاپ رساند ، نسخه ای بهینه شده از چارچوب یادگیری ماشین منبع باز TensorFlow برای مشاغل بزرگ

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *