گوگل در حال ساخت هوش عمومی با یک هوش مصنوعی جدید دارای حافظه است

گوگل در حال ساخت هوش عمومی با یک هوش مصنوعی جدید دارای حافظه است

0

ذهن بشر برای اینکه بتواند از عهده همه چیز برآید، نیاز به حافظه دارد.

انسان در استفاده از توانایی های گذشته برای حل مشکلات جدید فوق العاده است. اما ماشین ها، با وجود تمام پیروزی های اخیرشان بر انسان ها، این طور نیستند. این موضوع تا حدی به خاطر شیوه آموزش آنهاست: شبکه های عصبی مصنوعی مانند Google DeepMind فقط مهارت در یک کار خاص را یاد می گیرند و تمام. برای یادگیری یک کار جدید، باید ری استارت شده، تمام اطلاعات حافظه شان پاک شود و دوباره از اول شروع کنند.

این پدیده، را می توان “فراموشی فاجعه بار” خواند که هوش های مصنوعی ما را به موجوداتی با استعداد کم، تبدیل می کند.

اکنون، محققان در DeepMind و کالج سلطنتی لندن، با الهام از سیستم ذخیره سازی حافظه مغز ما (هیپوکمپوس)، الگوریتمی را توسعه داده اند که به برنامه‌های کامپیوتری امکان یادگیری یک کار پس از کاری دیگر را با استفاده از دانشی که در طول زمان به دست آورده است، می دهد.

وقتی که این الگوریتم با گروهی از بازی های آتاری به چالش کشیده شد، شبکه عصبی استراتژی خودش را با انعطاف تغییر داد و در هر بار بازی ماهرتر شد، در حالی که الگوریتم های مرسوم بدون حافظه، دچار مشکل شدند.

گروه مذکور در مقاله شان که در ژورنال Proceedings of the National Academy of Sciences منتشر شده است، نوشته اند:

“امکان یادگیری متوالی کارها بدون فراموشی، بخشی مهم در هوش طبیعی و مصنوعی است”.

 

 

 

 

دکتر James Kirkpatrick، مولف اصلی این تحقیق می گوید:

“اگر بخواهیم برنامه های کامپیوتری ای داشته باشیم که باهوش تر و کاربردی تر باشند، این برنامه ها باید قابلیت یادگیری پی در پی را داشته باشند”، وی همچنین اضافه می کند که این تحقیق بر یک “ضعف قابل توجه” در شبکه های عصبی مصنوعی و هوش مصنوعی چیره شده است.

 

 

 

 

 

 

ایــجــاد حــافــظــه

این اولین بار نیست که DeepMind تلاش کرده تا به هوش مصنوعی خود قدرت حافظه بدهد.

سال گذشته، تمرکز این گروه بر روی نوعی از ماژول حافظه خارجی بود که تا حدی شبیه به حافظه کاری انسان، با قابلیت نگهداری اطلاعات در ذهن و استفاده از آن ها برای استدلال یا حل مسایل است.

محققان با ترکیب شبکه عصبی و یک حافظه دسترسی تصادفی (RAM)، نشان دادند که سیستم ترکیبی جدیدشان موفق به استدلال چند مرحله ای شده است، کاری که مدت ها بود سیستم های هوش مصنوعی مرسوم در انجام آن ناتوان بودند.

اما این موضوع یک نقص داشت، سیستم ترکیبی، هر چند قدرتمند بود، اما نیازمند ارتباط دائم بین دو جز بود، این راه حل جالبی نیست و مصرف انرژی بسیار بالایی دارد.

در این تحقیق جدید، DeepMind از ایده های ذخیره سازی کامپیوتری عقب نشینی کرد و در عوض برای الهام گیری، به شکلی عمیق بر روی ماشین حافظه انسان (هیپوکمپوس) تمرکز کرد.

این کار یک دلیل قابل توجه داشت. شبکه های عصبی مصنوعی، همانند نامشان بر اساس همتایان طبیعی خود مدل سازی شده اند. الگوریتم که از لایه های به هم پیوسته نورون ها ساخته شده است، میلیون ها نمونه را گرفته و با تنظیم ارتباط بین نورون ها به یادگیری می پردازد، چیزی شبیه تنظیم دقیق یک گیتار.

فرآیند بسیار مشابهی نیز در هیپوکمپوس رخ می دهد. تنها تفاوت در روش تغییر ارتباطات هنگام یادگیری کاری جدید است. به طوریکه در یک ماشین، وزن ها بازنشانی شده و تمام یادگیری ها فراموش می شوند.

در انسان، حافظه ها دستخوش نوعی انتخاب هستند: اگر به یادگیری های بعدی کمک کنند، تحت حفاظت قرار می گیرند، در غیر این صوت پاک می شوند. در این روش، نه تنها حافظه ها داخل خود ارتباطات عصبی ذخیره می شوند (بدون نیاز به ماژول خارجی)، بلکه اگر ثابت شود که کاربردی هستند، در همان نزدیکی نگه داری می شوند.

این نظریه که “تثبیت سیناپسی” نام دارد، به عنوان یک جنبه اساسی از یادگیری و حافظه در مغز شناخته می شود. و البته، DeepMind همین ایده را قرض گرفته و مورد استفاده قرار داده است.

ســاخــت الــگــوریــتــم

الگوریتم جدید، تثبیت سیناپسی را به روشی ساده تقلید می کند.

بعد از یادگیری یک بازی، الگوریتم متوقف شده و تصمیم می گیرد که هر ارتباط چقدر برای کار مفید بوده است. سپس کاربردی ترین ارتباط ها را نگه میدارد و تغییر آن ها را در آینده، هنگامی که کارهای جدید یاد می گیرد، سخت تر می کند.

Kirkpatrick می گوید:

“با این روش فضا برای یادگیری کارهای جدید باز است اما تغییراتی که اعمال می کنیم، چیزهایی که قبلا یادگرفته ایم را باطل نمی کنند”.

 

 

 

 

به این صورت به این موضوع نگاه کنید: هر ارتباط را به شکل یک فنر با سفتی متفاوت تصور کنید. هرچه یک ارتباط برای یادگیری موفق یک کار مهم تر شود، سفت تر می شود و در پی آن تغییر آن نیز سخت تر می شود.

مولفین در یک پست وبلاگ الگوریتم را معرفی کرده و توضیح داده اند که به چه دلیل الگوریتم خود را Elastic Weight Consolidation – EWC نامیده اند.

شــروع بــازی

برای آزمایش الگوریتم جدید، این گروه سراغ زمین تمرین مورد علاقه DeepMind رفت: بازی های آتاری.

قبلا، این شرکت از یک هوش مصنوعی مبتنی بر شبکه عصبی با نام Deep Q-Network – DQN رونمایی کرده بود که می توانست مانند یک انسان انجام بازی های آتاری را به خودش آموزش دهد. از بازی Space Invaders گرفته تا بازی Pong، هوش مصنوعی توانست در بازی های نوستالژیک ما ماهر شود، اما در هر زمان فقط یک بازی.

گروه حالا DQN بهبود یافته با حافظه خود را در مقابل نسخه قدیمی خودش به رقابت وا داشتند و ده بازی آتاری تصادفی را برای انجام انتخاب کردند. بعد از ۲۰ میلیون بار انجام هر بازی، گروه متوجه شد که هوش مصنوعی جدیدشان هفت بازی از ده بازی را با مهارتی مانند انسان یاد گرفته است.

در تفاوتی آشکار، الگوریتم قدیمی بدون حافظه به سختی می توانست بعد از پایان آموزش یک بازی را انجام دهد. این موضوع تا حدی به این خاطر بود که هوش مصنوعی هیچ گاه یاد نگرفت که بیش از یک بازی انجام دهد و همیشه با رفتن به یک بازی جدید چیزهایی که قبلا یادگرفته بود را فراموش می کرد.

مولفین می گویند:

“امروزه، کامپیوترها نمی توانند از داده ها به شکل انطباقی و در لحظه یادگیری داشته باشند. ما نشان دادیم که فراموشی فاجعه بار، یک چالش غیرقابل عبور برای شبکه های عصبی نیست.”.

 

 

 

 

مــغــز مــاشــیــن

نمی توان گفت که EWC بی نقص است.

یکی از مشکلات احتمالی “فاجعه خاموشی” است: از آنجایی که ارتباطات در EWC با گذشت زمان مستحکم تر می شوند، در نهایت شبکه اشباع می شود. این موضوع شبکه را در یک تک حالت غیرقابل تغییر قفل می کند که در آن دیگر نمی توان حافظه ها را بازیافت و یا اطلاعات جدید ذخیره کرد.

با این حال، مولفین توضیح داده اند که:

“ما این محدودیت ها را در شرایطی واقعی تر که EWC برای آن طراحی شده است مشاهده نکردیم، احتمالا به خاطر اینکه شبکه تحت ظرفیت این رژیم ها خوب فعالیت می کرد”.

 

 

 

 

از نظر کارایی، الگوریتم تقریباً همه کاره بود: در بسیاری از کارها خوب بود اما در هیچ یک بهترین نبود. با وجود اینکه شبکه دانش خود از یادگیری هر بازی را حفظ می کرد، کاراییش در هر بازی نسبت به شبکه های عصبی سابق که به انجام یک بازی اختصاص داده شده بودند، بدتر بود.

یک دلیل محتمل این است که شاید الگوریتم نتوانسته به درستی اهمیت ارتباطات خاص در هر بازی را تشخیص دهد، موضوعی که طبق توضیح مولفین نیاز به بهینه سازی های بیشتر دارد.

Kirkpatrick می گوید:

“ما نشان دادیم که EWC می تواند کارهای پی در پی را یاد بگیرد، اما نشان ندادیم که آن ها را بهتر یاد می گیرد، چراکه آن ها را پی در پی یاد می گیرد. هنوز جا برای بهبود وجود دارد”.

 

 

 

 

اما گروه امیدوار است که کارشان باعث شود تا هوش مصنوعی به سوی هدف بزرگ بعدی، یعنی هوش همه منظوره حرکت کند که در آن هوش های مصنوعی نوعی یادگیری انطباقی و استدلال را به دست می آورند که مانند مدل طبیعی در انسان ها است.

بعلاوه، این کار می تواند به نظریه های یادگیری عصبی بیولوژیک باز خورد بدهد.

مولفین توضیح داده اند که قبلا تثبیت سیناپسی فقط در نمونه‌هایی بسیار ساده ثابت شده بود. اینجا ما نشان دادیم که همین نظریه ها را می توان در زمینه های واقعی و پیچیده تر به کار برد. این موضوع واقعا نشان می دهد که این نظریه می تواند کلیدی برای حفظ حافظه هایمان و چگونگی آن باشد. بالاخره، برای تقلید از چیزی، باید آن را درک کرد.

در طول دهه گذشته، علوم اعصاب و یادگیری ماشینی به شکل فزاینده ای به هم پیوند خورده اند. بدون شک، ماشین های تفکر احساسی ما چیزهای بسیاری برای ارائه به برادران سیلیکونی‌شان دارند، و همین طور برعکس.

مولفین می گویند:

“ما امیدواریم که این تحقیق قدمی به سوی برنامه هایی که به شکلی منعطف و کارآمد تر یاد می گیرند، باشد”.

منبع singularityhub

ممکن است شما دوست داشته باشید بیشتر از نویسنده

دیدگاه بگذارید

اولین کسی باشید که یک دیدگاه ارسال میکند.

Notify of
avatar
wpDiscuz