چطور می توان یک هوش مصنوعی ساخت؟ نظریه سیستم های یادگیری مکمل می تواند ما را به سوی پاسخ هدایت کند.

0

هر از گاهی تیم تحریریه سایت Singularity Hub، مطالب ارزشمندی را از آرشیو استخراج کرده و تمایل دارد آن‌ها را مجددا با شما به اشتراک بگذارد. این مطالب در زمان انتشارشان محبوبیت زیادی کسب کردند و ما معتقدیم که هنوز هم پرطرفدار هستند. این مقاله یکی از این مقاله های قدیمی است که در اصل در تاریخ ۱۹ ژوئن سال ۲۰۱۶ منتشر شد. امیدواریم از مطالعه آن لذت ببرید.

ذهـن هـای هـوشـمـنـد چـطـور یـاد مـی گـیـرنـد؟

کودک نوپایی را در نظر بگیرید که یک روز معمولی برایش مملو از تجارب مختلف است. ذهن او چطور تشخیص می دهد که اتفاقات عادی کدام ها هستند و چطور شروع به ساخت مدلی از دنیا می کند؟ چطور این کودک وقایع و اتفاقات غیر عادی را تشخیص می دهد و آن ها را با جهان بینی که در ذهنش دارد ترکیب می کند؟ چطور مفاهیم جدید را (اغلب فقط با یک نمونه و مثال ساده) یاد می گیرد؟

این ها نمونه هایی از پرسش هایی هستند که متخصصین علم یادگیری ماشینی در مسیر ایجاد هوش مصنوعی که به کارایی هوش انسانی نزدیک–یا حتی یکسان با آن– باشد، با آن ها مواجه می شوند. بسیاری از موفقیت های اخیر هوش مصنوعی – از جمله پیروزی IBM Watson در مقابل Ken Jennings و AlphaGoی گوگل در برابر Lee Sedol–  ریشه در معماری هایی به صورت شبکه دارند که از پردازش چندلایه موجود در مغز انسان الهام گرفته‌اند.

در یکی از مقالاتی که در Trends in Cognitive Sciences منتشر شد، دانشمندان Google DeepMind و دانشگاه استنفورد بروزترین مطالب در رابطه با نظریه بسیار برجسته و مهمِ روش یادگیری انسان و حیوانات هوشمند را گردآوری کردند.

در یک نگاه کلی نظریه سیستم های یادگیری مکمل (CLS) بیان می کند که مغز به دو سیستم کلی تکیه دارد که به آن امکان یادگیری سریع اطلاعات جدید را می دهد و همزمان سعی به حفظ مدلی ساخت یافته از دنیا می کند که در برابر اختلالات مختلف انعطاف پذیر باشد.

نویسندگان در این مقاله نوشته اند:

“اصول نظریه CLS ارتباط گسترده ای با درک ساختار حافظه در سیستم های بیولوژیکی دارد.”

همچنین نوشته اند که بدون شک اصول این نظریه – که پیش از این نیز در زمینه های جدید یادگیری ماشینی پیاده سازی شده است – ما را به سمت طراحی عامل هایی با هوش مصنوعی هدایت خواهد کرد.

 

هـمـکـاریِ پـویـای دو نـفـره

در سال ۱۹۹۵، تیمی از روانشناسان برجسته به دنبال توضیحی برای یکی از پدیده های حافظه بودند: بیمارانی که ناحیه هیپوکامپوس مغزشان آسیب می‌بیند، دیگر قادر به شکل دهی خاطرات جدید در ذهن نیستند اما دسترسی کاملی به خاطرات و مفاهیم مربوط به گذشته های خیلی دور دارند. این تیم با توجه به این اختلاف چنین استدلال کردند که یادگیری های جدید و دانش قدیمی به احتمال زیاد متکی به دو سیستم یادگیری مجزا هستند. اندکی بعد شواهد مربوط به تجربیات و آزمایشان نشان داد که هیپوکامپوس محل مربوط به یادگیری های جدید است و کورتکس – بیرونی ترین لایه مغز – محل مربوط به خاطرات دور است.

محققین در یکی از مقالات برجسته و تاریخی، این ایده شان را به صورت رسمی در قالب نظریه CLS بیان کردند.

طبق نظریه CLS، کورتکس انبار حافظه‌ در مغز است. این بخش به جای ذخیره سازی تجارب منفرد یا دانش بخش بندی شده، چارچوب خوش فرمی را ایجاد می کند که به تدریج مفاهیم کلی مربوط به جهان در آن تجمیع می شود.

طبق نوشته محققین، این ایده از شواهد مربوط به تحقیقات اولیه در زمینه هوش مصنوعی الهام گرفته شده است.

تجربیات کسب شده از شبکه های عصبی چند لایه، که بین شبکه های عصبی عمیق و قدرتمند امروزی پیشگام است، نشان داد که سیستم های یادگیری مصنوعی از طریق آموزش به تدریج یاد می گیرند که با تنظیم وزن اتصالات (اتصالات کامپیوتری معادل با اتصالات عصبی در مغز)، ساختاری را از داده های آموزشی استخراج کنند.

به بیان ساده، ساختار لایه ای شبکه ها به آن ها امکان بدست آوردن تدریجی تجارب منحصر بفرد (یا مثال ها) و تبدیل آن به مفاهیم سطح بالاتر را می‎دهد.

کورتکس مغز نیز مشابه شبکه های عصبی عمیق، از لایه های مختلفی از سلول های عصبی تشکیل شده است که با کمک چندین لایه ورودی و خروجی با هم در ارتباط هستند. این بخش از مغز به آسانی داده های مختلف را از طریق لایه های ورودی از سایر نواحی مغز دریافت می کند و آن ها را در پایگاه داده (“دانش پیشین“) ذخیره می کند تا در صورت نیاز استخراج‌شان کند.

محققین در ادامه می نویسند:

“طبق این نظریه، چنین شبکه هایی زمینه و زیرساخت قابلیت های شناختی کسب شده در همه عرصه‌های مختلف از جمله ادراک، زبان، بازنمایی دانش معنایی و اعمال ماهرانه هستند.”

شاید جای تعجب نباشد که اغلب اوقات از کورتکس به عنوان پایه و اساس هوش انسانی یاد می شود.

با این حال این سیستم بدون اشکال نیست. یکی از این اشکالات کند بودن آن است. از آنجایی که یک تجربه به عنوان یک “نمونه” منفرد در آمار درنظر گرفته می شود، کورتکس باید سال ها تجربه مختلف را تجمیع کند تا بتواند مدلی دقیق از دنیا بسازد. مشکل بعدی پس از رشد شبکه ایجاد می شود. اطلاعات ذخیره شده در کورتکس نسبتا ثابت و پایدار است. این امر همزمان یک نعمت و یک مشکل است. تصور کنید که نیاز دارید پس از یک حادثه آسیب زای منفرد، تصورتان را در رابطه با چیزی دهید. در این صورت باید بتوانید بدون این که نیاز به برگشتن به همه حوادث مشابه داشته باشید، پایگاه داده مغزتان را بروزرسانی کنید.

اما حتی خود فرایند بروزرسانی می تواند شبکه های موجود را بشدت دچار اختلال کند. انباشتن دانش جدید در یک شبکه چندلایه بدون توجه به اتصالات فعلی آن منجر به تغییرات تحمل ناپذیری در شبکه می شود. عواقب این امر آنقدر مهیب است که دانشمندان این پدیده را “مداخله فاجعه بار” می نامند.

اما خوشبختانه ما انسان ها یک سیستم یادگیری دیگر نیز داریم که مکمل کورتکس است.

هیپوکامپوس برخلاف کورتکس که یادگیری کندی دارد، مربوط به مطالب و خبرهای جدید است. این بخش علاوه بر این که رویدادهای مختلف را رمزنگاری می‎کند (مثل نوشیدن قهوه صبحگاهی) محیط و زمینه‌ای که رویداد در آن اتفاق افتاده را نیز ثبت می کند (مثلاً اینکه هنگام نوشیدن قهوه در تخت تان و مشغول چک کردن ایمیل بوده اید). این امر به شما امکان می دهد که براحتی بین رویدادهای مختلفی که در اوقات متفاوت روی داده اند، تمایز قائل شوید.

علت این که هیپوکامپوس براحتی می تواند خاطرات دقیق را – حتی در مواقعی که بسیار مشابه هستند –رمزنگاری و ترسیم کند، الگوی اتصالات خاصش است. وقتی اطلاعاتی در این ساختار جریان پیدا کند، در مسیرش یک الگوی فعالیت عصبی متفاوت را برای هر تجربه فعال می کند. الگوهای شبکه‌ای مختلف منجر به خاطرات مختلف می شوند.

از یک نظر سیستم یادگیری هیپوکامپوس نقطه مقابل همتای کورتکسی‌اش است: سریع، بسیار خاص و برای هر تجربه منفرد متناسب با همان تجربه است.
با این حال این دو بخش به صورت جدایی ناپذیری به هم مرتبط هستند: تجارب جدیدی که به صورت موقتی در هیپوکامپوس ذخیره می شوند، بتدریج در ساختار دانش کورتکسی ادغام می شوند به نحوی که یادگیری جدید، بخشی از بانک اطلاعات مغز می شود.

اما آیا اتصالات از یک شبکه عصبی به شبه دیگر “پرش” می کنند؟

انـتـقـال سـیـسـتـم بـه سـیـسـتـم

نظریه CLS اصلی هنوز پاسخی به این پرسش ندارد. در این مقاله جدید نویسندگان یافته های آزمایشات اخیر را ترکیب کرده و یکی از روش هایی را که ممکن است سیستم بر اساس آن کار کند، متذکر شده‌اند.

هنوز دانشمندان تمام پاسخ ها را پیدا نکرده اند، اما به نظر می رسد این روند حین استراحت و از جمله خواب روی می دهد. دانشمندان با ثبت فعالیت مغز موش های آزمایشگاهی که روز پیش یک عمل خاص به آن ها آموزش داده شده بود، حین خواب دریافتند که هیپوکامپوس مغز آن ها نوعی فعالیت الکتریکی انجام می دهد. این فعالیت امواجی به نام امواج تیز (SWR) ایجاد می کند که به کورتکس انتشار می یابد.

هنگام بررسی های دقیق مشخص شد که این امواج دقیقا “تکرار” همان الگوی عصبی هستند که حیوان حین یادگیری تولید کرده بود، اما با ضریبی حدود ۲۰ برابر تسریع شده بود. این عمل در واقع شبیه به هدایت رو به جلوی فیلم حین ضبط است. این فرایند، منجر به فشرده سازی اوج های فعالیت عصبی در پنجره های زمانی فشرده‌تری می شود که به نوبه خود باعث افزایش انعطاف بین هیپوکامپوس و کورتکس می شود.

به این ترتیب، تغییرات ایجاد شده در هیپوکامپ می تواند به نوبه خود اتصالات عصبی در کورتکس را دستکاری و تنظیم کند.

SWR بر خلاف مداخله فاجعه بار، راه بسیار بهتری برای ادغام اطلاعات جدید در دیتابیس کورتکسی ایجاد می کند.

عملیات بازپخش نیز به نوبه خود تاثیرات مهمی دارد. همان طور که در ابتدای این مطلب عنوان شد، کورتکس برای شکل دهی مفاهیم مختلف نیاز به داده های آموزشی زیادی دارد. از آنجایی که یک رویداد منفرد حین دوره خواب به دفعات بازپخش می شود، SWR داده های آموزشی لازم را برای کورتکس فراهم می کند. بعلاوه SWR امکان “پرش واقعیت” را نیز می دهد. به عبارتی هیپوکامپوس تمام الگوهای فعالیت اخیر را بازپخش نمی کند بلکه رویدادهای باارزش را انتخاب کرده و آن ها را به صورت انتخابی برای کورتکس بازپخش می کند.

این بدان معناست که به رویدادهای نادر اما معنادار و مهم باید اولویت داد و به آن ها اجازه داد که یادگیری کورتکسی را تغییر شکل دهند.

نویسندگان در این مقاله توضیح داده اند که :

“این ایده ها سیستم های حافظه را به صورتی می بینند که در نهایت منجر به بهینه سازی هدف یک ارگانیسم شود به جای اینکه خیلی ساده ساختار محیط را منعکس کنند.”

آن ها نوشته اند که: این فرایند وزن دهی در غنی سازی خاطرات عامل های بیولوژیک بسیار مهم است، که باید این امر را برای هوش مصنوعی نیز حتما در نظر گرفت.

از هـوش زیـسـتـی تـا هـوش مـصـنـوعـی

تنظیمات این دو سیستم راه حلی طبیعی برای یادگیری کارآمد است.

دکتر جیمز مک روانشناس و استاد دانشگاه استنفورد و مقاله نویس در یک مصاحبه مطبوعاتی می گوید:

“ما با ذخیره سازی اولیه اطلاعات مربوط به تجارب جدید در هیپوکامپوس این اطلاعات را برای استفاده سریع در دسترس قرار می دهیم و بعلاوه آن‎ها را به منظور بازپخش برای کورتکس در دسترس قرار می دهیم تا بتوان با تجارب جاری و اطلاعات ذخیره شده در رابطه با سایر تجاربِ مرتبط، ترکیبشان کرد.”

طبق گفته های Dharshan Kumaran و Demis Hassabis دانشمندان علوم اعصاب DeepMind، که هر دو نویسنده مقاله بودند، CLS نقش بسیار مهمی در پیشرفت های اخیر در زمینه یادگیری ماشینی داشته است.

برای مثال، شبکه های عصبی کانولوشن (CNN)، یکی از انواع شبکه های عمیقی هستند که پس از درک سیستم یادگیری آهسته مغز، مدل شده اند. CNNها نیز مشابه با معادل بیولوژیکشان به تدریج از طریق دسترسیِ تکراری و ترکیبی به حجم زیادی از داده های آموزشی تعلیم می بینند. این سیستم در دستیابی به کارایی بسیار بالا در اعمال چالش برانگیزِ شناسایی اشیاء از جمله ImageNet بسیار موفق بوده است.

سایر جنبه های نظریه CLS، مثل بازپخش هیپوکامپی نیز در سیستم هایی همچون Deep Q-Network متعلق به DeepMind با موفقیت پیاده سازی شده اند. سال گذشته، این کمپانی گزارش داد که سیستم شان قادر به یادگیری و انجام هزاران بازی Atari 2600 در سطحی قابل مقایسه با گیمرهای حرفه ای است.

Kumaran توضیح می دهد:

“این شبکه های عصبی در عمل از یک بافر حافظه شبیه به هیپوکامپوس بهره می گیرد که اپیزودهای اخیر گیم پلی را ذخیره می کند و آن را به روش ترکیبی بازپخش می کند. این امر تا حد زیادی استفاده از تجارب گیم پلی واقعی را میسر می کند و از این که یکی از تجارب محلی بر یادگیری در سیستم غلبه یابد جلوگیری می کند.”

Hassabis نیز با وی موافق است. و می گوید: ما معتقدیم که نظریه CLS بروزرسانی شده، احتمالا به ارائه فریم ورکی برای تحقیقات آینده ادامه خواهد داد، چه برای علوم اعصاب و چه برای تلاش برای هوش مصنوعی عمومی.

منبع singularityHUB

ممکن است شما دوست داشته باشید بیشتر از نویسنده

دیدگاه بگذارید

اولین کسی باشید که یک دیدگاه ارسال میکند.

Notify of
avatar
wpDiscuz