نقش فیزیک در بیداری مغز ماشین ها

به گزارش رکنا، هوش مصنوعی نوین، میراثی استثنایی از دنیای فیزیک و شیشههای اسپینی نقطه عطف این مسیر شگفتانگیز بوده است.
در دهه ۱۹۸۰، زمانی که هنوز طرحهای روشن برای ساخت ماشینهای یادگیرنده وجود نداشت، یک فیزیکدان حالتجمَد به نام جان هاپفیلد توانست از رفتار عجیب موادی به نام شیشههای اسپینی الهام بگیرد و مدلی از شبکههای عصبی ارائه کند که قابلیت ذخیره و بازیابی اطلاعات را داشتند. این روش منحصر به فرد نیازی به جستجو در حافظه یا پایگاه داده نداشت.
هرچند شیشههای اسپینی در ظاهر بیفایده جلوه میکنند، نظریههای فیزیکی که برای توضیح رفتار آنها شکل گرفته، زیرساختهای اساسی شبکههای عصبی هوشمند امروزی را مهیا کرد. شبکههایی که بعدها باعث تولد انقلاب یادگیری عمیق و مدلهای زبانی پیشرفتهای نظیر ChatGPT شدند.
در سال ۲۰۲۴، جان هاپفیلد همراه با جفری هینتون، یکی از پیشگامان برجسته هوش مصنوعی، جایزه نوبل فیزیک را دریافت کردند. این دستاورد علمی برای برخی بیشتر دستاوردی در حوزه هوش مصنوعی تلقی شد، اما دانش فیزیکی این فناوری همچنان در قلب آن جای دارد.
جرقهای از دل یک مسئله واقعی
جان هاپفیلد که ابتدا در حوزه فیزیک نیمههادیها فعالیت میکرد، به دنبال مسئلهای بود که بتواند معنای تازهای به پژوهشهایش ببخشد. سرانجام در دهه ۱۹۶۰ به علوم اعصاب و پرسشی مهم کشیده شد که ذهن چگونه از مغز پدید میآید؟
او دریافت که مفهوم حافظه تداعیگر، یعنی یادآوری اطلاعات از طریق نشانهها و تداعیها، میتواند با ابزارهای فیزیک آماری مدلسازی شود. برخلاف حافظه دیجیتال رایانهها که بر اساس آدرسدهی دقیق عمل میکند، حافظه انسانی با نشانههایی جزئی فعال میشود. هاپفیلد به دنبال راهی برای بازسازی این ویژگی بود.
شیشههای اسپینی: بینظم، ولی هوشمند
در دهه ۱۹۵۰، شیشههای اسپینی به خاطر ویژگیهای مغناطیسی نامتعارفشان مورد توجه قرار گرفتند. این مواد برخلاف آهنرباهای معمول، حتی در دماهای پایین همچنان خاصیت مغناطیسی گذرا دارند و انرژی آنها در وضعیتهای مختلف میتواند گیر کند.
این مفهوم که به چشمانداز انرژی معروف است، امکان ساخت مدلی آماری برای توصیف سیستمهای پیچیده را فراهم کرد. هاپفیلد نیز با بهرهگیری از این ایده توانست مدل حافظهای شکل دهد که در آن مسیرهای انرژی نماینده الگوها یا خاطرات بودند و شبکه عصبی به صورت طبیعی به سمت آنها حرکت میکرد.
از مغناطیس تا ماشینهای مولد
هاپفیلد با طراحی شبکهای از نورونهای مصنوعی، موفق شد حافظه تداعیگر را در سیستمهای مصنوعی پیادهسازی کند. این شبکهها قادر بودند الگوهایی ناقص را دریافت کرده و آنها را تکمیل کنند؛ پدیدهای مشابه انسان که مثلاً با شنیدن بخش ابتدایی یک ترانه ادامه آن را به یاد میآورد.
جفری هینتون بعدها این ایدهها را گسترش داده و مدل بولتزمان را ارائه کرد که پایهگذار شبکههای یادگیرنده شد و بعدها به یادگیری عمیق منجر گردید. این شبکهها توانستند تحولی عظیم در صنعت فناوری ایجاد کنند.
بازگشت دوباره مدلها
در سالهای اخیر، مشخص شده است که معماری شبکههایی مثل GPT به نوعی به مدلهای هاپفیلد بازمیگردد. این یافتهها منجر به بهبود معماریهایی نظیر ترنسفورمر انرژی شدهاند که بر اساس طراحی آگاهانه چشمانداز انرژی عمل میکند.
برنامههای تولیدی همچون Midjourney نیز از اصول مشابهی استفاده میکنند، به طوری که با اعمال نویز به تصاویر توانایی خلق خاطرات جعلی را به دست آوردهاند. پژوهشها نشان دادهاند این مدلها حتی با دادههای گستردهتر و پیچیدهتر نیز عملکرد بالا خود را حفظ میکنند.
از فیزیک تا درک ماشینها
پدیدههای برآمده یا Emergent که در شبکههای یادگیری عمیق مشاهده میشوند، همچنان یکی از اسرار علمی هستند. این رفتارها حاصل تعاملات گسترده و پیچیده ذرات سادهاند و فیزیک آماری توانسته تصویری پایهای از آنها ارائه دهد.
با پیشرفت روزافزون، شاید در آینده همانطور که فیزیک پاسخهایی برای حافظه مصنوعی ارائه داد، توانایی کشف رازهایی دیگر مانند خلاقیت و ادراک ماشینها را نیز داشته باشد.