اخبار

نقش فیزیک در بیداری مغز ماشین‌ ها

به گزارش رکنا، هوش مصنوعی نوین، میراثی استثنایی از دنیای فیزیک و شیشه‌های اسپینی نقطه عطف این مسیر شگفت‌انگیز بوده‌ است.

در دهه ۱۹۸۰، زمانی که هنوز طرح‌های روشن برای ساخت ماشین‌های یادگیرنده وجود نداشت، یک فیزیکدان حالت‌جمَد به نام جان هاپفیلد توانست از رفتار عجیب موادی به نام شیشه‌های اسپینی الهام بگیرد و مدلی از شبکه‌های عصبی ارائه کند که قابلیت ذخیره و بازیابی اطلاعات را داشتند. این روش منحصر به فرد نیازی به جستجو در حافظه یا پایگاه داده نداشت.

هرچند شیشه‌های اسپینی در ظاهر بی‌فایده جلوه می‌کنند، نظریه‌های فیزیکی که برای توضیح رفتار آن‌ها شکل گرفته، زیرساخت‌های اساسی شبکه‌های عصبی هوشمند امروزی را مهیا کرد. شبکه‌هایی که بعدها باعث تولد انقلاب یادگیری عمیق و مدل‌های زبانی پیشرفته‌ای نظیر ChatGPT شدند.

در سال ۲۰۲۴، جان هاپفیلد همراه با جفری هینتون، یکی از پیشگامان برجسته هوش مصنوعی، جایزه نوبل فیزیک را دریافت کردند. این دستاورد علمی برای برخی بیشتر دستاوردی در حوزه هوش مصنوعی تلقی شد، اما دانش فیزیکی این فناوری همچنان در قلب آن جای دارد.

جرقه‌ای از دل یک مسئله واقعی

جان هاپفیلد که ابتدا در حوزه فیزیک نیمه‌هادی‌ها فعالیت می‌کرد، به دنبال مسئله‌ای بود که بتواند معنای تازه‌ای به پژوهش‌هایش ببخشد. سرانجام در دهه ۱۹۶۰ به علوم اعصاب و پرسشی مهم کشیده شد که ذهن چگونه از مغز پدید می‌آید؟

او دریافت که مفهوم حافظه تداعی‌گر، یعنی یادآوری اطلاعات از طریق نشانه‌ها و تداعی‌ها، می‌تواند با ابزارهای فیزیک آماری مدل‌سازی شود. برخلاف حافظه دیجیتال رایانه‌ها که بر اساس آدرس‌دهی دقیق عمل می‌کند، حافظه انسانی با نشانه‌هایی جزئی فعال می‌شود. هاپفیلد به دنبال راهی برای بازسازی این ویژگی بود.

شیشه‌های اسپینی: بی‌نظم، ولی هوشمند

در دهه ۱۹۵۰، شیشه‌های اسپینی به خاطر ویژگی‌های مغناطیسی نامتعارف‌شان مورد توجه قرار گرفتند. این مواد برخلاف آهنرباهای معمول، حتی در دماهای پایین همچنان خاصیت مغناطیسی گذرا دارند و انرژی آن‌ها در وضعیت‌های مختلف می‌تواند گیر کند.

این مفهوم که به چشم‌انداز انرژی معروف است، امکان ساخت مدلی آماری برای توصیف سیستم‌های پیچیده را فراهم کرد. هاپفیلد نیز با بهره‌گیری از این ایده توانست مدل حافظه‌ای شکل دهد که در آن مسیرهای انرژی نماینده الگوها یا خاطرات بودند و شبکه عصبی به صورت طبیعی به سمت آن‌ها حرکت می‌کرد.

از مغناطیس تا ماشین‌های مولد

هاپفیلد با طراحی شبکه‌ای از نورون‌های مصنوعی، موفق شد حافظه تداعی‌گر را در سیستم‌های مصنوعی پیاده‌سازی کند. این شبکه‌ها قادر بودند الگوهایی ناقص را دریافت کرده و آن‌ها را تکمیل کنند؛ پدیده‌ای مشابه انسان که مثلاً با شنیدن بخش ابتدایی یک ترانه ادامه آن را به یاد می‌آورد.

جفری هینتون بعدها این ایده‌ها را گسترش داده و مدل بولتزمان را ارائه کرد که پایه‌گذار شبکه‌های یادگیرنده شد و بعدها به یادگیری عمیق منجر گردید. این شبکه‌ها توانستند تحولی عظیم در صنعت فناوری ایجاد کنند.

بازگشت دوباره مدل‌ها

در سال‌های اخیر، مشخص شده است که معماری شبکه‌هایی مثل GPT به نوعی به مدل‌های هاپفیلد بازمی‌گردد. این یافته‌ها منجر به بهبود معماری‌هایی نظیر ترنسفورمر انرژی شده‌اند که بر اساس طراحی آگاهانه چشم‌انداز انرژی عمل می‌کند.

برنامه‌های تولیدی همچون Midjourney نیز از اصول مشابهی استفاده می‌کنند، به طوری که با اعمال نویز به تصاویر توانایی خلق خاطرات جعلی را به دست آورده‌اند. پژوهش‌ها نشان داده‌اند این مدل‌ها حتی با داده‌های گسترده‌تر و پیچیده‌تر نیز عملکرد بالا خود را حفظ می‌کنند.

از فیزیک تا درک ماشین‌ها

پدیده‌های برآمده یا Emergent که در شبکه‌های یادگیری عمیق مشاهده می‌شوند، همچنان یکی از اسرار علمی هستند. این رفتارها حاصل تعاملات گسترده و پیچیده ذرات ساده‌اند و فیزیک آماری توانسته تصویری پایه‌ای از آن‌ها ارائه دهد.

با پیشرفت روزافزون، شاید در آینده همان‌طور که فیزیک پاسخ‌هایی برای حافظه مصنوعی ارائه داد، توانایی کشف رازهایی دیگر مانند خلاقیت و ادراک ماشین‌ها را نیز داشته باشد.

تیم تحریریه ایگرام

تیم تحریریه ایگرام با تجربه سال‌ها فعالیت حرفه‌ای در حوزه‌هایی مانند اقتصاد دیجیتال، فناوری، کسب‌وکار، گردشگری و هنر، محتوایی دقیق، به‌روز و قابل اعتماد تولید می‌کند. ما با همکاری کارشناسان سئو و رعایت اصول روزنامه‌نگاری مدرن، هزاران مقاله علمی و خبری منتشر کرده‌ایم تا نیازهای اطلاعاتی مخاطبان را به بهترین شکل پاسخ دهیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا