اخبار هوش مصنوعی جهانیگزارش رویدادهامقالات علمی-تحلیلی

نوبل هوش مصنوعی یا نوبل فیزیک؟

برندگان امسال جایزه نوبل فیزیک از ابزارهای فیزیک برای ایجاد روش‌هایی استفاده کردند که پایه و اساس یادگیری ماشینی قدرتمند امروزی را فراهم کرد. جان هاپفیلد ساختاری ایجاد کرد که قادر به ذخیره و بازسازی اطلاعات است. جفری هینتون روشی اختراع کرد که می‌تواند به‌صورت مستقل ویژگی‌های داده‌ها را کشف کند؛ روشی که اکنون برای شبکه‌های عصبی مصنوعی بزرگ مورد استفاده قرار می‌گیرد.

آن‌ها از فیزیک برای کشف الگوها در اطلاعات استفاده کردند

بسیاری از مردم تجربه کرده‌اند که کامپیوترها می‌توانند بین زبان‌ها ترجمه کنند، تصاویر را تفسیر کنند و حتی مکالمات منطقی داشته باشند. شاید کمتر شناخته شده باشد که این نوع فناوری مدت‌هاست در پژوهش‌ها، به‌ویژه در مرتب‌سازی و تحلیل حجم عظیمی از داده‌ها، اهمیت زیادی دارد. توسعه یادگیری ماشینی طی پانزده تا بیست سال گذشته با سرعت بالایی پیشرفت کرده است و از ساختاری به نام شبکه عصبی مصنوعی استفاده می‌کند. امروزه، وقتی از هوش مصنوعی صحبت می‌کنیم، اغلب منظورمان این نوع فناوری است.

اگرچه کامپیوترها قادر به فکر کردن نیستند، اما ماشین‌ها اکنون می‌توانند برخی از عملکردهای حافظه و یادگیری را تقلید کنند. برندگان امسال جایزه نوبل فیزیک به تحقق این امر کمک کرده‌اند. آن‌ها با استفاده از مفاهیم و روش‌های بنیادی فیزیک، فناوری‌هایی توسعه داده‌اند که از ساختارهای موجود در شبکه‌ها برای پردازش اطلاعات استفاده می‌کنند.

یادگیری ماشینی با نرم‌افزارهای سنتی تفاوت دارد. نرم‌افزارهای سنتی مانند یک دستورالعمل آشپزی عمل می‌کنند؛ داده‌ها را دریافت کرده، طبق دستور مشخصی آن‌ها را پردازش می‌کنند و سپس نتیجه‌ای مشابه پختن یک کیک با پیروی از دستور تهیه، ارائه می‌دهند. اما در یادگیری ماشینی، کامپیوتر با مثال‌ها یاد می‌گیرد و این امکان را پیدا می‌کند که با مشکلاتی که بسیار پیچیده و مبهم هستند و نمی‌توانند با دستورالعمل‌های گام‌به‌گام حل شوند، مقابله کند. برای مثال، تفسیر یک تصویر برای شناسایی اشیای موجود در آن.

تقلید از مغز

یک شبکه عصبی مصنوعی اطلاعات را با استفاده از کل ساختار شبکه پردازش می‌کند. الهام اولیه از تمایل به درک چگونگی عملکرد مغز ناشی شد. در دهه ۱۹۴۰، محققان شروع به بررسی ریاضیات زیرساختی شبکه نورون‌ها و سیناپس‌های مغز کردند. یکی دیگر از اجزای این پازل از روانشناسی و از فرضیه عصب‌شناس، دونالد هب، درباره نحوه یادگیری به دست آمد. او بیان کرد که وقتی نورون‌ها با هم کار می‌کنند، ارتباطات میان آن‌ها تقویت می‌شود و یادگیری به این صورت رخ می‌دهد.

بعدها، تلاش‌هایی صورت گرفت تا عملکرد شبکه مغزی با ساخت شبکه‌های عصبی مصنوعی به صورت شبیه‌سازی رایانه‌ای بازسازی شود. در این شبکه‌ها، نورون‌های مغز توسط گره‌هایی که مقادیر متفاوتی دارند، شبیه‌سازی می‌شوند و سیناپس‌ها توسط اتصالات بین این گره‌ها که می‌توانند قوی‌تر یا ضعیف‌تر شوند، نمایش داده می‌شوند. فرضیه دونالد هب همچنان به‌عنوان یکی از قوانین پایه برای به‌روزرسانی شبکه‌های مصنوعی از طریق فرآیندی به نام آموزش استفاده می‌شود.

در اواخر دهه ۱۹۶۰، نتایج نظری دلسردکننده‌ای باعث شد بسیاری از محققان به این نتیجه برسند که شبکه‌های عصبی هیچ‌گاه کاربرد واقعی نخواهند داشت. اما در دهه ۱۹۸۰، علاقه به شبکه‌های عصبی مصنوعی دوباره زنده شد، زمانی که چندین ایده مهم، از جمله کار برندگان امسال، تاثیرگذار شد.

حافظه تداعی‌گر

تصور کنید که می‌خواهید یک کلمه نسبتاً نادر را به خاطر بیاورید که به ندرت از آن استفاده می‌کنید؛ مثلاً کلمه‌ای برای کف شیبداری که معمولاً در سینماها و سالن‌های سخنرانی وجود دارد. در ذهن خود جستجو می‌کنید. چیزی شبیه به شیب است… شاید شیر… نه، این هم نه. شوش، بله، همین است!

این فرآیند جستجو میان کلمات مشابه برای پیدا کردن کلمه درست، شبیه به حافظه تداعی‌گری است که فیزیکدان جان هاپفیلد در سال ۱۹۸۲ کشف کرد. شبکه هاپفیلد می‌تواند الگوهایی را ذخیره کند و روشی برای بازسازی آن‌ها داشته باشد. وقتی به این شبکه یک الگوی ناقص یا کمی تحریف‌شده داده می‌شود، این روش می‌تواند الگوی ذخیره‌شده‌ای را که بیشترین شباهت را دارد، پیدا کند.

هاپفیلد پیش از این با استفاده از پیش‌زمینه خود در فیزیک، مسائل نظری در زیست‌شناسی مولکولی را بررسی کرده بود. وقتی به یک نشست درباره علوم اعصاب دعوت شد، با تحقیقاتی درباره ساختار مغز مواجه شد. او مجذوب آنچه آموخته بود شد و شروع به اندیشیدن درباره پویایی شبکه‌های عصبی ساده کرد. وقتی نورون‌ها با هم عمل می‌کنند، می‌توانند ویژگی‌های جدید و قدرتمندی ایجاد کنند که برای کسی که فقط به اجزای جداگانه شبکه نگاه می‌کند، آشکار نیست.

در سال ۱۹۸۰، هاپفیلد از سمت خود در دانشگاه پرینستون که تحقیقاتش او را به خارج از زمینه‌های فیزیک سوق داده بود، کناره‌گیری کرد و به سمت دیگری در آن سوی قاره نقل مکان کرد. او پیشنهاد استادی در رشته شیمی و زیست‌شناسی در مؤسسه فناوری کالیفرنیا (Caltech) در پاسادنا، جنوب کالیفرنیا را پذیرفت. در آنجا، او به منابع رایانه‌ای دسترسی داشت که می‌توانست برای انجام آزمایش‌های آزادانه و توسعه ایده‌های خود درباره شبکه‌های عصبی از آن‌ها استفاده کند.

با این حال، او از پایه‌های فیزیکی خود دست نکشید؛ جایی که الهاماتی برای درک او از چگونگی شکل‌گیری پدیده‌های جدید و جالب توسط سیستم‌هایی با اجزای کوچک و متعدد که با هم کار می‌کنند، یافت. او به ویژه از آموخته‌های خود درباره مواد مغناطیسی بهره برد که به لطف چرخش اتمی (اسپین) ویژگی‌های خاصی دارند – خاصیتی که باعث می‌شود هر اتم مانند یک آهنربای کوچک عمل کند. اسپین‌های اتم‌های همسایه بر یکدیگر تأثیر می‌گذارند و این امکان را فراهم می‌کنند که حوزه‌هایی با اسپین در یک جهت شکل بگیرند. هاپفیلد توانست با استفاده از فیزیکی که توصیف می‌کند چگونه مواد در اثر تأثیر متقابل اسپین‌ها شکل می‌گیرند، شبکه‌ای با گره‌ها و اتصالات مدل‌سازی کند.

شبکه تصاویر را در یک منظره ذخیره می‌کند

شبکه‌ای که هاپفیلد ساخت، شامل گره‌هایی است که همگی از طریق اتصالاتی با قدرت‌های مختلف به هم متصل شده‌اند. هر گره می‌تواند یک مقدار مستقل ذخیره کند – در اولین کار هاپفیلد، این مقدار می‌توانست ۰ یا ۱ باشد، مشابه پیکسل‌ها در یک تصویر سیاه و سفید.

هاپفیلد حالت کلی شبکه را با خاصیتی توصیف کرد که معادل انرژی در سیستم اسپین‌های فیزیکی است؛ این انرژی با استفاده از فرمولی محاسبه می‌شود که تمام مقادیر گره‌ها و تمام قدرت‌های اتصالات بین آن‌ها را در نظر می‌گیرد. شبکه هاپفیلد از طریق ورود یک تصویر به گره‌ها برنامه‌ریزی می‌شود، به‌طوری که هر گره مقدار سیاه (۰) یا سفید (۱) می‌گیرد. سپس اتصالات شبکه با استفاده از فرمول انرژی تنظیم می‌شوند تا تصویری که ذخیره شده است انرژی کمی داشته باشد. وقتی الگوی دیگری به شبکه وارد می‌شود، قوانینی برای بررسی گره‌ها یکی یکی وجود دارد تا مشخص شود آیا با تغییر مقدار آن گره، انرژی شبکه کاهش می‌یابد یا خیر. اگر مشخص شود که با تبدیل یک پیکسل سیاه به سفید، انرژی کاهش می‌یابد، آن پیکسل تغییر رنگ می‌دهد. این فرآیند ادامه پیدا می‌کند تا زمانی که هیچ بهبودی بیشتری قابل دستیابی نباشد. در این نقطه، شبکه معمولاً تصویر اصلی که روی آن آموزش دیده بود را بازتولید می‌کند.

این ممکن است چندان قابل توجه به نظر نرسد اگر تنها یک الگو ذخیره شود. شاید این سوال پیش بیاید که چرا تصویر را به‌طور مستقیم ذخیره نمی‌کنیم و با تصویر دیگری که می‌خواهیم آزمایش کنیم مقایسه نمی‌کنیم؟ اما روش هاپفیلد خاص است زیرا چندین تصویر می‌توانند هم‌زمان ذخیره شوند و شبکه معمولاً قادر است آن‌ها را از یکدیگر تشخیص دهد.

هاپفیلد جستجو در شبکه برای یافتن یک حالت ذخیره‌شده را به حرکت یک توپ در منظره‌ای از قله‌ها و دره‌ها، با اصطکاکی که حرکت را کند می‌کند، تشبیه کرد. اگر توپ در نقطه خاصی رها شود، به سمت نزدیک‌ترین دره می‌غلتد و در آنجا متوقف می‌شود. به همین ترتیب، اگر به شبکه الگویی نزدیک به یکی از الگوهای ذخیره‌شده داده شود، شبکه به حرکت خود ادامه می‌دهد تا در پایین‌ترین نقطه یک دره در منظره انرژی قرار گیرد و به این ترتیب، نزدیک‌ترین الگو را در حافظه خود پیدا کند.

شبکه هاپفیلد می‌تواند داده‌هایی را که شامل نویز است یا به‌طور جزئی پاک شده‌اند، بازسازی کند.

هاپفیلد و دیگران به توسعه جزئیات عملکرد شبکه هاپفیلد ادامه دادند، از جمله گره‌هایی که می‌توانند هر مقداری را ذخیره کنند، نه فقط صفر یا یک. اگر گره‌ها را به‌عنوان پیکسل‌های یک تصویر تصور کنید، آن‌ها می‌توانند رنگ‌های مختلفی داشته باشند، نه فقط سیاه یا سفید. روش‌های بهبود یافته امکان ذخیره تصاویر بیشتر و تفکیک آن‌ها را حتی زمانی که بسیار مشابه باشند، فراهم کرده است. همچنین، امکان شناسایی یا بازسازی هرگونه اطلاعات دیگر، به شرطی که از تعداد زیادی نقاط داده تشکیل شده باشد، وجود دارد.

طبقه‌بندی با استفاده از فیزیک قرن نوزدهم

به خاطر سپردن یک تصویر یک موضوع است، اما تفسیر آنچه که به تصویر کشیده شده نیاز به کمی بیشتر دارد.

حتی کودکان خیلی کم‌سن می‌توانند به حیوانات مختلف اشاره کنند و با اطمینان بگویند که آیا آن حیوان سگ، گربه یا سنجاب است. ممکن است گاهی اشتباه کنند، اما به سرعت یاد می‌گیرند که تقریباً همیشه درست تشخیص دهند. یک کودک بدون دیدن نمودارها یا توضیحات درباره مفاهیمی مانند گونه یا پستاندار، می‌تواند این را بیاموزد. پس از مواجهه با چند نمونه از هر نوع حیوان، دسته‌بندی‌های مختلف در ذهن کودک شکل می‌گیرند. افراد با تجربه محیط اطراف خود یاد می‌گیرند که گربه را تشخیص دهند، یک کلمه را بفهمند، یا وارد اتاق شوند و متوجه شوند چیزی تغییر کرده است.

وقتی هاپفیلد مقاله خود را درباره حافظه تداعی‌گر منتشر کرد، جفری هینتون در دانشگاه کارنگی ملون در پیتسبورگ، ایالات متحده آمریکا کار می‌کرد. او پیش از این روانشناسی تجربی و هوش مصنوعی را در انگلستان و اسکاتلند مطالعه کرده بود و به این فکر می‌کرد که آیا ماشین‌ها می‌توانند الگوها را به‌شیوه‌ای مشابه انسان پردازش کنند و خودشان دسته‌بندی‌هایی برای مرتب‌سازی و تفسیر اطلاعات پیدا کنند. او همراه با همکارش ترنس سجنوفسکی، از شبکه هاپفیلد شروع کرد و با استفاده از ایده‌هایی از فیزیک آماری، آن را گسترش داد تا چیزی جدید بسازد.

فیزیک آماری سیستم‌هایی را توصیف می‌کند که از عناصر مشابه بسیاری، مانند مولکول‌های گاز، تشکیل شده‌اند. پیگیری تمام مولکول‌های گاز به صورت جداگانه دشوار یا غیرممکن است، اما می‌توان آن‌ها را به صورت کلی بررسی کرد تا ویژگی‌های اصلی گاز مانند فشار یا دما را تعیین کرد. روش‌های مختلفی وجود دارد که مولکول‌های گاز می‌توانند در حجم خود با سرعت‌های مختلف پخش شوند و همچنان به همان ویژگی‌های کلی برسند.

حالت‌هایی که اجزای فردی می‌توانند به‌طور مشترک در آن‌ها وجود داشته باشند، با استفاده از فیزیک آماری تحلیل می‌شوند و احتمال وقوع آن‌ها محاسبه می‌شود. برخی از حالت‌ها نسبت به دیگر حالت‌ها محتمل‌تر هستند؛ این به میزان انرژی موجود بستگی دارد که در معادله‌ای توسط فیزیکدان قرن نوزدهم، لودویگ بولتزمن، توصیف شده است. شبکه هینتون از آن معادله استفاده کرد و این روش در سال ۱۹۸۵ با نام برجسته ماشین بولتزمن منتشر شد.

تشخیص نمونه‌های جدید از همان نوع

ماشین بولتزمن معمولاً با دو نوع مختلف از گره‌ها کار می‌کند. اطلاعات به یک گروه وارد می‌شود که گره‌های مرئی نام دارند. گروه دیگر، لایه‌ای پنهان تشکیل می‌دهد. مقادیر و اتصالات گره‌های پنهان نیز به انرژی کل شبکه کمک می‌کند.

ماشین با اعمال یک قاعده برای به‌روزرسانی مقادیر گره‌ها یکی یکی اجرا می‌شود. در نهایت، ماشین وارد حالتی می‌شود که الگوی گره‌ها ممکن است تغییر کند، اما ویژگی‌های کلی شبکه ثابت می‌مانند. هر الگوی ممکن دارای احتمالی خاص است که بر اساس انرژی شبکه طبق معادله بولتزمن تعیین می‌شود. وقتی ماشین متوقف می‌شود، الگوی جدیدی ایجاد کرده است و این باعث می‌شود ماشین بولتزمن به‌عنوان یکی از نخستین مدل‌های مولد شناخته شود.

ماشین بولتزمن می‌تواند یاد بگیرد – نه از طریق دستورالعمل‌ها، بلکه با ارائه مثال‌ها. آموزش این ماشین با به‌روزرسانی مقادیر اتصالات شبکه صورت می‌گیرد به‌گونه‌ای که الگوهای مثالی که در هنگام آموزش به گره‌های مرئی داده شده‌اند، بیشترین احتمال رخ دادن را در زمان اجرای ماشین داشته باشند. اگر یک الگو در طول آموزش چندین بار تکرار شود، احتمال وقوع آن الگو حتی بیشتر می‌شود. آموزش همچنین احتمال تولید الگوهای جدیدی را که شبیه به مثال‌های ارائه‌شده در طول آموزش هستند، تحت تأثیر قرار می‌دهد.

یک ماشین بولتزمن آموزش‌دیده می‌تواند ویژگی‌های آشنا را در اطلاعاتی که قبلاً ندیده است، شناسایی کند. تصور کنید با خواهر یا برادر دوستتان ملاقات کنید و فوراً متوجه شوید که آن‌ها باید با هم نسبت داشته باشند. به‌طور مشابه، ماشین بولتزمن می‌تواند یک نمونه کاملاً جدید را شناسایی کند اگر به دسته‌ای تعلق داشته باشد که در داده‌های آموزشی وجود داشته، و آن را از داده‌هایی که متفاوت هستند، متمایز کند.

در شکل اصلی خود، ماشین بولتزمن نسبتاً ناکارآمد است و زمان زیادی برای یافتن راه‌حل‌ها نیاز دارد. زمانی که این ماشین به روش‌های مختلف توسعه داده می‌شود، موضوع جالب‌تر می‌شود، که هینتون همچنان به بررسی آن‌ها ادامه داده است. نسخه‌های بعدی ماشین بهبود یافته‌اند؛ به‌طوری که برخی از اتصالات بین واحدها حذف شده‌اند. مشخص شده که این امر ممکن است کارایی ماشین را افزایش دهد.

در طول دهه ۱۹۹۰، بسیاری از محققان علاقه خود را به شبکه‌های عصبی مصنوعی از دست دادند، اما هینتون از افرادی بود که همچنان به کار در این حوزه ادامه داد. او همچنین به شروع موج جدیدی از نتایج هیجان‌انگیز کمک کرد. در سال ۲۰۰۶، او و همکارانش سایمون اوسین‌درو، یی وی ته و روسلان سالاخوتدینوف روشی را برای پیش‌آموزش یک شبکه با استفاده از مجموعه‌ای از ماشین‌های بولتزمن در لایه‌های مختلف، یکی روی دیگری، توسعه دادند. این پیش‌آموزش به اتصالات شبکه یک نقطه شروع بهتر داد که آموزش شبکه را برای تشخیص عناصر موجود در تصاویر بهینه‌سازی کرد.

ماشین بولتزمن اغلب به‌عنوان بخشی از یک شبکه بزرگتر استفاده می‌شود. به‌عنوان مثال، می‌توان از آن برای پیشنهاد فیلم یا سریال‌های تلویزیونی بر اساس ترجیحات بیننده استفاده کرد.

یادگیری ماشین – امروز و فردا

به لطف کارهای جان هاپفیلد و جفری هینتون از دهه ۱۹۸۰ به بعد، آن‌ها کمک کردند تا پایه‌گذار انقلاب یادگیری ماشین شوند که از حدود سال ۲۰۱۰ آغاز شد.

پیشرفت‌هایی که اکنون شاهد آن هستیم، با دسترسی به مقادیر عظیمی از داده‌ها که می‌توان برای آموزش شبکه‌ها استفاده کرد و افزایش چشمگیر قدرت محاسباتی ممکن شده است. شبکه‌های عصبی مصنوعی امروزی اغلب بسیار بزرگ هستند و از لایه‌های متعددی ساخته شده‌اند. این شبکه‌ها با نام شبکه‌های عصبی عمیق شناخته می‌شوند و روش آموزش آن‌ها یادگیری عمیق نام دارد.

نگاهی سریع به مقاله هاپفیلد درباره حافظه انجمنی در سال ۱۹۸۲، تصویری از این پیشرفت را ارائه می‌دهد. او در آن مقاله از شبکه‌ای با ۳۰ گره استفاده کرده بود. اگر تمام گره‌ها به یکدیگر متصل باشند، ۴۳۵ اتصال وجود دارد. گره‌ها مقادیر خود را دارند، اتصالات دارای قدرت‌های مختلفی هستند و در مجموع، کمتر از ۵۰۰ پارامتر وجود داشت که باید پیگیری می‌شد. او همچنین شبکه‌ای با ۱۰۰ گره را امتحان کرد، اما این شبکه با توجه به کامپیوتری که او در آن زمان استفاده می‌کرد، بیش از حد پیچیده بود. حالا می‌توان این را با مدل‌های زبانی بزرگ امروزی مقایسه کرد که به صورت شبکه‌هایی ساخته می‌شوند که می‌توانند بیش از یک تریلیون پارامتر (یک میلیون میلیون) داشته باشند.

امروزه بسیاری از محققان در حال توسعه کاربردهای یادگیری ماشین هستند. اینکه کدام یک از این کاربردها بیشترین موفقیت را خواهند داشت هنوز مشخص نیست، در حالی که بحث‌های گسترده‌ای نیز پیرامون مسائل اخلاقی مرتبط با توسعه و استفاده از این فناوری وجود دارد.

از آنجا که فیزیک ابزارهایی برای توسعه یادگیری ماشین ارائه کرده است، جالب است ببینیم چگونه فیزیک به‌عنوان یک حوزه پژوهشی نیز از شبکه‌های عصبی مصنوعی بهره‌مند شده است. یادگیری ماشین مدت‌هاست که در حوزه‌هایی که شاید با جوایز نوبل فیزیک قبلی آشنا هستیم، استفاده می‌شود. این شامل استفاده از یادگیری ماشین برای تحلیل و پردازش مقادیر عظیم داده‌ها برای کشف ذره هیگز است. دیگر کاربردها شامل کاهش نویز در اندازه‌گیری امواج گرانشی از برخورد سیاه‌چاله‌ها یا جستجوی سیارات فراخورشیدی است.

در سال‌های اخیر، این فناوری همچنین برای محاسبه و پیش‌بینی ویژگی‌های مولکول‌ها و مواد به کار گرفته شده است – مانند محاسبه ساختار مولکول‌های پروتئین که عملکرد آن‌ها را تعیین می‌کند، یا بررسی اینکه کدام نسخه‌های جدید از یک ماده می‌توانند بهترین ویژگی‌ها را برای استفاده در سلول‌های خورشیدی کارآمدتر داشته باشند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *