پژوهشگران، مدل‌های پیچیده هوش مصنوعی را با یک‌هفتم مصرف لامپ حبابی اجرا کردند

هوش مصنوعی به انرژی بسیار زیادی نیاز دارد؛ به طوری که شرکت‌های بزرگ به منظور تامین انرژی آن ایده ساخت نیروگاه‌های اتمی کوچک را در دست بررسی دارند. با تب و تاب و رقابتی که بین شرکت‌ها جهت توسعه هوش مصنوعی به وجود آمده است، به نظر می‌رسد قرار است بخش بزرگی از انرژی در این زمینه صرف شود. از این رو دانشمندان موفق شده‌اند با دستکاری برخی از پارامترهای محاسباتی به صورت نرم افزاری، حجم پردازش را در حد قابل توجهی کاهش داده و در نتیجه مصرف انرژی را به حدی باور نکردنی پایین بیاورند که این دستاورد می‌تواند یکی از بزرگ‌ترین چالش‌های توسعه هر چه سریع‌تر هوش مصنوعی یعنی مصرف مقادیر بسیار زیاد انرژی را برطرف کند.

مصرف انرژی زیاد در هوش مصنوعی

محققان دانشگاه کالیفرنیا در پژوهشی انقلابی، روشی یافته‌اند که اجرای مدل‌های زبانی بزرگ (LLM) با میلیاردها پارامتر را با مصرف فقط ۱۳وات ممکن می‌کند! عددی که حدود یک‌هفتم توان مصرفی لامپ‌های حبابی ۱۰۰واتی مرسوم است. مصرف مدل‌های هوش مصنوعی با روش جدید ۵۰ برابر کم‌تر از مصرف انرژی کارت‌های گرافیک قدرتمند دیتاسنترها خواهد بود. در این پروژهش از سخت‌افزار سفارشی FPGA استفاده شد و پژوهشگران بر این نکته تأکید دارند که بخش زیادی از این صرفه‌جویی ازطریق نرم‌افزار متن‌باز و تنظیمات سیستم‌های موجود قابل دستیابی است. راز اصلی این پیشرفت، حذف عملیات ضرب ماتریس (MatMul) از فرایندهای آموزش و استنتاج مدل‌های هوش مصنوعی است.

شاید بپرسید چگونه می‌توان ضرب ماتریس را بدون افت عملکرد و دقت از شبکه‌های عصبی حذف کرد؟ محققان با ترکیب دو روش به این مهم دست یافته‌اند؛ اولین راهکار، تغییر سیستم اعداد به سیستم سه‌حالته (Ternary) با اعداد ۱-، ۰ و ۱ است. این تغییر، محاسبات را به‌جای ضرب اعداد، با جمع‌کردن ساده ممکن می‌کند. در گام بعد شبکه با تبدیل محاسبات مبتنی‌بر زمان به معادله، حافظه‌ی مؤثری به‌دست می‌آورد که با اجرای عملیات ساده‌تر، عملکرد سریع‌تری را ارائه می‌دهد.

محققان از مدل LLaMa متعلق به متا به‌عنوان نمونه‌ی مرجع در سیستم خود استفاده کرده‌اند. این پژوهش از مقاله‌ی مایکروسافت درمورد استفاده از اعداد سه حالته در شبکه‌های عصبی الهام‌گرفته است، با این تفاوت که مایکروسافت تا حذف ضرب ماتریس یا متن‌بازکردن مدل خود پیش نرفت.

درنهایت، پژوهش محققان دانشگاه کالیفرنیا به مسئله‌ی بهینه‌سازی ختم می‌شود. آن‌ها عملیات پرمصرف را با عملیات کم‌مصرف‌تر جایگزین کرده‌اند. اینکه بتوان رویکرد جدید را به‌طور کلی در راهکارهای هوش مصنوعی و مدل‌های زبانی بزرگ به‌کار برد، هنوز مشخص نیست. به‌هر حال اگر روش جدید وارد فاز عملیاتی شود، پتانسیل تغییر چشمگیر چشم‌انداز هوش مصنوعی را دارد.

سال گذشته شاهد عطش سیری‌ناپذیر شرکت‌های پیشرو در حوزه‌ی هوش مصنوعی برای مصرف برق بوده‌ایم. پژوهش محققان دانشگاه کالیفرنیا نشان می‌دهد بخش زیادی از این رقابت صرفاً برای پیشتازی در بازار و با استفاده از روش‌های پردازش ناکارامد انجام شده است. کارشناسان برجسته‌ای مانند مدیرعامل شرکت ARM هشدار داده‌اند که اگر تقاضای برق هوش مصنوعی با همین سرعت افزایش یابد، تا سال ۲۰۳۰ یک‌چهارم برق مصرفی ایالات‌متحده را به خود اختصاص خواهد داد. بدین‌ترتیب کاهش مصرف برق به یک‌پنجم میزان فعلی، پیشرفتی فوق‌العاده محسوب می‌شود.

منبع

0 پاسخ

دیدگاهتان را بنویسید

می خواهید در گفت و گو شرکت کنید؟
خیالتان راحت باشد :)

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *