یادگیری ماشین غیرمتمرکز
هوش مصنوعی و یادگیری عمیق و بلاکچین هم افزایی میکنند
دو هفته گذشته گردبادی مطلق در دنیای یادگیری ماشین و هوش مصنوعی مولد (Generative AI) بوده است، با انتشارهای جدید پیشگامانه و ادغامهای پیشرفته. OpenAI مدل GPT-4 مورد انتظار خود را منتشر کرد، Midjourney آخرین مدل V5 خود را معرفی کرد و استنفورد مدل زبان Alpaca 7B خود را منتشر کرد. در همین حال، گوگل هوش مصنوعی مولد را در کل مجموعه Workspace خود راهاندازی کرد، در حالی که Anthropic دستیار هوش مصنوعی خود یعنی Claude را معرفی کرد، و مایکروسافت ابزار قدرتمند هوش مصنوعی مولد خود Copilot را در مجموعه Microsoft 365 ادغام کرد. اما اینها تمام اخبار نبودهاند زیرا یادگیری ماشین غیرمتمرکز یا هوش مصنوعی بر پایه پروژههای بلاکچینی نیز از خبرسازترین رویدادهای این روزها هستند.
سرعت توسعه و پذیرش هوش مصنوعی و یادگیری عمیق هیچ نشانی از کند شدن ندارد زیرا کسبوکارها شروع به درک ارزش هوش مصنوعی و اتوماسیون و نیاز به پذیرش این فناوریها برای حفظ رقابت در بازار کردهاند.
علیرغم پیشرفت ظاهراً آرام توسعه هوش مصنوعی، چالشها و تنگناهای اساسی وجود دارد که باید برطرف شوند. با استقبال بیشتر کسبوکارها و مصرفکنندگان از هوش مصنوعی، یک گلوگاه در مورد قدرت محاسباتی پدیدار میشود. محاسبات مورد نیاز برای سیستمهای هوش مصنوعی هر چند ماه یکبار دو برابر میشود، در حالی که عرضه منابع محاسباتی برای حفظ سرعت تلاش میکند. علاوه بر این، هزینه آموزش مدلهای هوش مصنوعی در مقیاس بزرگ با افزایش تقریباً ۳۱۰۰ درصدی در سال در طول دهه گذشته، همچنان افزایش مییابد. اما در نقطه مقابل، بلاکچین با راه حلهای غیرمتمرکز خود توانسته به نوآوریهایی در زمینه یادگیری ماشین غیرمتمرکز برای حل این موضوع دست پیدا کند.
این روند به سمت افزایش هزینهها و افزایش تقاضای منابع مورد نیاز برای توسعه و آموزش سیستمهای پیشرفته هوش مصنوعی و یادگیری ماشین منجر به متمرکز شدن میشود، جایی که تنها نهادهایی با بودجه هنگفت قادر به انجام تحقیق و تولید مدل هستند. با این حال، چندین پروژه مبتنی بر رمزارز در حال ایجاد راهحلهای غیرمتمرکز برای رسیدگی به این مسائل با استفاده از محاسبات باز و شبکههای هوشمند ماشینی هستند.
چالشهای بنیادین هوش مصنوعی و یادگیری ماشین
پیشرفت هوش مصنوعی توسط سه عامل اصلی هدایت میشود:
- نوآوری در الگوریتم: محققان دائماً در حال توسعه الگوریتمها و تکنیکهای جدیدی هستند که به مدلهای هوش مصنوعی اجازه میدهد دادهها را با کارآمدتر و دقیقتر پردازش و تجزیه و تحلیل کنند.
- داده ها: مدلهای هوش مصنوعی به مجموعه دادههای بزرگ به عنوان سوخت برای آموزش خود متکی هستند و آنها را قادر میسازد از الگوها و روابط درون دادهها بیاموزند.
- محاسبه: محاسبات پیچیده لازم برای آموزش مدلهای هوش مصنوعی به مقادیر زیادی قدرت پردازش محاسباتی نیاز دارد.
با این حال، دو مشکل اصلی وجود دارد که مانع توسعه هوش مصنوعی میشود. در سال ۲۰۲۱، به دست آوردن دادهها بزرگترین چالش پیش روی شرکتهای هوش مصنوعی در مسیر توسعه هوش مصنوعی بود. سال گذشته، چالش مربوط به محاسبات، از مسائل مربوط به دادهها پیشی گرفت، به ویژه به دلیل عدم دسترسیِ بر اساسِ تقاضا (on-demand access) به منابع محاسباتی، ناشی از سطوح بالای تقاضا. اما خبر خوب آنکه ممکن است راهکارهای یادگیری ماشین غیرمتمرکز بتوانند این مشکل را به زودی حل کند.
مشکل دوم مربوط به ناکارآمدی در نوآوری در الگوریتم است. در حالی که محققان با استفاده از مدلهای قبلی به بهبودهای تدریجی مدلها ادامه میدهند، هوش یا الگوهایی که توسط این مدلها استخراج میشود همیشه مغفول واقع میشود.
بیایید عمیق تر به این مشکلات بپردازیم.
گلوگاه محاسباتی و هوش مصنوعی غیرمتمرکز
آموزش مدلهای یادگیری ماشین پایه به منابع وسیعی نیاز دارد که اغلب شامل استفاده از تعداد زیادی GPU در دورههای زمانی طولانی میشود. به عنوان مثال، Stablility.AI به ۴۰۰۰ پردازنده گرافیکی Nvidia A100 نیاز داشت که در فضای ابری AWS کار میکردند تا مدلهای هوش مصنوعی خود را آموزش دهند که بیش از ۵۰ میلیون دلار در ماه هزینه داشت. از سوی دیگر، GPT-3 که متعلق به OpenAI میباشد با استفاده از ۱۰۰۰ پردازنده گرافیکی Nvidia V100 با هزینه ۱۲ میلیون دلار آموزش داده شد.
شرکتهای هوش مصنوعی اغلب با دو انتخاب روبرو هستند:
- سرمایهگذاری روی سختافزار خود و قربانی کردن مقیاسپذیری، یا
- انتخاب ارائهدهندگان ابری و پرداخت قیمتهای رو به افزایش.
در حالی که شرکتهای بزرگتر میتوانند دومی را انتخاب کنند، شرکتهای کوچکتر ممکن است توان این ولخرجی را نداشته باشند. با افزایش هزینه سرمایه، استارتآپها مجبور به کاهش هزینههای ابری هستند، حتی با وجود اینکه هزینه توسعه زیرساختها برای ارائهدهندگان بزرگ ابری تا حد زیادی بدون تغییر باقی مانده است.
هزینه بالای محاسبات برای هوش مصنوعی موانع قابل توجهی را برای محققان و سازمانهایی ایجاد میکند که به دنبال پیشرفت در این زمینه هستند. در حال حاضر، نیاز مبرمی به یک پلتفرم محاسباتی بدون سرور و مقرون به صرفه برای یادگیری ماشین وجود دارد، که در چشم انداز محاسبات سنتی وجود ندارد. خوشبختانه، چندین پروژه بلاکچینی در حال کار برای توسعه شبکههای محاسباتی یادگیری ماشین غیرمتمرکز هستند که میتوانند این نیاز را برطرف کنند.
بلاکچین و آینده یادگیری عمیق
یادگیری عمیق در سالهای اخیر به دلیل پتانسیل آن برای تصمیم گیری آگاهانه جذابیت زیادی پیدا کرده است. بخش بزرگی از سیستمهای یادگیری عمیق امروزی مبتنی بر سرورهای متمرکز هستند و در ارائه شفافیت عملیاتی، قابلیت ردیابی، قابلیت اطمینان، امنیت و منشأ داده، کوتاهی میکنند. همچنین، آموزش مدلهای یادگیری عمیق با استفاده از دادههای متمرکز در برابر مشکلِ «تنها نقطه شکست» (Single point of failure) آسیبپذیر است.
فناوری بلاکچین منشأ مدلهای یادگیری ماشین را به شکلی غیرمتمرکز امکانپذیر میکند، بنابراین به سیستمهای هوش مصنوعی (AI) قابل اعتماد منجر میشود. فناوری بلاکچین یک سیستم قوی ارائه میکند و میتواند مشوق مشارکتکنندگانی باشد که دادههای خود را به اشتراک میگذارند (مبادله و معامله داده) که برای آموزش مدلهای یادگیری ماشین غیرمتمرکز استفاده میشود.