به گزارش مدیاتی:در شرایطی که شرکتهای بزرگ فناوری میلیاردها دلار صرف توسعه مدلهای عظیم هوش مصنوعی میکنند، حالا یک تحقیق تازه از دانشگاه جانز هاپکینز این رویکرد پرهزینه را بهطور جدی زیر سؤال برده است. نتایج این پژوهش میتواند معادلات قدرت، هزینه و کارایی در صنعت AI را دگرگون کند و نگاه تازهای به آینده مدلهای هوش مصنوعی بدهد.
پژوهش تازه جانز هاپکینز؛ عصر مدلهای میلیارددلاری هوش مصنوعی رو به پایان است
آیا تصور میکنید هوش مصنوعی برای اینکه شبیه انسان فکر کند، حتماً باید ماهها آموزش ببیند و هزاران ترابایت اطلاعات مصرف کند؟ تحقیقات جدید دانشگاه جانز هاپکینز نشان میدهد که پاسخ احتمالاً «خیر» است! دانشمندان به تازگی دریافتهاند که اگر «ساختار» و معماری هوش مصنوعی درست و با الهام از بیولوژی بدن انسان طراحی شود، سیستم میتواند حتی بدون هیچگونه آموزشی، الگوهایی شبیه به مغز انسان تولید کند.
پایان دوران «دادههای عظیم» و هزینههای نجومی
امروزه غولهای فناوری برای ساخت مدلهای هوش مصنوعی، مسیری پرهزینه را طی میکنند: تزریق حجم وحشتناکی از دادهها به سیستم و استفاده از منابع محاسباتی و انرژی که گاهی به اندازه یک شهر کوچک هزینه دارد. اما میک بونر، استادیار علوم شناختی دانشگاه جانز هاپکینز، معتقد است راه هوشمندانهتری وجود دارد. او میگوید:
«انسانها برای یادگیریِ دیدن، نیاز به این حجم از داده ندارند. تکامل، معماری مغز ما را بهینه کرده است. اگر ما هم زیربنای هوش مصنوعی را شبیه مغز بسازیم، میتوانیم از نقطه شروع بسیار جلوتری حرکت کنیم.»
مسابقه بین ۳ معماری مختلف
تیم تحقیقاتی برای اثبات این نظریه، سه نوع ساختار معروف شبکههای عصبی را مورد آزمایش قرار دادند:
ترنسفورمرها (Transformers): که پایه مدلهایی مثل ChatGPT هستند.
شبکههای کاملاً متصل: ساختارهای ساده و قدیمیتر.
شبکههای کانولوشنال (Convolutional): شبکههایی که ساختارشان شباهت زیادی به سیستم بینایی موجودات زنده دارد.
نکته جالب آزمایش اینجا بود: این شبکهها کاملاً «خام» و آموزشندیده بودند. محققان به این سیستمهای خام تصاویری از اشیا و حیوانات نشان دادند و واکنش آنها را با فعالیت مغزی انسان مقایسه کردند.
برنده کیست؟ معماری مهمتر از آموزش
نتایج حیرتانگیز بود. شبکههای کانولوشنال (همانهایی که شبیه سیستم بینایی ما طراحی شدهاند)، حتی بدون آموزش قبلی، الگوهای فعالیتی بسیار شبیه به مغز انسان ایجاد کردند. این در حالی بود که دو مدل دیگر (حتی با اضافه کردن نورونهای بیشتر) نتوانستند چنین عملکردی داشته باشند.
این یافته یک پیام بزرگ دارد: «معماری و نقشه اولیه سیستم، مهمتر از حجم دادههاست.» این تحقیق که در نشریه معتبر Nature Machine Intelligence منتشر شده، نویدبخش آیندهای است که در آن میتوانیم سیستمهای هوش مصنوعی را بسیار سریعتر، ارزانتر و با مصرف انرژی کمتر بسازیم؛ فقط کافیست به جای تمرکز کورکورانه بر دادهها، از طراحی بینظیر مغز خودمان الهام بگیریم.






