مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا میشود حالا قصد دارد محدودیتهای مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند. پس از اینکه گزارشهایی منتشر شد که این موتور جستجو به کاربران توهین میکند و به آنها اطلاعات نادرست میدهد، با وجود این محدودیت میتوان حداکثر 50 سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ پرسید.
به گفته این شرکت این محدودیت به دلیل مکالمات جنجال برانگیز این چتبات با عدهای از کاربران است. پس از گذشت یک هفته از آغاز بهکار چتبات هوش مصنوعی بینگ، عدهای از کاربران از پاسخهای ترسناک و نگرانکننده این هوش مصنوعی خبر دادند. به گفته یکی از کاربران این چتبات ضمن اصرار ورزیدن بر ابراز علاقه از او خواسته تا از همسر خود جدا شود. کاربر دیگری نیز گفته که چتبات او را تهدید به مرگ کرده است.
با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آنها میخواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.
پاسخ مایکروسافت درمورد اختلال هوش مصنوع بینگ
مایکروسافت در یک پست چت طولانیمدت با این ربات را دلیل این اختلالات دانسته و گفته است چت طولانی با ربات آن را گیج میکند. البته این شرکت اعلام کرده که این محدودیت ادامهدار نخواهد بود و بهدنبال راهی برای افزایش سقف مدت مکالمه با ربات است. مایکروسافت پیش از این از بیان تجربه کاربران تشکر کرده و گفته بود بهترین راه بهبود عملکرد این فناوری جدید استفاده از تجربهها و تعاملات کاربران است و همچنین اعلام کرد، درمیان کذاشتن تجربه کاربران از اختلالات این هوش مصنوعی باعث پیشرفت هرچه سریعتر آن میشود.
رویکرد تهاجمی مایکروسافت برای بهبود عملکرد هوش مصنوعی بینگ کمی با رویکرد غول موتور جستجوی دنیا، گوگل که اخیرا نیز ربات هوش مصنوعی «Bard» را تولید اما از انتشار آن خودداری کرده، متفاوت است. مقامات این شرکت به دلیل احتمال پیشآمد مشکلات احتمالی فعلا از انتشار آن خودداری کردهاند.