استفاده از هوش مصنوعی بینگ محدود می‌شود

0 20
زمان مطالعه: 2 دقیقه

مایکروسافت که اخیراً گفته بود چت طولانی مدت با بینگ جدید باعث بروز خطا می‌شود حالا قصد دارد محدودیت‌های مکالمه جدیدی را برای هوش مصنوعی آن اعمال کند. پس از اینکه گزارش‌هایی منتشر شد که این موتور جستجو به کاربران توهین می‌کند و به آن‌ها اطلاعات نادرست می‌دهد، با وجود این محدودیت می‌توان حداکثر 50 سؤال در روز یا پنج سؤال در هر جلسه از هوش مصنوعی بینگ‌ پرسید.

به گفته این شرکت این محدودیت به دلیل مکالمات جنجال برانگیز این چت‌بات با عده‌ای از کاربران است.  پس از گذشت یک هفته از آغاز به‌کار چت‌بات هوش مصنوعی بینگ، عده‌ای از کاربران از پاسخ‌های ترسناک و نگران‌کننده این هوش مصنوعی خبر دادند. به گفته یکی از کاربران این چت‌بات ضمن اصرار ورزیدن بر ابراز علاقه از او خواسته تا از همسر خود جدا شود. کاربر دیگری نیز گفته که چت‌بات او را تهدید به مرگ کرده است.

با وجود این تغییر جدید، زمانی که کاربران پنج سؤال خود را بپرسند، بینگ از آن‌ها می‌خواهد که یک موضوع جدید را شروع کنند تا از چت طولانی و پشت سر هم جلوگیری شود.

 پاسخ مایکروسافت درمورد اختلال هوش مصنوع بینگ

مایکروسافت در یک پست چت طولانی‌مدت با این ربات را دلیل این اختلالات دانسته و گفته است چت طولانی با ربات آن را گیج می‌کند. البته این شرکت اعلام کرده که این محدودیت ادامه‌دار نخواهد بود و به‌دنبال راهی برای افزایش سقف مدت مکالمه با ربات است. مایکروسافت پیش از این از بیان تجربه کاربران تشکر کرده و گفته بود بهترین راه بهبود عملکرد این فناوری جدید استفاده از تجربه‌ها و تعاملات کاربران است و همچنین اعلام کرد، درمیان کذاشتن تجربه کاربران از اختلالات این هوش مصنوعی باعث پیشرفت هرچه سریع‌تر آن ‌می‌شود.

رویکرد تهاجمی مایکروسافت برای بهبود عملکرد هوش مصنوعی بینگ کمی با رویکرد غول موتور جستجوی دنیا، گوگل که اخیرا نیز ربات هوش مصنوعی «Bard» را تولید اما از انتشار آن خودداری کرده، متفاوت است. مقامات این شرکت به دلیل احتمال پیش‌آمد مشکلات احتمالی فعلا از انتشار آن خودداری کرده‌اند.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.