اسکارلت جوهانسون خواستار اقدام علیه دیپفیک شد.
به گزارش مدیاتی:اسکارلت جوهانسون، ستارهی مشهور هالیوود، پس از انتشار ویدیوی جعلی خود که با استفاده از فناوری دیپفیک ساخته شده بود، خواستار وضع قوانین سختگیرانه برای جلوگیری از سوءاستفاده از هوش مصنوعی شد.
جوهانسون در مصاحبهای با نشریهی People، نگرانی عمیق خود را از ناتوانی دولت آمریکا در تصویب قوانینی که از شهروندان در برابر خطرات فزایندهی هوش مصنوعی محافظت کند، ابراز کرد. او این وضعیت را “وحشتناک” توصیف کرد و خواستار اقدام فوری قانونگذاران آمریکایی در این زمینه شد.
ویدیوی دیپفیک منتشر شده، جوهانسون و تعدادی دیگر از چهرههای مشهور هالیوود از جمله جری ساینفیلد، میلا کونیس، جک بلک، دریک، جیک جیلنهال و آدام سندلر را در حالی نشان میدهد که تیشرتهایی با نام Kanye به تن دارند.
جوهانسون در ادامه تأکید کرد که خطر تولید محتوای نفرتانگیز توسط هوش مصنوعی بسیار جدیتر از اظهارات افراد منفرد است و خواستار محکوم کردن سوءاستفاده از هوش مصنوعی، صرف نظر از محتوای آن شد. او هشدار داد که در غیر این صورت، جامعه کنترل خود را بر واقعیت از دست خواهد داد.
این اولین بار نیست که جوهانسون در مورد سوءاستفاده از هوش مصنوعی موضعگیری میکند. او در سال ۲۰۲۳ از یک شرکت توسعهدهندهی اپلیکیشن هوش مصنوعی به دلیل استفادهی غیرمجاز از نام و تصویرش در تبلیغات شکایت کرد. همچنین، پس از انتشار صدایی شبیه به صدای او در ChatGPT، از OpenAI به شدت انتقاد کرد که در نهایت منجر به حذف آن صدا شد.
با وجود افزایش نگرانیها در مورد سوءاستفاده از هوش مصنوعی، پیشرفت قانونی در این زمینه کند بوده است. در حالی که برخی از قانونگذاران آمریکایی لایحهای را برای مقابله با دیپفیکهای غیراخلاقی ارائه کردهاند، بسیاری از جنبههای هوش مصنوعی هنوز بدون نظارت قانونی هستند.
در همین حال، برخی از اقدامات پیشنهادی برای وضع قوانین هوش مصنوعی با مخالفتهایی روبرو شده است. به عنوان مثال، فرماندار کالیفرنیا، گاوین نیوزوم، در سپتامبر ۲۰۲۴ یکی از مهمترین لوایح ایمنی هوش مصنوعی را وتو کرد. علاوه بر این، دونالد ترامپ، رئیسجمهور سابق آمریکا، دستور اجرایی جو بایدن برای ایجاد دستورالعملهای ایمنی در حوزهی هوش مصنوعی را لغو کرد.
عدم توافق جهانی در مورد نحوهی تنظیم هوش مصنوعی نیز مشهود است. اخیراً، دولتهای آمریکا و بریتانیا از امضای بیانیهی بینالمللی برای استفادهی اخلاقی از هوش مصنوعی خودداری کردند که نشاندهندهی چالشهای موجود در این زمینه است.