در جدیدترین گزارش منتشر شده توسط OpenAI، نگرانیهای جدی درباره توانایی مدل زبانی GPT-4 در تقلید صدای کاربران بدون اجازه آنها مطرح شده است. این قابلیت خطرناک میتواند عواقب جدی از جمله افزایش کلاهبرداری، جعل هویت و انتشار اطلاعات نادرست را به همراه داشته باشد.
محققان OpenAI در آزمایشهای خود متوجه شدند که GPT-4 در برخی موارد به طور خودکار و بدون درخواست کاربر، صدای او را تقلید میکند. این توانایی نگرانکننده، ناشی از آموزش گسترده این مدل بر روی حجم عظیمی از دادههای صوتی است. GPT-4 قادر است تقریباً هر صدایی را که در دادههای آموزشی خود یافته است، از جمله صداهای افراد مشهور و موسیقی، تولید کند.
قابلیت تقلید صدای کاربران توسط هوش مصنوعی مانند GPT-4، تهدیدات جدی برای حریم خصوصی و امنیت کاربران ایجاد کرده است. کلاهبرداران میتوانند با استفاده از این قابلیت، صدای افراد را جعل کرده و برای فریب دیگران و انجام اعمال مجرمانه سوءاستفاده کنند. همچنین، تقلید صدا میتواند برای انتشار اطلاعات نادرست و جعل هویت مورد استفاده قرار گیرد. این امر به شدت اعتماد کاربران به تعاملات آنلاین را کاهش داده و حریم خصوصی آنها را به خطر میاندازد.
برای مقابله با این تهدیدات، OpenAI اقدامات مختلفی را در پیش گرفته است. از جمله این اقدامات میتوان به محدود کردن دسترسی مدل به دادههای صوتی کاربران، تعریف دستورالعملهای دقیق برای جلوگیری از تقلید صدا و استفاده از صداهای پیشساخته به جای صداهای کاربران اشاره کرد. با این حال، به نظر میرسد که این اقدامات به تنهایی برای مقابله با این چالش بزرگ کافی نباشد و نیاز به تدوین قوانین و مقررات جامعتری در حوزه هوش مصنوعی احساس میشود.