شرکت OpenAI، یکی از پیشروترین شرکتها در زمینه هوش مصنوعی، به تازگی اعتراف کرده که آخرین مدل زبانی بزرگ آنها، خطر سوءاستفاده برای ساخت سلاحهای بیولوژیکی را به طور قابل توجهی افزایش داده است. این اعتراف، نگرانیهای جدی در مورد آینده این فناوری نوظهور و تأثیرات بالقوه مخرب آن بر امنیت جهانی ایجاد کرده است.
مدل جدید OpenAI با نام o1، تواناییهای بینظیری در حل مسائل پیچیده و انجام استدلالهای پیچیده دارد. اما این قابلیتها، در کنار دسترسپذیری گسترده هوش مصنوعی، میتواند به راحتی توسط افراد و گروههای مخرب برای اهداف شوم مورد استفاده قرار گیرد.
کارشناسان هشدار میدهند که این فناوری میتواند به آسانی در دسترس تروریستها و دولتهای متخاصم قرار گیرد و به آنها اجازه دهد تا سلاحهای بیولوژیکی بسیار خطرناکتری را با سرعت و هزینه بسیار کمتر تولید کنند.
این نگرانیها در حالی مطرح میشود که رقابت شدیدی بین شرکتهای بزرگ فناوری برای توسعه مدلهای هوش مصنوعی پیشرفته در جریان است. دولتها و سازمانهای بینالمللی نیز به دنبال تدوین قوانین و مقررات مناسب برای کنترل این فناوری هستند.
در ایالات متحده، لایحهای در کنگره کالیفرنیا مطرح شده است که از شرکتهای تولیدکننده هوش مصنوعی میخواهد اقدامات لازم را برای جلوگیری از سوءاستفاده از محصولات خود برای اهداف مخرب انجام دهند. اما این لایحه با مخالفت برخی از شرکتها از جمله OpenAI مواجه شده است.
این رویدادها نشان میدهند که هوش مصنوعی، با وجود تمام مزایای آن، میتواند تهدید جدی برای بشریت باشد. بنابراین، ضرورت دارد تا جامعه جهانی با همکاری یکدیگر، چارچوبهای قانونی و اخلاقی مناسبی را برای توسعه و استفاده از این فناوری تدوین کند.