شرکت OpenAI، یکی از پیشروترین شرکت‌ها در زمینه هوش مصنوعی، به تازگی اعتراف کرده که آخرین مدل زبانی بزرگ آن‌ها، خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی را به طور قابل توجهی افزایش داده است. این اعتراف، نگرانی‌های جدی در مورد آینده این فناوری نوظهور و تأثیرات بالقوه مخرب آن بر امنیت جهانی ایجاد کرده است.

مدل جدید OpenAI با نام o1، توانایی‌های بی‌نظیری در حل مسائل پیچیده و انجام استدلال‌های پیچیده دارد. اما این قابلیت‌ها، در کنار دسترس‌پذیری گسترده هوش مصنوعی، می‌تواند به راحتی توسط افراد و گروه‌های مخرب برای اهداف شوم مورد استفاده قرار گیرد.
کارشناسان هشدار می‌دهند که این فناوری می‌تواند به آسانی در دسترس تروریست‌ها و دولت‌های متخاصم قرار گیرد و به آن‌ها اجازه دهد تا سلاح‌های بیولوژیکی بسیار خطرناک‌تری را با سرعت و هزینه بسیار کمتر تولید کنند.

این نگرانی‌ها در حالی مطرح می‌شود که رقابت شدیدی بین شرکت‌های بزرگ فناوری برای توسعه مدل‌های هوش مصنوعی پیشرفته در جریان است. دولت‌ها و سازمان‌های بین‌المللی نیز به دنبال تدوین قوانین و مقررات مناسب برای کنترل این فناوری هستند.

در ایالات متحده، لایحه‌ای در کنگره کالیفرنیا مطرح شده است که از شرکت‌های تولیدکننده هوش مصنوعی می‌خواهد اقدامات لازم را برای جلوگیری از سوءاستفاده از محصولات خود برای اهداف مخرب انجام دهند. اما این لایحه با مخالفت برخی از شرکت‌ها از جمله OpenAI مواجه شده است.
این رویدادها نشان می‌دهند که هوش مصنوعی، با وجود تمام مزایای آن، می‌تواند تهدید جدی برای بشریت باشد. بنابراین، ضرورت دارد تا جامعه جهانی با همکاری یکدیگر، چارچوب‌های قانونی و اخلاقی مناسبی را برای توسعه و استفاده از این فناوری تدوین کند.

دیدگاهتان را بنویسید