به همین منظور، غول‌های فناوری از جمله گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل گرد هم آمده‌اند تا ائتلافی برای هوش مصنوعی امن (CoSAI) را تشکیل دهند. هدف این ائتلاف، بررسی چشم‌انداز امنیت هوش مصنوعی با ارائه روش‌ها، چارچوب‌ها و ابزارهای منبع باز است.

این ائتلاف به عنوان یک ابتکار منبع باز عمل می‌کند و در تلاش است تا راهنمایی و ابزارهای لازم را برای ساخت سیستم‌های هوش مصنوعی امن به تمام متخصصان و توسعه‌دهندگان ارائه دهد. این ائتلاف طیف گسترده‌ای از ذینفعان، از جمله رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشناسان را گرد هم آورده است که همگی بر امنیت هوش مصنوعی تمرکز دارند.حامیان اصلی آن عبارتند از: گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پی‌پل.

در بیانیه این ائتلاف آمده است: “هوش مصنوعی به سرعت در حال تغییر دنیای ما است و پتانسیل بسیار زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و ایجاد مسئولانه آن‌ها، بسیار مهم است که تکنیک‌هایی را توسعه دهیم و به اشتراک بگذاریم که روی امنیت تمرکز دارند، آسیب‌پذیری‌های احتمالی سیستم‌های هوش مصنوعی را شناسایی و کاهش می‌دهند و منجر به ایجاد سیستم‌هایی می‌شود که طراحی امنی دارند.”

مایکروسافت که ماه گذشته اعلام کرده بود امنیت حتی از هوش مصنوعی هم برای آن مهم‌تر خواهد بود، در این بیانیه یک‌بار دیگر به تعهد خود برای تمرکز بر امنیت در بطن فرایند توسعه سیستم‌های هوش مصنوعی اشاره کرده است.

تشکیل این ائتلاف گامی مهم در جهت اطمینان از ایجاد و استفاده ایمن و مسئولانه از هوش مصنوعی است. این ائتلاف با گرد هم آوردن بهترین ذهن‌ها در این زمینه، می‌تواند به توسعه استانداردها و ابزارهایی کمک کند که امنیت سیستم‌های هوش مصنوعی را در سراسر جهان ارتقا می‌دهد.

دیدگاهتان را بنویسید