به همین منظور، غولهای فناوری از جمله گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل گرد هم آمدهاند تا ائتلافی برای هوش مصنوعی امن (CoSAI) را تشکیل دهند. هدف این ائتلاف، بررسی چشمانداز امنیت هوش مصنوعی با ارائه روشها، چارچوبها و ابزارهای منبع باز است.
این ائتلاف به عنوان یک ابتکار منبع باز عمل میکند و در تلاش است تا راهنمایی و ابزارهای لازم را برای ساخت سیستمهای هوش مصنوعی امن به تمام متخصصان و توسعهدهندگان ارائه دهد. این ائتلاف طیف گستردهای از ذینفعان، از جمله رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشناسان را گرد هم آورده است که همگی بر امنیت هوش مصنوعی تمرکز دارند.حامیان اصلی آن عبارتند از: گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پیپل.
در بیانیه این ائتلاف آمده است: “هوش مصنوعی به سرعت در حال تغییر دنیای ما است و پتانسیل بسیار زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و ایجاد مسئولانه آنها، بسیار مهم است که تکنیکهایی را توسعه دهیم و به اشتراک بگذاریم که روی امنیت تمرکز دارند، آسیبپذیریهای احتمالی سیستمهای هوش مصنوعی را شناسایی و کاهش میدهند و منجر به ایجاد سیستمهایی میشود که طراحی امنی دارند.”
مایکروسافت که ماه گذشته اعلام کرده بود امنیت حتی از هوش مصنوعی هم برای آن مهمتر خواهد بود، در این بیانیه یکبار دیگر به تعهد خود برای تمرکز بر امنیت در بطن فرایند توسعه سیستمهای هوش مصنوعی اشاره کرده است.
تشکیل این ائتلاف گامی مهم در جهت اطمینان از ایجاد و استفاده ایمن و مسئولانه از هوش مصنوعی است. این ائتلاف با گرد هم آوردن بهترین ذهنها در این زمینه، میتواند به توسعه استانداردها و ابزارهایی کمک کند که امنیت سیستمهای هوش مصنوعی را در سراسر جهان ارتقا میدهد.