«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ بهعنوان بخشی از برنامههای خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوشمصنوعی ایالات متحده قرار خواهد داد.
همانطور که تککرانچ در گزارش خود توضیح میدهد، درحالحاضر نگرانیهای زیادی از این بابت وجود دارد که OpenAI بیشتر بهدنبال توسعه مدلهای هوشمصنوعی قدرتمند است و بههمین ایمنی را چندان در اولویتهای خود قرار نداده است.
اهمیت ایمنی هوش مصنوعی برای OpenAI
در ماههای گذشته، گفتهشده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستمهای هوش مصنوعی کار میکردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نامها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوشمصنوعی آنتروپیک را رهبری میکند و «ایلیا سوتسکور» که شرکت هوشمصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.
موسسه ایمنی هوشمصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وبسایت NIST، هدف آن «توسعه دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازهگیریها و سیاستهای هوش مصنوعی و ایجاد پایهای برای ایمنی هوشمصنوعی در سراسر جهان» یاد شده است.
نظرات کاربران