استعفای رئیس گروه حفاظت از بشریت «اُپن‌ای‌آی»

[ad_1]

رئیس گروه حفاظت از بشریت شرکت هوش مصنوعی اُپن ای‌آی با بیان این که نگرانی‌های ایمنی اهمیت خود را در برابر محصولات پر زرق و برق از دست داده‌اند، از سمت خود استعفا داد.

به گزارش ایسنا، در تابستان سال ۲۰۲۳، شرکت هوش مصنوعی اُپن‌ای‌آی(OpenAI) یک گروه ابرتنظیم(Superalignment) ایجاد کرد که هدف آن هدایت و کنترل سیستم‌های هوش مصنوعی آینده بود که می‌توانند آنقدر قدرتمند باشند که منجر به انقراض بشر شوند. کمتر از یک سال بعد، این گروه منحل شد.

به نقل از انگجت، اُپن ای‌آی به بلومبرگ گفته است که این شرکت در حال ادغام گروه در تلاش‌های تحقیقاتی خود برای کمک به شرکت در دستیابی به اهداف ایمنی خود است. اما مجموعه‌ای از توییت‌های جان لیک(Jan Leike)، یکی از رهبران تیم که به تازگی استعفا داده، تنش‌های داخلی بین تیم ایمنی و شرکت را فاش کرده است.

در بیانیه‌ای که در روز جمعه در شبکه اجتماعی ایکس منتشر شد، لیک گفت که تیم ابرتنظیم برای بدست آوردن منابع برای انجام تحقیقات مبارزه کرده است. او نوشت: ساخت دستگاه‌های هوشمندتر از انسان، یک تلاش ذاتا خطرناک است. اُپن ای‌آی ‌مسئولیت بزرگی را از طرف تمام بشریت بر عهده دارد. اما در طول سال‌های گذشته، فرهنگ ایمنی و فرآیندها اهمیت خود را از دست داده است.

انتهای پیام

[ad_2]

منبع: www.isna.ir

پیام بگذارید