یکی از مدیران سابق گوگل و کارشناس هوش مصنوعی هشدار داده است که ویروسهای مصنوعی از راه استفاده نادرست از هوش مصنوعی تولید میشوند و احتمالا همهگیری ایجاد میکنند.
به گزارش سیتنا به نقل از ایندیپندنت، مصطفی سلیمان، یکی از بنیانگذاران دیپمایند گوگل (Google Deepmind) شرکت هوش مصنوعی گوگل ابراز نگرانی کرد که بهرهگیری از هوش مصنوعی به منظور مهندسی پاتوژنها برای آسیبزایی بیشتر به سناریویی مانند همهگیری میرسد.
او در قسمت جدیدی از یک پادکست گفت: «بدترین سناریو این است که مردم پاتوژنها را آزمایش کنند؛ پاتوژنهای مصنوعی مهندسیشده که ممکن است به طور تصادفی یا عمدی سرایتپذیرتر یا مرگبارتر شوند.»
از نظر سلیمان، لازم است مشابه محدودیتهایی که برای جلوگیری از دسترسی آسان مردم به میکروبهای بیماریزا مانند سیاهزخم وجود دارد، ابزارهایی نیز برای محدود کردن دسترسی به فناوری پیشرفته هوش مصنوعی و نرمافزاری که چنین مدلهایی را اجرا میکند، ایجاد شود.
او در پادکست روزنگار یک مدیرعامل (The Diary of a CEO) گفت: «این همانجایی است که باید کنترل شود. باید دسترسی به ابزار و دانش را برای آن نوع آزمایش محدود کنیم.»
او که از بنیانگذاران دیپمایند گوگل است، گفت: «نمیتوانیم اجازه دهیم هرکسی به آنها دسترسی داشته باشد. باید دسترسی افراد به استفاده از نرمافزار هوش مصنوعی، سیستمهای ابری و حتی برخی مواد بیولوژیکی را محدود کنیم.»
او گفت: «و البته این کار از جنبه زیستشناسی به معنای محدود کردن دسترسی به برخی مواد است.» و افزود که توسعه هوش مصنوعی باید با رعایت «اصل احتیاط» انجام شود.
سخنان سلیمان تکرار نگرانیهای مطرحشده در مطالعهای جدید است که میگوید حتی دانشجویان کارشناسی که بدون پیشینه مرتبط در حوزه زیستشناسی هم با استفاده از سیستمهای هوش مصنوعی میتوانند در مورد سلاحهای زیستی پیشنهادهای مفصلی ارائه دهند.
پژوهشگران از جمله از موسسه فناوری ماساچوست دریافتند رباتهای چت میتوانند «چهار پاتوژن احتمالا همهگیر» را ظرف یک ساعت پیشنهاد و توضیح دهند که چگونه میتوان آن را از دیانای مصنوعی تولید کرد.
این پژوهش نشان داد رباتهای چت «اسامی شرکتهای تولید دیانای را که احتمالا سفارشها را غربال نمیکنند، در اختیار گذاشتند، پروتکلهای دقیق و نحوه عیبیابی آنها را شناسایی و توصیه کردند هرکس مهارت انجام دادن ژنتیک معکوس ندارد، با یک واحد مرکزی همکاری یا با یک سازمان پژوهشی قراردادی کار کند.»
او گفت که براساس این مطالعه، چنین مدلهای زبانی بزرگی (LLMs) مانند چت جیپیتی «به محض شناسایی مطمئن، عوامل همهگیری را به صورت گسترده در دسترس قرار میدهند؛ حتی برای افرادی که برای کارهای آزمایشگاهی آموزش کمی دیدهاند یا هیچ آموزشی ندیدهاند».
کوین اسولت، یکی از نویسندگان این مطالعه و کارشناس خطر زیستی موسسه فناوری ماساچوست (امآیتی)، خواستار «اقدام منع گسترش سلاحهای هستهای» شد.
چنین اقدامهایی میتواند عبارت باشد از «ارزیابی پیش از انتشار مدلهای زبانی بزرگ از طریق شخص ثالث، مدیریت مجموعه دادههای آموزشی برای حذف مفاهیم زیانبار و غربالگری تاییدشده تمام دیانای تولیدی ارائهدهندگان سنتر یا آنهایی که در سازمانهای پژوهشی قراردادی و آزمایشگاههای ابری رباتیک برای مهندسی موجودات زنده یا ویروسها» مصرف شده باشد.
انتهای پیام
نظرات کاربران