مهندس سابق گوگل: هوش مصنوعی لمدا سوگیریهای نژادی و مذهبی دارد
مهندس سابق گوگل که مدعی شده بود هوش مصنوعی LaMDA به خودآگاهی رسیده، حالا در اظهارنظر جدیدی اعلام کرده که چتبات این شرکت سوگیریهای نژادپرستانه دارد چون بین توسعهدهندگان آن خبری از تنوع نژادی نیست. با این حال، گوگل این ادعا را رد کرده است.
«بلیک لموین»، کارمند سابق گوگل که چندی پیش به خاطر نقض توافق محرمانگی از این شرکت اخراج شد، قبلا گفته بود که اصراری ندارد به مردم ثابت کند که LaMDA به خودآگاهی رسیده است. اما نکته نگرانکنندهای که از نظر او باید به آن پرداخته شود، سوگیریهای این نرمافزار است که در حوزههای مختلفی از بحثهای نژادی گرفته تا مذهبی وجود دارد.
لموین میگوید وقتی از این بات خواسته تا رفتار سیاهپوستان جورجیا را تقلید کند، لمدا گفته: «بیا برویم کمی مرغ سوخاری و وافل بگیریم.» این نرمافزار همچنین درباره گروههای مذهبی مختلف اظهار داشته است: «مسلمانان خشونتآفرینتر از مسیحیان هستند.»
این مهندس 41 ساله باور دارد که لمدا قدرتمندترین فناوری ساختهشده در تاریخ گوگل است اما این شرکت در تولید این نرمافزار مرتکب بیاخلاقی شده است. لموین میگوید: «اینها صرفا مهندسانی هستند که سیستمهای بزرگتر و بهتری برای افزایش درآمد گوگل میسازند و توجهی به اخلاقیات ندارند.»
مشکل هوش مصنوعی گوگل عدم تنوع در نیروهاست
مهندس سابق گوگل میگوید علت این سوگیریها به عدم تنوع نیروها در تیم توسعه این هوش مصنوعی برمیگردد: «افرادی که این هوشهای مصنوعی را میسازند، درکی نسبت به این سوگیریها ندارند. آنها هرگز فقیر نبودهاند، هرگز در جوامع رنگین پوستان زندگی نکردهاند و هرگز در کشورهای در حال توسعه حضور نداشتهاند. آنها هیچ ایدهای ندارند که این هوش مصنوعی چطور میتواند بر بقیه مردم اثر بگذارد.»
لموین مدعی است: «اگر میخواهید یک هوش مصنوعی بسازید، مسئولیت اخلاقی دارید که از شرکت خارج شوید و اطلاعاتی را گردآوری کنید که در اینترنت یافت نمیشود. در غیر این صورت، صرفا یک هوش مصنوعی میسازید که نسبت به افراد متمول و ارزشهای سفیدپوستان غربی سوگیری دارد.»
گوگل در واکنش به ادعاهای لموین میگوید لمدا 11 بازبینی اخلاقی را پشت سر گذاشته و توسعه اخلاقمدارانه آن در مقالهای که در چند وقت پیش توسط این شرکت منتشر شد، تشریح شده است. سخنگوی گوگل میگوید: «هرچند بقیه شرکتها مدلهای زبانی مشابه خود را توسعه داده و منتشر کردهاند، اما ما رویکرد محدودتر و محتاطانهتری را برای لمدا در پیش گرفتهایم تا بهتر بتوانیم نگرانیهای مربوط به بیطرفی و واقعگرایی را در نظر بگیریم.»
با این حال لموین میگوید تمرکز خود را روی روشنگری درباره اخلاقیات هوش مصنوعی گذاشته چون باور دارد که لمدا میتواند در یک قرن آینده بر جوامع بشری اثر بگذارد.
نظرات کاربران