یک چتبات هوش مصنوعی بیطرفانه و کاملاً مبتنی بر واقعیت ایده جالبیست، اما باید بدانید که از نظر فنی ساخت چنین مدلی غیرممکن است.
گروه هیچ یک زندگی – به گزارش امآیتی تکنولوژی ریویو (MIT Technology Review ) یکی از شایع ترین موضوعات در مورد هوش مصنوعی این است که این فناوری خنثی و بیطرفانه است. اما این یک روایت خطرناک است و قطعا مشکل گرایش انسانها به رایانهها، حتی زمانی که آنها اشتباه میکنند را تشدید میکند. انسانها ذاتاً به ماشینها اعتماد دارند و اغلب، آنها را دقیقتر و کاربردیتر از نتایج تولید شده توسط همنوعان خود میدانند. با این حال و با بررسی دقیقتر، آشکار میشود که این خروجیهای ماشین، بهویژه آنهایی که از هوش مصنوعی استفاده میکنند، در نهایت، ساخته انسان هستند و توسط تحلیلها و تفسیرهای خودمان هدایت میشوند، درست مانند سایر فناوریها.
در واقع، مدلهای زبانی هوش مصنوعی نه تنها سوگیریها را در دادههای آموزشی خود منعکس میکنند، بلکه سوگیریهای افرادی که آنها را ایجاد کرده و آنها را آموزش دادهاند را نیز منعکس میکنند. یعنی در جایی که فرآیندهای فکری انسان ناقص یا مغرضانه است، ماشینهایی که از آن عقل متولد شدهاند، ناگزیر همان محدودیتها را منعکس میکنند.
نقص اولیهای که برنامه نویسان با تلاش خستگی ناپذیری قصد حذف آن دارند، تعصب و عدم دقت در نتایج مبتنی بر هوش مصنوعی است. پیشبینیهای Forrester (شرکت فناوری اطلاعات آمریکایی) نشان میدهد که تا سال ۲۰۲۵، هر مؤسسهای برای فعالیتهای خود به هوش مصنوعی متکی خواهد بود. این یک سوال نگران کننده را ایجاد می کند و آن هم این است که اگر این نتایج که گاهه ممکن است مغرضانه باشد، ادامه پیدا کند و شرکتهای بزرگ را به بیراهه بکشاند، چه اتفاقی میافتد؟
انواع سوگیریها
انواع سوگیریهایی که هوش مصنوعی میتواند نشان دهد به اندازه تعصباتی است که انسانها علیه یکدیگر دارند. این تعصبات در سراسر نژاد، جنسیت، مذهب و حتی وابستگیهای سیاسی گسترده است. این موارد به ویژه در ایالات متحده بحث برانگیز شده است، با الگوریتمهایی که به طور بالقوه بر افکار عمومی سیاسی تأثیر میگذارد. برای مثال، برنامههای هوش مصنوعی توسعهیافته توسط OpenAI تمایل دارند دیدگاههای چپ لیبرال در آمریکا را منعکس کنند، در حالی که رباتهای تولید شده توسط متا، شرکت زاکربرگ، بر اساس مطالعهای که توسط مؤسسات پیشرو ایالات متحده از جمله دانشگاه واشنگتن انجام شد، به سمت موضع اقتدارگرای محافظهکارانه گرایش دارند. در روایتی موازی، ایلان ماسک نیز ادعا میکند که ربات هوش مصنوعی آینده او، به نام TruthGPT، به عنوان جستجوگر حقیقت عمل خواهد کرد.
از بهره بالاتر تا دستگیری غیرقانونی
برای مثال مطالعهای در دانشگاه برکلی روی الگوریتمهای وامدهی املاک نشان داد که هوش مصنوعی نرخهای بهره بالاتری را به وامگیرندگان لاتین و سیاهپوست بیشتر پیشنهاد میکند. مطالعه دیگری در آمریکا روی سیستمهای تشخیصچهره هوش مصنوعی نشان داد که آنها افراد با رنگ پوست تیرهتر را به اشتباه شناسایی میکنند، اشتباهی که میتواند منجر به دستگیری غیرقانونی شود. در حوزه کسب و کار نیز، هرگونه محاسبات نادرست ناشی از هوش مصنوعی میتواند منجر به زیان و جریمههای قابل توجهی شود، به ویژه در زمینههایی مانند معاملات و پیشبینیهای بازار سهام.
الزام اخلاقی
در دنیایی که به سرعت هوش مصنوعی را در برمیگیرد، درک این نکته ضروری است که این ماشینها صرفا بازتابی از درک و تعصبات سازندگانشان هستند. همانطور که نفوذ هوش مصنوعی همچنان در حال گسترش است، اهمیت پرداختن به این سوگیریها و اصلاح آنها نه تنها به یک چالش فنی بلکه یک الزام اخلاقی تبدیل میشود.
دانشمندان عموماً موافق هستند که ریشهکن کردن کامل تعصب و سوگیری در ماشینها غیرممکن است. با این حال، تلاش برای به حداقل رساندن تأثیر آن و نظارت مداوم بر بازخوردهای هوش مصنوعی، در حالی که اطلاعات مغرضانه و نادرست را حذف میکند، بهترین اقدام است. شرکتها باید در مورد قابلیتها و محدودیتهای سیستمهای هوش مصنوعی خود شفاف باشند و کاربران را از سوگیریهای بالقوهای که ممکن است هنگام تعامل با رباتها با آن مواجه شوند آگاه کنند. به این ترتیب، کاربران میتوانند با اطمینان از اطلاعات روزانه ارائه شده بدون قرار گرفتن در تلههای سوگیری یا تحت تاثیر قرار گرفتن توسط دادههای غیر هدفمند وارد شده به ماشینها استفاده کنند.
به گزارش وب گاه تبیان، در پایان، برای اینکه هوش مصنوعی واقعاً به بشریت خدمت کند، کسانی که در راس ایجاد و توسعه آن هستند باید اهمیت و مزایای بالقوه این فناوری را درک کنند. اگر بتوانیم از هوش مصنوعی به عنوان یک منبع داده جهانی گسترده برای یادگیری، توسعه و حل مشکلات سیاره زمین که اغلب ناشی از جهل، طمع و تعصب است به آن تکیه کنیم، در مسیر درستی هستیم.