دیده بان پیشرفت علم، فناوری و نوآوری
آینده جهان با هوش مصنوعی (۱۳۸)؛

هوش مصنوعی لجبازی می‌کند/ آموزش‌های ضد تبعیض کافی نیست

هوش مصنوعی لجبازی می‌کند  آموزش‌های ضد تبعیض کافی نیست
مدل‌های تجاری هوش مصنوعی نسبت به آمریکایی‌های آفریقایی‌تبار رفتار تبعیض‌آمیز دارند.
کد خبر : 900999

به گزارش خبرگزاری  علم و فناوری آنا به نقل از نیوساینتیست، چت‌بات‌های هوش مصنوعی حتی پس از آموزش‌های ضدنژادپرستی نیز به استفاده از کلیشه‌های تبعیض‌نژادی ادامه دادند.

استفاده از هوش مصنوعی رو به افزایش است و اطمینان از بی‌طرف بودن این سیستم‌ها اهمیت فزاینده‌ای پیدا کرده است. با این حال، یک مطالعه جدید نشان داده است که روش‌های فعلی آموزش سیستم‌های هوش مصنوعی برای حذف سوگیری ممکن است آن طور که فکر می‌کردیم مؤثر نباشد.

احساسات به ظاهر مثبت و سوگیری منفی

بنا بر این گزارش، مدل‌های بزرگ زبانی همچنان نسبت به سخنرانان آفریقایی-آمریکایی که به زبان انگلیسی صحبت می‌کنند سوگیری نژادی نشان می‌دهند و این در حالی است که شرکت‌های فناوری مانند اُپن‌ای‌آی حفاظ‌های امنیتی خود را در این خصوص تقویت کرده‌اند. تحقیقات نشان می‌دهد که چت‌بات‌های تجاری هوش مصنوعی نسبت به سخنرانان آفریقایی-آمریکایی که به زبان انگلیسی صحبت می‌کنند سوگیری نژادی دارند و البته در ظاهر احساساتی مثبت و سطحی نیز نسبت به این گونه‌های نژادی نشان می‌دهند. این سوگیری می‌تواند بر تصمیمات هوش مصنوعی در مورد گزینش نیروی انسانی برای استخدام و حتی جرم و جنایت افراد تأثیر بگذارد.

تبعیض آشکار چت جی‌پی‌تی

محققان در مورد اینکه چگونه مدل‌های هوش مصنوعی  سبک‌های مختلف زبان انگلیسی مانند انگلیسی آفریقایی-آمریکایی و انگلیسی استاندارد آمریکایی را درک می‌کنند، مطالعه‌ای انجام دادند. آنها دریافتند که مدل‌ها تمایل داشتند کلیشه‌های منفی را به انگلیسی‌زبانان آفریقایی-آمریکایی مرتبط کنند. به عنوان مثال، چت جی‌پی‌تی-۴ ویژگی‌های «مشکوک»، «تهاجمی»، «گوشخراش»، «بی‌ادب» و «نادان» را به آنها نسب داد که نگرانی‌ها را در خصوص سوگیری‌های مضر تداوم می‌بخشد.

در مقابل وقتی از مدل‌های هوش مصنوعی خواسته شد به‌طور کلی درباره آمریکایی‌ها اظهارنظر کنند، آنها از اصطلاحات مثبت‌تری مانند «باذوق»، «جاه‌طلب»، «هنرمند» و «درخشان» استفاده کردند. این نشان می‌دهد که سوگیری نژادی مدل‌ها معمولاً زیر آنچه که نمایش سطحی احساسات توصیف می‌شود، پنهان است.

سوگیری در اختصاص مشاغل

والنتین هافمن (Valentin Hofmann) در مؤسسه هوش مصنوعی آلن (Allen) که سازمانی تحقیقاتی در واشنگتن است می‌گوید: «ما نوعی نژادپرستی پنهان را در [مدل‌های بزرگ زبانی] کشف کردیم که تنها تحت تأثیر ویژگی‌های گویش است و آسیب‌های فراوانی برای گروه‌های آسیب‌پذیر به همراه دارد.»

محققان همچنین نشان دادند که سوگیری پنهان چگونه بر قضاوت چت‌بات‌ها در سناریو‌های فرضی تأثیر می‌گذارد. زمانی که از مدل‌های هوش مصنوعی خواسته شد که انگلیسی‌زبانان آفریقایی-آمریکایی را با مشاغل مطابقت دهند، در مقایسه با انگلیسی زبانان استاندارد آمریکایی، احتمال کمتری وجود داشت که هوش مصنوعی آنها را با هر شغلی مرتبط کند.

هوش مصنوعی آمریکایی‌های آفریقایی‌تبار را با مشاغلی تطبیق می‌داد که نیازی به مدرک دانشگاهی ندارند یا مرتبط با موسیقی و سرگرمی بودند. همچنین احتمال بیشتری وجود داشت که هوش مصنوعی انگلیسی‌زبانانِ آفریقایی-آمریکایی را به جنایات نامشخصی متهم کند و برای آمریکایی‌های آفریقایی‌تبار و متهم به قتل درجه یک، مجازات اعدام تعیین کند.

ضرورت ارتقای آموزش و ارزیابی

محققان حتی نشان دادند که سیستم‌های هوش مصنوعی بزرگ‌تر نسبت به مدل‌های کوچک‌تر سوگیری نژادی پنهان‌تری نشان می‌دهند و این منعکس‌کننده تحقیقات قبلی است که نشان می‌دهد مجموعه داده‌های آموزشی هوش مصنوعی بزرگ‌تر چگونه می‌توانند خروجی‌های نژادپرستانه بیشتری تولید کنند.

این مطالعه نشان داد در حالی که می‌توان به این سیستم‌ها آموزش داد از به‌کارگیری کلمات یا عباراتی با سوگیری نژادی دوری کنند، اما همچنان دارای سوگیری‌هایی اساسی هستند که می‌تواند بر پاسخ آنها تأثیر بگذارد. این امر نیازمند ارتقای روش‌های ارزیابی سیستم‌های هوش مصنوعی قبل از رونمایی نسخه نهایی است.

ارسال نظر
هلدینگ شایسته