مدتی است مدلهای زبانی هوش مصنوعی به موضوعی بحث برانگیز در ایالات متحده آمریکا تبدیل شدهاند. برخی از افراد ادعا میکنند که این مدلها «تعصبات» سیاسی دارند و به همین دلیل، برخی از گروهها شروع به توسعه مدلهای زبانی خود کردهاند که ادعا میکنند «بیطرف» هستند.
ChatGPT، مدل زبانی هوش مصنوعی توسعه یافته توسط کمپانی OpenAI است. برخی از نظریهپردازان جناح راست در آمریکا ادعا کردهاند که ChatGPT به اصطلاح «تعصب بیدار» دارد، یعنی تمایل به حمایت از دیدگاههای چپگرایانه دارد. در نتیجه، برخی از گروههای محافظهکار شروع به توسعه نسخههای خود از رباتهای گفتگوی مبتنی بر هوش مصنوعی کردهاند که ادعا میکنند «بیطرف» هستند.
ایلان ماسک، مدیرعامل تسلا و اسپیس ایکس، چندی پیش اعلام کرده بود که او در حال کار بر روی یک مدل زبانی هوش مصنوعی به نام TruthGPT است. TruthGPT یک مدل زبانی « با شعار جستجوی حداکثری حقیقت» خواهد بود، به این معنی که تلاش میکند تا دقیقترین و بیطرفانهترین اطلاعاتی را که میتواند ارائه دهد.
آیا بیطرفی مدلهای هوش مصنوعی ممکن است ؟
مدلهای زبانی هوش مصنوعی هنوز در مراحل اولیه توسعه هستند و مشخص نیست که در نهایت چگونه مورد استفاده قرار خواهند گرفت. این مدلها پتانسیل ایجاد تأثیر قابل توجهی بر جامعه را دارند و بحثها درباره تعصبات احتمالی آنها ادامه خواهد داشت.
مدلهای هوش مصنوعی بیطرف و مبتنی بر واقعیت ایده خوبی است، اما امکانپذیر نیست. دلیل این امر این است که مدلها بر اساس دادههایی که آموزش داده میشوند، شکل میگیرند. این دادهها همچنین ممکن است حاوی تعصبات سیاسی و عوامل دیگری باشند.
اخیرا محققان آزمایشهایی را بر روی 14 مدل زبانی بزرگ انجام دادهاند و دریافتند که GPT-4 سوگیریهای چپگرایانه دارد، در حالی که LLaMA Meta سوگیری راستگرایانه دارد. این بدان معناست که مدلها ممکن است به طور ناخواسته تعصبات سیاسی را در خود جای دهند.
در نتیجه، هیچ مدل زبانی کاملاً بیطرف وجود ندارد. با این حال، میتوان اقداماتی برای کاهش تعصبات سیاسی انجام داد، مانند استفاده از دادههای آموزشی متنوعتر و آموزش آنها بر اساس اصول بیطرفی.
چان پارک، محقق دکترای دانشگاه کارنگی ملون در این رابطه میگوید: «ما معتقدیم هیچ مدل زبانی نمیتواند کاملاً از تعصبات سیاسی فارغ باشد.»