مدتی است مدل‌های زبانی هوش مصنوعی به موضوعی بحث‌ برانگیز در ایالات متحده آمریکا تبدیل شده‌اند. برخی از افراد ادعا می‌کنند که این مدل‌ها «تعصبات» سیاسی دارند و به همین دلیل، برخی از گروه‌ها شروع به توسعه مدل‌های زبانی خود کرده‌اند که ادعا می‌کنند «بی‌طرف» هستند.

ChatGPT، مدل زبانی هوش مصنوعی توسعه یافته توسط کمپانی OpenAI است. برخی از نظریه‌پردازان جناح راست در آمریکا ادعا کرده‌اند که ChatGPT به اصطلاح «تعصب بیدار» دارد، یعنی تمایل به حمایت از دیدگاه‌های چپ‌گرایانه دارد. در نتیجه، برخی از گروه‌های محافظه‌کار شروع به توسعه نسخه‌های خود از ربات‌های گفتگوی مبتنی بر هوش مصنوعی کرده‌اند که ادعا می‌کنند «بی‌طرف» هستند.

ایلان ماسک، مدیرعامل تسلا و اسپیس ایکس، چندی پیش اعلام کرده بود که او در حال کار بر روی یک مدل زبانی هوش مصنوعی به نام TruthGPT است. TruthGPT یک مدل زبانی « با شعار جستجوی حداکثری حقیقت» خواهد بود، به این معنی که تلاش می‌کند تا دقیق‌ترین و بی‌طرفانه‌ترین اطلاعاتی را که می‌تواند ارائه دهد.

آیا بی‌طرفی مدل‌های هوش مصنوعی ممکن است ؟

مدل‌های زبانی هوش مصنوعی هنوز در مراحل اولیه توسعه هستند و مشخص نیست که در نهایت چگونه مورد استفاده قرار خواهند گرفت. این مدل‌ها پتانسیل ایجاد تأثیر قابل توجهی بر جامعه را دارند و بحث‌ها درباره تعصبات احتمالی آنها ادامه خواهد داشت.

مدل‌های هوش مصنوعی بی‌طرف و مبتنی بر واقعیت ایده خوبی است، اما امکان‌پذیر نیست. دلیل این امر این است که مدل‌ها بر اساس داده‌هایی که آموزش داده می‌شوند، شکل می‌گیرند. این داده‌ها همچنین ممکن است حاوی تعصبات سیاسی و عوامل دیگری باشند.

اخیرا محققان آزمایش‌هایی را بر روی 14 مدل زبانی بزرگ انجام داده‌اند و دریافتند که GPT-4 سوگیری‌های چپ‌گرایانه دارد، در حالی که LLaMA Meta سوگیری راست‌گرایانه دارد. این بدان معناست که مدل‌ها ممکن است به طور ناخواسته تعصبات سیاسی را در خود جای دهند.

در نتیجه، هیچ مدل زبانی کاملاً بی‌طرف وجود ندارد. با این حال، می‌توان اقداماتی برای کاهش تعصبات سیاسی انجام داد، مانند استفاده از داده‌های آموزشی متنوع‌تر و آموزش آن‌ها بر اساس اصول بی‌طرفی.

چان پارک، محقق دکترای دانشگاه کارنگی ملون در این رابطه می‌گوید: «ما معتقدیم هیچ مدل زبانی نمی‌تواند کاملاً از تعصبات سیاسی فارغ باشد.»