هوش مصنوعی یک فناوری قدرتمند است که می‌تواند برای کارهای خوب یا بد استفاده شود. برخی از افراد نگران هستند که این فناوری می‌تواند به یک خطر وجودی تبدیل شود، اما یک دانشمند این حوزه این نگرانی را ندارد.

پروفسور مایکل وولدریج استاد علوم کامپیوتر در دانشگاه آکسفورد، معتقد است که:

خطر اصلی هوش مصنوعی این است که در اختیار افراد بد قرار بگیرد. همچنین به عنوان یک ابزار منفی استفاده شود که همه ایمیل‌های کارکنان را زیر نظر می‌گیرد، بازخورد مستمر ارائه می‌دهد و حتی تصمیم می‌گیرد که چه کسی اخراج شود.

وولدریج می‌گوید که نمونه‌های اولیه این ابزارها امروزه در دسترس هستند و این او را ناراحت می‌کند. او معتقد است که هوش مصنوعی باید به طور مسئولانه استفاده شود و برای همه مردم سودمند باشد.

آیا ابزارهای هوش مصنوعی جادویی هستند؟

پروفسور وولدریج، می‌گوید که امسال ابزارهای هوش مصنوعی با هدف عمومی به طور گسترده در دسترس مردم قرار گرفته‌اند. او می‌گوید که این ابزارها، مانند ChatGPT، می‌توانند کارهایی را انجام دهند که شبیه آن را در فیلم‌ها، بازی‌ها و کتاب‌ها دیده‌ایم. با این حال، این ابزارها جادویی نیستند. آنها بر اساس الگوریتم‌های پیچیده‌ای کار می‌کنند که بر روی مجموعه داده‌های عظیم متن و کد آموزش دیده‌اند. وولدریج می‌خواهد در سخنرانی‌های سال نو خود، به مردم نشان دهد که این فناوری چگونه کار می‌کند. او می‌گوید که این کار به مردم کمک می‌کند تا درک بهتری از آن داشته باشند و از آن مسئولانه استفاده کنند.

تست تورینگ، ساده و زیبا و از نظر تاریخی مهم است، واقعاً آزمون خوبی برای هوش مصنوعی نیست

هوش مصنوعی در حال پیشرفت است و دیگر محدود به انسان‌ها نیست. روبات‌ها، دیپ‌فیک‌ها و دیگر فناوری‌های هوش مصنوعی نیز در حال پیشرفت هستند و می‌توانند کارهایی را انجام دهند که قبلاً فقط توسط انسان‌ها انجام می‌شد.

یکی از چالش‌های مهم ، آزمون تورینگ است. در این آزمون، یک ماشین در یک مکالمه تایپ‌شده با یک انسان شرکت می‌کند. اگر انسان نتواند تشخیص دهد که ماشین است یا انسان، آنگاه ماشین درک انسان‌گونه‌ای از زبان را نشان می دهد.

برخی از کارشناسان معتقدند که هیچ ماشینی تاکنون آزمون تورینگ را قبول نکرده است، در حالی که برخی دیگر معتقدند که این آزمون دیگر قابل قبول نیست.

تام وولدریج، استاد فلسفه و هوش مصنوعی در دانشگاه آکسفورد، معتقد است که این فناوری هنوز نمی‌تواند هوشیار باشد. او در مصاحبه‌ای با بی‌بی‌سی گفت که برخی از کارشناسان معتقدند که ماشین‌های هوشمند اکنون می‌توانند آزمون تورینگ را بگذرانند، یعنی در یک مکالمه تایپ‌شده با یک انسان شرکت کنند و انسان را فریب دهند. با این حال، وولدریج معتقد است که این بدان معنا نیست که ماشین‌ها واقعاً باهوش هستند. او استدلال می‌کند که ماشین‌ها فقط می‌توانند رفتار انسان را تقلید کنند، اما نمی‌توانند تجربه کنند.

به عنوان مثال، وولدریج می‌گوید که ماشین‌ها می‌توانند متنی را تولید کنند که در مورد طعم قهوه باشد، اما خود قهوه را نمی‌توانند تجربه کنند. آنها همچنین حس گذر زمان را ندارند. آنها نمی‌توانند بفهمند که مکالمه قطع شده است یا خیر.

وولدریج گفت: «هوش مصنوعی یک فناوری قدرتمند است و باید به دقت مورد استفاده قرار گیرد.»

وولدریج در مصاحبه با بی‌بی‌سی گفت: «کاهش خطر انقراض ناشی از این فناوری باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی، مانند همه‌گیری‌ها و جنگ هسته‌ای باشد».

او با این حال، بیانیه مرکز ایمنی هوش مصنوعی و نامه مشابهی از موسسه آینده زندگی را امضا نکرد که هر دو در سال جاری منتشر شدند. این بیانیه‌ها خواستار اقدامات فوری برای کاهش خطراتش، از جمله منع توسعه هوش مصنوعی خودمختار، شدند.

وولدریج گفت: «دلیل اینکه من آنها را امضا نکردم این است که فکر می‌کنم آنها برخی از نگرانی‌های بسیار کوتاه‌مدت را با نگرانی‌های درازمدت بسیار بسیار گمانه‌زنی ترکیب کردند.»

او گفت: «در حالی که هوش مصنوعی کار زیادی با آن انجام می شود، و خطرات برای بشریت نباید نادیده گرفته شود، هیچ کس به طور قابل اعتمادی به این فکر نمی کرد که آن را مسئول یک زرادخانه هسته ای کند.»

وولدریج گفت: «اگر ما کنترل چیزی کشنده را به هوش مصنوعی ندهیم، بسیار سخت تر است که ببینیم چگونه [این] می تواند واقعاً یک خطر وجودی باشد.»

او همچنین از شباهت‌هایی که برخی بین نگرانی‌های اوپنهایمر در مورد توسعه بمب‌های هسته‌ای و بمب‌هایی که توسط محققان امروزی هوش مصنوعی پخش می‌شود، متقاعد نشده است.

وولدریج گفت: «در مورد جنگ اوکراین نگران می‌شوم، به خاطر تغییرات آب‌وهوایی نگران می‌شوم، به خاطر ظهور سیاست‌های پوپولیستی و غیره آشفته می‌شوم. “اما در مورد هوش مصنوعی خیلی نگران نیستم.”