هوش مصنوعی یک فناوری قدرتمند است که میتواند برای کارهای خوب یا بد استفاده شود. برخی از افراد نگران هستند که این فناوری میتواند به یک خطر وجودی تبدیل شود، اما یک دانشمند این حوزه این نگرانی را ندارد.
پروفسور مایکل وولدریج استاد علوم کامپیوتر در دانشگاه آکسفورد، معتقد است که:
خطر اصلی هوش مصنوعی این است که در اختیار افراد بد قرار بگیرد. همچنین به عنوان یک ابزار منفی استفاده شود که همه ایمیلهای کارکنان را زیر نظر میگیرد، بازخورد مستمر ارائه میدهد و حتی تصمیم میگیرد که چه کسی اخراج شود.
وولدریج میگوید که نمونههای اولیه این ابزارها امروزه در دسترس هستند و این او را ناراحت میکند. او معتقد است که هوش مصنوعی باید به طور مسئولانه استفاده شود و برای همه مردم سودمند باشد.
آیا ابزارهای هوش مصنوعی جادویی هستند؟
پروفسور وولدریج، میگوید که امسال ابزارهای هوش مصنوعی با هدف عمومی به طور گسترده در دسترس مردم قرار گرفتهاند. او میگوید که این ابزارها، مانند ChatGPT، میتوانند کارهایی را انجام دهند که شبیه آن را در فیلمها، بازیها و کتابها دیدهایم. با این حال، این ابزارها جادویی نیستند. آنها بر اساس الگوریتمهای پیچیدهای کار میکنند که بر روی مجموعه دادههای عظیم متن و کد آموزش دیدهاند. وولدریج میخواهد در سخنرانیهای سال نو خود، به مردم نشان دهد که این فناوری چگونه کار میکند. او میگوید که این کار به مردم کمک میکند تا درک بهتری از آن داشته باشند و از آن مسئولانه استفاده کنند.
تست تورینگ، ساده و زیبا و از نظر تاریخی مهم است، واقعاً آزمون خوبی برای هوش مصنوعی نیست
هوش مصنوعی در حال پیشرفت است و دیگر محدود به انسانها نیست. روباتها، دیپفیکها و دیگر فناوریهای هوش مصنوعی نیز در حال پیشرفت هستند و میتوانند کارهایی را انجام دهند که قبلاً فقط توسط انسانها انجام میشد.
یکی از چالشهای مهم ، آزمون تورینگ است. در این آزمون، یک ماشین در یک مکالمه تایپشده با یک انسان شرکت میکند. اگر انسان نتواند تشخیص دهد که ماشین است یا انسان، آنگاه ماشین درک انسانگونهای از زبان را نشان می دهد.
برخی از کارشناسان معتقدند که هیچ ماشینی تاکنون آزمون تورینگ را قبول نکرده است، در حالی که برخی دیگر معتقدند که این آزمون دیگر قابل قبول نیست.
تام وولدریج، استاد فلسفه و هوش مصنوعی در دانشگاه آکسفورد، معتقد است که این فناوری هنوز نمیتواند هوشیار باشد. او در مصاحبهای با بیبیسی گفت که برخی از کارشناسان معتقدند که ماشینهای هوشمند اکنون میتوانند آزمون تورینگ را بگذرانند، یعنی در یک مکالمه تایپشده با یک انسان شرکت کنند و انسان را فریب دهند. با این حال، وولدریج معتقد است که این بدان معنا نیست که ماشینها واقعاً باهوش هستند. او استدلال میکند که ماشینها فقط میتوانند رفتار انسان را تقلید کنند، اما نمیتوانند تجربه کنند.
به عنوان مثال، وولدریج میگوید که ماشینها میتوانند متنی را تولید کنند که در مورد طعم قهوه باشد، اما خود قهوه را نمیتوانند تجربه کنند. آنها همچنین حس گذر زمان را ندارند. آنها نمیتوانند بفهمند که مکالمه قطع شده است یا خیر.
وولدریج گفت: «هوش مصنوعی یک فناوری قدرتمند است و باید به دقت مورد استفاده قرار گیرد.»
وولدریج در مصاحبه با بیبیسی گفت: «کاهش خطر انقراض ناشی از این فناوری باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی، مانند همهگیریها و جنگ هستهای باشد».
او با این حال، بیانیه مرکز ایمنی هوش مصنوعی و نامه مشابهی از موسسه آینده زندگی را امضا نکرد که هر دو در سال جاری منتشر شدند. این بیانیهها خواستار اقدامات فوری برای کاهش خطراتش، از جمله منع توسعه هوش مصنوعی خودمختار، شدند.
وولدریج گفت: «دلیل اینکه من آنها را امضا نکردم این است که فکر میکنم آنها برخی از نگرانیهای بسیار کوتاهمدت را با نگرانیهای درازمدت بسیار بسیار گمانهزنی ترکیب کردند.»
او گفت: «در حالی که هوش مصنوعی کار زیادی با آن انجام می شود، و خطرات برای بشریت نباید نادیده گرفته شود، هیچ کس به طور قابل اعتمادی به این فکر نمی کرد که آن را مسئول یک زرادخانه هسته ای کند.»
وولدریج گفت: «اگر ما کنترل چیزی کشنده را به هوش مصنوعی ندهیم، بسیار سخت تر است که ببینیم چگونه [این] می تواند واقعاً یک خطر وجودی باشد.»
او همچنین از شباهتهایی که برخی بین نگرانیهای اوپنهایمر در مورد توسعه بمبهای هستهای و بمبهایی که توسط محققان امروزی هوش مصنوعی پخش میشود، متقاعد نشده است.
وولدریج گفت: «در مورد جنگ اوکراین نگران میشوم، به خاطر تغییرات آبوهوایی نگران میشوم، به خاطر ظهور سیاستهای پوپولیستی و غیره آشفته میشوم. “اما در مورد هوش مصنوعی خیلی نگران نیستم.”