
جفری هینتون پرسید که آیا جنبه های مثبت هوش مصنوعی می تواند بر جنبه های منفی آن غلبه کند؟ او همچنین هشدار داد که استفاده اخلاقی از هوش مصنوعی می تواند هزینه بالایی داشته باشد.
در کنفرانس Collision که در تورنتو برگزار شد، جفری هینتون، استاد دانشگاه تورنتو، معروف به “پدرخوانده هوش مصنوعی”، نگرانی خود را در مورد توسعه سریع هوش مصنوعی (AI) و پیامدهای آن ابراز کرد. هینتون اخیرا گوگل را ترک کرد تا آزادانه از حوزه هوش مصنوعی انتقاد کند. در همین راستا، جفری هینتون نسبت به استفاده روزافزون از هوش مصنوعی مانند ChatGPT و Bing Chat ابراز نگرانی کرد و آنها را نشانه هایی از پیشرفت کنترل نشده و خطرناک دانست.
اگرچه هوش مصنوعی به عنوان راه حلی برای مشاغل مختلف مانند اجاره و حمل و نقل تبلیغ می شود، هینتون زنگ خطر را به صدا در می آورد. او این سوال را مطرح کرد که آیا جنبه های مثبت هوش مصنوعی می تواند بر جنبه های منفی آن غلبه کند؟ او همچنین هشدار داد که پذیرش اخلاقی هوش مصنوعی ممکن است پرهزینه باشد.
هینتون تاکید کرد که استفاده اخلاقی از هوش مصنوعی به افرادی که آن را ایجاد می کنند بستگی دارد و هشدار داد که اکتشافات علمی همچنان می توانند برنده شوند. به عنوان مثال، هینتون معتقد است که توقف تولید ربات های رزمی که مجموعه نظامی-صنعتی تولید می کند بسیار دشوار است و در صورت استفاده از هوش مصنوعی می توان شرایطی را تضمین کرد که ارتش ها کمترین تلفات را در تاسیسات خود داشته باشند.
هینتون همچنین درباره پیامدهای مدلهای زبان بزرگ مانند GPT-4 که توسط شرکت OpenAI ارائه شده است، ابراز نگرانی کرد و گفت که طبقه ثروتمند میتواند از این پیشرفت برای ثروتمندتر شدن استفاده کند و تفاوتهای طبقاتی و نابرابریهای اجتماعی را تشدید کند.
خطرات گسترش هوش مصنوعی
هینتون با تکرار نظرات قبلی خود، خطرات ناشی از گسترش هوش مصنوعی را برجسته کرد و هشدار داد که اگر هوش مصنوعی از هوش انسانی پیشی بگیرد، هیچ تضمینی وجود ندارد که انسان بتواند آن را کنترل کند. هینتون تاکید کرد که این تهدیدها فقط علمی تخیلی نیستند و جامعه باید این تهدیدها را جدی بگیرد. او گفت که خطرات هوش مصنوعی تنها پس از مشاهده اثرات فاجعه بار روبات های قاتل قابل تشخیص است.
هینتون با اشاره به مسائل جاری توجه خود را به موضوعاتی مانند تبعیض، بی عدالتی، اطلاعات غلط و نگرانی های مربوط به سلامت روان در ارتباط با هوش مصنوعی جلب کرد. او گفت که وقتی داده های آموزشی هوش مصنوعی مغرضانه باشد، می توان نتایج نادرستی تولید کرد. الگوریتم ها همچنین می توانند حباب هایی از اطلاعات ایجاد کنند که اطلاعات نادرست را تقویت می کند. هینتون شک داشت که بتوانیم همه اطلاعات نادرست را پیدا کنیم، اما معتقد بود که برچسب زدن اطلاعات نادرست به عنوان “اطلاعات نادرست” مهم است.
با وجود این نگرانی ها، جفری هینتون گفت که هنوز هوش مصنوعی را رها نکرده است و به اثرات مثبت آن اشاره کرد. با این حال، او هشدار داد که استفاده از هوش مصنوعی می تواند هزینه بالایی داشته باشد. هینتون پیشنهاد کرد که برای درک مشکلات بالقوه هوش مصنوعی و جلوگیری از تسخیر آن به تحقیقات نیاز است. او معتقد است که کاستیهای این فناوری همچنان قابل اصلاح است و برای این منظور باید سیاستهای شرکتها را با استفاده اخلاقی از هوش مصنوعی همسو کرد.
هینتون در پاسخ به سوالی درباره تاثیر پیشرفت های هوش مصنوعی بر کاهش مشاغل، گفت که مقابله با نابرابری مستلزم اتخاذ رویکردی سوسیالیستی است. هینتون مردم را تشویق کرد که به دنبال مشاغلی بروند که می توانند با پیشرفت ها سازگار شوند، مانند لوله کشی. وی خاطرنشان کرد که جامعه برای همسویی با هوش مصنوعی باید تغییرات بزرگی ایجاد کند.