اختلاف نظر در میان کارشناسان هوش مصنوعی در مورد ماهیت خطرات آن


کارشناسان از جمله روسای دو شرکت «اوپن اِی آی» و «گوگل دیپ مایند» هشدار داده‌اند که هوش مصنوعی ممکن است به انقراض نوع بشر منجر شود.

بیانیه‌ای که ده‌ها کارشناس امضا کرده‌اند در وبسایت «مرکز ایمنی هوش مصنوعی» منتشر شده است.

در این بیانیه آمده است: «تخفیف خطر انقراض در نتیجه هوش مصنوعی باید در کنار سایر خطرات گسترده اجتماعی مانند همه‌گیری و جنگ هسته‌ای در اولویت جهانی قرار گیرد.»

اما دیگران می‌گویند که این هشدارها اغراق آمیز است.

سم آلتمن، رئیس شرکت «اوپن اِی آی» که «چت جی‌پی‌تی» را طراحی کرده، دیوید هاسابیس، مدیرعامل «گوگل دیپ مایند» و داریو آمودئی رئیس «آنتروپیک» همگی از این بیانیه حمایت کرده اند.

ایلان ماسک و چند نام‌دار دنیای فناوری خواستار توقف ۶ ماهه پروژه‌های فوق پیشرفته هوش مصنوعی شدند

وبسایت «مرکز ایمنی هوش مصنوعی» (Centre for AI Safety) شماری از فاجعه‌های بالقوه هوش مصنوعی را برشمرده است:

امکان به کارگیری سیستم‌های هوش مصنوعی به عنوان سلاح وجود دارد – برای مثال می‌توان از ابزارهای کشف دارو برای تولید سلاح های شیمیایی استفاده کرد
اطلاعات غلط تولید شده توسط «اِی آی» ممکن است جامعه را بی‌ثبات و «تصمیم‌گیری جمعی را تضعیف کند»
قدرت هوش مصنوعی ممکن است به تدریج در دست افراد کمتر و کمتری متمرکز شود، که به «رژیم‌ها امکان خواهد داد ارزش‌های محدودی را از طریق تجسس و سانسور و سرکوب اعمال کنند»
سستی و ناتوانی، به دلیل تکیه کامل بر هوش مصنوعی «شبیه آنچه در فیلم وال ای به تصویر کشیده شده است»
دکتر جفری هینتون، که پیشتر درباره خطرات یک سیستم هوش مصنوعی فوق‌العاده قوی هشدار داده بود، هم از این بیانیه حمایت کرده است.

یوشوا بنجیو، استاد علوم کامپیوتر در دانشگاه مونترال، هم آن را امضا کرده است.

دکتر هینتون، پروفسور بنجیو و یان لیکون استاد دانشگاه نیویورک (ان وای یو) به خاطر دستاوردهای خود در این زمینه اغلب پدرخوانده‌های هوش مصنوعی شناخته می‌شوند.

آنها مشترکا برنده جایزه سال ۲۰۱۸ تورینگ شدند که به خاطر خدمات برجسته به علوم کامپیوتر اعطا می‌شود.

اما پروفسور لیکون که همچنین برای شرکت متا کار می‌کند، گفته است که این اخطارهای آخرالزمانی اغراق‌آمیز است. او در توییتی نوشت که «رایج ترین واکنش محققان هوش مصنوعی به این نوع پیشگویی ها درباره آینده ای تیره، یاس و ناباوری است.»

«گسست در واقعیت»

خیلی دیگر از کارشناسان به همین ترتیب فکر می‌کنند که ترس از اینکه هوش مصنوعی موجودیت نوع بشر را تهدید کند غیرواقع‌بینانه است و باعث انحراف از توجه به مسائلی مانند تعصب در سیستم‌های هوش مصنوعی می‌شود که همین حالا هم یک مشکل است.

آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون، قبلا به بی‌بی‌سی گفته است که سناریوهای بروز فاجعه واقع‌بینانه نیست: «هوش مصنوعی در شکل فعلی اصلا توانایی کافی برای تحقق این خطرات را ندارد. در نتیجه، این باعث انحراف توجه از زیان‌های اِی آی در آینده نزدیک می‌شود.»

الیزابت رنیِریس از «موسسه آکسفورد برای اخلاق در هوش مصنوعی» به بی‌بی‌سی نیوز گفت که او بیشتر نگران خطرات در آینده نزدیک است.

او گفت: «پیشرفت‌ها در زمینه هوش مصنوعی سیستم‌های خودکار تصمیم‌گیری که مغرضانه، تبعیض‌آمیز، طردکننده یا غیرمنصفانه هستند و در عین حال غیرقابل درک و غیرقابل اعتراض هستند را تقویت می‌کند.»

او افزود که این سیستم‌ها «به افزایش تصاعدی در حجم و گسترش اطلاعات نادرست منجر خواهد شد، در نتیجه باعث ایجاد گسست در واقعیت خواهد شد، اعتماد عمومی را از بین خواهد برد، و به نابرابری بیشتر دامن خواهد زد، به ویژه برای کسانی که در سوی اشتباه شکاف دیجیتالی باقی می‌مانند.»

خانم رنیریس گفت، بسیاری از ابزارهای هوش مصنوعی اساسا «با گرفتن سواری مجانی» بر روی «کل تجربه بشری تا به امروز» بنا شده‌اند. بسیاری با کمک محتوا، متن، هنر و موسیقی خلق شده توسط انسان آموزش دیده‌اند و می‌توانند از آنها تقلید کنند – و سازندگان این سیستم‌ها «عملا ثروت و قدرت عظیمی را از حوزه عمومی به تعداد کمی از نهادهای خصوصی منتقل کرده‌اند.»

اما دن هِندریکس، مدیر مرکز ایمنی هوش مصنوعی، به بی‌بی‌سی نیوز گفت که خطرات آینده و نگرانی‌های امروزی «نباید در تضاد با هم دیده شود.»

وی گفت: «پرداختن به برخی از مسائل کنونی می‌تواند برای رسیدگی به بسیاری از خطرات آتی مفید باشد.»

در ماه مارس گروهی از کارشناسان از جمله ایلان ماسک، بنیانگذار شرکت تسلا، در نامه‌ای سرگشاده خواستار توقف توسعه نسل بعدی فناوری هوش مصنوعی به صورتی موقتی شدند. توجه رسانه‌ای به موضوع خطرات فرضی این فناوری برای بشر از آن زمان شدت زیادی گرفته است.

آن نامه می‌پرسید که آیا ما باید «ذهن‌هایی غیرانسانی بسازیم که در نهایت ممکن است از نظر تعداد و هوش از ما پیشی بگیرند، ما را منسوخ کنند و جایگزین ما شوند.»

در مقابل، بیانیه تازه بسیار کوتا است و برای «باز کردن بحث» طراحی شده است.

این بیانیه خطر هوش مصنوعی در آینده را با خطر ناشی از جنگ هسته‌ای مقایسه می‌کند.

شرکت «اوپن اِی آی» اخیرا در یک پست وبلاگی گفت که می‌توان «سیستم‌های ابرهوش» را به همان شکلی که انرژی اتمی کنترل می‌شود تحت مقررات در آورد: «ما در نهایت به چیزی مانند آژانس بین‌المللی انرژی اتمی برای تلاش‌های ساخت سیستم‌های ابرهوشمند نیاز داریم.»

دادن اطمینان

هم سام آلتمن و هم ساندار پیچای، مدیر اجرایی گوگل از جمله رهبران فناوری هستند که اخیرا درباره مقررات هوش مصنوعی با نخست وزیر بریتانیا صحبت کرده‌اند.

ریشی سوناک در صحبت با خبرنگاران در مورد آخرین هشدار در مورد خطر هوش مصنوعی، بر مزایای آن برای اقتصاد و جامعه تاکید کرد.

او گفت: «اخیرا دیده‌ایم که این فناوری به افراد معلول کمک می‌کند راه بروند و به کشف آنتی‌بیوتیک‌های جدید کمک کرده، اما ما باید مطمئن شویم که این کار به نحوی ایمن انجام می‌شود.»

«به همین دلیل است که هفته گذشته با مدیر عامل شرکت‌های بزرگ هوش مصنوعی ملاقات کردم تا در مورد این که چه حفاظ هایی را باید در نظر بگیریم، و چه نوع مقرراتی را باید وضع کنیم تا ایمن بمانیم، صحبت کردم.»

«مردم از گزارش‌هایی که می‌گوید هوش مصنوعی سرمنشاء خطرات وجودی، همانند همه‌گیری‌ها یا جنگ‌های هسته‌ای است، نگران خواهند شد. من می‌خواهم به آنها اطمینان داده شود که دولت با دقت به این موضوع را زیر نظر دارد.»

آقای سوناک گفت که او اخیرا این موضوع را با رهبران دیگر در اجلاس گروه ۷ متشکل از کشورهای صنعتی مطرح کرده بود و به زودی دوباره آن را در ایالات متحده مطرح خواهد کرد.

گروه ۷ اخیرا یک گروه کاری در زمینه هوش مصنوعی ایجاد کرده است.