کارشناسان از جمله روسای دو شرکت «اوپن اِی آی» و «گوگل دیپ مایند» هشدار دادهاند که هوش مصنوعی ممکن است به انقراض نوع بشر منجر شود.
بیانیهای که دهها کارشناس امضا کردهاند در وبسایت «مرکز ایمنی هوش مصنوعی» منتشر شده است.
در این بیانیه آمده است: «تخفیف خطر انقراض در نتیجه هوش مصنوعی باید در کنار سایر خطرات گسترده اجتماعی مانند همهگیری و جنگ هستهای در اولویت جهانی قرار گیرد.»
اما دیگران میگویند که این هشدارها اغراق آمیز است.
سم آلتمن، رئیس شرکت «اوپن اِی آی» که «چت جیپیتی» را طراحی کرده، دیوید هاسابیس، مدیرعامل «گوگل دیپ مایند» و داریو آمودئی رئیس «آنتروپیک» همگی از این بیانیه حمایت کرده اند.
ایلان ماسک و چند نامدار دنیای فناوری خواستار توقف ۶ ماهه پروژههای فوق پیشرفته هوش مصنوعی شدند
وبسایت «مرکز ایمنی هوش مصنوعی» (Centre for AI Safety) شماری از فاجعههای بالقوه هوش مصنوعی را برشمرده است:
امکان به کارگیری سیستمهای هوش مصنوعی به عنوان سلاح وجود دارد – برای مثال میتوان از ابزارهای کشف دارو برای تولید سلاح های شیمیایی استفاده کرد
اطلاعات غلط تولید شده توسط «اِی آی» ممکن است جامعه را بیثبات و «تصمیمگیری جمعی را تضعیف کند»
قدرت هوش مصنوعی ممکن است به تدریج در دست افراد کمتر و کمتری متمرکز شود، که به «رژیمها امکان خواهد داد ارزشهای محدودی را از طریق تجسس و سانسور و سرکوب اعمال کنند»
سستی و ناتوانی، به دلیل تکیه کامل بر هوش مصنوعی «شبیه آنچه در فیلم وال ای به تصویر کشیده شده است»
دکتر جفری هینتون، که پیشتر درباره خطرات یک سیستم هوش مصنوعی فوقالعاده قوی هشدار داده بود، هم از این بیانیه حمایت کرده است.
یوشوا بنجیو، استاد علوم کامپیوتر در دانشگاه مونترال، هم آن را امضا کرده است.
دکتر هینتون، پروفسور بنجیو و یان لیکون استاد دانشگاه نیویورک (ان وای یو) به خاطر دستاوردهای خود در این زمینه اغلب پدرخواندههای هوش مصنوعی شناخته میشوند.
آنها مشترکا برنده جایزه سال ۲۰۱۸ تورینگ شدند که به خاطر خدمات برجسته به علوم کامپیوتر اعطا میشود.
اما پروفسور لیکون که همچنین برای شرکت متا کار میکند، گفته است که این اخطارهای آخرالزمانی اغراقآمیز است. او در توییتی نوشت که «رایج ترین واکنش محققان هوش مصنوعی به این نوع پیشگویی ها درباره آینده ای تیره، یاس و ناباوری است.»
«گسست در واقعیت»
خیلی دیگر از کارشناسان به همین ترتیب فکر میکنند که ترس از اینکه هوش مصنوعی موجودیت نوع بشر را تهدید کند غیرواقعبینانه است و باعث انحراف از توجه به مسائلی مانند تعصب در سیستمهای هوش مصنوعی میشود که همین حالا هم یک مشکل است.
آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون، قبلا به بیبیسی گفته است که سناریوهای بروز فاجعه واقعبینانه نیست: «هوش مصنوعی در شکل فعلی اصلا توانایی کافی برای تحقق این خطرات را ندارد. در نتیجه، این باعث انحراف توجه از زیانهای اِی آی در آینده نزدیک میشود.»
الیزابت رنیِریس از «موسسه آکسفورد برای اخلاق در هوش مصنوعی» به بیبیسی نیوز گفت که او بیشتر نگران خطرات در آینده نزدیک است.
او گفت: «پیشرفتها در زمینه هوش مصنوعی سیستمهای خودکار تصمیمگیری که مغرضانه، تبعیضآمیز، طردکننده یا غیرمنصفانه هستند و در عین حال غیرقابل درک و غیرقابل اعتراض هستند را تقویت میکند.»
او افزود که این سیستمها «به افزایش تصاعدی در حجم و گسترش اطلاعات نادرست منجر خواهد شد، در نتیجه باعث ایجاد گسست در واقعیت خواهد شد، اعتماد عمومی را از بین خواهد برد، و به نابرابری بیشتر دامن خواهد زد، به ویژه برای کسانی که در سوی اشتباه شکاف دیجیتالی باقی میمانند.»
خانم رنیریس گفت، بسیاری از ابزارهای هوش مصنوعی اساسا «با گرفتن سواری مجانی» بر روی «کل تجربه بشری تا به امروز» بنا شدهاند. بسیاری با کمک محتوا، متن، هنر و موسیقی خلق شده توسط انسان آموزش دیدهاند و میتوانند از آنها تقلید کنند – و سازندگان این سیستمها «عملا ثروت و قدرت عظیمی را از حوزه عمومی به تعداد کمی از نهادهای خصوصی منتقل کردهاند.»
اما دن هِندریکس، مدیر مرکز ایمنی هوش مصنوعی، به بیبیسی نیوز گفت که خطرات آینده و نگرانیهای امروزی «نباید در تضاد با هم دیده شود.»
وی گفت: «پرداختن به برخی از مسائل کنونی میتواند برای رسیدگی به بسیاری از خطرات آتی مفید باشد.»
در ماه مارس گروهی از کارشناسان از جمله ایلان ماسک، بنیانگذار شرکت تسلا، در نامهای سرگشاده خواستار توقف توسعه نسل بعدی فناوری هوش مصنوعی به صورتی موقتی شدند. توجه رسانهای به موضوع خطرات فرضی این فناوری برای بشر از آن زمان شدت زیادی گرفته است.
آن نامه میپرسید که آیا ما باید «ذهنهایی غیرانسانی بسازیم که در نهایت ممکن است از نظر تعداد و هوش از ما پیشی بگیرند، ما را منسوخ کنند و جایگزین ما شوند.»
در مقابل، بیانیه تازه بسیار کوتا است و برای «باز کردن بحث» طراحی شده است.
این بیانیه خطر هوش مصنوعی در آینده را با خطر ناشی از جنگ هستهای مقایسه میکند.
شرکت «اوپن اِی آی» اخیرا در یک پست وبلاگی گفت که میتوان «سیستمهای ابرهوش» را به همان شکلی که انرژی اتمی کنترل میشود تحت مقررات در آورد: «ما در نهایت به چیزی مانند آژانس بینالمللی انرژی اتمی برای تلاشهای ساخت سیستمهای ابرهوشمند نیاز داریم.»
دادن اطمینان
هم سام آلتمن و هم ساندار پیچای، مدیر اجرایی گوگل از جمله رهبران فناوری هستند که اخیرا درباره مقررات هوش مصنوعی با نخست وزیر بریتانیا صحبت کردهاند.
ریشی سوناک در صحبت با خبرنگاران در مورد آخرین هشدار در مورد خطر هوش مصنوعی، بر مزایای آن برای اقتصاد و جامعه تاکید کرد.
او گفت: «اخیرا دیدهایم که این فناوری به افراد معلول کمک میکند راه بروند و به کشف آنتیبیوتیکهای جدید کمک کرده، اما ما باید مطمئن شویم که این کار به نحوی ایمن انجام میشود.»
«به همین دلیل است که هفته گذشته با مدیر عامل شرکتهای بزرگ هوش مصنوعی ملاقات کردم تا در مورد این که چه حفاظ هایی را باید در نظر بگیریم، و چه نوع مقرراتی را باید وضع کنیم تا ایمن بمانیم، صحبت کردم.»
«مردم از گزارشهایی که میگوید هوش مصنوعی سرمنشاء خطرات وجودی، همانند همهگیریها یا جنگهای هستهای است، نگران خواهند شد. من میخواهم به آنها اطمینان داده شود که دولت با دقت به این موضوع را زیر نظر دارد.»
آقای سوناک گفت که او اخیرا این موضوع را با رهبران دیگر در اجلاس گروه ۷ متشکل از کشورهای صنعتی مطرح کرده بود و به زودی دوباره آن را در ایالات متحده مطرح خواهد کرد.
گروه ۷ اخیرا یک گروه کاری در زمینه هوش مصنوعی ایجاد کرده است.