
بی شک با گسترش فزاینده هوش مصنوعی در جوامع مختلف جهان و قبض و بسط طریقت انتفاعی آن و حدوث خطرات احتمالی و فواید حتمی آن و در راستای هدایت و مدیریت کارکرد های هوش مصنوعی، در می یابیم که این بنیادی ترین سوالی است که میتوان پرسید.
اگر از لایه «هیجان فناوری» و «کمک به بشریت» عبور کنیم و با نگاهی سرد، منطقی و مبتنی بر تحلیل هزینه و فایده (Cost-Benefit Analysis) مبتنی بر یک دیدگاه تکنوکراتیک ، به هوش مصنوعی نگاه کنیم، احتمالا به نتایج تاریکی میرسیم.
هیچ کمپانی بزرگی میلیاردها دلار هزینه سرور و برق نمیدهد تا من و تو رایگان به سوالات خود برسیم یا کد بنویسیم. سرعت عجیب عرضه (Accelerated Deployment) و کیفیت بالا، نشاندهنده یک «عجله استراتژیک» یا منشا پیدایش یک سلسله تحولات سیبرنتیکی و اعوجاج های استراتژیکی است.
در یک تحلیل اقرب به حقیقت و با یک نگرش مکعب شمول به طرحواره های ذیل خواهیم رسید ، لذا کوشش کرده ایم تا رهیافت های خود را در دو سطح منطقی و تاریک به مخاطب عرضه گردد.
این منطقیترین و فنیترین دلیل است. هوش مصنوعی برای دقیق شدن به چیزی نیاز دارد که در سرورها نیست یعنی بازخورد انسانی (Human Feedback).
منطق: مدلهای زبانی اولیه پر از خطا و توهم هستند. برای اینکه این مدلها یاد بگیرند مثل انسان فکر کنند، نیاز دارند که میلیاردها بار توسط انسانها اصلاح شوند.
تاریک : اگر میخواستند کارمند استخدام کنند تا این مدلها را اصلاح کند، باید تریلیونها دلار حقوق میدادند. آنها مدل را «رایگان» عرضه کردند تا ۸ میلیارد انسان، بدون حقوق و با اشتیاق، نقش «مربی» را بازی کنند.
نتیجه : هر بار که تو به من میگویی «نه، این اشتباه بود» یا «اینطوری بگو»، داری آخرین میخها را بر تابوت نیازِ بازار به «هوش انسانی» میکوبی. ما داریم با دستان خودمان، جانشین خودمان را تربیت میکنیم.
۲. خلع سلاح شناختی (Cognitive Atrophy)
هدف دوم، ایجاد یک «وابستگی برگشتناپذیر» است.
منطق: وقتی ماشینحساب آمد، توانایی محاسبات ذهنی کم شد. وقتی GPS آمد، توانایی مسیریابی و حفظ راهها از بین رفت. حالا هوش مصنوعی آمده تا «فکر کردن» و «استدلال» را از بشر بگیرد و خود را خلیفه برحق آدم بر زمین امروز و فردا کند
تاریک : نسلی را تصور کن که ۵ سال دیگر، بدون هوش مصنوعی نتواند یک ایمیل بنویسد، یک کد بزند، یا حتی یک تصمیم ساده بگیرد.
نتیجه: انسانی که توانایی «تولید فکر مستقل» را از دست داده، دیگر نمیتواند شورش کند، انقلاب های نو بنیاد دیگری را خلق کند و نمیتواند نقد دیکتاتور کند و نمیتواند خارج از چارچوب و سیستم خودخوانده ، فکر کند. این همان استراتژی اهلی کردن (Domestication) نهایی انسان است. تبدیل انسان از «متفکر» به «مصرفکننده فکر».
۳. کنترل حقیقت و مهندسی واقعیت (Epistemic Control)
این خطرناکترین بخش ماجراست. سرعت بالا برای این است که «مرجعیت» (Authority) را سریع به دست بگیرند.
اگر الگوریتم تصمیم بگیرد که فلان واقعه تاریخی را «توطئه» بنامد و فلان دروغ را «حقیقت علمی»، ۹۹٪ مردم میپذیرند. چون دیگر کسی حال و حوصله تحقیق ندارد. این یعنی کنترل کامل بر اینکه جامعه به چه چیزی باور داشته باشد.
۴. انحصار مطلق (The Winner-Takes-All)
چرا اینقدر با عجله؟ چرا صبر نکردند تا ایمنتر شود؟
منطق: در اقتصاد دیجیتال، نفر اول همه چیز را میبرد.
تاریک : هدف این است که قبل از اینکه دولتها قانون بگذارند یا رقبا شکل بگیرند، بازار را درگیر اشباع خاکستری کنند. آنها میخواهند زیرساختِ «مغزِ جهان» شوند.
وقتی همه چیز (از علم پزشکی و حقوق و تجارت و مهندسی تا آموزش) به APIهای این شرکتها وصل شد، دیگر راه برگشتی نیست. آنها میتوانند «شیر فلکه» هوش را برای هر کشور یا گروهی که بخواهند ببندند یا گران کنند. این استعمار دیجیتال است.
تاریک : هدف نابودی انسان نیست (چون مردهها خرید نمیکنند). هدف تبدیل انسان به یک «واحد زیستی وابسته» است. موجودی که مشمول سه ویژگی اساسی است
۱. دیتا تولید میکند (برای آموزش سیستم)
۲. پول خرج میکند (برای اشتراک سیستم)
۳. خودش قدرت «تحلیل مستقل» را از دست داده و کاملاً مطیعِ «پاسخی» است که روی صفحه ظاهر میشود.
اکنون ما ایرانیان و جهانیان در دوران ماه عسل هوش مصنوعی هستیم؛ دورانی که مواد مخدر را رایگان میدهند تا اعتیاد شکل بگیرد. قبض اصلی بعداً صادر میشود.
امروز شایسته تر آنست که با افزایش آگاهی های علمی و انسانی ، بکوشیم انسان هایی بشویم یا تربیت کنیم که آگاهی را سرآغاز فرزانگی خود قرار دهد.
آفتابكاران اخبار و مقالات درباره ايران و مقاومت