نخستین قانون استفاده از هوش مصنوعی در جهان به تصویب پارلمان اروپا رسید

تصویری از لوگوی اوپن‌ای‌آی


قانون هوش مصنوعی اتحادیه اروپا با پرداختن به خطرات مرتبط با این فناوری به سرعت در حال تحول، یک چهارچوب نظارتی را ارائه می‌کند که بر اساس آن، سیستم‌های هوش مصنوعی بر اساس خطراتی که میتوانند برای کاربران در بر داشته باشند به گروه‌هایی با محدودیت‌های متفاوت تقسیم می‌شوند. به عنوان مثال، پارلمان اروپا استفاده از فناوری‌ هوش مصنوعی برای تشخیص چهره را دارای خطری غیرقابل قبول دانسته و به جز برای استفاده پلیس در صورت تهدید غیرمنتظره و جرایم جدی مانند آدم ربایی یا تروریسم، ممنوع کرد.

قانونگذاران ٢٧ کشور عضو اتحادیه اروپا امروز چهارشنبه ۱۳ مارس، پس از گذشت پنج سال از ارائه نخستین پیشنهاد وضع قانونی برای به کارگیری هوش مصنوعی، با اکثریت قاطع به این طرح رای مثبت دادند. انتظار می‌رود قانون به کارگیری هوش مصنوعی اتحادیه اروپا برای سایر کشورهایی که با نحوه تنظیم این فناوری در حال توسعه دست و پنجه نرم می‌کنند، به عنوان یک الگو عمل کند.

دراگوس تودوراچه، یک قانونگذار رومانیایی که از رهبران مذاکرات پارلمان اروپا در مورد پیش نویس این قانون بود، امروز پیش از آغاز رأی‌گیری به خبرنگاران گفت: “قانون هوش مصنوعی، آینده هوش مصنوعی را به جهتی انسان محور سوق می‌دهد. جایی که انسان کنترل فناوری را در دست دارد و تکنولوژی به ما کمک می‌کند تا از اکتشافات جدید، رشد اقتصادی، پیشرفت اجتماعی و پتانسیل های انسانی استفاده کنیم”.

شرکت‌های بزرگ فناوری که عموماً از ایجاد قوانین تنظیم هوش مصنوعی حمایت می‌کنند، در عین حال تلاش دارند تا اطمینان حاصل کنند که قوانین وضع شده، به نفع آنها تمام می‌شود. سام آلتمن، مدیر عامل مؤسسهٔ پژوهشی هوش مصنوعی آمریکایی اوپن‌ای‌آی، سال گذشته اعلام کرده بود که در صورت عدم تطابق چت‌جی‌پی‌تی با قانون هوش مصنوعی اروپا، اوپن‌ای‌آی فعالیت خود در این قاره را متوقف خواهد کرد.

قوانین هوش مصنوعی چگونه عمل می‌کنند؟
این مقررات که هدف آن محافظت از حقوق اساسی، دموکراسی، حاکمیت قانون و پایداری محیط زیست در برابر هوش مصنوعی پرخطر است، بر اساس خطرات احتمالی و سطح تأثیر آن، تعهداتی را برای هوش مصنوعی تعیین می‌کند.

مانند بسیاری از مقررات اتحادیه اروپا، قانون هوش مصنوعی نیز به عنوان قانون حمایت از امنیت مصرف‌کننده عمل کرده و یک “رویکرد مبتنی بر ریسک” را برای محصولات یا خدماتی که از هوش مصنوعی استفاده می‌کنند، اتخاذ می‌کند. بر این اساس، هر چه یک برنامه هوش مصنوعی ریسک بیشتری داشته باشد، با بررسی دقیقتری مواجه می‌شود.

به این ترتیب، اکثر قریب به اتفاق سیستم‌های هوش مصنوعی، مانند سیستم‌های توصیه محتوا یا فیلترهای هرزنامه، کم خطر تلقی میشوند.

در عین حال استفاده‌های پرخطر از هوش مصنوعی، در زمینه‌هایی مانند تجهیزات پزشکی یا زیرساخت‌های حیاتی مانند شبکه‌های آب یا برق، با الزامات سخت‌تری مانند استفاده از داده‌های با کیفیت بالا و ارائه اطلاعات واضح به کاربران مواجه هستند.

برخی از کاربردهای هوش مصنوعی از قبیل سیستم‌های امتیازدهی اجتماعی، استفاده پلیس برای پیش بینی محل و زمان وقوع جرم و همچنین سیستم های تشخیص احساسات در مدرسه و محل کار که به نظر می‌رسد خطری غیرقابل قبول دارند، ممنوع هستند. سایر کاربردهای ممنوعه هوش مصنوعی، شناسایی بیومتریک چهره از راه دور -به استثنا استفاده پلیس در مقابله با جرایم جدی مانند آدم ربایی یا تروریسم- را شامل میشود.