خطرات هوش مصنوعی یکی از بحثهای داغ در دنیای امروز فناوری است. آنطور که نیویورک تایمز گزارش داده، غولهای فناوری برای جلوگیری از خطرات هوش مصنوعی تعهد دادهاند.
چه قانونی، با چه کیفیتی، چگونه و با چه میزان از ضمانت اجرایی میتواند خطرات ناشی از توسعه افراطی هوش مصنوعی را در دنیا مدیریت کند؟
چگونه این قوانین همزمان با جلوگیری از خطرات میتواند مانع پیشرفتهای فناورانه نشود؟
این سوالات در حال حاضر یکی از مهمترین بحثها میان قانون گذاران و رگولاتورها و هوش مصنوعی است.
اما با این حال دو رویکرد متفاوت را در نیم کره غربی نسبت به AI شاهد هستید، با اینکه اتحادیه اروپا بازهم در قانونگذاری پیشتاز جهان شده و به تعبیر ناظران سختترین قوانین را پیشنهاد کرده اما در ایالات متحده، منزلگاه بزرگترین شرکتهای هوش مصنوعی، شرایط متفاوت است. غولهای آمریکایی به تازگی تعهداتی داوطلبانه را به دولت آمریکا ارائه کردهاند.
به روایت نیویورک تایمز، بزرگترین ارائه دهندگان محصولات هوش مصنوعی یعنی شرکتهای:
۱.آمازون
۲. آنتروپیک
۳.گوگل
۴.اینفلکشن
۵.متا
۶.مایکروسافت
۷.اوپنایآی
تعهدی را با دولت آمریکا دادهاند تا پیش از اعمال قوانین مشخص، از توسعه افراطی هوش مصنوعی خودداری کنند و اصولی را نیز در نظر بگیرند.
اما این تعهد ۸ گانه شامل چه مواردی میشود؟
۱. جلوگیری از خطرات هوش مصنوعی با آزمونهای اولیه
براساس گزارش نیویورک تایمز این مورد اولین تعهدی است که این شرکتها برای جلوگیری از خطرات هوش مصنوعی ارائه کردهاند. تعهد آزمایش و آزمون امنیتی چیز جدیدی نیست و هرکدام از این شرکتها پیش از این هم به چنین اقداماتی متعهد شده بودند.
از یک سو تعهد جدیدی ارائه نشده و افزون بر این وعده شرکتها مبهم است. جزئیات چندانی درمورد الزامات آزمون یا مسئول آن ارائه نشده است.
۲. اشتراک گذاری اطلاعات خطرات هوش مصنوعی
تعهد دوم برای جلوگیری از خطرات هوش مصنوعی هم تا حدی مبهم است، طبق این تعهد، شرکتها موظف هستند اطلاعات مربوط به مدیریت خطرات هوش مصنوعی را در تمام صنعت و با دولت، جامعه مدنی و آکادمیک به اشتراک بگذارند.
طبق تحلیل نیویورک تایمز، به نظر هدف کاخ سفید بیشتر از اینکه انتشار پارامترهای هوش مصنوعی باشد، ترغیب شرکتها به تبادل اطلاعات با یکدیگر و بررسی خطرات مختلف از این طریق است.
۳. سرمایه گذاری در امنیت سایبری و معیارهای مدل
این تعهد از نگاه فعالان هوش مصنوعی روشنتر است و جای بحث کمتری دارد. «معیارهای مدل» (Model weights) به معنی دستورالعملهای ریاضی است که به مدلهای هوش مصنوعی امکان فعالیت میدهد. جاسوسان یا کسانی که مثلا به دنبال کپی کردن ChatGPT هستند برای سرقت همین معیارها تلاش میکنند و کنترل آنها به نفع شرکتها است.
پیشتر مشکلاتی در همین حوزه رخ داده که از جمله میتوان به نشت اطلاعات مدل هوش مصنوعی شرکت متا (LLaMA) اشاره کرد.
۴. شناسایی نقاط ضعف و به اشتراک گذاری آنها
طبق گزارش نیویورک تایمز، مفهوم این تعهد چندان روشن نیست. شرکتهای هوش مصنوعی پیش از این هم پس از عرضه محصولاتشان، آنهم به دلیل تلاش دیگران برای سو استفاده و دور زدن محدودیتها، نقاط ضعفی را شناسایی کردهاند.
با این حال این تعهد از شرکتها میخواهد تا «مکانیزم گزارش قدرتمندی» را ایجاد کنند تا بتوان نقاط ضعف را گزارش داد.
۵. شناسایی دقیق محتوای تولید شده توسط هوش مصنوعی
براساس این تعهد شرکتها باید بتوانند، مکانیزمهای فنی قدرتمندی برای تضمین اطلاع رسانی درمورد محتوای تولیدی هوش مصنوعی از جمله یک سیستم واترمارک ارائه کنند.
۶. ارائه گزارش در حوزه توانمندیها و محدودیتها
براساس گزارش نیویورک تایمز، تعهد ششم هم جای بحث بسیار دارد. چطور میتوان شرکتی را ملزم کرد تا درمورد توانمندیها و محدودیتهای سیستم خودش گزارش دقیق و بیطرف ارائه کند؟
این اطلاعات چه جزئیاتی را در بر میگیرد؟ و با توجه به موارد بسیاری که در آن توانمندی سیستم خود شرکت را نیز شگفت زده کرده چطور میتوان گزارشی روشن از آن ارائه کرد؟
۷. تحقیق درمورد خطرات اجتماعی سیستمهای هوش مصنوعی
براساس این تعهد شرکتها باید تحقیق درمورد خطرات اجتماعی سیستمهای هوش مصنوعی از جمله جلوگیری از تبعیض و سوگیری خطرناک و محافظت از حریم خصوصی را در اولویت قرار دهند.
۸. اولویت قرار دادن چالشهای اجتماعی
کاخ سفید «پیشگیری از سرطان» و «جلوگیری از تغییر اقلیمی» را به دو چالش مهم اجتماعی مشخص کرده که شرکتهای هوش مصنوعی باید روی آن تمرکز کنند.