خطرات هوش مصنوعی و تعهد 8 گانه غول‌های فناوری به دولت آمریکا!

زمان مطالعه: 3 دقیقه

خطرات هوش مصنوعی یکی از بحث‌های داغ در دنیای امروز فناوری است. آنطور که نیویورک تایمز گزارش داده، غول‌های فناوری برای جلوگیری از خطرات هوش مصنوعی تعهد داده‌اند.

چه قانونی، با چه کیفیتی، چگونه و با چه میزان از ضمانت اجرایی می‌تواند خطرات ناشی از توسعه افراطی هوش مصنوعی را در دنیا مدیریت کند؟
چگونه این قوانین همزمان با جلوگیری از خطرات می‌تواند مانع پیشرفت‌های فناورانه نشود؟
این سوالات در حال حاضر یکی از مهم‌ترین بحث‌ها میان قانون گذاران و رگولاتورها و هوش مصنوعی است.

اما با این حال دو رویکرد متفاوت را در نیم کره غربی نسبت به AI شاهد هستید، با اینکه اتحادیه اروپا بازهم در قانون‌گذاری پیشتاز جهان شده و به تعبیر ناظران سخت‌ترین قوانین را پیشنهاد کرده اما در ایالات متحده، منزلگاه بزرگترین شرکت‌های هوش مصنوعی، شرایط متفاوت است. غول‌های آمریکایی به تازگی تعهداتی داوطلبانه را به دولت آمریکا ارائه کرده‌اند.

به روایت نیویورک تایمز، بزرگترین ارائه دهندگان محصولات هوش مصنوعی یعنی شرکت‌های:
۱.آمازون
۲. آنتروپیک
۳.گوگل
۴.اینفلکشن
۵.متا
۶.مایکروسافت
۷.اوپن‌ای‌آی

تعهدی را با دولت آمریکا داده‌اند تا پیش از اعمال قوانین مشخص، از توسعه افراطی هوش مصنوعی خودداری کنند و اصولی را نیز در نظر بگیرند.
اما این تعهد ۸ گانه شامل چه مواردی می‌شود؟

۱. جلوگیری از خطرات هوش مصنوعی با آزمون‌های اولیه

براساس گزارش نیویورک تایمز این مورد اولین تعهدی است که این شرکت‌ها برای جلوگیری از خطرات هوش مصنوعی ارائه کرده‌اند. تعهد آزمایش و آزمون امنیتی چیز جدیدی نیست و هرکدام از این شرکت‌ها پیش از این هم به چنین اقداماتی متعهد شده بودند.
از یک سو تعهد جدیدی ارائه نشده و افزون بر این وعده شرکت‌ها مبهم است. جزئیات چندانی درمورد الزامات آزمون یا مسئول آن ارائه نشده است.

۲. اشتراک گذاری اطلاعات خطرات هوش مصنوعی

تعهد دوم برای جلوگیری از خطرات هوش مصنوعی هم تا حدی مبهم است، طبق این تعهد، شرکت‌ها موظف هستند اطلاعات مربوط به مدیریت خطرات هوش مصنوعی را در تمام صنعت و با دولت، جامعه مدنی و آکادمیک به اشتراک‌ بگذارند.
طبق تحلیل نیویورک تایمز، به نظر هدف کاخ سفید بیشتر از اینکه انتشار پارامتر‌های هوش مصنوعی باشد، ترغیب شرکت‌ها به تبادل اطلاعات با یکدیگر و بررسی خطرات مختلف از این طریق است.

۳. سرمایه گذاری در امنیت سایبری و معیارهای مدل

این تعهد از نگاه فعالان هوش مصنوعی روشن‌تر است و جای بحث کمتری دارد. «معیار‌های مدل» (Model weights) به معنی دستورالعمل‌های ریاضی است که به مدل‌های هوش مصنوعی امکان فعالیت می‌دهد. جاسوسان یا کسانی که مثلا به دنبال کپی کردن ChatGPT هستند برای سرقت همین معیار‌ها تلاش می‌کنند و کنترل آنها به نفع شرکت‌ها است.

پیشتر مشکلاتی در همین حوزه رخ داده که از جمله می‌توان به نشت اطلاعات مدل هوش مصنوعی شرکت متا (LLaMA) اشاره کرد.

۴. شناسایی نقاط ضعف و به اشتراک گذاری آنها

طبق گزارش نیویورک تایمز، مفهوم این تعهد چندان روشن نیست. شرکت‌های هوش مصنوعی پیش از این هم پس از عرضه محصولاتشان، آنهم به دلیل تلاش دیگران برای سو استفاده و دور زدن محدودیت‌ها، نقاط ضعفی را شناسایی کرده‌اند.

با این حال این تعهد از شرکت‌ها می‌خواهد تا «مکانیزم گزارش قدرتمندی» را ایجاد کنند تا بتوان نقاط ضعف را گزارش داد.

۵. شناسایی دقیق محتوای تولید شده توسط هوش مصنوعی

براساس این تعهد شرکت‌ها باید بتوانند، مکانیزم‌های فنی قدرتمندی برای تضمین اطلاع رسانی درمورد محتوای تولیدی هوش مصنوعی از جمله یک سیستم واترمارک ارائه کنند.

۶. ارائه گزارش در حوزه توانمندی‌ها و محدودیت‌ها

براساس گزارش نیویورک تایمز، تعهد ششم هم جای بحث بسیار دارد. چطور می‌توان شرکتی را ملزم کرد تا درمورد توانمندی‌ها و محدودیت‌های سیستم خودش گزارش دقیق و بی‌طرف ارائه کند؟
این اطلاعات چه جزئیاتی را در بر می‌گیرد؟ و با توجه به موارد بسیاری که در آن توانمندی سیستم خود شرکت را نیز شگفت زده کرده چطور می‌توان گزارشی روشن از آن ارائه کرد؟

خطرات هوش مصنوعی

۷. تحقیق درمورد خطرات اجتماعی سیستم‌های هوش مصنوعی

براساس این تعهد شرکت‌ها باید تحقیق درمورد خطرات اجتماعی سیستم‌های هوش مصنوعی از جمله جلوگیری از تبعیض و سو‌گیری خطرناک و محافظت از حریم خصوصی را در اولویت قرار دهند.

۸. اولویت قرار دادن چالش‌های اجتماعی

کاخ سفید «پیشگیری از سرطان» و «جلوگیری از تغییر اقلیمی» را به دو چالش مهم اجتماعی مشخص کرده که شرکت‌های هوش مصنوعی باید روی آن تمرکز کنند.

در این زمینه بخوانید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *