اروپا ChatGPT را با مقررات مهم هدف قرار می دهد

شرکت‌های خصوصی واگذار شده‌اند تا فناوری هوش مصنوعی را با سرعتی سرسام‌آور توسعه دهند و سیستم‌هایی مانند ChatGPT OpenAI با پشتیبانی مایکروسافت و Bard Google را به وجود آورند.

لیونل بوناونچر | خبرگزاری فرانسه | گتی ایماژ

یک کمیته کلیدی از قانونگذاران در پارلمان اروپا اولین مقررات هوش مصنوعی در نوع خود را تصویب کردند که آن را به قانون شدن نزدیکتر می کند.

این تایید یک پیشرفت چشمگیر در رقابت بین مقامات برای دستیابی به کنترل هوش مصنوعی است که با سرعت سرسام آوری در حال پیشرفت است. این قانون که به عنوان قانون هوش مصنوعی اروپا شناخته می شود، اولین قانون سیستم های هوش مصنوعی در غرب است. چین قبلاً قوانینی را طراحی کرده است که برای مدیریت نحوه توسعه شرکت‌ها محصولات هوش مصنوعی مانند ChatGPT طراحی شده است.

قانون یک رویکرد مبتنی بر ریسک را برای تنظیم هوش مصنوعی اتخاذ می کند، که در آن تعهدات یک سیستم متناسب با سطح خطری است که ایجاد می کند.

این قوانین همچنین الزامات ارائه دهندگان به اصطلاح “مدل های بنیادی” مانند ChatGPT را مشخص می کند، که با توجه به پیشرفت آنها و ترس از جابجایی کارگران ماهر، به یک نگرانی اصلی برای تنظیم کننده ها تبدیل شده است.

قوانین چه می گویند؟

قانون هوش مصنوعی کاربردهای هوش مصنوعی را در چهار سطح ریسک طبقه بندی می کند: ریسک غیرقابل قبول، ریسک بالا، ریسک محدود و حداقل یا بدون خطر.

برنامه های کاربردی ریسک غیرقابل قبول به طور پیش فرض ممنوع هستند و نمی توانند در بلوک مستقر شوند.

آنها عبارتند از:

  • سیستم‌های هوش مصنوعی از تکنیک‌های زیرآگهی یا تکنیک‌های فریبنده یا دستکاری برای تحریف رفتار استفاده می‌کنند
  • سیستم‌های هوش مصنوعی از آسیب‌پذیری‌های افراد یا گروه‌های خاص بهره‌برداری می‌کنند
  • سیستم های طبقه بندی بیومتریک بر اساس ویژگی ها یا ویژگی های حساس
  • سیستم‌های هوش مصنوعی برای امتیازدهی اجتماعی یا ارزیابی قابلیت اعتماد استفاده می‌شوند
  • سیستم های هوش مصنوعی برای ارزیابی ریسک که جرایم جنایی یا اداری را پیش بینی می کند استفاده می شود
  • سیستم‌های هوش مصنوعی پایگاه‌های اطلاعاتی تشخیص چهره را از طریق خراشیدن بدون هدف ایجاد یا گسترش می‌دهند
  • سیستم های هوش مصنوعی استنباط احساسات در اجرای قانون، مدیریت مرز، محل کار، و آموزش

چندین قانونگذار خواستار گرانتر شدن این اقدامات برای اطمینان از پوشش ChatGPT شده بودند.

برای این منظور، الزاماتی بر «مدل های بنیادی» مانند مدل های زبان بزرگ و هوش مصنوعی مولد اعمال شده است.

توسعه دهندگان مدل های پایه باید قبل از عمومی کردن مدل های خود، بررسی های ایمنی، اقدامات حاکمیتی داده ها و کاهش ریسک را اعمال کنند.

آنها همچنین ملزم خواهند بود اطمینان حاصل کنند که داده های آموزشی مورد استفاده برای اطلاع رسانی سیستم هایشان، قانون حق چاپ را نقض نمی کند.

جیحون پهلوان، مشاور Linklaters و یکی از رهبران این شرکت حقوقی، “ارائه دهندگان چنین مدل های هوش مصنوعی ملزم به انجام اقداماتی برای ارزیابی و کاهش خطرات مربوط به حقوق اساسی، سلامت و ایمنی و محیط زیست، دموکراسی و حاکمیت قانون هستند.” گروه ارتباطات، رسانه و فناوری و IP در مادرید به CNBC گفت.

“آنها همچنین مشمول الزامات حاکمیت داده مانند بررسی مناسب بودن منابع داده و سوگیری های احتمالی هستند.”

مهم است که تأکید کنیم، در حالی که این قانون توسط قانونگذاران در پارلمان اروپا تصویب شده است، اما راه هایی برای تبدیل شدن به قانون فاصله دارد.

چرا حالا؟

شرکت‌های خصوصی واگذار شده‌اند تا فناوری هوش مصنوعی را با سرعتی سرسام‌آور توسعه دهند و سیستم‌هایی مانند این را ایجاد کنند مایکروسافت-پشتیبانی از ChatGPT OpenAI و Bard گوگل.

گوگل روز چهارشنبه مجموعه‌ای از به‌روزرسانی‌های جدید هوش مصنوعی، از جمله یک مدل زبان پیشرفته به نام PaLM 2 را اعلام کرد که به گفته این شرکت در برخی از وظایف از دیگر سیستم‌های پیشرو بهتر عمل می‌کند.

چت ربات‌های جدید هوش مصنوعی مانند ChatGPT بسیاری از فن‌آوران و دانشگاهیان را با توانایی‌شان در ایجاد پاسخ‌های انسانی به درخواست‌های کاربر که توسط مدل‌های زبان بزرگ آموزش‌دیده بر روی حجم عظیمی از داده‌ها طراحی شده‌اند، مجذوب خود کرده‌اند.

اما فناوری هوش مصنوعی سال‌هاست که وجود دارد و در برنامه‌ها و سیستم‌های بیشتری از آنچه فکر می‌کنید ادغام شده است. تعیین می‌کند که مثلاً چه ویدیوهای ویروسی یا تصاویر غذایی را در فید TikTok یا Instagram خود ببینید.

هدف از پیشنهادات اتحادیه اروپا ارائه برخی قوانین جاده ای برای شرکت ها و سازمان های هوش مصنوعی است که از هوش مصنوعی استفاده می کنند.

واکنش صنعت فناوری

این قوانین نگرانی هایی را در صنعت فناوری ایجاد کرده است.

انجمن صنعت کامپیوتر و ارتباطات گفت که نگران است که دامنه قانون هوش مصنوعی بیش از حد گسترده شده است و ممکن است اشکالی از هوش مصنوعی بی ضرر را پیدا کند.

Boniface de Champris، مدیر سیاستگذاری در CCIA Europe، “نگران کننده است که ببینیم دسته های گسترده ای از برنامه های کاربردی هوش مصنوعی – که خطرات بسیار محدودی دارند یا اصلاً هیچ خطری ندارند) اکنون با الزامات سختگیرانه روبرو هستند یا حتی ممکن است در اروپا ممنوع شوند.” از طریق ایمیل به CNBC گفت.

دی چمپریس افزود: «پیشنهاد اولیه کمیسیون اروپا برای قانون هوش مصنوعی رویکردی مبتنی بر ریسک دارد و سیستم‌های هوش مصنوعی خاصی را تنظیم می‌کند که خطر آشکاری دارند.

نمایندگان پارلمان اروپا اکنون انواع اصلاحیه هایی را ارائه کرده اند که ماهیت قانون هوش مصنوعی را تغییر می دهد، که اکنون فرض می کند که دسته های بسیار گسترده ای از هوش مصنوعی ذاتا خطرناک هستند.”

آنچه کارشناسان می گویند

دسی ساووا، رئیس قاره اروپا برای گروه فناوری در شرکت حقوقی Clifford Chance، گفت که قوانین اتحادیه اروپا یک “استاندارد جهانی” برای مقررات هوش مصنوعی تعیین می کند. با این حال، وی افزود که سایر حوزه‌های قضایی از جمله چین، ایالات متحده و بریتانیا به سرعت در حال توسعه پاسخ‌های خود هستند.

ساووا از طریق ایمیل به CNBC گفت: «دسترسی طولانی قوانین AI پیشنهادی ذاتاً به این معنی است که بازیکنان هوش مصنوعی در تمام گوشه‌های جهان باید مراقب باشند.

“سوال درست این است که آیا قانون هوش مصنوعی تنها استانداردی را برای هوش مصنوعی تعیین می کند. چین، ایالات متحده و بریتانیا به نام چند مورد در حال تعیین خط مشی هوش مصنوعی و رویکردهای نظارتی خود هستند. غیرقابل انکار همه آنها مذاکرات قانون هوش مصنوعی را از نزدیک تماشا خواهند کرد. رویکردهای خود را تنظیم می کنند.”

ساووا اضافه کرد که آخرین پیش نویس قانون هوش مصنوعی از پارلمان، بسیاری از اصول اخلاقی هوش مصنوعی را که سازمان ها برای آن فشار آورده اند، به قانون تبدیل می کند.

سارا چاندر، مشاور ارشد سیاست‌گذاری در حقوق دیجیتال اروپایی، یک گروه کمپین حقوق دیجیتال مستقر در بروکسل، گفت که قوانین مدل‌های بنیادی مانند ChatGPT را ملزم می‌کنند که تحت آزمایش، مستندسازی و الزامات شفافیت قرار گیرند.

چاندر به سی‌ان‌بی‌سی گفت: «در حالی که این الزامات شفافیت نگرانی‌های زیرساختی و اقتصادی را با توسعه این سیستم‌های عظیم هوش مصنوعی از بین نمی‌برند، اما شرکت‌های فناوری را ملزم می‌کند تا مقادیر قدرت محاسباتی مورد نیاز برای توسعه آنها را افشا کنند.

پهلوان گفت: «در حال حاضر چندین ابتکار برای تنظیم هوش مصنوعی مولد در سراسر جهان مانند چین و ایالات متحده وجود دارد.

با این حال، قانون هوش مصنوعی اتحادیه اروپا احتمالاً نقشی اساسی در توسعه چنین ابتکارات قانونی در سراسر جهان ایفا می کند و اتحادیه اروپا را به سمت تبدیل شدن مجدد به استانداردساز در صحنه بین المللی سوق می دهد، مشابه آنچه در رابطه با داده های عمومی رخ داد. مقررات حفاظتی.”