سم آلتمن، مدیرعامل «اوپن ایآی» (OpenAI) هشدار داد شرکت او ممکن است در واکنش به قوانین در حال تدوین اتحادیه اروپا درباره هوش مصنوعی، خدمات خود را در کشورهای اروپایی متوقف کند.
آلتمن پس از یک سخنرانی در جمع خبرنگاران در لندن گفت که «نگرانیهای زیادی» در خصوص قانون هوش مصنوعی اتحادیه اروپا دارد؛ قانونی که به گفته مقامات اروپایی در حال طی کردن مراحل نهایی تدوین مقررات است.
طی ماههای گذشته شرایط دربرگیرنده این قانون با هدف شمول تعهدات تازه برای سازندگان «مدلهای بنیادی» هوش مصنوعی گسترش یافته است.
این اصطلاح برای سیستمهای هوش مصنوعی در مقیاس بزرگ که موجب ارائه خدماتی مانند چت جیپیتی (Chat-GPT) و «دالی» (DALL-E) میشود، به کار میرود.
به گزارش روزنامه فایننشالتایمز، آلتمن تاکید کرده است آنچه اهمیت دارد، جزییات این قانون است.
به گفته او، شرکتش تلاش میکند تا خود را با این قانون تطبیق دهد اما اگر نتواند، فعالیتش را در اروپا متوقف خواهد کرد.
یک روز پس از انتشار این نقل قولها، آلتمن در توییتر خود تلاش کرد تا این بار با لحنی ملایمتر، از گفتوگوی سازنده خود با مقامات اروپایی خبر دهد.
او همچنین تاکید کرد اوپن ایآی برنامهای برای خروج از این بازار ندارد.
با وجود این، مدیرعامل اوپن ایآی در گفتوگوی دیگری که یک روز پیش از آن با مجله تایم داشت گفت نگران این است که سیستمهایی مانند چت جیپیتی در قانون اتحادیه اروپا به عنوان سیستمهایی با «ریسک بالا» تعریف شوند؛ در این صورت این شرکت باید برخی ملاحظات ایمنی و شفافیت را برآورده کند.
آلتمن در این گفتوگو با طرح این مساله که «یا میتوانیم این الزامات را حل کنیم یا نه»، تاکید کرده است برای برآورده کردن برخی انتظارات قانونی، محدودیتهای فنی وجود دارد.
علاوه بر چالشهای فنی، الزام اعلام منابع مورد استفاده که در قانون هوش مصنوعی اتحادیه اروپا به آن اشاره شده است نیز میتواند تهدیدات تجاری متعددی را برای اوپن ایآی به همراه بیاورد.
در پیشنویس فعلی این قانون، سازندگان مدلهای بنیادی هوش مصنوعی موظفاند جزییات مرتبط با طراحی سیستم خود را افشا کنند.
این جزییات شامل مواردی مانند قدرت محاسباتی مورد نیاز، مدت زمان آموزش و اطلاعات مرتبط دیگری نظیر قدرت و اندازه مدل یاد شده میشود.
همچنین توسعهدهندگان اینگونه مدلها باید خلاصهای از دادههای دارای حق نشر را که برای آموزش هوش مصنوعی استفاده شده است، ارائه کنند.
شرکت اوپن ایآی در گذشته این جزییات را منتشر میکرد اما حالا چند ماهی است که این روال را متوقف کرده.
ایلیا ساتسکور، یکی از بنیانگذاران این مجموعه، انتشار این جزییات را اشتباه توصیف کرده و عقیده دارد مخفی نگه داشتن این اطلاعات برای جلوگیری از کپیبرداری رقیبان از محصولات این شرکت ضروری است.
علاوه بر آن، وادار کردن اوپن ایآی به انتشار منابع مورد استفاده برای آموزش مدل هوش مصنوعی خود میتواند این شرکت را با خطر شکایت از سوی صاحبان محتوای دارای حق نشر مواجه کند.
هوشهای مصنوعی مولد مانند چت جیپیتی و دالی به واسطه مقادیر بسیار زیادی از محتوا که بخش بزرگی از آنها از وبسایتهای دارای حق نشر گردآوری شده است، آموزش دیدهاند.
انتشار جزییات این منابع، شرکتهای یاد شده را با خطر شکایت از سوی صاحبان این محتوا روبهرو میکند.
در یک نمونه، «استبیلیتی ایآی» (Stability AI)، رقیب اوپن ایآی به دلیل استفاده از محتوایی دارای حق نشر به وسیله شرکت «گتی ایمجز» مورد شکایت قرار گرفته است.
آلتمن پیش از این به سیاستمداران آمریکایی گفته بود مقررات مربوط به هوش مصنوعی باید روی سیستمهای آینده این حوزه که قدرت بیشتری دارند متمرکز شود.
این در حالی است که قانون هوش مصنوعی اتحادیه اروپا بیشتر روی قابلیتهای فعلی اینگونه سیستمها متمرکز است.