براساس تحلیلی که توسط «مت پرالت»، محقق دانشگاه «کارولینای شمالی در چپل هیل» انجام شده است، از برنامه بسیار محبوب ChatGPT از OpenAI در زمینه مسئولیت قانونی محتوا، به‌اندازه شبکه‌های اجتماعی حمایت نخواهد شد. شبکه‌های اجتماعی تحت بخش 230 قانون شایستگی ارتباطات، مسئول انتشار محتوا نیستند و این مسئولیت بر عهده خود کاربران است، اما ظاهراً خبری از این قانون برای ساخته OpenAI نخواهد بود.

پرالت با اشاره به «مدل‌های زبانی بزرگ» (LLM) که ChatGPT و بسیاری از برنامه‌های هوش مصنوعی مشابه از آن بهره می‌برند، توضیح داد که: «دادگاه‌ها احتمالاً متوجه خواهند شد که ChatGPT و سایر LLMها، ارائه‌دهندگان محتوا هستند.» او با اشاره به بخش 230 از عنوان 47 قانون ایالات متحده که در سال 1996 توسط کنگره تصویب شد، پیش‌بینی کرد:

«درنتیجه شرکت‌هایی که از این ابزارهای هوش مصنوعی مولد استفاده می‌کنند، مانند OpenAI، مایکروسافت و گوگل، در مواردی که به محتوای تولیدشده توسط هوش مصنوعی مربوط می‌شود، نمی‌توانند از بخش 230 استفاده کنند.»

هوش مصنوعی

بخش 230 تاکنون توسط متا و سایر شرکت‌های فناوری به‌عنوان یک سپر مورد استفاده قرار گرفته است تا خود را از مسئولیت قانونی در قبال محتوایی که توسط کاربران ارسال می‌شود، معاف کنند.

همان‌طور که پرالت توضیح می‌دهد، «طبق قانون فعلی، یک سرویس رایانه‌ای تعاملی (میزبان محتوا) در قبال محتوای ارسال‌شده توسط یک ارائه‌دهنده محتوای اطلاعاتی (یک سازنده محتوا) مسئولیتی ندارد؛» زیرا بخش 230 تصریح می‌کند که «هیچ ارائه‌دهنده یا کاربر یک رایانه تعاملی نباید به‌عنوان ناشر یا گوینده اطلاعات ارائه‌شده توسط ارائه‌دهنده محتوای اطلاعاتی دیگر تلقی شود.»

او در ادامه خاطرنشان کرد که این امر باعث آشفتگی در بین قانون‌گذاران ایالات متحده شده است که به دلایلی از سیاست‌های تعدیل محتوای متا و توییتر و شرکت‌های دیگر ناراضی هستند. پرالت معتقد است که مدل هوش مصنوعی ChatGPT نیز احتمالاً از محافظت بخش 230 برخوردار نخواهد شد. او توضیح می‌دهد: «دادگاه‌ها احتمالاً متوجه خواهند شد که ChatGPT و سایر LLMها از حمایت‌های بخش 230 مستثنی هستند؛ زیرا آن‌ها به‌جای خدمات رایانه‌ای تعاملی، ارائه‌دهندگان محتوای اطلاعاتی‌اند.»

اشتراک‌ها:
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *