وکلای نیویورک به دلیل استفاده از موارد جعلی ChatGPT در خلاصه حقوقی جریمه شدند

ژوئن 23, 2023 by بدون دیدگاه

Computing,News,chatbot,ChatGPT,generative AI,OpenAI

استفاده ناشیانه از ChatGPT یک شرکت حقوقی شهر نیویورک را با جریمه 5000 دلاری مواجه کرده است.

استیون شوارتز، وکیل دادگستری، پس از شنیدن چیزهای زیادی در مورد چت ربات چشمگیر مبتنی بر هوش مصنوعی OpenAI، تصمیم گرفت از آن برای تحقیق استفاده کند و استنادات پرونده ایجاد شده توسط ChatGPT را به یک خلاصه حقوقی که اوایل امسال به قاضی تحویل داده شد اضافه کرد. اما به زودی مشخص شد که این موارد کاملاً توسط ربات چت ساخته شده است.

پی کوین کاستل، قاضی منطقه ای ایالات متحده، روز پنجشنبه به وکلای استیون شوارتز و پیتر لودوکا، که این پرونده را از همکارش و شرکت حقوقی آنها Levidow, Levidow & Oberman تحویل گرفتند، به پرداخت 5000 دلار جریمه محکوم کرد.

قاضی گفت که وکلای “اجتناب آگاهانه و اظهارات نادرست و گمراه کننده به دادگاه” انجام داده اند، و افزود که آنها با ارائه خلاصه نوشته شده با هوش مصنوعی قبل از ایستادن در کنار “نظرات جعلی پس از فراخوان دستورات قضایی” “مسئولیت خود را رها کرده اند”. وجود زیر سوال رفته است.»

کاستل ادامه داد: آسیب های بسیاری از ارائه نظرات جعلی سرازیر می شود. طرف مقابل در افشای فریب زمان و هزینه خود را تلف می کند. وقت دادگاه از دیگر تلاش های مهم گرفته شده است.»

قاضی افزود که اقدام وکلا “بدبینی نسبت به حرفه وکالت و سیستم قضایی آمریکا را ترویج می کند.”

شرکت حقوقی منهتن گفت که “با احترام” با نظر دادگاه مخالف است و آن را “اشتباهی با حسن نیت” توصیف کرد.

در جلسه دادگاه مربوطه در اوایل ماه جاری، شوارتز گفت که می‌خواهد بابت آنچه اتفاق افتاده است «صمیمانه عذرخواهی کند» و توضیح داد که فکر می‌کند از یک موتور جستجو استفاده می‌کند و نمی‌داند که ابزار هوش مصنوعی می‌تواند نادرست تولید کند. او گفت که از اقدام خود «عمیقاً پشیمان است» و افزود: «من هم از نظر حرفه‌ای و هم شخصی (به دلیل) تبلیغات گسترده‌ای که این موضوع ایجاد کرده است، متضرر شدم. من هم شرمنده، هم تحقیر شده و هم به شدت پشیمان هستم.»

این حادثه به پرونده ای مربوط می شود که توسط شرکت حقوقی مربوط به مسافری بود که از شرکت هواپیمایی کلمبیایی Avianca پس از ادعای جراحت در پرواز به شهر نیویورک شکایت کرد.

Avianca از قاضی خواست تا پرونده را کنار بگذارد، بنابراین تیم حقوقی مسافر با استناد به شش پرونده مشابه، در تلاشی برای متقاعد کردن قاضی به ادامه پرونده موکل خود، خلاصه ای را تهیه کردند. شوارتز با پرسیدن از ChatGPT آن موارد را پیدا کرد، اما او نتوانست صحت نتایج را بررسی کند. تیم حقوقی Avianca زمانی که اعلام کرد نمی تواند پرونده های موجود در خلاصه را پیدا کند، زنگ خطر را به صدا درآورد.

قاضی در دستور جداگانه‌ای در روز پنج‌شنبه، درخواست آویانکا برای رد شکایت علیه آن را پذیرفت و کل قسمت متأسفانه را به پایان رساند.

ChatGPT و سایر ربات‌های چت مانند آن در ماه‌های اخیر به دلیل توانایی آنها در مکالمه به روشی شبیه به انسان و انجام ماهرانه طیف رو به رشدی از وظایف مبتنی بر متن، توجه زیادی را به خود جلب کرده‌اند. اما آنها همچنین به ساختن چیزها و ارائه آن به گونه ای که گویی واقعی است مشهور هستند. آنقدر رایج است که حتی یک اصطلاح برای آن وجود دارد: “توهم”.

کسانی که بر روی ابزارهای مولد هوش مصنوعی کار می‌کنند، در حال بررسی راه‌هایی برای کاهش توهم هستند، اما تا آن زمان به کاربران توصیه می‌شود «حقایق» را که چت‌ربات‌ها به بیرون می‌ریزند، به دقت بررسی کنند.

توصیه های سردبیران






(تگ‌ها برای ترجمه

#وکلای #نیویورک #به #دلیل #استفاده #از #موارد #جعلی #ChatGPT #در #خلاصه #حقوقی #جریمه #شدند