به لطف انویدیا می توانیم با عجیب بودن ChatGPT خداحافظی کنیم
انویدیا غول فناوری در پشت پردازندههای گرافیکی است که بازیهای ما را تقویت میکند، مجموعههای خلاقانه ما را اجرا میکند و – تا به امروز – نقش مهمی در آموزش مدلهای هوش مصنوعی مولد پشت رباتهای چت مانند ChatGPT ایفا میکند. این شرکت با معرفی نرمافزار جدیدی که میتواند مشکل بزرگی را که چتباتها دارند حل کند، عمیقتر به دنیای هوش مصنوعی فرو رفته است.
«NeMo Guardrails» تازه معرفی شده (در برگه جدید باز می شود) نرمافزاری است که برای اطمینان از اینکه برنامههای هوشمند مجهز به مدلهای زبان بزرگ (LLM) مانند رباتهای چت هوش مصنوعی، «دقیق، مناسب، در موضوع و ایمن» طراحی شدهاند. اساساً، نردههای محافظ وجود دارند تا اطلاعات نامناسب یا نادرست تولید شده توسط چت بات را از بین ببرند، از رسیدن آن به کاربر جلوگیری کنند و به ربات اطلاع دهند که خروجی خاص بد بوده است. این مانند یک لایه اضافی از دقت و امنیت خواهد بود – اکنون بدون نیاز به تصحیح کاربر.
توسعه دهندگان هوش مصنوعی می توانند از نرم افزار منبع باز برای تعیین سه نوع مرز برای مدل های هوش مصنوعی استفاده کنند: دستورالعمل های موضعی، ایمنی و امنیتی. جزئیات هر کدام را توضیح می دهد – و اینکه چرا این نوع نرم افزار هم یک ضرورت و هم یک تعهد است.
نرده های محافظ چیست؟
نردههای محافظ موضعی مانع از فرو رفتن ربات هوش مصنوعی در موضوعاتی میشوند که به استفاده یا کار مرتبط یا ضروری نیستند. در بیانیه انویدیا، مثالی از یک ربات خدمات مشتری ارائه شده است که به سؤالات مربوط به آب و هوا پاسخ نمی دهد. اگر در مورد تاریخچه نوشیدنی های انرژی زا صحبت می کنید، نمی خواهید ChatGPT شروع به صحبت در مورد بازار سهام با شما کند. اساساً، نگه داشتن همه چیز در موضوع.
این در مدلهای بزرگ هوش مصنوعی مانند Bing Chat مایکروسافت، که در برخی مواقع کمی از مسیر خارج میشود، مفید خواهد بود و قطعاً میتواند اطمینان حاصل کند که از عصبانیت و نادرستی بیشتر جلوگیری میکنیم.
حفاظ ایمنی با اطلاعات نادرست و “توهمات” – بله، توهمات – مقابله می کند و اطمینان حاصل می کند که هوش مصنوعی با اطلاعات دقیق و مناسب پاسخ می دهد. این بدان معنی است که زبان نامناسب را ممنوع می کند، استناد به منابع معتبر را تقویت می کند و همچنین از استفاده از منابع ساختگی یا نامشروع جلوگیری می کند. این به ویژه برای ChatGPT مفید است زیرا نمونههای زیادی را در سرتاسر اینترنت دیدهایم که وقتی از رباتها از آنها خواسته شد، نقل قولهایی ایجاد میکردند.
و برای حفاظهای امنیتی، اینها به سادگی مانع از دسترسی ربات به برنامههای کاربردی خارجی میشوند که «ناامن» تلقی میشوند – به عبارت دیگر، هر برنامه یا نرمافزاری که مجوز و هدف صریح برای تعامل با آنها داده نشده است، مانند یک برنامه بانکی یا فایل های شخصی شما این بدان معنی است که هر بار که از ربات استفاده می کنید، اطلاعات ساده، دقیق و ایمن دریافت خواهید کرد.
پلیس اخلاق
انویدیا میگوید که تقریباً همه توسعهدهندگان نرمافزار میتوانند از NeMo Guardrails استفاده کنند، زیرا استفاده از آنها ساده است و با طیف وسیعی از برنامههای دارای LLM کار میکند، بنابراین امیدواریم در آینده نزدیک شاهد پخش آن در چتباتهای بیشتری باشیم.
در حالی که این نه تنها یک “به روز رسانی” یکپارچه است که ما در زمینه هوش مصنوعی دریافت می کنیم، بلکه فوق العاده چشمگیر است. نرم افزار اختصاص داده شده به نظارت و تصحیح مدل هایی مانند ChatGPT که توسط دستورالعمل های دقیق توسعه دهندگان دیکته شده است، بهترین راه برای کنترل همه چیز بدون نگرانی در مورد انجام آن توسط خودتان است.
همانطور که گفته شد، از آنجایی که هیچ دستورالعمل محکمی برای حاکمیت وجود ندارد، ما به جای اینکه تحت تأثیر نگرانی های واقعی سلامتی باشیم، به اخلاق و اولویت های توسعه دهندگان پایبند هستیم. انویدیا، همانطور که مطرح میشود، به نظر میرسد که امنیت و حفاظت از کاربران در قلب نرمافزار قرار دارد، اما هیچ تضمینی وجود ندارد که این اولویتها تغییر نکنند، یا اینکه توسعهدهندگانی که از این نرمافزار استفاده میکنند ممکن است دستورالعملها یا نگرانیهای اخلاقی متفاوتی داشته باشند.
#به #لطف #انویدیا #می #توانیم #با #عجیب #بودن #ChatGPT #خداحافظی #کنیم