به لطف انویدیا می توانیم با عجیب بودن ChatGPT خداحافظی کنیم

آوریل 26, 2023 by بدون دیدگاه

انویدیا غول فناوری در پشت پردازنده‌های گرافیکی است که بازی‌های ما را تقویت می‌کند، مجموعه‌های خلاقانه ما را اجرا می‌کند و – تا به امروز – نقش مهمی در آموزش مدل‌های هوش مصنوعی مولد پشت ربات‌های چت مانند ChatGPT ایفا می‌کند. این شرکت با معرفی نرم‌افزار جدیدی که می‌تواند مشکل بزرگی را که چت‌بات‌ها دارند حل کند، عمیق‌تر به دنیای هوش مصنوعی فرو رفته است.

«NeMo Guardrails» تازه معرفی شده (در برگه جدید باز می شود) نرم‌افزاری است که برای اطمینان از اینکه برنامه‌های هوشمند مجهز به مدل‌های زبان بزرگ (LLM) مانند ربات‌های چت هوش مصنوعی، «دقیق، مناسب، در موضوع و ایمن» طراحی شده‌اند. اساساً، نرده‌های محافظ وجود دارند تا اطلاعات نامناسب یا نادرست تولید شده توسط چت بات را از بین ببرند، از رسیدن آن به کاربر جلوگیری کنند و به ربات اطلاع دهند که خروجی خاص بد بوده است. این مانند یک لایه اضافی از دقت و امنیت خواهد بود – اکنون بدون نیاز به تصحیح کاربر.

توسعه دهندگان هوش مصنوعی می توانند از نرم افزار منبع باز برای تعیین سه نوع مرز برای مدل های هوش مصنوعی استفاده کنند: دستورالعمل های موضعی، ایمنی و امنیتی. جزئیات هر کدام را توضیح می دهد – و اینکه چرا این نوع نرم افزار هم یک ضرورت و هم یک تعهد است.

نرده های محافظ چیست؟

نرده‌های محافظ موضعی مانع از فرو رفتن ربات هوش مصنوعی در موضوعاتی می‌شوند که به استفاده یا کار مرتبط یا ضروری نیستند. در بیانیه انویدیا، مثالی از یک ربات خدمات مشتری ارائه شده است که به سؤالات مربوط به آب و هوا پاسخ نمی دهد. اگر در مورد تاریخچه نوشیدنی های انرژی زا صحبت می کنید، نمی خواهید ChatGPT شروع به صحبت در مورد بازار سهام با شما کند. اساساً، نگه داشتن همه چیز در موضوع.

این در مدل‌های بزرگ هوش مصنوعی مانند Bing Chat مایکروسافت، که در برخی مواقع کمی از مسیر خارج می‌شود، مفید خواهد بود و قطعاً می‌تواند اطمینان حاصل کند که از عصبانیت و نادرستی بیشتر جلوگیری می‌کنیم.

حفاظ ایمنی با اطلاعات نادرست و “توهمات” – بله، توهمات – مقابله می کند و اطمینان حاصل می کند که هوش مصنوعی با اطلاعات دقیق و مناسب پاسخ می دهد. این بدان معنی است که زبان نامناسب را ممنوع می کند، استناد به منابع معتبر را تقویت می کند و همچنین از استفاده از منابع ساختگی یا نامشروع جلوگیری می کند. این به ویژه برای ChatGPT مفید است زیرا نمونه‌های زیادی را در سرتاسر اینترنت دیده‌ایم که وقتی از ربات‌ها از آنها خواسته شد، نقل قول‌هایی ایجاد می‌کردند.

و برای حفاظ‌های امنیتی، اینها به سادگی مانع از دسترسی ربات به برنامه‌های کاربردی خارجی می‌شوند که «ناامن» تلقی می‌شوند – به عبارت دیگر، هر برنامه یا نرم‌افزاری که مجوز و هدف صریح برای تعامل با آنها داده نشده است، مانند یک برنامه بانکی یا فایل های شخصی شما این بدان معنی است که هر بار که از ربات استفاده می کنید، اطلاعات ساده، دقیق و ایمن دریافت خواهید کرد.

پلیس اخلاق

#به #لطف #انویدیا #می #توانیم #با #عجیب #بودن #ChatGPT #خداحافظی #کنیم