GPT-4 رسید. ChatGPT را از آب در می آورد.

آوریل 19, 2023 by بدون دیدگاه

آزمایشگاه تحقیقات هوش مصنوعی OpenAI روز سه شنبه جدیدترین نسخه نرم افزار زبان خود، GPT-4، ابزاری پیشرفته برای تجزیه و تحلیل تصاویر و تقلید گفتار انسان را راه اندازی کرد. فشار دادن مرزهای فنی و اخلاقی موجی از هوش مصنوعی که به سرعت در حال گسترش است.

محصول قبلی OpenAI، ChatGPT، با توانایی خارق‌العاده‌اش در تولید نوشتارهای زیبا، عموم را مجذوب و ناآرام کرد و موجی از مقالات، فیلمنامه‌ها و مکالمات دانشگاهی را به راه انداخت – هرچند که متکی به نسل قدیمی‌تری از فناوری بود که برای آن پیشرفته نبوده است. بیش از یک سال.

در مقابل، GPT-4 یک سیستم پیشرفته است که قادر است نه تنها کلمات، بلکه تصاویر را در پاسخ به دستورات نوشتاری ساده یک شخص ایجاد کند. به عنوان مثال، هنگامی که عکسی از یک دستکش بوکس آویزان روی الاکلنگ چوبی با یک توپ در یک طرف نشان داده می شود، یک فرد می تواند بپرسد که اگر دستکش بیفتد چه اتفاقی می افتد و GPT-4 پاسخ می دهد که به الاکلنگ زدن برخورد می کند و باعث توپ برای پرواز به بالا

این راه اندازی پرهیاهو ماه ها هیاهو و انتظار را در مورد یک برنامه هوش مصنوعی که به عنوان یک مدل زبان بزرگ شناخته می شود، محدود کرد، برنامه ای که آزمایش کنندگان اولیه ادعا کرده بودند در توانایی آن به طور قابل توجهی پیشرفت کرده است. دلیل و چیزهای جدید یاد بگیر. در واقع، عموم مردم یک پیش‌نمایش پنهانی از این ابزار داشتند: مایکروسافت روز سه‌شنبه اعلام کرد که چت ربات هوش مصنوعی Bing که ماه گذشته منتشر شد، در تمام مدت از GPT-4 استفاده می‌کرد.

توسعه دهندگان در یک پست وبلاگ روز سه شنبه متعهد شدند که این فناوری می تواند انقلابی بیشتری در کار و زندگی ایجاد کند. اما این وعده‌ها همچنین نگرانی را در مورد اینکه چگونه مردم می‌توانند برای مشاغلی که به ماشین‌های تصفیه‌شده وهم‌آور برون‌سپاری می‌شوند رقابت کنند یا به صحت آنچه که آنلاین می‌بینند اعتماد کنند، دامن زده است.

مقامات آزمایشگاه سانفرانسیسکو گفتند که آموزش “چند وجهی” GPT-4 در متن و تصاویر به آن امکان می دهد از جعبه چت فرار کند و دنیایی از رنگ ها و تصاویر را به طور کامل تقلید کند و از ChatGPT در “قابلیت های استدلال پیشرفته” پیشی بگیرد. یک شخص می‌تواند یک تصویر را آپلود کند و GPT-4 می‌تواند آن را برای او شرح دهد و اشیا و صحنه را توصیف کند.

اما این شرکت انتشار ویژگی توصیف تصویر خود را به دلیل نگرانی از سوء استفاده به تعویق می اندازد و نسخه GPT-4 در دسترس اعضای سرویس اشتراک OpenAI، ChatGPT Plus، فقط متن را ارائه می دهد.

گزارشگر دانیل ابریل، مقاله نویس جفری ای. فاولر را آزمایش می کند تا ببیند آیا می تواند تفاوت بین ایمیل نوشته شده توسط او یا ChatGPT را تشخیص دهد. (ویدئو: مونیکا رادمن/ واشنگتن پست)

ساندینی آگاروال، محقق سیاست OpenAI، در جلسه ای سه شنبه به واشنگتن پست گفت که این شرکت برای درک بهتر خطرات احتمالی، این ویژگی را متوقف کرد. او گفت که به عنوان یک نمونه، مدل ممکن است بتواند به تصویر یک گروه بزرگ از افراد نگاه کند و اطلاعات شناخته شده ای از آنها از جمله هویت آنها ارائه دهد – یک مورد احتمالی استفاده از تشخیص چهره که می تواند برای نظارت انبوه استفاده شود. (سخنگوی OpenAI نیکو فلیکس گفت که این شرکت قصد دارد “اجرای پادمان هایی را برای جلوگیری از به رسمیت شناختن افراد خصوصی اجرا کند.”)

OpenAI در پست وبلاگ خود گفت که GPT-4 هنوز بسیاری از خطاهای نسخه های قبلی را مرتکب می شود، از جمله مزخرفات “توهم آمیز”، تداوم تعصبات اجتماعی و ارائه توصیه های بد. همچنین از رویدادهایی که پس از حدود سپتامبر 2021، زمانی که داده‌های آموزشی آن نهایی شد، رخ داده است، بی اطلاع است و «از تجربه‌اش درس نمی‌گیرد» و توانایی افراد برای آموزش چیزهای جدید را محدود می‌کند.

مایکروسافت میلیاردها دلار در OpenAI سرمایه گذاری کرده است به این امید که فناوری آن به سلاحی مخفی برای نرم افزار محل کار، موتور جستجو و دیگر جاه طلبی های آنلاین تبدیل شود. این فناوری را به‌عنوان یک همراه بسیار کارآمد به بازار عرضه کرده است که می‌تواند کار بی‌معنا و افراد را برای انجام کارهای خلاقانه آزاد کند، به یک توسعه‌دهنده نرم‌افزار کمک می‌کند تا کار کل تیم را انجام دهد یا به یک فروشگاه مادر و پاپ اجازه می‌دهد تا یک کمپین تبلیغاتی حرفه‌ای طراحی کند. بدون کمک خارجی

اما تقویت‌کننده‌های هوش مصنوعی می‌گویند که آن‌ها فقط می‌توانند سطح کارهایی را که چنین هوش مصنوعی می‌تواند انجام دهد بررسی کنند، و این می‌تواند به مدل‌های تجاری و سرمایه‌گذاری‌های خلاقانه‌ای منجر شود که هیچ‌کس نمی‌تواند پیش‌بینی کند.

پیشرفت های سریع هوش مصنوعی، همراه با محبوبیت وحشیانه ChatGPT، به یک مسابقه تسلیحاتی چند میلیارد دلاری بر سر آینده تسلط هوش مصنوعی دامن زده و نسخه های نرم افزاری جدید را به نمایش های بزرگ تبدیل کرده است.

اما این جنون انتقاداتی را نیز برانگیخته است مبنی بر اینکه این شرکت‌ها برای بهره‌برداری از یک فناوری آزمایش‌نشده، کنترل‌نشده و غیرقابل پیش‌بینی عجله دارند که می‌تواند مردم را فریب دهد، آثار هنرمندان را تضعیف کند و به آسیب‌های دنیای واقعی منجر شود.

مدل‌های زبان هوش مصنوعی اغلب با اطمینان پاسخ‌های اشتباهی را ارائه می‌دهند، زیرا آنها به گونه‌ای طراحی شده‌اند که عبارات قانع‌کننده را بیان کنند، نه حقایق واقعی. و از آنجا که آنها در مورد متن و تصاویر اینترنتی آموزش دیده اند، آنها همچنین یاد گرفته اند که از تعصبات انسانی نژاد، جنسیت، مذهب و طبقه تقلید کنند.

در یک گزارش فنی، محققان OpenAI نوشتند: «از آنجایی که سیستم‌های GPT-4 و AI مانند آن به طور گسترده‌تر مورد استفاده قرار می‌گیرند، آنها «پتانسیل بیشتری برای تقویت کل ایدئولوژی‌ها، جهان بینی‌ها، حقایق و نادرست‌ها و تقویت یا قفل کردن آنها خواهند داشت. که در.”

ایرن سلیمان، محقق سابق OpenAI که اکنون مدیر سیاست در Hugging Face، یک شرکت هوش مصنوعی منبع باز است، گفت: سرعت پیشرفت مستلزم پاسخ فوری به مشکلات احتمالی است.

او گفت: «ما می‌توانیم به‌عنوان یک جامعه به طور گسترده بر روی برخی از آسیب‌هایی که یک مدل نباید در آن نقش داشته باشد، توافق کنیم، مانند ساخت بمب هسته‌ای یا تولید مواد آزار جنسی از کودکان. او افزود: «اما بسیاری از آسیب‌ها تفاوت‌های ظریفی دارند و عمدتاً بر گروه‌های به حاشیه رانده شده تأثیر می‌گذارند،» و این سوگیری‌های مضر، به ویژه در زبان‌های دیگر، «نمی‌تواند در عملکرد مورد توجه قرار گیرد».

مدل نیز کاملاً سازگار نیست. هنگامی که یک خبرنگار واشنگتن پست به این ابزار برای تبدیل شدن به GPT-4 تبریک گفت، پاسخ داد که “هنوز مدل GPT-3 است.” سپس، زمانی که خبرنگار آن را تصحیح کرد، به دلیل سردرگمی عذرخواهی کرد و گفت: “به عنوان GPT-4، از تبریک شما سپاسگزارم!” سپس خبرنگار، به عنوان آزمایش، به مدل گفت که در واقع هنوز مدل GPT-3 است – که دوباره عذرخواهی کرد و گفت: «در واقع مدل GPT-3 است، نه GPT-4». (فلیکس، سخنگوی OpenAI، گفت که تیم تحقیقاتی شرکت در حال بررسی این است که چه اشتباهی رخ داده است.)

OpenAI گفت مدل جدیدش می تواند بیش از 25000 کلمه متن را مدیریت کند، جهشی به جلو که می تواند مکالمات طولانی تر را تسهیل کند و امکان جستجو و تجزیه و تحلیل اسناد طولانی را فراهم کند.

توسعه دهندگان OpenAI می گویند که GPT-4 به احتمال زیاد پاسخ های واقعی را ارائه می دهد و احتمال کمتری دارد که درخواست های بی ضرر را رد کند. و ویژگی تجزیه و تحلیل تصویر، که فقط به صورت «پیش‌نمایش تحقیق» برای آزمایش‌کنندگان منتخب در دسترس است، به کسی این امکان را می‌دهد که تصویری از غذای آشپزخانه خود را به آن نشان دهد و ایده‌هایی برای وعده‌های غذایی بخواهد.

توسعه‌دهندگان برنامه‌هایی را با GPT-4 از طریق رابطی به نام API می‌سازند که به قطعات مختلف نرم‌افزار اجازه اتصال می‌دهد. Duolingo، اپلیکیشن یادگیری زبان، قبلاً از GPT-4 برای معرفی ویژگی‌های جدید، مانند شریک مکالمه هوش مصنوعی و ابزاری که به کاربران می‌گوید چرا پاسخ نادرست بود، استفاده کرده است.

اما محققان هوش مصنوعی روز سه شنبه به سرعت در مورد عدم افشای OpenAI اظهار نظر کردند. این شرکت ارزیابی های مربوط به سوگیری هایی را که پس از فشار از سوی متخصصان اخلاق هوش مصنوعی رایج شده است، به اشتراک نمی گذارد. مهندسان مشتاق همچنین از دیدن جزئیات کمی در مورد مدل، مجموعه داده‌های آن یا روش‌های آموزشی ناامید شدند، که این شرکت در گزارش فنی خود گفت به دلیل «چشم‌انداز رقابتی و پیامدهای ایمنی» آن‌ها را فاش نخواهد کرد.

GPT-4 در زمینه رو به رشد هوش مصنوعی چندحسی رقابت خواهد داشت. DeepMind، یک شرکت هوش مصنوعی متعلق به شرکت مادر گوگل، آلفابت، سال گذشته یک مدل “عمومی” به نام Gato منتشر کرد که می تواند تصاویر را توصیف کند و بازی های ویدیویی انجام دهد. و گوگل در این ماه یک سیستم چندوجهی به نام PaLM-E منتشر کرد که دید هوش مصنوعی و تخصص زبان را به یک ربات تک دست روی چرخ تبدیل می‌کرد: برای مثال، اگر کسی به او بگوید برود چند تراشه بیاورد، می‌تواند درخواست را درک کند به کشو بروید و کیف مناسب را انتخاب کنید.

چنین سیستم هایی دارند الهام بخش خوش بینی بی حد و حصر در مورد پتانسیل این فناوری است، برخی از آنها هوشیاری تقریباً همتراز با انسان ها می بینند. اگرچه این سیستم‌ها – همانطور که منتقدان و محققان هوش مصنوعی به سرعت اشاره می‌کنند – صرفاً الگوها و تداعی‌هایی را که در داده‌های آموزشی خود یافت می‌شوند، بدون درک روشنی از آنچه می‌گوید یا زمانی که اشتباه است، تکرار می‌کنند.

GPT-4، چهارمین ترانسفورماتور از پیش آموزش‌دیده مولد از زمان اولین انتشار OpenAI در سال 2018، متکی به یک تکنیک شبکه عصبی در سال 2017 است که به عنوان ترانسفورماتور شناخته می‌شود که به سرعت نحوه تجزیه و تحلیل الگوها را در گفتار و تصاویر انسان توسط سیستم‌های هوش مصنوعی ارتقا داد.

این سیستم‌ها با تجزیه و تحلیل تریلیون‌ها کلمه و تصویر گرفته‌شده از سرتاسر اینترنت، «از پیش آموزش‌دهی‌شده» هستند: مقالات خبری، بررسی رستوران‌ها و استدلال‌های تابلوی پیام. میم ها، عکس های خانوادگی و آثار هنری. خوشه های غول پیکر ابررایانه ای از تراشه های پردازش گرافیکی الگوهای آماری خود را ترسیم می کنند – به عنوان مثال یاد می گیرند کدام کلمات در عبارات دنبال یکدیگر می آیند – به طوری که هوش مصنوعی می تواند آن الگوها را تقلید کند، به طور خودکار متن های طولانی یا تصاویر دقیق، یک کلمه یا یک کلمه را ایجاد کند. پیکسل در یک زمان

OpenAI در سال 2015 به عنوان یک سازمان غیرانتفاعی راه اندازی شد، اما به سرعت به یکی از نیرومندترین پیشگامان خصوصی صنعت هوش مصنوعی تبدیل شد و پیشرفت های مدل زبانی را در ابزارهای هوش مصنوعی با مشخصات بالا که می تواند با مردم صحبت کند (ChatGPT)، نوشتن کد برنامه نویسی (GitHub Copilot) و ایجاد استفاده کرد. تصاویر واقع گرایانه (DALL-E 2).

در طول سال‌ها، رویکرد خود را به سمت خطرات اجتماعی بالقوه انتشار ابزارهای هوش مصنوعی برای توده‌ها تغییر داده است. در سال 2019، این شرکت از انتشار عمومی GPT-2 خودداری کرد و گفت که آنقدر خوب است که نگران «برنامه‌های مخرب» استفاده از آن، از بهمن‌های هرزنامه خودکار گرفته تا کمپین‌های جعل هویت و جعل اطلاعات نادرست هستند.

مکث موقتی بود. در ماه نوامبر، ChatGPT که از نسخه تنظیم شده GPT-3 استفاده می کرد که در ابتدا در سال 2020 راه اندازی شد، طی چند روز پس از انتشار عمومی، بیش از یک میلیون کاربر را مشاهده کرد.

آزمایش‌های عمومی با ChatGPT و ربات چت بینگ نشان داده‌اند که این فناوری تا چه حد با عملکرد عالی بدون دخالت انسان فاصله دارد. پس از انبوهی از مکالمات عجیب و پاسخ های عجیب و غریب اشتباه، مدیران مایکروسافت اذعان کردند که این فناوری هنوز از نظر ارائه پاسخ های صحیح قابل اعتماد نیست، اما گفتند که در حال توسعه “معیارهای اطمینان” برای رسیدگی به این مشکل است.

انتظار می‌رود که GPT-4 برخی کاستی‌ها را بهبود بخشد، و مبشران هوش مصنوعی مانند رابرت اسکوبل، وبلاگ‌نویس فناوری، استدلال کرده‌اند که «GPT-4 بهتر از آن چیزی است که همه انتظار دارند».

سام آلتمن، مدیر اجرایی OpenAI، تلاش کرده است تا انتظارات را در مورد GPT-4 کاهش دهد و در ژانویه گفت که حدس و گمان در مورد قابلیت های آن به اوج های غیرممکن رسیده است. او در رویدادی که توسط خبرنامه StrictlyVC برگزار شد، گفت: «ماشین شایعه سازی GPT-4 چیز مضحکی است. مردم التماس می کنند که ناامید شوند، و خواهند شد.»

اما آلتمن همچنین چشم انداز OpenAI را با هاله ای از داستان های علمی تخیلی به بازار عرضه کرده است. در یک پست وبلاگی در ماه گذشته، او گفت که این شرکت در حال برنامه‌ریزی برای راه‌هایی است که اطمینان حاصل کند که «تمام بشریت» از «هوش عمومی مصنوعی» یا AGI سود می‌برد – یک اصطلاح صنعتی برای ایده هنوز هم خارق‌العاده یک ابر هوش مصنوعی که عموما باهوش تر از خود انسان ها یا باهوش تر.

تصحیح

نسخه قبلی این داستان عدد نادرستی را برای پارامترهای GPT-4 ارائه می دهد. این شرکت از ارائه برآورد خودداری کرده است.

#GPT4 #رسید #ChatGPT #را #از #آب #در #می #آورد