GPT-4 رسید. ChatGPT را از آب در می آورد.
در مقابل، GPT-4 یک سیستم پیشرفته است که قادر است نه تنها کلمات، بلکه تصاویر را در پاسخ به دستورات نوشتاری ساده یک شخص ایجاد کند. به عنوان مثال، هنگامی که عکسی از یک دستکش بوکس آویزان روی الاکلنگ چوبی با یک توپ در یک طرف نشان داده می شود، یک فرد می تواند بپرسد که اگر دستکش بیفتد چه اتفاقی می افتد و GPT-4 پاسخ می دهد که به الاکلنگ زدن برخورد می کند و باعث توپ برای پرواز به بالا
این راه اندازی پرهیاهو ماه ها هیاهو و انتظار را در مورد یک برنامه هوش مصنوعی که به عنوان یک مدل زبان بزرگ شناخته می شود، محدود کرد، برنامه ای که آزمایش کنندگان اولیه ادعا کرده بودند در توانایی آن به طور قابل توجهی پیشرفت کرده است. دلیل و چیزهای جدید یاد بگیر. در واقع، عموم مردم یک پیشنمایش پنهانی از این ابزار داشتند: مایکروسافت روز سهشنبه اعلام کرد که چت ربات هوش مصنوعی Bing که ماه گذشته منتشر شد، در تمام مدت از GPT-4 استفاده میکرد.
توسعه دهندگان در یک پست وبلاگ روز سه شنبه متعهد شدند که این فناوری می تواند انقلابی بیشتری در کار و زندگی ایجاد کند. اما این وعدهها همچنین نگرانی را در مورد اینکه چگونه مردم میتوانند برای مشاغلی که به ماشینهای تصفیهشده وهمآور برونسپاری میشوند رقابت کنند یا به صحت آنچه که آنلاین میبینند اعتماد کنند، دامن زده است.
مقامات آزمایشگاه سانفرانسیسکو گفتند که آموزش “چند وجهی” GPT-4 در متن و تصاویر به آن امکان می دهد از جعبه چت فرار کند و دنیایی از رنگ ها و تصاویر را به طور کامل تقلید کند و از ChatGPT در “قابلیت های استدلال پیشرفته” پیشی بگیرد. یک شخص میتواند یک تصویر را آپلود کند و GPT-4 میتواند آن را برای او شرح دهد و اشیا و صحنه را توصیف کند.
اما این شرکت انتشار ویژگی توصیف تصویر خود را به دلیل نگرانی از سوء استفاده به تعویق می اندازد و نسخه GPT-4 در دسترس اعضای سرویس اشتراک OpenAI، ChatGPT Plus، فقط متن را ارائه می دهد.
ساندینی آگاروال، محقق سیاست OpenAI، در جلسه ای سه شنبه به واشنگتن پست گفت که این شرکت برای درک بهتر خطرات احتمالی، این ویژگی را متوقف کرد. او گفت که به عنوان یک نمونه، مدل ممکن است بتواند به تصویر یک گروه بزرگ از افراد نگاه کند و اطلاعات شناخته شده ای از آنها از جمله هویت آنها ارائه دهد – یک مورد احتمالی استفاده از تشخیص چهره که می تواند برای نظارت انبوه استفاده شود. (سخنگوی OpenAI نیکو فلیکس گفت که این شرکت قصد دارد “اجرای پادمان هایی را برای جلوگیری از به رسمیت شناختن افراد خصوصی اجرا کند.”)
OpenAI در پست وبلاگ خود گفت که GPT-4 هنوز بسیاری از خطاهای نسخه های قبلی را مرتکب می شود، از جمله مزخرفات “توهم آمیز”، تداوم تعصبات اجتماعی و ارائه توصیه های بد. همچنین از رویدادهایی که پس از حدود سپتامبر 2021، زمانی که دادههای آموزشی آن نهایی شد، رخ داده است، بی اطلاع است و «از تجربهاش درس نمیگیرد» و توانایی افراد برای آموزش چیزهای جدید را محدود میکند.
مایکروسافت میلیاردها دلار در OpenAI سرمایه گذاری کرده است به این امید که فناوری آن به سلاحی مخفی برای نرم افزار محل کار، موتور جستجو و دیگر جاه طلبی های آنلاین تبدیل شود. این فناوری را بهعنوان یک همراه بسیار کارآمد به بازار عرضه کرده است که میتواند کار بیمعنا و افراد را برای انجام کارهای خلاقانه آزاد کند، به یک توسعهدهنده نرمافزار کمک میکند تا کار کل تیم را انجام دهد یا به یک فروشگاه مادر و پاپ اجازه میدهد تا یک کمپین تبلیغاتی حرفهای طراحی کند. بدون کمک خارجی
اما تقویتکنندههای هوش مصنوعی میگویند که آنها فقط میتوانند سطح کارهایی را که چنین هوش مصنوعی میتواند انجام دهد بررسی کنند، و این میتواند به مدلهای تجاری و سرمایهگذاریهای خلاقانهای منجر شود که هیچکس نمیتواند پیشبینی کند.
پیشرفت های سریع هوش مصنوعی، همراه با محبوبیت وحشیانه ChatGPT، به یک مسابقه تسلیحاتی چند میلیارد دلاری بر سر آینده تسلط هوش مصنوعی دامن زده و نسخه های نرم افزاری جدید را به نمایش های بزرگ تبدیل کرده است.
اما این جنون انتقاداتی را نیز برانگیخته است مبنی بر اینکه این شرکتها برای بهرهبرداری از یک فناوری آزمایشنشده، کنترلنشده و غیرقابل پیشبینی عجله دارند که میتواند مردم را فریب دهد، آثار هنرمندان را تضعیف کند و به آسیبهای دنیای واقعی منجر شود.
مدلهای زبان هوش مصنوعی اغلب با اطمینان پاسخهای اشتباهی را ارائه میدهند، زیرا آنها به گونهای طراحی شدهاند که عبارات قانعکننده را بیان کنند، نه حقایق واقعی. و از آنجا که آنها در مورد متن و تصاویر اینترنتی آموزش دیده اند، آنها همچنین یاد گرفته اند که از تعصبات انسانی نژاد، جنسیت، مذهب و طبقه تقلید کنند.
در یک گزارش فنی، محققان OpenAI نوشتند: «از آنجایی که سیستمهای GPT-4 و AI مانند آن به طور گستردهتر مورد استفاده قرار میگیرند، آنها «پتانسیل بیشتری برای تقویت کل ایدئولوژیها، جهان بینیها، حقایق و نادرستها و تقویت یا قفل کردن آنها خواهند داشت. که در.”
ایرن سلیمان، محقق سابق OpenAI که اکنون مدیر سیاست در Hugging Face، یک شرکت هوش مصنوعی منبع باز است، گفت: سرعت پیشرفت مستلزم پاسخ فوری به مشکلات احتمالی است.
او گفت: «ما میتوانیم بهعنوان یک جامعه به طور گسترده بر روی برخی از آسیبهایی که یک مدل نباید در آن نقش داشته باشد، توافق کنیم، مانند ساخت بمب هستهای یا تولید مواد آزار جنسی از کودکان. او افزود: «اما بسیاری از آسیبها تفاوتهای ظریفی دارند و عمدتاً بر گروههای به حاشیه رانده شده تأثیر میگذارند،» و این سوگیریهای مضر، به ویژه در زبانهای دیگر، «نمیتواند در عملکرد مورد توجه قرار گیرد».
مدل نیز کاملاً سازگار نیست. هنگامی که یک خبرنگار واشنگتن پست به این ابزار برای تبدیل شدن به GPT-4 تبریک گفت، پاسخ داد که “هنوز مدل GPT-3 است.” سپس، زمانی که خبرنگار آن را تصحیح کرد، به دلیل سردرگمی عذرخواهی کرد و گفت: “به عنوان GPT-4، از تبریک شما سپاسگزارم!” سپس خبرنگار، به عنوان آزمایش، به مدل گفت که در واقع هنوز مدل GPT-3 است – که دوباره عذرخواهی کرد و گفت: «در واقع مدل GPT-3 است، نه GPT-4». (فلیکس، سخنگوی OpenAI، گفت که تیم تحقیقاتی شرکت در حال بررسی این است که چه اشتباهی رخ داده است.)
OpenAI گفت مدل جدیدش می تواند بیش از 25000 کلمه متن را مدیریت کند، جهشی به جلو که می تواند مکالمات طولانی تر را تسهیل کند و امکان جستجو و تجزیه و تحلیل اسناد طولانی را فراهم کند.
توسعه دهندگان OpenAI می گویند که GPT-4 به احتمال زیاد پاسخ های واقعی را ارائه می دهد و احتمال کمتری دارد که درخواست های بی ضرر را رد کند. و ویژگی تجزیه و تحلیل تصویر، که فقط به صورت «پیشنمایش تحقیق» برای آزمایشکنندگان منتخب در دسترس است، به کسی این امکان را میدهد که تصویری از غذای آشپزخانه خود را به آن نشان دهد و ایدههایی برای وعدههای غذایی بخواهد.
توسعهدهندگان برنامههایی را با GPT-4 از طریق رابطی به نام API میسازند که به قطعات مختلف نرمافزار اجازه اتصال میدهد. Duolingo، اپلیکیشن یادگیری زبان، قبلاً از GPT-4 برای معرفی ویژگیهای جدید، مانند شریک مکالمه هوش مصنوعی و ابزاری که به کاربران میگوید چرا پاسخ نادرست بود، استفاده کرده است.
اما محققان هوش مصنوعی روز سه شنبه به سرعت در مورد عدم افشای OpenAI اظهار نظر کردند. این شرکت ارزیابی های مربوط به سوگیری هایی را که پس از فشار از سوی متخصصان اخلاق هوش مصنوعی رایج شده است، به اشتراک نمی گذارد. مهندسان مشتاق همچنین از دیدن جزئیات کمی در مورد مدل، مجموعه دادههای آن یا روشهای آموزشی ناامید شدند، که این شرکت در گزارش فنی خود گفت به دلیل «چشمانداز رقابتی و پیامدهای ایمنی» آنها را فاش نخواهد کرد.
GPT-4 در زمینه رو به رشد هوش مصنوعی چندحسی رقابت خواهد داشت. DeepMind، یک شرکت هوش مصنوعی متعلق به شرکت مادر گوگل، آلفابت، سال گذشته یک مدل “عمومی” به نام Gato منتشر کرد که می تواند تصاویر را توصیف کند و بازی های ویدیویی انجام دهد. و گوگل در این ماه یک سیستم چندوجهی به نام PaLM-E منتشر کرد که دید هوش مصنوعی و تخصص زبان را به یک ربات تک دست روی چرخ تبدیل میکرد: برای مثال، اگر کسی به او بگوید برود چند تراشه بیاورد، میتواند درخواست را درک کند به کشو بروید و کیف مناسب را انتخاب کنید.
چنین سیستم هایی دارند الهام بخش خوش بینی بی حد و حصر در مورد پتانسیل این فناوری است، برخی از آنها هوشیاری تقریباً همتراز با انسان ها می بینند. اگرچه این سیستمها – همانطور که منتقدان و محققان هوش مصنوعی به سرعت اشاره میکنند – صرفاً الگوها و تداعیهایی را که در دادههای آموزشی خود یافت میشوند، بدون درک روشنی از آنچه میگوید یا زمانی که اشتباه است، تکرار میکنند.
GPT-4، چهارمین ترانسفورماتور از پیش آموزشدیده مولد از زمان اولین انتشار OpenAI در سال 2018، متکی به یک تکنیک شبکه عصبی در سال 2017 است که به عنوان ترانسفورماتور شناخته میشود که به سرعت نحوه تجزیه و تحلیل الگوها را در گفتار و تصاویر انسان توسط سیستمهای هوش مصنوعی ارتقا داد.
این سیستمها با تجزیه و تحلیل تریلیونها کلمه و تصویر گرفتهشده از سرتاسر اینترنت، «از پیش آموزشدهیشده» هستند: مقالات خبری، بررسی رستورانها و استدلالهای تابلوی پیام. میم ها، عکس های خانوادگی و آثار هنری. خوشه های غول پیکر ابررایانه ای از تراشه های پردازش گرافیکی الگوهای آماری خود را ترسیم می کنند – به عنوان مثال یاد می گیرند کدام کلمات در عبارات دنبال یکدیگر می آیند – به طوری که هوش مصنوعی می تواند آن الگوها را تقلید کند، به طور خودکار متن های طولانی یا تصاویر دقیق، یک کلمه یا یک کلمه را ایجاد کند. پیکسل در یک زمان
OpenAI در سال 2015 به عنوان یک سازمان غیرانتفاعی راه اندازی شد، اما به سرعت به یکی از نیرومندترین پیشگامان خصوصی صنعت هوش مصنوعی تبدیل شد و پیشرفت های مدل زبانی را در ابزارهای هوش مصنوعی با مشخصات بالا که می تواند با مردم صحبت کند (ChatGPT)، نوشتن کد برنامه نویسی (GitHub Copilot) و ایجاد استفاده کرد. تصاویر واقع گرایانه (DALL-E 2).
در طول سالها، رویکرد خود را به سمت خطرات اجتماعی بالقوه انتشار ابزارهای هوش مصنوعی برای تودهها تغییر داده است. در سال 2019، این شرکت از انتشار عمومی GPT-2 خودداری کرد و گفت که آنقدر خوب است که نگران «برنامههای مخرب» استفاده از آن، از بهمنهای هرزنامه خودکار گرفته تا کمپینهای جعل هویت و جعل اطلاعات نادرست هستند.
مکث موقتی بود. در ماه نوامبر، ChatGPT که از نسخه تنظیم شده GPT-3 استفاده می کرد که در ابتدا در سال 2020 راه اندازی شد، طی چند روز پس از انتشار عمومی، بیش از یک میلیون کاربر را مشاهده کرد.
آزمایشهای عمومی با ChatGPT و ربات چت بینگ نشان دادهاند که این فناوری تا چه حد با عملکرد عالی بدون دخالت انسان فاصله دارد. پس از انبوهی از مکالمات عجیب و پاسخ های عجیب و غریب اشتباه، مدیران مایکروسافت اذعان کردند که این فناوری هنوز از نظر ارائه پاسخ های صحیح قابل اعتماد نیست، اما گفتند که در حال توسعه “معیارهای اطمینان” برای رسیدگی به این مشکل است.
انتظار میرود که GPT-4 برخی کاستیها را بهبود بخشد، و مبشران هوش مصنوعی مانند رابرت اسکوبل، وبلاگنویس فناوری، استدلال کردهاند که «GPT-4 بهتر از آن چیزی است که همه انتظار دارند».
سام آلتمن، مدیر اجرایی OpenAI، تلاش کرده است تا انتظارات را در مورد GPT-4 کاهش دهد و در ژانویه گفت که حدس و گمان در مورد قابلیت های آن به اوج های غیرممکن رسیده است. او در رویدادی که توسط خبرنامه StrictlyVC برگزار شد، گفت: «ماشین شایعه سازی GPT-4 چیز مضحکی است. مردم التماس می کنند که ناامید شوند، و خواهند شد.»
اما آلتمن همچنین چشم انداز OpenAI را با هاله ای از داستان های علمی تخیلی به بازار عرضه کرده است. در یک پست وبلاگی در ماه گذشته، او گفت که این شرکت در حال برنامهریزی برای راههایی است که اطمینان حاصل کند که «تمام بشریت» از «هوش عمومی مصنوعی» یا AGI سود میبرد – یک اصطلاح صنعتی برای ایده هنوز هم خارقالعاده یک ابر هوش مصنوعی که عموما باهوش تر از خود انسان ها یا باهوش تر.
تصحیح
نسخه قبلی این داستان عدد نادرستی را برای پارامترهای GPT-4 ارائه می دهد. این شرکت از ارائه برآورد خودداری کرده است.