شرکت OpenAI، سازنده چتبات مطرح ChatGPT، جدیدترین مدل هوش مصنوعی خود یعنی GPT-۴ را عرضه کرد. به گفته OpenAI، مدل GPT-۴ از ورودیهای متنی و تصویر پشتیبانی میکند که یک پیشرفت نسبت به مدل GPT-۳.۵ محسوب میشود؛ مدلی که تنها از ورودیهای متنی پشتیبانی میکند. شرکت OpenAI به مدت ۶ ماه بهطور مکرر از طریق برنامههای آزمایشی خصمانه و همچنین ChatGPT، مشغول آزمایش این مدل بوده تا به بهترین نتایج دست پیدا کند. طبق ادعای OpenAI، این مدل از همیشه خلاقتر است و میتواند مسائل دشوار را با دقت بالاتری حل کند
پایگاه خبری تحلیلی انتخاب :دیجیاتو: شرکت OpenAI، سازنده چتبات مطرح ChatGPT، جدیدترین مدل هوش مصنوعی خود یعنی GPT-4 را عرضه کرد. این مدل قدرتمند قادر به درک تصاویر و متون است و از امروز از طریق سرویس پولی ChatGPT Plus در اختیار افراد قرار میگیرد، البته توسعهدهندگان باید برای دسترسی به API آن در لیست انتظار قرار بگیرند.
به گفته OpenAI، مدل GPT-4 از ورودیهای متنی و تصویر پشتیبانی میکند که یک پیشرفت نسبت به مدل GPT-3.5 محسوب میشود؛ مدلی که تنها از ورودیهای متنی پشتیبانی میکند. شرکت OpenAI به مدت 6 ماه بهطور مکرر از طریق برنامههای آزمایشی خصمانه و همچنین ChatGPT، مشغول آزمایش این مدل بوده تا به بهترین نتایج دست پیدا کند.
طبق ادعای OpenAI، این مدل از همیشه خلاقتر است و میتواند مسائل دشوار را با دقت بالاتری حل کند. درحالحاضر OpenAI با چندین شرکت برای ادغام GPT-4 در محصولاتشان همکاری کرده است که شامل دولینگو و Stripe میشود.
اگرچه GPT-4 از ورودیهای متنی و تصویری پشتیبانی میکند، اما تنها با متن به کاربران جواب میدهد. همانطور که گفتیم، این مدل از طریق سرویس ChatGPT پلاس با هزینه ماهانه 20 دلار در اختیار کاربران قرار میگیرد و همچنین طبق گفته مایکروسافت، این مدل برای چتبات بینگ مورد استفاده قرار گرفته است.
به گفته OpenAI، در مکالمات معمولی تفاوت چندانی میان GPT-4 و GPT-3.5 وجود ندارد (GPT-3.5 برای ChatGPT استفاده شده است). سم آلتمن، مدیرعامل OpenAI در توییتی گفته که GPT-4 همچنان ناقص است و محدودیت دارد، بااینحال همچنان در اولین استفاده از آن تحت تأثیر قرار میگیرید.
سازنده GPT-4 میگوید بهبودهای این مدل در چندین آزمون و بنچمارک ازجمله LSAT و SAT Math مشهود است. در آزمونها GPT-4 توانسته نمرات بالایی کسب کند. GPT-4 درواقع یک مدل چند وجهی است که میتواند ورودیهای متن و تصویر را قبول کند، اما خروجیها بهصورت متن در اختیار کاربران قرار میگیرند.
به گفته OpenAI، این مدل میتوان بهطور همزمان متن و عکس را تجزیهوتحلیل کند تا قادر به تحلیل ورودیهای پیچیدهتر باشد. GPT-4 به مدت 6 ماه تحت آزمایشهای ایمنی قرار داشته و به گفته سازندهاش، نسبت به مدل قبلی، GPT-3.5 تا 82 درصد کمتر به درخواستهای غیرمجاز پاسخ میدهد و همچنین 40 درصد احتمال بیشتری وجود دارد که پاسخهای واقعی بدهد.