تکنولوژی

نسخۀ تازه هوش مصنوعی «چت‌‌ جی‌پی‌تی» با قابلیت‌های شگفت‌انگیز/ از پشتیبانی به حل مشکلات ریاضی تا ترجمۀ همزمان ۲ زبان گوناگون/ ویدئو_بام وطن

[ad_1]
به گزارش بام وطن

مدل زبانی بزرگ تازه GPT-4o امکان دیدن و بازدید محیط را به طور آنی دارد و می‌تواند در رابطه چهره و لباس و محیط اطراف شما نظر دهد یا کاربر سوالی در رابطه چهره یا لباس از ChatGPT بپرسد.

این چنین در نسخۀ تازه کاربر می‌تواند از ChatGPT بخواهد که در حل مشکلات ریاضی به او پشتیبانی کند و ربات مرحله‌به‌مرحله به او یاد می‌دهد قضیه را با چه روشی حل کرده است.

ربات GPT-4o این چنین قابلیت ترجمۀ همزمان دارد؛ برای مثال اگر فردی با زبان ایتالیایی کند ربات همزمان آن را برای فرد دیگر به انگلیسی ترجمه می‌کند.

در یک قابلیت دلنشین دیگر، ابن نسخۀ تازه می‌تواند به‌صورت بداهه برای کاربر قصه بگوید! حتی می‌توان با این ربات هوشمند، سنگ‌ کاغذ قیچی بازی کرد.

هوش مصنوعی «عالم‌گیر» GPT-4o رونمایی شد؛ حیرت‌انگیز، پرسرعت و رایگان!

OpenAI مدل زبانی بزرگ جدیدی به نام GPT-4o معارفه کرد که شدت قابل توجهی دارد و به رایگان در دسترس همه قرار می‌گیرد.

به گزارش زومیت، مدل زبانی بزرگ تازه GPT-4o شرکت OpenAI در جریان مراسم اختصاصی‌ی این شرکت رونمایی شد. GPT-4o نسخه‌ی اصلاح‌شده‌ی مدل زبانی GPT-4 است که به‌گفتن قلب تپنده‌ی چت‌بات معروف ChatGPT عمل می‌کند. سخن o در عبارت GPT-4o مخفف Omni به معنی عالم‌گیر یا جهانی است.

بر پایه حرف های‌ی میرا موراتی، مدیر ارشد فناوری OpenAI، مدل تازه این شرکت زیاد سریع تر است و در عرصه‌ی فهمیدن متن و محتوای تصویری و محتوای صوتی کارکرد چشمگیری از خود مشخص می کند.

OpenAI می‌گوید که مدل زبانی بزرگ GPT-4o به رایگان در دسترس همه‌ی مردم قرار می‌گیرد، با این‌حال محدودیت‌ ظرفیت کاربران نسخه‌ی اشتراکی پنج برابرِ کاربران نسخه‌ی رایگان است؛ به این معنی که کاربران اشتراکی می‌توانند روزانه پنج برابر خواست زیاد تر ارسال کنند.

برترین و بروزترین اخبار ورزشی اقتصای تکنولوژی و سلامتی را در وب سایت خبری بام وطن دنبال کنید.

در بخشی از مراسم OpenAI ناظر کارکرد حیرت‌انگیز GPT-4o در حل مسائل ریاضی و حتی فهمیدن لحن سخن‌زدن کاربر بودیم. قابلیت صوتی تازه GPT-4o کاملا به احساسات کاربر عکس العمل مشخص می کند و با لحنی صمیمی مشغول سخن بگویید‌کردن و حتی داستان‌گفتن می‌شود.

سم آلتمن، مدیرعامل OpenAI، خبرداد که مدل GPT-4o «به‌صورت ذاتی، چند حالته است.» این یعنی مدل تازه می‌تواند افزون‌بر متن، محتواهای صوتی و تصویری را تشکیل کند و بفهمد.

هوش مصنوعی GPT-4o مکالمات انسان و کامپیوتر را طبیعی‌تر می‌کند

گسترش‌دهندگانی که به GPT-4o علاقه‌مند می باشند، می‌توانند API این مدل هوش مصنوعی را با نصف قیمت GPT-4 Turbo خریداری کنند. GPT-4o به‌مقدار دو برابر سریع تر از نسخه‌ی Turbo است.

بر پایه حرف های‌ی OpenAI، اکثر قابلیت‌های مدل هوش مصنوعی تازه این شرکت به‌صورت تدریجی در دسترس قرار می‌گیرند؛ با این‌حال قابلیت‌های متنی و تصویری از همین امروز در چت‌بات ChatGPT قابل دسترس می باشند.

مدل زبانی GPT-4o قدمی در راستای طبیعی‌شدن تعامل انسان با کامپیوتر است و می‌تواند در تنها ۲۳۲ میلی‌ثانیه (میانگین ۳۲۰ میلی‌ثانیه)، به ورودی‌های صوتی جواب دهد؛ OpenAI ادعا می‌کند که زمان جواب‌دهی GPT-4o شبیه زمان جواب‌دهی انسان در مکالمات روزمره است.

GPT-4o در عرصه‌ی فهمیدن متن‌های انگلیسی و کد، هم‌سطح نسخه‌ی Turbo ظاهر می‌شود، اما ارزان‌تر و زیاد سریع تر است. این مدل زبانی تازه به‌طور اختصاصی در توانایی فهمیدن محتوای بصری و صوتی تحکیم شده است.

تا پیش از انتشار کردن GPT-4o می‌توانستید ازطریق قابلیت Voice Mode و با تأخیر ۲٫۸ ثانیه‌ای (در GPT-3.5) یا ۵٫۴ ثانیه‌ای (در GPT-4) با ChatGPT او گفت‌و‌گو کنید. Voice Mode برای اراعه‌ی این قابلیت، به سه مدل اتکا می‌کند: یک مدل ساده برای تبدیل صدا به متن، GPT-3.5 یا GPT-4 برای تبدیل متن به متن و در نهایت مدل سوم برای تبدیل متن به صدا.

با انتشار کردن GPT-4o، سازوکار قابلیت صوتی ChatGPT تحول می‌کند. OpenAI می‌گوید که یک مدل تازه گسترش داده است که به‌طور کامل به متن و صدا و عکس دسترسی دارد و شدت زیاد بالاتری اراعه می‌دهد.

بر پایه حرف های‌ی OpenAI، مدل هوش مصنوعی GPT-4o در کنار کارکرد سریع و دقیق، دقت اختصاصی‌ای به ایمنی دارد و محتواهای حساس را تشکیل نمی‌کند.

دسته بندی مطالب
خبرهای ورزشی

اخبار پزشکی

اخبار اقتصادی

اخبار فرهنگی

اخبار کسب وکار

اخبار فناوری

[ad_2]

منبع

نوشته های مشابه

دکمه بازگشت به بالا