وقد أطلقت OpenAI chatGPT ل أسلوب الصوت المتقدم، مما يسمح للمستخدمين بتجربة استجابات GPT-4o السمعية الفائقة الواقعية. الميزات، في البداية تظهر صوت GPT-4o، يشبه صوت سكارليت جوهانسون، ولكن تم إزالته في وقت لاحق. وقد تأخرت هذه السمة لتحسين تدابير السلامة بعد أن رفض جوهانسون استخدام صوتها في عرض تجريبي، وسيكون متاحاً تدريجياً لجميع مستخدمي Plus في عام 2024.
عرض OpenAI GPT-4o، الذي يعرض قدرات تبادل الفيديو والشاشات، لن يتم تضمينه في ألفا، ولكن يمكن للمستخدمين الأقساط الوصول إلى ميزة صوت ThaTGPT.
الآن يمكن لتشاتققب أن يتحدث ويستمع
أسلوب OpenAI للصوت المتقدم يختلف عن الحل الصوتي الحالي ThaTGPT ل، الذي يستخدم ثلاثة نماذج: GPT-4 لتحويل الصوت، والتجهيز الفوري، وتحويل النص. GPT-4o هو متعدد الوسائط، مما يقلل من التأخّر ويكشف عن التناسخات العاطفية في الصوت.
OpenAI تُطلق أسلوبها الصوتي المتقدم في مشروع تجريبي لمستخدمي ThaTGPT Plus، حيث يتلقى المستخدمون تنبيهات في التطبيق والتعليمات عن طريق البريد الإلكتروني لرصد الاستخدام وضمان الأداء الأمثل.
وقد اختبر OpenAI القدرات الصوتية GPT-4o مع أكثر من 100 لاعب أحمر خارجي، يتحدث 45 لغة، ويتوقع تقرير السلامة في أوائل آب/أغسطس.
OpenAI لديها الحد من أسلوب الصوت المتقدم لأصوات chatGPT الأربعة السابقة، جونيبر، بريزي، كوف، وإمبر، بالتعاون مع الممثلين الصوتيين المدفوعي الأجر. وتهدف الشركة إلى تجنب المجادلات المغلوطة العميقة، في أعقاب الحادث الذي وقع في كانون الثاني/يناير والذي انطوى على استخدام تكنولوجيا استنساخ الصوت في شركة “أونفر لابس”.
أدخلت OpenAI المرشّحات لحجب طلبات الموسيقى الخاضعة لحقوق التأليف والنشر، وهي خطوة أدت إلى قضايا قانونية لشركات AI، لا سيما بطاقات التسجيل، التي رفعت بالفعل دعوى على AI-generators Suno وUdio.