Artikelkatalog
🚀【AIWorld Revolution] OpenAI:s nya favorit GPT-4o avtäcktes, och dess röst- och videobehandlingsmöjligheter chockade publiken! 🌟
GPT-4o, en helt ny AI-modell, har inte bara visdomen hos GPT-4, utan kan också utföra realtidstolkning, vilket gör att människor på olika språk kan kommunicera smidigt. Dess uppkomst kommer att helt förändra hur vi interagerar med AI. Kom och upplev charmen med framtida teknik med GPT-4o! 🌐
OpenAI släpper ny GPT-4o-modell
Dagen innan Google I/O startade, stal OpenAI utan ceremonier rampljuset och tog ledningen för att släppa en ny generation modell-GPT-4o. Denna nya modell ärver inte bara visdomen hos GPT-4, utan har också kraftfullare röst- och videobehandlingsmöjligheter, vilket ger användarna känslan av att nästan interagera med en riktig person.
Det speciella med GPT-4o kan ses av namnet. "O" här står för "omni", vilket betyder "allsmäktig", vilket indikerar den nya modellens allsidiga kapacitet i text-, ljud- och videoresonemang. "Vi är stolta över att introducera GPT-4o, vår nya flaggskeppsmodell som kan bearbeta ljud, video och text i realtid", säger OpenAI i ett uttalande.
GPT-4os svarsförmåga ligger nära människors, "som AI i filmen"
Även om GPT-4 också kan känna igen bilder och utföra text- och talkonvertering, har dessa funktioner varit utspridda i olika modeller tidigare, vilket resulterat i långa svarstider. GPT-4o integrerar dessa funktioner i en modell, som kallas "allt-i-ett-modellen". Jämfört med föregående generations flaggskepp GPT-4 Turbo, presterar GPT-4o på liknande sätt på engelska och programmeringsspråk, men har avsevärt förbättrat prestanda på andra språk, snabbare API:er och upp till 50 % lägre kostnad.
OpenAI指出,GPT-4o的回应时间接近人类,能提供更自然的沟通体验,最快可在232毫秒(0.232秒)、平均320毫秒(0.32秒)内响应问题。作为对比,GPT-3.5和GPT-4在语音模式下的回应时间分别为2.8秒和5.4秒。
I OpenAIs demonstration kunde GPT-4o tolka i realtid, vilket gjorde att två personer på olika språk kunde kommunicera utan hinder. Eller när du ber GPT-4o att berätta en godnattsaga kan den berätta den levande med en fylligare och mer känslomässig röst eller så kan den använda en nästan mänsklig ton för att lära dig hur man löser enkla matematiska problem.

Enligt OpenAI kan GPT-4o "läsa" användarens uttryck och ton, veta när och hur den ska svara och kan snabbt växla mellan olika toner, från ett kallt mekaniskt ljud till en glad låt. OpenAI:s tekniska chef Mira Murati sa att utvecklingen av GPT-4o var inspirerad av den mänskliga konversationsprocessen, "När du slutar prata är det min tur att tala. Jag kan läsa din ton och ditt svar. Det är bara så naturligt, rikt och interaktivt. ”
OpenAI VD Sam Altman sa i en blogg, "De nya röst- och videolägena är de bästa datorgränssnitten jag någonsin har använt, precis som AI i filmen. Jag kan inte ens tro det. Verkligen, det visar sig hur dramatiska förändringarna i svarstider och uttrycksfullhet är för att nå mänskliga nivåer."
Även om allt inte var perfekt under demonstrationen, avbröt GPT-4o ibland andra under demonstrationen och kommenterade till och med programledarens kläder utan att bli tillfrågad.
Mulati avslöjade att genom kraften i allroundmodellen kommer GPT-tekniken att förbättras ytterligare i framtiden. Till exempel kommer den att förklara tävlingsreglerna för användarna efter att ha sett sändningen av sportevenemang, och den kommer inte längre att vara begränsad till. enkla uppgifter som att översätta bilder och text.
OpenAI sa att användare nu kan använda GPT-4o i gratisversionen, medan betalande prenumeranter kommer att njuta av fem gånger meddelandegränsen för gratisversionen. Den GPT-4o-baserade rösttjänsten förväntas bli tillgänglig för prenumeranter i beta nästa månad. Det kostnadsfria tillhandahållandet av GPT-4o återspeglar också OpenAI:s prestationer för att minska kostnaderna.
Men på grund av oro för missbruk kommer röstfunktionen inte att vara tillgänglig för alla API-användare för närvarande, och kommer först att vara tillgänglig för vissa betrodda partners under de närmaste veckorna.
ChatGPTPC-versionen av programmet är nu tillgänglig
Medan GPT-4o avsevärt har förbättrat sina röst- och videofunktioner, tillkännagav OpenAI också en uppdatering av webbversionen av ChatGPT UI, som påstår sig ha ett mer konversationsrikt huvudgränssnitt och meddelandepresentation. Mulati betonade att även om modellerna blir allt mer komplexa hoppas hon att den interaktiva upplevelsen mellan användare och AI ska bli enklare, tydligare, enklare och mer naturlig, så att användarna inte behöver oroa sig för användargränssnittet, utan fokusera på samarbete med ChatGPT .
OpenAI tillkännagav också en datorversion av programmet ChatGPT. MacOS-versionen förväntas lanseras först, och Windows-versionen kommer att lanseras senare i år. Det är värt att notera att det fanns tidigare rykten om att förhandlingen mellan OpenAI och Apple om AI-tekniksamarbete har kommit till ett slut. Vid denna tidpunkt lanserades Mac-versionen av programmet, vilket utlöste olika associationer från omvärlden.
Om du registrerar OpenAI på det kinesiska fastlandet visas meddelandet "OpenAI's services are not available in your country."▼

Eftersom avancerade funktioner kräver att användare uppgraderar till ChatGPT Plus för att kunna använda,I länder som inte stöder OpenAI, det är ganska svårt att öppna ChatGPT Plus, och du måste ta itu med komplicerade problem som utländska virtuella kreditkort...
Här presenterar vi en extremt prisvärd webbplats som tillhandahåller ChatGPT Plus delade hyreskonton.
Klicka på länkadressen nedan för att registrera dig för Galaxy Video Bureau▼
Klicka på länken nedan för att se Galaxy Video Bureaus registreringsguide i detalj ▼
tips:
- IP-adresser i Ryssland, Kina, Hongkong och Macau kan inte registreras för ett OpenAI-konto. Det rekommenderas att registrera sig med en annan IP-adress.
Hope Chen Weiliang blogg ( https://www.chenweiliang.com/ ) delade "OpenAI ChatGPT-4o: En allsidig AI-modell som överträffar GPT-4 och ger en realistisk interaktiv upplevelse", vilket kan vara till hjälp för dig.
Välkommen att dela länken till denna artikel:https://www.chenweiliang.com/cwl-31713.html

