Nowy model ChatuGPT

W poniedziałek 13 maja OpenAI zaprezentowało swój najnowszy model sztucznej inteligencji o nazwie GPT-4o. Literka "o" oznacza "omni" (z łac. wszystko). Model cechuje się tym samym poziomem inteligencji co GPT-4, jednak jest szybszy, zwłaszcza w przetwarzaniu dźwięku i obrazu. Teraz interakcja z nim ma być prosta i przypominać rozmowę z drugim człowiekiem.

Mira Murati, dyrektorka ds. technologicznych w OpenAI, wyjaśniła, że do tej pory interakcja głosowa z ChatemGPT była rozbita na trzy etapy: transkrypcję audio, rozumowanie oraz generowanie audio z tekstu.

Reklama

Murati wskazała, że model GPT-4o "rozumuje dźwiękiem, tekstem i obrazem", przez co interakcja głosowa będzie płynna i naturalna.

OpenAI podaje, że nowy model został wytrenowany w ten sposób, że wszystkie elementy są przetwarzane na jednej sztucznej sieci neuronowej.

Nowe możliwości GPT-4o

Reklama

Pracownicy OpenAI zaprezentowali nowe możliwości ChatuGPT. Sztuczna inteligencja odpowiadała na pytania i zadania bez kilkusekundowego opóźnienia (średnio było to 5,4 sekundy), jak miało to miejsce do tej pory. Co ważne, można było przerywać jej wypowiedzi.

Według OpenAI nowy model potrzebuje średnio 0,3 sekundy na wygenerowanie odpowiedzi.

GPT-4o potrafi odczytywać emocje z głosu, a także intonować własne wypowiedzi, wyrażając emocje.

Sztuczna inteligencja będzie natychmiastowo tłumaczyć

Zaprezentowano także możliwości funkcjonowania ChatuGPT-4o jako natychmiastowego tłumacza z włoskiego na angielski.

Model GPT-4o ma dobrze radzić sobie z obrazem. GPT-4o rozwiązał napisane na kartce zadanie matematyczne oraz ocenił emocje prowadzącego na podstawie jego selfie. Oba zadania wykonał szybko i skutecznie.

Nowa wersja chatu GPT będzie dostępna w 50 językach za darmo w aplikacji ChatGPT i zostanie udostępniona w nadchodzących tygodniach.