Dziennik Gazeta Prawana logo
OpenAI zaprezentowało najnowszy model sztucznej inteligencji. GPT-4o jest szybszy, widzi oraz słyszy. Już niedługo będzie on dostępny za darmo dla użytkowników ChatGPT.

Nowy model ChatuGPT

W poniedziałek 13 maja OpenAI zaprezentowało swój najnowszy model sztucznej inteligencji o nazwie GPT-4o. Literka "o" oznacza "omni" (z łac. wszystko). Model cechuje się tym samym poziomem inteligencji co GPT-4, jednak jest szybszy, zwłaszcza w przetwarzaniu dźwięku i obrazu. Teraz interakcja z nim ma być prosta i przypominać rozmowę z drugim człowiekiem.  

Mira Murati, dyrektorka ds. technologicznych w OpenAI, wyjaśniła, że do tej pory interakcja głosowa z ChatemGPT była rozbita na trzy etapy: transkrypcję audio, rozumowanie oraz generowanie audio z tekstu. 

Murati wskazała, że model GPT-4o "rozumuje dźwiękiem, tekstem i obrazem", przez co interakcja głosowa będzie płynna i naturalna.

OpenAI podaje, że nowy model został wytrenowany w ten sposób, że wszystkie elementy są przetwarzane na jednej sztucznej sieci neuronowej.

Nowe możliwości GPT-4o

Pracownicy OpenAI zaprezentowali nowe możliwości ChatuGPT. Sztuczna inteligencja odpowiadała na pytania i zadania bez kilkusekundowego opóźnienia (średnio było to 5,4 sekundy), jak miało to miejsce do tej pory. Co ważne, można było przerywać jej wypowiedzi.

Według OpenAI nowy model potrzebuje średnio 0,3 sekundy na wygenerowanie odpowiedzi.

GPT-4o potrafi odczytywać emocje z głosu, a także intonować własne wypowiedzi, wyrażając emocje. 

Sztuczna inteligencja będzie natychmiastowo tłumaczyć

Zaprezentowano także możliwości funkcjonowania ChatuGPT-4o jako natychmiastowego tłumacza z włoskiego na angielski.

Model GPT-4o ma dobrze radzić sobie z obrazem. GPT-4o rozwiązał napisane na kartce zadanie matematyczne oraz ocenił emocje prowadzącego na podstawie jego selfie. Oba zadania wykonał szybko i skutecznie.

Nowa wersja chatu GPT będzie dostępna w 50 językach za darmo w aplikacji ChatGPT i zostanie udostępniona w nadchodzących tygodniach.

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło dziennik.pl
Hubert Ossowski
Hubert Ossowski
<p><span>Dziennikarz. Od marca 2024 roku w redakcji Dziennik.pl.&nbsp;Wcześniej pisałem dla mediów lokalnych i ogólnopolskich. Najlepiej czuję się w tematyce społecznej, politycznej i kościelnej. Wierzę, że w swojej pracy mogę być głosem tych, których na co dzień nie chce się słyszeć. W wolnym czasie kibicuje londyńskiej Chelsea, uprawiam sport i oglądam włoskie kino. Jeśli masz dla mnie temat, zapraszam do kontaktu.</span></p>
Zobacz wszystkie artykuły tego autoraNowy model sztucznej inteligencji. GPT-4o odczytuje emocje z głosu »
Zapisz się na newsletter
Najważniejsze wydarzenia polityczne i społeczne, istotne wiadomości kulturalne, najlepsza rozrywka, pomocne porady i najświeższa prognoza pogody. To wszystko i wiele więcej znajdziesz w newsletterze Dziennik.pl. Trzymamy rękę na pulsie Polski i świata. Zapisz się do naszego newslettera i bądź na bieżąco!

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj