Napredna glasovna funkcija dostupna za korisnike plaćene verzije ChatGPT-a

Napredna glasovna funkcija dostupna za korisnike plaćene verzije ChatGPT-a

Napredna glasovna funkcija dostupna za korisnike plaćene verzije ChatGPT-a

Iz kompanije je saopšteno da će ova verzija do jeseni biti dostupna svim Plus korisnicima.

foto: OpenAI

Američka organizacija za istraživanje umjetne inteligencije (artificial intelligence AI) OpenAI u utorak je počela sa uvođenjem napredne glasovne funkcije u popularnom chatbotu ChatGPT, u kome se korisnicima daje pristup prirodnijim audio odgovorima, javio je TechCrunch.

Verzija je od jučer dostupna maloj grupi korisnika ChatGPT Plus, a kompanija OpenAI kaže da će ova funkcija postepeno biti dostupna svim Plus korisnicima u jesen 2024. godine.

"Napredni glasovni način na ChatGPT-u sadrži prirodnije razgovore u realnom vremenu koji reaguju emocijama i neverbalnim znakovima", saopšteno je iz kompanije.
 
Ova funkcija na ChatGPT-u trenutno je u ograničenoj početnoj verziji te iz kompanije govore da su moguće greške. 

OpenAI je glasovnu funkciju u ChatGPT-4o predstavio u maju, a TechCrunch ističe da pored toga što je ta funkcija iznenadila publiku brzim odgovorima, nevjerovatna je i sličnost sa pravim ljudskim glasom.

Glas Sky, kako napominju iz TechCruncha, ličio je na glas glumice Scarlett Johansson. Johansson je nakon toga rekla da je odbila višestruke upite izvršnog direktora OpenAI Sama Altmana da koristi njen glas, a nakon što je vidjela početnu verziju GPT-4o, unajmila je pravnog savjetnika da je brani. OpenAI je negirao korištenje njenog glasa, ali je kasnije uklonio glas.

Iz OpenAI-a ističu i da je napredni glasovni način rada drugačiji od onog koji je trenutno dostupan. ChatGPT-ovo staro rješenje za audio koristilo je tri odvojena modela: jedan za pretvaranje glasa u tekst, GPT-4 za obradu upita, a treći za prebacivanje ChatGPT-ovog teksta u glas. Navodi se da je GPT-4o multimodalan, to jeste sposoban da obrađuje ove zadatke bez pomoći sporednih modela, čime se stvaraju razgovori sa znatno manjim kašnjenjem. OpenAI također tvrdi da GPT-4o može osjetiti emocionalne intonacije u vašem glasu, uključujući tugu, uzbuđenje ili pjevanje.

TechCrunch navodi da nije mogao testirati funkciju prije objavljivanja članka, ali da će to uraditi kada dobije pristup.

Kompanija kaže da će ova napredna glasovna funkcija biti ograničen na četiri unaprijed podešena glasa: Juniper, Breeze, Cove i Ember, koja su napravljena u saradnji sa plaćenim glasovnim glumcima. Glasnogovornica OpenAI Lindsay McCallum kaže da “ChatGPT ne može imitirati glasove drugih ljudi, kako pojedinaca tako i javnih ličnosti, i da će blokirati one koji se razlikuju od jednog od ovih unaprijed postavljenih glasova”.

OpenAI također kaže da je uveo nove filtere za blokiranje određenih zahtjeva za generisanje muzike ili drugog zvuka zaštićenog autorskim pravima. TechCrunch podsjeća da su se u prošloj godini AI kompanije našle u pravnim problemima zbog kršenja autorskih prava.

Na stranici kompanije je dostupno i uputstvo za korištenje nove verzije.

Izvor: TechCrunch

___

Želite sedmični pregled vijesti, analiza, komentara i edukacija za novinare u Inboxu Vašeg e-maila? Pretplatite se na naš besplatni E-bilten ovdje.