X

Zapisz się na darmowy newsletter SOCIALPRESS

Dlaczego warto się zapisać
Nasz newsletter subskrybuje już 15 000 osób!

ChatGPT od teraz widzi, słyszy i odpowiada głosem – OpenAI o nowych funkcjach chatbota

OpenAI zaprezentowało innowacyjne ulepszenia w ChatGPT, które przenoszą interakcje z chatbotem na zupełnie nowy poziom – nauczył się widzieć, słyszeć i … mówić.

ChatGPT od teraz widzi, słyszy i odpowiada głosem – OpenAI o nowych funkcjach chatbotaźródło: shutterstock.com

reklama


Dotychczas z ChatGPT można było się porozumiewać przy pomocy tekstowych poleceń. OpenAI informuje jednak o nowych funkcjach, które znacznie usprawnią korzystanie z chatbota.

Wielozadaniowy asystent

Najnowsza wersja chatbota nie tylko rozumie tekst, ale również widzi, słyszy i odpowiada głosem. ChatGPT staje się więc wszechstronnym asystentem multimedialnym, zyskując jeszcze większą przewagę nad innymi narzędziami opartymi na sztucznej inteligencji.

Nowa wersja umożliwia rozmowy z chatbotem za pomocą komunikatów głosowych. ChatGPT odpowie na pytanie wygenerowanym automatycznie głosem. Do wyboru otrzymujemy pięć różnych, realistycznie brzmiących głosów, co sprawia, że rozmowa z ChatGPT przypomina interakcję z każdym innym asystentem w telefonie.

„Nowa funkcja głosowa jest obsługiwana przez nowy model zamiany tekstu na mowę, umożliwiający generowanie dźwięku podobnego do ludzkiego na podstawie samego tekstu i kilku sekund próbki mowy. Przy tworzeniu każdego z głosów współpracowaliśmy z profesjonalnymi aktorami głosowymi. Używamy również Whisper, naszego systemu rozpoznawania mowy typu open source, do transkrypcji wypowiadanych słów na tekst” – czytamy na blogu OpenAI.

Kolejną nowością jest możliwość analizy zdjęć zrobionych przez użytkowników. Zgodnie z komunikatem od OpenAI, ChatGPT „rozwiąże problem, dlaczego grill się nie uruchamia, przejrzy zawartość lodówki, aby zaplanować posiłek lub przeanalizuje złożony wykres pod kątem danych związanych z pracą”.

Możemy także kazać chatbotowi, aby skupił się na konkretnej części obrazu, korzystając z narzędzia do rysowania. Jest ono jednak dostępne wyłącznie w aplikacji mobilnej.

Nowe funkcje nie dla wszystkich

Jak wygląda sprawa z poleceniami wydawanymi w języku innym niż angielski? Jak czytamy na blogu, model doskonale radzi sobie z transkrypcją tekstu w języku angielskim. Może jednak napotykać pewne trudności w przypadku innych języków, zwłaszcza tych, które nie korzystają z alfabetu łacińskiego. W związku z tym zaleca się na razie korzystanie z tego narzędzia wyłącznie w języku angielskim. Nowe funkcje dostępne są obecnie w wersji testowej, więc istnieje możliwość, że w przyszłości pojawią się dodatkowe ulepszenia i rozszerzenie obsługi innych języków.

W ciągu nadchodzących dwóch tygodni usprawnienia zostaną aktywowane i na początku skorzystają z nich wyłącznie subskrybenci wersji Plus i Enterprise. Funkcje głosowe będą dostępne w aplikacji na systemach iOS oraz Android. Analiza zdjęć z kolei zostanie udostępniona na wszystkich dostępnych platformach. Dla użytkowników korzystających z darmowych wersji nowe funkcje będą dostępne w późniejszym terminie – OpenAI nie podało jednak konkretnej daty.

Reklama

Newsletter

Bądź na bieżąco!
Zapisz się na bezpłatny newsletter.

free newsletter templates powered by FreshMail