ChatGPT to wszystko, o czym każdy może ostatnio rozmawiać. Oparty na modelu językowym GPT 3 i GPT 3.5 (dla abonentów Plus), chatbot AI powiększył się skokowo w zakresie swoich możliwości. Jednak wiele osób czekało z zapartym tchem na ulepszony model, który popycha kopertę. Cóż, OpenAI sprawiło, że stało się to rzeczywistością dzięki GPT-4, najnowszemu multimodalnemu LLM, który jest wypełniony po brzegi ulepszeniami i bezprecedensową technologią w sztucznej inteligencji. Sprawdź wszystkie szczegóły poniżej!
GPT-4 jest multimodalny i przewyższa 3.5
Nowo ogłoszony model GPT-4 firmy OpenAI to wielka rzecz w sztucznej inteligencji. Najważniejszą rzeczą, o której należy wspomnieć, jest to, że GPT-4 to duży model multimodalny. Oznacza to, że będzie w stanie akceptować wprowadzane obrazy i tekst, zapewniając głębsze zrozumienie. OpenAI wspomina, że chociaż nowy model jest mniej zdolny niż ludzie w wielu rzeczywistych scenariuszach, nadal może wykazywać wydajność na poziomie człowieka na różnych poziomach.
GPT-4 jest również uważany za bardziej niezawodny, kreatywny i wydajny model niż jego poprzednik GPT-3.5. Na przykład: nowy model mógł zdać symulowany egzamin adwokacki z wynikiem zbliżonym do 10% najlepszych zdających (~90 percentyla), podczas gdy GPT 3.5 znalazł się w najniższych 10%. GPT-4 jest również w stanie obsłużyć bardziej szczegółowe instrukcje niż model 3.5. OpenAI porównał oba modele w różnych testach porównawczych i egzaminach, a GPT-4 znalazł się na szczycie. Sprawdź wszystkie fajne rzeczy, które ChatGPT może zrobić tutaj.
GPT-4 i elementy wizualne
Jak wspomniano powyżej, nowy model obsługuje reklamy zarówno tekstowe, jak i graficzne. W porównaniu z ograniczonym wprowadzaniem tekstu, GPT-4 radzi sobie znacznie lepiej w zrozumieniu danych wejściowych, które zawierają zarówno tekst, jak i obrazy. Wizualne dane wejściowe pozostają spójne w różnych dokumentach, w tym w tekście i zdjęciach, diagramach, a nawet zrzutach ekranu.
OpenAI pokazał to samo, karmiąc GPT-4 obrazem i monitem tekstowym z prośbą o opisanie, co jest zabawne w obrazie. Jak widać powyżej, model był w stanie z powodzeniem odczytać losowy obraz z Reddita i odpowiedzieć na pytanie zadane przez użytkownika. Następnie był w stanie zidentyfikować element humorystyczny. Jednak dane wejściowe obrazu GPT-4 nadal nie są publicznie dostępne i stanowią podgląd badań.
Podatny na halucynacje i ograniczone dane
Chociaż GPT-4 jest sporym skokiem w stosunku do poprzedniej iteracji, nadal istnieją pewne problemy. Na początek OpenAI wspomina, że wciąż nie jest w pełni niezawodny i ma skłonność do halucynacji. Oznacza to, że sztuczna inteligencja będzie popełniać błędy w rozumowaniu, a jej wyniki należy traktować z dużą ostrożnością iz udziałem człowieka. Może też być zdecydowanie błędny w swoich przewidywaniach, co może prowadzić do błędów. Jednak GPT-4 zmniejsza halucynacje w porównaniu z poprzednimi modelami. Konkretnie, nowy model uzyskał o 40% więcej punktów niż GPT-3.5 w ocenach firmy.
Kolejną wadą, którą wielu miało nadzieję naprawić za pomocą GPT-4, jest ograniczony zbiór danych. Niestety GPT-4 nadal nie ma wiedzy o wydarzeniach, które miały miejsce po wrześniu 2021, co jest rozczarowujące. Nie uczy się też na swoich doświadczeniach, co przekłada się na wspomniane wyżej błędy w rozumowaniu. Co więcej, GPT-4 może zawieść w przypadku trudnych problemów, podobnie jak ludzie, w tym luk w zabezpieczeniach. Ale nie ma się czym martwić, ponieważ Microsoft Bing AI korzysta z modelu GPT-4. Tak, możesz wypróbować nowy model AI z obsługą danych internetowych w czasie rzeczywistym w Bing. Sprawdź ten artykuł, aby dowiedzieć się, jak uzyskać dostęp do czatu Bing AI w dowolnej przeglądarce — nie ograniczając się do Edge.
Dostęp do GPT-4 z ChatGPT Plus
GPT-4 jest dostępny dla subskrybentów ChatGPT Plus z limitem użytkowania. OpenAI wspomina, że dostosuje dokładny limit użytkowania w zależności od zapotrzebowania i wydajności systemu. Co więcej, firma może nawet wprowadzić „nowy poziom subskrypcji” dla większego wykorzystania GPT-4. Z drugiej strony darmowi użytkownicy będą musieli poczekać, ponieważ firma nie wspomniała o żadnych konkretnych planach i ma jedynie „nadzieję”, że może zaoferować pewną liczbę bezpłatnych zapytań GPT-4 osobom bez subskrypcji.
Wygląda na to, że GPT-4 będzie niezwykle atrakcyjnym modelem językowym, nawet z pewnymi dziurami w jego zbroi. Dla tych, którzy szukają jeszcze bardziej szczegółowych informacji, mamy już coś w przygotowaniu. Więc czekajcie na więcej.
Zostaw komentarz