ChatGPT, model języka sztucznej inteligencji opracowany przez OpenAI, robi furorę w świecie technologii. Ludzie na całym świecie są pod wrażeniem jego zdolności do generowania ludzkich odpowiedzi na monity tekstowe. Jednak szybka ekspansja modelu wzbudziła obawy o potencjalny niedobór procesorów graficznych (GPU). Są one niezbędne do trenowania i uruchamiania dużych modeli językowych, takich jak ChatGPT.
Według magazynu Fortune dyrektor generalny OpenAI, Sam Altman, ujawnił podczas prywatnego spotkania, że poważny niedobór procesorów graficznych utrudnia rozwój ChatGPT. Według raportu Altman spotkał się w maju z wieloma programistami aplikacji i menedżerami start-upów. Raza Habib, dyrektor generalny londyńskiego startupu AI Humanloop, powiedział w tweecie, że Altman uważa, że OpenAI nie ma wystarczającej liczby procesorów graficznych, co opóźniło wiele wysiłków na rzecz optymalizacji ChatGPT.
Dlaczego ChatGPT ma problemy z szybkością i niezawodnością
Zgodnie z protokołem ze spotkania sporządzonym przez Habiba, największymi skargami użytkowników na ChatGPT była szybkość i niezawodność interfejsu API. Altman to zrozumiał i wyjaśnił, że głównym powodem jest to, że GPU to zdecydowanie za mało. Wkrótce po upublicznieniu protokołów ze spotkania OpenAI skontaktowało się z Habibem, aby powiedzieć, że wydarzenie nie jest przeznaczone do publicznego udostępniania.
Chociaż Habib później usunął tweeta, był on aktywny wystarczająco długo, aby ludzie mogli dostrzec najistotniejsze szczegóły. Według doniesień Altman skarżył się, że brak GPU doprowadził do niskiej mocy obliczeniowej, a OpenAI nie mógł rozszerzyć listy czatów ChatGPT. Ma to wpływ na ilość informacji, które ChatGPT może przetwarzać podczas odpowiadania na pytania użytkowników. Ogranicza to również „pamięć” ChatGPT i może mieć trudności z obsługą wcześniejszych rekordów pytań. Ponadto ChatGPT nie może wykonywać bardziej żmudnych zadań ze względu na niską moc obliczeniową. Na przykład narzędzie AI może mieć trudności z pisaniem złożonych kodów programów z powodu niewystarczającej liczby procesorów graficznych.
Według IT Home OpenAI jest jedną z wielu marek, które borykają się z niedoborem procesorów graficznych. Dostawcy usług przetwarzania w chmurze, tacy jak Google, Amazon i Microsoft, borykają się z poważnymi niedoborami procesorów graficznych. Spowodowało to również gwałtowny wzrost ceny akcji głównego dostawcy Nvidii, stając się pierwszą firmą produkującą półprzewodniki o wartości rynkowej przekraczającej jeden bilion. Cena akcji spółki wzrosła w tym roku prawie dwukrotnie.
Gizchina Wiadomości tygodnia
Historia niedoboru GPU
Brak GPU nie jest nowym problemem dla branży technologicznej. W 2017 roku rynek borykał się z podobnym niedoborem ze względu na zwiększony popyt na karty graficzne spowodowany rosnącymi cenami Ethereum. Jednak obecny niedobór jest inny, ponieważ różne czynniki rozszerzyły się i pogorszyły. Głównym winowajcą jest problem z łańcuchami dostaw GPU, który został wzmocniony przez zwiększony popyt w regionie. Pandemia zakłóciła również łańcuchy dostaw i rozwinęła cały przemysł półprzewodników. Utrudnia to firmom dostęp do komponentów niezbędnych do produkcji GPU.
Wpływ niedoboru GPU na ChatGPT
Eksplozja popularności ChatGPT wzbudziła obawy, że kolejny niedobór GPU jest na horyzoncie. Jeden z analityków twierdzi, że do trenowania ChatGPT użyto około 10 000 procesorów graficznych Nvidia. Istnieją również doniesienia, że wraz z rozwojem usługi rośnie zapotrzebowanie na procesory graficzne.
Brak procesorów graficznych utrudnia OpenAI umożliwienie użytkownikom przesyłania większej ilości danych przez duże modele językowe, które leżą u podstaw jego oprogramowania, takie jak ChatGPT. Spowolniło to planowane przez firmę wdrożenie większej liczby funkcji i usług. Spowodowało to również, że istniejące usługi OpenAI są wolniejsze i mniej niezawodne. Jest to duży problem dla wielu użytkowników i sprawia, że niechętnie budują aplikacje dla przedsiębiorstw na bazie technologii OpenAI.
Należy jednak zauważyć, że dokładny stan niedoboru GPU nie jest do końca jasny. Według artykułu Fierce Electronics z marca 2023 r., istnieje „ogromny” niedobór GPU ze względu na potrzeby AI. Z drugiej strony, w sierpniu raport Ars Technica twierdzi, że niedobór GPU oficjalnie się skończył i że mamy teraz nadwyżkę GPU. The Verge poinformował również w lipcu 2022 r., Że niedobór GPU się skończył. W związku z tym dokładny stan niedoboru GPU jest nadal nieco niejasny. Może to zależeć od różnych czynników, takich jak lokalizacja, popyt i zakłócenia w łańcuchu dostaw.
Potencjalne rozwiązania problemu niedoboru GPU
Jednym z potencjalnych rozwiązań niedoboru GPU jest zwiększenie przez firmy półprzewodnikowe ich zdolności produkcyjne. Jednak łatwiej to powiedzieć niż zrobić, ponieważ pandemia zakłóciła łańcuchy dostaw i utrudniła firmom dostęp do komponentów niezbędnych do produkcji procesorów graficznych.
Innym potencjalnym rozwiązaniem dla firm jest znalezienie alternatywnych sposobów szkolenia i uruchamiaj duże modele językowe, takie jak ChatGPT. Na przykład OpenAI powstrzymał swój potężny nowy model językowy, GPT-4, od darmowej wersji ChatGPT, która nadal działa na słabszym modelu GPT-3.5, ze względu na wysokie koszty obsługi GPT-4.
Dyrektor generalny OpenAI, Sam Altman, pośrednio przyznał się do problemu, stwierdzając, że firma pracuje nad tym, aby jej modele sztucznej inteligencji były bardziej wydajne i zużywały mniej zasobów.
Ostateczne słowa
Brak procesorów graficznych jest ogromną przeszkodą dla ChatGPT i innych dużych modeli językowych. Pandemia i zwiększone zapotrzebowanie na GPU utrudniły markom dostęp do części niezbędnych do produkcji GPU, co spowolniło wdrażanie nowych funkcji i usług dla ChatGPT.
Istnieją jednak potencjalne rozwiązania tego problemu, takie jak zwiększenie mocy produkcyjnych i znalezienie alternatywnych sposobów uczenia i uruchamiania dużych modeli językowych. Wraz z rozwojem branży technologicznej interesujące będzie obserwowanie, jak firmy takie jak OpenAI radzą sobie z wyzwaniami związanymi z niedoborem procesorów graficznych i kontynuują innowacje w dziedzinie sztucznej inteligencji.
Źródło/VIA: