Od momentu powstania generatywnych sztucznej inteligencji, takich jak ChatGPT, eksperci i rządy mieli obawy związane z nieuregulowanym rozwojem w tej dziedzinie. Teraz, aby rozwiać te obawy, OpenAI tworzy specjalny zespół, którego zadaniem jest zarządzanie potencjałem ryzyko związane z superinteligentną sztuczną inteligencją.
Zespół kierowany przez Ilyę Sutskever, współzałożyciela OpenAI, wraz z Janem Leike, prominentnym członkiem zespołu dopasowującego OpenAI, opracuje metody radzenia sobie z hipotetycznym scenariuszem, w którym superinteligentne systemy sztucznej inteligencji przewyższają ludzką inteligencję i zaczynają działać autonomicznie. Chociaż ten scenariusz może wydawać się naciągany, eksperci twierdzą, że superinteligentna sztuczna inteligencja może stać się rzeczywistością w ciągu następnej dekady, co podkreśla znaczenie opracowywania zabezpieczeń już dziś.
„Obecnie nie mamy rozwiązania, które pozwoliłoby sterować lub kontrolowanie potencjalnie superinteligentnej sztucznej inteligencji i zapobieganie jej zbuntowaniu” – czytamy w poście na blogu ogłaszającym decyzję.
Zespół Superalignment
Zespół Superalignment, powołany przez OpenAI, będzie miał dostęp do około 20% obecnych zasobów obliczeniowych, wraz z naukowcami i inżynierami z poprzedniego projektu OpenAI dział dopasowywania w celu opracowania „zautomatyzowanego badacza dopasowywania na poziomie człowieka”, który przede wszystkim pomagałby w ocenie innych systemów sztucznej inteligencji i prowadzeniu badań nad dopasowywaniem.
„W miarę postępów w tym zakresie nasze systemy sztucznej inteligencji mogą przejąć więcej i więcej naszych prac związanych z osiowaniem, a ostatecznie opracowujemy, wdrażamy, badamy i rozwijamy lepsze techniki osiowania niż te, które mamy obecnie” — czytamy w innym post na blogu.
System AI do sprawdzania innych AI
Podczas gdy propozycja opracowania systemu AI do sprawdzania innych AI może się wydawać niezwykłe, OpenAI twierdzi, że systemy AI mogą robić szybsze postępy w badaniach nad dopasowaniem w porównaniu z ludźmi. Takie podejście nie tylko zaoszczędziłoby czas badaczom, ale także pozwoliłoby im skoncentrować się na przeglądaniu badań dotyczących dopasowywania prowadzonych przez sztuczną inteligencję, zamiast wyłącznie na ich samodzielnym generowaniu.
Należy jednak zauważyć, że OpenAI zdaje sobie sprawę z potencjalnych zagrożeń i niebezpieczeństw związanych z tym podejściem. Ponadto firma planuje opublikować mapę drogową określającą kierunek jej badań w przyszłości.