Mula nang magsimula ang mga generative AI tulad ng ChatGPT, ang mga eksperto at pamahalaan ay nagkaroon ng kanilang mga alalahanin tungkol sa hindi maayos na pag-unlad sa larangan. Ngayon, sa pagsisikap na matugunan ang mga alalahaning ito, ang OpenAI ay bumubuo ng isang nakatuong koponan na naglalayong pamahalaan ang potensyal mga panganib na nauugnay sa mga superintelligent na AI.
Ang koponan, na pinamumunuan ni Ilya Sutskever, co-founder ng OpenAI, kasama si Jan Leike, isang kilalang miyembro ng alignment team ng OpenAI, ay bubuo ng mga pamamaraan upang mahawakan ang hypothetical scenario kung saan Ang mga superintelligent na AI system ay nalampasan ang katalinuhan ng tao at nagsimulang gumana nang nagsasarili. Bagama’t mukhang malabo ang sitwasyong ito, pinagtatalunan ng mga eksperto na ang mga superintelligent na AI ay maaaring maging katotohanan sa loob ng susunod na dekada, na binibigyang-diin ang kahalagahan ng pagbuo ng mga pananggalang ngayon.
“Sa kasalukuyan, wala kaming solusyon para sa pagpipiloto. o pagkontrol sa isang potensyal na superintelligent na AI at pinipigilan itong maging rogue,”ang sabi sa blog post na nag-aanunsyo ng desisyon.
Ang Superalignment team
Ang Superalignment team, na itinatag ng OpenAI, ay magkakaroon ng access sa humigit-kumulang 20% ng kasalukuyang computational resources, kasama ang mga siyentipiko at inhinyero mula sa nakaraang OpenAI alignment division upang bumuo ng isang “human-level automated alignment researcher,” na pangunahing tutulong sa pagsusuri ng iba pang AI system at pagsasagawa ng alignment research.
“Habang sumusulong tayo dito, ang ating mga AI system ay maaaring humawak ng higit pa at higit pa sa aming pagkakahanay ay gumagana at sa huli ay nag-iisip, nagpapatupad, nag-aaral at bumuo ng mas mahusay na mga diskarte sa pagkakahanay kaysa sa mayroon kami ngayon,”ang sabi ng isa pang post sa blog.
Isang AI system upang suriin ang iba pang AI
Habang ang panukala ng pagbuo ng isang AI system upang suriin ang iba pang mga AI ay maaaring mukhang hindi pangkaraniwan, sinabi ng OpenAI na ang mga AI system ay maaaring gumawa ng mas mabilis na pag-unlad sa pagsasaliksik ng pagkakahanay kumpara sa mga tao. Ang diskarteng ito ay hindi lamang makakatipid ng oras para sa mga mananaliksik ng tao ngunit nagbibigay-daan din sa kanila na tumuon sa pagrepaso sa pagsasaliksik sa pagkakahanay na isinagawa ng AI sa halip na bubuo lamang nito mismo.
Gayunpaman, mahalagang tandaan na kinikilala ng OpenAI ang mga potensyal na panganib at mga panganib na nauugnay sa pamamaraang ito. Bukod pa rito, nagpaplano ang kumpanya na maglabas ng roadmap na nagbabalangkas sa direksyon ng pananaliksik nito sa hinaharap.