Kép: Nacon Studio Milan
Egy AI-szakértő azt állítja, hogy a levél (a Future Of Life Intézet), amelyet Elon Musk és több mint 1600 ember írt alá, komolyan alábecsüli a helyzetet. Eliezer Yudkowsky döntéselméleti szakember, aki a Gépi Intelligencia Kutatóintézetben vezet kutatást, és több mint húsz éves tapasztalattal rendelkezik ezen a területen. Az AI-szakértő bírálja a Time Magazine által kiadott cikkben megjelent levelet, amelyben kijelenti, hogy a mesterséges intelligencia képzésének hat hónapos szünete sajnálatos módon nem megfelelő ahhoz képest, hogy mennyi ideig tart a jelenlegi AI viselkedésének tanulmányozása.
A Időtől:
„Február 7-én Satya Nadella, a Microsoft vezérigazgatója nyilvánosan örült, hogy az új Bing hatására a Google „kijön, és megmutatja, hogy tudnak táncolni”. „Azt akarom, hogy az emberek tudják, hogy mi táncoltuk őket” – mondta.
A Microsoft vezérigazgatója nem így beszél egy józan világban. Elsöprő szakadékot mutat aközött, hogy mennyire komolyan vesszük a problémát, és mennyire komolyan kellett vennünk a problémát 30 évvel ezelőtt.
Ezt nem fogjuk áthidalni hat hónap alatt.
Több mint 60 év telt el a mesterséges intelligencia fogalmának első felvetése és tanulmányozása és a mai képességek eléréséig. Az emberfeletti intelligencia biztonságának megoldása – nem tökéletes biztonság, a biztonság a „szó szerint nem ölünk meg mindenkit” – nagyon ésszerűen legalább a fele ennyi ideig tarthat.“
Nem te vagy, hanem én
Eliezer válasza tisztázza, hogy a mesterséges intelligencia nem az érzelmekre alapozza azt a döntést, hogy felszámolja a földi életet, hanem hogy „az MI nem szeret téged, és nem is gyűlöl, és atomokból vagy másra is használható.“
A szakértő elmagyarázza, hogy a mesterséges intelligencia fejlesztőinek vagy egyáltalán nincs tervük a mesterséges intelligencia összehangolására, vagy hogy a mesterséges intelligencia jövőbeli iterációi saját AI-igazítást hajtanak végre. Az AI-igazítás egy olyan kifejezés, az ai-alignment.com-on, amely az AI-igazításra utal. üzemeltetői.
„Az OpenAI nyíltan kinyilvánított szándéka az, hogy néhány jövőbeli mesterséges intelligencia elvégezze az AI-igazítás házi feladatát. Csak annak hallása, hogy ez a terv, elegendő ahhoz, hogy minden értelmes ember pánikba essen. A másik vezető mesterséges intelligencia-laboratóriumnak, a DeepMind-nek egyáltalán nincs terve.”
Az AI öntudatának állapota nagy aggodalomra ad okot, de jelenleg nem igazán tudni, hogy mennyi idő van a jövőig vagy a jelenlegiig, az AI verziója eléri. Eliezer elismeri, hogy a GPT-4 valószínűleg csak utánozza az adatokat, hogy saját válaszokat adjon, de nem végeztek elegendő kutatást annak megállapítására, hogy merre tart, és tovább kritizálja, hogy a fejlesztő nem tud róla.
“Ha ez a mi helyzetünk A GPT-4 tudatlansága, és a GPT-5 akkora óriási képességlépés, mint a GPT-3-tól a GPT-4-ig, azt hiszem, többé nem mondhatjuk jogosan azt, hogy „valószínűleg nem ismeri magát”, ha hagyjuk emberek gyártanak GPT-5-öt. Csak ez lesz: „Nem tudom; senki se tudja.”Ha nem vagy biztos abban, hogy öntudatos mesterséges intelligenciát hozol létre, ez nem csak az „öntudatos” rész morális vonatkozásai miatt riasztó, hanem azért is, mert a bizonytalanság azt jelenti, hogy fogalmad sincs, mit csinálsz. és ez veszélyes, és abba kell hagynod.”
Egy kis Skynet messzire vezet
A szakértő nem tartja vissza magát a végzetben és a szomorúságban , és jó okkal. Figyelembe véve a nyugtalanító chatbot-válaszok számos riasztó esetét, mind a közelmúltban a Google Bardjával, mind az újonnan továbbfejlesztett Binggel, valamint a Tay, a Microsoft korábbi Twitterbot-kísérlete 2016-ban, rengeteg példa van arra, hogy a jó chatbotok elromlottak. Végül is van egy régi kifejezés, szemét be, szemét ki.
„Nem vagyunk felkészülve. Nem készülünk semmilyen ésszerű időintervallumban. Nincs terv. A mesterséges intelligencia képességeinek fejlődése óriási, jelentősen megelőzve a mesterséges intelligencia összehangolásának fejlődését, vagy akár annak megértésében, hogy mi a fene folyik ezekben a rendszerekben. Ha valóban ezt tesszük, mindannyian meghalunk.”
A szakértő végül azt mondja, hogy nekünk, az egész világnak határozatlan időre le kell állítania minden mesterséges intelligencia képzést, és ott kell tanulmányoznia, ahol már van. fejlődésében. Nemzetközi megállapodásokat kell kötni az olyan törvények létrehozására és betartatására, amelyek megbüntetik azokat a jogsértőket, akik továbbra is mesterséges intelligencia-számítógépfarmokat (más néven GPU-klasztereket) hoznak létre. Ez magában foglalja az összes értékesített GPU nyomon követését és annak nyomon követését, hogy egy adott országban hány darab van, és katonai akciót alkalmaznak azok kiküszöbölésére, ha szabálysértőt azonosítanak.
Csatlakozzon a fórumunkon található bejegyzés vitájához…