A mesterséges intelligencia viharként hódítja meg a világot, és bár használhatja a Google Bard-ot vagy a ChatGPT-t, használhat egy helyi szervert is a Mac-en. Így használhatja az új MLC LLM csevegőalkalmazást.

A mesterséges intelligencia (AI) a számítástechnika új, élvonalbeli határa, és nagy felhajtást generál a számítástechnika világában.

A chatbotok – mesterséges intelligencia-alapú alkalmazások, amelyekkel a felhasználók domain szakértőként beszélgethetnek – enyhén szólva egyre népszerűbbek.

A chatbotok látszólag szakértői tudással rendelkeznek számos általános és speciális témában, és mindenhol gyors ütemben telepítik. Az egyik csoport – az OpenAI – kiadott néhány ChatGPT-t hónapokkal ezelőtt egy sokkolt világba.

A ChatGPT látszólag korlátlan tudással rendelkezik gyakorlatilag bármilyen témában, és valós időben tud válaszolni olyan kérdésekre, amelyek egyébként órákig vagy napokig tartó kutatást igényelnének. Mind a vállalatok, mind a dolgozók rájöttek, hogy a mesterséges intelligencia felgyorsíthatja a munkát a kutatási idő csökkentésével.

A hátrányok

A fentieket figyelembe véve azonban van néhány AI-alkalmazásnak hátránya is. Az AI elsődleges hátránya, hogy az eredményeket még ellenőrizni kell.

Bár általában többnyire helyes, a mesterséges intelligencia téves vagy megtévesztő adatokat szolgáltathat, amelyek hamis következtetésekhez vagy eredményekhez vezethetnek.

A szoftverfejlesztők és szoftvercégek „másodpilóták”-hoz folyamodtak – olyan speciális chatbotokhoz, amelyek segíthetnek a fejlesztőknek kódot írni a mesterséges intelligencia automatikusan megírja a függvények vagy metódusok vázlatát – amit aztán a fejlesztő ellenőrizhet.

Noha a másodpilóták nagyszerű időmegtakarítást jelentenek, hibás kódokat is írhatnak. A Microsoft, az Amazon, a GitHub és az NVIDIA mind kiadott másodpilótákat a fejlesztők számára.

Kezdő lépések a chatbotokkal

A chatbotok működésének legalább magas szintű megértéséhez először meg kell értenie az AI alapjait, és különösen a gépi tanulást (ML) és Large Language Models (LLM).

A gépi tanulás a számítástechnika egyik ága, amely a számítógépek tanulásra való megtanításának kutatásával és fejlesztésével foglalkozik.

Az LLM alapvetően egy természetes nyelvi feldolgozó (NLP) program, amely hatalmas adathalmazokat és neurális hálózatokat (NN-eket) használ a szöveg létrehozásához. Az LLM-ek úgy dolgoznak, hogy mesterséges intelligencia kódot tanítanak nagy adatmodellekre, amelyek aztán idővel „tanulnak” belőlük – lényegében a bemeneti adatok pontossága alapján egy adott terület tartományszakértőjévé válnak.

Minél több (és pontosabb) a bemeneti adat, annál pontosabb és pontosabb lesz a modellt használó chatbot. Az LLM-ek a Deep Learningre is támaszkodnak, miközben adatmodellekre képezik őket.

Amikor kérdést tesz fel egy chatbotnak, az LLM-től kérdezi meg a legmegfelelőbb választ – a tanult és tárolt ismeretei alapján a kérdéséhez kapcsolódó összes tárgyról.

A chatbotok alapvetően előre kiszámított tudással rendelkeznek egy témáról, és kellően pontos LLM-t és elegendő tanulási időt biztosítanak, sokkal gyorsabban tudnak helyes válaszokat adni, mint a legtöbb ember.

A chatbot használata olyan, mintha egy automatizált doktori csapat azonnal rendelkezésére állna.

2023 januárjában a Meta AI kiadta saját LLM-jét LLaMA néven. Egy hónappal később a Google bemutatta saját mesterséges intelligencia chatbotját, a Bardot, amely saját LLM-jén, a LaMDA-n alapul. Azóta más chatbotok is megjelentek.

Generatív mesterséges intelligencia

A közelmúltban egyes LLM-ek megtanulták, hogyan lehet nem szövegalapú adatokat, például grafikákat, zenét és akár egész könyveket generálni. A vállalatokat érdekli a generatív mesterséges intelligencia, hogy olyan dolgokat hozzanak létre, mint például a vállalati grafika, logók, címek és akár a színészeket helyettesítő digitális filmjelenetek is.

Például ennek a cikknek az indexképét mesterséges intelligencia hozta létre.

A Generatív AI mellékhatásaként a dolgozók aggódnak amiatt, hogy az AI-szoftverek által vezérelt automatizálás miatt elveszítik állásukat.

Chatbot asszisztensek

A világ első kereskedelmi célú, felhasználók által elérhető chatbotja (BeBot) a Bespoke Japan adta ki a Tokyo Station City számára 2019-ben.

Az iOS-és Android-alkalmazásként megjelent BeBot tudja, hogyan irányíthatja Önt a labirintusszerű állomás környékén, segít a poggyász tárolásában és visszavételében, elküldi Önt egy információs pulthoz, vagy megtalálhatja a vonatok időpontját, a földi szállítást, vagy élelmiszereket és üzleteket az állomáson belül.

Még azt is meg tudja mondani, hogy melyik vonatperonra induljon a leggyorsabb vonatút a város bármely célpontjához az utazás időtartama szerint – mindezt néhány másodperc alatt.

Az MLC csevegőalkalmazása

A Machine Learning Compilation (MLC) projekt az Apache Foundation Deep Learning kutatójának ötlete Siyuan Feng és Hongyi Jin, valamint mások Seattle-ben és Sanghajban, Kínában.

Az MLC mögött az az elképzelés áll, hogy előre lefordított LLM-eket és chatbotokat telepítsen a fogyasztói eszközökre és webböngészőkre. Az MLC a fogyasztói grafikus feldolgozó egységek (GPU-k) erejét hasznosítja az AI találatok és keresések felgyorsítására, így a mesterséges intelligencia elérhető a legtöbb modern fogyasztói számítástechnikai eszköz számára.

Egy másik MLC projekt – a Web LLM – ugyanazt a funkcionalitást hozza a webböngészőkbe, és az egy másik projekt-WebGPU. A Web LLM csak meghatározott GPU-kkal rendelkező gépeket támogatja, mivel az ezeket a GPU-kat támogató kódkeretrendszerekre támaszkodik.

A legtöbb mesterséges intelligencia asszisztens kliens-szerver modellre támaszkodik, ahol a kiszolgálók végzik a mesterséges intelligencia nagy részét, de az MLC az LLM-eket helyi kódba sűríti, amely közvetlenül a felhasználó eszközén fut, így nincs szükség LLM-szerverekre.

Az MLC beállítása

Az MLC futtatásához eszközén meg kell felelnie a projektben és a GitHub oldalain felsorolt ​​minimális követelményeknek.

Az iPhone-on való futtatáshoz iPhone 14 Pro Max, iPhone 14 Pro vagy iPhone 12 Pro készülékre lesz szüksége, legalább 6 GB szabad RAM-mal. Az alkalmazás telepítéséhez telepítenie kell az Apple TestFlight alkalmazását is, de a telepítés az első 9000 felhasználóra korlátozódik.

Megpróbáltuk futtatni az MLC-t egy 2021-es alap iPaden, 64 GB tárhellyel, de nem sikerült inicializálni. Az eredmények iPad Pro esetén eltérőek lehetnek.

Az MLC-t forrásokból is létrehozhatja, és közvetlenül a telefonján is futtathatja az MLC-LLM GitHub oldalon található utasítások követésével. A források lekéréséhez telepítenie kell a git forráskód-vezérlő rendszert a Mac számítógépére.

Ehhez hozzon létre egy új mappát a Mac gép Finderében, a UNIX cd paranccsal navigáljon hozzá a terminálban, majd indítsa el a git clone parancsot a terminálban az MLC-LLM GitHubon felsoroltak szerint. oldal:

https://github.com/mlc-ai/mlc-llm.git, és nyomja meg a Return gombot. A git letölti az összes MLC-forrást a létrehozott mappába.

Az iPhone-on futó MLC. Kiválaszthatja vagy letöltheti a használni kívánt modellsúlyt.

A Mac előfeltételeinek telepítése

Mac és Linux számítógépeken az MLC parancssori felületről fut a Terminálban. A használatához először telepítenie kell néhány előfeltételt:

A Conda vagy Miniconda Package Manager Homebrew Vulkan grafikus könyvtár (csak Linux vagy Windows) nagy fájlok támogatása (LFS)

Az NVIDIA GPU-felhasználók számára az MLC utasításai kifejezetten azt írják elő, hogy manuálisan kell telepíteni a Vulkan illesztőprogramot alapértelmezett illesztőprogramként. Egy másik grafikus könyvtár NVIDIA GPU-khoz – a CUDA – nem fog működni.

Mac-felhasználók számára a Miniconda a Homebrew csomagkezelő használatával telepíthető. korábban foglalkoztam. Vegye figyelembe, hogy a Miniconda ütközik egy másik Homebrew Conda formulával, a miniforge-val.

Tehát ha a miniforge már telepítve van a Homebrew segítségével, először el kell távolítania.

Az MLC/LLM oldalon található utasításokat követve a telepítés hátralévő lépései nagyjából a következők:

Új Conda környezet létrehozása A git és a git LFS telepítése A parancssori chat alkalmazás telepítése a Condától Új helyi létrehozása mappát, töltse le az LLM-modell súlyait, és állítson be egy LOCAL_ID változót. Töltse le az MLC-könyvtárakat a GitHubról

Mindezt részletesen megemlítjük az utasítások oldalán, ezért itt nem térünk ki a beállítás minden szempontjára. Kezdetben ijesztőnek tűnhet, de ha rendelkezik alapvető macOS Terminal készségekkel, akkor ez valójában csak néhány egyszerű lépés.

A LOCAL_ID lépés csak úgy állítja be ezt a változót, hogy a három letöltött modellsúly egyikére mutasson.

A modellsúlyok a HuggingFace közösségi webhelyről tölthetők le, amely egyfajta GitHub AI-hoz.

Miután minden telepítve van a terminálban, az mlc_chat_cli használatával elérheti az MLC-t a terminálban

MLC használata webböngészőben

Az MLC-nek van webes verziója is, a Web LLM.

A Web LLM változat csak Apple Silicon Mac gépeken fut. Nem fog futni Intel Mac számítógépeken, és ha megpróbálja, hibát jelez a chatbot ablakában.

Az MLC webes csevegőablakának tetején található egy felugró menü, amelyből kiválaszthatja, hogy melyik letöltött modell súlyát szeretné használni:

Válasszon ki egy modellsúlyt.

A Web LLM használatához a Google Chrome böngészőre lesz szüksége (Chrome 113-as vagy újabb verzió). A korábbi verziók nem működnek.

A Chrome verziószámát a Mac verzió Chrome-menüjében ellenőrizheti, ha felkeresi a Chrome->A Google Chrome névjegye menüpontot. Ha elérhető frissítés, kattintson a Frissítés gombra a legújabb verzióra való frissítéshez.

Lehet, hogy a frissítés után újra kell indítania a Chrome-ot.

Ne feledje, hogy az MLC Web LLM oldala azt javasolja, hogy indítsa el a Chrome-ot a Mac terminálról a következő paranccsal:

/Applications/Google\ Chrome.app/Contents/MacOS/Google\ Chrome — enable-dawn-features=allow_unsafe_apis,disable_robustness

allow_unsafe_apis’és disable_robustness’a Chrome két indítási jelzője, amelyek lehetővé teszik a kísérleti funkciók használatát, amelyek instabilok vagy nem.

Ha mindent beállított, csak írjon be egy kérdést az Írja be az üzenetet mezőbe a Web LLM weboldal csevegőablakának alján, majd kattintson a Küldés gombra. erős> gombot.

A valódi mesterséges intelligencia és az intelligens asszisztensek korszaka csak most kezdődik. Bár a mesterséges intelligencia kockázatokat rejt magában, ez a technológia azt ígéri, hogy rengeteg időt takarít meg és sok munka kiküszöböli a jövőnket.

Categories: IT Info