Sok szervezet szeretné integrálni a mesterséges intelligenciát a termékébe vagy a belső folyamataiba, de úgy, hogy az ne menjen az adatvédelem rovására. Az ilyen szervezetek számára az a megoldás, hogy az AI-modelleket saját szervereikre töltik le és telepítik, ahelyett, hogy adataikat a felhőbe küldenék. Ebben a cikkben ezt az on-premise stratégiát (más néven "edge AI") fogjuk tárgyalni.
A helyben vagy a peremeken történő számítástechnika az adatok feldolgozásának és tárolásának gyakorlatára utal, amely közelebb van a forráshoz, ahelyett, hogy egy központosított felhőinfrastruktúrába küldené azokat. Ebben a megközelítésben a számítási erőforrások az adatokat küldő rendszerek közelében találhatók.
Más szóval az on-premise és a edge computing divatos kifejezések, amelyek azt a tényt írják le, hogy egy alkalmazást a saját szervereken telepítünk, nem pedig egy külső felhőszolgáltatás, például egy SaaS API segítségével.
2 forgatókönyv tekinthető helyben lévőnek: vagy saját gépekkel rendelkezik, amelyeket a saját létesítményeiben üzemeltet, vagy egy felhőszolgáltatót, például az AWS-t, a GCP-t, az Azure-t... Szigorúan véve az utóbbi kevésbé "on-premise", mivel nem rendelkezik a mögöttes szerver felett, de általánosságban mindkettő érvényes on-premise / edge megoldásnak tekinthető.
Az on-premise vagy edge computing számos előnnyel jár. Először is, az on-premise vagy edge computing drámaian növeli az adatvédelmet és a biztonságot azáltal, hogy az érzékeny információkat közelebb tartja a forráshoz, csökkenti a jogosulatlan hozzáférés vagy az adatok megsértésének kockázatát a felhőbe történő szállítás során, és megakadályozza, hogy a felhő szereplői nem kívánt célokra használják fel az Ön adatait. Segít továbbá a szervezeteknek megfelelni a helyi tárolást és feldolgozást előíró adatszabályozásoknak és törvényeknek.
Ezenkívül csökkenti a késleltetést, mivel az adatoknak nem kell nagy távolságokat megtenniük, hogy elérjék a felhőt, ami gyorsabb feldolgozást és valós idejű elemzést tesz lehetővé. Emellett minimalizálja a hálózati kapcsolattartástól való függőséget, így a műveletek akkor is folytatódhatnak, ha az internet megbízhatatlan vagy megszakadt.
Az AI egy nagyon jó on-premise jelölt.
Az első ok az, hogy a szervezetek hajlamosak rendkívül érzékeny adatokat küldeni a mesterséges intelligencia modelleknek. Ez különösen igaz az olyan kritikus területeken, mint az orvosi alkalmazások, pénzügyi alkalmazások,... De nem csak.
A második ok az, hogy a mai piacon lévő mesterséges intelligencia szereplői hajlamosak az ügyfelek adatait saját üzleti tevékenységükhöz újra felhasználni. Az OpenAI jó példa erre: amikor például a szervezetek adatokat küldenek a ChatGPT-nek, az adatokat megvizsgálják, és az OpenAI újra felhasználhatja az adatokat a saját AI-modelljeik betanításához. A ChatGPT és a GPT-4 adatvédelmi aggályai olyan központi kérdések, amelyek miatt sok szervezet a helyhez kötött stratégiákra összpontosít.
Az AI-modellek helyben történő telepítése magában foglalja az AI-modell befogadására, kezelésére és kiszolgálására szolgáló infrastruktúra létrehozását a szervezet saját adatközpontjában vagy kezelt infrastruktúrájában, nem pedig a felhőben.
Íme néhány gyakori lépés egy mesterséges intelligenciamodell helyben történő telepítése során:
Ezek a lépések leegyszerűsíthetők, ha egy dedikált szállítóra, például az NLP Cloudra támaszkodik a helyszíni AI-modellhez. Ami például az NLP Cloudot illeti, hozzáférhet egy Docker-képhez, amely egy használatra kész, következtetésre optimalizált AI-modellt tartalmaz.
Az on-premise vagy edge computing korlátokba ütközik. A peremhelyen rendelkezésre álló számítási erőforrások jellemzően korlátozottak a felhőinfrastruktúrához képest, ami korlátozhatja a telepíthető alkalmazások összetettségét. Emellett a több helyszínen elosztott számítási erőforrások fenntartása és kezelése kihívást jelenthet, ami további beruházásokat igényel az informatikai infrastruktúrába és szakértelembe.
Általában egy ilyen stratégia költségesebb, mint egy olyan menedzselt SaaS ajánlatra támaszkodni, mint az OpenAI, Anthropic, NLP Cloud....
Végül pedig az adatvédelem csak akkor garantált, ha az alapul szolgáló helyi infrastruktúra megfelelően biztosított.
Az on-premise AI / edge AI az egekbe szökik most, hogy az AI fokozatosan teret nyer a szervezetek körében.
Ez a tendencia érthető: A mesterséges intelligenciát mindenféle kritikus alkalmazásban használják, amelyeknek szigorú adatvédelmi követelményei vannak, és - eleve - a szabványos felhőszolgáltatók nem tudnak megfelelni ezeknek a követelményeknek.
Ha Önt is érdekli egy ilyen stratégia az Ön mesterséges intelligencia projektje számára, kérjük, lépjen kapcsolatba velünk, hogy tanácsot adhassunk: [email protected]
Maxime
Az NLP Cloud stratégiai partnerkapcsolatokért felelős vezetője