Моля, въведете вашето потребителско име и парола.
Изчакайте зарежда се ..
Изчакайте зарежда се ..

Dell прави възможно използването на персонализиран AI във всяка локална корпоративна мрежа

2023

20

ноем.

Партньорството между две от най-известните IT компании в света – лидерът от света на персоналните компютри и сървъри, Dell, и компанията „майка“ на Facebook, Meta – наскоро даде живот на нова възможност за бизнеса: поддръжка на новия LLM модел на Meta (носещ името Llama 2) за цялата линия специализиран за работа с AI хардуер от Dell, както и за всички техни решения за генеративен AI в локалните бизнес мрежи.

 

Защо комбинацията от интелекта на Llama 2 и сървърите на Dell е толкова важна за бизнеса?


Всички IT специалисти, работещи със сървърни системи, центрове за данни, облачни приложения и др., много добре познават нагласите на бизнеса спрямо използването на облачни приложения. Най-ценните активи с информация на множество компании, банки и държавни организации не се „качват в облака“ не само поради причини, свързани със сигурността, но и заради регулации от типа на GDPR, например. Информацията се съхранява и използва само в локални IT структури, контролирани на място – т. нар. „On Premise Deployments“.


Новата възможност за вграждане на Llama 2 AI модела на Meta във вътрешните мрежи на компаниите, използващи Dell Validated Design for Generative AI хардуер, позволява те вече да се възползват от способностите на изкуствения интелект, за да изграждат собствени приложения за работа с вътрешна информация. Овладяването на силата, която AI притежава, означава намаляване на разходите и времето за търсене на информация в локалните мрежи и нарастване на капацитета от възможности на новосъздадените фирмени приложения.

 

AI възможностите на Llama 2 могат да ускорят работата на всяка компания


Llama 2 бе предоставена за употреба от Meta през юли, като предишната версия вече бе поддържана от топ доставчиците на облачни услуги: Microsoft Azure, Amazon Web Services и Google Cloud. Но партньорството с Dell е по-различно, тъй като предоставя LLM с отворен код за локално инсталирани сървъри и мрежи на компании, чиято връзка с облака е ограничена.


Ключов момент е, че Dell поддържа и предлага Llama 2 не само за своите клиенти, но и за вътрешна употреба. Тя не е само за експерименти или за разработчици, но и за реална работа в корпоративната мрежа. Един от най-забележителните примери за това е поддръжката на Retrieval Augmented Generation (RAG) – технология, работеща с част от собствената база данни с информация на Dell. Внедряването на Llama 2 в нея помага за създаването на интерфейс за служителите в стил чатбот, за да могат всички те по-бързо и лесно да откриват нужната вътрешна информация благодарение на повишеното ниво на сложност на фамилията Llama 2 (до 70 милиарда параметъра).


Интересно е още да се отбележи, че Dell не печели директно от самата Llama 2, която е свободно достъпна като технология с отворен код. Американската компания по-скоро ще печели пари от своя изключително добър хардуер и добавените професионални услуги за употреба на генеративен изкуствен интелект. Още повече че Dell от известно време насам предоставя и поддръжка за технологията Nvidia NeMo, също подпомагаща компаниите в насока създаването на генеративни приложения за изкуствен интелект.

 

Meta е оптимистично настроена относно поддръжката на Dell за Llama 2


Според доверени източници в Meta, Llama 2 е постигнала „звезден успех“ – около 30 милиона изтегляния на технологията с отворен код през последните 30 дни! За Meta Llama 2 не е просто LLM, а централен елемент в цял стек за генеративен изкуствен интелект, включващ рамката за машинно обучение с отворен код PyTorch, която Meta създаде и продължава да разработва. Възможностите на Llama 2 признават Google Cloud, Amazon Web Services (AWS) и Microsoft Azure, които дори я използват като платформа за оптимизиране и LLM бенчмаркове.


Използването на публичните облачни услуги има много предимства. Но истинската ценност на новото партньорство ще се прояви в онези корпоративни среди, където традиционно не трябва да се изпращат данни в облака или трябва да изпълнявате задачите си само локално – в зависимост от чувствителността на данните. Това е мястото, където отворените за употреба LLM модели блестят, а Llama 2 попада точно там – може да работи навсякъде, където искате! За Meta това означава, че възползвайки се от партньорството и опита на Dell, ще получи резултати и изводи, които ще бъдат използвани за изграждане на още по-добри LLM модели - Llama 3 и Llama 4.