Red Hat stelt Red Hat Enterprise Linux (RHEL) AI algemeen beschikbaar voor hybride cloudomgevingen. Dit platform is ontworpen om bedrijven te ondersteunen bij het ontwikkelen, testen en implementeren van generatieve AI-modellen. RHEL AI integreert de open source Granite-reeks van Large Language Models (LLM’s) en InstructLab-tools voor modelaanpassing, gebaseerd op de LAB-methode. Het platform wordt aangeboden als een direct inzetbare RHEL-image voor gebruik op servers in hybride cloudomgevingen.
De hoge kosten van het ontwikkelen en afstemmen van LLM’s vormen vaak een uitdaging voor bedrijven, met rapporten die schatten dat dergelijke projecten tot $200 miljoen kunnen kosten. Red Hat beoogt deze drempel te verlagen met een open source-aanpak, die toegang biedt tot efficiëntere, oplossingsgerichte AI-modellen. Door middel van RHEL AI kunnen bedrijven generatieve AI-modellen aanpassen aan hun specifieke behoeften zonder afhankelijk te zijn van gespecialiseerde datawetenschappers.
Het platform biedt een aantal voordelen, waaronder ondersteuning voor open source Granite-modellen en tools voor modelafstemming. Het is ontworpen om in hybride cloudomgevingen te werken, wat bedrijven de mogelijkheid biedt om AI-modellen op schaal te trainen, aanpassen en implementeren met koppelingen naar Red Hat OpenShift AI. RHEL AI komt met de voordelen van een Red Hat-abonnement, inclusief productieondersteuning en bescherming van intellectueel eigendom.
RHEL AI is nu beschikbaar via het Red Hat Customer Portal en kan worden gebruikt in Amazon Web Services en IBM Cloud als onderdeel van een “bring your own subscription” (BYOS)-optie. BYOS-ondersteuning voor Microsoft Azure en Google Cloud Platform volgt in Q4 2024, met een geplande beschikbaarheid van RHEL AI als dienst op IBM Cloud later dit jaar.
Daarnaast werkt Red Hat samen met Dell om RHEL AI te optimaliseren voor Dell PowerEdge R760xa-servers, waarmee bedrijven eenvoudiger AI-strategieën op grote schaal kunnen implementeren.