Databricks heeft de introductie aangekondigd van DBRX, een nieuw large language model (LLM) dat prestatieverbeteringen moet bieden in vergelijking met bestaande open source-modellen in diverse AI-benchmarktesten. Met DBRX kunnen organisaties hun eigen large language models ontwikkelen en finetunen.
Volgens Ali Ghodsi, medeoprichter en CEO van Databricks, biedt DBRX voordelen zoals betere prestaties dan de bestaande open source-modellen in bepaalde benchmarks en een ‘mixture-of-experts’-architectuur die zorgt voor efficiëntere verwerking. DBRX claimt ook betere prestaties dan GPT-3.5 in diverse benchmarktests.
DBRX moet efficiënter in het gebruik van rekenkracht zijn vergeleken met andere grote LLM’s, dankzij een door Mosaic AI ontwikkelde architectuur en training op NVIDIA DGX Cloud. Deze efficiëntie en de open-source beschikbaarheid zouden kunnen bijdragen aan een verschuiving van closed source naar open source modellen binnen de AI-gemeenschap.
Het model wordt aangeboden op het Databricks Data Intelligence Platform en is beschikbaar op platforms als GitHub, Hugging Face, AWS, Google Cloud en Microsoft Azure. Databricks heeft plannen om DBRX ook beschikbaar te stellen via de NVIDIA API Catalog.