Snowflake heeft Snowflake Arctic geïntroduceerd, een large language model (LLM) dat deel uitmaakt van de Snowflake Arctic-modelfamilie. Dit nieuwe model is gebaseerd op een Mixture-of-Experts (MoE) architectuur en is ontworpen voor gebruik op grote schaal binnen ondernemingen.
Snowflake heeft aangekondigd dat het model en de onderzoeksgegevens vrijgegeven worden onder een Apache 2.0-licentie, wat het model toegankelijk maakt voor zowel persoonlijk, onderzoeksmatig als commercieel gebruik.
Het AI-onderzoeksteam van Snowflake heeft het model ontwikkeld met een focus op efficiëntie, waarbij ongeveer een achtste van de trainingskosten van vergelijkbare modellen is gebruikt. Het is getraind met behulp van Amazon Elastic Compute Cloud (Amazon EC2) P5-instanties. Snowflake benadrukt dat de efficiëntie van het model leidt tot lagere kosten voor het aanpassen van aangepaste modellen op schaal.
Snowflake Arctic zal ook beschikbaar zijn voor serverloze inferentie via Snowflake Cortex, een volledig beheerde dienst van Snowflake, en zal worden aangeboden op Amazon Web Services (AWS), naast andere platforms en catalogi zoals Hugging Face en Microsoft Azure.
Naast Arctic omvat de Snowflake Arctic-familie ook een reeks tekstinbeddingsmodellen, die beschikbaar zijn gemaakt voor de open source community. Snowflake blijft samenwerken met partners zoals NVIDIA en heeft onlangs investeringen gedaan in AI-bedrijven zoals LandingAI en Mistral AI om zijn AI-mogelijkheden verder te ontwikkelen.