Tijdens Intel Innovation 2023 heeft Intel onder meer gesproken over de noodzaak om AI te integreren met security, in een open en ontwikkelaarsgericht ecosysteem.
Greg Lavender, de Chief Technology Officer van Intel, gaf een toelichting op Intel’s streven om AI toegankelijk te maken voor een breed publiek. Hij gaf aan dat beperkingen in de keuze van hardware en software de mogelijke toepassingen en de maatschappelijke waarde van grootschalige AI-implementaties kunnen inperken. Door de beveiliging en het vertrouwen in AI te vergroten, beoogt Intel AI breed toegankelijk te maken.
Verder gaf Intel aan zich in te zetten voor een open AI-ecosysteem, wat onderstreept wordt door recente samenwerkingsverbanden met softwareleveranciers zoals Red Hat, Canonical, en SUSE. Intel wil door deze samenwerkingen ontwikkelaars voorzien van geoptimaliseerde bedrijfssoftware die is afgestemd op de nieuwste Intel-architecturen.
Een ander belangrijk onderwerp tijdens het evenement was de bespreking van de uitdagingen rondom de implementatie van AI in de praktijk. Intel zet zich in om een open ecosysteem te creëren dat de implementatie van AI over verschillende architecturen vereenvoudigt om deze uitdagingen het hoofd te bieden.
Om de prestaties verder te optimaliseren, introduceert Intel tools zoals de Auto Pilot voor Kubernetes pod resource-aanpassing onder Intel Granulate, die continue capaciteitsbeheeraanbevelingen zal bieden.
Intel erkende de noodzaak om AI-modellen, data en platforms te beveiligen tegen potentiële dreigingen. Intel maakte bekend plannen te hebben voor de ontwikkeling van een specifieke integrated circuit (ASIC) accelerator om de complexiteit van volledig homomorfe encryptie te verminderen. Ook zal Intel later dit jaar een bètaversie van een beveiligde computing software toolkit lanceren.
Intel presenteerde een nieuwe attestatiedienst als onderdeel van Intel Trust Authority. Deze dienst verzorgt een integrale beoordeling van de integriteit, het beleid en de auditrecords van Intel’s betrouwbare uitvoeringsomgeving. Deze dienst is ontworpen om breed inzetbaar te zijn in diverse omgevingen zoals multi-cloud, hybride, on-premise of edge, waar Intel’s beveiligde computing wordt toegepast. Intel Trust Authority ambieert een basis te vormen voor betrouwbare AI, waarbij de veiligheid van omgevingen waarin gevoelige data en intellectueel eigendom worden verwerkt, gegarandeerd wordt, met een focus op machine-learningtoepassingen op Intel Xeon processors.