Het is tegenwoordig lastig om organisaties te vinden waar het niet over AI gaat. In dat opzicht heeft ChatGPT heel wat losgemaakt. Het was zeker niet de eerste AI-tool, maar het heeft veel mensen wakker geschud. Wat volgde, was de grootste hype en adoptiesnelheid sinds blockchain. Daar is veel geld mee gemoeid: in een recent IDC-rapport wordt geschat dat de AI-branche tegen 2026 kan rekenen op zo’n 301 miljard dollar.
Productiviteit van medewerkers, klanttevredenheid, risicobeheersing – alles wordt beter dankzij AI. Tenminste, dat is de pitch. Veel organisaties happen toe en duiken volop op deze nieuwe technologie, om een pionier te worden en hun concurrentie voor te blijven. Maar dat leidt wel tot nieuwe, onverwachte risico’s.
Een kwestie van controle
Hoe meer, hoe beter lijkt het motto te zijn wat data betreft. In de praktijk is dat echter lang niet altijd het geval. Hoe meer datasets je in beheer hebt, hoe moeilijker het wordt om de herkomst en kwaliteit van alle gegevens in de gaten te houden. Daardoor wordt het bijvoorbeeld moeilijker om geschillen te voorkomen rond auteursrecht en AI.
Ook wordt het lastiger om te bepalen of de AI het bij het juiste eind heeft. Neem ChatGPT: op de website van OpenAI staat dat het model “inaccurate informatie kan leveren.” Dit is lang en breed bewezen en misschien niet zo erg als je op zoek bent naar een recept, maar het is wat anders als het een rechtszaak betreft.
Het moge duidelijk zijn wat voor risico’s dit meebrengt voor organisaties. Een AI-tool die bijvoorbeeld automatisch de voorraadniveaus beheert, prestatiebonussen toekent of de cashflow voorspelt, maakt fundamentele beslissingen die een gigantische impact hebben op de winstgevendheid van een organisatie. Dat kan goed worden gemonitord met een volwassen data governance- en AI-strategie – totdat je personeel hun eigen ‘schaduw’-AI-tools begint te gebruiken. En je kan niet monitoren wat je niet weet.
De uitdaging is dus tweeledig:
- Hoe waarborg je de kwaliteit en integriteit van de AI-tools die je monitort?
- Hoe voorkom je dat medewerkers niet-gevalideerde en ongeautoriseerde AI-tools gebruiken?
De oplossing is niet te vinden in een concreet lijstje met tips. Het draait vooral om de strategische aanvliegroute die organisaties hanteren voor AI. En die aanvliegroute leidt niet richting de LLM’s zoals ChatGPT, die de afgelopen tijd alle krantenkoppen haalden. Nee, de toekomst voor zakelijk AI-gebruik ligt in oplossingen die zijn toegespitst op de uitdagingen van een specifieke sector.
Betere en relevantere data
Het tijdperk van sectorspecifieke AI wordt gedefinieerd door unieke, gedifferentieerde diensten. Daar zijn funderingsmodellen voor nodig die zijn getraind op eigen bedrijfsdata, zodat ze zijn toegespitst op de best practices binnen een specifieke organisatie of branche.
Een funderingsmodel moet je ‘opvoeden’ met goed gestructureerde, gerichte en geverifieerde data. Dat resulteert in AI die echt kan optreden als een expert, die je kunt vertrouwen omdat je weet dat de output niet komt uit bij elkaar geraapte datasets uit willekeurige bronnen. Dit leidt tot relevantere en effectievere AI-gedreven beslissingen. Bijkomend voordeel is dat hierdoor medewerkers veel minder snel de behoefte hebben om hun eigen schimmige AI-tools te installeren.
Dit is precies wat tal van AI-ontwikkelaars nu bezighoudt. Er worden toolkits voor sectorspecifieke AI ontwikkeld die het innovatieve vermogen overtreffen van de bekende grote spelers in de branche. Een perfect voorbeeld van ‘less is more’.
Deze AI moet echter wel met transparantie en integriteit worden toegepast. Samenwerking tussen juristen en compliance-teams en datawetenschappers en DevOps-teams wordt dan ook een belangrijk onderdeel van een effectieve AI-strategie. Om het nodige vertrouwen in AI-oplossingen te krijgen, betekent dat ook dat je je AI-code en data zo veel mogelijk open source maakt. Daardoor kunnen developers AI-modellen doorlopend en controleerbaar verbeteren.
Juristen en compliance-teams hebben de verantwoordelijkheid om richtlijnen rond AI-gebruik op te stellen en te handhaven. En daarvoor moeten ze dezelfde lastige vragen stellen over de herkomst van trainingsdata die ze ook van waakhonden kunnen verwachten. Want wereldwijd zijn overheden bezig met regulering. Kijk maar naar de Europese AI Act, de Amerikaanse AI Bill of Rights, het Britse AI-beleidsvoorstel en de Chinese regulering rond algoritmes. En als je AI getraind is met je eigen data, ben je ook verantwoordelijk voor de output.
Pas op voor de AI-hype. Door in plaats van algemene AI-toepassingen te focussen op sectorspecifieke AI, kunnen organisaties er meer waarde uit halen én er beter voor zorgen dat hun medewerkers compliance-richtlijnen volgen. Deze keuze vergt sterk leiderschap. Door alle media-aandacht voor AI hebben veel mensen de neiging vooral zo snel mogelijk op deze technologie te duiken. Maar de verstandigste aanpak is om een pas op de plaats te maken, goed te evalueren en er vervolgens voor te zorgen dat alle AI-investeringen – zowel in systemen, experts en werkprocessen – gebaseerd zijn op een goede afweging tussen kansen en risico’s.
Jan Wildeboer is EMEA Open Source Evangelist bij Red Hat