Terwijl we vandaag Safer Internet Day 2026 vieren, is de discussie verschoven van een veilig gebruik van wachtwoorden naar het verantwoord omgaan met het toenemend gebruik van AI. De belangen zijn nu groter dan ooit, omdat wet- en regelgevers de snelle ontwikkelingen op het gebied van AI proberen bij te benen. Omdat data de brandstof is voor het toepassen van AI, wordt van veel moderne organisaties verwacht dat ze als een databedrijf opereren, vooral als ze over grote hoeveelheden consumenteninformatie beschikken.

De urgentie om AI veilig te gebruiken wordt ingegeven door een volatiel dreigingslandschap. Het toenemend gebruik van AI in diverse functies, en daarmee ook van consumentendata, legt het kwetsbare oppervlak van organisaties bloot voor cyberdreigingen. In het rapport 'Cost of a Data Breach' bleek consumentendata het meest gecompromitteerde gegevenstype te zijn, betrokken bij 53% van alle datalekken in de retail. Die dreigingen richten zich op de enorme transactievolumes en persoonlijke informatie die retailers en financiële instellingen beheren.

Verder blijkt uit de Cisco 2026 Data Privacy Benchmark Study dat het consumentenbewustzijn flink is toegenomen. 46% van de ondervraagden geeft aan dat ʻduidelijke communicatieʼ over hoe hun data wordt gebruikt om AI te trainen, de meest effectieve wijze is om het vertrouwen van consumenten terug te winnen. Op basis hiervan moeten organisaties op verantwoorde wijze omgaan met de data die hun groei stimuleren, terwijl ze tegelijkertijd de grenzen blijven verleggen om een concurrentievoordeel te behalen. Bij velen gaan beide zaken hand in hand.

Tegenwoordig leidt een datalek niet alleen tot een boete, maar tast het ook de merkwaarde aan die bedrijven in de loop der jaren zorgvuldig hebben opgebouwd. Jarenlang vertrouwde men op reactieve beveiligingsmaatregelen, een soort ʻwaakhondenʼ, die pas in actie kwamen als er een dreiging was gedetecteerd. In 2026 verzamelen en genereren AI-modellen echter continu data in on-premises datacenters, clouds en aan de randen van het bedrijfsnetwerk. Wachten tot een probleem zich voordoet, is daarom vandaag de dag geen optie meer.

Gelukkig is Private AI beschikbaar als een effectieve oplossing voor moderne organisaties. Private AI zorgt ervoor dat de input en output van AI-modellen de organisatie nooit verlaten, waardoor de rekenkracht naar de data wordt gebracht, in plaats van dat data wordt blootgesteld door deze naar de rekenkracht te verplaatsen. Deze aanpak stelt businessmanagers in staat het ʻdilemma rond dataprivacyʼ te ontmantelen; de misvatting dat ze moeten kiezen tussen het gebruiken van data voor innovatie, of het afschermen ervan voor naleving van de regelgeving.

Effectieve Private AI vereist echter volledige transparantie. In het Gartner-rapport 'Metadata Management' gaf bijna 60% van de organisaties toe dat ze niet wisten waar hun cruciale data zich bevonden. Je kunt natuurlijk niet beheren wat je niet kunt zien. Als oplossing daarvoor gebruiken succesvolle organisaties uniforme dataplatformen die een volledig overzicht van de dataherkomst en -levenscyclus bieden. Daardoor kan men exact bijhouden waar alle data vandaan komt, hoe deze is bewerkt en wie er toegang toe heeft gehad.

Naarmate generatieve AI-agenten een integraal onderdeel worden van de bedrijfsprocessen en -workflows, moeten organisaties alle data die ze gebruiken nauwkeurig onderzoeken. De meest waardevolle data voor het voeden en trainen van AI, te weten ondersteunende transcripten en transactiegeschiedenissen, is in de praktijk vaak ook de meest gevoelige.

Databeveiliging is tegenwoordig een waardeverhogend aspect en van essentieel belang voor elke organisatie. In 2026 zullen de organisaties die het meest succesvol zijn, bedrijven zijn die proactieve beveiligingsmaatregelen implementeren en ervoor zorgen dat hun AI-toepassingen van het begin af aan privé, gecontroleerd en veilig zijn.

Auteur: Frank Beerlage, Managing Director Benelux bij Cloudera