Nu AI-functionaliteit steeds vaker standaard onderdeel wordt van browsers, besturingssystemen en Microsoft 365-applicaties, krijgen veel IT-teams een praktische vraag: kunnen we dit eigenlijk beheren of uitschakelen via Microsoft Intune? Het korte antwoord is dat je AI-functionaliteit deels kunt sturen via device- en applicatiebeleid, maar dat er geen enkele “AI uit”-schakelaar bestaat. Controle ontstaat vooral door een combinatie van Intune policies, identitybeheer en datagovernance.
Veel AI-functionaliteiten verschijnen tegenwoordig via reguliere software-updates. Browsers krijgen AI-assistenten, Microsoft 365-applicaties voegen Copilot-functionaliteit toe en SaaS-platforms introduceren automatisch generatieve AI-features.
Voor IT-afdelingen komt dit soms onverwacht. Een functionaliteit die gisteren nog niet bestond kan vandaag ineens beschikbaar zijn voor alle gebruikers. Medewerkers beginnen ermee te experimenteren en voordat er beleid is opgesteld wordt AI al gebruikt in dagelijkse workflows.
Dat betekent niet dat AI een probleem is. Maar organisaties willen wel begrijpen hoe deze tools omgaan met data en of ze passen binnen bestaande security- en compliancekaders. In ons artikel over het besluit van het Europees Parlement om AI-functionaliteiten tijdelijk uit te schakelen zie je hoe zelfs grote organisaties eerst grip willen krijgen op technologie voordat ze deze breed inzetten.
Voor de meeste organisaties draait het daarom niet om blokkeren, maar om beheersen.
Microsoft Intune richt zich primair op devicebeheer en applicatiebeheer. Dat betekent dat AI-functionaliteit niet direct als categorie kan worden uitgeschakeld. In plaats daarvan beheer je de applicaties en componenten waar AI-functionaliteit onderdeel van is.
Wanneer AI-functionaliteit via Microsoft Edge beschikbaar komt, kun je browserinstellingen beheren via Intune policies. Daarmee bepaal je welke features beschikbaar zijn en hoe extensies of cloudservices gebruikt mogen worden.
Bij Microsoft 365-applicaties ligt de controle vaak bij tenantinstellingen en licentiebeheer. Microsoft Copilot wordt bijvoorbeeld pas actief wanneer de juiste licenties zijn toegewezen en de tenantconfiguratie dit toestaat.
Daarnaast speelt Conditional Access een belangrijke rol. Daarmee kun je bepalen dat bepaalde applicaties alleen beschikbaar zijn vanaf compliant devices of vanuit specifieke netwerkcontexten.
AI wordt dus niet zozeer “uitgezet”, maar gebruikt binnen duidelijke grenzen.
In de praktijk wordt AI-beheer vaak ingericht via bestaande device- en applicatiepolicies. Een veelgebruikte aanpak is het beheren van browserfunctionaliteit en toegang tot cloudservices via Microsoft Intune.
Een eenvoudige configuratie kan er bijvoorbeeld zo uitzien:
Deze aanpak voorkomt niet dat AI-tools bestaan, maar zorgt er wel voor dat bedrijfsdata alleen via gecontroleerde applicaties toegankelijk is.
Voor veel organisaties is dat een realistischer en veiliger uitgangspunt dan het volledig blokkeren van AI-tools.
Een belangrijk punt dat vaak wordt onderschat is dat veel generatieve AI-tools simpelweg via een browser werken. Denk aan publieke AI-platforms of SaaS-oplossingen die buiten je Microsoft 365-tenant draaien.
Intune kan apparaten beheren, maar niet elke webdienst volledig blokkeren. In dat soort situaties zijn aanvullende securitylagen nodig, bijvoorbeeld via Microsoft Defender for Cloud Apps, web filtering of netwerkbeveiliging.
Daarom zien we in de praktijk dat AI-beheer meestal een combinatie is van identitybeheer, devicebeheer en cloud security.
Wat vaak naar voren komt wanneer organisaties AI beginnen te gebruiken, is dat de discussie uiteindelijk minder over AI gaat en meer over data.
Wanneer Copilot bijvoorbeeld informatie uit SharePoint analyseert, gebeurt dat uitsluitend op basis van bestaande toegangsrechten. AI creëert dus geen nieuwe toegang tot informatie, maar maakt bestaande data sneller inzichtelijk.
Dat is ook waarom AI regelmatig samenkomt met privacy- en compliancevragen. In ons artikel over Microsoft Copilot en GDPR gaan we daar uitgebreider op in.
AI maakt dus niet automatisch nieuwe risico’s. Het legt vaak bloot hoe data binnen een organisatie is opgeslagen.
Een reflex die we soms zien is dat organisaties AI-functionaliteit direct willen blokkeren zodra er vragen ontstaan. Dat lijkt veilig, maar het lost zelden het onderliggende probleem op.
Veel verstandiger is het om eerst inzicht te krijgen in hoe AI daadwerkelijk wordt gebruikt. Welke applicaties bevatten AI-functionaliteit? Welke data wordt geraadpleegd? En hoe zijn toegangsrechten ingericht?
Vanuit dat inzicht kun je bepalen welke maatregelen nodig zijn. Soms betekent dat restricties via Intune of Conditional Access. In andere gevallen gaat het meer om dataclassificatie of governancebeleid.
Daarom gaan we in een volgend artikel dieper in op hoe organisaties een AI-governance beleid binnen Microsoft 365 kunnen opstellen en hoe dat aansluit op bestaande securityarchitecturen.
De discussie over AI draait uiteindelijk minder om de technologie zelf en meer om de manier waarop data binnen een organisatie wordt beheerd. Wanneer data goed geclassificeerd is en toegangsrechten logisch zijn ingericht, passen AI-functionaliteiten vaak prima binnen bestaande securitykaders.
Wanneer dat niet het geval is, wordt AI vooral een aanleiding om die inrichting opnieuw te bekijken. In een ander artikel kijken we daarom ook naar wat er technisch gebeurt met data in generatieve AI-tools en hoe organisaties daar grip op houden.
Wil je vooraf inzicht krijgen in hoe je Microsoft 365-omgeving ervoor staat? Met ons Data-assessment voor AI brengen we in kaart hoe rechtenstructuren, dataopslag en configuratie zijn ingericht voordat AI breder wordt ingezet.