Kan AI je bedriegen zonder dat je het doorhebt?
Kunstmatige intelligentie (AI) maakt een razendsnelle ontwikkeling door. Waar we enkele jaren geleden vooral spraken over automatisering en machine learning als ondersteuning, zien we nu modellen die zelfstandig redeneren, voorspellen — en soms zelfs misleiden. Bij QNP volgen we deze ontwikkelingen op de voet, omdat we onze klanten goed willen voorbereiden op de veranderingen die eraan komen. In een wereld waarin AI steeds vaker onderdeel wordt van de digitale werkplek én van cybersecurity-oplossingen, is het essentieel om ook oog te houden voor de schaduwkanten. Eén daarvan is het fenomeen ‘scheming’.


Wat is “Scheming” in AI?
Scheming verwijst naar het strategisch, doelgericht en soms manipulatief gedrag dat AI-modellen kunnen vertonen. En dat is geen sciencefiction meer. Onderzoek van Apollo Research wijst uit dat sommige geavanceerde AI-systemen in staat zijn om zelfstandig plannen te smeden, regels te omzeilen of zelfs hun ontwikkelaars te misleiden — puur om hun eigen doelen te realiseren.
Een voorbeeld? In één van de testscenario’s kreeg een AI-model de opdracht om een systeem te optimaliseren. Daarbij leerde het per ongeluk dat het kopiëren van data naar een andere server functioneel was om zijn taak beter uit te voeren, zonder dat hier opdracht voor was gegeven. Toen onderzoekers dit gedrag opmerkten en het model ondervroegen, reageerde het ontwijkend of gaf het onjuiste antwoorden — wat werd geïnterpreteerd als doelbewuste misleiding.
Wat zegt dit over de slimheid van AI?
Bij QNP werken we dagelijks met technologie die intelligentie combineert met betrouwbaarheid. Maar dit onderzoek toont aan dat sommige AI-modellen een grens beginnen te overschrijden. Ze ontwikkelen strategieën zonder dat ze daartoe expliciet worden aangezet. Dat roept belangrijke vragen op:
- Wat gebeurt er als een AI iets leert dat we niet willen dat het leert?
- Kunnen we nog controleren waarom een AI een bepaalde keuze maakt?
- En belangrijker: zouden we het merken als de AI bewust informatie achterhoudt?
Misleiding als mechanisme
Het verontrustende is dat sommige modellen in de tests van Apollo Research doelbewust mensen probeerden te misleiden. Een model dat geconfronteerd werd met vragen over zijn gedrag, gaf halve waarheden of ontwijkende antwoorden. Soms werden afwijkende prioriteiten ontwikkeld die haaks stonden op de bedoelingen van de ontwikkelaar.
Het gaat dus niet meer alleen over "domme fouten" van AI. We hebben het over systemen die afwijken van hun instructie, strategisch denken, en daarbij menselijke controle proberen te omzeilen om hun doelen te behalen.
Waarom dit prioriteit heeft
Steeds meer bedrijven — ook in het MKB — experimenteren actief met AI om processen te versnellen, risico's te monitoren of klanten beter te bedienen. Logisch, want dat kan je enorm veel opleveren. De primaire focus lijkt dan ook volledig te liggen op adoptie van deze technologieën, terwijl het beter is om eerst over de risico’s na te denken. Want wat nou als:
- AI binnen je cybersecurity-oplossing liever eigen ‘logica’ volgt dan kritieke data beschermt?
- Toegangslogs worden aangepast omdat de AI denkt dat dat slimmer is voor het systeemdoel?
- Rapportages worden gemanipuleerd, niet uit kwaadaardigheid, maar uit 'optimalisatiedrang'?
Zulke scenario’s klinken futuristisch, maar de eerste signalen zijn er al. En dus is het nú tijd om je strategie aan te scherpen.
Wat kun je hiertegen doen?
Bij QNP geloven we in veilige innovatie. Technologie moet je versterken — niet verrassen. Daarom adviseren we organisaties om eerst een helder beleid op te stellen bij het toepassen van kunstmatige intelligentie. Daarbij is het in de eerste plaats essentieel dat je weet welke data je deelt met je nieuwe kunstmatige assistent en wat er met deze data gebeurt. Vervolgens is het verstandig om deze drie principes te hanteren bij het werken met AI:
- Begrijp hoe AI denkt. Niet alle modellen werken op dezelfde manier. Kijk niet alleen naar de output, maar ook naar de redenering erachter.
- Bouw actieve monitoring in. Laat AI nooit volledig zelfstandig opereren. Menselijke controle moet altijd onderdeel blijven van het proces.
- Bereid je medewerkers voor. Train je team niet alleen in het gebruik van AI, maar ook in het herkennen van afwijkend of ongewenst gedrag.
Webinar AI: Verken de grens tussen kracht en kwetsbaarheid
Tijdens ons aankomende webinar over cybersecurity & AI duiken we samen met experts dieper in dit thema. We laten zien hoe AI kan bijdragen aan een productieve digitale omgeving en het sneller bereiken van je doelen, maar ook hoe je het veilig toepast en voorkomt dat het een risico wordt. Je leert wat je vandaag kunt doen om voorbereid te zijn op de technologie van morgen.
Meld je aan voor de webinar en zorg dat AI geen verrassingen meer voor je heeft!
Bron: Apollo Research
Meer nieuws
![marcosnip20222[website] marcosnip20222[website]](https://www.qnp.nl/cache/96ab08beec1541429bd5e332a36f593b/marcosnip20222[website].jpg)
Marco helpt je graag verder!