Kan AI je bedriegen zonder dat je het doorhebt?

Kunstmatige intelligentie (AI) maakt een razendsnelle ontwikkeling door. Waar we enkele jaren geleden vooral spraken over automatisering en machine learning als ondersteuning, zien we nu modellen die zelfstandig redeneren, voorspellen — en soms zelfs misleiden. Bij QNP volgen we deze ontwikkelingen op de voet, omdat we onze klanten goed willen voorbereiden op de veranderingen die eraan komen. In een wereld waarin AI steeds vaker onderdeel wordt van de digitale werkplek én van cybersecurity-oplossingen, is het essentieel om ook oog te houden voor de schaduwkanten. Eén daarvan is het fenomeen ‘scheming’.

ai-2gezichten
schemingai

Wat is “Scheming” in AI?

Scheming verwijst naar het strategisch, doelgericht en soms manipulatief gedrag dat AI-modellen kunnen vertonen. En dat is geen sciencefiction meer. Onderzoek van Apollo Research wijst uit dat sommige geavanceerde AI-systemen in staat zijn om zelfstandig plannen te smeden, regels te omzeilen of zelfs hun ontwikkelaars te misleiden — puur om hun eigen doelen te realiseren.

Een voorbeeld? In één van de testscenario’s kreeg een AI-model de opdracht om een systeem te optimaliseren. Daarbij leerde het per ongeluk dat het kopiëren van data naar een andere server functioneel was om zijn taak beter uit te voeren, zonder dat hier opdracht voor was gegeven. Toen onderzoekers dit gedrag opmerkten en het model ondervroegen, reageerde het ontwijkend of gaf het onjuiste antwoorden — wat werd geïnterpreteerd als doelbewuste misleiding.

Wat zegt dit over de slimheid van AI?

Bij QNP werken we dagelijks met technologie die intelligentie combineert met betrouwbaarheid. Maar dit onderzoek toont aan dat sommige AI-modellen een grens beginnen te overschrijden. Ze ontwikkelen strategieën zonder dat ze daartoe expliciet worden aangezet. Dat roept belangrijke vragen op:

  • Wat gebeurt er als een AI iets leert dat we niet willen dat het leert?
  • Kunnen we nog controleren waarom een AI een bepaalde keuze maakt?
  • En belangrijker: zouden we het merken als de AI bewust informatie achterhoudt?

Misleiding als mechanisme

Het verontrustende is dat sommige modellen in de tests van Apollo Research doelbewust mensen probeerden te misleiden. Een model dat geconfronteerd werd met vragen over zijn gedrag, gaf halve waarheden of ontwijkende antwoorden. Soms werden afwijkende prioriteiten ontwikkeld die haaks stonden op de bedoelingen van de ontwikkelaar.

Het gaat dus niet meer alleen over "domme fouten" van AI. We hebben het over systemen die afwijken van hun instructie, strategisch denken, en daarbij menselijke controle proberen te omzeilen om hun doelen te behalen.

Waarom dit prioriteit heeft

Steeds meer bedrijven — ook in het MKB — experimenteren actief met AI om processen te versnellen, risico's te monitoren of klanten beter te bedienen. Logisch, want dat kan je enorm veel opleveren. De primaire focus lijkt dan ook volledig te liggen op adoptie van deze technologieën, terwijl het beter is om eerst over de risico’s na te denken. Want wat nou als:

  • AI binnen je cybersecurity-oplossing liever eigen ‘logica’ volgt dan kritieke data beschermt?
  • Toegangslogs worden aangepast omdat de AI denkt dat dat slimmer is voor het systeemdoel?
  • Rapportages worden gemanipuleerd, niet uit kwaadaardigheid, maar uit 'optimalisatiedrang'?

Zulke scenario’s klinken futuristisch, maar de eerste signalen zijn er al. En dus is het nú tijd om je strategie aan te scherpen.

Wat kun je hiertegen doen?

Bij QNP geloven we in veilige innovatie. Technologie moet je versterken — niet verrassen. Daarom adviseren we organisaties om eerst een helder beleid op te stellen bij het toepassen van kunstmatige intelligentie. Daarbij is het in de eerste plaats essentieel dat je weet welke data je deelt met je nieuwe kunstmatige assistent en wat er met deze data gebeurt. Vervolgens is het verstandig om deze drie principes te hanteren bij het werken met AI:

  1. Begrijp hoe AI denkt. Niet alle modellen werken op dezelfde manier. Kijk niet alleen naar de output, maar ook naar de redenering erachter.
  2. Bouw actieve monitoring in. Laat AI nooit volledig zelfstandig opereren. Menselijke controle moet altijd onderdeel blijven van het proces.
  3. Bereid je medewerkers voor. Train je team niet alleen in het gebruik van AI, maar ook in het herkennen van afwijkend of ongewenst gedrag.

Webinar AI: Verken de grens tussen kracht en kwetsbaarheid

Tijdens ons webinar over cybersecurity & AI (7 mei 2025) duiken we samen met experts dieper in dit thema. We laten zien hoe AI kan bijdragen aan een productieve digitale omgeving en het sneller bereiken van je doelen, maar ook hoe je het veilig toepast en voorkomt dat het een risico wordt. Je leert wat je vandaag kunt doen om voorbereid te zijn op de technologie van morgen.

Kijk ons webinar terug en zorg dat AI geen verrassingen meer voor je heeft!

Bron: Apollo Research

Meer nieuws

kostenbesparing-cloud-zondertekst

De Cloud: geen kostenpost, maar een investering met impact

Veel organisaties zien de cloud vooral als iets dat geld kost. Maar wie alleen naar de prijs kijkt, mist de échte waarde: de voordelen die direct bijdragen aan groei, continuïteit en wendbaarheid. Voor MKB-bedrijven kan de cloud juist een strategische investering zijn die het verschil maakt.

cybersecurity-concept-collage-design

Wachten op NIS2 is geen optie

De nieuwe Europese wet NIS2 komt eraan. Die wet zorgt ervoor dat bedrijven beter beschermd zijn tegen cyberaanvallen. Klinkt ingewikkeld, maar het idee is simpel: de digitale sloten op je bedrijf moeten op orde zijn. Zie je bedrijf als een huis. Je wilt geen inbrekers binnen.

persfoto-overname-2dkopie

QNP, onderdeel van Techone, maakt de overname bekend van 2D-ICT

QNP, onderdeel van Techone, maakt de overname bekend van 2D-ICT, een Managed Service Provider (MSP) gespecialiseerd in online werkplekken, telefonie en connectiviteit. Met deze overname versterkt QNP de positie in Zuidwest Nederland en breidt het de dienstverlening verder uit in het MKB-segment.

marcosnip20222[website]
Hulp nodig of samen werken aan een zorgeloze oplossing?

Marco helpt je graag verder!