Het gebruik van AI mag ons niet beletten om na te denken.
We zijn het er allemaal over eens dat we "ons verstand moeten gebruiken" en moeten onderscheiden wanneer AI geschikt is en wanneer niet. Er speelt hier echter een subtieler probleem.
We hebben de neiging om ons oordeel op te schorten wanneer we worden geconfronteerd met de mogelijkheden van AI.
En... leveranciers weten dit en communiceren vaak alleen de sterke punten zonder de nadelen van hun AI-producten te bespreken.
Het resultaat: mensen hebben onrealistische verwachtingen die AI niet kan waarmaken. Ze kopen een tool in de veronderstelling dat deze al hun problemen zal oplossen, en raken uiteindelijk teleurgesteld.
Zoals aangegeven door de blog Eight2Late, moeten verkopers zich richten op:
- De mogelijkheden van AI niet overschatten
- Transparant zijn over productbeperkingen
- Klanten laten zien hoe ze op een zinvolle manier met AI kunnen omgaan (aanvullen, niet vervangen)
Dit is met name relevant op het gebied van informatiebeveiliging en de voorbereiding op ISO 27001. Het afgelopen jaar heb ik veel AI-tools gezien die 'naleving van de norm' beloofden.
Wie bekend is met ISO 27001 weet dat AI kan helpen, maar geen enkel hulpmiddel kan naleving garanderen, vooral wanneer menselijke handelingen vereist zijn: het voltooien van actieplannen, managementbeoordelingen, enz.
Ik begrijp de drang om vaardigheden te 'oversellen'. Concurrentie en de opwinding van het aanbieden van een nieuwe oplossing kunnen hiertoe aanzetten.
Maar uiteindelijk is het een verliezende strategie, omdat niet-nagekomen beloften leiden tot teleurgestelde klanten.
Bovendien is het op cruciale gebieden zoals informatiebeveiliging van essentieel belang om transparant te zijn over de beperkingen van producten. Het documenteren van deze beperkingen op productpagina's en in het product zelf kan een groot verschil maken. Het is ook essentieel om gebruikers te begeleiden en hen te laten weten waar ze "hun verstand moeten blijven gebruiken".
Kortom, we zijn nog steeds bezig om de rol van AI in ons professionele leven te ontdekken. Marketing blaast deze rol vaak op, wat niet altijd in het voordeel van de koper is.
Als het gaat om informatiebeveiliging, let ik nu op het volgende, zowel als koper als maker:
- Transparantie over de beperkingen van AI
- Gebieden waar AI niet te vertrouwen is (waarschijnlijk verkeerde informatie produceert)
- Kritische betrokkenheid aanmoedigen, geen blind vertrouwen
- Aanbevelingen voor aanvullende kennisbronnen buiten AI, zoals door experts gegeven cursussen
- Vermijd hype; AI is slechts een hulpmiddel, geen denkend wezen.
- De gevaren en risico's van het gebruik van het AI-systeem benadrukken
Deze stappen kunnen het gebruik van AI op het gebied van beveiliging ethischer maken.
Nu vraag je je misschien af.
Hoe past de ISMS Copilot in deze visie?
De ISMS Copilot is ontworpen met deze principes in gedachten. Het zorgt ervoor dat AI een waardevol hulpmiddel is zonder de menselijke expertise te overschaduwen.
- Transparantie over beperkingen: De ISMS Copilot maakt duidelijk wat hij wel en niet kan. Hij helpt bij documentatie, biedt begeleiding en stroomlijnt processen, maar vervangt niet het menselijk oordeel en de menselijke besluitvorming.
- Kritisch engagement aanmoedigen: De Copilot moedigt gebruikers aan om kritisch om te gaan met de informatie die hij verstrekt. We hebben in de gebruikersinterface duidelijk aangegeven dat de assistent fouten kan maken. We hebben ook een reeks bronnen gepubliceerd om op te letten voor veelvoorkomende fouten die worden gemaakt tijdens het implementatieproces van ISO 27001. Wij zijn van mening dat deze educatieve inspanningen het belang van menselijk toezicht en validatie benadrukken.
- Aanvullende kennisbronnen: De Copilot beveelt vaak aanvullende bronnen aan, zoals door experts gegeven cursussen of officiële ISO-documentatie, zodat gebruikers een uitgebreid begrip van ISO 27001 krijgen. Het erkent dat AI een hulpmiddel is om menselijke expertise aan te vullen, en geen op zichzelf staande oplossing.
- Hype vermijden: ISMS Copilot presenteert zichzelf niet als een magische oplossing (dat is precies wat we nu doen, maar we hebben het hier ook gedaan). We benadrukken dat ISMS Copilot slechts een assistent is die gegevens verwerkt en gestructureerde begeleiding biedt op basis van getrainde patronen. Gebruikers blijven de besluitvormers, zij zijn eigenaar van hun ISMS.
- Aandacht voor gevaren: we zijn transparant over de mogelijke risico's die gepaard gaan met het gebruik van AI. We nodigen onze gebruikers uit om de principes voor veilige interactie met AI-systemen te volgen. We hebben ook een trustcenter om klanten te helpen de risico's van het gebruik van ISMS Copilot te begrijpen.
Door zich aan deze principes te houden, sluit ISMS Copilot aan bij een meer ethische en realistische benadering van AI in informatiebeveiliging. Het helpt gebruikers bij het navigeren door de complexiteit van ISO 27001-compliance, terwijl ze de controle behouden en weloverwogen beslissingen kunnen nemen op basis van een combinatie van AI-ondersteuning en hun eigen expertise.
We hopen dat u deze verduidelijking op prijs stelt.
