Collega’s en vrienden zijn het meest waarschijnlijk op de hoogte van de geheimen die je bewaart, waaronder vertrouwelijke gegevens van je werkgever.
Maar met de opkomst van kunstmatige intelligentie (AI) op de werkplek delen werknemers steeds vaker persoonlijke gegevens met een nieuwe goede vriend – de chatbot.
Organisaties worden nu geconfronteerd met een ongekende beveiligingsdreiging voor hun gegevens – en ze zijn er niet op voorbereid.
Als bedrijven merken wat er aan de hand is, lijken de maatregelen aan extreme uiteinden te bestaan – ofwel bots zoals ChatGPT, of het groeiende aantal AI-ondersteunde schrijftools – verbieden op de werkplek, of helemaal geen regels opstellen voor het gebruik van AI door werknemers. Er is weinig middenweg.
Naast vertrouwelijkheidsregels kan het verstrekken van informatie aan AI-tools ook een kans zijn voor cybercriminelen.
AI betreedt de arbeidsmarkt
CybSafe, een bedrijf dat zich bezighoudt met gedragswetenschappen en gegevensanalyse, heeft een onderzoek uitgevoerd onder 1000 kantoormedewerkers in het Verenigd Koninkrijk en de Verenigde Staten, waarbij de nadruk lag op het gebruik van AI op de werkplek.
Ze ontdekten het volgende:
- 50% van de respondenten gebruikt al AI-tools op het werk – een derde wekelijks en 12% dagelijks;
- Ze gebruiken de tools voor onderzoek (44%), het schrijven van rapporten (40%), gegevensanalyse (38%) en het schrijven van code (15%);
- 64% van de kantoormedewerkers in de VS heeft wel eens werkinformatie ingevoerd in een generatieve AI-tool en nog eens 28% weet niet zeker of ze dat hebben gedaan;
- 38% van de gebruikers in de VS geeft toe gegevens te delen die ze niet zomaar in een bar aan een vriend zouden geven;
- In het Verenigd Koninkrijk en de Verenigde Staten is respectievelijk 69% en 74% van de respondenten van mening dat de voordelen van het gebruik van AI opwegen tegen de risico’s;
- Een aanzienlijk percentage van de respondenten zou AI-hulpmiddelen blijven gebruiken, zelfs als hun werkgever ze zou verbieden;
- 21% van de respondenten kan geen onderscheid maken tussen door mensen gemaakte inhoud en door AI gemaakte inhoud.
Als werknemers AI-tools nuttig en bevorderlijk voor hun productiviteit vinden, zijn er andere mensen die ze ook nuttig vinden – cybercriminelen.
Dr. Jason Nurse, directeur wetenschap en onderzoek bij CybSafe en universitair hoofddocent aan de Universiteit van Kent, zegt hierover het volgende: “Generatieve AI heeft de toetredingsdrempels voor cybercriminelen die misbruik proberen te maken van bedrijven enorm verlaagd.
“Het helpt niet alleen bij het maken van overtuigendere phishingberichten, maar naarmate werknemers steeds meer AI-gegenereerde content overnemen en ermee vertrouwd raken, zal de kloof tussen wat als echt en nep wordt gezien aanzienlijk kleiner worden.”
Bedrijven met een “geen AI” beleid
- Northrup Grumman, het lucht- en ruimtevaart- en defensiebedrijf, heeft AI-tools verboden totdat ze volledig zijn doorgelicht;
- Samsung heeft op de harde manier geleerd nadat werknemers vertrouwelijke code hadden geüpload en heeft AI-tools verboden;
- Verizon heeft de toegang tot AI-tools vanuit zijn systemen geblokkeerd;
- JPMorgan Chase heeft het gebruik van AI-tools beperkt, maar meer details zijn niet beschikbaar;
- Deutsche Bank heeft alle AI-tools geblokkeerd;
- Accenture verbiedt zijn werknemers om AI-tools op kantoor te gebruiken;
- Amazon moedigt zijn werknemers aan om zijn eigen bot, CodeWhisperer, te gebruiken, maar het lijkt erop dat het de toegang tot AI-tools nog niet heeft geblokkeerd.
Conclusie
AI vindt zijn weg naar de werkplek – maar het opent een nieuw thuis voor cybercriminaliteit, en bedrijven en hun medewerkers moeten eeuwig waakzaam zijn en hun manieren om risico’s te beheren bijwerken.
Ondertussen is de aantrekkingskracht van AI-tools voor bedrijven en teams zeer groot.
Het in evenwicht brengen van deze tegenstrijdige waarheden is dus een lastig – maar noodzakelijk – schip om te besturen.