Los compañeros y amigos son los más propensos a conocer los secretos que guardas, incluidos los datos confidenciales de tu empresa.
Sin embargo, con el auge de la inteligencia artificial (IA) en el lugar de trabajo, los trabajadores comparten cada vez más datos personales con un nuevo amigo íntimo: su amistoso chatbot.
Y las organizaciones se enfrentan ahora a una amenaza sin precedentes para la seguridad de sus datos, y no están preparadas para afrontarla.
Cuando las empresas se dan cuenta de lo que está pasando, las medidas parecen estar en los extremos: o bien prohíben bots como ChatGPT, o el creciente número de herramientas de escritura asistida por IA, en el lugar de trabajo, o bien no regulan en absoluto el uso de la IA por parte de los empleados. Hay muy poco término medio.
Además de las normas de confidencialidad, proporcionar información a las herramientas de IA también puede ser una oportunidad para los ciberdelincuentes.
La IA entra en el mercado laboral
CybSafe, una empresa de ciencias del comportamiento y análisis de datos, realizó un estudio entre 1.000 oficinistas de Reino Unido y Estados Unidos, centrado en el uso de la IA en el lugar de trabajo.
Descubrieron que
- El 50% de los encuestados ya utiliza herramientas de IA en el trabajo: un tercio semanalmente y el 12% a diario;
- Utilizan las herramientas para investigar (44%), redactar informes (40%), analizar datos (38%) y escribir código (15%);
- El 64% de los oficinistas estadounidenses ha introducido alguna vez información laboral en una herramienta de IA generativa, y otro 28% no está seguro de haberlo hecho;
- El 38% de los usuarios estadounidenses admite haber compartido con un amigo datos que no revelaría casualmente en un bar;
- En el Reino Unido y EE.UU., el 69% y el 74% de los encuestados creen que los beneficios del uso de la IA superan a los riesgos;
- Un porcentaje significativo de los encuestados seguiría utilizando herramientas de IA aunque sus empresas las prohibieran;
- El 21% de los encuestados no puede discernir entre contenidos generados por humanos y contenidos generados por IA.
Si los empleados consideran que las herramientas de IA son útiles y facilitan la productividad, hay otras personas que también las encuentran útiles: los ciberdelincuentes.
El Dr. Jason Nurse, director de ciencia e investigación de CybSafe, y profesor asociado de la Universidad de Kent, afirmó: “La IA generativa ha reducido enormemente las barreras de entrada para los ciberdelincuentes que intentan aprovecharse de las empresas.”
“No solo está ayudando a crear mensajes de phishing más convincentes, sino que a medida que los trabajadores adopten y se familiaricen cada vez más con el contenido generado por IA, la brecha entre lo que se percibe como real y falso se reducirá significativamente.”
Empresas con una lista de “No AI”
- Northrup Grumman, la empresa aeroespacial y de defensa, ha prohibido las herramientas de IA hasta que hayan sido completamente investigadas;
- Samsung aprendió por las malas después de que sus empleados cargaran código confidencial y prohibiera las herramientas de IA;
- Verizon ha bloqueado el acceso a las herramientas de IA desde sus sistemas;
- JPMorgan Chase ha restringido el uso de herramientas de IA, aunque no se dispone de más detalles;
- Deutsch Bank ha bloqueado todas las herramientas de IA;
Accenture prohíbe a sus empleados el uso de herramientas de IA en la oficina; - Amazon anima a sus empleados a utilizar su bot patentado, CodeWhisperer, aunque parece que no lo ha hecho.
Lo esencial
La IA está encontrando un espacio en el lugar de trabajo, pero abre un nuevo hogar a la ciberdelincuencia, y las empresas y su personal deben estar eternamente vigilantes y actualizar sus formas de gestionar los riesgos.
Mientras tanto, para las empresas y los equipos, el encanto que las herramientas de IA ofrecen a sus empleados es sumamente atractivo.
Así que equilibrar estas verdades contradictorias es un barco difícil -pero necesario- de gobernar.