Muchas organizaciones han prohibido a sus empleados el uso de herramientas de IA generativa en sus sistemas propietarios. Esta medida obedece principalmente a la preocupación por la posible filtración de datos confidenciales, así como a la falta de confianza en la ciberresiliencia de herramientas de IA generativa como ChatGPT.
Uno de estos casos ocurrió en Samsung, donde los empleados cargaron código que contenía información sensible, lo que llevó a la exposición de datos confidenciales.
¿Cuáles son las razones de las restricciones a las herramientas de IA generativa?
Muchas organizaciones manejan datos altamente sensibles y confidenciales, y su reputación depende de la protección de datos. Cargar información en herramientas de IA generativa plantea riesgos de exposición pública potencial. Además, existen dudas sobre la seguridad y fiabilidad de estas herramientas, lo que hace dudar de su precisión.
Por ello, muchas organizaciones han optado por utilizar sus propias herramientas de IA generativa desarrolladas internamente.
A continuación, analizamos en detalle algunos de los factores clave de la prohibición de las herramientas de IA generativa.
Posible fuga de datos
Algunas herramientas de IA generativa, como ChatGPT, desaconsejan el uso de datos sensibles o personales en los mensajes. Esto sugiere que estas herramientas no pueden garantizar la seguridad de los datos.
Los altos ejecutivos están preocupados por la posibilidad de que datos sensibles queden expuestos al público. Verizon, Samsung y Northrup Grumman son algunas de las empresas que han prohibido totalmente el uso de herramientas de IA generativa.
Mientras tanto, Apple ha estado trabajando en la creación de su propia herramienta de IA generativa, pero no permite el uso de otras externas.
Respuestas imprecisas
Algunas herramientas de IA generativa suelen generar respuestas imprecisas. Los expertos señalan que este tipo de herramientas alucinan y producen respuestas que no se ajustan a los hechos.
Por ejemplo, si un desarrollador solicita un fragmento de código y espera que la herramienta identifique errores, puede que no lo haga. En el contexto de las entregas críticas de software, estos fallos pueden ser críticos.
Es justo decir que las herramientas de IA generativa aún no han ofrecido suficientes garantías a las empresas en cuanto a su fiabilidad y solidez.
Riesgo de resultados sesgados
Para las empresas de renombre, es crucial evitar cualquier percepción de parcialidad o discriminación, ya que puede causar un daño irrevocable a su marca.
Imaginemos que los blogs oficiales de una prestigiosa editorial publican contenidos tendenciosos contra determinados grupos raciales. El problema radica en la metodología de formación de herramientas como ChatGPT, que se basa en contenidos escritos por seres humanos, algunos de los cuales son tendenciosos o discriminatorios. Por tanto, no es de extrañar que ChatGPT produzca resultados sesgados.
OpenAI tiene el mérito de pedir a sus usuarios que informen de las respuestas inadecuadas. Sin embargo, no es suficiente. Los críticos señalan que OpenAI se precipitó al lanzar ChatGPT sin abordar adecuadamente este problema fundamental, posiblemente por consideraciones comerciales.
Consecuencias del infame caso Samsung
Samsung ha prohibido explícitamente el uso de ChatGPT o de cualquier herramienta de IA generativa en cualquiera de sus trabajos. Ha prohibido a los empleados que utilicen datos o código de la empresa como indicadores por motivos de privacidad y confidencialidad.
Bloomberg ha informado de que se ha enviado una nota al personal sobre el uso de los recursos de la empresa en relación con las herramientas de IA generativa.
Según la nota, “aunque este interés se centra en la utilidad y eficiencia de estas plataformas, también existe una creciente preocupación por los riesgos de seguridad que presenta la IA generativa.”
Samsung añadió:
“Le pedimos que se adhiera diligentemente a nuestras directrices de seguridad, y el no hacerlo puede resultar en una violación o compromiso de la información de la empresa que resulta en una acción disciplinaria hasta e incluyendo la terminación del empleo.”
Aunque los empleados no utilicen directamente el contenido o el código de la empresa, sigue existiendo el riesgo de que se acceda a él y se haga un uso indebido.
¿Qué enfoque deben adoptar las organizaciones?
Por mucho que las reacciones de las empresas ante las herramientas de IA generativa reflejen su preocupación por salvaguardar sus intereses comerciales, la tendencia a prohibir las herramientas puede equivaler a esconder la cabeza bajo el ala.
La IA generativa es un fenómeno demasiado poderoso para ignorarlo que las empresas no pueden permitirse pasar por alto.
¿Cómo pueden gestionar las herramientas de IA generativa?
- Algunas empresas como Apple ya han reconocido la importancia de la IA generativa y han perseguido el desarrollo de sus propias herramientas. Sin embargo, este enfoque tiene sus pros y sus contras. No todas las empresas tienen los recursos financieros o la capacidad para embarcarse en este tipo de iniciativas. En tales casos, puede resultar más práctico aprovechar la tecnología de IA generativa ya disponible.
- Es esencial establecer un marco que permita la utilización de la tecnología de IA generativa al tiempo que se gestionan eficazmente los riesgos de seguridad. Un enfoque podría consistir en impartir una formación exhaustiva a los empleados sobre ingeniería rápida. Esto no sólo garantiza un rendimiento óptimo, sino que también salvaguarda la seguridad de la información utilizada como avisos.
- Las organizaciones pueden llevar a cabo proyectos piloto que no sólo aprovechen ampliamente las herramientas de IA generativa, sino que también utilicen datos ficticios. Antes, sin embargo, las empresas deben asegurarse de que los empleados reciben formación en ingeniería de avisos. Esto incluye educarlos en los fundamentos de la incitación, los elementos básicos de una incitación, así como en las técnicas de incitación de cero disparos y de pocos disparos. Los resultados obtenidos de estas iniciativas pueden mostrar el camino a seguir a las organizaciones.
En cualquier caso, ChatGPT supone un paso de gigante hacia el procesamiento del lenguaje natural. Como dijo Michael Jordan, catedrático de Informática de la Universidad de California en Berkeley:
“ChatGPT es un logro notable en el campo del procesamiento del lenguaje natural y tiene el potencial de transformar la forma en que nos comunicamos con las máquinas”.
Lo esencial
Sería ingenuo que las empresas hicieran la vista gorda ante la tecnología de IA generativa, ya que comprenden su importancia. Sin embargo, no pueden pasarse por alto los riesgos de seguridad y los sesgos que presentan estas herramientas.
Es crucial que organizaciones pioneras como OpenAI aborden estas preocupaciones en su núcleo, lo que debería ser un esfuerzo de colaboración en el que participen varias partes interesadas.