Usuarios de GitLab: La IA es necesaria para los desarrolladores

Fiabilidad
Resumen

Aunque las organizaciones son optimistas sobre la adopción de la inteligencia artificial generativa, aún les preocupa que las herramientas de IA accedan a datos corporativos sensibles y a la propiedad intelectual, según una encuesta de GitLab.

Aunque las organizaciones son optimistas sobre la adopción de la inteligencia artificial (IA) generativa, todavía les preocupa que las herramientas de IA accedan a datos corporativos confidenciales y a la propiedad intelectual, según una encuesta reciente de GitLab.

El informe, titulado “The State of AI in Software Development” (El estado de la IA en el desarrollo de software) ofrece información de 1.001 altos ejecutivos de tecnología, desarrolladores, profesionales de seguridad y operaciones de todo el mundo sobre sus retos, éxitos y prioridades para adoptar la IA.

Según la encuesta a desarrolladores de GitLab, el 83% de los encuestados afirma que la implementación de la IA en sus procesos de desarrollo de software es fundamental para permitirles seguir siendo competitivos; sin embargo, el 79% expresa su preocupación por que las herramientas de IA tengan acceso a propiedad intelectual o información privada.

Y el 95% de los altos ejecutivos de tecnología priorizan la protección de la privacidad y la propiedad intelectual cuando seleccionan herramientas de IA, según la encuesta.

Además, el 32% de los encuestados se muestra “muy” o “extremadamente” preocupado por la introducción de la IA en el ciclo de vida del desarrollo de software.

De ellos, el 39% dice que le preocupa que el código generado por IA pueda introducir vulnerabilidades de seguridad, y al 48% le preocupa que el código generado por IA no esté sujeto a la misma protección de derechos de autor que el código generado por humanos.

Compleja relación entre la adopción de la IA y los problemas de privacidad y seguridad

La relación entre la adopción de la IA y las preocupaciones en torno a la ciberseguridad y la privacidad es compleja y polifacética, afirma Sergey Medved, vicepresidente de gestión de productos y marketing de Quest Software.

“Es interesante que solo el 32% de los encuestados por GitLab expresaran reservas sobre la incorporación de la IA a su ciclo de vida de desarrollo de software”, afirma. “Pero tiene cierto tipo de sentido, ya que [casi] la mitad [40%] de los encuestados trabajan en [pequeñas y medianas empresas] o startups con 250 empleados o menos”.

Para las organizaciones más pequeñas o jóvenes, el atractivo de la IA proviene de su potencial para reforzar la eficiencia y la competitividad con menos recursos, lo que podría compensar sus riesgos de ciberseguridad percibidos, según Medved.

Por el contrario, las grandes empresas, especialmente las que desarrollan software para infraestructuras críticas, destinan una mayor parte de sus presupuestos de TI a la seguridad, incluida la seguridad del código y la gestión de riesgos de la cadena de suministro, añade. Y un aumento de la productividad de los desarrolladores puede no compensar los mayores riesgos legales o de seguridad.

“Esta investigación muestra que, si bien hay absolutamente preocupaciones de ciberseguridad en torno a la IA para los desarrolladores, no podemos aplicar un enfoque de talla única para mitigarlas”, dice Medved.

Mayor carga de trabajo para los profesionales de la seguridad

Mientras que el 40% de los encuestados citan la seguridad como un beneficio clave de la IA, el 40% de los profesionales de la seguridad dicen que les preocupa que la generación de código impulsada por IA aumente sus cargas de trabajo.

“La oportunidad de transformación con IA va mucho más allá de la creación de código”, dice David DeSanto, director de producto de GitLab, en un comunicado. “Según el Informe Global DevSecOps de GitLab, solo el 25% del tiempo de los desarrolladores se dedica a la generación de código, pero los datos muestran que la IA puede aumentar la productividad y la colaboración en casi el 60% del trabajo diario de los desarrolladores.”

La encuesta también señala que el aumento de la productividad de los desarrolladores puede ampliar la brecha existente entre los desarrolladores y los profesionales de la seguridad.

La razón, como se ha mencionado, es que a los profesionales de la seguridad les preocupa que el código generado por IA pueda causar más vulnerabilidades de seguridad, aumentando su carga de trabajo. Los resultados de la encuesta lo confirman, ya que los desarrolladores afirman que dedican sólo el 7% de su tiempo a identificar y mitigar las vulnerabilidades de seguridad.

“Creo que es una preocupación válida dadas las alucinaciones, el potencial de sesgo y la falta de explicabilidad que ofrecen los grandes modelos lingüísticos”, afirma Tony Lee, director de tecnología de Hyperscience, proveedor de soluciones empresariales de IA.

Sin embargo, un modelo bien entrenado debería ser capaz de generar código seguro tan bien como lo hace un ingeniero formado profesionalmente, añade.

“Lo importante que deben recordar las empresas es que la revisión del código, el análisis del código y las pruebas son fundamentales para garantizar que el código es seguro antes de pasar a producción”, afirma Lee.

Además, el 48% de los desarrolladores, en comparación con el 38% de los profesionales de la seguridad, identifican tiempos de ciclo más rápidos como un beneficio de la IA, según la encuesta de GitLab. Pero en general, el 51% de los encuestados identifica la productividad como un beneficio clave de la implementación de la IA.

¿Cómo pueden las organizaciones mitigar sus preocupaciones sobre la IA?

Este último informe de GitLab es otro ejemplo de cómo las principales preocupaciones de seguridad persisten para las organizaciones a medida que la información sensible y de identificación personal se introduce en ChatGPT y otros grandes modelos de lenguaje, como Google Bard, dice Ron Reiter, cofundador y director de tecnología de Sentra, una empresa de seguridad de datos en la nube.

“Tal y como indica la encuesta, al 79% de los encuestados les preocupa que las herramientas de IA tengan acceso a información privada o propiedad intelectual“, afirma. “A medida que la IA aparentemente se vuelve omnipresente con el trabajo de oficina, podemos esperar que ese número aumente drásticamente y, como resultado, el robo de datos relacionado con la IA se convertirá en una nueva amenaza.”

Para mitigar estas preocupaciones, las organizaciones deben analizar de cerca su uso de grandes modelos de lenguaje (LLM), agrega Reiter. Específicamente, deben darse cuenta de que, si bien no hay duda de que la IA desempeñará un papel vital en el avance de la tecnología, deben tomar medidas proactivas para definir los límites del comportamiento aceptable de la IA.

“Una forma de hacerlo es ser conscientes del aumento de los vectores de amenaza propagados por los avisos de ‘copiar y pegar'”, explica Reiter. “Si los equipos de seguridad pueden educar a los empleados sobre los riesgos de incitar a los LLM, pueden capitalizar los beneficios de la herramienta y, al mismo tiempo, proteger los datos confidenciales”. Ser inteligente sobre cómo integrar la IA significa crear barandillas para garantizar el uso ético y responsable de la IA.”

Qué deben tener en cuenta las empresas para adoptar la IA con éxito

Datos de “Voice of the Enterprise” de S&P Global Market Intelligence: AI and Machine Learning, Infrastructure 2023″ de S&P Global Market Intelligence sugieren una desconexión entre las ambiciones de IA de las organizaciones y sus realidades infraestructurales, afirma Alexander Johnson, analista de investigación de S&P Global Market Intelligence y miembro del grupo de investigación de datos, IA y analítica.

“Esto se ve agravado por el entusiasmo que rodea a la IA generativa”, afirma. “Con esto quiero decir que sólo alrededor de un tercio de las organizaciones son capaces de satisfacer toda la escala de la demanda interna existente de carga de trabajo de IA, y la organización media pierde el 38% de sus proyectos antes de que entren en producción – siendo el rendimiento de la infraestructura y la calidad de los datos los mayores impulsores de ese fracaso.”

Se presta mucha atención a la disponibilidad de aceleradores de IA, en particular GPU, pero los cuellos de botella son mucho más amplios, según Johnson. Muchas empresas ven la necesidad de redes y almacenamiento de mayor rendimiento para mejorar el rendimiento de sus cargas de trabajo de IA, por ejemplo.

“Las organizaciones que tengan la ambición de invertir en IA tendrán que combinar esa intención con una estrategia significativa en torno a la infraestructura y las asociaciones de IA”, añade.

Hay tres pasos que toda organización debe dar para garantizar que sus implementaciones de IA sean exitosas, dice Lee.

“Deben tener en cuenta el costo total de propiedad cuando busquen una nueva solución: piensen más allá del costo de instalación inicial y observen toda la vida útil del software”, afirma. “También deben saber con qué datos se han entrenado los modelos, así como los posibles sesgos que puedan existir. Y deben proporcionar barandillas para proteger sus modelos de alucinaciones, sesgos y mala calidad.”

Conclusión

Las organizaciones deben ser cautelosas al introducir la IA en el ciclo de vida de desarrollo de software, pero los procesos sólidos de revisión y prueba pueden ayudar a mitigar los riesgos, según Johnson.

“Dicho esto, es importante que las organizaciones se protejan contra la sobreextensión temprana”, dice. “El riesgo puede venir menos de los desarrolladores experimentados y más de los usuarios entusiastas de la línea de negocio que experimentan con estas herramientas, ya que pueden situarse fuera de las estrategias que rodean el diseño y la implementación de controles.”

Los ejecutivos también deben ser conscientes de las implicaciones legales y de privacidad, añade Johnson.

“Especialmente si las herramientas de generación de código están basadas en la nube o utilizan interfaces de programación de aplicaciones externas, es necesario evaluar los procesos de manejo de datos e incorporar al personal de seguridad pertinente en el proceso de selección de herramientas”, afirma. “Además, hay que asegurarse de que cualquier código utilizado para ajustar las herramientas de generación de código cumple los requisitos de licencia”.

En pocas palabras, es aconsejable que las empresas comiencen a pensar en implementar IA para generar código como pensarían en contratar a un nuevo ingeniero, dice Lee.

“Las organizaciones necesitan generar confianza en los datos que genera la IA y no deben esperar la perfección de inmediato”, añade.

Temas relacionados

Linda Rosencrance
Technology journalist
Linda Rosencrance
Editora

Linda Rosencrance es una escritora, editora y autora independiente en el área de Boston. Rosencrance cuenta con más de 30 años de experiencia como reportera de investigación, escribiendo para diversos periódicos en el área metropolitana de Boston. Ha escrito sobre tecnología de la información desde 1999. Sus artículos han aparecido en publicaciones como MSDynamicsworld.com, TechTarget, TechBeacon, IoT World Today, Computerworld, revista CIO, entre otros. Rosencrance fue editora de un sitio de noticias de tecnología y gestionó y editó un blog dedicado a la analítica de datos. También es autora de documentos técnicos, estudios de caso, libros electrónicos y publicaciones en…