Fiabilidad

ChatGPT Enterprise no llega a ser un verdadero LLM de “categoría empresarial”

Resumen

ChatGPT Enterprise o empresarial es el último LLM de OpenAI diseñado para dar soporte a grandes organizaciones, pero no es realmente "de grado empresarial". He aquí por qué.

A principios de esta semana, OpenAI causó sensación al anunciar el lanzamiento de ChatGPT Enterprise, una versión de pago del popular chatbot ChatGPT diseñada para organizaciones modernas.

ChatGPT Enterprise utiliza el modo de lenguaje grande (LLM) GPT-4, que ofrece un rendimiento dos veces mayor que su predecesor y viene sin límites de uso. También incluye una ventana contextual de 32.000 tokens, que permite a los usuarios introducir entradas cuatro veces más largas.

OpenAI lo anuncia en su blog:

“Lanzamos ChatGPT Enterprise, que ofrece seguridad y privacidad de nivel empresarial, acceso ilimitado a GPT-4 de mayor velocidad, ventanas contextuales más largas para procesar entradas más largas, funciones avanzadas de análisis de datos, opciones de personalización y mucho más.”

La oferta de seguridad de grado empresarial de OpenAI incluye cifrado en tránsito y en reposo con AES-256 y TLS 1.2+.

El lanzamiento se produce pocos meses después de que Microsoft se comprometiera a invertir 10.000 millones de dólares en ChatGPT y después de que más del 80% de las empresas de Fortune 500 hayan experimentado con el popular chatbot desde su lanzamiento en noviembre de 2022.

¿Por qué es importante ChatGPT Enterprise?

A alto nivel, el lanzamiento de ChatGPT Enterprise es significativo porque, a diferencia de ChatGPT, no utiliza los datos introducidos en los prompts para entrenar los modelos propietarios de OpenAI. Esto significa que los empleados de una organización pueden introducir avisos sin preocuparse de que se compartan con terceros no autorizados.

Jim Hare, analista de Garner, declaró a Techopedia:

“OpenAI se lanza al ruedo lanzando ahora un producto apto para casos de uso empresarial en lugar de ofrecer una herramienta más orientada a consumidores/individuos.”

Estas garantías de privacidad son muy necesarias, ya que la adopción de la IA generativa por parte de las empresas ha sido una lucha cuesta arriba, con compañías como Apple, Wells Fargo, JP Morgan y Verizon aplicando restricciones a la tecnología debido a la preocupación por la privacidad y la fuga de datos.

Añadió Hare:

“Las empresas establecieron políticas que prohibían el uso de ChatGPT porque les preocupaba que los datos de su empresa se convirtieran en parte del conjunto de entrenamiento del modelo y que los datos no fueran seguros. ChatGPT Enterprise resuelve estas dos grandes preocupaciones”.

Información errónea y alucinaciones

Aunque ChatGPT es un paso en la dirección correcta respecto a su predecesor, Hare señala que deja sin abordar algunos problemas importantes, sobre todo en lo que se refiere a la precisión de los resultados y las alucinaciones.

En general, uno de los mayores problemas de los LLM es que tienden a alucinar y a inventarse hechos. Están diseñados para procesar la pregunta de un usuario y predecir qué palabras responderán mejor a su pregunta. No pueden pensar de forma autónoma ni comprobar los hechos como lo hace una persona.

En otras palabras, los chatbots son propensos a difundir información errónea, lo que supone un importante obstáculo para su adopción por parte de las empresas, ya que compartir información incorrecta o inexacta con los clientes o el público en general puede tener graves consecuencias legales.

Hace poco, un locutor de radio decidió demandar a OpenAI por difamación después de que el chatbot generara una denuncia falsa que le acusaba de malversación de fondos. En otro caso en Bélgica, una viuda alegó que un chatbot animó a su marido a suicidarse, algo que GPT-3 también habría hecho en el pasado.

En conjunto, estos casos indican que las empresas se exponen a importantes riesgos legales y de reputación si utilizan IA generativa para producir o habilitar determinados productos o servicios.

Transparencia y propiedad intelectual

Otra cuestión importante que ChatGPT Enterprise no aborda es la falta de transparencia sobre los datos en los que se basan los modelos de OpenAI. Esto no sólo dificulta la detección de posibles sesgos en los datos de entrenamiento, sino que también impide a las organizaciones ver si el modelo se ha entrenado con material protegido por derechos de autor u otra propiedad intelectual.

En la actualidad, OpenAI está en el centro de una ola de controversias por el supuesto “scraping” de material protegido por derechos de autor de Internet y otras fuentes.

Por ejemplo, en junio, un grupo de personas anónimas demandó a OpenAI por supuesta violación de las leyes de privacidad, argumentando que la organización extrajo información de libros, artículos, sitios web y mensajes, así como información personal, sin consentimiento.

En la demanda se calculan hasta 3.000 millones de dólares en daños potenciales y millones de personas perjudicadas.

En otro caso ocurrido en julio, la cómica Sarah Silverman y los autores Christopher Golden y Richard Kadrey anunciaron que demandaban a OpenAI por supuesta infracción de derechos de autor debido al uso de sitios web de bibliotecas clandestinas adquiridos ilegalmente para entrenar sus modelos de IA.

En conjunto, estos casos ponen de relieve que las organizaciones podrían abrir la puerta a demandas por infracción de la propiedad intelectual y los derechos de autor si intentan utilizar los modelos de OpenAI para crear productos y servicios empresariales (si se considera que se han entrenado con material protegido por derechos de autor sin consentimiento).

Para complicar aún más el asunto, el enfoque de caja negra de OpenAI para la formación de modelos significa que las empresas no pueden evaluar y mitigar los riesgos potenciales por sí mismas.

Para utilizar estos modelos, tendrían que confiar en que OpenAI ha recopilado los datos de forma legal y ética, lo que supone un nivel de riesgo innecesario.

Un pequeño paso en la dirección correcta

El lanzamiento de ChatGPT Enterprise es un pequeño paso en la dirección correcta, pero aún falta mucho para que las empresas dispongan de un LLM que presente un nivel aceptable de riesgo legal y de cumplimiento.

En cierto modo, esto era de esperar, ya que los LLM son una innovación relativamente reciente y no existe una normativa exhaustiva que regule cómo deben desarrollarse, ni siquiera un marco de gestión de riesgos completo.

En definitiva, es poco probable que las organizaciones que antes se mostraban nerviosas ante ChatGPT y la IA generativa vean disipados sus temores con la nueva versión. Pero al menos ha demostrado que OpenAI está interesada en ampliar el apoyo al mercado empresarial.

Temas relacionados

Tim Keary
Editor

Desde enero de 2017, Tim Keary ha sido un escritor y reportero de tecnología independiente que cubre tecnología empresarial y ciberseguridad.