x

    Acepto recibir información comercial
    ChatGpt

    Riesgo de usar ChatGPT en su empresa

    Algunas empresas usan esta nueva herramienta que es ChatGPT y usted se plantea probarla por las ventajas que ofrece y porque no quiere “quedarse atrás” respecto a sus competidores. Vea qué riesgo de usar ChatGPT en su empresa asume y cómo actuar si la adquiere.

    Ventajas de usar ChtGPT

    El uso de inteligencia artificial es cada vez más común entre empresas, ya que permite automatizar tareas, mejorar la eficiencia y la atención al cliente, personalizar las interacciones con los clientes y recopilar datos para tomar decisiones informadas.

    Ahora bien, si decide utilizar una herramienta de este tipo, es importante que tenga en cuenta los riesgos asociados. Vea cuáles son y cómo actuar.

    Qué es chatGPT?

    La inteligencia artificial funciona principalmente a través de los datos que se le suministran y que utiliza para “aprender” y dar el servicio solicitado.

    Por tanto, si usted usa ChatGPT para automatizar tareas o para mejorar la eficiencia de algún proceso, es posible que esté volcando información sensible de su compañía (que puede contener datos personales o incluso información confidencial) en un programa informático de un tercero.

    Utilice un versión de pago de ChatGPT

    Para salvar el escollo que ello representa, tenga en cuenta que existen distintas versiones del producto:

    • Versión pública y gratuita.No dispone de filtros ni garantías, por lo que corre el riesgo de que la información sensible que introduzca se utilice para “entrenar” los modelos de la herramienta. 

    Así, esta información podría aparecer a otros usuarios cuando hagan una consulta.

    • Versión no pública o API (de pago) . Según el proveedor de ChatGPT, desde marzo de 2023 en la versión de pago estos datos no se utilizarán para entrenar los modelos.  

    Además, el uso de esta versión está cubierto por un conjunto de garantías contractuales para dar cumplimiento a la normativa europea de protección de datos personales, que no existe en caso de usar la versión gratuita.

    El uso de ChatGPT en la empresa implica riesgos. Evite las versiones gratuitas que no ofrecen ninguna garantía frente a la difusión de información sensible y revise el contenido creado para garantizar que es lícito y apropiado.

    Creación de contenidos con Inteligencia artificial

    Si utiliza la inteligencia artificial para crear contenido en forma de texto o imágenes (por ejemplo, para preparar respuestas a preguntas frecuentes o para fines de promoción de ventas y marketing), dicho contenido podría ser en parte o en su totalidad propiedad de un tercero .

    Por tanto, al utilizarlo se expone al riesgo de infringir los derechos de un tercero y que éste le reclame su autoría y le solicite una indemnización económica por haber utilizado tales contenidos sin autorización o licencia.

    Consejo sobre IA

    En consecuencia, utilice estos contenidos como una mera orientación a efectos de crear los suyos propios o tomar decisiones, pero sin hacer un uso o explotación comercial evidente del material que haya creado la herramienta.

    chatgpt

    Qué política interna debería aprobar la empresa antes de permitir el uso de ChatGPT

    Antes de autorizar el uso de ChatGPT en una empresa, lo más prudente no es empezar por la herramienta, sino por las reglas internas. En muchas empresas el principal riesgo no surge porque la tecnología sea ilícita, sino porque cada empleado la usa a su manera, sin criterios homogéneos sobre qué información puede introducir, para qué tareas está permitida o quién debe revisar el resultado antes de utilizarlo frente a clientes, proveedores o administraciones. Por eso conviene aprobar una política de uso específica, aunque sea breve, que delimite claramente los supuestos autorizados y los prohibidos. 

    La AEPD viene insistiendo en la necesidad de gobernar estos tratamientos desde la responsabilidad proactiva y de analizar cómo se integran en la operativa real de la organización. Esa política debería precisar, por ejemplo, si la herramienta puede emplearse para redactar borradores internos, resumir documentos, preparar ideas comerciales, traducir textos o clasificar información, pero dejando fuera usos especialmente delicados, como introducir datos de clientes identificados, secretos empresariales, estrategias de precios, contratos no publicados, credenciales de acceso o expedientes laborales. 

    También es recomendable definir quién puede aprobar nuevos usos, qué departamentos quedan sometidos a mayor control y cuándo resulta obligatoria la revisión humana previa antes de reutilizar el contenido generado. De ese modo, la empresa reduce errores y, además, puede acreditar que ha actuado con diligencia si más adelante surge una incidencia.

    Qué controles conviene fijar sobre datos, documentos y resultados

    El control no debe centrarse sólo en “qué plan se contrata”, sino también en qué entra y qué sale del sistema. Aunque determinadas soluciones empresariales ofrezcan mejores garantías, la empresa sigue siendo responsable de decidir qué información comparte con la herramienta y cómo utiliza después la respuesta. OpenAI indica en su documentación oficial que, por defecto, no entrena sus modelos con los datos empresariales en ChatGPT Business, Enterprise y la API, y que existen controles de privacidad, retención y cumplimiento para organizaciones. Ahora bien, eso no elimina la obligación de la empresa de clasificar previamente la información y limitar el acceso según su sensibilidad.

    Resulta aconsejable establecer niveles internos de información. Por ejemplo, puede permitirse el uso de datos públicos o anonimizados, restringirse la información interna no estratégica y prohibirse expresamente el volcado de datos personales identificables, documentación confidencial, anexos contractuales, litigios en curso o información financiera no publicada, salvo que exista una base jurídica clara, medidas adicionales y una evaluación previa. Esta clasificación práctica ayuda mucho más que una simple recomendación genérica de “actuar con prudencia”, porque da pautas concretas a los trabajadores sobre lo que sí y lo que no pueden hacer.

    Tampoco conviene olvidar el control del resultado. ChatGPT puede ser útil para generar borradores, esquemas o primeras versiones, pero la empresa no debería utilizar de forma automática el texto resultante en comunicaciones externas, contenidos web, contratos, respuestas a clientes o documentos técnicos sin una validación posterior. El riesgo no es sólo jurídico; también es reputacional. 

    En qué ha cambiado realmente el marco legal y por qué el artículo debe actualizarse

    El Reglamento europeo de IA, conocido como AI Act, entró en vigor el 1 de agosto de 2024 y su calendario de aplicación ya está en marcha. Las prohibiciones sobre prácticas inaceptables y las obligaciones de alfabetización en IA empezaron a aplicarse el 2 de febrero de 2025; además, las obligaciones para proveedores de modelos de propósito general comenzaron a ser aplicables el 2 de agosto de 2025, y la mayor parte del Reglamento será plenamente aplicable desde el 2 de agosto de 2026.

    Esto no significa que cualquier empresa usuaria de ChatGPT tenga ahora las mismas cargas que un desarrollador del modelo, pero sí implica un cambio importante: ya no estamos ante un terreno completamente huérfano de regulación. A la normativa general ya existente —protección de datos, propiedad intelectual, competencia desleal, publicidad, secreto empresarial o responsabilidad contractual— se suma ahora un marco europeo específico sobre IA que ordena el ecosistema y exige una gobernanza más seria. Para una pyme, la consecuencia práctica es clara: el uso de estas herramientas debe integrarse dentro de su sistema de cumplimiento, no tratarse como una simple utilidad informal.

    Además, el debate legal ya no se limita a si la versión gratuita es más arriesgada que una solución empresarial. También importa la trazabilidad del uso, la supervisión humana, la formación de la plantilla, el análisis de datos personales, la revisión de proveedores y la capacidad de corregir resultados erróneos.

    Cómo implantar ChatGPT con un enfoque útil, pero jurídicamente prudente

    Si la empresa decide utilizar ChatGPT, lo razonable es implantarlo de forma gradual y acotada. Un buen punto de partida es destinarlo a tareas de bajo riesgo: generar borradores internos, resumir textos no confidenciales, proponer estructuras de correos, ordenar ideas o ayudar en trabajos preparatorios que siempre vayan a revisarse después. En cambio, conviene ser mucho más restrictivo en áreas como recursos humanos, reclamaciones, atención jurídica, presupuestos complejos, decisiones sobre clientes o elaboración de contenidos técnicos que puedan inducir a error si contienen inexactitudes.

    También es recomendable nombrar a una persona responsable o, al menos, fijar un circuito de supervisión. No hace falta crear un comité, pero sí determinar quién valida los usos permitidos, quién revisa incidencias, qué proveedor se ha elegido, qué condiciones contractuales se aplican y cuándo debe intervenir el departamento legal o el asesor de protección de datos. Este enfoque reduce la improvisación y permite reaccionar con rapidez si se detecta un uso indebido, una fuga de información o una respuesta problemática generada por la herramienta.

    Por último, conviene revisar de forma periódica si la solución contratada sigue siendo adecuada. La empresa no debería dar por hecho que todas las modalidades o configuraciones ofrecen idénticas garantías. 

    Actúe con prudencia al usar ChatGPT

    Riesgo de usar ChatGPT en su empresa:

    Actúe con Cautela, es recomendable que su empresa elabore unas directrices de uso para concienciar de estos riesgos a los trabajadores y minimizar riesgos.

    De igual modo, también es aconsejable que implemente medidas de control de calidad para garantizar que el contenido generado sea apropiado y lícito. 

    Recuerde que, si al usar estas herramientas se infringen derechos u otras normas, el responsable último es la empresa, no sus trabajadores.