Uso responsable de la Inteligencia Artificial Generativa y modelos LLM en el entorno empresarial
TITULACIÓN NECESARIA PARA REALIZAR EL CURSO
No es necesario tener una titulación previa para poder realizar el curso.
OBJETIVOS:
Capacitar a profesionales y organizaciones para comprender, utilizar y supervisar de forma segura, ética y conforme a la normativa vigente las herramientas de inteligencia artificial generativa y los modelos de lenguaje (LLM) en el entorno empresarial.
El curso pretende que los participantes desarrollen las competencias necesarias para aprovechar las ventajas de la IA sin comprometer la seguridad, la privacidad ni el cumplimiento normativo.
Este índice está diseñado para un curso empresarial de sensibilización y formación en uso responsable de IA generativa, muy alineado con:
• RGPD
• AI Act europeo
• Políticas corporativas de seguridad y compliance y es adecuado para formación obligatoria en empresas sobre uso de herramientas como ChatGPT, Copilot o Gemini.
¿QUÉ OBTENGO AL FINALIZAR EL CURSO?
Con la realización de este curso obtienes el diploma KUPER que acredita los conocimientos adquiridos, certificando el número de horas del curso, temario desarrollado, calificación y registro, pudiéndolo baremar junto con tu experiencia laboral para la obtención del Certificado de Profesionalidad, que es un título laboral que te capacita profesionalmente y que a efectos laborales equivale a un título de FP.
También puedes optar al certificado Universitario DQ, que refuerza el reconocimiento de tu formación.
CONTENIDO DEL CURSO
• Diferencias entre IA generativa, IA tradicional y aprendizaje automático
• Qué es un modelo de lenguaje de gran tamaño (LLM)
• Cómo funcionan los modelos LLM
• Funcionamiento general de herramientas como ChatGPT, Copilot, Gemini y modelos similares
• Principales aplicaciones empresariales de los LLM
• Capacidades actuales de los modelos generativos
• Limitaciones técnicas de los LLM
• Riesgos inherentes al uso de IA generativa en entornos profesionales
• Fuga de información confidencial o estratégica
• Exposición involuntaria de datos personales
• Uso indebido de información sensible de la empresa
• Sesgos en los modelos de IA
• Errores en los resultados generados
• Dependencia tecnológica excesiva
• Falta de supervisión humana en decisiones asistidas por IA
• Impacto reputacional y legal del uso incorrecto de la IA
• Por qué los modelos LLM pueden generar información incorrecta o inventada
• Limitaciones estructurales de los modelos de lenguaje
• Tipos de errores frecuentes en herramientas como ChatGPT, Copilot o Gemini
• Respuestas plausibles pero incorrectas
• Citas, referencias o datos inventados
• Interpretaciones erróneas de instrucciones
• Señales de alerta para detectar alucinaciones de la IA
• Métodos para validar información generada por IA
• Uso de fuentes externas para verificar resultados
• Procedimientos de revisión antes de utilizar información generada
• Ejemplos prácticos de respuestas erróneas y su análisis
• Introducción de datos personales sin base legal o consentimiento
• Introducción de información confidencial de clientes o empleados
• Subida de documentos internos, contratos o información estratégica
• Uso de herramientas de IA no autorizadas por la organización
• Automatización de decisiones sin supervisión humana
• Uso de IA para generar información engañosa o manipulada
• Riesgos asociados a la reutilización automática de contenido generado
• Cómo anonimizar información antes de introducirla en un modelo
• Técnicas de seudonimización de datos
• Buenas prácticas en la redacción de prompts
• Evaluación crítica de las respuestas generadas por IA
• Verificación y validación de contenidos generados
• Uso exclusivo de herramientas corporativas aprobadas
• Procedimientos internos ante incidentes relacionados con IA
• Qué hacer ante dudas sobre el uso de herramientas de IA
• Obligaciones derivadas del Reglamento General de Protección de Datos (RGPD)
• Principios de minimización de datos y privacidad por diseño
• Responsabilidades de empresas y empleados en el uso de IA
• Regulación europea de la inteligencia artificial (AI Act)
• Requisitos sectoriales aplicables según la actividad empresarial
• Políticas internas de seguridad y privacidad en el uso de IA
• Gobernanza corporativa de la inteligencia artificial
• Roles y responsabilidades en la supervisión del uso de IA
• Ejemplos de uso correcto de herramientas de IA generativa en la empresa
• Ejemplos de uso incorrecto y riesgos asociados
• Simulaciones de situaciones de riesgo con IA
• Análisis de incidentes relacionados con uso inadecuado de IA
• Evaluación de riesgos en escenarios empresariales
• Resolución guiada de situaciones habituales en el uso de LLM
• Recomendaciones prácticas para el trabajo diario con IA generativa