Compartir

En México, las empresas adoptan cada vez más un enfoque de Inteligencia Artificial, integrando tecnologías avanzadas en cada aspecto de sus operaciones, no obstante, el 64% de las organizaciones no tiene un presupuesto destinado para ciberseguridad, el 31% no cuenta con personal asignado para dicho fin y 35% solo cuenta con una persona especializada, según los resultados del Tercer Estudio de Ciberseguridad en México 2023, de la Asociación Mexicana de Internet (AIMX).

Además, las amenazas cibernéticas en el país crecen año con año. Datos de la Universidad de Guadalajara y de la Dirección General Científica de la Guardia Nacional revelan que de septiembre de 2020 a abril de 2022 se atendieron 34,000 reportes ciudadanos en materia de ciberseguridad, principalmente relacionados con secuestro de datos bancarios, institucionales o personales.

Ante este panorama, la necesidad de medidas robustas de seguridad de datos nunca ha sido tan crítica. La rápida evolución de las tecnologías de IA, particularmente los Modelos de Lenguaje Grandes (LLMs) como ChatGPT, presenta nuevos desafíos y oportunidades en la gestión y seguridad de datos.

De acuerdo con una reciente publicación de la multinacional tecnológica EPAM Systems Inc., aliada en la transformación digital de gigantes tecnológicos como Google y Adobe, hay aspectos esenciales que las empresas deben tener en cuenta para salvaguardar su información en el tránsito hacia la optimización de sus procesos con IA.

El desafío de la predictibilidad y reproducibilidad en la IA

Los sistemas informáticos tradicionales se basan en los fundamentos de la repetibilidad y la predictibilidad. Sin embargo, los LLMs, debido a su naturaleza compleja, a menudo producen resultados que no son fácilmente reproducibles, planteando preocupaciones significativas sobre la confiabilidad y la integridad de los datos.

El uso de LLMs implica el procesamiento de vastas cantidades de datos, incluida información sensible y personalmente identificable. Esto plantea preguntas apremiantes sobre la privacidad de los datos y el riesgo de exposición. Los problemas críticos incluyen:

  • Eliminación de datos:

Una vez que los datos se introducen en un modelo de IA, eliminarlos puede ser difícil, si no imposible, especialmente cuando se trata de conjuntos de datos a gran escala que evolucionan con el tiempo.

  • Confidencialidad
    La visibilidad de datos potencialmente mal clasificados o no protegidos es considerablemente mayor en los sistemas de IA, lo que amplifica los riesgos relacionados con las violaciones de datos.
  • Obligaciones del procesador: Asegurar que los usuarios puedan optar por participar o no participar en el procesamiento de datos se está volviendo cada vez más complejo, lo que dificulta proteger efectivamente la privacidad de los usuarios finales.
  • Pedigrí y procedencia de los datos: En la era de la computación en la nube y los LLMs, rastrear la procedencia de los segmentos de datos para verificar su autenticidad presenta nuevas complejidades técnicas.
  • Un llamado a la acción para las empresas con los datos y la IA
    El cambio hacia la IA requiere un cambio de paradigma en cómo percibimos la seguridad de datos y la gestión de riesgos. Es crucial para las empresas: a) tener en cuenta aceptar la naturaleza de «escala de grises» de la seguridad de IA, reconociendo que las visiones binarias de la seguridad de los datos son insuficientes; b) equilibrar la innovación con la mitigación de riesgos, asegurando que las exploraciones en IA no comprometan la seguridad de los datos; c) revisar Estrategias de Seguridad: Adoptar enfoques de ciberseguridad multifacéticos y ágiles que evolucionen con la tecnología.
  • Una mirada segura hacia el futuro

La integración de la IA en los procesos empresariales no es solo una oportunidad, es una necesidad para mantenerse competitivo. Sin embargo, esto debe ir acompañado de estrategias que garanticen la integridad, confidencialidad y cumplimiento de los datos con las regulaciones en constante evolución.

A medida que continuamos avanzando en nuestras capacidades de IA, el enfoque en desarrollar sistemas seguros, transparentes y confiables sigue siendo primordial.