Proteger secretos corporativos en la era de Chat GPT: ¿cómo deben usar las empresas y trabajadores la IA sin filtrar datos sensibles?

robot

 

• Desde ERNI, empresa suiza de ingeniería de software especializada en soluciones complejas, advierten “desde que se introducen datos en herramientas como ChatGPT, perdemos el control de estos”.

• Recientemente, la UE ha aprobado la primera regulación sobre la Inteligencia Artificial con el objetivo de “garantizar mejores condiciones de desarrollo y uso” de la IA y promover que esta tecnología sea “segura, transparente, rastreable, no discriminatoria y respetuosa con el medio ambiente”.

Los nuevos modelos de lenguaje inteligente han generado nuevas oportunidades en el ámbito empresarial. ChatGPT, diseñado para aprender a partir de grandes cantidades de datos y generar respuestas coherentes basadas en modelos de Deep Learning, está ofreciendo la posibilidad de agilizar tareas y hacer más eficientes determinados procesos dentro del ecosistema empresarial.

No obstante, esta herramienta también supone una puerta bidireccional para ciberataques y filtraciones de información confidencial de la propia empresa y de clientes externos. Desde ERNI, empresa suiza de ingeniería de software especializada en soluciones complejas, advierten “desde que se introducen datos en herramientas como ChatGPT, perdemos el control de estos”. En este sentido, Alberto Martín, director de Tecnología e Innovación en ERNI Consulting España, explica que “si bien la IA ofrece un potencial transformador para las empresas, también presenta desafíos en términos de protección de datos confidenciales y personales”.

Para proteger la información confidencial de las empresas y garantizar las buenas prácticas del uso de la IA, es esencial capacitar adecuadamente a los empleados para que sean conscientes de qué tipo de información se puede compartir de manera segura para evitar la revelación involuntaria de secretos corporativos.

Martín apunta a que “algunas empresas están optando por trabajar con sus propias herramientas de IA Generativa en Cloud para que las organizaciones sean capaces de trabajar con datos internos y dentro de un circuito cerrado de información que no permita el acceso público a estos datos”. En estos casos, es fundamental comprobar que los proveedores de Cloud correspondientes cumplan con su deber de garantizar la protección de datos.

La UE ultima la primera regulación sobre la IA

De esta manera, con la tecnología avanzando a un ritmo sin precedentes, este mismo mes de junio los miembros del Parlamento Europeo aprobaron empezar las negociaciones entre Estados miembro y el Consejo de la UE sobre el ‘EU AI Act’, la primera regulación sobre la Inteligencia Artificial (IA).

Con el objetivo de alcanzar un acuerdo definitivo antes del cierre del año, la UE ha decidido dar este paso para “garantizar mejores condiciones de desarrollo y uso” de la IA y promover que esta tecnología sea “segura, transparente, rastreable, no discriminatoria y respetuosa con el medio ambiente”. Esta normativa, en su primera propuesta, diferencia tres niveles diferentes de regulación en función de los riegos potenciales de los sistemas.

Sociedad