Eventos 507 Periodismo Coberturas

Riesgos de Ciberseguridad de la IA para las organizaciones

La Inteligencia Artificial (IA) ha ganado terreno en los últimos años, especialmente con aplicaciones populares como ChatGPT y Gemini. Estas herramientas han facilitado numerosas tareas y automatizado procesos en diversos ámbitos laborales. Sin embargo, el uso de esta tecnología también trae consigo riesgos significativos para la seguridad de la información, tanto personal como organizacional.

Uno de los mayores riesgos asociados al uso de aplicaciones de IA es la incertidumbre sobre el manejo de datos privados. José Amado, gerente de la Práctica de Identidades Digitales de SISAP, destaca que “la tecnología nos brinda una ventana al mundo, pero también puede abrir puertas a la vulnerabilidad de nuestra información personal y organizacional.” Amado explica que aplicaciones como ChatGPT requieren grandes cantidades de datos para su entrenamiento, datos que son almacenados en la nube y que escapan del control de los usuarios.

Amado ejemplifica este riesgo con un caso común en las oficinas: “Imaginemos que un colaborador necesita resumir un reporte ejecutivo y utiliza ChatGPT para hacerlo. Esto significa que el contenido del reporte, información de la empresa y otros datos sensibles son ahora accesibles para la aplicación y están almacenados en la nube, fuera de nuestro alcance.” Este tipo de prácticas puede exponer a la organización a graves riesgos de privacidad y seguridad.

Vulnerabilidades en Aplicaciones Generadas por IA

La IA también se utiliza para programar nuevas aplicaciones y sitios web, facilitando la labor de los programadores. Según Amado, más del 65% del código de las aplicaciones actuales se está escribiendo con IA. Sin embargo, esto puede generar códigos similares o idénticos para múltiples usuarios, creando vulnerabilidades compartidas entre diferentes organizaciones.

“Si todos utilizan el mismo código generado por IA, también comparten las mismas vulnerabilidades, facilitando el acceso a cibercriminales,” advierte Amado. Este riesgo aumenta a medida que la demanda de nuevas aplicaciones y sistemas crece. Por ello, Amado recomienda a las organizaciones recurrir a métodos tradicionales de programación, que aunque son más lentos, ofrecen mayor seguridad a largo plazo.

Amenazas de Aplicaciones de IA Maliciosas

Además de herramientas útiles como ChatGPT y Gemini, existen aplicaciones de IA con fines maliciosos, diseñadas para ayudar a cibercriminales. Ejemplos como WormGPT, FraudGPT y PoisonGPT pueden crear correos de phishing creíbles o escribir código para programas maliciosos, aumentando el riesgo de ciberataques y ransomware para las organizaciones.

Amado subraya la importancia de estar al tanto de estas amenazas y aconseja a las organizaciones que utilizan IA para programación o aplicaciones, que se acerquen a empresas de ciberseguridad como SISAP. Estas empresas pueden realizar análisis de vulnerabilidades y fortalecer las defensas contra ciberataques.