Inteligencia artificial y ciberseguridad: ¿estamos preparados para regular esta combinación?

Inteligencia artificial y ciberseguridad: ¿estamos preparados para regular esta combinación?

El presente artículo fue creado con IA (Chat GPT - Prompt: Preparame un articulo sobre seguridad cibernética, relacionados con un tema actual en Argentina, dentro del aspecto jurídico, que tenga 500 palabras, para ser publicado en un Blog, indicando las fuentes)


    La inteligencia artificial (IA) está transformando todo a su paso, y la ciberseguridad no es la excepción. Herramientas de IA pueden detectar amenazas en segundos… pero también pueden ser usadas por delincuentes para lanzar ataques automatizados, suplantar identidades o vulnerar sistemas críticos. Frente a este panorama, surge una gran pregunta: ¿está Argentina jurídicamente preparada para regular el uso de IA en el ámbito de la ciberseguridad?




Un marco legal que aún no llega

    

    A nivel internacional, organismos como la OCDE o la Unión Europea ya avanzaron con principios y proyectos de ley para regular la inteligencia artificial. Hablan de transparencia, control humano y responsabilidad. En cambio, en Argentina, aún no contamos con una ley específica sobre IA, y mucho menos sobre su uso en entornos digitales sensibles como la ciberseguridad.

    Esto genera un vacío legal frente a situaciones cada vez más frecuentes, como ataques diseñados por algoritmos, deepfakes utilizados en fraudes o softwares que recopilan datos sin intervención humana.


¿Quién se hace responsable?


    Uno de los grandes desafíos jurídicos es determinar quién responde si una IA comete un delito. ¿El programador? ¿La empresa que la vende? ¿El usuario que la ejecuta? Hoy, las leyes penales argentinas —como la de delitos informáticos (Ley 26.388)— no contemplan estas situaciones. Se aplican figuras tradicionales que no toman en cuenta el nivel de autonomía de estas tecnologías.


IA en manos del Estado: ¿herramienta o amenaza?


    Otro punto delicado es el uso de IA por parte del propio Estado. Herramientas de vigilancia, análisis predictivo o ciberpatrullaje pueden ser útiles para prevenir delitos. Pero sin regulación, también pueden vulnerar derechos fundamentales como la privacidad, la libertad de expresión o el principio de inocencia. Argentina todavía no tiene límites claros sobre este tipo de prácticas.


¿Y ahora qué?


    El escenario es claro: necesitamos una ley marco sobre inteligencia artificial que dé respuestas a estos desafíos. Además, sería clave actualizar la Ley de Protección de Datos Personales y la de delitos informáticos para contemplar los nuevos riesgos tecnológicos.

    Mientras tanto, desde la academia, el sector privado y algunos organismos públicos ya se está impulsando el debate. El gran desafío es lograr una regulación que acompañe la innovación sin dejar de proteger los derechos fundamentales.


    ¿Qué opinás? ¿Debería la Argentina anticiparse con una regulación o esperar a que los problemas crezcan? Dejá tu comentario o compartí esta nota si te interesa el cruce entre derecho, tecnología e inteligencia artificial.


Fuentes: Infobae, El Cronista y La Nación

Comentarios

Publicar un comentario